CI SONO TUTELE NEI CONFRONTI DELL’INTELLIGENZA ARTIFICIALE USATA COME STRUMENTO DI RECLUTAMENTO DEL PERSONALE?
di Alessandra Di Giovambattista

Ormai non si fa altro che sentir parlare di intelligenza artificiale (IA). Ma di fronte a quale rivoluzione ci troviamo? È la rivoluzione del nuovo secolo, o meglio del nuovo millennio; per intelligenza artificiale ci si riferisce alle capacità che possono avere delle macchine appositamente progettate per emulare, in modo comunque limitato, alcune delle capacità umane quali il ragionamento, l’apprendimento e la pianificazione. Essa permette di relazionare la macchina con l’ambiente esterno, cercando di risolvere problemi o di raggiungere un preordinato scopo. L’intelligenza artificiale gestisce in autonomia nozioni precedentemente acquisite e immesse dall’uomo, così da elaborare risposte e pseudo ragionamenti.
A differenza di quanto si possa credere si parla di intelligenza artificiale da più di 50 anni; ma è solo con l’incremento della potenza dei computer, che riescono ad elaborare grandi quantità di dati, e l’evolversi della costruzione e dell’analisi degli algoritmi che l’intelligenza artificiale ha compiuto enormi passi in avanti. Tanto che anche l’Unione Europea si è posta il problema della necessità della trasformazione digitale delle società. Volendo fare degli esempi molto limitati notiamo che l’intelligenza artificiale è alla base: delle analisi online che utilizzano motori di ricerca che sfruttano la massa di informazioni e dati forniti dagli utenti; dei software utilizzati per organizzare i rifornimenti di magazzino dei beni e predisporre gli inventari delle aziende; degli assistenti virtuali programmati per rispondere a determinate domande; dei programmi di traduzione automatica, di lettura, di scrittura e di riproduzione dei sottotitoli dei programmi video; dei software che assicurano alcune funzioni di sicurezza delle autovetture come ad esempio i sensori Vi-Das che individuano eventi pericolosi e possibili situazioni di incidenti; dei navigatori stradali per la determinazione dei percorsi più efficienti.
Tra le mille possibilità di utilizzo dell’intelligenza artificiale troviamo anche la funzione c.d. di recruitment, ossia di scelta ed ingaggio di lavoratori di aziende pubbliche o private che, nel brevissimo futuro, sembra dover prendere il posto delle tradizionali tecniche di reclutamento. Infatti oltre ai citati settori di applicazione dei sistemi di algoritmi, che tuttavia rappresentano davvero una minima parte degli utilizzi che oggi si possono fare delle tecnologie basate sull’IA, si assiste ad un loro utilizzo anche nell’ambito della selezione del personale, della sua assegnazione ad incarichi e funzioni, della valutazione dei risultati finalizzata anche al riconoscimento di promozioni e premi aziendali. Naturalmente il successo nell’uso degli algoritmi si basa sulle modalità con cui essi sono costruiti e sulla tipologia e quantità di informazioni in essi introdotti.
In via generale si sottolineano alcuni aspetti positivi riconducibili all’uso dell’intelligenza artificiale che consente di diminuire le risorse (in termini di tempo e di denaro) per l’attività di valutazione dei candidati, arrivando a scegliere i migliori. In particolare: gli algoritmi possono valutare grandi quantità di curriculum ordinandoli per esperienza e capacità tecniche, inoltrando ai candidati scelti dei messaggi personalizzati per il proseguimento dell’attività di ingaggio; l’intelligenza artificiale può essere programmata per ridurre i tempi di risposta ai candidati e la mole di lavoro a carico dei soggetti preposti all’attività di reclutamento; il colloquio con i candidati può essere gestito con rapidità e con uno sguardo verso altre qualifiche più confacenti alle caratteristiche ed alle capacità dei candidati stessi; l’intelligenza artificiale può archiviare e catalogare quantità ingenti di curriculum e rielaborarli anche per futuri nuovi contatti e finalizzarli per la selezione di candidati che meglio si prestino alla copertura di posizioni aperte anche utilizzando interviste virtuali che sono impostate sull’analisi delle espressioni facciali, del tono della voce, della gestualità e del lessico utilizzato dai soggetti; utilizzando gli algoritmi si può inviare tutta la documentazione burocratica necessaria per l’assunzione e si possono fornire tutte le informazioni iniziali per il primo impiego.
Tuttavia l’IA non presenta solo vantaggi, occorre infatti soffermarsi su quelli che potrebbero essere i problemi del prossimo futuro. Indubbiamente la criticità più sentita riguarda la reale possibilità che l’IA possa soppiantare alcune delle attività lavorative che oggi comportano mansioni ripetitive, dove non viene pertanto richiesta capacità di analisi, atteggiamento critico e creatività. In via generale occorre sottolineare che i criteri che impostano i software utilizzati dall’IA devono essere compatibili con la normativa giuridica vigente in un determinato paese; particolare attenzione va anche posta alla normativa antidiscriminatoria. Infatti poiché l’intelligenza artificiale si basa su dati storici può accadere che i risultati dell’analisi di ricerca ed assunzione del personale, anche se involontariamente, vengano influenzati negativamente da situazioni passate in cui la scelta dei lavoratori si basava su pregiudizi che davano luogo a scelte discriminatorie (in particolare alle preferenze di genere che hanno sempre penalizzato il lavoro femminile). Inoltre si pensi alla difficoltà di riconoscimento che potrebbero avere le nuove tipologie di approccio al lavoro, utilizzate dalle giovani future leve, da parte dell’IA che potrebbe non riconoscerle solo perché non presenti nel data base. Così come alcune fasce di potenziali lavoratori, ad esempio provenienti da contesti differenti o di etnia o fede religiosa non presenti in un dato mercato del lavoro, non potrebbero accedere al reclutamento del personale perché l’algoritmo, essendo stato caricato con dati passati, non può tener conto di modifiche del mondo del lavoro, se non con tempi più lenti rispetto alla realtà. Ciò implicherebbe delle ricadute negative, che potrebbero ampliare la già presente forbice di disuguaglianza sociale; ad esempio si è riscontrato che un software di scelta di personale, basato sul codice postale per individuare la residenza dei candidati, poteva escludere determinati soggetti perché abitanti in zone di periferia e marginali, fino ad incrociare in alcuni casi la problematica dell’etnia dei candidati e produrre quindi scelte discriminatorie. Ma si è visto anche come i giudizi sui social network, come ad esempio i “mi piace” (c.d. like), potevano, mediante incroci dei dati utilizzati, penalizzare i candidati in ragione del credo religioso, dell’etnia, dell’orientamento sessuale, dell’appartenenza politica, nonché della propria situazione sanitaria. In altri casi si è visto che l’algoritmo assegnava premi di produttività in misura prevalente a lavoratori maschi, appartenenti ad una certa fascia di età, ben lontano quindi dal riconoscere il merito in ragione dell’effettivo ritorno in termini di efficienza ed efficacia dell’attività prestata.
In via generale la più forte critica che si può sollevare riguarda il fatto che un algoritmo si basa su dati esclusivamente quantitativi, non potendo fare scelte in ragione dell’aspetto qualitativo del lavoro da valutare. Così come non saprebbe considerare situazioni innovative di prodotto o di processo perché ad esso sconosciute.
Aspetti che inoltre andrebbero chiariti riguardano come può un lavoratore sapere se la sua assunzione o il suo diniego siano da imputare ad una scelta fatta attraverso un algoritmo, e come può il lavoratore stesso verificare se tale scelta sia stata legittimamente presa in rispetto alle normative vigenti in materia di lavoro e di tutela dei diritti. Un primo strumento che potrebbe aiutare in tali fattispecie si individua nell’articolo 2 del decreto legislativo 216 del 2003; in esso si indica che per escludere qualsiasi forma di discriminazione occorre garantire il principio di parità, il quale comporta che non sia praticata alcuna discriminazione diretta o indiretta. Solo nei casi in cui i lavoratori reclutati mediante delle piattaforme online fossero riconosciuti come lavoratori dipendenti sarebbe sufficiente fornire elementi di fatto dai quali si possa presumere l’esistenza di atteggiamenti e comportamenti discriminatori; solo in tal caso infatti spetterebbe al datore di lavoro dimostrare che l’algoritmo utilizzato per la scelta dei lavoratori non presenti caratteristiche discriminatorie.
Già nel 2020 il libro bianco della Commissione europea in materia di intelligenza artificiale ha sottolineato, a fianco alle potenzialità, i possibili rischi che la pongono come un sistema di decisioni e scelte che nel futuro prossimo potrebbero non tutelare a dovere gli esseri umani. Occorre porre un argine sulla possibilità che i lavoratori siano soggetti esclusivamente ad azioni e decisioni elaborate da sistemi di intelligenza artificiale; questi tutt’al più possono essere concepiti come strumenti di supporto, ma non di sostituzione, alle scelte umane. Ad esempio si è visto che alcuni programmi di intelligenza artificiale per il riconoscimento facciale facciano più fatica ad identificare le donne di colore, rispetto a quelle di carnagione chiara, con ciò evidenziando delle distorsioni legate sia al genere sia alla razza. Di fatto mancano, ad oggi, delle norme che disciplinino la trasparenza e la conoscenza della tipologia degli algoritmi usati nella funzione di ricerca e reclutamento dei lavoratori. La situazione più paradossale che si potrebbe avere si riscontra nella possibilità che l’algoritmo vada a pescare, anche all’insaputa del suo creatore, nella miriade di dati su cui si poggiano le sue conoscenze ed inizi a fare connessioni logiche inaspettate e non programmate per le finalità iniziali, creando così, situazioni discriminatorie e anche illegittime in termini di scelte dei lavoratori.
Sempre sul tema si evidenzia che alcuni programmi utilizzati negli USA per valutare e scegliere il personale lavorativo si basano su video interviste online oppure su sfide basate su giochi elettronici. E’ evidente che tali processi di scelta vanno a penalizzare i lavoratori più anziani meno rapidi di giocatori giovani ed esperti! Tale aspetto induce a ritenere come sia distorto il principio per cui tutta la battaglia si giocherà esclusivamente sulla rapidità delle scelte e delle decisioni e non già sulle capacità, saggezza ed esperienza dei lavoratori. Ciò comporta un’ipotesi di futuro dove la rapidità la farà da padrona, dove l’uomo non potrà più valutare criticamente le proprie azioni ed i lavori assegnatigli; ma più in generale, anche le modalità di vita ne saranno influenzate, assisteremo a scelte e ad attività che produrranno sempre più freddezza ed automatismo e che scalzeranno l’approccio umano basato sull’attenzione ai rapporti interpersonali. La suddetta situazione ha quindi dato luogo a cause legali fondate sui risultati distorti derivanti dai processi di reclutamento mediante intelligenza artificiale, che implicano spesso anche un atteggiamento discriminatorio nei confronti del sesso femminile e delle minoranze. In particolare alcune società hanno abbandonato dei modelli di intelligenza artificiale per il reclutamento del personale perché questi software sceglievano candidati maschi rispetto a quelli femmine in quanto la serie storica dei dati sull’occupazione si basava, giocoforza, su numeri quasi tutti al maschile.
In conclusione diamo uno sguardo a come negli Stati Uniti ed in particolare nella città di New York una legge locale (la n. 1894-A) abbia dato delle direttive ai datori di lavoro che usano l’intelligenza artificiale per l’attività c.d. di recruitment. In particolare la legge ha cercato di tutelare i lavoratori da possibili discriminazioni attuabili in sede di procedimenti di reclutamento e di assegnazione di premi di produttività, nel caso siano utilizzati strumenti di decisione automatizzati. In modo sintetico si vogliono sottolineare alcuni aspetti: in particolare è previsto che sia illegale per un datore di lavoro o un’agenzia per l’impiego l’uso di strumenti informatici per le decisioni di assunzione di personale a meno che tale strumento non sia stato sottoposto ad apposita procedura di controllo attuata almeno un anno prima dal suo utilizzo. In più in caso di utilizzo di intelligenze artificiali il datore di lavoro dovrà mettere al corrente il candidato, almeno dieci giorni prima della selezione, che sarà utilizzato uno strumento automatico per la scelta del soggetto più idoneo; viene così permesso al futuro lavoratore di richiedere un procedimento di scelta alternativo. Infine la fonte dei dati su cui viene effettuata la selezione e la conservazione degli stessi devono essere sempre disponibili su semplice richiesta scritta da parte dell’aspirante lavoratore. È la prima volta che i datori di lavoro statunitensi saranno chiamati a rispettare una legge che cerchi di arginare le discriminazioni da parte di strumenti di assunzione e promozione basati su intelligenze artificiali; tuttavia tali leggi sono in crescita in quanto altri Stati degli USA stanno elaborando norme simili o comunque stanno adottando modalità per arginare il problema delle discriminazioni derivanti da processi decisionali automatizzati.
Pertanto proviamo a riflettere su come potrebbe una macchina sostituire una percezione umana basata sul rapporto interpersonale, sia nel bene sia nel male, ma pur sempre fondata su un’alchimia che può nascere solo da una relazione diretta tra datori di lavoro e lavoratori. Sembrerebbe piuttosto che tali tecniche automatizzate abbiano a cuore solo il risparmio del tempo in una società che ormai va a ritmi molto elevati, anche troppo, e che non presta più attenzione alle caratteristiche di ognuno di noi, unici e irripetibili, facendoci ripensare alla saggezza del proverbio per cui chi va piano va sano e va lontano….