La selezione del personale da parte delle grandi aziende è uno dei numerosi temi in cui l’intelligenza artificiale ha trovato spazio e modalità di applicazione sempre maggiore. Le misure che sono state introdotte da molti paesi per limitare la diffusione del Covid-19 hanno velocizzato tale tendenza, fornendo alle imprese strumenti utili per valutare con rapidità ed efficienza una quantità di candidati in molti casi superiore alle medie precedenti. Parallelamente, nella selezione del personale si è sviluppato di pari passo un dibattito sugli effetti di questa scelta, sui rischi e benefici di queste procedure.
In un articolo divulgato dalla BBC, Andrea Murad ha raccontato la sua esperienza diretta nella presentazione di una domanda di lavoro: “Francamente è stato un po’ stressante sapere che la mia domanda era valutata da un computer e non da un essere umano”. Come prima parte della selezione, Murad doveva completare una serie di “giochi”: contare tutti i punti presenti in due caselle oppure abbinare espressioni di una serie di visi alle relative emozioni. Era un test della durata di 25 minuti con dodici giochi ideati per misurare le abilità emotive e cognitive del candidato. Il programma ha quindi valutato la personalità della Murad senza alcun intervento umano diretto nella prima fase.
Pymetrics e HireVue
Il software utilizzato per la valutazione della domanda di lavoro presentata da Murad si chiama Pymetrics ed è stato sviluppato da un’azienda di New York. È uno strumento ideato per raccogliere dati imparziali e “misurare il potenziale, non il pedigree”. L’obiettivo di Pymetrics è quello di favorire delle prime valutazioni che siano basate non tanto sui curriculum, ma su dati comportamentali oggettivi, a fronte di una calibrazione personalizzata dell’algoritmo da parte dell’azienda. Secondo la fondatrice, Pymetrics è ideato in modo da aiutare le aziende ad ampliare il bacino dei candidati e raccogliere “segnali” utili a capire se una persona potrebbe avere successo in un dato lavoro. L’ intelligenza artificiale in questo campo dovrebbe favorire l’interazione tra aziende e candidati, facendo il bene di entrambi: “Tutti vogliono il lavoro giusto e tutte le aziende vogliono assumere le persone giuste: non conviene a nessuno se la partita si interrompe”, ha detto la fondatrice.
La scelta se andare avanti o interrompere il processo di selezione al termine della prima fase di valutazione spetta ovviamente all’azienda che controlla l’algoritmo. Vale anche per un altro software molto usato per la selezione del personale, HireVue, ideato da un’azienda di South Jordan, vicino Salt Lake City, nello Utah. È usato, tra gli altri, dalla multinazionale olandese-britannica Unilever. Disponibile già dal 2016, permette di raccogliere le videoregistrazioni dei colloqui, ai candidati viene richiesto di accedervi tramite un device per rispondere ad una serie di domande standard. L’audio del colloquio viene successivamente trascritto e analizzato dal sistema in base ad alcuni criteri preimpostati dall’azienda: va alla ricerca di parole chiave come “io” anziché “noi” nelle risposte a domande sul lavoro di squadra, ad esempio. La valutazione è basata anche su altri criteri, come la frequenza del contatto visivo con la videocamera e le espressioni facciali nel corso del colloquio.
I criteri discriminatori
Nel 2018 un’inchiesta di Reuters contribuì a rendere noti alcuni difetti di un sistema sperimentale di intelligenza artificiale sviluppato da Amazon per i processi di selezione. Il software assegnava un punteggio da uno a cinque, ed inizialmente sembrò essere uno strumento molto efficace, in seguito invece si scoprì che i candidati non erano valutati in modo imparziale rispetto al loro genere sessuale. In breve, era “addestrato”: l’apprendimento automatico aveva portato a penalizzare i curriculum che includessero l’espressione “femminile”. Gli interventi umani successivi alla scoperta dell’errore non potevano garantire che il sistema non avrebbe individuato nuovi criteri discriminatori sulla base dei dati, e Amazon abbandonò il progetto alla fine del 2017.
I limiti dell’intelligenza artificiale
James Meachin, psicologo del lavoro per Pearn Kandola, sostiene che i limiti dei sistemi applicati siano essenzialmente di due entità: prima di tutto si deve considerare un limite di base, comune ai software di registrazione e analisi di contenuti audiovisivi. Anche assistenti vocali come quelli di Google, Amazon e Apple evidenziano al loro interno ancora delle difficoltà a comprendere tutte le parole pronunciate. In caso di trascrizione corretta del testo, la seconda difficoltà è di tipo semantico e riguarda il significato da dare alle parole in assenza di un contesto, laddove una valutazione “umana” riuscirebbe a cogliere facilmente tutte le sfumature.
Secondo Sandra Wachter, professoressa di diritto all’Università di Oxford, allo stato attuale il rischio di basare l’assunzione su algoritmi di selezione, senza adeguate fasi di sperimentazione e correzione degli errori, è quello di trascurare alcune categorie che risultino eccezioni o minoranze. La Wachter ritiene che un sistema di questo tipo non sia ad oggi stato testato adeguatamente, finirebbe per rafforzare anziché eliminare gli effetti di quei pregiudizi già presenti a monte. “Chi erano i direttori in passato? Chi erano i docenti a Oxford in passato? Gli algoritmi selezioneranno allora più uomini”, afferma la Wachter.
A New York una nuova proposta di legge
Si parla di una proposta di legge che possa regolamentare almeno in parte l’utilizzo di sistemi di intelligenza artificiale nella selezione del personale. Se approvata, obbligherebbe le aziende a specificare apertamente l’uso di software di questo tipo in fase di valutazione dei candidati. Le aziende, inoltre, dovrebbero sottoporsi ad annuali revisioni degli strumenti tecnologici per garantire che i processi di selezione non siano condizionati da pregiudizi. Tuttavia la proposta non ha trovato sostegno unanime, ha anzi alimentato delle perplessità riguardo alle questioni che lascerebbe irrisolte. Ammesso che uno standard di revisione possa garantire l’assenza di pregiudizi, eventuali imperfezioni non farebbero altro che rafforzare le strutture discriminanti già esistenti, conferendo loro una sorta di illegittimo certificato di qualità.
Costanza Falco
Leave A Reply