L’intelligenza artificiale rivoluzionerà il processo di selezione del personale, auspicabilmente riducendo i pregiudizi nei colloqui di lavoro. Tuttavia, la realtà è complessa. Diversi studi evidenziano che gli algoritmi, pur essendo strumenti potenti, possono anche amplificare discriminazioni storiche se non ben addestrati e supervisionati.
Il paradosso della discriminazione algoritmica
La speranza di un recruiting più equo con l’IA ha incontrato ostacoli significativi. Rigotti e Fosch-Villaronga (2024) hanno documentato come un alquanto discusso algoritmo di selezione dei curriculum di una preminente azienda globale, invece di migliorare l’equità, abbia finito per penalizzare sistematicamente le donne. L’algoritmo, addestrato sui dati storici dell’azienda, aveva appreso pregiudizi impliciti contro le candidate di sesso femminile, preferendo i profili maschili per ruoli tecnici. Questo fenomeno illustra il cosiddetto “paradosso della discriminazione algoritmica”, per cui un algoritmo, se basato su dati di addestramento parziali o discriminatori, tende a replicare tali bias.
Un altro studio significativo pubblicato da IEEE Spectrum (2020) ha sollevato ulteriori questioni sull’uso etico dell’IA nei colloqui di lavoro. Secondo lo studio, alcune startup hanno lavorato su piattaforme di valutazione basate su “audizioni cieche”, che consentono ai candidati di essere valutati sulle competenze senza che informazioni identificative siano visibili. Questo approccio riduce il rischio che pregiudizi inconsci influenzino le decisioni, ma l’efficacia di questi metodi è ancora in fase di valutazione, sebbene si sia visto un aumento della diversità nei nuovi assunti.
One evitare di essere forzatamente “equi” è giusto anche segnalare che in talune circostanze è anche difficile stabilire ciò che è un bias da ciò che è una statistica. Se, ad esempio, statisticamente, le donne preferissero nel 90% dei casi occuparsi di data analysis piuttosto che programmazione algoritmica e conducessero studi in quella direzione, sarebbe una forzatura, ricercando candidati per l’una o l’altra posizione, forzare una equità di genere. Ciò che ci si aspetta dall’IA è che ci aiuti nel basare la selezione su caratteristiche oggettive, mentre altre, quali il sesso, dovrebbero essere trasparenti o non determinanti, ciò potrebbe condurre ad una non equità numerica, ma ciò nonostante l’algoritmo sarebbe pur sempre equo. A livello governativo e nelle politiche ESG (Environmental, Social, Governance) negli ultimi anni si sono chieste forzature, ciò per favorire un riequilibrio di forme ancestrali di predominanza maschile in posizioni direzionali. Attraverso algoritmi è possibile integrare politiche di equilibrio di genere alle procedure di selezione, assegnando modifiche ai pesi, è ciò che avviene oggi normalmente in bandi pubblici del resto. Come vediamo non servono algoritmi “giusti”, ma piuttosto servono algoritmi “utili”, nel contesto dato.
La percezione dei candidati: preferenza per la valutazione umana
In aggiunta ai limiti tecnici, emerge anche una sfida di accettazione sociale. Schulte Steinberg e Hohenberger (2023) hanno condotto uno studio che ha evidenziato una diffidenza generale nei confronti dei sistemi di IA nei colloqui di lavoro, con una preferenza per le valutazioni umane. Tuttavia, il loro studio ha mostrato che le donne che hanno sperimentato discriminazioni o ripongono fiducia nelle capacità dell’IA sono più inclini ad accettare la valutazione automatizzata. Questo suggerisce che l’adozione dell’IA richiede una strategia di comunicazione trasparente per ottenere la fiducia dei candidati, chiarendo come l’IA venga utilizzata per minimizzare i pregiudizi.
Vantaggi potenziali dell’IA nei processi di selezione
Se ben implementata, l’IA potrebbe rappresentare una svolta per il recruiting:
- Standardizzazione e Coerenza: Gli algoritmi possono garantire valutazioni basate su parametri predefiniti, riducendo i pregiudizi inconsci dei recruiter.
- Efficienza e Gestione dei Volumi: La capacità dell’IA di analizzare grandi volumi di candidature permette una selezione preliminare più rapida ed efficiente, consentendo ai recruiter di concentrarsi sui colloqui finali.
- Trasparenza e Tracciabilità: Le decisioni prese dagli algoritmi possono essere tracciate e riviste, offrendo una maggiore trasparenza e possibilità di audit per identificare eventuali bias.
Tuttavia, Mujtaba e Mahapatra (2019) evidenziano che tali vantaggi devono essere accompagnati da rigorose misure di protezione dei dati personali, affinché l’IA non diventi una minaccia per la privacy dei candidati.
Oltre ai vantaggi, l’uso dell’IA presenta sfide significative. L’overfitting dei modelli, ad esempio, può portare a un’eccessiva specificità rispetto ai dati di addestramento, replicando i pregiudizi storici. Viceversa, l’underfitting potrebbe creare modelli incapaci di distinguere tra candidati qualificati e non, penalizzando gruppi già marginalizzati. È quindi necessario un equilibrio tra generalizzazione e specificità.
Soluzioni Ibride: l’Importanza della supervisione umana
Una soluzione promettente è l’integrazione dell’IA con la supervisione umana. Secondo Rigotti e Fosch-Villaronga (2024), un approccio misto che include una revisione umana delle decisioni algoritmiche permette di compensare i limiti dell’IA, garantendo al contempo un processo di selezione più inclusivo e personalizzato. La supervisione umana consente inoltre di intervenire qualora emergano scelte potenzialmente discriminatorie, evitando che decisioni automatizzate diventino incontestabili. La presenza di un supervisore umano può, quindi, migliorare la trasparenza e la responsabilità del processo di selezione.
In un contesto dove la tecnologia avanza più rapidamente delle normative, la regolamentazione è essenziale per garantire che l’IA venga utilizzata in modo etico. Mujtaba e Mahapatra (2019) sottolineano la necessità di standard globali e linee guida che orientino le aziende nell’utilizzo dell’IA per ridurre le discriminazioni. Le normative come il GDPR, che richiedono la spiegazione delle decisioni algoritmiche e la tutela della privacy dei candidati, rappresentano un punto di partenza, ma sono necessari ulteriori sforzi per affrontare i rischi specifici del settore del recruiting.
Verso un futuro di Selezione Equa e Inclusiva
L’IA può certamente rappresentare uno strumento utile per combattere la discriminazione nei processi di selezione, ma solo se utilizzata in modo statisticamente consapevole. Le aziende, in questa fase storica, devono abbracciare un approccio ibrido, affiancando l’IA alla supervisione umana, e investire in formazione continua e audit regolari dei sistemi per individuare e correggere eventuali bias.
L’adozione di strumenti di IA nei colloqui di lavoro richiede non solo attenzione tecnica, ma anche un impegno per la trasparenza e l’equità, promuovendo una cultura aziendale inclusiva e responsabile. Processi di selezione più equi e rispettosi della diversità richiedono un approccio sistematico, scientifico e verificabile, riteniamo quindi che l’Intelligenza Artificiale avrà sempre un maggiore ruolo nei processi di recruitment.
Fonti:
Rigotti, C., & Fosch-Villaronga, E. (2024). Fairness, AI & recruitment. Computer Law & Security Review, 53.
Schulte Steinberg, A. L., & Hohenberger, C. (2023). Can AI close the gender gap in the job market? Individuals’ preferences for AI evaluations. Computers in Human Behavior Reports, 10.
Mujtaba, B. G., & Mahapatra, D. K. (2019). Possible Unconscious Bias in Recruitment, Promotion, and Performance Evaluations in Academic Institutions and Industry. Journal of Behavioral Studies.
IEEE Spectrum (2020). Can AI hiring systems be made antiracist?