Società

Cosa succede se √® l’IA a decidere chi assumere in azienda?

di Redazione

2 minuti

Con la crescente dipendenza delle aziende dalle piattaforme di selezione basate sull’intelligenza artificiale (IA), molti candidati altamente qualificati stanno sperimentando una situazione di esclusione nel processo di assunzione. Le moderne pratiche di selezione, infatti, impiegano strumenti come l’analisi del linguaggio corporeo, valutazioni vocali e scanner di curriculum, tutti gestiti da software di reclutamento basato sull’IA. I candidati si sottopongono a queste valutazioni automatiche e spesso √® l’IA a decidere se un candidato √® un buon match o meno.

Un sondaggio condotto dalla IBM alla fine del 2023 su oltre 8.500 professionisti IT globali ha rivelato che il 42% delle aziende stava utilizzando lo screening basato sull’IA per migliorare le pratiche di reclutamento e risorse umane. Allo stesso tempo, un ulteriore 40% delle aziende stava considerando l’integrazione di questa tecnologia nei propri processi di selezione.

Contrariamente alle speranze dei leader aziendali, la tecnologia di reclutamento basata sull’IA non sembra risolvere completamente i problemi di discriminazione. Alcuni esperti sostengono che tali strumenti stiano scremando in modo inaccurato alcuni dei candidati pi√Ļ qualificati. Alcuni casi di candidati qualificati esclusi da queste piattaforme sono gi√† stati resi noti. Un esempio del 2020 coinvolge una truccatrice britannica, Anthea Mairoudhiou, che dopo essere stata messa in cassa integrazione durante la pandemia, √® stata valutata attraverso un programma di screening basato sull’IA. Nonostante il buon punteggio nelle competenze, √® stata esclusa a causa della valutazione negativa del suo linguaggio corporeo da parte dello strumento IA.

La critica si estende anche alle possibili discriminazioni perpetrate da questi strumenti. Alcuni algoritmi di selezione sembrano essere addestrati su un tipo specifico di dipendente, il che potrebbe portare all’esclusione di candidati con background o credenziali diverse. “Questo fenomeno pu√≤ tradursi in un’iniquit√† nei confronti di gruppi emarginati”, afferma Hilke Schellmann, Professore associato di giornalismo presso la New York University.

Un elemento critico √® la mancanza di trasparenza nei confronti dei candidati. Spesso, questi ultimi non sanno se gli strumenti di IA sono la causa principale della loro esclusione, poich√© il software raramente fornisce un feedback dettagliato. Il problema si estende anche alle aziende che, per risparmiare tempo e denaro, sostituiscono il personale HR umano con l’IA. “Questo pu√≤ comportare una minore motivazione a indagare sui difetti dei sistemi automatizzati”, avverte Schellmann.

Per affrontare questi problemi, alcuni esperti stanno cercando soluzioni etiche e legali. Sandra Wachter dell’Internet Institute dell’Universit√† di Oxford sta lavorando a un test chiamato Conditional Demographic Disparity, un sistema che funge da allarme per notificare la presenza di discriminazioni nel software di IA. Aziende come Amazon e IBM hanno gi√† implementato questo strumento.

Riproduzione Riservata © 2024 Scitizenship

Aggiornato il 03/18/2024

Articoli correlati