Scroll Top
Via Antonio Amato, 20/22 84131 Salerno (SA)

HR Recruiting: e se utilizzassimo strumenti di Intelligenza Artificiale?

recruiting risorse umane e intelligenza artificiale

(articolo redatto da Pierluca Pierro)

Siamo sempre più abituati ad utilizzare strumenti di intelligenza artificiale per ottenere consigli su alberghi, ristoranti e altri servizi. Allora perché non utilizzare la stessa tecnologia anche nei processi di recruiting?

La grande sfida che i recruiter si trovano di fronte è quella di valutare in modo efficace, oggettivo e senza pregiudizi le esperienze e le competenze dei candidati, e questa sfida diventa ancora più difficile, quando si ha da gestire un grande numero di partecipanti. Ecco perché potrebbe essere vantaggioso avvalersi di strumenti basati sull’intelligenza artificiale.

Gli strimenti di AI hanno la capacità di automatizzare diverse fasi del processo di selezione, consentendo di analizzare grandi quantità di dati in modo efficiente e di prendere decisioni più efficaci.

Su quali aspetti del processo di reclutamento torna utile l’IA?

  1. Screening dei curricula: gli algoritmi possono esaminare rapidamente e accuratamente numerosi curricula vitae, cercando parole chiave, esperienze rilevanti e competenze specifiche per identificare i candidati più adeguati.
  2. Valutazione delle competenze: l’IA può essere utilizzata per valutare le competenze dei candidati attraverso test online o prove pratiche. Questo può permettere di identificare le capacità tecniche e cognitive necessarie per un determinato ruolo.
  3. Interviste basate sull’IA: attraverso chatbot o avatar si possono condurre interviste strutturate con i candidati, porre domande predefinite e valutare le risposte in base a criteri specifici. Questo aiuta a standardizzare il processo di intervista e a ridurre l’influenza dei bias dei selezionatori.
  4. Analisi del linguaggio: L’IA può analizzare il linguaggio utilizzato nei curricula, nelle lettere di presentazione e nelle interviste per identificare indicatori di competenze, personalità e adattabilità dei candidati.
  5. Previsione delle prestazioni: Attraverso l’analisi dei dati storici dei dipendenti e delle metriche di successo, l’IA può aiutare a prevedere le prestazioni future dei candidati e a identificare quelli più adatti per un determinato ruolo.

Principali bias introdotti dagli strumenti basati sull’intelligenza artificiale

Bias induttivo: nell’apprendimento automatico, l’insieme di assunzioni fatte dall’algoritmo di apprendimento [Wikipedia]

Ad oggi l’utilizzo dei sistemi di intelligenza artificiale non può avvenire in modo completamente autonomo.

Uno dei rischi principali è che il bias introdotto da tali sistemi sia superiore rispetto a quello a cui sono soggetti i recruiter umani.

 

Di seguito, elenchiamo i principali bias introdotti dagli strumenti basati sull’intelligenza artificiale:

  1. Bias nel processo di etichettatura dei dati: Se i dati utilizzati per addestrare l’algoritmo sono stati etichettati in modo impreciso o influenzato da pregiudizi umani, l’algoritmo può imparare a replicare tali etichette errate o pregiudizi.
  2. Scarsa rappresentazione dei gruppi sottorappresentati: Se i dati di addestramento non contenessero una rappresentazione sufficiente di gruppi sottorappresentati, l’algoritmo potrebbe non essere in grado di fare previsioni accurate per tali gruppi o potrebbe ampliare le disparità esistenti. Ad esempio, se l’algoritmo considera alcune caratteristiche dei candidati come più importanti di altre senza una giustificazione oggettiva, potrebbe perpetuare discriminazioni basate su tali caratteristiche.
  3. Bias nell’architettura dell’algoritmo: Gli algoritmi stessi possono essere progettati in modo da introdurre pregiudizi. Ad esempio, se l’algoritmo considera alcune caratteristiche dei candidati più importanti di altre senza una giustificazione oggettiva, potrebbe perpetuare discriminazioni basate su tali caratteristiche.
  4. Feedback loop di pregiudizi: Se l’IA viene utilizzata in un contesto in cui i risultati influenzano le decisioni umane, come la selezione del personale, e tali decisioni vengono poi utilizzate per raccogliere dati per l’addestramento dell’IA, potrebbe crearsi un ciclo di feedback in cui i pregiudizi vengono amplificati nel tempo.

I bias nel caso Amazon

Un esempio dell’effetto dei bias  è il fallimento del progetto di modernizzazione dei processi di recruiting dell’azienda Amazon. Si è scoperto che l’algoritmo di intelligenza artificiale utilizzato era prevenuto nei confronti delle donne. L’algoritmo era stato programmato per valutare i candidati, basandosi sui modelli presenti nei curriculum inviati all’azienda nei 10 anni precedenti. Tuttavia, l’errore dell’algoritmo è stato nel valutare erroneamente che la maggioranza dei candidati e degli assunti fossero uomini, portando alla deduzione che i candidati maschi fossero preferiti rispetto alle candidate donne.

Ogni sistema che coinvolge esseri umani è in qualche modo prevenuto, perché come specie siamo intrinsecamente prevenuti“, afferma Donncha Carroll, partner di Axiom Consulting Partners e responsabile del centro di eccellenza di data-science. “Prendiamo decisioni basate su ciò che abbiamo visto, ciò che abbiamo osservato e su come percepiamo il mondo. Gli algoritmi vengono addestrati sui dati e se il giudizio umano è catturato nel record storico, allora c’è un rischio concreto che il pregiudizio sia codificato nell’algoritmo stesso“.

Ci sono delle tecniche per mitigare gli effetti di bias?

Mitigare l’effetto dei bias è possibile farlo con questi accorgimenti:

  • Diversità dei dati: I dati utilizzati per addestrare l’IA devono essere rappresentativi e inclusivi. Vanno quindi utilizzate una varietà di fonti di dati che coprano diversi contesti, culture, etnie, generi, ecc. L’obiettivo è ottenere un set di dati bilanciato che rappresenti accuratamente la popolazione.
  • Analisi dei dati: Va effettuata un’analisi approfondita dei dati utilizzati per addestrare l’IA per identificare eventuali bias presenti. Vanno pertanto utilizzate metriche appropriate per valutare la presenza di discriminazioni nel processo di reclutamento.
  • Controllo del contesto: Assicurarsi che il contesto in cui viene utilizzata l’IA per il reclutamento sia controllato e monitorato. Ciò significa che devono essere in considerazione gli effetti indesiderati e le possibili distorsioni che l’IA potrebbe introdurre nel processo decisionale.
  • Revisione umana: Non affidarsi esclusivamente all’IA per prendere decisioni di reclutamento. I risultati dell’IA devono essere considerati come un input, ma una revisione umana è necessaria per valutare i candidati in modo più completo, considerando le competenze, le esperienze e altri fattori pertinenti.
  • Bias-awareness training: Occorre formare gli addetti al reclutamento e gli utenti dell’IA sulle questioni relative ai bias, all’equità e all’inclusione. Sensibilizzarli sulla presenza di bias nell’IA e fornire linee guida per mitigarli.
  • Monitoraggio costante: Monitorare regolarmente l’IA per il reclutamento per identificare e correggere eventuali bias che emergono nel tempo. Effettuare analisi periodiche dei risultati e apportare le modifiche necessarie per mantenere un processo di reclutamento imparziale.
  • Trasparenza: Occorre essere trasparente riguardo all’uso dell’IA nel processo di reclutamento. Comunicare ai candidati il ruolo dell’IA nel processo decisionale e spiegare come vengono gestiti i potenziali bias. Utilizzare un canale per le segnalazioni e i reclami per coloro che ritengono di essere stati soggetti a discriminazioni.

Conclusioni

In conclusione, l’utilizzo di strumenti di Intelligenza Artificiale nel processo di recruiting può offrire numerosi vantaggi, consentendo una valutazione più efficace, efficiente e oggettiva dei candidati. La capacità di automatizzare fasi come lo screening dei curricula, la valutazione delle competenze e le interviste basate sull’IA può ridurre i tempi e migliorare la qualità delle decisioni di assunzione.

Tuttavia, è importante riconoscere che l’utilizzo di tali strumenti comporta, allo stato attuale, anche dei rischi: l’obiettivo finale dovrebbe essere quello di combinare l’intelligenza artificiale con l’esperienza umana, utilizzando l’IA come strumento di supporto per i recruiter, anziché sostituirli completamente. Solo attraverso un approccio equilibrato e consapevole siamo in grado di ridurre al minimo i rischi derivanti dai bias, sia umani che derivanti da algoritmi I e di sfruttare appieno i benefici dell’IA nel processo di recruiting, garantendo al tempo stesso un processo efficace e imparziale.


Se anche tu vuoi occuparti di progetti di sviluppo IT di ultima generazione
dai un’occhiata alle nostre opportunità di lavoro e conosciamoci subito!