Il tuo curriculum ha colpito nel segno, e ora sei nervoso mentre ti prepari per il primo colloquio. Accedi alla videochiamata, ma con tua sorpresa, dall’altra parte dello schermo qualcosa non va. Ti accoglie una donna dall’aspetto gradevole, ma con una faccia sospettosamente troppo pulita e con un sorriso accomodante che sembra inautentico. “Grazie per esserti unito, iniziamo il colloquio”.

Non è un manager in carne ed ossa, ma un’avatar generato e controllato da un’intelligenza artificiale. Non è fantascienza, ma la reale esperienza – raccontata dal webmagazine 404 Media – di Jack Ryan, un lavoratore di San Diego che ha sperimentato sulla sua pelle un nuovo trend sempre più diffuso nelle aziende americane.

Un’esperienza “alienante”: è il futuro che ci aspetta?

L’IA, sviluppata dalla società Fairgo.ai, ha chiesto a Ryan di raccontare esperienze di lavoro in risposta alle domande, mentre un’immagine di una donna dai capelli rossi appariva sullo schermo. Nonostante l’apparenza professionale dell’intervista, Ryan ha definito l’esperienza “alienante” e ha sollevato seri dubbi sull’efficacia dell’IA nei colloqui.

Fairgo.ai, secondo il suo sito web, si propone di eliminare pregiudizi nei colloqui di lavoro attraverso l’uso di agenti IA che operano 24 ore su 24, offrendo una valutazione “coerente e imparziale”. Tuttavia, le preoccupazioni sollevate da Ryan sono molteplici. Durante un’intervista a 404 Media, ha dichiarato che, nonostante le buone intenzioni di Fairgo, l’IA non può cogliere le sfumature emotive e le interazioni umane essenziali per valutare un candidato. Ryan ha postato un video della sua intervista su LinkedIn, condividendo il suo disappunto su come l’automazione stia riducendo il contatto umano nelle prime fasi del processo di selezione, con il rischio che a venire penalizzati siano candidati che normalmente avrebbero ottenuto buoni risultati.

Uno degli account ufficiali di OpenAI su X è stato hackerato per una truffa legata alle criptovalute Uno degli account ufficiali di OpenAI su X è stato hackerato per una truffa legata alle criptovalute

L’AI è più imparziale degli esaminatori umani?

Julian Bright, fondatore e CEO di Fairgo.ai, ha risposto a queste critiche affermando che l’obiettivo della piattaforma è ridurre i pregiudizi, consapevoli o meno, nei colloqui. Ha sottolineato che l’IA non decide chi passa alla fase successiva del processo di selezione, lasciando questa responsabilità agli esaminatori umani. Bright ha spiegato anche che le aziende non tengono conto del video o dell’audio del colloquio. Al contrario, viene valutata solo la trascrizione del colloquio.

Ryan soffre di disabilità e nel suo racconto a 404 Media ha spiegato di aver avuto la percezione che questo nuovo approccio ai colloqui potrebbe penalizzare i lavoratori svantaggiati come lui. Curiosamente, è l’esatto contrario di quanto sostiene di voler fare l’azienda.