Prospettive svizzere in 10 lingue

People analytics: gli algoritmi ci conoscono davvero meglio dei nostri superiori?

viso di una donna
Getty Images/istockphoto / Metamorworks

Una scelta libera da pregiudizi: è ciò che promette people analytics. Gli algoritmi dovrebbero favorire la diversità invece della monotonia, l'oggettività invece della soggettività. Ma funzionano davvero? O vengono semplicemente consolidati i preconcetti e i ruoli tradizionali?

Google, Amazon e Microsoft promettono mari e monti con “work force analytics” o “people analytics”, due programmi che mettono in relazione le informazioni delle risorse umane con i dati aziendali. La base è fornita dalle valutazioni delle candidate e dei candidati, dalle collaboratrici e dai collaboratori mediante questionari standardizzati. In pratica sono dei test psicologici che fanno capo a domande a scala.

“Preferisco lavorare da solo”. Quale sarebbe la sua risposta su una scala da 1 a 10? “Non mi innervosisco nemmeno in situazioni di stress”. È davvero così? La risposta a una serie di domande analoghe traccia il profilo psicologico del personale.

“È più facile programmare algoritmi liberi da preconcetti che cambiare milioni di persone.”

Iris Bohnet, specializzata nell’analisi dei pregiudizi di genere nel mondo del lavoro

Le aziende sono interessate a simili analisi soprattutto quando sono chiamate ad assumere nuovi collaboratori e collaboratrici. Fare la scelta sbagliata potrebbe avere gravi conseguenze finanziarie. Con people analytics le imprese si augurano di ridurre al minimo i rischi visto che non c’è più spazio per i pregiudizi e per i ruoli tradizionali. Ci si augura così di individuare e promuovere i candidati e le candidate migliori, scelti anche tra le minoranze e i gruppi svantaggiati.

Nel frattempo, questo approccio si è fatto strada in tutto il mondo, anche in Svizzera. Deloitte, una delle maggiori aziende di servizi e consulenza al mondo, ha svolto uno studio sull’impiego di people analytics nelle ditte elvetiche. Stando al rapportoCollegamento esterno 2020, tra le imprese interpellate, quattro su cinque indicano che il metodo è rilevante o molto rilevante. Sostengono inoltre che sarà sempre più importante nei prossimi due-cinque anni.

Oggi la diversità è un vantaggio. Come mai?

Il risultato del rapporto non sorprende. Infatti, si tratta di favorire la diversità e l’inclusione, due aspetti fondamentali. Attualmente, molte aziende analizzano la composizione del personale rispetto ad età, genere e salario. Nello studio, Deloitte scrive che la diversità è una questione sempre più importante e che va ben al di là del dibattito sulla parità di genere.

In fin dei conti l’obiettivo finale è il successo finanziario e questo può essere perseguito con la diversità. Uno studioCollegamento esterno del McKinsey Global Institute ha esaminato 1000 aziende in 15 Paesi ed è giunto alla conclusione che le ditte con un’equa rappresentanza di genere hanno il 25 per cento di probabilità in più di essere redditizie. Se viene considerata anche la diversità etnica, la percentuale è addirittura del 36 per cento.

Per Iris Bohnet, people analytics ha un ruolo centrale da questo punto di vista. “È più facile programmare algoritmi liberi da preconcetti che cambiare milioni di persone”, dice la ricercatrice svizzera, specializzata nell’analisi dei pregiudizi di genere nel mondo del lavoro. Tuttavia, Bohnet ricorda che questi strumenti possono portare ad errori giganteschi visto che vengono impiegati su milioni di persone. Con i processi di selezione convenzionali, le decisioni sbagliate interessano di solito solo un piccolo gruppo di persone.

Contenuto esterno

L’intelligenza artificiale, un’arma a doppio taglio

Stando a Joanna BrysonCollegamento esterno, gli algoritmi proteggono le persone dai pregiudizi inconsci quando chi ha il compito di operare una selezione è sottoposto a un carico di lavoro eccessivo. La professoressa di etica e tecnologia presso la Hertie School di Berlino indica che durante il processo di reclutamento, il responsabile o la responsabile possono correre il rischio di lasciarsi guidare, senza rendersene conto, da preconcetti quando devono leggere centinaia di dossier di candidatura.

Bryson concentra la sua ricerca sull’impatto della tecnologia sulla collaborazione umana e identifica un atout nell’impiego dell’intelligenza artificiale (AI). Quest’ultima permette di fare le scelte giuste senza lasciarsi ingannare da convinzioni personali e generali. Grazie a questi metodi standardizzati si esaminano anche candidati e candidate che altrimenti non avrebbero superato la prima selezione.

In uno studio sull’impiego della lingua, la ricercatrice ha evidenziato che, come le persone, anche gli algoritmi possono tendere a giudicare sulla base di pregiudizi visto che “imparano dalle nostre banche dati”. È un elemento che va considerato durante la programmazione dell’AI. “Altrimenti si corre il rischio di consolidare pregiudizi impliciti con people analytics”, dice la matematica.

Anche gli algoritmi sono influenzabili

Uno studioCollegamento esterno svoto da tre ricercatrici e ricercatori presso il MIT e l’Università della Columbia evidenzia che anche gli algoritmi possono essere influenzati. Nell’ambito della loro ricerca hanno sviluppato e analizzato vari modelli di algoritmi e scoperto che ci sono differenze significative a seconda se il programma considera unicamente l’esperienza professionale delle candidate e dei candidati o se valuta anche il potenziale di persone appartenenti a gruppi sottorappresentati.

Lo studio è giunto alla conclusione che puntare l’attenzione sul potenziale delle candidature favorisce la diversità nell’azienda. Di riflesso, le ditte che basano la loro selezione unicamente sull’esperienza si lasciano sfuggire aspiranti altamente qualificati e con un percorso personale e professionale che avrebbe indubbiamente arricchito l’azienda.

Pensare con la propria testa

Per Simon Schafheitle dell’Istituto di ricerca per il lavoro e il mondo del lavoro dell’Università di San Gallo, “le ditte devono svolgere una ricerca approfondita prima di acquistare un programma di questo tipo”. Ad esempio, devono controllare se chi ha programmato l’algoritmo punta sulla diversità.

L’esperto evidenzia inoltre un altro aspetto problematico: a volte, le responsabili e i responsabili del personale credono che la tecnologia sia la panacea di tutti i mali. Spesso è invece proprio il contrario. “Infatti, può succedere che si trovino comunque nella situazione di dover decidere quando la scelta è caduta su un candidato o una candidata che non soddisfa le attese”.

Quali criteri vanno quindi considerati: quelli del programma, pagato a caro prezzo, o quelli di chi è a capo delle risorse umane? L’algoritmo ha operato una scelta, scegliendo la candidatura ideale, ma forse non la migliore. Magari un nonconformista, con uno spiccato senso creativo, sarebbe la persona ideale per il posto a concorso.

Inoltre, la ricerca empirica evidenzia che i risultati dipendono dalla sfera culturale e dalla cultura aziendale e che la loro interpretazione può variare. “Sono elementi che possono essere accentuati e trasferiti al mondo digitale”, dice Schafheitle.

Da parte sua, Iris Bohnet consiglia la creazione di un’autorità responsabile della regolamentazione delle condizioni e dei criteri impiegati dagli algoritmi prima che vengano immessi sul mercato. “Anche i medicamenti devono superare un’omologazione molto severa prima di essere impiegati sugli esseri umani”.

Traduzione dal tedesco: Luca Beti

Articoli più popolari

I più discussi

In conformità con gli standard di JTI

Altri sviluppi: SWI swissinfo.ch certificato dalla Journalism Trust Initiative

Potete trovare una panoramica delle discussioni in corso con i nostri giornalisti qui.

Se volete iniziare una discussione su un argomento sollevato in questo articolo o volete segnalare errori fattuali, inviateci un'e-mail all'indirizzo italian@swissinfo.ch.

SWI swissinfo.ch - succursale della Società svizzera di radiotelevisione SRG SSR

SWI swissinfo.ch - succursale della Società svizzera di radiotelevisione SRG SSR