¿Los algoritmos nos conocen mejor que los jefes?
Google, Amazon y Microsoft confían en estas opciones: Work Force Analytics o People Analytics. Ambos son métodos de análisis de datos para la contratación de personal. Operan en estrecha relación con diversos elementos e indicadores operativos de cada empresa. Sus técnicas se basan en el análisis de candidatas y candidatos a través de cuestionarios estandarizados. Ofrecen pruebas de personalidad reales que a menudo se basan en preguntas de escala.
«Prefiero trabajar solo». En una escala del 1 al 10, ¿cuál sería su respuesta? «Incluso en situaciones tensas, mantengo la calma». ¿Cómo se siente cuando responde a esta pregunto? Las respuestas a una multitud de cuestionamiento de este tipo permiten, conjuntamente, ofrecer un perfil de la personalidad.
Desde la perspectiva empresarial, las preguntas deben ser incluso más amplias y profundas. Pues cuando hay errores en la toma de decisiones relacionada con la contratación de personal las consecuencias pueden ser realmente costosas. En la teoría, estos métodos de análisis de las personas reducen este riesgo. Eliminan las preferencias personales, los prejuicios de los reclutadores y desactivan los roles normativos. Solo deben identificarse y promoverse los candidatos más adecuados. Una de las promesas de este enfoque es que también incluye a las minorías y a grupos frecuentemente desfavorecidos en el mundo del trabajo.
La analítica de personas se utiliza ahora profusamente, Suiza también lo hace. Deloitte, firma líder en auditoría y consultoría a nivel mundial, ha investigado la presencia de este tipo de herramientas en el ecosistema empresarial helvético. De acuerdo con un informe publicado en 2020, cuatro de cada cinco compañías encuestadas consideran que People Analytics es importante o muy importante. Asimismo, esperan que el rol que juega esta herramienta en las empresas crezca en los próximos dos a cinco años.
¿Por qué la diversidad es una ventaja?
Estas herramientas consideran dos temas de gran relevancia y actualidad: la diversidad y la inclusión. Hoy en día, muchas empresas analizan las calificaciones de sus empleados tomando en cuenta elementos como su género, antigüedad y salario. Pero, evidentemente, la diversidad es una preocupación creciente que va más allá de exclusivamente el género, dice Deloitte en su informe.Enlace externo
O dicho con simplicidad, actualmente, la diversidad y el éxito financiero van de la mano. Según un estudio del McKinsey Global Institute realizado entre 1000 empresas de 15 países, poseer una sólida diversidad de género en una empresa aumenta 25% sus probabilidades de ser más rentable. Y este valor puede llegar incluso al 36% si tenemos en cuenta la diversidad étnica.
Cuando se trata de promover a las mujeres, la cuestión no se plantea tanto en términos de diversidad sino más bien de igualdad. Esto es, igualdad de derechos y oportunidades. Sin embargo, es difícil desprogramar los prejuicios que anidan en nuestras cabezas.
Iris Bohnet, profesora de la Universidad de Harvard, atribuye una gran relevancia a People Analytics. Afirma que “es mucho más fácil programar algoritmos sin prejuicios, que cambiar a millones de seres humanos”. Pero la también integrante de la junta directiva de Credit Suisse Group identifica un peligro: los errores potenciales tienen un impacto inconmensurablemente mayor, ya que estas herramientas se utilizan para evaluar a millones de personas. En los procesos de selección tradicionales, los errores de decisión afectan frecuentemente a un pequeño grupo de personas, pero con People Analytics los efectos se multiplican.
“Es mucho más fácil programar algoritmos sin prejuicios, que cambiar a millones de seres humanos” Iris Bohnet, profesora de la Universidad de Harvard
La inteligencia artificial, un arma de doble filo
En situaciones de estrés, los algoritmos protegen contra los prejuicios, dice Joanna Bryson, profesora de Ética y Tecnología en la Escuela Hertie de Berlín. Cuando un reclutador examina cientos de solicitudes, la velocidad es clave. Él o ella sucumben fácilmente a sus propios prejuicios, incluso cuando el objetivo es formar un equipo diverso. Joanna BrysonEnlace externo, cuya investigación descubre los efectos de la tecnología en la colaboración humana, ve la inteligencia artificial como una oportunidad. Considera que permite a los responsables superar sus propias limitaciones y ser más exitosos en las tareas de selección. Entre las candidatas y candidatos que se presentan, dice, a menudo hay algunos que «no pudieron ser vistos antes» por el reclutador.
Pero su estudioEnlace externo sobre el idioma inglés también demostró que los algoritmos pueden tener los mismos sesgos intrínsecos a los seres humanos «ya que aprenden de nuestras propias bases de datos». Por ello, se requiere precaución, especialmente durante la fase de programación de la inteligencia artificial. «De lo contrario, el peligro es ver los prejuicios implícitos reforzados por People Analytics«, asegura la matemática.
«Los algoritmos también se ven influenciados»
La importancia de reforzar el cuidado sobre los criterios de programación se confirma también en un estudio firmado por dos investigadoras y un investigadorEnlace externo del MIT y la Universidad de Columbia, quienes desarrollaron y probaron diferentes modelos de algoritmos. Su hallazgo es que existen diferencias notables dependiendo de si los programas limitan su alcance a los candidatos que ya probaron su éxito profesional, o si también tienen en cuenta el potencial de las personas de grupos subrepresentados. El estudio concluye que, al centrarse en el potencial, el reclutamiento mejora y se vuelve más diverso. Las empresas cuyos algoritmos se basan solo en el éxito demostrado corren el riesgo de perderse buenas (os) candidatas (os) y de contextos diversificados.
«Los responsables deben reflexionar»
«Por esta razón, una empresa debe plantearse seriamente determinadas preguntas al adquirir un programa», dice Simon Schafheitle, del Instituto de investigación para el Trabajo y el Mundo Laboral de la Universidad de San Gallen. Debe comprobarse, por ejemplo, que el equipo que está detrás del algoritmo tiene una verdadera orientación hacia la diversidad. Además, subraya, los formuladores de políticas a menudo sienten que la tecnología es una panacea. Sin embargo, frecuentemente ocurre lo contrario. «Cuando el resultado del algoritmo contradice la opinión de los responsables, hay que saber cómo se va a actuar”. A quién se dará el voto de confianza… ¿al costoso programa o al gerente de recursos humanos que tiene una experiencia en el cargo? De hecho, el algoritmo calcula la aplicación óptima, no necesariamente la mejor. Es decir, no resulta improbable que el creativo (a) transversal se adapte mucho mejor a un puesto, en la realidad, que el candidato ambicioso que llenó todos los casilleros de la prueba.
Y es que en la realidad analógica, los antecedentes culturales de la persona y la cultura corporativa de la entidad contratante tienen un fuerte impacto en el resultado de una selección, según demuestra la investigación empírica. El resultado no es plano. «Pero estas observaciones se pueden trasladar fácilmente al mundo digital», dice Simon Schafheitle.
Iris Bohnet hace una sugerencia al respecto: Crear una autoridad supervisora “¡que establezca los criterios a los que deben ceñirse los algoritmos y sus condiciones de uso antes de que las herramientas sean comercializadas. «Después de todo, jamás usaríamos un medicamento en humanos sin haberlo probado antes en ensayos diseñados para ello”, concluye.
Traducido del francés por Andrea Ornelas
Mostrar más
En cumplimiento de los estándares JTI
Mostrar más: SWI swissinfo.ch, certificado por la JTI
Puede encontrar todos nuestros debates aquí y participar en las discusiones.
Si quiere iniciar una conversación sobre un tema planteado en este artículo o quiere informar de errores factuales, envíenos un correo electrónico a spanish@swissinfo.ch.