3 razones para no usar inteligencia artificial en adquisición de talento

¿Debemos usar IA en los departamentos de RRHH?

La adquisición de talento y la selección de personal se están convirtiendo en un campo extremadamente competitivo. Tal es así, que según el informe más reciente de Adecco, estiman que el 9% de las vacantes quedan sin cubrir. Con un talento difícil de encontrar y en un contexto tan complejo, es de entender que muchas de las grandes corporaciones incorporen a sus procesos de selección y de recursos humanos la inteligencia artificial con el fin de ahorrar tiempo y aumentar la eficacia y eficiencia de sus procesos.

Los algoritmos y la inteligencia artificial ya forman parte de nuestra vida diaria: nos dicen con qué porcentaje de probabilidad nos va a gustar una película, si esa oferta de trabajo se ajusta a nosotros o no, dirigen la publicidad que recibimos e incluso las interacciones sociales que tenemos en las redes (qué ves y qué ocultan). No hay duda de que la inteligencia artificial es una realidad y la adquisición de talento parece el siguiente campo que entrará de lleno en el mundo del machine learning.

La pregunta correcta en este caso no es si podemos incorporarla, es si debemos. Desde que en 2014 Amazon abandonase el proyecto de IA en selección de personal, se han vertido muchas críticas sobre cómo los algoritmos discriminan a determinadas poblaciones. Aquí vamos a daros 3 razones por las que no incluir la inteligencia artificial en tus procesos de selección, sin embargo, acabaremos con una reflexión que puede sorprenderte.

Las 3 razones para no usar IA en adquisición de talento:

  1. Los sesgos: hay una crítica muy común a los algoritmos y es que tienen la capacidad para discriminar. La propia literatura científica nos dice que, efectivamente, si no ponemos mucho cuidado los algoritmos pueden cometer errores fatales. Todo el proceso de construcción del algoritmo y de interpretación de la salida será el encargado de discriminar. Es un tema complejo pero para asegurar su comprensión usamos una expresión típica en los científicos de datos, “garbage in, garbage out”. Y ese “garbage in” lleva una marca humana en la frente. Por más que pretendamos disfrazar de tecnología la toma de decisiones no podemos esquivar el conflicto. Es fácil encontrar problemas de discriminación por edad o sexo en los diferentes algoritmos, y por ello muchas empresas han decidido no incluir estos parámetros. Ahora bien ¿es esto suficiente? Definitivamente no, si tu algoritmo prioriza personal con tres años como máximo de experiencia, puede que tu algoritmo no discrimine directamente por edad, pero lo hará de forma indirecta eliminando a aquellos de más edad. Por tanto, no incluir un parámetro no hace desaparecer el problema. Señalamos pues este como uno de los problemas que surgen ¿qué datos incluimos? ¿No estamos nuevamente sesgando al incluir o dejar fuera deliberadamente alguna variable?

 

  1. El problema de la opacidad: es un problema característico de la IA pero es más grave si cabe en RRHH. En la gran mayoría de algoritmos (KNN, Random Forest, Naive-Bayes..) tenemos una caja negra llena de números y solo podemos interpretar la entrada de datos y la salida de datos de la misma. Por este motivo, los problemas éticos se nos disparan, ¿Cómo explicaremos a un candidato que ha sido descartado en base a un algoritmo? ¿Es esto justo? Si nosotros mismos no comprendemos cómo hemos tomado la decisión, ¿Cómo vamos a poder explicarla?

 

  1. La percepción del candidato: ¿Cómo los candidatos perciben el uso de algoritmos de promoción o selección? Como era de esperar, la literatura científica dice que los empleados perciben como menos justas las decisiones tomadas por algoritmos. Quizás no sea cierto y quizás el humano cometa más errores, pero no es así como lo perciben empleados y candidatos. Por tanto, y dado nuestro público, debemos tener esto en cuenta que un proceso de toma de decisiones puramente tecnológico va a mermar nuestra reputación y, voy más allá, puede generar animadversión hacia los procesos de selección y adquisición de talento.

Estos son los riesgos de incluir IA en nuestros procesos de adquisición de talento y reclutamiento, ahora bien, ¿pueden los beneficios superar estas dificultades?

¿Por qué sí deberíamos tener en cuenta la IA en los procesos de selección?

 Un gran defensor de estos sistemas podría argumentar que no somos tan exigentes con los procesos de selección tradicionales, y no le falta razón, ¿Estamos auditando los sesgos inconscientes de los reclutadores? ¿Por qué le exigimos cosas a la “máquina” que no nos exigimos a nosotros mismos?

Otro argumento a favor de la inclusión de IA en selección de personal es que los algoritmos no discriminan, los algoritmos son pura matemática, las personas que los crean y los que interpretan las salidas son los que trasladan el sesgo. Y es en parte cierto, ya que los algoritmos no son “tablas de la ley”, pueden ayudarnos en la toma de decisiones pero no podrán, en ningún caso, sustituir la mano humana.

Otra ventaja innegable es el tiempo de respuesta y el hecho de que todos los candidatos de una primera criba pueden ser valorados en cuestión de minutos. ¿No hace esto más justo los procesos? Si pedimos unos requisitos básicos y programamos nuestro algoritmo para filtrar, seguramente lo haga mejor y más rápido que nosotros, pudiendo informar además a los candidatos de forma inmediata de si cumplen o no los requisitos básicos de la oferta.

¿Cuál es la Solución?

¿Qué podemos hacer para poder utilizar los algoritmos sin morir en el intento? Varias son las estrategias que se utilizan. Por ejemplo, pymetrics (herramienta que ayuda a implantar IA en procesos de selección) cuenta con un algoritmo libre dedicado a comprobar los sesgos en el proceso de selección, se llama auditIA y es libre.

¿Soluciona eso el problema de los sesgos? Como hemos visto, no lo hace, ya que no controlamos el sesgo durante la construcción del algoritmo, pero sí controlamos la salida. La mejor manera de controlar diversidad y al algoritmo es la mano humana, es decir, controlar la “salida” de los algoritmos. La EEOC habla de la regla del 80%, se llama índice de disparidad y puede ayudarnos a “controlar” a los algoritmos. 

Por otro lado, podemos usar los algoritmos para ayudar y apoyar en la toma de decisiones sin dejarles tener la palabra final. No obstante, si hablamos de reducir sesgos, habría que pensar cómo controlar los nuestros. 

En definitiva, ventajas y desventajas de esta herramienta que, como todas en sus inicios, suscita muchas preguntas. Es un debate que tendremos en todos los departamentos de rrhh en los próximos años, ¿hasta dónde les dejaremos llegar?

Como nota final os diría que tan importante es controlar la discriminación perpetrada por los algoritmos de aprendizaje automático que la perpetrada por uno mismo, por lo que más vale “armarse” con las herramientas adecuadas para evitarlo porque, no lo neguemos, en nuestro campo aún existe mucha “intuición”.

 

Autor del artículo:

Francisco J. Álvarez

HR Manager y Formador de RRHH

https://www.linkedin.com/in/franjavieralv-4/

 

 


 

Acreditación docente para teleformación: formador/a online