¿Alguna vez te llamaron para un puesto en el que encajabas al dedillo? puede que el algoritmo decidiera que no sacaste suficiente puntuación.
Estamos hablando de empresas que ofrecen evaluaciones algorítmicas previas al empleo (y no empresas que ofrecen bolsas de trabajo online). El uso de decisiones automatizadas y perfiles personales para ‘vigilar’, evaluar y asignar un puesto de trabajo, es una práctica cada vez más común por parte de Recursos Humanos a la hora de seleccionar a nuevos candidatos.
Empecemos con datos: El 98% de las empresas Fortune 500 usan Sistemas de Seguimiento de Candidatos de algún tipo en su proceso de contratación, impulsados por las medidas de eficiencia percibidas y el ahorro de costes.
El llamado «embudo de contratación» consiste en el abastecimiento, la selección, las entrevistas y la selección / rechazo como un conjunto de etapas de filtrado progresivo para identificar y reclutar a los candidatos más adecuados que cada vez están siendo más automatizados.
La polémica está servida. Hay plataformas de contratación como PeopleStrong que dicen implementar medidas para mitigar los sesgos anonimizando a los candidatos. No hay pruebas de ello porque casi no hacen pública esta información.
Otras plataformas como HireVue, Pymetrics y Applied basan su modelo de negocio en eliminar los sesgos y discriminaciones a la hora de realizar la contratación.
Pero hay muchas opiniones en contra que culpan a estas organizaciones de discriminatorias, por lo que este sector se caracteriza por su falta de transparencia y confiabilidad. No hay acceso a los datos que manejan.
Y, como siempre sucede en este tipo de decisiones automatizadas, no hay posibilidad de acceder en base a qué criterios se han tomado estas decisiones, y tampoco es posible acceder a los perfiles en base a los cuales se toman las decisiones de contratación.
Empecemos diciendo que hay muchas maneras de discriminar. Como (casi) siempre, Facebook es partícipe de estas discriminaciones a través de varias de sus herramientas.
Una de ellas, sus anuncios hiper-segmentados a la hora de buscar un grupo específico de candidatos, automáticamente excluyendo de la visualización de anuncios de trabajo a otros grupos de personas, y discriminando por género, o edad.
De hecho, los empleadores tienden a discriminar por género, edad y etnia. Un análisis reciente sugiere que este tipo de discriminaciones ha mejorado poco en los últimos 25 años.
Una manera de discriminar es cuando una descripción de trabajo está redactada de manera que desanima a las mujeres a solicitar cierto tipo de empleo.
Como ejemplo, los anuncios de trabajo para áreas dominadas por hombres suelen emplear una mayor redacción masculina usando palabras asociadas con estereotipos masculinos, como líder, competitivo, o dominante, que los anuncios dentro de áreas dominadas por mujeres.
Lo curioso es que, cuando los anuncios de trabajo se confeccionaron para incluir una redacción más masculina que femenina, los participantes percibieron más hombres dentro de estos puestos de trabajo, PORQUE las mujeres encontraron estos trabajos MENOS atractivos.
Esto demuestra que, de antemano, se jugó con la psicología masculina y femenina, y la discriminación ya partió desde la redacción del anuncio del puesto de trabajo. En este paper está muy bien explicado: “Evidence that gendered wording in job advertisements exists and sustains gender inequality.”
Lo mismo sucede con la forma en la que están redactados los CVs. Las señales culturales de clase, cuando se incluyen en los currículums, tienen un efecto sistemático en las tasas de devolución de llamadas de las mujeres que solicitan trabajos orientados al cliente.
Por lo que el lenguaje utilizado por los candidatos ha demostrado ser un proxy, o elemento usado para la discriminación, para la clase social que afecta las posibilidades de ser seleccionado para una entrevista.
En 2017, Facebook incluyó marcadores de trabajo para clientes que permiten que las páginas de Facebook incluyan publicaciones de ofertas de trabajo para anunciar puestos e interactuar con los candidatos.
¿Cómo se hace este tipo de selección? Usando los PERFILES para seleccionar o excluir a candidatos en función de la edad, el origen étnico, el género, la antigüedad laboral o las conexiones con otras empresas, entre otras.
Si vemos los criterios de selección podemos pensar que este tipo de perfilado está prohibido por el RGPD a través de su artículo 9
Pero resulta que este tipo de perfiles se realiza a través de afinidades, y no seleccionando directamente estas características, por lo que los perfiles por afinidad usados para segmentar al público objetivo al que va dirigido, no están contemplados en el RGPD.
Vamos a centrarnos de nuevo en estas plataformas de evaluaciones algorítmicas previas al empleo, y analicemos cuáles son los principales problemas que presentan en aras de cometer una decisión sesgada y discriminatoria.
Lo más interesante desde nuestro punto de vista es saber:
1. Qué datos usan para tomar esta evaluación,
2. Qué tipo de evaluaciones usan para puntuar a los candidatos,
3. Qué variables intentan predecir.
Vamos a ver la información sobre 19 proveedores que proporcionan evaluaciones previas al empleo basadas en algoritmos:

Practices» https://arxiv.org/pdf/1906.09208.pdf p. 7.
- La columna «Assessment Type”: Tipos de evaluaciones que ofrece cada proveedor.
2. La columna “Custom?”: La fuente de datos utilizada para construir una evaluación: C “personalizado” (utiliza datos del empleador), S “semipersonalizado” (adaptado al empleador sin datos) y P “ pre-construido. «
3. La columna «Validation?»: Información sobre los proveedores proporcionaron públicamente sobre sus procesos de validación.
4. La columna «Adverse Impact»:, frases encontradas en sus webs que abordan las preocupaciones sobre el sesgo.
En esta otra tabla podemos ver TODO EL DINERO que han recaudado y dónde están ubicadas. Realmente, IMPRESIONA:

Practices» https://arxiv.org/pdf/1906.09208.pdf p. 24.
Antes nombré la plataforma TribePad como plataforma que basa su modelo de negocio en eliminar los sesgos y discriminaciones a la hora de realizar la contratación.
Pues bien, TribePad, usa las redes sociales generales (Facebook, LinkedIn…) para realizar su publicidad laboral. Y estos anuncios están basados en perfiles, como acabamos de ver.
Además, cuando una persona solicita un puesto en TribePad, puede proporcionar su ID de red social y TribePad completa automáticamente la mayoría de los campos necesarios, como experiencia o calificaciones, y le solicita al candidato los datos faltantes para el puesto específico.

Es decir, se usa el ID de red social como mecanismo para usar las redes sociales para recopilar más datos de los candidatos.
Entonces, ¿cómo trata de eliminar los sesgos y discriminaciones una plataforma como TribePad? Anonimizando las candidaturas para reducir el sesgo inconsciente durante la contratación.
Pero la decisión automatizada ya está hecha, y los datos que se usaron son los datos que los candidatos publicaron en redes sociales. Así es cómo muchas empresas reclutadoras forman perfiles de sus candidatos.
¿Por qué las compañías prefieren estos sistemas de contratación automatizados? Pues porque les ahorran una cantidad considerable de tiempo y dinero. Porque estas plataformas de contratación automatizada incluyen el análisis automático de CVs y cuentas de LinkedIn, porque realizan búsquedas activas de candidatos en plataformas de trabajo haciendo un filtrado automático de candidatos no cualificados para un puesto.
Pero no sólo está la información que nosotros colgamos en las redes sociales. Hay mucha más información que estas empresas usan para realizar perfiles de trabajadores y candidatos.
Estamos hablando de toda una estructura de vigilancia y de monitorización de los empleados y candidatos destinados a la elaboración de perfiles y gestión predictiva de los empleados.
Vayamos con otra plataforma llamada Pymetrics. Pymetrics realiza una evaluación previa al empleo de candidatos con juegos que se basados en neurociencia generando métricas de rasgos cognitivos, sociales y emocionales al analizar cómo se comportan los participantes.

De esta manera, el modelo calcula una puntuación y clasifica al candidato como fuera del grupo, o dentro del grupo. En esta patente está explicado punto por punto: «Systems and methods for data-driven identification of talent» https://patents.google.com/patent/US20190026681A1/en
Pymetrics dice que realiza una Inteligencia Artificial Ética y sin sesgos. Para ello, desarrolló una herramienta específica para realizar esta auditoría y la lanzó como software Open Source:

Otro argumento en el que se apoyan para demostrar cuán éticos son es que cumplen con el tratamiento justo de todos los grupos protegidos indicados en las Directrices sobre procedimientos de selección de candidatos con templados en la EEOC (Comisión de Igualdad de Oportunidades en el Empleo)
Sigamos con HireVue. HireVue automatiza la evaluación previa a la entrevista de los candidatos de un grupo. Realiza videoconferencias automáticas y juegos con el objetivo de realizar perfiles de los candidatos.
HireVue dice eliminar los sesgos humanos en la evaluación de los candidatos y encontrar el conjunto de candidatos que tienen más probabilidades de tener éxito en un trabajo al compararlos con los empleados que ya realizan ese trabajo automatizando la selección de candidatos seleccionándolos directamente para una entrevista humana posterior.

HireVue también presume de aplicar una IA ética, y aquí explica cómo funciona.

Y, al igual que Pymetrics, HireVue también dice cumplir con las Directrices sobre procedimientos de selección de candidatos con templados en la EEOC (Comisión de Igualdad de Oportunidades en el Empleo). Es una buena herramientas de marketing.
Pues parece que NO es todo oro lo que reluce porque por culpa de plataformas como estas muchos candidatos que encajan en ciertos puestos de trabajo cualificados no son seleccionados por el departamento de RRHH, que usan estas plataformas para seleccionar a los mejores candidatos, y que, SUPUESTAMENTE, usan algoritmos que eliminan los sesgos y son éticos.
Pero seamos más específicos. ¿Qué sucede con estas herramientas? Pues la primera prueba que los candidatos deben superar es un test de personalidad, o un vídeo de presentación de 30 segundos, como es el caso de 8AndAbove.
Si no pasan con una puntuación determinada, NI TE CONSIDERAN. ¿Cómo puede un algoritmo decidir si mi personalidad es acorde con la empresa? Miren este diagrama, y verán en qué se basan (8AndAbove):

Así que, esta puede ser la causa por la cual nunca te llamen a ese puesto de trabajo que ves que encajas a la perfección: porque un software (ético) ha decidido que no tienes suficiente puntuación en un maldito test de personalidad.
Este tipo de empresas, repito, están provocando que profesionales se queden FUERA DEL MERCADO LABORAL. Es más, son tan incongruentes, que altos ejecutivos con una brillante carrera, hicieron la prueba, y tampoco pasaron la primera entrevista.
Por un futuro ético, honesto y que respete nuestra libertad y autonomía, debemos saber qué ocurre con nuestros datos.
Como siempre, gracias por leerme.