Perfil
CANAL E
Tecnología

“La inteligencia artificial no es neutral”: los riesgos ocultos en la selección laboral digital

La especialista en Relaciones Laborales, Ayelén Kalenok advierte sobre los sesgos y la falta de regulación en el uso de inteligencia artificial para procesos de selección de personal.

Inteligencia Artificial
Inteligencia Artificial | Reperfilar

El uso de inteligencia artificial en reclutamiento ya es una realidad, pero su aplicación está generando controversias por discriminaciones algorítmicas y falta de transparencia.

Para hablar sobre este tema, Canal E se comunicó con la especialista en Relaciones Laborales, Ayelén Kalenok, quien comentó que, “hoy hablamos poco de cómo la IA impacta directamente en los procesos de selección”.

La entrevistada se refirió a un caso paradigmático ocurrido en California, donde una persona demandó a la empresa Workday, una de las más grandes del mundo en soluciones de RR.HH., por haber sido rechazado sistemáticamente por un sistema automatizado de selección. “Esta persona se postuló más de 100 veces en siete años y siempre fue rechazada por el sistema”, explicó. La denuncia alega discriminación por edad y etnia, y fue aceptada como demanda colectiva, marcando un precedente.

¿Quién es responsable cuando discrimina una IA?

Uno de los aspectos más controversiales es la atribución de responsabilidades. “La inteligencia artificial no actúa sola, funciona con datos y parámetros que le damos las personas”, remarcó Kalenok. Según la especialista, los sesgos sociales que tienen quienes programan o configuran estos sistemas se trasladan automáticamente a los resultados.

“Si el equipo que configura la IA tiene prejuicios hacia mayores de 40 años, o ciertos niveles educativos, eso se va a ver reflejado en los filtros”, advirtió, señalando la urgente necesidad de control y regulación. Además, resaltó que los marcos legales actuales no están del todo preparados para afrontar estos nuevos desafíos.

Privacidad e información personal: ¿hasta dónde llegan?

Otro tema central es el uso de información personal durante el proceso de selección. “Muchas veces aceptamos todo sin saber qué datos se están utilizando para filtrarnos”, sostuvo Kalenok. En este contexto, explicó que es cada vez más común que las plataformas accedan a redes sociales o datos personales para validar o descartar candidatos, lo cual pone en debate los límites de la privacidad.

“En 2018, Amazon tuvo que dejar de usar un sistema que favorecía a candidatos hombres por sobre mujeres”, recordó, remarcando la importancia de tener diversidad en los equipos que desarrollan estas tecnologías. “La tecnología debe representar la diversidad de la sociedad, si no, va a replicar sus desigualdades”, mencionó.

El uso de IA en Argentina ya es cotidiano

Según Kalenok, aunque muchas veces no se note, “en Argentina ya se usan filtros automáticos en las postulaciones laborales”. Desde el momento en que una persona carga su CV o aplica con ciertas palabras clave, los sistemas comienzan a rankear perfiles y dejar a muchos fuera sin que sus candidaturas sean vistas por un humano.

Esto, en su opinión, genera una falsa percepción de igualdad. “Hoy todas las postulaciones parecen iguales porque usamos IA para armar currículums o descripciones de rol”, explicó. Si bien el uso de estas herramientas tiene como objetivo agilizar procesos y ahorrar tiempo, su implementación sin criterios éticos puede generar efectos negativos tanto para los candidatos como para las empresas.

Una urgencia ética y de efectividad

La especialista enfatizó que la situación actual requiere atención inmediata. “Hoy algo no está funcionando y es importante ver cómo puede mejorar”, dijo. En su opinión, los sistemas no solo están generando discriminación, sino también desperdicio de tiempo y frustración en los postulantes.

Para cerrar, propuso repensar el uso de la tecnología en los RR.HH. desde una mirada más inclusiva, transparente y regulada. La inteligencia artificial puede ser una aliada, pero solo si se utiliza con responsabilidad.