GÉNERO Y NÚMEROS

La IA y los sesgos en la contratación de recursos humanos

La adopción de inteligencia artificial en este sector no para de crecer

La inteligencia artificial está demostrando una capacidad significativa para reducir sesgos humanos en los procesos de contratación, como los relacionados con la edad, el género o la apariencia física. A diferencia de los reclutadores tradicionales, que pueden verse influenciados por diversos estereotipos o prejuicios personales, los algoritmos pueden evaluar candidatos con base en datos objetivos y parámetros previamente definidos.

 Esto representa una oportunidad para promover procesos más equitativos y basados en competencias. La clave, sin embargo, está en diseñar sistemas que prioricen la diversidad y la inclusión desde su programación.

"Con la ayuda de la inteligencia artificial , los equipos pueden identificar mejor el talento disponible, reducir significativamente el tiempo de contratación y tomar decisiones informadas basadas en análisis predictivos. Además, las plataformas inteligentes permiten mejorar la experiencia del candidato, personalizar itinerarios de desarrollo profesional y automatizar tareas administrativas que antes requerían intervención humana. Todo esto contribuye a liberar tiempo para que los profesionales de Recursos Humanos se concentren en tareas estratégicas, como la cultura organizacional, el liderazgo y el bienestar laboral", detalló Jimena Ferreño, directora general de una firma especializada en talento y desarrollo organizacional que acaba de brindar una charla sobre "liderazgo en tiempos de inteligencia artificial".

 

No obstante, la inteligencia artificial también puede reproducir sesgos si no se entrena correctamente. Si bien la inteligencia artificial funciona a partir de grandes volúmenes de datos, el algoritmo tenderá a repetir patrones si esa información refleja desigualdades del pasado. Un caso paradigmático fue el de Amazon, que en 2018 debió desactivar su sistema de reclutamiento basado en inteligencia artificial porque penalizaba sistemáticamente a las mujeres que se postulaban para empleos técnicos. El sistema había sido entrenado con currículums de la última década, un período en el que la mayoría de los candidatos exitosos eran hombres.

El sesgo de género no es el único. Estudios recientes detectaron que algunos sistemas de inteligencia artificial tienen más probabilidades de rechazar a postulantes mayores o a personas con nombres que sugieren determinado origen étnico. "La inteligencia artificial no es neutral. Repite los patrones culturales de quienes la crean y los datos con los que la alimentan", advirtieron.

Esta nota habla de: