😀

Contratación de personal y el impacto de la Inteligencia Artificial.

La inteligencia artificial ha irrumpido en diversos ámbitos de nuestra vida cotidiana. Uno de los sectores donde su presencia ha crecido de manera significativa es el proceso de contratación de personal.

Las empresas están adoptando cada vez más sistemas automatizados que utilizan algoritmos para filtrar currículums, realizar entrevistas virtuales e incluso tomar decisiones sobre la idoneidad de los candidatos.

Con el potencial de agilizar el proceso de selección, la IA promete mejorar la eficiencia, reducir costes y eliminar ciertos prejuicios humanos. Sin embargo, la implementación de estas herramientas automatizadas en los procesos de contratación también conlleva serios riesgos éticos, sociales y técnicos que deben ser considerados con sumo cuidado.

La eficiencia.

El proceso de contratación tradicional es conocido por ser largo, costoso y, en muchos casos, plagado de errores humanos. Con una avalancha de currículos por revisar, entrevistas a realizar y decisiones importantes que tomar, no es raro que los reclutadores se vean abrumados y, por lo tanto, tomen decisiones apresuradas o sesgadas. Aquí es donde la IA entra en escena, ya que puede gestionar una enorme cantidad de datos, identificar patrones y hacer recomendaciones basadas en criterios objetivos, por lo que podría eliminar las imperfecciones humanas de este proceso.

Los sistemas de IA utilizados en contratación suelen analizar currículos y cartas de presentación, escanear palabras clave, evaluar el historial laboral de los candidatos y, en algunos casos, realizar entrevistas virtuales basadas en reconocimiento facial y análisis de voz. Todo esto, a una velocidad que sería imposible para cualquier ser humano. Esta automatización permite a las empresas ahorrar tiempo y recursos.

Por ejemplo: un algoritmo puede evaluar miles de aplicaciones en cuestión de minutos, comparando el perfil de cada candidato con los requisitos especificados en la oferta de trabajo, lo que sería una tarea ardua e insostenible para un reclutador humano. Además, los sistemas de IA pueden ser diseñados para detectar patrones que pueden no ser evidentes a simple vista para un ser humano, como la correlación entre ciertas habilidades, experiencias o atributos personales y el éxito en un puesto específico.

El riesgo de los sesgos en los algoritmos.

Al igual que los humanos, los algoritmos de IA aprenden de los datos con los que son entrenados, lo que significa que pueden incorporar y amplificar los prejuicios presentes en estos datos. Si los datos históricos utilizados para entrenar estos sistemas provienen de un contexto donde existe una desigualdad de género, raza o clase social en la contratación, el algoritmo probablemente replicará y reforzará estos mismos sesgos, incluso de manera más efectiva y sistemática que los seres humanos.

Ejemplo: un ejemplo claro de este fenómeno se dio con Amazon, que en 2018 abandonó un sistema de IA desarrollado para filtrar currículums, después de descubrir que el algoritmo estaba sesgado contra las mujeres. El sistema había sido entrenado con datos históricos de contrataciones, que en su mayoría favorecían a candidatos masculinos en roles técnicos. Como resultado, la IA, en lugar de promover la equidad, favorecía a los hombres, ya que los algoritmos simplemente aprendieron a reproducir los patrones de contratación anteriores. Este es solo uno de los muchos ejemplos en los que la IA, lejos de ser una herramienta imparcial, puede perpetuar y amplificar las desigualdades preexistentes.

Los sesgos en la IA no solo afectan a las mujeres o las minorías raciales, sino que también pueden extenderse a otras características, como la edad, la orientación sexual o incluso el origen geográfico.

Ejemplo: un algoritmo podría, por ejemplo, favorecer a los candidatos más jóvenes, o aquellos que provienen de ciertas universidades, mientras que pasa por alto a candidatos igualmente calificados que no encajan en esos perfiles predefinidos. Esto plantea un dilema ético y social grave, ya que puede resultar en procesos de contratación que no solo son injustos, sino también ilegales en algunos casos.

La discriminación algorítmica.

La discriminación algorítmica es uno de los riesgos más preocupantes de la automatización en la contratación. Mientras que la discriminación humana en la contratación es, al menos, visible y puede ser impugnada, la discriminación algorítmica se esconde en la complejidad de los datos y las decisiones de los sistemas automatizados. Los reclutadores y las empresas, al confiar en un sistema automatizado, pueden estar perpetuando prácticas discriminatorias, sin saberlo.

Los sistemas de IA son muy buenos para identificar patrones, pero su incapacidad para comprender el contexto de estos patrones puede resultar en decisiones discriminatorias.

Ejemplo: un algoritmo que evalúe a un candidato basado en los empleos previos de un individuo podría no tener en cuenta las razones por las cuales una persona tuvo períodos de desempleo o trabajos que no están directamente relacionados con el puesto al que está postulando. Sin la capacidad de contextualizar esta información, la IA podría tomar decisiones erróneas que afectan negativamente a los candidatos.

Además, muchos sistemas de IA son opacos en cuanto a cómo toman sus decisiones, lo que se conoce como la «caja negra» de los algoritmos. Los desarrolladores de IA pueden diseñar sistemas altamente complejos que no permiten a los humanos entender fácilmente cómo se llegó a una decisión. En el contexto de la contratación, esto puede hacer que sea casi imposible apelar una decisión tomada por una máquina. ¿Cómo puede un candidato cuestionar una decisión automatizada que no puede comprender ni verificar? Esto crea una falta de transparencia y una desconexión entre los empleados, los candidatos y las decisiones que afectan sus vidas.

El desafío de la transparencia y la responsabilidad.

Uno de los grandes desafíos de utilizar IA en la contratación es la falta de transparencia de los algoritmos. A diferencia de los procesos tradicionales de selección, en los cuales los candidatos pueden recibir una explicación razonable sobre las razones detrás de la decisión de un reclutador, la IA a menudo no puede proporcionar respuestas claras sobre por qué se rechazó a un candidato. Los sistemas de IA son diseñados para tomar decisiones basadas en grandes volúmenes de datos y patrones complejos que no siempre son accesibles para los seres humanos. Esto puede resultar en una falta de confianza por parte de los solicitantes de empleo, quienes se sienten ignorados y despojados de su derecho a entender el razonamiento detrás de las decisiones que afectan su futuro.

Además, ¿quién es el responsable cuando un sistema de IA toma una decisión incorrecta o injusta? Si un algoritmo discrimina a un candidato basándose en características no relacionadas con su idoneidad para el puesto, ¿es responsable la empresa que implementó el sistema?, ¿o la culpa recae en los desarrolladores del algoritmo que crearon la herramienta?

Esta falta de claridad en cuanto a la responsabilidad es otro obstáculo importante para la adopción de IA en la contratación de personal.

 

La necesidad de una regulación adecuada.

Dado el potencial de la IA para alterar profundamente el panorama laboral, es urgente que se implementen regulaciones que garanticen el uso ético y transparente de estos sistemas.

Hay tres aspectos importantes que son:

  • Las empresas deben ser transparentes sobre el uso de IA en sus procesos de contratación. Los candidatos deben ser informados de que sus aplicaciones serán evaluadas por un sistema automatizado, y se les debe proporcionar la opción de impugnar las decisiones tomadas por el algoritmo si consideran que han sido injustas.
  • Las empresas deben asegurarse de que sus sistemas de IA sean auditados regularmente para detectar y corregir cualquier sesgo que puedan tener. Esto incluye la revisión de los datos utilizados para entrenar los algoritmos, con el fin de garantizar que no se basen en patrones discriminatorios. Además, los desarrolladores de IA deben ser conscientes de los riesgos éticos asociados con el diseño de algoritmos, y trabajar para crear sistemas que promuevan la equidad, la inclusión y la diversidad.
  • La educación y la capacitación en ética de la IA deben convertirse en una prioridad tanto para los desarrolladores de tecnología como para los reclutadores. Los responsables de tomar decisiones en el ámbito de los recursos humanos deben entender cómo funciona la IA y cómo los sesgos pueden infiltrarse en los sistemas. Solo así podrán utilizar estas herramientas de manera responsable y asegurar que no perpetúen las desigualdades que se pretenden eliminar.

¿Hacia la equidad o hacia la discriminación?

La IA tiene el potencial de transformar el proceso de contratación, mejorar la eficiencia y reducir costes. Sin embargo, como hemos visto también presenta desafíos éticos y sociales significativos, que deben ser gestionados cuidadosamente.

Si no se toman medidas para garantizar la transparencia, la equidad y la responsabilidad en el uso de la IA, los sistemas automatizados pueden terminar perpetuando sesgos y discriminación, en lugar de promover la inclusión y la justicia social.

La clave para un futuro exitoso en el que la IA juegue un papel crucial en la contratación radica en encontrar el equilibrio entre la tecnología y la humanidad. Se debe garantizar los algoritmos sean herramientas que complementen, no que reemplacen, el juicio humano.

En este artículo, la IA en la contratación no es una inteligencia artificial como la entendemos, sino una pseudo-IA.

En el contexto de la contratación de personal, cuando hablamos de «Inteligencia Artificial», nos referimos en realidad a sistemas que emplean algoritmos y modelos estadísticos para realizar tareas específicas dentro del proceso de selección. Estos sistemas no poseen una consciencia ni un razonamiento autónomo como una IA general (AGI), sino que funcionan como herramientas que aprenden y se ajustan a partir de grandes volúmenes de datos. Por lo tanto, la tecnología que se utiliza en la mayoría de las plataformas de contratación no es una IA real, sino más bien una pseudo-IA o IA débil, que está diseñada para optimizar tareas concretas, como el filtrado de currículos, la evaluación de respuestas en entrevistas virtuales y la predicción de desempeño laboral.

Esta pseudo-IA no tiene la capacidad de entender el contexto de manera profunda ni de tomar decisiones complejas fuera de los patrones para los cuales ha sido entrenada. En otras palabras, aunque los sistemas son avanzados, no tienen la habilidad de razonar ni de tener una visión general del ser humano o de la sociedad, lo que limita su «inteligencia» a un ámbito muy específico.

A pesar de ello, el impacto de esta pseudo-IA en la contratación puede ser profundo. Si se emplea con responsabilidad, puede agilizar y mejorar la equidad en los procesos. Sin embargo, su uso indebido o su falta de supervisión puede dar lugar a sesgos y discriminación, replicando injusticias sociales preexistentes. La clave está en utilizar estos sistemas de manera ética y con transparencia para garantizar que el juicio humano siga siendo el elemento central en la toma de decisiones.

Lo que sí está avanzando.

Aunque la IA aún no ha alcanzado autonomía general, algunos avances van más allá de los simples algoritmos de filtrado. Se están desarrollando sistemas de IA predictiva que analizan datos históricos para predecir el rendimiento futuro de los candidatos. Además, herramientas de procesamiento de lenguaje natural más avanzadas, como GPT-3 y GPT-4, mejoran las entrevistas virtuales al analizar no solo las palabras, sino también el tono y las emociones. También se están implementando sistemas de análisis de personalidad que examinan el comportamiento de los candidatos en entrevistas grabadas, evaluando factores como expresiones faciales y tono de voz. Sin embargo, todos estos avances siguen siendo formas de IA aplicada y no poseen una comprensión autónoma o general.

El verdadero cambio hacia sistemas autónomos y conscientes en el ámbito de la contratación sigue estando en el futuro.

más sobre:

Artículos recomendados

¿Como funciona una Impresora Core XY?

Las impresoras 3D han revolucionado la fabricación y la creación de prototipos en la última década para diseñadores, ingenieros y aficionados, llevando la producción de objetos físicos a un nivel completamente nuevo de accesibilidad y precisión. Sin embargo, a pesar

Leer más >

Fraude en el uso de tarjetas corporativas.

El uso de tarjetas corporativas es una práctica común en muchas empresas, que permite a los empleados realizar compras necesarias para sus actividades laborales. Sin embargo, su mal uso puede derivar en fraudes significativos que afectan las finanzas de la

Leer más >

El acoso laboral digital.

El acoso laboral es una problemática que ha acompañado al entorno profesional durante años, pero con el auge de las tecnologías y el trabajo remoto, ha surgido una nueva modalidad: el acoso laboral digital. Este tipo de acoso se caracteriza

Leer más >

La alucinación en la inteligencia artificial.

¿Puede una máquina inventar algo tan convincente que resulte imposible de cuestionar? Este interrogante abre la puerta a un fenómeno intrigante: las alucinaciones en inteligencia artificial. Aunque suene extraño, este concepto no proviene de la imaginación literaria, sino del ámbito

Leer más >

Compartir

Facebook
X
LinkedIn
WhatsApp
Email
Print
Copiar URL
content_copy Copiar URL Copiado al portapapeles

¿Te ha ayudado esta página?

Cookies

Para ofrecerte una experiencia mejorada, este sitio utiliza cookies. Al continuar navegando en este sitio aceptas nuestra Política de Cookies, Privacidad y Términos de Uso.

Nuestra primera consultoría es gratuita.
[getGuppyConversation]

Hola 👋

¿Cómo podemos ayudarte?

[customprofilepicture]

Compartir página

Facebook
Twitter
LinkedIn
WhatsApp
Copiar URL
content_copy Copiar URL Copiado al portapapeles

Es necesario iniciar sesión o registrarse para continuar