Las máquinas toman el control de los recursos humanos
El creciente uso de la inteligencia artificial para decidir contrataciones y despidos ha obligado a la Comisión Europea a fijar normas específicas
Imagine que se postula como candidato a una oferta laboral y el encargado de evaluar si usted merece o no el puesto de trabajo es un algoritmo . No se trata de un augurio futurista, sino de una realidad incipiente que amenaza con desatar una auténtica revolución en los recursos humanos.
La inteligencia artificial empieza a tomar los mandos de procesos antes reservados a los equipos de carne y hueso, como la selección del personal. « Estamos en un camino de crecimiento y cada vez se utiliza más . Todos los pronósticos hablan de que se reducirán los empleados intermedios porque serán sustituidos por algoritmos que recogerán la información y tomarán las decisiones», señala Adrián Todolí , profesor de Derecho del Trabajo en la Universidad de Valencia. Vestidas de objetividad, las máquinas ganan terreno en el reclutamiento de nuevos perfiles . «Lo que ha pasado muchas veces es que estos algoritmos no habían sido entrenados adecuadamente y no se había hecho una revisión de los datos», comenta Idoia Salazar , presidenta de OdiseIA y profesora en la Universidad CEU San Pablo. Es decir, su uso no está exento de riesgos.
«Los algoritmos normalmente descubren a través de la inferencia estadística cosas aunque no se las hayamos dicho. Por ejemplo, a partir de las publicaciones que nos gustan en redes sociales, pueden saber la orientación política o sexual y utilizarlo como criterio para no contratar», explica Todolí.
La discriminación también puede producirse porque estas fórmulas matemáticas aprenden de la realidad, que es sesgada . «Si queremos que elija a alguien para un puesto de dirección de un consejo de administración del Ibex-35, la mayoría de consejeros son hombres y el algoritmo aprenderá que es a quien tiene que contratar». En la ciencia estadística, cuantos más datos haya, más fiable es el resultado, motivo por el que también pueden aparecer sesgos. « Si el algoritmo tiene pocos datos de mujeres o de inmigrantes porque históricamente son minoría, los descarta ». Para evitar estas situaciones, el profesor aconseja que las empresas programen un algoritmo que descubra la razón por la que la IA contrata o no a una persona y determine si ha sido una decisión discriminatoria.
La propuesta de reglamento de la Comisión Europea sobre IA establece que, empleada para la clasificación de currículums, esta tecnología es de alto riesgo y debe someterse a una serie de obligaciones antes de comercializarse. Sin embargo, en opinión de Todolí, el problema es que «no contempla la creación de una agencia pública que controle si el riesgo se ha minimizado, sino que permite que sea la propia empresa la que haga una autoevaluación».
Además de aplicarse a las contrataciones, estas fórmulas pueden vigilar el desempeño diario del trabajador . «Se controla cuántas teclas ha utilizado, cuántos correos electrónicos ha contestado, etc. Son datos en bruto que la empresa recoge de forma automática a través de aplicaciones y el algoritmo los procesa para hacer un ranking de productividad», explica el profesor.
Por ello, comienzan a ser responsables de despidos. Como casos recientes, destacan los de la aerolínea lusa TAP y la tecnológica rusa Xsolla, que mostraron la puerta de salida a parte de su plantilla tomando como base las indicaciones de un algoritmo . Todolí recuerda que, en España, el límite son los derechos fundamentales de los trabajadores y el Reglamento General de Protección de Datos. «Se debe informar a los trabajadores de que se está usando un algoritmo para hacerles un perfil o meterles en un ranking y explicar la lógica interna del algoritmo. El trabajador tiene derecho a que la decisión final la tome una persona, es decir, que no sea el algoritmo el que envíe la carta de despido rellenada de forma automatizada», explica.
Noticias relacionadas