Cuando la inteligencia artificial se convierte en una auténtica pesadilla: envía gente a la cárcel pero se equivoca
Los expertos alertan de cómo trabaja el sistema de justicia penal de Estados Unidos, donde un algoritmo puede determinar la trayectoria de la vida de cualquier ciudadano
En este año 2019 veremos grandes avances en inteligencia artificial (IA), esa capacidad que tienen las máquinas para usar algoritmos, aprender de los datos y utilizar lo aprendido en la toma de decisiones. Pero a medida que esta tecnología crezca, también crecerán sus desafíos. Por esta razón, Europa ultima sus orientaciones éticas cuya guía final se aprobará en marzo de este año.
Hasta ahora, la IA ha demostrado de sobra su valía . Pero también sus errores . Amazon, por ejemplo, dejó de lado a su IA por sexista . El objetivo es que dicha herramienta ayudara a la compañía a seleccionar de una manera más rápida y efectiva a los candidatos que podían formar parte de la compañía. Sin embargo, mostró un sesgo muy claro contra las mujeres porque se educó a la IA con currículos de candidatos recopilados durante una década. Por entonces, la mayoría de los candidatos eran hombres por lo que la tecnología fue entrenada con un claro dominio masculino.
Este mismo error parece repetirse en otras áreas, cuya trascendencia genera una mayor gravedad. Y es que la IA también es utilizada por las autoridades de cualquier país para, por ejemplo, elaborar perfiles de ladrones, asesinos o violadores . El más mínimo error puede, sin embargo, condenar a un inocente.
Tal y como recoge una reciente noticia publicada en « MIT Technology Review », el uso de datos históricos para entrenar a este tipo de herramientas resulta peligroso, tal y como pusieron de manifiesta los expertos que participaron en la conferencia «Data for Black Lives», celebrada los pasados 11, 12 y 13 de enero en Massachusetts (EE.UU.)
Los expertos alertan de cómo trabaja el sistema de justicia penal de Estados Unidos, donde un algoritmo puede determinar la trayectoria de la vida de cualquier ciudadano. Cabe reseñar, además, que es el país del mundo que más personas encarcela (a finales de 2016, casi 2,2 millones de adultos estaban recluidos en cárceles y otros 4,5 millones se encontraban en otros establecimientos penitenciarios), algo que preocupa a los políticos.
Ante este panorama, los tribunales estadounidenses han recurrido a herramientas automatizadas para ser más eficientes y seguros . El problema, es que no siempre lo son. Y es que los sistemas de reconocimiento facial diseñados con IA para agilizar los procesos no ofrece las garantías necesarias , tal y como denuncian investigadores y defensores de los derechos civiles, especialmente entre los individuos de piel oscura .
Pero aún peor es la herramienta de evaluación de riesgos : aquella con la que se estima la probabilidad con la que un detenido reincidirá. Su resultado es evaluado por un juez, que determina qué tipo de servicios de rehabilitación debe recibir el detenido o si debe permanecer en la cárcel antes del juicio.
¿Hasta qué punto puede la IA predecir con precisión el comportamiento delictivo de una persona y más teniendo en cuenta que dicha tecnología está entrenada con datos históricos de delitos ? «Las poblaciones que históricamente han sido atacadas de manera desproporcionada por las fuerzas del orden público, especialmente las comunidades de bajos ingresos y minorías, están en riesgo de ser abofeteadas con altas puntuaciones de reincidencia», señala «MIT Technology Review». El algoritmo, por tanto, perpetúa los sesgos y se alimenta de datos contaminados .
Noticias relacionadas