Facebook investiga un fallo que provocó que su IA confundiese a personas negras con primates
La red social califica el fallo como «inaceptable»
![Facebook investiga un fallo que provocó que su IA confundiese a personas negras con primates](https://s1.abcstatics.com/media/tecnologia/2021/09/06/facebook-12-kpEB--1248x698@abc.jpg)
Facebook ha pedido disculpas por un error de su Inteligencia Artificial (IA) encargada de recomendar vídeos después de que esta identificase a personas de raza negra como primates . La red social informa de que ha desactivado este sistema hasta investigar el motivo del error . El fallo se produjo el pasado mes de junio. Entonces algunos usuarios de la red social comenzaron a ver mensajes de 'seguir viendo vídeos de primates' tras la visualización de una grabación en la que aparecía gente negra y que había sido publicada por el 'Daily Mail'.
«Fue claramente un error inaceptable», ha reconocido un portavoz de Facebook en declaraciones a ' The Verge ', donde ha pedido disculpas a los usuarios que hayan podido ver estas «recomendaciones ofensivas».
Um. This “keep seeing” prompt is unacceptable, @Facebook. And despite the video being more than a year old, a friend got this prompt yesterday. Friends at FB, please escalate. This is egregious. pic.twitter.com/vEHdnvF8ui
— Darci Groves (@tweetsbydarci) September 2, 2021
Asimismo, Facebook ha deshabilitado completamente su función de recomendaciones de vídeos a través de la IA -que analiza automáticamente el contenido de los vídeos para sugerir otros relacionados- hasta investigar la causa del error y prevenir que vuelva a ocurrir de nuevo.
«Si bien hemos realizado mejoras en nuestra IA, sabemos que no es perfecta y tenemos más avances que hacer», ha admitido la compañía estadounidense.
El fallo de Facebook no es el primero de este tipo que registra la Inteligencia Artificial de una tecnológica . En 2015 , Google se vio salpicada por la polémica después de que su herramienta Photos catalogase como 'gorilas' a dos personas negras. Más recientemente, en 2020, un estudio demostró que cuando se sube una imagen demasiado grande a Twitter en la que aparecen dos personas, una blanca y otra negra, el algoritmo de la red social, después de recortar la fotografía para mostrar la parte más relevante, tenía tendencia a mostrar a la persona de piel clara.