Ni la Inteligencia Artificial va a frenar los «deep fakes»
Los expertos dicen que ni con la IA vamos a poder protegernos de la mentira en redes sociales
La manipulación informativa no es un fenómeno nuevo, pero ahora está cada vez más apegada a los avances tecnológicos de la época y, sobre todo, amplificado por las redes sociales. El desafío de interceder entre las personas para intentar influenciarlas hacia un pensamiento concreto va camino de tomar tintes apocalípticos con los llamados «deep fakes», contenidos multimedia falsos. Una tecnología que ha levantado la alfombra de los temores.
Todavía no se ha adoptado de manera masiva, pero cada vez es más recurrente encontrarse en las principales redes sociales como Facebook o Twitter vídeos en los que se han intercambiado los rostros de un famoso por otro. El resultado es tan natural y está tan perfeccionado que asombra. Asusta incluso el nivel al que se está alcanzando. De momento, la mayoría de estos falsos vídeos son más un experimento que normalmente levantan una mueca entre los usuarios.
El problema, según han defendido expertos en reiteradas ocasiones, es que es una tecnología que se va democratizando cada vez más. Y, en el momento en que esté más accesible, es probable que se abra la puerta al imperio de la mentira. ¿Cómo defenderse de algo que, al menos de primeras, te crees a pies juntillas? ¿Cómo confiar en un vídeo en el que aparece un político defendiendo una propuesta y que, al cabo de unas horas, se demuestra que nunca lo dijo?
La respuesta, hasta ahora, se encontraba en la tecnología; en los algoritmos de Inteligencia Artificial destinados a la revisión del contenido. Si se detecta un pequeño matiz que no encaje a la perfección cabe la posibilidad que una herramienta advierta de la presencia de un «deep fake» . Era la idea más razonable, pero ya se da por hecho que ni por asomo va a ser la panacea.
Un informe ( PDF ) de la consultora Data and Society plantea sus dudas acerca de los sistemas automatizados para la detección de vídeos manipulados. La investigación, titulada «Deepfakes y Cheap Fakes» y realizada por Britt Paris y Joan Donovan , recalca que la solución para evitar estas manipulaciones para por un compromiso social y mejorar algunos aspectos técnicos, pero advierten que «confiar en la Inteligencia Artificial podría empeorar las cosas al concentrar más datos y poder en manos de entidades privadas».
«A medida que estas técnicas se vuelvan más accesibles, se aumentará el impacto a las figuras privadas, especialmente sobre aquellos que pertenecen a la esfera política, social o son vulnerables como grupos minoritarios. En la actualidad, cualquier persona con un perfil de redes sociales es susceptible para ser falsificado», apuntan.
En opinión de estos expertos, «es poco probable» que las medidas de contención contra los “deep fakes” se encuentren únicamente en la tecnología. «Necesitamos más que un enfoque exclusivamente tecnológico para abordar las amenazas de las falsificaciones profundas», sostienen los autores del estudio. «Los problemas provocados por la manipulación audiovisual son muchos y difíciles de remediar, pero podemos trabajar para reducir el riesgo y mitigar el daño », subrayan.
Estos expertos coinciden en que se va a necesitar algún tipo de solución técnica y que debe venir precedido de un encaje legal para detener la propagación de vídeos falsos con mayor celeridad. «Necesitamos hablar para limitar el daño, no resolver este problema», agregó uno de los investigadores, Chesney, quien se muestra tajante acerca de este tipo de contenidos digitales: «Los deepfakes no van a desaparecer».
Ambos, sin embargo, añaden que lo que se produce con más asiduidad son contenidos que califican como «Cheap Fakes» -manipulaciones baratas- a partir de deformaciones y efectos realizados a partir de herramientas de edición gráfica como Photoshop, más o menos detectable cuando se ha podido alterar una imagen. « La historia demuestra que la evidencia no habla por sí sola », aducen los investigadores, quienes consideran que «las nuevas tecnologías no cambian el funcionamiento de la evidencia en la sociedad».
En aras de combatir este problema, redes sociales de relevancia como Facebook anunciaron recientemente el lanzamiento de un programa para que los usuarios pudieran probar una herramienta diseñada para detectar falsificaciones profundas , mientras que la Agencia de Proyectos de Investigación Avanzada de Defensa de los Estados Unidos (DARPA) ha preparado un software, Medifor, que analiza las diferencias en los píxeles de vídeo para determinar si se ha producido una manipulación.
Noticias relacionadas