«Una medicina no se puede vender sin probar. Con la IA debería pasar lo mismo»
Académicos españoles destacan la falta de transparencia y seguridad de estas herramientas, que no pasan ningún control independiente
«¿Debemos arriesgarnos a perder el control de la civilización?»: expertos tecnológicos piden pausar el desarrollo de IA

La inteligencia artificial o IA aspira a transformar el mundo. Pero todavía está por ver si los cambios que trae serán positivos o negativos para la sociedad. Buena parte de la comunidad de expertos en IA tiene serias dudas al respecto. Miles de empresarios, académicos ... y humanistas, entre los que figuran Elon Musk, el cofundador de Apple Steve Wozniak o el pensador Yuval Noah Harari, han compartido una carta abierta en la que solicitan a los laboratorios de IA una pausa en el desarrollo de nuevas soluciones. ¿La razón? La creciente preocupación porque herramientas como el ChatGPT desarrollado por OpenAI dañen a la sociedad, eliminando puestos de trabajo y convirtiéndose en grandes altavoces de la desinformación. En la misiva, los firmantes apuntan a que la moratoria en los desarrollos de tecnologías superiores a las existentes debería ser, como mínimo, de seis meses. Un parentesis que serviría para crear unos estándares de seguridad y para que se acuerde su supervisión por parte de los reguladores.
ABC se ha puesto en contacto con cuatro académicos que se han adherido a la misiva. Todos tienen claro que la pausa no se dará. Incluso si los principales jugadores aceptasen de puertas para afuera, desconfiarían. La carrera de los chatbots 'inteligentes' solo está comenzando y el premio económico puede ser muy grande. Pero eso no quiere decir que la carta haya sido inútil.
Sin control
«La carta ya ha servido para que, por fin, a la comunidad de la IA se la escuche. Que la gente se dé cuenta de que los gobiernos no están haciendo nada para proteger a la población de estas herramientas, que ni siquiera están acabadas», explica Ulises Cortés, catedrático de Inteligencia Artificial de la Universidad Politécnica de Cataluña y responsable del grupo de Inteligencia Artificial de Alto Rendimiento del Centro de Supercomputación de Barcelona.
El docente afirma que las empresas detrás del desarrollo de soluciones como ChatGPT llevan a cabo «prácticas pirata», no explican claramente la procedencia de los datos con los que entrenan a sus herramientas ni la información de los usuarios que recopilan. Tampoco comparten «cuánto están ganando» o la energía que se invierte en el funcionamiento, «que puede tener un efecto en el medio ambiente». Precisamente, esa falta de transparencia ha provocado que, el pasado viernes, Italia anunciase el bloqueo inmediato del chatbot de OpenAI.
Cortés, además, llama la atención sobre el descontrol detrás de los desarrollos, que no cuentan con ningún tipo de supervisión independiente ni certificación: «No concebimos que una medicina se venda sin probar y certificar. Con estas herramientas debería pasar lo mismo». Ahora, sin embargo, estamos encontrándonos con «un montón de laboratorios que están fabricando soluciones que afectan al futuro de la sociedad». Y sin someterse al control de terceros independientes.
Herramientas como ChatGPT, así como los generadores de imágenes o de vídeo, tienen potencial para transformar el mundo laboral. OpenAI lo reconoce abiertamente. «No puedes permitir que ninguna herramienta que se cree hoy, o mañana, que no ha sido certificada por nadie, vaya a perjudicar el trabajo de tanta gente, que no deja de ser un derecho social», explica Juan Antonio Fernández, catedrático de Robótica en la Universidad de Málaga (UMA).
Un reciente estudio de Goldman Sachs recoge que estos sistemas afectarán a 300 millones de empleos y que provocarán que una cuarta parte de los trabajos en Europa y Estados Unidos se automaticen. En algunos casos, estas herramientas incluso estarían siendo entrenadas con información propiedad de las mismas personas a las que pueden terminar suplantando en el mercado laboral.
«Muchos artistas ahora se están encontrando con que están copiando sus trabajos sin permiso. Pero como no hay leyes, porque siempre van más lentas que la tecnología, pues nada», lamenta Cristina Urdiales, también catedrática de Robótica en la UMA y doctora en inteligencia artificial.
«Llevo toda la vida diciendo que no quiero entrenar un sistema que cree cuadros como un impresionista. No lo necesito. Igual que no necesito que una máquina se haga pasar por Shakespeare, porque ya tenemos escritores y pintores estupendos», dice, por su parte, Inma Martínez, presidenta del Comité de Expertos de la Asociación Global para la IA, una agencia de la OCDE y el G7.
Alto riesgo
Martínez, que también asesora al Gobierno de España en inteligencia artificial, remarca que las actuales máquinas «no pueden hacer el trabajo igual de bien que un ser humano». Asimismo, destaca la gran cantidad de fallos que, todavía a día de hoy tienen estos sistemas, que igual alucinan y le declaran su amor al usuario que pueden ser una herramienta efectiva en poder de cibercriminales, tal y como reconoció recientemente Europol: «Ahora puedes crear 'fake' videos y 'fake' imágenes por doquier. Imagínate que llega un momento en el que somos incapaces de diferenciar qué noticia es verdad. Algo que puede llegar a ser muy difícil para ancianos y niños».
La experta lamenta que estas herramientas, que siguen inacabadas y dan problemas, «no han acabado en manos de la comunidad para que se prueben y mejoren, sino en las de mi padre y mi hermano, que no saben nada». «Es como si una empresa pone en la calle un montón de coches autónomos sin más para que los conduzcas», zanja, en línea con las palabras de Cortés.
La patata caliente ahora está en manos de los reguladores. La UE lleva tiempo intentando sacar adelante su Ley de inteligencia artificial, que debería ser aprobada antes de que termine el año. Parte importante de la comunidad de la IA espera que las herramientas como ChatGPT sean encuadradas dentro del grupo calificado de 'alto riesgo', lo que obligaría a que la administración revisase las soluciones antes de su lanzamiento con el fin de minimizar los riesgos. Precisamente, esto es algo que, actualmente, están intentando evitar las grandes tecnológicas, entre ellas Microsoft y Google, que estarían presionando a los legisladores, según un estudio del grupo activista centrado en la transparencia Corporate Europe Observatory.
MÁS INFORMACIÓN
Mientras tanto, en Estados Unidos, la Comisión Federal de Comercio va a comenzar a investigar a OpenAI y ChatGPT con el fin de dilucidar si la herramienta infringe la normativa federal de protección al consumidor. La investigación surge de una queja presentada por el Centro de IA y Política Digital, organización sin ánimo de lucro que acusa a la startup de haber lanzado soluciones que «producen resultados que no pueden ser replicados o probados. Fabrican y alucinan. Describen cómo cometer actos terroristas, cómo asesinar a líderes políticos y cómo ocultar el abuso infantil». Como tantos otros, esta organización también aboga por una regulación de la tecnología.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete