experto en inteligencia artificial
Alfonso Ureña: «La inteligencia artificial no debe tomar las decisiones por nosotros»
El presidente de la Sociedad Española para el Procesamiento del Lenguaje Natural apuesta por una IA «ética»
Ureña dirige el Grupo SINAI de la Universidad de Jaén, uno de los equipos de investigación de Tecnologías del Lenguaje más reputados de Andalucía

Alfonso Ureña (Torredonjimeno, 1967) es una de las voces más reputadas de la Inteligencia Artificial en Andalucía. Doctor en Informática, Catedrático de Lenguajes y Sistemas de la Universidad de Jaén, profesor de la UNED, investigador principal del Grupo SINAI (Sistemas Inteligentes ... de Acceso a la Información) de la UJA, presidente la Sociedad Española para el Procesamiento del Lenguaje Natural (SEPLN), miembro del Consejo Consultivo del PERTE (Proyecto Estratégico para la Recuperación y la Transformación Económica) 'Nueva Economía de la Lengua', así como otro buen número de cargos en sociedades científicas y grupos de investigación dan fe de que se trata de una referencia en la materia. Su campo es el llamado 'Procesamiento del lenguaje natural', es decir, los mecanismos que permiten operar a sistemas como el ahora tan afamado ChatGPT. Aboga por anteponer la «ética y la responsabilidad» en el desarrollo de estas herramientas y no fiarlo todo a ellas, por el sesgo que aún poseen.
¿En qué situación se encuentra la investigación en Inteligencia Artificial en Andalucía?
La rama a la que yo pertenezco, el llamado Procesamiento del Lenguaje Natural, en la actualidad se está llevando más del 50 % del esfuerzo investigador a nivel mundial de la IA. Aquí me gustaría reivindicar el trabajo que estamos llevando a cabo, que se basa en generar lenguaje de la misma forma en la que lo hacemos los humanos, facilitando la comunicación hombre - maquina.
Creo que este es uno de los retos más apasionantes del ser humano ahora mismo, sobre todo porque sobre el 90 % de la información existente no está estructurada, y la manera en la que el conocimiento se transmite es mediante el lenguaje. Esta es una labor que, por ejemplo, en el Grupo SINAI, donde llevamos trabajando más de 25 años, nos ha convertido en una referencia. En Andalucía hay grandes expertos en este campo.
¿Y en qué punto se halla su desarrollo a nivel general?
Hay mucha expectación, pero ya llevamos muchos años de trabajo a la espalda. Estamos, eso sí, en un momento que yo diría de «revolución», por la capacidad de cómputo de los ordenadores, unido a las nuevas técnicas de aprendizaje automático. Sin embargo, esta revolución ha llegado gracias a los pasos que se han ido dando. Además, las técnicas de aprendizaje automático han permitido construir este tipo de modelos.
Esto, que ha sorprendido a la sociedad, va a ir a más. Quizá, por otra parte, se están poniendo demasiadas expectativas: las cosas irán cambiando poco a poco, a pesar de lo espectacular de las transformaciones. ChatGPT se lanza en 2022 y consigue 100 millones de usuarios en 2 meses. Por comparar, Instagram necesitó 9 meses y TikTok más de dos años para conseguir esas cifras.
Pero se espera una progresión exponencial de estas herramientas.
Voy a explicarlo con un símil que use hace pocos días dando una charla: esto puede ser como una bicicleta eléctrica, tendremos un asistente para nuestro cerebro. Lo mismo que llegó la calculadora a nuestras vidas y nos ayudó a realizar ingentes cálculos aritméticos, estas herramientas nos va a ayudar en muchos quehaceres diarios. Seguirán, en cualquier caso, necesitando una supervisión por parte del usuario, que sean capaces de escribir un correo o un texto complejo, no significan que no lo puedan hacer con información errónea.

Inteligencia Artificial
«Creo que la IA se aproximará al razonamiento humano, pero no lo superará»
Alfonso Ureña
Presidente de la SEPLN
Algunos gurús ya hablan de ralentizar su desarrollo.
Mi opinión es que no se pueden poner puertas al campo, si bien hay que usar la tecnología con mucha responsabilidad. Por eso deben entrar en su evolución, además de tecnólogos, antropólogos. la Unión Europea, a través de la Comisión, creó unas directrices éticas para una inteligencia artificial fiable, por parte de un grupo de expertos.
Por distinguir, vemos tres caminos: en Europa se pone en el centro al usuario, en Estados Unidos a las empresas y en China a su Gobierno. Mi criterio es que el ciudadano tiene que ser central, el uso de la IA tiene que ir en beneficio de la humanidad. Por aclarar, esta tecnología tiene que ser lícita, es decir, estar dentro de parámetros legales; ética, que asegure el cumplimiento de unos principios; robusta (desde el punto de vista técnico y social) que estos sistemas no generen daños colaterales. Más características: transparente. Por ejemplo, ChatGPT es una caja negra, no tiene trazabilidad, no se sabe por qué toma una decisión, y así no se pueden corregir posibles errores. Y, por último, explicable y trazable, como la capacidad de dar a entender los procesos técnicos de sus razonamientos, como en las decisiones humanas. La trazabilidad, facilita la auditabilidad y la explicabilidad. Esto se explica muy bien desde la experiencia: en 2011 IBM lanzó el sistema Watson, una primera inteligencia artificial. Fracasó porque no se sabía por qué llegaba a una conclusión. Por ejemplo, en el ámbito médico es necesario saber por qué el sistema llega a un determinado diagnóstico, es decir que sea explicable.
Mi opinión tras años de trabajo es que máquina nos puede «entender» pero no nos comprende, por eso creo que la Inteligencia Artificial se aproximará a la inteligencia humana, pero no la superará.
¿Y cómo, entonces, introducir patrones éticos para su desarrollo?
Partamos de que la tecnología va por delante de la regulación, por eso tenemos que luchar por tener una IA responsable y confiable. Tenemos el ejemplo de la energía nuclear, todo se puede usar con beneficios comunes o de destrucción, por eso esta tecnología tiene que estar centrada en el bien común.
Podemos hablar de protección de datos, pero por centrarnos: pensemos en un escenario posible, un vehículo autónomo nivel cinco (sin intervención humana). Ante una situación como un atropello, el algoritmo tiene que poder dar una solución ética y justificable.
Al final los robots han llegado a nuestra vida, aunque no tengan forma corpórea.
Sí, porque los asistentes virtuales no dejan de ser robots. Aquí podemos ver cómo las máquinas nos pueden ayudar en nuestra vida cotidiana, por ejemplo con software que ya está ayudando a personas con deterioro cognitivo. Ahora bien, y entrando en el campo del Procesamiento del Lenguaje Natural, me gustaría resaltar es el tema de los sesgos. Estos modelos recogen todo y la información, muchas veces, también es injusta, por eso los sistemas, desde nuestro punto de vista, tienen que pensarse de forma que puedan usarse sin ningún tipo de sesgo de edad, género o condición, garantizando la accesibilidad de diseño universal, como lo que ya hemos visto con los cajeros y las personas mayores.
Hablamos de usos positivos, pero ¿y los negativos? Como, por ejemplo, usar IA para tratar de influenciar en unas elecciones.
La sociedad es influenciable, sin duda. Precisamente estamos trabajando en sistemas y herramientas contra la desinformación y los bulos, creando sistemas que sean capaces de detectarlos.
¿Y eso no colisiona con la libertad de expresión?
Evidentemente hay que garantizar la libertad de expresión, pero siempre dentro de los parámetros legales. Desde el Grupo SINAI estamos trabajando herramientas para detectar discursos de odio. Es decir, determinar el grado de ofensividad/toxicidad y moderar los contenidos en redes sociales. Hay que garantizar que se puedan expresar opiniones, sin contenido ofensivo.
¿Qué campo espera que le dé más satisfacciones?
Un lema que he aplicado al grupo desde su fundación es «que la tecnología y, concretamente, la tecnología del lenguaje, nos ayude a hacer un mundo mejor». Tuvimos un proyecto europeo de inclusión de personas de amplio espectro autista a través de herramientas para favorecer su comunicación. También desarrollamos tecnología de alerta tempranas de problemas de salud mental, como bulimia, ciberacoso, o tendencias autodestructivas.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete