Ciencia

Los riesgos de una inteligencia artificial sin control humano

El desconocimiento sobre cómo funciona el pensamiento de las máquinas actuales entraña un peligro debido a los errores que pueden llegar a cometer, advierten algunos expertos

Un asistente Alexa, desarrollado por el gigante tecnológico Amazon REUTERS
Miguel Ruiz de Arcaute

Miguel Ruiz de Arcaute

Esta funcionalidad es sólo para registrados

Son el cerebro de muchas de las herramientas digitales que forman ya parte de nuestro día a día al haber conseguido que la vida con ellas sea más fácil y cómoda. Conforman el engranaje de traductores simultáneos, sistemas de clasificación y recomendación de «big data» o asistentes virtuales como Siri y Alexa , y sin ellos su funcionamiento sería muy distinto o directamente no sería. En lenguaje informático se conocen como redes neuronales profundas (DNNs, por sus siglas en inglés) , y el alcance de las posibilidades que brinda ha supuesto una verdadera revolución en lo que al vasto y aún desconocido ámbito de la inteligencia artificial se refiere.

Pero no siempre es oro todo lo que reluce, o así al menos lo constata y advierte el profesor estadounidense Thomas Nickles (Illinois, 1943). Catedrático emérito de la Universidad de Reno en Nevada, Nickles fue uno de los siete ponentes de las XXV Jornadas de Filosofía de la Ciencia, celebradas a principios de marzo en Ferrol. De su conferencia, titulada «¿Qué pasó con la lógica del descubrimiento? De la lógica transparente al razonamiento alienígena», se extrajo un mensaje claro: o se controla la metodología bajo la que operan estas DNNs, o las nuevas formas de inteligencia artificial se irán desarrollando ajenas a nosotros , con las imprevisibles consecuencias que eso pueda tener.

«El problema de estas redes es que no podemos confiar del todo en ellas, porque no acabamos de comprender su funcionamiento y cómo elaboran sus respuestas, y es por eso que a veces cometen errores tremendos. No son tan fiables como necesitamos que sean. Son muy opacas, lo que dificulta que sepamos cómo podemos mejorarlas. Son ‘cajas negras’, en el sentido de que no podemos ver cómo trabajan por dentro», explica Nickles en una entrevista con ABC. Podría sonar a ciencia ficción, pero no lo es. Las DNNs fueron creadas y diseñadas para «resolver problemas por su propia cuenta , sin que tuviéramos que decirles cómo hacerlo por medio de programación explícita y simbólica. Una vez montado su andamiaje, se autoprograman y desarrollan por medio de ‘big data’», explica. Lo que a primera vista parece un planteamiento provechoso acaba transformándose, con distancia y perspectiva, en un arma de doble filo, opina el catedrático.

Para ilustrarlo, Nickles expone algunos ejemplos. «Si una persona es rechazada para la concesión de un crédito o para una oferta de trabajo, los directivos o personas al mando podrían ser incapaces de explicarle por qué al no saber a qué criterios obedeció la decisión de las DNNs (es decir, de los llamados ‘algoritmos’). Esto se debe a que estas máquinas son muy complejas y los humanos no estamos acostumbrados a pensar en miles de direcciones al mismo tiempo. Pero otra razón es que las DNNs seleccionan características que ellas consideran esenciales y que pueden no coincidir con el razonamiento humano. Esto le brinda a la máquina una ventaja sobre nosotros, pero también la hace llegar a conclusiones estúpidas o prejuiciosas (racistas o de género, por ejemplo) en ciertas ocasiones».

El futuro

En un mundo en el que una IA mucho más desarrollada y brillante se percibe como parte intrínseca e innegociable del futuro de la civilización, no son pocos los expertos como Nickles que abogan y llaman desde hace tiempo a un mayor supervisión sobre las máquinas para evitar que el listado de errores se vaya multiplicando y agravando. El debate actual se divide en torno a los que opinan que esta falta de control aún se puede subsanar y los que creen que ya es demasiado tarde. Nickles forma parte de estos últimos .

«Mis razones para ser pesimista son tres. Primero: aunque logremos progresar en la comprensión de las máquinas de hoy en día, las de mañana serán mucho más complicadas, lo que agudizará el problema. Segundo: con estas poderosas herramientas actualmente podemos abordar cuestiones científicas más difíciles. Tercero: queremos máquinas que puedan pensar en formas que vayan más allá de nuestro razonamiento, pero también que sean inteligibles. Pero, ¿acaso no restringirá lo que hagamos para hacerlas más comprensibles su capacidad para ser más hábiles? Parece haber una contradicción ahí. No se puede estar en misa y repicando, ¿o sí?», sentencia.

Comentarios
0
Comparte esta noticia por correo electrónico

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Reporta un error en esta noticia

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Muchas gracias por tu participación