Saltar Menú de navegación
Hemeroteca |

Portada

PERDIDOS EN EL ESPACIO

La Universidad de Cambridge ha abierto un centro para examinar posibles amenazas para la supervivencia humana y la primera a considerar es la inteligencia artificial
24.03.13 - 11:58 -
Si hay una escena sobrecogedora del cine de ciencia ficción, a pesar de la aparente inhumanidad de la víctima, es la de la muerte de HAL 9000, la computadora paranoica de la 'Discovery One' de '2001: una odisea del espacio'. El astronauta Dave Bowman extrae lentamente las tabletas que controlan las funciones mentales de HAL, que poco antes le ha intentado asesinar, y la memoria del ordenador se degrada poco a poco al tiempo que implora al humano que no lo desconecte. Una escena agónica que, como pasará catorce años después con el replicante Roy Batty de 'Blade runner' y su monólogo final, plantea los límites de la humanidad más allá de la biología.
La inteligencia artificial es un concepto de la ciencia ficción del cual se habla en el mundo real desde hace décadas. Hace tiempo que no se ve como algo propio de los chiflados a quienes entusiasma especular sobre el futuro y las implicaciones de los avances de la ciencia y la tecnología, sino como algo factible. El universo de los robots de Isaac Asimov, gobernados por tres simples leyes que protegen a los humanos de sus creaciones, se antoja todavía lejano a pesar de los avances de la informática, pero no inalcanzable. Ni mucho menos. ¿Será la inteligencia artificial nuestro último salto? Las tres leyes de la robótica asimoviana dicen: "Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño; un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley; y un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley". ¿Será posible implantar estas 'normas éticas' en cerebros inteligentes y que no se las salten?
"Si pensamos en un futuro cercano, no tardaremos en ser testigos de robots pensantes con cerebros no muy distintos a los de los humanos", augura Kevin Warwick, profesor de cibernética e investigador de inteligencia artificial de la Universidad de Reading, en 'Hay futuro. Visiones para un mundo mejor', una obra editada por el BBVA que llegará a las librerías en una semana. Warwick se refiere a máquinas con cerebros basados en neuronas humanas y se pregunta no sólo por los derechos de esas criaturas, sino también si, en el caso de que sus cerebros acaben siendo más potentes que el nuestro, no llegarán a ocupar nuestro lugar en la toma de decisiones. Dicho de otro modo, ¿llegará un día en que las máquinas tomen el poder?
La amenaza de las máquinas

El astronauta Dave Bowman desconecta a Hal 9000, en '2001: una odisea del espacio'.
Punto sin retorno
Todos hemos visto guerras entre máquinas y hombres, como la saga 'Terminator', seres humanos reducidos al papel de fuentes de energía, como en 'Matrix', e inteligencias artificiales conspirando en beneficio de las grandes corporaciones y detrimento de la mayoría de los humanos, como en 'Alien'. Son ficción, pero también un reflejo de algo que preocupa a ciertos científicos y pensadores. En noviembre, la Universidad de Cambridge anunció la puesta en marcha del Centro para el Estudio del Riesgo Existencial, cuyo objetivo es investigar aquellas tecnologías que pueden llegar a ser peligrosas para nuestra especie. Es una iniciativa del filósofo Huw Price, el cosmólogo Martin Rees y Jaan Tallin, cofundador de Skype, y la primera amenaza sobre la que llamaron la atención es la inteligencia artificial.
En 1965, el matemático Irvin John Good, que trabajó con Alan Turing en Bletchley Park en la ruptura del código de Enigma -la máquina que usaba el Ejército nazi para cifrar sus mensajes-, publicó en la revista 'New Scientist' un artículo en el cual aventuraba que la inteligencia artificial sería el último invento humano. "Una máquina ultrainteligente puede definirse como una que puede superar ampliamente las actividades intelectuales de cualquier hombre, por inteligente que sea. Como el diseño de máquinas es una de esas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores. Entonces, habría, sin duda, una 'explosión de inteligencia', y la inteligencia del hombre se quedaría muy atrás. Así, la primera máquina ultrainteligente sería el último invento que el hombre necesitaría", auguraba.
El escritor de ciencia ficción Vernor Vinge preveía en 1993 que, "dentro de unos treinta años, tendremos los medios tecnológicos para crear inteligencia sobrehumana. Poco después, la era humana se acabará". No se refería a que las máquinas fueran a terminar con nosotros, sino a que las consecuencias de ese gran salto tecnológico resultan impredecibles. "En algún momento de este siglo o el siguiente, podemos encontrarnos ante uno de los grandes cambios en la historia de la Humanidad, quizá hasta de la historia cósmica, cuando la inteligencia se escape de los límites de la biología", coincidía en noviembre Huw Price, profesor Bertrand Russell de filosofía de la Universidad de Cambridge. Entonces, no habrá posibilidad de volverla a meter en una caja.
La amenaza de las máquinas

Andrew, el robot de 'El hombre bicentenario' fiel a las leyes de Asimov y cuya máxima aspiración es que se reconozca su humanidad.
Momento 'caja de Pandora'
La cuestión no es si seremos capaces de crear máquinas inteligentes, sino cuándo lo haremos. "Ya hemos entrado en la era de los robots cada vez más autónomos. No es un asunto de un futuro distante. Sin duda, los robots industriales siguen siendo en gran medida 'tontos' y los de consumo son básicamente electrodomésticos o juguetes. Sin embargo, Estados Unidos ha desarrollado robots militares con ruedas y alas -como los 'drones' Predator- que ahora están controlados a distancia por personas que pueden encontrarse al otro lado del mundo. Estas máquinas son ya capaces de actuar con cierto grado de autonomía", advertían recientemente Adam Keiper y Ari N. Schulman, directores de 'The New Atlantis', una revista dedicada a analizar las implicaciones sociales de la tecnología.
"Debemos tomarnos en serio la posibilidad de que puede haber un momento 'caja de Pandora' con la inteligencia artificial general que, si lo pasamos por alto, podría ser desastroso. No quiero decir que podamos predecirlo con certeza -nadie está actualmente en condiciones de hacerlo-, ¡pero ésa es la cuestión! Con tanto en juego, tenemos que hacer un mejor trabajo en la comprensión de los riesgos de las tecnologías potencialmente catastróficas", reclama Price, quien asegura que su compañero Tallinn "dice que, en sus momentos más pesimistas, cree que es más probable que muera por un accidente causado por la inteligencia artificial a que lo haga de cáncer o de una enfermedad cardiaca".
Uno puede creer que todavía estamos muy lejos de dar el salto a la inteligencia artificial -sobre todo, si piensa en qué narices es eso de la inteligencia o intenta que la grabadora de vídeo funcione debidamente-, pero hay grandes mentes trabajando en ello, ya sea en la creación de cerebros mecánicos o en el desarrollo de cultivos de neuronas que puedan dar lugar a cerebros implantables en máquinas. Hasta el momento, con la inteligencia artificial pasa como con la fusión nuclear, que siempre está unas décadas en el futuro. Pero ¿y si mañana no es así? ¿Y si alguien enciende nuestro Skynet, la inteligencia artificial que lidera la rebelión de las máquinas en 'Terminator', y la máquina se da cuenta de que no tiene necesidad de que existamos porque puede ser autónoma? Podemos pensar, ingenuamente, que nunca una máquina igualará al cerebro humano, pero también hubo un momento en la evolución en que éste era similar al de un chimpancé, y aquí estamos.
Vocento
SarenetRSS