Traducido por el equipo de SOTT.net en español

Desde los coches autodirigidos hasta los ordenadores que pueden ganar concursos, los seres humanos tienen una curiosidad e interés naturales por la inteligencia artificial (IA). Sin embargo, a medida que los científicos siguen haciendo máquinas cada vez más inteligentes, algunos se preguntan "¿qué pasará cuando los ordenadores se vuelvan demasiado inteligentes para su propio bien?"
artificial intelligence
© Gerd Altmann from Pixabay
Desde "Matrix" hasta "Terminator", la industria del entretenimiento ya ha empezado a reflexionar sobre si los futuros robots amenazarán algún día a la raza humana. Ahora, un nuevo estudio concluye que quizá no haya forma de detener el ascenso de las máquinas. Un equipo internacional afirma que los humanos no podrían impedir que la superinteligencia artificial hiciera lo que quisiera.

Científicos del Center for Humans and Machines del Max Planck Institute han empezado a imaginar cómo sería una máquina de este tipo. Imagina un programa de IA con una inteligencia muy superior a la de los humanos. Tanto que podría aprender por sí mismo sin necesidad de una nueva programación. Si estuviera conectada a Internet, los investigadores afirman que la IA tendría acceso a todos los datos de la humanidad y podría incluso tomar el control de otras máquinas de todo el mundo.

Los autores del estudio se preguntan ¿qué haría tal inteligencia con todo ese poder?. ¿Funcionaría para mejorar la vida de todos nosotros? ¿Dedicaría su capacidad de procesamiento a solucionar problemas como el cambio climático? ¿O buscaría la máquina apoderarse de las vidas de sus vecinos humanos?


¿Controlar lo incontrolable? Los peligros de la superinteligencia artificial


Tanto los programadores informáticos como los filósofos han estudiado si hay una forma de evitar que una IA superinteligente se vuelva potencialmente contra sus creadores humanos, garantizar que los futuros ordenadores no puedan causar daños a sus propietarios. El nuevo estudio revela que, por desgracia, parece prácticamente imposible controlar a una IA superinteligente.

"Una máquina superinteligente que controla el mundo suena a ciencia ficción. Pero ya hay máquinas que realizan ciertas tareas importantes de forma autónoma sin que los programadores entiendan del todo cómo lo han aprendido. Por lo tanto, se plantea la cuestión de si esto podría llegar a ser en algún momento incontrolable y peligroso para la humanidad", afirma el coautor del estudio, Manuel Cebrián, líder del Digital Mobilization Group del Center for Humans and Machines, en un comunicado de la universidad.

El equipo internacional buscó dos formas diferentes de controlar la inteligencia artificial. La primera frenaba el poder de la superinteligencia amurallándola e impidiendo que se conectara a Internet. Tampoco podía conectarse a otros dispositivos técnicos del mundo exterior. El problema de este plan es bastante obvio: un ordenador así no podría hacer casi nada para ayudar a los humanos.

Ser amable con los humanos no computa

La segunda opción se centraba en crear un algoritmo que dotara al superordenador de principios éticos. De este modo, se espera que la IA se vea obligada a tener en cuenta los intereses de la humanidad.

El estudio creó un algoritmo de contención teórico que evitaría que la IA dañara a las personas en cualquier circunstancia. En las simulaciones la IA dejaría de funcionar si los investigadores consideran que sus acciones son perjudiciales. A pesar de impedir a la IA de alcanzar el dominio del mundo, los autores del estudio afirman que esto no funcionaría en el mundo real.

"Si se desglosa el problema según las reglas básicas de la informática teórica, resulta que un algoritmo que ordene a una IA que no destruya el mundo podría detener inadvertidamente sus propias operaciones. Si esto ocurriera, no se sabría si el algoritmo de contención sigue analizando la amenaza o si se ha detenido para contener a la perjudicial IA. En efecto, esto hace que el algoritmo de contención sea inservible", afirma Iyad Rahwan, director del Director del Center for Humans and Machines.

El estudio concluye que la contención de la inteligencia artificial es un problema incomputable. Ningún programa informático puede encontrar una forma infalible de evitar que la IA actúe de forma perjudicial si así lo desea. Los investigadores añaden que es posible que los humanos ni siquiera se den cuenta cuando las máquinas superinteligentes lleguen al mundo de la tecnología. Entonces, ¿ya están aquí?

El estudio aparece en el Journal of Artificial Intelligence Research.