No especificó a qué sistemas inteligentes se refería, pero probablemente se trate del modelo de lenguaje autorregresivo GPT-3 de OpenAI.
Inteligencia artificial AI
© Shutterstock
Imagen ilustrativa
El científico jefe del grupo de investigación de la empresa de desarrollo de inteligencia artificial OpenAI, Ilya Sustskever, publicó este jueves en su cuenta de Twitter que "puede ser que las grandes redes neuronales de hoy sean ligeramente conscientes".

Sutskever no especificó a qué sistemas inteligentes se refería, pero probablemente se trate del modelo de lenguaje autorregresivo GPT-3 (acrónimo para Transfromador Preentrenado Generativo), el cual fue desarrollado por OpenAI en el 2020 para generar textos como lo haría un humano mediante el uso de técnicas de aprendizaje profundo.

El tuit de Sutskever rápidamente generó un debate entre los expertos en ese campo, y la mayoría se mostró escéptico ante la idea.

Así, el investigador en sistemas de inteligencia artificial, Joscha Bach, preguntó a Sutskever sobre qué funcionalidad asocia con la conciencia. Además, se preguntó si la conciencia es "una cuestión de grado continuo, una propiedad aproximadamente binaria o un conjunto de capacidades discretas que permiten grados bien diferenciados".

El profesor distinguido de la Universidad Estatal de Oregón, Thomas G. Dietterich , opinó que "si la conciencia es la capacidad de reflexionar y modelarse", él no ha visto esa capacidad en las redes neuronales actuales, sugiriendo que el científico jefe solo estaba 'bromeando'. Mientras, con Dietterich está de acuerdo Valentino Zocca, un experto en tecnología de aprendizaje profundo, quien dijo que la IA "no es consciente, pero aparentemente el 'hype' (expectativas generadas artificialmente alrededor de una persona o producto) es más importante que cualquier otra cosa".

Por su parte, Toby Walsh, profesor de inteligencia artificial en la Universidad de Nueva Gales del Sur en Sídney, dijo que "cada vez que se transmiten comentarios tan especulativos se necesitan meses de esfuerzo para que la conversación vuelva a las oportunidades y amenazas más realistas que plantea la IA".

En septiembre del 2021, OpenAI canceló el proyecto GPT-3, alegando que se violaban las normas de utilización de su sistema informático, después de que un usuario tratara de resucitar virtualmente a su novia fallecida mediante su uso.