Detener el proceso "requeriría algo así como un régimen de vigilancia global, y ni siquiera hay garantías de que esto funcione", señalaron desde la compañía que creó ChatGPT.
© Unsplash / Christopher Burns
La creación de sistemas de inteligencia artificial superinteligentes — cuyas capacidades excedan incluso las de la
inteligencia artificial general (AGI, por sus siglas en inglés) —
es solo cuestión de tiempo y podría presentar "un riesgo existencial" para la humanidad, que necesita actuar para mitigar los futuros desafíos, advirtieron este lunes los cofundadores de OpenAI.
"Tal y como vemos el panorama ahora, es concebible que
en los próximos diez años los sistemas de IA superen el nivel de los expertos en la mayoría de los ámbitos y lleven a cabo tanta actividad productiva como una de las corporaciones más grandes de la actualidad", escribieron en el
blog de la empresa Sam Altman, Greg Brockman e Ilyá Sutskever.
Los altos directivos de OpenAI, que creó el revolucionario chatbot ChatGPT, agregaron que "la superinteligencia será más poderosa que otras tecnologías a las que la humanidad ha tenido que enfrentarse en el pasado" y, además de ofrecernos un futuro mucho más próspero, tiene también un potencial inmensurablemente destructivo.
"La energía nuclear comúnmente se utiliza como un ejemplo histórico de una tecnología con esta propiedad, la biología sintética es otro ejemplo", señalaron.
"Los sistemas que nos generan preocupación
tendrán la potencia más allá de cualquier tecnología creada hasta ahora", indicaron, aseverando que, en su opinión, detener la creación de la superinteligencia sería "arriesgado y difícil", porque ya es una parte intrínseca del desarrollo tecnológico en curso,
y "pararlo requeriría algo así como un régimen de vigilancia global, y ni siquiera hay garantías de que esto funcione".Una de las propuestas de los cofundadores de OpenAI es
coordinar los esfuerzos entre los principales desarrolladores de inteligencia artificial en un intento de garantizar la seguridad de las nuevas tecnologías, sobre todo cuando se trata de capacidades que igualen o excedan a las del cerebro humano. También plantean
crear un ente regulador internacional para dicha industria, algo similar al Organismo Internacional de Energía Atómica (OIEA), que ayude a reducir el riesgo existencial para la humanidad.
La última sugerencia hace constancia de la necesidad de obtener la "
capacidad técnica para hacer que la superinteligencia sea segura". Sin embargo, esto todavía es "una cuestión de investigación abierta", a la que el propio equipo de OpenAI está dedicando muchos esfuerzos, reconocieron los autores de la publicación.
Comentarios del Lector
a nuestro Boletín