GPT-4 se destaca en las pruebas respecto a la versión anterior de la herramienta de inteligencia artificial y, al parecer, ahora genera resultados más precisos hasta en un 40 %.
ChatGPT
© Jaap Arriens / NurPhoto / Gettyimages.ru
La empresa OpenAI presentó esta semana un nuevo modelo del popular sistema de inteligencia artificial (IA) ChatGPT que, según los desarrolladores, es más potente.

Los creadores afirman que la nueva herramienta denominada GPT-4, además de texto, acepta imágenes y emite también salidas de texto, lo que permite chatear con el sistema introduciendo archivos complejos, como libros enteros para resumirlos, con el fin de hacerlo más rápido, preciso y humano.

Según el comunicado de OpenAI, GPT-4 obtuvo mejores resultados en los exámenes de prueba que el modelo original de IA y, al parecer, ahora genera resultados más precisos hasta en un 40 %. Además, el modelo tiene un 82 % más de probabilidades de no responder a las solicitudes de contenidos no permitidos como las peticiones de incitación al odio.

OpenAI propuso un par de formas en que la herramienta podría mejorar la vida cotidiana. En concreto, la empresa colaboró con la aplicación de aprendizaje de idiomas Duolingo para crear un chatbot basado en IA llamado Roleplay. Esta herramienta permite mantener una conversación en otro idioma con un chatbot que responde a lo que dice el usuario e interviene para corregir cuando es necesario.

Asimismo, en asociación con Be My Eyes, una aplicación que permite a los discapacitados visuales obtener ayuda de una persona vidente a través de un videochat, OpenAI utilizó GPT-4 para crear un asistente virtual capaz de ayudar a las personas a entender el contexto de lo que ven a su alrededor.

ChatGPT-4 está disponible actualmente para los miembros de ChatGPT+, que cuesta 20 dólares al mes, y para desarrolladores de aplicaciones.

"Todavía tiene fallas"

Sin embargo, Sam Altman, director ejecutivo de OpenAI, reconoció que GPT-4 "todavía tiene fallas, todavía es limitado y todavía parece más impresionante en el primer uso que después de pasar más tiempo con él".

Desde la empresa también aseguraron que "GPT-4 presenta riesgos similares a los modelos anteriores, como la generación de consejos perjudiciales, código con errores o información inexacta", pero "las capacidades adicionales de GPT-4 conducen a nuevas superficies de riesgo".
"GPT-4 y los modelos sucesores tienen el potencial de influir significativamente en la sociedad tanto de forma beneficiosa como perjudicial", señalaron.
Otra preocupación sobre la herramienta consiste en la falta de transparencia sobre cómo se diseñó y entrenó. Así, varios investigadores y expertos del sector señalaron en Twitter que la empresa no facilita ninguna información sobre el conjunto de datos que utilizó para entrenar GPT-4. Argumentan que es un problema debido a que los grandes conjuntos de datos utilizados para entrenar a los chatbots de inteligencia artificial pueden estar intrínsecamente sesgados.

"¿Qué nos quedará por hacer a los humanos?"

Mientras, muchas personas se muestran alarmadas por el desarrollo de la inteligencia artificial. El magnate estadounidense Elon Musk considera que la inteligencia artificial representa una de las mayores amenazas para el futuro de la civilización y que se debe prestar más atención a la seguridad de este tipo de sistemas. "Si algo va mal, la reacción puede ser demasiado lenta", advirtió.

"¿Qué nos quedará por hacer a los humanos?", tuiteó Musk en respuesta a una publicación sobre los poderosos resultados de GPT-4 en un examen simulado para poder ejercer la abogacía en EE.UU.

Al mismo tiempo, los científicos se preocupan de que el 'software' de escritura de IA podría dañar la credibilidad de la comunidad científica. "Cualquier tecnología, si se utiliza mal, puede ser peligrosa", declaró a South China Morning Post Catherine Gao, de la Universidad estadounidense Northwestern, agregando que "organizaciones como las papeleras [fábricas de artículos falsos de investigación] podrían utilizar esta tecnología con mayor facilidad para fabricar escritos y resultados científicos".

Por su parte, Wang Yanbo, profesor asociado de estrategia e innovación en la Universidad de Hong Kong, también expresó que con el desarrollo de la IA algunas personas malintencionadas "podrían generar hallazgos científicos falsos y los publicarían en revistas de baja calidad". Además, aumenta el riesgo de que los alumnos "elijan el camino fácil y dejen que la tecnología haga el trabajo sucio".


Mientras, varios gigantes bancarios de Wall Street están limitando o prohibiendo el uso de ChatGPT entre sus empleados bajo la premisa de que el chatbot podría arrojar información o respuestas erróneas en el ámbito de los mercados y las comunicaciones comerciales.

A finales de febrero, Nikkei reportó, citando a fuentes familiarizadas con el asunto, que los reguladores chinos prohibieron a las principales empresas tecnológicas del país ofrecer los servicios de ChatGPT. La medida ha sido introducida en el país debido al temor de las autoridades chinas a que el contenido ofrecido por la herramienta no haya sido censurado previamente y pueda violar las leyes vigentes. Según el medio de comunicación estatal China Daily, dicha tecnología "podría ayudar al Gobierno de EE.UU. en su difusión de desinformación y su manipulación de narrativas globales para sus propios intereses geopolíticos".