La inteligencia artificial es la nueva salsa que aliña toda la ensalada tecnológica que se cocina estos días. Desde complejos sistemas neuronales que predicen enfermedades como el cáncer, a móviles que aprenden del itinerario al trabajo que todos los días realizan sus dueños, su presencia aumenta de la misma forma que aumentan sus capacidades: de forma exponencial.© indianexpress.com
Sin embargo, muchas voces se han levantado para alertar sobre las posibles consecuencias de que las máquinas empiecen a pensar por sí mismas. Más allá de las teorías más catastrofistas, en las que sobresale la de que los robots acabarían gobernando a la raza humana (hecho que temen personalidades de la talla de Elon Musk, aunque pueda parecer un broma), muchos apuntan a los peligros que podría suponer estas redes neuronales de autoaprendizaje si se utilizaran de forma equivocada.
Y para probar este punto, investigadores del Instituto Tecnológico de Massachusetts (MIT)
entrenaron a una inteligencia artificial con los contenidos menos recomendables de toda la red: los de los foros. En concreto, con la información disponible en los más oscuros recodos de Reddit, esa web de la que surgieron escándalos como la filtración de cientos de fotografías comprometidas de actrices de Hollywood, por ejemplo. Los científicos utilizaron subcategorías que englobaban crímenes, imagenes violentas o contenido perturbador para crear a Norman.
Bautizado en honor a Norman Bates, el asesino de «Psicosis», esta red neuronal fue sometida a diferentes pruebas psicológicas después de haber sido entrenada en los rincones más sórdidos de Reddit. Las pruebas demostraron que se acercaba a rasgos patológicos humanos,
como el trastorno alucinatorio crónico, por lo que sus creadores lo definen como «la primera inteligencia artificial psicópata».
Como antagonista de Norman, los científicos entrenaron a otra inteligencia artificial con imágenes de naturaleza y personas (no muertas). A las dos se las sometió al famoso test de Rorschach, la prueba de las manchas de tinta que sirve para evaluar el estado de ánimo de un paciente.
Los resultados fueron aterredarores: donde la inteligencia artificial «buena» veía un par de personas, Norman reconocía a un hombre saltando por una ventana. O donde la tecnología bien entrenada pensaba que había pájaros, Norman percibía un ser humano electrocutado.
Pero su nacimiento no responde a una inquietud de ocio de la comunidad científica, sino que busca conocer los peligros de esta tecnología cuando su uso no atiende a buenas razones. «Ha sido donada a la ciencia por el MIT Media Laboratory para el estudio de los peligros de la inteligencia artificial,
demostrando cómo las cosas salen mal cuando se utilizan datos sesgados en algoritmos de machine learning», han explicado sus creadores.
En concreto,
este experimento demuestra que los datos que se introduzcan son más importantes que el algoritmo, ya que serán la base para que la red neuronal artificial entienda el mundo. Por eso,
la información defectuosa o sesgada para este tipo de sistemas pueden afectar de forma importante en el resultado. Y esto es un peligro muy a tener en cuenta en la nueva era del machine learning
Comentario: Por más perfecto que sea el cerebro humano, y aparte de los sesgos cognitivos que siempre estarán presentes, se desprende de este tenebroso experimento que la calidad de la información con la que alimentamos nuestros cerebros determinan en parte las conclusiones a las que llegamos. De allí la importancia de tener una mente entrenada que de alguna manera compense o al menos sea lo suficientemente abierta a evaluar el grado de veracidad de lo que consumimos y de acudir a fuentes lo más cercanas a la verdad.
Por otra parte quizá, este experimento nos muestre el resultado de consumir en exceso información patológica sin un contrapeso y mentiras puras: La propagación de Wetiko, un virus psicoespiritual que está destruyendo a la humanidad.