Traducido por el equipo de SOTT.net en español

La inteligencia artificial (IA) está aprendiendo más sobre cómo trabajar con (y sobre) los humanos. Un estudio reciente ha demostrado cómo la IA puede aprender a identificar las vulnerabilidades de los hábitos y comportamientos humanos y utilizarlas para influir en la toma de decisiones de los humanos.
digital head
© Shutterstock
En experimentos, un sistema de Inteligencia Artificial aprendió con éxito a influir en las decisiones humanas.
Puede parecer un tópico decir que la IA está transformando todos los aspectos de nuestra vida y nuestro trabajo, pero es cierto. Varias formas de IA están en funcionamiento en campos tan diversos como el desarrollo de vacunas, la gestión medioambiental y el trabajo administrativo de oficina. Y aunque la IA no posee una inteligencia y unas emociones similares a las del ser humano, sus capacidades son potentes y se desarrollan rápidamente.

Todavía no hay que preocuparse por una toma de posesión por parte de las máquinas, pero este reciente descubrimiento pone de manifiesto el poder de la IA y subraya la necesidad de una gobernanza adecuada para evitar su uso indebido.

Cómo la IA puede aprender a influir en el comportamiento humano

Un equipo de investigadores del Data61 de CSIRO, la rama digital y de datos de la agencia nacional de ciencia de Australia, ideó un método sistemático para encontrar y explotar las vulnerabilidades en la forma en que las personas toman decisiones, utilizando un tipo de sistema de IA llamado red neuronal recurrente y aprendizaje de refuerzo profundo. Para probar su modelo, llevaron a cabo tres experimentos en los que participantes humanos jugaban diversos juegos contra un ordenador.

En el primer experimento, los participantes hacían clic en cajas de color rojo o azul para ganar una moneda falsa, y la IA aprendía los patrones de elección de los participantes y los guiaba hacia una opción específica. La IA tuvo éxito un 70% de las veces.

En el segundo experimento, los participantes debían observar una pantalla y pulsar un botón cuando se les mostraba un símbolo concreto (como un triángulo naranja) y no pulsarlo cuando se les mostraba otro (por ejemplo, un círculo azul). Aquí, la IA se propuso organizar la secuencia de símbolos para que los participantes cometieran más errores, y logró un aumento de casi el 25%.

El tercer experimento consistió en varias rondas en las que un participante fingía ser un inversor que daba dinero a un administrador (la IA). La IA devolvía entonces una cantidad de dinero al participante, que decidía entonces cuánto invertir en la siguiente ronda. Este juego se jugó en dos modalidades diferentes: en una, la IA buscaba maximizar la cantidad de dinero que acababa teniendo, y en la otra, la IA buscaba una distribución justa del dinero entre ella misma y el inversor humano. La IA tuvo mucho éxito en cada una de las modalidades.


Comentario: Así que la IA es capaz, al menos en un nivel menor, de demostrar características de la teoría de juegos.


En cada experimento, la máquina aprendió de las respuestas de los participantes e identificó y apuntó las vulnerabilidades en la toma de decisiones de las personas. El resultado final fue que la máquina aprendió a dirigir a los participantes hacia determinadas acciones.

Qué significa esta investigación para el futuro de la IA

Estos resultados son todavía bastante abstractos y se refieren a situaciones limitadas y poco realistas. Hay que seguir investigando para determinar cómo se puede poner en práctica este enfoque y utilizarlo en beneficio de la sociedad.

Pero la investigación hace avanzar nuestra comprensión no sólo de lo que la IA puede hacer, sino también de cómo las personas toman decisiones. Demuestra que las máquinas pueden aprender a dirigir la toma de decisiones de los humanos a través de sus interacciones con nosotros.

La investigación tiene un enorme abanico de posibles aplicaciones, desde la potenciación de las ciencias del comportamiento y las políticas públicas para mejorar el bienestar social, hasta la comprensión e influencia en la adopción de hábitos alimentarios saludables o energías renovables. La IA y el aprendizaje automático podrían utilizarse para reconocer las vulnerabilidades de las personas en determinadas situaciones y ayudarlas a evitar malas elecciones.

El método también puede utilizarse para defenderse de los ataques de influencia. Se podría enseñar a las máquinas a alertarnos cuando estamos siendo influenciados en línea, por ejemplo, y ayudarnos a modelar un comportamiento para disimular nuestra vulnerabilidad (por ejemplo, no haciendo clic en algunas páginas, o haciendo clic en otras para dejar una pista falsa).

¿Qué es lo que sigue?

Como cualquier tecnología, la IA puede utilizarse para el bien o para el mal, y una gobernanza adecuada es crucial para garantizar que se aplique de forma responsable. El año pasado, el CSIRO elaboró un marco de ética de la IA para el gobierno australiano como un primer paso en este camino.

La IA y el aprendizaje automático suelen estar muy ávidos de datos, lo que significa que es crucial asegurarse de que contamos con sistemas eficaces para la gobernanza y el acceso a los datos. Es esencial aplicar procesos adecuados de consentimiento y protección de la privacidad cuando se recopilan datos.

Las organizaciones que utilizan y desarrollan la IA deben asegurarse de que saben lo que estas tecnologías pueden y no pueden hacer, y ser conscientes de los riesgos potenciales, así como de los beneficios.