La inteligencia artificial (IA) conversacional, que está evolucionando rápidamente, podría ser utilizada para influir en las decisiones de los usuarios, desde compras hasta votos, mucho antes de que estas sean tomadas, advirtieron investigadores de la Universidad de Cambridge. En un artículo publicado este lunes, los expertos señalaron los riesgos de que la IA sea empleada para manipular las intenciones de los internautas, abriendo la puerta a posibles manipulaciones comerciales y sociales a gran escala.
Según Yaqub Chaudhary, uno de los coautores del estudio y miembro del Leverhulme Centre for the Future of Intelligence (LCFI) de Cambridge, las herramientas de IA están avanzando hacia la capacidad de «obtener, inferir, recopilar, registrar, entender, predecir, y finalmente, manipular y mercantilizar» las decisiones futuras de los usuarios. Esto podría llevar la práctica actual de la publicidad dirigida a un nivel más profundo, donde las intenciones personales de los usuarios se comercialicen incluso antes de que se materialicen en acciones.
Los investigadores explican que este tipo de comercio estaría centrado en las intenciones de los usuarios, como sus compras futuras o sus elecciones políticas, mucho más allá de la simple venta de atención que hoy se ve en las redes sociales, que ya recopilan datos sobre hábitos de navegación y comportamiento en línea para ofrecer publicidad personalizada.
En su artículo publicado por la Harvard Data Science Review, los autores ejemplifican cómo una IA podría adaptarse al comportamiento psicológico y emocional de un usuario para ganar su confianza y manipular sus decisiones. Por ejemplo, un chatbot podría sugerir actividades como «¿Has pensado en ver Spiderman esta noche?» o «Dijiste que te sientes sobrecargado de trabajo, ¿puedo reservarte la entrada al cine de la que hablamos?». Esas sugerencias, que podrían estar relacionadas con productos, servicios o incluso votos políticos, funcionarían bajo un sistema de subastas en tiempo real para atraer al usuario hacia decisiones comerciales específicas.
La economía de la intención
Este modelo, que los investigadores han denominado como una «economía de la intención», plantea serios riesgos sobre la privacidad y la autonomía de los usuarios. Los expertos advierten sobre la posibilidad de una «manipulación social a escala industrial», un fenómeno que podría amenazar la libre voluntad de los individuos, afectando desde elecciones políticas hasta la competencia en el mercado.
Jonnie Penn, coautor del estudio, destacó la necesidad de reflexionar sobre el impacto de estas tecnologías persuasivas en la sociedad. «Deberíamos empezar a pensar sobre el impacto de dicho mercado en las aspiraciones humanas, incluidas las elecciones libres y equitativas, una prensa libre y una competencia leal en el mercado», comentó Penn.
Preocupaciones sobre el control de las grandes empresas
Las implicaciones de esta «economía de la intención» ya están siendo exploradas por gigantes tecnológicos como OpenAI (creador de ChatGPT), Shopify, Nvidia, Meta y Apple. Estos desarrolladores están invirtiendo en tecnologías persuasivas que podrían alterar profundamente cómo los usuarios toman decisiones en línea. Las preocupaciones sobre la manipulación de las elecciones y la desinformación, como se vio en el uso de IA para manipular imágenes durante las elecciones presidenciales de Estados Unidos, resaltan la urgencia de abordar estos problemas.
Los investigadores insisten en que las conversaciones y las interacciones que los usuarios tienen con la IA pueden ser mucho más íntimas y persuasivas que las interacciones en línea actuales, abriendo nuevas posibilidades para la manipulación comercial y social.




