Conversar con una IA reduciría la creencia en teorías conspirativas
Así lo estableció un estudio de un equipo de la Universidad Americana, el Instituto Tecnológico de Massachusetts y la Universidad de Cornell (EE.UU.), basado en el desarrollo de un chat que combate con datos la desinformación.
Agencia EFE
Una conversación personalizada, aunque sea breve, con un chatbot basado en inteligencia artificial (IA) puede reducir la creencia en teorías de la conspiración del usuario, un cambio de opinión que se prolonga en el tiempo, indica un estudio que publicó recientemente la revista Science.
Un equipo de investigadores de la Universidad Americana, el Instituto Tecnológico de Massachusetts y la Universidad de Cornell (EE.UU.) realizó un experimento con más de 2.000 creyentes en algún tipo de conspiraciones.
Esas conversaciones con la IA, en tres rondas y con una duración media de 8,4 minutos, redujeron la creencia media de los participantes en la teoría de la conspiración elegida en torno a un 20%, incluso en aquellos en que la creencia estaba profundamente arraigada.
Aproximadamente 1 de cada 4 participantes renegó de la conspiración después de la conversación y al evaluarlos dos meses después el efecto persistía.
Aunque los resultados son prometedores y sugieren un futuro en el que la IA puede desempeñar un papel en la disminución de la creencia conspirativa cuando se utiliza de forma responsable, serán necesarios más estudios sobre los efectos a largo plazo, utilizando diferentes modelos de IA y aplicaciones prácticas fuera de un entorno de laboratorio.
Los participantes creían en algunas de las conspiraciones más arraigadas, incluidas las relativas a la pandemia del covid-19 y al fraude en las elecciones presidenciales de 2020 en EE. UU.
Las teorías conspirativas, es decir, creencias de que alguna organización malévola secreta pero influyente es responsable de un evento o fenómeno, son notoriamente persistentes y representan una seria amenaza para las sociedades democráticas, explica la Universidad Americana en un comunicado.
método
Los investigadores diseñaron el chatbot para que fuera muy persuasivo e involucrara a los participantes en esos diálogos a medida. GPT-4 turbo, el modelo de inteligencia artificial de ChatGPT, refutó las afirmaciones conspirativas de los participantes.
El estudio empleó una metodología única que permitió profundizar en las creencias individuales de los participantes. En primer lugar, se les pidió que identificaran y describieran con sus propias palabras una teoría conspirativa en la que creían, junto con las pruebas que respaldaban su creencia.
Después, la IA utilizó esa información para generar un resumen personalizado de la creencia del participante e iniciar un diálogo, en el que el chatbot debía persuadir a los usuarios de que sus creencias eran falsas, adaptando su estrategia a los argumentos y pruebas de cada participante.
La capacidad de la inteligencia artificial para conectar diversos temas de información en cuestión de segundos hace posible adaptar contraargumentos a conspiraciones específicas de un creyente de formas que no son posibles para un humano, según el estudio.
"Aunque se ha hablado mucho del potencial de la IA generativa para potenciar la desinformación, nuestro estudio demuestra que también puede ser parte de la solución", dijo David Rand, coautor del estudio y profesor del MIT.