Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Los chatbots de IA pueden influir en los votantes mejor que los anuncios políticos | Michelle Kim, MIT Technology Review
Una conversación con un chatbot puede cambiar las opiniones políticas de las personas, pero los modelos más persuasivos también difunden la mayor cantidad de desinformación.
En 2024, una candidata demócrata al Congreso en Pennsylvania, Shamaine Daniels, utilizó un chatbot de IA llamado Ashley para llamar a los votantes y mantener conversaciones con ellos. "Hola. Mi nombre es Ashley, y soy un voluntario de inteligencia artificial para la candidatura de Shamaine Daniels al Congreso", comenzaban las llamadas. Daniels no ganó al final. Pero tal vez esas llamadas ayudaron a su causa: Nuevas investigaciones revelan que los chatbots de IA pueden cambiar las opiniones de los votantes en una sola conversación, y son sorprendentemente buenos en ello.
Un equipo de investigadores de varias universidades ha encontrado que chatear con un modelo de IA políticamente sesgado fue más efectivo que los anuncios políticos para persuadir tanto a demócratas como a republicanos a apoyar a candidatos presidenciales del partido opositor. Los chatbots influenciaron las opiniones citando hechos y evidencias, pero no siempre eran precisos; de hecho, los investigadores encontraron que los modelos más persuasivos decían las cosas más falsas.
Los hallazgos, detallados en un par de estudios publicados en las revistas Nature y Science, son los últimos en un cuerpo emergente de investigación que demuestra el poder persuasivo de los LLMs. Plantean preguntas profundas sobre cómo la IA generativa podría remodelar las elecciones.
"Una conversación con un LLM tiene un efecto bastante significativo en las elecciones salientes", dice Gordon Pennycook, un psicólogo de la Universidad de Cornell que trabajó en el estudio de Nature. Los LLMs pueden persuadir a las personas de manera más efectiva que los anuncios políticos porque generan mucha más información en tiempo real y la despliegan estratégicamente en las conversaciones, dice.
Para el artículo de Nature, los investigadores reclutaron a más de 2,300 participantes para participar en una conversación con un chatbot dos meses antes de las elecciones presidenciales de EE. UU. de 2024. El chatbot, que fue entrenado para abogar por uno de los dos principales candidatos, fue sorprendentemente persuasivo, especialmente al discutir las plataformas políticas de los candidatos sobre temas como la economía y la atención médica. Los partidarios de Donald Trump que chatearon con un modelo de IA que favorecía a Kamala Harris se volvieron ligeramente más inclinados a apoyar a Harris, moviéndose 3.9 puntos hacia ella en una escala de 100 puntos. Eso fue aproximadamente cuatro veces el efecto medido de los anuncios políticos durante las elecciones de 2016 y 2020. El modelo de IA que favorecía a Trump movió a los partidarios de Harris 2.3 puntos hacia Trump.
En experimentos similares realizados durante las previas a las elecciones federales canadienses de 2025 y las elecciones presidenciales polacas de 2025, el equipo encontró un efecto aún mayor. Los chatbots cambiaron las actitudes de los votantes de oposición en aproximadamente 10 puntos.
Las teorías de razonamiento políticamente motivado sostienen que los votantes partidistas son impermeables a los hechos y evidencias que contradicen sus creencias. Pero los investigadores encontraron que los chatbots, que utilizaron una variedad de modelos, incluidos variantes de GPT y DeepSeek, eran más persuasivos cuando se les instruyó a usar hechos y evidencias que cuando se les dijo que no lo hicieran. "Las personas están actualizando en base a los hechos y la información que el modelo les está proporcionando", dice Thomas Costello, un psicólogo de la Universidad Americana, que trabajó en el proyecto.
El problema es que parte de la "evidencia" y los "hechos" que los chatbots presentaron eran falsos. En los tres países, los chatbots que abogaban por candidatos de derecha hicieron un mayor número de afirmaciones inexactas que aquellos que abogaban por candidatos de izquierda. Los modelos subyacentes están entrenados en vastas cantidades de texto escrito por humanos, lo que significa que reproducen fenómenos del mundo real, incluida "la comunicación política que proviene de la derecha, que tiende a ser menos precisa", según estudios de publicaciones en redes sociales partidistas, dice Costello.
En el otro estudio publicado esta semana, en Science, un equipo de investigadores superpuesto investigó qué hace que estos chatbots sean tan persuasivos. Desplegaron 19 LLMs para interactuar con casi 77,000 participantes del Reino Unido sobre más de 700 temas políticos mientras variaban factores como la potencia computacional, las técnicas de entrenamiento y las estrategias retóricas.
La forma más efectiva de hacer que los modelos sean persuasivos fue instruirlos a empaquetar sus argumentos con hechos y evidencias y luego darles entrenamiento adicional alimentándolos con ejemplos de conversaciones persuasivas. De hecho, el modelo más persuasivo movió a los participantes que inicialmente estaban en desacuerdo con una declaración política 26.1 puntos hacia el acuerdo. "Estos son efectos de tratamiento realmente grandes", dice Kobi Hackenburg, un científico investigador en el Instituto de Seguridad de IA del Reino Unido, que trabajó en el proyecto.
Pero optimizar la persuasión tuvo un costo en la veracidad. Cuando los modelos se volvieron más persuasivos, proporcionaron cada vez más información engañosa o falsa, y nadie está seguro de por qué. "Podría ser que a medida que los modelos aprenden a desplegar más y más hechos, esencialmente llegan al fondo del barril de cosas que saben, por lo que los hechos se vuelven de peor calidad", dice Hackenburg.
El poder persuasivo de los chatbots podría tener profundas consecuencias para el futuro de la democracia, señalan los autores. Las campañas políticas que utilizan chatbots de IA podrían moldear la opinión pública de maneras que comprometan la capacidad de los votantes para hacer juicios políticos independientes.
Aún así, los contornos exactos del impacto siguen por verse. "No estamos seguros de cómo podrían ser las futuras campañas y cómo podrían incorporar este tipo de tecnologías", dice Andy Guess, un científico político de la Universidad de Princeton. Competir por la atención de los votantes es costoso y difícil, y hacer que se involucren en largas conversaciones políticas con chatbots podría ser un desafío. "¿Va a ser esta la forma en que las personas se informen sobre política, o será más una actividad de nicho?", pregunta.
...

Parte superior
Clasificación
Favoritos

