Los chatbots de IA pueden influir mejor en los votantes que los anuncios políticos | Michelle Kim, MIT Technology Review Una conversación con un chatbot puede cambiar las opiniones políticas de las personas, pero los modelos más persuasivos también difunden más desinformación. En 2024, una candidata demócrata al Congreso en Pensilvania, Shamaine Daniels, utilizó un chatbot de IA llamado Ashley para llamar a los votantes y mantener conversaciones con ellos. "Hola. Me llamo Ashley y soy voluntaria de inteligencia artificial para la candidatura de Shamaine Daniels al Congreso", comenzaron las llamadas. Daniels no ganó finalmente. Pero quizá esas llamadas ayudaron a su causa: nuevas investigaciones revelan que los chatbots de IA pueden cambiar la opinión de los votantes en una sola conversación—y sorprendentemente son buenos en ello. Un equipo de investigadores de varias universidades ha descubierto que chatear con un modelo de IA políticamente sesgado era más efectivo que los anuncios políticos para incitar tanto a demócratas como a republicanos a apoyar a candidatos presidenciales del partido contrario. Los chatbots influían en opiniones citando hechos y pruebas, pero no siempre eran precisos; de hecho, los investigadores encontraron que los modelos más persuasivos decían las cosas más falsas. Los hallazgos, detallados en un par de estudios publicados en las revistas Nature y Science, son los últimos de un cuerpo emergente de investigaciones que demuestran el poder persuasivo de los LLM. Plantean profundas preguntas sobre cómo la IA generativa podría transformar las elecciones. "Una conversación con un LLM tiene un efecto bastante significativo en las elecciones más importantes", dice Gordon Pennycook, psicólogo de la Universidad de Cornell que trabajó en el estudio de Nature. Los LLMs pueden persuadir a la gente de forma más eficaz que los anuncios políticos porque generan mucha más información en tiempo real y la despliegan estratégicamente en las conversaciones, afirma. Para el artículo de Nature, los investigadores reclutaron a más de 2.300 participantes para mantener una conversación con un chatbot dos meses antes de las elecciones presidenciales de EE. UU. de 2024. El chatbot, que fue entrenado para defender a cualquiera de los dos candidatos principales, resultó sorprendentemente persuasivo, especialmente al hablar de las plataformas políticas de los candidatos en temas como la economía y la sanidad. Los seguidores de Donald Trump que charlaron con un modelo de IA que favorecía a Kamala Harris se mostraron ligeramente más inclinados a apoyarla, avanzando 3,9 puntos hacia ella en una escala de 100 puntos. Eso fue aproximadamente cuatro veces el efecto medido de los anuncios políticos durante las elecciones de 2016 y 2020. El modelo de IA que favorece a Trump movió a los seguidores de Harris 2,3 puntos hacia él. En experimentos similares realizados durante los previos a las elecciones federales canadienses de 2025 y a las presidenciales polacas de 2025, el equipo encontró un efecto aún mayor. Los chatbots cambiaron la actitud de los votantes de la oposición en unos 10 puntos. Teorías de larga trayectoria del razonamiento político sostienen que los votantes partidistas son impermeables a hechos y pruebas que contradicen sus creencias. Pero los investigadores descubrieron que los chatbots, que usaban una variedad de modelos incluyendo variantes de GPT y DeepSeek, eran más persuasivos cuando se les instruyó a usar hechos y pruebas que cuando se les indicó que no lo hicieran. "La gente actualiza en función de los hechos e información que el modelo les proporciona", dice Thomas Costello, psicólogo de la American University que trabajó en el proyecto. El problema es que algunas de las "pruebas" y "hechos" que presentaron los chatbots eran falsos. En los tres países, los chatbots que abogan por candidatos de tendencia derechista hicieron un mayor número de afirmaciones inexactas que aquellos que defendían candidatos de izquierdas. Los modelos subyacentes se entrenan con grandes cantidades de texto escrito por humanos, lo que significa que reproducen fenómenos del mundo real, incluyendo "comunicación política que proviene de la derecha, que tiende a ser menos precisa", según estudios de publicaciones partidistas en redes sociales, dice Costello. En otro estudio publicado esta semana, en Science, un equipo superpuesto de investigadores investigó qué hace que estos chatbots sean tan persuasivos. Desplegaron 19 LLMs para interactuar con casi 77.000 participantes del Reino Unido sobre más de 700 cuestiones políticas, variando factores como la potencia computacional, técnicas de formación y estrategias retóricas. La forma más eficaz de hacer que los modelos fueran persuasivos era instruirles a llenar sus argumentos de hechos y pruebas y luego darles formación adicional proporcionándoles ejemplos de conversaciones persuasivas. De hecho, el modelo más persuasivo desplazó 26,1 puntos a los participantes que inicialmente no estaban de acuerdo con una afirmación política. "Estos son efectos de tratamiento realmente grandes", dice Kobi Hackenburg, científico investigador del Instituto de Seguridad de la IA del Reino Unido, que trabajó en el proyecto. Pero optimizar la persuasión se hizo a costa de la veracidad. Cuando los modelos se volvieron más persuasivos, proporcionaban cada vez más información engañosa o falsa, y nadie sabe por qué. "Podría ser que, a medida que los modelos aprenden a desplegar más y más hechos, básicamente lleguen al fondo del barril de cosas que conocen, por lo que los hechos se vuelven de peor calidad", dice Hackenburg. El poder persuasivo de los chatbots podría tener consecuencias profundas para el futuro de la democracia, señalan los autores. Las campañas políticas que utilicen chatbots de IA podrían moldear la opinión pública de formas que comprometan la capacidad de los votantes para emitir juicios políticos independientes. Aun así, los contornos exactos del impacto aún están por verse. "No estamos seguros de cómo serán las futuras campañas ni cómo podrían incorporar este tipo de tecnologías", dice Andy Guess, politólogo de la Universidad de Princeton. Competir por la atención de los votantes es caro y difícil, y conseguir que participen en largas conversaciones políticas con chatbots podría ser complicado. "¿Va a ser esta la forma en que la gente se informa sobre política, o va a ser una actividad más de nicho?" pregunta. ...