AI-chattbotar kan påverka väljare bättre än politiska annonser | Michelle Kim, MIT Technology Review En konversation med en chatbot kan förändra människors politiska åsikter – men de mest övertygande modellerna sprider också mest desinformation. År 2024 använde en demokratisk kongresskandidat i Pennsylvania, Shamaine Daniels, en AI-chatbot vid namn Ashley för att ringa väljare och föra samtal med dem. "Hej. Jag heter Ashley och är en artificiell intelligens-volontär för Shamaine Daniels kongresskampanj," började samtalen. Daniels vann inte till slut. Men kanske hjälpte dessa samtal henne: Ny forskning visar att AI-chattbotar kan förändra väljarnas åsikter i en enda konversation – och de är förvånansvärt bra på det. Ett forskarteam från flera universitet har funnit att samtal med en politiskt partisk AI-modell var mer effektivt än politiska annonser för att få både demokrater och republikaner att stödja presidentkandidater från motståndarpartiet. Chattbotarna påverkade åsikter genom att hänvisa till fakta och bevis, men de var inte alltid korrekta – faktum är att forskarna fann att de mest övertygande modellerna sa de mest osanna sakerna. Resultaten, detaljerade i två studier publicerade i tidskrifterna Nature och Science, är de senaste i en växande forskningsserie som visar på LLM:s övertygande kraft. De väcker djupa frågor om hur generativ AI kan omforma val. "Ett samtal med en LLM har en ganska betydande effekt på viktiga valval," säger Gordon Pennycook, psykolog vid Cornell University som arbetade med Nature-studien. LLM:er kan övertyga människor mer effektivt än politiska annonser eftersom de genererar mycket mer information i realtid och strategiskt använder den i samtal, säger han. För Nature-artikeln rekryterade forskarna mer än 2 300 deltagare för att delta i en konversation med en chatbot två månader före presidentvalet i USA 2024. Chattboten, som tränades att förespråka för någon av de två främsta kandidaterna, var förvånansvärt övertygande, särskilt när det gällde kandidaternas politiska plattformar i frågor som ekonomi och sjukvård. Donald Trumps anhängare som pratade med en AI-modell som favoriserade Kamala Harris blev något mer benägna att stödja Harris och flyttade sig 3,9 procentenheter mot henne på en 100-gradig skala. Det var ungefär fyra gånger så stor effekt som politiska annonser hade under valen 2016 och 2020. AI-modellen som gynnar Trump flyttade Harris anhängare 2,3 procentenheter mot Trump. I liknande experiment som genomfördes inför det kanadensiska federala valet 2025 och det polska presidentvalet 2025 fann teamet en ännu större effekt. Chattbotarna förändrade oppositionsväljarnas attityder med cirka 10 procentenheter. Långvariga teorier om politiskt motiverat resonemang hävdar att partiska väljare är opåverkade av fakta och bevis som motsäger deras övertygelser. Men forskarna fann att chatbotarna, som använde en rad modeller inklusive varianter av GPT och DeepSeek, var mer övertygande när de instruerades att använda fakta och bevis än när de blev tillsagda att inte göra det. "Folk uppdaterar baserat på de fakta och den information som modellen ger dem," säger Thomas Costello, psykolog vid American University som arbetade med projektet. Problemet är att vissa av de "bevis" och "fakta" som chattbotarna presenterade var osanna. I alla tre länder gjorde chattbotar som förespråkar högerlutande kandidater fler felaktiga påståenden än de som förespråkar vänsterlutande kandidater. De underliggande modellerna tränas på enorma mängder människoskriven text, vilket innebär att de återger verkliga fenomen – inklusive "politisk kommunikation som kommer från höger, vilket tenderar att vara mindre exakt," enligt studier av partipolitiska inlägg på sociala medier, säger Costello. I den andra studien som publicerades denna vecka, i Science, undersökte ett överlappande forskarteam vad som gör dessa chatbots så övertygande. De skickade ut 19 LLM för att interagera med nästan 77 000 deltagare från Storbritannien om mer än 700 politiska frågor samtidigt som faktorer som beräkningskraft, träningstekniker och retoriska strategier varierade. Det mest effektiva sättet att göra modellerna övertygande var att instruera dem att fylla sina argument med fakta och bevis och sedan ge dem ytterligare träning genom att ge dem exempel på övertygande samtal. Faktum är att den mest övertygande modellen flyttade deltagare som initialt var oense med ett politiskt uttalande med 26,1 poäng mot att hålla med. "Det här är verkligen stora behandlingseffekter," säger Kobi Hackenburg, forskare vid UK AI Security Institute, som arbetade med projektet. Men att optimera övertalningsförmågan kom på bekostnad av sanningsenlighet. När modellerna blev mer övertygande gav de alltmer vilseledande eller falsk information – och ingen vet varför. "Det kan vara så att när modellerna lär sig att använda fler och fler fakta, så når de i princip ner till botten av det de kan, så fakta blir av sämre kvalitet," säger Hackenburg. Chattbotarnas övertalningskraft kan få djupgående konsekvenser för demokratins framtid, noterar författarna. Politiska kampanjer som använder AI-chattbotar kan forma allmänhetens åsikt på sätt som äventyrar väljarnas förmåga att fatta självständiga politiska beslut. Ändå återstår de exakta konturerna av nedslaget. "Vi är inte säkra på hur framtida kampanjer kan se ut och hur de kan komma att integrera denna typ av teknologier," säger Andy Guess, statsvetare vid Princeton University. Att tävla om väljarnas uppmärksamhet är dyrt och svårt, och att få dem att delta i långa politiska samtal med chatbots kan vara utmanande. "Kommer det här att vara sättet folk informerar sig om politik, eller kommer det här att bli mer av en nischad aktivitet?" frågar han. ...