AI chatboti dokážou ovlivnit voliče lépe než politické reklamy | Michelle Kim, MIT Technology Review. Konverzace s chatbotem může změnit politické názory lidí – ale ty nejpřesvědčivější modely šíří také nejvíce dezinformací. V roce 2024 použila demokratická kandidátka do Kongresu v Pensylvánii, Shamaine Danielsová, AI chatbota jménem Ashley, aby volala voličům a vedla s nimi konverzace. "Ahoj. Jmenuji se Ashley a jsem dobrovolnice v oblasti umělé inteligence pro kandidaturu Shamaine Daniels do Kongresu," začaly hovory. Daniels nakonec nevyhrál. Ale možná jí tyto hovory pomohly: Nový výzkum ukazuje, že AI chatboti dokážou změnit názor voličů během jediného rozhovoru – a jsou v tom překvapivě dobří. Tým výzkumníků složený z více univerzit zjistil, že komunikace s politicky zaujatým AI modelem byla účinnější než politické reklamy při nabádání jak demokratů, tak republikánů k podpoře prezidentských kandidátů opoziční strany. Chatboti ovlivňovali názory tím, že citovali fakta a důkazy, ale ne vždy byly přesné – ve skutečnosti výzkumníci zjistili, že nejpřesvědčivější modely říkaly nejvíce nepravdivých věcí. Zjištění, podrobně popsána ve dvojici studií publikovaných v časopisech Nature a Science, jsou nejnovějším v nově vznikajícím souboru výzkumů, které dokazují přesvědčivou sílu LLM. Vyvolávají zásadní otázky, jak by generativní AI mohla změnit volby. "Jeden rozhovor s LLM má poměrně významný vliv na klíčové volební rozhodnutí," říká Gordon Pennycook, psycholog z Cornellovy univerzity, který pracoval na studii Nature. LLM dokážou přesvědčit lidi efektivněji než politické reklamy, protože generují mnohem více informací v reálném čase a strategicky je využívají v konverzacích, říká. Pro článek v Nature výzkumníci získali více než 2 300 účastníků, kteří se dva měsíce před prezidentskými volbami v USA v roce 2024 zapojili do konverzace s chatbotem. Chatbot, který byl vycvičen k podpoře jednoho ze dvou nejlepších kandidátů, byl překvapivě přesvědčivý, zejména při diskusi o politických programech kandidátů v otázkách jako ekonomika a zdravotní péče. Příznivci Donalda Trumpa, kteří komunikovali s AI modelem upřednostňujícím Kamalu Harrisovou, se stali o něco více nakloněni podpořit Harrisovou, když se posunuli o 3,9 bodu na její stranu na 100bodové škále. To bylo přibližně čtyřnásobek měřeného účinku politických reklam během voleb v letech 2016 a 2020. Model umělé inteligence ve prospěch Trumpa posunul příznivce Harrisové o 2,3 bodu ve prospěch Trumpa. V podobných experimentech provedených před kanadskými federálními volbami v roce 2025 a polskými prezidentskými volbami v roce 2025 tým zaznamenal ještě větší efekt. Chatboti změnili postoje opozičních voličů asi o 10 bodů. Dlouhodobé teorie politicky motivovaného uvažování tvrdí, že stranicky zaměření voliči jsou imunní vůči faktům a důkazům, které odporují jejich přesvědčením. Výzkumníci však zjistili, že chatboti, kteří používali různé modely včetně variant GPT a DeepSeek, byli přesvědčivější, když jim bylo řečeno, aby používali fakta a důkazy, než když jim bylo řečeno, aby to nedělali. "Lidé aktualizují na základě faktů a informací, které jim model poskytuje," říká Thomas Costello, psycholog z American University, který na projektu pracoval. Háček je v tom, že některé "důkazy" a "fakta", které chatboti prezentovali, nebyly pravdivé. Ve všech třech zemích chatboti prosazující pravicově orientované kandidáty učinili více nepřesných tvrzení než ti, kteří prosazovali levicové kandidáty. Základní modely jsou trénovány na obrovském množství lidsky psaného textu, což znamená, že reprodukují skutečné jevy – včetně "politické komunikace pocházející z pravice, která bývá méně přesná," podle studií stranických příspěvků na sociálních sítích, říká Costello. V druhé studii publikované tento týden, v časopise Science, se překrývající tým výzkumníků zabýval tím, co dělá tyto chatboty tak přesvědčivými. Nasadili 19 LLM, aby komunikovali s téměř 77 000 účastníky z Velké Británie na více než 700 politických tématech při různých faktorech jako výpočetní výkon, tréninkové techniky a rétorické strategie. Nejúčinnější způsob, jak udělat modely přesvědčivými, bylo navést je, aby své argumenty naplnily fakty a důkazy, a pak jim dát další školení tím, že jim poskytnete příklady přesvědčivých rozhovorů. Ve skutečnosti nejpřesvědčivější model posunul účastníky, kteří zpočátku nesouhlasili s politickým tvrzením, o 26,1 bodu k souhlasu. "To jsou opravdu velké léčebné efekty," říká Kobi Hackenburg, vědecký pracovník z UK AI Security Institute, který na projektu pracoval. Ale optimalizace přesvědčivosti byla na úkor pravdivosti. Když se modely staly přesvědčivějšími, stále častěji poskytovaly zavádějící nebo nepravdivé informace – a nikdo neví proč. "Může to být tak, že jak se modely učí používat stále více faktů, v podstatě se dostanou až na dno sudu věcí, které znají, takže kvalita faktů se stává horší," říká Hackenburg. Autoři poznamenávají, že přesvědčovací síla chatbotů by mohla mít zásadní důsledky pro budoucnost demokracie. Politické kampaně využívající AI chatboty by mohly formovat veřejné mínění způsoby, které ohrozují schopnost voličů činit nezávislá politická rozhodnutí. Přesto přesné obrysy dopadu zůstávají nejasné. "Nejsme si jisti, jak by mohly vypadat budoucí kampaně a jak by mohly tyto technologie začlenit," říká Andy Guess, politolog z Princetonské univerzity. Soutěžit o pozornost voličů je drahé a obtížné a přimět je zapojit do dlouhých politických rozhovorů s chatboty může být náročné. "Bude to způsob, jakým se lidé budou informovat o politice, nebo to bude spíš úzká činnost?" ptá se. ...