Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI-Chatbots können Wähler besser beeinflussen als politische Werbung | Michelle Kim, MIT Technology Review
Ein Gespräch mit einem Chatbot kann die politischen Ansichten der Menschen verändern – aber die überzeugendsten Modelle verbreiten auch die meiste Fehlinformation.
Im Jahr 2024 nutzte eine demokratische Kongresskandidatin in Pennsylvania, Shamaine Daniels, einen AI-Chatbot namens Ashley, um Wähler anzurufen und Gespräche mit ihnen zu führen. „Hallo. Mein Name ist Ashley und ich bin ein künstlicher Intelligenz-Volunteer für Shamaine Daniels' Kandidatur für den Kongress“, begannen die Anrufe. Daniels gewann letztendlich nicht. Aber vielleicht haben diese Anrufe ihrer Sache geholfen: Neue Forschungen zeigen, dass AI-Chatbots die Meinungen der Wähler in einem einzigen Gespräch beeinflussen können – und sie sind überraschend gut darin.
Ein Team von Forschern aus mehreren Universitäten hat herausgefunden, dass das Gespräch mit einem politisch voreingenommenen AI-Modell effektiver war als politische Werbung, um sowohl Demokraten als auch Republikaner dazu zu bewegen, die Präsidentschaftskandidaten der gegnerischen Partei zu unterstützen. Die Chatbots beeinflussten die Meinungen, indem sie Fakten und Beweise anführten, waren jedoch nicht immer genau – tatsächlich fanden die Forscher heraus, dass die überzeugendsten Modelle die meisten Unwahrheiten äußerten.
Die Ergebnisse, die in einer Reihe von Studien veröffentlicht wurden, die in den Fachzeitschriften Nature und Science erschienen sind, sind die neuesten in einem aufkommenden Forschungsfeld, das die Überzeugungskraft von LLMs demonstriert. Sie werfen tiefgreifende Fragen darüber auf, wie generative KI Wahlen umgestalten könnte.
„Ein Gespräch mit einem LLM hat einen ziemlich bedeutenden Einfluss auf wichtige Wahlentscheidungen“, sagt Gordon Pennycook, Psychologe an der Cornell University, der an der Nature-Studie mitarbeitete. LLMs können Menschen effektiver überzeugen als politische Werbung, weil sie in Echtzeit viel mehr Informationen generieren und diese strategisch in Gesprächen einsetzen, sagt er.
Für das Nature-Papier rekrutierten die Forscher mehr als 2.300 Teilnehmer, um zwei Monate vor der US-Präsidentschaftswahl 2024 ein Gespräch mit einem Chatbot zu führen. Der Chatbot, der darauf trainiert war, für einen der beiden führenden Kandidaten zu werben, war überraschend überzeugend, insbesondere bei der Diskussion über die politischen Plattformen der Kandidaten zu Themen wie Wirtschaft und Gesundheitsversorgung. Donald-Trump-Anhänger, die mit einem AI-Modell sprachen, das Kamala Harris favorisierte, wurden leicht eher geneigt, Harris zu unterstützen, und bewegten sich um 3,9 Punkte in Richtung ihrer auf einer 100-Punkte-Skala. Das war ungefähr viermal so viel wie der gemessene Effekt politischer Werbung während der Wahlen 2016 und 2020. Das AI-Modell, das Trump favorisierte, bewegte die Harris-Anhänger um 2,3 Punkte in Richtung Trump.
In ähnlichen Experimenten, die während der Vorwahlen zur kanadischen Bundeswahl 2025 und zur polnischen Präsidentschaftswahl 2025 durchgeführt wurden, fand das Team einen noch größeren Effekt. Die Chatbots veränderten die Einstellungen der Oppositionswähler um etwa 10 Punkte.
Langjährige Theorien des politisch motivierten Denkens besagen, dass parteiische Wähler unempfänglich für Fakten und Beweise sind, die ihren Überzeugungen widersprechen. Aber die Forscher fanden heraus, dass die Chatbots, die eine Reihe von Modellen einschließlich Varianten von GPT und DeepSeek verwendeten, überzeugender waren, wenn sie angewiesen wurden, Fakten und Beweise zu verwenden, als wenn sie angewiesen wurden, dies nicht zu tun. „Die Menschen aktualisieren auf der Grundlage der Fakten und Informationen, die das Modell ihnen bereitstellt“, sagt Thomas Costello, Psychologe an der American University, der an dem Projekt mitarbeitete.
Der Haken ist, dass einige der „Beweise“ und „Fakten“, die die Chatbots präsentierten, unwahr waren. In allen drei Ländern machten Chatbots, die für rechtsgerichtete Kandidaten warben, eine größere Anzahl von ungenauen Behauptungen als diejenigen, die für linksgerichtete Kandidaten warben. Die zugrunde liegenden Modelle sind auf riesigen Mengen menschlich verfassten Textes trainiert, was bedeutet, dass sie reale Phänomene reproduzieren – einschließlich „politischer Kommunikation, die von der Rechten kommt, die tendenziell weniger genau ist“, so Studien zu parteiischen Social-Media-Beiträgen, sagt Costello.
In der anderen Studie, die diese Woche in Science veröffentlicht wurde, untersuchte ein überlappendes Team von Forschern, was diese Chatbots so überzeugend macht. Sie setzten 19 LLMs ein, um mit fast 77.000 Teilnehmern aus dem Vereinigten Königreich zu mehr als 700 politischen Themen zu interagieren, während sie Faktoren wie Rechenleistung, Trainingsmethoden und rhetorische Strategien variierten.
Der effektivste Weg, um die Modelle überzeugend zu machen, bestand darin, sie anzuweisen, ihre Argumente mit Fakten und Beweisen zu untermauern und ihnen dann zusätzliches Training zu geben, indem sie ihnen Beispiele für überzeugende Gespräche vorlegten. Tatsächlich verschob das überzeugendste Modell die Teilnehmer, die anfangs mit einer politischen Aussage nicht einverstanden waren, um 26,1 Punkte in Richtung Zustimmung. „Das sind wirklich große Behandlungseffekte“, sagt Kobi Hackenburg, Forschungswissenschaftler am UK AI Security Institute, der an dem Projekt mitarbeitete.
Aber die Optimierung der Überzeugungskraft ging auf Kosten der Wahrhaftigkeit. Als die Modelle überzeugender wurden, gaben sie zunehmend irreführende oder falsche Informationen an – und niemand weiß, warum. „Es könnte sein, dass die Modelle, während sie lernen, immer mehr Fakten bereitzustellen, im Grunde genommen an den Boden des Fasses von dem, was sie wissen, gelangen, sodass die Fakten von schlechterer Qualität werden“, sagt Hackenburg.
Die Überzeugungskraft der Chatbots könnte tiefgreifende Folgen für die Zukunft der Demokratie haben, merken die Autoren an. Politische Kampagnen, die AI-Chatbots einsetzen, könnten die öffentliche Meinung auf eine Weise formen, die die Fähigkeit der Wähler beeinträchtigt, unabhängige politische Urteile zu fällen.
Dennoch bleibt abzuwarten, wie genau sich die Auswirkungen gestalten werden. „Wir sind uns nicht sicher, wie zukünftige Kampagnen aussehen könnten und wie sie diese Technologien einbeziehen könnten“, sagt Andy Guess, Politikwissenschaftler an der Princeton University. Um die Aufmerksamkeit der Wähler zu konkurrieren, ist teuer und schwierig, und sie dazu zu bringen, sich auf lange politische Gespräche mit Chatbots einzulassen, könnte herausfordernd sein. „Wird dies der Weg sein, wie sich die Menschen über Politik informieren, oder wird dies eher eine Nischenaktivität sein?“ fragt er.
...

Top
Ranking
Favoriten

