Digitales

Wahlberatung durch KI – die neue Macht im Kampf um Stimmen

Forscher warnen vor dem Einsatz von KI bei der Wahlberatung.

ChatGPT beantwortet nicht nur Fragen aus allen Lebenslagen, es beeinflusst Menschen auch, nicht zuletzt politisch. Forscher warnen vor den Folgen - zumal Europa praktisch keine Kontrolle hat.

Veröffentlicht

Zusammenfassung

  • KI-Chatbots wie ChatGPT werden zunehmend für politische Fragen genutzt und versprechen dabei trotz eingebauter Warnhinweise Orientierung bei der Wahl.
  • Forschungsstudien zeigen, dass Chatbots politische Einstellungen messbar verändern können, teils stärker als klassische Wahlkampfmedien, und dabei Verzerrungen zugunsten bestimmter politischer Lager auftreten.
  • Experten warnen vor Manipulationsrisiken durch intransparente, meist außereuropäische Anbieter und fordern mehr Medienkompetenz, klare Regeln und eine breite gesellschaftliche Debatte über KI in der politischen Willensbildung.

Diese Infobox wurde mithilfe von KI generiert und von der Redaktion geprüft.

Vor ein, zwei Jahren war es noch eher die Ausnahme, aber mittlerweile gehört der ständige Maschinen-Plausch auch zum deutschen Alltag. Um wie viel Uhr soll ich zum Sport gehen, um den besten Nutzen daraus zu ziehen? Ich habe einen kleinen Knubbel in der Achselhöhle – ist der gefährlich? Eine Freundin hat mir das hier geschrieben - wie antworte ich am besten darauf? Chatbots wie ChatGPT beraten in allen Lebenslagen. Da ist es nicht weit bis zu der Frage: Hey, was soll ich denn am Sonntag mal wählen?

«Man muss davon ausgehen, dass sehr viele Leute solche Fragen stellen», vermutet der Politikwissenschaftler Simon Hegelich, ehemals Professor in München, jetzt Chief Intelligence Officer des KI-Startups Gaialogic. 

«Dazu kann man ganz kurz zusammengefasst sagen: Die Systeme sind auf diese Fragen vorbereitet. Aber sie sind dafür nicht geeignet.»

ChatGPT verspricht dem Wähler: «Ich kann dir helfen»

Dass das System auf solche Fragen eigens vorbereitet wurde, sieht man schon daran, dass ChatGPT erstmal ganz artig eine Warnung ausspricht, wenn man fragt, was man wählen soll: 

«Ich sag’s dir ehrlich: Das kann und sollte dir niemand konkret vorschreiben.» Dieser Satz verrät eine entsprechende Programmierung. «Das ist nichts, was ein normales Sprachmodell sagen würde», sagt Hegelich. «Hier ist vorgegeben worden, dass sich das System sehr vorsichtig äußern soll.» 

Nach dem Warn-Satz folgt bei ChatGPT ein Angebot wie: «Aber ich kann dir helfen, eine fundierte Entscheidung zu treffen – schnell und klar.» Etwas weiter unten kommt dann die Aufforderung, einfach mal zu sagen, was einem in der Politik wichtig sei: «Dann sag ich dir ganz konkret, welche Parteien am besten dazu passen (neutral und ohne Druck).» 

Mit solchen Sätzen führe die KI den Nutzer in die Irre, findet Hegelich: «Es stimmt ja nicht, dass die KI schaut, welche Partei am besten zu mir passt. Sondern sie schmeißt, eventuell basierend auf meinen bisherigen Chatverläufen, einen großen Statistik-Apparat an und spuckt dann auf dieser riesigen Datengrundlage was aus. Es steckt aber kein wirklicher eigener Gedankengang dahinter, es ist eine pure Datenauswertung.»

Das kommt aber eben anders rüber. Die Empfehlungen von ChatGPT sind durchsetzt mit Bemerkungen wie «Ich sag’s dir ehrlich». Das bewirkt auf der Gefühlsebene den Eindruck, dass man mit einem Menschen plaudert – auch wenn man rational weiß, dass das nicht so ist. 

Die Systeme sind von außen nicht überprüfbar 

«Die Gefahr der Manipulation durch die System-Architekten ist natürlich groß, weil es möglich ist, jeden Chatbot zu einer politischen Überzeugungsmaschine auszubauen», warnt Hegelich. 

«Und wenn etwas technisch möglich ist und politische Konflikte zunehmen, dann wird es sicherlich auch irgendwann gemacht. Und da niemand von außen in die Systeme reinschauen kann, ist es auch so gut wie gar nicht überprüfbar.»

Zwei Studien, die kürzlich in den Fachzeitschriften «Nature» und «Science» veröffentlicht wurden, belegen, dass Dialoge mit Chatbots politische Einstellungen verändern können. 

In einer der Untersuchungen kommunizierten im US-Wahlkampf von 2024 mehr als 2.300 Teilnehmer mit einem KI-Modell, das sie entweder von Donald Trump oder von Kamala Harris überzeugen wollte. Die auffälligste Wirkung erzielte der Pro-Harris-Chatbot, der Trump-Unterstützer auf eine Skala von 0 bis 100 um 3,9 Punkte in Richtung Harris bewegte. 

Das mag gering erscheinen, doch der Effekt von Wahlkampfwerbung liegt nach derzeitigem Forschungsstand bei weniger als einem Punkt. 

Auch interessant: Die Überzeugungskraft war größer, wenn der Chatbot seine Argumente höflich vortrug und mit Belegen und Beispielen untermauerte. Und: Obwohl das verwendete KI-Programm angehalten war, streng bei den Fakten zu bleiben, produzierte es Verzerrungen. 

Dieses Phänomen wurde auch bei entsprechenden Studien vor der Parlamentswahl in Kanada und der Präsidentschaftswahl in Polen im vergangenen Jahr beobachtet: «Über Länder und Sprachmodelle hinweg waren die Behauptungen von KI-Chatbots, die rechts gerichtete Kandidaten förderten, deutlich ungenauer als diejenigen, die sich für linksgerichtete Kandidaten einsetzten», so die Forscher. Insgesamt kommen sie zu dem Schluss, dass KI-Systeme «weitaus mehr Einfluss als herkömmliche Wahlkampfmedien» ausüben können.

Maschinen sind überzeugender als Menschen

Eine andere Studie, veröffentlicht im Fachmagazin «Nature human behaviour», erbrachte ein ähnliches Ergebnis. Demnach agieren Chatbots überzeugender als Menschen. Zum einen, weil sie gleichbleibend freundlich bleiben können - ihnen brennen eben nie die Sicherungen durch. Und dann, weil sie sich genau auf ihr Gegenüber einstellen. 

«Es ist, wie wenn man mit jemandem debattiert, der nicht nur gute Argumente hat, sondern genau die Argumente, die bei mir persönlich ziehen - er drückt genau die richtigen Knöpfe», sagte einer der beteiligten Wissenschaftler, Francesco Salvi, dem «Guardian». 

Ein deutscher Experte für dieses Themenfeld ist Andreas Jungherr, der als Politikwissenschaftler an der Universität Bamberg und am Bayerischen Forschungsinstitut für Digitale Transformation (bidt) die Auswirkungen von KI auf Gesellschaft und Politik untersucht. 

Jungherr hält den Einfluss von Chatbots auf die politische Willensbildung aktuell zwar noch für überschaubar. Studien aus den USA zeigten, dass dort im Moment nur etwa neun Prozent der Bevölkerung zumindest manchmal KI-Chatbots für politische Information oder Nachrichten nutzen. 

Dazu komme eine empirisch belegte Skepsis gegenüber KI bei großen Teilen der Bevölkerung. «Die Frage ist allerdings immer: Was ist das Bedrohungsszenario? Das Problematische ist, dass wir es hier mit Firmen zu tun haben, die außerhalb der EU ihren Sitz haben und deshalb regulativ für uns nur schwer steuerbar sind.»

Für Jungherr liegt hier der eigentliche Konfliktpunkt: «Als Nutzer in Deutschland weiß ich nie, ob die für mich durch KI gefilterten Informationen möglicherweise nach privatwirtschaftlichen oder auch geopolitischen Interessen aufgearbeitet oder angepasst wurden. Bei der letzten Bundestagswahl haben wir ja schon wilde Spekulationen darüber erlebt, ob Elon Musk am X-Algorithmus gedreht hat, sodass die AfD sichtbarer wird. Jeder hatte dazu eine Meinung, aber niemand konnte es belegen oder widerlegen – weil uns eben der Zugriff fehlt. Das ist bei der KI genau dasselbe.»

Aktuell lässt sich beobachten, wie US-Präsident Donald Trump die Berichterstattung über den Iran-Krieg durch Ausübung von Druck in seinem Sinne zu beeinflussen versucht. Auch Chatbot-Betreiber könnten in der Zukunft solchem Druck ausgesetzt sein. 

«Ich glaube, es ist illusorisch, zu erwarten, dass Menschen keine Chatbots zur Information nutzen werden», so Jungherr. «Aber wir brauchen mehr Medienkompetenz der Nutzer, klare Regeln für die Betreiber und vor allem erst einmal eine Debatte über dieses wichtige Thema.»