Politik
Analyse

ChatGPT und Politik: Wie KI eine Demokratie gefährden kann

KI generiert unzählige Daten. Doch viele davon sind Falschinformationen.
KI generiert riesige Datenmengen. Doch vieles sind Falschinformationen.Bild: iStockphoto / gorodenkoff
Analyse

ChatGPT und Politik: Wie KI eine Demokratie gefährden kann

21.08.2023, 08:0821.08.2023, 14:00
Mehr «Politik»

Längst hat Künstliche Intelligenz (KI) Einzug in unseren Alltag erhalten. Letztlich sind Sprachassistenten wie etwa Amazons Alexa oder Apples Siri nichts anderes als selbstlernende computergesteuerte Anwendungen, die menschenähnliche Intelligenzleistungen erbringen.

Doch was Vorteile mit sich bringt, hat in fast allen Fällen auch eine Schattenseite – so auch KI: Sie kann unsere Demokratie kippen und gefährlich in die politische Meinungsbildung eingreifen.

Früher konnte man sich noch auf Fotos verlassen. Heute muss man ganz genau prüfen, ob sie nicht etwa von einer KI generiert wurden. Wir erinnern uns an Papst Franziskus, der scheinbar in einem weißen Designer-Daunenmantel die Straße überquerte oder Ex-US-Präsident Donald Trump, der offenbar brutal festgenommen wurde. Wir müssen uns fragen: Was ist wahr und was ist fake?

Deepfakes und ChatGPT werden für politische Stimmungsmache genutzt

Es wird immer leichter, Bilder von politischen Ereignissen zu fälschen. Auch bei Russlands Präsident Wladimir Putin wird immer wieder gezielt versucht, wortwörtlich ein falsches Bild von ihm zu generieren, wie etwa einen gefälschten Kniefall vor Chinas Staatschef Xi Jinping.

In Deutschland verwendet vor allem die Rechtsaußen-Partei Alternative für Deutschland (AfD) bewusst KI-generierte Bilder, um unter anderem Stimmung gegen Geflüchtete zu machen.

Doch nicht nur Bilder können die politische Meinungsbildung beeinflussen, sondern auch der Chatbot ChatGPT. Etliche Menschen haben ihn bereits selbst ausprobiert – etwa um sich Texte zusammenfassen oder neue Texte schreiben zu lassen.

ChatGPT könnte Rolle bei Wahlen spielen

Wie gefährlich die Software aber einer Demokratie werden kann, weiß Eugenio Benincasa. Er ist Senior Researcher im Cyberdefense Projekt des Risk and Resilience Teams am Center for Security Studies (CSS) der Hochschule ETH Zürich.

Neu: dein Watson-Update
Jetzt nur auf Instagram: dein watson-Update! Hier findest du unseren Broadcast-Channel, in dem wir dich mit den watson-Highlights versorgen. Und zwar nur einmal pro Tag – kein Spam und kein Blabla, versprochen! Probiert es jetzt aus. Und folgt uns natürlich gerne hier auch auf Instagram.

Im Gespräch mit watson erklärt er, dass politische Parteien KI oftmals etwa für ihre Kampagnen nutzen. Im schlimmsten Fall könnten sie auch KI einsetzen, um sich als ihre politischen Rivalen auszugeben und falsche Behauptungen aufzustellen.

Eugenio Benincasa ist Sicherheitsexperte am CSS der ETH Zürich.
Eugenio Benincasa ist Sicherheitsexperte beim Think-Tank CSS der ETH Zürich.Bild: privat / css

Aber auch Privatpersonen können Falschinformationen in KI einspeisen. Denn beispielsweise ChatGPT lernt zum einen durch das, was in das Tool eingetippt wird und zum anderen zieht es sich seine Informationen aus Internetseiten. Entstehen dort also irgendwo bewusst oder unbewusst Fehler, werden die auch wieder ausgespuckt und weiter verbreitet.

Was das für eine Demokratie und Wahlen bedeuten könnte, kann sich jede:r ausmalen. Man denke etwa an eine gefakte Präsidentschaftskandidatur-Rede Bidens, Kanzler Olaf Scholz bei einem Geheimtreffen mit Putin oder Klimaaktivist:innen, die den Reichstag anzünden.

Kurzum: Falsche Informationen durch KI führen zu falschen Annahmen in der Bevölkerung und zu einer Stimmungsmache gegen bestimmte Parteien, Bevölkerungsgruppen oder Themen. Im schlimmsten Fall spiegelt sich das auch im Wahlverhalten wider. So zumindest die Befürchtung von KI-Kritiker:innen.

Julian Kamasa, Sicherheitsexperte am CSS an der Hochschule ETH Zürich.
Sicherheitsexperte Julian Kamasa warnt vor KI, weiß aber auch um die Vorteile.Bild: as / css

Benincasas Kollege Julian Kamasa betont im Gespräch mit watson allerdings auch: "Als Sicherheitsexperten müssen wir klar vor mit KI verbundenen Risiken warnen, aber wir sollten auch keine unnötigen Ängste schüren." Kamasa ist Senior Researcher im Team für Schweizer und euro-atlantische Sicherheit am CSS der ETH Zürich.

"Die Reaktion der politischen Entscheidungsträger auf neue Technologien kommt in vielen Fällen einfach zu spät."
Julian Kamasa, Senior Researcher im Team für Schweizer und euro-atlantische Sicherheit am CSS

Der Experte merkt zudem an, dass Wahlumfragen in der Vergangenheit oft total daneben lagen. Daran sei zu sehen, dass eine Meinung innerhalb der Bevölkerung nicht automatisch auf Wahlergebnisse übertragen werden kann. Denn wer mögliche Falschinformationen oder Propaganda durch KI ausgespielt bekommt und wer davon am Ende tatsächlich aufgrund dessen wählen geht, könne nicht überprüft werden.

Fake News durch KI können kaum eingedämmt werden

Wenn Reden fälschen so einfach geworden ist – könnte durch eine KI-generierte Kriegserklärung auch ein Krieg entstehen?

Die beiden Experten sind sich einig: Nein. Denn ein Krieg werde von Ländern gestartet und nicht vom Volk. Benincasa erklärt jedoch auch:

"KI-generierte Desinformation kann Demokratien in Friedenszeiten und während eines bewaffneten Konflikts schaden. Denn sie kann Verwirrung stiften, Befehle fälschen, polarisierende Inhalte fördern und die Unterstützung der Bevölkerung für die Regierung in noch nie dagewesener Weise untergraben."
dpatopbilder - 08.06.2023, Ukraine, Kreminna: Ukrainische Soldaten ruhen sich in einem Graben an der Frontlinie in der Nähe von Kreminna aus. Foto: Roman Chop/AP/dpa +++ dpa-Bildfunk +++
Gerade in Kriegszeiten ist KI ein sensibles Thema.Bild: AP / Roman Chop

Unabhängig von möglichen oder unmöglichen Kriegsszenarien warnen unlängst verschiedene Studien, wie die neueste Studie der Universität Zürich davor, dass ChatGPT erfolgreich Fehlinformationen verbreitet. Sicherheitsexperte Kamasa betont:

"Ich vermute, dass es nicht die ältere Generation ist, die davon betroffen ist, auf Fake News durch ChatGPT reinzufallen. Denn diese Generation nutzt vorrangig Informationsquellen wie Radio oder TV. Vielmehr könnte die jüngere Generation davon betroffen sein, die Online-Medien nutzt, um nach Informationen zu suchen."

Deshalb fordern Kamasa und Benincasa auch explizit die Schulen dazu auf, Kinder für Falschinformationen durch KI zu sensibilisieren. Das erfordere wiederum ebenfalls von den Lehrer:innen, zu verstehen, was es mit KI auf sich hat.

Gleiches gelte für Politiker:innen, sagt Kamasa. Schließlich müssten sie verstehen, was sie regulieren sollen. "Es ist wohl Wunschdenken, dass die politischen Entscheidungsträger im Voraus handeln und versuchen würden, wichtige Trends in der technologischen Entwicklung zu verstehen. Die Reaktion der politischen Entscheidungsträger auf neue Technologien kommt in vielen Fällen einfach zu spät."

Laut der grünen Digitalpolitikerin Tabea Rößner müssten Nachschärfungen im Strafrecht geprüft werden, wie die "FAZ" berichtet. Auch Social Media müsste stärker in Verantwortung gezogen werden, wenn es um die Verbreitung manipulativer KI-Fakes geht.

"Derzeit gibt es nicht viele Instrumente, um die Verbreitung von Fake News zu bekämpfen. Kurzfristig liegt die Hauptverantwortung bei den Privatunternehmen."
Eugenio Benincasa, Senior Researcher im Cyberdefense Projekt des Risk and Resilience Teams am CSS der ETH Zürich

Benincasa sagt dazu: "Um die negativen Auswirkungen von KI-generierten Desinformationen einzudämmen, müssen in demokratischen Ländern erst Vorschriften erlassen werden. Allerdings dürfte das angesichts des rasanten Innovationstempos und ohne dabei das Recht auf freie Meinungsäußerung zu verletzen, schwer zu erreichen sein."

30.09.2022, Hamburg: Tabea Rößner (Bündnis 90/Die Grünen), Vorsitzende des Digitalausschusses im Deutschen Bundestag, spricht auf dem Panel "Ein Sender unter Druck, Die ARD zwischen Krise und Kam ...
Tabea Rößner (Grüne) ist seit 2021 Vorsitzende des Ausschusses für Digitales.Bild: dpa / Markus Scholz

Wenn es nach Kamasa ginge, müsste es zumindest längst eine Kennzeichnungspflicht für KI-generierte Inhalte geben, wie etwa ein Wasserzeichen. Doch die Bundestagsabgeordnete Rößner findet: "Wenn jemand manipulieren und Propaganda betreiben will, dann macht er das doch gerade nicht transparent."

"Derzeit gibt es nicht viele Instrumente, um die rasche Verbreitung von Fake News wirksam zu bekämpfen", betont Benincasa. "Kurzfristig liegt die Hauptverantwortung bei den Privatunternehmen." Sie müssten laut dem Experten Standards und Vorschriften entwickeln, die den sicheren und vertrauenswürdigen Einsatz von KI-Tools gewährleisten.

Hier sehen die beiden Experten Hoffnung. Denn aktuell teilt sich der ChatGPT-Betreiber Open AI mit wenigen anderen ein Oligopol. Heißt: Wenige privatwirtschaftliche Unternehmen üben Druck auf die Politik aus. Drängen mehr KI-Firmen auf den Markt, würden automatisch auch andere Technologien und diversere Inhalte verbreitet, erklärt Benincasa. Das bedeutet wiederum: Es entsteht weniger Macht über die Politik und mehr Konkurrenz durch alternative Geschäftsmodelle, die beispielsweise Fake News ernst nehmen.

Dennoch wirkt es so, egal, was man im Hochbürokratie-Land Deutschland plant zu unternehmen: Es wird zu spät kommen. Künstliche Intelligenz wird vermutlich alles überholen, bevor ein Beschluss überhaupt zu Ende diskutiert wurde.

KI-Kriegsschiff gegen Russland: Europa setzt auf neue Technologie

Die Welt rüstet aktuell auf. Angesichts der vielen Kriege und Konflikte sind die weltweiten Militärausgaben im vergangenen Jahr bereits auf ein Allzeithoch von 2,4 Billionen Dollar gestiegen. Tendenz steigend. Schließlich dürften die aktuellen Entwicklungen im Jahr 2024 nicht gerade dazu beitragen haben, dass Staaten die Militärausgaben zurückfahren.

Zur Story