Längst hat Künstliche Intelligenz (KI) Einzug in unseren Alltag erhalten. Letztlich sind Sprachassistenten wie etwa Amazons Alexa oder Apples Siri nichts anderes als selbstlernende computergesteuerte Anwendungen, die menschenähnliche Intelligenzleistungen erbringen.
Doch was Vorteile mit sich bringt, hat in fast allen Fällen auch eine Schattenseite – so auch KI: Sie kann unsere Demokratie kippen und gefährlich in die politische Meinungsbildung eingreifen.
Früher konnte man sich noch auf Fotos verlassen. Heute muss man ganz genau prüfen, ob sie nicht etwa von einer KI generiert wurden. Wir erinnern uns an Papst Franziskus, der scheinbar in einem weißen Designer-Daunenmantel die Straße überquerte oder Ex-US-Präsident Donald Trump, der offenbar brutal festgenommen wurde. Wir müssen uns fragen: Was ist wahr und was ist fake?
Es wird immer leichter, Bilder von politischen Ereignissen zu fälschen. Auch bei Russlands Präsident Wladimir Putin wird immer wieder gezielt versucht, wortwörtlich ein falsches Bild von ihm zu generieren, wie etwa einen gefälschten Kniefall vor Chinas Staatschef Xi Jinping.
In Deutschland verwendet vor allem die Rechtsaußen-Partei Alternative für Deutschland (AfD) bewusst KI-generierte Bilder, um unter anderem Stimmung gegen Geflüchtete zu machen.
Doch nicht nur Bilder können die politische Meinungsbildung beeinflussen, sondern auch der Chatbot ChatGPT. Etliche Menschen haben ihn bereits selbst ausprobiert – etwa um sich Texte zusammenfassen oder neue Texte schreiben zu lassen.
Wie gefährlich die Software aber einer Demokratie werden kann, weiß Eugenio Benincasa. Er ist Senior Researcher im Cyberdefense Projekt des Risk and Resilience Teams am Center for Security Studies (CSS) der Hochschule ETH Zürich.
Im Gespräch mit watson erklärt er, dass politische Parteien KI oftmals etwa für ihre Kampagnen nutzen. Im schlimmsten Fall könnten sie auch KI einsetzen, um sich als ihre politischen Rivalen auszugeben und falsche Behauptungen aufzustellen.
Aber auch Privatpersonen können Falschinformationen in KI einspeisen. Denn beispielsweise ChatGPT lernt zum einen durch das, was in das Tool eingetippt wird und zum anderen zieht es sich seine Informationen aus Internetseiten. Entstehen dort also irgendwo bewusst oder unbewusst Fehler, werden die auch wieder ausgespuckt und weiter verbreitet.
Was das für eine Demokratie und Wahlen bedeuten könnte, kann sich jede:r ausmalen. Man denke etwa an eine gefakte Präsidentschaftskandidatur-Rede Bidens, Kanzler Olaf Scholz bei einem Geheimtreffen mit Putin oder Klimaaktivist:innen, die den Reichstag anzünden.
Kurzum: Falsche Informationen durch KI führen zu falschen Annahmen in der Bevölkerung und zu einer Stimmungsmache gegen bestimmte Parteien, Bevölkerungsgruppen oder Themen. Im schlimmsten Fall spiegelt sich das auch im Wahlverhalten wider. So zumindest die Befürchtung von KI-Kritiker:innen.
Benincasas Kollege Julian Kamasa betont im Gespräch mit watson allerdings auch: "Als Sicherheitsexperten müssen wir klar vor mit KI verbundenen Risiken warnen, aber wir sollten auch keine unnötigen Ängste schüren." Kamasa ist Senior Researcher im Team für Schweizer und euro-atlantische Sicherheit am CSS der ETH Zürich.
Der Experte merkt zudem an, dass Wahlumfragen in der Vergangenheit oft total daneben lagen. Daran sei zu sehen, dass eine Meinung innerhalb der Bevölkerung nicht automatisch auf Wahlergebnisse übertragen werden kann. Denn wer mögliche Falschinformationen oder Propaganda durch KI ausgespielt bekommt und wer davon am Ende tatsächlich aufgrund dessen wählen geht, könne nicht überprüft werden.
Wenn Reden fälschen so einfach geworden ist – könnte durch eine KI-generierte Kriegserklärung auch ein Krieg entstehen?
Die beiden Experten sind sich einig: Nein. Denn ein Krieg werde von Ländern gestartet und nicht vom Volk. Benincasa erklärt jedoch auch:
Unabhängig von möglichen oder unmöglichen Kriegsszenarien warnen unlängst verschiedene Studien, wie die neueste Studie der Universität Zürich davor, dass ChatGPT erfolgreich Fehlinformationen verbreitet. Sicherheitsexperte Kamasa betont:
Deshalb fordern Kamasa und Benincasa auch explizit die Schulen dazu auf, Kinder für Falschinformationen durch KI zu sensibilisieren. Das erfordere wiederum ebenfalls von den Lehrer:innen, zu verstehen, was es mit KI auf sich hat.
Gleiches gelte für Politiker:innen, sagt Kamasa. Schließlich müssten sie verstehen, was sie regulieren sollen. "Es ist wohl Wunschdenken, dass die politischen Entscheidungsträger im Voraus handeln und versuchen würden, wichtige Trends in der technologischen Entwicklung zu verstehen. Die Reaktion der politischen Entscheidungsträger auf neue Technologien kommt in vielen Fällen einfach zu spät."
Laut der grünen Digitalpolitikerin Tabea Rößner müssten Nachschärfungen im Strafrecht geprüft werden, wie die "FAZ" berichtet. Auch Social Media müsste stärker in Verantwortung gezogen werden, wenn es um die Verbreitung manipulativer KI-Fakes geht.
Benincasa sagt dazu: "Um die negativen Auswirkungen von KI-generierten Desinformationen einzudämmen, müssen in demokratischen Ländern erst Vorschriften erlassen werden. Allerdings dürfte das angesichts des rasanten Innovationstempos und ohne dabei das Recht auf freie Meinungsäußerung zu verletzen, schwer zu erreichen sein."
Wenn es nach Kamasa ginge, müsste es zumindest längst eine Kennzeichnungspflicht für KI-generierte Inhalte geben, wie etwa ein Wasserzeichen. Doch die Bundestagsabgeordnete Rößner findet: "Wenn jemand manipulieren und Propaganda betreiben will, dann macht er das doch gerade nicht transparent."
"Derzeit gibt es nicht viele Instrumente, um die rasche Verbreitung von Fake News wirksam zu bekämpfen", betont Benincasa. "Kurzfristig liegt die Hauptverantwortung bei den Privatunternehmen." Sie müssten laut dem Experten Standards und Vorschriften entwickeln, die den sicheren und vertrauenswürdigen Einsatz von KI-Tools gewährleisten.
Hier sehen die beiden Experten Hoffnung. Denn aktuell teilt sich der ChatGPT-Betreiber Open AI mit wenigen anderen ein Oligopol. Heißt: Wenige privatwirtschaftliche Unternehmen üben Druck auf die Politik aus. Drängen mehr KI-Firmen auf den Markt, würden automatisch auch andere Technologien und diversere Inhalte verbreitet, erklärt Benincasa. Das bedeutet wiederum: Es entsteht weniger Macht über die Politik und mehr Konkurrenz durch alternative Geschäftsmodelle, die beispielsweise Fake News ernst nehmen.
Dennoch wirkt es so, egal, was man im Hochbürokratie-Land Deutschland plant zu unternehmen: Es wird zu spät kommen. Künstliche Intelligenz wird vermutlich alles überholen, bevor ein Beschluss überhaupt zu Ende diskutiert wurde.