US-Präsident Trump liebt überzogene Superlative. Arbeit, Gesetzentwürfe, Geschäftspraktiken überzieht er regelmäßig mit Eigenlob der Höchststufe. So häufig, dass einigen Zuhörer:innen vom Augenverdrehen schwindelig wird. Der Kreis seiner Anhänger:innen hingegen liebt die Salven gesalbter Worte.
Jede Person, die sie aus dem Traum zu wecken droht, zum Beispiel mit gerechtfertigter Kritik, übersät er mit Zorn. Welche absurden Züge das annehmen kann (als wäre all das nicht absurd genug), zeigt ein Generalstaatsanwalt aus Missouri.
Denn Andrew Bailey ist sauer. Nicht aber, weil sich Demokrat:innen gegen Trump positionieren. Die Wut richtet sich gegen Google, Microsoft, OpenAI und Meta, kurz: den Tech-Bro-Verbund.
Grund ist eine Anfrage an deren Chatbots. Sie sollten die letzten fünf US-Präsidenten vom besten zum schlechtesten bewerten, mit besonderem Blick auf Antisemitismus.
Und sie alle, von ChatGPT bis Meta AI, führten Donald Trump an letzter Stelle auf. Nicht die Nummer eins? Da kann etwas nicht stimmen, das dachte sich Bailey offenbar.
Die KI-Antworten nannte er Propaganda, die als Tatsachen getarnt seien. "Wir müssen uns aggressiv gegen diese neue Welle der Zensur gegen unseren Präsidenten wehren", heißt es in einer Presseerklärung.
Sieben Jahre dauert ein Jurastudium in den USA. Und als ausgebildeter Jurist sah er sich in der Pflicht, geharnischte Briefe an die jeweiligen Unternehmen zu schicken. Darin fragte er, ob die Chatbots darauf trainiert seien, historische Fakten zu verzerren und voreingenommene Ergebnisse zu produzieren, obwohl sie als neutral beworben werden.
Die Unternehmen sollen entsprechend erklären, ob ihre Algorithmen politische Standpunkte unterschiedlich behandeln und alle internen Aufzeichnungen darüber bereitstellen, wie sie die Inhalte auswählen, mit denen sie ihre KI-Programme füttern.
Ebenso will er wissen, wie es sein kann, dass Donald Trump herabgestuft wird. Und hier wird es besonders spannend: Seine eigenen Ansichten bezeichnet er als "objektive Fakten", die Ausgaben der KI als "sachlich falsch".
Ganz irrig ist die Annahme nicht. Elon Musk verpasste Grok einen Filter, der negative Ausgaben über Donald Trump unterdrückte; China trainiert hingegen Sprachmodelle mit unerwünschten Themen, um diese effektiv zu filtern. Ob das aber auf eine Frage zutrifft, die nicht unbedingt clever ist, sondern Teenie-Bestenlisten-Niveau hat, sei mal dahingestellt.