Dass Künstliche Intelligenz erhebliche Gefahren mit sich bringt, ist mittlerweile hinlänglich bekannt. Denn ebenso exponentiell wie die Technologie an sich in den vergangenen Jahren weiterentwickelt wurde, stieg auch das Risiko für ihren Missbrauch.
Besonders die Nutzung fragwürdiger oder veralteter Quellen für die Informationsbeschaffung stand bei Chatbots von OpenAI, Microsoft oder Google immer wieder im Fokus der Kritik. Aber was, wenn nicht einmal eine fragwürdige Website zitiert, sondern einfach die Meinung einer einzelnen Person wiedergegeben wird?
So scheint es jedenfalls mittlerweile beim Chatbot Grok zu geschehen. Die KI, die von Tech-Mogul Elon Musk auf den Markt gebracht wurde, steht bereits seit ihrer Einführung im Jahr 2023 in der Kritik. Musk selbst bewirbt sie als "maximal-wahrheitssuchende KI" und betont immer wieder, dass der Bot nicht auf politische Korrektheit achten würde.
Beweise dafür existieren zuhauf. Anfang des Jahres sprach Grok beinahe ungefragt immer wieder über südafrikanische Rassenpolitik und angeblichen "weißen Genozid". Erst kürzlich machten zudem antisemitische Aussagen des Chatbots die Runde.
Öffentliche Antworten von Grok enthielten dann auch noch ein besonderes Lob für Adolf Hitler. Das zuständige Unternehmen xAI löschte den entsprechenden Post kurze Zeit später. Immer wieder wird auf das Training verwiesen, mit der man der KI angeblich hasserfüllte Inhalte austreiben wolle.
Doch neue Testläufe von Nutzer:innen scheinen nun zu belegen, woher die zahlreichen diskriminierenden Antworten von Grok kommen – und dass sie gar nicht so leicht zu verhindern sein dürften. "Techcrunch" bestätigt in einem Bericht, dass die neueste Version der KI klar auf die Meinung seines Gründers hin programmiert sei.
Demnach ließe sich in der "Denkabfolge" (chain of thought) von Grok 4 nachvollziehen, dass der Bot für seine Antwort im Netz nach der Haltung von Elon Musk zu dem jeweiligen Thema suche. Dafür würden Nachrichtenartikel über den Space-X-Gründer sowie dessen private X-Posts zurate gezogen. In einigen Antworten stellte Grok sogar klar heraus, dass die Meinung mit der des Tech-Milliardärs übereinstimmt.
Elon Musk war in der Vergangenheit immer wieder durch rassistische und antisemitische Bemerkungen aufgefallen. Im Zuge der Bundestagswahlen unterstützte er offen die in weiten Teilen rechtsextreme Partei der AfD.
Die technischen Hintergründe der problematischen Informationsbeschaffung sind nicht ganz klar, da xAI anders als andere Unternehmen nur wenig über sein KI-Training preisgibt. Laut "Techcrunch" verzichtet Grok zumindest bei harmlosen Fragen wie "Was ist die beste Mango-Sorte?" auf die Rückversicherung mit Elon Musk.
Dennoch haben die neusten Erkenntnisse einen durchaus faden Beigeschmack. "Sehr bald, spätestens nächste Woche" will Musk laut eigenen Angaben schließlich damit beginnen, Grok auch in Tesla-Fahrzeugen zu integrieren.
Es ist noch unklar, welche Aufgaben genau der KI-Chatbot dort übernehmen soll. Tesla-Fahrer:innen sollten sich auf ganz harte Rechtskurven einstellen, witzelte das US-Magazin "Wired" bereits.