So nennt es die „Frankfurter Rundschau“ deshalb ein „gefährliches Glücksspiel mit der Wahrheit“, wenn man etwa ChatGPT nach den neuesten Wahlergebnissen fragt, sich von Copilot die Tagesnachrichten zusammenfassen lässt oder Gemini um Hintergründe zur aktuellen Weltlage bittet.
Genau dies tun jedoch täglich Millionen Bundesbürger und vertrauen dabei darauf, mit Tatsachen und nicht mit „alternativen Fakten“ versorgt zu werden.
Was dabei herauskommen kann, wenn die KI „spinnt“, verdeutlichte die „Tagesschau“ an prägnanten Beispielen aus der Studie der Europäischen Rundfunkunion (EBU), an der für Deutschland ARD und ZDF beteiligt waren. Demnach behauptete etwa der populäre Chatbot ChatGPT, dass Papst Franziskus noch lebt. Microsoft Copilot, das unter anderem in den Büroprogrammen Word und Excel präsent ist, war nicht bekannt, dass Schweden Mitglied der NATO ist. Und Google Gemini bezeichnete die Wiederwahl von Donald Trump als „möglich“, obwohl sie bekanntlich längst stattgefunden hat.
Überzeugend Falsches behaupten
„Die Systeme klingen überzeugend, auch wenn sie immer wieder vollkommen falsche Dinge behaupten“, zitiert die „Tagesschau“ den Wirtschaftswissenschaftler Peter Posch von der Technischen Universität Dortmund. Er warnt, dass dies für ungeübte Nutzer besonders gefährlich sei, weil man die Fehler oft nicht sofort erkennen könne.
Solche Berichte und Schlagzeilen wie „KI erfindet jede dritte Antwort“ wirkten erst einmal dramatisch, räumt auch KI-Experte Prof. Dr. Marco Barenkamp ein. Falsche Quellen, ausgedachte Fakten, verwirrte Chatbots, das klinge besorgniserregend. Doch wer fachkundig und genau hinschaue, erkenne das eigentliche Problem, stellt der Wirtschaftsinformatiker fest: Denn nicht die Technik versage in diesen Fällen, sondern der Mensch, der sie benutzt. Das ist die bittere Wahrheit, erklärt der Gründer der auf KI-Entwicklungen spezialisierten Osnabrücker LMIS AG.
Mit seinem Einwand will der Consultant, der Politik, Unternehmen, Verbände und andere Organisationen beim lösungsorientierten Einsatz von KI berät, nicht missverstanden werden. Ihm geht es nicht darum, realitätsfremd zu besänftigen oder tatsächliche Probleme kleinzureden. Vielmehr will er „hysterischen“ Fehleinschätzungen aufgrund der EBU-Studie vorbeugen.
Viele Menschen glaubten, ein Chatbot sei eine Art schlaues Wikipedia, erläutert Professor Barenkamp. Doch genau das ist der Irrtum: Künstliche Intelligenz sei kein Lexikon, sondern ein Spiegel der eigenen Genauigkeit, erklärt der Experte. Will sagen: „Wer schlampig fragt, bekommt Statistik als Strafe zurück“. Die EBU hat nach Einschätzung von Professor Barenkamp recht, wenn sie vor Fehlern warnt. Aber sie irrt aus seiner Sicht, wenn sie allein der Maschine die Schuld gibt. Die Verantwortung liege – wie in anderen Fällen auch – immer bei dem Nutzer, der sich blind auf ein Werkzeug verlässt, mit dem er nicht richtig umgehen kann, mahnt der KI-Experte. Hier sind die Werkzeuge eben die Systeme, welche die Anwender nicht verstehen. Letztlich sei Künstliche Intelligenz ebenfalls ein Werkzeug, das man beherrschen müsse, betont Professor Barenkamp.
„Wer unsauber formuliert, bekommt Unsinn“
„Moderne Systeme wie GPT 5 sind erstaunlich präzise, aber sie verzeihen gleichzeitig keine Nachlässigkeit. Wer klar fragt, erhält klare Antworten. Wer unsauber formuliert, bekommt Unsinn. Die Maschine reagiert empfindlich auf Unschärfe. Sie rechnet mit Wahrscheinlichkeiten, nicht mit Wahrheit. Sie folgt nur Mustern“, macht der Fachmann das Problem deutlich.
GPT 5 sei nun mal ein recht kompliziertes Werkzeug, das Disziplin und Fachwissen in der Nutzung verlange, weiß der Informatiker. Konkret: „Die Technik ist grundsätzlich sehr gut, aber sie zwingt uns, präziser zu denken“, konstatiert Professor Barenkamp. Das heißt: Die KI benötigt klare Anweisungen bzw. präzise formulierte Fragen (Prompts), um vernünftig und zielführend antworten zu können. „Wer sorgfältig promptet, bekommt saubere Ergebnisse. Wer bequem und ungenau ist, der produziert Halluzinationen. So einfach ist das“, fasst Professor Barenkamp zusammen.
Er formuliert daraus die klare Regel: Garbage in – garbage out. Oder auf Deutsch: Wer Mist eingibt, bekommt Mist zurück. „Daran wird sich wohl auch mit KI erstmal nichts ändern“, warnt der Experte.
Für besonders problematisch an den Ergebnissen der aktuellen EBU-Studie hält der stellvertretende Generaldirektor der Europäischen Rundfunkunion, Jean Philip De Tender, dass die beschriebenen Versäumnisse der KI keine Einzelfälle sein sollen. Sie seien vielmehr „systemisch, grenzüberschreitend und mehrsprachig“, zitiert die
„Frankfurter Rundschau“ den EBU-Direktor. Er befürchtet deshalb „dramatische Folgen für die Demokratie“: Wenn Menschen nicht wissen, wem sie vertrauen können, „vertrauen sie am Ende niemandem mehr, und das kann die demokratische Teilhabe beeinträchtigen“, sagt De Tender.
Appell an die Nutzer: Gegenchecken und präzise prompten
Doch damit nicht genug: Der EBU-Studie zufolge sollen die Chatbots nicht nur Fakten, sondern auch Quellen erfinden. So könnten die Täuschungen noch eine ganz andere Qualität erhalten, mahnen Medien-Fachleute: wenn Fake News seriösen Quellen zugeschrieben werden. Wie die EBU-Tester herausfanden, sollen die Chatbots bei den Checks behauptet haben, ihre Informationen stammten von ARD, ZDF oder der Tagesschau – obwohl diese Redaktionen nie entsprechend berichteten. Damit untergrüben die KI-Systeme das Vertrauen in seriöse Medien und schafften ein Chaos aus Wahrheit und Erfindung, mahnt die „Frankfurter Rundschau“ vor den besonders „perfiden“ Konsequenzen der KI-Fantasien.
Vor diesem Hintergrund ruft die EBU als Essenz ihrer Studie alle Nutzer von LLM oder KI-basierten Chatbots dazu auf, niemals blind auf KI-Antworten zu vertrauen. Stattdessen sollte man wichtige Informationen immer bei etablierten Medien gegenchecken, heißt es. Und, wie KI-Experte Professor Barenkamp hervorhebt, Fragen und Anweisungen an die Systeme immer durchdacht und präzise formulieren. Denn wie gesagt: Garbage in – garbage out! Weil KI eben nicht eigenes klares Denken ersetzt…
(pd/Academic Society for Artificial Intelligence)