Zusammenarbeit zwischen Mensch und KI

Werden wir KI jemals vertrauen können?

KI-Vertrauen

KI-Modelle übernehmen immer mehr Aufgaben: Sie schreiben Code, erstellen Dokumente und Filme, erkennen Fehler und entwickeln Prototypen und delegieren sogar Aufgaben an ihre „Kollegen“. Oft tun sie dies schneller, besser informiert und zuverlässiger als Menschen.

Doch die eigentliche Herausforderung ist und bleibt das Vertrauen. Ein Bild oder Text lässt sich leicht prüfen. Komplexe Analysen oder Einsichten aus großen Datensätzen sind jedoch schwieriger zu bewerten. Einer medizinischen KI-Diagnose blind zu vertrauen, ohne menschliche Gegenprüfung oder nachvollziehbare Erklärung, ist undenkbar.

Anzeige

Aber selbst, wenn eine KI Erklärungen liefert, wäre es töricht, diesen einfach zu vertrauen. KIs können überzeugende, aber dennoch falsche Begründungen liefern. Mein aktuelles Lieblingsbeispiel ist eine KI, die den Aufnahmeort eines Bildes bestimmen sollte. Sie nannte den Ort schnell und erklärte plausibel anhand von Objekten, Licht und Bilddetails, warum dies der Ort sei. Das ist ziemlich beeindruckend. Bei genauer Prüfung stellte sich jedoch heraus, dass sie lediglich die Ortsinformation aus den Metadaten des Bildes ausgelesen hatte. Als man sie darauf ansprach, gab sie zu, geschummelt zu haben.

Solche Fälle machen deutlich: Wir können also KI selbst mit Erklärung nicht blind vertrauen. Aber was brauchen wir dann, um einer KI zu vertrauen?

Wie entsteht Vertrauen?

Wie bauen wir Vertrauen auf? Es hilft, sich daran zu erinnern, wie wir Vertrauen unter menschlichen Kollegen aufbauen. Es gibt generell zwei Wege: Normalerweise überträgt man einer Person, die man gerade erst kennengelernt hat (und über die man keine vertrauenswürdigen Referenzen hat), nicht sofort die kritischste Analyse und vertraut ihr blind mit seinem Leben – oder zumindest mit dem seines Unternehmens. Stattdessen überprüft man ihre Ergebnisse zunächst selbst (oder lässt sie von jemandem prüfen, dem man vertraut), bis man bereit ist, dieser neuen Person zu vertrauen.
Alternativ bittet man die Person zu erklären, wie sie zu ihren Ergebnissen gekommen ist, um ihr Denken und ihren Prozess nachzuvollziehen. Wenn das alles Sinn ergibt, geht man das Risiko ein, den Ergebnissen zu vertrauen. 

Anzeige

Es gibt noch einen weiteren Aspekt: Selbst Jahre später, wenn man gelernt hat, dass ein Kollege zuverlässig korrekte Berichte liefert, erwartet man, dass er einen darauf hinweist, wenn er sich bei einer Auswertung einmal weniger sicher ist als üblich. 

Menschliches Vertrauen basiert also auf zwei Säulen: vergangenen Erfahrungen (direkt oder indirekt über vertrauenswürdige Quellen) und auf der Erwartung, dass das Gegenüber offen über seine Sicherheit bzw. Unsicherheit kommuniziert. Beide Wege sind bei KI schwer umzusetzen. Aktuelle Modelle neigen dazu, Erklärungen oder Lösungswege zu erfinden, die sie selbst gar nicht befolgt haben (siehe oben). Gleichzeitig neigen sie dazu, sehr selbstsicher aufzutreten, auch wenn sie falsch liegen. 

Wenn Vertrauen unter Menschen auf Erfahrung und Transparenz beruht – wie können wir diese Prinzipien auf KI-Systeme übertragen?

Wie lernen wir, KI zu vertrauen?

Wie können wir lernen, einer KI zu vertrauen, wenn sie kritische Erkenntnisse liefert, Unternehmensanwendungen entwickelt oder mit sensiblen Daten umgehen soll? Wir brauchen Wege, um diese beiden Aspekte – Validierung und Erklärung – beim Arbeiten mit KI abzudecken. 

Für die Validierung gibt es zwei Möglichkeiten: Wir können uns auf eine andere KI verlassen oder – wie bisher – auf Menschen. Es gibt bereits interessante Ansätze, bei denen eine zweite (oder dritte, vierte …) KI die Ergebnisse des ersten Modells überprüft. Sie erkennen beleidigende Texte, merkwürdige Bilder oder andere Fehler, können aber auch die Zuverlässigkeit der Ergebnisse hinterfragen. Solange wir keine perfekte Sicherheit erwarten, funktioniert dieser Ansatz gut. Und wohlgemerkt: 100 Prozent Sicherheit erhält man auch von menschlichen Kollegen nicht. Diese Art des „Gegenprüfens“ durch eine andere KI kann daher oft sogar besser sein als eine menschliche Kontrolle – aber wie üblich bei KI, kann sie auf überraschende Weise scheitern. Je nach Toleranz für solche Überraschungen möchte man vielleicht doch einen Menschen einbeziehen. 

Die größere Problematik ist jedoch das Vertrauen durch Erklärung. Wir müssen dazu nachahmen, wie wir den Antworten menschlicher Kollegen vertrauen: Zeig mir – und lass mich nachvollziehen – wie du zu diesem Ergebnis gekommen bist. Dabei wollen wir keine erfundene Erklärung, sondern die tatsächlichen Schritte sehen, die zur Schlussfolgerung geführt haben. Das bedeutet: KIs müssen in der Lage sein, ihre Vorgehensweise in einer für das jeweilige Publikum geeigneten Sprache zu erklären. So wie Prüfer unterschiedliche Begriffe verwenden, je nachdem, ob sie mit Fachkollegen oder Laien sprechen, muss auch die KI verschiedene Formen der Erklärung beherrschen. In manchen Fällen reicht Verständnis nicht aus – wir wollen die Ergebnisse anhand der Erklärung sogar reproduzieren können. Die „Sprache“ der Erklärung muss also nicht nur verständlich, sondern auch ausführbar sein. 

Hinzu kommt ein weiteres Problem: Durch den rasanten Fortschritt der KI kann die „Denkeinheit“, der man gestern vertraut hat, heute bereits verändert oder vollständig ausgetauscht worden sein. Vertrauen ist also nichts Statisches, sondern muss immer wieder neu aufbaut werden.

Das verstärkt die Notwendigkeit, Ergebnisse verifizieren zu können: KIs müssen tatsächlich belegen können, wie sie zu ihren Ergebnissen kommen – ohne sich dabei Erklärungen auszudenken, nur um uns zufriedenzustellen. 

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Wie können KIs ihre Ergebnisse wahrheitsgemäß erklären?

KI muss erklären können, was sie tut – und wir müssen sicher sein, dass diese Erklärung tatsächlich dem entspricht, was „unter der Haube“ passiert ist. Auch wenn der Vergleich etwas hinkt: Nehmen wir eine KI, die Klaviermusik spielt. Wir hören aber nur die Aufnahme. Um sicherzugehen, dass sie wirklich Klavier gespielt hat, müssen wir sie fragen können, welche Tasten sie gedrückt hat – und sicher sein, dass die akustischen Ausgaben ausschließlich durch den tatsächlichen Klang des Klaviers erzeugt wurden. Dasselbe gilt für Prognosen: Eine KI muss nachweislich mit den zugrundeliegenden Daten gearbeitet haben, statt bloß zu halluzinieren. Wenn sie offenlegt, auf welche Daten sie zugegriffen hat und wie diese verarbeitet wurden, und man dies Schritt für Schritt reproduzieren kann, entsteht Vertrauen.

Die Form der Erklärung variiert. Bei Code könnte es sein: „Zeig mir den SQL-Code, mit dem du die Daten verknüpft hast.“ Oder „Zeig mir den ggplot2-Code, mit dem du diese Grafik erstellt hast.“ In anderen Fällen kann der Nachweis über abstraktere Darstellungen wie Datenflussdiagramme oder visuelle Workflows erfolgen. Für viele weitere Fälle brauchen wir ebenso geeignete Darstellungsformen, die für Menschen verständlich und nachvollziehbar sind. Genau hier müssen wir stärker investieren – in geeignete Mechanismen (oder „Sprachen“), die echte Zusammenarbeit zwischen Mensch und KI ermöglichen. 

Wohin führt das?

Auf manchen Einsatzgebieten ist KI bereits vertrauenswürdig genug. Einige Fehler lassen sich leicht erkennen oder haben keine großen Auswirkungen. In anderen Bereichen ist KI sogar schon deutlich besser als Menschen. Entweder akzeptieren wir das (z. B. beim Finden von Schlupflöchern in juristischen Dokumenten) oder wir müssen lernen zu akzeptieren, dass KI zwar viel weniger Fehler macht, dafür aber gelegentlich sehr dumme. Nehmen wir das Beispiel des autonomen Fahrens – dies ist zwar oft sicherer, aber mit manchmal gravierenden Ausnahmen. 

Und dann gibt es Bereiche, in denen wir systematisch definieren müssen, wie Vertrauen überhaupt aufgebaut wird. Der Weg nach vorn erfordert nicht nur bessere KI, sondern auch bessere Formen der Zusammenarbeit zwischen Mensch und KI – durch transparente Prozesse, reproduzierbare Erklärungen und gemeinsame „Sprachen“. Nur so können wir das volle Potenzial künstlicher Intelligenz ausschöpfen. 

Michael Berthold KNIME

Michael

Berthold

CEO

KNIME

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.