Google und Forscher testen KI auf Entscheidungen

Google testet in Zusammenarbeit mit Forschern der Universitäten Chicago, Sheffield und der University of the West of England derzeit, ob Künstliche Intelligenz (KI) durch den Lernprozess plötzlich zu einseitigen und diskriminierenden Entscheidungen tendieren kann. Erst im Frühjahr sorgten die Entgleisungen des Chatbots “Tay” von Microsoft für Negativschlagzeilen und könnten das friedliche Miteinander gefährden.

Komplexe Algorithmen

Anzeige

“Entscheidungen, die auf maschinellem Lernen basieren, können sowohl nützlich sein als auch einen sehr großen Einfluss auf unser Leben haben”, so Google-Forscher Moritz Hardt. Aus diesem Grund sei es immer wichtiger zu wissen, ob manche Maschinen womöglich diskriminierende Entscheidungen treffen und ob KI überhaupt feinfühlige Eigenschaften gegeben sind. Der Test soll mit KIs durchgeführt werden, die lernen, Vorhersagen über die Zukunft zu machen, indem sie eine breite Masse von existierenden Daten analysieren.

“Auch wenn wir Zugang zu den Details von Algorithmen haben, sind diese so kompliziert, dass es fast aussichtslos ist, diese zu durchforsten”, erklärt Nathan Sebro von der University of Chicago. Im März hatte Microsoft Probleme mit Tay, der aus der Vielzahl seiner erhaltenen Nachrichten gelernt hatte, ein Rassist zu sein. Zahlreiche rassistische Nachrichten führten dazu, dass er einer Überarbeitung unterzogen werden musste.

Sorgen sind begründet

“Maschinelles Lernen ist großartig, wenn wir es nutzen, um die beste Route für eine neue Öl-Pipeline zusammenzustellen. Bis wir jedoch genau wissen, wie einseitige Neigungen in der KI wirken, wäre ich sehr besorgt darüber, sie Entscheidungen treffen zu lassen, die direkte Auswirkungen auf das Leben von Menschen haben”, betont Noel Sharkey von der University of Sheffield abschließend die Wichtigkeit nötiger Tests.

pte

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.