Gesichtserkennungssoftware: Neues Berufsfeld könnte KI-Ethik gewährleisten

Gesichtserkennungssoftware wird in vielen Ländern immer häufiger eingesetzt, und in der gesamten EU nimmt die Nutzung biometrischer Daten im Allgemeinen zu.

In Deutschland werden mittlerweile Millionen von Gesichtern, Finger- und Handabdrücken im Rahmen der Verbrechensbekämpfung gespeichert. Allerdings gibt es Bedenken, dass solche Software unzuverlässige Ergebnisse liefern und ethnische Minderheiten benachteiligen könnte.

Anzeige

Da sich die Technologie noch in ihren Anfangsstadien befindet, empfiehlt Robert Hoyle Brown, Vice President des Center for the Future of Work von Cognizant, ihren Einsatz aus ethischer Sicht zu kontrollieren.

Problemfälle der Facial Recognition

Derzeit wird Facial Recognition vermehrt eingesetzt, um Ermittlungsarbeiten zu erleichtern, indem mögliche Verdächtige aus einer Menschenmenge herausgepickt und – in einigen Ländern – Wahrscheinlichkeiten eines Verbrechens berechnet werden. Allerdings ist die Fehlerquote noch immer hoch, insbesondere bei Menschen unterschiedlicher ethnischer Herkunft. Das ist vor allem bedenklich, wenn die Chancen eines Rückfalls errechnet werden. Darüber hinaus besteht die Möglichkeit, dass ein Richter bei vergangenen Urteilen voreingenommen war, was die Strategie der Musterbildung ebenfalls fraglich erscheinen lässt.

Wäre es wünschenswert, einen Maßstab für Gesichtserkennungssoftware zu haben, der mit der fast 99%-igen Genauigkeit von DNA-Tests vergleichbar ist? Kurz gesagt: ja.  Aber auch wenn die Genauigkeit der Gesichtserkennungstechnologie in den letzten Jahren große Fortschritte gemacht hat, variieren die Fehlerraten immer noch – und zwar stark – je nach demografischen Merkmalen wie Geschlecht, ethnischer Zugehörigkeit und Alter. 

Solange diese Abweichungen nicht behoben sind, bleiben die Fehlerquoten inakzeptabel hoch, besonders angesichts der in den meisten Ländern üblichen Unschuldsvermutung bis zum Beweis der Schuld. Deshalb sollte diese Art von Technologien nicht eingesetzt werden, bis man sich wirklich sicher sein kann, dass sie angemessen funktionieren. Nach wie vor muss zählen: In dubio pro reo.

Für diejenigen, die derartige Algorithmen entwickeln, muss wiederum die Gewährleistung von Genauigkeit, Fairness und Unvoreingenommenheit im Vordergrund stehen. Wie lässt sich das bewerkstelligen?

Der Algorithm Bias Auditor als Job der Zukunft

Angesichts der wachsenden Bedeutung von künstlicher Intelligenz (KI) in allen Arten und Bereichen von Unternehmen – von der Produktentwicklung über die Verkaufsanalyse bis hin zur Rekrutierung und Vertragsprüfung – ist es notwendig, dass die Algorithmen im Kern einer KI unbefangen, gesetzeskonform und stellvertretend für die Werte eines Unternehmens sind. Auf Regierungsbehörden, die den Staat und seine Gesetze repräsentieren, trifft das in besonderem Maße zu. Zukünftige Richtlinien der EU oder der US-amerikanischen Bundeshandelskommission (man kann sich die Einführung eines Konsortiums für transparente KI vorstellen, das versucht, unfaire algorithmische Verzerrungen zu beseitigen) werden dazu dienen, den Bedarf an neuen Rollen zu beschleunigen, die sicherstellen, dass die zukünftige Belegschaft eine faire Belegschaft ist.

Doch wie genau kann das vonstatten gehen? Cognizant schlägt die Etablierung einer menschlichen Kontrollinstanz vor. Diese könnte im zukünftigen Berufsbild eines Algorithm Bias Auditor (ABA), also einer Prüferin/eines Prüfers für Algorithmus-Voreingenommenheit, verwirklicht werden. Diese/r wäre in Zukunft für die methodische und sorgfältige Untersuchung jedes Algorithmus, der in einer Organisation entwickelt wird, verantwortlich. 

Dazu wird ein Inventarsystem vonnöten sein, das jeden signifikanten Algorithmus, seinen Sinn und Zweck, Input und Output, verbundene Urteile und Konsequenzen beobachtet und protokolliert. Der Auditorin/dem Auditor wird es zukommen, Richtlinien und Compliance-Methoden festzulegen, die von allen Mitarbeitern eines Unternehmens als intuitiv angesehen und befolgt werden können. Darüber hinaus muss er oder sie über Kenntnisse in den Bereichen Recht, Compliance, Technologie, IT und Geschäftsführung verfügen. IT-Innovationen und Trends zu verstehen wäre zwar nicht zwingend erforderlich, für die Arbeit als ABA allerdings sehr vorteilhaft. 

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Demokratie und Innovation

Der schon erwähnte, politisch-gesellschaftliche Konflikt weist auf ein größeres Problem hin, das vor allem bei der Entwicklung von KI noch auf eine Lösung harrt: Wie lässt sich sicherstellen, dass neue Technologien nur dann auf die Menschheit losgelassen werden, wenn sie funktionieren und ihr Einsatz vertrauenswürdig ist? Ein Großteil dieser neuen Technologien entsteht derzeit im Silicon Valley. Doch in der US-Politik, die für deren Prüfung zuständig wäre, gibt es noch keinen Konsens darüber, wie das heikle Thema in den Griff zu bekommen wäre. Hier wäre der Einsatz eines Algorithm Bias Auditors wünschenswert, denn diese Rolle gäbe den Entwicklern der neuen Technologien die Sicherheit, dass ihre Technologien ethisch zweifelsfrei genutzt werden und daher auch nicht in Gefahr laufen, sanktioniert zu werden. Das wäre für beide Seiten wünschenswert: Für die Unternehmen, die die KI entwickeln, als auch für die Menschen, auf die sie angewendet werden soll.

Fazit

Innezuhalten und über weitere Schritte nachzudenken dürfte sich, auch wenn man kurzzeitig auf die Bremse tritt, als der klügste Schritt erweisen, um innovative, aber heikle Technologien auf angemessene Weise in die Gesellschaft zu bringen. Als Berufsbild der Zukunft wird das Profil des Algorithm Bias Auditor in dem Moment zum Unternehmensstandard gehören, in dem die Regierung gesetzlich festsetzt, dass jeglicher Algorithmus zu 100% ethisch einwandfrei zu sein hat. Nur so lässt sich garantieren, dass Fortschritt nicht allein um des Fortschritts willen geschieht. 

Robert Hoyle Brown, Vice President des Center for the Future of Work von Cognizant

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.