Anzeige

Blatt auf Platine

Künstliche Intelligenz (KI) kann das Leben der Menschen besser machen. Aber wie gelangen wir zu einer verantwortungsvollen KI? Dieser Beitrag stellt die Ethik der Algorithmen sowie eine werteorientierte Zukunftsperspektive vor.

Im November 2020 hat sich die Initiative KI Park Deutschland auf der “Rise of AI”-Konferenz vorgestellt. Sie will das Potenzial Künstlicher Intelligenz (KI) nutzbar machen. Dazu wird sie Unternehmen, Start-ups, Wissenschaft und Politik miteinander vernetzen und gemeinsame KI-Projekte auf den Weg bringen und so angewandte KI in Deutschland fördern. Ein zentraler Aspekt wird Ethik in der KI sein, denn nur wenn ethisch-moralische Grundsätze integriert sind, kommt die – verantwortungsvolle – Umsetzung der KI voran.

Aufmerksamkeit erregen aktuell besonders die USA und China mit ihren rasanten Fortschritten bei der Künstlichen Intelligenz. Die amerikanische KI-Landschaft wird geprägt durch eine Vielzahl von bereits etablierten KI-Unternehmen, vielversprechenden KI Start-ups und Scale-ups sowie führenden Herstellern von Halbleitern und Computerchips für KI-Systeme. Hier fließen hohe Wagniskapital-Summen in die Förderung von Start-Ups. Die chinesische KI-Szene profitiert von enormen Datenbeständen mit weitreichenden Möglichkeiten für das Trainieren von Algorithmen sowie den staatlichen Anstrengungen im Wettlauf um die Vormachtstellung im Bereich der KI. Deutschland und Europa kommt eine besondere Rolle zu. Es geht nicht darum, amerikanischen oder chinesischen KI Strategien nachzueifern, sondern einen verantwortungsvollen Umgang mit KI auf den Grundlagen europäischer Regeln und Werte zu entwickeln. Dies zu fördern, hat sich der KI Park Deutschland vorgenommen.

Denn Innovation und technologischer Fortschritt sind kein Selbstzweck und auch nicht per se gut. Die Erfolgsgeschichte von Technologie ist jene der Menschen, ihre komplexe Umwelt durch Rationalisierungen, Automatisierungen und zunehmender Selbstoptimierung zu bändigen und zu simplifizieren. Seit Mitte der fünfziger Jahre verspricht ihnen die KI-Forschung in regelmäßigen Abständen visionär, man stehe kurz vor einer dem Menschen gleichenden Intelligenz, der so genannten “Artificial General Intelligence” (AGI) oder “Singularity”. Dass Maschinen jedoch über regelbasierte Logik und Rationalität hinaus in komplexe Sphären der Emotionalität, Intuition, Assoziation und Spontanität vordringen können, erscheint aktuell weder machbar noch wünschenswert. Gerade weil es dennoch durchaus beeindruckend ist, was KI heute schon zu leisten vermag, zeigt uns der rasante Fortschritt der KI-Forschung auch, dass wir mit ihren Errungenschaften verantwortungsvoll umgehen müssen.

Die Ethik der Algorithmen

Eine nachhaltige und sozial akzeptable KI-Strategie muss ethisch begleitet werden. Darauf weisen sowohl das von der Bundesregierung (Stand: November 2018) herausgegebene Papier „Strategie Künstliche Intelligenz der Bundesregierung“ als auch auf europäischer Ebene die High-Level Expert Group on AI hin. Dies entspricht der internationalen Diskussion sowohl in der KI-Forschung als auch im Bereich der philosophischen Ethik der KI und disruptiver Informationstechnologien im Allgemeinen. Forschungsarbeiten in Berkeley und am Stanford Institute for Human Centered Artificial Intelligence haben gezeigt, dass die Umsetzung von KI-Systemen ohne „ethics in and by design“ nicht vorankommt.

KI-Systeme, von Menschen programmiert und produziert, stützen sich auf Denkmodelle, die menschliches Denken und Wahrnehmen zur Grundlage haben. Der Mensch baut auf diese Weise an Bildern seines eigenen Geistes. An dieser Stelle kommt die Ethik ins Spiel. Im Allgemeinen beschäftigt sich die Ethik als Teildisziplin der Philosophie mit der Frage, welche Handlungen aus moralischen Gründen erlaubt, welche geboten und welche verboten sind. Die Ethik beruht dabei auf der Anthropologie insofern, als der Mensch sein eigenes moralisches Nachdenken erforschen und korrigieren kann.

Ein aktuell diskutiertes Problem der Ethik der KI dreht sich um Bias, d.h. um Vorurteile und Fehlschlüsse, die in unseren kognitiven, menschlichen Apparat eingebaut sind. Sofern wir diese nicht durchschauen, gehen sie in unsere Daten als Signaturen ein, die von einer KI als Muster erkannt und weiterverwendet werden, ohne dass wir dies bemerken. Auf diese Weise kann ein KI-System zu Rück- und Fehlschlüssen führen, die uns bei der Gestaltung nicht bewusst waren. Überraschend und unerwartet kommt es dann während eines umfangreichen Einsatzes zu Fehlern. Ein etwas weniger “typisches” Beispiel einer Bias ist die Tendenz, dass für die Flächenschätzung von Krisen- und Katastrophengebieten öfters Saarlandgrößen herangezogen werden. Das führt zu einer häufigeren Nennung des Saarlandes in negativen Zusammenhängen im Vergleich zu anderen Bundesländern. Was diese Konnotation konkret in einem KI-System bewirkt, lässt sich ad-hoc nicht sagen, aber diese Art von Bias wurde sicherlich so nicht bedacht. Dies unterstreicht, dass sich ein Bias, der sich im Alltagsgebrauch eingeschlichen hat, nicht nur schwer zu erkennen ist, sondern sich unter Umständen auch in einem KI-System negativ äußern kann, da KI-Systeme immer von den Menschen lernen.

KI-Systeme können sich nicht durch ethische Fortentwicklung und Anpassung an neue historische Umstände selbst korrigieren, weil sie nicht an der menschlichen Lebensform teilnehmen. Deswegen bedürfen sie stets eines ethischen Updates und fundierter Ethikrichtlinien für eine verantwortungsvolle KI. Die High-Level Expert Group on AI hat im April 2019 entsprechende Leitlinien präsentiert. Gemäß dieser Leitlinien sollte eine verantwortungsvolle KI nicht nur ethisch unter Wahrung ethischer Grundsätze und Werte, rechtmäßig unter Beachtung aller anwendbaren Gesetze und Vorschriften sondern auch robust, sowohl aus technischer Sicht als auch unter Berücksichtigung des sozialen Umfelds, sein.

So sieht die Zukunft aus: KI als Wettbewerbsvorteil in Europa

Werte schaffen Werte. Wenngleich so manch einer geleitet von der “German Angst” beim Thema ethischer Regulierung von KI in Alarmbereitschaft geraten mag, schaffen moralisch transparente Werte jedoch ökonomischen, ökologischen und sozialen Mehrwert. Vertrauen und Transparenz in KI-Systeme wirken als Erfolgsfaktoren und sind entscheidend für die nachhaltige Implementierung einer verantwortungsvollen KI.

Im Mittelpunkt steht der Mensch: Menschen wenden Innovationen und Technologien an, weil sie auf einem klaren und sicheren Fundament aufbauen, das Vertrauen gewährleistet. Europa hat sich als Vorreiter für ethisch einwandfreie und “human-centered” Technologie positioniert, damit europäische Bürger:innen KI unter Achtung von Menschenrechten, Demokratie, Rechtsstaatlichkeit und Verteilungsgerechtigkeit nutzen können. Vertrauen ist die Marke Europas. Noch stärker als in der Vergangenheit ist Vertrauen zum Exportschlager europäischer KI-Initiativen geworden.

Digitale Souveränität Europas: Der Flickenteppich nationaler KI-Strategien wurde überwunden und ein europäisches Regelwerk gewährleistet einheitliche normative Standards. Mit regulatorischem und politischem Rückhalt, unterstützt durch eine staatliche Nachfrage und eine umfassende Finanzierung von verantwortungsvoller KI auch aus Mittelstand und Industrie haben sich disruptive KI-Anwendungen zur konkurrenzfähigen Alternative von amerikanischen und chinesischen Modellen gemausert. Durchgesetzt haben sie sich, weil sie als transparente Open-Source Produkte im digitalen Binnenmarkt durch state-of-the-Art “User Experience” überzeugten und dem Primat des Handelns von visionären Köpfen und mutigen Machern gefolgt sind.

Ethik setzt Standards: Prosperität hat sich in Europa nur realisieren lassen, weil KI-Systeme überprüfbar geworden sind. Sie werden so konstruiert, dass sie sicher und zuverlässig funktionieren sowie ethischen, rechtlichen und robusten Rahmenbedingungen genügen. Auf Basis eines breiten Beteiligungsprozesses unter Einbindung von Wirtschaft, Wissenschaft, Politik und Zivilgesellschaft wurden praxistaugliche und marktfähige Prüfverfahren entwickelt. Während KI in China immer noch vom Staat kontrolliert wird und die Vormachtstellung US-amerikanischer Big Tech Unternehmen erst vorsichtig reguliert wird, sind in Europa KI-Zertifizierungen durch unabhängige Prüfstellen längst Standard geworden.

Auch wenn diese Zukunftsszenarien noch in weiter Ferne erscheinen mögen, sehen wir dennoch in der jüngeren Vergangenheit erste Beispiele von KI-Leitlinien und Kodizes deutscher Unternehmen wie beispielsweise BMW, SAP, Telekom und Bosch. Die Grundsätze bieten einen Handlungsrahmen und Orientierung für Mitarbeiter:innen für den Einsatz und die Entwicklung von KI. In fast allen Fällen sind die Leitlinien jedoch noch nicht objektivierbar und messbar.

Nachdem dieser Text die Ethik der Algorithmen sowie eine werteorientierte Zukunftsperspektive diskutierte, wird sich der zweite Teil des Beitrags mit praktischen Überlegungen zu “Ethics in and by design” und einem Rahmenwerk beschäftigen, der eine verantwortungsvolle KI messbar und damit objektivierbar macht.  

Prof. Dr. Markus Gabriel, Olly Salzmann (Deloitte), Christoph Bornschein (TLGG), Philipp Otto (iRights.Lab), Dr. Stefan Bordag (Tetrai)

https://www.kipark.de/


Newsletter Anmeldung

Smarte News aus der IT-Welt

Sie möchten wöchentlich über die aktuellen Fachartikel auf it-daily.net informiert werden? Dann abonnieren Sie jetzt den Newsletter!

Newsletter eBook

Exklusiv für Sie

Als Newsletter-Abonnent erhalten Sie das Booklet „Social Engineering: High Noon“ mit zahlreichen Illustrationen exklusiv und kostenlos als PDF!

 

Artikel zu diesem Thema

KI
Feb 16, 2021

Drei KI-Trends für 2021: Praktikabel und Transparent

Künstliche Intelligenz ist eines der Schlagworte, die derzeit die Diskussion um…
KI Hacker
Feb 10, 2021

KI gegen KI: Das Wettrüsten in der Cyber-Abwehr geht weiter

Sobald im Bereich der IT-Sicherheit von Künstlicher Intelligenz die Rede ist, haben viele…
Mann und Frau planen Einrichtung
Feb 01, 2021

Wissensgraphen und KI – ein Traumpaar?

Die Potentiale digitaler Technologien sind noch lange nicht ausgeschöpft auch…

Weitere Artikel

KI

KI für jeden? Transfer Learning ist ein erster Schritt

Transfer Learning wird oft als Wundermittel gepriesen, um Künstliche Intelligenz zur Marktreife zu bringen. Die Lernmethode nutzt bereits trainierte Modelle als Ausgangspunkt und kann somit schneller Ergebnisse liefern. Damit hat Transfer Learning das…
Prozesse

Neue Studie verdeutlicht Notwendigkeit der Prozessautomatisierung

Wenn Menschen, die zusammen arbeiten dies von unterschiedlichen Orten aus tun, kommt der nahtlosen Interaktion und der Abstimmung einzelner Aufgaben eine zentrale Bedeutung zu. Das wissen die Verantwortlichen in den Unternehmen zwar schon lange, aber die…
digitale Schule

Was man für eine funktionierende virtuelle Schule wirklich braucht

In den kommenden Monaten kehren überall auf der Welt Kinder wieder in die Schule zurück. Auch wenn sich die Szenarien seit den ersten Lock Downs oder Shut Downs verändert haben, es kommen Erinnerungen hoch. Viele Schulbezirke waren nicht in der Lage, mit…
RIP

Corona – Sargnagel der Digitalisierung in Deutschland?

Die Corona-Krise hat die Digitalisierung zwar vorangetrieben, allerdings beschränken sich diese Fortschritte vorrangig auf Technologien für die Umstellung auf Home-Office und Videokonferenzen. Eine umfassende digitale Transformation findet in vielen…
Digitalisierung

Digitalisierung auch beim Brexit entscheidend

Die langwierigen Brexit-Verhandlungen ließen den Unternehmen kaum Zeit, auf die Realitäten zu reagieren, wie die Handelsbeziehung nach dem 1. Januar 2021 aussehen würde. Die Unternehmen wussten, dass etwas passieren würde, was genau, blieb bis Ende Dezember…

Anzeige

Newsletter Anmeldung

Smarte News aus der IT-Welt

Sie möchten wöchentlich über die aktuellen Fachartikel auf it-daily.net informiert werden? Dann abonnieren Sie jetzt den Newsletter!

Newsletter eBook

Exklusiv für Sie

Als Newsletter-Abonnent erhalten Sie das Booklet „Social Engineering: High Noon“ mit zahlreichen Illustrationen exklusiv und kostenlos als PDF!