Anzeige

Anzeige

VERANSTALTUNGEN

IT-SOURCING 2019 – Einkauf meets IT
09.09.19 - 10.09.19
In Düsseldorf

IT-Sourcing 2019 - Einkauf meets IT
09.09.19 - 10.09.19
In Düsseldorf

ACMP Competence Days Berlin
11.09.19 - 11.09.19
In Stiftung Deutsches Technikmuseum Berlin, Berlin

MCC CyberRisks - for Critical Infrastructures
12.09.19 - 13.09.19
In Hotel Maritim, Bonn

Rethink! IT 2019
16.09.19 - 17.09.19
In Berlin

Anzeige

Anzeige

Handschlag: Mensch und Roboter

Bei der Künstliche-Intelligenz-Strategie der Bundesregierung spielen Datenpooling und Datenkooperationen eine wichtige Rolle. Welche ethischen und rechtlichen Probleme können dabei auf auftreten? Liefert Federated Machine Learning die Antwort?

Vergangene Woche hat die Bundesregierung auf dem Digitalgipfel in Nürnberg ihre im Frühjahr angekündigte „Strategie Künstliche Intelligenz“ vorgestellt. Bereits im Sommer hatte man sich durch ein Eckpunktepapier in die Karten schauen lassen. Ziel der Strategie ist es demnach, Deutschland auf Europäischer Ebene zu einer treibenden Kraft im Bereich der Künstlichen Intelligenz (KI) zu entwickeln. Am Ende eines langen Prozesses solle sogar eine KI "made in Europe" stehen.

it-daily hat mit dem Rechtsanwalt Dr. Markus Kaulartz von CMS zu den rechtlichen Komponenten der KI-Strategie gesprochen.

Herr Kaulartz, um gut funktionierende KI-Systeme zu haben, müssen diese mit Daten gefüttert und angelernt werden. Die benötigten Datenmengen hierfür sind immens und nicht alle Unternehmen mit entsprechender Technologie haben Zugriff auf solche Daten. Im Strategiepapier der Bundesregierung ist von möglichen Datenkooperationen die Rede. Insbesondere für Startups und KMU sollen hier Level-Playing-Field Ansätze verfolgt werden. Wie beurteilen Sie diese Idee?

Markus Kaulartz: Die Idee ist im Grunde ganz hervorragend, denn Künstliche Intelligenz – unabhängig davon, was wir im Detail darunter verstehen – verlangt tatsächlich einen großen Datenpool. Das ist ja gerade der Grund, weswegen KI erst jetzt so richtig im Trend liegt: Die Rechenleistung, die Datenleitungen, etc. waren früher einfach nicht ausreichend, um große Datenmengen so zu analysieren, wie man es heute kennt. Der Datenpool muss allerdings erst geschaffen werden, sodass Datenkooperationen sicherlich sinnvoll sind.

Aus rein rechtlicher Sicht gilt bei allen neuen Technologien aber auch hier, dass sie nicht schrankenlos eingesetzt werden dürfen. Ein seit Jahrzehnten entwickelter Rechtsrahmen gilt auch für Künstliche Intelligenz und es gibt keinen Grund, weswegen zum Beispiel die Privatsphäre nicht mehr geschützt sein soll, nur weil auf dem Algorithmus "KI" steht. Es mag zwar hier und da Nachjustierungen geben, im Großen und Ganzen haben aber neue Technologien noch nie Schutzgesetze abgeschafft. Das müssen Datenkooperationen beachten.

Das Papier geht darauf auch ein. Es heißt dort zum Beispiel, dass die Daten bei öffentlichen Verwaltungen dahingehend geprüft werden sollen, ob sie, rechtlich und ethisch unbedenklich für solche Datenpools zur Verfügung gestellt werden können. Sind solche Daten rechtlich sicher bereitstellbar und eignen sie sich überhaupt zum Anlernen von KI-Anwendungen?

Markus Kaulartz: In der Praxis besteht die Herausforderung darin, die Datenpools so anzulegen und anzuzapfen, dass zum Beispiel personenbezogene Daten und Geschäftsgeheimnisse geschützt werden. Das lässt sich mit einigen Kniffen aber ganz gut hinbekommen, sogar ohne, dass die Qualität der aggregierten Daten merklich nachlässt. Ein gutes Beispiel ist der Bereich Federated Machine Learning: Hier speist sich der KI-Algorithmus aus vielen kleinen Datenquellen, wie zum Beispiel Smartphones, die ihre Daten in aggregierter Form bereitstellen. Die Aggregierung muss dabei den Prinzipien der Secure Aggregation folgen, damit keine Rückschlüsse auf die Rohdaten gezogen werden können. Das ist technisch ganz und gar nicht trivial. Hier müssen Juristen und Entwickler Hand-in-Hand arbeiten.

IT-Sicherheit ist im Bereich KI auch ein wichtiges Kriterium. Bisher stützt man sich bei der Regulierung von IT-Sicherheit auf sogenannte Kritische Infrastruktur wie etwa im IT-, Gesundheits- oder Energiebereich. Die Bundesregierung meint laut Papier, dass diese Regulierung nicht mehr ausreiche. Wo erwarten Sie die nächsten Regulierungsschritte?

Markus Kaulartz: Ich meine, dass die Silostruktur, wie sie durch das IT-Sicherheitsgesetz zum Beispiel in Bezug auf Kritische Infrastrukturen umgesetzt wurde, wenig dazu beiträgt, ein ganz grundlegendes Verständnis von IT-Sicherheit in allen Köpfen zu schaffen. Das fängt doch bei der Passwortlänge an, geht über nichtverschlüsselte USB-Laufwerke und endet bei E-Mails, die nicht mittels TLS versandt werden – alles heute noch Alltag.

IT-Sicherheit muss immer im angemessenen Verhältnis zum Risiko stehen, wobei sich das Risiko aus Eintrittswahrscheinlichkeit und Schadenshöhe definiert. Werden zum Beispiel Daten, die Grundlage für Maschinelles Lernen sind und aus denen Algorithmen Muster und Gesetzmäßigkeiten erkennen sollen, manipuliert, so ist das Erlernte fehlerhaft und der Algorithmus liefert falsche Ergebnisse. Nun die richtigen von den falschen Lerndaten zu unterscheiden, ist nicht trivial. Schäden können immens sein. Die Anforderungen an die IT-Sicherheit sind in solchen Fällen daher sicherlich hoch. Im Falle von Federated Machine Learning, wo eine Datenquelle mit fehlerhaften Daten praktisch nicht ins Gewicht fällt, mag man andere Maßstäbe ansetzen. Am Ende ist es eine Bewertung des Einzelfalls.

Alle reden von KI. Hand aufs Herz: Spielt KI in der Praxis überhaupt schon eine Rolle, oder sind das Meiste nicht doch nur Forschungsprojekte?

Markus Kaulartz: Das Problem ist, dass der Begriff KI überhaupt nicht definiert und kaum abgrenzbar ist. Viele Unternehmen ordnen ihre Software daher dem Bereich KI zu, auch wenn der Lernprozess der Software völlig banal ist. Wir haben es hier also sicherlich auch mit einem Buzzword zu tun. Maschinelles Lernen auf Grundlage von gigantischen Datenmengen spielt in der Praxis aber natürlich eine immer größere Rolle, und auch der Rechtsberatungsbedarf nimmt zu. Die Themen sind häufig verwandt: Wer die Weichen frühzeitig stellt, spart sehr viele Ressourcen. IT-Security by Design, Privacy by Design, kurz: Compliance by Design lässt sich in einer späten Phase einer KI- und sonstigen Softwareentwicklung nur noch mit großen Schmerzen umsetzen.

Markus KaulartzDr. Markus Kaulartz ist Rechtsanwalt bei CMS Deutschland und hat sich auf Rechtsfragen von Zukunftstechnologien spezialisiert. Zu seinen Mandanten zählen sowohl global vertretene Unternehmen als auch Startups in den Bereichen Blockchain, Künstliche Intelligenz mit Schwerpunkt Federated Machine Learning, Big Data und Internet of Things.

 

Tb W90 H64 Crop Int 7cc571e8cd11124e6e8e1fe7615df931
Aug 02, 2018

Kurs halten in der smarten Datenflut

Predictive Maintenance, Smart Analytics, Künstliche Intelligenz – viele Technologien des…
Tb W90 H64 Crop Int 610cb99ef38bc6235588ec38ff894c78
Mai 24, 2018

Privatsphäre auf dem Handy - ist das heute noch möglich?

95,5 Prozent – so groß ist die Reichweite des Mobilfunks in Deutschland. Laut…
Machine Learning
Apr 11, 2018

Machine Learning: Wächter des Cloud-Datenschatzes

Im Zuge der Digitalisierung wächst die Datenmenge, die Unternehmen täglich verarbeiten,…
GRID LIST
Blockchain

Deutsche Wirtschaft hinkt bei Blockchain hinterher

Während der Fußball-Weltmeisterschaft im vergangenen Jahr zeigte sich, dass Deutschland…
Digitalisierung Auto

Digitale Trends in der Automobilbranche

Ohne Internet geht nichts. Neue Kommunikationswege, flexible Arbeitsmodelle und die…
Digitalisierung Glühbirne

Die IT als Wettbewerbsfaktor begreifen

Die Digitalisierung im Mittelstand erfordert es, die Rolle der IT in Unternehmen zu…
Tb W190 H80 Crop Int 641c11c2213238fb4f3d2450a7f5e2d2

Fieser Code? Wenn Algorithmen Vorurteile ausspucken

Algorithmen und Künstliche Intelligenz sollen überlegte Entscheidungen treffen und…
Facebook Kryptowährung

Facebook will eine digitale Weltwährung etablieren

Facebook will seinen Einfluss für eine weltverändernde Neuerung nutzen - eine globale…
Tb W190 H80 Crop Int 3caefe496d2b2039cece504eb4eb78ed

Experte warnt: KI kann sich gegen Menschen richten

Eine bessere Zukunft für behinderte, alte und kranke Menschen, die durch den Einsatz…