KI-Sicherheit: Das richtige Maß zur Regulierung von KI finden

Vertrauen durch externe Prüfung und Zertifizierung

In diesem Zusammenhang ist es erforderlich, spezielle IT-Sicherheitszertifizierungsverfahren für KI-basierte Systeme zu entwickeln. Ausgehend von bereits existierenden Zertifizierungsverfahren wird bereits durch die aktuelle KI-Normungsroadmap des DIN und des DKE vorgegeben. Die Normungsroadmap kommt bereits im Vorwort zu dem Schluss, dass „noch ein erheblicher Forschungsbedarf u. a. zur Erstellung der erforderlichen Qualitätsmetriken und Prüfprofile für eine risiko-adaptierte Zertifizierung von KI-Komponenten besteht.“ (4)

Im Zusammenhang mit der IT-Sicherheit strebt die KI-Normungsroadmap die Erstellung einer horizontalen KI-Sicherheitsnorm an. Die Entwicklung von Zertifizierungsverfahren soll im Rahmen eines nationalen Umsetzungsprogramms „Trusted AI“ vorangetrieben werden. In der Roadmap wird festgestellt, dass als erster Schritt eine angemessene Recherche, Prüfung und Bewertung vorhandener Normen, Konformitäts- und Zertifizierungsverfahren sowie Regulierungen für die IT-Sicherheit und Risikobewertung angesehen wird, um diese um KI-Spezifika und ggf. um Dokumentationsanforderungen zu erweitern.

Anzeige

Die Standardisierungsarbeiten im DIN werden ergänzt durch Standardisierungsarbeiten auf internationaler Ebene – vor allem bei ETSI und bei der ENISA:

  • ETSI hat 2020 eine umfassende Beschreibung der grundlegenden Probleme bei der Gewährleistung einer angemessenen IT-Sicherheit von KI-basierten Systemen vorgelegt. Mit Fokus auf das Thema „Machine Learning“ werden die Herausforderungen bezüglich Vertraulichkeit, Integrität und Verfügbarkeit für alle Stufen des Machine Learing-Lebenszyklus dargelegt. In diesem Zusammenhang werden auch generelle Herausforderungen von KI-Systemen, wie Bias oder Erklärbarkeit sowie eine Reihe von denkbaren Angriffsvektoren dargestellt. Als erster Schritt ist bei ETSI die Entwicklung einer Bedrohungs-Ontologie geplant, auf deren Grundlage dann Spezifikationen (Ziele, Methoden und Techniken) für das Security Testing von KI-basieren Systemen abgeleitet werden sollen.
     
  • Die ENISA hat im Dezember 2020 selbst eine erste Taxonomie für Bedrohungen von KI-basierten Systemen vorgelegt. Dieses Dokument empfiehlt, die Sicherheitsbewertung von KI-basierten Systemen an einem Lifecycle-Konzept zu orientieren und fasst für alle relevanten Lifecycle Bedrohungen zusammen. Diese können als Grundlage für eine systematische Bedrohungsanalyse von KI-basierten Systemen genutzt werden.

Aktueller Stand – Rechtsrahmen der EU

Der Prozess ist der Regulierung ist bereits fortgeschritten. Seit 2018 hat die EU-Kommission eine europäische Strategie, einen koordinierten Plan und Leitlinien für vertrauenswürdige KI entwickelt. Das bereits erwähnte „Weißbuch zur Künstlichen Intelligenz“ (2) wurde 2020 zur öffentlichen Konsultation gestellt. Im Ergebnis veröffentlichte die Europäische Kommission zuletzt am 21. April 2021 den weltweit ersten Rechtsrahmen für Künstliche Intelligenz. (3)

Für eine angemessene Regulierung werden KI-Anwendungen nach Risiken klassifiziert: von minimal, gering und hoch bis unannehmbar. Während als unannehmbar eingestufte Risikoszenarien wie etwa Social Scoring verboten sind, sollen Anwendungen mit minimalen Risiken, etwa der Einsatz von KI in Spamfiltern, keiner Regulierung unterliegen. Bei Anwendungen mit minimalen Risiken wie zum Beispiel Chatbots, muss Nutzern lediglich bewusst gemacht werden, dass sie mit einer Maschine interagieren.

Maßgeblich für Hersteller (und Betreiber) sind mithin die KI-Anwendungen mit hohem Risiko, denn diese sollen entsprechenden Anforderungen genügen, bevor sie in Verkehr gebracht werden dürfen. Beispiele für solche KI-Einsatzszenarien sind kritische Infrastrukturen, in denen Leben und Gesundheit von Menschen beeinträchtigt werden könnten; wichtige private und öffentliche Dienstleistungen, Sicherheitskomponenten von Produkten, aber auch Anwendungen in der Schul- und Berufsausbildung und im Personalmanagement, die Zugang zu Bildung oder Berufsleben betreffen. Für diese Hochrisiko-Szenarien gelten besondere Anforderungen an Robustheit, Sicherheit und Genauigkeit der Systeme sowie strenge Vorgaben zur Risikobewertung und -minderung, Nutzerinformation und menschlicher Aufsicht.

Darüber hinaus sieht der Rechtsrahmen hier auch grundlegende Anforderungen für Entwicklung und Dokumentation von KI-Systemen vor:

  • hohe Qualität der Datensätze, die in das System eingespeist werden und auf dessen Basis die KI lernt, um Risiken und diskriminierende Ergebnisse so gering wie möglich zu halten
  • Protokollierung der Vorgänge, um die Rückverfolgbarkeit von Ergebnissen zu ermöglichen
  • ausführliche Dokumentation zur Beurteilung der Konformität
Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Ausblick

Neben weiteren Abstimmungen steht nun in Zukunft viel Detailarbeit an; es sind die entsprechenden Normen und Standards auszuarbeiten und Verfahren zur Konformitätsbewertung zu entwickeln.

Dabei sollte auch der organisatorische Aufwand für Hersteller in einem angemessenen Rahmen gehalten werden, um die Entwicklungen von KI-Systemen nicht zu behindern.

Heiko-Randolf Skerka, SRC GmbH

https://src-gmbh.de/


Quellen

(1) https://www.bitkom.org/sites/default/files/2020-10/bitkom-position-zu-haftung-fur-ki-mit-one-pager.pdf

(2) WEISSBUCH Zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen. Brüssel, 19.02.2020. COM(2020) 65 final

(3) https://ec.europa.eu/commission/presscorner/detail/de/ip_21_1682

(4) DIN, DKE; Deutsche Normungsroadmap Künstliche Intelligenz, November 2020, https://www.dke.de/de/arbeitsfelder/core-safety/normungsroadmap-ki
 

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.