Kommentar

Bedeutet die EU-Verordnung das Aus für KI in Europa?

künstliche Intelligenz, KI, EU, Europa

Im Dezember haben sich die EU-Staaten erstmals auf Regeln für den Einsatz Künstlicher Intelligenz (KI) geeinigt. Die neue EU-Verordnung könnte für viele Anbieter von KI-Anwendungen zum Problem werden, da die teils strengen Regeln eine weitere Nutzung der Tools ohne einen finanziellen und personellen Mehr­aufwand unmöglich machen würden. Prof. Dr. Stein, Präsident der GISMA University of Applied Sciences, hält Verbote für den falschen Weg.

Es brauche zwar eine Verordnung, die den qualitativen Rahmen vorgibt, gleichzeitig müsse sie den Anbietern unternehmerische Freiheiten lassen. Im Bildungssektor müsse geklärt werden, wie die Nutzung von KI-Tools wie ChatGPT in den akademischen Alltag integriert werden kann.

Anzeige

Der Fokus muss auf den Potenzialen von KI liegen

„Künstliche Intelligenz ist ein wichtiger technologischer Fortschritt. KI-Anwendungen zu verbieten oder so zu reglementieren, dass sich Anbieter die Entwicklung und das Betreiben ihrer KI-Tools nicht mehr leisten können, wäre der Schritt in die falsche Richtung. Die Verordnung sollte Rahmenbedingungen so schaffen, dass Innovationen im Bereich der KI-Anwendungen entstehen können. Natürlich müssen sich die Unternehmen ihrerseits dabei an ethische und datenschutzrechtliche Standards halten.

In der EU-Verordnung taucht das Wort ‘Risiko’ mehr als 300 Mal auf, was eine erhebliche Angst vor der Technologie impliziert: Natürlich bergen KI-Anwendungen auch Risiken. Bei anderen Regulierungspaketen hat sich die Disziplinierung durch den Markt bewährt. Das funktioniert gut, wenn Anbieter Transparenz üben müssen, über das, was sie tun. Mit dem Wissen sind dann die Produkte, Services und ihre Ergebnisse für Dritte überprüfbar.

Italien hat mit dem Verbot von ChatGPT bereits gezeigt, wie die Maßnahmen im Umgang mit KI aussehen können – daran sollten wir uns kein Beispiel nehmen. Die Regulierung sollte Anreize für Innovation schaffen. Regulatorische Sandkästen können den Innovationsprozess für die Entwicklung und Implementierung von KI-Lösungen fördern. Auch das hat sich schon in anderen Regulierungsbereichen bewährt.”

Wir müssen lernen, KI in unseren Alltag zu integrieren

„Seit der Veröffentlichung von ChatGPT stehen speziell Schulen und Hochschulen vor der Herausforderung, KI einerseits in den Unterricht zu integrieren, andererseits aber den Missbrauch der Technologie zu vermeiden. Wir benötigen klare Leitlinien für einen sinnvollen Umgang mit KI. Wo kommen wir mit der KI zu besseren Lösungen als bisher? Wie muss dann der Input von Mensch und Maschine dokumentiert werden und wo müssen wir uns Tools zunutze machen, um zum Beispiel zwischen KI-basierten Texten und von Menschen geschriebenen Texten zu unterscheiden. Heißt konkret: Statt die Arbeit von Anbietern von KI-Anwendungen durch die Verordnung einzuschränken, sollte man ihnen mehr Möglichkeiten einräumen, ihre Technologien auch zu verbessern.

Mit Verboten riskieren wir, dass sich die Unternehmen zurückziehen und ihre Technologien vom europäischen Markt nehmen – obwohl sie in vielen Bereichen wie Bildung, Medizin oder Mobilität bereits nachweislich einen großen Nutzen für die Gesellschaft darstellen. Wir sollten in Europa die Innovativen sein. Wenn wir das verpassen, werden wir links von China und rechts von den USA überholt. Voraussetzungen für die korrekte Nutzung und erfolgreiche Integration von KI sind neben einer praxistauglichen Regulierung Aufklärung und Weiterbildung: Der Missbrauch von KI entsteht erst durch seine Anwender. Wir müssen es schaffen, den vernünftigen Umgang zu lehren und dabei den Regulierungsansatz so wählen, dass Innovationsförderung, Datenschutz und ethische Standards in der Balance sind. Verordnungen bieten dann auch Chancen gerade durch den großen, normierten EU-Markt und somit klare Regeln für eine große Zielgruppe. ”

www.gisma.de

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.