OpenAI ist in eine große Kontroverse verstrickt, weil man möchte, dass die Firma Millionen von ChatGPT-Konversationen herausrückt. Das KI-Unternehmen wehrt sich jedoch bislang dagegen. Ein Kommentar von Thomas Boele, Regional Director Sales Engineering, CER / DACH bei Check Point Software Technologies.
Beim Datenschutz geht es nicht nur darum, ob Protokolle im Ruhezustand oder während der Übertragung verschlüsselt sind. Es geht auch darum, ob ihr schieres Ausmaß sowie die Aufbewahrungsrichtlinien und rechtlichen Vorgaben sie zu einem latenten Risiko machen. Unternehmen, die KI-gestützte Dienste nutzen, müssen daher nicht nur die Funktionen des Anbieters bewerten, sondern auch dessen Governance, rechtliche Haftung und Gefahren im Zusammenhang mit der Protokollaufbewahrung.
Dieser Fall verdeutlicht deshalb eine wichtige Lektion für Unternehmen: Wenn sie KI-Systeme in ihre Arbeitsabläufe integrieren wollen, dann sollten die Entscheidungsträger sich nicht nur fragen, was die KI leisten kann, sondern auch, was mit den Gesprächsprotokollen geschieht, also: wer sie einsehen kann, unter welchen Bedingungen sie veröffentlicht werden könnten und wie der Anbieter mit Anonymisierung und rechtlichen Risiken umgeht.
Wir sind der Ansicht, dass Unternehmen mit der zunehmenden Einbindung von KI in ihre Betriebsabläufe einen mehrschichtigen Ansatz verfolgen sollten: Sicherung der KI-Service-Endpunkte sowie Trainingsdaten, Festlegung klarer Richtlinien für die Nutzung von KI-Systemen und den Umgang mit Daten (einschließlich Protokollspeicherung und -löschung), Durchführung von Risiko-Bewertungen der Anbieter und Überwachung von Änderungen der gesetzlichen sowie regulatorischen Rahmenbedingungen. Der Fall von OpenAI zeigt deutlich, dass dies keine graue Theorie ist.“