Die IT muss agil bleiben

Wie ungeschützte Daten LLMs zur Blackbox machen

LLMs

Große Sprachmodelle haben in kürzester Zeit Einzug in Unternehmensprozesse gehalten. Der Produktivitätshebel ist real und in vielen Organisationen bereits messbar.

Doch je tiefer LLMs in geschäftskritische Abläufe vordringen, desto deutlicher wird ein Spannungsfeld, das viele IT-Entscheider proaktiv angehen sollten. Klassische Sicherheits- und Datenschutzkonzepte reichen nicht mehr aus, wenn sensible Informationen im großen Stil von KI-Systemen verarbeitet werden. Hier stößt ein Sicherheitsverständnis an Grenzen, das für klassische Softwarearchitekturen geschaffen wurde.

Anzeige

Warum LLMs bestehende Sicherheitsmodelle aushebeln

Besonders deutlich zeigt sich das in regulierten Branchen, da Banken, Versicherungen, Behörden, Kanzleien oder Einrichtungen des Gesundheitswesens täglich mit personenbezogenen oder rechtlich geschützten Daten arbeiten. Während klassische Anwendungen Daten speichern oder weiterleiten, „lernen“ KI-Systeme aus ihnen oder nutzen sie zumindest als Eingabe für probabilistische Entscheidungen. Damit verändert sich nicht nur die technische Verarbeitung, sondern auch das Risikoprofil der Daten grundlegend. Die Sorge vor unkontrollierter Weiterverwendung, unbeabsichtigtem Training oder schlichtem Datenabfluss wächst entsprechend. In vielen Organisationen führt das zu einem reflexhaften Stopp von KI-Projekten oder zu stark eingeschränkten Pilotanwendungen, die den eigentlichen Mehrwert verfehlen. 

Verfahren wie Data Masking, die Anonymisierung von Daten, und Redaction, die Schwärzung von Daten, gewinnen in diesem Kontext eine neue strategische Bedeutung. Sie ermöglichen es, sensible Informationen gezielt zu anonymisieren oder unkenntlich zu machen, ohne dabei den inhaltlichen Zusammenhang vollständig zu entfremden. So wie Verschlüsselung zur Grundvoraussetzung des Web-Zeitalters wurde, entwickeln sich Masking und Redaction zur Basistechnologie der KI-Ära. Die Devise ist hier wiederholbare, überprüfbare Abläufe zu schaffen, anstatt auf punktuelle Maßnahmen zu setzen.Sensible Daten müssen routinemäßig anonymisiert werden, bevor sie überhaupt ein Modell erreichen. Erst so lassen sich regulatorische Anforderungen und betriebliche Innovationsziele miteinander vereinbaren.

Eine Frage der Architektur 

In der Praxis zeigt sich schnell, dass Schutzmechanismen allein keine verlässliche Kontrolle schaffen. Fragen, die hier aufkommen, betreffen unter anderem, wer welche KI-Tools nutzen darf, welche Datenquellen zulässig sind und ob externe oder eigene Modelle eingesetzt werden. Zentral ist dabei auch, wie sich nachvollziehen lässt, welche Informationen in welchem Kontext verarbeitet wurden. Damit verlässt KI endgültig den Experimentierraum der IT. Unternehmen stehen vor der Aufgabe, sogenannte Trust Layers in ihre KI-Stacks zu integrieren. Damit wächst auch die Verantwortung der CIOs, da ihre Entscheidungen die langfristige KI-Fähigkeit des Unternehmens prägen. 

Anzeige

Konkret geht es um grundlegende Architekturentscheidungen. Einige Organisationen setzen auf Kontrolle direkt auf LLM-Ebene und versuchen, Modelle möglichst stark abzuschotten. Andere bevorzugen spezialisierte Punktlösungen innerhalb einzelner Anwendungen, die klar definierte Aufgaben übernehmen oder verfolgen den Aufbau unternehmensspezifischer Modelle, um maximale Kontrolle über Daten und Prozesse zu behalten. 

Diese Architekturansätze spiegeln den unterschiedlichen Reifegrad und die Risikobereitschaft von Unternehmen wider und unterscheiden sich deutlich in ihren Anforderungen an Skalierbarkeit und Governance. Wird die Kontrolle auf LLM-Ebene angesiedelt, müssen Unternehmen sehr feingranulare Zugriffs-, Monitoring- und Auditmechanismen etablieren. Andernfalls besteht das Risiko, dass sensible Inhalte direkt in generative Systeme einfließen. Punktlösungen innerhalb einzelner Fachanwendungen reduzieren zwar die Komplexität auf Modellebene, aber ohneübergreifenden Rahmen entstehen hier isolierte Sicherheitsinseln.Notwendig sind klare Verantwortlichkeiten, einheitliche Risikoklassifizierungen sowie verbindliche Freigabeprozesse. 

Der Aufbau unternehmensspezifischer Modelle wiederum bietet maximale Kontrolle über Datenflüsse, bringt jedoch den höchsten organisatorischen und technischen Aufwand mit sich: Unternehmen müssen unter anderem Trainingsdaten dokumentieren, Modellversionen nachvollziehbar verwalten, Bias und Modelldrift kontinuierlich überwachen und die Einhaltung regulatorischer Vorgaben jederzeit belegen können. 

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Die IT muss agil bleiben

Für IT-Entscheider bedeutet das, KI nicht länger als isoliertes Tool zu betrachten, sondern als Teil einer komplexen Datenlandschaft. Governance-Strukturen müssen dabei pragmatisch bleiben. Zu starre Regelwerke und zu lockere Vorgaben schwächen am Ende die Steuerungsfähigkeit der IT. Hier kommen integrierte Masking- und Redaction-Prozesse ins Spiel, die im Hintergrund wirken und Anwender nicht zusätzlich belasten.

In der Praxis zeigt sich, dass das Potenzial der KI nicht vollständig ausgeschöpft wird, wenn Fachabteilungen sie als Sicherheitsrisiko wahrnehmen oder ständig mit Einschränkungen konfrontiert werden. Umgekehrt entsteht Vertrauen, wenn Schutzmaßnahmen transparent und effizient umgesetzt werden. Erst dann kann sich KI zur verlässlichen Komponente im Arbeitsalltag entwickeln.

Die Diskussion um LLMs verschiebt sich zunehmend hin zur Frage, wie KI verantwortungsvoll und skalierbar betrieben werden kann. Damit rückt der operative Betrieb stärker in den Fokus als reines Experimentieren. Data Masking, Redaction und AI Governance sind die Grundpfeiler, die dieses Unterfangen ermöglichen. Unternehmen, die diese Themen frühzeitig strategisch verankern, schaffen die Grundlage, um Innovation und Compliance miteinander zu verbinden, ohne das eine dem anderen opfern zu müssen.

Autor: Evan Reiss, SVP Marketing, bei Foxit

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.