Licht und Schatten bei der Generativen KI

Wie man generative KI sicher anwendet und Schatten-KI vermeidet

Anzeige

Security, Schwachstellen

Die rasche Implementierung generativer KI in zahlreichen Firmen geht mit neuen Cyberrisiken einher, denen sich die Sicherheitsverantwortlichen dringend widmen müssen.

Die Herausforderung besteht darin, wie die GenAI-Leistung voll ausgeschöpft werden kann, während gleichzeitig sensible Daten geschützt und Sicherheitsvorschriften eingehalten werden. Zugleich stehen Security-Teams einer ständig zunehmenden Zahl von KI-Plattformen gegenüber, die von den Mitarbeitenden verwendet werden – meist ohne Absprache und Kontrolle. Mit dieser Form der Schatten-IT gehen enorme Gefahren für Datenlecks und die Missachtung von Compliance-Vorgaben einher.

Anzeige

Eine aktuelle Studie zeigt, dass über 50 % der befragten 6.000 Wissensarbeiter aus den USA, Großbritannien und Deutschland Schatten-KI verwenden.

Selbst wenn das Unternehmen diese Hilfsmittel verbieten würde, würden Sie sie nicht aufgeben wollen. Das verdeutlicht zwei Dinge: Künstliche Intelligenz ist bereits weitreichend im Berufsalltag verankert, aber die damit verbundenen Risiken werden oft nicht ausreichend wahrgenommen.

Es ist für Sicherheitsverantwortliche und IT-Führungskräfte von höchster Wichtigkeit, die Herausforderungen zu begreifen, die mit dem Einsatz von GenAI verbunden sind, sowie die Strategien zu kennen, mit denen sich diese KI-Risiken effektiv begegnen lassen. Firmen sollten umsetzbare Strategien verfolgen, die ihnen helfen, eine robuste KI-Governance und Compliance, Sicherheitsmaßnahmen sowie Echtzeitüberwachung für eine sicherere Nutzung von KI zu etablieren und zugleich die Produktivität der Mitarbeiter zu erhöhen.

Sicherheitsrisiken im Zusammenhang mit KI

Eine der gravierendsten Gefahren beim Einsatz generativer KI ist die Preisgabe von geistigem Eigentum. Daher geben Entwickler aus Versehen oft vertraulichen Quellcode in KI-Modelle ein, was zu einem Datenleck führen kann: Wenn eine interne Codedatenbank Teil der KI-Trainingsdaten wird, könnte sie im Rahmen des GenAI-Eingabe- und Ausgabeprozesses für andere zugänglich werden. Dies wirft neben der Möglichkeit einer Gefährdung des Unternehmens auch schwerwiegende Compliance- und rechtliche Bedenken auf, vor allem in Branchen mit strengen Datenschutzvorgaben.

Andererseits kann Code, der durch KI generiert wurde, Sicherheitslücken im Unternehmen verursachen. KI-Modelle nutzen enorme Datensätze, oft ohne die Einhaltung spezifischer bewährter Verfahren. Dementsprechend können sie Code mit Sicherheitslücken erzeugen, wie z. B. schwacher Verschlüsselung, falscher Eingabevalidierung oder unsicherer Zugriffskontrolle. Wenn Entwickler sich zu sehr auf KI-generierten Code verlassen, besteht die Gefahr, dass sie ausnutzbare Schwachstellen in ihre Software einfügen. Dies erhöht die Wahrscheinlichkeit von zukünftigen Cyberangriffen und Datenschutzverletzungen.

Diese Risiken werden verstärkt, wenn Mitarbeitende KI-Tools ohne Genehmigung des Unternehmens eigenständig nutzen. Laut einer neulich durchgeführten Untersuchung teilen 38 Prozent der Mitarbeiter sensible Arbeitsinformationen ohne die Zustimmung ihres Arbeitgebers mithilfe von KI-Tools. Viele verwenden persönliche Konten, wodurch sie die Sicherheitsprotokolle des Unternehmens umgehen. Es besteht ein hohes Risiko von Datenverlusten, da diese unregulierte Verwendung vertrauliche und geschützte Informationen Unbefugten zugänglich machen kann. Herkömmliche Sicherheitslösungen können nicht erkennen, wenn KI-Interaktionen unbefugt erfolgen. Daher haben viele Firmen keinen Einblick in die Nutzung von Schatten-KI. Fehlt es an der nötigen Transparenz, so sind Unternehmen gefährdet, dass ihnen geistiges Eigentum entwendet wird oder dass Compliance-Verstöße geschehen.

Anzeige

So klären Sie die Schatten-KI auf

Unternehmen brauchen einen strukturierten Ansatz, der Governance-, Sicherheits- und Überwachungsstrategien kombiniert, um die mit Schatten-KI verbundenen Risiken zu minimieren. Sie sollten sich dabei auf drei Aspekte fokussieren:

  1. Bestimmen Sie Richtlinien für die KI-Governance: Zunächst sollten Unternehmen genehmigte KI-Tools und Anwendungsfälle klar festlegen sowie strenge Richtlinien zur Datennutzung etablieren, um die Offenlegung sensibler Daten zu verhindern. Eine fortlaufende Kontrolle der KI-Interaktionen ist unbedingt notwendig zu realisieren. Nur so können die Einhaltung von Sicherheitsrichtlinien und gesetzlichen Vorschriften sowie die Transparenz sichergestellt werden. Zudem müssen die Firmen ihre Abläufe zur Reaktion auf Sicherheitsvorfälle im Zusammenhang mit KI anpassen. Eskalationsprotokolle für KI-basierte Datenverletzungen sollten mit eindeutigen Abhilfemaßnahmen festgelegt werden.
  2. Setzen Sie mit einer GenAI-Firewall die Sicherheit um: Eine GenAI-Firewall ist unabdingbar, um den GenAI-Datenverkehr zu kontrollieren und zu überwachen. Eine Echtzeit-Inhaltsprüfung kann Unternehmen dabei helfen, Datenlecks zu identifizieren und zu verhindern. So können sie zugleich garantieren, dass nicht autorisierte Daten weder in KI-Modelle eingegeben noch von ihnen ausgegeben werden. Eine richtlinienbasierte Durchsetzung erlaubt nur genehmigte KI-Interaktionen und blockiert jegliche nicht konforme oder riskante Nutzung.
  3. Organisieren Sie spezielle Schulungen zur Sicherheit von KI: Es ist notwendig, dass Mitarbeitende über die Gefahren von GenAI informiert und in bewährten Praktiken für den sicheren Einsatz von KI geschult werden. Darüber hinaus sollten Entwickler eine Schulung dazu erhalten, wie sie KI-generierten Code auf Schwachstellen prüfen können. Firmen sollten eindeutige Richtlinien für erlaubte Tools und Anwendungsfälle ausarbeiten und ihre Angestellten fortlaufend darüber informieren.

Unternehmen können die Vorteile von GenAI effektiv nutzen und gleichzeitig Sicherheit, Datenschutz und Compliance aufrechterhalten, indem sie Governance, Sicherheit und kontinuierliche Überwachung integrieren. Mit einem proaktiven Ansatz für das Risikomanagement wird gewährleistet, dass der Einsatz von KI innovativ, produktiv und sicher bleibt.

Besuchen Sie uns am Partnerstand mit Infinigate (Halle 7, Stand 7-336) oder auf versa-networks.com/de

Pantelis Astenburg

Pantelis

Astenburg

Vice President Sales DACH

Versa Networks

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.