Interview

Die Rolle von KI in der Cybersicherheit

Welchen Einfluss künstliche Intelligenz auf die Arbeitsbedingungen der Zukunft hat, wird kontrovers diskutiert. Cybersicherheit scheint auf jeden Fall einer jener Bereiche zu sein, in denen KI auf unterschiedliche Weise hilfreich ist. Dazu Fragen an und Antworten von Patrick Hunter, One Identity.

Welchen Einfluss künstliche Intelligenz auf die Arbeitsbedingungen der Zukunft hat, wird kontrovers diskutiert. Wird sie Ihrer Meinung nach dazu beitragen die Qualifizierungslücke in den unterschiedlichen Branchen zu schließen oder dabei eher hinderlich sein? Cybersicherheit scheint auf jeden Fall einer jener Bereiche zu sein, in denen KI hilfreich ist…

Anzeige

Patrick Hunter: Man kann es nicht oft genug wiederholen. Mit Künstlicher Intelligenz meinen die eines dieses und die anderen jenes. Mittlerweile scheinen sogar Begriffe wie Deep Learning, KI und maschinelles Lernen im Sprachgebrauch bis zu einem gewissen Grade austauschbar geworden zu sein. Diese Technologien, und das gilt insbesondere für das maschinelle Lernen, sind nicht das, für das die meisten Leute sie halten. Wir sind nicht dabei Roboter zu konstruieren, die eines nicht allzu fernen Tages gegen die Menschheit aufbegehren und die Weltherrschaft übernehmen. Was diese Technologie aber tun kann, ist uns dabei zu helfen wiederkehrende Muster in großen Datenmengen zu erkennen. Muster, die Menschen nicht so schnell oder zu annehmbaren Kosten erkennen. Das meint eine Robotik, die in der Lage ist aus immer wiederkehrenden, identischen Aufgabenstellungen zu lernen, und das kann auch heißen, dass künstliche Intelligenz in der Lage ist, einen Kriminellen aus einer Menge herauszufiltern.

Auf der einen Seite beobachten wir, dass KI lernt, gute und böswillige Interaktionen zwischen Menschen und Computern innerhalb des Cyberspace zu unterscheiden. Ist Mitarbeiter A gerade dabei sich in der üblichen, als normal definierten Form zu authentifizieren? Hat sich das Verhalten von Mitarbeiterin B geändert, wenn sie auf Dateien und Server zugreift? Anomalien lösen eine Benachrichtigung aus, so dass ein potenzieller Eindringling, der vorgibt ein legitimer Angestellter zu sein, gestoppt werden kann. Aus dieser Warte betrachtet tragen KI und verwandte Technologien dazu bei, dass Sicherheitsanalysten effizienter arbeiten können.

Und KI kann Millionen von Log-Dateien durchforsten und Entscheidungen auf der Basis dessen treffen, was der Algorithmus in der Zwischenzeit gelernt hat.

Das funktioniert aber nicht, ohne dass Menschen schlussendlich die Resultate der getroffenen Entscheidungen überprüfen. Herzlich willkommen in der Welt der „False Positives“. Die betreten wir, wenn KI eine irgendwie geartete Entscheidung getroffen hat, diese aber leider falsch ist. Ja, KI kann auch daraus lernen, aber nicht ohne entsprechende Führung.

Sind Maschinen tatsächlich in der Lage sich selbst etwas beizubringen? Stichworte sind hier beispielsweise das „unsupervised Learning“. Was bedeutet der Ansatz in der Praxis? Hat er sich bereits bewährt?

Patrick Hunter: Wenn Sie identische Aufgaben etliche Male wiederholen, fallen dabei Daten an, mit denen man die KI füttert. Sie dienen als Referenzpunkt. Diesen Referenzpunkt kann man benutzen um etwas solange zu versuchen bis man ein bestimmtes Ziel erreicht hat. Allerdings ist dieses Ziel am Anfang noch nicht bekannt. Roboter sind beispielsweise in der Lage sich gegenseitig das Gehen beizubringen. Dabei handelt es sich aber nicht um „bewusste Entscheidungen“. Es handelt sich um Leitsätze, die so programmiert wurden, dass sie bestehendes Wissen anwenden. Unsupervised Learning hat aber gerade in der Cybersecurity den Nachteil, dass es zu viele falsch-positive Meldungen verursacht. Dem kann man mit einigen Maßnahmen entgegensteuern. Ohne menschliche Intervention bei der Analyse und der Definition von Referenzpunkten funktioniert das allerdings nicht.

Ist „unsupervised machine learning“ trotzdem für manchen Einsatzgebiete ein Win-Win oder gibt es auch negative Seiten und wenn ja, worin bestehen sie? 

Patrick Hunter: Nehmen wir das jüngste Beispiel der US-Regierung, den Beschluss, Systeme zur Gesichtserkennung an Flughäfen einzusetzen. Grundsätzlich eine überzeugende Anwendung auf der Basis maschinellen Lernens. Oberflächlich betrachtet eine gute Idee, die sich sicherlich als unentbehrlich herausstellen wird. Aber die Sache hat einige eher unerwünschte Nebenwirkungen. Es ist beispielsweise intendiert die anfallenden Daten mit noch nicht näher spezifizierten Dritten zu teilen. Was aber würde passieren, wenn Ihre Gesichtserkennungsdaten das System fälschlich triggern? Und Sie aufgrund dieser Datenlage in Zukunft als zu überwachende Person gelten? Und wo landen alle diese erhobenen Daten am Ende? Ich habe mich hier auf den Bereich der künstlichen Intelligenz konzentriert wie er in den Big-Data-Anwendungen in unserer Branche, der Cybersicherheit, zum Einsatz kommt. Was wir uns wirklich klar machen müssen, ist, dass alle diese Ergebnisse nicht ohne die einordnende Interpretation eines Menschen auskommen. Wir selbst sind die positive Komponente für die KI. 

www.oneidentity.com
 

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.