Kommentar

Cyber Security im Zeitalter von ChatGPT

KI, künstliche Intelligenz, ChatGPT

Das Thema Künstliche Intelligenz (KI) schlägt derzeit hohe Wellen. Nicht zuletzt wegen des KI-basierten Chatbots ChatGPT von OpenAI, der mit seinen vielfältigen Funktionen und zahllosen Einsatzmöglichkeiten einer breiten Öffentlichkeit erstmals vor Augen geführt hat, was mit KI bereits heute möglich ist.

Mit seiner Hilfe konnten zum ersten Mal auch weniger Technikaffine mit einer KI interagieren – und die meisten dürften von den Ergebnissen verblüfft gewesen sein. Doch wie immer, wenn es um innovative Technologien geht, haben solche Entwicklungen auch Schattenseiten und es bedarf Regeln für den Umgang mit diesen Innovationen. John Hernandez, President und General Manager bei Quest Software hat sich daher Gedanken dazu gemacht, wie ChatGPT in Zukunft die Cybersicherheit beeinflussen dürfte und welche Vorkehrungen Unternehmen beim Umgang mit dem Chatbot treffen sollten.

Anzeige

Ein Kommentar von John Hernandez, President & General Manager, Quest Software:

„Die Veröffentlichung von GPT-4 und seine Integration in Tools wie Bing zeigt abermals neue Möglichkeiten auf, wie generative KI im Bereich Sicherheit und IT genutzt werden kann. Und diese Entwicklung ist erst der Anfang. GPT-4 hat jedoch ähnlich wie das IoT in seiner Anfangsphase mit Kinderkrankheiten zu kämpfen. Es handelt sich um eine bahnbrechende neue Technologie, mit der die Fantasie vieler Verantwortlichen in Unternehmen beflügelt wird. Diese konzentrieren sich seither darauf, bis dato ungekannte Möglichkeiten für ihre Nutzung zu finden. Allerdings befassen sich nur wenige damit, wie diese Technologie sicherer gemacht werden kann. Analog zu jeder neuen Technologie werden auch im Falle von GPT-4 Kriminelle voraussichtlich innerhalb kürzester Zeit einen Weg finden, die Technologie für illegale Zwecke auszunutzen.

Im richtigen Kontext verwendet, sorgen KI-gestützte Cybersecurity-Tools mit den passenden Kontrollen und Abwägungen dafür, dass Sicherheitsteams in vielfacher Hinsicht profitieren: Dies umfasst eine genauere Erkennung von Bedrohungen, eine schnellere Reaktion auf Vorfälle und eine entsprechende Schadensbegrenzung sowie verbesserte Methoden zur Benutzerauthentifizierung und aussagekräftigen Vorhersagefunktionen. Diese Tools sind jedoch nicht narrensicher und bedürfen nach wie vor der menschlichen Aufsicht und Überwachung, um sicherzustellen, dass die Algorithmen fein abgestimmt sind, auf geschäftsrelevante Daten trainiert wurden und nicht selbst gefährdet sind.

Unternehmen müssen zudem bedenken, wie sich künftige Vorschriften auf den Einsatz von Tools wie GPT-4 auswirken könnten. All das wird sich noch zeigen. Aber es lässt sich feststellen, dass das volle Potenzial von GPT-4 im Bereich Cybersicherheit – unabhängig ob man die Perspektive der Verteidiger oder die der Angreifer einnimmt – noch lange nicht vollständig verstanden worden ist.“

www.quest.com

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.