Ein Interview zur Rolle zentralisierter KI-Gateways in Unternehmen mit Daniel Weise, Geschäftsführer von MAKONIS. Technologisch setzt der IT-Sicherheitsexperte dabei bevorzugt auf eine Europäische Infrastruktur, auf Open-Source-Lösungen und auf hohe Souveränität über alle Komponenten hinweg.
Herr Weise, viele Unternehmen treiben aktuell den Einsatz von KI massiv voran. Gleichzeitig fällt immer häufiger der Begriff „Schatten-KI“. Was ist damit konkret gemeint?
Daniel Weise: Von Schatten-KI sprechen wir, wenn KI-Werkzeuge ohne zentrale Steuerung oder Governance eingesetzt werden. Typischerweise nutzen Fachabteilungen und einzelne Mitarbeitende externe, private KI-Accounts, die sich der Kontrolle der IT entziehen. Dadurch werden Unternehmensdaten unkontrolliert an externe Modelle übermittelt: meist ohne Transparenz darüber, wo diese Daten verarbeitet oder gespeichert werden.
Welche Risiken ergeben sich daraus für Unternehmen?
Daniel Weise: Die Risiken sind erheblich und vielschichtig. Zum einen drohen Datenabflüsse, wenn sensible Informationen wie interne Berichte, Kundendaten und strategische Dokumente in öffentliche Modelle gelangen. Diese Daten können außerhalb der EU verarbeitet werden und unter Umständen sogar in das Training fremder Modelle einfließen. Zum anderen entstehen schnell massive Kosten, wenn leistungsstarke Modelle mit hohen Token-Preisen ohne Monitoring genutzt werden. Hinzu kommen regulatorische Risiken: Der EU AI Act fordert Transparenz, Dokumentation und Kontrolle; ohne Überblick über eingesetzte KI-Systeme ist das kaum umzusetzen. Auch firmeninterne Regulatorien gilt es einzuhalten, etwa durch Corporate Policies und durch Zertifizierungsrahmen wie der ISO27001.
Wie dämmen Unternehmen diesen Wildwuchs effektiv ein, ohne Innovationen auszubremsen?
Daniel Weise: Der Schlüssel liegt in einer zentralen technischen Instanz, die Transparenz schafft und Governance durchsetzt, ohne KI-Nutzung grundsätzlich zu verbieten. Ein zentralisiertes KI-Gateway übernimmt genau diese Rolle. Es fungiert als verbindlicher Einstiegspunkt für sämtliche KI-Anfragen im Unternehmen und ermöglicht kontrollierte Innovation statt unregulierter Einzelinitiativen.
Was genau ist ein KI-Gateway und wie unterscheidet es sich von klassischen API-Gateways?
Daniel Weise: Technisch ähnelt ein KI-Gateway einem API-Gateway, es ist jedoch speziell für generative KI-Modelle, allen voran Sprachmodelle, und inferenzbasierte Workloads optimiert. Es analysiert jede Anfrage, priorisiert sie, setzt Richtlinien durch und steuert die Interaktion zwischen Anwendern, Anwendungen und unterschiedlichen Modellen. Ein zentraler Mehrwert liegt im intelligenten Routing: Einfache Aufgaben werden an kostengünstige Open-Source-Modelle im eigenen Cluster delegiert – ebenso wie sensitive Daten, die unverändert vom KI-Modell verarbeitet werden sollen. Komplexe Anforderungen behandeln dagegen leistungsstarke Cloud-LLMs. Dadurch lassen sich Qualität, Latenz und Kosten gezielt austarieren.
Welche Rolle spielt das Gateway in Bezug auf Sicherheit und Datenschutz?
Daniel Weise: Eine sehr zentrale. Das Gateway erzwingt unternehmensweit Identity- und Access-Management, Autorisierung und Richtlinien zur Datennutzung. Sensible Inhalte können automatisiert anonymisiert oder maskiert werden, etwa durch PII-Redaction (Personally Identifiable Information Redaction). Zudem lassen sich Angriffe wie Prompt Injection oder Manipulationsversuche zentral erkennen und abwehren. Durchgängiges Logging schafft einen vollständigen Audit-Trail: ein entscheidender Faktor für Compliance und forensische Nachvollziehbarkeit.
Wie unterstützt ein KI-Gateway das Einhalten regulatorischer Vorgaben wie die des EU AI Acts?
Daniel Weise: Der EU AI Act verlangt unter anderem Transparenz, Risikoklassifizierung und Monitoring von KI-Systemen. Ein KI-Gateway erlaubt das technische Durchsetzen, führt jedoch keine eigenständigen Risikobewertungen durch. Es dokumentiert Token-Verbrauch, Modellperformance, Fehlerraten, Latenzen und Nutzungsmuster. Darüber hinaus kann es Governance-Regeln durchsetzen, etwa welche Nutzergruppen welche Modelle für welche Geschäftsvorfälle einsetzen dürfen und welche zusätzlichen Auflagen für hochriskante Anwendungsfälle gelten.
Wie fügt sich ein KI-Gateway in bestehende IT-Architekturen ein?
Daniel Weise: In der Praxis ist das KI-Gateway ein abgegrenztes Produkt, welches sich nicht in ein bestehendes API-Gateway einfügt. Für hohe Anforderungen an Skalierbarkeit und Isolation werden KI-Dienste zunehmend als containerisierte Microservices betrieben. Kubernetes hat sich dabei als Standard etabliert, weil es das horizontale Skalieren und Orchestrieren GPU-intensiver Workloads ermöglicht. Zudem ist es Cloud-Anbieter-neutral ausgelegt und somit einer souveränen Cloud-Strategie zuträglich.
Welche Bedeutung hat Governance beim Aufbau einer skalierbaren KI-Infrastruktur?
Daniel Weise: Governance ist die Grundlage, nicht das Ergebnis. Rollen, Verantwortlichkeiten, Risikoklassen und Compliance-Anforderungen müssen vorab definiert und mit technischen Richtlinien verknüpft werden. Erst darauf aufbauend lassen sich Architekturentscheidungen sinnvoll treffen. Ein KI-Gateway verbindet diese Governance-Vorgaben direkt mit der technischen Umsetzung und macht sie im täglichen Betrieb wirksam.
Abschließend gefragt: Weshalb wird professionell gesteuerte KI-Nutzung zunehmend zum Wettbewerbsfaktor?
Daniel Weise: Unternehmen, die KI unreguliert einsetzen, riskieren Datenverluste, Kostenexplosionen und regulatorische Probleme. Wer hingegen frühzeitig eine belastbare Architektur etabliert, Governance verankert und Transparenz schafft, kann KI sicher und effizient skalieren. Ein zentralisiertes KI-Gateway beschleunigt genau diesen Weg – und wird damit zu einem strategischen Baustein für nachhaltige Innovation und langfristige Wettbewerbsfähigkeit.
Vielen Dank für die Einblicke, Herr Weise!