Kontrolle, Transparenz und menschliche Verifikation

Trend Micro: KI ist kein Plug-and-Play-Tool

KI-Hilfe

Trend Micro warnt vor unkontrolliertem Einsatz von Large Language Models (LLMs) in Unternehmen. Die aktuellen Forschungsergebnisse zeigen, dass KI-Systeme je nach Region, Sprache und Modellkonfiguration stark unterschiedliche Ergebnisse liefern können.

Regionale Unterschiede und Inkonsistenzen

Ohne angemessene Überwachung und Verifikation entstehen dadurch rechtliche, finanzielle und reputationsbezogene Risiken. Die Studie „Risks of Unmanaged AI Reliance“ untersuchte über 100 Modelle mit mehr als 800 gezielt entwickelten Eingaben. Die Analyse von über 60 Millionen Eingabetokens und 500 Millionen Ausgabetokens zeigte, dass identische Anfragen in verschiedenen Regionen unterschiedliche Antworten erzeugen. Besonders in politisch sensiblen Themen, bei Finanzberechnungen oder zeitkritischen Informationen traten deutliche Inkonsistenzen auf. Selbst wiederholte Interaktionen mit demselben System führten nicht immer zu identischen Ergebnissen.

Anzeige

Für international tätige Unternehmen verstärken sich die Risiken. KI-gestützte Services müssen häufig gleichzeitig unterschiedlichen gesetzlichen Vorgaben, kulturellen Erwartungen und politischen Sensibilitäten gerecht werden. Auch öffentliche Einrichtungen stehen vor besonderen Herausforderungen: KI-Ausgaben könnten als offizielle Orientierung verstanden werden, während die Modelle teils nicht lokalisiert sind, was Souveränitäts- und Zugänglichkeitsprobleme schafft.

Kontrolle, Transparenz und menschliche Verifikation

Trend Micro betont, dass KI nicht als Plug-and-Play-Tool betrachtet werden sollte. Unternehmen müssen klare Verantwortlichkeiten definieren, Regularien einhalten und jede KI-Ausgabe menschlich prüfen. Dazu gehört auch, Transparenz von den Anbietern einzufordern: Welche Daten nutzt das Modell? Welche Schutzmechanismen sind implementiert? Nur mit solchen Kontrollen kann KI sicher und effizient in Geschäftsprozesse integriert werden.

Die Forschung zeigt einmal mehr, dass LLMs keine zuverlässige „Blackbox“ sind. Ihre Ausgaben können sich je nach Kontext, Region und Sprache stark unterscheiden. Ein kontrollierter, bewusster Einsatz mit klaren Prozessen, menschlicher Kontrolle und nachvollziehbaren Regularien ist entscheidend, um Risiken zu minimieren und gleichzeitig das Potenzial der Technologie zu nutzen.

Anzeige
Pauline Dornig

Pauline

Dornig

Online-Redakteurin

IT Verlag GmbH

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.