Nur Unterhaltung?

Microsoft überrascht mit Copilot-Aussage

Microsoft Copilot
Bildquelle: Nwz/Shutterstock.com

Während Microsoft sein KI-Tool Copilot aggressiv als Produktivitätswerkzeug vermarktet, steht im Kleingedruckten etwas ganz anderes.

Wer die Nutzungsbedingungen von Microsoft Copilot aufmerksam liest, reibt sich vielleicht die Augen. Dort steht seit einer Aktualisierung im Oktober 2025 schwarz auf weiß: „Copilot dient nur zu Unterhaltungszwecken. Es können Fehler auftreten, und es funktioniert möglicherweise nicht wie vorgesehen. Verlassen Sie sich nicht auf Copilot für wichtige Ratschläge. Die Nutzung von Copilot erfolgt auf eigene Gefahr.”

Anzeige

Das wirkt seltsam für ein Produkt, das Microsoft seit Monaten als zentrales Produktivitätswerkzeug vermarktet und tief in Windows 11 integriert hat.

Branchenüblich, aber trotzdem auffällig

Rechtlich gesehen sind solche Formulierungen in der Softwarebranche üblich. Sie schützen Hersteller vor Haftungsansprüchen und finden sich in ähnlicher Form auch bei anderen Anbietern. xAI etwa warnt in seinen Bedingungen, die Ausgaben des Modells könnten „Halluzinationen enthalten, anstößig sein oder Personen, Orte und Fakten ungenau wiedergeben.” Es gibt allerdings einen bemerkenswerten Unterschied: Während xAI und andere Anbieter technische Einschränkungen beschreiben und vor konkreten Fehlertypen warnen, geht Microsoft einen Schritt weiter und stuft Copilot grundsätzlich als Unterhaltungsprodukt ein. Das ist eine andere Kategorie von Aussage, zumal der Konzern gleichzeitig Unternehmen aktiv zur geschäftlichen Nutzung des Dienstes drängt.

Wenn blinder Vertrauen teuer wird

Das Risiko liegt weniger bei erfahrenen Nutzern als bei jenen, die KI-Ausgaben unkritisch übernehmen. Automation Bias nennt die Forschung das Phänomen, bei dem Menschen maschinellen Ergebnissen stärker vertrauen als eigenen Einschätzungen. Gut formulierte KI-Texte verstärken diesen Effekt, weil sie kaum Anlass zur Skepsis bieten. Praktische Folgen hatte das bereits: Bei Amazon wurden mehrere Systemausfälle auf KI-generierten Code zurückgeführt, der ohne ausreichende Prüfung eingespielt worden war.

Anzeige

Lars

Becker

Stellvertretender Chefredakteur

IT Verlag GmbH

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.