Ständiges Prompting führt zu mentaler Erschöpfung und einem schleichenden Empathieverlust. Warum KI die soziale Intelligenz im Team bedroht.
Künstliche Intelligenz am Arbeitsplatz ist allgegenwärtig. Sie schreibt E-Mails vor, analysiert Datensätze und entwirft Präsentationen. Doch hinter der Fassade gesteigerter Produktivität beobachten Human-Resources-Abteilungen ein beunruhigendes Phänomen: den „Prompt-Burnout“. Mitarbeiter sind erschöpft, weil sie einen Großteil ihres Arbeitstages damit verbringen, vage menschliche Gedanken in präzise, maschinenlesbare Befehlsketten zu übersetzen. Dieser Zwang zur permanenten sprachlichen Standardisierung hat Folgen, die weit über die IT-Abteilung hinausgehen. Er greift das soziale Gefüge der Unternehmen an und lässt die soziale Intelligenz (SQ) der Teams schrumpfen.
Mitarbeiter als menschliche Schnittstellen für KI
Die Interaktion mit KI-Modellen erfordert eine spezifische Form der mentalen Anstrengung, die Linguisten und Psychologen als kognitive Last (Cognitive Load) bezeichnen. Im Gegensatz zum Gespräch mit Kollegen, das von Nuancen, Kontext und implizitem Verständnis lebt, verzeiht ein KI-Agent keine Unschärfe. Laut Studien zur Auswirkung von Prompt-Engineering auf die mentale Kapazität müssen Nutzer komplexe Probleme extrem strukturiert aufbereiten. Diese permanente „Übersetzungsarbeit“ belastet das Arbeitsgedächtnis überdurchschnittlich.
Mitarbeiter agieren im Büroalltag als menschliche Schnittstellen. Dieser „Translator’s Burden“ führt dazu, dass das Gehirn kaum noch Kapazitäten für kreative Zwischenschritte oder intuitive Bauchentscheidungen hat. Der Microsoft Work Trend Index 2025 identifizierte bereits früh die „digitale Überlastung“ durch KI-Tools als einen der Hauptgründe für sinkende Mitarbeiterzufriedenheit. Wer den ganzen Tag in Prompts denkt, verbraucht die Energie, die eigentlich für die empathische Wahrnehmung des Gegenübers nötig wäre.
Wenn Kollegen wie Bots sprechen
Linguisten beobachten eine schleichende Veränderung der zwischenmenschlichen Kommunikation. Wer stundenlang mit Sprachmodellen wie GPT-5 oder Claude interagiert, übernimmt unbewusst deren Struktur. Sätze werden kürzer, imperativer und verlieren ihre sozialen Weichzeichner. Dieser Prozess der „Linguistic Convergence“ (Linguistische Annäherung) bedeutet, dass die Sprache im Büro zunehmend transaktional wird.
Ein Bericht der BACP Workplace warnt davor, dass diese Robotisierung der Sprache die soziale Intelligenz schwächt. In einer Welt, in der jede Interaktion auf Effizienz getrimmt ist, wirken menschliche Eigenheiten wie Zögern, rhetorische Fragen oder emotionaler Subtext störend. Das Ergebnis ist eine Korrosion der Empathie: Der Kollege wird nicht mehr als Mensch mit Tagesform wahrgenommen, sondern als „Resource“, die einen „Output“ liefern muss – analog zum KI-Modell.
Die Empathie-Lücke: Warum echte Menschen „ineffizient“ wirken
Das Phänomen des Prompt-Burnouts hat eine direkte Auswirkung auf das Verhalten gegenüber echten Kollegen. Da KI-Modelle unendlich geduldig sind und keine emotionalen Widerworte geben, sinkt die Frustrationstoleranz im Team. Studien zur Computer-Mediated Communication (CMC) (https://www.nature.com/articles/s41562-018-0381-y) zeigten, dass digital vermittelte Kommunikation die Wahrnehmung des Gegenübers depersonalisiert.
Mitarbeiter empfinden den Austausch mit echten Menschen oft als anstrengend oder zeitraubend, weil Menschen, anders als Maschinen, Zeit für Kontext und emotionale Rückversicherung benötigen. Wenn der Arbeitsalltag nur noch aus dem Austausch von „Tasks“ besteht, schrumpft der Raum für informelle Kommunikation. Eine Untersuchung ergab, dass algorithmisches Management prosoziales Verhalten reduziert. Wir verlernen die Geduld, die notwendig ist, um komplexe menschliche Konflikte zu lösen, weil wir auf die sofortige, widerspruchsfreie Antwort der Maschine konditioniert sind.
Stressfaktor Anthropomorphismus: Die Falle der simulierten Wärme
Ein paradoxer Stressfaktor ist die zunehmende Vermenschlichung der KI (Anthropomorphismus). Viele Systeme sind so programmiert, dass sie Empathie simulieren. Doch diese künstliche Wärme erzeugt eine kognitive Dissonanz. Während die Maschine freundlich formuliert, bleibt sie ein lebloser Algorithmus. Dieser Kontrast verbraucht emotionale Energie, da unser Gehirn ständig zwischen dem sozialen Reflex (der Maschine zu danken) und der rationalen Erkenntnis (es ist nur Code) hin- und herspringen muss.
Der Mental Health UK Burnout Report 2025 weist darauf hin, dass diese permanente Interaktion mit „Pseudo-Menschen“ zu einer Entleerung der emotionalen Reserven führt. Mitarbeiter fühlen sich am Ende des Arbeitstages emotional leer, da sie zwar viel „kommuniziert“, aber keine echte menschliche Verbindung erfahren haben. Die soziale Intelligenz schrumpft, weil das Training an echten, widersprüchlichen Emotionen fehlt.
Konsequenzen für das HR-Management
Für Unternehmen wird der Prompt-Burnout zu einem strategischen Risiko. Wenn die soziale Intelligenz sinkt, leidet die Innovationskraft. Kreativität entsteht oft aus dem Ungefähren, aus dem Missverständnis oder dem humorvollen Austausch. Das sind alles Dinge, die im präzisen Prompting keinen Platz haben. HR-Abteilungen reagieren vermehrt mit Gegenmaßnahmen:
- AI-Free Zones: Räume oder Zeitfenster, in denen keine digitale Kommunikation erlaubt ist.
- Human-Centric Leadership: Führungskräfte werden darin geschult, unproduktive, aber sozial wertvolle Gesprächszeit zu fördern.
- Prompt-Diäten: Begrenzung der täglichen Stunden, die ein Mitarbeiter aktiv mit der Steuerung von KI-Modellen verbringt.