Wir kommunizieren mit Maschinen oft präziser als mit unseren Mitarbeitenden. Das ist das Problem. Und – für IT-Entscheider besonders spannend – die Lösung.
Johanna ist 34, Abteilungsleiterin bei einem großen deutschen Mittelständler. High Potential, 60-Stunden-Woche, 15 Mitarbeitende. Eines Abends greift sie zum Smartphone und tippt in ihre KI-App: „Was genau ist ein Burnout?“ Die Maschine liefert, schnell, brav, mehrseitig. Definition nach Freudenberger, Symptome, Risikofaktoren, Therapieformen. Fachlich einwandfrei. Was will man mehr?
Alles. Denn die KI hat dasselbe vermutet wie vermutlich auch Sie gerade: Angesichts der Arbeitsbelastung denkt man, Johanna fragt für sich selbst. Völlig logisch, aber leider falsch. Johanna fragt für einen geschätzten Mitarbeiter, der seit zwei Wochen matt daherkommt und ungewöhnliche Fehler macht. Was sie eigentlich wissen wollte: Sind das Frühwarnsignale? Wie spreche ich ihn an, ohne ihn zu verletzen? Was sind meine Pflichten als Vorgesetzte – auch arbeitsrechtlich?
Nichts davon hat ihr die KI beantwortet. Nicht weil sie dumm wäre. Sondern weil Johanna ihr den Kontext nicht gegeben hat. Garbage in, garbage out.
Und jetzt kommt die Pointe, die jede CIO, jeden Head of IT, jede Engineering-Managerin betrifft: Johanna führt ihre Mitarbeitenden genauso, wie sie die KI promptet. Nämlich nicht richtig.
Das Problem sitzt nicht im Rechenzentrum
Als IT-Entscheider kennen Sie den Reflex. Bei jedem neuen Tool: Schulung, Dokumentation, Best Practices. Bei Mitarbeitergesprächen: „Kümmere dich mal drum.“ Wir haben Millionen Euro in KI-Schulungen investiert. In Mitarbeiterkommunikation? Ein paarmal das obligatorische Feedback-Seminar.
Dabei zeigt eine bemerkenswerte US-Studie genau diesen Mechanismus: Eine Gruppe Studierender durfte für ihre Hausarbeiten eine KI nutzen. Ergebnisse: Qualität OK. Eine zweite Gruppe bekam zusätzlich eine Anleitung zur KI-Bedienung. Deren Ergebnisse wurden dramatisch besser. Dieselbe Technologie. Die Qualität der Eingabe machte den gesamten Unterschied. Das Problem saß nicht im Code. Es saß vor dem Bildschirm.
Und wenn die Qualität unserer Eingabe bei einer Maschine alles entscheidet – warum sollte das im Umgang mit Menschen anders sein?
Stanisław Lem hat den Satz geschrieben, der über meinem ganzen Buch steht: „Menschen suchen wir, niemanden sonst. Wir brauchen keine anderen Welten. Wir brauchen Spiegel.“ Das ist aus „Solaris“, einem Roman über die Begegnung mit einer fremden Intelligenz, die den Menschen am Ende nicht das Fremde zeigt, sondern das Eigene. Genauer: das Verdrängte.
Ich glaube, dass KI für unsere Kommunikation genau das ist. Ein Spiegel. Typische Sprachmodelle werden mit menschlicher Sprache trainiert. Sie spiegeln uns: unsere Stärken, unsere Muster, unsere blinden Flecken. Was sie zurückgeben, wenn wir sie schlecht prompten, ist unser eigenes Kommunikationsversagen, unbarmherzig reflektiert.
Drei Prinzipien – nicht mehr, nicht weniger
Nun höre ich aus psychologisch geschulten Reihen den Einwand: „Aber menschliche Kommunikation ist doch etwas komplett anderes als KI-Prompting!“ Stimmt. Und stimmt nicht. KI-Prompting legt das Fundament: Rolle klären, Kontext geben, Ergebnis definieren, Rückmeldung einholen. Watzlawicks Axiome, Beziehungsebene, Kongruenz, die Kunst des Zuhörens – das sind die Stockwerke darüber. Wer die Basics nicht beherrscht, kann keine Stockwerke bauen.
Was eine KI von uns braucht, lässt sich auf drei Prinzipien reduzieren:
#1 Prinzip Kontext: Wer bin ich? Für wen? Wofür?
Beim Prompting umfasst Kontext alles, was über die Aufgabe hinausgeht: Hintergrund, Rolle, Zweck, Rahmenbedingungen. Ohne Kontext arbeitet die KI im luftleeren Raum. Menschen übrigens auch.
Beispiel aus dem IT-Alltag. Vertriebsleiter Marc fragt die leitende Ingenieurin Jenny: „Wie würdest du dieses Problem lösen?“ Aber als was? Als innovative Ingenieurin liefert sie die State-of-the-Art-Lösung, die das Budget sprengt. Als kostenbewusste Technikerin eine bewährte Variante von der Stange. Marc definiert die Rolle nicht und beschwert sich dann über die Luxuslösung. Ohne Rollenzuweisung liefern KI und Mensch eine Antwort, die nicht passt.
In der Kommunikationspsychologie spricht man hier von „Grounding“: Verständigung gelingt nur, wenn Gesprächspartner systematisch prüfen, ob sie dieselben Kontextannahmen teilen. Common Ground ist kein Luxus, sondern Voraussetzung. Wir leben in einer Kontext-Ära. Das „Was“ ist meistens allen klar. Doch es wird nicht getan, weil der Kontext dagegensteht und niemand über ihn spricht. Was man nicht benennen kann, kann man nicht managen. Ganze Imperien sind daran gescheitert.
#2 Prinzip Klarheit: Gedanken sortieren, bevor man spricht
Die eine Frage, die im Arbeit- und Führungsalltag viel zu selten gestellt wird: „Was soll am Ende rauskommen?“ Sobald alle dasselbe Bild des gewünschten Ergebnisses vor Augen haben, entsteht Verbindlichkeit. Ohne dieses Bild entsteht – irgendwas.
Am Beispiel, mit Ähnlichkeit zum „Chain of Thought Prompting“: Nicht „Kümmern Sie sich um das Onboarding von Herrn Fischer“, sondern „Herr Fischer fängt Montag an. Bitte sorgen Sie dafür: Schreibtisch und Laptop bis Freitag, IT-Zugang beantragt, Sicherheitsbriefing koordiniert, Teamvorstellung Montagvormittag.“
Für Erfahrene gilt das Gegenteil, nämlich „Automatic Chain of Thought“: „Herr Schmidt, Sie kennen die Müller GmbH besser als ich. Bereiten Sie die Präsentation vor – und erklären Sie mir kurz, welchen Aufbau Sie wählen und warum.“ Das ist Vertrauensvorschuss und Respekt in einem.
Die goldene Regel: Klare Vorgaben für Unerfahrene, klarer Freiraum für Erfahrene. Mission Command statt Mikromanagement. Wer Senior-Developer mit kleinteiligen Tickets überschüttet, beleidigt deren Kompetenz. Wer Junioren mit „Mach mal!“ alleinlässt, überfordert sie. Beides ist Misprompting.
#3 Prinzip Vollständigkeit: Relevantes Wissen teilen
Bei der KI laden wir per Klick alles Relevante hoch. Bei Menschen gibt es keinen Upload-Button – also muss Wissen kontinuierlich im Alltagsgespräch geteilt werden.
Der Gegenimpuls ist verbreitet und giftig: „Das müssen die anderen nicht wissen!“ Wissen ist Macht – wenn man es nicht teilt. So denken Machtmenschen. Intelligentere Vertreter der Spezies teilen, was sie haben. Die wichtigste Frage, die zu selten gestellt wird: „Welche Info fehlt dir jetzt noch?“ Ein dialogischer Qualitätsanker. Der Mensch ist keine Slot-Machine, in die man oben etwas reinwirft, damit unten viel rauskommt – es sei denn, man behandelt ihn als solchen.
Die emotionale Dimension: Warum Prompting allein nicht reicht
Und hier kommt der Punkt, an dem die Technikbrille nicht mehr reicht. Stellen Sie sich vor, Sie briefen eine Entwicklerin. Kontext, Ziel, Rahmen – makellos gepromptet. Sie steht vor Ihnen mit gesenktem Blick, antwortet einsilbig, nickt mechanisch. Am nächsten Tag kommt Code zurück, der lieblos zusammengeschustert wirkt. Was ist schiefgelaufen? Sie haben übersehen, wie es der Person geht. Die Rolle war klar. Der emotionale Kontext war unsichtbar. Der Ton war falsch.
Dass Empathie keine Raketenwissenschaft sein muss, hat ausgerechnet ein primitiver Chatbot bewiesen – im Jahr 1966, als wir noch Lichtjahre von moderner KI entfernt waren. Joseph Weizenbaum erfand damals ELIZA, eine karge Simulation einer Psychotherapeutin. Technisch kaum mehr als Pattern-Matching. Jemand tippte: „Ich habe eine Krise mit meiner Frau!“ ELIZA antwortete: „Erzähl mir mehr über Deine Frau.“ Das Erschreckende: Es funktionierte unerwartet gut.. Die Testpersonen unterhielten sich stundenlang mit ELIZA, als wäre sie eine echte Therapeutin. Nicht weil die Maschine intelligent war, sondern weil sie das tat, was wir heute so selten tun: nachhaken, spiegeln, Raum geben.
Eine Maschine, „dümmer“ als jedes heutige Smartphone, erzeugte mit dieser Technik mehr erlebte Empathie als Millionen Menschen in ihrem täglichen Umgang miteinander. Das sollte uns nicht deprimieren. Das sollte uns ermutigen. Wenn es so einfach ist – warum tun wir es nicht?
Der Psychologe Carl Rogers hat für wirksame Gesprächsführung drei Kernbedingungen formuliert: Empathie, bedingungslose Wertschätzung, Kongruenz. Virginia Satir beschreibt Kongruenz als die Übereinstimmung zwischen Worten und Körpersprache. Wenn die Worte „Das tut mir leid“ lautsagen, aber der Blick aufs Handy geht, glaubt der Mensch dem Blick. Immer. Eine KI kann Mitgefühl nur simulieren, nicht empfinden. Der Unterschied bleibt.
Haltung statt Technik
Prompting ist keine Technik. Ich weiß, das klingt zunächst absurd, aber ich meine es ernst und größer: Prompting ist eine Haltung. Eine Haltung der Klarheit, des umfassenden Nachdenkens, des Teilens von Wissen, letztlich des Respekts und der Wertschätzung.
Gerade für Sie, die Sie täglich zwischen Stakeholdern, Dev-Teams und Business-Anforderungen vermitteln, ist das relevanter als jedes Framework. Die KI hat uns einen Spiegel geliefert, den niemand bestellt hat. Sie hat Kommunikation nicht ersetzt, sie hat gezeigt, wie nachlässig wir darin geworden sind. In einer Welt der Emojis, der Smartphone-Nackenstarre, der asynchronen Messaging-Monologe.
Am Ende kann die KI vieles, aber nicht alles. Sie kann keine Hand halten. Sie lädt Sie nicht zu einem Kaffee ein. Sie kann keinem ausgebrannten Kollegen das Gefühl geben, gesehen zu werden. Das können nur Menschen. Das macht sie nachgerade erst zu Menschen.
Nutzen wir die KI als Trainingslager für das, was uns ausmacht. Prompting ist Silber. Reden mit Menschen ist Gold. Aber das eine bereitet aufs andere vor.