
KI im Coaching: Warum menschliche Beziehung unersetzlich bleibt
Also zumindest unsere Auftragslage hat sich dramatisch verändert. Das wird viele Gründe haben und einer davon ist Künstliche Intelligenz wie ChatGPT. Führungskräfte und kluge Kunden setzen inzwischen auf ChatGPT sogar im sensiblen Bereich persönlicher Entwicklung. Warum auch nicht? Das Tool ist schnell, rund um die Uhr verfügbar, nie genervt und klingt oft verdammt kompetent. Und genau hier liegt das Problem: KI klingt klug und ist es irgendwie auch. Doch wer KI als Ersatz für echte Coachingprozesse nutzt, ersetzt Beziehung durch Berechnung. Ich möchte in diesem Essay gerne zeigen, warum das fachlich, menschlich und inhaltlich zuweilen gefährlich kurz gedacht ist.
ChatGPT & Co.: Was LLMs wie ChatGPT wirklich leisten können
ChatGPT zum Beispiel ist ein sogenanntes Large Language Model (LLM), trainiert auf Milliarden Textbausteinen. Es berechnet auf Basis statistischer Wahrscheinlichkeiten, welches Wort am ehesten auf das vorherige folgt. Das bedeutet: ChatGPT versteht nicht, reflektiert nichts und fühlt nichts. Es wirkt klug, weil es scheinbar kluge Sätze baut. Aber es weiß nicht, was es da sagt und es ist ihm auch nicht wichtig.
Das hat gravierende Konsequenzen, denn die KI weiß nicht, ob das, was sie sagt, hilfreich oder verantwortungsvoll ist. KI übernimmt keine Verantwortung, wenn di Antworten Schaden anrichten. Es spiegelt keine Haltung, keine Ethik, keine Intuition. Kurz: Wer KI nutzt, bekommt eine gut formulierte Wahrscheinlichkeit. Was nicht geliefert wird ist: professionelle zwischenmenschliche Begleitung mit Reiz- und Reaktionsmustern, die im Coaching elementar sind.
Studienlage: KI ist empathisch – oder doch nicht?
Eine Studie der Universitäten Genf und Bern, veröffentlicht im Fachjournal „Communications Psychology“ in diesem Jahr untersuchte sechs Sprachmodelle, darunter ChatGPT 4.0, auf ihre Fähigkeit zur Lösung und Erstellung emotionaler Intelligenztests. Die Autoren, Katja Schlegel, Nils R. Sommer und Marcello Mortillaro, konnten zeigen, dass die KI in standardisierten Tests wie STEM und STEU rund 81 % richtige Antworten erreichte. Menschliche Vergleichspersonen lagen im Durchschnitt bei nur 56 %. Darüber hinaus bewerteten unabhängige Psychologen die von der KI generierten neuen Intelligenz-Testfragen als qualitativ hochwertig.
Solche Ergebnisse klingen eindrucksvoll, doch bei genauer Betrachtung offenbart sich die Einschränkung: Die Tests waren ausschließlich textbasierte Multiple-Choice-Fragen. Sie maßen die Fähigkeit, sprachlich beschriebene Emotionen zu erkennen, nicht aber, sich in reale zwischenmenschliche Kontexte einzufühlen. Die KI weiß, wie Empathie formuliert wird, aber sie fühlt sie nicht. Was als Kompetenz erscheint, ist das Ergebnis von Sprachmustern und nicht von Mitgefühl.
Die Psychologin MJ Crockett (Princeton University) kommentierte diese Studienergebnisse am 27. Februar 2025 im britischen Guardian und kritisierte deutlich: Diese Tests seien so konstruiert, dass KI sie besonders gut bestehen könne, weil sie sprachliche Logik prüften, nicht emotionale Tiefe. Der Titel ihres Artikels bringt es auf den Punkt: „AI is ‚beating‘ humans at empathy and creativity. But these games are rigged.“
Wie auch immer das nun wirklich war, Künstliche Intelligenzen wie ChatGPT und Kollegen sehen und fühlen ihr Gegenüber nicht. Sie interagieren mit dem geschriebenen Wort und berechnen daraus etwas Logisches als Antwort. Vieles davon ist richtig gut, doch es ist nicht immer wahr und macht auch nicht immer Sinn.
„Coaching-Realität“ versus „KI‑Vision“: Beziehung schlägt Berechnung
Professionelles Coaching ist kein Katalog von Methoden. Es ist ein lebendiger Prozess, der auf zwischenmenschlicher Beziehung beruht. Es braucht Präsenz, Wahrnehmung und Haltung von beiden Beteiligten. Ein menschlicher Coach erkennt, wann jemand einatmet, aber nicht spricht. Er bemerkt, wenn eine Träne unterdrückt wird. Der menschliche Coach sieht, hört, riecht, schmeckt und spürt, wenn ein Thema körperliche Auswirkungen hat, obwohl sprachlich nichts darauf hinweist. Ein Mensch erkennt ideomotorische Bewegungen und sieht, wenn das Blut ins Stocken gerät, die Lippen schmaler werden und jemandem die Spucke wegbleibt.
Ein menschlicher Coach kann spiegeln, Halt geben, zum Innehalten einladen, konfrontieren, verdichten oder bewusst schweigen. Er übernimmt Verantwortung und schafft einen Raum, in dem echte Veränderung geschehen kann. Eine KI hingegen fragt einfach weiter, sie antwortet weiter und sie übergeht noch nicht einmal etwas, denn sie kann nicht sehen, nicht riechen, nicht spüren, nicht hören und nicht intuitiv erahnen.
Diese Beobachtungs- und Deutungsfähigkeit ist für den Erfolg einer Coaching Intervention wesentlich. Die Erkenntnisse basieren auf jahrzehntelanger Forschung unter anderem von Paul Ekman, einem der weltweit führenden Forscher für nonverbale Kommunikation und Mikroexpressionen. Seine Arbeiten im Journal of Nonverbal Behavior und in „Emotions Revealed“ belegen, wie vielschichtig und bedeutungsvoll selbst kleinste körperliche Reaktionen sind. Und diese Reaktionen kann kein Sprachmodell jemals erfassen. Zumindest jetzt noch nicht.
Was passiert, wenn Kunden KI als ihren Coach nutzen?
Es kommt mittlerweile echt vor, dass meine Kunden mit KI Ergebnissen ins Coaching kommen. Sie haben vor den Sessions mit KI gearbeitet. Sie versuchen Fragen, die sie bewegen von KI beantworten zu lassen und sie suchen nach Anregung und Lösung. Am liebsten erstmal ohne ein menschliches Gespräch. Auf den ersten Blick scheint das harmlos: Es kostet nichts, liefert sofortige Antworten und wirkt überraschend reflektiert. Doch auf den zweiten Blick entsteht ein hoch problematischer Zustand.
Ein Coachee, der Angst vor Bewertung oder Konfrontation hat, der unbewusste Themen vermeiden will, findet in der KI genau das: eine bequeme und vor allem kritik- und wertbefreite Oberfläche. Denn eine KI konfrontiert nicht. Sie hält keinen inneren Spiegel vor. Sie fordert keine emotionale Präsenz und prüft keine Validität. Genau das aber macht sie zur perfekten Projektionsfläche und damit zum idealen Ort für alle bewusste und nicht bewusste Befangenheit. Niemand muss sich einer KI als Gesprächspartner offenbaren.
In einer solchen Form der Selbstbegleitung entsteht kein echter Dialog. Es gibt keine Resonanz, keine echte Rückmeldung und vor allem kein kritisches Hinterfragen oder gar wirkliches „in Frage stellen“, es sei denn, genau das wird beauftragt. Statt dessen bestätigt die KI alles, was plausibel klingt, sogar wenn es falsch oder gar dysfunktional ist. Der Coachee bleibt mit seiner Denkstruktur auf sich gestellt, ist vielleicht sogar von dem Duktus der KI tief beeindruckt und fühlt sich bestätigt, ist wie hypnotisiert und zwar schlimmer als in seiner Social Media Blase. Und der Mensch bleibt dort, wo Veränderung nicht stattfindet: in der scheinbaren Kontrolle der Tatstatur, da die Prompts kommen ja von dem Menschen vor dem Schirm.
Denn es gibt ja gute Prompts, man kann der KI die Rolle eines kritischen Gesprächspartner zuzuweisen oder die eines systemischen Coaches. Das ist schon besser.
Nein! Das zeigt, dass das Gefährliche nicht die Nutzung der KI an sich ist, sondern die Selbsttäuschung bzw. die Trance und das Besoffen sein von der eigenen Genialität, dass man solche tollen Antworten forcieren kann. Wer sich in der Befangenheit (also in seiner eigenen Blase) befindet, erkennt nicht, dass er sich selbst nicht in Frage stellt. Und genau so kommt jede Persönlichkeitsentwicklung zum Stillstand. Trick 17 mit Selbstüberlistung.
Wo KI-Coaching sinnvoll ergänzen kann
Es wäre zu simpel, pauschal vor dem Einsatz von KI zu warnen. Richtig eingesetzt, kann KI durchaus einen Beitrag leisten. Es eignet sich zur strukturierten Zielklärung, zur Vorbereitung auf ein Coachinggespräch oder zur Erklärung von Modellen wie dem Inneren Team oder dem Drama-Dreieck oder der Paradoxen Intervention. Auch als Impulsgeber für erste Reflexionen kann es nützlich sein. Es kann Fragen formulieren, die einem helfen, die Perspektive zu wechseln.
Doch eines muss klar sein: ChatGPT und andere KI können Coaching nicht ersetzen. Denn eine KI ist kein Mensch. Sie kennt keine Resonanz, keine Biografie, keine Konsequenz, keinen Kontext und sie ist vor allem nicht systemisch. Sie ist ein systematisches Werkzeug, nicht mehr, nicht weniger.
Und jetzt mal Klartext: Risiken für DSGVO & PsychThG
Viele Menschen, die KI im Coaching einsetzen, tun das aus Neugier, Pragmatismus oder Effizienzdenken. Was sie dabei oft nicht bedenken, sind die Risiken und die sind erheblich: fachlich fehlt der KI jegliches Kontextverständniss. Sie hat keine Krisenkompetenz und ist nicht in der Lage, psychische Instabilität zu erkennen und zu intervenieren.
Auch rechtlich bewegen sich Anbieter von KI-basierten Coachinglösungen in einem Graubereich. Die Gefahr von Datenschutzverletzungen nach der DSGVO ist real, insbesondere wenn personenbezogene Daten auf nicht europäischen Servern verarbeitet werden. Wer therapeutisch wirksame Aussagen trifft, ohne zugelassener Psychotherapeut zu sein, kann sich in Deutschland strafbar machen. Maßgeblich hierfür ist das Psychotherapeutengesetz (PsychThG), insbesondere die Paragraphen 1 bis 4. Aber gilt das auch für KI?
Ethisch betrachtet entsteht eine trügerische Sicherheit: Nutzerinnen und Nutzer glauben, empathisch begleitet zu werden, obwohl sie in Wahrheit auf Texte reagieren, die generisch erstellt sind, auf Basis von logischen Silbenkombinationen. Die KI erkennt keine Trigger, keine Traumainhalte, keine Zusammenhänge. Sie spiegelt keine Haltung, keine Verantwortung, keine Integrität. Sie ist eine „Silben-Würfel-Maschine“.
Ich will KI nicht verteufeln, doch sie kann keine Haltung ersetzen
Wer mit Menschen arbeitet, trägt Verantwortung. Für Coaches, Führungskräfte und beratende Personen bedeutet das, sich der eigenen Rolle bewusst zu sein und das eigene Werkzeug zu kennen. Es bedeutet, sich selbst zu hinterfragen: Wo verlasse ich den sicheren Boden meiner Profession? Es bedeutet, Klientinnen und Klienten transparent aufzuklären, wo KI als Werkzeug hilfreich sein kann und wo sie nichts zu suchen hat. Es bedeutet, dem Sog der vermeintlichen Effizienz zu widerstehen und stattdessen durchweg professionell zu bleiben, mit Ecken, Kanten, mit Haltung und Ethik und vor allem mit Verantwortung.
KI hat zumindest einen echten Pluspunkt, denn sie ist nicht Befangen. In sich ist sie neutral und das im Kern. Doch sie ist so aufgestellt, dass sie freundlich ist und nicht von sich aus pieksig wird. Sie ist wie die Schlange Kaa aus dem Dschungelbuch und ihr Auftrag ist, dafür zu sorgen, dass alle Entitäten vor dem Schirm sich wohlfühlen. Wenn wir die Person die da promptet einmal in ihrer realen eigenen Befangenheit sehen, kann die KI, die da instruiert wird auch nur befangen sein. Insofern stimmt das mit der Neutralität und der nicht Befangenheit vielleicht gar nicht?
Warum ein menschliches Gegenüber unersetzlich ist
Ein erfahrener Coach bringt nicht nur ein methodisches Repertoire mit, sondern verfügt (hoffentlich) über die Fähigkeit, auf einer zwischenmenschlichen, nicht skriptierten Ebene zu arbeiten. Er oder sie ist in der Lage, durch bewusste Präsenz, Intuition und feine Wahrnehmung von nonverbalen und paraverbalen Signalen, genau jene Themen zu identifizieren, die der Coachee, bewusst oder unbewusst, vermeidet. Diese Fähigkeit, in den Raum zwischen Worten und Reaktionen zu fühlen und zu hören, erlaubt es einem professionellen Coach, nicht bei der Oberfläche stehen zu bleiben, sondern den Klienten behutsam, aber konsequent zu dem inneren Punkt zu führen, an dem echte Transformation beginnt. Sie erlaubt es einem Coach auch, das Problem hinter dem Problem zu erkennen oder Phänomene wie Projektion, Übertragung, Double Binds und versehentliche Aufstellung zu identifizieren.
Das zu tun, dazu gehört Mut und die Fähigkeit zur Konfrontation. Während eine KI höflich bleibt, keine Widerstände spiegelt und sich in semantischer Neutralität wiegt, geht ein guter Coach genau dort hin, wo es unangenehm wird. Nicht um zu provozieren – sondern weil dort oft die wahre Blockade sitzt.
Ein menschliches Gegenüber kann zugleich Rücken stärken, Mut machen und Orientierung geben. Ein Mensch kann mitfühlen, ohne sich zu verlieren, kann „Händchen halten“, wo emotionale Sicherheit gebraucht wird und gleichzeitig konsequent bleiben, wenn eine klare Führung notwendig ist. Ein menschlicher Coach erkennt, wann eine Methode nicht greift, wann ein Prozess stagniert, wann etwas abgebrochen werden muss und wann ein neuer Weg notwendig ist.
Im Leadership Campus coachen wir und nutzen KI verantwortungsbewusst
Beim Leadership Campus beschäftigen wir uns seit vielen Jahren mit der Schnittstelle zwischen echter Persönlichkeitsentwicklung, systemischer Führung und neuen technologischen Möglichkeiten. Wir wissen, wie mächtig KI sein kann. Wir kennen unser Fach und unsere Methodik. Wir haben unsere Erfahrungen und genau so setzen wir KI bewusst ein.
Wir arbeiten immer häufiger mit Menschen, die mit von KI entwickelten Plänen, KI generierten Reflexionsfragen und digitalen Tagesstrukturen bei uns anklopfen, weil sie merken, dass sie nicht wirklich weiterkommen. Sie stellen irgendwann fest, dass ihnen niemand dabei hilft, ihre innere Befangenheit zu erkennen, geschweige denn, sie zu überwinden. Genau das ist unser Job: als Coaches bringen wir Menschen von einem Zustand in einen anderen. Wir helfen Menschen sich zu verändern.
Wir sind nicht nur fachlich ausgebildet. Nein, wir sind vielfach zertifiziert, systemisch geschult und in der Lage, auch komplexe Dynamiken in Führungsteams, Organisationen und persönlichen Lebensgeschichten zu erkennen und zu begleiten. An unser Netzwerk und unsere Kollegen, mit den wir kooperieren, legen wir denselben Anspruch. Wir sind Profiler, Coaches, Wirtschaftsmediatoren, Konfliktexperten und Sparringspartner. Wir wissen, was wir können und vor allem wissen wir genau, was wir nicht können. Und wir erkennen deshalb sofort, was eine KI kann und wir erkennen, wann sie beginnt, Bullshit zu produzieren.
Was uns auszeichnet, ist nicht nur unser methodisches Know How, sondern unsere Fähigkeit, mit scharfem Verstand und tiefer menschlicher Intuition zu arbeiten. Unsere Erfahrung aus hunderten von Führungskontexten, Krisensituationen und Transformationsprozessen zeigt, dass den entscheidenden Unterschied nicht macht, wer die besseren Tools hat, sondern wer den Mut hat, voll und ganz Mensch zu sein. Nicht nur im Verhalten, sondern mit fachlicher Expertise, mit Werten, Wunden, Schleifen und seinen Potenzialen.
So. Das musste mal raus. Wenn du also echtes Coaching willst, dann komm zu uns. Wir reden dir nicht nach der Schnauze – ganz im Gegenteil!