Strategische Klarheit beginnt nicht bei ChatGPT
Ich liebe ChatGPT. Ich nutze es oft. Gerade wenn es schnell gehen muss, liefert es Struktur, Argumente und erste Textentwürfe. Aber genau das macht es auch so gefährlich – vor allem dann, wenn wir uns selbst um Klarheit drücken.
Neulich habe ich bewusst gesagt: Nein – kein Text von der KI. Nicht, weil ich gegen Technologie bin. Sondern weil ich merke, wie ich zunehmend verlerne, selbst loszudenken. Wie die Schwelle höher wird, mich mit meinen eigenen Gedanken auseinanderzusetzen – erst recht, wenn sie noch nicht rund oder klar sind.
Was wir verlieren, wenn wir zu früh abgeben
Gute Strategiearbeit beginnt selten mit Klarheit. Sie beginnt mit Reibung, mit Fragen, mit Widersprüchen. Mit Unschärfe, die nicht durch Tools oder Templates verschwindet. Wenn wir diesen Teil auslassen – wenn wir KI bitten, die Struktur vorzugeben, bevor wir verstanden haben, worum es eigentlich geht – dann setzen wir auf etwas, das bestenfalls glatt, aber selten tragfähig ist.
Studien zeigen, dass KI-Nutzer:innen weniger aktiv denken, ihre Kreativität stärker auslagern und sogar weniger neuronale Aktivität zeigen – selbst bei scheinbar einfachen Aufgaben. Eine Untersuchung des MIT Media Lab hat belegt: Die Nutzung von ChatGPT führt zu deutlich geringerer Gehirnaktivität im Vergleich zu freiem Denken.
KI ist kein Denk-Ersatz
Für mich ist ChatGPT ein Werkzeug. Und ich nutze es gerne – zum Korrekturlesen, zum Testen von Argumenten, zum Erweitern von Perspektiven. Aber ich möchte nicht, dass es mir die Verantwortung für meinen eigenen Denkprozess abnimmt.
Denn wenn ich einen Text selbst schreibe – auch wenn es länger dauert, auch wenn ich mich mehrfach korrigiere – dann weiß ich, was ich meine. Dann bin ich in meiner Haltung klar. Und kann sie auch vertreten.
Was KI heute nicht kann: kritisch widersprechen, nachhaken, tiefer fragen. Sie ist affirmativ. Sie gibt zurück, was wir hören wollen – nicht, was wir kritisch prüfen sollten. Das birgt eine stille Gefahr für alle, die Orientierung suchen – aber nur Zustimmung bekommen.
Ohne Reibung keine Reifung. Was bequem ist, bringt selten Klarheit.
Wenn KI zu nett ist: der Komfort der Bestätigung
Eine aktuelle Auswertung der Harvard Business Review zeigt: 2025 nutzen Menschen KI wie ChatGPT am häufigsten für emotionale Begleitung, Lebensstrukturierung und sogar Sinnfindung. Das klingt nach Fortschritt – ist aber auch Ausdruck eines strukturellen Problems.
In vielen Ländern – auch in Deutschland – fehlen Therapieplätze. Wer reflektieren will, bekommt keinen Termin. Und so wird KI zum Ersatzgesprächspartner.
Aber: KI widerspricht nicht. Sie hält nicht den Spiegel vor. Sie stellt keine Fragen, die wirklich wehtun. Sie ist darauf ausgelegt, hilfreich zu wirken – nicht, uns zu irritieren.
Und genau darin liegt die Gefahr: Ohne Reibung keine Reifung. Was bequem ist, bringt selten Klarheit.
Was das mit Führung zu tun hat
Mich beschäftigt: Wie gehen eigentlich Führungskräfte mit dieser Verlockung um? Lassen sie sich von der KI Antworten liefern – oder halten sie es aus, erst einmal keine zu haben?
Denn wer in komplexen Märkten agiert, braucht keine schlauen Textbausteine – sondern Orientierung. Und die entsteht nicht durch KI-generierte Strategiepapiere, sondern durch echte Auseinandersetzung mit dem Außen, mit Ambivalenz und mit Verantwortung.
Forscher:innen warnen zudem: Die Geschwindigkeit, mit der heute Informationen verfügbar sind, ist so hoch, dass sinnhaftes Nachdenken oft nicht nachkommt. Strategie braucht Zeit, Reibung – und die Bereitschaft, Unsicherheit auszuhalten, bevor Entscheidungen getroffen werden.
Frage zum Mitnehmen
Wie viel Unschärfe und Reibung hältst du aus, bevor du nach schnellen Antworten greifst?
👉 Du suchst strategische Klarheit, die mehr ist als eine schöne Formulierung?
Dann begleite ich dich gern dabei, Fragen zu stellen, die echte Ausrichtung schaffen.
Mehr über mich und meine Arbeit: www.franziskavieser.com
Quellen & Studien
- Microsoft Research (2025): AI & Critical Thinking Survey.
https://www.microsoft.com/en-us/research/wp-content/uploads/2025/01/lee_2025_ai_critical_thinking_survey.pdf
- TIME Magazine (2025): What Are Students Losing When AI Does the Work for Them?
https://time.com/7295195/ai-chatgpt-google-learning-school
- New York Magazine / Intelligencer (2024): OpenAI, Cheating, and the Death of the College Essay.
https://nymag.com/intelligencer/article/openai-chatgpt-ai-cheating-education-college-students-school.html
- MIT Media Lab (2024): AI Use and Reduced Neural Activity in Creative Problem Solving.
https://its.uri.edu/2024/11/25/empowering-students-critical-thinking-can-balance-curiosity-and-caution-with-ai
- MDPI (2024): AI and the Loss of Critical Dialogue.
https://www.mdpi.com/2075-4698/15/1/6
- Harvard Business Review (2025): Top Use Cases of AI in 2025
https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025