Dümmer werden mit KI. Wege aus der Falle
Mitten in Berlin habe ich mich verfahren. Zweimal war ich an Kreuzungen im Altbau-Wohngebiet hoffnungsvoll abgebogen, nur um festzustellen, dass auch dies nicht die richtige Straße war. Ich fluchte. Blödes Smartphone, dumme Navigationsapp. Externalisieren nennt man das. Denn blöd und dumm war ich. Blöd, weil ich mein Smartphone im Büro hatte liegen lassen und dumm, weil ich mir den Weg nicht gemerkt hatte. Ich war ihn schon dreimal gefahren, immer mit NavigationsAPP, immer mit den Gedanken woanders. Ich war der Stimme der App stumpf gefolgt ohne mir die Strecke einzuprägen. Was ein leichtes hätte sein können, wenn ich sie mir nach der Fahrt nochmal vergegenwärtigt hätte oder sie mir auf dem alten Falk-Faltplan, der irgendwo im Handschuhfach – lag, angesehen hätte.
Doch so macht man das nicht mehr. Was „man“ stattdessen macht, ist, langsam das räumliche Vorstellungs- und Erinnerungsvermögen zu verarmen. Eventuell sogar zu verlieren. Aus Faulheit selbstverschuldete Verdummung und Verunfähigung. Statt nachzudenken, welche Strecke ich nehmen könnte und dann mit der APP die beste Strecke zu verifizieren, greife ich lieber bequem gleich zum Handy.
„If you don‘t use it, you loose it“ lautet ein Grundsatz in der biologischen Vielfalt. Der Satz ist universell. Er ist anwendbar auf Körpermuskeln, handwerkliches Geschick, virtuose Gesangskünste – und das Gehirn mit seiner Vorstellungskraft, Kreativität, Intuition, assoziativen Verknüpfung, seinen Ideen und originellen Lösungsvorschlägen.
Das mit der Navigation per App und nicht per Hirn, das ist nur der Anfang. Seit Chatbots, allen voran ChatGPT verfügbar sind, ist der Weg in die Verdummung breit und attraktiv.
Meine Studierenden an der ESCP, der European Business School, verrieten mir unlängst, dass sie bei Geräten, die sie nicht zu bedienen wüßten, das Nutzungsboard abfotografierten und ChatGPT fragten, wie es funktioniert. Im April 2025 hat die Nutzerbasis von ChatGPT jeden zehnten Menschen auf der Welt erreicht. Es sind etwa 800 Millionen Nutzer und etwa 1,5 Milliarden Besuche pro Monat[i]. Welche Folgen hat das fürs Gehirn?
Nach jüngster neurowissenschaftlicher Forschung verändern sich die Nervenzellen und deren Verbindungen entsprechend unserer Erfahrungen ständig. In IT-Sprech heißt das, dass sich die Hardware (Nervenzellen und Verbindungen) an die Software (unsere Erfahrungen) anpassen. Das Gehirn, plastisch und sich ständig verändernd, formt sich anhand dessen, was man ihm als Input anbietet, um die Informationen besser verarbeiten zu können. Die praktischen und gesellschaftlichen Konsequenzen von Chatbots und „Alltags-KI“ werden kaum diskutiert[ii]
Eine MIT-Studie[iii] mit 54 Probanden teilte diese in drei Gruppen ein. Alle schrieben über mehrere Monate Essays für den schulischen Aufnahmetest SAT (Schorlarly Assessment Test). Eine Gruppe nutzte nur ihr eigenes Gehirn, die zweite Google Search, die dritte ChatGPT. Die Gehirnwellen wurden gemessen, sowohl während als auch nach dem Test. Die Neurokonnektivität der Probanden, die nur ihr eigenes Gehirn nutzten, war in den Bereichen Gedächtnis, Kreativität und Prozessabläufe wesentlich höher als bei den Vergleichsgruppen. Außerdem waren die Probanden engagierter und zufriedener mit dem Ergebnis. Die inhaltliche Bewertung der Essays ergab, dass es den Essays der CHatGPT-Nutzer:innen an inspirierenden und originellen Gedanken mangelte und dass ihre Gehirnaktivität über den Versuchszeitraum immer geringer wurde.
Für Gehirnnachdenkende ist das Ergebnis wenig überraschend: „If you don‘t use it, you loose it“.
Menschen haben kognitive Fertigkeiten schon immer ausgelagert[iv]. Das Problem sei nicht, schreibt Jan Lutz[v], sich technischer Hilfsmittel zu bedienen, etwa einer Rechenmaschine, eines Taschenrechners, eines Diktiergeräts, sondern, dadurch seines kritischen Denkens verlustig zu gehen. Kritisches Denken? Uns ist es nicht bewusst, aber das ist es, was wir seit Beginn der Schulzeit bis zum Ende der Ausbildung als abendländisches Denken lernen und unser Leben lang anwenden (sollten): faktengestütztes Nachdenken, ohne sich zu sehr von Gefühlen oder Meinungen beeinflussen zu lassen. Dazu gehören lt. Wikipedia logische Prinzipien, Beweisstandards und sorgfältige Argumentation bei der Analyse und Diskussion von Informationen, Behauptungen, Überzeugungen und Problemen, um zu einem eigenen Urteil zu gelangen. Um zu einem eigenen Urteil zu gelangen!
Genau das ist die Versuchung, die uns Chatbots aussetzen: Das eigene Urteil auszulagern und es einem Large Language Model zu überlassen. Der Kantsche Appell, sich des eigenen Verstandes zu bedienen, um aus der selbstverschuldeten Unmündigkeit zu befreien. Die eigene Urteilskraft hintanzustellen, indem man aus Faulheit oder Unsicherheit auf etwas vertraut, was möglicherweise halluziniert oder einseitig trainiert wurde und dessen Operationen weder vorhersehbar noch kontrollierbar sind.
Wie entgehe ich den Versuchungen des Chatbots? Es ist einfach. Aber nicht leicht. Die Disziplin liegt darin, stets vorher nachzudenken und dann erst zum IT-Tool zu greifen. Die vorschlagenen Ergebnisse muss ich danach kritisch reflektieren. Als erster Ansatz hilft der gesunde Menschenverstand (vorausgesetzt, er ist mir noch nicht abhandengekommen): „Kann das sein?“. Zweite Frage: Stimmt es mit meinen Daten und Informationen überein? Was könnte halluziniert sein?“[vi], und daran anschließend: „Wie bzw. wo kann ich die Vorschläge des Chatbots überprüfen?“ Die Liste weiterer der Fragen ist lang und kommt auf die dem Chatbot, Navi oder IT Tool gestellte Frage an.
Nur wenn ich kritisches Denken anwende, statt es auszulagern, kann das IT-Werkzeug meine Erkenntnisse bereichern und mich inspirieren. Sonst werde ich dümmer und dümmer, genährt von zunehmender Faulheit und Unsicherheit.
Was gilt es zu tun? Auch hier hilft, wie in den meisten Aspekten des Lebens, das eigene Denken und das eigene Selbst-Gewahrsein zu schulen. Vor allem Letzteres. Mein Selbst-Gewahrsein warnt mich vor Faulheit und es unterstützt angemessenes Selbstvertrauen. Ich weiß, was ich weiß. Ich vertraue wachsam meinen eigenen Einschätzungen und Entscheidungen und überprüfe, was mir angeboten wird. Ich widerstehe einer bequemen Auslagerung der Entscheidung auf elektronische Hilfsmittel, weil ich um die längerfristige Wirkung auf mein Gehirn, mein Leben und meine Eigenständigkeit weiß. Ich steuere aktiv entgegen. Ich bleibe Herrin der Lage. Der Chatbot ist mein Werkzeug, über das ich entscheide. Ich bin die Hexenmeisterin und beherrsche meine Zaubersprüche, ich kann die Wasserfluten dämmen.
Wir stehen an der Schwelle, zu entscheiden, ob wir weiter in die selbst verschuldete Unmündigkeit hineinschlittern oder uns unseres eigenen Verstandes zu bedienen wissen. Es wäre interessant, zu erfahren, welchen Aufsatz Kant heute schriebe.
[i] https://doit.software/de/blog/chatgpt-statistiken
[ii] Spitzer, Manfred, Künstliche Intelligenz. Dem Menschen überlegen – wie KI uns rettet und bedroht, Droemer 2023, S. 83.
[iii] https://www.media.mit.edu/projects/your-brain-on-chatgpt/overview/
You-Tube Zusammenfassung für Eilige: Today I learned science:  Your brain on chatgpt https://www.youtube.com/watch?v=wFKtxnggQ3w
[iv] Michael Gerlich, AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking, in: Societies 2025, 15,6, https://www.mdpi.com/2075-4698/15/1/6.
[v] https://www.handelsblatt.com/technik/ki/kuenstliche-intelligenz-werde-ich-duemmer-seit-ich-ki-nutze/100157138.html
[vi] https://www.handelsblatt.com/unternehmen/management/kuenstliche-intelligenz-wir-muessen-selbst-nachdenken-sonst-verkuemmert-unser-gehirn/100159115.html