KI-Forscher Michael Gerlich warnt vor Denk-Auslagerung an ChatGPT: Chance oder Risiko?

KI-Forscher Michael Gerlich warnt vor der kognitiven Abhängigkeit von ChatGPT, zeigt aber auch, wie durchdachte KI-Nutzung das kritische Denken fördern kann.

KI-Forscher Michael Gerlich warnt vor Denk-Auslagerung an ChatGPT: Chance oder Risiko?

📅

✍️

⏱️

2–3 Minuten

📚

Denken an ChatGPT auslagern – klingt praktisch, birgt aber eine große Gefahr, warnt KI-Forscher Michael Gerlich im Interview. Gleichzeitig zeigt er, dass KI das kritische Denken auch fördern kann, wenn man es richtig anstellt.

KI-Forscher Michael Gerlich warnt vor kognitiver Auslagerung an ChatGPT

Michael Gerlich, ein ausgewiesener Experte im Bereich Künstliche Intelligenz, hat im Gespräch mit heise eine klare Warnung ausgesprochen: Das blinde Auslagern von Denkvorgängen an generative KI-Modelle wie ChatGPT kann langfristig fatale Folgen für unser kritisches Denken haben. Die „kognitive Auslagerung“ beschreibt dabei den Prozess, dass Menschen immer mehr Verantwortung für Denk- und Urteilsprozesse an KI-Systeme abgeben, aus Bequemlichkeit oder Vertrauensvorschuss. Seine jüngste Studie zeigt, dass sich dadurch vor allem bei jungen Menschen die Fähigkeit zum eigenständigen kritischen Denken gar nicht erst richtig ausbildet oder bei älteren Nutzern regressiv zurückgeht.

Chancen durch durchdachte KI-Nutzung: Kritisches Denken fördern statt ersetzen

Doch Gerlich sieht das Thema nicht nur schwarz. Er betont, dass eine bewusste und reflektierte Nutzung von KI-Systemen das kritische Denken sogar fördern kann. Auf einem Expertentreffen bei Google DeepMind im November 2025 stieß seine Studie auf breite Zustimmung, theoretisch können KI-Tools den Denkprozess unterstützen, wenn sie nicht als Denk-Ersatz eingesetzt werden, sondern als Ergänzung. Die Herausforderung liegt also darin, wie ihr KI-Werkzeuge wie ChatGPT nutzt: Wenn ihr die Ergebnisse hinterfragt und aktiv mitdenkt, kann KI zum Katalysator für tiefergehendes Verständnis werden.

Vertrauensspirale und Risiken: Wie eine positive Erfahrung zur Abhängigkeit führt

Gerlich beschreibt in der Forschung eine „Vertrauensspirale“, die entsteht, wenn Nutzer einmal positive Erfahrungen mit KI-Systemen gemacht haben. Diese führen dazu, dass sie zunehmend mehr Aufgaben an die KI delegieren. Je mehr das passiert, desto stärker wird die kognitive Abhängigkeit, und desto weniger fordert ihr euer eigenes kritisches Denken heraus. Das Problem: Die KI ist kein unfehlbarer Denkpartner, sondern produziert auch Fehler und falsche Informationen, gerade bei komplexen oder kontroversen Themen. Ein blindes Vertrauen kann daher gefährlich sein.

Wusstest du schon?

…dass Organisationsexperten davor warnen, dass automatisierte Entscheidungsunterstützung die Team-Kultur verändern kann?
Studien aus dem Bereich Organisationsverhalten zeigen, dass das häufige Delegieren von Denkprozessen an KI-Agenten dazu führen kann, dass Menschen nicht nur weniger selbst denken, sondern auch weniger in Diskussionen eingebunden sind, hierdurch können Vertrauen, Teamdynamik und Kreativität im Arbeitskontext leiden.

Leider fehlen in den verfügbaren Quellen konkrete Beispiele, wie genau eine durchdachte KI-Nutzung in der Praxis aussehen sollte oder welche Methoden sich bewährt haben. Auch bleibt offen, wie Bildungseinrichtungen und Arbeitgeber mit diesem Spannungsfeld umgehen können.

Für euch als Technik- und KI-Interessierte ist das ein wichtiges Signal: Nutzt Tools wie ChatGPT bewusst und kritisch, statt euch nur auf deren Antworten zu verlassen. Das gilt besonders in der deutschen Debatte über generative KI, wo die Balance zwischen Innovation und kritischer Reflexion gerade heiß diskutiert wird.

Insgesamt zeigt das Interview mit Michael Gerlich, dass KI nicht nur eine Gefahr für unser Denken ist, sondern auch eine Chance, wenn wir sie nicht zur Denkfaulheit verkommen lassen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert