Was wir für Lernen halten, ist oft keines mehr!
Was wir für Lernen halten, ist oft keines mehr!
16.04.26
In der Lernpsychologie ist gut belegt, dass Menschen Informationen dann für besonders gut verstanden halten, wenn sie leicht zu verarbeiten sind. Generative KI-Systeme sind in besonderer Weise darauf ausgelegt, genau diesen Eindruck zu erzeugen. Deshalb sollten Hochschulen dafür Sorge tragen, dass didaktische Überlegungen in den KI-Debatten und -strategien nicht zu kurz kommen.
Die falsche Debatte
In der aktuellen Diskussion über generative KI in der Hochschulbildung stehen häufig Fragen der Integration im Vordergrund: Wie können wir KI sinnvoll einsetzen? Welche Kompetenzen brauchen Studierende im Umgang mit den neuen Werkzeugen? Und wie lassen sich Prüfungsformate anpassen?
Diese Fragen sind wichtig – und sie dominieren zu Recht einen großen Teil des Diskurses. Gleichzeitig habe ich den Eindruck, dass sie eine grundlegende Verschiebung nur unzureichend erfassen. Denn sie setzen voraus, dass wir noch hinreichend klar bestimmen können, was Lernen ist und woran wir es erkennen. Genau diese Selbstverständlichkeit beginnt sich gerade zu verändern. Während wir darüber diskutieren, wie KI in bestehende Strukturen integriert werden kann, verschiebt sich im Hintergrund die Beziehung zwischen Lernen, Verstehen und Leistung. Die Herausforderung liegt dabei weniger in der Sichtbarkeit von Veränderungen als in ihrer Unsichtbarkeit.
Das Missverständnis von Verstehen
Ein typischer Moment aus der Lehre kann diese Verschiebung greifbar machen. Studierende nutzen generative KI, um sich komplexe Inhalte erklären zu lassen. Die Antworten sind klar strukturiert, sprachlich präzise und unmittelbar anschlussfähig. Häufig folgt darauf die Rückmeldung: „Jetzt habe ich es verstanden.“
Dieses Gefühl ist nicht trivial. Es ist ein zentrales Element von Lernprozessen. Gleichzeitig ist es genau der Punkt, an dem sich derzeit eine problematische Verschiebung zeigt. Denn das Erleben von Klarheit ist nicht identisch mit dem Aufbau von Kompetenz. Was hier entsteht, ist häufig ein Zustand, in dem Inhalte leicht nachvollziehbar erscheinen, ohne dass sie tatsächlich internalisiert wurden. Die Informationen sind präsent, zugänglich und scheinbar beherrschbar. Doch die Fähigkeit, sie eigenständig zu rekonstruieren, anzuwenden oder zu übertragen, bleibt oft begrenzt.
Die Differenz ist schwer zu erkennen – insbesondere für die Lernenden selbst. Genau darin liegt ihre didaktische Brisanz.
Wenn gute Erklärungen schlechtes Lernen erzeugen
Dieser Effekt ist kein neues Phänomen, erhält durch generative KI jedoch eine neue Qualität. In der Lernpsychologie ist gut belegt, dass Menschen Informationen dann für besonders gut verstanden halten, wenn sie leicht zu verarbeiten sind. Daniel Kahneman beschreibt dieses Phänomen als „kognitive Leichtigkeit“: Was sich mühelos erschließt, wird als vertraut, plausibel und beherrschbar erlebt.
Generative KI-Systeme sind in besonderer Weise darauf ausgelegt, genau diese Form der Leichtigkeit zu erzeugen. Ihre Antworten sind kohärent, konsistent und sprachlich glatt. Sie vermeiden Ambiguitäten, strukturieren Inhalte klar und passen sich flexibel an das Vorwissen der Nutzenden an.
Damit entsteht eine Form der Verständlichkeit, die über viele traditionelle Lernmaterialien hinausgeht. Gerade diese Stärke wird jedoch zum Problem. Denn sie erzeugt eine systematische Verzerrung: Die Qualität der Darstellung wird mit der Qualität des eigenen Verständnisses verwechselt. Studierende erleben sich als kompetent, weil die Inhalte kompetent präsentiert werden. Die Grenze zwischen externer Struktur und interner Verarbeitung wird unscharf.
Die Eliminierung von Anstrengung
Ein zweiter, eng damit verbundener Aspekt betrifft die Rolle von Anstrengung im Lernprozess. Nachhaltiges Lernen ist selten ein reibungsloser Vorgang. Es ist geprägt von Unsicherheit, Irritation und kognitiver Belastung. Wer versucht, einen Sachverhalt eigenständig zu formulieren, stößt auf Lücken im eigenen Verständnis. Wer ein Problem löst, macht Fehler und korrigiert sie. Gerade diese Prozesse tragen dazu bei, stabile Wissensstrukturen aufzubauen.
In der Lernforschung werden solche Effekte als „produktive Lernschwierigkeiten“ beschrieben. Sie erhöhen kurzfristig den Aufwand, verbessern aber langfristig die Behaltensleistung und Transferfähigkeit.
Kompetenz, die nie entstanden ist
Wenn Antworten durch generative KI unmittelbar verfügbar werden, reduziert das die Notwendigkeit eigener kognitiver Arbeit. Zwischenschritte entfallen, Suchprozesse werden verkürzt, Unsicherheiten werden schnell aufgelöst. Was aus Sicht der Nutzung als Effizienzgewinn erscheint, ist aus lernpsychologischer Perspektive ambivalent.
Denn mit der Reduktion von Reibung geht auch ein Rückgang jener Prozesse einher, die für die Konsolidierung von Wissen entscheidend sind. Wenn lernbezogene kognitive Beanspruchung systematisch verringert wird, gerät das Fundament nachhaltigen Lernens unter Druck.
Warum niemand das Problem bemerkt
Bis hierhin ließe sich argumentieren, dass KI vor allem zu weniger Lernen führt. Eine solche Diagnose wäre anschlussfähig an frühere Debatten über technologische Veränderungen. Die aktuelle Situation unterscheidet sich jedoch in einem entscheidenden Punkt: Der Kompetenzverlust bleibt häufig unsichtbar.
Studierende erleben sich nicht als weniger leistungsfähig. Im Gegenteil: Die Verfügbarkeit überzeugender Ergebnisse stabilisiert das Gefühl, den Anforderungen gewachsen zu sein. Aufgaben lassen sich scheinbar problemlos bewältigen, Texte entstehen in kurzer Zeit, Rückmeldungen bleiben positiv.
Diese Konstellation führt zu einer systematischen Fehlkalibrierung. Die eigene Kompetenz wird überschätzt, weil die Bedingungen der Leistungserbringung verzerrt sind. Wissen ist nicht nur verfügbar, sondern jederzeit reproduzierbar. Die Grenze zwischen eigenem Können und externer Unterstützung verschwimmt. Damit entsteht eine neue Qualität des Problems. Es geht nicht mehr primär um fehlende Kompetenz, sondern um die Illusion von Kompetenz.
Ein sich selbst verstärkender Kreislauf
Diese Illusion bleibt nicht folgenlos. Sie entwickelt eine eigene Dynamik, die sich über die Zeit stabilisieren kann. Je häufiger KI genutzt wird, desto seltener sind Situationen, in denen eigenständige Rekonstruktion erforderlich ist. Je seltener solche Situationen auftreten, desto weniger Gelegenheiten gibt es, die eigene Kompetenz realistisch einzuschätzen. Gleichzeitig verstärken überzeugende Ergebnisse das Vertrauen in die eigene Leistungsfähigkeit. Es entsteht ein Kreislauf, in dem Nutzung, Wahrnehmung und tatsächliche Kompetenzentwicklung ineinandergreifen.
Besonders problematisch wird dieser Kreislauf dort, wo er abrupt unterbrochen wird – etwa in Kontexten, in denen KI nicht verfügbar ist oder nicht ausreicht. Dann wird sichtbar, was zuvor verborgen blieb. Die Differenz zwischen wahrgenommener und tatsächlicher Kompetenz tritt offen zutage. Zu diesem Zeitpunkt ist sie jedoch oft bereits groß.
Konsequenzen für Hochschulen
Für Hochschulen ergibt sich daraus eine Herausforderung, die über Fragen der Integration von KI hinausgeht. Viele aktuelle Ansätze setzen auf die Förderung von KI-Kompetenz, auf kritische Nutzung und reflektierte Anwendung. Diese Perspektiven sind notwendig, adressieren jedoch nur einen Teil des Problems. Denn sie setzen voraus, dass Lernende ihren eigenen Kompetenzstand realistisch einschätzen können. Genau diese Voraussetzung wird durch die beschriebenen Effekte untergraben.
Wenn Studierende systematisch überschätzen, was sie verstanden haben, verlieren zentrale didaktische Mechanismen an Wirksamkeit. Feedback erreicht die Lernenden weniger präzise, Selbststeuerung wird erschwert, und auch Motivation kann auf einer verzerrten Grundlage beruhen. Damit verschiebt sich die Aufgabe von Hochschulen: Es geht nicht mehr nur darum, Lernprozesse zu ermöglichen und zu begleiten. Es wird zunehmend darum gehen, sie wieder sichtbar zu machen.
Vom Produkt zum Prozess
Ein möglicher Ansatz liegt in einer stärkeren Prozessorientierung. Wenn Ergebnisse allein keine verlässliche Aussage mehr über Kompetenz erlauben, rückt der Weg zu diesen Ergebnissen in den Mittelpunkt.
Die Frage verschiebt sich von dem, was produziert wurde, hin zu der Art und Weise, wie es entstanden ist.
Das betrifft etwa:
- die Rekonstruktion von Lösungswegen
- die Reflexion eigener Unsicherheiten
- die Sichtbarmachung von Denkprozessen
Eine solche Perspektive ist anspruchsvoll, weil sie etablierte Routinen der Hochschulbildung infrage stellt. Sie erfordert neue Formen der Beobachtung, Bewertung und Rückmeldung. Gleichzeitig eröffnet sie die Möglichkeit, Lernen stärker an den Prozessen auszurichten, die tatsächlich zum Aufbau von Kompetenz beitragen.
Ein System, das sich selbst täuscht
Die gegenwärtige Diskussion über KI wird häufig als Gestaltungsaufgabe beschrieben. Diese Perspektive ist hilfreich, weil sie Handlungsspielräume betont. Sie sollte jedoch um eine analytische Dimension ergänzt werden.
Generative KI verändert nicht nur, wie gelernt wird. Sie verändert, wie Lernen wahrgenommen wird. Gerade darin liegt ihre besondere Herausforderung. Denn wenn sich Verstehen einstellen kann, ohne dass Verstehen stattfindet, verlieren wir einen zentralen Bezugspunkt für die Einschätzung von Kompetenz. Die Frage, was Studierende wissen und können, lässt sich dann nicht mehr allein über Ergebnisse beantworten.
Fazit: Eine einfache Frage wird schwierig
Die Herausforderung, vor der Hochschulen stehen, ist weniger eine technische als eine epistemische. Sie betrifft die Grundlagen dessen, was wir unter Lernen verstehen und wie wir es erkennen.
Generative KI verschiebt diese Grundlagen, ohne sie unmittelbar sichtbar zu machen. Damit rückt eine scheinbar einfache Frage in den Mittelpunkt – eine Frage, die in Zukunft schwerer zu beantworten sein wird als bisher: Woran erkennen wir eigentlich noch, dass jemand etwas gelernt hat?
Autor
Roland Böttcher ist Professor für Betriebswirtschaftslehre an der Hochschule Bochum und leitet das interdisziplinäre DigiTeach-Institut für digitale Transformation und E-Learning. Er beschäftigt sich mit den Auswirkungen generativer KI auf Hochschulbildung, Kompetenzentwicklung und organisationale Entscheidungsprozesse. Seine Arbeit verbindet betriebswirtschaftliche Perspektiven mit hochschuldidaktischer Forschung und analysiert, wie sich Lernen, Lehre und institutionelle Strukturen im digitalen Wandel grundlegend verändern.

Sarah Becker 
Jens Tobor 
Malte Miram 