Zwischen Innovation und „KI-Fail“: Warum Scheitern der Weg zur Best Practice ist
Zwischen Innovation und „KI-Fail“: Warum Scheitern der Weg zur Best Practice ist
20.01.26
Die Integration von Künstlicher Intelligenz in die Hochschullehre wird oft als eine Abfolge von Erfolgsgeschichten porträtiert. Doch hinter vielen funktionierenden „Best Practice“ stehen Experimente, die eine hohe Fehlertoleranz und die Bereitschaft erfordern, Grenzen kontinuierlich neu auszuloten. Im Interview mit Anja Westermann (Projektmanagerin des Hochschulforums im CHE) bietet Felix Averbeck, wissenschaftlicher Mitarbeiter im Projekt „Digitale und virtuelle Lehre in der Sozialen Arbeit“ an der Hochschule Fulda, einen unverfälschten Einblick in diesen Prozess: Am Beispiel eines Online-Moduls in der Sozialen Arbeit zeigt er, wie aus einem konkreten Bedarf an individueller Lernbegleitung ein KI-Projekt entstand und welche didaktischen Fallstricke dabei zutage traten.
Anja Westermann: Was hat dich ursprünglich motiviert, KI-Tools oder KI-basierte Methoden in deiner Lehrveranstaltung auszuprobieren?
Felix Averbeck: Innovative Lehre ist stets mit Experimenten verbunden, die eine hohe Fehlertoleranz voraussetzen. Entsprechend gehört für mich die Bereitschaft, neue Methoden zu erproben und deren Chancen und Grenzen auszuloten, zentral zum Selbstverständnis von Hochschullehre. Im konkreten Modul ergaben sich dafür mehrere Anknüpfungspunkte.
Einerseits bestand auf meiner Seite die Motivation, neue didaktische Ansätze mit KI zu testen. Andererseits verfolgte die modulverantwortliche Professorin das Ziel, die individualisierte Begleitung der Studierenden in einem Online-Modul neu zu denken und die bestehenden technischen Möglichkeiten hierfür gezielt einzusetzen. Gerade in Online-Modulen besteht regelmäßig ein erhöhter Bedarf an individueller Beratung und Begleitung, der über die eigentlichen Online-Veranstaltungen hinausgeht. Studierende tragen hier eine deutlich höhere Eigenverantwortung für die Erarbeitung der Inhalte und die Organisation ihres Lernprozesses.
Damit einher geht häufig der Wunsch nach zeitnahen Rückmeldungen, die zu sehr unterschiedlichen Tageszeiten eingehen. Diese Anforderungen lassen sich mit klassischen Lehr-Lern-Formaten nur begrenzt abdecken. Sie bildeten einen zentralen Ausgangspunkt für den Einsatz eines KI-basierten Unterstützungsangebots.
Westermann: Kannst du kurz schildern, wie genau der KI-Einsatz geplant war?
Averbeck: Es war geplant, einen Chatbot zur zeitlich unabhängigen Begleitung des Lernprozesses einzusetzen. Der Chatbot wurde gezielt für das Modul angepasst und mit verschiedenen Materialien ausgestattet: der Modul- und Prüfungsleistungsbeschreibung, einem als OER bereitgestellten Grundlagenwerk sowie anonymisierten Foreneinträgen aus vorherigen Moduldurchführungen.
Im Prompt wurde der Chatbot in die Rolle einer individuellen Lernbegleitung versetzt. Sein Aufgabenfokus lag auf der Erklärung, Vereinfachung und Vertiefung der Modulinhalte. Gleichzeitig wurde eine klare Begrenzung implementiert. Der Chatbot durfte keine Prüfungsleistungen erstellen oder vorbereiten. Das Ziel bestand darin, die Nutzung als Lernunterstützung zu ermöglichen, ohne dass Studierende die KI zur direkten Erstellung von Prüfungsleistungen einsetzen können.

Westermann: Welche Art von Problemen traten auf, technische, didaktische, organisatorische oder vielleicht ganz andere?
Averbeck: In der finalen Testphase einen Tag vor Modulstart zeigte sich eine relevante Schwachstelle in der vorgesehenen Limitierung. Die Professorin stellte fest, dass der Chatbot trotz der Einschränkungen in der Lage war, eine vollständige Prüfungsleistung im sehr guten Notenspektrum zu generieren. Dies geschah nicht durch die direkte Aufforderung zur Erstellung der gesamten Prüfungsleistung, sondern durch sukzessive Nachfragen nach Beispielen zur Bearbeitung einzelner Aufgabenstellungen, die jeweils auf das konkrete Fallbeispiel der Prüfung bezogen waren.
Diese Lücke konnte kurzfristig geschlossen werden, indem die Prompt-Vorgaben nochmals verschärft wurden. Neben der expliziten Untersagung der Erstellung von Prüfungsleistungen wurde nun auch die Generierung von Beispielen untersagt. Der Fokus wurde stattdessen konsequent auf Rückfragen, Klärungen und Verweise auf das Grundlagenwerk gelegt. Diese Anpassung erwies sich als wirksam: Der Chatbot konnte keine prüfungsrelevanten Inhalte mehr erzeugen, unterstützte aber weiterhin den Lernprozess der Studierenden.
Westermann: Wie haben die Studierenden auf den KI-Einsatz reagiert?
Averbeck: Die Evaluation zeigte, dass etwa ein Drittel der Studierenden den Chatbot genutzt hat, wobei nur ein kleiner Teil ihn regelmäßig eingesetzt hat. Als zentrale Begründung für die geringe Nutzung nannten die Studierenden, dass sie den Austausch mit Kommiliton*innen sowie mit den Lehrenden der Interaktion mit dem Chatbot vorziehen.
Gerade im Kontext eines Online-Moduls ist dieses Ergebnis nachvollziehbar. Da viele Arbeitsprozesse in Einzelarbeit erfolgen, erhält die soziale Interaktion mit anderen Studierenden und Lehrenden einen besonderen Stellenwert. Die Studierenden, die den Chatbot nutzten, bewerteten ihn hingegen überwiegend als hilfreich und förderlich für den eigenen Lernprozess.
Zusammenfassend ergibt sich somit ein gemischtes Bild: Einerseits wird der Chatbot als Lernunterstützung positiv wahrgenommen, andererseits wird er bewusst nicht genutzt, um soziale Interaktion zu ermöglichen. Dieses Spannungsfeld ist vor dem Hintergrund der freiwilligen Nutzung des Chatbots zu interpretieren.
Westermann: Inwiefern hat das „Scheitern“ dir oder deinem Team geholfen, die eigene Lehrpraxis weiterzuentwickeln?
Averbeck: Der zunächst fehlerhafte Prompt führte im Team zu einem hohen Lerneffekt. Seither werden die vorgesehenen Limitierungen von Chatbots deutlich intensiver getestet und bewusst ausgereizt, bevor diese in Lehrveranstaltungen eingesetzt werden. Es zeigte sich gleichzeitig, dass spezialisierte, modulspezifisch trainierte Chatbots Rückfragen nicht nur präziser beantworten, sondern auch qualitativ hochwertige Lösungen generieren können. Dies ist mit allgemeinen Sprachmodellen in dieser Form nicht erreichbar.
Für die Lehrpraxis war zudem aufschlussreich, dass Studierende den Austausch mit realen Personen klar bevorzugen und den Chatbot primär als ergänzendes Angebot wahrnehmen. In zukünftigen Moduldurchführungen sollen daher die Aufgabenformate gezielt angepasst werden, um die Studierenden zu einer aktiven und reflektierten Nutzung des Chatbots anzuregen.
Als besonders bedeutsam erwies sich zudem die Kombination des Chatbots mit einer offenen Kommunikationskultur zur KI-Nutzung im Seminar. Dadurch konnten Unsicherheiten und Ängste abgebaut werden, während gleichzeitig ein gegenseitiges Lernen über sinnvolle Einsatzmöglichkeiten von KI gefördert wurde.
Westermann: Was würdest du Kolleg:innen empfehlen, die über den Einsatz von KI in ihrer Lehre nachdenken?
Averbeck: Eine offene und transparente Kommunikation zwischen Lehrenden und Studierenden ist zentral. Der Einsatz von KI sollte klar an den Modulinhalten orientiert sein und den Studierenden zugleich Sicherheit darüber geben, wie KI für den eigenen Lernprozess sinnvoll und verantwortungsvoll genutzt werden kann. Ebenso notwendig ist eine datenschutzkonforme Nutzung von KI-Tools über Anbieter, die entsprechende technische Standards gewährleisten. Flankierend sind Schulungen erforderlich, die Lehrende und Studierende in der kompetenten und rechtskonformen Nutzung unterstützen.
Darüber hinaus ist eine bewusste Abwägung erforderlich, in welchen Modulen und für welche Inhalte der KI-Einsatz didaktische Mehrwerte bietet und in welchen Fällen ein bewusster Verzicht sinnvoller ist. Wenn diese Entscheidung auf Ebene der Studiengänge erfolgt, kann sie transparent begründet und für Studierende nachvollziehbar gemacht werden.
Damit KI-Experimente im Hochschulkontext gelingen, müssen Unsicherheiten sowohl bei Lehrenden als auch bei Studierenden abgebaut werden. Der Einsatz von KI verändert die klassischen Rollenbilder in der Hochschullehre, da Studierende neue Möglichkeiten zur Gestaltung ihres Lernprozesses erhalten. Lehrende benötigen daher neue technologische Kompetenzen sowie Offenheit und Neugier, um diese Entwicklungen konstruktiv aufzugreifen.
Vor diesem Hintergrund plädiere ich für eine Abkehr vom stetigen Wettlauf um neue Prüfungsformate, die primär darauf abzielen, die Nutzung von KI zu verhindern. Erst wenn sich die Hochschullehre der Technologie öffnet und produktive Formen der Integration in der Lehre und in Prüfungen entwickelt, können Studierende die notwendigen Kompetenzen für eine verantwortungsvolle, ethisch reflektierte und datenschutzkonforme Nutzung von KI in der Praxis erwerben. Dafür braucht es Austauschformate zwischen Lehrenden, institutionelle Unterstützung sowie eine systematische Einbindung studentischer Perspektiven.
Westermann: Welche Rolle spielt deiner Meinung nach eine offene Fehlerkultur, wenn es um Innovation in der Hochschullehre geht?
Averbeck: Eine offene Fehlerkultur ist ein zentraler Bestandteil von Innovationen. Neue Ansätze bewegen sich oft in Bereichen, für die es noch wenige Erfahrungswerte gibt. Fortschritt entsteht daher erst durch das Zulassen von Fehlern und ihre systematische Reflexion im Rahmen von Evaluationen und Weiterentwicklungsprozessen.
In der Hochschullehre verfügen Lehrende grundsätzlich über eine Vielzahl didaktischer Gestaltungsmöglichkeiten. Im Laufe der Berufspraxis selektieren sie, welche Methoden zu ihrem Lehrstil und zu den jeweiligen Inhalten passen. Ähnlich verhält es sich mit KI-gestützten Lehr-Lern-Settings, allerdings macht deren gesellschaftliche Relevanz eine aktive Auseinandersetzung nahezu unumgänglich. Viele Lehrende sehen sich aktuell mit der Herausforderung konfrontiert, ihre bisher bewährten Lehrkonzepte vor dem Hintergrund von KI zu überdenken und gegebenenfalls zu ergänzen.
Um dies bewältigen zu können, braucht es Offenheit für den Austausch mit Studierenden und Kolleg*innen sowie die Bereitschaft, sich partiell aus der klassischen Expert*innenrolle zu lösen und Lernen als gemeinsamen Prozess zu verstehen. Aus meiner fachlichen Perspektive der Sozialen Arbeit stellt sich zudem eine grundlegende Frage der Verantwortung als Lehrperson: Können wir es verantworten, Fachkräfte ohne Kompetenzen im Umgang mit KI in den jeweiligen Themenfeldern auszubilden?
Angesichts der potenziellen Risiken unethischer oder rechtswidriger KI-Nutzung in der Praxis ist dies einerseits im Sinne Sozialen Arbeit und dessen Berufsethik und andererseits im Sinne der Adressat*innen der Sozialen Arbeit klar zu verneinen. Umso wichtiger ist es, KI als Lerngegenstand und Lernwerkzeug in die Hochschullehre zu integrieren, Experimentierräume zu eröffnen und so langfristig negative Folgen für Profession und Disziplin zu vermeiden.
Interviewpartner:innen:
Felix Averbeck M.A. leitete über 4 Jahre bis Ende 2025 das „Teilprojekt XR“ an der FH Münster, indem ein Ansatz für die Lehre mit 360°-Videos und VR-Brillen entwickelt wurde. Dazu ist er an der HS Fulda seit Oktober 2024 im Projekt „Digitale und virtuelle Lehre in der Sozialen Arbeit“ tätig, wo die Lehre mit KI und 360°-Videos erweitert wird. Ende 2025 hat er seine Promotion an der Universität Münster zum Thema „Virtuelle Realität als Erprobungsraum der Sozialen Arbeit“ erfolgreich abgeschlossen und lehrt seit mehreren Jahren an der HS Fulda und FH Münster zu den Themengebieten Evaluation, Medienpädagogik, Digitalisierung und kritische Gesprächsführung.
Anja Westermann ist seit 2025 Projektmanagerin im Hochschulforum Digitalisierung beim CHE. In ihrer Rolle liegt ihr Schwerpunkt auf der Entwicklung von Rapid-Response-Maßnahmen sowie auf dem Thema digitale Resilienz. Darüber hinaus unterstützt sie die Arbeit im Bereich von Künstlicher Intelligenz in Studium und Lehre. Vor ihrer Tätigkeit beim HFD war sie als wissenschaftliche Mitarbeiterin an der Universität Paderborn tätig. Dort arbeitet Sie sowohl im Bereich Forschung und Lehre, als auch im hochschulweiten Projekt „KI und Open Source LLM“.


Mauritz Danielsson 
Peter van der Hijden 
Annalisa Biehl 