Zwischen Hype und Wirkung: AI Agents an Hochschulen im Realitätscheck
Zwischen Hype und Wirkung: AI Agents an Hochschulen im Realitätscheck
12.03.26
Das Emerging Tech Lab scannt den Horizont nach Technologien, die das Potenzial haben, die Hochschullehre grundlegend zu verändern. Ziel ist es, diese neuen technologischen Entwicklungen systematisch einzuordnen und ihr Potenzial für Studium und Lehre zu erkunden. In dieser Reihe stellen sie deshalb in drei Blogbeiträgen KI-Agenten vor und zeigen auf, wie sie für die die Hochschulbildung nützlich sein können. Im zweiten Beitrag geht es heute um einen Realitätscheck.
Im ersten Beitrag dieser Reihe haben wir die Begriffe geschärft: von generativer KI über KI-Tutoren und KI-Agenten bis hin zu Agentic AI und damit eine Entwicklung von reaktiver Assistenz hin zu zunehmender Autonomie nachgezeichnet. Doch wo stehen Hochschulen heute konkret? In diesem zweiten Beitrag schauen wir auf aktuelle Pilotprojekte und fragen, was die Forschung über ihre Wirksamkeit sagt.
AI Agents an Hochschulen: Was es schon gibt
KI Agenten sind in der Hochschulbildung längst nicht mehr nur Zukunftsmusik. Schon heute kommen sie in Pilotprojekten zum Einsatz, vor allem dort, wo sie Lernprozesse unterstützen und Lehrende entlasten können. Dabei sollen sie klassische Lehrformate meist nicht ersetzen. Vielmehr wirken sie als assistive Systeme, die skalierbare und zeitlich flexible Hilfe bieten.
Ein zentrales Einsatzfeld sind KI-gestützte Tutorien und Assistenzsysteme, die auf kuratiertem Wissen basieren. Der KI-Tutor OneTutor wird an der Juristischen Fakultät der LMU München in Kooperation mit dem Bayerischen Forschungsinstitut für Digitale Transformation (bidt) ab dem Sommersemester 2025 erprobt (LMU München, 2025). Technisch setzt das System auf Retrieval-Augmented Generation (RAG). Der Agent generiert Antworten nicht frei, sondern greift ausschließlich auf von Lehrenden freigegebene Materialien (Skripte, Foliensätze, Texte) zurück. Wer das Prinzip dahinter genauer verstehen möchte, findet im folgenden Video eine anschauliche Erklärung:
Einen stärker didaktischen Fokus verfolgt das Projekt Study Buddy an der Jade Hochschule (Jade Hochschule, 2025). Der KI-Tutor wurde gemeinsam mit Studierenden entwickelt und folgt einem partizipativen Ansatz. Er agiert als dialogbasierter Lernbegleiter im sokratischen Dialog. Statt Lösungen direkt auszugeben, stellt er Rückfragen, gibt Hinweise oder konfrontiert Lernende mit Gegenbeispielen, mit dem Ziel, eigenständiges Denken anzuregen.
Dass AI Agents auch komplexe technische Workflows autonom steuern können, zeigt ein Forschungsbeispiel der Universität Stuttgart. Am Exzellenzcluster SimTech entwickelte ein Team einen „KI-Ingenieur“, der als Multi-Agenten-System konzipiert ist (Universität Stuttgart, 2025). Vier spezialisierte Agenten arbeiten hier kooperativ zusammen, um Simulationen in der Strömungsmechanik durchzuführen, von der Konfiguration über die Ausführung bis zur Ergebnisanalyse.
Die Auswirkungen auf Prüfungen
Mit der wachsenden KI-Assistenz rückt zugleich die Prüfungsfrage in den Vordergrund: Wie lassen sich Prüfungsleistungen am Semesterende valide, fair und fälschungssicher erheben, wenn generative KI schriftliche Arbeiten massiv vereinfacht? An der New York University wurden skalierbare mündliche Prüfungen mittels Voice-AI getestet (Rizakos et al., 2025).
Studierende absolvierten 25-minütige Prüfungsgespräche mit einem Sprach-Agenten (basierend u. a. auf ElevenLabs). Die Bewertung erfolgte im Anschluss nicht durch Menschen, sondern durch ein Ensemble verschiedener KI-Modelle (Claude, Gemini, ChatGPT), deren Urteile zu einer Gesamtnote verrechnet wurden. Eine Praxis, die in Europa aufgrund der EU-KI-VO und Grundsätzen des deutschen Prüfungsrechts so nicht umsetzbar wäre.
Doch die Prüfungsfrage lässt sich auch von der anderen Seite denken: Wie können Lehrende KI nutzen, um selbst bessere Prüfungen zu gestalten – und wie verändert KI das Verhältnis von formativer und summativer Bewertung grundlegend? Zwei Perspektiven dazu bieten die folgenden Podcasts:
Parallel ermöglichen KI-Agenten personalisierte Lernpfade. An der IU Internationalen Hochschule wurde der Lernassistent Syntea um agentenbasierte Funktionen erweitert, die Lernziele priorisieren und Methoden dynamisch an den Lernstil anpassen (International Hochschule, 2025). Ähnlich funktioniert MIT Learn, eine KI-gestützte Plattform, die basierend auf individuellen Zielen Lernpfade erstellt und durch KI-Tutoren schrittweise zur Problemlösung anleitet, ohne Ergebnisse vorwegzunehmen (Feijo, 2025).
Diese Pilotprojekte demonstrieren die technische Machbarkeit aktueller Agentensysteme. Doch führt ihr Einsatz auch zu besserem Lernen? Um diese Frage zu beantworten, lohnt ein Blick auf die empirische Datenlage.
Was die Forschung dazu sagt
Technisch betrachtet untersuchen aktuelle Studien sowohl adaptive KI Tutorsysteme als auch AI Agents im klassischen Sinne. Eine umfassende Metaanalyse von Córdova-Esparaza von Anfang 2025, die 82 Studien auswertet, identifiziert fünf wiederkehrende Muster. Diese dienen hier als Grundlage und werden durch neuere Befunde ergänzt.
Erstens bestätigt die Forschung den RAG-Ansatz, der auch innerhalb des LMU-Projekts OneTutor genutzt wird. Die kontextuelle Anbindung an kuratierte Materialien verbessert die Verlässlichkeit erheblich und liefert didaktisch passendere Rückmeldungen (Nikolovski et al., 2025; Rahm & Gröner, 2025). Gerade in sensiblen hochschulischen Kontexten scheint diese Architektur eine Grundlage für vertrauenswürdigere Systeme zu werden.
Zweitens zeigt sich bei didaktisch agierenden KI-Agenten wie dem Study Buddy ein insgesamt positives Gesamtbild. Systeme, die sokratische Rückfragen stellen und zur Reflexion anregen, können Lernende dabei unterstützen, sich intensiver mit Inhalten auseinanderzusetzen und potenziell vor Täuschungen schützen (Sargsyan, 2025; Wang et al., 2025; Yan et al., 2025; Ye, 2025).
Allerdings sind die Ergebnisse differenziert: Vor allem leistungsschwächere Studierende profitieren, während für Leistungsstarke die Rückfragen redundant sein und den Lernprozess sogar bremsen können (Hao et al., 2026). Zudem erforscht nur ein kleiner Teil der Studien akademische Integrität explizit (Ganguly et al., 2026). Ob KI-Agenten Täuschungsversuchen wirksam entgegenwirken, ist also noch nicht abschließend geklärt.
Drittens stützt die Empirie den Multi-Agenten-Ansatz des Stuttgarter „KI-Ingenieurs“. Solche Systeme erzielen insbesondere bei offenen, komplexen und mehrdeutigen Aufgaben – etwa Textinterpretationen, ethischen Fragen oder Simulationen – bessere Ergebnisse als einzelne Modelle (Jiang et al., 2025; Khalaily, 2025; Shen & Cheng, 2025; Shi et al., 2025 Qiu et al., 2025; Williams, 2025). Auch bei der Erstellung personalisierter Lernpfade zeigen die Studien, dass spezialisierte Agents, die miteinander interagieren und sich z. B. gegenseitig korrigieren, zu differenzierteren und konsistenteren Ergebnissen kommen.
Viertens betrifft die oft weniger sichtbare emotionale Dimension. Agenten, die emotionale Unterstützung bieten, können das Durchhaltevermögen und die Selbstwirksamkeit von Studierenden erhöhen (Wang et al., 2025). Da keine sozialen Sanktionen durch Peers oder Lehrende drohen, sinkt die Hemmschwelle, unsichere Argumente zu äußern oder Fragen zu stellen (Shi et al., 2025). Das Bild bleibt jedoch ambivalent: Viele Studierende nehmen die Interaktion als emotionslos wahr (Hao et al., 2025) und beschreiben sie zwar als praktisch, stehen ihren Antworten aber mit großer Skepsis gegenüber (Omirali et al., 2025) – was man allerdings auch als gesunde kritische Distanz interpretieren kann.
Fünftens überzeugen Lernergebnisse vor allem dort, wo KI-Agenten didaktisch eingebettet sind. Darin stimmen die Ergebnisse weitgehend überein. In solchen Szenarien spielen KI-Agenten ihre Stärken aus – etwa ständige Verfügbarkeit, unmittelbares Feedback oder die Übernahme von Routineaufgaben von Lehrenden. Doch menschliche Kontrolle bleibt noch notwendig. Nur die Überprüfung durch Menschen sichert derzeit höchste Qualität, etwa bei der Prüfungserstellung (Nikolovski et al., 2025). Zudem liegt die Verantwortung für Lernprozesse, ethische und zwischenmenschliche Aspekte hier weiterhin beim Menschen und sollte dort auch bleiben (z.B. Ye, 2025).
Die Problematiken von KI
Trotz vieler positiver Befunde ist Vorsicht geboten. Die Forschung konzentriert sich oft auf den Nutzen (Ganguly et al., 2026). Problematische Themen wie akademische Integrität, Machtverhältnisse oder soziale Benachteiligung werden zwar angesprochen, aber vergleichsweise selten systematisch untersucht und sind noch lange nicht zufriedenstellend gelöst. Immerhin zeigen Studien, dass Agents das Potenzial haben, sich an unterschiedliche Lernbedürfnisse anzupassen (Omirali et al., 2025). Einigkeit herrscht beim Thema Datenschutz: Dieser ist beim KI-Einsatz in der Lehre relevanter denn je.
Ein grundlegender Punkt wird in der Debatte häufig übersehen. AI Agents sind in der Hochschulbildung keine neutralen Instrumente: „LLM-driven agents frequently adopt strategies grounded in well-established pedagogical frameworks, such as instructional scaffolding, Socratic questioning, and the zone of proximal development” (Córdova-Esparaza, 2025, 6). In die Technologie sind also bereits didaktische Leitprinzipien und Vorstellungen von „gutem Lernen“ eingeschrieben (vgl. Krein & Schiefner-Rohs, 2024). Genau hier setzt auch die medienpädagogische und bildungsmedienwissenschaftliche Kritik an.
Diese bezieht sich zwar meist auf schulische Bildungskontexte, ihre Argumente lassen sich aber auch auf die Hochschulbildung übertragen: Bildungstechnologien sind (auch in der Hochschulbildung) keine neutralen Werkzeuge, sondern sie verändern die soziale Praxis von Bildung selbst zutiefst. In ihrer soziotechnischen Konzeption fördern sie bestimmte didaktisch-pädagogische Handlungsweisen und erschweren andere (Krein & Schiefner-Rohs, 2024).
Gleichzeitig erzeugen sie umfassende Datenmengen über das Verhalten der Lernenden – wann, wie lange, wie oft und mit welchen Fehlern gelernt wird (Weich et al., 2021). Dieses Wissen verändert die Beziehung zwischen Lehrenden und Lernenden, beeinflusst Praktiken der Leistungseinschätzung und kann erheblichen Leistungsdruck erzeugen (Geßner, 2022). Technologieanbieter werden so zu stillen Mitgestaltern der Hochschulbildung. Die bisherigen Forschungsergebnisse zeigen, dass diese Entwicklung nicht per se negativ sein muss. Sie machen aber ebenso deutlich, wie wichtig es ist, dass Hochschulen und insbesondere Lehrende die Nicht-Neutralität dieser Technologien reflektieren und sie bewusst einsetzen – oder eben nicht.
Die Beispiele und Befunde zeigen, dass AI Agents Hochschulbildung bereits heute bereichern können, wenn sie didaktisch eingebettet, kritisch reflektiert und menschlich begleitet werden. Doch die Entwicklung steht erst am Anfang. Im dritten und letzten Beitrag dieser Reihe blicken wir nach vorn: Wie könnte Agentic AI die Hochschulbildung in den kommenden Jahren grundlegend verändern und welche Fragen müssen wir jetzt stellen, um darauf vorbereitet zu sein?
Literatur
- Córdova-Esparza, Diana-Margarita (2025): AI-Powered Educational Agents: Opportunities, Innovations, and Ethical Challenges. In: Information 16 (6), S. 1–30. DOI: 10.3390/info16060469.
- Feijo, S. (2025): MIT Learn offers „a whole new front door to the Institute“. MIT Open Learning.
- Ganguly, Amrita; Mehjabin, Nafisa; Malik, Aqdas; Johri, Aditya (2026): Conversational AI agents in education: an umbrella review of current utilization, challenges, and future directions for ethical and responsible use. In: AI Ethics 6 (1), S. 1–25. DOI: 10.1007/s43681-025-00916-0.
- Geßner, Johanna (2022): Leistungspraktiken mit digitalen Lernsystemen: Ethnographische Explorationen. In: Claudia Kuttner und Stephan Münte-Goussar (Hg.): Praxistheoretische Perspektiven auf Schule in der Kultur der Digitalität, Bd. 62. Wiesbaden: Springer Fachmedien Wiesbaden (Schule und Gesellschaft), S. 279–298.
- Hao, Zhanxin; Cao, Jie; Li, Ruimiao; Yu, Jifan; Liu, Zhiyuan; Zhang, Yu (2026): Mapping student-AI interaction dynamics in multi-agent learning environments: Supporting personalized learning and reducing performance gaps. In: Computers & Education 241, S. 1–21. DOI: 10.1016/j.compedu.2025.105472.
- Hao, Zhanxin; Qin, Fei; Jiang, Jianxiao; Cao, Jie; Yu, Jifan; Liu, Zhiyuan; Zhang, Yu (2025): AI as Learning Partners: Students‘ Interactions and Perceptions in a Simulated Classroom with Multiple LLM-Powered Agents. In: Proceedings of the 19th International Conference of the Learning Sciences – ICLS 2025, S. 1789–1793.
- Internationale Hochschule (IU) (2025): IU Internationale Hochschule entwickelt eigenen KI-Agenten für die Lehre.
- Jade Hochschule (2025): Von einem, der mit KI zu lehren lernt.
- Jiang, Wendan; Wang, Shiyuan; Eltigani, Hiba; Haroon, Rukhshan; Faisal, Abdullah Bin; Dogar, Fahad (2025): AdvisingWise: Supporting Academic Advising in Higher Education Settings Through a Human-in-the-Loop Multi-Agent Framework.
- Khalaily, Awham (2025): AI-Powered Intelligent Tutoring Systems in Higher Education: A Review of Current Approaches, Challenges, and Future Directions. In: 2025 International Conference on Smart Learning Courses (SCME). Hebron, Palestine, State of, 09.07.2025 – 10.07.2025: IEEE, S. 30–36.
- Krein, Ulrike; Schiefner-Rohs, Mandy (2024): »Hey, ich habe gesehen, du hast noch zwölf Wissenslücken«: Prägende Verständnisse von Lernen und Lehren im Kontext datenbasierter Bildungstechnologien. In: Mandy Schiefner-Rohs, Sandra Hofhues und Andreas Breiter (Hg.): Datafizierung (in) der Bildung. Bielefeld: transcript Verlag. S. 63–80.
- LMU München (2025): lmu.onetutor | ai-enhanced learning.
- Nikolovski, Vlatko; Trajanov, Dimitar; Chorbev, Ivan (2025): Advancing AI in Higher Education: A Comparative Study of Large Language Model-Based Agents for Exam Question Generation, Improvement, and Evaluation. In: Algorithms 18 (3), S. 1–34. DOI: 10.3390/a18030144.
- Omirali, Aikumis; Kozhakhmet, Kanat; Zhumaliyeva, Rakhima (2025): Digital Trust in Transition: Student Perceptions of AI-Enhanced Learning for Sustainable Educational Futures. In: Sustainability (17), S. 1–25. DOI: 10.3390/su17177567.
- Qiu, Guangping; Deng, Jizhong; Li, Jincan; Wang, Weixing (2025): Design and Implementation of a Multi-Agent AI-Powered Learning Path Platform for Outcome-Based Engineering Education. In: AIEE ’25: Proceedings of the 2025 International Conference on AI-enabled Education, S. 126–130.
- Rahm, Hendric; Gröner, Patrick (2025): AI-supported agents within digital learning environments: A vision of how to support self-directed learning for students. INFORMATIK 2025, Lecture Notes in Informatics, Gesellschaft für Informatik. Bonn.
- Rizakos, K., et al. (2025): Fighting Fire with Fire: Scalable Personalized Oral Exams with an ElevenLabs Voice AI Agent.
- Sargsyan, Lilit (2025): Integrating agentic AI in higher education: Balancing opportunities, challenges, and ethical imparatives. In: FLHE 29 (1(38)), S. 87–100. DOI: 10.46991/FLHE.2025.29.1.087.
- Shen, Yi; Cheng, Hong (2025): Emergent Intelligence: Designing an AI-Empowered, Data-Driven Operational Framework for Innovation Spaces in Higher Education. In: Proceedings of the 2025 2nd International Symposium on Artificial Intelligence for Education, S. 450–459.
- Shi, S. J.; Cao, Y. B.; Shi, Z. L.; Li, J. W.; Zhang, R. (2025): Application of multi-agent systems in legal education: the impact of multi-agent mock trial exercises on student satisfaction, core skill enhancement, and cognitive development. In: Interactive Learning Environments, online first, S. 1–22. DOI: 10.1080/10494820.2025.2542892.
- Universität Stuttgart (2025): Der erste „KI-Ingenieur“ der Welt kommt aus Stuttgart.
- Wang, Haoming; Wang, Chengliang; Chen, Zhan; Liu, Fa; Bao, Chunjia; Xu, Xianlong (2025): Impact of AI-agent-supported collaborative learning on the learning outcomes of University programming courses. In: Education and Information Technologies 30 (12), S. 17717–17749. DOI: 10.1007/s10639-025-13487-8.
- Weich, Andreas; Deny, Philipp; Priedigkeit, Marvin; Troeger, Jasmin (2021): Adaptive Lernsysteme zwischen Optimierung und Kritik: Eine Analyse der Medienkonstellationen bettermarks aus informatischer und medienwissenschaftlicher Perspektive. In: MedienPädagogik 44, S. 22–51. DOI: 10.21240/mpaed/44/2021.10.27.X.
- Williams, Peter (2025): Human–AI Learning: Architecture of a Human–AgenticAI Learning System. In: Information 16 (12), S. 1–22. DOI: 10.3390/info16121101.
- Yan, Lixiang; Martinez-Maldonado, Roberto; Jin, Yueqiao; Echeverria, Vanessa; Milesi, Mikaela; Fan, Jie et al. (2025): The effects of generative AI agents and scaffolding on enhancing students‘ comprehension of visual learning analytics. In: Computers & Education 234, S. 105322. DOI: 10.1016/j.compedu.2025.105322.
- Ye, Hui (2025): Bridging Technology and Humanities: AI Agents as Drivers of Innovation in Foreign Language Teaching. In: AJRESS 7 (9), S. 69–81. DOI: 10.55057/ajress.2025.7.9.6.
Autor:innen

Thanh Long Dao ist Informatiker (M. Sc.) mit einem Masterabschluss in Elektro- und Informationstechnik mit Schwerpunkt auf Machine Learning und Künstlicher Intelligenz. Seit Februar 2025 ist er Teil des Emerging Tech Lab an der Ostfalia Hochschule. Seine Leidenschaft gilt neuen Technologien und der Frage, wie sich deren Potenziale verständlich vermitteln und für verschiedene Zielgruppen nutzbar machen lassen. Darüber hinaus begeistert er sich für den Austausch und die Weitergabe von Wissen, um Lerhende und Studierende bei der Auseinandersetzung mit innovativen Technologien zu unterstützen.

Lukas Dehmel ist promovierter (Medien-)Bildungs- und Erziehungswissenschaftler. Im Emerging Technology Lab arbeitet er im Digital Labor „The Basement“ des Leibniz-Instituts für Bildungsmedien/Georg-Eckert-Institut in Braunschweig. Seine Schwerpunkte liegen hier insbesondere auf der Gestaltung von Räumen zur Erprobung und bildungsmedienwissenschaftlichen Analyse aufkommender Technologien sowie auf der Schaffung von Formaten, um diese in Lehrveranstaltungen (insbesondere im Lehramtsstudium) erfahrbar zu machen. Ein weiterer Fokus liegt auf der Erarbeitung von White Papers und darüberhinausgehenden Publikationen zur kritisch-konstruktiven Einordnung der Bildungspotenziale von Emerging Technologies.
Mauritz Danielsson 
Peter van der Hijden 
Annalisa Biehl 