Ein Blick in die Zukunft: Agentic AI in der Hochschulbildung
Ein Blick in die Zukunft: Agentic AI in der Hochschulbildung
13.03.26
Das Emerging Tech Lab scannt den Horizont nach Technologien, die das Potenzial haben, die Hochschullehre grundlegend zu verändern. Ziel ist es, diese neuen technologischen Entwicklungen systematisch einzuordnen und ihr Potenzial für Studium und Lehre zu erkunden. In dieser Reihe stellen sie deshalb in drei Blogbeiträgen KI-Agenten vor und zeigen auf, wie sie für die die Hochschulbildung nützlich sein können. Im dritten Beitrag geht es heute um einen Blick in die Zukunft.
Im ersten Beitrag dieser Reihe haben wir die Begriffe geschärft – von generativer KI über KI-Agenten bis hin zu Agentic AI. Im zweiten Beitrag haben wir gezeigt, wo AI Agents an Hochschulen bereits eingesetzt werden und was die Forschung über ihre Wirksamkeit sagt. In diesem dritten und letzten Beitrag blicken wir nach vorn: Wie könnte Agentic AI die Hochschulbildung verändern – und welche Fragen müssen wir uns jetzt stellen?
Zur Frage, wie Agentic AI die Hochschulbildung verändern könnte, liegen eine ganze Reihe von aktuellen Visionen vor, die meist in Blogartikeln von Vertreter:innen aus Technologieunternehmen oder Universitäten publiziert wurden (z. B. Panthagani, 2025; Schroeder, 2026). Ob und in welcher Form diese Entwicklungen tatsächlich an Hochschulen in Deutschland eintreten werden, lässt sich nicht mit Sicherheit sagen. Dennoch lohnt es sich, sich mit ihnen auseinanderzusetzen und ihre Folgen zu reflektieren. Ausgehend von diesen Technologievisionen möchten wir im Folgenden ein Szenario zum Lernen mit Agentic AI zeichnen und kritisch einordnen.
Mehr Autonomie, mehr Daten, mehr Fragen
Der wichtigste prognostizierte Wandel liegt darin, dass Agentic-AI-Systeme zunehmend in der Lage sein werden, langfristige Ziele zu verfolgen und dabei autonom zu entscheiden, mit immer weniger menschlichem Eingreifen. Die Visionen zu Agentic AI sehen in diesem Zusammenhang vor allem das Potenzial, Lehrende von Routinearbeiten zu befreien, gleichzeitig deutlich mehr Studierende individuell zu betreuen, hochpersonalisierte Lernwege anzubieten und datenbasierte Einblicke in Lernverläufe zu generieren.
Doch genau hier verschärft sich das Thema Datenschutz. Für diese Visionen müssen große Mengen sensibler, personenbezogener Daten gesammelt, gespeichert und verarbeitet werden. Die europäische Datenschutz-Grundverordnung (DSGVO) setzt hier bereits enge rechtliche Grenzen, etwa hinsichtlich der Zweckbindung, der Datenminimierung und der Einwilligung betroffener Personen. Sich etablierende Praktiken gilt es somit vor allem auch in dieser Hinsicht kritisch zu hinterfragen. Das bereits im zweiten Beitrag skizzierte Forschungsdesiderat zur tieferen Reflexion von Datenschutzaspekten wird im Kontext von Agentic AI also relevanter denn je, ebenso wie das Risiko der Zweckentfremdung. Dieser Aspekt wird durchaus auch in den Zukunftsvisionen selbst kritisch reflektiert.
Die zentrale Frage: Wer entscheidet?
Eine ganz zentrale Frage ist die Aufteilung der „Agency“ zwischen Menschen und KI-Systemen, also die Frage, wer in der Hochschullehre welche Entscheidungen trifft oder treffen sollte. Diese Frage stellt sich schon heute bei der Arbeit mit AI Agents, erscheint in Zukunft aber noch viel relevanter.
Ein Agentic-AI-System könnte beispielsweise das langfristige Ziel verfolgen, Studierenden ein wissenschaftliches Feld beizubringen und dabei eigenständig und auf den individuellen Lerntyp entscheidet, auf welchen Wegen, mit welchem Material, auf welchem Schwierigkeitsgrad und zu welchen Zeitpunkten dies optimalerweise geschehen soll. Rückmeldungen könnten in Echtzeit über diagnostische Lernsysteme erfolgen, die proaktiv erkennen, wann jemand erfolgreich lernt, wann Schwierigkeiten auftreten oder Ablenkung einsetzt. Das System könnte dann eigenständig eingreifen, angepasste Materialien anbieten oder erstellen und Lehrende gezielt informieren.
Die Rolle der Lehrenden wandelt sich hier also zunehmend und die Lehre wird effizienter. Der Aufbau von Kompetenzen und die Begleitung von Lernprozessen selbst werden in den Visionen aber immer weniger in ihrer Hand liegen. Stattdessen konzentrieren sie sich auf das Design der Rahmenbedingungen, die Begleitung KI-gestützter Lernprozesse und die zwischenmenschlichen Aspekte der Lehre, die Empathie erfordern. Gleichwohl wird in diesen Visionen betont, dass die Zusammenarbeit zwischen Mensch und KI-System auch in Zukunft am erfolgversprechendsten bleibt. Wie eine solche Neuausrichtung der Lehre aussehen könnte, wird in diesem Video diskutiert:
Die Kehrseite: Überwachung und Kontrolle
Die prophezeite Entwicklung setzt jedoch die umfassende Sammlung von Lern- und Leistungsdaten voraus und erinnert damit an das Foucault’sche Panopticon. Auch wenn eine solche Datenerfassung nicht automatisch mit Überwachung gleichzusetzen ist, kann sie von Studierenden so wahrgenommen werden und birgt das Risiko, in Überwachungspraktiken überzugehen. Lernprozesse von Studierenden werden immer gläserner und potenziell zu jeder Zeit überwach- und sanktionierbar. Dies könnte die professionelle pädagogische Beziehung zwischen Lehrenden und Studierenden nochmals sehr viel stärker beeinflussen und z. B. erheblichen Leistungsdruck bewirken.
Sollten sich die Visionen zu Agentic AI in dieser Form bewahrheiten, dürften sich diese Entwicklungen aber nochmals erheblich verschärfen. Gerade hier stellt sich die Frage nach der Agency in besonderem Maße. Wer didaktische Entscheidungen trifft, wer Leistungsbewertungen letztlich vornimmt und in welcher Form einsehbare Lerndaten dafür herangezogen werden, muss daher neu verhandelt werden.
Wenn KI über Studienerfolg entscheidet
Besonders brisant wird die Entwicklung, wenn zukünftige KI-Systeme proaktiv handeln. Der EDUCAUSE Horizon Report 2025 skizziert ein Szenario, in dem Hochschulen mithilfe von KI datenbasierte Prognosen zum Studienerfolg aufstellen könnten (Robert et al., 2025, pp. 46-47). Der Report bezieht hierzu selbst eine kritische Position. Man könnte zwar argumentieren, dass ein solches Szenario auch die Hochschullehre effizienter machen würde. Dies erscheint allerdings aus mehreren Gründen problematisch.
Zunächst einmal wäre ein solches Vorgehen an Hochschulen hochgradig diskriminierend. Es würde voraussichtlich Studienbewerber:innen aus ohnehin schon privilegierten Milieus bevorzugen und den Zugang für sozioökonomisch Benachteiligte zusätzlich erschweren oder sogar verhindern. Zudem wäre auch die Fehleranfälligkeit von solchen Systemen hoch. Wie Macgilchrist und Jarke (2025, S. 359) anmerken:
Entscheidet eine Hochschule rein anhand solcher KI-basierten Einschätzungen bei der Zulassung zum voraussichtlichen Lernerfolg im Studium, ist dies möglicherweise effizienter. Es bevorzugt aber privilegierte Gruppen und ist mit erheblicher Fehleranfälligkeit belastet. Solche möglichen Entwicklungen sind aus unserer Sicht daher äußerst kritisch einzuschätzen. Warum KI trotz ihres Potenzials oft fehleranfällig und voreingenommen bleibt und welche Rolle Ethik, Gesetze und Aufklärung dabei spielen, beleuchtet die folgende Podcast-Episode:
Wozu noch studieren?
Die bisherigen Abschnitte haben sich mit der Frage beschäftigt, wie Agentic AI das Lehren und Lernen an Hochschulen verändern könnte. Es gibt jedoch eine noch grundlegendere Frage, die in den meisten Zukunftsvisionen wenig Raum einnimmt: Wenn KI-Systeme in der Lage sind, den Aufbau von Kompetenzen zu unterstützen, Zusammenhänge zu erklären, Lernstände zu diagnostizieren und Lernprozesse individuell anzupassen, warum sollten sie nicht auch in der Lage sein, die entsprechenden Tätigkeiten selbst auszuführen?
Die Logik ist im Kern einfach: Ein System, das ein Fachgebiet so tiefgreifend durchdringt, dass es dieses autonom und adaptiv lehren kann, verfügt potenziell auch über die Fähigkeit, viele der damit verbundenen beruflichen Aufgaben zu übernehmen. Was heute als Lernunterstützung konzipiert wird, könnte morgen zur vollständigen Automatisierung ganzer Tätigkeitsbereiche führen. Die Frage, die sich daraus ergibt, ist für Hochschulen existenziell: Warum sollten Studierende mehrere Jahre in den Erwerb von Kompetenzen investieren, die eine KI schneller, zuverlässiger und kostengünstiger ausführen kann?
Diese Frage betrifft nicht nur einzelne Berufsfelder, sondern den gesellschaftlichen Auftrag von Hochschulbildung insgesamt. Bereits heute zeigen sich in Bereichen wie der Softwareentwicklung, der juristischen Recherche, der Übersetzung oder der Datenanalyse erhebliche Verschiebungen durch KI-gestützte Automatisierung. Je leistungsfähiger Agentic-AI-Systeme werden, desto mehr Tätigkeitsfelder könnten folgen – auch solche, die bislang als sicher galten, weil sie ein Hochschulstudium voraussetzten.
Für Hochschulen bedeutet das zweierlei. Erstens verändert sich möglicherweise, was gelehrt werden sollte. Wenn deklaratives Wissen und standardisierte analytische Fähigkeiten zunehmend automatisierbar werden, rücken andere Kompetenzen in den Vordergrund: die Fähigkeit, KI-Systeme kritisch zu bewerten und verantwortungsvoll einzusetzen, komplexe Probleme in neuartigen Kontexten zu bearbeiten, ethische Urteile zu fällen und in interdisziplinären, menschlich-maschinellen Teams zu arbeiten.
Zweitens stellt sich die Frage, ob und wie sich Berufsfelder verändern und welche neuen entstehen. Historisch betrachtet haben technologische Umbrüche immer sowohl zur Verdrängung bestehender als auch zur Entstehung neuer Tätigkeiten geführt. Ob dies im Zeitalter von Agentic AI in gleichem Maße geschieht, ist jedoch keineswegs sicher.
Hochschulen stehen damit vor der Herausforderung, ihre Studienangebote nicht nur didaktisch, sondern auch inhaltlich-strategisch weiterzudenken. Es geht nicht mehr allein darum, wie gelehrt wird, sondern zunehmend auch darum, wozu. Die Frage nach dem Sinn und Zweck eines Studiums jenseits reiner Berufsvorbereitung gewinnt damit eine neue Dringlichkeit. Bildung als Befähigung zur kritischen Reflexion, zur gesellschaftlichen Teilhabe und zur Mitgestaltung technologischer Entwicklungen könnte in einer von Agentic AI geprägten Welt wichtiger werden denn je.
Ausblick: Gestaltung statt Abwarten
Die beschriebenen Entwicklungen zeigen, dass Agentic AI für die Hochschulbildung sowohl erhebliche Potenziale als auch ernsthafte Risiken mit sich bringt. Einfache Handlungsempfehlungen greifen hier zu kurz. Was es stattdessen braucht, ist eine bewusste Auseinandersetzung mit den Gestaltungsfragen, die diese Technologien aufwerfen.
Aus einer pädagogisch-didaktischen Perspektive ist es aus unserer Sicht daher vor allem sinnvoll, sich der Tatsache bewusst zu werden, dass AI Agents und zukünftig Agentic AI Systeme hochgradig auf die Lehr-/Lernpraxis einwirken, ein nicht zu unterschätzendes Überwachungsszenario nach sich ziehen und dadurch die professionelle Beziehung zwischen Lehrenden und Studierenden maßgeblich prägen.
Zweifelsohne hat die Arbeit mit den neuen KI-Technologien ausgesprochen große Potenziale. Lehrende sollten sich bewusst mit diesen Implikationen auseinandersetzen, bevor sie Entscheidungen für oder gegen ein bestimmtes System treffen. Dazu gehört auch die Reflexion darüber, welche pädagogischen und didaktischen Aufgaben an eine Maschine ausgelagert werden sollten und welche explizit bei der Lehrperson bleiben. Nur weil etwas technisch möglich ist, sollte es auf keinen Fall blind übernommen werden. Gleichzeitig wäre es aber auch fatal, sich gegenüber neuen Potenzialen zu verschließen.
Darüber hinaus müssen Hochschulen sich proaktiv mit der Frage auseinandersetzen, wie sich durch Agentic AI Berufsfelder verändern und welche Konsequenzen dies für Studieninhalte und Kompetenzprofile hat. Die Ausbildung von Studierenden auf Tätigkeiten hin, die in absehbarer Zeit automatisiert werden könnten, wäre weder für die Studierenden noch für die Gesellschaft zielführend. Stattdessen braucht es eine curriculare Weiterentwicklung, die Studierende dazu befähigt, in einer von KI durchdrungenen Arbeitswelt souverän, kritisch und gestaltend zu agieren und die den Wert von Hochschulbildung jenseits reiner Employability neu begründet.
Aus technischer Perspektive müssen sich Hochschulen darauf einstellen, dass der nächste Entwicklungsschritt über generative KI hinausgeht. Während GenAI bislang häufig als isoliertes Werkzeug im Browser eingesetzt wird, erfordert der Übergang zu KI-Agenten und perspektivisch zu Agentic AI eine tiefe Integration in die bestehende IT-Landschaft.
Agentische Systeme entfalten ihren Mehrwert erst durch die Integration in bestehende Infrastrukturen – Lernmanagementsysteme, Campus-Management, Bibliotheksdienste, Prüfungssysteme. Dies setzt standardisierte, sichere Schnittstellen (APIs) voraus und verschiebt technische Verantwortung von einzelnen Tools hin zu institutionellen Architekturen.
Mit zunehmender Autonomie von KI-Systemen verschiebt sich der Blick von einzelnen Tools zur bewussten Gestaltung lernwirksamer KI-Ökosysteme. Agentic AI eröffnen neue didaktische Spielräume: Lernprozesse können kontinuierlich begleitet, Lernfortschritte reflektiert und Inhalte adaptiv an individuelle Bedürfnisse angepasst werden – perspektivisch auch unter Berücksichtigung motivationaler und emotionaler Aspekte des Lernens. Lernen wird damit weniger als punktuelle Unterstützung verstanden, sondern als längerfristiger, anschlussfähiger Prozess im Sinne von Lifelong Learning.
Um dieses Potenzial zu entfalten, braucht es zugleich klare institutionelle Rahmenbedingungen – von kontrollierten Infrastrukturen über transparente Modelle bis hin zu Human-in-the-Loop-Mechanismen. Agentic AI ist damit kein bloßes Software-Upgrade, sondern eine Einladung an Hochschulen, Lehre, Lernen und akademische Arbeit strategisch weiterzudenken und aktiv mitzugestalten.
Literatur
- Macgilchrist, F., & Jarke, J. (2025). Who said only military officers can deal with uncertainty? On the importance of uncertainty in edtech data visualisations. Discourse: Studies in the Cultural Politics of Education, 46(3), 359–378. https://doi.org/10.1080/01596306.2025.2467365
- Panthagani, A. (2025). How will agentic AI show up in higher education?.
- Robert, Jenay et al. (2025): 2025 EDUCAUSE Horizon Report. Teaching and Learning Edition. https://library.educause.edu/resources/2025/5/2025-educause-horizon-report-teaching-and-learning-edition.
- Schroeder, R. (2025). The Rise of the Agentic AI University in 2026.
Autor:innen

Daniela Thyssens (M. Sc.) ist wissenschaftliche Mitarbeiterin am Information Systems and Machine Learning Lab (ISMLL) der Universität Hildesheim und promoviert im Bereich Maschinelles Lernen mit Schwerpunkt Learning to Optimize (L2O). Sie studierte zuvor Economics und Data Analytics. Seit Januar 2025 ist sie Teil des Emerging Tech Labs, wo sie ihre Forschung und Lehrtätigkeit zu Künstlicher Intelligenz einbringt – insbesondere zu den Potenzialen von Large Language Models in Feedbacksystemen für Studierende.

Thanh Long Dao ist Informatiker (M. Sc.) mit einem Masterabschluss in Elektro- und Informationstechnik mit Schwerpunkt auf Machine Learning und Künstlicher Intelligenz. Seit Februar 2025 ist er Teil des Emerging Tech Lab an der Ostfalia Hochschule. Seine Leidenschaft gilt neuen Technologien und der Frage, wie sich deren Potenziale verständlich vermitteln und für verschiedene Zielgruppen nutzbar machen lassen. Darüber hinaus begeistert er sich für den Austausch und die Weitergabe von Wissen, um Lerhende und Studierende bei der Auseinandersetzung mit innovativen Technologien zu unterstützen.

Lukas Dehmel ist promovierter (Medien-)Bildungs- und Erziehungswissenschaftler. Im Emerging Technology Lab arbeitet er im Digital Labor „The Basement“ des Leibniz-Instituts für Bildungsmedien/Georg-Eckert-Institut in Braunschweig. Seine Schwerpunkte liegen hier insbesondere auf der Gestaltung von Räumen zur Erprobung und bildungsmedienwissenschaftlichen Analyse aufkommender Technologien sowie auf der Schaffung von Formaten, um diese in Lehrveranstaltungen (insbesondere im Lehramtsstudium) erfahrbar zu machen. Ein weiterer Fokus liegt auf der Erarbeitung von White Papers und darüberhinausgehenden Publikationen zur kritisch-konstruktiven Einordnung der Bildungspotenziale von Emerging Technologies.
Mauritz Danielsson 
Peter van der Hijden 
Annalisa Biehl 