Von Assistenz zu Autonomie: GenAI, KI-Agenten und Agentic AI
Von Assistenz zu Autonomie: GenAI, KI-Agenten und Agentic AI
11.03.26
Das Emerging Tech Lab scannt den Horizont nach Technologien, die das Potenzial haben, die Hochschullehre grundlegend zu verändern. Ziel ist es, diese neuen technologischen Entwicklungen systematisch einzuordnen und ihr Potenzial für Studium und Lehre zu erkunden. In dieser Reihe stellen sie deshalb in drei Blogbeiträgen KI-Agenten vor und zeigen auf, wie sie für die die Hochschulbildung nützlich sein können. Im ersten Beitrag geht es heute um eine Begriffseinordnung.
AI Agents sind eines der meistdiskutierten Themen in der aktuellen KI-Entwicklung, auch für Hochschulen. Doch was genau verbirgt sich hinter Begriffen wie KI-Agent oder Agentic AI? Wie unterscheiden sie sich von den generativen KI-Tools, die viele Lehrende und Studierende bereits nutzen? Und was bedeutet das für die Hochschulbildung? In dieser dreiteiligen Blogreihe ordnen wir ein: von den Grundlagen (Teil 1) über aktuelle Pilotprojekte und Forschungsbefunde (Teil 2) bis hin zu Zukunftsvisionen (Teil 3). Dieser erste Beitrag schafft die begriffliche Basis.
Künstliche Intelligenz (KI) ist in der Hochschulbildung vor allem durch generative KI-Systeme wie ChatGPT, Claude oder Gemini sichtbar geworden. Diese Systeme werden häufig als KI-Tools oder KI-Tutoren bezeichnet und unterstützen Lehrende und Studierende bei klar umrissenen Aufgaben wie Textproduktion, Zusammenfassung oder Ideengenerierung. In der aktuellen technologischen Entwicklung zeichnet sich jedoch ein Übergang von rein reaktiven Systemen hin zu sogenannten KI-Agenten und Agentic AI ab. Diese Funktionsweise lässt sich anhand eines agentischen 4-Schritte-Zyklus beschreiben: perceive – reason – act – learn.
Generative KI (GenAI): Die reaktive Assistenz
GenAI bezeichnet KI-Systeme, die neue Inhalte wie Texte, Bilder oder Audio erzeugen. In der Hochschulbildung werden sie derzeit vor allem als unterstützende Werkzeuge genutzt, etwa beim Schreiben oder Recherchieren. Charakteristisch für generative KI ist ihre reaktive Funktionsweise: Sie reagiert auf eine Eingabe (Prompt), verfolgt jedoch keine eigenständigen Ziele und führt keine mehrstufigen Handlungen aus.
Was steckt eigentlich hinter generativer KI und was kann sie wirklich? Das folgende Video gibt einen kompakten Einstieg in Grundlagen, Potenziale und Risiken:
Wer tiefer einsteigen möchte, findet hier eine ausführlichere Erläuterung der Funktionsweise, praktischer Anwendungsmöglichkeiten generativer KI:
Aus technischer Perspektive sind generative KI-Systeme, wie Large Language Models (LLMs), reine Inferenzkomponenten und somit reine „Vorhersagemaschinen“. Sie besitzen keine inhärente Zielrepräsentation, kein persistentes Gedächtnis und können Handlungen nicht eigenständig planen (Bommasani et al., 2021; OpenAI, 2023). Ihre Rolle innerhalb komplexerer Systeme beschränkt sich typischerweise auf die semantische Interpretation von Eingaben sowie die Generierung von Zwischenschritten oder Vorschlägen.
Symbolisch lässt sich ihr Funktionsprinzip auf den ersten Schritt des agentischen Zyklus reduzieren: <perceive (optional: weak reason)>.
KI-Tutoren: Didaktische Spezialisten
KI-Tutoren sind keine eigene technologische Kategorie, sondern eine didaktisch spezialisierte Anwendung. Sie sind explizit auf Lehr-Lernprozesse ausgerichtet, erklären Inhalte, strukturieren Lernpfade, geben Feedback und reagieren adaptiv auf den Lernstand von Studierenden. Damit markieren sie eine Zwischenstufe zwischen allgemeinen KI-Tools und stärker autonomen KI-Agenten im Hochschulkontext. Technisch basieren sie weiterhin auf generativen Modellen, häufig ergänzt um Kontextinformationen oder vordefinierte didaktische Regeln. Autonome Zielverfolgung ist jedoch nicht Bestandteil dieser Systeme – der Handlungsspielraum bleibt strikt auf den Lernkontext begrenzt.
KI-Agenten: Von Assistenz zu Handlung
KI-Agenten gehen einen Schritt weiter: Sie kombinieren generative Modelle mit Zielverfolgung und Planung. Sie können Aufgaben zerlegen, externe Werkzeuge nutzen und auf Feedback reagieren. Typische Merkmale sind explizite Zielrepräsentationen, der Einsatz externer Systeme (z. B. Datenbanken oder Lernplattformen) sowie Rückkopplung durch Beobachtung der Umwelt.
Wie genau funktionieren KI-Agenten und wie arbeiten sie in komplexen, zusammengesetzten Systemen zusammen? Das erste Video liefert eine konzeptuelle Einführung:
Konkreter wird es im zweiten Video, das den Aufbau von KI-Agenten anhand der drei Kernbereiche Wahrnehmung, Denken und Handeln veranschaulicht:
In der KI-Forschung gelten Agenten als Systeme, die ihre Umwelt wahrnehmen und Aktionen ausführen, um ein Ziel zu erreichen (Russell & Norvig, 2021; Wooldridge, 2009). Aktuelle agentenbasierte Architekturen koppeln LLMs mit Ziel- und Aufgabenrepräsentationen, Gedächtnisstrukturen zur Kontextpersistenz und Werkzeugnutzung. Moderne Ansätze verbinden dabei das Planen (Reasoning) direkt mit dem Ausführen (Acting) (Yao et al., 2023; Wang et al., 2024). Der Zyklus erweitert sich: <perceive — reason — act>.
KI-Agenten treten häufig als Teil von Multi-Agenten-Systemen auf, in denen mehrere autonome Agenten kooperativ oder kompetitiv interagieren (Wooldridge, 2009). LLM-basierte Agenten ermöglichen dabei eine flexible, sprachlich vermittelte Koordination. Zentrale technische Fragen betreffen Aufgabenzerlegung, Verantwortungsverteilung und Konfliktlösung, wobei sich der agentische Zyklus über mehrere spezialisierte Akteure verteilt.
Agentic AI: Wenn Systeme handeln und lernen
Agentic AI bezeichnet eine weiterführende Vision hochautonomer Systeme, die über längere Zeiträume hinweg selbstständig Ziele verfolgen, Handlungen planen und ihr Verhalten an veränderte Bedingungen anpassen. Im Unterschied zu generativer KI, die primär auf reaktive Inferenz beschränkt ist, integriert Agentic AI generative Modelle mit expliziten Zielrepräsentationen, Planungsmechanismen, Gedächtnis und Lernprozessen. Was das konkret bedeutet und welche Anwendungsbereiche sich daraus ergeben, zeigt dieses Video:
Besonders aufschlussreich ist dabei der direkte Vergleich mit generativer KI: Wo liegen die Grenzen des einen, und wo setzt das andere an? Das folgende Video arbeitet diese Unterschiede und die jeweiligen Einsatzmöglichkeiten heraus:
Neuere Übersichtsarbeiten ordnen Agentic AI daher nicht als einzelne Technologie, sondern als Paradigma ein, das generative Modelle, agentenbasierte Architekturen und adaptive Entscheidungsprozesse integriert (Acharya et al., 2025; Abou Ali & Dornaika, 2025). Der Handlungszyklus schließt sich hier vollständig: <perceive — reason — act — learn>
Gerade dieser hohe Grad an Autonomie macht Agentic AI einerseits besonders leistungsfähig, wirft andererseits aber grundlegende Fragen nach Kontrolle, Verantwortung und angemessener Governance auf (Shavit et al., 2023).
Die Unterscheidung verdeutlicht, dass mit zunehmender Autonomie nicht nur der Funktionsumfang von KI-Systemen wächst, sondern sich auch ihre Rolle in Lehr- und Lernprozessen grundlegend verändert.
| KI-Tool | KI-Tutor | KI-Agent | Agentic AI | |
| Modus | antwortet | erklärt | plant & handelt | verfolgt langfristige Ziele |
| Funktion | punktuelle Unterstützung | didaktische Unterstützung | teilautonome Prozesse | hochautonome Vision |
| Interaktion | reaktiv | adaptiv | zielorientiert | langfristig autonom |
So viel zur Theorie. Doch wie sieht es in der Praxis aus? Im zweiten Beitrag dieser Reihe schauen wir auf konkrete Pilotprojekte an Hochschulen und fragen: Was sagt die Forschung über ihre Wirksamkeit?
Literatur
- Abou Ali, Mohamad; Dornaika, Fadi (2025): Agentic AI: A comprehensive survey of architectures, applications, and future directions. arXiv preprint arXiv:2510.25445.
- Bommasani, Rishi et al. (2021): On the opportunities and risks of foundation models. arXiv preprint arXiv:2108.07258.
- Russell, Stuart; Norvig, Peter (2021): Artificial Intelligence: A Modern Approach. 4. Auflage. Pearson.
- Shavit, Yonadav et al. (2023): Practices for Governing Agentic AI Systems. OpenAI White Paper.
- Wang, Lei et al. (2025): A Survey on Large Language Model based Autonomous Agents. arXiv.
- Wooldridge, Michael (2009): An Introduction to Multi-Agent Systems. Wiley.
- Yao, Shunyu et al. (2023): ReAct: Synergizing Reasoning and Acting in Language Models. NeurIPS.
Autor:innen

Daniela Thyssens (M. Sc.) ist wissenschaftliche Mitarbeiterin am Information Systems and Machine Learning Lab (ISMLL) der Universität Hildesheim und promoviert im Bereich Maschinelles Lernen mit Schwerpunkt Learning to Optimize (L2O). Sie studierte zuvor Economics und Data Analytics. Seit Januar 2025 ist sie Teil des Emerging Tech Labs, wo sie ihre Forschung und Lehrtätigkeit zu Künstlicher Intelligenz einbringt – insbesondere zu den Potenzialen von Large Language Models in Feedbacksystemen für Studierende.

Thanh Long Dao ist Informatiker (M. Sc.) mit einem Masterabschluss in Elektro- und Informationstechnik mit Schwerpunkt auf Machine Learning und Künstlicher Intelligenz. Seit Februar 2025 ist er Teil des Emerging Tech Lab an der Ostfalia Hochschule. Seine Leidenschaft gilt neuen Technologien und der Frage, wie sich deren Potenziale verständlich vermitteln und für verschiedene Zielgruppen nutzbar machen lassen. Darüber hinaus begeistert er sich für den Austausch und die Weitergabe von Wissen, um Lerhende und Studierende bei der Auseinandersetzung mit innovativen Technologien zu unterstützen.

Lukas Dehmel ist promovierter (Medien-)Bildungs- und Erziehungswissenschaftler. Im Emerging Technology Lab arbeitet er im Digital Labor „The Basement“ des Leibniz-Instituts für Bildungsmedien/Georg-Eckert-Institut in Braunschweig. Seine Schwerpunkte liegen hier insbesondere auf der Gestaltung von Räumen zur Erprobung und bildungsmedienwissenschaftlichen Analyse aufkommender Technologien sowie auf der Schaffung von Formaten, um diese in Lehrveranstaltungen (insbesondere im Lehramtsstudium) erfahrbar zu machen. Ein weiterer Fokus liegt auf der Erarbeitung von White Papers und darüberhinausgehenden Publikationen zur kritisch-konstruktiven Einordnung der Bildungspotenziale von Emerging Technologies.
Mauritz Danielsson 
Peter van der Hijden 
Annalisa Biehl 