Prompting im Praxistest

Prompting im Praxistest

02.09.25

Wie gelingt gutes Prompting in der Hochschulpraxis? In der gemeinsamen Reihe „Prompt-Retros“ von HFD und KI-Campus testeten Hochschulangehörige über mehrere Monate hinweg KI-Eingaben im Praxiseinsatz – und diskutierten gemeinsam, wie der Einsatz von KI im Hochschulalltag am besten gelingt. In diesem Blogbeitrag haben Malte Miram und Stefan Göllner Erfahrungen, Erkenntnisse und Empfehlungen aus den „Prompt-Retros“ gesammelt

Wie lassen sich Kompetenzen im Umgang mit generativer KI praktisch entwickeln – jenseits von technischen Einführungen oder abstrakten Schulungen? Wie können Hochschulangehörige mit generativer KI sinnvoll und zielgerichtet arbeiten?

Die gemeinsame Veranstaltungsreihe „Prompt-Retros“ vom Hochschulforum Digitalisierung und dem KI-Campus hat dafür einen konkreten Ansatzpunkt gewählt: den Prompt – also die Chateingabe, mit der jede  KI-Interaktion beginnt. Als Ergänzung zum Selbstlernkurs „Prompt-Labor Hochschullehre 2.0“ wurde die Reihe zu einer interaktiven Spielwiese für Hochschulangehörige.
Seit Oktober 2024 testeten bis zu 45 Teilnehmende in 14 Terminen jeweils einen „Prompt der Woche“ aus der Hochschulpraxis, passten ihn an ihre Kontexte an und diskutierten ihre Ergebnisse offen und kollegial. Den Prompt brachte jeweils eine Expertin oder ein Experte ein, die bzw. der sich zuvor intensiv mit dem jeweiligen Anwendungsszenario auseinandergesetzt hatte. Die Expert:innen und ihre „Prompts der Woche” haben zentral zum Erfolg der Reihe beigetragen und zugleich selbst von dem Feedback und der gemeinsamen Auseinandersetzung profitiert.
Entstanden ist eine lebendige Community – und ein vielfältiges Bild davon, was gutes Prompting ausmacht, wie es Lehre bereichern kann und wo die Grenzen für generative KI im Hochschuleinsatz liegen.

Es geht weniger um den Prompt als um das Anwendungsszenario

Schon bei der Entwicklung des Prompt-Labors und der Prompt-Retros war klar: Die Fähigkeit, KI-Systeme gezielt, kreativ, initiativ und kooperativ zu nutzen, erfordert zwar kompetentes Prompting – geht aber weit über die reine Formulierungsebene hinaus.

Die „Prompts der Woche“ erwiesen sich immer wieder als Einstieg in komplexe Anwendungsszenarien. Um nur einige Beispiele aufzugreifen: Wenn ein Prompt Hochschulmitarbeiter:innen für Inklusion bei der Umformulierung von Texten in „leichte Sprache” unterstützen soll, sind damit Fragen von KI-Verfügbarkeit, zum Konzept der „leichten Sprache” und zum Arbeitsablauf in Hochschulverwaltungen verbunden.
Wenn ein Prompt die Live-Zusammenfassung und Analyse von Vorträgen vollziehen soll, stellt sich nicht nur die Frage der Analysekategorien, sondern es sind auch Entscheidungen zu technischen Voraussetzungen wie anschließenden Verwertungsmöglichkeiten zu treffen.
Wenn ein Prompt Studierende bei der Themenfindung für die Bachelorarbeit begleiten soll, braucht es eine didaktische Vorstellung von Such- und Themenfindungsprozessen. 

Erfolgreiches Prompting erforderte also häufig die Kombination verschiedener KI-Tools und digitaler Services – etwa Mermaid-Diagramme, Präsentationssoftware oder Recherchewerkzeuge – und war eng verknüpft mit didaktischen oder wissenschaftlichen Entscheidungen, institutionellen Rahmenbedingungen sowie rechtlichen oder ethischen Überlegungen. So sind etwa klare Lernziele, inhaltliches Wissen zum Konzept der leichten Sprache, präzise Vorstellungen vom Prozess des wissenschaftlichen Arbeitens, Kenntnisse der Kommunikationsprozesse und Rollen in Wissenschaftseinrichtungen oder schreibdidaktische Kenntnisse notwendig, um sinnvoll prompten zu können. Jeder etwas anspruchsvollere Prompt war somit eingebettet in ein größeres Geflecht aus zunächst KI-unabhängigen Fragen, Abwägungen und Spannungsfeldern. Im Zentrum stand daher nicht der einzelne Prompt, sondern stets das Anwendungsszenario als Ganzes – und damit die Frage: Wie lässt sich KI sinnvoll und zielgerichtet in der Hochschulpraxis nutzen?
Gleichzeitig bleibt die bewusste sprachliche Steuerung zentral. Gut formulierte Prompts sind und bleiben ein wichtiges Werkzeug im Umgang mit generativer KI.  Ein Austausch darüber ist wichtig – deshalb können sie auch weiterhin im Prompt-Katalog dokumentiert werden. 

Darüber hinaus hat das HFD im Arbeitspapier “Wie KI Studium und Lehre verändert Anwendungsfelder, Use-Cases und Gelingensbedingungen” und im KI-Use-Case-Katalog weitere Anwendungsszenarien analysiert und dokumentiert. 

publikation

Arbeitspapier Nr. 87: Wie KI Studium und Lehre verändert

02.04.2025

Klassische Regeln des Prompting (noch) nicht obsolet

Gerade bei komplexen didaktischen Fragestellungen zeigte sich: Präzises Prompting verbessert die Relevanz und Qualität der KI-Antworten – insbesondere im spezifischen fachlichen oder institutionellen Kontext. Zentral bleibt dabei eine klare Rollenvergabe und ein präzise definierter Anwendungskontext. Wird die KI etwa als „Lerncoach“, „exzellente Wissenschaftlerin“ oder „strenge Professorin für Fach XY“ adressiert, kann dies die Passgenauigkeit der Ergebnisse steigern. Noch besser wird ein Ergebnis jedoch, wenn die Autoren-Rolle mit Beispielaussagen, Kenntnissen, Handlungsweisen etc. charakterisiert wird. Ebenso wichtig ist eine explizite Zielvorgabe für den gewünschten Output. Ob Präsentationsstruktur, wissenschaftliche Gliederung oder Handlungsempfehlung: Klare Formatvorgaben im Prompt fördern zielgerichtete KI-Ausgaben und erleichtern die Weiterverarbeitung. Auch die Gliederung per Markdown und die schrittweise Strukturierung von Aufgaben bleiben bewährte Mittel für effektives Prompting. Und nicht zuletzt: Die KI selbst kann beim Erstellen guter Prompts unterstützen – vorausgesetzt, man fordert sie explizit dazu auf. Als Prompt Engineer in eigener Sache ist die KI ein hilfreiches Werkzeug.

Iteratives Prompting ist der Regelfall

Ein zentrales Learning über die Sessions hinweg: Der erste Entwurf führt selten direkt zum gewünschten und besten Ergebnis. In vielen Fällen war eine mehrfache Anpassung des Prompts notwendig, um Missverständnisse zu vermeiden oder die KI auf die didaktische Zielsetzung zu lenken. Die gemeinsame Erfahrung war, dass  gezieltes Nachsteuern nahezu immer Voraussetzung für präzise und relevante Antworten ist. Der von vornherein „perfekte“ komplexe Prompt, der ein Anliegen in einem Durchgang vollständig löst, bleibt die Ausnahme.

Didaktische Prompts erfordern mehr als nur gute Formulierungen

Die Retros machen aber auch deutlich: Wirksames Prompting im Bildungskontext braucht ein klares didaktisches Ziel. Effektive Prompts in der Lehre sind selten die kürzesten oder effizientesten – sondern die, die Dialog anregen, Reflexion strukturieren oder Lernprozesse anstoßen. Das wurde besonders in Sessions deutlich, in denen Prompts zur Entwicklung von Argumentationen und von Lehrkompetenzen oder zur Schreibberatung vorgestellt und diskutiert wurden. Der Unterschied zum Alltagsgebrauch ist zentral: Während dort schnelle Antworten gefragt sind, zielt die didaktische KI-Nutzung auf Prozessbegleitung und kann durch strukturierte Fragen, Feedback und Beispiele Denkprozesse und Erkenntnisgewinn gezielt fördern.

Was wir außerdem mitnehmen konnten: Vielfalt an Tools und Einsatzbereichen

Ein Blick ins regelmäßig erhobene KI-Barometer zeigt: In der Hochschulpraxis wird mit einer breiten Palette an KI-Anwendungen gearbeitet – und experimentiert.

Häufig wurden die populären großen Sprachmodellen verwendet:

  • ChatGPT
  • Claude
  • Gemini
  • Mistral
  • DeepSeek

Es kamen auch weniger verbreitete Modelle wie Qwen und Perplexity zum Einsatz.

Ergänzt wurden sie durch spezialisierte Tools wie

  • Research Rabbit
  • Adobe Firefly
  • Python mit KI-Unterstützung
  • Napkin AI
  • Sora
  • JurisKI
  • Power Automate
  • noScribe
  • Canva
  • cursor.ai

Auch Open-Source-Angebote wurden verwendet: 

  • STORM
  • Free AI Acronym Generator
  • Mermaid
  • Chat AI der Academiccloud

Immer wieder wurde auch deutlich, wie schwierig der Zugang zu leistungsfähigen KI-Systemen ist, die datenschutzrechtlich abgesichert sowie politisch und ethisch unbedenklich sind. Für den Bildungsbereich bleibt das eine zentrale Baustelle

Gleichwohl waren die von den Teilnehmenden im KI-Barometer angegeben Einsatzfelder vielfältig: von Textoptimierung, Präsentationserstellung und Strukturierung komplexer Inhalte über die Entwicklung von Lernmaterialien, Aufgaben und individualisiertem Feedback bis hin zu Datenanalysen, Programmierung, Eventplanung und Zeitmanagement. Einzelne Teilnehmende zeigten darüber hinaus spezialisierte Anwendungsmöglichkeiten auf – etwa zur Risikoklassifizierung nach EU AI Act oder zur automatisierten Dokumentation.

Wie geht es weiter?

Die Resonanz auf die Prompt-Retros fiel insgesamt sehr positiv aus. Besonders hervorgehoben wurden der Austausch untereinander, der Input der Referent:innen und der praktische Nutzen – etwa mit Rückmeldungen wie „super viele Ideen und Anregungen“ oder „tolles Format, sehr lehrreich“. Über die Zeit ist so eine engagierte und lebendige Community entstanden.

Im Juli 2025 startet mit dem Selbstlernkurs “Prompt-Labor Hochschullehre: Anwendungen die nächste Stufe des Prompt-Labors. Das “Prompt-Labor Hochschullehre 2.0“ wird dann zum “Prompt-Labor Hochschullehre: Grundlagen. Im neuen Kurs  geben sieben Referent:innen Einblicke in den verantwortungsvollen Umgang mit generativer KI – u. a. zu wissenschaftlichem Arbeiten, Prompting in der Lehre, Bild- und Videogenerierung, Datenvisualisierung und Präsentationserstellung mit KI. Eine Einschreibung ist bereits jetzt möglich (Eine vorherige Registrierung beim KI-Campus ist erforderlich). 

Weitere Austauschformate rund um die Prompt-Labore kündigen wir nach der Sommerpause an.

Autor:innen

Dr. Malte Miram ist Programmmanager beim Stifterverband. Im Hochschulforum Digitalisierung entwickelt und koordiniert er Qualifizierungsangebote für Lehrende, Mitarbeitende in Unterstützungsstrukturen von Lehre und Infrastruktur sowie Wissenschaftsmanager:innen. Bevor er im September 2024 ins Hochschulforum Digitalisierung kam, war er wissenschaftlicher Mitarbeiter am Institut für politische Wissenschaft und Soziologie der Rheinischen Friedrich-Wilhelms-Universität Bonn.

Stefan Göllner ist Innovationsmanager beim Stifterverband im Projekt KI-Campus. Dort ist er zuständig für den Aufbau thematischer KI-ExpertLabs, die als methodische Innovationshubs für das Gesamtprojekt dienen. Zuvor arbeitete er als Projektmanager in deutschen und europäischen Forschungs- und Entwicklungsprojekten u.a. an der Kunsthochschule für Medien Köln, den Telekom Innovation Laboratories und der Universität der Künste Berlin.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert