Multiperspektivische Betrachtung problematischer KI-Handreichungen an deutschen Hochschulen – die Sichtweise der Studierenden
Multiperspektivische Betrachtung problematischer KI-Handreichungen an deutschen Hochschulen – die Sichtweise der Studierenden
27.02.25
Jakob Radau, Miriam Maibaum und Doris Weßels analysieren die KI-Handreichungen deutscher Hochschulen aus studentischer Perspektive. Interviews mit 15 Studierenden zeigen, dass viele Regelwerke in der Anwendung zu Problemen führen oder abschreckend wirken können. Die Autor:innen beleuchten, welche Herausforderungen bestehen, welche Vorgaben Studierende vor Probleme stellen und welche Anpassungen erforderlich wären, um KI-Kompetenzen im Studium zu fördern.
Im dritten Jahr mit ChatGPT & Co. darf generative KI als etablierter „Akteur“ in der Hochschullandschaft bewertet werden, sowohl in der Lehre wie auch in der Wissenschaft und Forschung. Die Nutzungsintensität ist bei Lehrenden und Studierenden seit der Veröffentlichung von ChatGPT am 30.11.2022 kontinuierlich gestiegen. Passend dazu haben einige Hochschulen begonnen, ihren Studierenden Handreichungen und Leitfäden zur Nutzung von KI-Tools zur Verfügung zu stellen, um den Einstieg in diese Technologien zu erleichtern, so die Intention. Doch obwohl diese KI-Handreichungen wertvolle Unterstützung bieten (könnten), weisen sie viele Defizite auf. Sie sind häufig unverständlich oder auch unklar formuliert, nicht praxistauglich und nicht ausreichend auf die Bedürfnisse der Studierenden abgestimmt.
Um die Perspektive der Studierenden detaillierter zu beleuchten, haben wir eine Spotlight-Analyse durchgeführt und 15 deutsche Studierende aus unterschiedlichen Hochschulen und Studiengängen zu ihren Erfahrungen mit KI-Handreichungen interviewt. Die auf diese Weise gewonnenen Sichtweisen haben wir zum Schutz der Studierenden als anonymisierte Zitate in diesen Beitrag integriert. Dieses multiperspektivische Gesamtbild spiegelt die Diskrepanz zwischen (teilweise) vorhandenen KI-Handreichungen und den notwendigen Anpassungen dieser Leitlinien auf dem Weg zu einer zukunftsorientierten Hochschulbildung in Deutschland sehr deutlich wider.
Wo stehen wir heute?
Wie viele Hochschulen haben bereits KI-Handreichungen verabschiedet? Wo fehlen sie auch heute noch? Aktuelle Analysen (Lindner & Weßels, 2025) haben ergeben, dass nur rund 30% deutscher Hochschulen (Stand November 2024) KI-Handreichungen für ihre Hochschulangehörigen zur Verfügung gestellt haben oder diese für die Studierenden auffindbar sind. Verdeutlicht wird dies durch eine Vielzahl studentischer Aussagen aus unserer Spotlight-Befragung, hier einige Beispiele:
- „Bei uns gibt es keine klaren Richtlinien.“ [Masterstudent, Digitalisierung & Entrepreneurship],
- „Ich weiß nicht, ob es solche Richtlinien überhaupt an unserer Hochschule gibt.“ [Masterstudent, Elektrotechnik] oder auch
- „Eine richtige Richtlinie gibt es, soweit ich weiß, noch nicht“ [Masterstudentin, International Marketing].
Die Bedeutung von KI-Richtlinien für Studierende liegt auf der Hand. Laut dem CHE-Hochschulranking aus dem Wintersemester 2023/24 ist es für knapp 40 % der Studierenden wichtig, dass ihre Hochschule einen klaren Verhaltenskodex zum Umgang mit künstlicher Intelligenz bereitstellt. Denn „wenn es keine oder nur unzureichende Leitlinien zum Umgang mit KI gibt, führt dies zu Unsicherheiten und Widersprüchlichkeiten auf verschiedenen Hochschulebenen“ [Masterstudentin, Erziehungswissenschaften].
Hier ist seitens der Hochschulen ein Spagat erforderlich. Auf der einen Seite müssen KI-Handreichungen Spielraum für die schnelle technologische Entwicklung einräumen. Auf der anderen Seite dienen diese Handreichungen als Orientierung und müssen die Grenzen des KI-Einsatzes im Studium (und der Lehre) klar definieren. Aussagen wie „KI war auf jeden Fall immer mal wieder Thema in der Hochschule, es wurden uns als Studierende dabei aber keine konkreten Handlungsanweisungen gegeben“ [Bachelorstudentin, Soziale Arbeit] sind im Jahr 2025 jedoch nicht unüblich. So sagt auch Inga Gostmann (Masterstudentin an der Universität Bielefeld und DigitalChangeMakerin im Hochschulforum Digitalisierung): „[…] wem die Orientierung fehlt, der/die benutzt KI vielleicht gar nicht, oder unterschlägt lieber es genutzt zu haben, als die Nutzung falsch zu protokollieren“. Siehe hierzu auch ihren studentischen „Aufruf zu mehr Veränderung“ nach einem Jahr ChatGPT im Studium aus dem März 2024 (Gostmann, 2024).

Ein Jahr ChatGPT im Studium: ein Aufruf zu mehr Veränderung
Aus studentischer Perspektive ist ein verständlich formulierter und praxisnaher Rahmen für den Umgang mit KI daher unerlässlich – nicht nur, um Orientierung zu schaffen, sondern auch, um den Raum für die Entwicklung der eigenen AI Literacy zu haben. Studierende wünschen sich neben der Kompetenzvermittlung für diese Zukunftstechnologie auch das Vertrauen ihrer Hochschulen und Lehrenden, um KI im Studium kompetent, selbstbewusst und verantwortungsvoll einzusetzen.
Bizarre Vorgaben in allen Facetten beim Einsatz von KI
KI-Handreichungen in Deutschland nehmen teilweise bizarre Formen an. Unter anderem, wenn die Lehrenden oder Prüfungsämter erwarten, dass die Prompts der verwendeten KI-Tools aufzubewahren oder gar abzugeben sind. Diese Vorgabe wird mit aktuellen KI-Tools immer realitätsferner durch die niederschwellige Integration von Chatbots, für deren Nutzung oft kein Account mehr benötigt wird und dadurch im Nachgang nicht auf Chatverläufe und Prompts zugegriffen werden kann. Darüber hinaus lassen sich per Knopfdruck ganze Texte paraphrasieren, ohne dass ein weiterer Prompt notwendig ist. Weitergedacht kann dies dazu führen, dass die Anhänge von Haus- oder Abschlussarbeiten deutlich umfangreicher sind als die inhaltliche Ausarbeitung. Und dies allein durch die angehängten Prompts.
Problematisch an dieser Aussage ist sowohl die Gestaltung der Nachweispflicht des KI-Einsatzes wie auch die (angedrohte) Prüfung durch KI-Detektionssoftware. Derartige „KI-Spürhunde“ arbeiten nachweislich nicht zuverlässig und sind prüfungsrechtlich daher nicht belastbar. Außerdem werden sie häufig mit „klassischer“ Plagiatserkennungssoftware verwechselt. Zu betonen ist, dass KI-Detektoren auch wieder KI-Blackbox-Systeme sind, die einen stochastischen Wert ermitteln, der als Prozentsatz die Wahrscheinlichkeit für einen von KI generierten Text liefert. Doch weisen diese Prozentangaben erhebliche Ungenauigkeiten in beide Richtungen (KI- oder menschengeneriert) auf. Die Ängste und Befürchtungen von Studierenden lassen sich aus Stimmungsbildern oft herauslesen: „du darfst KI benutzen, aber es muss wahrscheinlich durch ZeroGPT oder so durchlaufen“. [Bachelorstudent, Computer Science]
Aber auch die Vorgaben zum Zitieren von KI führen zu immer neuen Stilblüten und stellen ein gravierendes Problem für Studierende dar: „bei KI-Nutzung in schriftlichen Arbeiten muss die KI zitiert werden“. [Bachelorstudent, Betriebswirtschaftslehre]. Schon die Abgrenzung führt zu viele Fragen: Welche Softwarelösung ist eine KI, welche nicht? Rund um das „Wie“ des Zitierens sind in den KI-Handreichungen eine Fülle nicht praktikabler bis hin zu grotesken Vorgaben zu finden, die offenbar eine bewusst abschreckende Wirkung für den KI-Einsatz bei den Studierenden erzielen sollen. Ein Fachbereich einer großen Universität in Nordrhein-Westfalen, der hier bewusst nicht genannt wird, hat beispielsweise folgende Erklärung zur Nutzung textgenerativer künstlicher Intelligenz etabliert:
- gar nicht
- bei der Erstellung einzelner Kapitel, Unterkapitel oder einzelner Passagen,
- zur Finalisierung der Arbeit im Sinne von Korrekturlesen bzw. stilistischer Verbesserung
- als Forschungsgegenstand der vorgelegten Arbeit
- insgesamt in einem Umfang von nicht mehr als XX %
Interessant ist dabei der letzte Punkt. Wie soll ein Prozentsatz der KI-Nutzung ermittelt werden? Was sind die Messgrößen? Welchen Einfluss hat der Prozentsatz für die nachfolgende Bewertung der Arbeit?
Herausforderungen und Anpassungsbedarf bei Prüfungsregelungen und Technologieakzeptanz
In der Gesamtschau zeigt sich, dass Studierende mit einer Vielzahl an Auflagen konfrontiert werden, die unerfüllbar erscheinen und das Stresslevel steigern. Diese Belastungen und die Orientierungslosigkeit im Umgang mit KI gilt es abzubauen: „Studierende brauchen eine Orientierung, was sie mit KI an ihrer Hochschule, in ihrem Fach, in ihrem Kurs und in ihrer Prüfung machen dürfen“, so die berechtige Forderung der Bielefelder Masterstudentin Inga Gostmann. Tragisch ist, dass die abschreckende Wirkung vieler KI-Handreichungen zu einem verminderten Einsatz neuer (KI-)Tools führt und den Kompetenzerwerb digitaler Fähigkeiten schwächt.
10 Handlungsempfehlungen für die Gestaltung von KI-Handreichungen
Es stellt sich die Frage, welche neuen Wege bei der Regulierung des KI-Einsatzes an Hochschulen zielführend sind und wo Fallstricke warten. Die 10 Handlungsempfehlungen für Hochschullehrende zum Umgang mit KI-Tools bieten konkrete Hilfestellungen für die Neu- bzw. Umgestaltung von KI-Handreichungen, um Studierenden Ängste zu nehmen und den verantwortungsbewussten Umgang mit künstlicher Intelligenz zu fördern (Lindner & Weßels, 2025).
-
KI-Schulungs- und -Qualifizierungsangebote der eigenen Hochschule oder anderer Anbieter nutzen (auch niedrigschwellige Informationsangebote wie Newsletter, Foren, Podcasts, YouTube-Channel für KI-Themen nutzen)
-
Eigene Lehrveranstaltungen kontinuierlich weiterentwickeln, frühere Lernziele und Aufgabenstellungen auf Zukunftsrelevanz prüfen und im Bedarfsfall ersetzen, dabei KI-Potenziale nutzen und die KI-Resilienz von Prüfungsformaten stärken
-
Studierende ermutigen, KI-Tools verantwortungsbewusst einzusetzen und diese durch leicht verständliche Regelwerke auf Potenziale und Grenzen des Einsatzes von Kl hinweisen
-
KI-Experimente wagen und Erfahrungen beim Einsatz von KI-Tools in der eigenen Lehre sammeln, diese im Kollegium, in Netzwerken mit Lehrenden anderer Hochschulen und externen KI-Communities austauschen
-
Verzicht auf die die (kleinteilige) Dokumentation von Chatverläufen, die Abgabe von Prompts oder Zitationen aller KI-generierten Textteile wie reguläre Quellen bei schriftlichen Studienarbeiten oder Thesen
-
Verzicht auf KI-Detektionssoftware-Lösungen, da sie prüfungsrechtlich aufgrund ihrer Unzuverlässigkeit nicht belastbar sind
-
Angepasste Eigenständigkeits- und Kennzeichnungserklärungen für den KI-Einsatz zielgruppengerecht formulieren und kontinuierlich anpassen, z.B. in Form eines anschaulich illustrierten PDFs und eines Erklärvideos mit konkreten Anwendungsbeispielen (im Idealfall als hochschulweiter Standard)
-
Bewährte KI-Disclaimer (z.B. von Wissenschaftsverlagen) für wissenschaftliche Arbeiten nutzen, für die interne Nutzung ggf. adaptieren und fortlaufend anpassen
-
Beteiligung am Aufbau von Austauschformaten wie z.B. KI-Zukunftswerkstätten oder Communities of Practice (CoP)
-
Mitwirkung bei der Ausgestaltung von KI-Governance und -Compliance in der eigenen Organisation, um Ethik-Richtlinien und Verhaltensregeln an die veränderten Rahmenbedingungen anzupassen
Vom Heute zum Morgen – und viele neue Fragen
Zusammenfassend kann festgestellt werden, dass die KI-Handreichungen in der deutschen Hochschullandschaft, falls überhaupt vorhanden, in vielen Fällen einen dringenden Änderungsbedarf an die sich sehr dynamisch entwickelnden KI-Modelle und -Systeme aufweisen. Die Zielsetzung für die Hochschulen muss darin bestehen, ihre Adaptionsfähigkeit unter Beweis zu stellen und einen zielführenden und zeitgemäßen KI-Handlungsrahmen zu schaffen, der die Unsicherheit der Studierenden reduziert und rechtliche, ethische und didaktische Zielsetzungen in Einklang bringt.
Die Zeit drängt, denn die nächste KI-Evolutionsstufe ist bereits da und birgt noch höhere Herausforderungen für die Bewertung menschlicher Leistung in der Kollaboration von Mensch und KI – und damit für die KI-Governance an Hochschulen. Sogenannte Reasoning-Modelle, die auf die Imitation des logischen Denkens und Schlussfolgerns spezialisiert sind, führen in der Wissenschaft zu neuen KI-Forschungsassistenzsystemen, die „per Knopfdruck“ umfassende Analysen durchführen und Forschungspaper generieren können. Es drängt sich (immer mehr) die Frage auf: Wo führt das alles hin? Hierzu ein Zitat von Andrew Maynard, Professor an der Arizona State University, mit Bezug zu dem neuen KI-Modell „deep research“ von OpenAI:
Einige Tage später hat Andrew Maynard in seinem Blog detailliert erläutert, wie er in nur vier Tagen mit dem Einsatz von deep research von OpenAI einen Dissertationsentwurf im Umfang von 400 Seiten „produziert“ hat.
Quellenhinweise:
Gostmann, Inga (2024): Ein Jahr ChatGPT im Studium: ein Aufruf zu mehr Veränderung, Blogbeitrag Hochschulforum Digitalisierung: https://hochschulforumdigitalisierung.de/ein-jahr-chatgpt-im-studium/, veröffentlicht am 7.03.2024, Aufruf: 22.02.2025
Lindner, Marlit; Weßels, Doris (2025): Vom Problemfall zur Lösung: Zur Ausgestaltung von Richtlinien zur Nutzung generativer Künstlicher Intelligenz an Hochschulen, Forschung & Lehre, Ausgabe 2/2025, S. 32-35, https://www.forschung-und-lehre.de/heftarchiv/ausgabe-2/25, veröffentlicht am 31.01.2025
Autor:innen

Jakob Radau ist seit 2024 Wissenschaftliche Hilfskraft im Zukunftslabor Generative KI (ZGKI) an der Fachhochschule Kiel. Dort berät er, neben seinem Masterstudium Digital Business Management (FH Kiel), KMUs und öffentliche Institutionen rund um Digitalisierung und den Einsatz von (generativer) Künstlicher Intelligenz.

Miriam Maibaum studierte Wirtschaftsingenieurwesen an der Fachhochschule Kiel, wo sie seit 2022 ebenfalls lehrt. Aktuell ist sie Doktorandin der Arbeitswissenschaft mit dem Schwerpunkt auf der humangerechten Gestaltung der digitalen Transformation in der Arbeitswelt. Zudem ist sie im Zukunftslabor Generative KI tätig, wo sie sich intensiv mit den Herausforderungen und Potenzialen generativer KI im Bildungs- und Gründungskontext auseinandersetzt.

Prof. Dr. Doris Weßels ist Professorin für Wirtschaftsinformatik und Forschungssprecherin „Digitalisierung und KI“ der Fachhochschule Kiel. Im September 2022 hat sie gemeinsam mit dem assoziierten Partner KI-Campus und weiteren Expert:innen und Lehrenden deutscher Hochschulen aus den Bereichen Informatik, Bildungsforschung und Schreibdidaktik das Virtuelle Kompetenzzentrum „Künstliche Intelligenz und wissenschaftliches Arbeiten – Schreiben lehren und lernen mit KI“ gegründet. Für das KI-Anwendungszentrum Schleswig-Holstein hat sie das Zukunftslabor „Generative KI“ aufgebaut und betreut mit ihrem Team vielfältige KI-Projekte aus der Wirtschaft, Wissenschaft und Bildung. Ihre Expertise bringt sie in diversen nationalen und internationalen KI-Experten- und Beiratsgremien ein. Weitere Informationen auf der Wikipedia-Seite.