Note auf Knopfdruck? Warum KI-Prüfungsservices ein trügerisches Versprechen sind

Note auf Knopfdruck? Warum KI-Prüfungsservices ein trügerisches Versprechen sind

12.12.25

Sharepic. Obere Hälfte: Foto von zwei Holzwürfeln auf einem Tisch, dahinter eine Lupe - auf einem steht AI, auf dem anderen nichts. Untere Hälfte: Text: "Blog - Note auf Knopfdruck? Warum KI-Prüfungsservices ein trügerisches Versprechen sind. Ein Blogbeitrag von Andreas Giesbert, Jens Tobor & Lukas Riechert" Unten rechts: Logo Hochschulforum Digitalisierung.

KI-Prüfungsservices versprechen, Haus- und Abschlussarbeiten automatisiert zu erstellen – inklusive korrekter Quellenangaben und Eigenständigkeitserklärung. Gleichzeitig behaupten sie, ihre Texte seien nicht als KI-generiert erkennbar. Ob diese Versprechen tragfähig sind, ist umstritten. Studierende wie Lehrende äußern Zweifel. Der Blogbeitrag von Andreas Giesbert, Jens Tobor und Lukas Riechert nimmt die Funktionsweise und Schwachstellen solcher Services in den Blick und ordnet sie in eine grundsätzliche Diskussion über Prüfungen im KI-Zeitalter ein.

Die neue Verlockung

In Foren wie Reddit wird derzeit intensiv über das Versprechen „Hausarbeit in 4 Stunden“ diskutiert. Kommerzielle Anbieter von KI-Prüfungsservices werben auf Instagram, LinkedIn und nicht zuletzt ihren Websites mit genau diesem Versprechen. Unter Prüfungsservices verstehen wir dabei nicht allgemeine Sprachmodelle wie ChatGPT, sondern kostenpflichtige, darauf aufbauende Anwendungen, die speziell dafür entwickelt wurden, schriftliche Prüfungsleistungen vollautomatisiert zu erzeugen.

Es sei ganz einfach: Thema und Formalia festlegen und den Rest übernimmt die KI. Selbst Quellenangaben und Eigenständigkeitserklärungen werden automatisch generiert. Nach Zahlung eines höheren zweistelligen Betrags oder Aboabschlusses steht die vollständige Abgabeversion einer Haus- oder Abschlussarbeit in wenigen Stunden zur Verfügung. Gerade das Versprechen, dass korrekte Quellenangaben mitgeliefert werden, wirft Fragen auf, da die Anwendungen auf großen Sprachmodellen (Large Language Models, abgekürzt LLMs) wie etwa ChatGPT aufbauen und Quellenarbeit gemäß der Funktionsweise der Modelle eine bekannte Schwachstelle darstellt. Das ist den Anbietern bewusst, die gezielt damit werben, dass Studierende daher besser nicht zum normalen ChatGPT, sondern ihrem Service greifen sollten. Bekommen die Anbieter diese Schwachstellen in den Griff? Dazu später mehr.

Das Werbeversprechen ist klar: Mit extrem wenig Arbeit soll die abgabefertige und nicht als KI-generiert zu erkennende Arbeit eingereicht werden können. Auch wenn aus rechtlichen Gründen meist darauf hingewiesen wird, dass die Arbeiten nur Muster sind und nicht eingereicht werden dürfen, steht das Versprechen der Abgabefertigkeit zentral im Raum. Wofür sonst sollte neben der automatisch generierten Eigenständigkeitserklärung sogar ein KI-Check mitgeliefert werden, der die Unerkennbarkeit des Textes als KI-generiert belegen soll. Wer für diese Services zahlt, soll sicher sein können, die Arbeit gefahrlos einreichen zu können. Der Widerspruch zwischen Produktversprechen und rechtlicher Absicherung ist offensichtlich. Die Anbieter wissen genau, dass ihre Services in der Praxis auf Täuschung angelegt sind und sichern sich zugleich mit Klauseln und der weiten Auslegung von KI-Richtlinien der Hochschulen rechtlich ab. Wir haben mehrere der Anbieter kontaktiert, um ihre Perspektive auf Funktionsweise, Qualitätsversprechen und die rechtliche Einordnung ihres KI-Schreibservices zu hören – leider ohne Reaktion.

In den Foren wird – anders als es uns die Schauseite der Anbieter mit ihrer Positivschwemme an Bewertungen suggerieren – wesentlich kontroverser diskutiert. Es herrschen Zweifel an der Qualität und den Garantieversprechen der Anbieter. Tester:innen der Anwendungen schreiben im Forum auch über den hohen Korrekturaufwand, wenn man es mit der anschließenden Überarbeitung des Generats ernst meint. An der Diskussion lässt sich erkennen, dass viele Studierenden genau wissen, warum KI-generierte Abschlussarbeiten eine schlechte Idee sind. Neben technischer Fragwürdigkeit, methodischer Mittelmäßigkeit und rechtlichen Unsicherheiten ist das wichtigste Gegenargument der Lernprozess selbst. Wer sich für eine KI-Arbeit „auf Knopfdruck“ entscheidet, verpasst genau jene Lernprozesse, die ein Studium ausmachen sollen: strukturiertes Denken, kritisches Reflektieren, selbständiges Argumentieren. 

Trotz dieser Einsichten greifen einige Studierende in Drucksituationen dennoch zu solchen Tools – sei es aus Bequemlichkeit, aus Überforderung oder weil sie den Mehrwert einer Prüfung für ihren persönlichen Lernweg nicht erkennen. Viele in Teilen nachvollziehbare bis naive Motivlagen könnten hier ausschlaggebend sein. Das liegt auch am gegenwärtigen Prüfungssystem, in dem das Endprodukt oft mehr zählt als der Weg dorthin. Wenn Zertifikate wichtiger erscheinen als Kompetenzen, wenn „Abgabe“ mehr zählt als wirklich Verstandenes, dann werden möglichst umfängliche Schreibservices zur scheinbar pragmatischen Antwort auf strukturellen Leistungsdruck. Die KI-Dienste füllen damit eine Marktlücke, die zuvor Ghostwriting-Agenturen besetzt hielten. Nun allerdings zu deutlich geringeren Preisen und so auch mit niedrigeren Zugangshürden. Was früher teuer war, ist heute zwar auch noch nicht umsonst, aber inzwischen für die breite Masse erschwinglich.

Was steckt hinter den KI-Täuschungsservices?

Schnell tut sich die Frage auf, ob so eine eingekaufte Hausarbeit eigentlich legal ist. Ghostwriting-Agenturen wie KI-Schreibdienste sind schnell dabei, in marktschreierischem Tonfall 100 % Legalität zu versprechen. Die Begründung zeigt dabei argumentative Kreativität. So erklären Ghostwriting-Agenturen, dass der Ghostwriting-Prozess selbst legal wäre. Je nach Seriosität unterschiedlich tief verbuddelt, weist man jedoch darauf hin, dass es sich hier ja nur um Muster handele, die so natürlich nicht eingereicht werden dürften. Damit ist formal alles legal, wenngleich die Marketingkampagne suggeriert, abgabereife Arbeiten zur Verfügung zu stellen, indem etwa mit erreichten Noten geworben wird.

Es ist mitunter lustig anzusehen, wie sich KI-Schreibservices und traditionelle Ghostwriting-Agenturen gegenseitig kritisieren. Während die einen betonen, dass echte Menschen benötigt werden, um ordentliche Arbeiten zu verfassen, und dazu neuerdings sogar Ghostwriter vor die Social-Media-Kamera setzen, betonen KI-Dienste die niedrigen Kosten und Legalität. Die KI-Dienste haben nämlich noch ein weiteres Argument gefunden, um ihre Produkte als rechtmäßig bewerben zu können. Richtigerweise konstatieren sie, dass viele Universitäten keine (ausreichenden) KI-Leitlinien hätten und dementsprechend den Einsatz von KI-Tools nicht verbieten würden. Ein Argument, das allerdings nur greift, wenn man Standards wissenschaftlichen Arbeitens, wie etwa Transparenz über den Erkenntnisprozess und die Eigenständigkeitserklärungen, außen vor lässt.
Laut KI-Monitor 2025 (Budde, Tobor) sind letztere bei 87 % der befragten Hochschulen an die Existenz von ChatGPT & Co. angepasst worden. Auch die argumentative Grundlage zu den KI-Richtlinien wird mit der Zeit an Wirkung verlieren: Lediglich an 8 % der Hochschulen findet derzeit noch keine Entwicklung entsprechender Leitlinien statt (ebd.). Während man große Versprechungen macht, will man sich gleichzeitig als bloßes KI-Tool verstanden wissen, dessen Einsatz in vielen Universitäten nicht explizit verboten und teilweise sogar erlaubt und erwünscht ist. Damit wird unter der Hand der reflektierte und gezielte Einsatz von KI-Tools für einzelne Problemstellungen mit Tools zur vollständig automatischen Arbeitsgenerierung gleichgesetzt.

Warum das für Studierende riskant (und wenig hilfreich) ist

Anbieter KI-generierter Abschlussarbeiten werben gerne mit Endprodukten, die vermeintlich „undetectable” seien. Sie sollen von KI-Detektoren nicht als Generate erkannt werden können, was durch mitgelieferte KI-Detektoren-Tests gewährleistet werden könne. Doch so einfach ist es nicht! Einerseits lassen sich diese Arbeiten in der Praxis oft an auffälligen Brüchen im Stil, in plötzlichen Qualitätssprüngen oder fehlendem Tiefgang von Dozierenden erkennen. Andererseits liefern technische Detektionstools auf Grund ihrer Funktionsweise lediglich statistische Wahrscheinlichkeiten, keine juristisch tragfähigen Nachweise. Der Versuch, die Undetektierbarkeit eines KI-Erzeugnisses zu beweisen, zeigt in seiner Absurdität abermals, dass eine Täuschungsabsicht zumindest einkalkuliert ist. 

Das Wettrüsten von Betrugssoftware und Detection-Software scheint ohnehin ein unerschöpfliches Hase-und-Igel-Spiel zu sein. Dementsprechend gilt es, ein Umdenken einzuleiten – vor allem in Bezug auf die Rolle generativer KI in Abschlussarbeiten. Studierende müssen sich kritisch mit ihrer eigenen Haltung zur Nutzung solcher Tools auseinandersetzen. Wer komplette Arbeiten durch KI erstellen lässt, schadet nicht primär der Universität oder der Wissenschaft, sondern sich selbst (vgl. Kosmyna et al., 2025): Der Lernprozess bleibt aus, die kognitive Auseinandersetzung wird minimiert, und damit sinkt auch die Chance, Kompetenzen nachhaltig zu entwickeln. Das gilt dabei nicht nur für vollständig generierte Texte. Auch die kleinteilige Nutzung – etwa für Ideenfindung oder Argumentationsstruktur – kann lernhinderlich sein, wenn sie nicht reflektiert erfolgt. Studierende sollten sich also fragen: Wofür schreibe ich diese Arbeit Was will ich damit lernen? Kann ich die Nutzung von KI mit meinem Selbstverständnis als akademisch arbeitende Person vereinbaren?Gerade weil im Studium Qualifikationen für das spätere Berufsleben erworben werden sollen, rächen sich vermeintliche Abkürzungen, während sinnvolle, durchdachte KI-Nutzung sogar eine gefragte Kompetenz darstellt.

Gleichzeitig müssen sich auch Lehrende und die Bildungspolitik ihrer Verantwortung bewusst sein. Prüfungsformate, die allein auf schriftliche Endprodukte fokussieren, erzeugen hohem Zeit- und Leistungsdruck und fördern ein Denken in Richtung „Abgabe statt Erkenntnis“, was auch im HFD-Papier „Wissenschaftliche Abschlussarbeiten im KI-Zeitalter” (Weßels et al. 2025) zur Diskussion gestellt wird. So verschiebt sich die Priorität vom forschenden Lernen hin zum reinen Zertifikatserwerb. Die Folge: Selbstwirksamkeitserfahrungen und nachhaltiges Verstehen treten in den Hintergrund.

Wo Lehrende genau hinschauen sollten

Die Versprechen der Anbieter sind groß. Neben guten Noten bei minimalem Zeitaufwand und Undetektierbarkeit wird immer wieder die Quellenarbeit betont. Anders als KI-Tools, die nicht explizit auf wissenschaftliches Arbeiten ausgelegt sind, arbeite man hier mit „echten Quellen”. So wirbt ein Anbieter etwa damit, die vollständige Literaturrecherche mit Quellen und Zitaten vorzunehmen, wobei nochmal extra erwähnt wird, dass bei der Zitierung auch die korrekten Seitenzahlen eingefügt werden. Das Problem ist bekannt: Als stochastische Papageien haben LLMs große Probleme, wortgenaue Zitate wiederzugeben und korrekte Quellenangaben zu machen. Fiktive Literaturangaben wurden schon früh als Problem erkannt (Eckenstaler, 2023). Auch mehr als zwei Jahre später hat sich an diesem Befund wenig geändert. Zitate und Literaturverzeichnisse bleiben die Achillesverse der LLMs. Dieses Versprechen, das Leiden geheilt zu haben, trifft also einen wunden Punkt. Allerdings sind auch diese Dienste mitnichten so weit wie versprochen. Schaut man in Beispielarbeiten, findet sich kein einziges wörtliches Zitat. Die Belege sind zwar seitengenau und mit Quelle aufgeführt, beziehen sich jedoch auf allgemeine Aussagen und nie auf konkrete Zitate. So gelingt es dem Service, vermeintlich erstklassige Arbeiten abzugeben, ohne ein einziges Anführungszeichen zu verwenden.

Auch die Literaturverzeichnisse sind weit davon entfernt, wissenschaftlichen Standards zu genügen. Zwar kann etwa ein beigefügter KI-generierter Literaturbericht zeigen, dass die genannten Texte wirklich existieren und verarbeitet wurden, die Qualität der Quellenauswahl und Literaturnachweise weist aber eklatante Mängel auf. Abgesehen von durch die User selbst eingebundene Texte wird erst einmal nur verwertet, was ungeschützt im Netz zu finden ist. Da wird dann auch mal die Vorschaudatei eines Studienbriefes ausgewertet – oder hat ein umfangreicher Artikel laut Literaturverzeichnis nur eine Seite Umfang. Eine Auffälligkeit, die sich dann etwa daraus erklärt, dass die anderen Seiten nicht zugänglich waren und somit die einseitige Vorschau als ganzer Artikel behandelt wurde. Andersherum passiert es aber auch, dass ein Sammelbandaufsatz dem ganzen Buchumfang entsprechen soll, da nicht ordentlich erkannt wurde, dass es sich nicht um eine Monographie handelt. Wer sich die Mühe macht, einigen der Quellen zu folgen, wird also nicht nur auf irrelevante Literatur stoßen, sondern auch schnell fehlerhafte Angaben finden.

Ausschließliche Nutzung digital vorliegender Quellen, fehlende wörtliche Zitate und grobe Fehler im Literaturverzeichnis sind also weiterhin gute Hinweise für Prüfende, um zweimal hinzuschauen. Das allerdings nicht vorrangig, um zu klären, ob oder in welchem Umfang ein Text KI-generiert wurde – ein Verdacht, der sich rechtlich nur schwer beweisen lässt –, sondern weil es sich hier üblicherweise um gravierende Mängel des wissenschaftlichen Arbeitens handelt. 

Wie lange diese Alarmsysteme noch anschlagen, lässt sich nicht sicher sagen. Bisher ist es jedenfalls vollautomatischen Systemen weder gelungen, echte Zitate zu integrieren, noch überzeugende Literaturrecherche zu betreiben. Bei Verdacht auf KI-Nutzung à la „Hausarbeit auf Knopfdruck” ist der beste Tipp nach wie vor, nach Zitaten Ausschau zu halten und das Literaturverzeichnis einer genauen Überprüfung zu unterziehen. 

Verstehen statt verbieten: Wie wir produktiv über KI in Prüfungen sprechen können

Zu oft liegt der Fokus dabei darauf, KI-Einsatz zu identifizieren, um Täuschungen zu belegen. Dieser Zugang läuft Gefahr, das Vertrauensverhältnis in der Hochschllandschaft zu zerrütten. Mit einer generellen Verdachtshermeneutik verspielt die Hochschule eine ihrer großen Stärken. Denn persönliche und authentische Lehre ist weiterhin zentral für das akademische Miteinander und sogar eine zielführende Möglichkeit, um illegitimer KI-Nutzung entgegenzuwirken. Denn wenn Lehre nicht nur als Vorbereitung auf die Prüfung, sondern als Möglichkeit der persönlichen Entwicklung gesehen wird und sich dies in einem Vertrauensverhältnis zwischen Studierenden und Lehrenden widerspiegelt, ist die Motivation zu täuschen sicher geringer (vgl. Steffensen & Schuster 2020, die auf die Bedeutung von Lernkultur sowie Sinn- und Zielkonstruktionen für Redlichkeit im Studium verweisen).. Diese Perspektive fällt in Zeiten von Finanzierungsrücknahmen und der Forderung nach schneller beruflicher Qualifizierung leider auf wenig fruchtbaren Boden. Es ist ein von der (Bildungs-)politik häufig nicht verstandenes Paradoxon: Mindestens in den ersten Jahren des KI-Hypes bedeutet das Aufkommen von KI ein Mehr an Arbeit und keine Ressourcenersparnis. 

Es lohnt sich also, aus der Täuschungsdiskussion einen Schritt zurückzutreten: Welche Motive bewegen Studierende eigentlich dazu, auf vermeintliche KI-Rundumlösungen zurückzugreifen? Und was braucht es, um eigenständiges wissenschaftliches Arbeiten auch unter KI-Bedingungen zu fördern?

Die Entscheidung für generative KI als vermeintliche Abkürzung entpuppt sich bei genauerem Hinsehen nur selten als Faulheit. Vielmehr ist sie ein Symptom struktureller Probleme. Eingeschränkte Wahlmöglichkeiten bei Modulen, mangelnde Passung zwischen Themen und Interessen, prüfungszentrierte anonyme Lehrformate ohne Raum für individuelle Vertiefung. Nicht selten stehen Prüfungsformate sogar im Widerspruch zum eigentlichen Lernziel. Je weniger nachvollziehbar ist, warum eine bestimmte Aufgabenstellung oder Abgabeform eine prüfungsdidaktische Funktion erfüllt, desto naheliegender ist es, die Prüfung als lästige Pflicht möglichst schnell abhaken zu wollen. Eine Spannung, die gewiss nicht neu ist, aber durch den KI-Einsatz noch einmal dringlicher geworden ist. Gerade im Prüfungswesen erweist sich KI als Faktor, der die etablierte Prüfungskultur also radikal infrage stellt. Eine Disruption, die entweder zu einer Zunahme von Misstrauen und Kontrolle führen kann oder Bestrebungen für eine zeitgemäßere Prüfungskultur befördert.

Mindestens in einem Punkt sind sich (fast) alle Akteure der Hochschullandschaft einig: KI ist gekommen, um zu bleiben! Es ist daher zu erwarten, dass KI ein zunehmend selbstverständlicher Bestandteil des akademischen (und natürlich auch außerakademischen) Alltags sein wird. Deshalb braucht es eine durchdachte Strategie zur Förderung von AI-Literacy. Gemeint ist damit die Fähigkeit, mit KI zu arbeiten, sie zu reflektieren und effektiv zu nutzen, ohne die eigenen Fähigkeiten zu vernachlässigen und andere zu betrügen. Vielleicht sogar der wichtigste akademische Skill der kommenden Jahre. Ein Skill, der nebenbei bemerkt so neu ist, dass er von allen Seiten entwickelt werden muss, wodurch nicht nur Studierende, sondern auch Lehrende zu Lernenden werden. Eine Situation, die Transparenz statt Misstrauen bedarf, damit sich ein produktiver Umgang mit KI entwickeln kann.

Was ein solcher produktiver Umgang für die Prüfungskultur bedeutet, wird sich noch zeigen. Alternative Bewertungsverfahren, flexiblere Zeiträume, stärkere Betonung von Prozess- statt Ergebnisorientierung oder eine Fokussierung auf wenige intensiv begleitete Prüfungen statt Massenprüfungen. Mit neuen Prüfungsformen und -verständnissen lassen sich bestenfalls nicht nur Täuschungsmotive aus dem Weg räumen, sondern auch neue Räume für individuelle Lernwege schaffen.

Ausblick: Was uns KI über akademisches Schreiben lehrt

Akademisches Schreiben ist aus Prüfungen kaum wegzudenken. Auch wenn der Stellenwert je nach Fachkultur variiert, müssen üblicherweise spätestens zum Studienabschluss wissenschaftliche Texte angefertigt werden, die meist über den Erfolg des Studiums entscheiden. Das begründet sich unter anderem darin, dass wissenschaftliches Schreiben eine der bewährtesten und flexibelsten Prüfungspraktiken ist, die auch in der (wissenschaftlichen) Arbeit nach dem Studium eine große Rolle spielt. Über fast alles kann geschrieben werden und Verfahren zur Bewertung von Text haben eine lange Tradition und fallen vielen Prüfenden daher verhältnismäßig leicht, während neue Prüfungsformen eben auch neue Bewertungskriterien mit sich bringen, die für alle am Prüfungsprozess beteiligten Akteure Neuland sind. Allerdings weist die Schreibdidaktik nicht umsonst darauf hin, dass häufig ein gut geschriebener Text fälschlicherweise mit einem gut verstandenen Sachverhalt gleichgesetzt wird. Da sich die stilistische Qualität eines Textes kaum aus dem Gesamtbild isolieren lässt, führt dies in letzter Konsequenz dazu, dass am eigentlichen Prüfungsziel vorbeigeprüft werden kann.

Textgenerative KI wirbelt auch diese Zusammenhänge gehörig auf. So hat sie das Potential, dass sich durch das Elternhaus oder andere soziale Umfelder angeeignete Stilqualitäten angleichen und der Zusammenhang zwischen Verständnis und Schreiben noch deutlicher aufgeweicht wird. Gleichzeitig kann davon ausgegangen werden, dass KI für (wissenschaftliches) Schreiben jenseits von Prüfungen immer mehr normalisiert wird. So erlauben etwa diverse Förderrichtlinien bereits den Einsatz von KI zur Antragsstellung (z.B. erlaubt die DAAD explizit den KI Einsatz, wenn auch stark reguliert). Automatisierte Antragsprosa ist sicherlich ein gutes Beispiel dafür, wie KI tatsächlich Arbeitslast reduzieren kann und so sogar mehr Freiräume für sorgfältiges wissenschaftliches Schreiben (mit oder ohne KI) schaffen kann.

Textgenerative KI sollte daher ein Anlass sein, die Bedeutung von wissenschaftlichem Text neu zu denken. Welche Textgattungen werden beruflich wirklich gefordert? Wie ist ein „guter” Stil zu bewerten? Soll KI-Nutzung unterbunden oder vielleicht sogar als Standard eingefordert werden? Und nicht zuletzt: Was sagt geschriebener Text wirklich über den Lernstand aus? 

Für das Prüfungswesen sollte dies bedeuten, textbasierte Prüfungen nicht als Standard zu betrachten, sondern gezielt einzusetzen und zunehmend Prüfungsformen zu etablieren, die Lernentwicklungen jenseits von Textarbeit sichtbar machen. Auch wenn lebendiges Wissen sicher nicht nur im Dialog sichtbar wird, lässt sich schon jetzt beobachten, dass nicht zuletzt wegen KI zunehmend auf mündliche Prüfungen gesetzt wird.

Literatur

Budde, J., Tobor, J. (2025). KI Monitor 2025. Hochschulen gestalten den KI-Alltag. Berlin: Hochschulforum Digitalisierung. https://hochschulforumdigitalisierung.de/wp-content/uploads/2025/09/Blickpunkt_KI-Monitor25.pdf

Eckenstaler, S. (2023): ChatGPT in den Geschichtswissenschaften? Ein Praxisversuch. HFD-Blog:  https://hochschulforumdigitalisierung.de/chatgpt-in-den-geschichtswissenschaften-ein-praxisversuch-2/ 

Kosmyna, N., Hauptmann, E., Yuan, Y. T., Situ, J., Liao, X. H., Beresnitzky, A. V., Braunstein, I., Maes, P. (2025). Your brain on chatgpt: Accumulation of cognitive debt when using an ai assistant for essay writing task. arXiv preprint arXiv:2506.08872. https://arxiv.org/abs/2506.08872 

Steffensen, B., & Schuster, K. (2020). Studentische (Un-)Redlichkeit beim Erwerb von Studienleistungen. die
hochschullehre, 6, 604-613. https://doi.org/10.3278/HSL2051W

Weßels D., Bils A., Budde J. (2025). Wissenschaftliche Abschlussarbeiten im KI-Zeitalter. Disruption, Herausforderungen und neue Bewertungsansätze. Diskussionspapier Nr. 38. Berlin: Hochschulforum Digitalisierung.  https://hochschulforumdigitalisierung.de/wp-content/uploads/2025/10/HFD_DP_38_wissenschaftliche_Abschlussarbeiten_im_KI-Zeitalter.pdf

Autoren

Andreas Giesbert Foto

Andreas Giesbert ist Fachmediendidaktiker an der Fakultät für Kultur- und Sozialwissenschaften an der FernUni in Hagen. Für den KI-Campus Hub NRW organisiert er gemeinsam mit dem VK:KIWA den Offenen Think Tank: Prüfungswesen und Hochschultransformation im Kontext von KI.

Profilbild von Jens Tobor

Jens Tobor ist seit 2022 als Projektmanager des Hochschulforums Digitalisierung tätig. Er befasst sich mit den Auswirkungen der generativen KI auf die Hochschulbildung. In diesem Kontext beschäftigt er sich insbesondere mit zeitgemäßem Prüfen an Hochschulen und einer entsprechend ermöglichenden Prüfungskultur. Davor studierte er Organisationssoziologie an der Universität Bielefeld und war Werkstudent beim Bau- und Liegenschaftsbetrieb des Landes Nordrhein-Westfalen, wo er Ansätze zur innovativen Lernraumgestaltung vorantrieb.

Foto Lukas Riechert

Lukas Riechert studierte von 2021 bis 2025 Erziehungswissenschaften und Soziologie an der Universität Göttingen. In seiner Abschlussarbeit beschäftigte er sich mit der Prüfungskultur an Hochschulen. Dabei verglich er die Perspektiven von Studierenden und Lehrenden und entwickelte so einen Ansatz, mit dem sich unterschiedliche Dimensionen von Prüfungskultur systematisch erfassen lassen. Weitere praktische Einblicke in die Hochschulforschung sammelte er im Rahmen eines Praktikums beim Hochschulforum Digitalisierung im Juni und Juli 2025.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert