ChatGPT wird im Bildungskontext eine disruptive Wirkung zugeschrieben. Dabei stellt die generative Technologie nur die Spitze eines Eisberges von zahlreichen KI-Technologien dar. Besonders Lehrende werden hierbei vor große Herausforderungen gestellt. So können KI-Technologien großen Einfluss auf die didaktische Konzeption eines Kurses haben. In diesem Beitrag stellt Dr. Anna Faust von der Humboldt-Universität zu Berlin einen Ansatz vor, wie Lehrende ohne KI-Expertise sich KI-Technologien annähern können, um diese zielführend in die eigene Lehrveranstaltung einzubinden.
Der Ansatz umfasst vier Schritte, die im Folgenden kurz aufgezeigt werden:
Im ersten Schritt wird die Lehrveranstaltung genauer unter die Lupe genommen. Welche Lernergebnisse werden bei der Lehrveranstaltung angestrebt? Welche konkreten Lernziele gibt es? Welche Kompetenzen sollen am Ende der Veranstaltung auf welchem Niveau vorhanden sein und geprüft werden?
Vor dem Hintergrund einer dynamischen Entwicklung ist es kein realistischer Anspruch, dass Lehrende die Gesamtheit aller KI-Tools und deren technische Funktionsweise kennen. Zielführender erscheint es, dass Lehrende gezielt KI-Kompetenz stärken bzw. aufbauen. In diesem Schritt wollen wir daher Lehrende anregen, ein relevantes KI-Tool zu identifizieren. Einen Überblick über diverse KI-Tools gibt es beispielsweise hier.
Die KI-Anwendung kann hierbei fachlich oder methodisch von Bedeutung sein. Wichtig ist ein Bezug von KI zu den Lernzielen und Kompetenzen der Veranstaltung sowie, dass der tatsächliche Zweck des Tools erfasst wird. Die Notwendigkeit hierfür wird bei der derzeitigen Debatte um ChatGPT deutlich, in welcher der Technologie lügen bzw. ‚bullshitting‘ angelastet wird. Hierbei wird von ChatGPT nicht nur die Erstellung von Text, sondern auch eine Recherche und Aufbereitung von Fakten erwartet. OpenAI verwies auf die Grenzen des Sprachmodells – so z.B. das Generieren von Fehlinformationen und die Reproduktion von voreingenommenen und stereotypischen Inhalten. Im Fazit kann die Kritik an der KI-Anwendung teilweise auf ein beschränktes Verständnis zur eigentlichen Funktionalität zurückgeführt werden.
Im dritten Schritt stellen wir uns die Frage: Was sollen die Studierenden am Ende der Veranstaltung können? Welche Kompetenzen sollen erworben werden – und wo lohnt es sich, zusätzliche Kompetenzen zu einem KI-Tool aufzubauen? Entlang der Veranstaltung können Lehrende zwei oder mehr Sitzungen identifizieren, welche sich für den Einsatz der gewählten KI-Anwendung anbieten.
Im vierten Schritt wird der Einsatz des KI-Tools didaktisch durchdacht. Dies umfasst beispielsweise die Lern-/Lehrmethoden. Aus unserer Perspektive haben sich dabei Praxisbeispiele und Hands-on-Exercises oder projekt-basiertes Lernen als vorteilhaft erwiesen.
Dabei kann es von Vorteil sein, die Rolle der Lehrenden zu hinterfragen. Ähnlich zum Rollenverständnis im Rahmen des forschenden Lernen kann sich die Rolle der Lehrenden verschieben, hin zu Lernhelfer:in oder Lernprozessbegleiter:in. Die Verantwortung liegt dann darin, eine Lernumwelt zu schaffen, in welcher Studierende eigenständig und handlungsorientiert Fragestellungen bearbeiten. In anderen Worten: KI-Tools werden zusammen erkundet und gezielt entlang von konkreten Fragestellungen hinsichtlich von Stärken, Schwächen, Chancen und Gefahren reflektiert.
Für den Einsatz von KI-Tools in der Veranstaltung sollten zudem klare Regeln definiert werden und ggf. Aufgabenstellungen angepasst werden.
Egal, ob Sie planen, KI-Tools in ihrer Lehre teilweise oder gar durchweg einzusetzen: es braucht klare Regeln. Diese sollten im Einklang mit den Kompetenzzielen und Lehr-Lern-Settings stehen. Bisher gibt es diverse Ansätze für Regelwerke, die je nach Kontext geeignet sind:
§ Verbot der Nutzung von spezifischen oder sämtlichen KI-Tools. § Einige Institutionen planen die Einführung einer Software zur Erkennung von KI-generierten Texten. Die Funktionalität der Software scheint dieser Aufgabe jedoch noch nicht gewachsen zu sein. Die Softwarelösung von OpenAI erkennt in Testläufen beispielsweise nur 26 Prozent der von KI generierten Texte korrekt, gleichzeitig werden 9 Prozent der von Menschen verfassten Texte fälschlicher Weise der KI zugeschreiben. § Die Fachzeitschrift Nature und alle Springer Nature Fachzeitschriften fordern von den Autor:innen das Kenntlichmachen verwendeter Large-Language-Models im Methodik-Abschnitt. KI-Tools werden gleichzeitig nicht als Autoren akzeptiert, da Autorenschaft mit einer Rechenschaftspflicht einhergeht, welche nicht von KI getragen werden kann. § Prof. Christian Spannagel hat „Rules for Tools“ definiert (Rules for Tools). Grundsätzlich sind hier KI-Tools erlaubt. Auch hier gilt: ihre Verwendung muss kenntlich gemacht werden und die klare Verantwortung für den Text liegt bei den Studierenden. § Hendrik Haverkamp befürwortet die Nutzung von KI-Tools in Prüfung mit dem Kompetenzschwerpunk argumentativ-erörterndes Schreiben. Zusätzlich zum Argumentationstext wird eine Reflexion verfasst, in welchem die Verwendung von KI-generierten Textabschnitten kenntlich gemacht wird und begründet wird. Dies fördert insbesondere ein Verständnis für Funktionalität, Fähigkeiten sowie Grenzen der Tools und fördert die methodische Reflexionskompetenz.
§ Verbot der Nutzung von spezifischen oder sämtlichen KI-Tools.
§ Einige Institutionen planen die Einführung einer Software zur Erkennung von KI-generierten Texten. Die Funktionalität der Software scheint dieser Aufgabe jedoch noch nicht gewachsen zu sein. Die Softwarelösung von OpenAI erkennt in Testläufen beispielsweise nur 26 Prozent der von KI generierten Texte korrekt, gleichzeitig werden 9 Prozent der von Menschen verfassten Texte fälschlicher Weise der KI zugeschreiben.
§ Die Fachzeitschrift Nature und alle Springer Nature Fachzeitschriften fordern von den Autor:innen das Kenntlichmachen verwendeter Large-Language-Models im Methodik-Abschnitt. KI-Tools werden gleichzeitig nicht als Autoren akzeptiert, da Autorenschaft mit einer Rechenschaftspflicht einhergeht, welche nicht von KI getragen werden kann.
§ Prof. Christian Spannagel hat „Rules for Tools“ definiert (Rules for Tools). Grundsätzlich sind hier KI-Tools erlaubt. Auch hier gilt: ihre Verwendung muss kenntlich gemacht werden und die klare Verantwortung für den Text liegt bei den Studierenden.
§ Hendrik Haverkamp befürwortet die Nutzung von KI-Tools in Prüfung mit dem Kompetenzschwerpunk argumentativ-erörterndes Schreiben. Zusätzlich zum Argumentationstext wird eine Reflexion verfasst, in welchem die Verwendung von KI-generierten Textabschnitten kenntlich gemacht wird und begründet wird. Dies fördert insbesondere ein Verständnis für Funktionalität, Fähigkeiten sowie Grenzen der Tools und fördert die methodische Reflexionskompetenz.
Bei der Entscheidung für bestimmte Regeln können auch andere Aspekte einfließen, z.B. Bildungsgerechtigkeit und Datenschutz. Wichtig ist an dieser Stelle eine Betrachtung aus der Perspektive der Bildungsgerechtigkeit. So wurde ChatGPT zunächst kostenlos zur Verfügung gestellt. Viele Nutzer:innen kennen die Blackout-Anzeige aufgrund von zu vielen Anfragen. Auf kurz oder lang soll die generative KI kostenpflichtig werden. Bereits jetzt gibt es die Option, ChatGPT Plus zu nutzen, welche für 20 US$/Monat schnelle Antworten, Zugriff auf neue Features und unbegrenzten Zugriff ohne Blackout-Anzeigen ermöglicht. Mit Blick auf den Grundsatz der Chancengleichheit und Fairness muss dies bei Entscheidungen für oder gegen KI-Tools zwingend mitgedacht werden.
Darüber hinaus sind datenschutzrechtliche Überlegungen zu berücksichtigen. Der Einsatz eines KI-Tools erfordert zum Teil die Zustimmung zur Verarbeitung von personenbezogenen Nutzerdaten (Angabe von Kontaktdaten, IP-Adresse, Standort, tlw. Kauf- und Suchverhalten und mehr). Von Studierenden kann nicht verlangt werden, den Nutzungsbedingungen zuzustimmen.
Hinzukommen können Anforderungen der DSGVO, welche Erfüllt werden müssen. Hierbei kann es von Vorteil sein, schon bei der Auswahl der Tools auf KI zu setzen, die im Inland bzw. im Europäischen Raum entwickelt wurde (z.B. Neuroflash).
Insbesondere ChatGPT stellt Lehrende vor Herausforderungen. Nicht zuletzt, weil diverse Prüfungsformate der Hochschulbildung auf dem Erstellen von Texten basieren. Seit der Einführung von ChatGPT stellt sich also die Frage, ob und wie Aufgabenstellungen im Hochschulkontext angepasst bzw. der Kompetenzrahmen erweitert werden sollten.
Steht hierbei als Lernziel die KI-Tool-Kompetenz im Vordergrund, können beispielsweise folgende Fragen fokussiert werden, welches sich sowohl auf ChatGPT als auch auf andere KI-Tools beziehen können:
Diese Fragen können beispielsweise in einem zusätzlichen Reflexionsteil am Ende der Arbeit adressiert werden.
Steht die Anpassung von Fragestellungen an sich im Fokus, so scheint bei einer Zulassung von z.B. ChatGPT eine Verschiebung zu höheren Kompetenzniveaus sinnvoll. In anderen Worten: Aufgabenstellungen weg von der reinen Wissensabfrage, hin zur Prüfung höherer Kompetenzniveaus.
Aufgabenstellungen lassen sich in sechs Taxonomiestufen unterteilen. In bisherigen Versuchen (Terwiesch 2023) zeigt sich, dass ChatGPT sehr gute Ergebnisse bei der Beantwortung von Fragen der unteren Niveaustufen zeigt. Bei höheren Niveaustufen werden die Ergebnisse eher als „schwafelnd“ oder gar falsch bewertet. Entsprechend könnten die Aufgabenstellungen in Prüfungsformaten angepasst werden, indem die Niveaustufe gehoben wird. Hier finden sich einige Beispiele für die Formulierung von Aufgabenstellungen der jeweiligen Niveaustufen:
Stufe 1: Erinnern
Stufe 2: Verstehen
Stufe 3: Anwenden
Stufe 4: Analysieren
Stufe 5: Synthetisieren
Stufe 6: Bewerten
Aufgaben können auch angepasst werden, indem aktuelle Ereignisse in die Aufgabenstellung einbezogen werden. Nicht zu vergessen ist, dass der Prozess des Schreibens verschiedenen Absichten dienen kann. So unterscheidet Ludwig (1983, S. 54) zwischen folgenden Zwecken: Schreiben, …
Es wird klar, dass ChatGPT nicht alle Schreibzwecke erfüllen kann. Insbesondere bei den Punkten zwei, sechs und sieben stößt die generative KI an ihre Grenzen, da der Schreibprozess hierbei an individuelle Empfindung oder Reflexion geknüpft ist.
Festzuhalten bleibt: In den folgenden Jahren kann mit diversen neuen KI-Anwendungen gerechnet werden. Um mündige Nutzer:innen auszubilden, sollte Hochschulen KI-Tools und eine entsprechende Reflexionskompetenz und Analysekompetenz in ihre Lehrveranstaltungen und Kompetenzrahmen integrieren. Dies verlangt Lehrenden teilweise einen Rollenwechsel ab. Die Notwendigkeit des Schreibens bleibt ungerührt von textgenerierender KI bestehen.
Christian Terwiesch, “Would Chat GPT Get a Wharton MBA? A Prediction Based on Its Performance in the Operations Management Course”, Mack Institute for Innovation Management at the Wharton School, University of Pennsylvania, 2023
Ludwig, Otto: Einige Gedanken zu einer Theorie des Schreibens. In: GROSSE, SIEGFRIED: Schriftsprachlichkeit. Düsseldorf: Pädagogischer Verlag Schwan, 1983, 37-73
Your first name.
Weitere Informationen über Textformate
Enter the characters shown in the image.
Das Hochschulforum Digitalisierung möchte Ihre Ideen in die Gestaltung der Website einbeziehen. Dafür bitten wir Sie herzlich, an unserer Umfrage teilzunehmen.Als Dankeschön können Sie einen von drei Hoodies vom Hochschulforum Digitalisierung gewinnen.
Hinweis: Die Umfrage wird über Google Formulare durchgeführt. Durch Klicken auf den Button werden Sie zum Google Formular weitergeleitet.
Jetzt teilnehmen