KI-generierte Texte sind überall: Was dies für die Lehre bedeutet

KI-generierte Texte sind überall: Was dies für die Lehre bedeutet

20.12.23

Titel des Blogbeitrags: "KI-GENERIERTE TEXTE SIND ÜBERALL." Untertitel: "Was dies für die Lehre bedeutet. Ein Gastbeitrag von Kristin Eichhorn". Logo rechts unten: Hochschulforum Digitalisierung. Bild in der oberen Hälfte zeigt eine Welle.

Allgemein bekannt ist: KI-Tools wie ChatGPT können dazu neigen, aufgrund fehlender Informationen bestimmte Antworten zu „erfinden“. Deswegen werden insbesondere Studierende dazu aufgefordert, ihren Umgang mit KI-Tools zu reflektieren und die generierten Texten sorgfältig zu hinterfragen. Aber inwieweit ist dieser Umgang ausreichend? Kristin Eichhorn weist in diesem Gastbeitrag darauf hin, dass wir nicht nur bei bewusst generierte Texten aufpassen müssen. KI-genierte Texte sind zunehmend überall – und als solche nicht immer gekennzeichnet.

Gut ein Jahr ist ein nun her, dass die Freigabe von ChatGPT große Diskussionen über die Möglichkeiten Künstlicher Intelligenz ausgelöst und damit auch die Hochschullehre in Aufregung versetzt hat. Es wurden zahlreiche Debatten geführt, wie man in der Lehre möglichst gut mit den neuen technischen Gegebenheiten umgehen soll. Dabei ist die Diskussion über KI in der Hochschullehre bislang vor allem eine Diskussion über die Prüfungskultur. Denn wenn sich auf Knopfdruck gut formulierte Texte generieren und Aufgaben lösen lassen, stellt sich bei allen Prüfungsformaten, die Studierende von zu Hause aus absolvieren, die Frage, wie eigenständig die eingereichten Ergebnisse dann noch sein können. Dies gilt umso mehr, als ChatGPT jedes Mal neue Antworten generiert. Eine (wörtliche) Übernahme einer KI-generierten Lösung lässt also niemals sicher nachweisen.

Die Hochschulen haben auf diese Entwicklung unterschiedlich reagiert. In der Regel ist man schnell zu dem Schluss gekommen, dass Nutzungsverbote nicht zielführend sein können und auch nicht kontrollierbar sind. Deshalb läuft die aktuelle Praxis einerseits darauf hinaus, in den Lehrveranstaltungen den Umgang mit KI-Tools bewusst zu üben oder zu problematisieren bzw. bei Hausarbeiten und anderen Take-Home-Exams Nutzungsabfragen zu machen, um Studierende hinsichtlich ihrer KI-Nutzung zu sensibilisieren. Andererseits diskutiert man aber durchaus auch über die Zeitgemäßheit bestimmter Prüfungsformate: Während von Hand und im Hörsaal geschriebene Klausuren kaum KI-manipulierbar sind, gilt dies für die Hausarbeit als wichtiges Prüfungsformat in vielen Geisteswissenschaften sehr wohl. Entsprechend gibt es Überlegungen, diese Formate zugunsten von mehr mündlichen Leistungen zurückzufahren, um sicherzustellen, dass man wirklich Können und Wissen der Studierenden bewertet, nicht die irgendwelcher KI-Tools.

Wir müssen uns mit der Existenz von ChatGPT und anderen Chatbots und KI-Tools aber auch jenseits von Prüfungsformaten beschäftigen. So gibt es einen Aspekt, der bislang in Bezug auf Hochschullehre kaum diskutiert worden ist, der aber meines Erachtens noch viel weitreichendere Bedeutung entwickeln wird als die leichtere Verfügbarkeit von Betrugsmöglichkeiten: Es geht um die Zuverlässigkeit von Informationen, die Menschen (nicht nur Studierende!) bei einer Internetrecherche finden – und zwar auch dann, wenn sie (bewusst) nicht mit Chatbots arbeiten.

Auf das Problem aufmerksam machte mich die Beobachtung einer kanadischen Kollegin, die ChatGPT nach einer Zusammenfassung eines ihr gut bekannten Romans bat. Das Ergebnis: Die Zusammenfassung war vollkommener Unsinn und hatte nichts mit der Handlung des Textes zu tun. Nun ist es inzwischen bereits eine gewisse Binsenweisheit, dass man mit Auskünften des Chatbots sehr vorsichtig sein muss, weil ChatGPT beim Fehlen von Informationen dazu neigt, Antworten zu ‚erfinden‘: Von ganzen Biografien bis zu Forschungstexten ist alles dabei.

Dennoch ist das Beispiel der Romanzusammenfassung von besonderer Brisanz. Bereits jetzt zeichnet sich ab, dass Websites für die Produktion von Standardcontent gerne auf KI zurückgreifen, weil sich auf diese Weise mühelos Überblickstexte schreiben lassen. Die Handlung eines literarischen Textes zusammenzufassen ist eine Aufgabe, von der man annehmen kann, dass sie für eine solche KI-Verwendung äußert naheliegt. Denn es handelt sich um eine eher lästige Fleißarbeit, bei der man eigentlich nicht allzu viel falsch machen kann, sofern eine gewisse Textkenntnis gegeben ist. Man muss also durchaus damit rechnen, dass Websites, die diese Informationen aus irgendwelchen Gründen implementieren wollen, verstärkt auf KI zurückgreifen, um sie einfach und schnell zu generieren.

Das aber bedeutet: Wer nach Textzusammenfassungen im Internet sucht, wird noch mit deutlich höherer Wahrscheinlichkeit als bisher auf fehlerhaftes, ja sogar völlig frei erfundenes Material stoßen, das sich aber oft ziemlich plausibel anhört. Und dies wird auch jenen passieren, die bewusst auf die Nutzung von ChatGPT verzichten, weil sie um dessen Unzuverlässigkeit wissen, und deshalb anderswo nach Lösungen suchen.

Nun mag man sagen, dass Romanzusammenfassungen nicht das größte Problem darstellen. Aber sie sind ja auch nur die Spitze des Eisbergs. Unzuverlässige Informationen über Sachverhalte und Personen werden sich bald an allen Ecken und Enden im Internet finden – ein Problem, über das die Medien ja durchaus auch bereits berichten. Vor allem sind vermeintlich unstrittige und einfache Informationen (wie z. B. Lebensdaten von Personen) hier besonders anfällig, weil man dazu neigt, sie bei der Recherche am wenigsten zu hinterfragen.

Natürlich war das Internet schon immer eine Quelle, deren Verlässlichkeit dringend zu überprüfen war; Studierenden den Unterschied zwischen ‚irgendwelchen‘ Websites und wissenschaftlich gesicherten Informationen beizubringen, gehört längst zu den zentralen Inhalten jeder Einführung ins wissenschaftliche Arbeiten. Dennoch wird durch den Einsatz von KI eine Potenzierung der Menge als möglichen Falschinformationen möglich, die so noch viel zu wenig in der Lehre thematisiert wird. Eine wesentliche Aufgabe für uns als Lehrende wird also zukünftig sein, uns diese Potenzierung vor Augen zu halten und nach Wegen zu suchen, wie wir unsere Studierenden nicht nur auf die eigene Arbeit mit KI vorbereiten und die Tools in bestehende Prüfungsformate zu integrieren.

Es geht um weit mehr, als darum, Studierende auf die Leistungen und Grenzen von KI-Tools hinzuweisen, wie wir es bislang tun. Wir müssen auch ihr Bewusstsein dafür schulen, dass sie mehr und mehr von KI-generierten Texten umgeben sind. Und zwar gerade auch da, wo sie aktuell noch nicht damit rechnen mögen. Dafür braucht es Strategien und didaktische Ansätze, vor allem aber zunächst natürlich die Erkenntnis, wie dringend notwendig diese heute schon sind.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

2 Kommentare

  1. Vanessa sagt:

    Ich halte das Thema KI in der Texterstellung für ein echtes Pulverfass fürs Studium, wenn man nicht aufpasst. Den hier präsentierten Ansatz finde ich großartig und würde mal wirklich eine schnelle Einstellung auf technische Neuheiten bedeuten. Allerdings habe ich auch von einem Bekannten erfahren (Student in Marketingbereich, arbeitet nebenbei bei einer SEO Agentur NRW, kennt sich also mit KI gut aus), dass es bereits zu Spannungen gekommen ist, als eine Hausarbeit durch einen Professoren mit einer 5,0 bewertet wurde, weil er die Arbeit in ein KI-Textprogramm eingespeist hat und diese gesagt hat, der Text wäre KI-generiert. Dass so ein KI-Tool aber dazu neigt, im Zweifel sowas einfach zu behaupten, war ihm nicht bewusst. Spannende Zeiten kommen auf uns zu!

    1. Kristin Eichhorn sagt:

      Danke für die spannenden Überlegungen! Ich bezweifle, dass eine solche Benotung rechtmäßig ist, denn eine KI-Überprüfung hat keinerlei Beweiswert. Sie gibt auch nur eine Wahrscheinlichkeit an. Das dürfte einer Klage also nicht standhalten – genauso wenig wie ein Plagiatsverdacht ohne konkrete Vorlage.