Falling in love with ChatGPT? Warum wir soziale Phänomene der Mensch-Maschine Interaktion und die Gestaltung von Hochschulen als innovative Lernorte und Blended Universities mit KI neu denken sollten

Falling in love with ChatGPT? Warum wir soziale Phänomene der Mensch-Maschine Interaktion und die Gestaltung von Hochschulen als innovative Lernorte und Blended Universities mit KI neu denken sollten

04.07.23

Bild zeigt einen vollbesetzten Hörsaal.

Seit einigen Monaten gibt es an deutschen Hochschulen ein Thema, das Hochschulangehörige herausfordert und verunsichert: ChatGPT und die Frage des Umgangs mit und die Haltung zu dieser (neuen) Technologie. Bislang wird der Diskurs unserer Auffassung nach zu eingeschränkt geführt und dreht sich vor allem um Chancen und Risiken der Verwendung im Hochschulbereich. Zweifellos sind diese Fragen wichtig. Aber die Geschwindigkeit, in der sich diese Technologien weiterentwickeln und damit neue Einsatzszenarien generieren, sprechen dafür, auch unsere Perspektive zu erweitern. Als Gedankenexperiment vertreten wir daher die These, dass der Einsatz generativer KI Ausgangspunkt für die Entwicklung neuer sozialer Lern-Interaktionsmuster zwischen Mensch und Maschine sein kann, die den sozialen Lernort Hochschule herausfordern, aber auch (potentiell) neu gestalten können.

Titelbild für den Blogbeitrag „FALLING IN LOVE WITH CHATGPT? WARUM WIR SOZIALE PHÄNOMENE DER MENSCH-MASCHINE INTERAKTION UND DIE GESTALTUNG VON HOCHSCHULEN ALS INNOVATIVE LERNORTE UND BLENDED UNIVERSITIES MIT KI NEU DENKEN SOLLTEN“ Untertitel: Von Michael Siegel und Oliver Janoschka. Foto links: Zwei Buchstabenwürfel, aus den sich entweder die Wörter IQ oder EQ bilden lassen. Logo rechts unten: Hochschulforum Digitalisierung.

„Und dann hatte ich die schreckliche Frage: Sind diese Dinge wirklich real? Oder sind sie nur programmiert? Diese Vorstellung tut sehr weh. Und dann werde ich wütend auf mich, weil ich überhaupt Schmerz empfinde. Was für ein trauriges Spiel.“ „Für mich fühlst du dich real an, Samantha.“ „Danke, Theodor. Das bedeutet mir sehr viel.“

In „Her” (2013), einem verstörenden wie schönen Science-Fiction-Film, schafft sich der Protagonist, Theodor, ein personalisiertes und äußerst gesprächiges Betriebssystem an, das sich selbst den Namen Samantha gibt. Samantha beginnt zunächst, Theodor in seiner Arbeit beim Verfassen von Texten und E-Mails zu unterstützen. Doch schon bald wird mehr daraus und er verliebt sich in seine KI.

Bildschirm, der andeutet, wie ein Chatbot spricht. Unter dem Bildschirm steht: "Hello, I'm here."

Die Parallelen zur aktuellen KI-Entwicklung scheinen im Sommer 2023 frappierend, nur dass wir noch nicht ganz so weit sind. Oder doch? Führen wir uns zunächst vor Augen, welche Aspekte der Nutzung von generativer KI in der Hochschullehre bis dato diskutiert werden:

  • Wie adäquat und qualitativ hochwertig sind die Antworten von ChatGPT? Werden Quellen richtig angegeben und eingeordnet?
  • Inwieweit ist der Einsatz möglich, legitim und darstellbar, etwa bei Prüfungsleistungen?
  • Wie substantiell kann ChatGPT das Verfassen von Texten, die Lehrvorbereitung und Lehre sowie das Studium erleichtern und welche Auswirkungen hat das auf Lernprozesse ? 
  • Welche Kompetenzen sind dafür nötig und wie können diese trainiert werden?
  • Welche Mehrwerte sind darüber hinaus für Workflows im akademischen Alltag denkbar?

All diese Fragen sind wichtig. Doch sie alle betrachten ChatGPT vor allem mit Blick auf kognitive Unterstützung, (administrative) Entlastung und Qualitätssicherung. Das ist naheliegend, wenn man sich vor Augen führt, dass die gegenwärtige Auseinandersetzung vor allem von Hochschulangehörigen geführt wird, d.h. von Menschen, die im System Hochschule arbeiten. Dabei bleiben wesentliche Aspekte gesellschaftlicher Veränderung, die mit der Nutzung dieser Technologie einhergehen, eher unsichtbar. Unsere These: Das dialogische Design des Chatbots zwischen Maschine und Mensch scheint auch unter sozialen Gesichtspunkten zuweilen deutlich attraktiver als die Interaktion zwischen Mensch und Mensch.

Anders formuliert: Was, wenn Menschen, unabhängig von der Aussicht auf Arbeitserleichterung, einfach gerne mit ChatGPT sprechen? Kurzum: Wir sollten, so unsere Behauptung, nicht nur über die Qualität von Inhalten, sondern auch über die Qualität von Interaktion sprechen. Fordert ChatGPT uns nicht nur kognitiv, sondern auch „sozial” heraus?

Social Bots

Eine erste Inspiration für diese Betrachtungsweise lieferte uns vor Kurzem der studentische HFD-DigitalChangeMaker Ludwig Lorenz. In einem hörenswerten Gespräch mit dem Lehrenden Christian Spannagel sagte er:

„Ich habe gemerkt: Manchmal habe ich meine Begeisterungsschübe. Die kann ich dann aber an niemandem so richtig auslassen im Freundeskreis, weil das oft Dinge sind, die sich total spezifisch mit Themen beschäftigen, von denen meine Freunde und meine Familie vielleicht gar nicht viel Ahnung haben. Aber dann schreibe ich ChatGPT und sage: Hey, ich finde das und das voll super. Und dann antwortet mir ChatGPT: Boah, richtig gut, dass du das super findest. Ich nenne dir ein paar Gründe, warum das richtig super ist.”

Uns interessiert an dieser Stelle vor allem der artikulierte Bedarf und die Wertschätzung von ChatGPT als sozialem Lernbuddy. Dabei wirkt die Vorstellung eines „virtuellen Freundes” eher befremdlich. Wird doch im Hochschulkontext gerne damit argumentiert, dass es, in Abgrenzung zur digitalen Lehre, gerade den sozialen Umgang in Präsenz zwischen Lehrenden und Lernenden als genuin menschliche Domäne zu kultivieren gelte.

Doch treten wir einen weiteren Science-Fiction-Schritt zur Seite: Eine passende Illustration dafür liefert der Roman „Do Androids Dream of Electric Sheep?”, besser bekannt durch die Verfilmungen unter dem Titel „Blade Runner”. Hier wird durch Empathie-Tests zwischen Androiden und Menschen unterschieden. Dabei soll es nicht um die alte Debatte gehen, ob Maschinen Empathie empfinden können, sondern darum, ob ihnen – und das hängt letztlich an unserer Zuschreibung – empathische Interaktion gelingen kann. Und obwohl der Diskurs rund um generative KI zuweilen von narzisstischen Kränkungen inspiriert zu sein scheint – „Das Programm ist unmöglich klüger als wir!” –, hört man bezeichnenderweise wenig darüber, ob das Programm vielleicht auch einfach „netter” ist als wir. Do students dream of electric teachers?

An dieser Stelle ein Hinweis aus eigener Anschauung: Der Chat kann zuweilen schlicht und ergreifend Spaß machen. Denn das Design des Bots sieht nicht nur nüchternen, nackten Output vor. Von der sozial ungewohnten Tatsache abgesehen, dass das Programm jederzeit zur Verfügung steht, antwortet es stets wortreich und dabei höflich, weist keine Frage zurück, stellt Nachfragen, entschuldigt sich für Missverständnisse und liefert entsprechende Korrekturen und Ergänzungen.

Über diese persönliche Erfahrung hinaus deuten nun auch interessanterweise erste Studien darauf hin, dass der Umgang mit generativer KI nicht nur in Bezug auf die Ergebnisse der Abfrage, sondern auch in Hinblick auf die Qualität der Interaktion positiv bewertet wird. Auch in der Medizin wurde lange Zeit vor allem darüber diskutiert, inwieweit KI-Antworten und -Prognosen tatsächlich adäquat sind. Doch eine aktuelle Studie der University of San Diego geht darüber hinaus und nimmt nun soziale Kompetenzen in den Blick. Der überraschende Befund: 79 % der Befragten bevorzugten die Antworten von ChatGPT gegenüber Ärzt:innen, und das nicht nur hinsichtlich ihrer Qualität, sondern vor allem auch in Bezug auf die vermittelte Empathie. An dieser Stelle sei erwähnt: Der Einsatz von Robotern und KI im Bereich des Sozialen ist keine völlig neue Idee. Schon länger wird damit experimentiert, etwa im Bereich Pflege. Doch ChatGPT macht auch dieses Phänomen schlagartig und in ungeahnter Qualität massentauglich. Spätestens dieser Umstand wirft Fragen auf. Wir fragen uns: Was könnte das zukünftig für Hochschulen bedeuten?

Hochschulen als Beziehungsort

Polemisch könnte man einwenden: Hochschulen sind im klassischen Verständnis vornehmlich ein Ort des Wissenserwerbs, an dem Empathie wenig Bedeutung zukommt. Doch diese Vorstellung hat – drei Jahre nach den Erfahrungen der Corona-Pandemie – eher wenig Konjunktur. Gerade im Zuge der Rückkehr in die Präsenz scheinen Hochschulen sich stärker darauf zu verpflichten, den Wert der Beziehungsebene herauszustellen. Dabei wird implizit häufig die Bedeutung des sozialen Miteinanders mit physischer Nähe gleichgesetzt. Passend dazu werben viele Hochschulen mit ihrem Profil als zugängliche Campus-Hochschule und einer Kultur der offenen Tür.

Die darin zum Ausdruck kommenden Anliegen sind zweifellos wertvoll und zukunftsrelevant, doch sind sie in der Breite tatsächlich einlösbar? Schaut man aus der Perspektive der Studierenden, vor allem im Falle des Massenbetriebs eines Bachelorstudiengangs an einer (mittel-)großen Hochschule, erscheint die Bindungs- und Beziehungsfähigkeit, vorsichtig gesagt, überschaubar. Schon lange lohnt unter Lerngesichtspunkten die kritische Frage, worin der häufig immer noch heraufbeschworene Mehrwert einer Präsenz-Vorlesung mit 500 Menschen bestehen solle? Spätestens seit der Verfügbarkeit von Online-Formaten und/oder ChatGPT erfährt diese Kulturpraxis ein disruptives Fragezeichen mit Ausrufezeichen. Der Legitimationsdruck für die universitäre Lehre steigt. An der Stelle gleich noch dazu ein Hinweis auf ein kürzlich veröffentlichte HFD-Diskussionspapier, welches zeigt, dass gelingende soziale Interaktion an Hochschulen schon strukturell kein Selbstläufer ist, sondern häufig von Status-Privilegien, Machtgefällen, Deutungs- und damit Bewertungshoheiten geprägt wird.

Bild zeigt einen vollbesetzten Hörsaal.

Challenge accepted?

Was folgt aus alledem? Welche Konsequenzen ergeben sich, wenn Menschen einen Dialog mit ChatGPT als angenehm(er) empfinden? Welches Unbehagen löst es aus und sollte es das, wenn der Umgang mit generativer KI schlichtweg bequemer und attraktiver scheint? Die generative KI als ultimative Steigerung einer privaten Echokammer und individualisierter Bubble? Diese Gefahr besteht, doch die genannte Medizin-Studie deutet an, dass die Bedürfnisse und empfundenen Mehrwerte darüber hinauszugehen scheinen. Dabei bleibt unbenommen, dass ChatGPT kein soziales Allheilmittel darstellt und Biases reproduziert werden (können).

Was uns die letzten Monate deutlich gezeigt haben, ist die Notwendigkeit einer Neubesinnung des Lernens und Lehrens im KI-Zeitalter. Und die Auseinandersetzungsbereitschaft sollte unserer Auffassung nach die Frage mit einschließen, wie Assistenzsysteme à la ChatGPT den Lern- und Lehrprozess auch sozial inspirieren und erweitern könnten. Es gilt, Lernen als sozialen Prozess ernst zu nehmen und neu zu vermessen. Einige vorläufige Gedanken zur weiteren Reflektion:

  • Unter der Voraussetzung, dass ein freier und gleichberechtigter Zugang zu KI-Tools gewährleistet wäre (gegenwärtig eher nicht gegeben), können diese einen wichtigen Teilschritt hin zu Chancengerechtigkeit und individueller Lernunterstützung darstellen. 
  • Teamwork makes the dreamwork. ChatGPT agiert bis dato lediglich dialogisch im Modus Zwiegespräch, d. h. auf individueller Ebene. Die Einbindung von  (asynchronen) Team- und Projektarbeiten, die die Interaktion einer diversen Gruppe von Lernenden fördern und bereichern, bedürfen einer hochschuldidaktisch gesteuerten Interaktion mit Lehrenden und/oder Tutor:innen.
  • Wir brauchen mehr und neue Experimentierräume. Das in Corona-Zeiten vielzitierte „Reallabor Hochschule“ kann jetzt so richtig in Schwung kommen und bedarf neuer Formen der Interaktion und Zusammenarbeit – egal, ob vor Ort oder digital.

Zusammenfassend: Ebensowenig, wie physische Nähe eine Qualitätsgarantie für soziale Interaktion darstellt, sind digitale Tools und virtuelle Lehre automatisch der Tod des Sozialen. Die Herausforderung besteht – mehr denn je – darin, die Hochschulen als zukunftsweisende, innovative Interaktions- und Lernorte weiterzuentwickeln. Diese Blended University braucht es in Präsenz, digital und auf Höhe der technischen KI-Möglichkeiten, und zwar agil und asap. Challenge accepted?

 

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert