Vom Deskilling zum Newskilling mit KI
Vom Deskilling zum Newskilling mit KI
Der Einsatz generativer KI birgt die Gefahr des Verlusts von Kernkompetenzen. Es können aber auch ganz neue Fähigkeiten entwickelt werden.
In unserem Blog veröffentlichen wir als Hochschulforum Digitalisierung regelmäßig Artikel, Meinungsbeiträge, Good Practices und vieles mehr zur Zukunft akademischer Bildung. Möchten auch Sie etwas bei uns publizieren? Dann wenden Sie sich an kommunikation@hochschulforum.org. Hier finden Sie alle Hinweise für unsere Blog-Autor:innen: https://hochschulforumdigitalisierung.de/guidelines-fuer-blog-autorinnen/
Der Einsatz generativer KI birgt die Gefahr des Verlusts von Kernkompetenzen. Es können aber auch ganz neue Fähigkeiten entwickelt werden.
Wer sich mit Verzerrungen in KI-Systemen beschäftigt, kommt an ihrem Namen kaum vorbei: Eva Gengler. Die Wissenschaftlerin forscht zu Bias in generativer KI, stand letztes Jahr auf der Bühne des U:FF, hat kürzlich ihre Promotion abgeschlossen und gerade ihr erstes Buch veröffentlicht.
Die Diskussionen über den Einsatz von KI erweitern sich zunehmend um die Frage, ob sogenannte KI-Detektoren sinnvoll eingesetzt werden können, also Software, die erkennen soll, ob ein Text von einem Menschen verfasst oder KI-generiert wurde. Was auf den ersten Blick nach einer unkomplizierten Lösung zur Aufdeckung von Täuschungsversuchen klingt, erweist sich jedoch als problematisch: Der Einsatz von KI-Detektoren führt zu unzuverlässigen Ergebnissen und ist durch sozial verzerrte Trainingsdaten und Outputs ethisch fragwürdig.
Nicht immer gelingt die Integration von Künstlicher Intelligenz in die Hochschullehre mit dem ersten Wurf. Hinter vielen „Best Practice“-Anwendungen stehen Experimente, die eine hohe Fehlertoleranz und die Bereitschaft erfordern, Grenzen auszuloten. Im Interview mit Anja Westermann zeigt Felix Averbeck, wissenschaftlicher Mitarbeiter an der Hochschule Fulda, am Beispiel eines Online-Moduls in der Sozialen Arbeit, wie aus einem konkreten Bedarf an individueller Lernbegleitung ein KI-Projekt entstand und welche Fallstricke dabei zutage traten.
Künstliche Intelligenz klingt nach Zukunft und Fortschritt, trägt jedoch die Vergangenheit in sich. KI lernt aus historischen Daten, die alles andere als neutral sind. In ihnen stecken Vorurteile, ungleiche Machtverhältnisse und historische Ungleichheiten. Welche Auswirkungen das haben kann, zeigen Lena Nedwed und Tim Trappen von der Ruhr-Universität Bochum in ihrer Seminararbeit: Sie haben untersucht, wie Bildgenerierungs-KI Menschen unterschiedlicher Geschlechter und Hautfarben im beruflichen Kontext darstellt – mit aufschlussreichen Ergebnissen.
Michael Siegel und Matti Flieger blicken im HFD-Jahresrückblick 2025 auf ein Jahr der bewussten Gestaltung und Verknüpfung zurück. Statt neuer Schlaglichter rückten Anschlussfähigkeit, gemeinsame Orientierung und strukturelle Verankerung digitaler Transformation in den Fokus. Der Beitrag zeigt, wie Hochschulen unter Druck, aber auch mit wachsender Professionalität und Kooperation an Zukunftsfähigkeit gewinnen – zwischen Analyse und Praxis, Engagement und Struktur.
In diesem Blogbeitrag analysieren Andreas Giesbert, Jens Tobor und Lukas Riechert die Schwachstellen von KI-Prüfungsservices und reflektieren, welche Rolle Prüfungen im Zeitalter von KI künftig spielen sollten.
Generative KI verändert, wie wir lernen, lehren und denken. Die Ethikprofessorin Judith Simon sieht darin nicht nur technische, sondern auch fundamentale bildungspolitische Fragen: Wie erhalten wir zentrale Kompetenzen wie kritisches Denken, wenn Tools wie ChatGPT alltäglich werden? Was bleibt vom Sinn universitärer Bildung? Theresa Sommer (HFD) sprach mit ihr über Prüfungsformate, ethische Herausforderungen und die Frage, warum Hochschulen sich nicht in Effizienzlogik verlieren sollten.
Generative KI ist längst Teil des Studienalltags – oft jedoch ungesteuert und ohne strategische Weitsicht. Julius-David Friedrich und Jens Tobor geben in diesem Artikel einen Überblick, warum Hochschulen Governance-Strukturen, AI-Literacy und kooperative Strategien entwickeln müssen.
Wie können Hochschulen den Einsatz generativer KI in Prüfungen rechtssicher und didaktisch sinnvoll gestalten? Mit dieser Frage befassen sich Susanne Schorer und Christine Meier zu Farwig vom „Digitale Lehre Hub Niedersachsen“ (BLHN) in der AG Prüfungen. Beim 1. KI-Lab des HFD in Münster stellten sie ihre Stellungnahme zum Thema vor und erhielten wertvolles Feedback von Expert:innen. Das Papier versteht sich als Diskussionsgrundlage, die Hochschulen Orientierung für eigene Regelungen bietet – hochschulweit wie fachspezifisch, im Interesse von Lehrenden und Studierenden.
Sie sehen gerade einen Platzhalterinhalt von Facebook. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von Instagram. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von X. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr Informationen