Blog

In unserem Blog veröffentlichen wir als Hochschulforum Digitalisierung regelmäßig Artikel, Meinungsbeiträge, Good Practices und vieles mehr zur Zukunft akademischer Bildung. Möchten auch Sie etwas bei uns publizieren? Dann wenden Sie sich an kommunikation@hochschulforum.org. Hier finden Sie alle Hinweise für unsere Blog-Autor:innen: https://hochschulforumdigitalisierung.de/guidelines-fuer-blog-autorinnen/

Ein Stapel mit Papieren, Magazinen und Zeitungen, erstellt via Midjourney.
Ein Stapel mit Papieren, Magazinen und Zeitungen, erstellt via Midjourney.
Sortieren:
Neueste zuerst
4 Suchergebnisse

Im Gespräch mit Eva Gengler: Feministische KI

Im Gespräch mit Eva Gengler: Feministische KI

Wer sich mit Verzerrungen in KI-Systemen beschäftigt, kommt an ihrem Namen kaum vorbei: Eva Gengler. Die Wissenschaftlerin forscht zu Bias in generativer KI, stand letztes Jahr auf der Bühne des U:FF, hat kürzlich ihre Promotion abgeschlossen und gerade ihr erstes Buch veröffentlicht.

ALT-Bildbeschreibung: Dekoratives Bild mit dem Text: Blog - Im Gespräch mit Eva Gengler: Feministische KI - Ein Interview von Johanna Leifeld. Unten rechts: Logo Hochschulforum Digitalisierung.

KI prüft KI – und scheitert? Über Bias-Effekte und Verzerrungen in KI‑Detektoren

KI prüft KI – und scheitert? Über Bias-Effekte und Verzerrungen in KI‑Detektoren

Die Diskussionen über den Einsatz von KI erweitern sich zunehmend um die Frage, ob sogenannte KI-Detektoren sinnvoll eingesetzt werden können, also Software, die erkennen soll, ob ein Text von einem Menschen verfasst oder KI-generiert wurde. Was auf den ersten Blick nach einer unkomplizierten Lösung zur Aufdeckung von Täuschungsversuchen klingt, erweist sich jedoch als problematisch: Der Einsatz von KI-Detektoren führt zu unzuverlässigen Ergebnissen und ist durch sozial verzerrte Trainingsdaten und Outputs ethisch fragwürdig.

Dekoratives Sharepic. Text: Teil III der Reihe „Machtkritische und bias-sensible KI“ / Blog- KI prüft KI – und scheitert? Über Bias-Effekte und Verzerrungen in KI‑Detektoren / Ein Blogbeitrag von Inga Gostmann und Lea Hildermeier. Unten rechts: Logo Hochschulforum Digitalisierung.

KI als Spiegel unserer Gesellschaft – Ein Gespräch mit Lena Nedwed und Tim Trappen über Macht, Bias und Verantwortung

KI als Spiegel unserer Gesellschaft – Ein Gespräch mit Lena Nedwed und Tim Trappen über Macht, Bias und Verantwortung

Künstliche Intelligenz klingt nach Zukunft und Fortschritt, trägt jedoch die Vergangenheit in sich. KI lernt aus historischen Daten, die alles andere als neutral sind. In ihnen stecken Vorurteile, ungleiche Machtverhältnisse und historische Ungleichheiten. Welche Auswirkungen das haben kann, zeigen Lena Nedwed und Tim Trappen von der Ruhr-Universität Bochum in ihrer Seminararbeit: Sie haben untersucht, wie Bildgenerierungs-KI Menschen unterschiedlicher Geschlechter und Hautfarben im beruflichen Kontext darstellt – mit aufschlussreichen Ergebnissen.

Sharepic. Obere Hälfte: Schwarz/Weiß Bild von vielen Personen Umrissen. Text in rotem Kreis: Teil II der Interview-Reihe "Machtkritische und bias-sensible KI". Untere Hälfte: Text: "Blog - KI als Spiegel unserer Gesellschaft - Ein Gespräch mit Lena Nedwed und Tim Trappen über Macht, Bias und Verantwortung. Ein Interview von Johanna Leifeld" Unten rechts: Logo Hochschulforum Digitalisierung.

Bias erkennen, Verantwortung übernehmen: Kritische Perspektiven auf KI und Datenqualität in der Hochschulbildung

Bias erkennen, Verantwortung übernehmen: Kritische Perspektiven auf KI und Datenqualität in der Hochschulbildung

Die Hochschullandschaft steht vor einem Wendepunkt: Künstliche Intelligenz verändert Lehre, Forschung und Studium grundlegend. Sprachmodelle wie ChatGPT oder Claude sind bereits im universitären Alltag angekommen, doch ihr Einsatz wirft dringende Fragen auf. Der Beitrag beleuchtet insbesondere das Problem von Verzerrungen in KI-Systemen und zeigt, warum Hochschulen einen bewussten und kritischen Umgang mit der Technologie brauchen.

Blogtitelbild zur Interviewreihe „Machtkritische und bias-sensible KI“ mit Diagramm und Figur; Thema Bias, Verantwortung und KI in der Hochschulbildung.