KI, Bias und Macht: Ressourcen für eine bias-sensible Nutzung
KI, Bias und Macht: Ressourcen für eine bias-sensible Nutzung
12.05.26
Dass KI-Systeme gesellschaftliche Vorurteile, die sowohl in ihren Trainingsdaten als auch in Entwickler:innenteams stecken, reproduzieren können, ist inzwischen gut dokumentiert. Doch inwiefern setzen wir uns an Hochschulen mit dieser Problematik und möglichen Folgen auseinander?
Eine Analyse von KI-Leitlinien an Hochschulen im Frühjahr 2026 zeigt, dass das Thema Bias in KI dort bislang nur am Rande auftaucht. Bias wird zwar gelegentlich erwähnt, meist aber als kurzer Warnhinweis unter vielen möglichen Risiken. Konkrete Hinweise darauf, wie Hochschulen mit solchen Verzerrungen institutionell umgehen könnten, bleiben bisher selten. Stattdessen wird Verantwortung häufig auf die individuelle Nutzungsebene verlagert, indem Studierende und Lehrende dazu angehalten werden, KI-generierte Inhalte kritisch zu prüfen.
Doch was braucht es, um sich reflektiert mit KI und deren Outputs auseinandersetzen zu können?
Genau hier möchte ich mit dieser Linksammlung ansetzen.
Im Rahmen meiner Recherchen bin ich immer wieder auf Texte, Projekte und Materialien gestoßen, die gute Impulse geben können. Die Sammlung versteht sich als kuratierte Orientierungshilfe für alle Hochschulangehörigen, die sich mit bias-sensibler und machtkritischer KI-Nutzung beschäftigen möchten, sei es einführend, vertiefend oder aus konkretem Praxisinteresse. Die Links sind thematisch geordnet und kurz kommentiert. Sie eignen sich sowohl als Einstieg ins Thema als auch zur Vertiefung oder als Inspiration für Lehre, Studium und eigene Weiterarbeit. Dabei ist diese Sammlung bewusst nicht als abgeschlossenes Projekt gedacht. Sie wird fortlaufend ergänzt und weiterentwickelt und lebt vom Austausch mit unserer Community.
Ressourcensammlung
Bias, Macht und KI: zum Warmwerden
Die Präsentation bietet eine verständliche Einführung in das Thema Bias in KI-Systemen. Sie erläutert, wie Verzerrungen in Trainingsdaten, Modellen oder Anwendungsprozessen entstehen können und wie sich diese in diskriminierenden Ergebnissen niederschlagen. Außerdem werden verschiedene technische und organisatorische Ansätze vorgestellt, mit denen Bias erkannt und reduziert werden kann, etwa durch diverse Datensätze, Tests auf Fairness oder transparente Modellarchitekturen.
SoekiaGPT ist eine Lernumgebung, die zentrale Funktionsweisen textbasierter KI-Sprachmodelle transparent und interaktiv erfahrbar macht. Nutzer:innen können nachvollziehen, wie Texte entstehen und welche Rolle Trainingsdaten und Wahrscheinlichkeiten spielen. Verständnis ist eine wichtige Voraussetzung für verantwortungsvolle und reflektierte KI-Nutzung. SoekiaGPT macht zentrale Mechanismen von Sprachmodellen sichtbar, etwa den Einfluss von Trainingsdaten, Wahrscheinlichkeiten und statistischen Mustern auf die Textgenerierung. Dieses Verständnis schafft eine wichtige Grundlage, um Fragen zu Bias, Datenabhängigkeit und Modellgrenzen reflektiert einordnen zu können.
Interaktives Online-Spiel, das Nutzer:innen in die Rolle einer Person versetzt, die mithilfe eines KI-Systems Bewerbungen vorsortiert. Dabei wird erfahrbar, wie algorithmische Entscheidungsprozesse funktionieren und wie Bias in Trainingsdaten zu diskriminierenden Ergebnissen führt. Durch spielerische Simulation und anschließende Reflexion wird sichtbar, dass KI-Systeme bestehende Machtverhältnisse und Ungleichheiten reproduzieren können, objektive Entscheidungen zu treffen.
🔗 Survival of the Best Fit – An Interactive Experience on Algorithmic Bias
Diese frei verfügbaren Zines bieten eine verständliche, niedrigschwellige Einführung in Fragen der Fairness von KI-Systemen. In vier Kapiteln begleiten sie eine Figur durch die Entwicklung und Nutzung von KI, erklären, wie Verzerrungen entstehen, und wie Fairness-Metriken funktionieren. Begleitende Poster können zudem für Gruppendiskussionen oder Workshops genutzt werden.
In diesem TEDx-Talk zeigt Eva Gengler, warum feministische Perspektiven zentral für die Gestaltung von KI-Systemen sind. Sie macht anhand konkreter Beispiele deutlich, wie bestehende gesellschaftliche Ungleichheiten in Technologien eingeschrieben werden, und welche Rolle Macht, Sichtbarkeit und Teilhabe dabei spielen. Der Talk verknüpft technologische Entwicklung explizit mit gesellschaftlichen Machtverhältnissen. Er macht verständlich, dass Bias in KI kein technischer Fehler, sondern Ausdruck struktureller Ungleichheit ist, und dass feministische Ansätze helfen können, diese Strukturen kritisch zu hinterfragen.
🔗Feminism – For more Equity in AI. Eva Gengler | TEDxCBS Cologne
Josie Young argumentiert in diesem TEDx-Talk für einen feministischen Ansatz in der KI-Entwicklung. Sie zeigt, wie Entscheidungen über Design, Daten und Zielsetzungen bestehende Machtverhältnisse reproduzieren und wie alternative, feministische Designprinzipien aussehen können. Der Beitrag macht deutlich, dass machtkritische KI-Nutzung bereits beim Design beginnt und nicht erst bei der Anwendung.
🔗 Why we need to design feminist AI. Josie Young | TEDxLondonWomen
In diesem Vortrag beim University:Future Festival (U:FF) 2025 spricht Eva Gengler darüber, wie Machtstrukturen und Bias in Künstlicher Intelligenz zusammenhängen, insbesondere im Kontext von Hochschulen. Der Vortrag verknüpft kritische Perspektiven auf Technologie mit Fragen nach Gerechtigkeit, Teilhabe und feministischen Ansätzen in Wissenschaft und Bildung.
🔗Macht & Bias in KI – Feministische Antworten in der Hochschule. Eva Gengler | U:FF 2025
Wissenschaftliche Perspektiven
In diesem wissenschaftlichen Beitrag wird der aktuelle Stand der Gender- und Diversitätsforschung im MINT-Bereich systematisch untersucht. Die Autorin identifiziert strukturelle Defizite in der institutionellen Verankerung von Gender Studies in den MINT-Disziplinen und formuliert Maßnahmen zur nachhaltigen Integration gender- und diversitätsrelevanter Inhalte – u. a. durch den Ausbau entsprechender Professuren. Der Beitrag verknüpft wissenschaftspolitische Fragen der Hochschulstruktur mit der sozialwissenschaftlichen Auseinandersetzung über Technologie, Geschlecht und Wissen. Bias in KI kann nicht allein technisch adressiert werden, sondern ist eng verbunden mit institutionellen Macht- und Wissensverhältnissen. Diese Forschung macht sichtbar, dass grundlegendere strukturelle Bedingungen – wie wer forscht, lehrt und entscheidet – Einfluss darauf haben, welche Perspektiven in KI-Debatten berücksichtigt werden.
Der Artikel nimmt den verbreiteten Ansatz der Human-Centred AI kritisch aus feministischer Perspektive unter die Lupe. Er zeigt, dass Versprechen von Fairness und Inklusion häufig auf eurozentrischen, männlich geprägten und kapitalistischen Annahmen beruhen. Als Gegenentwurf schlägt Kubes ein Feminist AI Framework vor, das Machtverhältnisse, vielfältige Wissensformen und mehr-als-menschliche Perspektiven einbezieht.
Der Beitrag stellt das Modell „Kreislauf der Diskriminierung“ vor, das beschreibt, wie gesellschaftliche Vorurteile und Ungleichheiten in IT-Systeme eingehen und dort weiter verstärkt werden können. Das Modell unterscheidet vier miteinander verbundene Bereiche – Welt, Personen, Prozess und Produkt – und zeigt, wie gesellschaftliche Biases über Entwickler:innen, Designmethoden und Entwicklungsprozesse in technische Systeme eingeschrieben werden.
Der Artikel kritisiert große Sprachmodelle als Systeme, die statistische Muster aus Trainingsdaten reproduzieren, ohne Bedeutung zu verstehen. Die Autor:innen zeigen auf, dass diese Modelle dominante Sprach- und Wissensformen verstärken und marginalisierte Perspektiven unsichtbar machen können.
🔗 On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? Ein Beitrag von Emily M. Bender, Timnit Gebru, Angelina McMillan-Major und Shmargaret Shmitchell:
Die Studie zeigt, dass KI-Detektoren systematisch Texte von Nicht-Muttersprachler:innen häufiger als KI-generiert klassifizieren. Grund dafür ist unter anderem, dass diese Texte oft stärker standardisierte und einfachere Sprachmuster enthalten, die von Detektoren fälschlich als typisch für KI interpretiert werden. Der Beitrag macht deutlich, dass vermeintlich neutrale Prüfwerkzeuge bestehende sprachliche Ungleichheiten reproduzieren und damit Fragen von Fairness, Bewertung und Teilhabe im Bildungskontext aufwerfen.
Lernen & Reflektieren: Werkzeuge, Checklisten & Methoden
Dieser praxisorientierte Leitfaden führt in das Konzept des fairen KI-Prompting ein und bietet Unternehmen konkrete Werkzeuge, um generative KI verantwortungsvoll zu nutzen und faire Ergebnisse zu fördern. Er erklärt, warum Diversität, Inklusivität und Bewusstsein für ethische Herausforderungen beim Einsatz generativer KI wichtig sind, und gibt zugleich praktische Empfehlungen für die Gestaltung fairer Prompts an KI-Modelle.
🔗 Faires KI-Prompting – Ein Leitfaden für Unternehmen | Mittelstand-Digital Zentrum Zukunftskultur
Die Seite stellt das PAIR-Framework (Problem – AI – Interaction – Reflection) vor, das von Oguz A. Acar entwickelt wurde, um generative KI sinnvoll in Studium und Lehre zu integrieren. Das Modell strukturiert den Einsatz von KI in vier Schritte: Studierende formulieren zunächst ein Problem, wählen anschließend geeignete KI-Tools aus, erproben deren Nutzung und reflektieren schließlich kritisch über die Ergebnisse und den eigenen Arbeitsprozess. Das Framework soll Lehrenden eine einfache und anpassbare Struktur bieten, um KI nicht nur als Werkzeug zu verwenden, sondern zugleich Kompetenzen wie Problemlösung, kritisches Denken und Reflexion zu fördern.
Praxisnaher Online-Leitfaden aus dem Kontext Sozialer Arbeit, der eine diversitäts- und machtkritische Nutzung generativer KI fokussiert. Im Zentrum stehen Konzepte wie feministische AI-Literacies, die intersektionale, bias-sensible und kontextbewusste Kompetenzen im Umgang mit KI (insbesondere Prompting und Output-Bewertung) beschreiben. Der Leitfaden kombiniert Grundlagenwissen mit konkreten Anwendungstipps (z. B. Datenschutz, Anonymisierung, Reflexion von KI-Ausgaben) und zielt darauf ab, KI-Nutzung bewusst, reflektiert und diskriminierungssensibel zu gestalten.
🔗 Diversitätssensibler Umgang mit Künstlicher Intelligenz – Orientierungsleitfaden
Gute Angebote online: Plattformen, Projekte & Initiativen
Der Onlinekurs vermittelt wissenschaftlich fundierte Methoden zur Reduktion von Bias in KI-Systemen. Behandelt werden u.a. konkrete De-Biasing-Praktiken. Der Kurs übersetzt somit die oft abstrakte Diskussion um Bias, Fairness und Verantwortung in konkrete Handlungsoptionen. Er zeigt, dass bias-sensible KI-Nutzung nicht nur eine Frage individueller Haltung ist, sondern strukturelle Entscheidungen in Entwicklungs-, Entscheidungs- und Organisationsprozessen erfordert.
🔗 Methoden der Bias-Reduktion für eine sozialverantwortliche KI-Gestaltung | KI-Campus (Onlinekurs)
Die Feminist AI Community ist ein Netzwerk von Akteur:innen, die sich für feministische, inklusive und gerechte Ansätze in der KI-Entwicklung einsetzen. Die Plattform verbindet Ressourcen, Diskussionen, Veranstaltungen und kollaborative Projekte mit dem Ziel, Machtverhältnisse in Technologie kritisch zu thematisieren und zu verändern.
Wer über KI spricht, gestaltet ihre Zukunft. Diese offene Expert:innenliste macht Frauen und nicht-binäre Personen mit KI-Expertise sichtbar und setzt damit bewusst ein Zeichen gegen einseitige, männlich dominierte Diskurse. Sie ist ein konkretes Werkzeug, um marginalisierte Perspektiven auf Bühnen, in Projekte und in Entscheidungsräume zu holen, und KI-Debatten so ausgewogener zu machen.
🔗 Expert:innenliste: Frauen und nicht-binäre Menschen in der KI
Mit Apertus haben Forschende der EPFL, der ETH Zürich und des Schweizerischen Supercomputing-Zentrums CSCS ein groß angelegtes, vollständig offenes und mehrsprachiges Large-Language-Model (LLM) veröffentlicht, bei dem Architektur, Trainingsdaten, Modellgewichte und Entwicklungsprozess komplett transparent und dokumentiert sind. Das Modell ist in zwei Größen verfügbar und kann als Basis für Forschung, Bildung und weitere Anwendungen genutzt werden.
Apertus steht im deutlichen Kontrast zu proprietären „Black-Box“-Modellen: Durch Offenheit und Dokumentation wird Nachvollziehbarkeit möglich – ein zentraler Schritt, um Bias sichtbar zu machen, Macht über Technologie nicht allein bei großen Konzernen zu lassen und vielfältigere Nutzungsperspektiven zu ermöglichen. Die starke Mehrsprachigkeit kann zudem helfen, Unterrepräsentation nicht-englischer Sprachen in KI-Systemen kritisch zu hinterfragen.
Der Feminist AI Guide ist eine offene, kollaborativ gepflegte Online-Ressource, die feministische Perspektiven, kritische Analysen und praxisnahe Empfehlungen rund um Künstliche Intelligenz bündelt. Themen umfassen Machtstrukturen, Diskriminierung, Datenpraktiken, Governance und gesellschaftliche Auswirkungen von KI. Die Inhalte werden gemeinsam entwickelt und laden zur Mitwirkung ein.
🔗 Feminist AI Guide (Feminist AI Collective) Online-Resource & Community-Plattform
Die A+ Alliance ist eine internationale, interdisziplinäre Koalition von Forschenden, Aktivist:innen und Technolog:innen, die gemeinsam eine inklusive, gerechte und feministisch orientierte Zukunft der Künstlichen Intelligenz gestalten wollen. Sie verbindet akademische Expertise, zivilgesellschaftliches Engagement und technologische Praxis, um Machtfragen, algorithmische Verzerrungen und strukturelle Ungleichheiten im digitalen Raum anzugehen.
🔗 A+ Alliance for Inclusive Algorithms | Globale feministische KI-Koalition
Bias-sensible und machtkritische KI-Nutzung ist kein abgeschlossenes Themenfeld, sondern ein fortlaufender Aushandlungsprozess. Viele Fragen bleiben offen: Welche Perspektiven fehlen noch? Welche Erfahrungen werden bislang zu wenig gehört? Und wie lassen sich kritische Ansätze dauerhaft in Praxis, Lehre und Organisationen verankern?
Diese Linksammlung versteht sich daher als Momentaufnahme und Einladung zum gemeinsamen Weiterdenken. Die hier versammelten Quellen sind Ergebnisse unserer bisherigen Recherchen. Wir freuen uns über Hinweise auf weitere gute Ressourcen, Anregungen zur Diskussion oder Rückmeldungen, die diese Sammlung sinnvoll ergänzen.
Autorin

Johanna Leifeld ist seit 2022 im CHE Centrum für Hochschulentwicklung als Projektmanagerin für das Hochschulforum Digitalisierung tätig. Sie arbeitet in der Strategieentwicklung und verantwortet dort die Peer-to-Peer-Fachbereichsberatung. Außerdem gehört sie zum Team des University:Future Festival, der größten deutschsprachigen Veranstaltung zu Innovationen in der Hochschulbildung.




Ulrike Mascher 
Antonia Dittmann 
Prof. Dr. Tobias Seidl 