KI, Bias und Macht: Ressourcen für eine bias-sensible Nutzung

KI, Bias und Macht: Ressourcen für eine bias-sensible Nutzung

12.05.26

Zweigeteiltes Bild, oben Grafik mit Computer, auf dem eine Frau mit Kopftuch zu sehen ist, daneben ein Mensch im Rollstuhl. Unten Text:: KI, Bias und Macht. Ressourcen für eine bias-sensible Nutzung.

Künstliche Intelligenz gilt oft als objektiv, doch KI-Systeme reproduzieren gesellschaftliche Machtverhältnisse, Vorurteile und Ausschlüsse häufig mit. Wie entsteht Bias in KI? Welche Perspektiven fehlen in technologischen Entwicklungen? Und wie kann eine reflektierte, machtkritische Nutzung von KI im Hochschulkontext aussehen? Diese kuratierte Linksammlung versammelt Texte, Projekte, Methoden und Initiativen rund um Bias, Fairness und feministische Perspektiven auf KI als Einstieg, Vertiefung und Inspiration für Lehre, Studium und Praxis.

Teil V unserer Reihe „Machtkritische und bias-sensible KI“. Neu in der Reihe? Teil I finden Sie hier.

Dass KI-Systeme gesellschaftliche Vorurteile, die sowohl in ihren Trainingsdaten als auch in Entwickler:innenteams stecken, reproduzieren können, ist inzwischen gut dokumentiert. Doch inwiefern setzen wir uns an Hochschulen mit dieser Problematik und möglichen Folgen auseinander?

Eine Analyse von KI-Leitlinien an Hochschulen im Frühjahr 2026 zeigt, dass das Thema Bias in KI dort bislang nur am Rande auftaucht. Bias wird zwar gelegentlich erwähnt, meist aber als kurzer Warnhinweis unter vielen möglichen Risiken. Konkrete Hinweise darauf, wie Hochschulen mit solchen Verzerrungen institutionell umgehen könnten, bleiben bisher selten. Stattdessen wird Verantwortung häufig auf die individuelle Nutzungsebene verlagert, indem Studierende und Lehrende dazu angehalten werden, KI-generierte Inhalte kritisch zu prüfen.

Doch was braucht es, um sich reflektiert mit KI und deren Outputs auseinandersetzen zu können?

Genau hier möchte ich mit dieser Linksammlung ansetzen.

Im Rahmen meiner Recherchen bin ich immer wieder auf Texte, Projekte und Materialien gestoßen, die gute Impulse geben können. Die Sammlung versteht sich als kuratierte Orientierungshilfe für alle Hochschulangehörigen, die sich mit bias-sensibler und machtkritischer KI-Nutzung beschäftigen möchten, sei es einführend, vertiefend oder aus konkretem Praxisinteresse. Die Links sind thematisch geordnet und kurz kommentiert. Sie eignen sich sowohl als Einstieg ins Thema als auch zur Vertiefung oder als Inspiration für Lehre, Studium und eigene Weiterarbeit. Dabei ist diese Sammlung bewusst nicht als abgeschlossenes Projekt gedacht. Sie wird fortlaufend ergänzt und weiterentwickelt und lebt vom Austausch mit unserer Community.

Ressourcensammlung

Bias, Macht und KI: zum Warmwerden

Die Präsentation bietet eine verständliche Einführung in das Thema Bias in KI-Systemen. Sie erläutert, wie Verzerrungen in Trainingsdaten, Modellen oder Anwendungsprozessen entstehen können und wie sich diese in diskriminierenden Ergebnissen niederschlagen. Außerdem werden verschiedene technische und organisatorische Ansätze vorgestellt, mit denen Bias erkannt und reduziert werden kann, etwa durch diverse Datensätze, Tests auf Fairness oder transparente Modellarchitekturen.

🔗 Diskriminierende KI? Entstehung und Lösungsansätze von Bias in KI-Systemen. Ein Beitrag von Marieke Prien.

SoekiaGPT ist eine Lernumgebung, die zentrale Funktionsweisen textbasierter KI-Sprachmodelle transparent und interaktiv erfahrbar macht. Nutzer:innen können nachvollziehen, wie Texte entstehen und welche Rolle Trainingsdaten und Wahrscheinlichkeiten spielen. Verständnis ist eine wichtige Voraussetzung für verantwortungsvolle und reflektierte KI-Nutzung. SoekiaGPT macht zentrale Mechanismen von Sprachmodellen sichtbar, etwa den Einfluss von Trainingsdaten, Wahrscheinlichkeiten und statistischen Mustern auf die Textgenerierung. Dieses Verständnis schafft eine wichtige Grundlage, um Fragen zu Bias, Datenabhängigkeit und Modellgrenzen reflektiert einordnen zu können.

🔗 SoekiaGPT

Interaktives Online-Spiel, das Nutzer:innen in die Rolle einer Person versetzt, die mithilfe eines KI-Systems Bewerbungen vorsortiert. Dabei wird erfahrbar, wie algorithmische Entscheidungsprozesse funktionieren und wie Bias in Trainingsdaten zu diskriminierenden Ergebnissen führt. Durch spielerische Simulation und anschließende Reflexion wird sichtbar, dass KI-Systeme bestehende Machtverhältnisse und Ungleichheiten reproduzieren können, objektive Entscheidungen zu treffen.

🔗 Survival of the Best Fit An Interactive Experience on Algorithmic Bias

Diese frei verfügbaren Zines bieten eine verständliche, niedrigschwellige Einführung in Fragen der Fairness von KI-Systemen. In vier Kapiteln begleiten sie eine Figur durch die Entwicklung und Nutzung von KI, erklären, wie Verzerrungen entstehen, und wie Fairness-Metriken funktionieren. Begleitende Poster können zudem für Gruppendiskussionen oder Workshops genutzt werden.

🔗Zines zur Fairness in KI-Systemen. Feels Fair? Ein Beitrag von Sarah Spitz | Human-in-the-Loop? | Humboldt-Institut für Internet und Gesellschaft (HIIG)

In diesem TEDx-Talk zeigt Eva Gengler, warum feministische Perspektiven zentral für die Gestaltung von KI-Systemen sind. Sie macht anhand konkreter Beispiele deutlich, wie bestehende gesellschaftliche Ungleichheiten in Technologien eingeschrieben werden, und welche Rolle Macht, Sichtbarkeit und Teilhabe dabei spielen. Der Talk verknüpft technologische Entwicklung explizit mit gesellschaftlichen Machtverhältnissen. Er macht verständlich, dass Bias in KI kein technischer Fehler, sondern Ausdruck struktureller Ungleichheit ist, und dass feministische Ansätze helfen können, diese Strukturen kritisch zu hinterfragen.

🔗Feminism – For more Equity in AI. Eva Gengler | TEDxCBS Cologne

Josie Young argumentiert in diesem TEDx-Talk für einen feministischen Ansatz in der KI-Entwicklung. Sie zeigt, wie Entscheidungen über Design, Daten und Zielsetzungen bestehende Machtverhältnisse reproduzieren und wie alternative, feministische Designprinzipien aussehen können. Der Beitrag macht deutlich, dass machtkritische KI-Nutzung bereits beim Design beginnt und nicht erst bei der Anwendung.

🔗 Why we need to design feminist AI. Josie Young | TEDxLondonWomen

In diesem Vortrag beim University:Future Festival (U:FF) 2025 spricht Eva Gengler darüber, wie Machtstrukturen und Bias in Künstlicher Intelligenz zusammenhängen, insbesondere im Kontext von Hochschulen. Der Vortrag verknüpft kritische Perspektiven auf Technologie mit Fragen nach Gerechtigkeit, Teilhabe und feministischen Ansätzen in Wissenschaft und Bildung.

🔗Macht & Bias in KI – Feministische Antworten in der Hochschule. Eva Gengler | U:FF 2025

Wissenschaftliche Perspektiven

In diesem wissenschaftlichen Beitrag wird der aktuelle Stand der Gender- und Diversitätsforschung im MINT-Bereich systematisch untersucht. Die Autorin identifiziert strukturelle Defizite in der institutionellen Verankerung von Gender Studies in den MINT-Disziplinen und formuliert Maßnahmen zur nachhaltigen Integration gender- und diversitätsrelevanter Inhalte – u. a. durch den Ausbau entsprechender Professuren. Der Beitrag verknüpft wissenschaftspolitische Fragen der Hochschulstruktur mit der sozialwissenschaftlichen Auseinandersetzung über Technologie, Geschlecht und Wissen. Bias in KI kann nicht allein technisch adressiert werden, sondern ist eng verbunden mit institutionellen Macht- und Wissensverhältnissen. Diese Forschung macht sichtbar, dass grundlegendere strukturelle Bedingungen –  wie wer forscht, lehrt und entscheidet – Einfluss darauf haben, welche Perspektiven in KI-Debatten berücksichtigt werden.

🔗 Bestandsaufnahme, Perspektiven und Forderungen von Professor*innen in MINT-Gender Studies in Deutschland. Ein Beitrag von Tanja Kubes.

Der Artikel nimmt den verbreiteten Ansatz der Human-Centred AI kritisch aus feministischer Perspektive unter die Lupe. Er zeigt, dass Versprechen von Fairness und Inklusion häufig auf eurozentrischen, männlich geprägten und kapitalistischen Annahmen beruhen. Als Gegenentwurf schlägt Kubes ein Feminist AI Framework vor, das Machtverhältnisse, vielfältige Wissensformen und mehr-als-menschliche Perspektiven einbezieht.

🔗 A Critique of Human-Centred AI – A Plea for a Feminist AI Framework (FAIF). Ein Beitrag von Tanja Kubes.

Der Beitrag stellt das Modell „Kreislauf der Diskriminierung“ vor, das beschreibt, wie gesellschaftliche Vorurteile und Ungleichheiten in IT-Systeme eingehen und dort weiter verstärkt werden können. Das Modell unterscheidet vier miteinander verbundene Bereiche – Welt, Personen, Prozess und Produkt – und zeigt, wie gesellschaftliche Biases über Entwickler:innen, Designmethoden und Entwicklungsprozesse in technische Systeme eingeschrieben werden.

🔗 Kreislauf der Diskriminierung. Gesellschaftliche Biases und Diskriminierung in IT-Systemen als wiederkehrender Kreislauf der (Re)Produktion sozialer Ungleichheiten am Beispiel der Kategorie Geschlecht. Ein Beitrag von Nicola Marsden, Kerstin Raudonat, Monika Pröbster.

Der Artikel kritisiert große Sprachmodelle als Systeme, die statistische Muster aus Trainingsdaten reproduzieren, ohne Bedeutung zu verstehen. Die Autor:innen zeigen auf, dass diese Modelle dominante Sprach- und Wissensformen verstärken und marginalisierte Perspektiven unsichtbar machen können.

🔗 On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? Ein Beitrag von Emily M. Bender, Timnit Gebru, Angelina McMillan-Major und Shmargaret Shmitchell:

Die Studie zeigt, dass KI-Detektoren systematisch Texte von Nicht-Muttersprachler:innen häufiger als KI-generiert klassifizieren. Grund dafür ist unter anderem, dass diese Texte oft stärker standardisierte und einfachere Sprachmuster enthalten, die von Detektoren fälschlich als typisch für KI interpretiert werden. Der Beitrag macht deutlich, dass vermeintlich neutrale Prüfwerkzeuge bestehende sprachliche Ungleichheiten reproduzieren und damit Fragen von Fairness, Bewertung und Teilhabe im Bildungskontext aufwerfen.

🔗 GPT detectors are biased against non-native English writers. Ein Beitrag von Weixin Liang, Mert Yuksekgonul, Yining Mao, Eric Wu, James Zou.

Lernen & Reflektieren: Werkzeuge, Checklisten & Methoden

Dieser praxisorientierte Leitfaden führt in das Konzept des fairen KI-Prompting ein und bietet Unternehmen konkrete Werkzeuge, um generative KI verantwortungsvoll zu nutzen und faire Ergebnisse zu fördern. Er erklärt, warum Diversität, Inklusivität und Bewusstsein für ethische Herausforderungen beim Einsatz generativer KI wichtig sind, und gibt zugleich praktische Empfehlungen für die Gestaltung fairer Prompts an KI-Modelle.

🔗 Faires KI-Prompting – Ein Leitfaden für Unternehmen | Mittelstand-Digital Zentrum Zukunftskultur

Die Seite stellt das PAIR-Framework (Problem – AI – Interaction – Reflection) vor, das von Oguz A. Acar entwickelt wurde, um generative KI sinnvoll in Studium und Lehre zu integrieren. Das Modell strukturiert den Einsatz von KI in vier Schritte: Studierende formulieren zunächst ein Problem, wählen anschließend geeignete KI-Tools aus, erproben deren Nutzung und reflektieren schließlich kritisch über die Ergebnisse und den eigenen Arbeitsprozess. Das Framework soll Lehrenden eine einfache und anpassbare Struktur bieten, um KI nicht nur als Werkzeug zu verwenden, sondern zugleich Kompetenzen wie Problemlösung, kritisches Denken und Reflexion zu fördern.

🔗 PAIR Framework Guidance | King’s College London

Praxisnaher Online-Leitfaden aus dem Kontext Sozialer Arbeit, der eine diversitäts- und machtkritische Nutzung generativer KI fokussiert. Im Zentrum stehen Konzepte wie feministische AI-Literacies, die intersektionale, bias-sensible und kontextbewusste Kompetenzen im Umgang mit KI (insbesondere Prompting und Output-Bewertung) beschreiben. Der Leitfaden kombiniert Grundlagenwissen mit konkreten Anwendungstipps (z. B. Datenschutz, Anonymisierung, Reflexion von KI-Ausgaben) und zielt darauf ab, KI-Nutzung bewusst, reflektiert und diskriminierungssensibel zu gestalten.

🔗 Diversitätssensibler Umgang mit Künstlicher Intelligenz – Orientierungsleitfaden

Gute Angebote online: Plattformen, Projekte & Initiativen

Der Onlinekurs vermittelt wissenschaftlich fundierte Methoden zur Reduktion von Bias in KI-Systemen. Behandelt werden u.a. konkrete De-Biasing-Praktiken. Der Kurs übersetzt somit die oft abstrakte Diskussion um Bias, Fairness und Verantwortung in konkrete Handlungsoptionen. Er zeigt, dass bias-sensible KI-Nutzung nicht nur eine Frage individueller Haltung ist, sondern strukturelle Entscheidungen in Entwicklungs-, Entscheidungs- und Organisationsprozessen erfordert.

🔗 Methoden der Bias-Reduktion für eine sozialverantwortliche KI-Gestaltung | KI-Campus (Onlinekurs)

Die Feminist AI Community ist ein Netzwerk von Akteur:innen, die sich für feministische, inklusive und gerechte Ansätze in der KI-Entwicklung einsetzen. Die Plattform verbindet Ressourcen, Diskussionen, Veranstaltungen und kollaborative Projekte mit dem Ziel, Machtverhältnisse in Technologie kritisch zu thematisieren und zu verändern.

🔗 Feminist AI Community

Wer über KI spricht, gestaltet ihre Zukunft. Diese offene Expert:innenliste macht Frauen und nicht-binäre Personen mit KI-Expertise sichtbar und setzt damit bewusst ein Zeichen gegen einseitige, männlich dominierte Diskurse. Sie ist ein konkretes Werkzeug, um marginalisierte Perspektiven auf Bühnen, in Projekte und in Entscheidungsräume zu holen, und KI-Debatten so ausgewogener zu machen.

🔗 Expert:innenliste: Frauen und nicht-binäre Menschen in der KI 

Mit Apertus haben Forschende der EPFL, der ETH Zürich und des Schweizerischen Supercomputing-Zentrums CSCS ein groß angelegtes, vollständig offenes und mehrsprachiges Large-Language-Model (LLM) veröffentlicht, bei dem Architektur, Trainingsdaten, Modellgewichte und Entwicklungsprozess komplett transparent und dokumentiert sind. Das Modell ist in zwei Größen verfügbar und kann als Basis für Forschung, Bildung und weitere Anwendungen genutzt werden.

Apertus steht im deutlichen Kontrast zu proprietären „Black-Box“-Modellen: Durch Offenheit und Dokumentation wird Nachvollziehbarkeit möglich – ein zentraler Schritt, um Bias sichtbar zu machen, Macht über Technologie nicht allein bei großen Konzernen zu lassen und vielfältigere Nutzungsperspektiven zu ermöglichen. Die starke Mehrsprachigkeit kann zudem helfen, Unterrepräsentation nicht-englischer Sprachen in KI-Systemen kritisch zu hinterfragen.

🔗 Apertus – vollständig offenes, transparentes und mehrsprachiges Sprachmodell | EPFL, ETH Zürich & Swiss National Supercomputing Centre (CSCS)

Der Feminist AI Guide ist eine offene, kollaborativ gepflegte Online-Ressource, die feministische Perspektiven, kritische Analysen und praxisnahe Empfehlungen rund um Künstliche Intelligenz bündelt. Themen umfassen Machtstrukturen, Diskriminierung, Datenpraktiken, Governance und gesellschaftliche Auswirkungen von KI. Die Inhalte werden gemeinsam entwickelt und laden zur Mitwirkung ein.

🔗 Feminist AI Guide (Feminist AI Collective) Online-Resource & Community-Plattform

Die A+ Alliance ist eine internationale, interdisziplinäre Koalition von Forschenden, Aktivist:innen und Technolog:innen, die gemeinsam eine inklusive, gerechte und feministisch orientierte Zukunft der Künstlichen Intelligenz gestalten wollen. Sie verbindet akademische Expertise, zivilgesellschaftliches Engagement und technologische Praxis, um Machtfragen, algorithmische Verzerrungen und strukturelle Ungleichheiten im digitalen Raum anzugehen.

🔗 A+ Alliance for Inclusive Algorithms | Globale feministische KI-Koalition

Bias-sensible und machtkritische KI-Nutzung ist kein abgeschlossenes Themenfeld, sondern ein fortlaufender Aushandlungsprozess. Viele Fragen bleiben offen: Welche Perspektiven fehlen noch? Welche Erfahrungen werden bislang zu wenig gehört? Und wie lassen sich kritische Ansätze dauerhaft in Praxis, Lehre und Organisationen verankern?

Diese Linksammlung versteht sich daher als Momentaufnahme und Einladung zum gemeinsamen Weiterdenken. Die hier versammelten Quellen sind Ergebnisse unserer bisherigen Recherchen. Wir freuen uns über Hinweise auf weitere gute Ressourcen, Anregungen zur Diskussion oder Rückmeldungen, die diese Sammlung sinnvoll ergänzen.

Autorin

Johanna Leifeld ist seit 2022 im CHE Centrum für Hochschulentwicklung als Projektmanagerin für das Hochschulforum Digitalisierung tätig. Sie arbeitet in der Strategieentwicklung und verantwortet dort die Peer-to-Peer-Fachbereichsberatung. Außerdem gehört sie zum Team des University:Future Festival, der größten deutschsprachigen Veranstaltung zu Innovationen in der Hochschulbildung.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert