Direkt zum Inhalt
Startseite
Podcast Facebook Twitter LinkedIn YouTube RSSRSS Newsletter
  • DE
  • EN

Suchformular

Diskriminierung durch Algorithmen – Interview mit Katharina Simbeck

Till Rückwart
Till Rückwart, 19.7.2019
Dieser Beitrag gehört zum Dossier:
Dossier

Künstliche Intelligenz

Verändert Künstliche Intelligenz die Bildung? Wie lehren und lernen wir in Zukunft? Welche Kompetenzen erfordert die KI-Welt von morgen? Welche Chancen und Risiken bietet die Technologie für die Hochschulbildung?
Roboterfigur - vermutlich ohne Künstliche Intelligenz

Künstliche Intelligenz und Algorithmen werden zunehmend in alltägliche Prozesse integriert. Gerade im "Wissenschaftsjahr 2019 Künstliche Intelligenz" ist dieser Trend auch an den Hochschulen zu verspüren. Aber kritikfrei? Es braucht qualitativ hochwertige diskriminierungsfreie Daten, sowie ausgebildete Personen, die sicher mit diesen Daten umgehen können. Wir waren im Gespräch mit Prof. Dr. Katharina Simbeck von der HTW Berlin.

 

 

Wie äußerst sich Diskriminierung durch Algorithmen?

Heutige Bilderkennungssysteme beispielsweise funktionieren für hellhäutige Menschen besser, als für dunkelhäutige Menschen. Der Grund dafür ist, dass diese Systeme mit zu vielen hellhäutigen Menschen trainiert wurden. Die Bilderkennungssysteme wurden eben nicht auf alle Menschen trainiert, sondern mit Daten die selbst bereits Diskriminierung beinhalten. Ein Algorithmus, oder eine Künstliche Intelligenz, lernt dann unvollständig oder das Falsche. Das System reproduziert diese Unausgeglichenheit, indem es diskriminiert. Ein weiteres Beispiel ist die Spracherkennung, wie automatisch generierte Youtube-Untertitel. Diese werden dann am besten erstellt, wenn man ordentliches Englisch spricht. Mit anderen Sprachen funktioniert es schlechter. Fast gar nicht, wenn regionale Dialekte ins Spiel kommen, oder bei afroamerikanischen Bürgern, die ein eingefärbtes Englisch sprechen.

 

Wie kann die Diskriminierung durch Künstliche Intelligenz verhindert werden?

Im Arbeitsleben werden die Prozesse digitalisiert, wir hantieren ständig mit Computern und elektronischen Geräten. Wir generieren in allen Lebensbereichen immer mehr Daten. In Zukunft werden diese Daten als Grundlage für alle Arten von Entscheidungen genutzt, oder allen möglichen Systemen als Lerndaten zur Verfügung stehen. Wenn auf der Basis solcher Daten Entscheidungen getroffen werden sollen, dann muss immer die Frage gestellt werden, ob diese Datengrundlage diskriminierungsfrei ist. In der Regel sind sie das von sich aus noch nicht weil, das Leben nun mal nicht diskriminierungsfrei ist.

Bilderkennung, Spracherkennung und Co. durch Algorithmen. Bleibt es divers?Bilderkennung, Spracherkennung und Co. durch Algorithmen. Bleibt es divers? Bild: [https://unsplash.com/photos/YVuWpmiIWJo Andres Umana]

Welche konkreten Risiken bringt die Diskriminierung durch Daten mit sich?

Die Gefahr besteht in der Annahme, dass datenbasierte Entscheidungen automatisch objektiv und richtig sind. Das ist einfach nicht der Fall. Es heißt so schön: „Vertraue nie einer Statistik, die du nicht selbst gefälscht hast.“ Nur weil Daten verwendet wurden, sind sie eben nicht objektiv. Trotz der Verwendung von Daten, Algorithmen und Analysen herrscht eben dieses Diskriminierungspotenzial. Diesem Rattenschwanz muss man sich bewusst sein.

Das Video wurde von KUXMA GmbH & Co. KG produziert. Redaktion und Regie übernahm Josephine Kuthning.

Tags: 
Künstliche Intelligenz
Gleichberechtigung
CC-BY-SA LogoDieser Text steht unter der Lizenz Creative Commons Namensnennung - Weitergabe unter gleichen Bedingungen 4.0 International - CC BY-SA 4.0. Bitte nennen Sie bei einer möglichen Nachnutzung den angegebenen Autorennamen sowie als Quelle das Hochschulforum Digitalisierung.
  • Blog von Till Rückwart
  • Neuen Kommentar schreiben
  • Druckversion

Kommentare

Lola Manta Alores

Algorrithmen und Entscheidungsabhängigkeit?

Permanenter Link Gespeichert von Lola Manta Alores (nicht überprüft) am/um Mo, 9.9.2019 - 14:32

Wenn, wie im Beitrag dargelegt, Entscheidungen aufgrund von Ergebnissen einer ausgesuchten, um nicht zu sagen manupulierten, Datenmenge, gefällt werden, dann sind wir doch schon mitten drin in einem Geflecht aus Angst, Doktrin, Diskriminierung, Beschädigung. Ein paar Beispiele haben wir ja schon im öffentlichen Beschädigungsfeld. Wenn die Häufigkeit von verwendeten Begriffen (Begriffe = Daten) dazu herangezogen wird, ob eine wissenschaftliche Recherchearbeit ein Plagiat ist und die Betroffenen stigmatisiert und nicht selten asozialisiert werden, dann braucht es nur Verantwortung zum Umgang mit Daten.  Mit den Zitat: "Ich glaube nur der Statistik, die ich selbst gefälscht habe " (Winston Churchill) ist eigentlich alles gesagt: Man nehme nur die Datenmenge, die geeignet ist Andere zu beschädigen und dann läuft der Algorithmus ganz alleine...

  • Antworten

Neuen Kommentar schreiben

(If you're a human, don't change the following field)

Your first name.

(If you're a human, don't change the following field)

Your first name.

(If you're a human, don't change the following field)

Your first name.

Switch to plain text editor

Weitere Informationen über Textformate

Simple HTML

  • Adds captions, from the title attribute, to images with one of the following classes: image-left image-right standalone-image
  • Zulässige HTML-Tags: <a> <em> <strong> <cite> <blockquote> <code> <ul> <ol> <li> <dl> <dt> <dd> <h2> <h3> <h4> <table> <th> <tr> <td> <span> <p> <br> <hr>
  • HTML - Zeilenumbrüche und Absätze werden automatisch erzeugt.
  • Internet- und E-Mail-Adressen werden automatisch umgewandelt.
  • You may use [view:name=display=args] tags to display views.

Plain text

  • Keine HTML-Tags erlaubt.
  • Internet- und E-Mail-Adressen werden automatisch umgewandelt.
  • HTML - Zeilenumbrüche und Absätze werden automatisch erzeugt.
Image CAPTCHA

Enter the characters shown in the image.

Till Rückwart
Till Rückwart

Till unterstützt die Geschäftsstelle des Hochschulforum Digitalisierung als studentische Hilfskraft. Er studiert im Bachelor Europäische Medienwissenschaft an der Universität Potsdam und der Fachhochschule Potsdam.

Kooperationspartner:

Stifterverband für die Deutsche Wissenschaft CHE Centrum für Hochschulentwicklung Hochschulrektorenkonferenz

Förderer:

Bundesministerium für Bildung und Forschung
Kontakt | Impressum | Datenschutz

Suchformular

  • Wir
    • Das Hochschulforum: Über uns
    • Stakeholder-Dialog
    • Projektpartner
    • Team

    • Jobs
  • Corona-Sonderseiten
    • Corona - Übersicht
    • Corona - austauschen
    • Corona - informieren
    • Corona - mitmachen
  • Strategien
    • Strategien für die Digitalisierung in Studium und Lehre
    • Peer-to-Peer-Strategieberatung
    • Peer-to-Peer-Fachbereichsberatung
    • HFDlead - Netzwerk Strategie & Digitalisierung
    • HFD-Showroom
    • Strategiekonferenzen
  • Netzwerk
    • Das Netzwerk für die Hochschullehre
    • HFDnet
    • HFDcon
    • HFD Summer Schools
    • HFD Hangouts
    • HFDcert
    • Community of Practice: Starthilfe fürs Corona-Semester
  • Arbeitsgruppen
    • Ad-hoc-Arbeitsgruppen 2020
    • Studentische Zukunfts-AG #DigitalChangeMaker
    • Künstliche Intelligenz, Algorithmen und Big Data
    • HFDlead

    • HFD Community Working Groups

    • Rückblick
    • Ad-hoc-Arbeitsgruppen 2018 - 2019
    • Ad-hoc-Arbeitsgruppen 2017 - 2018
  • Themendossiers
    • Übersicht Themendossiers

    • Anrechnung & Anerkennung
    • Bildungsverständnis
    • Blended Learning
    • Blockchain
    • Curriculumentwicklung
    • Data Literacy
    • EdTech
    • Geflüchtete
    • Gute Lehre
    • Diversität & Barrierefreiheit
    • Hochschullehre in Krisenzeiten
    • Internationalisierung
    • Künstliche Intelligenz
    • Learning Analytics
    • Lernräume
    • Open Educational Resources
    • Open Science
    • Plattformen
    • Prüfen im Digitalen
    • Strategie
    • Studierende
    • Technologie
    • Urheberrecht
    • Weiterbildung & Lebenslanges Lernen
  • Studierende
    • Zukunfts-AG #DigitalChangeMaker
    • HFD-Student-Community - Mitmachen!
    • Studierenden-Podcasts
    • Hackathons
  • Mitmachen
    • Übersicht Mitmachen

    • Call for Experts
    • Call for Students
  • Termine
  • Media
    • Videos vom HFD
    • Podcast
    • Pressespiegel
    • Pressemitteilungen
    • Newsletter-Archiv
    • Guidelines für Blog-Autor*innen
    • Qualifizierungsspecial "Quickstarter Online-Lehre" - Videobeiträge
  • Weitere Aktivitäten
    • Bologna Digital

    • Digital Learning Map

    • Rückblick
    • Themenwoche 2018
    • Das HFD 2014-2016
    • Themengruppen 2014-16
  • Publikationen
  • Blog