Diskriminierung durch Algorithmen – Interview mit Katharina Simbeck

Diskriminierung durch Algorithmen – Interview mit Katharina Simbeck

19.07.19

Bilderkennung, Spracherkennung und Co. durch Algorithmen. Bleibt es divers?

Künstliche Intelligenz und Algorithmen werden zunehmend in alltägliche Prozesse integriert. Gerade im „Wissenschaftsjahr 2019 Künstliche Intelligenz“ ist dieser Trend auch an den Hochschulen zu verspüren. Aber kritikfrei? Es braucht qualitativ hochwertige diskriminierungsfreie Daten, sowie ausgebildete Personen, die sicher mit diesen Daten umgehen können. Wir waren im Gespräch mit Prof. Dr. Katharina Simbeck von der HTW Berlin.

 

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

 

Wie äußerst sich Diskriminierung durch Algorithmen?

Heutige Bilderkennungssysteme beispielsweise funktionieren für hellhäutige Menschen besser, als für dunkelhäutige Menschen. Der Grund dafür ist, dass diese Systeme mit zu vielen hellhäutigen Menschen trainiert wurden. Die Bilderkennungssysteme wurden eben nicht auf alle Menschen trainiert, sondern mit Daten die selbst bereits Diskriminierung beinhalten. Ein Algorithmus, oder eine Künstliche Intelligenz, lernt dann unvollständig oder das Falsche. Das System reproduziert diese Unausgeglichenheit, indem es diskriminiert. Ein weiteres Beispiel ist die Spracherkennung, wie automatisch generierte Youtube-Untertitel. Diese werden dann am besten erstellt, wenn man ordentliches Englisch spricht. Mit anderen Sprachen funktioniert es schlechter. Fast gar nicht, wenn regionale Dialekte ins Spiel kommen, oder bei afroamerikanischen Bürgern, die ein eingefärbtes Englisch sprechen.

 

Wie kann die Diskriminierung durch Künstliche Intelligenz verhindert werden?

Im Arbeitsleben werden die Prozesse digitalisiert, wir hantieren ständig mit Computern und elektronischen Geräten. Wir generieren in allen Lebensbereichen immer mehr Daten. In Zukunft werden diese Daten als Grundlage für alle Arten von Entscheidungen genutzt, oder allen möglichen Systemen als Lerndaten zur Verfügung stehen. Wenn auf der Basis solcher Daten Entscheidungen getroffen werden sollen, dann muss immer die Frage gestellt werden, ob diese Datengrundlage diskriminierungsfrei ist. In der Regel sind sie das von sich aus noch nicht weil, das Leben nun mal nicht diskriminierungsfrei ist.

Bilderkennung, Spracherkennung und Co. durch Algorithmen. Bleibt es divers?

Welche konkreten Risiken bringt die Diskriminierung durch Daten mit sich?

Die Gefahr besteht in der Annahme, dass datenbasierte Entscheidungen automatisch objektiv und richtig sind. Das ist einfach nicht der Fall. Es heißt so schön: „Vertraue nie einer Statistik, die du nicht selbst gefälscht hast.“ Nur weil Daten verwendet wurden, sind sie eben nicht objektiv. Trotz der Verwendung von Daten, Algorithmen und Analysen herrscht eben dieses Diskriminierungspotenzial. Diesem Rattenschwanz muss man sich bewusst sein.

Das Video wurde von KUXMA GmbH & Co. KG produziert. Redaktion und Regie übernahm Josephine Kuthning.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert