Künstliche Intelligenz und Algorithmen werden zunehmend in alltägliche Prozesse integriert. Gerade im "Wissenschaftsjahr 2019 Künstliche Intelligenz" ist dieser Trend auch an den Hochschulen zu verspüren. Aber kritikfrei? Es braucht qualitativ hochwertige diskriminierungsfreie Daten, sowie ausgebildete Personen, die sicher mit diesen Daten umgehen können. Wir waren im Gespräch mit Prof. Dr. Katharina Simbeck von der HTW Berlin.
Heutige Bilderkennungssysteme beispielsweise funktionieren für hellhäutige Menschen besser, als für dunkelhäutige Menschen. Der Grund dafür ist, dass diese Systeme mit zu vielen hellhäutigen Menschen trainiert wurden. Die Bilderkennungssysteme wurden eben nicht auf alle Menschen trainiert, sondern mit Daten die selbst bereits Diskriminierung beinhalten. Ein Algorithmus, oder eine Künstliche Intelligenz, lernt dann unvollständig oder das Falsche. Das System reproduziert diese Unausgeglichenheit, indem es diskriminiert. Ein weiteres Beispiel ist die Spracherkennung, wie automatisch generierte Youtube-Untertitel. Diese werden dann am besten erstellt, wenn man ordentliches Englisch spricht. Mit anderen Sprachen funktioniert es schlechter. Fast gar nicht, wenn regionale Dialekte ins Spiel kommen, oder bei afroamerikanischen Bürgern, die ein eingefärbtes Englisch sprechen.
Im Arbeitsleben werden die Prozesse digitalisiert, wir hantieren ständig mit Computern und elektronischen Geräten. Wir generieren in allen Lebensbereichen immer mehr Daten. In Zukunft werden diese Daten als Grundlage für alle Arten von Entscheidungen genutzt, oder allen möglichen Systemen als Lerndaten zur Verfügung stehen. Wenn auf der Basis solcher Daten Entscheidungen getroffen werden sollen, dann muss immer die Frage gestellt werden, ob diese Datengrundlage diskriminierungsfrei ist. In der Regel sind sie das von sich aus noch nicht weil, das Leben nun mal nicht diskriminierungsfrei ist.
Bilderkennung, Spracherkennung und Co. durch Algorithmen. Bleibt es divers? Bild: [https://unsplash.com/photos/YVuWpmiIWJo Andres Umana]
Die Gefahr besteht in der Annahme, dass datenbasierte Entscheidungen automatisch objektiv und richtig sind. Das ist einfach nicht der Fall. Es heißt so schön: „Vertraue nie einer Statistik, die du nicht selbst gefälscht hast.“ Nur weil Daten verwendet wurden, sind sie eben nicht objektiv. Trotz der Verwendung von Daten, Algorithmen und Analysen herrscht eben dieses Diskriminierungspotenzial. Diesem Rattenschwanz muss man sich bewusst sein.
Das Video wurde von KUXMA GmbH & Co. KG produziert. Redaktion und Regie übernahm Josephine Kuthning.
Wenn, wie im Beitrag dargelegt, Entscheidungen aufgrund von Ergebnissen einer ausgesuchten, um nicht zu sagen manupulierten, Datenmenge, gefällt werden, dann sind wir doch schon mitten drin in einem Geflecht aus Angst, Doktrin, Diskriminierung, Beschädigung. Ein paar Beispiele haben wir ja schon im öffentlichen Beschädigungsfeld. Wenn die Häufigkeit von verwendeten Begriffen (Begriffe = Daten) dazu herangezogen wird, ob eine wissenschaftliche Recherchearbeit ein Plagiat ist und die Betroffenen stigmatisiert und nicht selten asozialisiert werden, dann braucht es nur Verantwortung zum Umgang mit Daten. Mit den Zitat: "Ich glaube nur der Statistik, die ich selbst gefälscht habe " (Winston Churchill) ist eigentlich alles gesagt: Man nehme nur die Datenmenge, die geeignet ist Andere zu beschädigen und dann läuft der Algorithmus ganz alleine...
Your first name.
Weitere Informationen über Textformate
Enter the characters shown in the image.
Das Hochschulforum Digitalisierung möchte Ihre Ideen in die Gestaltung der Website einbeziehen. Dafür bitten wir Sie herzlich, an unserer Umfrage teilzunehmen.Als Dankeschön können Sie einen von drei Hoodies vom Hochschulforum Digitalisierung gewinnen.
Hinweis: Die Umfrage wird über Google Formulare durchgeführt. Durch Klicken auf den Button werden Sie zum Google Formular weitergeleitet.
Jetzt teilnehmen