KI in der Wirtschaft – Schluss mit den Traumtänzereien
KI in der Wirtschaft – Schluss mit den Traumtänzereien
22.04.21Künstliche Intelligenz und „Big Data“ als die Antwort auf Probleme unserer Zeit? Wir müssen aufwachen aus dieser Traumvorstellung, meint Melanie Vogel. In diesem Blogbeitrag kommentiert sie ohne Umschweife die Idee des Solutionismus und erklärt, warum wir mehr Realismus in Bezug auf Daten und KI brauchen.
Aus dem Silicon Valley wabert seit einigen Jahren eine Idee in die deutsche Unternehmenslandschaft, die sich „Solutionismus“ nennt. Dahinter steckt der Gedanke, dass es für alle drängenden Probleme unserer Zeit eine technische Lösung gibt. Der Clou an der Vorstellung ist, dass uns „Big Data“ und KI nicht nur den Weg zu den Problemen weisen, sondern in ihnen gleichzeitig auch die Lösung liegt, wie diese Probleme gelöst werden können. Das Ergebnis wäre eine schöne neue Welt, in der die großen Menschheitsprobleme – auf Daten und Algorithmen herunter simplifiziert – die chaotisch-unberechenbare Sphäre von Naturgesetzen verlassen und bewältigbar werden. Allerdings könnte die Grundidee des Solutionismus bei näherer Betrachtung einer Schimäre nachjagen…
Das Problem unserer Datenbesessenheit
Allerspätestens seit der Erfindung von Google sind Daten zum digitalen Gold geworden. Sie sind ein fast schon unbezahlbarer Rohstoff, weswegen sich in der globalen Wirtschaft (und damit auch in Deutschland) eine gewisse Datenbesessenheit breit gemacht hat. Und genau darauf beruht die Idee des Solutionismus: Der unbedingte Glaube, dass die Wirtschaft mit genügend Daten viele komplexe Aspekte des Lebens – und die damit verbundene Ineffizienz von Lebensbereichen und Individuen – beheben kann. Es geht um nicht mehr, aber auch nicht weniger, als eine datengetriebene Transparenz, die es Unternehmen ermöglicht, Plattformen aufzubauen, Infrastrukturen zu vernetzen und das Alltagsleben in allen Facetten zu steuern und zu regulieren. Auf den ersten Blick erscheint dieser Trend sinnvoll und nachvollziehbar. Weniger Reibungsverluste beim Datentransfer, mehr Transparenz z.B. bei der Terrorbekämpfung oder eine schnellere Nachverfolgung von Infektionsketten. Doch dahinter stecken drei kleine, aber entscheidende Denkfehler:
- Alle Daten, die maschinell erhoben werden, sind in dem Moment, wo sie in eine Datenbank geschrieben werden, bereits veraltet. Diese Erkenntnis ist wichtig, wenn es um die anschließende Deutung der Daten geht. Sie bilden nämlich niemals die Realität ab, sondern immer nur eine Realität, die noch dazu nie allgegenwärtig sein kann. Für viele mag diese Unterscheidung irrelevant sein. Für das Narrativ, dem wir die gesammelten Daten aber irgendwann unterordnen müssen, ist es das nicht. Egal, wie viele Daten „Big Data“ generiert, sie sind und bleiben immer unvollständig und reduktionistisch, weil auch die menschliche Wahrnehmung unvollständig und reduktionistisch ist.
- Das intuitive Wissen über den Einsatz und die Deutung von Daten und Algorithmen ist so gut wie nicht existent, weil eine flächendeckende Erfahrung und auch der übergreifende interdisziplinäre Diskus darüber fehlen, wie Daten gelesen und interpretiert werden können. Unterschiedliche Wissensbereiche haben unterschiedliche Vorgehensweisen erlernt, wenn Daten interpretiert werden sollen. Es kommt einer Wahnvorstellung gleich zu glauben, der Solutionismus könnte uns lediglich zu einer technischen Lösung führen, wenn es in Wahrheit für die chaotischen Menschheitsprobleme unendlich viele Wege gibt, sie zu bewältigen.
- Big Data schafft eine (vermeintliche) Faktenlage, die uns ein Problem suggeriert, das unter Umständen gar nicht da ist oder nicht gelöst werden kann, weil die (vermeintliche) Faktenlage in Wirklichkeit unvollständig ist. Was wir stattdessen erhalten ist ein künstlich geschaffenes Problem-Paradox, das einen vormals komplexen Zustand ins Chaos ziehen kann. Diese technische Hybris, die daraus entsteht, basiert auf dem fehlenden Bewusstsein, dass „Big Data“ immer nur unter Laborbedingungen passiert. Doch das Leben selbst ist chaotisch und nicht alles kann in Daten abstrahiert und auf diesem Weg simplifiziert und alternativlos werden.
KI in Deutschland – zwischen Wunsch und Wirklichkeit
Im Jahr 2017 erfragte der Bitkom, welche Erwartungen die Deutschen an KI haben. Die Akzeptanz schien hoch, denn die Menschen sahen in vielen Lebensbereichen einen sinnvollen Einsatz von KI-Technologien.
- 83% waren sich sicher, dass KI helfen könne, Staus im Straßenverkehr zu reduzieren. Heute, drei Jahre später, können wir feststellen: Es war nicht die KI, welche die Staus über Monate reduzierte, sondern ein Virus. Die in den letzten Wochen entstandenen LKW-Staus an den deutschen Grenzen oder kilometerlange Tanker-Staus vor den größten Häfen der westlichen Welt, konnte die KI nicht lösen, weil „Big Data“ dieses Problem gar nicht vorhergesagt hatten. Interessanterweise haben auch die verantwortlichen Menschen an den Grenzen, in den Häfen und in der Politik diese Probleme nicht vorhergesagt, obwohl sie offensichtlich auf der Hand hätten liegen müssen. Wo Lieferketten unterbrochen und zerstört werden, wo ein globaler Flickenteppich an Quarantäne-Bestimmungen Einreisen und Lieferverkehr erschweren, kann kein reibungsloser Ablauf mehr stattfinden – KI hin oder her.
- 68% der Befragten waren sich 2017 sicher, dass Verwaltungstätigkeiten durch KI schneller bewältigt werden können. Heute wissen wir: Deutschland ist noch nicht soweit. In den Gesundheitsämtern der Republik wird gefaxt und manuell-analog gearbeitet, was das Zeug hält und gerade erst letzte Woche haben wir erfahren, dass es beim Finanzamt Bonn sage und schreibe genau ein Faxgerät (als Zahl ausgeschrieben: 1 Faxgerät) gibt, was die beschleunigte Bearbeitung dringender unternehmerischer Belange auf eklatant-fahrlässige Weise verlängert. Ein Scanner, angeschlossen an ein datensicheres E-Mail-Programm wäre ein wirklicher Quantensprung ins 21. Jahrhundert, zu dem sich die Finanzverwaltung derzeit außer Stande sieht.
- 57% sahen 2017 in der KI große Chancen, Diagnosen im Gesundheitswesen verbessern zu können. Schön wäre es, wenn es so wäre. Ob es die Corona-App, die Nachverfolgung von Infektionsketten oder die Bestellung von Impfstoffen ist – überall zeigt sich: der KI-Optimismus war verfrüht. Nicht primär an der KI scheitert es, sondern an den Menschen, welche die vorhanden KI-Systeme entwickeln, sie nutzen und ihnen vertrauen sollen.
- Schließlich, so ließ uns die Bitkom-Umfrage 2017 wissen, waren sich 21% der Befragten sicher, dass man mit Hilfe der KI in den Bereichen Kunst und Kultur völlig neue Dinge erschaffen könne. Heute wissen wir: Die Möglichkeiten wären vermutlich da – lediglich die menschliche Fantasie und die kollektive Akzeptanz fehlen. Die Kultur- und Eventbranche stirbt gerade einen leisen aber sicheren Tod. Und woran scheitert es in vielen Unternehmen? An der Angst vor der Technologie, an der mangelnden Vorstellungskraft, digitale Räume mit menschlichem Leben zu füllen und an der Borniertheit vieler IT-Abteilungen in den Unternehmen, Plattformen für die Nutzung freizugeben. Frei nach dem Motto „Zoomt und seid glücklich“, werden andere digitale Kanäle nicht nur nicht freigegeben, sondern deren Benutzung wird rigoros verboten.
Kurz zusammengefasst muss man – leider – feststellen, dass zumindest in Deutschland die „Digital Readiness“ eine nette Idee ist, in der Realität aber von Umsetzungs-Dramen begleitet wird, die in den meisten Fällen nichts mit KI und „Big Data“ zu tun haben, sondern mit einem generellen Unverständnis hinsichtlich ethisch-ökonomisch sinnvoller Einsatzmöglichkeiten. Doch vielleicht ist genau das ein Vorteil, der nun genutzt werden kann.
KI – Raus aus den Traumtänzereien
Die Erwartungen an die KI haben sich in vielen Bereichen gerade in den letzten 12 Monaten nicht erfüllt. Den Schimären des Silicon Valley nachzujagen und dem Solutionismus zu frönen, macht für Deutschland auch wenig Sinn, denn der mitteleuropäische Kulturraum ist nicht der amerikanische und der Transhumanismus (dem der Solutionismus zuzuordnen ist) entspricht eben nicht dem Humanismus – der Grundlage unseres Wertekanons. Dennoch betrachte ich diese Kluft nicht als nachteilig, sondern ganz im Gegenteil. Sie stellt einen Vorteil dar, den wir selbstbewusst nutzen könnten.
Basierend auf den Werten des Humanismus – insbesondere des Humboldt’schen Bildungsideals – wäre es genau jetzt an der Zeit, die KI aus den utopischen und zum Teil auch menschenfeindlichen Traumtänzereien des Silicon Valley zu befreien und einen „europäischen“ oder gar einen „deutschen KI-Weg“ zu wählen. Die Grundlagen dafür sind bereits kulturell bei uns verankert. Das Humboldt’sche Bildungsideal impliziert einen ganzheitlichen Ansatz. Nicht nur in der Bildung und Ausbildung des Menschen, sondern auch in seinen Fähigkeiten, ganzheitlich zu denken und zu handeln. Forschung und Lehre sollen Hand in Hand gehen, genauso wie – so Humboldt – der Mensch insgesamt „an sich und ohne Hinsicht auf seinen besonderen Beruf ein guter, anständiger, seinem Stande nach aufgeklärter Mensch und Bürger“ sein soll. Wie könnte man also diesen Grundgedanken auf KI und Big Data übertragen und so den zukünftigen technologischen Entwicklungen einen ethisch-kulturellen Touch geben, der bislang global fast vollständig fehlt?
Wir brauchen eine Reform des Erkenntnisprozesses
Wir müssen erkennen – und unser kulturelles Humboldt’sches Erbe ermöglicht uns diesen Zugang fast spielend –, dass wir ein Verständnis für (neue) Fehlerquellen benötigen, zu denen uns KI und Big Data verleiten. Wir brauchen auf das Sammeln von Daten und auf das Finden technologischer Lösungen für Probleme überhaupt nicht zu verzichten, jedoch die Interpretation derselben muss sich verändern. Weg vom ausschließlich ökonomischen Ansatz (der eine grundlegende und gefährliche „Daten-Knechtschaft“ in sich birgt) hin zum ethisch-ökonomischen Ansatz. Dazu wären vier Schritte notwendig, die nicht nur in Hochschulen und Universitäten in allen Fachbereichen Einzug halten sollten, sondern auch als technisch-ethischer Standard in der Unternehmenswelt dringend umgesetzt werden müssten.
Würde die Prozesskette mit dem Sammeln von Big Data beginnen, so müsste im Anschluss ein Problem bzw. eine Theorie hinterlegt werden. Gibt es für die gesammelten Daten tatsächlich ein reales Problem? Wenn ja, ist dieses Problem relevant und für wen? Welches Narrativ erzählen die Daten? Wer wird sie wie interpretieren und warum? Im dritten Schritt muss ein konsequenter Realitätsabgleich stattfinden. Welche menschlichen Bedürfnisse würden durch eine mögliche Lösung befriedigt? Welche Machbarkeitswege gibt es? Welcher Weg ist der sinnvollste, der ethischste und der nachhaltigste? Welche Handlungen und Einstellungen müssen ethisch-moralisch überprüft werden, wenn aus bestimmten Daten KI-Prozesse entwickelt werden? Im vierten Schritt steht die Technologie im Fokus, die dann wiederum einen permanenten (sozusagen) ethischen Datenabgleich mit der Realität abbilden muss.
Zwischen den technologischen Prozessen liegen also analog-kreative Prozesse, interdisziplinäre Diskurse und humanistisch-holistische Abwägungen, die wir in Deutschland im Ansatz als Technikfolgeabschätzung kennen, die aber bislang meistens auf Institutionen beschränkt war und nicht konsequent auf Individuen und unternehmerisch tätige Organisationen ausgeweitet wurde. Doch genau der Paradigmenwechsel muss erfolgen, wenn es um nachhaltige Technologieentwicklung geht, für die insbesondere der deutschsprachige Raum immer gestanden hat und auch in Zukunft stehen sollte.
„Die Maschine kann nur tun, was wir ihr zu befehlen wissen“, sagte bereits Ada Lovelace. Es braucht daher auf allen Ebenen der Gesellschaft „critical thinking“ – kritisches Denken, wenn es um den Einsatz von Big Data und KI geht, um Missbrauch und menschenfeindliche Entwicklungen frühzeitig zu erkennen und gegenzusteuern.