Künstliche Intelligenz und "Big Data" als die Antwort auf Probleme unserer Zeit? Wir müssen aufwachen aus dieser Traumvorstellung, meint Melanie Vogel. In diesem Blogbeitrag kommentiert sie ohne Umschweife die Idee des Solutionismus und erklärt, warum wir mehr Realismus in Bezug auf Daten und KI brauchen.
Aus dem Silicon Valley wabert seit einigen Jahren eine Idee in die deutsche Unternehmenslandschaft, die sich „Solutionismus“ nennt. Dahinter steckt der Gedanke, dass es für alle drängenden Probleme unserer Zeit eine technische Lösung gibt. Der Clou an der Vorstellung ist, dass uns „Big Data“ und KI nicht nur den Weg zu den Problemen weisen, sondern in ihnen gleichzeitig auch die Lösung liegt, wie diese Probleme gelöst werden können. Das Ergebnis wäre eine schöne neue Welt, in der die großen Menschheitsprobleme – auf Daten und Algorithmen herunter simplifiziert – die chaotisch-unberechenbare Sphäre von Naturgesetzen verlassen und bewältigbar werden. Allerdings könnte die Grundidee des Solutionismus bei näherer Betrachtung einer Schimäre nachjagen…
Allerspätestens seit der Erfindung von Google sind Daten zum digitalen Gold geworden. Sie sind ein fast schon unbezahlbarer Rohstoff, weswegen sich in der globalen Wirtschaft (und damit auch in Deutschland) eine gewisse Datenbesessenheit breit gemacht hat. Und genau darauf beruht die Idee des Solutionismus: Der unbedingte Glaube, dass die Wirtschaft mit genügend Daten viele komplexe Aspekte des Lebens – und die damit verbundene Ineffizienz von Lebensbereichen und Individuen – beheben kann. Es geht um nicht mehr, aber auch nicht weniger, als eine datengetriebene Transparenz, die es Unternehmen ermöglicht, Plattformen aufzubauen, Infrastrukturen zu vernetzen und das Alltagsleben in allen Facetten zu steuern und zu regulieren. Auf den ersten Blick erscheint dieser Trend sinnvoll und nachvollziehbar. Weniger Reibungsverluste beim Datentransfer, mehr Transparenz z.B. bei der Terrorbekämpfung oder eine schnellere Nachverfolgung von Infektionsketten. Doch dahinter stecken drei kleine, aber entscheidende Denkfehler:
Im Jahr 2017 erfragte der Bitkom, welche Erwartungen die Deutschen an KI haben. Die Akzeptanz schien hoch, denn die Menschen sahen in vielen Lebensbereichen einen sinnvollen Einsatz von KI-Technologien.
Kurz zusammengefasst muss man – leider – feststellen, dass zumindest in Deutschland die „Digital Readiness“ eine nette Idee ist, in der Realität aber von Umsetzungs-Dramen begleitet wird, die in den meisten Fällen nichts mit KI und „Big Data“ zu tun haben, sondern mit einem generellen Unverständnis hinsichtlich ethisch-ökonomisch sinnvoller Einsatzmöglichkeiten. Doch vielleicht ist genau das ein Vorteil, der nun genutzt werden kann.
Die Erwartungen an die KI haben sich in vielen Bereichen gerade in den letzten 12 Monaten nicht erfüllt. Den Schimären des Silicon Valley nachzujagen und dem Solutionismus zu frönen, macht für Deutschland auch wenig Sinn, denn der mitteleuropäische Kulturraum ist nicht der amerikanische und der Transhumanismus (dem der Solutionismus zuzuordnen ist) entspricht eben nicht dem Humanismus – der Grundlage unseres Wertekanons. Dennoch betrachte ich diese Kluft nicht als nachteilig, sondern ganz im Gegenteil. Sie stellt einen Vorteil dar, den wir selbstbewusst nutzen könnten.
Basierend auf den Werten des Humanismus – insbesondere des Humboldt’schen Bildungsideals – wäre es genau jetzt an der Zeit, die KI aus den utopischen und zum Teil auch menschenfeindlichen Traumtänzereien des Silicon Valley zu befreien und einen „europäischen“ oder gar einen „deutschen KI-Weg“ zu wählen. Die Grundlagen dafür sind bereits kulturell bei uns verankert. Das Humboldt’sche Bildungsideal impliziert einen ganzheitlichen Ansatz. Nicht nur in der Bildung und Ausbildung des Menschen, sondern auch in seinen Fähigkeiten, ganzheitlich zu denken und zu handeln. Forschung und Lehre sollen Hand in Hand gehen, genauso wie – so Humboldt – der Mensch insgesamt „an sich und ohne Hinsicht auf seinen besonderen Beruf ein guter, anständiger, seinem Stande nach aufgeklärter Mensch und Bürger“ sein soll. Wie könnte man also diesen Grundgedanken auf KI und Big Data übertragen und so den zukünftigen technologischen Entwicklungen einen ethisch-kulturellen Touch geben, der bislang global fast vollständig fehlt?
Wir müssen erkennen – und unser kulturelles Humboldt’sches Erbe ermöglicht uns diesen Zugang fast spielend –, dass wir ein Verständnis für (neue) Fehlerquellen benötigen, zu denen uns KI und Big Data verleiten. Wir brauchen auf das Sammeln von Daten und auf das Finden technologischer Lösungen für Probleme überhaupt nicht zu verzichten, jedoch die Interpretation derselben muss sich verändern. Weg vom ausschließlich ökonomischen Ansatz (der eine grundlegende und gefährliche „Daten-Knechtschaft“ in sich birgt) hin zum ethisch-ökonomischen Ansatz. Dazu wären vier Schritte notwendig, die nicht nur in Hochschulen und Universitäten in allen Fachbereichen Einzug halten sollten, sondern auch als technisch-ethischer Standard in der Unternehmenswelt dringend umgesetzt werden müssten.
Würde die Prozesskette mit dem Sammeln von Big Data beginnen, so müsste im Anschluss ein Problem bzw. eine Theorie hinterlegt werden. Gibt es für die gesammelten Daten tatsächlich ein reales Problem? Wenn ja, ist dieses Problem relevant und für wen? Welches Narrativ erzählen die Daten? Wer wird sie wie interpretieren und warum? Im dritten Schritt muss ein konsequenter Realitätsabgleich stattfinden. Welche menschlichen Bedürfnisse würden durch eine mögliche Lösung befriedigt? Welche Machbarkeitswege gibt es? Welcher Weg ist der sinnvollste, der ethischste und der nachhaltigste? Welche Handlungen und Einstellungen müssen ethisch-moralisch überprüft werden, wenn aus bestimmten Daten KI-Prozesse entwickelt werden? Im vierten Schritt steht die Technologie im Fokus, die dann wiederum einen permanenten (sozusagen) ethischen Datenabgleich mit der Realität abbilden muss.
Zwischen den technologischen Prozessen liegen also analog-kreative Prozesse, interdisziplinäre Diskurse und humanistisch-holistische Abwägungen, die wir in Deutschland im Ansatz als Technikfolgeabschätzung kennen, die aber bislang meistens auf Institutionen beschränkt war und nicht konsequent auf Individuen und unternehmerisch tätige Organisationen ausgeweitet wurde. Doch genau der Paradigmenwechsel muss erfolgen, wenn es um nachhaltige Technologieentwicklung geht, für die insbesondere der deutschsprachige Raum immer gestanden hat und auch in Zukunft stehen sollte.
„Die Maschine kann nur tun, was wir ihr zu befehlen wissen“, sagte bereits Ada Lovelace. Es braucht daher auf allen Ebenen der Gesellschaft „critical thinking“ – kritisches Denken, wenn es um den Einsatz von Big Data und KI geht, um Missbrauch und menschenfeindliche Entwicklungen frühzeitig zu erkennen und gegenzusteuern.
Your first name.
More information about text formats
Enter the characters shown in the image.
Das Hochschulforum Digitalisierung möchte Ihre Ideen in die Gestaltung der Website einbeziehen. Dafür bitten wir Sie herzlich, an unserer Umfrage teilzunehmen.Als Dankeschön können Sie einen von drei Hoodies vom Hochschulforum Digitalisierung gewinnen.
Hinweis: Die Umfrage wird über Google Formulare durchgeführt. Durch Klicken auf den Button werden Sie zum Google Formular weitergeleitet.
Jetzt teilnehmen