Wer führt wen in der Wissenschaft im Zeitalter künstlicher Intelligenzen?

Wer führt wen in der Wissenschaft im Zeitalter künstlicher Intelligenzen?

11.10.21

„Führung ist ein Prozess, bei dem eine Person oder eine Gruppe das Verhalten anderer beeinflusst. In diesem Sinne ist sie mit Autorität verbunden. Menschen wollen die Stärksten sein. Zwar sind sie aufgrund ihrer Fähigkeit, Werkzeuge zu benutzen, derzeit physisch stärker als die meisten anderen Lebewesen auf der Erde, aber dieser Vorteil nimmt mit dem Fortschritt der künstlichen Intelligenz und der zunehmenden Leistungsfähigkeit von Robotern rasch ab. Der Mensch ist auch intelligenter als andere Lebewesen, aber in den letzten Jahren ist die künstliche Intelligenz klüger geworden, und es ist wahrscheinlich, dass die künstliche Intelligenz in Zukunft viel schlauer sein wird als der Mensch. Doch selbst wenn sie im Vergleich zum Menschen keine größeren physischen oder intellektuellen Fähigkeiten besitzen, werden Roboter immer noch in der Lage sein, die Herrschaft zu übernehmen, weil der Wunsch des Menschen nach persönlicher Macht ihn zu Fehlern verleiten wird.“

 

 

Um dieses zitierte Szenario, das von einer Künstlichen Intelligenz (KI) entworfen wurde, zu verhindern, bedarf es einer normativen Orientierung für die produktive Zusammenarbeit von Mensch und Maschine, die weder die damit verbunden dystopischen Gefahren noch naiv den vermeintlichen Nutzen überhöht. Bisher jedoch fehlt eine solche Orientierung, die einerseits vorgibt, wie und zu welchem Zweck KIs im Wissenschaftsprozess eingesetzt werden dürfen, und die andererseits klare Verantwortlichkeiten definiert. Diejenigen Werte, die seit nunmehr knapp 2500 Jahren den Wissenschaftsbetrieb orientieren, sind plötzlich nicht mehr (einfach) adaptierbar. Die traditionellen Werte Zuverlässigkeit, Ehrlichkeit, Respekt und Rechenschaftspflicht (ALLEA 2018) sind konzipiert für Menschen als alleinige Urheber von Wissen, die Maschinen allenfalls als Mittel zum Zweck einsetzen. Künstliche Intelligenzen aber generieren selbstständig Wissen in einem Maße, das die menschliche Leistungsfähigkeit übersteigt, wie DeepMinds Künstliche Intelligenz AlphaFold 2.0 eindrucksvoll unter Beweis gestellt hat. Oder aber sie generieren Ergebnisse, die zumindest nicht mehr von menschlichen Produkten unterscheidbar sind, wie der obige erste Absatz zeigt. Normative Kategorien wie Ehrlichkeit und Respekt sind dabei aber aufgrund ihrer semantischen Bedeutungskomplexität und -tiefe nicht algorithmisierbar, bleiben für Künstliche Intelligenzen somit bedeutungslos.

Daher herrscht im Diskurs im Wesentlichen über zwei Dinge Einigkeit: Erstens, dass die KIs keine Verantwortung für sich selbst übernehmen dürfen, sondern diese immer beim Menschen liegen muss (Université de Montréal 2018), und zweitens, dass diese nicht mehr allein auf den Endanwender der KI abgewälzt werden kann, der in den seltensten Fällen weiß, wie die KI funktioniert und insofern keinerlei Rechenschaft für die mittels KI generierten Ergebnisse abliefern kann. Antworten darauf, wie KIs denn im wissenschaftlichen Prozess eingesetzt werden dürfen und wer am Ende wofür verantwortlich ist, fehlen. Das ist deswegen besonders dramatisch, weil es sich hierbei nicht um ein fiktives Zukunftsszenario handelt, sondern KIs auch im Bildungsbereich bereits fundamental integriert sind (Chen et al. 2020) – häufig genug unbemerkt wie bei Übersetzungs- oder Officeprogrammen – und zudem ein starker politischer Wille besteht, das auch weiter zu forcieren (GWK 2020). Die bestehende Orientierungslosigkeit im Hinblick auf einen „richtigen“ Einsatz von KI steigert dabei die Attraktivität für einen missbräuchlichen Einsatz sowohl unter Studierenden (Weßels 2020) als auch auf Seite der Forschenden (Else & Van Noorden 2021, Lahrtz 2021). Was also ist zu tun, um die aus der Interaktion von Mensch und Maschine erwachsende hybride Intelligenz (Dellermann et al. 2019) in ihrer bisher noch unabsehbaren Potenzialität auch für Forschung zu nutzen, ohne aber den sich damit gleichzeitig eröffnenden Missbrauchsmöglichkeiten Tür und Tor zu öffnen?

Unserer Meinung nach sind hierbei zwei Dialoge – innerwissenschaftlich sowie zwischen Wissenschaft und Gesellschaft – dringlich geboten, will Wissenschaft weiter ihren wertebasierten Orientierungsanspruch für die Gesellschaft behalten. Das ist einerseits der Diskurs über Leitlinien und Werte für den Einsatz KI-basierter Anwendungen. Während es bereits umfangreiche Auseinandersetzungen sowohl über Integrität in der wissenschaftlichen Praxis (Miller et al., in press) als auch in der Entwicklung künstlicher Intelligenzen (Europäische Kommission 2021; Université de Montréal 2018) gibt, bleibt die Frage nach dem angemessenen Einsatz künstlicher Intelligenzen in der wissenschaftlichen Praxis ein blinder Fleck, der aber gerade für die wissenschaftliche Praxis von nicht zu überschätzender Bedeutung ist. Da traditionelle Werte hierbei nicht zu greifen scheinen, steckt darin durchaus ein gewisses revolutionäres Potenzial für wissenschaftliche Praktiken wie beispielsweise die Kennzeichnungspflicht eigener, nicht fremder Gedanken (Wilder et al. 2021).

Zum anderen muss der Diskurs darüber geführt werden, wer in den komplexen Mensch-Maschine-Interaktionen wofür die Verantwortung übernimmt. In einem ersten Schritt haben wir dafür zwischen vier Personengruppen unterschieden:

  1. Die „Creators“ entwickeln Algorithmen für ein Programm, erstellen und verwalten den Referenzdatenkorpus, testen die Software, überwachen das System usw.

  2. Die „Tool-Experts“ wählen passende KI-Anwendungen aus und implementieren und konfigurieren diese für die eigene Organisation.

  3. Die klassischen „User“ können unterschieden werden zwischen

                      a. „Producers“, die die KIs gezielt einsetzen, um Ergebnisse herzustellen und

                      b. „Consumers“, die KI-generierte Ergebnisse konsumieren, verteilen und kommentieren.

     4. Die „Affected Persons“ sind im weitesten Sinne betroffen durch KI generierte Inhalte, ohne sich jedoch dessen bewusst zu sein.

Mit dieser ersten Unterscheidung wollen wir den Diskurs eröffnen. Die eigentliche Arbeit steht dabei noch aus, bei der einerseits die Personengruppen weiter ausdifferenziert werden müssen und andererseits ausgehandelt werden muss, wofür jede Gruppe am Ende die Verantwortung übernehmen soll und kann. So kann Transparenz und Klarheit geschaffen für jede:n Einzelne:n, die oder der KI-basierte Anwendungen für wissenschaftliche Praktiken einsetzt. Dadurch entsteht eine Orientierung, die das Potenzial einer hybriden Intelligenz in den Dienst der Gemeinschaft stellt, ohne dabei Gefahr zu laufen, dass die Menschen die Führung verlieren.

 

Der Beitrag basiert lose auf Wilder et al. 2021. Der erste Absatz wurde generiert durch die App PhilosopherAI und den Input „Who leads in the age of AI? The Human or the machine?“  sowie „Will there be a trial of strength and a mutual claim of leadership between humans and artificial intelligence in the future?“. Die Übersetzung erfolgte ausschließlich mit DeepL.

 

Quellen

ALLEA – All European Academies (Hrsg.). (2018). Europäischer Verhaltenskodex für Integrität in der Forschung. http://www.allea.org/wp-content/uploads/2018/06/AL-LEA-European-Code-of-Conduct-for-Research-Integrity-2017-Digital_DE_FINAL.pdf

Chen, X., Xie, H., & Hwang, G.-J. (2020). A multi-perspective study on Artificial Intelligence in Education: Grants, conferences, journals, software tools, institutions, and researchers. Computers and Education: Artificial Intelligence, 1, 100005. https://doi.org/10.1016/j.caeai.2020.100005

Dellermann, D., Ebel, P., Söllner, M., & Leimeister, J. M. (2019). Hybrid Intelligence. Business & Information Systems Engineering, 61(5), 637–643. https://doi.org/10.1007/s12599-019-00595-2

Else, H., & Van Noorden, R. (2021). The fight against fake-paper factories that churn out sham science. Nature, 591(7851), 516–519. https://doi.org/10.1038/d41586-021-00733-5

Europäische Kommission (Hrsg.). (2021). Vorschlag für eine Verordnung des europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union. https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0019.02/DOC_1&format=PDF

GWK – Gemeinsame Wissenschaftskonferenz (Hrsg.). (2020). Bund-Länder-Vereinbarung gemäß Artikel 91b Absatz 1 des Grundgesetzes über die Förderinitiative „Künstliche Intelligenz in der Hochschulbildung“ vom 10. Dezember 2020. https://www.gwk-bonn.de/fileadmin/Redaktion/Dokumente/Papers/BLV_KI_in_der_Hochschulbildung.pdf

Lahrtz, S. (2021). Forscher decken auf: Hunderte wissenschaftliche Veröffentlichungen wurden durch eine «dumme» künstliche Intelligenz geschrieben. https://www.nzz.ch/wissenschaft/neue-woerter-texte-vermischen-bilder-klauen-ld.1642192?utm_source=pocket-newtab-global-de-DE

Miller, K., Valeva, M., & Prieß-Buchheit, J. (Hrsg.). (in press). Verlässliche Wissenschaft. Bedingungen, Analysen, Reflexionen. wbg.
Université de Montréal (Hrsg.). (2018). Montréal Declaration for a Responsible Development of Artificial Intelligence. https://5dcfa4bd-f73a-4de5-94d8-c010ee777609.file-susr.com/ugd/ebc3a3_506ea08298cd4f8196635545a16b071d.pdf

Weßels, D. (2020). Zwischen Original und Plagiat. https://www.forschung-und-lehre.de/management/zwischen-original-und-plagiat-2754/

Wilder, N., Weßels, D., Gröpler, J., Klein, A., & Mundorf, M. (2021). Forschungsintegrität und Künstliche Intelligenz mit Fokus auf den wissenschaftlichen Schreibprozess. Traditionelle Werte auf dem Prüfstand für eine neue Ära. In K. Miller, M. Valeva & J. Prieß-Buchheit (Hrsg.), Verlässliche Wissenschaft. Bedingungen, Analysen, Reflexionen (S. 5­23). wbg. https://files.wbg-wissenverbindet.de/Files/Article/ARTK_ZOA_1025976_0001.pdf

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert