EU einigt sich auf umfangreiches Gesetz zur Regulierung von Künstlicher Intelligenz

EU einigt sich auf umfangreiches Gesetz zur Regulierung von Künstlicher Intelligenz

13.12.23

ChatGPT löste im vergangenen Winter eine hitzige Debatte darüber aus, was mithilfe von Künstlicher Intelligenz gemacht werden darf und was nicht. Aber schon lange vor der Veröffentlichung von ChatGPT im November 2022 arbeitete die Europäische Union an einem umfangreichen Gesetz zur Regulierung von Künstlicher Intelligenz. Jetzt wurde der AI Act nach zähen Trilogverhandlungen und insgesamt über 2,5 Jahren Verhandlungszeit beschlossen. Was steckt hinter dem Gesetz zur Regulierung von Künstlicher Intelligenz?

Der AI Act ist das weltweit bislang umfangreichste Gesetz zur Regulierung von Künstlicher Intelligenz. Es ist wichtiger Bestandteil der Digitalstrategie der Europäischen Kommission und sieht klare Regeln zur Nutzung von KI-Systemen vor. Ziel ist, mithilfe eines zukunftssicheren Regelwerks die Sicherheit und Grundrechte der Menschen zu schützen und gleichzeitig technologische Innovationen zu fördern. Wichtig ist dabei, dass der AI Act nicht die Technik, sondern die Anwendung von KI reguliert. Dabei sieht der AI Act eine pyramidenförmige Einteilung von KI-Systemen in bestimmte Risikogruppen vor. Anbieter von KI-Systemen, von denen ein hohes Risiko ausgeht (wie beispielsweise die umstrittene Sammlung und Auswertung biometrischer Daten), müssen demnach mit strengen Anforderungen rechnen bzw. werden – wie im Falle des Social Scorings – verboten. Wiederum stellen KI-Systeme mit minimalen oder gar keinem Risiko bislang die Mehrheit der in der EU eingesetzen KI-Systeme dar (zum Beispiel Spamfilter). Der AI Act sieht in diesem Bereich eine kostenlosen Nutzung vor.

Im Vergleich zu vielen anderen EU-Verordnungen zog der AI Act in den vergangenen Monaten in der Öffentlichkeit viel Aufmerksamkeit auf sich. Während auf der einen Seite Datenschutz- und Bürgerrechtler:innen kritisierten, dass der AI Act zu viele gefährliche „Schlupflöcher“ für Unternehmen biete, fürchteten Wirtschaftsverbände (zum Beispiel BITKOM) und die EU-Mitgliedstaaten Deutschland, Frankreich und Italien, dass strenge Regulierungen technologische Innovationen in Europa hindern würden. Bei der Frage nach der Regulierung von Basismodellen, die mit großen Datenmengen trainiert werden und zu denen beispielsweise auch das von OpenAI geführte ChatGPT gehört, sowie der biometrischen Überwachung kam es zuletzt bei den Verhandlungen zu großen Streitigkeiten. Kurzzeitig sah es sogar so aus, dass die Verhandlungen an diesen Fragen komplett scheitern könnten. Dass der AI Act am 8. Dezember 2023 kurz vor Jahresende in Brüssel beschlossen wurde, war somit nicht mehr selbstverständlich. Die EU setzt damit ein starkes Zeichen – auch mit der Hoffnung, dass über die EU hinaus Nachahmer gefunden werden.