Überregulierung der KI: Wie die EU‑Kommission die KI‑Entwicklung in Europa gefährdet

Die Europäische Kommission hat im April 2021 einen Vorschlag für eine Verordnung über Künstliche Intelligenz (AI Act) vorgelegt, die das Ziel hat, einen einheitlichen Rechtsrahmen für die Entwicklung, den Einsatz und die Überwachung von KI‑Systemen in der EU zu schaffen. Nach langen Verhandlungen erzielten die europäischen Gesetzgebungsorgane im Dezember 2023 eine Einigung über die wesentlichen Elemente des Gesetzesvorschlags. Der AI Act soll das Vertrauen in die Künstliche Intelligenz (KI) fördern, die Grundrechte schützen und die Sicherheit und Haftung gewährleisten. Doch wie realistisch und angemessen sind diese Ziele angesichts der rasanten und dynamischen Entwicklung der KI‑Technologie? Und welche Auswirkungen hat der AI Act auf die Wettbewerbsfähigkeit und Innovationskraft der europäischen KI‑Akteure?

Inhalt des AI Acts

Der AI Act sieht eine risikobasierte Regulierung vor, die je nach den potenziellen Auswirkungen eines KI‑Systems auf die Gesellschaft unterschiedliche Anforderungen und Pflichten vorsieht. Dabei werden vier Risikostufen unterschieden:

  1. Für KI‑Systeme mit inakzeptablem Risiko, wie z. B. solche, die das menschliche Verhalten manipulieren oder soziale Punktesysteme, sieht der AI Act ein generelles Verbot vor.
  2. Für KI‑Systeme mit hohem Risiko, wie z. B. solche, die in kritischen Bereichen wie Gesundheit, Verkehr oder Justiz eingesetzt werden, sieht der AI Act strenge Auflagen vor, wie eine Konformitätsbewertung vor der Markteinführung, eine hohe Transparenz und Nachvollziehbarkeit, eine menschliche Aufsicht und eine angemessene Haftung.
  3. Für KI‑Systeme mit Transparenzanforderungen, wie z. B. solche, die emotionale Erkennung oder biometrische Identifizierung ermöglichen, sieht der AI Act lediglich Transparenzpflichten vor.
  4. Für KI‑Systeme mit keinem/niedrigen Risiko, wie z. B. solche, die in Spielzeug oder Unterhaltung verwendet werden, sieht der AI Act keine spezifischen Regeln vor.

Das Gesetz sieht außerdem die Einführung eines europäischen Ausschusses für Künstliche Intelligenz vor, der die nationale Zusammenarbeit fördern und die Einhaltung der Verordnung sicherstellen soll. Wie die Datenschutz‑Grundverordnung der Europäischen Union könnte das KI‑Gesetz zu einem globalen Standard werden. Es hat bereits Auswirkungen über Europa hinaus; im September 2021 verabschiedete der brasilianische Kongress ein Gesetz, das einen rechtlichen Rahmen für Künstliche Intelligenz schafft. Der Europäische Rat hat am 6. Dezember 2022 seinen allgemeinen Standpunkt zum KI‑Gesetz angenommen. Deutschland unterstützt die Position des Rates, sieht aber noch einige Verbesserungsbedarfe, wie in einer begleitenden Erklärung des Mitgliedstaats formuliert. Zu den wahrscheinlich vorgeschlagenen Maßnahmen gehört, dass KI‑Entwickler für Produkte wie OpenAIs ChatGPT angeben müssen, ob urheberrechtlich geschütztes Material zum Trainieren ihrer Technologie verwendet wurde.

Bewertung

Der ursprüngliche Vorschlag für eine KI‑Verordnung enthielt weit gefasste Definitionen, Verbote und komplexe Compliance‑Anforderungen, die von Industrieverbänden wie Bitkom und KI‑Verband kritisiert wurden. Der Rat hat einige Punkte in seinem Kompromissentwurf entschärft. Dennoch gibt es Bedenken hinsichtlich der großen Rechtsunsicherheit, des hohen bürokratischen Aufwands und der Doppelregulierung, z. B. im Bereich der Medizin. Zudem sei es kaum möglich, die geforderte fehlerfreie Auswahl von Trainingsdaten zu gewährleisten. Die Bundesregierung spricht sich ebenfalls gegen eine Überregulierung aus. Eine Studie zeigt, dass die Verordnung einen hohen Aufwand für einen großen Teil der KI‑Anwendungen verursachen würde.

Auf der anderen Seite halten Bürgerrechtsorganisationen wie z. B. AlgorithmWatch den Entwurf für unzureichend, da die Definitionen zu eng seien und die Regelungen Schlupflöcher enthielten, z. B. für militärische Zwecke oder für die Strafverfolgung. Außerdem fehlten einige erhoffte Regulierungen wie das Verbot von vorhersagender Polizeiarbeit (Predictive Policing) und biometrischer Überwachung. Die Entwürfe des EU‑Parlaments berücksichtigen stärker diese Positionen. Nach der Version vom 11. Mai 2023 sollen die Staaten die Möglichkeit erhalten, eine rückwirkende Videoüberwachung und damit eine biometrische Massenüberwachung durchzuführen. Dass die Bundesregierung sich in den Verhandlungen explizit für die rückwirkende Videoüberwachung einsetzte, obwohl sie im Koalitionsvertrag noch dagegen war, stieß auf Kritik u. a. von netzpolitik.org. Ein weiteres Problem ist, dass die Verordnung keine individuellen Rechtsschutzmöglichkeiten wie Schadensersatzansprüche vorsieht.

Der AI Act ist zweifellos ein ambitionierter und umfassender Versuch, die ethischen und rechtlichen Herausforderungen von KI zu adressieren. Allerdings birgt er auch erhebliche Risiken für die KI‑Entwicklung in Europa. Zum einen ist der AI Act sehr komplex und unbestimmt, was zu Rechtsunsicherheit und hohen Kosten für die KI‑Anbieter führen kann. Zum anderen ist er sehr restriktiv und bürokratisch, was zu einer Überregulierung der KI führen kann, die Innovation im Keim erstickt und Europa im globalen Wettbewerb um die KI‑Führerschaft benachteiligt. Der AI Act könnte somit das Gegenteil von dem bewirken, was er beabsichtigt: statt das Vertrauen in die KI zu stärken, könnte er das Misstrauen in die KI verstärken; statt die Grundrechte zu schützen, könnte er die Freiheiten einschränken.

Überarbeitungsbedarf

Um diese negativen Folgen zu vermeiden, sollte der AI Act dringend überarbeitet werden. Dabei sollten folgende Punkte beachtet werden:

  • klarere und präzisere Definition, was unter KI verstanden wird und welche Kriterien für die Einstufung des Risikos gelten
  • Regulierung militärischer Zwecke
  • Verbot von Predictive Policing und biometrischer Massenüberwachung
  • flexiblere und anpassungsfähigere Gestaltung, um den technologischen Fortschritt und den gesellschaftlichen Wandel zu berücksichtigen
  • bessere Abwägung der Vor‑ und Nachteile, die die Regulierung von KI mit sich bringt
  • Erweiterung um verschiedene Rechtsschutzmöglichkeiten wie Schadensersatzansprüche
  • Vermeidung von zu viel Bürokratie bei der tatsächlichen Umsetzung des AI Acts
  • Streichung von nicht umsetzbaren Forderungen wie z. B. der fehlerfreien Auswahl von Trainingsdaten

Nur so kann der AI Act zu einem wirklichen Erfolg für Europa werden.

Fazit

Zusammenfassend lässt sich sagen, dass der AI Act ein wichtiger Schritt zur Regulierung der KI in Europa ist. Er soll sowohl die Sicherheit und die Grundrechte der Nutzerinnen und Nutzer schützen, als auch die Innovation und den Wettbewerb fördern. Der AI Act ist jedoch noch nicht perfekt und muss dringend überarbeitet werden, um den Herausforderungen und Chancen der KI gerecht zu werden. Dazu braucht es einen kontinuierlichen Dialog zwischen allen relevanten Akteuren, wie Politik, Wirtschaft, Wissenschaft und Zivilgesellschaft. Nur so kann Europa zukünftig eine führende Rolle in der Entwicklung und Anwendung von Künstlicher Intelligenz übernehmen.

Laura Berghoff

2. April 2024