KI-Regulierung in Europa

Mit der Veröffentlichung von ChatGPT im November 2022 hat die KI-Branche ihren iPhone-Moment erlebt und die Aufmerksamkeit von Politik, Öffentlichkeit und Regulierungsbehörden auf sich gezogen. Während die Europäische Union bereits seit 2020 an einem Regulierungsrahmen für diese Zukunftstechnologie arbeitet, hat dieses Schlüsselereignis das Interesse an einer europäischen KI-Regulierung deutlich erhöht.
Während in der öffentlichen Debatte häufig apokalyptische Szenarien vorherrschen, wird das Potenzial von KI als Gamechanger-Technologie zur Lösung großer gesellschaftlicher Probleme oft übersehen. So können innovative KI-Technologien Ärzt:innen und Rechtsanwält:innen eine Vielzahl repetitiver und zeitraubender Tätigkeiten abnehmen und dadurch zur dringend benötigten Entlastung im Gesundheitssystem beitragen oder dem Fachkräftemangel entgegenwirken. Aber auch in den Klimawissenschaften und im Kampf gegen den Klimawandel ist der Einsatz von KI nicht mehr wegzudenken.
Angesichts dieses enormen Potenzials und des weitreichenden Anwendungsfeldes von KI müssen sich Regulierungsbehörden und Politik stets von der Frage leiten lassen, wie viel Regulierung tatsächlich erfolgen darf, um die europäische Innovationskraft in diesem Bereich nicht zu hemmen oder womöglich gar zu ersticken.
KI-Regulierung in Europa: Der AI Act
Der zunehmende Einsatz dieser Technologie erfordert zweifellos eine gemeinsame gesellschaftliche Debatte. Denn künftig müssen wir sicherstellen, dass der Einsatz von KI im Einklang mit unseren demokratischen und europäischen Werten steht. Dieser Diskurs ist entscheidend für ein innovationsfreundliches öffentliches Klima und eine gemeinwohlfördernde Nutzung und Entwicklung von KI. Die Regulierungsbehörden sind daher aufgefordert, die europäische KI-Industrie durch einen geeigneten Rechtsrahmen zu unterstützen. Dieser soll spezifisch genug sein, um allgemeine Fragen zu regeln, aber zugleich auch die notwendige Flexibilität für künftige Entwicklungen der KI garantieren.
Vor nun fast drei Jahren hat die Europäische Kommission ihren Gesetzesvorschlag für die Regulierung von KI, den Artificial Intelligence Act (kurz AI Act), präsentiert. Seither haben die EU-Mitgliedstaaten im Rat der Europäischen Union und das Europäische Parlament über ihre jeweiligen Versionen des AI Acts diskutiert. Ende des letzten Jahres konnten sich die drei Parteien dann auf einen gemeinsamen Gesetzestext einigen und damit wird klar, die weltweit erste große KI-Regulierung erfolgt aller Wahrscheinlichkeit noch in diesem Jahr.
Der AI Act: Innovationsmotor oder Innovationsbremse?
Nach fast drei Jahren Debatte, mehreren Verhandlungsrunden und zahlreichen Kompromisstexten liegt nun der endgültige Text vor. Demnach ist es an der Zeit, eine erste Bilanz zu ziehen.
Die Debatten seit der ersten Vorlage des AI Act durch die Europäische Kommission vor knapp drei Jahren zeigen jedoch deutlich die Komplexität der Regulierung von KI. Es überrascht daher nicht, dass sich die drei Ansätze der am Gesetzgebungsprozess beteiligten Institutionen, also jenem der Europäischen Kommission, des Rates und des Parlaments, in wesentlichen Grundzügen unterscheiden. Der AI Act in seiner finalen Form ist nun ein Kompromiss, welcher Elemente enthält, mit denen wir leben können. Allerdings gibt es auch Punkte, in denen er ein akzeptables Maß an Verhältnismäßigkeit nicht wahrt. Gerade die Verhältnismäßigkeit sollte aber immer ein zentrales Element jeder Regulierung sein. Insbesondere in den Abschnitten zu den Hochrisikoanwendungen und zur Regulierung der sogenannten General Purpose AI droht auch der AI Act dieses Ziel zu verfehlen. Stellenweise verkommt der AI Act zu einer pauschalen Technologieregulierung, anstatt eine anwendungs- und risikobasierte KI-Regulierung darzustellen.
Letztlich muss aber auch hinzugefügt werden, dass selbst der endgültige Text noch Fragezeichen aufwirft und nicht in allen wichtigen Punkten Klarheit schafft. Mit dem Abschluss des Gesetzgebungsverfahrens geht es nun in die Umsetzungsphase. Für den KI Bundesverband ist klar: Es müssen unbedingt europaweit gleiche Umsetzungsstandards geschaffen werden. Die kleinteilige und teilweise unterschiedliche Umsetzung der Datenschutz-Grundverordnung sollte allen Beteiligten eine Lehre und ein Ansporn sein, die Fehler beim AI Act nicht zu wiederholen. Seit geraumer Zeit appellieren wir daher an die Politik, sich für eine harmonisierte europäische Implementierung einzusetzen. Keinesfalls darf es zu einem deutschen Alleingang bei der Umsetzung kommen, während in anderen EU-Mitgliedstaaten laxere Maßstäbe gelten. Dies ist unbedingt zu vermeiden und würde den AI Act zweifellos zu einem wirtschaftlichen Hemmschuh für das deutsche KI-Ökosystem machen.
Wie weiter, Europa?
2021 ergab eine Studie, dass nur knapp 6 Prozent aller Unternehmen in Deutschland bereits KI einsetzen – ein erschreckend niedriger Wert. Als einer der Hauptgründe für diesen Wert wurden Datenschutzbedenken gegenüber außereuropäischen KI-Modellen identifiziert. So zeigt die 2023 veröffentlichte LEAM-Machbarkeitsstudie, dass derzeit rund 73 Prozent aller auf dem Markt befindlichen Foundation-Modelle aus den USA stammen, weitere 15 Prozent aus China. Für den KI Bundesverband ist damit klar: Europa ist auf dem Weg, sich bei dieser Schlüsseltechnologie in eine gefährliche und irreversible Abhängigkeit von ausländischen Anbietern zu begeben.
Mit dem nun aller Voraussicht nach baldigen Inkrafttreten des AI Act ist der Fall für uns eindeutig. Anstatt sich wie in den vergangenen drei Jahren ausschließlich auf die Regulierung von KI zu konzentrieren, sollte sich die Politik nun unisono darauf fokussieren, wie ebenso umfassend in die Förderung dieser innovativen Technologie und in „AI made in Europe“ investiert und Anreize für die Entwicklung und Verbreitung europäischer KI-Anwendungen geschaffen werden können. Ähnlich wie Anfang 2022 die Zeitenwende in der deutschen Sicherheits- und Verteidigungspolitik eingeläutet wurde, bedarf es nun einer gleichen gemeinsamen Kraftanstrengung von Politik, Wirtschaft und Forschung, um Europas digitale Souveränität und strategische Unabhängigkeit zu sichern.
Mit der drohenden Überregulierung durch den AI Act besteht jedoch die Gefahr, dass dieser sowohl die Entwicklung als auch den Einsatz dieser Gamechanger-Technologie in Deutschland massiv erschwert. Wenn nicht in gleichem Maße europäische KI-Innovationen gefördert werden, droht das von der EU proklamierte Ziel, mit dem AI Act europäische Innovationen zu fördern, zur Makulatur zu werden. Der AI Act muss dann als verpasste Chance für den Wirtschaftsstandort Deutschland und Europa verbucht werden.
Unsere zentrale Forderung bleibt daher: Die EU muss zukunftsorientiert denken und unrealistische Weltuntergangsszenarien in der politischen Debatte vermeiden. Europa braucht eine Regulierung von KI, aber eine vernünftige und praktikable Lösung, die reale Risiken und Bedrohungen minimiert. Gelingt uns das nicht, werden wir in der EU wieder nur in einem Bereich weltweit führend sein, nämlich bei der fatalen und verhängnisvollen Überregulierung einer zu großen Chance.
Über den KI Bundesverband
Der Bundesverband der Unternehmen der Künstlichen Intelligenz in Deutschland e.V. vernetzt die innovativsten KI und Deep Tech Unternehmen mit der etablierten Wirtschaft und Politik und ist mit rund 450 KI-Unternehmen das größte KI-Netzwerk Deutschlands. Die Mitglieder des KI Bundesverbands setzen sich dafür ein, dass diese Technologie im Sinne europäischer und demokratischer Werte Anwendung findet und Europa digitale Souveränität erreicht. Dafür muss die Bundesrepublik Deutschland und die EU ein attraktiver KI-Standort für Unternehmerinnen und Unternehmer werden, in dem Risikobereitschaft gewürdigt wird und Innovationsgeist auf die besten Voraussetzungen trifft.


