Sie haben es doch noch geschafft: Die Trilog-Partner EU-Kommission, EU-Parlament und Rat der Europäischen Gemeinschaften haben sich am 8. Dezember 2023 auf die Regulierung der Künstlichen Intelligenz verständigt.
Erfolg der Trilog-Verhandler
Eines lässt sich nicht bestreiten: Die Trilog-Verhandlungspartner sind fleißig gewesen. Die Pressekonferenz über die Einigung wurde nach einem dreitägigen Verhandlungsmarathon um 23h anberaumt, beendet war sie erst weit nach Mitternacht. Und doch gilt: Fleiß allein garantiert kein gutes Ergebnis.
Dabei würde man nur allzu gerne gratulieren: Der spanischen Ratspräsidentschaft für den Erfolg am Ende ihres Turnus, den Berichterstattern des EU-Parlaments für ihre Beharrlichkeit. Der italienische Abgeordnete Brando Brunifei und der rumänische Ex-Digitalminister und MdEP-Abgeordnete Dragoş Tudorache schilderten auf der Pressekonferenz lebhaft, wie schwer sie sich ins Zeug legen mussten, um einen ausreichenden Schutz von Grundrechten durchzusetzen. Ähnlich euphorisch las sich die Schilderung auf der Webseite des EU-Parlements.
Einwände der Kritiker
Gleichwohl ließ die Kritik nicht lange auf sich warten, so etwa vom Branchenverband Bitcom, dessen Geschäftsführer Bernhard Rohleder auf der Plattform WuV ausführte, die KI-affinen Unternehmen in Europa bekämen ein zu enges Korsett, vieles an dem nun erreichten Kompromiss sei Schaumschlägerei.
Ähnlich deutlich äußerte sich der FAZ-Newsletter-Autor Holger Schmidt, der in ‚FAZ D:Economy‘ meinte, die EU habe es mit dem AI Act zwar im Bereich der Regulierung an die erste Stelle geschafft, nicht aber bei der Innovation. Außer Thierry Breton könne sich nur der TÜV freuen.
Worauf es aus rechtspragmatischer Sicht ankommt
Inwiefern die Kritik berechtigt ist, lässt sich im Detail erst beurteilen, wenn der AI Act in ratifizierter Form vorliegt. Eines ist aber schon absehbar: Ob die Regulierung etwas taugt, wird sich schneller als bei der DSGVO herausstellen. Falls nicht, dürfen wir gespannt sein, ob die KI nicht nur den TÜV, sondern womöglich auch den Trilog überflüssig – oder sagen wir besser: effektiver – macht.
Aus rechtspragmatischer Sicht ist die Lage indes nicht ganz hoffnungslos. Die von Carme Artigas, Staatssekretärin für Digitalisierung und KI in der spanischen Regierung, vorgestellte Regelungsarchitektur ist ehrgeizig: Innerhalb der EU-Kommission soll ein KI-Büro (AI Office) eingerichtet werden, das sich mit Fragen der Standardisierung und dem Testen von Anwendungspraktiken befasst. Das KI-Büro lässt sich wiederum von einem unabhängigen Expertengremium (scientific panel) hinsichtlich von GPAI- und Foundation-Modellen beraten, also breit gefassten und grundlegenden KI-Anwendungen. Hinzu sollen ein Aufsichtsgremium für EU-Mitgliedstaaten (AI Board) und ein Beratungsgremium kommen, in dem Mitglieder der interessierten Öffentlichkeit vertreten sind (advisory forum). Hybrider geht es kaum.
Theoretisch könnte ein solcher Ansatz zu einem Vorzeige-Beispiel für moderne Regelungstechnik werden. Allerdings müssten dafür sämtliche Rädchen gut geölt ineinandergreifen, die Verwaltungseinheiten reibungslos mit kompetenten, unabhängigen Dritten zusammenarbeiten, und das unabhängig davon, ob es um Aleph Alpha, Mistral, Gemini, OpenAI oder neue KI-start-ups geht. Wer die Brüsseler Kombination aus Regelungswut und Praxisferne kennt, wird daran zweifeln, dass eine solch komplexe, hybride Regelungsarchitektur sich ohne weiteres einstellt.
Immerhin gibt es Unterstützung von der anderen Seite des Ärmelkanals. Im Zusammenhang mit der proprietären Weitereintwicklung von ChatGPT ließ James Vincent bereits im März 2023 in einem Beitrag in ‚The Verge‘ die Leiterin der KI-Abteilung des britischen Think Tank ‚Centre for Long-Term Resilience‘, Jess Whittlestone, zu Wort kommen. Ihre Aussage hätte auch von Carme Artigas stammen können: „We’re seeing these AI capabilities move very fast and I am in general worried about these capabilities advancing faster than we can adapt to them as a society”. Und weiter: “It shouldn’t be up to individual companies to make these decisions… Ideally we need to codify what are practices here and then have independent third-parties playing a greater role in scrutinizing the risks associated with certain models and whether it makes sense to release them to the world.”
Es hat den Anschein, dass die KI-Regulierer der EU das Bedürfnis nach Austausch mit außenstehenden Experten bis hin zur Zivilgesellschaft keineswegs vernachlässigen wollen. Jedoch bleibt die Art und Weise des Austauschs ein Wagnis.
Eines ist dabei klar: Mag die KI-Regulierung die Grundrechte – dank EU-Parlament – auch noch so sehr wahren, so kann sie doch nicht die Frage beantworten, was die KI mit den Menschen macht. Gerade diese Perspektive muss aus einer rechtspragmatischen Sicht im Auge behalten werden. Denn der Anspruch jeder Regulierung muss reaktiv sein, nicht proaktiv. Regeln sind nicht dazu da, um Menschen zu formen, sondern um die Formen zu schützen, die sie sich in freier Selbstbestimmung geben.