Ausnahmsweise scheinen sich alle einig zu sein: Künstliche Intelligenz muss reguliert werden. Einen ersten Vorschlag legte die EU-Kommission im April 2021 vor. Das Europäische Parlament formulierte im Juni 2023 seine Position – und lobte sich selbst, das „weltweit erste umfassende KI-Gesetz“ auf den Weg gebracht zu haben.
Seitdem verhandeln die EU-Institutionen im Trilog-Verfahren. Wenn sie das Tempo beibehalten, könnte der AI Act in ein paar Jahren verabschiedet sein. Aber man täusche sich nicht: Die Einigung kann auch schneller kommen, im Extremfall schon im Dezember 2023, wie Michael Schäfer in der Netzpublikation ComputerBase schreibt.
Das heißt: Eine KI-Regulierung kann auf europäischer Ebene sehr schnell eingreifen, weniger schnell oder gar nicht. Willkommen in der Gesetzgebungs-Lotterie. Die wichtigere Frage ist allerdings eine andere: Für welche der Varianten sollten wir uns einsetzen?
Risikominimierung aus rechtspragmatischer Sicht
Aus rechtspragmatischer Sicht lässt sich diese Frage eindeutig beantworten: Es sollte diejenige Regulierungsvariante zum Zuge kommen, die mit der KI einhergehende Risiken am effektivsten einhegt. Aber welche ist das? Auf den ersten Blick scheint der hinter dem AI Act stehende risikobasierte Ansatz dem Effektivitätsgebot Rechnung zu tragen: KI-Anwendungen, mit denen unannehmbare Risiken verbunden sind, sollen verboten, Hochrisiko-Anwendungen überwacht werden. Für potenziell hochriskante KI-Anwendungen soll es ein Sandkasten-Verfahren (regulatory sandboxes) geben, also Testphasen unter Aufsicht staatlicher Behörden. Letztere sollen neu geschaffen werden. Das genügt uns für eine erste Einordnung. Wer es genauer wissen will, kann Details zur regulatorischen Technik des AI Act bei Hannah Ruschemeier in ihrem Aufsatz „Regulierung von KI – Ansätze, Ideen, Pläne“ vom 13.10.2023 nachlesen. Hier geht es um etwas anderes. Nämlich darum, wie man Sachverhalte regulieren sollte, für die es noch kein eingespieltes Erfahrungswissen gibt. Vielleicht ist es nicht ganz vermessen, in einem solchen Fall historische Vergleiche anzustellen. Besonders wenn es, wie hier, einen Präzedenzfall gibt, auf den wir zurückblicken können: Die Dampfmaschine.
Auch die Dampfmaschinen veränderten einmal die Welt. Ihr Einsatz führte im 19. Jahrhundert, wie wir wissen, immer wieder zu tödlichen Unfällen. Nach staatlicher Intervention kam es zur Gründung von Dampfkesselüberwachungsvereinen. Aus den DÜV wurde der TÜV – weil die Kombination aus einem Staat, der hinsah, und einer privaten Kontrollinstanz sich bewährte. Auf die Rolle der Statistik in diesem Zusammenhang macht Reinhard Güll in seinem Aufsatz „Segen und Fluch der Dampfmaschinen“ aufmerksam. Lesenswert!
KI-Audits durch unabhängige Experten
Übertragen auf die heutige KI-Regulierung liegt die Frage auf der Hand: Weshalb denken wir nicht über KI-Audits durch unabhängige Experten nach, bevor starre staatliche Strukturen neu geschaffen werden? Kein Unternehmen, das im großen Stil KI einsetzt oder entwickelt, kommt ohne Verhaltenskodex aus. Warum nehmen wir die Selbstverpflichtungen nicht ernst? Sind die Kodizes relevant und überprüfbar, sollte die Sachkunde der internet community genügen, um ihre Einhaltung sicherzustellen – Wikipedia macht es vor. Sind sie es nicht, müssen die Kodizes, da irreführend, aus dem Spiel genommen werden.
Natürlich sind KI-Audits keine Selbstläufer. Auch sie verursachen Kosten, und auch unter KI-Experten kann es schwarze Schafe geben. Aber ist es wirklich eine gute Idee, staatliche Aufsichtsbehörden neu zu erschaffen, ohne dass es einen Beweis für ihre Notwendigkeit gibt? Woher soll die Kompetenz des Personals kommen? Lässt sie sich bezahlen? Zu befürchten ist, dass die eigentlichen Probleme erst beginnen, wenn KI-Aufsichtsbehörden gesetzlich vorgeschrieben sind. Zumal es bislang noch keine taugliche Definition für den Gegenstand ihrer Tätigkeit gibt. Damit droht eine symbolische Gesetzgebung. Die wäre das Gegenteil einer alltagstauglichen Regulierung. Besser wäre es, zunächst Befunde zu sichern. Wieviele KI-Unfälle kommen vor? Welche Intensität haben sie? Gibt es einen Bedarf für ein Sonderregime? Zugegeben, das sind unpopuläre Vorfragen. Aber sie entscheiden möglicherweise darüber, ob eine Regulierung ernst genommen werden kann oder nicht. Auch das hat mit Demokratie zu tun.
Keine unausgegorene KI-Regulierung
Gerade wegen der umstürzenden Bedeutung von KI ist die Regulierungstechnik wichtig. Zu wichtig, um sie einem naiven Vertrauen in einen vermeintlich starken Staat unterzuordnen. Allzu schnell kann das Vertrauen in ein generalisiertes Misstrauen umschlagen, falls die staatlichen Aufsichtsbehörden, wie zu befürchten ist, sich als überfordert und ineffizient herausstellen.
Der spanischen EU-Ratspräsidentschaft wünschen wir alles Gute. Und deshalb ein Scheitern der aktuell unausgegorenen KI-Gesetzgebung auf europäischer Ebene. Ein neuer Angang sollte sich auf die pragmatischen Bezüge des Rechts besinnen.