Der EU AI Act – zu Deutsch «Verordnung über künstliche Intelligenz» oder vereinfacht «KI-Verordnung» (KI-VO) – ist seit Kurzem in Kraft. Währenddessen nimmt es der Schweizerische Bundesrat etwas gemütlicher und prüft seine Optionen zur Regulierung künstlicher Intelligenz in der Schweiz; bis Ende 2024 soll ihm das UVEK eine Übersicht möglicher Regulierungsansätze abliefern.
In der Zwischenzeit fragen sich KI-interessierte Mitarbeitende in der öffentlichen Verwaltung vielleicht: Betrifft uns diese vielbesagte KI-Verordnung im helvetischen öffentlichen Sektor? Darauf wollen wir an dieser Stelle eine Antwort geben.
Die kurze Antwort lautet: Nein, nicht direkt. Gemeint ist damit: nicht in rechtsverbindlicher Weise. Bei genauerem Hinsehen gibt es aber durchaus ein paar beachtenswerte Punkte.
I – Zum EU-Ansatz
Die KI-Verordnung gilt mit wenigen Ausnahmen (z.B. Zwecke der nationalen Sicherheit oder der Forschung und Entwicklung) für den Einsatz von KI-Systemen in der ganzen Gesellschaft. Sie fokussiert auf die Produktesicherheit und macht nicht prinzipiell Halt vor staatlichem Einsatz – im Gegenteil: Betrachtet man die Auflistung von Hochrisiko-KI-Systemen, sind die dort beschriebenen Szenarien überwiegend solche staatlicher Nutzung (siehe dazu sogleich unten).
Bei den Pflichten wird dabei auf zwei Ebenen angesetzt: bei der Einstufung eines KI-Systems nach Risiko in eine von vier Kategorien sowie bei der Eigenschaft als «Anbieter» (provider) oder «Betreiber» (deployer) eines KI-Systems (dazu ebenfalls sogleich).
II – Der Anwendungsbereich
a) Behörden in der EU als «Betreiberinnen» von KI-Systemen
Der Anwendungsbereich der KI-Verordnung umfasst zwar auch Behörden, jedoch nur solche in der EU (Art. 2 Abs. 1 lit. a-c KI-VO). Tatsächlich ist davon auszugehen, dass die KI-Verordnung als transversale Regulierung gerade auch auf den öffentlichen Sektor eine Auswirkung haben wird.
Die KI-Verordnung unterteilt KI-Systeme bekanntermassen in mehrere Risikokategorien:
- KI-Systeme mit inakzeptablem Risiko, die komplett verboten sind (Art. 5 KI-Verordnung);
- Hochrisiko-Systeme, die umfangreichen Pflichten unterliegen;
- KI-Systeme, die – als Ausnahme von den Hochrisiko-Systemen – nicht als besonders risikobehaftet gelten; und
- KI-Systeme, die lediglich Transparenzvorgaben umsetzen müssen.
Daneben sind auch Regeln für sogenannte «KI-Modelle mit allgemeinem Verwendungszweck» – ChatGPT und Co. – vorgesehen.
Die Risikobewertung der KI-Verordnung hängt dabei meist mit dem Einsatzkontext zusammen (was sich aus der Formel ergibt, mit der ein Risiko berechnet wird: Risiko = Schaden x Wahrscheinlichkeit des Eintretens). Und diesbezüglich sind viele Szenarien, die hohe Risiken mit sich bringen, öffentliche Einsatzszenarien. Dies lässt sich durch die Rolle des Staats erklären, namentlich die Tatsache, dass der Staat in vielfältiger Weise hoheitlich tätig wird und in unsere Leben als Bürgerinnen und Bürger eingreift. So finden sich im Anhang III der KI-Verordnung, die die Kategorien von Hochrisiko-KI-Systemen auflistet, viele staatliche Einsatzszenarien, u.a.:
- Kritische Infrastruktur;
- Allgemeine und berufliche Bildung;
- Zugänglichkeit und Inanspruchnahme grundlegender öffentlicher Dienste;
- Strafverfolgung;
- Migration, Asyl und Grenzkontrolle;
- Rechtspflege und demokratische Prozesse.
Konkret bedeutet dies, dass von den erfassten Akteuren nicht nur die (meist privatwirtschaftlichen) Produkteherstellerinnen oder Händlerinnen erfasst werden, sondern auch die Behörden, die KI-Systeme einsetzen. Diese können u.U. zu «Anbieterinnen» (providers) oder, wahrscheinlicher, «Betreiberinnen» (deployers) von KI-Systemen werden, wenn sie KI-Systeme unter eigenem Namen in Betrieb nehmen oder in eigener Verantwortung verwenden (vgl. Art. 3 Abs. 2 Ziff. 3 und 4 KI-VO). Damit unterstehen sie den für diese Personenkategorien geltenden Pflichten der KI-Verordnung. (Nota bene: Die Hauptanteile der Pflichten sind jedoch bei den Anbieterinnen von KI-Systemen angesiedelt; nicht also bei den Betreiberinnen, zu denen Behörden meist zählen werden.)
b) Aber die DSGVO gilt manchmal auch für die Schweiz? Ist das für den EU AI Act nicht dasselbe?
Kennt man die Datenschutz-Grundverordnung der EU (DSGVO), mag man einwenden, dass diese auch extraterritorial zur Anwendung kommen kann; nämlich dann, wenn für Personen in der EU Angebote oder Dienstleistungen erbracht werden oder wenn das Verhalten von Personen in der EU beobachtet wird (Art. 3 Abs. 2 DSGVO). Ist ein ähnlicher Mechanismus nicht auch allenfalls in der KI-Verordnung zu finden?
Ja, der EU AI Act wurde auch einen extraterritorialen Anwendungsbereich versehen. Er gilt etwa für Anbieter von KI-Systemen, die in der EU KI-Systeme einsetzen oder KI-Modelle mit allgemeinem Verwendungszweck in Verkehr bringen, auch wenn sie selbst ausserhalb der EU niedergelassen sind (Art. 2 Abs. 1 lit. a KI-VO). Aus der Sicht öffentlicher Behörden in der Schweiz dürfte dieser Anwendungsfall kaum je zum Tragen kommen.
Interessanter ist diesbezüglich die Anknüpfung des Anwendungsbereichs an «betroffene Personen, die sich in der Union befinden» (Art. 2 Abs. 1 lit. g KI-VO). Gemeint ist damit, dass von KI-Systemen generiertes Material in der EU verwendet wird, was mit Absicht zu geschehen hat, nicht nur zufälligerweise. Typischerweise sind solche Anwendungsfälle im öffentlichen Sektor rar, weil sich die Ausübung staatlicher Hoheitsmacht auf das eigene Territorium zu konzentrieren hat. Jedoch sind durchaus Situationen denkbar, in denen KI-generierter Output auch mit Absicht an Personen in der EU gerichtet wird. Etwa dann, wenn eine öffentliche Hochschule Studieninteressierte aus der EU anzieht und diesen im Zulassungsverfahren eine KI-gestützte Absage zu einem Studiengang erteilt. Allerdings dürfte auch hier das Sanktionsrisiko gering sein, weil sich die Aufsicht der zuständigen EU-Behörden nicht auf die Schweiz erstrecken wird. Es ist daher nicht davon auszugehen, dass eine Hochschule für die Nichteinhaltung der KI-Verordnung sanktioniert wird.
Es wird aufmerksam zu verfolgen sein, was die neuen Behörden, die von der KI-Verordnung geschaffen werden (nationale Behörden, KI-Gremium, Büro für Künstliche Intelligenz), zu diesem Punkt veröffentlichen werden und inwiefern diese Hilfestellungen auch für den Umgang mit KI in der Schweiz nutzbar gemacht werden können.
III – Wie kann ich mir den EU AI Act in der öffentlichen Verwaltung der Schweiz zunutze machen?
a) Als Inspiration im Gesetzgebungsprozess
Ein Kanton, der sein Personalrecht neu regelt und den Einsatz von KI-Systemen in der Rekrutierung aufnehmen will, oder ein Spezialgesetz verfasst, in dem es auch um den Einsatz algorithmischer Systeme geht (looking at you, Police forces!), kann sich durchaus von gewissen Bestimmungen des EU AI Acts für die eigene Arbeit inspirieren lassen. Auch wenn der Regulierungskontext nicht derselbe ist, kann der EU AI Act Ideen bieten dafür, wie etwa die Anforderungen an Datenqualität, Dokumentation, menschliche Überwachung oder Risikobewertungen beim Einsatz von KI-Systemen gesetzlich verankert werden könnten.
Diese Policy-Entscheidungen der KI-Verordnung wird auch der Schweizerische Bundesrat beachten, wenn er sich Ende Jahr äussert. Es ist jedoch davon auszugehen, dass eine transversale Regulierung in der Schweiz weniger wahrscheinlich sein dürfte (nicht zuletzt, weil der föderalistische Flickenteppich ein solches Vorgehen erschweren wird).
b) Im Beschaffungsverfahren
Will eine öffentliche Behörde in der Schweiz ein KI-System beschaffen, das im Rahmen des Betriebs kritischer Infrastruktur genutzt werden soll, ist auch hier denkbar, dass sie sich in der Umschreibung der Zuschlagskriterien von den Vorgaben des EU AI Act leiten lassen kann, sofern diese sachlich passen. Dort findet sie vielleicht eine passende Formulierung für das Risikomanagement-System oder die Transparenzerfordernisse, die die neu zu beschaffende Lösung vorweisen können muss.