KI-Verordnung der Europäischen Union
Im Interview: Lukas Feiler und Nikolaus Forgó
Oktober 2024
Unbestimmtheit prägt Europas Regelwerk zur künstlichen Intelligenz: Nach zähem Ringen ist die KI-Verordnung am 1. August 2024 in Kraft getreten, wesentliche Teile erlangen stufenweise bis 2027 Geltung. Die Verordnung der Europäischen Union zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz versucht den Balanceakt zwischen Innovationserleichterung und Schutz vor unerwünschten Auswirkungen, was nicht nur bei den Grundrechten Konfliktpotenzial birgt. Was kommt auf Unternehmen und Behörden zu? Und fügt sich die Verordnung in das europäische System harmonisierter Rechtsvorschriften für Produkte ein? Spannende Antworten darauf haben die Experten und Autoren des neuen Kommentars zur KI-Verordnung, Lukas Feiler und Nikolaus Forgó.
Interview: Roman Tronner
Foto: vlnr Lukas Feiler und Nikolaus Forgó
Ihr Kommentar erscheint nur drei Monate nach Inkrafttreten der KI-Verordnung. Vor welchen Herausforderungen stand der Redaktionsprozess?
Nikolaus Forgó: Wie gewöhnlich bei so einem Projekt vor allem vor einer zeitlichen Herausforderung. Es war sehr lange bis ins Frühjahr hinein unklar, ob überhaupt noch in dieser Periode des EU-Parlaments diese Verordnung wirklich kommen würde. Der finale Text ist ja recht spät in einem mehrtägigen Verhandlungsmarathon erst akkordiert worden. Wir mussten also viele Zeitfenster für den Kommentar schaffen, vor allem Lukas Feiler, der den Hauptteil der Arbeit getragen hat.
Lukas Feiler: Es war in der Tat herausfordernd, vor allem, wenn Artikel, zu denen man sich schon sehr viele Gedanken gemacht hatte, im legislativen Prozess plötzlich zur Gänze gestrichen wurden. Aber Vorleistung war erforderlich, um rasch nach Verabschiedung des finalen Verordnungstexts ein Manuskript fertigstellen zu können.
Für wen ist der Kommentar geschrieben?
Feiler: Der Kommentar richtet sich an Juristinnen und Juristen ohne Vorkenntnisse der Materie. Dafür gibt es die umfangreiche Einleitung. Sie strukturiert den enorm komplexen, sperrigen Normtext, schafft Übersicht und enthält Listen der Pflichten, so dass man ohne Vorkenntnisse sich dieser Materie nähern kann und dann anhand der Kommentierung konkrete, in der Praxis gefragte Lösungen finden kann.
Forgó: Vermutlich werden auch andere umfangreiche Kommentare erscheinen mit interessanten wissenschaftlichen Diskussionen über Detailprobleme. Unser Anspruch an den Kommentar ist, eine zuverlässige Erstinformation für Menschen zu sein, die nicht jeden Tag spezialisiert in dem Bereich arbeiten.
Die KI-Verordnung tritt gestaffelt in Kraft. Warum ist das so? Können Sie sagen, wann in Österreich welche Teile für wen in Kraft treten?
Forgó: Es gibt eine sehr gute Übersicht auf der Webseite der RTR. Grob gesprochen tritt alle sechs Monate ein neuer Block in Kraft. Der erste Block sechs Monate nach dem 1. August, also am 2. Februar 2025. Der Grund dafür ist, den Marktteilnehmern die Gelegenheit zu geben, sich auf das sehr komplexe und regulativ anspruchsvolle Vorhaben einzustellen.
Wann wird es für Unternehmen in Österreich spannend?
Feiler: Das erste Spannungsmoment ist der 2. Februar 2025, wo die sogenannten per-se-Verbote in Geltung treten. Am 2. August 2025 treten die Regelungen zu KI-Modellen mit allgemeinem Verwendungszweck in Geltung. Am 2. August 2026 wird der erste Teil der Hochrisiko-KI-Systeme der Regulierung unterworfen und am 2. August 2027 der zweite Teil.
Was empfehlen Sie Unternehmen zu tun, um möglichst schnell KI-verordnungskonform handeln zu können, um hohe Strafen zu vermeiden?
Feiler: Die erste Herausforderung für Unternehmen ist, einen vollständigen Überblick zu bekommen, welche KI-Systeme im Einsatz sind, da oft Beschaffungen ohne Einbindung der Rechtsabteilung erfolgen und ohne deren Kenntnis eingesetzt sind. Vor allem in größeren organisatorischen Strukturen sollten Prozesse und Richtlinien geschaffen werden, um unternehmensintern einen Rahmen zu geben. Viele Unternehmen setzen beispielsweise Microsoft CoPilot als erstes KI-Tool flächendeckend ein. Man muss daher unternehmensintern genau regeln, wozu CoPilot wirklich eingesetzt werden soll. Das bedeutet, sich mit der eigenen Organisation auseinanderzusetzen, mit ihren Herausforderungen und dem dann Regeln zu geben, die die Anforderungen der KI-Verordnung widerspiegeln. Im Idealfall wird damit sichergestellt, dass dieses KI-System mit allgemeinem Verwendungszweck nicht auf eine Art und Weise verwendet wird, die in einen Hochrisikobereich hineinwandert und rechtliche Pflichten auslöst, die die allermeisten Unternehmen so nicht in der Lage wären zu erfüllen. Sprich: Oft ist es gar nicht so sehr die Frage "Darf ich etwas einsetzen?", sondern "mit welchen Rahmenbedingungen?". Und diese Rahmenbedingungen müssen so konstruiert sein, dass ich den regulatorischen Anforderungen der Verordnung so weit wie möglich entgehe. Bei gewissen KI-Tools wie Gen-AI gibt es Transparenzanforderungen, die erfüllt werden müssen, was jedoch vergleichsweise einfach ist, sofern das Tool bekannt ist.
Betrifft die KI-Verordnung alle Arten von Unternehmen, also das Einpersonenunternehmen oder das KMU, genauso wie den Großkonzern, oder gibt es Abstufungen?
Feiler: Grundsätzlich gilt die Verordnung für alle Unternehmen. Es wurde jedoch erkannt, dass die Innovation vor allem in den USA stattfindet und strenge Regulierung kleine Unternehmen in Europa abschrecken könnte und damit auch Kapitalinvestitionen. Daher gibt es einige wenige Erleichterungen für KMU und Start-ups, wie z.B. geringere Dokumentationspflichten.
Das größte Potenzial für KMU und Start-ups bergen sogenannte KI-Reallabore, die in jedem Mitgliedstaat eingerichtet werden sollen. KMU und Start-ups sollen bevorzugt Zugang erhalten, was ihnen einen Wettbewerbsvorteil verschaffen kann. KI-Reallabore bieten während der Entwicklung von KI-Systemen rechtliche Sicherheit durch enge Abstimmung mit den Behörden. Diese geben dann eine Stellungnahme dazu ab, ob das KI-System rechtskonform ist und gegebenenfalls mit welchen Änderungen. Und wenn man sich an diese Auflagen hält, ist die Behörde daran gebunden. Das ist ein enormer Wettbewerbsvorteil in einem Feld, das so sehr von Komplexität und auch Rechtsunsicherheit gekennzeichnet ist.
KI-VO
- Praktische Einführung und Übersicht der geltenden Pflichten für Anbieter*innen, Importeur*innen, Händler*innen und Betreiber*innen bzw Nutzer*innen
- Hinweise zum Umgang mit der KI-VO als Instrument der Produktregulierung
- Klare Aussagen zu offenen Fragen, rasche Navigation anhand von Stichwortverzeichnis und Hervorhebungen
Inwiefern gilt die Verordnung auch für Unternehmen mit Sitz außerhalb der EU?
Forgó: Sie gilt in dem Moment, in dem etwas auf dem Markt in Europa relevant wird. Das ist ein klares Marktortprinzip.
Wie sind öffentlich-rechtliche Einrichtungen wie Universitäten oder Behörden betroffen?
Forgó: Universitäten sind stark vom Einsatz der KI wie ChatGPT betroffen. Viele haben bereits Richtlinien erarbeitet, um Missbrauch, z. B. durch das Einreichen von KI-geschriebenen Arbeiten, zu verhindern. Es gibt auch Bedenken, dass laufende Forschung oder Forschungsergebnisse, die noch patentiert werden sollen, nicht in KI-Systeme eingespeist werden sollten. Weiters gibt es eine Vielzahl an urheberrechtlichen Fragen zum Input in das KI-System und zu seinem Output. Verlage versuchen zunehmend, die Nutzung ihrer Inhalte durch Universitäten zu reglementieren. Universitäten sind also außerordentlich intensiv betroffen in allen Bereichen, vom Betriebsrat bis zur Bibliothek und von der IT Abteilung bis zum einzelnen Forschenden und Studierenden. Der Trend an Universitäten ist dabei, den Einsatz von KI nicht zu verbieten, sondern Rahmenbedingungen zu schaffen, die rechtlich vertretbar sind. Dabei werden rechtlich meist weiche Guidelines verwendet, keine strengen Vorschriften.
Für Behörden, wenn sie autoritativ tätig werden, und Bescheide schreiben, oder im Falle eines Gerichts, wenn es Urteile fällt, gibt es zusätzliche Anforderungen, die aus der Tradition der Rechtsprechung stammen, wie das Recht auf den gesetzlichen Richter und das Willkürverbot. KI in der Hoheitsverwaltung und Justiz wirft viele philosophische und rechtliche Fragen auf. Nicht alles davon ist in der KI-Verordnung beantwortet.
Thema Risikoeinschätzung: Diese müssen Unternehmen selbst treffen. Würde eine vorgeschriebene behördliche Zertifizierung für KI-Systeme mit hohem Risiko nicht mehr Rechtssicherheit bieten?
Feiler: Die KI-Verordnung ist in der Tat nichts anderes, als die Regulierung der Produktionssicherheit, wie sie in Europa üblich ist. Eine externe Konformitätsbewertung bietet zwar mehr Rechtssicherheit, ist aber auch mit erheblichem bürokratischem Aufwand verbunden. Insofern ist das ein zweischneidiges Schwert. Die Verordnung geht einen Zwischenweg und sieht deshalb eine externe Bewertung nur für bestimmte Hochrisiko-Biometrie-Systeme vor, die sich nicht auf harmonisierte Normen, also von der Kommission veröffentlichte Standards, stützen. Für andere KI-Systeme gilt die interne Bewertung.
Die KI-Verordnung ist in der Tat nichts anderes, als die Regulierung der Produktsicherheit, wie sie in Europa üblich ist. Lukas Feiler
Ein weiterer Faktor ist die Schnelllebigkeit des KI-Marktes: Time-to-Market ist ganz essenziell für die Wettbewerbsfähigkeit eines Unternehmens. Externe Bewertungen könnten Verzögerungen von mehreren Monaten verursachen, was die Wettbewerbsfähigkeit beeinträchtigen könnte. Zudem fehlt es europaweit an KI-Expert*innen, die für Behörden arbeiten, da sie in der IT-Branche deutlich besser bezahlt werden.
Forgó: Eine ähnliche Entwicklung gab es im Datenschutzrecht. Vor der DSGVO musste für die Einführung einer Datenverarbeitung eine DVR-Nummer beantragt werden, was ein bürokratischer, zeitraubender Prozess war. Die DSGVO war ein großes Liberalisierungsversprechen: Die Registrierung fällt weg, dafür sind Unternehmen selbst verantwortlich, sicherzustellen, sich an die DSGVO zu halten. Das führt jetzt zur Klage, nicht genau zu wissen, ob man rechtskonform sei oder nicht. Man kann halt nicht gleichzeitig in der Badewanne sitzen und nicht nass werden wollen.
Die KI-Verordnung vermutet ihre Einhaltung, wenn ein Produkt auch die harmonisierten EU Rechtsvorschriften erfüllt. Das ist ein gewisses Risiko. Wird die kommende Produktsicherheitsverordnung Abhilfe schaffen?
Forgó: Das kann man erst dann bewerten, wenn man weiß, wie die Produktsicherheitsverordnung final aussehen wird. Derzeit wird diese noch verhandelt. Aber ich würde doch sagen wollen, dass man das Problem einer großen Unsicherheit erkannt hat, die man durch solche Instrumente zu reduzieren versuchen wird.
Feiler: Interessant in diesem Zusammenhang ist übrigens auch die Frage, wie diese harmonisierten Normen zustande kommen. Wie Sie sagen: Erst die Einhaltung der Anforderungen, die in diesen technischen Normen enthalten sind, löst die Vermutung der Einhaltung der gesetzlichen Anforderungen der KI-Verordnung aus. Die Normierung ist ein laufender Prozess, in dem weder die Silicon Valley-Giganten, noch die europäische Start-up-Szene, sondern sehr stark die europäische Großindustrie involviert ist und das Geschehen ganz maßgeblich mitbegleitet. Die Großindustrie hat seit vielen Jahren gelernt, mit technischen Standards und den Regulierungsfeldern der Produktsicherheit exzellent umzugehen. Wenn man nicht aufpasst, was da an technischen Standards seitens der europäischen Normungsinstitutionen herauskommt, kann es sein, dass diese Standards nur sehr große Organisationen leicht einhalten werden können. Das würde den Grundgedanken, Innovation zu fördern und Start-ups im KI-Bereich Innovationskraft zu ermöglichen, gefährden.
Thema Marktüberwachung: Die Europäische Kommission hat dazu einen sektorspezifischen Ansatz gewählt. Für Österreich bedeutet dies viele verschiedene Behördenzuständigkeiten je nach KI-System und Anwendung, vom Landeshauptmann bei Spielzeug bis hin zur Finanzmarktaufsicht bei Dienstleistungen. Ist das ideal?
Forgó: Das Bild ist noch komplizierter, weil ja zusätzlich zu den KI-spezifisch aktiv werdenden Behörden auch jede Menge an nicht sektorspezifisch zuständigen Behörden da sind, insbesondere die Datenschutz-Behörde. Wenn so ein KI-System im Spielzeug personenbezogene Daten verarbeitet, dann ist nicht mehr nur der Landeshauptmann oder die Landeshauptfrau im Spiel, sondern auch die Datenschutz-Behörde und in weiterer Folge möglicherweise Gerichte, die datenschutzrechtliche Fragen zu klären haben. Wir haben also nicht nur eine sektorspezifische KI-Regulierung, sondern auch noch querlaufend horizontale Regulierungen. Man übertreibt nicht, wenn man sagt: Das ist nicht ideal. Aus Industriesicht oder gar Start-up-Perspektive ist das nicht nur nicht ideal, sondern eine außerordentlich große Herausforderung.
Wir haben also nicht nur eine sektorspezifische KI-Regulierung, sondern auch noch querlaufend horizontale Regulierungen. Man übertreibt nicht, wenn man sagt: Das ist nicht ideal. Nikolaus Forgó
Welche Möglichkeiten hat eine endverbrauchende Person, die ein Risiko eines KI-Systems feststellt, ein in der Verordnung vorgesehenes Marktüberwachungsverfahren zu verlangen?
Feiler: Ein einzelner Betroffener kann bei der jeweils zuständigen Marktüberwachungsbehörde eine Beschwerde einbringen. Der vom Europäischen Parlament in erster Lesung verabschiedete Entwurf hat sogar für Betroffene eine Parteistellung in Verfahren und Rechtsmittel vorgesehen, was in die schlussendlich verabschiedete Fassung nicht Eingang gefunden hat. Es besteht für den Betroffenen nur die Möglichkeit, sich zu beschweren, ohne aber eigentlich dann ein Recht zu haben, ein weiteres Vorgehen der Marktüberwachungsbehörde zu erzwingen. Die Marktüberwachungsbehörde muss selbst entscheiden, ob Handlungsbedarf, insbesondere ein unvertretbares Risiko, vorliegt. Die Folge kann von Auflagen bis hin zu Produktrückrufen reichen.
Ist eine einstweilige Verfügung möglich?
Feiler: Im Ergebnis wäre das vorstellbar, abhängig von dem Begleitgesetz, das in Österreich zu verabschieden sein wird. Denkbar ist, dass die Marktüberwachungsbehörde zum Beispiel mit dem Instrument des im österreichischen Verwaltungsrecht bekannten Mandatsbescheids vorgeht und im Ergebnis ein unmittelbares, vollstreckbares Rechtsinstrument in die Welt setzt, das dieselbe Wirkung wie eine einstweilige Verfügung hätte, aber am Verwaltungsrechtsweg zu bekämpfen wäre.
Die KI-Verordnung enthält keine Haftungsbestimmungen. Wie ist die Haftung geregelt?
Forgó: Zu Beginn der Diskussion zur KI-Verordnung schlug die Kommission auch eine Richtlinie vor, die spezifische Haftungsfragen regeln sollte. Diese hätte auch die Vermutung vorgesehen, dass bei Verstößen gegen die Verordnung diese den Schaden verursacht haben. Diese Richtlinie wurde jedoch bisher nicht verabschiedet und es ist unklar, ob und wann dies geschieht. Einige glauben, dass sie noch kommt. Bis dahin gelten die allgemeinen Haftungsregeln des nationalen oder europäischen Rechts.
Feiler: Aus Sicht der praktischen Litigation ist die Haftungsfrage schlicht ungeklärt, insbesondere die Rechtsnatur der Verordnung. Es bleibt offen, ob sie nur ein Instrument der Produktsicherheitsregulierung oder auch des Persönlichkeitsschutzes ist. Einige Elemente deuten darauf hin, dass Letzteres zutrifft, was Schadenersatzansprüche ermöglichen könnte. Das könnte findigen Klagsvertreter*innen ermöglichen zu argumentieren, die Verordnung sei ein Schutzgesetz und Verletzungen sogar Schadenersatzansprüche rechtfertigen. Ein Rechtsstreit darüber ist sehr wahrscheinlich.
Teilen Sie die juristische Kritik an der Unbestimmtheit der Verordnung?
Forgó: Ja, die Verordnung bietet viel Raum für Diskussionen, sowohl gerichtlich als auch wissenschaftlich. Aus Marktperspektive ist sie außerordentlich herausfordernd, besonders im Vergleich zu bestehenden Regelungen wie der DSGVO. Das Verhältnis der beiden Verordnungen zu diskutieren würde eine Habilitationsschrift erfordern.
Feiler: Oft sehen wir in der Gesetzgebung, dass politische Einigung Vorrang hat, was zu unklaren und mangelhaften Texten führt. Ein Beispiel für eine unklare Definition aus der Verordnung: Wenn sensible Daten nach Artikel 9 DSGVO oder geschützte Attribute aus biometrischen Daten vor einer biometrischen Kategorisierung abgeleitet werden, treten gewisse Rechtsfolgen ein. Nirgendwo aber steht, was eigentlich ein geschütztes Attribut ist. Verstehen kann man diese Stelle im Normtext nur dann, wenn man weiß, dass die Fassung, die das Europäische Parlament in erster Lesung verabschiedet hat, noch auf Artikel 21 der Grundrechtecharta verwiesen hat. Das dokumentiert schlicht eine ganz schlechte legistische Qualität. Solche Unbestimmtheiten wie auch vorhandene Widersprüchlichkeiten führen zwangsläufig zu Rechtsstreitigkeiten.
Forgó: Zwei Hauptprobleme: Wenn man sich in Europa nicht einigen kann, entstehen vage Rechtstexte, die später gerichtlich geklärt werden müssen. Zweitens entstehen durch den Zeitdruck im Gesetzgebungsprozess mit knappen Begutachtungsfristen technische Fehler wie Redundanzen und Lücken, die dann niemand bemerkt. Beide Entwicklungen sind nicht erfreulich.
Sehen Sie schon Konfliktpotenzial mit Grundrechten?
Forgó: Ja, an jeder Stelle ununterbrochen. Also das beginnt schon bei dem risikobasierten Ansatz. In dem Moment, in dem ein System per se verboten sein soll, greift das selbstverständlich in Grundrechtspositionen derer ein, die solche Systeme entwickeln wollen.
Das heißt, wir können sehr viel Judikatur erwarten.
Forgó: Wenn der Markt sich denn entwickelt, der diese Judikatur bezahlen kann, dann sicher ja.
Feiler: Die ganz schmerzhafte Erfahrung aus der Praxis ist: Es dauert extrem lang, bis Judikatur tatsächlich Rechtssicherheit schafft. Denn erst der EuGH kann bindend eine Auslegung der Verordnung vornehmen. Bis Prozesse tatsächlich stattfinden, bis Rechtsmittel ihren Weg nach oben machen und dann eine Vorlage an den EuGH erfolgt mit dem Ersuchen um Auslegung der Verordnung dauert das einige Jahre. Uns erwarten ähnliche Entwicklungen wie bei der DSGVO.
Wir brauchen also noch viel mehr rechtliche Präzisierung. Sind Durchführungsgesetze schon auf dem Weg?
Feiler: Einerseits hat die Europäische Kommission in zahlreichen Bereichen die Aufgabe erhalten, Durchführungsverordnungen zu erlassen zwecks Präzisierung der Verordnung. Das wird aber noch Zeit in Anspruch nehmen. Andererseits hat auch der österreichische Gesetzgeber eine Hausaufgabe erhalten: einen Behördenapparat zu installieren und die Zuständigkeiten klar zu regeln. Insbesondere die Frage, welche Behörden für welche Arten von KI-Systemen denn ganz konkret als Marktüberwachungsbehörden zuständig sein sollen. Hier gibt die Verordnung den Mitgliedstaaten sehr viel Flexibilität in die Hand. Die große Hoffnung wäre, dass die zu schaffende Behördenstruktur mit Blick auf Rechtssicherheit von Kompetenz getragen ist.
Forgó: Eingerichtet hat der österreichische Gesetzgeber bereits eine KI-Beratungsstelle, die im TKG und im KommAustria-Gesetz vorgesehen ist und bei der RTR organisatorisch angesiedelt ist und bereits arbeitet und berät.
RA Dr. Lukas Feiler, SSCP CIPP/E
ist Leiter des IT-Teams bei der Kanzlei Baker McKenzie in Wien, Fellow des Stanford-Vienna Transatlantic Technology Law Forums
Univ.-Prof. Dr. Nikolaus Forgó
ist Universitätsprofessor für Technologie- und Immaterialgüterrecht, Vorstand des Instituts für Innovation und Digitalisierung im Recht an der Universität Wien