Virtuelle Darstellung von Bestandteilen der AI

Funtap | Canva

EU-Verordnung Artificial Intelligence Act (AI Act)

Erfahren Sie in diesem Steckbrief, welche Änderungen durch die EU-Verordnung auf Sie zukommen.

Problem und Ziel des AI Acts (Artificial Intelligence Act)

Die Verordnung für Künstliche Intelligenz (KI) oder englisch auch Artificial Intelligence Act (AI Act) ist Teil der digitalen Dekade der EU und legt einen Rechtsrahmen für KI fest. Mithilfe von KI kann der Wohlstand auf der Welt gesteigert werden. Denn durch effizientere und automatisierte Prozesse können viele einfache und repetitive Tätigkeiten durch Künstliche Intelligenz zumindest teilweise ersetzt werden. Aber auch neue Geschäftsmodelle können entwickelt werden. Gleichzeitig gibt es dennoch einige Befürchtungen über z. B. Grundrechtsverletzungen und Urheberrechtsverletzungen bei der Verwendung von künstlicher Intelligenz. So können verzerrte Datensätze zu Ergebnissen führen, die Personen mit bestimmten Merkmalen systematisch diskriminieren. Mit dem Beschluss der KI-Verordnung stellt die EU sicher, dass die in der EU eingesetzten KI-Systeme sicher, transparent, nachvollziehbar, nichtdiskriminierend und umweltfreundlich sind. Darüber hinaus soll für Entwickler Rechtssicherheit geboten und Innovationen gefördert werden.

Welche Punkte des AI Act sind für den Mittelstand besonders relevant?

Risikobasierter Regulierungsansatz

KI-Anwendungen werden nach der Verordnung in vier unterschiedliche Risikostufen unterteilt und verschieden reguliert. Das Herzstück stellt dabei die Regulierung der Anwendungen mit hohem Risiko dar. 
 

  • Kategorie 1 – Geringes oder minimales Risiko: Für Systeme mit geringem oder minimalem Risiko, wie beispielswiese Spamfilter oder Suchalgorithmen, sind keinerlei zusätzliche rechtliche Verpflichtungen vorgesehen.
  • Kategorie 2 – Begrenztes Risiko: Bei Anwendungen, die als begrenztes Risiko eingestuft werden, gilt eine minimale Transparenz- und Informationspflicht über den Einsatz selbst und darüber, dass die dargestellten Inhalte manipuliert und nicht echt sind. Darunter fallen beispielsweise KI-Systeme, die mit Menschen (natürlichen Personen) interagieren (z. B. Chatbots auf KI-Grundlage). Dies können Anwendungen im Bereich Text-zu-Bild-Generierung oder auch Videogenerierung sein.
  • Kategorie 3 – Hohes Risiko: Ein großer Teil der Auflagen sind für Anwendungen angedacht, die als Hochrisikosysteme eingestuft werden. Sie sollen künftig strengen Anforderungen und Konformitätsprüfungen unterliegen. So ist zum Beispiel ein umfassendes Qualitäts- und Risikomanagementsystem, in dem unter anderem Entscheidungsvorgänge, Datenqualität und Transparenz dokumentiert und nachgewiesen werden müssen, einzurichten. Die unter ein hohes Risiko fallenden Anwendungen sind dabei im Anhang 3 der Verordnung vermerkt. Darunter fallen beispielsweise Anwendungen aus den Bereichen Personalmanagement, der allgemeinen und beruflichen Bildung sowie in gewissen Teilen der Industrie, wenn sie als Sicherheitskomponenten oder -bauteilen zum Einsatz kommen.
  • Kategorie 4 – Unannehmbares Risiko: Bei dieser Einstufung gelten Anwendungen von KI als Bedrohung für den Menschen und werden daher verboten. Darunter fallen so genanntes „social scoring“, d. h. Klassifizierung von Menschen und Personen anhand persönlicher Merkmale, Verhalten und des sozio-ökonomischen Status, aber auch die Manipulation von menschlichem Verhalten oder bestimmter gefährdeter Gruppen.

Einführung von Reallaboren (regulatory Sandboxes)

Die KI-Verordnung verpflichtet die EU-Mitgliedstaaten, bis spätestens 2. August 2026 mindestens ein nationales Reallabor für Künstliche Intelligenz einzurichten. Diese Frist ergibt sich aus dem Inkrafttreten der Verordnung am 1. August 2024 und der im AI Act vorgesehenen Umsetzungsphase. Reallabore sollen eine kontrollierte Umgebung bieten, in der KI-Systeme unter Aufsicht der zuständigen Behörden entwickelt, getestet und validiert werden können, bevor sie in den Markt eingeführt werden. Ziel ist es, Innovation und regulatorische Anforderungen frühzeitig zusammenzuführen und Rechtsklarheit zu schaffen. In Deutschland befindet sich die konkrete Ausgestaltung der Reallabore derzeit noch im Aufbau, sodass Fragen eines kostenlosen oder priorisierten Zugangs für KMU bislang nicht verbindlich geregelt sind.

Einschätzung des BVMW zum AI Act

Der BVMW sieht die EU-Verordnung skeptisch. Während ein Verbot von social profiling zu begrüßen ist, stehen die Auflagen zur Verbraucherfreundlichkeit im Konflikt mit der Förderung von Innovationen. Deswegen sollte eine Umsetzung bürokratiearm und praxisnah durchgeführt werden. Bei der Benennung einer nationalen Behörde ist es hier wichtig, dass auch Fachleute aus der Wirtschaft ihre Expertise in die Arbeit der Behörde einbringen. Ebenfalls sollte, wie auch in der EU-Verordnung angekündigt, ein niedrigschwelliger Zugang für KMU und Start-ups ermöglicht werden.