Pfadnavigation

Europäisches Gesetz über künstliche Intelligenz

Roboterarm in Fabrik

Europa soll das globale Zentrum für vertrauenswürdige künstliche Intelligenz werden

© Westend61 / Getty Images

Worum geht es in der Verordnung?

Künstliche Intelligenz (KI) sicher und vertrauenswürdig gestalten – das ist das Ziel der europäischen Verordnung über Künstliche Intelligenz (AI Act), die am 1. August 2024 in Kraft trat und ab dem 1. August 2026 Anwendung findet.

Wer ist betroffen?

KI ist vielfältig und überall dort einsetzbar, wo große Mengen an Daten zu verwerten sind. Anwendungen finden sich verteilt über nahezu alle Wirtschaftsbereiche und Geschäftsfelder: von der verbreiteten Bild-, Sprach- und Texterkennung über das Smart Home bis hin zum autonomen Fahrzeug, aber auch bei industriellen Anwendungen, in denen KI zum Beispiel eine vorausschauende Wartung von Maschinen ermöglicht

Was sieht die Verordnung vor?

KI ist nicht gleich KI – im AI-Act werden zwischen Anwendungsbereichen sowie zwischen vier Risikoklassen unterschieden. An die Risikoklassen sind unterschiedliche Anforderungen geknüpft. KI-Systeme, die den ethischen Grundsätzen in der EU widersprechen und somit ein inakzeptables Risiko darstellen, sind gänzlich verboten, zum Beispiel Social-Scoring-Systeme.

Besonders relevant für Unternehmen sind Anwendungen, die als hochriskant eingestuft werden. Sie sollen künftig strengen Anforderungen unterliegen. Ein umfassendes Qualitäts- und Risikomanagementsystem, in dem unter anderem Entscheidungsvorgänge, Datenqualität und Transparenz dokumentiert und nachgewiesen werden müssen, ist einzurichten. Zu den Hochrisikosystemen zählen unter anderem KI-basierte Anwendungen, die im Personalmanagement, in der Aus- und Weiterbildung, in der kritischen Infrastruktur oder in der Industrie als Sicherheitskomponenten oder -bauteile zum Einsatz kommen.

Für Anwendungen mit geringem Risiko, beispielsweise Chatbots, sind Transparenzpflichten vorgesehen. Für Systeme mit minimalem Risiko, wie etwa KI gestützten Videospiele oder Spamfilter, entstehen keine zusätzlichen rechtlichen Verpflichtungen.

Spezielle Regeln gelten für sogenannte "KI-Systeme mit allgemeinem Verwendungszweck". Hierzu gehören Anwendungen, die mit generativer KI Texte, Bilder, Videos und mehr erstellen können und die nicht für einen einzelnen konkreten Anwendungsfall trainiert wurden, sondern sehr breit eingesetzt werden. Neben einem zu erarbeitenden Verhaltenskodex soll für besonders potente Modelle das "systemische Risiko" durch verschiedene Regelungen minimiert werden.

Sie finden das Gesetz unter eur-lex.europa.eu.

Ein Beispiel: Künstliche Intelligenz bei der Personalauswahl

Das CV-Parsing (Lebenslauferkennung) ist eine Software zur automatischen Analyse und Auslese von Lebensläufen im Bewerbungsprozess. Das Tool filtert Bewerberdaten wie etwa Informationen zur Ausbildung heraus und unterstützt die Personalverantwortlichen bei ihrer Entscheidung. Für ein solches System gelten künftig strengere Vorgaben, denn KI-Anwendungen, die bei Bewerbungsverfahren zum Einsatz kommen, sind als Hochrisikosysteme gelistet.

Das bedeutet beispielsweise, dass der Anwender künftig Vorgänge protokollieren muss, um die Rückverfolgbarkeit der Personalauswahl zu ermöglichen oder den Bewerbern bestimmte Informationen transparent bereitstellen muss

Was ist für die Wirtschaft nun wichtig?

Der vorgesehene Rechtsrahmen kann einen Beitrag leisten, das Vertrauen und die Akzeptanz in KI zu stärken. Die Unternehmen brauchen klare und verständliche Kriterien, was als spezifisches Risiko einer KI zu verstehen ist. Nur so ist es möglich, die Betroffenheit schnell, einfach und rechtssicher zuzuordnen. Bürokratischer Aufwand und Doppelregulierung sind zu vermeiden, um Belastungen gering zu halten und damit die europäische Wettbewerbsfähigkeit sowie die Weiterentwicklung von KI in Europa zu sichern.

Logo mit Computer und Paragraph, darunter die Schrift DIHK Durchblick Digital

© DIHK

Kontakt

Siefert, Arian
Arian Siefert Referatsleiter Wirtschaft digital