Künstliche Intelligenz (KI) birgt grosses Potenzial und eröffnet vielversprechende Möglichkeiten. Den vielen Vorteilen, die der Gesellschaft durch die Nutzung von KI erwachsen, stehen auch diverse Risiken und ethische Bedenken gegenüber. Mit der KI-Verordnung schickt sich die EU an, diesen zu begegnen. Im April 2021 präsentierte die EU-Kommission als erste Gesetzgeberin einen Vorschlag zur Harmonisierung von Regeln für künstliche Intelligenz («KI-Verordnung»; hier). Nach zähen Verhandlungen haben die beiden zuständigen Ausschüsse des EU-Parlaments Mitte Mai nun eine politische Einigung über einen modifizierten Verordnungstext erzielt (hier).
Die KI-Verordnung dürfte frühestens anfangs 2024 in Kraft treten. Schweizer Akteure, die der KI-Verordnung unterstehen, werden daraufhin zwei Jahre Zeit haben, die vorgesehenen Anforderungen umzusetzen. Sie sind gut beraten, dies ordentlich zu tun, drohen andernfalls doch Geldbussen bis zu EUR 30 Millionen oder 6 % des weltweiten Jahresumsatzes – je nachdem, welche Summe höher ist.
Was will die KI-Verordnung regeln?
Die KI-Verordnung bezweckt, einen innovationsfreundlichen und zukunftstauglichen Rechtsrahmen für den vertrauenswürdigen Einsatz von Systemen künstlicher Intelligenz («KI-Systeme») in der EU zu schaffen und die Entwicklung eines Binnenmarktes für sichere und rechtskonforme Anwendungen zu fördern.
Was sind KI-Systeme?
KI-Systeme sind maschinengestützte Systeme, die autonom (d.h. unabhängig von menschlichem Einfluss) operieren und für explizite oder implizite Ziele Ergebnisse (bspw. Vorhersagen, Empfehlungen oder Entscheidungen) erzeugen können, die physische oder virtuelle Umgebungen beeinflussen.
KI-Systeme werden abhängig ihrer potenziellen Fähigkeiten und Risiken für die Gesundheit, Sicherheit und Grundrechte von Personen in vier Risikokategorien unterteilt:
Kategorien | Beispiele | Nutzung zulässig? |
KI-Systeme mit unzulässigem Risiko |
• Systeme zur biometrischen Identifizierung
• Social-Scoring-Systeme
|
Nein (wenige Ausnahmen vorbehalten) |
KI-Systeme mit hohem Risiko ("Hochrisiko-Systeme") |
• Robot-Recruiting-Systeme
• Systeme zur Prüfung der Kreditwürdigkeit
|
Ja, sofern Grundsätze und besondere Anforderungen beachtet werden |
KI-Systeme mit begrenztem Risiko | • Chatbots • Emotionserkennungssysteme |
Ja, sofern Grundsätze beachtet werden |
KI-Systeme mit minimalem Risiko | • Spam-Filter • KI-fähige Videospiele |
Ja, sofern Grundsätze beachtet werden |
Im Vergleich zum ersten Entwurf thematisiert der modifizierte Verordnungstext nun insbesondere auch generative KI-Systeme (bspw. ChatGPT). Generative KI-Systeme qualifizieren nicht per se als Hochrisiko-Systeme. Werden sie jedoch in solche eingebettet, so unterliegen auch die generativen KI-Systeme den für Hochrisiko-Systeme geltenden Voraussetzungen.