Skip to main content

      Jeszcze pod koniec 2023 roku można spodziewać się wejścia w życie długo wyczekiwanej regulacji, która może zapoczątkować przemiany na rynku technologii AI.

      Czym jest Rozporządzenie AI Act?

      W związku z rosnącą liczbą wątpliwości dotyczących bezpieczeństwa nowo powstających technologii opartych na AI, organy Unii Europejskiej podjęły działania w celu opracowania kompleksowej regulacji dotyczącej sztucznej inteligencji.

      Głównym celem regulacji jest stworzenie środowiska prawnego, w którym zapewniona będzie możliwość bezpiecznego rozwoju w dziedzinie systemów AI, tak aby nie stwarzały one ryzyka naruszenia praw podstawowych (np. poprzez dyskryminację niektórych grup osób). Istotnym wyzwaniem jest skonstruowanie definicji sztucznej inteligencji, aby z jednej strony była ona zwarta i przejrzysta, ale jednocześnie obejmowała swoim zakresem wszystkie systemy, które tego wymagają.

      W pierwszym projekcie Rozporządzenia AI Act, opublikowanym przez Komisję Europejską w październiku 2021 roku, zaproponowano podejście do systemów AI jako oprogramowania opartego na uczeniu maszynowym, logice lub wiedzy, bądź podejściu statystycznym. W niedawno ogłoszonych poprawkach, główny nacisk definicji postawiono na systemy wykorzystujące mechanizmy uczenia maszynowego, generujące dane, mające wpływ na środowisko fizyczne i wirtualne oraz działające na różnych poziomach autonomii.
       

      Podział systemów ze względu na poziom ryzyka

      Istotnym elementem obecnym w projekcie Rozporządzenia AI Act od 2021 roku jest podział systemów sztucznej inteligencji ze względu na potencjalny poziom ryzyka, jaki mogą one generować. Zgodnie z nim, wydzielono następujące rodzaje systemów AI:
       

      Systemy stwarzające niedozwolone ryzyko


      Należą do nich m.in. systemy: oparte na technikach podprogowych (np. mających na celu nakłonienie konsumenta do zakupu produktu lub usługi); wykorzystujące słabości określonej grupy społecznej (np. eliminujące osoby w starszym wieku); punktowej oceny społecznej (np. w ramach kwalifikacji do otrzymania pomocy socjalnej); wykorzystujące identyfikację biometryczną w czasie rzeczywistym w przestrzeni publicznej (np. w celu egzekwowania prawa). Systemy tego typu mają zostać zakazane.

      Systemy wysokiego ryzyka


      Jest to grupa systemów związanych z: identyfikacją biometryczną (wykorzystywaną np. w celu wnioskowania o cechach osoby fizycznej); zarządzaniem infrastrukturą krytyczną (np. lotniska, gazociągi); edukacją (np. ocenianie uczniów w szkołach); zatrudnieniem (np. zautomatyzowane systemy oceniające kandydatów do pracy); dostępem do usług (takich jak np. opieka zdrowotna, Internet); ściganiem przestępstw (np. do celów analizy przestępczości); zarządzaniem migracją ludności (służące m.in. do weryfikacji dokumentów); sprawowaniem wymiaru sprawiedliwości (np. wspomaganie organów w badaniu faktów i prawa). Odpowiedzialność nad ich właściwym funkcjonowaniem ciążyć ma w głównej mierze na dostawcach systemów.

      Systemy ograniczonego ryzyka


      Do ostatniej podkategorii zaliczyć należy wszystkie systemy nienależące do żadnej innej kategorii.

      Obowiązki wynikające z Rozporządzenia AI Act to w dużej mierze wymogi nakładane na systemy wysokiego ryzyka. Dotyczą one sporządzenia odpowiedniej dokumentacji oraz zarządzania danymi w odpowiedni i bezpieczny sposób. Wprowadzono także obowiązek rejestracji tego typów systemów w unijnej bazie danych.

      Powstała także propozycja wprowadzenia do Rozporządzenia AI Act ogólnych zasad, które obowiązywałyby niezależnie od klasyfikacji danego systemu. Należą do nich:

      • nadzór nad systemami AI – rozwój i wykorzystywanie systemów powinno podlegać ludzkiej kontroli;
      • niezawodność i bezpieczeństwo – minimalizowanie ryzyka wystąpienia nieoczekiwanych problemów w związku z wykorzystywaniem systemu AI;
      • zarządzanie prywatnością i danymi – zgodność z zasadami ochrony prywatności i danych;
      • przejrzystość – szczególny nacisk na możliwość śledzenia sposobu funkcjonowania systemu oraz odpowiedniego informowania użytkowników;
      • różnorodność, niedyskryminacja i sprawiedliwość – opracowywanie systemów przy wykorzystaniu reprezentatywnych danych oraz unikanie dyskryminujących skutków;
      • dobrostan społeczny i środowiskowy – zrównoważony i przyjazny dla środowiska rozwój.

      Rozporządzenie AI Act zawiera także opis środków mających wspierać innowacyjność na rynku technologii AI. Należą do nich piaskownice regulacyjne w zakresie sztucznej inteligencji, wydarzenia informacyjne oraz ustanowienie Europejskiego Urzędu ds. Sztucznej Inteligencji. Nowy, niezależny organ, z siedzibą w Brukseli, ma za zadanie m.in. monitorowanie stosowania Rozporządzenia AI Act oraz koordynację działań państw członkowskich poprzez wspieranie współpracy i doradztwo.
       

      Jak możemy pomóc?

      Kancelaria KPMG Law oferuje m.in.:

      • analizy pod kątem zastosowania Rozporządzenia AI Act do sytuacji faktycznej i prawnej konkretnych klientów;
      • doradztwo w zakresie spełniania przez przedsiębiorców obowiązków wynikających z Rozporządzenia AI Act;
      • wsparcie w dokonaniu klasyfikacji stosowanych systemów sztucznej inteligencji;
      • opracowanie treści obowiązkowych informacji dla użytkowników systemów AI (w tym wymaganych na podstawie przepisów o ochronie danych osobowych);
      • analizy co do skutków rozwiązań AI dla ochrony danych (Data Protection Impact Assessment) oraz dla praw podstawowych.

      W przypadku pytań, zachęcamy do kontaktu.


      Skontaktuj się z nami


      Dowiedz się więcej, o tym w jaki sposób wiedza i technologia KPMG mogą pomóc Tobie i Twojej firmie.

      Zobacz także

      Od dynamicznych zmian regulacyjnych, przez nowe precedensy sądowe, aż po rosnące znaczenie compliance – ewolucja krajobrazu prawnego wymaga nieustannej adaptacji i strategicznego podejścia.

      Od prawie 30 lat KPMG Law świadczy usługi doradztwa prawnego na rzecz krajowych oraz zagranicznych podmiotów.