Nový zákon EÚ o umelej inteligencii predstavuje zásadný posun v regulácii AI – jeho cieľom je zabezpečiť, aby systémy umelej inteligencie používané v Európe boli bezpečné, transparentné a rešpektovali základné práva. Ide o rámec založený na hodnotení rizika, ktorý rozdeľuje AI systémy do štyroch kategórií: neprijateľné riziko, vysoké riziko, obmedzené riziko a minimálne riziko. Dodržiavanie týchto pravidiel nie je len právnou povinnosťou, ale strategickou nevyhnutnosťou. Ovplyvňuje totiž dôveru, reputáciu značky aj dlhodobú konkurencieschopnosť.
Kľúčové dôsledky legislatívy zahŕňajú povinné posudzovanie súladu s pravidlami pri systémoch s vysokým rizikom, povinnosti v oblasti transparentnosti pri systémoch komunikujúcich s ľuďmi, prísnu správu dát a dokumentačné požiadavky, ale aj mechanizmy manuálnej ľudskej kontroly a zodpovednosti. Na tieto požiadavky reaguje aj rámec Trusted AI spoločnosti KPMG, ktorý ponúka ucelený prístup k riadeniu rizík, etickému používaniu AI a správnemu nastaveniu pravidiel.
Autor článku
Alexander Zagnetko
Manager, Process Organization and Improvement
Uplatňovanie týchto princípov koordinuje Trusted AI Council – rada, ktorá dohliada na jednotlivé pravidlá, hodnotenie rizík a súlad s reguláciami.
Hodnotenie rizík podľa AI Act-u
V prípade hodnotenia rizík je na mieste posúdenie použitia daného nástroja alebo technológie, a to z pohľadu zdrojov dát, procesov rozhodovania a celkového spoločenského dopadu. Jednotlivé kroky hodnotenia zahŕňajú:
- Posúdenie pripravenosti: zhodnotenie stavu riadenia, dát, technológií a firemnej kultúry.
- Stanovenie priorít pre jednotlivé použitia: identifikácia rizikových aplikácií a ich vystavenia reguláciám,
- Analýza nedostatkov: porovnanie súčasnej praxe s požiadavkami AI Act-u.
- Hodnotenie účinnosti kontrol: preverenie bezpečnostných opatrení, monitoringu a krízových mechanizmov.
Pri výbere vhodných AI riešení by mali organizácie hľadať rovnováhu medzi biznisovým prínosom, technickou uskutočniteľnosťou a reguláciou. Je preto dôležité zamyslieť sa nad niekoľkými otázkami. Podporuje riešenie ciele organizácie? Sú dátové zdroje legálne, etické a kvalitné? Je technické prostredie bezpečné a škálovateľné? Sú externí dodávatelia v súlade s pravidlami AI riadenia?
Pri využívaní umelej inteligencie je tiež potrebné zvážiť viacero aspektov: ak AI výrazne ovplyvňuje prístup ľudí k službám, zamestnaniu, úverom, vzdelaniu či zdravotnej starostlivosti, ide o vysoké riziko a vyžaduje si prísnejšie kontroly. Ak dokáže generovať obsah, napodobňovať ľudí alebo vytvárať tzv. deepfake obsah, je potrebné zabezpečiť transparentnosť prostredníctvom jasného označovania, overiteľnosti a moderácie. Ak ide o autonómnych AI agentov pracujúcich so systémami či dátami, je nutné nastaviť ochranné mantinely – obmedziť prístupy, využívať izolované prostredie, pracovať len so schválenými nástrojmi a zabezpečiť priebežný monitoring.
Súlad s predpismi nemôže byť len dodatočnou kontrolou, ale musí byť pevnou súčasťou celého životného cyklu vývoja umelej inteligencie – od automatizovaného porovnávania interných predpisov s regulačnými požiadavkami cez dôslednú dokumentáciu a overiteľnosť dát a rozhodnutí až po priebežný monitoring s upozorneniami v reálnom čase a pravidelné školenia zamerané na riziká a očakávania regulátorov.
Umelá inteligencia v neposlednom rade prináša nové riziká z pohľadu kybernetickej bezpečnosti. Odporúčame preto organizáciám chrániť svoje prístupy a rozhrania, cez ktoré AI komunikuje so zákazníkmi, mať pod kontrolou dáta aj prostredie, v ktorom systém beží, a dôkladne preverovať spoľahlivosť svojich dodávateľov a partnerov.
Päť častých otázok
Ak používame externý jazykový model cez API, týkajú sa povinnosti AI Act aj nás, alebo len poskytovateľa?
Článok 53 GPAI (Usmernenia pre poskytovateľov modelov AI na všeobecné účely) sa vzťahuje na poskytovateľov modelov. Ako integrátor však nesiete zodpovednosť za systém ako celok, najmä ak ide o AI technológiu v kategórii vysokého rizika. Vyžadujte dokumenty od poskytovateľov a nastavte si vlastné kontrolné mechanizmy.
Ako je to s autorskými právami a tréningovými dátami, ak AI len nasadzujeme?
Musíte si overiť, že poskytovateľ má stanovené pravidlá k autorským právam a rešpektuje výnimky z TDM (tzv. text and data mining, teda analýza textov, obrázkov, dát alebo iných digitálnych zdrojov s cieľom odhalenia vzorcov a vzťahov medzi nimi). Ak model ďalej prispôsobujete alebo upravujete jeho tréningové dáta, povinnosti prechádzajú aj na vás.
Čo znamená, že model predstavuje „systémové riziko“?
Modely s obrovským výpočtovým výkonom alebo významným trhovým vplyvom podliehajú prísnejším povinnostiam – hodnoteniam, znižovaniu rizík, procesom z pohľadu kybernetickej bezpečnosti a hláseniu incidentov. Ak sa spoliehate na takéto modely, musíte tomu prispôsobiť výber dodávateľov a priebežne ich kontrolovať.
Budú do roku 2026 pripravené jednotné európske štandardy?
Očakávajú sa oneskorenia, a preto odporúčame zatiaľ vychádzať z existujúcich rámcov, ako sú GPAI (Usmernenia pre poskytovateľov modelov AI na všeobecné účely), ISO/IEC 42001 (medzinárodná norma na riadenie systému umelej inteligencie) či NIST AI RMF (Rámec na riadenie rizík umelej inteligencie Národného inštitútu štandardov a technológie NIST).
Ako tieto nariadenia súvisia s GDPR a Data Act-om?
GDPR stanovuje princípy zákonnosti, férovosti a transparentnosti. Data Act, účinný od septembra 2025, mení pravidlá prístupu k dátam a ich prenositeľnosti – čo je dôležité aj pri tréningu modelov. Firmy by mali zosúladiť riadenie AI a ochrany súkromia, aby sa vyhli duplicitným auditom.
Nový zákon o umelej inteligencii sa už zmenil z konceptu na reálny režim s presadzovaním pravidiel a podpornými nástrojmi. Najúspešnejšie firmy nebudú tie, ktoré si len splnia svoju zákonnú povinnosť, ale tie, ktoré dokážu vybudovať dôveru – vďaka spoľahlivému uvádzaniu produktov na trh, lepším vzťahom s regulátormi a rýchlejším obchodným výsledkom. Pre európsky rast aj globálne značky predávajúce v Európe je to investícia, ktorá sa oplatí.
V KPMG staviame náš prístup k AI na dôvere, transparentnosti a transformácii. Vďaka rámcu Trusted AI a znalostiam z jednotlivých odvetví pomáhame organizáciám nielen splniť si nové pravidlá, ale aj rozvíjať potenciál umelej inteligencie zodpovedným spôsobom.
Kontaktujte nás
Ak si želáte viac informácií o tom ako môžeme pomôcť vášmu podniku, prípadne ak si chcete dohodnúť stretnutie kvôli osobnej prezentácii našich služieb, kontaktujte nás.