Existuje množstvo rôznych definícií AI. Jedna z tých najpoužívanejších pochádza z Oxfordského slovníka: „Umelá inteligencia (AI) je schopnosť počítačov alebo iných strojov prejavovať alebo napodobňovať inteligentné správanie a zároveň ide o vedný odbor, ktorý sa týmto javom zaoberá.
Regulačné orgány však často používajú technickejšie formulácie. Napríklad európsky zákon o umelej inteligencii (AI Act) definuje AI systém nasledovne: „Strojový systém navrhnutý tak, aby pracoval s rôznou mierou autonómie, ktorý sa po nasadení môže prispôsobovať a na základe zadaných (explicitných alebo implicitných) cieľov odvodzuje z prijatých vstupov výstupy – napríklad predpovede, obsah, odporúčania či rozhodnutia –, ktoré môžu ovplyvniť fyzické alebo digitálne prostredie.“
Táto definícia pôsobí oprávnene komplikovane. Podľa nej by sa totiž za AI mohlo považovať takmer každé moderné automatizované riešenie, čo predstavuje výzvu z pohľadu právneho výkladu aj dodržiavania predpisov. Napríklad pri nasadzovaní nového nástroja v projekte môže byť pomerne zložité určiť, ktoré pravidlá sa naň vzťahujú. Vždy si preto dajte záležať na presných definíciách a ich súlade s daným kontextom, pretože nejasnosti v tejto oblasti môžu viesť k nákladným nedorozumeniam.
Autor článku
Alexander Zagnetko
KPMG Global AI Initiative Coordinator
Tri piliere umelej inteligencie
Každý AI systém stojí na troch základných prvkoch. Sú nimi algoritmy, teda logika a modely, ktoré umožňujú systému učiť sa a rozhodovať; dáta, čiže „surové“ informácie, z ktorých sa odhaľujú vzory a poznatky; a výpočtový výkon, alebo motor, ktorý umožňuje spracovávať obrovské objemy informácií.
Zatiaľ čo algoritmom a kvalite dát sa venuje veľká pozornosť, výpočtová kapacita sa často podceňuje – pritom bez nej by nebolo možné realizovať žiadne pokročilé AI riešenia. Stále ale platí zásada, že kvalitu finálnych výsledkov vyprodukovaných prostredníctvom AI technológií ovplyvňuje kvalita vstupných dát. Ak sú nekvalitné, nemôžete očakávať ani úspešné výstupy.
Ako sa učia systémy strojového učenia
Existujú tri hlavné prístupy k tréningu ML systémov:
Tieto tri prístupy môžeme prirovnať k rôznym štýlom výchovy – každý má svoje výhody aj limity. Dobre označené dáta a poznatky z nich sú dnes často cennejšie než fyzické aktíva firmy. Pokročilé systémy ako generatívna AI (GenAI) pritom kombinujú viacero typov učenia v rôznych fázach vývoja.
Intelligent Industries
Nové hranice generatívnej a agentickej AI
Generatívna AI patrí medzi najdiskutovanejšie témy súčasnosti. Modely ako ChatGPT sú trénované na obrovských množstvách textu a ďalších typov dát. Pri tzv. veľkých jazykových modeloch (v angl. Large Language Models – LLMs) ide o systémy, ktoré „rozumejú“ jazyku na základe štatistických vzorcov a dokážu generovať text podobný ľudskej reči.
Na rozdiel od klasického softvéru však moderné AI modely nefungujú deterministicky, teda nevracajú vždy rovnaký výsledok. Ich výstupy sa menia, pretože sú založené na pravdepodobnostiach.
Ďalšou novinkou je tzv. agentická AI. Ide o systémy, ktoré dokážu samostatne plánovať a konať s cieľom dosiahnuť konkrétne úlohy. AI agenti využívajú veľké jazykové modely a dokážu pracovať s digitálnymi nástrojmi, napríklad vykonávať úlohy vo vašom mene. Aj preto sa čoraz viac hovorí o potrebe ľudskej kontroly – experti musia dohliadať na to, čo AI produkuje a aké rozhodnutia robí, najmä v kritických oblastiach.
Súčasný stav a debata o „všeobecnej“ AI
Pred pätnástimi rokmi viacerí vizionári predpovedali, že všeobecná inteligencia (v angl. artificial general intelligence, AGI) vznikne okolo roku 2040 a čoskoro ju nahradí superinteligencia (v angl. artificial super intelligence, ASI). Dnes však všetky existujúce AI systémy patria do kategórie tzv. úzkej AI (v angl. artificial narrow intelligence, ANI), označovanej aj ako slabá alebo obmedzená umelá inteligencia a vynikajú v konkrétnych úlohách, avšak nedokážu rozšíriť svoju funkčnosť mimo naučený rámec.
Tréning modelu aj pre relatívne jednoduchú úlohu dnes vyžaduje obrovské množstvo dát. Skutočná AGI by však musela zvládať zložité úlohy aj s minimálnymi vstupmi.
Rozdiel medzi víziou a realitou spočíva najmä vo výpočtovom výkone – väčšina algoritmov AI je jednoduchá, no potrebuje bilióny operácií a obrovské úložisko dát. Až pokles cien výpočtovej techniky po roku 2010 umožnil rozmach dnešných modelov.
Napriek tomu je dnes tréning veľkého jazykového modelu od nuly finančne dostupný len niekoľkým technologickým gigantom. Väčšina organizácií používa už predtrénované modely, ktoré si sama prispôsobuje. Čo sa týka superinteligencie, ide skôr o filozofickú než technickú otázku – stále je totiž veľmi ťažké odhadnúť, či stroje niekedy dokážu nadobudnúť vedomie.
Na mieste je tiež nemať prehnané očakávania. Ešte nedávno sa predpokladalo, že do jedného roka bude 90 % počítačového kódu písať umelá inteligencia. V skutočnosti sme však od tohto cieľa veľmi ďaleko.
Prečítajte si aj ďalšie články
Riziká a výzvy
Rýchly rozvoj AI prináša množstvo spoločenských, etických aj profesijných výziev. Zabezpečiť zodpovedné používanie AI je však v globálnom rozsahu náročné. Niektoré organizácie sa zameriavajú vďaka umelej inteligencii najmä na zvyšovanie zisku, iné využívajú AI aj na škodlivé účely.
Najväčší problém predstavujú predsudky (v angl. bias). Tie môžu vzniknúť z neúplných dát, chybného návrhu modelu alebo zámerného skreslenia. Výsledkom sú nepresné či zavádzajúce výstupy. Generatívna AI má navyše tendenciu vytvárať presvedčivé, no nepravdivé informácie – tzv. halucinácie. Napríklad tvrdenie, že Einstein získal Nobelovu cenu za teóriu relativity znie logicky, ale v skutočnosti ju dostal za výskum fotoelektrického javu.
Práve preto je dôležité zachovať si zdravú skepsu a pri práci s AI si vždy dôkladne overovať všetky výstupy. Pri bežných úlohách zvážte, či vám práca s AI ušetrí viac času ako zaberie jej kontrola. No pri dôležitých analýzach či správach by mala byť kontrola samozrejmosťou – a niekedy je lepšie AI radšej vôbec nepoužiť, najmä ak téme nerozumiete.
Ďalšou veľkou témou je tzv. adversariálna AI, teda techniky, ktorými sa umelá inteligencia cielene zneužíva. Rozmach AI za posledných päť rokov výrazne rozšíril priestor pre útoky, teda počet slabých miest, ktoré môžu útočníci využiť. Najčastejšie sa stretávame so štyrmi typmi útokov:
- „Otrávenie“ dát (v angl. poisoning attacks): útočníci upravia tréningové dáta tak, aby model poskytoval nesprávne výsledky.
- „Obídenie“ modelu (v angl. evasion attacks): zmenia vstupné dáta tak, aby model oklamali a viedli ho k chybným výstupom.
- Krádež citlivých údajov (v angl. inference attacks): snažia sa z výstupov modelu získať citlivé alebo súkromné údaje.
- Krádež modelu (v angl. extraction attacks): pokúšajú sa model spätne zreprodukovať a skopírovať jeho funkčnosť.
V súčasnosti väčšina firiem, a to aj na vyspelých trhoch, stále nemá komplexné politiky ani riešenia, ktoré by vedeli riziká spojené s adversariálnou AI identifikovať a účinne zmierňovať. Mnohé organizácie sa pri prevencii incidentov spoliehajú na externých partnerov či dodávateľov. Treba však povedať, že adversariálne útoky nie sú iba trendovým pojmom ani hypotetickým rizikom – dejú sa každý deň, spôsobujú miliardové škody a pri zanedbaní ochrany môžu firmy vážne ohroziť.
Príkladom sú generatívne modely postavené na LLM, ktoré sa trénujú na obrovskom množstve rôznych internetových zdrojov. Útočníci už vytvorili tisíce zámerne skreslených či falošných dátových zdrojov, ktorých cieľom je „otráviť“ tieto modely nepravdivými informáciami a šíriť tak falošné správy či dezinformácie. Aj preto je overovanie faktov a validácia informácií dôležitejšia než kedykoľvek predtým.
Samozrejme, nie všetky riziká súvisia s útokmi. Mnohé vznikajú jednoducho z nekvalitných dát, zlého návrhu modelu, chýbajúcich odborných znalostí, slabej kontroly, nejasných regulácií či nesprávneho používania – úmyselného alebo náhodného. Základná zásada by však mala byť vždy rovnaká: AI treba navrhovať a používať tak, aby chránila ľudí aj majetok a minimalizovala riziko škôd.
Odporúčania pre bezpečné a efektívne používanie AI
Viac o umelej inteligencii sa dočítate v našej blogovej sérii, ktorú pripravuje Alexander Zagnetko, KPMG Global AI Initiative Coordinator. Nájdete v nej prehľad rámcov a riešení, ktoré pomáhajú firmám naplno využívať potenciál umelej inteligencie – zodpovedne, bezpečne a s ohľadom na dlhodobé dôsledky.
Kontaktujte nás
Pre viac informácií o tom, ako môžeme pomôcť vašej spoločnosti, prípadne ak si chcete dohodnúť stretnutie kvôli osobnej prezentácii našich služieb, neváhajte nás kontaktovať.