Možností využití umělé inteligence je dnes mnoho, s novými možnostmi ale přichází i nová rizika, která si světoví lídři dobře uvědomují. Většina z nich (77 %) je přesvědčena, že si s nimi zvládnou poradit. Pojďme se podívat na některá z nich.
Riziko zneužití a úniku dat
Většina generativních modelů AI pracuje s daty svého modelu a zároveň s daty, která jim poskytne uživatel. Tímto způsobem se učí a vytváří svoji znalostní základnu. Data, která poskytovatel služby takto získá, může případně později použít k zodpovězení dotazu někoho jiného, čímž vzniká riziko úniku citlivých informací. U nástrojů, které jsou poskytovány jako externí služba, se také zatím často mění licenční podmínky. Data mnohdy zůstávají uložena na serverech poskytovatele a nemusíme vědět o jejich dalším využití.
Jednou z možností, jak riziko zneužití dat omezit, je data anonymizovat odstraněním či maskováním všech osobních nebo citlivých údajů. Ani takto očištěná data vám ale nezaručí stoprocentní ochranu. Studie ukazují, že algoritmy dokážou rozeznat totožnost jedince, i pokud byla data anonymizována. Nástroje tak mohou minimálně tušit, jaký problém momentálně v organizaci řešíte, takže například vaše nová strategie už nemusí být tak „tajná“.
Bez kvalitních dat nečekejte kvalitní výstupy
Všichni, kdo s AI pracují, si musí být vědomi toho, že nepoužívají finální produkt, ale nástroj, který svým způsobem sami trénují a vyvíjejí. Výstupy jsou pouze tak kvalitní, jak kvalitní byly vstupy, proto je nezbytné poskytovat modelu AI kvalitní data.
V KPMG jsme proto například zpřístupnili všem našim zaměstnancům školení o generativní umělé inteligenci v rámci našeho programu Digital and Data Foundations. Tento program poskytuje přehled o vývoji umělé inteligence a o tom, jak s její pomocí vytvářet důvěryhodný obsah. Zvažte, zda podobné školení nezprostředkovat i svým zaměstnancům.
Kyberbezpečnost
Kyberzločinci mohou generativní AI zneužít například pro tvorbu uvěřitelnějších phishingových útoků nebo generování přístupových údajů, kterými snadno proniknou do vašich systémů. Dalším rizikem je tzv. otrava dat, kdy lidé danému nástroji cíleně podsouvají nepravé či škodlivé informace a kazí tak výstupy vytvořené AI.
I na tato rizika se lze připravit a předejít jim např. nastavením obecně platných směrnic pro práci s umělou inteligencí vytvořených na míru nástroji, pro který se rozhodnete.
Poskytnutí zavádějících informací
Vzhledem k tomu, že generativní modely potřebují ke svému natrénování enormní množství dat, musí nutně vycházet i z dat, která nejsou z tak kvalitních zdrojů nebo je neposkytli dostatečně kvalifikovaní uživatelé. Při školení v oblasti AI zdůrazňujte svým zaměstnancům zejména na to, aby veškerý takto vytvořený obsah pečlivě kontrolovali. Předejdete tak sdílení nepravdivých nebo nepřesných informací, které by mohly poškodit důvěryhodnost vaší organizace.
Ohlídejte si data governance
Data governance hraje zásadní roli při zajišťování etického, bezpečného a odpovědného využívání dat v rámci systémů umělé inteligence. Pokud chcete využívat vlastní modely AI, neopomeňte efektivní data governance.
Začněte sestavením specializovaného týmu, který bude za data zodpovídat. Měl by zahrnovat zástupce různých oddělení (například IT, právního oddělení, compliance a dalších).
Autorská práva a duševní vlastnictví
Komu patří obsah, který prošel skrz generativní umělou inteligenci? Zatím neexistuje jednoznačná odpověď. Záleží na mnoha faktorech, jako jsou například pravidla a obecné podmínky nástroje, který využíváte, nebo jak s vygenerovaným obsahem dále naložíte. Je také těžké definovat, jak moc byste text museli upravit, abyste ho mohli prohlásit za svůj.
Pokud budete vámi používané modely generativní AI trénovat na základě svých originálních dat, která nejsou chráněna autorskými právy, výrazně tak snížíte riziko jejich porušení.
Modely umělé inteligence mohou výrazně zvýšit naši produktivitu, zároveň nás ale dělají zranitelnějšími. Proto je nezbytné mít jistotu, že tato technologie funguje správně a generuje pro vás ta nejlepší řešení. Ověřte si, že je tomu tak i ve vaší firmě, díky naší službě Responsible AI.
KPMG letos v rámci online průzkumu oslovilo 300 zástupců velkých světových společností (obrat jedna miliarda dolarů a více), aby získala jejich pohled na generativní umělou inteligenci. Oslovené firmy se lišily jednak svým druhem a odvětvím, ale i trhem, na kterém působí. První průzkum proběhl v březnu 2023, krátce poté, co svět zahltil Chat GPT. V červnu tohoto roku vyzpovídalo KPMG americké lídry znovu a zjistilo tak, jak se jejich pohled na generativní modely AI změnil. Celý průzkum najdete tady.