Umetna inteligenca (UI) hitro postaja ključno gonilo sprememb v organizacijah, saj preoblikuje poslovne modele, delovanje in procese odločanja. Od virtualnih asistentov in avtonomnih agentov do napovednih sistemov in optimizacijskih modelov UI pomaga preoblikovati ključne poslovne procese na področjih, kot so poslovanje, podpora strankam, človeški viri in trženje.
Nedavne raziskave, ki jih je vodila Univerza v Melbournu v sodelovanju s KPMG, kažejo, da se sprejemanje UI povečuje, vendar zaupanje ostaja ključni izziv, ki odraža napetost med koristmi in tveganji.
Vendar pa ta preobrazba prinaša nova tveganja. Hitro sprejemanje modelov umetne inteligence, zlasti avtonomnih agentov, ki sprejemajo odločitve ali komunicirajo s sistemi, uvaja nove vektorje napadov. Slabo konfiguriran agent ali agent, usposobljen za pristranske podatke, lahko sisteme izpostavi grožnjam ali sprejme odločitve, ki so v nasprotju z varnostnimi politikami organizacije.
Umetna inteligenca tudi okrepi tradicionalne grožnje in ranljivosti ter jih spremeni v manj predvidljiva in hitro rastoča tveganja. V tem kontekstu se pojavlja nov izziv: kako zagotoviti varnost sistemov umetne inteligence, hkrati pa umetno inteligenco uporabljati na specifičnih področjih, kot je sama kibernetska varnost. Poročilo KPMG o kibernetski varnosti za leto 2025 poudarja, da so temeljna načela kibernetske varnosti – kot sta vgrajeno zaupanje in prednosti vključevanja umetne inteligence v kibernetsko varnost in zasebnost – zdaj še pomembnejša.
Uspešno obvladovanje te dvojnosti – uporaba umetne inteligence za zaščito in hkrati zaščita pred tveganji, ki jih prinaša umetna inteligenca – naj bi bilo osrednji del sodobnih strategij kibernetske varnosti