Skip to main content

      L'intelligenza artificiale sta rapidamente diventando un fattore abilitante fondamentale in tutte le organizzazioni, guidando la trasformazione dei modelli di business, delle operazioni e dei processi decisionali. Dagli assistenti virtuali agli agenti autonomi, dai sistemi predittivi ai modelli di ottimizzazione, l'intelligenza artificiale sta aiutando a rimodellare i processi aziendali principali in quattro aree principali: operations, customer service, HR e marketing.

      Un recente studio condotto da KPMG a livello globale rivela che l'adozione dell'AI è in aumento, ma la fiducia rimane una sfida critica, riflettendo una tensione tra benefici e rischi.

      Tuttavia, questa trasformazione comporta nuovi rischi. La rapida adozione di modelli di intelligenza artificiale, in particolare di agenti autonomi che prendono decisioni o interagiscono con i sistemi, introduce nuove possibili vie di attacco. Un agente mal configurato o addestrato su dati distorti può esporre i sistemi a minacce o prendere decisioni che vanno contro le politiche di sicurezza dell'organizzazione.

      Inoltre, l'intelligenza artificiale sta aumentando le minacce e le vulnerabilità tradizionali, trasformandole in un rischio meno prevedibile e in rapida crescita. Data questa situazione, si pone una nuova sfida, che affronta una dualità fondamentale: come garantire la sicurezza dei sistemi di AI in campi specifici, come la sicurezza informatica stessa, utilizzando anche l'AI? Come evidenziato dal rapporto KPMG, Cybersecurity considerations 2025, i principi fondamentali della sicurezza informatica sono, in questo scenario, ancora più critici.

      Navigare con successo in questa dualità sfruttando l'intelligenza artificiale dovrebbe essere fondamentale per le moderne strategie di cybersecurity.

      Rischi e minacce dell'AI

      La maggior parte delle soluzioni software ora dispone di intelligenza artificiale integrata, principalmente sotto forma di chatbot. Se da un lato questi possono aggiungere velocità e praticità, dall'altro possono rendere la vita estremamente complessa ai professionisti della sicurezza informatica.

      L'adozione sregolata dell'intelligenza artificiale può anche portare a un'esposizione incontrollata dei dati. Gli strumenti di intelligenza artificiale possono esporre dati riservati sull'organizzazione e sui suoi clienti, che potrebbero cadere nelle mani di terzi. Oltre ad aumentare la vulnerabilità degli attacchi, le lacune nella sicurezza dei dati possono anche violare le normative e portare a multe e perdita di fiducia degli stakeholder.

      Non dimentichiamo che l'intelligenza artificiale non viene utilizzata solo dalle organizzazioni per rafforzare la sicurezza informatica; anche i malintenzionati sfruttano questa tecnologia per eseguire attacchi. 

      L'intelligenza artificiale può migliorare la sicurezza informatica

      Poiché l'intelligenza artificiale ha il potenziale per accelerare e amplificare il rischio informatico, diventa essenziale investire e migliorare le soluzioni informatiche con strumenti di intelligenza artificiale in grado di eguagliare velocità, scalabilità e complessità delle minacce emergenti.

      Ecco come rafforzare la cybersecurity, promuovendo al contempo una maggiore efficienza e ritorno sull'investimento:


      • Rilevamento avanzato delle minacce attraverso l'analisi comportamentale:

        l'intelligenza artificiale analizza grandi quantità di dati per rilevare modelli e anomalie che possono indicare attività dannose. A differenza dei tradizionali sistemi basati su regole, è in grado di identificare in tempo reale le minacce sottili o precedentemente sconosciute, contribuendo a ridurre il tempo di permanenza degli aggressori e a prevenire i danni nelle prime fasi della catena di attacco.

      • Automazione della gestione delle identità e degli accessi:

        l'intelligenza artificiale migliora il controllo degli accessi valutando continuamente il comportamento degli utenti e delle entità non umane, regolando le autorizzazioni in modo dinamico in base al contesto e al rischio.

      • Risposta agli incidenti assistita dall'intelligenza artificiale:

        l'intelligenza artificiale aiuta le organizzazioni a dare priorità agli avvisi, a correlare i dati provenienti da più fonti e persino ad attivare azioni di contenimento automatizzate. 

      • Valutazione del rischio e della conformità di terze parti:

        l'intelligenza artificiale accelera la valutazione dei partner esterni esaminando documenti, certificazioni e comportamenti su larga scala. Aiuta a identificare rapidamente le lacune di conformità e i rischi per la sicurezza, semplificando la due diligence e riducendo l'esposizione alle vulnerabilità della supply chain.


      Ma in che modo le organizzazioni possono integrare intelligenza artificiale e cybersecurity?

      Tre step verso una sicurezza informatica abilitata dall'intelligenza artificiale

      • Step 1

        Occorre stabilire un framework di governance della sicurezza dell'AI che consenta ai Chief Information Security Officer (CISO) e ad altri leader di controllare quali modelli vengono adottati all'interno dell'azienda e da ciascuna soluzione software. In questo modo si evita di adottare troppi strumenti e tecnologie di automazione contemporaneamente e si aiutano a selezionare quelli più appropriati per le esigenze dell'organizzazione. L'approccio globale dei professionisti di KPMG si basa sul concetto di framework Trusted AI, che propone un framework di governance dell'AI basato su 10 pilastri, uno dei quali è la sicurezza. 

      • Step 2

        L'intelligenza artificiale non dovrebbe essere adottata in silos da diverse parti dell'organizzazione, poiché spesso crea duplicazioni e complessità. I professionisti della cybersecurity dovrebbero collaborare con i diversi team aziendali per adottare un framework di intelligenza artificiale aziendale. 

      • Step 3

        Per proteggere i dati da esposizioni involontarie bisogna creare barriere all'interno del framework di intelligenza artificiale. Utilizzando l'intelligenza artificiale aziendale, le organizzazioni possono sviluppare modelli personalizzati basati sui propri dati proprietari, piuttosto che fare affidamento sui dati pubblici. Questi consumano una potenza di elaborazione significativamente inferiore e forniscono risposte più affidabili, perché integrano set di dati privati e soluzioni tecniche interne.

      Un grande potere comporta una grande responsabilità

      L'intelligenza artificiale rappresenta un'opportunità senza precedenti per trasformare i processi aziendali e rafforzare le capacità di sicurezza informatica. Ma allo stesso tempo, introduce rischi complessi che non possono essere ignorati. Questa dualità richiede che le organizzazioni agiscano in modo responsabile, con quadri di governance adeguati, controlli tecnici, formazione continua e valutazione costante dei componenti dell'AI.

      Contatti

      Luca Boselli

      Partner, Head of Cyber & Tech Risk

      KPMG in Italy

      Carmelo Mariano

      Partner KPMG, AI Practice Leader

      KPMG in Italy