La cybersecurity sarà profondamente influenzata dall’AI e dalla GenAI in tutti i suoi aspetti: già oggi gli attaccanti sono favoriti dalla possibilità di scrivere exploit rapidamente, e questo obbligherà in breve tempo a dover velocizzare molte attività, ad esempio, risolvere le vulnerabilità entro poche ore dalla loro identificazione. Le minacce avanzate richiedono una gestione del rischio cibernetico attenta: dobbiamo prepararci alle nuove capacità che l’AI acquisirà, concentrando i nostri sforzi sulla sovranità digitale e sull’etica nell’uso dei modelli linguistici di grandi dimensioni.
Come è stato discusso nel corso della sessione “Intelligenza Artificiale e Trasformazione Digitale per la Cybersicurezza Nazionale” del CYBERSECURITY SUMMIT 2024, lo scorso 29 febbraio a Milano, l’utilizzo dell’AI da parte degli attaccanti si articola in due ambiti: compromettere il funzionamento dell’AI e sfruttare l’AI per attacchi più efficaci. È essenziale monitorare entrambi gli ambiti, con particolare attenzione alle modifiche delle logiche di comportamento dell’AI e alla sofisticazione delle campagne di phishing. Il fenomeno dei deepfake rappresenta poi una sfida crescente. La capacità di identificazione in tempo reale diventa fondamentale, anche se le soluzioni di difesa devono ancora maturare. La collaborazione e la condivisione tra le parti interessate sono cruciali per affrontare questa crescente minaccia.
Cosa caratterizza l’attuale utilizzo dell’AI in cybersecurity
Per quanto riguarda l’utilizzo dell’AI nella cybersecurity, l’approccio attuale è ancora troppo parcellizzato e caratterizzato da silos di soluzioni autonome. Servirà un approccio più integrato, comune ed esteso, per migliorare la visibilità sulle minacce attuali e future.
“Ogni aspetto della cybersecurity sarà influenzato dalla GenAI – ha detto Huub Janssen, cybersecurity expert & entrepreneur, Dutch Authority on Digital Infrastructure, introducendo i lavori della sessione -. Istruzione, standard, politiche, infrastrutture: tutto dovrà cambiare nei prossimi anni. Ad esempio, la capacità di scrivere exploit molto rapidamente diventerà la norma. Non sarà più accettabile attendere giorni prima di applicare le patch per le vulnerabilità di tipo zero day; gli aggiornamenti dovranno essere implementati entro poche ore dall’identificazione della minaccia”.
Le minacce stanno diventando sempre più avanzate, e questo aspetto deve essere considerato nella gestione del rischio cibernetico. Le persone sono troppo vulnerabili e lente nel rilevare e rispondere alle minacce; pertanto, la protezione dovrà essere principalmente affidata all’AI. L’AI dovrà avere una serie di mandati per garantire una risposta rapida nella difesa. “L’AI presto acquisirà molte nuove capacità di cui al momento non abbiamo nemmeno immaginato l’esistenza, considerando gli ingenti investimenti che stanno affluendo verso questi sviluppi – ha concluso Huub Janssen -. Dobbiamo concentrarci sulla nostra sovranità digitale, che dovrebbe essere riaffermata in Europa. È importante comprendere che, se costruiamo l’AI basandoci su Large Language Models (LLM), dobbiamo essere consapevoli dell’etica che è implicita in questi modelli”.
Quali sono gli ambiti di utilizzo dell’AI che già oggi vediamo da parte degli attaccanti, che possono rappresentare un grave problema per le aziende.
“Quello che osserviamo può essere suddiviso in due ambiti – ha detto Massimo Cottafavi, Director Cyber Security & Resilience, Snam – attaccanti che cercano di compromettere il normale funzionamento dell’AI e attaccanti che utilizzano l’AI per essere più efficaci nei propri obiettivi. Entrambi gli ambiti richiedono una sorveglianza attenta. Per quanto riguarda il primo punto, sono particolarmente preoccupato per tutte le azioni che possono modificare le normali logiche di comportamento dell’AI, che vanno dal Data Poisoning alla capacità di alterare il funzionamento degli algoritmi in grado di prendere decisioni autonome. Questo è un tema di grande rilevanza per le società che gestiscono infrastrutture critiche, le quali stanno valutando la possibilità di rendere autonomi alcuni funzionamenti dei servizi essenziali, con conseguenti impatti diretti sulla loro disponibilità. È importante considerare questo aspetto nell’ottica della modifica dei processi di sviluppo, manutenzione e integrazione delle applicazioni, in quanto sono momenti essenziali in cui il funzionamento può essere compromesso.
Per quanto riguarda il secondo aspetto, cioè gli attaccanti che utilizzano l’AI per loro scopi, posso affermare che negli ultimi 6-8 mesi abbiamo assistito a campagne di phishing più sofisticate e mirate rispetto al passato. Le campagne sono ora redatte in modo impeccabile, senza errori linguistici o traduzioni inaccurate come avveniva in passato. Alcune campagne addirittura utilizzano lo slang interno alle organizzazioni. In questo contesto, il fattore umano diventa ancora più determinante: senza sistemi automatici in grado di intercettare questi attacchi, gli utenti diventano le prime linee di difesa, attive e proattive nel proteggere la propria organizzazione”.
Un ambito che richiede particolare attenzione è quello dei deepfake. Se alcuni anni fa era una frontiera emergente, oggi è diventato un dato di fatto e fa parte del mainstream. È motivo di preoccupazione, soprattutto per quanto riguarda la manipolazione della voce. Le soluzioni per difendersi sono ancora molto immature e il fattore tempo è critico nella difesa. In questo ambito, la capacità di identificazione in tempo reale sarebbe fondamentale.
CISOs4AI raggruppa Responsabili della cybersecurity con l’obiettivo di guidare la scelta dell’AI nel mondo della cybersecurity. “L’AI Act cerca di dare regolamentazione all’applicazione dell’AI, con un focus specifico sulla protezione dei dati – ha detto Andrea Licciardi, Senior Cybersecurity Manager, Tecnimont, Co-Founder CISOs4AI -: questo sarà sia una sfida sia un’opportunità. Quando andiamo a utilizzare e sviluppare applicazioni, dobbiamo cercare di lavorare su trasparenza e governance con specifiche linee guida, su aspetti di data protection. Dobbiamo cambiare il nostro approccio: nello sviluppo di app AI, dobbiamo prevedere concetti di proattività, andando a inserire un discorso di gestione del rischio. Quindi, come addestrare l’AI, quali dati fornire, come evitare allucinazioni e bias che potrebbero presentarsi. Basti ricordarsi che alcune GenAI inneggiano al nazismo, perché mancano appunto aspetti di trasparenza ed eticità. E’ importante poterle addestrare nel modo che vogliamo”. Bisogna applicare un approccio di data privacy e protection. Inoltre, altro discorso fondamentale: le norme non devono essere un freno all’innovazione.
Quali sono i nuovi rischi di sicurezza informatica originati dall’utilizzo dell’AI e della GenAI da parte degli attaccanti?
“L’impatto è multidimensionale – ha detto Maddalena Pellegrini, Manager South Europe di NetWitness -. Coinvolge aspetti sociali, manipolativi e si diffonde su larga scala. Anche con una conoscenza informatica minima, facendo domande molto aperte a ChatGPT, è possibile ottenere risultati persino malevoli. Le aziende stanno attualmente gareggiando nell’implementare strumenti AI per la rilevazione e la risposta agli incidenti, ma già ci sono tecniche che minano gli stessi algoritmi. Si parla di manipolazione della capacità di risposta e di capacità di bypassarli durante un attacco”.
Si tratta sempre di criminali che dispongono di tempo, denaro e risorse qualificate, mentre nelle aziende permane una carenza di personale esperto. I clienti faticano a trovare personale con skill nell’ambito della sicurezza informatica e in grado di sviluppare algoritmi per contrastare gli attacchi.
“Oggi stiamo lavorando su tecnologie più sofisticate – ha detto Maddalena Pellegrini -, ma il rischio principale è rappresentato dai malware adattivi, che si adeguano alla capacità di risposta delle tecnologie di difesa. È necessario un maggiore coordinamento, condivisione e collaborazione tra le parti interessate. È importante parlarsi più spesso e lavorare insieme, anche tra produttori della cybersecurity, per integrare meglio le soluzioni e rispondere efficacemente a questa minaccia sempre più pressante”.
Il tema dell’integrazione è di grande attualità: i silos nell’ambito della cybersecurity sono infatti molto diffusi. “Solitamente, la sicurezza è affrontata attraverso soluzioni verticali che rispondono a esigenze specifiche – ha detto Paolo Cecchi, Sales Director Mediterranean Region, SentinelOne -. Le aziende attualmente utilizzano molte soluzioni diverse, anche fino a 30 o 40 in alcuni casi all’interno di un’unica organizzazione. Questo fenomeno porta alla creazione di silos, in cui molte soluzioni operano autonomamente e comunicano solo con sé stesse o con un numero limitato di altre soluzioni, rendendo estremamente difficile una gestione unificata della sicurezza”.
Un rischio simile si presenta anche con l’AI. Ogni fornitore introduce sistemi AI che operano su singole soluzioni, dati, telemetria e log generati da quella specifica soluzione. Sebbene migliorino l’efficacia e la velocità delle analisi, rimangono separati: come possiamo farli comunicare tra di loro e quindi abbattere le barriere? “L’unico modo per farlo è facendo lavorare l’AI su una base dati comune e più estesa – ha detto Paolo Cecchi -. È per questo motivo che abbiamo introdotto un “security data lake” che integra telemetria, dati e log sia da SentinelOne sia da altre fonti esterne, costituendo la knowledge base su cui si basa il nostro sistema AI chiamato Purple AI. Per quanto riguarda il training, utilizziamo diversi sistemi LLM (Large Language Models). Piuttosto che addestrarli direttamente, forniamo loro le informazioni necessarie per svolgere le attività, le funzionalità e le capacità richieste. Questo approccio è estremamente potente, in quanto separa i due livelli: quello che l’AI è in grado di fare rispetto a quello che è il database sottostante. Più ampia e completa è la knowledge base, migliore sarà il sistema AI. Inoltre, una base dati comune e aperta consente di integrare sia le informazioni interne sia quelle di terze parti, migliorando la visibilità sulle minacce attuali e future”.
Come l’adozione dell’AI impatta il rischio cibernetico?
“Per quanto riguarda il rischio cibernetico e l’impatto sulle aziende derivante dall’adozione dell’AI, vedo due angoli fondamentali da considerare – ha detto Massimiliano Brugnoli, Senior Sales Engineer, Recorded Future -. In primo luogo, c’è il potenziamento delle capacità degli attori malevoli nel condurre attacchi sempre più rapidi e sofisticati, insieme alla riduzione della soglia di ingresso. Con l’avvento dell’AI, attori che in passato dovevano collaborare con altri ora possono abbattere le barriere di competenze e ampliare lo scenario delle minacce, portando a un aumento su vasta scala dei rischi cibernetici. Questi rischi diventano centrali nelle considerazioni operative, finanziarie, di conformità e di business, esacerbando la velocità e la portata degli stessi.
Dall’altro lato, c’è il rischio associato all’adozione dell’AI stessa, una tecnologia che presenta vulnerabilità e problematiche attualmente oggetto di ampio studio. Ad esempio, vi è il rischio di bias, la possibilità di manipolare il funzionamento del sistema: se un attaccante riesce a sovvertire il sistema, può eludere i controlli anche se non è conforme ai parametri impostati. Vi sono anche rischi legati agli errori di output basati su piccoli errori di input, nonché l’importanza della qualità dei dati di addestramento, poiché per l’AI vale il principio “garbage in – garbage out”. Inoltre, vi è la vulnerabilità relativa alla possibilità di estrarre dati di addestramento da un modello, con le conseguenti problematiche di privacy dei dati”.
Un’altra sfida è rappresentata dall’opacità: i modelli basati sul deep learning hanno architetture molto complesse e non è sempre possibile comprendere appieno ciò che accade al loro interno. Ciò solleva preoccupazioni nel momento in cui l’AI inizi a interagire con altre AI: rischiamo di perdere il controllo della situazione. Infine, vi è il rischio della non adozione “I threat actor non hanno vincoli normativi o geografici e ne fanno già ampio uso – ha detto Massimiliano Brugnoli -. Non adottare l’AI non è un’opzione, quindi è essenziale fare attenzione affinché le normative non ne limitino lo sviluppo. È importante promuovere un’adozione responsabile ed etica, senza però frenare lo sviluppo, altrimenti si rischi di creare un divario che potrebbe crescere in modo esponenziale e ostacolare il progresso”.
Quale utilizzo si fa oggi dell’AI/ML nella cybersecurity?
“L’AI esiste da molti anni, ma, come avvenuto in passato con l’avvento di internet, semplificarne l’interfaccia diventa il game changer – ha detto Nicola Sotira, Responsabile CERT, Poste Italiane -. Noi abbiamo iniziato a utilizzare gli algoritmi di machine learning per l’analisi della cybersecurity su grandi quantità di dati già nel 2018. Inizialmente, era ci serviva applicarla nella rilevazione delle anomalie e nella gestione delle vulnerabilità. Ad esempio, gestire le migliaia di CVE (Common Vulnerabilities and Exposures) che emergono ogni mese è diventato un processo inefficace. Lo abbiamo quindi automatizzato, riducendo il numero di vulnerabilità da affrontare a un numero gestibile, e concentrandoci poi sulle più critiche. Abbiamo quindi sviluppato algoritmi AI che ci forniscono informazioni open source e ci aiutano a identificare le vulnerabilità più critiche da risolvere immediatamente, e prioritizzare il resto per l’IT”. Questo ha portato a una maggiore efficienza e trasparenza nel processo di risoluzione delle vulnerabilità.
“Inoltre – ha aggiunto Nicola Sotira – abbiamo iniziato a creare algoritmi per monitorare i comportamenti delle terze parti, come richiesto dalle normative europee. Assegniamo punteggi dinamici alle terze parti e adottiamo azioni immediate in caso di problemi, come la chiusura delle connessioni con fornitori che presentano segnali su un possibile ransomware. Stiamo anche sfruttando l’AI per fare analisi predittive, identificando comportamenti anomali che potrebbero indicare attacchi imminenti. Infine, stiamo investendo nella formazione e nella sensibilizzazione alla sicurezza. Utilizziamo la “spinta gentile” (Nudge, o rinforzo positivo) per avvisare gli utenti in caso di potenziali minacce, come cliccare su link malevoli o avere comportamenti inappropriati con i dispositivi”.
Quali sono le lezioni che emergono da un lungo utilizzo dell’AI in cybersecurity, ad esempio, a support delle attività di detection and response? “Dal mio punto di vista, quello che servirebbe sarebbe smettere di pensare all’AI con un approccio “umano” e cominciare ad applicare le tecniche umane all’AI, ossia, utilizzare l’AI per ampliare il nostro modo di pensare – ha detto Greg Day, Global Field CISO, Cybereason -. Questa tecnologia ha infatti una capacità di avvicinarsi ai problemi che è completamente diversa da quella umana. Nella detection e response, abbiamo visto che è utile raccogliere tutti i parametri e metterli insieme, utilizzando diversi approcci ed algoritmi, per avere un migliore risultato. Un punto importante è quello dei dati che utilizziamo: gli attacchi spesso vanno avanti per lunghi periodi, i dati da utilizzare sono moltissimi, servirebbe normalizzarli, e avere degli industry standard per aggregare questi dati, come ad esempio il Mitre Attack framework. Senza una normalizzazione di questi dati, come possiamo utilizzare gli algoritmi AI in modo efficace? Inoltre, altro aspetto molto importante, se guardo a un attacco, questo arriva tipicamente ad avere oltre 140 di componenti. Quanti di questi mi dicono con sicurezza che sto effettivamente subendo l’attacco in questione? Dobbiamo arrivare al punto di poter dire di aver messo insieme tutti i pezzi che mi servono per arrivare alla conclusione corretta, in modo da rendere automatica la risposta”.
Come utilizzare poi l’AI/ML nella formazione di cybersecurity?
“Cyber Guru è stata fondata per colmare il divario nella consapevolezza e nella comprensione dell’importanza del fattore umano nella cybersecurity – ha detto Vittorio Bitteleri, Country Manager, Cyber Guru -. Naturalmente, abbiamo sviluppato tecnologie e servizi utilizzando ciò che il mercato ci offriva in quel momento. Attraverso l’adozione del machine learning, siamo riusciti ad automatizzare e adattare i nostri processi alle reali capacità di resistenza di ciascun dipendente. In passato, il phishing etico veniva eseguito una o due volte all’anno, oggi invece, grazie all’introduzione di queste tecnologie, siamo in grado di condurre attacchi adattivi o personalizzati anche settimanalmente. Gli attaccanti utilizzano le stesse tecnologie per creare attacchi molto sofisticati e convincenti; quindi, possiamo difenderci solo attraverso l’addestramento continuo e l’aumento della percezione del rischio nella popolazione aziendale. L’obiettivo finale della formazione è trasformare i comportamenti. L’automazione ci viene in soccorso, specialmente considerando la carenza di risorse umane nelle aziende: la tecnologia ci aiuta in sostanza ad automatizzare questi processi”. L’obiettivo ultimo è quindi fornire a ciascun dipendente il giusto contenuto e la giusta simulazione di phishing, basata sulle sue capacità di resilienza. Il sistema guida continuamente l’utente, allenandolo come farebbe un personal trainer in palestra, verso il giusto livello di consapevolezza.
Quali sono invece i punti da considerare nell’utilizzo dell’AI/ML nel settore delle infrastrutture critiche?
“Noi siamo nati nel 2016 con l’obiettivo di supportare le forze armate nello sviluppo di tecnologie per la cyber resilienza, estendendo successivamente il nostro ambito di azione al mondo civile delle infrastrutture critiche – Nicola Mugnato, Founder e Chief Technology Officer, Gyala -. Il nostro principale obiettivo è difendere e mantenere i servizi erogati, sia quelli informatici che fisici, durante e contro potenziali attacchi. Durante questi anni abbiamo sviluppato tecnologie cyber, ma nelle attività di detection e reaction abbiamo utilizzato solo alcune tipologie di algoritmi di intelligenza artificiale: Machine Learning (ML) e Reinforcement Learning (RL), agenti che apprendono attraverso meccanismi di feedback, assorbendo quindi competenze dagli operatori umani. Il nostro punto di vista è che, nel contesto delle infrastrutture critiche, non possiamo affidare la reazione ad un algoritmo casuale. Per quanto ben addestrato possa essere, non può conoscere la logica applicativa che sta difendendo e potrebbe quindi prendere decisioni che mettono a rischio la sicurezza delle persone. Utilizziamo l’AI principalmente come un sistema per attirare l’attenzione degli analisti e degli operatori su condizioni estremamente difficili da individuare in grandi quantità di dati, al fine di aiutarli a prendere decisioni appropriate”.
Una delle applicazioni più interessanti osservate è l’utilizzo di parte dell’AI per l’evasione dei metodi di difesa, piuttosto che per valutare le vulnerabilità delle infrastrutture. Questo, secondo Nicola Mugnato, ha evidenziato un’ampliata forbice tra le capacità di attacco e quelle di reazione: mentre l’attaccante può permettersi che il suo attacco fallisca, il difensore non può permettersi di sbagliare la reazione, di non rilevare un attacco o, ancora peggio, di rispondere in modo errato a un falso positivo.
È ora disponibile il video completo della sessione: