AI Risk: come l’intelligenza artificiale sta trasformando la cybersecurity

AI Risk: come l’intelligenza artificiale sta trasformando la cybersecurity

AI Risk: come l’intelligenza artificiale sta trasformando la cybersecurity

L’intelligenza artificiale sta impattando rapidamente su molteplici attività: dallo sviluppo del software alla gestione dei dati fino al modo con cui le aziende affrontano le minacce informatiche. Insieme alle opportunità emergono però nuovi rischi, spesso difficili da governare con metodi tradizionali. Con Alessio Antolini, CISO di AMA, che parteciperà il prossimo 7 maggio come Cyber Coach al CISO PANEL ROMA di The Innovation Group (moderando il tavolo AI GOVERNANCE, AI RISK MANAGEMENT, AI COMPLIANCE), abbiamo analizzato il tema dell’AI Risk, puntando a comprendere come – alla ricerca di un nuovo equilibrio in una fase molto complessa – far evolvere modelli, processi e approcci alla sicurezza.

Alessio Antolini

Un aspetto prioritario è la necessità di riportare sotto controllo un fenomeno sempre più diffuso: la cosiddetta “shadow AI”. “Dall’analisi dei rischi emerge che occorre evitare un uso non controllato e non presidiato dell’intelligenza artificiale” sottolinea Alessio Antolini. Diverse aziende stanno già affrontando questo problema, consapevoli che l’adozione spontanea di strumenti AI da parte dei dipendenti può generare esposizioni significative, soprattutto in termini di dati e proprietà intellettuale.

Parallelamente, si sta affermando un’altra tendenza: l’automazione dello sviluppo software attraverso agenti intelligenti. Strumenti sempre più diffusi – messi a disposizione da grandi player tecnologici – consentono oggi di generare codice, progettare funzionalità e costruire interfacce in modo automatizzato. Tuttavia, questo paradigma introduce nuove superfici di rischio. “Bisogna evitare che queste attività automatizzate siano rese vulnerabili intrinsecamente nel momento in cui avvengono” osserva Alessio Antolini.

Il punto critico risiede nelle modalità con cui questi agenti sono “addestrati” o specializzati. Il loro funzionamento si basa infatti su elementi denominati skill, ovvero prompt complessi e dettagliati che guidano il modello nella produzione del codice. Proprio questa complessità rappresenta un potenziale punto debole: se non adeguatamente verificati, questi contenuti possono incorporare vulnerabilità, anche intenzionali. Il rischio, quindi, è che il processo di sviluppo sia “inquinato” a monte. “Se questi testi non sono controllati, possono nascondere modalità di sviluppo che introducono vulnerabilità note, magari inserite deliberatamente da qualcuno” dice Antolini. Un problema che ricorda da vicino quanto accaduto in passato con le estensioni per i browser: una proliferazione iniziale a cui ha fatto seguito la scoperta di numerose componenti malevole distribuite su larga scala. Un monito che vale oggi nell’era dell’intelligenza artificiale, con modelli, librerie e componenti spesso accessibili liberamente ma non sempre affidabili.

Un ulteriore elemento di rischio deriva dall’evoluzione stessa dei modelli AI. Alcune soluzioni di nuova generazione (pensiamo ad esempio al modello Mythos di Anthropic, tra l’altro emerso dal leak causato da un archivio interno lasciato accessibile per errore) stanno dimostrando capacità sorprendenti, come l’individuazione automatica di vulnerabilità anche in componenti software legacy. “Questi modelli sono stati in grado di trovare vulnerabilità in stack utilizzati da decenni, come quelli basati su sistemi Unix e Linux” evidenzia Antolini. Se da un lato questo apre scenari interessanti per la difesa, dall’altro solleva interrogativi rilevanti: queste capacità potrebbero essere sfruttate anche da attori malevoli. “Il problema è che si stanno creando strumenti estremamente potenti, che possono diventare vere e proprie armi nelle mani degli attaccanti”.

Le conseguenze sono già visibili. Il numero di vulnerabilità, in particolare quelle cosiddette zero-day, sta aumentando a un ritmo senza precedenti. “Se prima emergevano con cadenza mensile o settimanale, oggi proliferano quasi quotidianamente” dice Antolini. Un’accelerazione che mette in crisi gli approcci tradizionali basati su patching e mitigazione reattiva. “In uno scenario del genere, continuare a lavorare in modo reattivo diventa insostenibile: si rischia di passare la maggior parte del tempo a fare patching, senza riuscire a garantire il funzionamento dei sistemi”. Da qui nasce l’esigenza di un cambio di paradigma.

La cybersecurity è chiamata quindi a ripensarsi e ad evolvere ancora una volta. Dopo il passaggio da un modello reattivo a uno proattivo, oggi punta a un approccio predittivo. “Dobbiamo muoverci in anticipo, utilizzando logiche simili a quelle degli attaccanti, per valutare e prioritizzare le vulnerabilità in modo intelligente” dice Alessio Antolini. In questo contesto, anche pratiche già note come il threat hunting assumono una nuova dimensione. Se in passato erano attività prevalentemente umane, supportate da strumenti di analisi, oggi diventano sempre più automatizzate. “Non si tratta più solo di usare l’intelligenza artificiale come un microscopio per analizzare i dati, ma di affidarle un ruolo attivo: cercare, verificare e suggerire azioni, anche con capacità di prioritizzazione”.

Una trasformazione che apre nuove opportunità, ma anche nuove incognite. Perché se è vero che l’AI può aiutare a gestire la complessità, è altrettanto vero che introduce rischi sistemici che devono essere governati con attenzione. Il quadro che emerge è quello di un ecosistema in rapido mutamento, dove l’intelligenza artificiale non è solo uno strumento, ma un fattore che ridefinisce le regole del gioco. E in cui la gestione del rischio non può più limitarsi a rincorrere le minacce, ma deve anticiparle, comprenderle e integrarle in una visione strategica più ampia.

 

 Su questi temi,  Alessio Antolini, CISO di AMA, interverrà nel corso del CISO PANEL di TIG, il prossimo 7 maggio a Roma, un evento riservato ai CISO e ai responsabili cybersecurity. Scrivici per partecipare!

CISO PANEL ROMA