AI e Cybersecurity: un’arma a doppio taglio

AI e Cybersecurity: un’arma a doppio taglio

AI e Cybersecurity: un’arma a doppio taglio

L’AI sta dimostrando di essere un’arma potente nelle mani dei cyber criminali. Le evoluzioni di questa tecnologia sono rapidissime, e solo il futuro ci dirà in quali ambiti si affermerà maggiormente. Le normative, come l’AI Act, faticano a tenere il passo con la tecnologia. La sicurezza dell’AI è complessa, tra attacchi adversarial e allucinazioni, servirebbe un approccio rigoroso e un quadro etico chiaro per evitare che la tecnologia possa sfuggire al nostro controllo. Abbiamo affrontato il problema del giusto bilanciamento di AI e cybersecurity con Alessandro Curioni, Presidente di DI.GI. Academy, che su questi temi interverrà nel corso del Cybersecurity Summit 2025 di TIG, il prossimo 19 e 20 marzo a Milano.

TIG. L’intelligenza artificiale può essere utilizzata come arma dai cyber criminali. Parlando di minacce emergenti, quali sono gli attacchi AI-driven più preoccupanti che hai osservato finora?

Alessandro CurioniAlessandro Curioni. L’uso che fanno gli attaccanti, sfruttando l’AI per i propri attacchi, non è molto diverso da quello di qualsiasi altra azienda: si ottiene in sostanza, con questa tecnologia, un radicale miglioramento delle performance per tutta una serie di tecniche di attacco, dal phishing che è realizzato con una qualità molto più elevata, alla produzione di malware che viene invece accelerata. Un conto infatti è dover scrivere codice da zero, molto diverso revisionare codice già scritto dall’AI.

Allo stato attuale, si osservano già deepfake audio che dal punto di vista della difesa, sono indistinguibili dagli originali umani presi di mira. Tra l’altro, si stanno sviluppando filtri in grado di riconoscere i deepfake video, mentre per quelli audio non esistono al momento contromisure che non siano il buon senso delle persone di fronte a richieste particolari.

Guardando al futuro, molto dipenderà da quali saranno le performance dell’AI nei diversi contesti: così come le aziende ne stanno testando l’efficacia, gli attaccanti l’utilizzeranno sempre di più dove individueranno i risultati migliori. Mi aspetto ulteriori affinamenti, ad esempio, un utilizzo più spinto delle tecniche di social engineering o della generazione di codice. Così come c’è da aspettarsi una grande capacità dell’AI di individuare le vulnerabilità zero-day: sappiamo che con l’AI è possibile migliorare la code review e avere meno bug nel software, ma nel contempo, questa è un’arma a doppio taglio, che potrà avere utilizzi malevoli aiutando i criminali a individuare i bug prima che questi siano noti e siano stati quindi aggiornati i software. Anche nel campo dell’OSINT (open source intelligence) così come noi utilizziamo sempre di più l’AI per effettuare ricerche, anche gli attaccanti possono puntare a individuare più velocemente i target più vulnerabili.

TIG. Le normative europee come l’AI Act stanno andando nella giusta direzione? Nel bilanciare innovazione e sicurezza, e permettere l’avanzamento tecnologico tenendone sotto controllo i rischi?

Alessandro Curioni. Per definizione le norme non possono fare altro che inseguire gli sviluppi della tecnologia, di norme preventive non se ne sono mai viste. È un inseguimento piuttosto arduo, la tecnologia è in costante accelerazione, tutto avviene più velocemente, negli ultimi cinque anni siamo passati dalla blockchain al metaverso, oggi parliamo di intelligenza artificiale e già si prefigurano le sfide della computazione quantistica. Dove le norme possono aiutare è però nel dare i giusti indirizzi, che nel caso dell’AI sono più etici che cogenti. Purtroppo, siamo in un mercato globale, ogni Stato in questo momento sta producendo una legge per l’AI che più lo aggrada. Quindi ciascuno è nella situazione di rallentare o accelerare determinati sviluppi tecnologici. In Europa, ad esempio, l’AI Act pone diversi paletti agli sviluppi AI, mentre in Cina, dove esiste un regolamento sull’utilizzo sicuro dell’AI in territorio cinese, si afferma un concetto molto semplice: non importa quale AI o quale servizio AI-based si stia sviluppando, l’importante è che da un lato aderisca ai valori socialisti e dall’altro lato non siano prodotti contenuti o svolte attività che possano sovvertire l’ordine costituito. 

TIG. Come difendersi nell’era dell’AI? Cosa dovrebbero fare oggi le aziende per prepararsi a un futuro in cui AI e cybersecurity saranno strettamente intrecciate?

Alessandro Curioni. L’AI deve essere soggetta a controlli o regole di cybersecurity. Va trattata con i giusti accorgimenti come qualsiasi altra tecnologia, anzi, essendo molto più potente di tante altre tecnologie, a maggior ragione deve essere assoggettata a una rigorosa cybersecurity. In questi ultimi tempi abbiamo assistito ad attacchi informatici che prendevano di mira ChatGPT o DeepSeek e dobbiamo pensare che questa è solo la punta dell’iceberg. In più, l’AI ha di suo le allucinazioni. Da diversi anni sappiamo che è possibile congegnare “attacchi adversarial” all’AI che inducono comportamenti anomali di queste soluzioni.

È evidente che non sarà molto semplice mettere in sicurezza un sistema che di fatto comprendiamo solo in parte, che non siamo in grado di conoscere al suo livello più intimo. Abbiamo lo stesso problema con i fenomeni allucinatori, non sappiamo neanche perché avvengono. È terribilmente difficile immaginare tutte le possibili forme di attacco che l’AI può subire, oltre che gli errori che può commettere. Un Security by design per l’AI sarà veramente un’impresa. Non possiamo neanche immaginarci tutto questo, perché le stesse logiche di errore dell’AI sono diverse da quelle di un essere umano, essendo fondamentalmente statistiche.

Quindi, da dove partire? La premessa è il discorso etico, e qui va fatto un paragone. In altri casi, noi esseri umani abbiamo dimostrato di essere in grado di utilizzare intensamente la tecnologia prima ancora prima di conoscerla bene e di sapere tutto quello che ci può portare a fare. Il nucleare ci ha dato questa lezione straordinaria. Solo quando siamo arrivati in fondo abbiamo capito che alcuni problemi avevano superato la nostra possibilità di gestione, e così abbiamo decido di buttare via tutto. Il rischio che la storia si ripeta oggi c’è.