AI per la Cybersecurity, prospettive e raccomandazioni

AI per la Cybersecurity, prospettive e raccomandazioni

AI per la Cybersecurity, prospettive e raccomandazioni

In vista del Black Friday, Richard Horne, capo del National Cyber Security Centre (NCSC) del Regno Unito, ha avvisato che l’intelligenza artificiale sarebbe stata usata dai cyber criminali per ingannare gli acquirenti: “Siamo nel Black Fraud Day” ha detto Horne. Vestiti falsi o annunci di tecnologia di fascia alta sui social media sono stratagemmi comuni per ingannare le persone: chi è alla ricerca di sconti viene preso di mira con truffe sempre più sofisticate, sempre più spesso basate sull’intelligenza artificiale (AI).

L’osservazione di un utilizzo sempre maggiore di AI per scopi malevoli è un campanello d’allarme: dimostra che questa tecnologia è un’arma a doppio taglio, e che gli attaccanti già oggi la sfruttano, essendo diventata facile da reperire, per sviluppare tecniche sempre più sofisticate e aggressive.

Ad esempio, l’AI generativa (come ChatGPT o Gemini) è utilizzata per rendere più credibili le mail di phishing: migliora il linguaggio delle mail, facilitando le frodi con messaggi più convincenti. Sono nati servizi con AI generative specializzate per il cyber crime, come FraudGPT e WormGPT, addestrati appositamente per realizzare frodi. Una minaccia insidiosa è poi quella dei Deepfake, tecnica che impiega l’AI per creare identità sintetiche che riproducono, nella voce e nelle sembianze, persone reali.

L’intelligenza artificiale (AI) può però anche incrementare le capacità di difesa di infrastrutture e dati, di fatto è oggi l’evoluzione più promettente nel campo della cybersecurity. Da anni l’AI è infatti utilizzata per ottimizzare il rilevamento di attacchi informatici, per fornire una risposta più veloce ed efficace in caso di incidente informatico, per prevenire danni considerevoli come quelli originati dai ransomware. Quali sono i benefici dell’AI nella cybersecurity e quali i punti di attenzione nell’adozione? Il tema è stato al centro dei lavori della Sessione “AI E CYBERSECURITY” durante la mattinata del “Cybersecurity Summit 2024”, lo scorso 13 novembre a Roma: di seguito riportiamo i principali risultati emersi.

Approccio data driven per l’AI nella cybersecurity

L’addestramento degli algoritmi AI richiede grandi quantità di dati, che tipicamente sono già a disposizione di chi si occupa di protezione cyber e deve quotidianamente analizzare molteplici segnali per tenere sotto controllo infrastrutture e applicazioni aziendali. Di conseguenza gli algoritmi AI riescono, una volta ben contestualizzati, a rilevare rapidamente schemi e anomalie che possono indicare la presenza di un attaccante. In aggiunta, le capacità di machine learning aiutano a realizzare modelli predittivi che, uniti a informazioni di threat intelligence, possono aiutare a prevedere schemi di comportamento tipici dei cyber criminali.

Come ha detto Andrea Licciardi, Cybersecurity Manager Mba di Maire Group intervenendo al Summit: “Nel realizzare il Cyber Fusion Center di gruppo Maire, il primo step è stato dotarci di una struttura che basava tutte le attività di detection e response su un approccio data-driven. I dati devono essere analizzati in real time: è necessario poi orchestrare e automatizzare il tutto, anche in risposta all’elevato turnover e skill shortage. Nel nostro caso usiamo AI generativa per fornire una risposta veloce agli analisti, ma anche machine learning per identificare eventuali anomalie in near real time e poter intervenire tempestivamente. Tutte le tecnologie sono integrate e collegate all’AI, in sinergia tra loro. Come risultato, abbiamo ottenuto una riduzione del 98% degli incidenti gestiti dagli analisti ed è aumentato il tempo a disposizione delle persone, per formarsi e allenarsi”.

AI e cybersecurity

Attenzione a contestualizzare le tecnologie AI

“Nel percorso di innovazione di Roma Capitale non si poteva fare a meno di considerare tutte le opportunità offerte dall’AI anche a supporto della cybersecurity – ha detto Nicla Diomede, Direttore del Dipartimento Cybersecurity e Sicurezza di Roma Capitale  -. Abbiamo innovato le nostre capacità in ambito cyber con tecnologie basate sull’AI che coprono più ambiti, dalla gestione degli incidenti alla cyber thrat intelligence, all’individuazione di vulnerabilità collegate al perimetro esposto, all’incremento di una cultura orientata al rischio da parte dei dipendenti. È evidente però che non basta dotarsi di tecnologie, serve invece contestualizzare le soluzioni adottate”.

Bisogna ripensare i processi operativi e preparare il personale a utilizzare queste tecnologie. Nel percorso di adozione bisogna prestare attenzione agli aspetti della privacy, lavorando sulla politica di adozione dell’AI nell’ente: bisogna ripensare all’organizzazione in modo da avvantaggiarsi realmente alle opportunità, andando a ridurre possibili rischi connessi a eventuali falsi positivi. Inoltre, se queste tecnologie entrano a far parte del modus operandi quotidiano, bisognerà avere persone profondamente preparate a utilizzarle, quindi, con capacità critiche e di analisi, per evitare di “affidarsi troppo all’oracolo”. “C’è il rischio che i risultati dell’AI non siano più messi in dubbio – ha aggiunto Nicla Diomede -. Servirà una conoscenza tecnica profonda delle persone unita a un senso critico spiccato: elementi che ci consentono di selezionare e comprendere se quanto suggerito dagli strumenti è la risposta giusta ai nostri quesiti”.

AI e cybersecurity

Prepararsi per tempo per le nuove ondate tecnologiche

Anticipare i progetti innovativi e lavorare bene nella scelta dell’architettura dati, in cloud e on prem, è stata la raccomandazione di Nicola Sotira, Responsabile CERT di Poste Italiane: “Abbiamo cominciato nel 2018 a lavorare sull’architettura dati, o data fabric, realizzando un data lake on prem per rendere i dati consumabili dall’AI: oggi è migrato al cloud e anche questa attività ha richiesto i suoi tempi – ha detto Nicola Sotira -. Bisogna quindi iniziare presto i progetti per non essere travolti quando arriva l’ondata tecnologica”. Pensando ad esempio all’arrivo del quantum computing, nella cybersecurity la sfida sarà la Discovery degli asset crittografici, fondamentale per verificare la postura di cyber resilienza dell’organizzazione. “Questa progettualità richiederà dai 5 ai 7 anni per essere portata a termine: bisogna cominciare da subito per capire i passi da fare” ha aggiunto Nicola Sotira.

“Siamo a conoscenza del fatto che alcuni stanno immagazzinando grandi moli di dati cifrati in vista della disponibilità del quantum computing – ha detto Francesco Morelli, Head of Cyber & Information Security di Ferrovie dello Stato – Se al momento decifrarli con gli attuali algoritmi simmetrici richiederebbe 15 anni di tempo macchina, tra un anno, con la tecnologia quantistica disponibile, potrebbero bastare 15 minuti. Facciamo molta attenzione a questo punto, ricordandoci che la MFA è il primo presidio contro attacchi quantistici, perché protegge l’autenticazione con il secondo fattore”.

Mettere in sicurezza gli algoritmi AI in azienda

L’AI, sia sviluppata internamente, sia utilizzata as a service (come, ad esempio, i servizi di AI generativa online) sarà sempre più presente in azienda. Servirà quindi identificare un corretto bilanciamento tra le esigenze operative del business e un utilizzo dell’AI che risponda a opportuni requisiti di sicurezza. “Il percorso è già iniziato e non si potrà arrestarlo – ha detto Stefano Vincenti, Technology Security Director di Lottomatica –. Bisogna introdurre regole specifiche e puntuali, creando cultura nell’organizzazione per un utilizzo responsabile e corretto delle capacità AI. Noi oggi siamo nel pieno di questo processo, di creazione, implementazione, divulgazione e tuning di tutto l’impianto a supporto. Le nostre policy e procedure hanno come punto di riferimento le linee guida della “Top Ten Owasp”, che aiutano gestire e mitigare i rischi dovuti un utilizzo diffuso dell’AI, oltre a educare le persone a un corretto utilizzo”.

AI e cybersecurity

 

I rischi informatici dell’AI: le vulnerabilità del software AI

È importante conoscere le vulnerabilità del software AI e GenAI perché potranno essere sfruttate da attaccanti malevoli (Adversarial AI Attacks). Debolezze a livello di data model aprono alla possibilità che siano manipolati in modo subdolo gli input (i prompt o anche i dati di addestramento) per rendere lo strumento inaffidabile e per produrre output non corretti, con possibili conseguenze sui processi critici collegati. Accessi non autorizzati alle infrastrutture degli strumenti GenAI potrebbero invece rendere possibili esfiltrazioni o alterazione dei dati utilizzati nel modello o condivisi dagli utenti.

Un altro rischio è legato alla possibilità che il modello di machine learning o anche il LLM sia duplicato in modo non autorizzato, e che sia quindi utilizzato in modo malevolo dagli hacker per bypassarne la proprietà intellettuale o individuarne vulnerabilità, o per altri fini non leciti come la realizzazione di tool AI specifici per utilizzi fraudolenti.

I rischi dell’AI: gli attacchi AI-enabled

Abbiamo poi il tema degli attacchi AI-enabled, ossia delle capacità aggiuntive, oggi facilmente a disposizione degli attaccanti, che rendono più efficace la preparazione degli attacchi. Ad esempio, l’utilizzo della GenAI per mimare fonti affidabili nelle mail di phishing, nei post social o nelle chat interattive. O i miglioramenti delle attività di ricerca di informazioni sui target degli attacchi (Osint, ricerca di dati da fonti pubbliche). O ancora, l’utilizzo della GenAI per facilitare la creazione di malware molto sofisticato e specifico per singoli obiettivi, o per automatizzare i processi di identificazione e sfruttamento delle vulnerabilità nel software e nelle reti delle organizzazioni prese di mira.

È di quest’anno la notizia di specifiche campagne malevole che hanno avuto come obiettivo ChatGPT, con lo scopo di acquisire dati sensibili condivisi con la chat e quindi compromessi. Idem per i dati utilizzati per il training dello strumento. Oppure, siti realizzati ad hoc che “mimano” il funzionamento delle chatbot di GenAI, con nomi molto simili, per frodare gli utenti e per indirizzarli verso siti malevoli e fargli scaricare malware. O ancora, app web che gestiscono in modo non sicuro le chiavi API OpenAI.

Come rispondere a questi problemi?

Si sta sviluppando un’ampia dottrina su come indirizzare i rischi informatici dell’AI, misure tecniche e approcci metodologici che in larga parte ricalcano quelli classici della gestione dei rischi cyber. Come indicato da più parti, sarà prioritaria la sensibilizzazione delle persone a questi temi, la formazione dei dipendenti a rischi come i deepfake e a utilizzi appropriati delle chatbot di GenAI, oltre che l’upgrade delle competenze del team cyber.

A livello di contromisure tecniche, si diffonderanno sempre più gli strumenti AI-based, per rilevare attività sospette e rispondere rapidamente. Ad esempio, sono oggi indicate alcune best practice, come utilizzare tecniche di watermarking per identificare parti specifiche dei modelli, tracciarli e provarne la proprietà in caso di furto; o migliorare la robustezza dei modelli incorporando alcune attività malevole nell’addestramento, in modo che sia preparato a riconoscerle.

Servirà poi un monitoraggio continuo e aggiornato, atto a rilevare comportamenti insoliti che possono essere legati ad attacchi che utilizzano l’AI. Sempre più importanti anche le partnership e le collaborazioni esterne, per mantenersi aggiornati su tematiche in rapida evoluzione, per un adeguamento della postura di sicurezza in linea con i nuovi regolamenti sull’uso etico e sicuro dell’AI. Esercitazioni specifiche serviranno inoltre a simulare gli scenari di attacco AI-based.

L’importanza di un framework complessivo di AI Governance

Se nell’articolo abbiamo espresso le considerazioni che sono oggi più valide per chi si occupa di cybersecurity, non va però dimenticato che la Governance dell’AI sarà un tema molto più ampio, di cui la cybersecurity dell’AI è solo una parte. La mancanza di trasparenza delle black box AI o i rischi legati alla privacy sono problemi che non possono riguardare solo l’area IT e cyber, devono essere considerati in modo più ampio dalle aziende.

Le organizzazioni pubbliche e private, in risposta a requisiti normativi più stringenti (es. AI Act), dovranno quindi dotarsi di un ampio framework di AI Governance in modo da verificare di aver messo in piedi processi coerenti e regolati di:

  • sviluppo interno di sistemi AI
  • verifica dei sistemi AI di terzi
  • processi, ruoli e responsabilità nell’uso dell’AI
  • compliance alle norme (es. nell’ambito privacy e dei sistemi AI con impatto sulle persone)
  • trasparenza e spiegabilità dell’AI (Responsible AI)
  • verifica del funzionamento dell’AI
  • risk assessment, risk mitigation
  • data protection.

In conclusione

In conclusione, serve una profonda conoscenza della cybersecurity, dei suoi metodi e strumenti, oltre che delle norme da applicare, per garantire uno sviluppo e un utilizzo sicuro dell’intelligenza artificiale in molteplici campi, da quelli più critici (come può essere un sistema per prevenire le frodi) a quelli più banali (una chat che risponde su un sito di e-commerce alle domande dei clienti).

Il futuro della cybersecurity sarà sempre più legato alle evoluzioni dell’AI: man mano che le minacce informatiche evolveranno, diventando più sofisticate, le soluzioni basate su AI potranno apprendere dall’esperienza e continuare a progredire. Se da un lato l’AI offre strumenti potenti per rafforzare la difesa e automatizzare i processi di cybersecurity, dall’altro lato l’arrivo dell’AI comporta numerosi rischi. Tutti i nuovi sviluppi e i nuovi scenari dovranno avere l’uomo al centro, con il ruolo di governo complessivo.

A cura di:

Elena Vaciago, Research Manager di The Innovation Group

Riguarda tutti gli interventi della mattina dedicata al tema “AI e Cybersecurity” del Cybersecurity Summit 2024 dello scorso 13 novembre a Roma: