AI: un aiuto, ma anche un nuovo rischio per la Cybersecurity

AI: un aiuto, ma anche un nuovo rischio per la Cybersecurity

AI: un aiuto, ma anche un nuovo rischio per la Cybersecurity

Tra gli addetti ai lavori della cybersecurity si guarda con sempre maggiore interesse alle evoluzioni dell’Intelligenza Artificiale (AI) e del machine learning. Secondo una recente indagine[1] su 400 professionisti USA della sicurezza, il 99% degli intervistati ritiene che l’ AI contribuirà nei prossimi anni a migliorare la sicurezza informatica delle proprie organizzazioni. E nell’87% dei casi, le loro organizzazioni stanno già utilizzando l’AI nell’ambito della strategia di cybersecurity.
Ad oggi, AI e apprendimento automatico sono utilizzati per riconoscere malware mai incontrati in precedenza, individuare e bloccare comportamenti sospetti degli utenti, rilevare traffico di rete anomalo. Sempre secondo la ricerca, l’82% degli intervistati ha dichiarato che grazie all’AI è oggi possibile individuare minacce che altrimenti passerebbero inosservate. Ma capire quali sono i problemi è solo un primo step di un programma completo di sicurezza: in realtà, strumenti automatici e intelligenti aiutano oggi anche a suggerire azioni di risposta, come re-imaging dei server o isolare segmenti di rete, e possono persino effettuare in automatico azioni di riparazione. Inoltre, l’AI è d’aiuto nel raccogliere ed analizzare dati forensi, scansire software e infrastrutture alla ricerca di vulnerabilità, individuare punti deboli ed errori di configurazione, rendere più potenti e più facili da usare gli strumenti di sicurezza tradizionali, imparare dall’esperienza per adattarsi rapidamente alle condizioni mutevoli.AI

Soprattutto nei data center, dove asset virtuali e fisici sono in continua crescita, e dove le persone fanno fatica a tenere il passo con gli enormi volumi di informazioni e di log prodotti ogni giorno, dove la configurazione delle macchine, per poter offrire servizi on demand, è estremamente dinamica, è evidente che senza l’aiuto dell’AI diventa quasi impossibile tenere il passo con il continuo ampliamento della superfice d’attacco.

Per tutti questi motivi, aspetti AI e machine learning sono sempre più spesso componenti preziose aggiunte dai vendor di cybersecurity ai propri prodotti.

Ma d’altro canto, l’intelligenza artificiale può anche avere un utilizzo malevolo, può altrettanto bene essere sfruttata da attaccanti molto competenti per incrementare la propria probabilità di successo negli attacchi cyber.

Come riporta il Report “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation” di febbraio 2018, risultato di un lavoro di ricerca che ha visto il contributo di primarie Istituzioni a livello mondiale (Università di Oxford e Cambridge, Electronic Frontier Foundation, OpenAI, ecc.), con la crescita delle capacità dell’AI e un suo utilizzo sempre più diffuso potremo osservare preoccupanti evoluzioni dello scenario delle minacce cyber globale:

  • Espansione delle minacce. Il costo degli attacchi potrà essere ridotto con un utilizzo scalabile nel tempo di strumenti AI in grado di completare compiti al posto di esperti umani. Gli effetti di questo trend saranno: un maggior numero di attori che potrà portare a termine specifici attacchi; una maggiore velocità nella conduzione dell’attacco; la possibilità di rivolgere gli attacchi a un maggior numero di diversi target.
  • Arrivo di nuove minacce. Nuovi attacchi potranno derivare dalla capacità dei sistemi di intelligenza artificiale di portare a termine compiti che sarebbero altrimenti impossibili per l’uomo. Inoltre, bisognerà anche considerare che i sistemi AI utilizzati per scopi benevoli, ad esempio difensivi (della stessa cybersecurity), potranno avere delle vulnerabilità, ed essere quindi presi di mira da malintenzionati in grado di aggirarli.
  • Modifiche alle caratteristiche tipiche delle minacce. In definitiva, è molto probabile che i nuovi attacchi, sfruttando le capacità AI, saranno diversi rispetto agli attuali: più efficaci, più focalizzati, più difficili da attribuire, in grado di sfruttare le vulnerabilità dei sistemi AI.

Già analizzando le odierne soluzioni AI, possiamo dedurre che contengono una serie di vulnerabilità non risolte: è già possibile far sbagliare un sistema di machine learning dandogli in input dati sbagliati o esempi contraddittori (input progettati per essere classificati in modo errato dai sistemi di apprendimento automatico); così come è possibile sfruttare difetti nella progettazione di sistemi autonomi.

Queste vulnerabilità sono diverse dalle tradizionali vulnerabilità del software (es. buffer overflow) e dimostrano che, anche se i sistemi AI possono superare le prestazioni umane in molti modi, possono anche fallire in modi completamente diversi da quelli di un essere umano.

La ricerca prefigura vari scenari di utilizzo malevolo dell’AI:

  • Sistemi commerciali sono utilizzati in modi dannosi e non intenzionali, come l’utilizzo di droni o veicoli autonomi per consegnare esplosivi e causare incidenti.

Drone

  • Aumento della scala di attacchi. Una persona che lancia un attacco con molti droni autonomi armati.
  • Attacchi a sciami. Reti distribuite di sistemi robotici autonomi, che cooperano a velocità macchina, fornendo sorveglianza ubiqua in grado di monitorare vaste aree, con la capacità di eseguire attacchi rapidi e coordinati.
  • Denial-of-service. Imitando un comportamento umano (ad esempio una navigazione Web), un gran numero di agent virtuali e autonomi può mettere in crisi un servizio online, impedendo l’accesso allo stesso da parte di utenti legittimi.
  • Utilizzo di capacità di apprendimento automatico e di grandi data set di informazioni per identificare le vittime in modo più efficiente, ad esempio stimandone anche la ricchezza e la capacità di pagare in base al comportamento online.

 

In risposta a questa evoluzione del panorama delle minacce, nel Report sono formulate quattro raccomandazioni di alto livello:

  1. I Policymaker dovrebbero collaborare strettamente con i ricercatori per indagare, prevenire e mitigare i potenziali usi dannosi dell’AI.
  2. Ricercatori e ingegneri dell’intelligenza artificiale dovrebbero prendere sul serio queste considerazioni sull’uso sia benevolo sia malevolo dei loro sviluppi, permettendo di definire le priorità di ricerca anche su possibili cattivi utilizzi dei risultati, e comunicando in modo proattivo agli attori interessati quali potrebbero essere le applicazioni nocive.
  3. Bisognerebbe identificare le best practices che derivano da aree di ricerca più mature per affrontare e risolvere i problemi che derivano dal duplice uso, come avviene nel caso della sicurezza dei computer, in modo da tenerne conto per gli sviluppi AI.
  4. Cercare di ampliare il numero di stakeholder ed esperti di dominio coinvolti nella discussione in corso su queste sfide.

A cura di:

Elena Vaciago, @evaciago

AI

 

Accedi alla Ricerca “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation” di febbraio 2018.

[1] Game Changers: AI and Machine Learning in Cybersecurity, Wakefield Research e Webroot, Dic 2017