skip to Main Content

Cybersecurity, l’Intelligenza artificiale si conferma arma sia contro il cybercrime sia a vantaggio

di Pierguido Iezzi

L’IA/AI offre grandi potenziali alle nostre società e aziende, ma presenta altrettanti pericoli

Con l’emergere dell’intelligenza artificiale (IA) nel discorso pubblico mainstream, si rafforzano anche le voci di disinformazione e confusione su cosa sia capace di fare e sui potenziali rischi che pone.  Il lascito culturale di decenni di letteratura e cinematografia ha raffigurato visioni distopiche della rovina umana ai piedi di macchine onniscienti. D’altro canto, la maggioranza delle persone comprende il potenziale positivo dell’AI, capace di velocizzare e favorire l’evoluzione della nostra società. Anche se i sistemi informatici possono imparare, ragionare e agire, questi comportamenti sono ancora in fase embrionale. L’apprendimento delle macchine (Machine Learning, spesso abbreviato più semplicemente con ML) ha bisogno di enormi quantità di dati anche solo per il mero training, tradotto in allenamento o addestramento a seconda della funzione che si attribuisce all’Intelligenza Artificiale. Consentire all’AI di accedere alle informazioni e lasciare a essa totale autonomia comporta quindi seri rischi che devono essere presi in considerazione.

I rischi derivati dall’Intelligenza Artificiale

Il primo rischio posto dall’Intelligenza Artificiale è indissolubilmente legato alla sua creazione. La mano umana porta con sé l’atavica tara dell’errore. L’accidental bias, o più semplicemente un errore del programmatore o nei dataset, può generare una serie di innumerevoli errori da parte dell’IA.  Una progettazione errata dell’intelligenza artificiale può anche portare a un sovra o sottodimensionamento del sistema computazionale, con l’effetto di portare la macchina a prendere decisioni inutilmente complesse o portarla allo stallo. Prevedere sistemi di controllo, quale ad esempio la supervisione umana, e testare rigorosamente i sistemi di intelligenza artificiale può mitigare questi rischi durante la fase di progettazione. Le capacità decisionali dei sistemi di calcolo devono essere misurate e valutate per confermare che eventuali pregiudizi o decisioni discutibili vengano affrontati rapidamente e, ove necessario, corretti. Sebbene i rischi finora descritti si basino su errori involontari e su falle nella progettazione e nell’implementazione, un diverso insieme di minacce può emergere qualora una persona o un’organizzazione cerchino intenzionalmente di sfruttare i sistemi IA a loro vantaggio, come se fossero un’arma per un delitto.

Gli attori del cybercrime possono “ingannare” l’AI/IA più facilmente di quanto si pensi, e “addestrarla” per usarla a loro vantaggio

Ingannare un sistema di AI può essere sorprendentemente agevole.  Attori del cybercrime possono manipolare i set di dati offerti “in pasto” al computer per “addestrare” l’Intelligenza Artificiale, apportando anche minime modifiche ai parametri di controllo. Il tutto per guidarla nella direzione desiderata.  Con un altro approccio, qualora gli aggressori non riescano ad accedere ai set di dati, si potrebbero sfruttare tecniche di tampering per forzare errori computazionali da parte dell’IA o per rendere difficile la corretta identificazione dei dataset. Anche se il controllo dell’accuratezza dei dati e degli input potrebbe non essere possibile, anche solo per mere ragioni economiche, sarebbe auspicabile che gli operatori del settore facciano il massimo sforzo per raccogliere dati da fonti attendibili e verificate. Fra le possibili contromisure difensive dinanzi a eventuali tentativi di manomissione, va ricordata l’aggiunta di funzionalità di isolamento di alcuni rami o degli interi sistemi di IA con meccanismi di prevenzione automatici.

L’Intelligenza Artificiale può anche diventare un’arma molto potente

I criminali informatici possono anche utilizzare l’IA per rendere più efficaci ed efficienti le loro strategie di attacco o di ingegneria sociale. All’intelligenza artificiale possono essere forniti dataset sull’attività di hacking, al fine di studiare quale tecnica si sia rivelata più efficace. Tutte le strategie che i criminali informatici stanno attualmente impiegando potrebbero essere migliorate in modo incommensurabile utilizzando l’IA. L’altro potenziale campo di utilizzo dell’AI da parte delle organizzazioni criminali, sta nell’identificazione di nuove falle nel codice di software, app o siti. In questo caso, l’Intelligenza Artificiale fornirebbe Ai Criminal hacker un elenco di potenziali punti d’attacco, come un cane da tartufi ben addestrato.

Come sfruttare l’IA a favore della sicurezza aziendale e personale

L’IA può essere molto efficace nel monitoraggio della rete e nella sua analisi. Tali sistemi computazionali hanno rivelato una sorprendente abilità nella rilevazione di comportamenti “standard” e, di conseguenza, nell’identificazione di eventuali anomalie. Tale capacità potrebbe essere applicata, ad esempio, nell’analisi dei log di accesso ai server o al traffico dati. Rilevando le intrusioni in anticipo si ha una maggiore possibilità di limitare i danni. Inizialmente, può essere utile far sì che i sistemi di IA segnalino eventuali anomalie e avvisino i reparti IT aziendali per ulteriori accertamenti. L’IA continua il suo percorso di costante miglioramento, e non è da escludere che possa arrivare in un futuro prossimo ad avere la capacità di neutralizzare le minacce stesse ed evitare le intrusioni in tempo reale. A fronte delle innegabili mancanze in termini di cybersecurity di diversi settori pubblici e privati, l’IA può farsi carico di alcuni di questi oneri di vigilanza, così da consentire al personale qualificato (disponibile in numero limitato) di concentrarsi su problemi complessi.

L’IA porterà benefici alle aziende, soprattutto in termini di costi. Ciò, però, a patto che venga adottata una strategia di cybersecurity ad hoc

Con il costante impegno rivolto verso il taglio dei costi da parte delle aziende, l’Intelligenza Artificiale sta diventando sempre più interessante, prospettando così una non troppo lontana sostituzione degli addetti “fisici” alla cybersecurity. Tale trasformazione porterà innegabili vantaggi alle aziende, in termini di risultati ed efficienza della spesa. Ma gli operatori più ambiziosi e consapevoli del settore devono pianificare fin d’ora una strategia per mitigare il potenziale rischio di attacchi informatici tramite IA.

Back To Top