skip to Main Content

Sicurezza, HUMINT vs. Metaverso per rimanere umani

Il mondo virtuale, il terrorismo e la HUMINT

Nel Metaverso gli esseri umani trasformati in Avatar non solo interagiranno con analoghe figure in uno spazio 3D, ma potranno attuare autonomamente un comportamento quasi umano. Con i progressi dell’AI e, in particolare, del calcolo neuromorfico, l’Avatar sarà indistinguibile da un essere umano reale. Ma ciò pone alcuni interrogativi: come saranno realizzati i nuovi mondi virtuali, da chi e che impatto avranno sugli esseri umani? Sappiamo già che questi ambienti si prestano come potenziali luoghi di pianificazione e addestramento di terroristi (una simile attività è già avvenuta in Australia su un sito di videogiochi con l’impego di fucili AK47 e come reclutamento e gestione di fonti HUMINT (Human Intelligence – unica disciplina che fornisce precise indicazioni sulle intenzioni e sui piani segreti di avversari e competitor) per attività di spionaggio. Cerchiamo di capire meglio di cosa parliamo.

Il Metaverso

Al momento non esiste una specifica definizione di Metaverso, ma è possibile considerarlo come una comunità virtuale che consente a chiunque, ovunque egli sia, di connettersi e di comunicare, tramite dispositivi intelligenti, con altre persone e/o ambienti nei quali è possibile creare valore, produrre e condividere contenuti con chiunque. Il Metaverso può essere considerato come uno spazio virtuale tridimensionale (3D) in cui si può fare tutto ciò che è possibile realizzare con l’attuale Internet. In pratica si è completamente immersi (tramite VR-Realtà Virtuale/AR-Realtà Aumentata) in uno spazio virtuale in cui è riprodotto il mondo reale, con la possibilità di interagire in modo virtuale con gli altri – senza limiti di partecipazione simultanea degli utenti – una sorta di ZOOM (il servizio di videoconferenza dal vivo basato su cloud, grazie a cui le riunioni virtuali possono essere organizzate sia tramite audio-video sia utilizzando solo audio) allargato a tutto il mondo.

Il Metaverso renderà insufficienti gli attuali sistemi di sicurezza biometrici

Il Metaverso crescerà in modo esponenziale nei prossimi anni, ma gli individui, le aziende ed i consumatori della nuova realtà virtuale non sono ancora del tutto consapevoli dei potenziali rischi che si svilupperanno. Questa estesa simulazione offre un livello di interazione digitale molto più complesso e superiore di quello attuale e le nostre “vite digitali” si sposteranno sempre più dai computer ai telefoni cellulari o a singoli strumenti di interconnessione per collegarsi all’ambiente Metaverso.  Gli attuali sistemi di sicurezza biometrici, come ad esempio impronte digitali, iride, voce e riconoscimento facciale, non saranno più sufficienti per garantire la sicurezza di questo universo virtuale, perché nello stesso operano contemporaneamente molteplici altre tecnologie d’avanguardia. Fra queste soprattutto l’Intelligenza Artificiale (AI) affiancata dalle tecnologie di blockchain, cloud computing, 5G, rendering 3D (l’operazione compiuta da un disegnatore per simulare realisticamente un oggetto o un progetto architettonico partendo da un modello), tecnologia indossabile e robotica.

L’Intelligenza Artificiale

L’Intelligenza Artificiale (AI) è la capacità di un computer o di un robot – controllato da un computer – di eseguire compiti simili a quelli degli esseri umani e finora si è sviluppata – e continua a svilupparsi – cercando di riprodurre le funzioni del cervello umano. L’attività dei neuroni cerebrali, capaci di innescare e rispondere a una moltitudine di reazioni velocissime, crea schemi all’interno del cervello in cui si depositano le nostre conoscenze. Tali schemi vengono successivamente impiegati nel corso di attività che devono compiere, sia il nostro cervello sia il nostro corpo, per risolvere situazioni nuove, facendo raffronti con le esperienze passate. Gli esperti di AI hanno finora cercato di replicare questo processo utilizzando reti neurali artificiali (ANN- Artificial Neural Network), basate su un software che simula le funzioni del cervello umano.

La diffusione dell’informatica basata sulla tecnologia neuromorfica

Attualmente la situazione sta cambiando rapidamente con l’impiego della informatica neuromorfica, basata sulla ingegneria neuromorfica, nota anche come calcolo neuromorfico. Essa descrive l’uso di nuovi sistemi VLSI (Very Large Scale Integration) contenenti circuiti elettronici analogici, organizzati in modo da imitare le architetture neuro-biologiche presenti nel sistema nervoso umano). Questa non impiega più il linguaggio binario (0-1) per la programmazione dei computer, ma quello basato sulla tecnologia analogica (un oggetto riprodotto ha una forma che assomiglia o è analoga a quello reale. Un messaggio digitale invece rappresenta il contenuto in linguaggio simbolico binario composto da 1 e 0 con soluzioni in solo due stati: acceso-spento). Le tradizionali architetture a semiconduttore vengono riprogettate per imitare la struttura del cervello umano, combinando in un’unica unità elaborazione e memoria: la struttura neurale consente ai programmi informatici di riconoscere modelli e fornire soluzioni “analogiche”, poiché il nostro cervello, i nostri neuroni, non sono solo “accesi o spenti” ma comunicano tra loro con differenti livelli di attivazione e in base a questi livelli si possono classificare le informazioni e la loro importanza.

L’informatica neuromorfica e l’AI

Tale tipo di approccio è di notevole interesse nell’Intelligenza Artificiale. Si tratta di “neuroni artificiali” – tutti connessi tra loro – allo stesso modo di quanto avviene nel cervello. Come vere e proprie unità di elaborazione dotate di memoria propria, ogni “neurone artificiale” (MemResistor – dall’unione di memoria e resistore, teorizzato all’inizio degli anni 70 ma realizzato solo nel 2008, è un componente elettronico che cambia il suo stato in base all’intensità della corrente che lo attraversa e ricorda quel suo stato quando non c’è più corrente) riceve dati, li elabora e rilascia il risultato dell’elaborazione agli altri neuroni. Questa elaborazione viene trasferita a tutti gli altri neuroni e s’innesca un’elaborazione continua come accade nel nostro cervello. Secondo i ricercatori, il computer con questo processo “ragionerà” e “farà delle scelte”, traendole dalla grande quantità di dati grezzi che ha elaborato, pesando la valenza dei risultati.

Informatica neuromorfica, AI e Metaverso

Queste applicazioni stanno rendendo l’AI più veloce e migliore e se impiegate correttamente, realizzeranno apparati molto performanti. I sostenitori di questi sviluppi sostengono che potrebbero sostituire l’intelligenza generale a livello umano. La ricerca e l’utilizzo dell’AI nel Metaverso verrà basata su queste nuove teorie e gli attuali Avatar saranno ancora più somiglianti al gemello originale che ama essere creativo e progettare se stesso in un mondo virtuale, cambiando il colore dei capelli, lo stile di abbigliamento, ecc. L’AI, in tal modo, avrà la capacità di analizzare le immagini degli utenti o le scansioni 3D per creare Avatar molto realistici e accurati. Avatar che avranno la capacità di vedere e ascoltare gli utenti per capire cosa stanno dicendo, usando perfino il linguaggio del corpo per creare conversazioni e interazioni simili a quelle umane. Questi esseri digitali saranno dei chatbot 3D che possono reagire e rispondere alle azioni in un mondo VR (Realtà Virtuale) (Chatbot è un software che simula ed elabora le conversazioni umane – scritte o parlate – consentendo agli utenti di interagire con i dispositivi digitali come se stessero comunicando con una persona reale. I chatbot possono essere semplici, oppure sofisticati come gli assistenti digitali che apprendono e si evolvono per fornire livelli crescenti di prestazione. Una realizzazione simile è già attiva con “Gaia”, una realtà virtuale che è in grado di rispondere o chiamare i clienti di un’impresa 24 ore su 24, 7 giorni su 7, instaurando una comunicazione efficace, grazie alla sua sofisticata tecnologia conversazionale.

Tutti i limiti del machine learning

Sappiamo anche che uno dei fattori principali del machine learning e di AI è l’apprendimento mediante l’immissione di dati storici da cui vengono tratti gli output, sulla base dei quali si possono suggerire nuovi output. Più dati vengono inseriti nel modello, più gli output migliorano e questo sta convincendo i ricercatori che l’AI alla fine sarà in grado di comportarsi allo stesso modo degli esseri umani. Ma ancora non ci si è resi conto, nonostante gli effetti, che:

  • le tecnologie neuronali che “pesano” il tipo di informazione per dargli più o meno importanza in base alla quantità di informazioni simili ricevute (correlazione spaziale), hanno un’enorme difficoltà a riprodurre e stabilire la correlazione temporale tra i diversi segnali;
  • gli output forniscono risultati con notevoli differenze regionali, etniche e culturali in quanto non sono la realizzazione di un ente superiore e infallibile, ma il frutto di opzioni fatte da uomini per gli uomini;
  • l’intelligenza artificiale funge da amplificatore dei problemi di diseguaglianza sociale, alimentando le barriere cognitive tra coloro che comprendono la tecnologia e coloro che non la comprendono, tra chi sa come adattarsi o perfino cavalcare l’innovazione e chi resta indietro;
  • le “scelte umane” sono influenzate dai nostri valori morali per cui coloro che controllano i “Big Data” possono usarli per manipolare la consapevolezza delle persone o per indirizzarne le scelte.

Dietro alle macchine e agli algoritmi c’è comunque un essere umano

Tutto ciò dimostra che gli algoritmi non sono neutri perché basati solo sulla matematica, il cosiddetto “mathwashing” (Lavaggio della matematica, ovvero neutralità degli algoritmi), ma viziati da pregiudizi e discriminazioni, in quanto basati su statistiche storiche che non tengono conto delle variabili etico-sociali (“Da quando i matematici hanno invaso la teoria della relatività, io stesso non la capisco più. Finché le leggi della matematica si riferiscono alla realtà, non sono certe, e finché sono certe, non si riferiscono alla realtà”. Einstein). Chi progetta un algoritmo – che verrà poi eseguito dal computer – fa comunque delle scelte, volontariamente o involontariamente, sulla base dei suoi bias e stereotipi. L’algoritmo contiene opinioni umane strutturate in forma matematica, che ripropongono l’etnocentrismo culturale dei progettisti e/o le serie storiche prese come riferimento statistico, generando pseudo-relazioni di causa-effetto. Tali risultati consentono ai progettisti, alle aziende e alle organizzazioni di evitare la responsabilità e di nascondendosi dietro gli algoritmi. Effetti ben descritti da Trilussa nella sua poesia “La Statistica” (Sai ched’è la statistica? È na’ cosa che serve pe fà un conto in generale de la gente che nasce, che sta male, che more, che va in carcere e che sposa. Ma pè me la statistica curiosa è dove c’entra la percentuale, pè via che, lì, la media è sempre eguale puro co’ la persona bisognosa. Me spiego: da li conti che se fanno seconno le statistiche d’adesso risurta che te tocca un pollo all’anno: e, se nun entra nelle spese tue, t’entra ne la statistica lo stesso perch’è c’è un antro che ne magna due. Er compagno scompagno: Io che conosco bene l’idee tue so’ certo che quer pollo che te magni, se vengo giù, sarà diviso in due: mezzo a te, mezzo a me… Semo compagni. No, no – rispose er Gatto senza core – io non divido gnente co’ nessuno: fo er socialista quanno sto a diggiuno, ma quanno magno so’ conservatore).

La differenza tra decisioni e scelte

Stiamo attenti a non confondere “decisioni” con “scelte”, la differenza è fondamentale. Le “decisioni” entrano in gioco in situazioni che possono esser ricondotte ad un’attività computazionale (si occupa di adoperare i sistemi informatici per la risoluzione di problemi complessi, facendo uso di calcolatori) e quindi qualcosa che può essere programmato. Le “scelte” invece, sono implicite in situazioni che richiedono una profonda riflessione, sono compiute con il ricorso alla nostra storia, alla nostra educazione, al nostro sistema di valori. Una scelta non può essere ridotta ad algoritmo in quanto le funzioni umane richiedono giudizio, valore etico, rispetto e comprensione degli altri, cura e amore, sentimenti che non possono essere sostituiti dal computer.

L’etica e le macchine

Quando si compiono le scelte, l’essere umano qualifica le sue azioni scegliendo tra bene e male, coinvolgendo nella propria libertà di opzione quel senso di responsabilità che la nostra cultura occidentale chiama etica. L’etica è l’insieme di norme e di valori che regolano il comportamento dell’uomo in relazione agli altri, che permette all’uomo di giudicare i comportamenti, propri e altrui, rispetto al bene e al male. L’etica – caratteristica squisitamente umana – si fonda su misure non comuni delle doti morali, intellettuali e delle capacità dell’uomo. Anche il “machine learning” effettua opzioni su dei valori — ma sono valori numerici non valori etici. Se abbiamo progettato le macchine perché siano di supporto all’uomo non possiamo pretendere di sostituirle all’essere umano e se vogliamo che ciò non accada dobbiamo progettare algoritmi che tengano conto anche di valori etici e non solo numerici. Ovvero dobbiamo assicurarci che lo strumento progettato e realizzato, ad esempio, non produca discriminazione, non condizioni o danneggi gli utenti, non violi i diritti delle persone e ne preservi la privacy.

L’etica e il machine learning

Sia l’etica sia l’AI sono predittive: devono essere considerate come due processi di apprendimento, dotati di un approccio probabilistico e capace di adattamento veloce. L’etica serve a determinare che cosa è giusto ottenere con il cambiamento, mentre la tecnologia fornisce che cosa è possibile ottenere con l’innovazione. Il momento “clou” è quello in cui vengono progettate e programmate le macchine, è quello il momento in cui occorre dotare gli algoritmi anche di dati filosofici e sociali e non solo numerici. Questi dati sono il carburante del “machine learning” e del deep learning (reti neuronali per simulare il funzionamento del nostro cervello) e se non si associano ad essi valori etico-sociali si rischia di aprire la via alla dittatura dell’algoritmo e alla supremazia tecnologica delle poche persone, aziende e società che possiedono la tecnologia e gestiscono i dati. Senza un minimo di regole e di controllo finisce che ognuno fa tutto ciò che vuole (https://aspeniaonline.it/fra-etica-e-algoritmi/).

I rischi per la sicurezza derivati dall’Intelligenza Artificiale e dalla realtà virtuale

Di conseguenza le domande che ci poniamo sono: quali saranno gli ulteriori impatti futuri? Come saremo in grado di distinguere se gli utenti interagiranno con altri esseri umani e non con l’AI? Come saremo in grado di identificare i deep fake? Come si svilupperanno la frode e la deception nel Metaverso? Alcuni prevedono che l’accelerazione dello sviluppo tecnologico porterà a una situazione in cui l’intelligenza artificiale sostituirà quella umana e alla fine sfuggirà al nostro controllo. Altri prevedono conseguenze catastrofiche per l’umanità in cui le macchine diventeranno la specie dominante su questo pianeta. A prescindere dalle esagerazioni non è tutto così semplice e scontato perché questa nuova realtà virtuale offrirà nuove possibilità di minacce alla sicurezza ancora più sofisticate ed avanzate di quelle che attualmente viviamo su Internet. Saranno messe a rischio tante attività, dalla formazione, al processo decisionale, dagli eventi culturali, alle teleoperazioni, dai pagamenti on line alle nuove opportunità economiche, dalle carte di credito, alla massiccia violazione dei dati personali, dalle discordanze alla conflittualità.

La tecnologia imporrà di rivedere gli attuali modelli di sicurezza

Tutto ciò nella considerazione che a causa degli elevati costi per lo sviluppo di AR (Realtà Aumentata), VR (Realtà Virtuale) e MR (Realtà Mista), è necessario realizzare molti sistemi tramite piattaforme open source per ridurre le spese. Esiste perciò la possibilità di ottenere da tali piattaforme software di base attraverso i quali terzi – con intenti dannosi/criminosi – avranno l’accesso ad informazioni sensibili. I ricercatori dell’Università di New Haven, nel Connecticut, hanno scoperto che non c’è alcun ostacolo – per un utente con scopi devianti o criminali – che possa impedirgli di cambiare ciò che è stato realizzato nella realtà virtuale. Per proteggersi da violazioni di dati, frodi, malware dannosi, ecc., saranno necessari nuovi e più accurati sistemi di sicurezza. Inoltre, tutte queste innovazioni avranno certamente anche implicazioni sulla Sicurezza Nazionale, rischi che rendono necessario coniugare lo sviluppo della AI con una stretta regolamentazione. Un primo esempio di quanto è possibile fare è già stato realizzato nel recente conflitto Russia-Ucraina (Limes n. 04 aprile 2022- Il caso Putin- “La prima guerra del Metaverso” di Zhan Shi).

L’unica soluzione per mantenere il controllo della sicurezza è la HUMINT

È questo il campo in cui sarà ancor più necessario fare affidamento sulla HUMINT, per comprendere che esistono aspetti cognitivi che, trasferiti nel Metaverso, possono fare innumerevoli “vittime”, con risvolti svantaggiosi di natura sociale, economica, politica e militare. Le stesse performances che rendono questa realtà virtuale rivoluzionaria la rendono anche molto pericolosa. In particolare l’impiego della realtà aumentata e della realtà virtuale – aumenta esponenzialmente gli attuali rischi che corriamo con Internet, anzi il realismo che sarà realizzato le renderà più affascinanti e coinvolgenti, ma più viscerali e dannose tali da dissolvere le nostre capacità difensive. Se vogliamo rimanere umani sarà proprio la nostra capacità di scegliere e di applicare la HUMINT a tutela della sicurezza Nazionale, che ci proteggerà e che ci distinguerà dalle macchine anche se saranno “artificialmente intelligenti”.

Gli Indomabili

Gli Autori

Luciano Piacentini – Brevettato incursore, è stato Comandante di Unità Incursori nel grado di Tenente e Capitano. Assegnato allo Stato Maggiore dell’Esercito, ha in seguito comandato il Nono Battaglione d’Assalto Paracadutisti “Col Moschin” e successivamente ricoperto l’incarico di Capo di Stato Maggiore della Brigata Paracadutisti “Folgore”. Ha prestato la sua opera negli Organismi di Informazione e Sicurezza con incarichi in diverse aree del continente asiatico. E’ laureato in Scienze Strategiche e Scienze Politiche.

Claudio Masci – Ufficiale dei Carabinieri proveniente dall’Accademia Militare di Modena, dopo aver assunto il comando di una compagnia territoriale impegnata prevalentemente nel contrasto al crimine organizzato, è transitato negli organismi di informazione e sicurezza nazionali. Laureato in scienze politiche. Tra i suoi contributi L’intelligence tra conflitti e mediazione, Caucci Editore, Bari 2010 e The future of intelligence, 15 aprile 20122, Longitude, rivista mensile del MAECI.

Pino Bianchi – Architetto, esperto in risk management, organizzazione, reingegnerizzazione dei processi e sistemi di gestione aziendali. Per oltre venti anni ha diretto attività di business, marketing, comunicazione e organizzazione in imprese multinazionali americane ed europee. Consulente di direzione in ICT, marketing, comunicazione, business planning e project financing.

ANTIOCO – Ha maturato varie esperienze lavorative in Italia e all’estero occupandosi di consulenza direzionale, sviluppo di mercati, cooperazione internazionale e gestione commerciale per rilevanti realtà industriali. Da sempre attento ai temi della security, ha ricoperto in realtà strategiche nazionali vari ruoli di responsabilità occupandosi di business continuity, security strategic planning, security communication, ricerca e analisi informativa e corporate intelligence.

Francesco Bussoletti

Claudio Masci e Luciano Piacentini sono gli autori di: “The future of intelligence”, articolo del 15 aprile 2012, pubblicato su Longitude, rivista mensile del MAECI, nonché dei libri: “L’intelligence tra conflitti e mediazione”, Caucci Editore, Bari 2010 (esaurito) e di “Humint… questa sconosciuta (Funzione intelligence evergreen)”, acquistabile da Amazon.

Back To Top