Le metamorfosi dell’hacker nell’orizzonte dinamico della cybersecurity

Bruce Scheier rilegge in un saggio la scena che ormai investe economia, finanza e società. Con un abstract: «Gli hacker AI del futuro»

Massimiliano CannataMassimiliano Cannata

La mente dell’hacker vive una metamorfosi simmetrica al cambiamento strutturale di reti e sistemi generato dalla rivoluzione digitale, che ha cambiato non solo il “gioco” del potere, ma anche, come ha rivelato molto bene Alessandro Baricco nel suo The Game, la stessa scacchiera entro cui quel gioco viene esercitato. Gli effetti delle trasformazioni sono in larga parte ancora tutti da misurare e comprendere, sentiremo i loro effetti per lungo tempo mentre cerchiamo di “trovare la falla…” per usare le parole di Bruce Scheier, considerato tra le personalità più influenti al mondo sui temi della cyber security.

L’attività hacking dettata dalla continua ricerca delle falle è ormai una vera e propria arte, che si sta allargando a macchia d’olio, investendo l’economia, la finanza, la società, non è più un affare per pochi smanettatori amanti del software. In coerenza con la necessitò di allargare lo spettro la trattazione del saggio tocca gli ambiti di pertinenza più ampi: il diritto, della politica, fino a investire i sistemi cognitivi e la frontiera dell’IA, che sarà il motore di sperimentazione per ulteriori metodi di hackeraggio da attuare in ogni angolo del pianeta. Per capire la portata del fenomeno dobbiamo considerare che siamo di fronte a dei “colletti bianchi” della tecnologia, che si muovono facendo squadra in tutti gli ambiti della vita sociale e produttiva.

A ben guardare la prospettiva di osservazione e di analisi scelta dall’autore non è quella individuale, legata alla visione di una mente sola, come il titolo potrebbe far pensare, piuttosto sono i meccanismi di funzionamento di una “mente collettiva” di cui bisogna osservare gli sviluppi, perché espressione di un paradigma destinato a connotare la società dell’informazione entro cui siamo tutti immersi.

Le falle del sistema

Potenzialmente l’hacker è capace di fare anche del bene, la sua intelligenza dei fenomeni, il suo intuito se ben indirizzata e guidato può essere usato per finalità positive. Il velato ottimismo che si respira nelle ultime pagine, nasce dalla natura ambivalente che ha da sempre avvolto di un “fascino” particolare questa figura che ormai domina le pagine dei giornali, influenzando il dibattito pubblico. Il punto nodale, su cui bisogna soffermarsi, sono le competenze, cioè la capacità di conoscere a fondo i meccanismi di funzionamento del digitale, che determinano la scelta oppositiva tra bene e male.

E’ duplice, infatti, la strada da percorrere: investire tutte le capacità di cui si è capaci per rafforzare la resilienza del sistema, o al contrario inserirsi nei “bug”, cha a ogni livello si creano, in quegli interstizi “aperti” al furto dei dati e delle informazioni, che servono a impossessarsi del nuovo petrolio, che sono le identità, con le storie professionali e biografiche che le caratterizzano. Impossessarsi del dato, divenuto un asset sociale, vuol dire arricchirsi a scapito delle imprese e dei cittadini, sottraendo ricchezza, limitando la sfera del bene comune, come sta avvenendo in “questa ultima fase del capitalismo”. Potere e tecnologia tendono ad allearsi, facendo leva sulle crescenti diseguaglianze che rendono le élite del “finanz-capitalismo” più forti della democrazia e degli stessi poteri di controllo su cui si regge.

Si possono cogliere risvolti molto delicati, andando a fondo della trattazione di Scheier, in cui si parla di valori come la fiducia messa a dura prova dal crimine informatico che agisce su vasta scala, si parla con preoccupazione di rischio esistenziale se consideriamo che tutto è hackerabile, lo dimostra il fatto che le reti produttive ma anche sociali si stanno trasformando in un campo di battaglia, sotto il perenne bersaglio di organizzazioni senza scrupoli.

La realtà aumentata e il “mondo 3” di Popper

Gli alert che giornalmente la Polizia Postale ma anche l’Agenzia per la Cybersicurezza Nazionale diffondono ci parlano di attacchi Ddos, di campagne offensive portate alle istituzioni, di manomissione di conti correnti dei privati cittadini, di operazioni sempre più diffuse di defacement dei siti web. Il camuffamento di identità che cambia faccia ai portali, è un’emblematica fenomenologia di modifica gli alfabeti della comunicazione, artefice del mescolando delle carte che alterano il “game” di Baricco, citato all’inizio.

La realtà aumentata nelle sue molteplici definizioni ci porta a popolare “mondi virtuali” ancora poco leggibili. Chissà Karl Popper, teorizzatore dei “tre mondi” dove avrebbe collocato l’infosfera, forse la avrebbe considerata come una propaggine del suo “mondo 3”, che è uno spazio di significato in cui verità e falsità convivono, fanno parte del nostro linguaggio che esprime contenuti e saperi, che la categoria del digitale oggi proietta in una categoria nuova, ibrida, entro cui oggetti fisici e immateriali fanno sono un tutt’uno. La mente dell’hacker agisce in questi confini porosi, rafforzando costantemente le capacità cognitive di lettura dell’innovazione.

In questa dinamica che vede l’innovazione come opportunità ma anche come rischio anche la resilienza assume una connotazione mutante, come la mente, plastica in virtù della sostanza neuronale che ne regola il funzionamento.

I ritmi dell’evoluzione proiettano ancora più avanti queste considerazioni. “Molto presto infatti – scrive l’autore nell’introduzione – i sistemi di AI scopriranno nuovi hack, e tutto cambierà. Fino a oggi, l’hacking era stato un contesto umano, con hacker umani e hack soggetti ai limiti degli esseri umani. Questi limiti stanno per essere superati. La AI non hackererà solo i nostri computer, ma anche i nostri governi, i nostri mercati, o perfino le nostre menti. Le AI hackereranno i sistemi con velocità e abilità impensabili per gli hacker umani”.

E’ bene soffermarsi su quest’ultimo passaggio: lo sviluppo della tecno-scienza impone risposte urgenti, siamo già oltre, non ci possono essere più intoppi nel percorso di crescita della conoscenza.

L’abstract - Gli hacker AI del futuro

Possiamo immaginare un hacking interamente affidato alla AI? Dipende dal sistema.

Perché una AI cominci anche solo a ottimizzare una soluzione, o addirittura a svilupparne una nuova, è necessario formalizzare tutte le norme di un ambiente in modo comprensibile da un computer. Bisogna stabilire determinati scopi, che nel gergo dell’intelligenza artificiale sono dette “funzioni-obiettivo”. La AI ha bisogno di una sorta di feedback sul suo operato per poter migliorare la propria performance. A volte è semplice. Pensiamo a un gioco come il Go. Regole, obiettivo e feedback – hai vinto o perso? – vengono specificati in modo preciso, e non c’è niente di esterno che possa creare confusione. La AI Gpt-3 può creare testi coerenti perché il suo “mondo” è fatto solo di testo. Ecco perché la maggior parte degli esempi di goal e reward hacking provengono da ambienti simulati.

Sono artificiali e limitati, e tutte le norme vengono specificate alla AI. Quel che conta è la quantità di ambiguità di un sistema. Possiamo immaginare di addestrare una AI con tutte le leggi fiscali del mondo, riconducibili a una serie di formule per determinare quante tasse bisogna pagare. Esiste perfino un linguaggio di programmazione, chiamato Catala, ottimizzato per scrivere le leggi. Ma la legge contiene comunque alcune ambiguità, che sono difficili da riprodurre in un codice: per la AI questo rappresenta un problema. Gli avvocati tributaristi non perderanno il lavoro tanto presto.

Gran parte dei sistemi umani sono perfino più ambigui. Difficile immaginare una AI in grado di inventarsi hack sportivi attuabili nel mondo reale come la curvatura dei bastoni da hockey. Una AI, per ideare una cosa del genere, non dovrebbe solo capire le regole del gioco, ma anche la fisiologia umana, l’aerodinamica di bastone e disco ecc. Non è impossibile, ma di certo è più difficile che inventare una nuova mossa per il gioco del Go.

L’ambiguità latente dei sistemi sociali complessi ci consente una difesa a breve termine contro l’hacking AI. La AI comincerà a inventare hack sportivi solo quando gli androidi cominceranno a praticarli, o quando verrà sviluppata una AI generale in grado di capire come si intersecano i diversi contesti del mondo reale. E lo stesso si può dire degli hack del gioco d’azzardo o del processo legislativo (una AI avrebbe potuto scoprire da sola il gerrymandering?). Passerà molto tempo prima che le AI possano simulare il modo in cui le persone lavorano, da sole e in gruppo, e riuscire pertanto a trovare nuovi modi per hackerare il processo legislativo. Ma per quanto il problema di un mondo pieno di hacker AI sia ancora fantascientifico, vale comunque la pena di prenderlo in considerazione.

Non è una stupidaggine. La AI sta progredendo a tutta velocità, con balzi sorprendenti e difficili da prevedere. Credevamo che alcuni progressi sarebbero stati facili, e invece tardano ad arrivare. Quando nei primi anni Ottanta andavo al college ci avevano detto che un computer non avrebbe mai imparato a giocare a Go: era troppo difficile, non tanto per una questione di regole, ma per l’enorme numero di mosse possibili. Oggi le AI sono invece in grado di giocare a Go a livello dei grandi maestri. Per questo, anche se le AI potranno diventare un vero problema solo in futuro, dobbiamo preoccuparcene già oggi. Dobbiamo cominciare a cercare soluzioni etiche, applicabili e comprensibili, e dobbiamo sbrigarci: l’unica cosa certa della AI è la sua capacità di essere sempre più rapida delle nostre attese.

Se vogliamo andare a caccia di hack generati dalla AI, il posto migliore per cominciare è probabilmente il sistema finanziario, in quanto le sue regole sono state pensate perché fossero gestite in modo algoritmico. Gli algoritmi per il trading ad alta frequenza hanno anticipato quanto vedremo in futuro in forma molto più sofisticata. Possiamo immaginare di fornire a una AI tutte le informazioni finanziarie del mondo in tempo reale, oltre a tutte le leggi e regole a livello globale, più vari news feed e qualunque altra cosa ci possa sembrare rilevante, per poi ordinarle di ottenere “il massimo profitto legalmente lecito” o perfino “il massimo profitto che ci permetta di farla franca”. Non penso che manchi molto a una cosa del genere, e di certo ne scaturiranno nuovi hack di ogni sorta e del tutto inattesi.

Probabilmente alcuni di loro andranno oltre le nostre possibilità di comprensione, e pertanto non saranno mai scoperti. Sul breve termine, è più probabile che vedremo hack realizzati in collaborazione da AI e umani. Una AI potrà identificare una vulnerabilità sfruttabile, per affidarla alle “cure” di un contabile o un fiscalista molto esperto.

L’hacking è quasi sempre stato un’attività del tutto umana. Per cercare nuovi hack servono esperienza, tempo, creatività e fortuna. Tutto cambierà quando saranno le AI a darsi all’hacking. Le AI non dovranno sottostare ai limiti degli esseri umani. Non avranno bisogno di dormire. Penseranno in modo del tutto alieno. E hackereranno i sistemi come non possiamo ancora nemmeno immaginare.

Come ho detto nel capitolo 55, i computer hanno dato una spinta all’hacking su quattro dimensioni: velocità, scala, portata e complessità. La AI non farà che confermare queste tendenze.

Punto primo, la velocità. A volte gli umani impiegano mesi o anni per effettuare un hack, ma in futuro per la stessa cosa potranno volerci solo pochi giorni, ore o perfino secondi. Che succederà quando addestreremo una AI con l’intero sistema fiscale e le chiederemo di trovare tutti i modi per pagare meno tasse possibili? E nel caso una multinazionale sia in grado di analizzare e ottimizzare i sistemi fiscali di tutto il mondo? Una AI sarà in grado di capire, senza che le venga fornito l’apposito prompt, che è più conveniente fissare la propria ragione sociale in Delaware e registrare le consegne a Panama? Quante vulnerabilità – loophole – che non conosciamo sarà in grado di scoprire? Decine? Centinaia? Migliaia? Non lo sappiamo assolutamente, ma è probabile che nel giro di dieci anni lo scopriremo.

Punto secondo, la scala. Quando i sistemi AI cominceranno a scoprire gli hack, li sfrutteranno a una scala per la quale non siamo pronti. Se prenderanno di mira i sistemi finanziari, inevitabilmente ne domineranno il settore. Già oggi il mercato creditizio, le leggi fiscali e la legge in genere favoriscono i più ricchi. La AI accentuerà questa disparità. Non saranno ricercatori con buone intenzioni a sviluppare le prime AI in grado di hackerare la finanza con scopo di lucro, ma grandi banche internazionali, hedge fund e consulenti manageriali. In terzo luogo, la portata: alcuni sistemi sociali sono abituati ad avere a che fare con gli hack, ma hanno imparato a farlo quando gli hacker erano umani e gli hack avevano ritmi umani. Non disponiamo di alcun sistema di governance in grado di rimediare rapidamente allo sfruttamento di centinaia o migliaia di loophole fiscali appena scoperti. Non siamo in grado di mettere patch con una simile velocità. Non abbiamo saputo impedire che Facebook venisse usato per hackerare la democrazia; proviamo a immaginare come potrebbe sfruttarlo una AI. Se le AI cominceranno ad architettare hack legali e imprevisti del sistema finanziario, per l’economia mondiale potrebbero esserci conseguenze burrascose, dalle quali riprendersi non sarà né rapido né indolore. Infine, la complessità: gli hack AI permettono strategie complesse che

vanno ben oltre quel che la mente umana è in grado di immaginare senza ausili esterni. Le complesse analisi statistiche delle AI possono rivelare rapporti tra variabili sfuggiti nche ai migliori esperti, consentendo di attuare strategie in grado di sovvertire su molteplici livelli il sistema-target.

Ad esempio, una AI progettata per massimizzare le percentuali di un partito politico potrebbe individuare la giusta combinazione tra variabili economiche, strategie di campagna elettorale e sfruttamento del sistema di voto, influendo sull’esito delle elezioni quel tanto che basta per trasformare una sconfitta in una vittoria; sarebbe una rivoluzione in grado di estendere all’intera democrazia le innovazioni che un software di mappatura può introdurre nel gerrymandering. Per non parlare dei trucchetti quasi impossibili da scovare che una AI potrebbe consigliarci per manipolare il mercato azionario, il sistema legislativo o l’opinione pubblica. Con la velocità, la scala, la portata e la complessità consentite dai computer, l’hacking potrebbe diventare un problema ingestibile per la società.

In una scena di Terminator, Kyle Reese descrive a Sarah Connor il cyborg che le sta dando la caccia: “Non si può patteggiare con lui. Non si può ragionare con lui. Non conosce pietà, né rimorso, né paura. […] Non si fermerà mai”. Non abbiamo a che fare con veri e propri assassini cyborg, ma se la AI diverrà un hacker ostile, avremo molte difficoltà a tenere il passo della sua capacità inumana di riscontrare vulnerabilità nei sistemi. Ci sono studiosi di AI preoccupati dalla possibilità che le intelligenze artificiali si liberino dei limiti imposti loro dagli esseri umani e prendano il dominio della società. Possono sembrare congetture assurde, ma non possiamo del tutto ignorare uno scenario simile.

Oggi e nell’immediato futuro, saranno però le persone più potenti ad attuare il tipo di hacking che stiamo descrivendo, a discapito delle persone comuni. Tutte le AI che ci circondano, sul nostro personal computer, online, o sotto forma di robot, sono programmate da qualcuno, in genere per fare i suoi interessi e non i nostri. Per quanto device connessi a internet come Alexa possano fingere di essere nostri amici fidati, non dimentichiamoci che sono stati ideati per venderci prodotti Amazon. Proprio come Amazon ci spinge a comprare i suoi prodotti e non quelli della concorrenza, anche quando sono di miglior qualità, Alexa non darà sempre la priorità a quel che è meglio per noi. Hackererà la nostra fiducia in Amazon per arricchire i suoi azionisti.

In mancanza di regolamenti significativi, possiamo fare ben poco per prevenire l’hacking delle AI. Dobbiamo accettarlo come inevitabile, e dar vita a solide strutture di controllo in grado di reagire in modo rapido ed efficace, normalizzando gli hack benefici come parte del sistema e neutralizzando quelli nocivi, che lo siano volutamente o meno.

È una sfida che ci pone questioni ancor più complesse su come la AI si evolverà e come le istituzioni potranno fronteggiarla: quali hack sono benefici? Quali sono nocivi? Chi lo decide? Se siete a favore di uno Stato poco invasivo, probabilmente approverete quegli hack in grado di ridurre il suo controllo sui cittadini. Potreste però temere un passaggio di consegne del potere dai politici ai signori della tecnologia. Se siete fautori del principio di precauzione, auspicherete l’intervento di esperti che mettano alla prova i nuovi hack prima di incorporarli nei nostri sistemi sociali, estendendo magari il principio anche a istituzioni e strutture che hanno reso possibili quegli hack.

Una domanda tira l’altra. Gli hack creati dalla AI dovranno essere governati a livello locale o globale? Saranno governati tramite un organo amministrativo o affidandosi a delle consultazioni popolari? Dobbiamo far decidere al mercato o alla società civile? (Il modo in cui stiamo applicando agli algoritmi i modelli di governance sembra indicarci il futuro). Le strutture di governo che progettiamo consegneranno a certe persone e organizzazioni il potere di decidere quali hack contrassegneranno il nostro futuro. Dobbiamo assicurarci che quel potere venga esercitato in modo saggio.

Bruce Scheier

La mente dell’Hackher

ed. Luiss

Definito dall’Economist il “guru della sicurezza”, è forse il più influente esperto al mondo nel campo della cybersecurity, dei linguaggi cifrati e delle tecniche di hacking. Autore di numerosi libri, è professore alla Harvard Kennedy School.

 

 

Riproduzione riservata © il Nord Est