A colloquio con Floridi: per capire la rivoluzione dell’IA serve un radicale cambio di prospettiva

E’ sbagliato attribuire alle macchine di cui disponiamo, straordinarie per potenza di calcolo e progettazione, facoltà quali l’intelligenza, gli stati mentali ed emotivi, persino fatti di coscienza e abilità cognitive che sono prerogative umane

Massimiliano CannataMassimiliano Cannata

“Mettere ordine è sempre utile, in una materia poi come l’IA così bollente molto esposta al sensazionalismo e alle mode è addirittura necessario. La denominazione “intelligenza artificiale”, dovuta a un grande successo di marketing risalente a più di cinquanta fa, è stato il primo passo falso, ci ha portato a imboccare una strada sbagliata che di certo non aiuta a risolvere i pressanti problemi che abbiamo di fronte”. Luciano Floridi, Direttore del Digital Ethics Center della Yale University, professore di filosofia ed etica è una delle voci più ascoltate del panorama internazionale nell’ambito del dibattito teorico che ruota attorno allo sviluppo della società digitale.

Professore con “La differenza fondamentale” (Ed. Mondadori) è entrato nel grande capitolo dell’IA. Quale messaggio ha inteso lanciare?

Nel saggio parlo essenzialmente di un cambio di prospettiva. Non abbiamo, infatti, ancora chiaro che l’IA ci ha messo di fronte a una “capacità di agire” inedita, è questa la forza delle macchine che ci ostiniamo a definire intelligenti. Agency è il termine inglese più appropriato che dovremmo usare per definirla, termine che purtroppo non trova un’adeguata traduzione nella lingua italiana. Di questa svolta “agentica”, (uso un neologismo si scusa l’autore n.d.r), dobbiamo occuparci per affrontare le grandi questioni reali che sollecitano delle soluzioni, e che hanno a che fare con il clima, l’economia, l’identità personale, il diritto, l’etica, l’educazione.

Usare male le parole è davvero così grave?

In questo caso si. Con quella definizione abbiamo cominciato ad attribuire alle macchine di cui disponiamo, straordinarie per potenza di calcolo e progettazione, facoltà quali l’intelligenza, gli stati mentali ed emotivi, persino fatti di coscienza e abilità cognitive che sono prerogative umane. Trovare una cura delle contraddizioni e delle paure che accompagnano il nostro sguardo verso il progresso diventa impossibile, perché essendo sbagliata la diagnosi, non potremo individuare nessuna efficace terapia.

Sapremo adattarci fino a comprendere realmente la complessità del presente?

Dobbiamo prima di tutto abituarci a questa svolta “ontologica”, come la definiscono i filosofi, che ha a che fare con le categorie intellettuali che usiamo per conoscere il mondo e per interpretarlo. Viviamo in una dimensione ibrida “on life”, che mescola il reale e il virtuale, siamo sempre più connessi, stiamo accumulando zeta byte di memoria, un universo di dati e informazioni, rispetto a cui diventa preziosa l’interfaccia che abbiamo inventato per comunicare con la nostra lingua naturale e trovare una chiave di accesso dentro questi giacimenti di sapere.

Abbiamo nelle mani uno strumento che non pensa, ma che ci aiuta a ordinare il mondo. Giusto pensare a un prolungamento della rete?

Non proprio anche se con il web è successa una cosa simile. Nella prima fase di sviluppo il senso di impotenza di fronte a liste infine di indirizzi e di siti potenzialmente interessanti ma di fatto non praticabili la abbiamo provata tutti. Poi l’apparizione dei motori di ricerca ha segnato una svolta. Trovare il dato e sintetizzare con un motore statistico miliardi di “pezzi di linguaggio” è il nuovo miracolo che applicazione come Open AI ci consentono. L’IA è capace di sintetizzare le informazioni di cui dispone e di riassumerci i contenuti della dialettica di Hegel. Attenzione però: rimane fortunatamente fuori dalla sua portata la produzione di senso, il controllo della semantica da cui sgorgano i significati, le percezioni i sentimenti della lettura trasversale dei concetti, che sono le “tracce” dell’interpretazione personale dei contenuti.

E’ in ballo insomma la nostra identità. Il tema etico, in questa delicata dinamica, come si affronta?

L’agire per definizione riguarda la sfera etica, rientrando nella logica delle scelte che dobbiamo compiere ogni giorno. Ricordiamoci che l’ambiente mutato dalla tecnologia che abitiamo, non è un dato immodificabile perché lo abbiamo costruito noi. La responsabilità rimane dunque nostra, una responsabilità morale, prima che politica e sociale. Questa nuova forma di agency (la macchina intelligente di cui sopra n.d.r) la abbiamo inserita nel nostro ambiente noi, adesso dobbiamo preoccuparci di guidarla, non può camminare da sola.

Perché tarda a maturare la consapevolezza della grande possibilità che abbiamo di indirizzare il futuro?

Serve un impegno mentale oltre che risorse in termini di competenze disciplinari per compiere un salto concettuale per ridare autonomia decisionale al corpo collettivo. Per dirlo in termini concreti non sarà l’IA a decidere le politiche per lo sviluppo, se andremo a Nord o a Sud, se riusciremo a ridurre le emissioni e la profonda faglia di diseguaglianze che connota il cambiamento d’epoca. L’agenda delle priorità la dobbiamo reimpostare senza farci abbagliare dalle false narrazioni, questo l’altro messaggio del libro.

A cosa si riferisce in particolare?

Allo stretto connubio che legando tecnologia e potere sta soffocando la democrazia, un abbraccio frutto di quell’illusione ottica che porta a scaricare sulla macchina responsabilità che sono solo e soprattutto nostre. La “differenza fondamentale” si misurerà dalla prontezza e dall’esercizio razionale che ci porterà a reagire alla espropriazione delle nostre prerogative di esseri pensanti.

Quali anticorpi possiamo avere, noi cittadini comuni, per smascherare questa grande “illusione ottica”?

Cominciamo da un esercizio semplice: non attribuiamo alle macchine capacità di senso e torniamo ad esercitare il pensiero critico. Non si tratta di negare la fenomenologia della rivoluzione in corso, ma di non rinunciare a capire la natura delle cose. E’ indispensabile una riflessione collettiva: il valore non dipende dalla quantità di ciò che produciamo, ma dalla qualità di ciò che riusciamo a interpretare. Per questo insisto sulla difesa del capitale semantico che è quella risorsa immateriale che permetterà sempre più di convertire dati, messaggi e contenuti in orientamento, valore e decisione. Senza questo lavoro interpretativo, i dati sono desinati a rimanere materia inerte, ingredienti privi di lievito. Il significato non si aggiunge dall’esterno: coincide con il valore stesso dei dati ed è qualcosa che solo l’essere umano può mettere in campo. 

Riproduzione riservata © il Nord Est