Gallavotti: «Governare l’intelligenza artificiale: così impediremo che sostituisca i giovani»
La divulgatrice scientifica: «Rischiamo di non avere più professionisti. Il pubblico si assuma le responsabilità: nessuno va lasciato indietro»

L’intelligenza artificiale va governata e non demonizzata. «Bisogna parlarne, favorire il confronto collettivo» sostiene la giornalista e divulgatrice scientifica, autrice del podcast e del libro (Mondadori) “Il futuro è già qui”, Barbara Gallavotti, accompagnandoci nell’era presente e futura della AI. È un mondo in divenire, dallo sviluppo inarrestabile, in cui tutti saremo costretti a vivere.
Quando ci siamo accorti che l’intelligenza artificiale era già qui?
«L’intelligenza artificiale è qui da tempo, noi ce ne siamo accorti solo tre anni fa, il 30 novembre 2022, quando è stata rilasciata ChatGpt3.5. Solo allora abbiamo capito che la AI era capace di fare qualcosa che ritenevamo di poter fare solo noi umani».
Il suo utilizzo a quali rischi ci espone?
«Il passaggio da un mondo in cui certe cose le facevamo solo noi a uno in cui le stesse cose possono essere fatte dalla AI in un tempo brevissimo, può provocare il rischio di dover lasciare molte o troppe persone indietro. Quindi il suo utilizzo va governato».
Non va vietato?
«Vietare il suo utilizzo sarebbe autolesionista, come dire non usiamo Internet. L’altra questione molto problematica è che noi siamo arrivati a usare la AI in maniera costruttiva perché abbiamo avuto una formazione professionale. Ma se pensiamo che molte aziende sostituiscono i neo assunti con la AI, arriverà un momento in cui non avremo persone con esperienza e questo sarà un problema».
Da qui deriva la necessità di governare l’utilizzo della Ai?
«Bisogna stabilire dei meccanismi che ci impediscano di avere tutta una fascia di giovani sostituita con la AI per evitare di danneggiare i principianti ora e di non disporre di professionisti adulti domani».
È questa la sfida?
«La sfida è favorire il dibattito pubblico e far entrare la gestione della AI fra i problemi prioritari dei decisori. Oggi l’intelligenza artificiale va avanti spinta da chi sviluppa e da chi compra i programmi, due entità che escludono il pubblico».
Due entità che perseguono scopi diversi da quelli dei centri pubblici?
«Esattamente. Il ritiro del pubblico da una serie di settori tecnologici strategici porta un indebolimento particolarmente grave nel caso della AI. Questo ritiro è coinciso con un enorme aumento del valore di queste aziende, sovrapponibile a quello del Pil di un Paese avanzato, che si ritrovano con un enorme potere in mano».
Come si può alleggerire questo potere?
«Con il confronto collettivo tra noi cittadini. Alle persone occorrono le informazioni di base per riflettere e per farsi le proprie opinioni. Serve anche un maggior impegno istituzionale che si traduca non tanto nella regolamentazione dell’utilizzo dell’AI quanto in un’analisi approfondita su come gestirla e come proteggere i più deboli».
Cosa intende per maggior impegno istituzionale?
«Un grande ente di ricerca europeo dedicato alla AI o una maggiore rete fra enti di ricerca esistenti. Se un’entità di ricerca pubblica lavora a programmi di intelligenza artificiale senza le protezioni di segretezza tipiche delle società private, la tecnologia circola più liberamente e si crea anche più spazio per la concorrenza e per imprese più piccole. Così si crea un sistema più sano».
In termini di apprendimento la Ai ci fossilizza la mente?
«Le cito Platone che nel Fedro fa dire a Socrate che la scrittura è un’invenzione catastrofica perché farà perdere agli esseri umani la capacità di memorizzare. Non è andata così. Certo il rischio con la AI c’è, lo dobbiamo affrontare. Il fatto che io possa fare una cosa con la AI poi non implica che debba farla sempre. Come esempio: se devo andare velocemente da A a B prendo la macchina, però quando lo desidero mi faccio una passeggiata, se non voglio non perdo l’abitudine di camminare. È vero che ci sono persone che quasi mai muovono un muscolo e questo ha causato un sacco di problemi sanitari: è un pericolo, non è inevitabile».
Quale sarà il passo successivo nell’applicazione della Ai?
«La AI che stiamo usando è la “intelligenza artificiale ristretta” e può fare compiti specifici senza prescindere da un qualche controllo umano. Quando temiamo che prenderà il nostro posto pensiamo all’intelligenza artificiale generalista che potrebbe fare tutto quello che può fare il nostro cervello e alla Super intelligenza artificiale che non possiamo nemmeno immaginare cosa potrebbe fare. È molto importante ricordare che queste ultime due non esistono ancora. Il grande passo in avanti a cui si sta lavorando è la cosiddetta intelligenza artificiale agentica che può svolgere compiti complessi fatti da più azioni, come organizzare nei dettagli un viaggio».
Riproduzione riservata © il Nord Est








