Nello Cristianini e il Sovrumano: oltre i limiti della nostra intelligenza

Il professore di Intelligenza Artificiale all'Università di Bath, goriziano, ha concluso la trilogia sulle macchine pensanti: «È possibile che possano comprendere cose che noi non possiamo»

Giulia Basso
Nello Cristianini, professore di Intelligenza Artificiale all'Università di Bath
Nello Cristianini, professore di Intelligenza Artificiale all'Università di Bath

 

«È possibile che una macchina sia più intelligente di un essere umano? È una vita che ci penso, ma adesso penso che la risposta sia vicina: i maggiori centri di ricerca si sono dati l'obiettivo di una forma di Ia che svolga gli stessi compiti degli esseri umani allo stesso livello di prestazioni”.

A parlare è il goriziano Nello Cristianini, professore di Intelligenza Artificiale all'Università di Bath, che nel libro "Sovrumano. Oltre i limiti della nostra intelligenza” (Il Mulino 2024, pagine 152, euro 14,25), terzo volume della trilogia avviata con "La scorciatoia" e proseguita con "Machina sapiens”, s’interroga sul tema, entrando nel mondo dei ricercatori che si occupano di misurare le prestazioni cognitive delle macchine e descrivendo una serie di test psicometrici in cui le macchine stanno già superando gli esseri umani.

Chiedendosi quali tra le nostre capacità non saranno mai a portata di Ia e non accantonando la domanda più scomoda di tutte: perché rifiutiamo di accettare un sorpasso che, per certi versi, è già avvenuto?

Il libro si apre con la storia di Lee Sedol, il campione di Go sconfitto da AlphaGo. In che modo questo fatto rappresenta un punto di svolta?

«Quella storia è ben nota, e presente anche nel primo volume della mia “trilogia delle macchine intelligenti”, ma in “Sovrumano” la ricordo per un motivo diverso: raccontare quello che è successo dopo quel sorpasso. Ovvero, un distacco. Oggi nessun essere umano può più avvicinarsi alle prestazioni delle migliori Ia nel gioco del Go, degli scacchi, e di molti altri».

Come suggerisce il titolo, il libro esplora cosa si trova "oltre i limiti della nostra intelligenza". Cosa perdiamo e cosa guadagniamo come umanità nell'affrontare questa frontiera?

«È importante comprendere che non siamo senza limiti: non siamo né onniscienti né onnipotenti. È possibile superarci in molte abilità. Perché non in intelligenza? Ovviamente va capito che l’intelligenza non è una singola dimensione, ma esistono diverse forme di intelligenza diverse, quindi è possibile essere superati in alcune e non in altre. È possibile che una macchina comprenda cose che noi non possiamo comprendere? Non vedo perché no».

Come si misura l'intelligenza delle macchine?

«L'intelligenza è l'abilità di risolvere problemi mai incontrati prima. È presente in molti animali non umani, da prima che esistessero gli esseri umani. Dato un compito specifico, è possibile misurare quale di due agenti lo svolge meglio. Ma esiste una forma di intelligenza “generale”? Non lo credo, penso che ogni agente sia specializzato in qualche modo, anche noi. Il nome che usiamo oggi di “Ia generale” è fuorviante, ma è ormai uno standard per indicare una ipotetica Ia di livello umano. A questo punto dobbiamo discutere come misurarla. Penso che possiamo partire dalla scienza che abbiamo creato per misurare le molte intelligenze umane, la psicometria. E poi costruirci sopra una nuova scienza».

La "scaling hypothesis" suggerisce che aumentando la dimensione dei modelli si raggiungeranno prestazioni sempre migliori. È sostenibile questo approccio? E non è già stato superato da alcuni modelli di Ia, come DeepSeek?

«La verità è che stiamo probabilmente finendo i dati, e i costi energetici sono già molto alti. Dobbiamo trovare il modo di far scendere entrambi i costi. Nel caso dell’intelligenza animale, come quella umana, sappiamo che è possibile compiere dei ragionamenti complessi con l’energia contenuta in un biscotto, mentre Gpt usa una quantità di energia di gran lunga superiore. Quanto ai ricercatori di DeepSeek, sono riusciti a fare una cosa che tutti stanno cercando di fare: addestrare gli stessi modelli usando meno risorse. Penso che ci saranno altri momenti come questo, si può continuare a risparmiare, ma c’è molto lavoro da fare».

Affronta la possibilità che le macchine possano comprendere aspetti del mondo incomprensibili per noi umani, in che senso?

«Partiamo pensando, per esempio, che ci sono cose ben al di là della comprensione di un gatto: per esempio la grammatica o la fisica. Ci possono essere delle cose nel mondo che per noi sono impenetrabili, come la grammatica o la fisica lo sono per il gatto, ma senza essere in sé incomprensibili».

Se definiamo l'intelligenza come capacità di risolvere problemi nuovi, è possibile mantenere la distinzione tra intelligenza pura e qualità umane (coscienza, emozioni, libero arbitrio) nei sistemi Ia sempre più avanzati?

«Secondo me sì, ed è importante, per onestà intellettuale. Nessuno sta cercando di creare macchine con emozioni o coscienza, né si saprebbe come fare, e la coscienza non ha nemmeno una definizione scientifica. Mescolare queste materie può solo creare confusione e oscurare i fatti di quello che sta succedendo oggi: macchine in grado di risolvere compiti cognitivi e intellettuali, come una diagnosi».

È possibile fidarsi di sistemi così diversi da noi?

«Sicuramente ci possono essere dei rischi, ogni tecnologia può fare degli sbagli o funzionare male, e sarà importantissimo misurare le prestazioni e sviluppare meccanismi di sicurezza. Ma alla fine sarà una questione di misurazione: quanti incidenti mortali provoca un'automobile autonoma, ogni milione di chilometri, e quanti ne provoca una persona? Per il tipo di compiti intellettuali pratici che stiamo automatizzando, si tratta essenzialmente di misurare».

Riproduzione riservata © il Nord Est