Le “allucinazioni” dell’intelligenza artificiale sono volute

Vi è capitato di ricevere risposte completamente inventate o comunque sballate? Un motivo c’è ed è legato ai tempi di risposta, oltre che a scelte progettuali da correggere

Leonardo FelicianLeonardo Felician

Uno dei problemi più controversi delle tecnologie Gen-AI è quello delle cosiddette allucinazioni, ovvero risposte completamente inventate, spesso in modo plateale, fenomeno rischioso soprattutto per chi non conosce l’argomento trattato e si fida della GEN-AI. Finì su tutti i giornali un avvocato inglese che menzionò al giudice una sentenza del tutto inesistente.

Eppure le allucinazioni non sono semplici errori casuali, ma una precisa conseguenza di scelte progettuali di questi sistemi. Un paragone utile arriva dal mondo dei siti di prenotazione alberghiera: i prezzi mostrati non sono sempre aggiornati in tempo reale, ma derivano da una ricerca precedente; solo al momento della prenotazione il sito verifica il dato corretto.

Allo stesso modo, un sistema GPT potrebbe ridurre le allucinazioni controllando ogni volta in rete tutte le fonti disponibili, per garantire che le informazioni siano valide. Ciò richiederebbe però più tempo e risorse, rendendo il servizio più costoso e meno competitivo rispetto a un sistema che accetta una certa quota di errori pur di restare veloce e gratuito.

Il risultato? L’utente medio preferisce la risposta istantanea, anche se meno affidabile, a quella più precisa, ma lenta o a pagamento. Già esistono però opzioni che permettono di chiedere un controllo delle fonti. Così, mentre ChatGPT risponde 204.000 abitanti come popolazione di Trieste, Gemini, impostato per verificare il dato, risponde 200.635, citando come fonte il sito ufficiale del Comune, aggiornato al 31/12/2023.

(*) Docente di Big Data Management, MIB Trieste School of Management

 

Argomenti:pillole di ai

Riproduzione riservata © il Nord Est