Il caso bixonimania: la malattia inventata che l’intelligenza artificiale crede vera

I chatbot ingannati dalla falsa malattia con una brutta irritazione agli occhi, caricata per testare gli algoritmi. Cosa ci insegna questa storia

La redazione

Se siete tra quelli che si rivolgono ai vari chatbot di intelligenza artificiale (AI) accessibili in internet per richiedere informazioni sulla propria salute, leggete questa storia.

All’inizio del 2024, Almira Osmanovic Thunström, una ricercatrice medica all’Università di Goteborgh, in Svezia, decide di testare come gli algoritmi di AI fanno proprie le informazioni mediche presenti on-line e le usano per generare diagnosi. Su un social network accademico, SciProfiles, la ricercatrice posta due pubblicazioni completamente inventate, che descrivono la bixonimania, una malattia mai descritta prima.

La malattia consiste in un’irritazione agli occhi e un inscurimento della pelle intorno agli stessi, dovuta alla luce blu del computer. Gli articoli sono falsi: il nome della malattia è surreale, gli autori e le loro università inesistenti, il gruppo di “pazienti” analizzati è dichiaratamente inventato. L’articolo riporta persino un ringraziamento a un altro ricercatore il cui laboratorio è “a bordo della USS Enterprise”.

È un fake dichiarato e palese ma gli algoritmi di AI si bevono la storia e tutti i maggiori chatbox rilanciano la malattia inventata come fosse reale. Secondo un editoriale di Nature di questa settimana, già pochi mesi dopo le pubblicazioni on-line, Copilot di Microsoft dichiara la bixonimania una malattia “relativamente rara e intrigante”. Gemini di Google suggerisce agli utenti con questi sintomi di vedere un oculista. Perplexity AI inventa anche la prevalenza della malattia (1 malato ogni 90 mila persone). Dato che chiunque stia troppo tempo davanti al computer ha gli occhi irritati e, se se li sfrega, anche le palpebre diventano arrossate, l’epidemia di bixonimania dilaga.

Si dirà: gli algoritmi di AI oggi sono migliorati rispetto a due anni fa. Vero, e di fatto ChatGPT ora riconosce il fake della bixonomania. Ma la realtà è che questi chatbox ontinuano a fare errori.

Io utilizzo ChatGPT di continuo come supporto alle mie ricerche e lo trovo prezioso per catalogare e sintetizzare le informazioni disponibili sul web. Ma devo anche rincorrere di continuo gli errori specifici che fa, soprattutto nel non distinguere le informazioni importanti da quelle che non sono rilevanti o sono false. Di fatto, questi chatbot di AI sono strumenti utilissimi in mano all’esperto, ma diventano pericolosi se usati indiscriminatamente, soprattutto quando lo scopo è diagnosticare malattie o prescrivere terapie mediche.

Riproduzione riservata © il Nord Est