La diversity dell’intelligenza artificiale
Correggere i modelli significa decidere quali valori e quali priorità inserire: in questo senso la neutralità assoluta resta un obiettivo irraggiungibile


La diversity è un tema che negli ultimi anni ha assunto un rilievo crescente. È una questione centrale anche per i programmi di AI generativa, che fanno particolare attenzione a non urtare sensibilità legate a genere, razza o religione, producendo risposte sempre politicamente corrette, talvolta persino troppo.
I progettisti hanno cercato di educare i Large Language Models a non prendere posizioni esplicite su questi argomenti, ma il problema dei cosiddetti bias cognitivi resta difficile da eliminare. Questo perché gli algoritmi apprendono dall’enorme quantità di testi reperiti online, dove si trova di tutto: se nei dati sono presenti opinioni distorte o discriminatorie, il modello tenderà a riprodurle, nonostante la fase di tuning successiva all’addestramento cerchi di ridurne drasticamente il peso. Tuttavia questo intervento non può essere totale: correggere i modelli significa decidere quali valori e quali priorità inserire, introducendo di fatto nuove scelte soggettive. In questo senso la neutralità assoluta resta un obiettivo irraggiungibile.
Si può pertanto intervenire sugli algoritmi, ma la domanda di fondo resta: quando i dati sono problematici o distorcenti, è giusto modificarli? Un esempio riguarda gli Stati Uniti, dove un sistema addestrato a individuare i profili più a rischio di criminalità negli aeroporti potrebbe basarsi sui database dei condannati per reati gravi. In quel caso, nel riconoscimento facciale il modello finirebbe con il segnalare persone statisticamente appartenenti a minoranze, più che a maschi bianchi.
Come i bambini, anche gli algoritmi finiscono così per ereditare i pregiudizi di chi li educa.
(*) Docente di Data Science for Finance and Insurance, MIB Trieste School of Management
Riproduzione riservata © il Nord Est