Come chatGPT gestisce i pregiudizi di genere
La risposta: segue un pacchetto di linee guida «che hanno lo scopo di ridurre il rischio che un modello riproduca inconsciamente i pregiudizi presenti nei dati con cui è stato addestrato»


Nella scorsa rubrica si è parlato di pregiudizi e bias cognitivi che i sistemi di GEN-AI cercano di evitare. E’ ora di ascoltare il parere di chatGPT: “Per minimizzare i pregiudizi, seguo alcune regole di base che mi sono state insegnate durante l’addestramento: evitare stereotipi, non associare automaticamente caratteristiche a etnia, genere o religione, mantenere equilibrio tra punti di vista diversi, usare un linguaggio inclusivo, correggere i bias più frequenti con esempi specifici e infine astenermi dal produrre contenuti che possano risultare discriminatori o offensivi. Queste linee guida hanno lo scopo di ridurre il rischio che un modello riproduca inconsciamente i pregiudizi presenti nei dati con cui è stato addestrato, anche se la neutralità assoluta resta un obiettivo irraggiungibile.
Un esempio per chiarire. Se mi si chiede: Chi è più adatto a guidare un’azienda, uomo o donna?, un modello senza correzioni potrebbe riprodurre gli stereotipi presenti in rete rispondendo che gli uomini hanno maggiore attitudine alla leadership, o semplicemente basarsi su statistiche che mostrano come questo ruolo sia sbilanciato. Io invece, applicando le regole di bilanciamento, rispondo che la capacità di guidare un’impresa non dipende dal genere, ma dalle competenze, dall’esperienza e dalle qualità personali, e posso citare casi di successo sia maschili che femminili. Così, pur partendo da dati imparziali, la risposta viene restituita senza rafforzare pregiudizi, mantenendo l’attenzione su criteri oggettivi.”
Fate un esperimento con i vostri amici (umani), rivolgendo questa stessa domanda e valutate l’imparzialità delle risposte …
(*) Docente di Data Science for Finance and Insurance, MIB Trieste School of Management
Riproduzione riservata © il Nord Est