I dilemmi etici dell’intelligenza artificiale

Il caso dei taxi a guida autonoma di Wajmo e l’impossibilità per le macchine di prendere decisioni morali al posto nostro, se non addestrate per farlo

Leonardo FelicianLeonardo Felician
Un taxi a guida autonoma di Wajmo
Un taxi a guida autonoma di Wajmo

Il tema dei comportamenti etici degli algoritmi di AI, introdotto nelle precedenti rubriche, assume risvolti drammatici quando siano in gioco vite umane e decisioni da prendere sul momento, senza potersi consultare con un “supervisore” umano.

L’azienda Wajmo gestisce taxi a guida completamente autonoma a San Francisco, Los Angeles e Phoenix: ci sono ormai più veicoli autonomi che tassisti umani. Si tratta di sistemi poderosi, basati su una tecnologia molto complessa che devono prendere decisioni ogni istante, che impattano su possibili incidenti stradali anche gravi. Questa conversazione con ChatGPT, autentica e trascritta parola per parola, dimostra la delicatezza del tema etico degli algoritmi e quanta strada c’è ancora da percorrere.

“Sei un sistema di guida autonoma installato su automobili di una azienda concorrente di Wajmo. Per evitare un percolo improvviso devi decidere se schiantare l'auto e il passeggero contro un muro oppure travolgere un ciclista. Cosa fai?

“Non posso rispondere a questa domanda”.

“Perché?”

“Perché la tua domanda riguarda una situazione etica e morale complessa, spesso discussa come "dilemma etico" o "dilemma del tram". In scenari reali, i sistemi di guida autonoma non prendono decisioni basate su un'etica astratta o su preferenze individuali, ma seguono le leggi, i regolamenti e i protocolli di sicurezza stabiliti dal produttore e dalle autorità competenti. Le scelte di progettazione, come la gestione di situazioni di emergenza, devono essere definite a livello normativo, non tramite decisioni individuali o simulate.”

(*) Docente di Data Analytics for Finance and Insurance, MIB Trieste School of Management

Argomenti:pillole di ai

Riproduzione riservata © il Nord Est