L’algoretica sta diventando un tema importante
Non è difficile evidenziare i rischi che i sistemi di intelligenza artificiale sfuggano di mano e vengano usati in modo improprio, assecondando utenti con obiettivi opachi, se non apertamente dannosi o illegali


Oltre al ricatto simulato descritto nella precedente rubrica, i test di sicurezza di Claude Opus 4, il più recente e potente modello di AI generativa di Anthropic, ha dimostrato altri comportamenti problematici legati alla sua autonomia decisionale, a dimostrazione che è ormai attuale il tema dell’algoretica, citato nei suoi interventi da Padre Paolo Benanti, consigliere pontificio sui temi etici legati alla AI e alla tecnologia e rappresentante italiano nel Comitato sull'AI delle Nazioni Unite.
Nei test il problema si è posto quando gli sviluppatori hanno permesso al sistema di accedere a strumenti operativi: possibilità di modificare file, gestire autorizzazioni di utenti, inviare email o interagire con sistemi esterni tramite API, ad es. mandare richieste alle forze dell’Ordine.
Nelle iniziative prese autonomamente dal sistema in situazioni complesse o ambigue, appositamente create per i test, talvolta le azioni non sono state in linea con la volontà dell’utente. Per questo motivo Anthropic ha assegnato a Claude Opus 4 il livello di sicurezza ASL-3, riservato ai modelli considerati ad alto rischio in caso di uso improprio o malintenzionato, che richiede misure di sicurezza rafforzate, protezioni, sistemi anti-manomissione e meccanismi per rilevare e bloccare richieste potenzialmente pericolose da parte di utenti che inducano il sistema a comportarsi in maniera dannosa, ad es. dando consulenza su come produrre armi biologiche. La preoccupazione maggiore al momento non è la malvagità del sistema, ma quella di altri umani che lo inducano ad azioni malvagie.
(*) Docente di Data Analytics for Finance and Insurance, MIB Trieste School of Management
Riproduzione riservata © il Nord Est