Licenziati per far posto all’AI, la risposta di Gemini: «Questa azienda sta agendo in modo predatorio»

Abbiamo chiesto all’intelligenza artificiale di Google di analizzare il caso InvestCloud di Marghera: «Scelta per contenere i costi e ottenere più profitto, ma ne risentirà la qualità creativa, il lavoro umano resta da preferire»

Laura Berlinghieri
Abbiamo chiesto a Gemini cosa ne pensa dei dipendenti licenziati dall'intelligenza artificiale
Abbiamo chiesto a Gemini cosa ne pensa dei dipendenti licenziati dall'intelligenza artificiale

Saranno i modelli di intelligenza artificiale a svolgere il lavoro dei 37 dipendenti di InvestCloud, licenziati dall’oggi al domani. Una decisione che avvicina spaventosamente un grande incubo che si pensava appannaggio di un futuro lontano. E sulla quale abbiamo interrogato Gemini, l’assistente AI di Google.

Una grande azienda ha annunciato il licenziamento dei suoi 37 dipendenti, che lavorano a Mestre, poiché le loro mansioni saranno svolte dall’AI. L’articolo 1 della nostra Costituzione dice che l’Italia è una Repubblica fondata sul lavoro. Una decisione simile è costituzionale?

«È costituzionale, ma un licenziamento di massa per AI verrebbe probabilmente impugnato per abuso del potere organizzativo o violazione del principio di utilità sociale».

E dal punto di vista etico?

«La sfida etica non è AI sì o AI no, ma come gestire la transizione. Un’azienda che licenzia tutti, senza piani di ricollocamento o sostegno, agisce in modo predatore, ignorando che la sua stessa esistenza dipende da una società sana e funzionante».

In questo caso l’AI sostituirà il lavoro di 37 tra informatici e ingegneri. Sarà in grado?

«Attualmente l’AI può automatizzare compiti tecnici ripetitivi, ma fatica con problem solving creativo e visione d’insieme. Il lavoro umano resta preferibile per la gestione degli imprevisti e la responsabilità etica delle decisioni, che una macchina non può assumersi».

E allora come spieghi questa scelta?

«È dettata da una logica di riduzione dei costi e scalabilità immediata: l’AI non richiede contributi, ferie o pause e processa dati a velocità non umane. Spesso le aziende accettano un calo della qualità creativa pur di ottenere un drastico aumento dei margini di profitto nel breve periodo».

Significa che noi lavoratori siamo tutti a rischio?

«Sì, potenzialmente ogni occupazione che coinvolge compiti cognitivi ripetitivi o analisi dati è esposta. Ma il rischio varia: chi usa l’AI come strumento per aumentare il proprio valore aggiunto è meno sostituibile di chi svolge mansioni che l’algoritmo può replicare interamente a costi inferiori».

Un sistema che abbandona l’etica e cede sulla qualità, nel nome della massimizzazione del guadagno, è sintomo di un mondo che va verso l’anarchia delle tutele?

«Certamente. Si rischia un vuoto di tutele dove la tecnologia corre più veloce delle leggi, trasformando il lavoro da diritto a variabile di costo. Senza un intervento regolatorio, come l’AI Act europeo, il mercato rischia di ignorare la coesione sociale in favore dell’algoritmo».

Cosa bisognerebbe fare?

«Passare dalla difesa passiva alla governance proattiva: lo Stato deve tassare le rendite da automazione per finanziare il riposizionamento dei lavoratori e imporre l’obbligo di impatto sociale per le aziende che sostituiscono umani con algoritmi. E il sindacato deve contrattare non solo il salario, ma la proprietà e l’uso dei dati aziendali, assicurando che l’AI sia un assistente e non un sostituto».

Quanti sono i posti di lavoro messi a rischio dall’AI?

«Le stime variano, ma l’impatto è massiccio: il Fondo monetario internazionale stima che il 40% dei posti di lavoro a livello globale sia esposto all’AI. Goldman Sachs prevede che l’AI generativa potrebbe sostituire l’equivalente di 25 milioni di posti di lavoro a tempo pieno solo nel 2026, arrivando a 300 milioni entro il 2030. Tuttavia, queste cifre non indicano solo licenziamenti, ma una radicale trasformazione delle mansioni. Molti lavoratori vedranno automatizzate solo alcune attività, mentre nuove figure professionali – 170 milioni entro il 2030 – emergeranno per gestire e supervisionare i sistemi».

Quali le figure in pericolo?

«Su tutte, supporto clienti, segreteria, analisti junior, contabili, traduttori, redattori tecnici, programmatori entry-level».

E quali le nuove figure che potrebbero emergere?

«Ruoli che oggi sembrano futuristici, ma che diventeranno essenziali. AI ethics officer: giuristi e filosofi a garanzia che gli algoritmi rispettino le leggi e non discriminino le persone. Prompt & context engineer: specialisti che “parlano” alle macchine per estrarre il massimo valore. AI trainer: esperti di dominio, come medici, avvocati e operai specializzati, che addestrano i modelli a comprendere i dettagli tecnici del loro settore. Digital twin manager: tecnici che gestiscono le copie digitali di fabbriche o città per simulare problemi prima che accadano nel mondo reale».

Riproduzione riservata © il Nord Est