Pedopornografia generata con l’AI, parla l’esperto: «Serve un gioco di squadra per frenare la viralità della rete»

Intervista a Ruben Razzante, docente di Diritto dell’informazione all’Università Cattolica del Sacro Cuore di Milano e alla Lumsa di Roma: «Con l’avvento dell’intelligenza artificiale la pedopornografia si è diffusa ancora di più»

Camilla Gargioni
Il professor Ruben Ruzzante, docente di Diritto dell’informazione all’università Cattolica del Sacro Cuore di Milano e alla Lumsa di Roma
Il professor Ruben Ruzzante, docente di Diritto dell’informazione all’università Cattolica del Sacro Cuore di Milano e alla Lumsa di Roma

Rimedi giuridici, tecnologici, formativi. Ci sono tre strade per affrontare l’utilizzo dilagante dell’intelligenza artificiale nella produzione di materiali pornografici. Il professor Ruben Ruzzante, docente di Diritto dell’informazione all’Università Cattolica del Sacro Cuore di Milano e alla Lumsa di Roma prova a fare una fotografia del contesto.

Professore Razzante, da dove partire per affrontare la questione?

«I profili di rischio sono tantissimi. Partiamo dalla giurisprudenza: il revenge porn è regolamentato dal 2019, con una legge che punisce con carcere fino a 6 anni e multa fino a 15 mila euro per chi condivide immagini o video intime persone senza suo consenso. È chiaro che l’intelligenza artificiale con sua imprevedibilità ha amplificato questi rischi, ha aggiunto la possibilità di manipolare le immagini. Se anche non c’è la foto nuda di una persona, la si può creare».

L’intelligenza artificiale al servizio della pedopornografia: il caso di Venezia e le nuove frontiere del cybercrime
La redazione
L'intelligenza artificiale è uno strumento per chi crea e diffonde materiale pedopornografico

Però ci sono strumenti contro i deepfake.

«Esatto, l’articolo 612-quater dice che chiunque provoca un danno ingiusto a una persona cedendo senza consenso immagine video o voci falsificate con l’Ia idonei a indurre in inganno, rischia fino a 5 anni. È doveroso denunciare alla Procura questo tipo di condotte, ma tutto questo risolve in minima parte problema».

Le piattaforme potrebbero fare qualcosa per limitare lo sviluppo di questi contenuti?

«È difficile frenare la diffusioni di questi siti, la viralità della rete è incontenibile e c’è una scarsa tempestività delle piattaforme nel rimuovere i contenuti. Servono patti tra tutti i soggetti coinvolti e che distributori e sviluppatori siano maggiormente responsabilizzati nel costruire piattaforme che abbiano limiti. Le faccio un esempio».

Prego.

«È come acquistare un’auto che può andare fino a 380 all’ora: c’è chi è prudente e non supera i 130, c’è chi si potrebbe lasciar andare e accelerare. Serve un gioco di squadra».

E sul fronte della pedopornografia?

«Con l’intelligenza artificiale si è diffusa ancora di più. Se vengono prese foto di minori e alterate facendoli diventare soggetti diversi da quelli iniziali, il reato c’è comunque anche se il minore non è riconoscibile. È una violazione della dignità dei minori in quanto tali. E anche nel caso in cui siano immagini o video completamente generati dall’intelligenza artificiale, se c’è un atto sessuale ledono la dignità dei bambini in generale. Anche se la vittima non è identificabile in senso stretto, è un reato collettivo».

C’è anche una questione sociale?

«Certo, oltre ai temi di cui abbiamo parlato, serve maggiore formazione digitale fin dalle scuole dell’obbligo. Serve un’operazione di sensibilizzazione collettiva che parta dalle istituzioni, che questi non sono giochi ma reati».

Riproduzione riservata © il Nord Est