Codice Valore: voci contro la violenza digitale è il nostro progetto editoriale che andrà online per tutto il mese di novembre. Per capire cosa e chi si nasconde dietro il lato più oscuro della rete. Per costruire una cultura digitale più umana e responsabile. Quattro interviste, quattro volti, quattro punti di vista a confronto.
Il caso scoppiato pochi giorni fa delle foto e dei video di donne famose spogliate con l’intelligenza artificiale ed esposte sulla rete ha dato la dimostrazione finale del fatto che nessuna è più al sicuro. Il deepfake, la tecnica fondata sull’intelligenza artificiale con cui si crea un’immagine o un video del tutto realistico manipolando corpi, visi, voci di persone vere, si è fatto oramai ultra affinato e accessibile. “Spoglia chi vuoi con l’intelligenza artificiale!”, annunciava quest’ultima piattaforma portata alla scoperto insieme ai suoi quasi 8 milioni di utenti, guidati dal sistema attraverso griglie di scenari pornografici in cui collocare di volta in volta le vittime e attraverso opzioni di atti sessuali da far loro compiere a proprio gradimento. Nessuno può dire quanti siti di questo genere stiano proliferando in rete, ma l’accelerazione dell’intelligenza artificiale e la smisurata quantità di immagini e video disponibili in rete sta generando un’ondata di contenuti che sessualizzano e umiliano le vittime, quasi sempre donne e, nella gran parte dei casi, ignare.
Oggi una legge cerca di arginare gli usi illeciti del deepfake: ne parliamo con Lucia Maggi, avvocata, CEO e partner di 42 LawFirm, società di avvocati partecipata da informatici ed esperti di digital transformation, e membro del consiglio di amministrazione di PermessoNegato, associazione che offre supporto alle vittime di diffusione non consensuale di materiale intimo e violenza online.
Lo scorso settembre la legge 132/2025, disciplinando nel nostro Paese la materia dell’intelligenza artificiale, ha introdotto un nuovo reato: l’uso illecito del deepfake. Cosa cambia, dunque, con questa legge per chi produce o diffonde e per chi ne è vittima?
La legge introduce il reato di illecita diffusione di contenuti generati o alterati attraverso sistemi di intelligenza artificiale. In particolare dispone che “chiunque cagiona un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni”. Ne consegue che la norma non punisce la mera creazione di tali contenuti, bensì la loro diffusione o comunicazione a terzi senza il consenso della persona ritratta o coinvolta, quando ciò provochi un danno ingiusto e sia idoneo a ingannare sulla genuinità del materiale. Ciò non significa, tuttavia, che la produzione di simili contenuti sia sempre irrilevante: in determinate circostanze – ad esempio quando integra violazione di altre norme, come quelle in materia di rappresentazioni pedopornografiche – la sola creazione o detenzione può assumere rilievo penale o, comunque, illecito.
Come deve agire la persona che si è ritrovata riprodotta dentro un video o un’immagine pornografica diffusa nella rete?
Poiché il reato, nello specifico, è perseguibile su querela della persona offesa, il primo passo è sporgere denuncia di quanto avvenuto all’autorità giudiziaria. Consiglio di chiedere, subito dopo, una consulenza a una delle tante associazioni che tutelano le vittime di queste condotte, le quali sono in grado di offrire un supporto ad ampio spettro, anche psicologico, che si rivela spesso cruciale: con l’aiuto dell’associazione prescelta – ma è possibile rivolgersi anche a uno studio legale -, si potrà chiedere l’immediata rimozione dei contenuti alle piattaforme dove vengono diffusi. Il fattore tempo è determinante. Sappiamo bene che, una volta che un contenuto è stato diffuso in rete, è complesso ottenere la sua completa rimozione, ma agire tempestivamente è di sicuro la condizione per limitare il danno.
E, peraltro, nell’attimo in cui ne viene a conoscenza, chi è stata vittima di queste condotte vorrebbe soltanto che tutto sparisse e finisse all’istante.
Purtroppo, da quel momento, inizia un percorso lungo e spesso tortuoso. Le piattaforme, infatti, non rimuovono quasi mai i contenuti in modo immediato, talvolta per lentezze tecniche, più spesso per una scarsa prontezza operativa. Vi sono poi piattaforme che si rivelano completamente impermeabili perfino ai provvedimenti dell’autorità giudiziaria e che, di fatto, non eseguiranno mai la rimozione richiesta. Non parlo, naturalmente, dei grandi operatori come Meta o Google, né delle piattaforme che diffondono contenuti a carattere pornografico per finalità commerciali, che anzi si mostrano generalmente reattive. Il problema riguarda invece le numerose applicazioni di messaggistica, spesso con sede in Paesi a giurisdizione incerta, diffuse su scala globale e organizzate come circuiti chiusi. Circuiti chiusi che, tuttavia, coinvolgono milioni di utenti e all’interno dei quali circola ogni genere di materiale. Normative di tutela come il Digital Services Act dell’Unione Europea stanno cominciando a produrre effetti concreti, ma senza un impegno autentico e attivo da parte delle piattaforme, la protezione degli utenti resta inevitabilmente ridotta.
Ci sono gruppi che prosperano a lungo prima di essere chiusi, peraltro alimentando un giro d’affari enorme, vedi i casi di Miamoglie e Phica, dove per anni sono state postate foto intime non consensuali di migliaia di donne ignare. Succede anche perché non c’è indignazione, non c’è riprovazione sociale su queste condotte: in qualche modo, le si finisce per tollerare. È d’accordo?
Direi che è anche peggio. Nei confronti delle donne che ritrovano distribuite in rete le immagini intime che avevano scattato con il fidanzato si genera un meccanismo di colpevolizzazione: il pensiero comune e assai diffuso è che, se non si fossero fatte ritrarre in situazioni intime, non avrebbero corso il rischio che diventassero pubbliche. Insomma, viene in qualche modo assolto nella percezione comune il colpevole, e colpevolizzata la vittima, in un cortocircuito davvero paradossale.
Ecco, restiamo in questo ambito: nel caso in cui una persona si sia scattata immagini intime e abbia la percezione che siano a rischio di essere diffuse in rete, come può garantirsi che ciò non accada?
Ci sono piattaforme che attivano sistemi tecnologici di prevenzione della distribuzione dei contenuti, attraverso la cosiddetta impronta digitale. Praticamente, il sistema invia in modo sicuro e protetto una copia dell’immagine in questione. L’immagine, identificata da quell’impronta, verrà riconosciuta ed eventualmente bloccata se non è autorizzata ad essere distribuita sulle piattaforme che prevedono quel sistema di prevenzione.
Torniamo al deepfake. In questo caso, ci sono strumenti per impedire che i propri contenuti ne finiscano in pasto?
Si può richiedere alle piattaforme di non utilizzare i propri contenuti per l’addestramento o l’elaborazione da parte di software di intelligenza artificiale, esercitando le opzioni di opt-out previste dal regolamento europeo. Attraverso impostazioni dedicate o link specifici, l’utente può infatti revocare o negare il consenso all’uso dei propri dati e contenuti per finalità di intelligenza artificiale. Al di là di queste possibilità – certamente preziose – credo sia fondamentale sviluppare una solida consapevolezza digitale. Dobbiamo sentirci liberi, e legittimamente, di condividere i nostri contenuti, anche quelli più personali, ma dobbiamo al tempo stesso comprendere che ogni condivisione amplia la superficie del rischio. Esiste poi il tema, molto delicato, dei giovanissimi. Oggi l’accesso alla pornografia è sempre più semplice e privo di filtri, tanto che il Governo ha recentemente disposto lo stop all’accesso libero ai siti pornografici senza verifica dell’età, imponendo agli operatori di introdurre sistemi efficaci per accertare la maggiore età degli utenti. È un passo importante, perché i ragazzi sono esposti a contenuti sempre più realistici, espliciti e violenti, anche grazie all’impiego dell’intelligenza artificiale. Per questo ritengo assolutamente necessario che nelle scuole si promuova un’adeguata formazione sentimentale e affettiva, condotta da specialisti, per aiutare i più giovani a sviluppare un approccio consapevole, rispettoso e maturo alla sfera digitale e relazionale.