«Dopo aver essermi ascoltata in quel video la prima reazione è stata chiedermi se davvero avessi detto una cosa del genere». La giornalista televisiva Silvia Sacchi, 32 anni, è stata alcuni mesi fa vittima di deepfake, una manipolazione di video e immagini grazie all’Intelligenza artificiale che in base alle nuove norme è punibile con il carcere. Nel filmato che quel giorno le aveva passato un collega citava lo scienziato Silvio Garattini (anche lui realizzato con l’AI) riferendo ai telespettatori che chiunque avesse ricevuto il vaccino per il Covid era in pericolo di vita. L’ennesimo falso, creato ad arte, ma che è bastato a inquinare ancora una volta il dibattito (tra molte virgolette) social.

Il deepfake a portata di tutti
In questa nuova puntata di Unstoppable Women trattiamo un argomento che riguarda non soltanto le donne. Grazie ai software di AI chiunque può manipolare un video, sintetizzare la nostra voce e farci pronunciare cose indicibili. È talmente alla portata di mano che spesso alle spalle non c’è un disegno preciso sugli obiettivi: come con i contenuti virali, non ci si preoccupa delle conseguenze. Silvia Sacchi ci ha raccontato i primi istanti successivi alla scoperta di quel deepfake.
«Mi sono subito riconosciuta. Era un filmato che poteva risalire ad almeno due anni prima quando conducevo Sky TG24. Vestiti e movenza sembravano i miei, poi mi è sembrato talmente assurdo quel che avevo detto. Guardando si vede che la voce e il labiale non sono naturali». A mente fredda non è il deepfake più convincente di tutti, eppure Silvia Sacchi ha aggiunto un elemento che dovrebbe turbare, e non farci sentire al sicuro dai rischi.

Davvero è l’AI il problema?
«La cosa che mi ha amareggiato di più è stata avere ricevuto messaggi di persone che avevo intervistato che si dicevano dubbiose». Ecco, non è tanto la certezza quanto il dubbio che qualcuno abbia detto qualcosa di clamoroso – che magari rafforza le nostre idee, i nostri pregiudizi – che rappresenta una minaccia per il “dibattito” online. Con ripercussioni ancora più gravi nella vita reale.
In base alla nuova legge sull’AI – di cui ci siamo occupati a lungo sul magazine – il reato di deepfake è punibile su querela, ma è possibile che un magistrato proceda d’ufficio nel caso in cui il fatto sia connesso ad altro delitto o nel caso in cui la vittima sia persona incapace o una personalità pubblica. Purtroppo le norme di fronte ai risvolti negativi dell’innovazione non sempre riescono a frenare i malintenzionati. E, in questo caso, neppure il fiume di contenuti realizzati con l’AI che ormai inondando ogni giorno il feed di chiunque.

Nata a Pesaro, Silvia Sacchi ha fatto la sua prima esperienza televisiva nella tv di Stato di San Marino. È passato poi da Tgcom24 e dall’all news di Sky. Ha seguito la cronaca giudiziaria e la cronaca nera per poi occuparsi di data journalism nel programma XXI secolo su Rai 1. Oggi è autrice di 1mattina news. L’esposizione mediatica, lavorando in tv, fa parte del mestiere con i rischi annessi da tenere in considerazione.
Ma quando si scopre di essere vittima di deepfake è la professionalità che viene messa in discussione. Il video in cui il suo avatar pronuncia frasi strampalate e gravi è circolato su vari social come Facebook, Instagram e X. La prima reazione della giornalista è stato quello di far sentire la propria voce. «Ho scaricato il video, l’ho modificato aggiungendo la scritta in rosso “FALSO”». E poi lo ha ricondiviso sui propri canali social. «Ho poi contattato l’Istituto Negri, ho segnalato l’accaduto al consiglio dell’Ordine dei giornalisti, chiamato la Polizia Postale e segnalato il contenuto alle piattaforme».

Quando informarsi rafforza i bias
Il caso specifico conferma che, purtroppo, l’informazione oggi è sfruttata da molte persone come un mezzo per avvalorare le proprie idee e non per mettersi in discussione e capire di più della complessità che ci circonda. «Ci preoccupiamo, da giornalisti, di condividere cose precise. Poi scopro che quel video ha raggiunto oltre 100mila visualizzazioni. E tante persone a quanto pare non si rendevano conto fosse un fake. O, addirittura, lo hanno capito, ma evidenziavano che quanto detto dall’avatar di Garattini fosse vero».
Il dibattito sui deepfake va affrontato anche alla luce di quanto in Italia è al centro del dibattito da mesi. Dal gruppo Facebook in cui molti uomini condividevano foto intime e rubate di donne, fino al recente sito che consente agli utenti di spogliare politiche, attrici, giornaliste. Come ha ribadito Matteo Flora, nostra Firma dal Futuro, in un suo recente video non è però la tecnologia a essere il problema, ma il fatto che molte persone grazie a questi strumenti hanno un accesso fino a pochi anni fa impensabile a trasformazioni così realistiche. Il problema, riprendendo sempre Flora, è la domanda che online c’è di questi contenuti.

Le responsabilità mancate
Come ha ribadito Silvia Sacchi «il problema non è l’Intelligenza artificiale in sé, ma l’uso che se ne fa e la cultura che lo legittima». Secondo la giornalista «l’AI amplifica comportamenti umani: se una società tollera la violazione della dignità di una donna, la tecnologia diventa solo un acceleratore di quella violenza. Il vero punto critico è la “domanda”, la curiosità morbosa che si trasforma in consumo di immagini false ma percepite come vere».
Invece di puntare il dito contro la tecnologia maligna sarebbe opportuno spostare l’attenzione sulle responsabilità individuali. «Non dobbiamo concentrarci sulla facilità tecnica: dobbiamo appellarci alla coscienza del genere umano». E che dire della responsabilità dei media? Negli ultimi casi l’aver citato i nomi di gruppi e siti è stato criticato perché ha esposto ulteriormente le vittime. «È un equilibrio delicato e non sempre facile da gestire – ha argomentato Sacchi -. Quando i media citano nomi di siti o piattaforme illegali, anche solo per denunciarli, il rischio è di farli conoscere ad un pubblico più ampio e, paradossalmente, alimentare la curiosità. Ma non informare non è la soluzione. Il punto non è nascondere, ma come raccontare. Bisogna spegare i meccanismi, denunciare le dinamiche, ma non dare visibilità a chi le sfrutta».