Negli ultimi anni si è sentito spesso parlare di app che permettono agli utenti di scoprire che aspetto avranno fra trent’anni o di scambiare i volti delle persone.
Anche se divertenti, fino a qualche tempo fa i risultati di queste applicazioni non erano particolarmente credibili.
L’avvento dell’intelligenza artificiale ha però cambiato le cose, non solo nella produzione delle immagini, ma anche e soprattutto in quella dei video.
Oggi infatti esiste una nuova tecnologia, chiamata deepfake, la quale, grazie a software di AI e a partire da contenuti reali, è in grado di modificare o ricreare fedelmente le caratteristiche e i movimenti di un volto o di un corpo, e di imitare una determinata voce.
Con il deepfake è dunque possibile creare, sovrapporre e riprodurre contenuti falsi ma verosimili a partire da foto, video e audio di una persona.
Si fanno insomma combaciare il volto di un soggetto e un corpo non suo, facendogli dire o fare cose che non ha mai detto né fatto.
Tutto ciò, come si può immaginare, può avere conseguenze molto serie per i soggetti coinvolti.
Che caratteristiche ha un deepfake?
I deepfake più diffusi sono quelli in cui il volto di un soggetto è sostituito con quello di un altro.
Recentemente, però, si stanno diffondendo altri tipi di attacchi, in cui l’identità delle persone non viene modificata, ma viene cambiata solo la loro espressione oppure il discorso che stanno pronunciando (facendo attenzione a ritoccare coerentemente anche il movimento delle labbra).
Un’altra sperimentazione in corso riguarda l’uso di caratteristiche legate al modo in cui un soggetto esprime le proprie emozioni, che sembrano essere particolarmente adatte a distinguere un’identità vera da una falsa, soprattutto se si affianca l’analisi facciale con quella dell’audio.
Infatti, le emozioni espresse dalle varie parti del volto dovrebbero essere coerenti con quelle della voce.
Queste ricerche sono motivate da numerosi studi che hanno mostrato la capacità dei sistemi di intelligenza artificiale di riconoscere le emozioni in un individuo, soprattutto se si analizzano congiuntamente le caratteristiche percettive, legate per esempio al movimento della bocca o degli occhi con il tono della voce.
Conseguenze del deepfake sui minori
È facile immaginare come il deepfake possa essere usato per danneggiare non solo politici o persone famose, ma anche la gente comune, compromettendone la reputazione e la credibilità tramite la diffusione di contenuti falsi.
Le vittime più vulnerabili sono ovviamente i minori.
I deepfake possono ad esempio alimentare il fenomeno del revenge porn, nel quale la persona diventa protagonista di immagini o video mai girati, utilizzati per ricattare, denigrare, o vendicarsi di un ex fidanzata o fidanzato.
Questa tipologia di deepfake si chiama deepnude, e consiste nel manipolare i volti e i corpi di individui inconsapevoli sui corpi di altri soggetti nudi coinvolti in situazioni compromettenti o in atti sessuali.
Recentemente sono emersi anche i primi casi di deepfake nell’ambito del cyberbullismo.
Se sono i ragazzi ad essere protagonisti dei contenuti manipolati, le conseguenze diventano ancora più gravi.
Il deepfake è una vera e propria violazione della privacy, e allo stesso tempo un furto di identità.
Questa tecnologia, se usata ad arte, può anche ingannare i sistemi di sicurezza online che impiegano il riconoscimento facciale e vocale.
Si rubano così informazioni e dati personali che permettono ai criminali di usare il volto e la voce della vittima a proprio piacimento.
Per quanto riguarda la diffusione di fake news, tramite il deepfake diventa facile screditare un politico o un personaggio famoso, o influenzare l’opinione pubblica tramite video e immagini falsi, generati per creare confusione e disorientamento.
Il Garante della privacy contro FakeYou
Il Garante della privacy, il 12 ottobre 2022, ha aperto un’istruttoria su “The Storyteller Company – FakeYou”, società che ha immesso sul mercato un’app di deepfake vocali.
FakeYou consentirebbe di riprodurre voci di personaggi noti, anche italiani e pubblici, mediante file di testo.
L’app, in pratica, recepisce uno scritto e lo rende sonoro, con la voce di una determinata persona.
Il Garante ha mostrato preoccupazione nei confronti dell’uso improprio di un dato personale identificativo qual è appunto la voce.
Come per il deepfake video l’allarme parte dai personaggi noti, ma si estenderà presto a chiunque.
Nel comunicato stampa del Garante, si legge che “L’Autorità ha dunque chiesto alla società “The Storyteller Company – FakeYou” di trasmettere con urgenza ogni possibile elemento utile a chiarire l’iniziativa”, e che “La società dovrà, tra l’altro, fornire le modalità di “costruzione” della voce dei personaggi famosi, il tipo di dati personali trattati, nonché le finalità del trattamento dei dati riferiti ai personaggi noti e agli utenti che utilizzano l’app”.
In altri termini, viene chiesto apertamente quale sia l’algoritmo alla base dell’intelligenza artificiale che riproduce le voci.
Interessante, infine, la richiesta di indicare con precisione l’esatta ubicazione dei data center che archiviano i dati personali, e le misure tecniche e organizzative adottate per garantire un livello di sicurezza adeguato al rischio.
Perchè FakeYou è una minaccia per la privacy
Il problema di FakeYou consiste nel fatto che l’app sia stata pensata per essere proposta a un pubblico ampio, utilizzando le voci di personaggi noti come “esca”.
L’intelligenza artificiale di Google è in grado di fare la stessa cosa con la voce di ognuno di noi da tempo.
Il punto è che in questo caso il servizio viene erogato solo a condizioni strettissime, per i rischi che comporterebbe una divulgazione “aperta”.
Il tema è chiaramente quanto le parti del nostro sé (come la voce e il volto) siano da tutelare in quanto dati personali, poiché il loro abuso può portare a conseguenze gravi per chiunque, specie per bambini e adolescenti.
Il provvedimento del Garante mostra l’esistenza di un pericolo serio, e la necessità di porre un freno al dilagare di un fenomeno che rischia di diventare incontrollabile.
Cosa fare per proteggere i minori dal deepfake
Prima di tutto è necessario, sia da parte degli insegnanti che dei genitori, conoscere il fenomeno.
Poi è fondamentale cercare di proteggere i minori, invitandoli a non eccedere nel diffondere le proprie immagini sul web.
Altro suggerimento è quello di non condividere mai il contenuto, ma piuttosto di segnalarlo e bloccarlo.
Col passare del tempo sarà sempre più complicato riconoscere i deepfake.
Immagini e video che coinvolgono persone comuni saranno però sempre creati da dilettanti, e potranno quindi sembrare improbabili già a una prima occhiata.
Il Garante ha messo a disposizione sul proprio sito web un vademecum dettagliato su come gestire il fenomeno del deepfake.
Per difendersi, è anche possibile rivolgersi alla helpline di Generazioni Connesse, alla Polizia Postale, o ad altre autorità che si occupano di tutelare la sicurezza online dei minori.