Deepfake: occorre difendersi dalla nuova frontiera della disinformazione

Deepfake: occorre difendersi dalla nuova frontiera della disinformazione
In un panorama cibernetico sempre più complesso, la crescente diffusione di attacchi e minacce basati su deepfake e manipolazione delle informazioni rappresenta una sfida significativa per la sicurezza e l’integrità dei dati. Risulta pertanto fondamentale adottare tecniche e strumenti di difesa che non solo siano efficienti, ma anche in grado di evolversi rapidamente per affrontare tali pericoli.

L'impatto dei deepfake sulla privacy e sull'integrità delle informazioni 

I deepfake sono contenuti multimediali alterati, spesso video, che impiegano l'intelligenza artificiale (IA) per generare rappresentazioni realistiche di persone o eventi mai avvenuti. Questi contenuti vengono creati attraverso tecniche di sintesi dell’immagine umana basate sull’intelligenza artificiale, le quali combinano e sovrappongono immagini e video esistenti con nuovi video o immagini, utilizzando un processo di apprendimento automatico.

Come si rinviene dalla terminologia stessa, tale tecnologia nasce dalla fusione dei termini “fake” (falso) e “deep learning” e, come anticipato, permette di modificare o ricreare in modo estremamente realistico le caratteristiche e i movimenti di un volto o di un corpo, e di imitare fedelmente una voce specifica. Le tecniche impiegate dai deepfake sono simili a quelle delle app che consentono di modificare la morfologia del volto, come invecchiarlo o cambiarne il sesso. Tale tecnologia, originariamente sviluppata per effetti speciali cinematografici, era inizialmente molto costosa e poco diffusa; tuttavia, a causa della rapida evoluzione tecnologica, app e software sempre più accessibili hanno reso possibile la loro creazione con il semplice utilizzo del cellulare, aumentandone la diffusione, così come i rischi ad essa associati.

Il fenomeno dei deepfake potrebbe anche sfociare in una particolare forma di furto d'identità: le persone ritratte in un “falso digitale”, senza aver rilasciato alcun consenso, non solo perderebbero il controllo sulla propria immagine, ma potrebbero anche restare prive del controllo sulle loro opinioni e pensieri, con possibili usi distorti.

Un deepfake può quindi ricreare contesti e scenari mai realmente accaduti, che, se non previamente approvati dagli interessati, potrebbero costituire una grave minaccia per la privacy e la dignità delle persone ma anche per la reputazione di qualunque brand aziendale, ad esempio, associato ad un voto noto illecitamente riprodotto con questa tecnica per fini distorti.

AI Act e contenuti artificiali: nuove regole per una maggiore trasparenza 

A sostegno delle preoccupazioni sollevate sul tema e della sua centralità nel dibattito legislativo, lo stesso testo finale del Regolamento Europeo 2024/1689 sull’intelligenza artificiale (“AI Act”) entrato in vigore lo scorso primo agosto 2024 ha affrontato l’argomento delineandone i profili critici.

In particolare, il Considerando 134 (e il corrispondente articolo 50, par. 4) ha stabilito un obbligo di trasparenza nei confronti degli utilizzatori di sistemi di intelligenza artificiale. In sostanza, per la creazione di deepfake il cui oggetto sia un’opera creativa, satirica, artistica o fittizia, sarà necessario indicare in maniera distinta se questi ultimi sono stati generati o manipolati artificialmente, rivelandone in tal senso l’origine.

Tale requisito mira a proteggere il diritto alla libertà di espressione, senza compromettere i diritti d’autore, un obiettivo che per la prima volta si è posta l’Europa grazie all’introduzione di un ampio insieme di normative sull’IA, ma che anche gli Stati Uniti stanno cercando di regolamentare, evidenziando l’indice di pericolosità di un tale sistema.

Conclusioni: come proteggersi dai deepfake? 

Al fine di affrontare il fenomeno, le grandi aziende digitali, così come le piattaforme di social media e i motori di ricerca, potrebbero sviluppare tecnologie avanzate e team specializzati per contrastare la tecnologia dei contenuti manipolati, utilizzando, ad esempio, sistemi di segnalazione ad hoc. Anche il supporto dell’Autorità per la protezione dei dati personali potrebbe rivelarsi estremamente utile in questo contesto, al fine di intervenire efficacemente per prevenire e sanzionare le violazioni delle normative sulla protezione dei dati.

In ogni caso, il primo e più efficace strumento di difesa resta la consapevolezza degli utenti, rimanendo cruciale evitare la condivisione indiscriminata di immagini personali, imparando a riconoscere i segnali di contenuti manipolati e non diffondendo video o audio, bensì segnalando i casi sospetti alle autorità competenti per proteggere la privacy e garantire un'adeguata risposta alle violazioni.

Avv. Pietro Maria Mascolo e Dott.ssa Valentina Prando

Newsletter

Iscriviti per ricevere i nostri aggiornamenti

* campi obbligatori