Vittime illustri nel mirino dei deepfake: le piattaforme non fanno abbastanza?

Vittime illustri nel mirino dei deepfake: le piattaforme non fanno abbastanza?
Da ultimo, l’Oversight Board, organo di sorveglianza esterno di Meta, restituisce un quadro chiaro a riguardo e dichiara “I moderatori su larga scala non hanno il potere di far rispettare questo divieto a contenuti che creano una falsa identità o fingono di essere una persona famosa al fine di truffare o frodare”.

È un fatto comune, quasi quotidiano, che un volto noto (della tv, dello sport, dello spettacolo) sia impropriamente associato a contesti/contenuti diffusi in rete che non gli appartengono o a situazioni mai verificatisi nella realtà, circostanza resa, però, possibile - e anzi assai diffusa- a mezzo dell’uso della tecnologia dei “deepfake”.

Come è noto, si tratta di strumenti basati sull’intelligenza artificiale e sul machine learning che permettono di creare video e immagini in cui i volti dei personaggi famosi vengono sovrapposti ad altri corpi in contesti completamente fittizi, con un realismo che anche un occhio allenato fa difficoltà a percepire come non corrispondente al vero.

La novità è che stavolta sia proprio un organo di Meta (società proprietaria, tra l’altro, delle piattaforme Facebook, Whatsapp e Instagram) a chiedere interventi più capillari, in quanto, allo stato, la diffusione di questi contenuti appare globalmente diffusa e non efficacemente contrastata.

Il caso sottoposto all’attenzione del Board è sorto nel settembre 2024 su istanza di un utente che segnalava come truffaldini alcuni contenuti che ritraevano il calciatore brasiliano Ronaldo Luís Nazário de Lima nell’intento di promuovere app per giochi on line. Nel video, Ronaldo incoraggiava gli utenti a cliccare su un link per il download dell'app che, tuttavia, rinviava a un gioco diverso, dalle fattezze fraudolente. Il post aveva intanto ottenuto oltre 600.000 visualizzazioni. Nonostante la segnalazione dell’utente e di molti altri al seguito, il post non veniva rimosso e costringeva l’utente a proporre prima appello a Meta, quindi appello al Board, così finalmente ottenendone la rimozione.

Il caso non sembra troppo lontano dagli innumerevoli esempi, sulla stessa scia, che stanno interessando anche alcuni personaggi noti italiani, protagonisti, loro malgrado e senza alcun consenso all’uso della propria immagine, di promozioni aventi ad oggetto financo campagne fraudolente e truffe finanziarie a mezzo di contenuti realizzati ad opera di ignoti con l’intelligenza artificiale.

Il fenomeno per ora non sembra avere una soluzione univoca, ma senz’altro la revisione umana – non affidata a controlli automatici – dei contenuti unitamente alla presenza di filigrane e metadati di manipolazione multimediale affiancata ai contenuti oggetto di segnalazione porterebbe a risultati più veloci ed efficaci.

Su tale aspetto anche il Board appare d’accordo laddove, a margine del caso sopra esaminato, chiosa: “Meta dovrebbe far rispettare questo divieto su larga scala fornendo ai moderatori indicatori spesso facilmente identificabili che distinguano i contenuti creati dall'intelligenza artificiale”.

Soluzione che ha un costo, senz’altro. Ma non così alto se si pensa alla posta in gioco, vale a dire i diritti della persona, la fiducia degli utenti nei contenuti digitali quindi la credibilità dell’informazione.

Avv. Andreina D'Auria

Newsletter

Iscriviti per ricevere i nostri aggiornamenti

* campi obbligatori