Intelligenza artificiale e “fake news”: gli algoritmi sono i “buoni” o i “cattivi”?

Intelligenza artificiale e “fake news”: gli algoritmi sono i “buoni” o i “cattivi”?
La società dell’algoritmo, come viene definito ormai il contesto storico–culturale in cui viviamo, pone quotidianamente accese sfide al costituzionalismo: l’impiego delle tecnologie moderne interagisce con le libertà individuali e, in particolare, con il diritto ad essere informati in modo corretto e veritiero. Eppure, quell’evoluzione digitale che avrebbe dovuto accompagnare e facilitare il progresso nell’informazione sembra essere diventata, in alcuni casi, un rimedio peggiore del male.

Negli ultimi anni, infatti, il tema della (dis)informazione online è stato correlato in modo significativo al ruolo assunto dagli algoritmi, da un lato, nel creare e diffondere “fake news”, dall’altro a contrastarle.

Si ricordi che la “fake news” si identifica in quell’informazione non corrispondente al vero, diffusa intenzionalmente ed al fine di trarre in inganno chiunque possa leggerla.

Secondo alcuni autori, addirittura, essa può presentarsi come una notizia costruita artificiosamente, rispondente, in modo apparente, a criteri di verità e pertinenza, con l’obiettivo di creare un dibattito, tanto che si è molto discusso di “post–verità” o di “fatti alternativi”.

Ad ogni modo, gli algoritmi che vengono utilizzati dagli “internet service providers” hanno acquisito un ruolo fondamentale nella diffusione delle notizie false, perché tendono a confezionare appositamente sul profilo degli utenti le informazioni da far circolare.

La più avanzata tecnologia consente di utilizzare robot che, artificialmente, creano profili e contenuti falsi – scambiati dagli utenti per veri – con l’ulteriore complicanza derivante dall’anonimato delle comunicazioni. Ciò assume risonanza all’interno dei “social media” che, contribuiscono a rafforzare i pregiudizi e le nozioni distorte, a causa dell’effetto rimbalzo dell’informazione all’interno di un sistema chiuso. La notizia realizzata sulla base delle caratteristiche profilanti dell’utente tende a circolare e ad essere assunta come vera, perché attraverso l’impiego della tecnologia artificiale, viene costruita in modo tale da confermare le idee e le convinzioni di quella specifica categoria di lettori e/o “naviganti”, con grave nocumento alla formazione plurale e “di qualità” dell’opinione pubblica in un sistema democratico.

Del resto, sebbene il diritto ad essere informati correttamente non sia espressamente riconosciuto all’interno della nostra Costituzione, è possibile che venga ricavato implicitamente dalla lettura dell’articolo 21, come sostenuto anche dalla Corte Costituzionale, in più precedenti, seppur risalenti agli anni ’70, la quale sottolinea l’importanza della “formazione di una pubblica opinione avvertita e consapevole”.

Ad onore del vero, bisogna vestire, per un momento, i panni dell’“avvocato del diavolo” ed affermare che gli algoritmi creati dall’intelligenza artificiale possono allo stesso tempo rappresentare un valido strumento di individuazione delle fake news.

Google e Facebook, ad esempio, hanno implementato il ricorso ad algoritmi che permettano di scoraggiare la diffusione di informazioni false e che funzionano tramite strumenti di “fact checking analizzando sia il profilo dell’autore e degli utenti che hanno contribuito alla diffusione della notizia mediante commenti, “like” e condivisioni sia le caratteristiche della notizia, quindi il linguaggio adoperato – sul piano lessicale e semantico – oltre alla costruzione sintattica. Ciò, in ogni caso, va coniugato con l’esigenza di comprendere nella maniera più completa possibile le funzionalità di tali algoritmi, per evitare che, con l’obiettivo di garantire un’informazione veritiera si ricada nell’errore opposto, vale a dire quello di reprimere il pluralismo dell’informazione. Sul tema, ha dimostrato particolare sensibilità anche l’Unione europea, la quale, sull’onda della dilagante disinformazione derivante dalla pandemia da Covid-19, ha evidenziato “l'importanza di garantire che l'ecosistema online sia uno spazio sicuro e ha dimostrato che, nonostante i notevoli sforzi compiuti finora, permane l'urgente necessità di intensificare l'impegno per combattere la disinformazione”.

Si può, conclusivamente, sostenere che gli strumenti correlati ai meccanismi di intelligenza artificiale non possono essere considerati in termini assoluti positivi o negativi, in quanto molto dipende dall’utilizzo che viene effettuato e dalla regolamentazione che, all’uopo, viene predisposta. Gioca un ruolo fondamentale, dunque, l’intervento umano, il cui obiettivo dovrebbe sostanziarsi nell’individuazione di regole di funzionamento improntate a requisiti di trasparenza, chiarezza e linearità.

Avv. Rossella Bucca

Newsletter

Iscriviti per ricevere i nostri aggiornamenti

* campi obbligatori