DSA: la protezione europea del “Buon Samaritano” e il regime di safe harbour

DSA: la protezione europea del “Buon Samaritano” e il regime di safe harbour

L’introduzione di una protezione europea del “Buon Samaritano” all’interno del DSA potrebbe indurre gli intermediari di servizi online ad adottare sistemi di monitoraggio proattivo del rischio di illecito. Il contributo tende ad inquadrare normativamente le azioni di controllo volontario previste dalla Proposta di Legge sui servizi digitali della Commissione europea e ad evidenziarne i relativi rischi applicativi.

La proposta Legge sui servizi digitali della Commissione europea (in seguito, “Proposta di Regolamento” o “DSA”) sembrerebbe introdurre una serie di meccanismi finalizzati ad una maggiore responsabilizzazione dei provider sotto il profilo del controllo e gestione di contenuti illeciti o nocivi immessi online, tramite i loro servizi; infatti, oltre alle misure previste in materia di obblighi di due diligence – già discusse in occasione di un nostro precedente contributo - e ai conseguenti nuovi profili di responsabilità, la Proposta di Regolamento in commento si caratterizza anche per indurre gli intermediari di servizi online ad adottare comportamenti proattivi nelle attività di monitoraggio e rimozione dei detti contenuti.

L’incoraggiamento verso un sistema di gestione proattiva del rischio di illecito online sembra evidente se si guarda alla proposta di introduzione di una regola tipicamente statunitense, la c.d. clausola del “Buon Samaritano”. Tale incoraggiamento veniva espresso dalla Commissione UE già nella Comunicazione del 2017 sulla Lotta ai contenuti illeciti online ove si legge che “La presente comunicazione … mira inoltre a fornire chiarimenti alle piattaforme in merito alla loro responsabilità nell'adozione di misure proattive volte a individuare, rimuovere o disabilitare l'accesso a contenuti illegali (le cosiddette azioni da "buon samaritano").

Le buone pratiche di monitoraggio e rimozione di contenuti illeciti si inseriscono in un sistema di prevenzione del rischio di diffusione di materiali illegali sul web che richiede, come peraltro preannunciato nella detta Comunicazione, l’adozione di forme di cooperazione tra i prestatori di servizi online nonché tra quest’ultimi e le autorità competenti.

Le azioni da “Buon Samaritano” devono essere intraprese su base volontaria, a seguito di indagini autonomamente svolte dagli intermediari di servizi online e che, dunque, non sono rese obbligatorie da ordini ricevuti dall’autorità giudiziaria e/o amministrativa, ma che potrebbero essere sollecitate da notifiche/segnalazioni dei titolari dei diritti lesi.

Tali azioni da un lato non fanno venir meno il divieto di obbligo generale di monitoraggio (articolo 7 della Proposta di Regolamento in commento – già introdotto nella Direttiva e-commerce 2000/31 al Considerando 47) e dall’altro si collocano su un piano diverso dagli obblighi di controllo “in casi specifici” che certamente possono essere imposti dall’Autorità, come già chiarito dalla Corte di Giustizia, Causa C- 18/2018, Glawischnig – Piesczek – Facebook (punto 37, cfr. il nostro precedente contributo) e Causa C- 682/18 e 683/18, YouTube – Cyando (punto 113).

Il regime dei controlli volontari è specificato nel Considerando 25 e nel successivo Articolo 6 della Proposta di Regolamento. In particolare, l’Articolo 6 prevede che le limitazioni della responsabilità (c.d. safe harbour) “non vengano meno qualora i prestatori di servizi intermediari online svolgano indagini promosse di propria iniziativa ovvero rispettino gli obblighi normativi”.

Il regime di limitazione della responsabilità dei provider è contenuto negli articoli 3 – 5 della Proposta di Regolamento che, a loro volta, riprendono quasi letteralmente quanto attualmente previsto dagli articoli 12 – 14 della Direttiva e-commerce 2000/31.

Nonostante le azioni del “Buon Samaritano” ovvero misure di prevenzione del rischio di diffusione di materiali illeciti non precludano l’applicazione del citato regime di limitazione della responsabilità, c’è chi rileva che la formulazione ampia e per certi aspetti indefinita in relazione ai suoi presupposti applicativi delle norme di riferimento potrebbe rappresentare un ostacolo alla concreta implementazione di queste buone pratiche.

Basti pensare che il Considerando 25, nell’introdurre tali azioni di controllo su base volontaria, specifica che le stesse non comportano il venir meno delle limitazioni di responsabilità purché siano “svolte in buona fede e in modo diligente” e – secondo la formulazione da ultimo proposta dal Parlamento Europeo – “siano accompagnate da garanzie supplementari contro la rimozione eccessiva di contenuti legali”.

Allo stesso tempo, però, un’azione su base volontaria condotta “in modo diligente” potrebbe condurre il provider ad acquisire una conoscenza effettiva dell’illecito in corso, da cui conseguirebbe per quest’ultimo l’obbligo, previsto al Considerando 22 e all’articolo 5 della Proposta di Regolamento, di agire immediatamente per rimuovere o disabilitare l'accesso a tale contenuto, pena la diretta responsabilità dell’operatore per l’omesso intervento tempestivo.

Avv. Alessandro La Rosa e Avv. Maria Giorgia Mazzilli

Newsletter

Iscriviti per ricevere i nostri aggiornamenti

* campi obbligatori