Possibili nuovi problemi per Open AI: l’uso dei dati degli utenti del web potrebbe non essere legittimo

Possibili nuovi problemi per Open AI: l’uso dei dati degli utenti del web potrebbe non essere legittimo
Una nuova class action contro OpenAI è stata proposta in California da gruppi di utenti del web che ritengono di non aver autorizzato l’utilizzo delle proprie conversazioni, dati e condivisioni per addestrare i modelli alla base di ChatGPT. Le scuse non basteranno, i ricorrenti chiedono risarcimenti e obblighi di trasparenza.

Le azioni legali che mettono in discussione la legittimità delle IA generative non sembrano destinate a diminuire.

Da ultimo, è stata resa nota l’azione di classe presentata lo scorso giugno da alcuni cittadini americani nei confronti di OpenAI, società titolare di ChatGPT e DALL-E.

A differenza delle azioni precedenti, tuttavia, questa volta la base giuridica delle domande di risarcimento non è la proprietà intellettuale, bensì la titolarità dei dati usati per costituire i dataset di allenamento delle intelligenze artificiali.

L’oggetto della domanda

I ricorrenti, in particolare, lamentano il fatto che i prodotti di OpenAI per divenire così sbalorditivi e dunque generare profitti hanno utilizzato le conversazioni degli utenti, i loro commenti, le loro condivisioni, immagini, dati sensibili etc reperibili su Internet senza preoccuparsi di chiedere il consenso per tale utilizzo ai legittimi titolari.

Le tesi sostenute nell’azione legale si basano su due assunti di fondo.

In primo luogo, i dati degli utenti costituirebbero un asset suscettibile di valutazione patrimoniale, come dimostra il fatto che esistono mercati in cui essi vengono venduti.

Per tale ragione, l’utilizzo di tali dati senza aver chiesto il relativo consenso sarebbe illegittimo, sia dal punto di vista del danno patrimoniale arrecato agli utenti, sia dal punto di vista del possibile disagio creato agli utenti stessi dalla consapevolezza che i propri dati sensibili e le proprie opinioni sono state usate per creare strumenti utilizzabili da una platea indistinta di utilizzatori.

In secondo luogo, dal punto di vista dei generali obblighi di diligenza verso il mercato e i consumatori, il rilascio di strumenti come ChatGPT al pubblico senza adeguati filtri e misure di controllo comporta, a parere dei ricorrenti, una gravissima responsabilità in capo ad OpenAI per gli utilizzi possibilmente dannosi che da esso possano discendere.

Ne consegue la domanda rivolta al giudice di imporre alla società californiana obblighi di trasparenza e assunzioni di responsabilità riguardo alle modalità di allenamento dei loro algoritmi, al contenuto degli algoritmi stessi e alle possibili conseguenze dannose da essi generati.

Posizioni contrastanti

Dal canto loro, gli sviluppatori delle IA in varie occasioni si sono difesi sostenendo che in realtà la condivisione pubblica di dati e informazioni su piattaforme e siti web accessibili da chiunque sottintende il consenso a che – appunto – chiunque ne possa fare l’uso trasformativo che crede.

A differenza di quanto si può sostenere rispetto alle opere protette dal diritto d’autore, infatti, non esiste un vero e proprio titolo di privativa sui dati e le informazioni diffuse al pubblico, trattandosi piuttosto – almeno nella prospettiva italiana ed europea - di un titolo di protezione di diritti fondamentali della persona alla propria riservatezza e intimità.

In altre parole, il fatto di addestrare un algoritmo a “ragionare” come un essere umano sulla base delle conversazioni altrui non sarebbe considerabile come un furto, poiché i diritti che proteggono la sfera di riservatezza degli individui non arriverebbero a proibire un simile utilizzo dei dati.

Conclusioni

Il nodo problematico di fondo di questa nuova sfida legale sembra essere dunque sintetizzabile come segue: in cosa differisce l’apprendimento delle IA dall’apprendimento umano? Il fatto che l’utilizzo massivo di dati possa essere trasformato in strumenti profittevoli per gli sviluppatori degli algoritmi di apprendimento li rende illegittimi?

In definitiva, il fatto che gli utenti del web non abbiano acconsentito ad un uso diverso da quello immaginato quando condividevano le proprie opinioni o dati su internet, rende un tale uso illegittimo?

I problemi posti dalle IA generative ricordano invero il dibattito suscitato dalla inaugurazione dell’uso generalizzato della rete internet all’inizio degli anni Novanta, paventata da molti addirittura come la fine del controllo statale sui propri confini per la impossibilità di gestire un flusso di informazioni all’apparenza incontrollabile.

Allora la scelta di preservare le condizioni di sviluppo della rete – al contempo istituendo organizzazioni internazionali di controllo e governo – fu presa dal legislatore.

Quale che sia la scelta che si deciderà di percorrere nel caso di questa nuova tecnologia, le numerose cause già in atto ci segnalano che un ruolo fondamentale lo giocheranno i giuristi, chiamati a individuare il perimetro di legittimità del loro uso.

Avv. Caterina Bo

Newsletter

Iscriviti per ricevere i nostri aggiornamenti

* campi obbligatori