
In vista dell’entrata in vigore il prossimo 2 agosto delle norme sui modelli di IA per scopi generali (GPAI), la Commissione ha avviato una consultazione pubblica con le parti interessate al fine di definire delle Linee guida volte a chiarire i concetti chiave delle disposizioni.
L’AI Act, pubblicato in Gazzetta Ufficiale dell’UE lo scorso 13 giugno 2024, rappresenta il primo quadro normativo completo al mondo per disciplinare l’intelligenza artificiale. Tra i punti più delicati e innovativi della normativa vi è anche la regolamentazione dei modelli di AI per finalità generali (General Purpose AI, GPAI), addestrati con grandi quantità di dati utilizzando l'autosupervisione su larga scala e caratterizzati da una generalità significativa che li rende in grado di svolgere con competenza un'ampia gamma di compiti distinti (come quelli che alimentano sistemi avanzati di generazione di testi, immagini, codici e altri contenuti).
Come riconosciuto dall’AI Act, la natura dei modelli GPAI pone sfide che devono essere affrontate: basti pensare che possono essere riutilizzati in contesti ad alto rischio senza adeguati controlli e, se non sviluppati con responsabilità, potrebbero amplificare rischi sistemici come la disinformazione, le discriminazioni algoritmiche e le minacce alla sicurezza informatica. La normativa, quindi, prevede obblighi specifici per i fornitori di questi modelli, tra cui: trasparenza sulle fonti dei dati utilizzati, valutazione e mitigazione dei rischi sistemici, e condivisione di informazioni chiave con le autorità e gli utenti professionali.
Per fare chiarezza sull’approccio pratico che i fornitori di sistemi di intelligenza artificiale devono adottare per garantire la conformità normativa, la Commissione ha avviato una consultazione pubblica finalizzata all’adozione di Linee guida specifiche. Queste Linee guida dovranno chiarire sia l’ambito di applicazione delle disposizioni relative all’IA di uso generale, sia le implicazioni operative per i fornitori.
In particolare, con riferimento alla definizione di modelli di IA per scopi generali, le Linee guida della Commissione dovrebbero indicare i criteri pratici per stabilire quando un modello possiede un livello di generalità e capacità sufficiente per rientrare in questa categoria. La complessità deriva dal vasto spettro di potenziali applicazioni di tali modelli. Il considerando 98 dell’AI Act specifica che i modelli con almeno un miliardo di parametri, addestrati su larga scala con tecniche di auto-supervisione e grandi quantità di dati, dovrebbero essere considerati capaci di eseguire con competenza una vasta gamma di compiti distinti. Tuttavia, lo stesso considerando non definisce chiaramente cosa si intenda per “grande quantità di dati”, pertanto, per meglio valutare la generalità e le capacità di un modello, l’Ufficio per l’IA propone come criterio preliminare il calcolo delle risorse computazionali impiegate per l’addestramento (training compute). Questo metodo integra il numero di parametri e la quantità di dati di addestramento in un unico valore, approssimativamente proporzionale al prodotto tra i due, superando la misurazione separata della dimensione del modello e del dataset.
Le Linee guida forniranno inoltre chiarimenti e casi concreti per la definizione di “fornitore”. Ai sensi dell’articolo 2, paragrafo 1, lettera a), dell’AI Act, rientrano in questa categoria tutti coloro che immettono un modello sul mercato dell’Unione, indipendentemente dal fatto che siano stabiliti all’interno dell’UE o in un Paese terzo.
Infine, le Linee guida completeranno il Codice di condotta per l’IA di uso generale, che definirà come i fornitori dovranno assicurare il rispetto degli obblighi di documentazione e tutela del diritto d’autore previsti dall’articolo 53 dell’AI Act, nonché degli obblighi di valutazione e mitigazione del rischio sistemico previsti dall’articolo 55, per i modelli più avanzati e potenzialmente a rischio. Il Codice sarà articolato in tre sezioni principali: le prime due dedicate alla trasparenza e alla gestione dei diritti d’autore per tutti i fornitori di modelli GPAI, e la terza focalizzata sulla sicurezza dei modelli classificati come a rischio sistemico, prevedendo 16 specifici impegni.
Dott.ssa Giulia Amadeo e Dott.ssa Alice Dal Bello