Nell’ambito dell'Hiroshima AI Process, il 30 ottobre 2023 i leader del G7 hanno raggiunto un accordo sui principi guida internazionali e stilato un codice di condotta volontario per gli sviluppatori dell’intelligenza artificiale.
Il contesto
L'AI Process di Hiroshima sull'Intelligenza Artificiale è stato istituito in occasione del Vertice del G7 del 19 maggio 2023 al fine di promuovere garanzie per i sistemi avanzati di intelligenza artificiale a livello globale. L'iniziativa si inserisce nell’ambito di una più ampia gamma di discussioni internazionali sui meccanismi di protezione e sviluppo dell'IA, anche in seno all'OCSE, al Partenariato globale sull'intelligenza artificiale (GPAI) e nel contesto del Consiglio per il commercio e la tecnologia UE-USA e dei Partenariati digitali dell'UE.
Tra i principali firmatari della dichiarazione dei leader del G7 figura la presidente della Commissione europea, Ursula von der Leyen, la quale non ha mancato di sottolineare l’importanza di promuovere un’IA affidabile che possa valorizzare al meglio gli enormi potenziali benefici che l’IA ha per i cittadini e per l’economia.
In particolare, sono state sottolineate le opportunità innovative e il potenziale di trasformazione dei sistemi avanzati di IA e soprattutto è stata riconosciuta la necessità di gestire i rischi connessi al loro sviluppo e utilizzo, nonché la necessità di tutelare gli individui, la società e i principi condivisi (lo stato di diritto, i valori democratici e la centralità dell’uomo).
Il codice di condotta e le linee guida – che saranno soggetti a continuo aggiornamento al fine di garantire che rimangano idonei al loro scopo – segnano un momento di svolta nella storia della regolamentazione dell’IA poiché integreranno, a livello internazionale, le norme giuridicamente vincolanti che i co-legislatori dell’UE stanno finalizzando nell’ambito della legge sull’IA dell’UE (AI Act).
Il codice di condotta
Il Codice di Condotta Internazionale per le Organizzazioni che Sviluppano Sistemi Avanzati di IA mira a promuovere un’intelligenza artificiale sicura, protetta e affidabile in tutto il mondo. A tale scopo il Codice fornisce una guida volontaria che possa orientare le Organizzazioni allo sviluppo di sistemi di IA nel rispetto dei principi condivisi.
In particolare, tra gli obiettivi principali posti dal Codice di Condotta figurano:
- l’adozione di misure appropriate durante lo sviluppo di sistemi avanzati di IA, prima, durante e dopo la loro immissione sul mercato, al fine di identificare, valutare e mitigare i rischi lungo tutto il ciclo di vita dell'IA;
- lo sviluppo e la divulgazione di politiche di governance dell'IA e di gestione del rischio;
- una condivisione responsabile delle informazioni tra le organizzazioni che sviluppano sistemi avanzati di IA, anche con l'industria, i governi, la società civile e il mondo accademico;
- l’investimento di risorse economiche in controlli di sicurezza, tra cui la sicurezza fisica, la cybersecurity e le protezioni contro le minacce interne lungo tutto il ciclo di vita dell'IA.
- l’implementazione di meccanismi affidabili di autenticazione e provenienza dei contenuti, laddove tecnicamente fattibile, come il watermarking o altre tecniche per consentire agli utenti di identificare i contenuti generati dall'IA.
- l’implementazione di misure appropriate per la protezione dei dati personali e della proprietà intellettuale.
Le Organizzazioni dovranno dunque dare priorità alla ricerca e agli investimenti di risorse economiche per mitigare i rischi per la società, la sicurezza e la protezione, ma anche per implementare sistemi avanzati di IA per affrontare le maggiori sfide del mondo.