Codice di Condotta internazionale per i sistemi avanzati di AI
Nel contesto di un uso sempre più diffusa dell’intelligenza artificiale (“AI”), la necessità di una regolamentazione efficace appare ormai evidente e, a tal riguardo, l’Unione Europea, riconoscendo questa esigenza, è ad esempio in una fase avanzata di approvazione del c.d. AI Act.
Parallelamente, in data 30 ottobre 2023, i leader del G7 a Hiroshima – costituito dai Paesi Canada, Francia, Germania, Italia, Giappone, Regno Unito, Germania, Stati Uniti e Stati Uniti – hanno stabilito dei principi guida e un codice di condotta internazionale per gli sviluppatori di AI (“Codice di Condotta”). Tali interventi, evidenziano un impegno crescente verso un’AI sicura, etica e trasparente.
L’obiettivo del G7, in particolare, è quello di creare uno strumento standard di monitoraggio e controllo condiviso dell’AI, che sia basato in primo luogo sul rispetto dei diritti umani.
Nello specifico, il Codice di Condotta è volto a mitigare i rischi derivanti dall’AI come, a titolo esemplificativo, la disinformazione e la violazione della privacy o della proprietà intellettuale. Per queste ragioni, il Codice di Condotta integra, a livello internazionale, le norme giuridicamente vincolanti che i legislatori dell’Unione Europea stanno attualmente mettendo a punto in materia di AI e, in generale, sarà sottoposto a continui e ripetuti aggiornamenti, se necessario, per adattarsi alla rapida evoluzione della tecnologia.
Di seguito, analizzeremo gli 11 principi alla base del Codice di Condotta.
- Adottare misure appropriate durante lo sviluppo di sistemi di AI anche prima e durante la loro diffusione e immissione sul mercato, per identificare, valutare e mitigare i rischi lungo tutto il ciclo di vita dell’AI
Il Codice di Condotta prevede l’impiego di diverse misure di test interni ed esterni indipendenti, attraverso una combinazione di metodi come il red-teaming[1], e l’implementazione di misure di mitigazione appropriate per affrontare i rischi e le vulnerabilità identificate. A sostegno di tali test, gli sviluppatori (ossia le società che sviluppano sistemi di AI, di seguito definiti “Sviluppatori”) dovrebbero cercare di consentire la tracciabilità, in relazione ai set di dati, ai processi e alle decisioni prese durante lo sviluppo del sistema di AI.
- Uso improprio dei sistemi di AI dopo l’implementazione e l’immissione sul mercato
Il Codice di Condotta dispone che gli Sviluppatori di sistemi di AI devono monitorare le vulnerabilità, gli incidenti, i rischi emergenti e l’uso improprio dopo l’implementazione e, se necessario, intraprendere le azioni appropriate per risolverli. In tal caso, il Codice di Condotta consiglia, ad esempio, di incrementare e/o disporre dei sistemi di segnalazione efficaci accessibili a chiunque. In aggiunta, il Codice di Condotta prevede che gli Sviluppatori devono mantenere un’adeguata documentazione degli incidenti segnalati e mitigare i rischi e le vulnerabilità identificate, in collaborazione con altri stakeholder.
- Segnalare pubblicamente le capacità, le limitazioni e gli ambiti di utilizzo appropriato e inappropriato dei sistemi avanzati di AI, per garantire una sufficiente trasparenza e contribuendo così ad aumentare la responsabilità
Il Codice di Condotta include, in tal senso, la pubblicazione di informazioni significative per tutti i nuovi sistemi di AI immessi o che si vogliono immettere sul mercato. Tali informazioni, devono essere pubblicate mediante dei rapporti di trasparenza che devono essere sufficientemente chiari e comprensibili, al fine di consentire un uso corretto del sistema di AI.
- Lavorare per una condivisione responsabile delle informazioni e per la segnalazione degli incidenti tra gli Sviluppatori che sviluppano sistemi di AI, anche con l’industria, i governi, la civiltà e il mondo accademico
Il Codice di Condotta include all’interno di tale principio, anche, la condivisione responsabile delle informazioni, ivi incluse, le informazioni sui rischi per la sicurezza e l’incolumità di coloro che usano l’AI.
- Sviluppare, implementare e divulgare politiche di governance dell’AI e di gestione del rischio, basate su un approccio basato sul rischio.
Il Codice di Condotta include la divulgazione – ove opportuno – delle privacy policy e delle misure di mitigazione, in particolare per gli Sviluppatori. Inoltre, il Codice di Condotta prevede la necessità di includere dei sistemi per valutare e mitigare i rischi del sistema di AI, ove possibile, durante l’intero ciclo di vita dell’AI.
- Investire e implementare i controlli di sicurezza, tra cui la sicurezza fisica, la cybersicurezza e le protezioni contro le minacce interne in tutto il ciclo di vita dell’AI
Il Codice di Condotta include – tra l’altro – la protezione degli algoritmi dei sistemi di AI, dei server e dei set di dati, attraverso misure di sicurezza operativa per la tutela delle informazioni e adeguati controlli di accesso cibernetico/fisico.
- Sviluppare e distribuire meccanismi affidabili di autenticazione e provenienza dei contenuti, laddove tecnicamente fattibile, come il watermarking o altre tecniche per consentire agli utenti di identificare i contenuti generati dall’AI
Il Codice di Condotta prevede che – al fine di consentire agli utenti un’esatta identificazione dei contenuti realizzati mediante il supporto di sistemi di AI – coloro che realizzano contenuti mediante sistemi di AI devono specificare che tali contenuti sono stati creati con sistemi di AI, ad esempio tramite filigrane. In aggiunta, il Codice di Condotta invita gli Sviluppatori a implementare altri meccanismi, come l’uso di disclaimer o di clausole di non responsabilità, per consentire agli utenti, ove possibile e opportuno, di sapere quando stanno interagendo con un sistema di AI.
- Dare priorità alla ricerca per mitigare i rischi
Il Codice di Condotta, in tal senso, incentiva l’investimento in ricerche volte a sostenere lo sviluppo di nuovi sistemi di AI e, al tempo stesso, incrementare gli strumenti volti a mitigare eventuali rischi nell’uso dei sistemi di AI, così da instaurare tra i sistemi di AI e gli utenti un “rapporto di fiducia”.
- Dare priorità allo sviluppo di sistemi avanzati di AI per affrontare le maggiori sfide del mondo, in particolare, ma non solo, la crisi climatica, la salute globale e l’istruzione
Il Codice di Condotta, nell’incoraggiare lo sviluppo di nuovi sistemi di AI, invita gli Sviluppatori a sviluppare sistemi di AI a beneficio dell’essere umano.
- Promuovere lo sviluppo e, se del caso, l’adozione di standard tecnici internazionali.
Il Codice di Condotta prevede per gli Sviluppatori l’utilizzo di standard tecnici e best practice internazionali, anche per il watermarking, e la collaborazione con “Standars Development Organizatios” (SDO).
- Implementare misure appropriate di inserimento dei dati e di protezione dei dati personali e della proprietà intellettuale
Il Codice di Condotta incoraggia gli Sviluppatori a i) adottare misure appropriate per gestire la qualità dei dati, compresi i dati di formazione e la raccolta dei dati, ii) mitigare eventuali bias degli algoritmi, iii) garantire un’adeguata trasparenza e iv) rispettare i riferimenti normativi in materia di AI.
Al termine del G7, i leader hanno invitano i singoli Stati a sviluppare, entro la fine dell’anno, un piano di lavoro che includa la cooperazione con il Partenariato Globale per l’Intelligenza Artificiale (GPAI) e l’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE). Ciò in quanto la finalità ultima del G7 è quella di ottenere dalla tecnologia e, quindi, dall’AI, un vantaggio condiviso a livello globale, sia per il pianeta stesso che per le economie emergenti e in via di sviluppo, con l’obiettivo di colmare il divario tecnologico e raggiungere l’inclusione digitale.
[1] Il red-teaming è una tecnica che consente di valutare la capacità di un’azienda nonché di rilevare, prevenire e rispondere a minacce sofisticate e mirate, e di identificare e quantificare le lacune di sicurezza già esistenti e migliorare i processi futuri.