Normativa
AI SAFETY SUMMIT 2023: ‘DICHIARAZIONE D’INTENTI’ SULLE NUOVE FRONTIERE APERTE DALL’INTELLIGENZA ARTIFICIALE
“The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023” Declaration agreed by countries attending the AI Safety Summit 2023 at Bletchley Park, Buckinghamshire (Published 1 November 2023)
GOV.UK
https://www.gov.uk/
GOV.UK - Link alla DICHIARAZIONE - (Nov. 1st, 2023)
Sul sito web del Governo britannico, il 1° novembre, è stata pubblicata una “dichiarazione d’intenti” (“The Bletchley Declararation”), siglata in occasione dell’AI Safety Summit tenutosi in pari data nel Regno Unito. Il documento pone i fondamenti per una “comprensione condivisa”, sul piano internazionale, delle opportunità e dei rischi posti dall’intelligenza artificiale (AI).
La Dichiarazione è stata sottoscritta da 28 Paesi (tra cui l’Italia) e dall’Unione Europea(1).
Nel comunicato del Governo – che riporta il testo della Dichiarazione – si legge innanzitutto che l’intelligenza artificiale (AI) presenta, sul piano globale, enormi opportunità, posto che ha il potenziale per trasformare e migliorare il benessere umano, la pace e la prosperità.
Per la realizzazione di tali obiettivi– si legge nel testo– si afferma che l’intelligenza artificiale dovrebbe essere progettata, sviluppata, implementata e utilizzata in sicurezza, in modo tale da essere “incentrata sull’uomo”, affidabile e responsabile. I Sottoscrittori del documento, quindi, accolgono con favore gli sforzi di cooperazione finora compiuti dalla comunità internazionale, con il fine ultimo di promuovere la crescita economica inclusiva, lo sviluppo sostenibile e l’innovazione, per proteggere i diritti umani e le libertà fondamentali, come pure per promuovere la fiducia del pubblico nei sistemi di intelligenza artificiale e per realizzarne appieno il potenziale.
Viene riconosciuta la necessità di uno sviluppo sicuro dell’IA e di un utilizzo delle opportunità secondo criteri di inclusività, a particolare beneficio di servizi pubblici come sanità e istruzione, sicurezza alimentare, scienza, energia pulita, biodiversità e clima, anche nell’intento di raggiungere gli obiettivi di sviluppo sostenibile delle Nazioni Unite.
Per contro, nella Dichiarazione viene sottolineato che l’IA comporta anche rischi significativi, e va riconosciuta la necessità di tutelare una serie di valori fondamentali, tra cui diritti umani, trasparenza, equità, responsabilità, regolamentazione, sicurezza, etica, privacy e protezione dei dati. È necessario e urgente, inoltre, affrontare il problema dei potenziali rischi derivanti dalla capacità di manipolare o generare contenuti ingannevoli.
Nel testo si afferma, infatti, che particolari rischi per la sicurezza emergono dall’ "IA di frontiera", che comprende quei modelli di IA “ad elevata capacità” (potenzialmente in grado di svolgere un'ampia gamma di compiti), così come l'IA che può sviluppare capacità in grado di causare danno. Rischi sostanziali potrebbero derivare da un potenziale uso improprio intenzionale o da problemi di controllo non intenzionali. Nella Dichiarazione viene sottolineato che si tratta di problemi in parte dovuti al fatto che tali capacità non sono completamente comprese e, pertanto, risultano difficilmente prevedibili; pertanto, a riguardo di tali rischi viene espressa particolare preoccupazione per settori quali la sicurezza informatica e la biotecnologia (e per situazioni ove la “frontier IA” potrebbe amplificare rischi di disinformazione).
Nell’ambito della cooperazione tra i Sottoscrittori, tesa ad affrontare i rischi legati alla “frontier IA”, la Dichiarazione indica che l’agenda di lavoro si concentrerà sulle seguenti azioni:
- identificare i rischi per la sicurezza correlati all’IA, costruire una comprensione scientifica condivisa e “basata sull'evidenza” di tali rischi, da sostenere e sviluppare nel tempo e al mutare/avanzare delle conoscenze sulla materia;
- costituire, in tutti i Paesi, politiche risk-based tese a garantire la sicurezza a fronte dei rischi, collaborando e riconoscendo possibili differenze di approcci. Necessaria maggiore trasparenza da parte degli attori privati che sviluppano la “frontier AI”, come pure parametri di valutazione adeguati e strumenti idonei per test di sicurezza.
In attesa di futuri incontri sul tema, i Sottoscrittori della Dichiarazione decidono di sostenere (I) una “rete inclusiva” di ricerca scientifica - su scala internazionale - in materia di “frontier IA security”, come pure (II) un dialogo globale e inclusivo che coinvolga i Forum esistenti, per contribuire a un dibattito internazionale quanto più possibile ampio.
_________________________
(1) I sottoscrittori della Dichiarazione sono i seguenti:
Arabia Saudita, Australia, Brasile, Canada, Cile, Cina, Emirati Arabi Uniti, Francia, Germania, India, Indonesia, Irlanda, Israele, Italia, Giappone, Kenya, Nigeria, Paesi Bassi, Regno Unito di Gran Bretagna e Irlanda del Nord, Repubblica di Corea, Rwanda, Singapore, Spagna, Stati Uniti d’America, Svizzera, Turchia, Ucraina, Unione Europea.