UE
IL PARLAMENTO EUROPEO ADOTTA LA NORMATIVA IN MATERIA DI INTELLIGENZA ARTIFICIALE (“AI ACT”)
“MEPs ready to negotiate first-ever rules for safe and transparent AI” EP PRESS RELEASE - Ref. 20230609IPR96212 (June 2023) “Artificial Intelligence Act” (TESTO NORMATIVO) P9_TA(2023)0236 - 14.06.2023
EP - EUROPEAN PARLIAMENT
https://www.europarl.europa.eu/
EUROPEAN PARLIAMENT – Link alla PRESS RELEASE
EUROPEAN PARLIAMENT – Link al TESTO NORMATIVO
A metà giugno, il Parlamento europeo ha adottato la posizione negoziale sulla normativa in materia di intelligenza artificiale (Artificial Intelligence Act) con 499 voti a favore, 28 contrari e 93 astensioni, in vista dei colloqui con la Commissione e il Consiglio (cd Trilogo) sul testo definitivo della legge. Secondo le intenzioni del legislatore, le norme sono atte a garantire che l'IA sviluppata e utilizzata in Europa sia pienamente in linea con i diritti e i valori dell'UE (tra cui il controllo umano, la sicurezza, la privacy, la trasparenza, la non-discriminazione, il benessere sociale e ambientale).
Le regole seguono un approccio basato sul rischio e stabiliscono obblighi a carico dei fornitori/sviluppatori di sistemi IA, a seconda del livello di rischio che l'IA potrebbe generare. Sono pertanto banditi gli AI systems caratterizzati da un livello di rischio considerato “inaccettabile” per la sicurezza delle persone, come, ad esempio, quelli utilizzati per il social scoring (classificazione degli individui sulla base del loro comportamento sociale o delle caratteristiche personali).
In particolare, è stata ampliata la lista di divieti sugli usi intrusivi e discriminatori dell'intelligenza artificiale, per includere – ad esempio – le seguenti casistiche:
- sistemi di identificazione biometrica da remoto “in tempo reale” in spazi accessibili al pubblico;
- sistemi di categorizzazione biometrica che utilizzano dati sensibili (ad esempio: genere, razza, etnia, stato di cittadinanza, religione, orientamento politico);
- sistemi di predictive policing (basati su profilazione, posizione o comportamenti criminali del passato);
- sistemi di riconoscimento delle emozioni;
- scraping non mirato di immagini facciali da Internet o da filmati di telecamere a circuito chiuso, finalizzati alla creazione di database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).
Nel testo considerato, la classificazione delle applicazioni “ad alto rischio” includerà i sistemi di intelligenza artificiale che sono in grado di arrecare danni significativi alla salute, alla sicurezza, ai diritti fondamentali o all'ambiente; inoltre, gli AI systems utilizzati per influenzare gli elettori/l'esito delle elezioni, come pure quelli usati nei sistemi di “counseling” delle piattaforme di social media (con oltre 45 milioni di utenti), sono stati aggiunti all'elenco delle applicazioni ad alto rischio.
I sistemi di “intelligenza artificiale generativa” basati su foundation models (ad esempio, ChatGPT), dovranno rispettare precisi requisiti di trasparenza (ad esempio, rivelare che il contenuto è stato generato dall'IA, permettendo anche di distinguere le cosiddette immagini “deep-fake” da quelle reali) e garantire salvaguardie rispetto alla generazione di contenuti illegali.
Per favorire l'AI innovation e sostenere le PMI, gli europarlamentari hanno aggiunto esenzioni per le attività di ricerca e i componenti dell'IA forniti con licenze open source. Le nuove norme promuovono le sandbox regolamentari, istituite dalle Autorità ai fini di testare l'intelligenza artificiale prima che venga implementata.
Da ultimo, attraverso le nuove norme si intende rafforzare il diritto dei cittadini di presentare reclami relativamente ai sistemi di IA, come pure di ricevere spiegazioni in merito alle decisioni basate su sistemi ad alto rischio, in grado di incidere in modo significativo sui loro diritti fondamentali. E’ stato inoltre sottoposto a riforma il ruolo dell'AI Office dell'UE, che ha il compito di monitorare l'attuazione dell’AI Rulebook.