lentepubblica


AI Act: l’Europa detta le prime regole sull’Intelligenza Artificiale

lentepubblica.it • 30 Maggio 2023

ai-act-intelligenza-artificialeI deputati del Parlamento Europeo hanno approvato nuove regole di trasparenza e gestione del rischio per i sistemi di Intelligenza Artificiale: ecco cosa prevederà il nuovo AI Act.


La Commissione per il mercato interno e la Commissione per le libertà civili hanno adottato un progetto dedicato alle prime norme in assoluto per l’Intelligenza Artificiale, con 84 voti a favore, 7 contrari e 12 astensioni.

Nei loro emendamenti alla proposta della Commissione, i deputati mirano a garantire che i sistemi di IA (Intelligenza Artificiale) siano supervisionati dalle persone, sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente.

Vogliono inoltre definire una nomenclatura uniforme per l’IA, che risulterà neutrale dal punto di vista tecnologico, in modo che possa essere applicata ai sistemi di intelligenza artificiale attualmente in uso e per quelli futuri.

AI Act: le prime regole in materia di Intelligenza Artificiale

Le norme seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio che l’IA può generare.

I sistemi di intelligenza artificiale con un livello di rischio inaccettabile per la sicurezza delle persone saranno severamente vietati, compresi i sistemi che impiegano tecniche subliminali o intenzionalmente manipolative, sfruttano le vulnerabilità delle persone o sono utilizzati per la profilazione sociale (classificazione delle persone in base al loro comportamento sociale, stato socio-economico, caratteristiche).

Divieti di usi intrusivi e discriminatori

I deputati hanno sostanzialmente modificato l’elenco per includere i divieti sugli usi intrusivi e discriminatori dei sistemi di IA che eseguono:

  • identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico;
  • identificazione biometrica remota “postale”, con la sola eccezione delle forze dell’ordine per il perseguimento di reati gravi e solo previa autorizzazione giudiziaria;
  • categorizzazione biometrica tramite dati sensibili (ad esempio genere, razza, etnia, stato di cittadinanza, religione, orientamento politico);
  • polizia predittiva (basati su profilazione, posizione o comportamento criminale passato);
  • riconoscimento delle emozioni nelle forze dell’ordine, nella gestione delle frontiere, sul posto di lavoro e nelle istituzioni educative;
  • raccolta indiscriminata di dati biometrici da social media o filmati per creare database di riconoscimento facciale (violando i diritti umani e il diritto alla privacy).

Sistemi di IA ad alto rischio

I deputati hanno ampliato la classificazione delle aree ad alto rischio per includere i danni alla salute, alla sicurezza, ai diritti fondamentali o all’ambiente delle persone.

Hanno anche incluso all’interno di questo insieme i sistemi creati per influenzare gli elettori nelle campagne politiche e nei sistemi di profilazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti ai sensi del Digital Services Act).

Misure di trasparenza

I deputati hanno inoltre stabilito diversi obblighi per i fornitori,  i quali che devono garantire protezione dei diritti fondamentali, della salute e della sicurezza e dell’ambiente, della democrazia e dello stato di diritto.

Dovranno pertanto valutare e mitigare i rischi, rispettare i requisiti di progettazione, informazione e ambiente e registrarsi all’interno della banca dati dell’UE.

I modelli di base generativi, come ChatGPT, dovranno inoltre rispettare ulteriori requisiti di trasparenza, come rivelare che il contenuto è stato generato dall’intelligenza artificiale, progettare il modello per impedire che generi contenuto illegale e pubblicare recap dei dati protetti da copyright utilizzati per la formazione.

Sostenere l’innovazione e tutelare i diritti dei cittadini

Per promuovere l’innovazione dell’IA, i deputati hanno tuttavia aggiunto alcune eccezioni a queste regole, riservate alle attività di ricerc. La nuova legge promuove i sandbox normativi, o ambienti controllati, istituiti dalle autorità pubbliche per testare l’intelligenza artificiale prima della sua implementazione.

I deputati vogliono infine rafforzare il diritto dei cittadini di presentare reclami sui sistemi di intelligenza artificiale e ricevere spiegazioni delle decisioni basate su sistemi di intelligenza artificiale ad alto rischio che incidono in modo significativo sui loro diritti.

 

Fonte: articolo di redazione lentepubblica.it
Subscribe
Notificami
guest
0 Commenti
Inline Feedbacks
View all comments