Intelligenza artificiale, le norme approvate dal Parlamento europeo: nuovi obblighi e requisiti di trasparenza

Intelligenza artificiale, le norme approvate dal Parlamento europeo: nuovi obblighi e requisiti di trasparenza

Spread the love

Le norme mirano a promuovere un uso di IA affidabile e incentrato sull’essere umano e sulla tutela di salute, sicurezza, diritti fondamentali e democrazia dai suoi effetti dannosi.

Mercoledì 14 giugno 2023, nel corso della Plenaria Strasburgo, il Parlamento europeo ha adottato la sua posizione negoziale sulla legge sull’Intelligenza Artificiale (AI) con 499 voti a favore, 28 contrari e 93 astensioni ed è pronto ad avviare i colloqui con i governi UE sul testo definitivo.

La approvazione, da parte del Parlamento, rende così possibile l’avvio del processo di confronto con Commissione Europea e Consiglio Europeo al fine di giungere al testo di legge definitivo. Il processo legislativo Europeo è infatti particolarmente complesso e prevede molti diversi passaggi e tra questi uno cruciale è il cosiddetto Trilogo nel corso del quale le tre istituzioni negoziano la posizione comune (LINK alla procedura legislativa europea)

Le norme votate ieri dal Parlamento Europeo hanno l’obiettivo di garantire che l’IA sviluppata e utilizzata in Europa sia conforme con i diritti e i valori dell’UE, ad esempio in materia di supervisione umana, sicurezza, privacy, trasparenza, non discriminazione e benessere sociale e ambientale. Si tratta di un processo che vede l’Europa in posizione decisamente avanzata rispetto agli altri paesi e alle altre istituzioni mondiali che sino ad ora hanno lanciato appelli o fatto da cassa di risonanza alle dichiarazioni più o meno allarmate di esperti, intellettuali e operatori della intelligenza artificiale.

Il testo approvato può essere scaricato e letto integralmente qui e riprende le deliberazioni delle commissioni Commercio Interno e Giustizia  approvate a maggio e di cui avevamo già dato conto.

Vediamo gli aspetti più rilevanti.

Pratiche di IA da vietare

Le norme seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e operatori dei sistemi di IA a seconda del livello di rischio che l’IA può generare. Saranno quindi vietati i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale (classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali). I deputati hanno ampliato l’elenco per includere divieti sugli usi intrusivi e discriminatori dell’IA, come:

  • l’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico;
  • l’uso di sistemi di identificazione biometrica remota “a posteriori” in spazi accessibili al pubblico, se non previa autorizzazione giudiziaria e strettamente necessario per investigare uno specifico reato grave;
  • i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico);
  • i sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati);
  • i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione;
  • l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).

I deputati vogliono che la classificazione delle applicazioni ad alto rischio includa anche i sistemi di IA che comportano danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l’ambiente. Sono stati aggiunti alla lista ad alto rischio i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l’esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti).

Obblighi relativi ai sistemi di IA per finalità generali

I fornitori di modelli di base — uno sviluppo nuovo e in rapida evoluzione nel settore dell’IA — dovrebbero valutare e mitigare i possibili rischi (alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto) e registrare i loro modelli nella banca dati dell’UE prima della loro immissione sul mercato europeo. I sistemi di IA generativa che si basano su tali modelli, quali ChatGPT, dovrebbero rispettare i requisiti di trasparenza (dichiarando che il contenuto è stato generato dall’IA), aiutando anche a distinguere le cosiddette immagini deep-fake e da quelle reali, e fornire salvaguardie per evitare la generazione di contenuti illegali. Dovrebbero inoltre essere pubblicate le sintesi dettagliate dei dati protetti dal diritto d’autore utilizzati per l’addestramento.

Sostenere l’innovazione e proteggere i diritti dei cittadini

Per stimolare l’innovazione nel campo dell’IA e sostenere le PMI, i deputati hanno previsto esenzioni per le attività di ricerca e le componenti dell’IA fornite con licenze open-source. La nuova legge promuove i cosiddetti spazi di sperimentazione normativa, o ambienti di vita reale, creati dalle autorità pubbliche per testare l’IA prima che venga implementata.

Infine, i deputati intendono rafforzare il diritto dei cittadini di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio con un impatto significativo sui loro diritti fondamentali. I deputati hanno anche riformato il ruolo dell’Ufficio dell’UE per l’IA, che avrà il compito di monitorare l’attuazione delle norme sull’IA.

Le dichiarazioni di correlatori

Al termine delle votazioni i correlatori Brando Benifei (S&D, Italia) e Dragos Tudorache (Renew, Romania) sono intervenuti con due dichiarazioni che hanno sottolineato l’importanza del passaggio deliberato dal Parlamento.

Brando Bonifei ha dichiarato: “Oggi tutti gli occhi sono puntati su di noi. Mentre le Big Tech lanciavano l’allarme per le loro creazioni, l’Europa è andata avanti e ha proposto una risposta concreta ai rischi che l’IA sta iniziando a rappresentare. Vogliamo che il potenziale creativo e produttivo dell’IA venga sfruttato. Tuttavia, durante i negoziati con il consiglio ci batteremo per proteggere la nostra posizione e contrastare i pericoli per la democrazia e la libertà”. Dragos Tudorache ha aggiunto: “La legge sull’intelligenza artificiale stabilirà uno standard a livello mondiale per lo sviluppo e la governance dell’intelligenza artificiale, assicurando che questa tecnologia – destinata a trasformare radicalmente le nostre società grazie agli enormi benefici che può offrire – si evolva e venga utilizzata nel rispetto dei valori europei della democrazia, dei diritti fondamentali e dello Stato di diritto”.

Intelligenza artificiale e scuola

Il tema dell’intelligenza artificiale, soprattutto nella versione conversazionale GPT, è al centro della preoccupazione delle istituzioni educative degli ultimi mesi. Le norme definite dal Parlamento europeo vanno incontro alle preoccupazioni delle scuole anche se poi solo l’effettiva sperimentazione educativa potrà permettere l’effettiva fattibilità, ad esempio, dell’obbligo di rendere sempre riconoscibile il prodotto di una AI GPT. Più chiaro, invece, il divieto assoluto di utilizzare sistemi di categorizzazione biometrica per definire e tipizzare studenti e docenti.

, L’articolo originale è stato pubblicato da, https://www.tecnicadellascuola.it/intelligenza-artificiale-le-norme-approvate-dal-parlamento-europeo-nuovi-obblighi-e-requisiti-di-trasparenza, Attualità,Intelligenza artificiale,Norme,Trasparenza,Unione europea, https://www.tecnicadellascuola.it/feed, Aluisi Tosolini,

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.