AI Act: il testo che intende regolare lo sviluppo dell’Intelligenza Artificiale

Progrediscono lo sviluppo e l’utilizzo dell’intelligenza artificiale. Sono sempre più, infatti, i servizi offerti dai grandi provider internazionali a cui i comuni cittadini possono accedere con facilità. C’è, tuttavia, da considerare come i fruitori dei servizi, i loro dati personali e la loro sicurezza, debbano essere pienamente tutelati. 

Da questo input nasce l’AI Act su cui solo lo scorso 9 dicembre Commissione Europea e Parlamento Europeo hanno raggiunto un accordo, dopo un negoziato durato oltre 35 ore. Il testo si basa sia sulle limitazioni da adottare, sia sulle potenzialità dell’intelligenza artificiale e dunque sui benefici che ne possono derivare. Pertanto, ogni decisione è stata presa sul filo di un rasoio. 

“Il progetto di regolamento – spiega in proposito la Commissione Europea – mira a garantire che i sistemi di IA immessi sul mercato europeo e utilizzati nell’UE siano sicuri e rispettino i diritti fondamentali e i valori dell’UE. Questa proposta storica vuole anche a stimolare gli investimenti e l’innovazione sull’intelligenza artificiale in Europa”.

In cosa consiste l’AI Act

Pur essendo stati definiti i punti di maggiore rilevanza, il lavoro da svolgere sul testo è ancora lungo. Tanto che l’entrata in vigore della legge nella sua totalità avverrà entro i prossimi 24 mesi. 

Ma in cosa consiste l’AI Act? Innanzitutto, sarà fondamentale per gli organi politici UE classificare gli strumenti di IA messi a disposizione dai provider. Importante, quindi, la valutazione dei rischi, uno dei punti su cui ci si è soffermati maggiormente. 

A lavorare su questo e sul rispetto delle norme contenute nel testo sarà un nuovo organismo europeo, con sede a Bruxelles. Come spiega la Commissione, si tratta di un “ufficio IA che all’interno avrà il compito di supervisionare questi modelli IA più avanzati, contribuire a promuovere standard e pratiche di test e far rispettare le regole comuni in tutti gli Stati membri.

Un gruppo scientifico di esperti indipendenti consiglierà l’Ufficio AI sui modelli GPAI, contribuendo allo sviluppo di metodologie per la valutazione delle capacità dei modelli di fondazione, fornendo consulenza sulla designazione e sull’emergere di modelli di fondazione ad alto impatto e monitorando possibili rischi per la sicurezza materiale legati ai modelli di fondazione”. 

Resta inteso che i Paesi dell’Unione potranno e dovranno avere una propria autorità indipendente che si pronunci sul tema della gestione dell’IA. 

I punti salienti

In un breve elenco la Commissione EU sintetizza le norme di maggiore rilevanza del testo:

  • norme sui modelli di IA di carattere generale ad alto impatto che possono causare rischi sistemici in futuro, nonché sui sistemi di IA ad alto rischio;
  • un sistema di governance rivisto con alcuni poteri esecutivi a livello dell’UE (come già approfondito nel paragrafo precedente);
  • estensione dell’elenco dei divieti ma con la possibilità di utilizzare l’identificazione biometrica a distanza da parte delle forze dell’ordine negli spazi pubblici, fatte salve le garanzie;
  • una migliore tutela dei diritti attraverso l’obbligo per gli utilizzatori di sistemi di IA ad alto rischio di effettuare una valutazione d’impatto sui diritti fondamentali prima di mettere in uso un sistema di IA.

Ebbene, i rischi ci sono (che verranno quindi caratterizzati in base alle proposte, all’azione e all’utilità della tecnologia proposta, salvo nei casi in cui siano le forze dell’ordine a dover intervenire, ad esempio chiedendo accesso al riconoscimento facciale a distanza; ma anche in questa circostanza sono preservate delle garanzie), così come la possibilità di incorrere in sanzioni, anche molto salate. 

In caso di violazioni e reati, infatti, le sanzioni “sono state fissate in percentuale del fatturato annuo globale della società incriminata nell’anno finanziario precedente o in un importo predeterminato, a seconda di quale sia il più elevato. Si tratterebbe di 35 milioni di euro o 7% per violazioni delle applicazioni IA vietate, 15 milioni di euro o 3% per violazioni degli obblighi della legge sull’IA e 7,5 milioni di euro o 1,5% per la fornitura di informazioni errate”.

L’IA, emozioni e privacy: la stretta del compromesso europeo

Un punto su cui poco si discute riguarda il campo delle emozioni. L’intelligenza artificiale non deve e non può, in base all’AI Act, riconoscere le emozioni, né provarle. Un no importante è arrivato anche al social scoring (dunque dal punto di vista comportamentale le persone non potranno essere “studiate” dall’IA) e alle tecniche manipolative.  

Inoltre “l’accordo provvisorio prevede una maggiore trasparenza riguardo all’uso di sistemi di IA ad alto rischio. In particolare, alcune disposizioni della proposta della Commissione sono state modificate per indicare che anche alcuni utenti di un sistema di IA ad alto rischio che sono enti pubblici saranno obbligati a registrarsi nella banca dati dell’UE per i sistemi di IA ad alto rischio”.

ChatGPT

L’AI Act tiene il punto anche sull’intelligenza artificiale generativa. Se ritenuta ad alto impatto dovrà essere regolata in maniera severa, ancora al fine di proteggere i fruitori e di tutelarli. Pertanto, le aziende che sono alle spalle di prodotti come ChatGPT e Bard dovranno essere attente a garantire trasparenza e cybersicurezza. C’è anche una postilla che riguarda il diritto d’autore: le intelligenze dovranno essere addestrate affinché questo non venga violato. 

AI Act: Misure a sostegno dell’innovazione

Nell’ottica di creare un quadro giuridico più favorevole all’innovazione – spiega la Commissione –  e di promuovere l’apprendimento normativo basato su dati concreti, le disposizioni relative alle misure a sostegno dell’innovazione sono state sostanzialmente modificate rispetto alla proposta della Commissione”.

In particolar modo è stato chiarito che “i sandbox normativi sull’IA, che dovrebbero stabilire un ambiente controllato per lo sviluppo, il test e la convalida di sistemi di IA innovativi, dovrebbero anche consentire la sperimentazione di sistemi di IA innovativi in ​​condizioni del mondo reale”. 

Infine, sono state aggiunte “nuove disposizioni che consentono di testare i sistemi di intelligenza artificiale in condizioni reali, in condizioni e garanzie specifiche. Per alleviare gli oneri amministrativi per le imprese più piccole, l’accordo provvisorio comprende un elenco di azioni da intraprendere a sostegno di tali operatori e prevede alcune deroghe limitate e chiaramente specificate”.

Altro dall'autore

Post correlati

Advertismentspot_img

Ultimi articoli

Le esperienze di Giacomo, Simone e Alessandro: stagisti e volontari di EUSA

Dall'Italia alla Slovenia: un viaggio nelle nuove esperienze UE. Giacomo, Simone e Alessandro, giovani impegnati nell'associazionismo, hanno vissuto u...

Il “rumore” che vince il silenzio sulla violenza di genere

Dal 1° gennaio al 17 novembre 2024, in Italia sono stati registrati 269 omicidi, con 98 vittime donne, di cui 84 uccise in ambito familiare/affettivo;...

Presentata al Social Football Summit la legge regionale del Lazio sullo sport

Guarda il servizio sulla presentazione della legge regionale del Lazio sullo sport al Social Football Summit La Regione Lazio si appresta a varare ...

Vuoi rimanere aggiornato? Iscriviti alla newsletter di Risorse.news