AI Act: una panoramica sulla proposta di regolamento UE sull’Intelligenza Artificiale

Contenuti

Introduzione

Le Istituzioni Europee hanno finalmente raggiunto l’accordo ed emanato il nuovo Regolamento Europeo che introdurrà norme armonizzate sull’uso dell’Intelligenza Artificiale (il cosiddetto “Artificial Intelligence Act” o “AI Act”). La proposta è stata pubblicata nell’Aprile 2021 dalla Commissione Europea ed è stata oggetto di ampio dibattito, diventando una delle principali priorità dell’agenda legislativa dell’UE a causa della rapida crescita dell’Intelligenza Artificiale. La normativa mira a stabilire regole comuni che salvaguardino i diritti umani fondamentali e facilitino allo stesso tempo lo sviluppo del mercato interno. L’uso di alcuni sistemi di IA sarà vietato, mentre altri modelli saranno soggetti a requisiti rigorosi.

Il nuovo Regolamento sull’IA

L’Intelligenza Artificiale sta progredendo rapidamente e trova applicazione in diversi settori dell’economia e della società. Le Istituzioni Europee mirano ora a stabilire regole uniformi sull’Intelligenza Artificiale sulla base della Proposta di Regolamento sull’IA (AI Act), pubblicata dalla Commissione Europea nell’aprile 2021. Dopo un lungo dibattito tra le istituzioni europee e l’approvazione da parte del Parlamento Europeo data 13 Marzo 2024, il Regolamento Europeo è stato pubblicato sulla Gazzetta Ufficiale, attribuendo quindi all’Unione Europea il merito di aver concepito la prima normativa a carattere trasversale in tema di Intelligenza Artificiale al mondo.

Qual è lo scopo della legge sull’Intelligenza Artificiale?

L’obiettivo del Regolamento è migliorare il funzionamento del mercato interno stabilendo un quadro giuridico uniforme per lo sviluppo, la commercializzazione e l’utilizzo dei sistemi di Intelligenza Artificiale. Diversi Stati Membri dell’UE hanno già attuato normative nazionali per garantire uno sviluppo dell’IA sicuro e rispettoso dei diritti umani. Tuttavia, la frammentazione legislativa è controproducente in quanto, da un lato, compromette la l’efficienza del mercato interno inibendo la diffusione di queste tecnologie e, dall’altro lato, non garantisce un livello uniforme di tutela dei diritti umani.

Qual è l’ambito di applicazione della legge sull’AI?

L’AI Act si applica in modo uniforme a tutti i settori dell’economia e della società. Le norme contenute nella Proposta interessano le seguenti entità e soggetti quali inter alia:

  • i fornitori di sistemi di IA, compresi i sistemi di IA per finalità generali e, nell’Unione europea, indipendentemente dal fatto che questi siano stabiliti o ubicati nel territorio dell’Unione o in un paese terzo;
  • ai c.d. deployer di sistemi di IA, ossia i soggetti, persone fisiche o giuridiche, situati nel territorio dell’Unione europea che utilizzano sistemi di IA; e
  • fornitori e deployer di sistemi di IA situati in un Paese terzo, qualora l’output prodotto dal sistema venga utilizzato all’interno dell’Unione.

Il Regolamento prevede anche alcune esenzioni, in quanto non si applicherà, ad esempio, ai sistemi di IA sviluppati o utilizzati esclusivamente per scopi militari e a quelli utilizzati dalle autorità pubbliche ai sensi di un accordo internazionale in materia di contrasto della criminalità e cooperazione giudiziaria con l’Unione o i suoi Stati membri.

E ancora, esenti dall’applicazione del Regolamento le attività di ricerca e sviluppo di sistemi IA prima della loro messa in commercio, i sistemi di IA sviluppati per il solo scopo di ricerca e sviluppo scientifici e le persone fisiche che utilizzano i sistemi di IA per attività non professionali puramente personali.

Sistemi di Intelligenza Artificiale ad alto rischio

I sistemi di IA definiti ad “alto rischio” sono quelli che incidono negativamente sui diritti e sulla sicurezza degli utenti, il cui utilizzo è comunque consentito dal Regolamento a condizione che vengano rispettati requisiti e limiti rigorosi.

Tali requisiti includono, fra gli altri, una valutazione di conformità ex-ante, l’adozione di misure di gestione del rischio e di adeguate procedure di formazione e governance dei dati, ecc.

La nozione di sistemi di IA ad alto rischio comprende, ad esempio, i sistemi utilizzati come componenti di sicurezza di un prodotto impiegato nei dispositivi medici, i sistemi in grado di influire sulla possibilità di una persona di accedere e godere di servizi e benefici privati e/o pubblici essenziali, i sistemi impiegati dalle forze dell’ordine, ecc.

Il legislatore, comunque, europeo non manca di esplicitare quali siano i criteri generali utilizzati ai fini della categorizzazione, fra cui compaiono, ovviamente, la finalità del sistema IA e la misura in cui questo sarà utilizzato, ma anche il suo grado di autonomia e la natura e la quantità di dati personali trattati.

Perché possa essere escluso dalla categoria ad “alto rischio” e quindi non essere assoggettato alla relativa disciplina, un sistema di IA che non presenta un rischio significativo di danno alla salute, la sicurezza o diritti fondamentali delle persone, deve soddisfare una serie di almeno uno dei requisiti previsi dal Regolamento, quali ad esempio: essere destinato all’esecuzione di un compito procedurale limitato o al miglioramento del risultato di un’attività già precedentemente completata da un essere umano.

Sistemi di Intelligenza Artificiale a rischio limitato

Sono considerati a “rischio limitato” quei sistemi che non destano particolari preoccupazioni per la sicurezza e i diritti degli utenti.

Questa categoria si riferisce, ad esempio, ai sistemi che interagiscono con gli esseri umani (ad esempio, i chatbot) o ai sistemi che generano o manipolano immagine, contenuti audio o video (ad esempio, l’IA generativa).

I sistemi di IA a rischio limitato sono soggetti a specifici obblighi di trasparenza. Gli utenti finali dovranno essere informati del fatto che stanno interagendo con un sistema di IA o che le loro emozioni o caratteristiche sono riconosciute attraverso strumenti automatizzati. Nel caso di sistemi di IA che generano o manipolano immagini, contenuti audio o video che assomigliano in modo apprezzabile all’originale (cioè deep fake), sarà previsto, invece, l’obbligo di dichiarare che il contenuto è generato attraverso mezzi automatizzati, fatte salve alcune eccezioni dovute a scopi legittimi.

Sistemi di IA a rischio basso o minimo

I sistemi di IA che non rientrano in nessuna delle categorie sopra menzionate e che presentano solo rischi bassi o minimi, possono essere sviluppati e distribuiti nell’UE senza essere soggetti ad alcun obbligo legale aggiuntivo. Tuttavia, in relazione a questi, il Regolamento raccomanda l’adozione di codici di che prevedano l’applicazione volontaria dei requisiti obbligatori previsti per i sistemi ad alto rischio.

Prospettive future

L’AI Act è un tentativo ambizioso di regolamentare gli effetti dirompenti e rivoluzionari dell’Intelligenza Artificiale sui diritti umani, sull’economia e sulla società nel suo complesso. Si tratta di un delicato equilibrio tra la necessità di salvaguardare i valori e i diritti fondamentali dell’Unione Europea e l’obiettivo di promuovere il progresso delle nuove tecnologie senza eccessive limitazioni.

Raggiunto il traguardo dell’emanazione, quindi, avrà inizio un’altra importante fase della vita di questa normativa: la corsa alla compliance da parte dei soggetti interessati prima dell’entrata in vigore del Regolamento, due anni dopo la sua pubblicazione sulla gazzetta ufficiale. Si apre quindi, a questo punto, un altro scenario fondamentale, che permetterà di comprendere come effettivamente questa normativa impatterà sull’utilizzo e lo sviluppo dell’Intelligenza Artificiale, oltre che come reagiranno le istituzioni di altri player mondiali del settore, come ad esempio gli Stati Uniti.

Data
Consulta i nostri professionisti