La Strategia italiana per l’IA 2024-2026: nuove sfide per il sistema giuridico italiano

Contenuti

Il 22 luglio 2024, l’Agenzia per l’Italia Digitale (AgID) ha pubblicato il documento completo della Strategia Italiana per l’Intelligenza Artificiale 2024-2026. Questo piano strategico delinea la visione dell’Italia per lo sviluppo e l’implementazione dell’IA nei prossimi anni, focalizzandosi su quattro ambiti chiave: ricerca, pubblica amministrazione, imprese e formazione.

Ricerca e sviluppo

La Strategia pone una forte enfasi sulla ricerca e lo sviluppo, con particolare attenzione allo sviluppo di modelli linguistici avanzati (LMM e LLM) in italiano e multilingue. Dal punto di vista legale, questo solleva questioni cruciali riguardo alla proprietà intellettuale. Le aziende e gli istituti di ricerca coinvolti nello sviluppo di questi modelli dovranno navigare un complesso panorama di brevetti e diritti d’autore.

Ad esempio, lo sviluppo di un LLM italiano potrebbe comportare l’utilizzo di vasti corpus di testi protetti da copyright per l’addestramento. Sarà fondamentale stabilire linee guida chiare per l’uso equo di tali materiali, simili a quelle stabilite nella sentenza della Corte Suprema degli Stati Uniti nel caso Authors Guild v. Google (2015), che ha ritenuto che la scansione di libri per scopi di ricerca e analisi rientri nel fair use.

Inoltre, la collaborazione tra settore pubblico e privato nella ricerca solleva questioni sulla titolarità delle invenzioni risultanti: sarà necessario stabilire accordi chiari sulla proprietà intellettuale, simili al Bayh-Dole Act negli Stati Uniti, che regola i diritti di brevetto per le invenzioni finanziate dal governo federale.

Implementazione dell’IA nella pubblica amministrazione

L’implementazione dell’IA nella pubblica amministrazione promette di migliorare l’efficienza e la qualità dei servizi offerti ai cittadini. Tuttavia, questo solleva importanti questioni legali relative alla privacy e alla protezione dei dati.

L’utilizzo di soluzioni IA per automatizzare processi e fornire risposte ai cittadini dovrà essere conforme al Regolamento Generale sulla Protezione dei Dati (GDPR) dell’UE. In particolare, l’articolo 22 del GDPR, che riguarda il processo decisionale automatizzato, sarà cruciale. Le pubbliche amministrazioni dovranno garantire che le decisioni significative non siano prese esclusivamente da sistemi automatizzati, a meno che non siano soddisfatte specifiche condizioni.

Un esempio di implementazione che richiederà un’attenta considerazione legale potrebbe essere l’uso dell’IA per la valutazione delle domande di prestazioni sociali: mentre l’IA potrebbe accelerare il processo, sarà fondamentale garantire che il sistema non discrimini involontariamente determinate categorie di cittadini, in linea con il principio di non discriminazione sancito dall’articolo 21 della Carta dei diritti fondamentali dell’Unione Europea.

Supporto alle imprese

La strategia prevede incentivi fiscali e programmi di supporto per le aziende che investono in soluzioni IA. Dal punto di vista legale, sarà cruciale definire chiaramente cosa costituisce un “investimento in IA” ai fini di questi incentivi.

Un possibile approccio potrebbe essere simile al Patent Box italiano, introdotto con la Legge di Stabilità 2015, che offre un regime fiscale agevolato per i redditi derivanti dall’utilizzo di beni immateriali. Si potrebbe considerare un “AI Box” che offra vantaggi fiscali simili per gli investimenti in tecnologie IA.

Tuttavia, le aziende che beneficiano di questi incentivi dovranno anche dimostrare la conformità con le normative emergenti sull’IA. In particolare, dovranno allinearsi con l’imminente AI Act dell’UE, che propone un approccio basato sul rischio per regolamentare l’IA. Le aziende dovranno implementare sistemi di gestione del rischio, garantire la trasparenza e la robustezza dei loro sistemi IA, e prepararsi per potenziali audit.

Formazione e sviluppo delle competenze

La strategia pone un’enfasi significativa sulla formazione e lo sviluppo delle competenze in IA. Dal punto di vista del diritto del lavoro, questo solleva questioni importanti riguardo ai diritti e alle responsabilità dei datori di lavoro e dei dipendenti in un’economia sempre più digitalizzata.

I programmi di upskilling e reskilling previsti dalla strategia potrebbero richiedere modifiche ai contratti di lavoro esistenti. I datori di lavoro potrebbero essere tenuti a fornire formazione ai dipendenti le cui mansioni sono a rischio di automazione, in linea con il diritto alla formazione professionale sancito dall’articolo 14 della Carta dei diritti fondamentali dell’UE.

Inoltre, l’introduzione di tecnologie IA sul posto di lavoro potrebbe richiedere una revisione delle politiche di salute e sicurezza. Ad esempio, l’uso di cobot (robot collaborativi) in ambienti industriali richiederà nuove valutazioni dei rischi e protocolli di sicurezza, in conformità con la Direttiva 2006/42/CE (Direttiva Macchine) dell’UE.

Conclusione

La Strategia Italiana per l’Intelligenza Artificiale 2024-2026 rappresenta un’opportunità significativa per il Paese, ma pone anche sfide complesse al sistema giuridico: la sfida sarà quella di mantenere il passo con l’evoluzione tecnologica, garantendo che il quadro giuridico rimanga pertinente ed efficace in un campo in rapida evoluzione come quello dell’intelligenza artificiale.

In concreto, oltre a partecipare attivamente ai processi di consultazione per lo sviluppo di nuove normative sull’IA, sotto il profilo giuridico l’implementazione della Strategia dovrà passare per queste attività:

  • audit di conformità IA: sviluppo e implementazione di protocolli di audit per valutare la conformità dei sistemi IA con le normative esistenti e future (ad esempio, creazione di checklist per verificare il rispetto del GDPR e dell’AI Act);
  • redazione di linee guida aziendali: assistenza alle aziende nella creazione di politiche interne per l’uso etico e conforme dell’IA; questo potrebbe includere la stesura di codici di condotta per lo sviluppo e l’implementazione di sistemi IA;
  • due diligence tecnologica: sviluppo di protocolli di due diligence specifici per l’IA da utilizzare nelle operazioni straordinarie che coinvolgono aziende tecnologiche;
  • formazione aziendale: organizzaiozne di workshop e sessioni di formazione per i clienti sulle implicazioni legali dell’IA, anche con riferimento al trattamento dei dati personali;
  • mediazione tecnologica: sviluppo di competenze nella mediazione di dispute legate all’IA, come conflitti sulla proprietà intellettuale di innovazioni basate sull’IA o controversie sull’uso di dati per l’addestramento di modelli IA;
  • sviluppo di clausole contrattuali: creaizone di modelli di clausole contrattuali specifiche per l’IA da utilizzare in vari contesti, come accordi di licenza per software IA, contratti di sviluppo IA o accordi di condivisione dei dati per l’addestramento di modelli IA.
Download Area
Scarica il PDF
Download
Data
Consulta i nostri professionisti