Il 25 giugno 2025 la Camera dei Deputati ha approvato, in seconda lettura, il disegno di legge n. 2316-A recante “Disposizioni e deleghe al Governo in materia di intelligenza artificiale” (di seguito, il DDL IA). Con 136 voti favorevoli, 94 contrari e 5 astenuti, il provvedimento – già approvato dal Senato in prima lettura il 20 marzo – è ora atteso al Senato per la terza lettura, essendo intervenute modifiche rispetto al testo originario.
Il DDL si propone di integrare e accompagnare l’entrata in vigore del Regolamento (UE) 2024/1689 sull’intelligenza artificiale (AI Act), fissando i principi generali di utilizzo dei sistemi di IA nel contesto italiano e delegando al Governo l’adozione di decreti legislativi volti a disciplinare aspetti operativi, con particolare riguardo a trasparenza, sicurezza, responsabilità e utilizzo dei dati.
Il coordinamento con l’AI Act europeo
L’iter parlamentare del DDL IA si è caratterizzato per la necessità di un continuo coordinamento con il Regolamento (UE) 2024/1689, entrato in vigore il 1° agosto 2024. Le disposizioni del disegno di legge, infatti, si interpretano e si applicano conformemente all’AI Act, come stabilito dall’articolo 1, comma 2, del provvedimento. Tale approccio risulta particolarmente significativo: l’Italia si candida a diventare il primo Paese dell’Unione Europea a dotarsi di una legge nazionale organica sull’intelligenza artificiale, in attuazione e integrazione del regolamento europeo.
La Commissione Europea aveva inizialmente rilevato disallineamenti e contrasti tra le disposizioni nazionali e quelle europee, segnalati nel parere C (2024) 7814 del 5 novembre 2024. Il testo attualmente in discussione ha recepito tali osservazioni, nell’ottica di evitare contraddizioni che avrebbero potuto comportare la disapplicazione delle norme nazionali: l’obiettivo perseguito è quello di creare un quadro normativo che, pur nel rispetto dei principi dell’AI Act, tenga conto delle specificità del sistema giuridico italiano e delle esigenze del tessuto produttivo nazionale.
Un approccio antropocentrico e settoriale
Il DDL IA si fonda su un approccio antropocentrico, teso a salvaguardare la centralità dell’essere umano e la supervisione umana nei processi decisionali che coinvolgono sistemi di intelligenza artificiale. Tale impostazione, coerente con i principi dell’AI Act, si concretizza nell’articolo 3, che stabilisce che la ricerca, la sperimentazione, lo sviluppo, l’adozione, l’applicazione e l’utilizzo di sistemi e modelli di IA devono avvenire nel rispetto dei diritti fondamentali e delle libertà previste dalla Costituzione, del diritto dell’Unione europea e dei principi di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità.
Il disegno di legge persegue inoltre un approccio settoriale, dedicando specifiche disposizioni agli ambiti considerati ad alto rischio dall’AI Act: giustizia, sanità, lavoro, pubblica amministrazione e professioni regolamentate. Tale scelta normativa risponde all’esigenza di fornire regole precise e contestualizzate per settori caratterizzati da impatti significativi sui diritti fondamentali e sull’organizzazione sociale.
Le modifiche introdotte dalla camera: rafforzamento della tutela dei minori
L’intervento della Camera dei Deputati ha comportato l’introduzione di modifiche limitate ma sostanziali, che rendono necessario il ritorno del provvedimento al Senato per la terza lettura. La modifica più significativa riguarda l’articolo 4, comma 4, dove è stato aggiunto l’inciso “nonché il conseguente trattamento dei dati personali richiedono”, ampliando l’ambito di applicazione del consenso genitoriale per i minori di quattordici anni.
Tale precisazione assume particolare rilevanza pratica, poiché l’utilizzo di sistemi di intelligenza artificiale comporta inevitabilmente la raccolta, l’elaborazione e la conservazione di dati personali del minore, spesso attraverso modalità complesse e non immediatamente percepibili dall’utente; l’integrazione testuale estende quindi il consenso genitoriale non solo all’accesso alle tecnologie di IA da parte dei minori, ma anche a tutti i trattamenti di dati personali che ne conseguono, rafforzando significativamente la tutela dei soggetti più vulnerabili.
Disciplina settoriale: dalla giustizia alla sanità
Nel settore della giustizia, il DDL introduce una disciplina particolarmente articolata, che trova il suo fulcro nell’articolo 15, che riserva al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti, vietando espressamente l’impiego dell’intelligenza artificiale per le attività interpretative o decisionali. Tuttavia, l’utilizzo dell’IA rimane consentito come supporto per attività amministrative, organizzative o di analisi predittiva, purché sempre sotto supervisione umana.
Degna di nota è anche la previsione dell’articolo 17, che attribuisce al tribunale la competenza esclusiva per le cause aventi ad oggetto il funzionamento di un sistema di intelligenza artificiale, introducendo una significativa novità nell’organizzazione giurisdizionale italiana.
In ambito sanitario, il DDL stabilisce che l’impiego dell’IA non può determinare discriminazioni e che la decisione in materia di prevenzione, diagnosi, cura e scelta terapeutica è sempre rimessa agli esercenti la professione medica. L’intelligenza artificiale può essere utilizzata per migliorare la prevenzione, la diagnosi e la cura delle malattie, ma sempre come strumento di supporto, mantenendo il controllo umano nelle decisioni cliniche e garantendo il diritto del paziente ad essere informato sull’impiego di tali tecnologie.
Governance e autorità competenti
Il DDL individua un sistema di governance articolato, identificando l’Agenzia per l’Italia Digitale (AgID) come autorità di notifica, valutazione, accreditamento e monitoraggio dei soggetti incaricati di verificare la conformità, e l’Agenzia per la Cybersicurezza Nazionale (ACN) come autorità di vigilanza. Rimangono ferme le competenze specifiche di Banca d’Italia, Consob e IVASS per i rispettivi settori di vigilanza del mercato, così come quelle del Garante per la protezione dei dati personali.
È prevista inoltre l’adozione di una strategia nazionale sull’intelligenza artificiale, aggiornata con cadenza biennale dal Comitato interministeriale per la transizione digitale, con il supporto del Dipartimento per la trasformazione digitale, con l’obiettivo di coordinare le politiche pubbliche in materia di IA, promuovendo l’innovazione tecnologica nel rispetto dei diritti fondamentali.
Implicazioni applicative e raccomandazioni operative
L’evoluzione normativa in corso impone alle organizzazioni, sia private che pubbliche, di adottare sin da ora misure proattive per garantire la conformità al futuro quadro legislativo. In particolare, le aziende e le pubbliche amministrazioni dovranno procedere con un audit immediato dei sistemi di intelligenza artificiale attualmente in uso, valutando la base giuridica del loro impiego, i livelli di trasparenza garantiti agli utenti e i rischi associati al loro funzionamento.
Particolare attenzione dovrà essere prestata ai meccanismi di verifica dell’età per i servizi destinati ai minorenni: le modifiche introdotte dalla Camera rendono infatti necessaria l’implementazione di sistemi robusti per la raccolta del consenso informato da parte dei genitori, non solo per l’accesso alle tecnologie di IA, ma anche per tutti i conseguenti trattamenti di dati personali.
Sul piano della governance interna, si raccomanda l’istituzione di comitati etici dedicati e il rafforzamento del dialogo tra le diverse funzioni aziendali: Data Protection Officer, risorse umane, compliance e funzioni tecniche dovranno lavorare in sinergia per garantire un approccio integrato alla gestione dei rischi. Altrettanto cruciale sarà la revisione dei contratti con i fornitori di tecnologie IA e le piattaforme cloud, alla luce delle nuove disposizioni sulla sovranità digitale e sui requisiti di trasparenza.
Infine, le organizzazioni dovranno predisporre una documentazione dettagliata dei processi decisionali che coinvolgono sistemi di IA, garantendo già oggi gli standard di trasparenza e accountability che saranno richiesti dai decreti delegati di prossima emanazione: tale approccio proattivo consentirà non solo di anticipare i futuri obblighi normativi, ma anche di costruire un vantaggio competitivo basato sulla fiducia degli utenti e sulla solidità dell’implementazione tecnologica.
Prospettive e considerazioni conclusive
L’approvazione del DDL sull’intelligenza artificiale rappresenta un passaggio fondamentale verso la definizione di un quadro normativo organico per l’Italia,e tale provvedimento si inserisce in un contesto europeo in evoluzione, dove l’AI Act stabilisce principi e obblighi armonizzati, ma lascia spazio agli Stati membri per disciplinare aspetti specifici e settoriali.
Le modifiche introdotte dalla Camera, seppur limitate nel numero, evidenziano l’attenzione del legislatore verso la tutela dei soggetti più vulnerabili e la necessità di un approccio equilibrato tra innovazione e protezione dei diritti. Il ritorno al Senato per la terza lettura rappresenta l’ultima fase di un iter legislativo complesso, che ha visto un ampio coinvolgimento degli stakeholder attraverso numerose audizioni e consultazioni.
L’efficacia del disegno di legge sarà subordinata all’adozione dei decreti legislativi di attuazione da parte del Governo, per i quali è previsto un termine di un anno dall’entrata in vigore della legge. Sarà quindi fondamentale monitorare l’evoluzione della normativa secondaria, che dovrà tradurre in regole operative i principi e le deleghe contenuti nel DDL.