L’intelligenza artificiale (“AI”) rappresenta una delle innovazioni tecnologiche più rivoluzionarie della nostra epoca, con implicazioni trasversali in molteplici settori: tuttavia, la definizione di cosa costituisca un “sistema di intelligenza artificiale” è oggetto di dibattito, specialmente nel contesto normativo europeo, e il recente Regolamento (UE) 2024/1689 (“AI Act”) ha introdotto una definizione armonizzata con l’obiettivo di fornire certezza giuridica e garantire la protezione dei diritti fondamentali, senza ostacolare l’innovazione.
Per facilitare l’applicazione pratica di questa definizione, la Commissione Europea ha pubblicato il 6 febbraio 2025 delle linee guida specifiche (la “Linee Guida”) che chiariscono il significato e l’ambito di applicazione dell’AI Act, fornendo esempi, criteri di valutazione e distinguendo i sistemi AI dai semplici software tradizionali.
Obiettivo del presente contributo è quello di analizzare la definizione di sistema di intelligenza artificiale ai sensi dell’AI Act e delle relative Linee Guida, evidenziandone gli elementi costitutivi, le possibili criticità interpretative e le implicazioni pratiche per gli operatori che si trovano ad affrontare le sfide della compliance in questo nuovo quadro normativo.
Il Quadro Normativo e la Definizione di AI
L’AI Act, entrato in vigore il 1° agosto 2024, stabilisce un quadro normativo armonizzato per lo sviluppo, la commercializzazione e l’uso dei sistemi di intelligenza artificiale nell’Unione Europea. Tuttavia, essendo una normativa innovativa, la sua applicazione pratica richiede un supporto interpretativo.
In questo contesto, le Linee Guida non costituiscono un mero documento esplicativo, bensì uno strumento interpretativo essenziale, dotato di rilevanza giuridica per la corretta qualificazione dei sistemi AI; il loro contributo si articola su più livelli:
- delineano parametri oggettivi per l’identificazione dei sistemi AI, consentendo agli operatori di valutare con maggiore certezza l’applicabilità della normativa ai propri prodotti o servizi;
- affrontano le zone grigie della definizione attraverso casi concreti, offrendo soluzioni per le fattispecie di confine che potrebbero generare incertezze interpretative;
- elaborano il requisito dell’autonomia operativa come elemento distintivo dei sistemi AI rispetto ai software convenzionali, introducendo criteri qualitativi e quantitativi per la sua valutazione;
- stabiliscono una linea di demarcazione concettuale tra i sistemi di intelligenza artificiale e le applicazioni software tradizionali, con particolare attenzione ai sistemi di elaborazione dati che, pur complessi, non presentano i caratteri distintivi dell’AI;
- propongono un metodo di analisi che considera l’intero ciclo di vita del sistema, dalla progettazione all’implementazione, fino al dispiegamento e all’evoluzione delle sue funzionalità.
La definizione fornita dall’AI Act, analizzata attraverso la lente delle Linee Guida, si articola in sette elementi costitutivi che, considerati nel loro insieme, determinano la natura di un sistema come “intelligenza artificiale” ai sensi della normativa europea:
- Natura sistemica e computazionale: l’AI Act richiede che il sistema sia progettato per operare mediante architetture hardware-software integrate, capaci di elaborazioni computazionali complesse. Non è sufficiente la mera presenza di algoritmi, ma è necessario un sistema strutturato che consenta l’elaborazione di dati e l’esecuzione di decisioni algoritmiche secondo logiche computazionali avanzate.
- Autonomia decisionale graduata: la normativa contempla diversi gradi di autonomia operativa, da livelli minimi a forme più sofisticate. Le Linee Guida precisano che l’elemento distintivo risiede nella capacità del sistema di compiere operazioni che non richiedono un controllo umano costante e diretto per ogni singola decisione algoritmica. Tale autonomia si manifesta nella facoltà del sistema di selezionare tra opzioni multiple senza un’immediata supervisione umana per ogni singola scelta.
- Capacità adattiva post-implementazione: un elemento particolarmente qualificante è la potenzialità del sistema di evolvere dopo la sua implementazione iniziale. Le Linee Guida specificano che tale adattività può manifestarsi in varie forme, dall’apprendimento supervisionato alla capacità di modificare i propri parametri in risposta a nuovi dati o stimoli ambientali. È rilevante osservare che tale capacità non deve necessariamente essere attivata, essendo sufficiente la mera predisposizione tecnica all’adattamento.
- Finalità predeterminate o emergenti: le Linee Guida operano una distinzione fondamentale tra sistemi con obiettivi esplicitamente codificati dai progettisti e sistemi in grado di sviluppare finalità emergenti in base al contesto operativo. Quest’ultima categoria solleva questioni interpretative complesse, poiché implica una valutazione ex post della natura teleologica del sistema, non immediatamente desumibile dalle specifiche tecniche iniziali.
- Meccanismi inferenziali sofisticati: l’elemento forse più caratterizzante dell’AI è la capacità di effettuare inferenze complesse che trascendono la logica algoritmica deterministica. Le Linee Guida enfatizzano che tale requisito differenzia i sistemi AI dai software tradizionali basati su regole predefinite. L’inferenza presuppone la capacità di derivare conclusioni o previsioni non immediatamente derivabili dalle premesse attraverso semplici operazioni logiche, ma mediante processi di generalizzazione, analogia o riconoscimento di pattern.
- Output con valore informativo o decisionale: il sistema deve essere in grado di generare contenuti, previsioni, raccomandazioni o decisioni che incidano significativamente sui processi decisionali umani o su ambienti digitali o fisici. Le Linee Guida precisano che il valore informativo dell’output deve superare la mera riproduzione o elaborazione di dati preesistenti, aggiungendo elementi predittivi, interpretativi o decisionali con potenziale impatto pratico.
- Interazione trasformativa con l’ambiente: l’ultimo elemento riguarda la capacità del sistema di modificare concretamente lo stato di ambienti fisici o virtuali; tale requisito implica che l’output dell’AI possa tradursi in azioni concrete, come l’attivazione di dispositivi fisici, la modifica di parametri operativi o la creazione/alterazione di contenuti digitali con effetti tangibili sugli utenti o sull’ambiente circostante..
Le Linee Guida enfatizzano come questi elementi non debbano essere tutti presenti simultaneamente, ma devono essere valutati nel loro complesso per determinare se un sistema rientra nella definizione di AI: questa flessibilità interpretativa, se da un lato consente di adattare la normativa all’evoluzione tecnologica, dall’altro introduce margini di discrezionalità che potrebbero generare incertezze applicative per gli operatori del settore.
Analisi Critica e Implicazioni PRATICHE
La definizione di intelligenza artificiale adottata nell’AI Act rappresenta il risultato di un complesso equilibrio tra esigenze regolatorie e necessità di non ostacolare l’innovazione tecnologica. Tale definizione, alla luce delle Linee Guida interpretative, presenta rilevanti profili di criticità che meritano un’attenta considerazione, soprattutto per le implicazioni pratiche che ne derivano per gli operatori del settore.
La definizione adottata dal legislatore europeo si caratterizza per un’ampiezza semantica che, se da un lato garantisce l’applicabilità della normativa alle tecnologie future (c.d. “future-proofing”), dall’altro rischia di generare incertezze qualificatorie. Le Linee Guida tentano di circoscrivere tale ampiezza, precisando che non tutti i sistemi software avanzati rientrano automaticamente nell’ambito dell’AI Act. Tuttavia, permane il rischio concreto di una sovra-inclusione di sistemi
che, pur presentando capacità computazionali sofisticate, non manifestano quell’autonomia decisionale e adattiva che dovrebbe caratterizzare la vera intelligenza artificiale.
In particolare, i criteri relativi all’autonomia graduata e alla capacità adattiva risultano definiti in termini qualitativi più che quantitativi, lasciando agli operatori l’onere di una valutazione discrezionale che potrebbe generare approcci disomogenei e contrastanti.
Uno degli aspetti più problematici emersi dall’analisi delle Linee Guida riguarda la distinzione tra sistemi AI e software tradizionali. Se in linea teorica le differenze appaiono nette, nella prassi applicativa la distinzione diviene sfumata, specialmente per i c.d. “sistemi di confine” che presentano caratteristiche ibride.
Le Linee Guida tentano di fornire criteri distintivi basati principalmente sulla capacità inferenziale e sull’autonomia decisionale, ma la rapida evoluzione
tecnologica sta già mettendo in discussione tali criteri. Software che implementano algoritmi avanzati di ottimizzazione o sistemi expert-based potrebbero collocarsi in una zona grigia, con conseguenti incertezze sulla disciplina applicabile.
Un elemento di particolare criticità riguarda l’assenza di parametri quantitativi per la valutazione dell’autonomia e dell’adattività richieste per qualificare un sistema come AI. Le Linee Guida si limitano a fornire indicazioni qualitative, senza individuare soglie minime oggettive.
Tale approccio, se da un lato garantisce flessibilità interpretativa, dall’altro impone agli operatori valutazioni complesse che possono variare significativamente in base al contesto applicativo e al settore di riferimento. L’assenza di benchmark quantitativi potrebbe tradursi in valutazioni disomogenee da parte delle autorità di controllo dei diversi Stati membri, con il rischio di frammentazione del mercato unico digitale.
La qualificazione di un sistema come “intelligenza artificiale” ai sensi dell’AI Act non rappresenta un mero esercizio teorico, ma determina l’applicabilità di un articolato sistema di obblighi differenziati in base al livello di rischio associato.
Le Linee Guida chiariscono che la definizione di AI costituisce la premessa logica e giuridica per l’applicazione del sistema di classificazione basato sul rischio previsto dall’AI Act. Tale classificazione, a sua volta, determina gli obblighi di compliance gravanti su sviluppatori, fornitori e utilizzatori, con rilevanti implicazioni in termini di costi, responsabilità e investimenti necessari.
Particolarmente critica appare la posizione dei sistemi che si collocano al confine della definizione, per i quali l’incertezza qualificatoria si traduce in incertezza sugli
adempimenti normativi richiesti, con possibili effetti distorsivi sul mercato e sulla concorrenza.
Un aspetto non sufficientemente approfondito nelle Linee Guida riguarda la ripartizione dell’onere probatorio relativo alla qualificazione di un sistema come AI. In assenza di indicazioni specifiche, sembra plausibile ritenere che gravi sul fornitore l’onere di dimostrare che il proprio sistema non rientra nella definizione di AI qualora intenda sottrarlo all’applicazione del Regolamento.
Tale questione assume particolare rilevanza in termini di responsabilità civile e amministrativa, potendo incidere significativamente sull’esito di eventuali contenziosi relativi a danni causati da sistemi di incerta qualificazione.
Verso un’interpretazione dinamica della definizione di AI
La definizione di intelligenza artificiale introdotta dall’AI Act rappresenta un punto di equilibrio tra l’esigenza di regolamentare fenomeni tecnologici complessi e la necessità di non ostacolare l’innovazione. Le Linee Guida della Commissione Europea costituiscono uno strumento interpretativo essenziale, fornendo criteri operativi per l’identificazione dei sistemi AI e la loro distinzione dai software tradizionali.
Permangono tuttavia profili di incertezza, soprattutto in relazione ai sistemi di
confine e alla valutazione qualitativa dell’autonomia decisionale e dell’adattività. Tali incertezze potrebbero generare approcci disomogenei nell’applicazione della normativa, con potenziali effetti distorsivi sul mercato unico digitale.
Appare quindi auspicabile un monitoraggio costante dell’evoluzione tecnologica e dell’interpretazione della definizione da parte delle autorità nazionali competenti, al fine di garantire uniformità applicativa e certezza giuridica per tutti gli operatori coinvolti nello sviluppo e nell’utilizzo di sistemi di intelligenza artificiale.
La definizione di AI nell’ordinamento europeo si configura, dunque, non come un concetto statico, ma come una nozione giuridica dinamica, destinata ad evolversi parallelamente al progresso tecnologico e alla prassi applicativa che emergerà nei prossimi anni.