Lo scorso 28 settembre 2022 la Commissione Europea ha formulato una proposta di direttiva (COM(2022)496) finalizzata all’adeguamento delle norme previste dagli Stati membri dell’Unione Europea in materia di responsabilità civile extracontrattuale originata da sistemi di intelligenza artificiale (di seguito, la “Direttiva”).
La Direttiva, facendo seguito alla risoluzione del Parlamento europeo 2020/2014, si inserisce all’interno di un già ampio contesto di impegno, da parte delle istituzioni europee, nella promozione di un ecosistema favorevole all’utilizzo dell’intelligenza artificiale, nonché alla riduzione dei rischi connessi a determinati utilizzi di tale tecnologia.
Obiettivi della proposta
Il termine intelligenza artificiale (IA) indica un insieme di tecnologie in rapida evoluzione in grado di combinare dati, algoritmi e potenza di calcolo. Talune caratteristiche afferenti a tali tecnologie, quali ad esempio la complessità, autonomia e opacità (c.d. effetto black box), possono contribuire a rendere difficoltoso o eccessivamente oneroso per quanti subiscano un danno dall’utilizzo di sistemi IA identificare la persona responsabile di tale danno.
La Direttiva mira ad introdurre meccanismi volti a semplificare, da un punto di vista processuale, l’onere della prova a carico dei soggetti danneggiati da dispositivi di IA. Tale semplificazione viene realizzata, nelle previsioni della Direttiva, mediante l’introduzione a determinate condizioni di apposite presunzioni relative (praesumptio iuris tantum), nonché di determinati meccanismi di divulgazione di informazioni volte a bilanciare la posizione sfavorevole del danneggiato nell’ambito di tali circostanze. Per tale ragione, la Direttiva non incide sulle norme che regolano istituti fondamentali della responsabilità civile propri dei singoli sistemi nazionali, quali ad esempio il danno e la colpa.
La Direttiva si pone altresì l’obiettivo di favorire l’armonizzazione delle normative nazionali, nell’intento di ridurre il grado di frammentazione giuridica e di incertezza sul modo in cui le giurisdizioni interpreteranno e applicheranno le norme vigenti in materia di responsabilità nei casi riguardanti l’IA. A tale riguardo, l’adozione di una direttiva da parte del legislatore europea in luogo di altri strumenti normativi (quali ad esempio il regolamento), appare coerente da un lato con tale obiettivo di armonizzazione e, dall’altro, con la volontà di garantire agli Stati membri la flessibilità di integrare le misure ivi previste all’interno dei rispettivi regimi di responsabilità civile, senza eccessivi attriti con gli istituti propri di tali regimi.
Ambito di applicazione e oggetto
La Direttiva si applica alle domande di risarcimento del danno causato da un sistema di IA nel quadro di azioni civili di responsabilità extracontrattuale, qualora tali azioni siano intentate nell’ambito di regimi di responsabilità per colpa. La Direttiva non fa dunque riferimento alla disciplina applicabile nel caso in cui i danni derivanti dall’utilizzo di sistema IA abbiano natura diversa da quella derivante da responsabilità extracontrattuale (ad esempio, pre-contrattuale, contrattuale o da contatto sociale).
La Direttiva introduce due meccanismi di semplificazione: il primo, consistente in un nuovo diritto d’accesso alle prove, volto ad attribuire all’autorità giudiziaria il potere di ordinare al convenuto, a determinate condizioni, di divulgare elementi di prova relativi ad un determinato sistema di IA; il secondo, consistente in una presunzione relativa (praesumptio iuris tantum) riguardante il nesso di causalità fra la condotta colpevole del convenuto e il danno subito dal potenziale attore.
A tale riguardo, si segnala per completezza che, secondo quanto previsto dalla Direttiva, le domande di risarcimento possono essere presentate non soltanto dalla persona danneggiata dal sistema IA, ma anche da persone eventualmente surrogate nei diritti del danneggiato, quale ad esempio un’impresa di assicurazione.
L’ordine di esibizione
Per quanto riguarda il primo dei summenzionati meccanismi, l’articolo 3 della Direttiva prevede che l’organo giurisdizionale possa ordinare, su richiesta dell’attore, la divulgazione di elementi di prova rilevanti in relazione a specifici sistemi di IA ad alto rischio che si sospetta abbiano cagionato un danno. Condizione per l’esercizio di tale potere è che l’attore abbia preventivamente ottenuto il rifiuto ad una propria richiesta di esibizione rivolta a taluni soggetti direttamente richiamati all’interno della Direttiva, quali il fornitore di un sistema di IA, una persona soggetta agli obblighi del fornitore di cui all’articolo 24 o all’articolo 28, par. 1, della legge sull’IA, ovvero un utente a norma della legge sull’IA.
È inoltre necessario che l’attore che intenda beneficiare di tale ordine di esibizione presenti all’autorità giudiziaria fatti e prove sufficienti a sostenere la plausibilità della domanda di risarcimento del danno (fumus boni juris).
L’ordine di esibizione può essere concesso dall’autorità giudiziaria solo nella misura necessaria a sostenere la domanda di risarcimento ed è inoltre reclamabile da parte del convenuto.
In caso di mancata ottemperanza nei confronti di detto ordine da parte del convenuto, l’autorità giudiziaria potrà presumere la non conformità a un pertinente obbligo di diligenza da parte del convenuto, che gli elementi di prova richiesti erano intesi a dimostrare ai fini della domanda di risarcimento del danno.
La presunzione relativa al nesso di causalità
Quanto al secondo meccanismo, l’articolo 4 mira ad introdurre una presunzione relativa (praesumptio iuris tantum) in forza della quale l’autorità giudiziaria può presumere l’esistenza del nesso causale fra la non conformità del comportamento del convenuto a determinati obblighi, come in seguito richiamati, e l’output prodotto dal sistema di IA o la mancata produzione di un output da parte del sistema di IA che ha cagionato il danno.
Affinché detta presunzione possa operare è necessario che:
- l’attore abbia dimostrato la colpa del convenuto conformemente alle norme del diritto nazionale applicabile. Tale colpa consiste, piu’ in particolare, nella non conformità del comportamento del convenuto ad un obbligo di diligenza previsto dal diritto dell’Unione o nazionale e direttamente inteso a proteggere dal danno verificatosi;
- sulla base delle circostanze del caso, risulti probabile che la colpa del convenuto abbia influenzato l’output pertinente al sistema IA o la sua mancata produzione; e
- l’attore possa dimostri che detto output (o la sua mancata produzione) abbia causato il danno.
La Direttiva distingue inoltre fra sistemi IA ad alto rischio e a basso rischio. In caso di sistemi IA ad alto rischio, così come definiti dalla legge sull’IA, l’articolo 4, par. 4, della Direttiva stabilisce un’eccezione alla presunzione di causalità qualora il convenuto dimostri che l’attore può ragionevolmente accedere a elementi di prova e competenze sufficienti per dimostrare il nesso causale. Nel caso invece di sistemi di IA che non sono ad alto rischio, l’articolo 4, par. 5, della Direttiva stabilisce una condizione per l’applicabilità della presunzione di causalità, in base alla quale quest’ultima è soggetta alla condizione che l’organo giurisdizionale stabilisca, sulla base delle circostanze del caso che possano di fatto pregiudicare la capacità dell’attore di dimostrare il nesso di causalità tra la colpa del convenuto e l’output del sistema IA, che è eccessivamente difficile per l’attore dimostrare l’esistenza del nesso causale.
Adozione della Direttiva e recepimento da parte degli Stati membri
La normativa comunitaria è intesa dunque ad introdurre una disciplina ad hoc che, pur presentando caratteristiche che la rendano adatta ad essere applicata ai dispositivi di IA, affonda le radici all’interno dei sistemi di responsabilità civile tradizionali degli Stati membri.
La Direttiva resta in ogni caso soggetta alla revisione e approvazione da parte del Consiglio Europeo e del Parlamento e, una volta approvata, dovrà essere trasposta in legge nazionale da parte degli Stati membri entro i due anni successivi.