LA COMMISSIONE EUROPEA PROPONE DI ADEGUARE LE NORME SULLA RESPONSABILITÀ CIVILE EXTRACONTRATTUALE ALL’INTELLIGENZA ARTIFICIALE

marketude Andrea Palumbo, Diritto Europeo e della Concorrenza, IT e TMT, Prospettive, Pubblicazioni

In data 28 settembre 2022, la Commissione europea ha presentato una proposta legislativa per una nuova direttiva volta ad adeguare le norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale[1].

La nuova direttiva è stata presentata congiuntamente ad un’altra proposta legislativa che intende riformare la normativa europea sulla responsabilità per danno da prodotti difettosi[2], adeguandola, tra le altre cose, alle sfide poste dalle nuove tecnologie, inclusa l’intelligenza artificiale.

Le due proposte si completano a vicenda nel fornire una tutela onnicomprensiva per i danni extracontrattuali causati dall’intelligenza artificiale. Da un lato, la nuova direttiva sul danno da prodotti difettosi stabilisce il regime di responsabilità dei fabbricanti per i danni causati a persone fisiche dai propri prodotti, definendo le condizioni per il diritto al risarcimento e le regole per determinare la responsabilità nelle varie fattispecie che possono presentarsi. Dall’altro lato, la nuova direttiva sulla responsabilità da intelligenza artificiale detta norme ad hoc sulla prova del danno causato da un sistema di intelligenza artificiale, così facilitando le azioni di risarcimento dei danni dinanzi ad una tecnologia il cui funzionamento può essere di difficile comprensione per un soggetto esterno alla sua catena di produzione. Difatti, data la complessità, l’autonomia e l’opacità degli algoritmi impiegati per le applicazioni di intelligenza artificiale (c.d. « black box effect », o effetto scatola nera), può essere difficile, se non impossibile, dimostrare il danno subito da queste applicazioni ed identificare il soggetto responsabile secondo le tradizionali regole degli Stati membri sulla responsabilità extracontrattuale. Con la nuova direttiva, il legislatore europeo ha voluto predisporre degli strumenti di tutela, in sede processuale, per il soggetto danneggiato dall’intelligenza artificiale, al fine di ovviare alle difficoltà poste dall’intelligenza artificiale.

Ecco le principali novità della direttiva sulla responsabilità da intelligenza artificiale.

L’ambito di applicazione della direttiva è limitato alla responsabilità civile extracontrattuale, con esclusione della responsabilità penale, e copre azioni di risarcimento anche al di fuori dell’ambito della direttiva sui prodotti difettosi[3], tra cui, ad esempio, la violazione delle norme sulla privacy o il caso in cui un soggetto sia stato discriminato in un procedimento di assunzione in cui è stata impiegata l’intelligenza artificiale. Nel suo complesso, la direttiva trova applicazione per tutti i sistemi di intelligenza artificiale, a prescindere dalla loro classificazione a seconda del livello rischio. Tuttavia, vi sono alcune norme che trovano applicazione solo per i sistemi ad alto rischio, e viceversa.

Tra le peculiarità della direttiva vi è la sua coordinazione con il nuovo regolamento sull’intelligenza artificiale[4], che necessariamente lega il destino delle due proposte. In particolare, nel testo della direttiva sono fatti numerosi riferimenti al regolamento, sia per alcune definizioni chiave (tra cui la stessa definizione di intelligenza artificiale), che per gli standard di conformità dell’intelligenza artificiale. Di conseguenza, salvo che siano apportate modifiche al testo della direttiva, i relativi procedimenti legislativi delle due proposte dovranno essere coordinati. La proposta di regolamento si trova in uno stadio iniziale del processo legislativo, e ancora non è stato raggiunto un accordo politico tra i co-legislatori su un testo comune.

Il testo della direttiva è piuttosto corto, con soli nove articoli, e le disposizioni che armonizzano le norme nazionali sul regime probatorio si concentrano in soli due articoli: l’articolo 3 sulla divulgazione degli elementi di prova e la presunzione relativa di non conformità, e l’articolo 4 sulla presunzione relativa del nesso di causalità in caso di colpa.

Le nuove norme sulla divulgazione degli elementi di prova e la presunzione relativa di non conformità costituiscono il più importante strumento di tutela contro l’opacità che caratterizza l’intelligenza artificiale, ma il loro ambito di applicazione è limitato ai sistemi ad alto rischio[5]. In primo luogo, l’articolo 3 prevede che, quando ad un potenziale attore per il risarcimento dei danni viene rifiutata, da parte del fornitore, di una persona soggetta agli obblighi del fornitore[6], o di un utente, la condivisione di elementi di prova sul sistema di intelligenza artificiale che si sospetta abbia causato il danno, gli organi giurisdizionali possono ordinare la divulgazione di tali elementi di prova. La richiesta dell’attore potenziale deve essere in ogni caso circostanziata con sufficienti elementi di prova per sostenere la plausibilità della domanda di risarcimento del danno. L’organo giurisdizionale può anche ordinare la conservazione degli elementi di prova.

Qualora il convenuto non si conformi all’ordinanza con cui l’organo giurisdizionale nazionale gli impone di divulgare o conservare gli elementi di prova a sua disposizione, opera la presunzione relativa di non conformità da parte del convenuto all’obbligo di diligenza che gli elementi di prova richiesti erano intesi a dimostrare. In tal modo, se il potenziale attore non ottiene gli elementi necessari a provare la violazione degli obblighi di diligenza da parte del convenuto, sarà il convenuto a dover dimostrare il rispetto degli obblighi stessi, tramite gli stessi elementi di prova di cui è stata richiesta la divulgazione o altri elementi pertinenti. Tramite questo meccanismo legislativo, viene evitata la situazione in cui il mancato rispetto degli obblighi incombenti sulle persone responsabili per la produzione e/o il funzionamento dell’intelligenza artificiale non possa essere provato per mancata disponibilità di informazioni che solo il convenuto può possedere, ad esempio i dati sul processo di apprendimento ed evoluzione seguito dall’intelligenza artificiale nel tempo.

L’articolo 4 detta, invece, norme sulla presunzione relativa del nesso di causalità in caso di colpa. In particolare, è previsto che, a determinate condizioni, gli organi giurisdizionali possono presumere l’esistenza del nesso di causalità tra la colpa del convenuto e l’output prodotto da un sistema di intelligenza artificiale, o la mancata produzione di un output da parte di tale sistema, ai fini dell’applicazione delle norme in materia di responsabilità. A tal fine, le condizioni da soddisfare sono le seguenti : i) l’attore ha dimostrato o l’organo giurisdizionale ha presunto, la colpa del convenuto o di una persona della cui condotta il convenuto è responsabile, consistente nella non conformità a un obbligo di diligenza previsto dal diritto dell’Unione o nazionale e direttamente inteso a proteggere dal danno verificatosi, ii) si può ritenere ragionevolmente probabile, sulla base delle circostanze del caso, che il comportamento colposo abbia influito sull’output prodotto dal sistema di intelligenza artificiale o sulla mancata produzione di un output da parte di tale sistema, iii) l’attore ha dimostrato che il danno è stato causato dall’output prodotto dal sistema di intelligenza artificiale o dalla mancata produzione di un output da parte di tale sistema.

Oltre a queste condizioni, la presunzione opera se un’ulteriore condizione è soddisfatta, che tuttavia differisce a seconda che si tratti di un sistema di intelligenza artificiale ad alto rischio o non. Per i sistemi ad alto rischio, la presunzione non opera se il convenuto dimostra che l’attore può ragionevolmente accedere a elementi di prova e competenze sufficienti per dimostrare l’esistenza del nesso di causalità. Per i sistemi non ad alto rischio, la presunzione opera solo se l’organo giurisdizionale nazionale ritiene eccessivamente difficile per l’attore dimostrare l’esistenza del nesso di causalità. Grazie a queste condizioni, l’applicabilità della presunzione relativa è limitata solo ai casi in cui si renda necessaria a causa della complessità del sistema di intelligenza artificiale, che rende particolarmente difficile o impossibile stabilire il nesso di causalità.

L’articolo 4 della direttiva trova applicazione per tutti i sistemi di intelligenza artificiale, a prescindere dalla loro classificazione in base al rischio. Tuttavia, regole parzialmente differenti sono previste per i sistemi di intelligenza artificiale ad alto rischio[7].

Con la nuova direttiva sulla responsabilità da intelligenza artificiale, il legislatore europeo è intervenuto su una problematica, quella del rapporto tra responsabilità extracontrattuale e intelligenza artificiale, che è stata ampiamente discussa negli ultimi anni. Il nesso di causalità, in particolare, è stato un rompicapo che il legislatore ha deciso di risolvere con il meccanismo della presunzione relativa.

Per quanto riguarda i prossimi passi, trascorrerà con ogni probabilità un lungo lasso di tempo prima che le norme della direttiva trovino applicazione a livello nazionale. Da un lato, il processo legislativo per l’adozione della direttiva è appena iniziato, e dovrà verosimilmente essere coordinato con l’adozione del regolamento sull’intelligenza artificiale, e per quest’ultimo è previsto un acceso dibattito ed un lungo procedimento di adozione. Dall’altro lato, gli Stati membri avranno due anni dall’entrata in vigore della direttiva per implementarla nei propri ordinamenti nazionali.

Scarica l’articolo


[1] Proposta di direttiva del Parlamento europeo e del Consiglio  relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale (direttiva sulla responsabilità da intelligenza artificiale), COM(2022) 496 final del 28.09.2022.

[2] Proposal for a Directive of the European Parliament and of the Council  on liability for defective products, COM(2022) 495 final del 28.09.2022 (attualmente disponibile solo in lingua inglese).

[3] Direttiva del Consiglio del 25 luglio 1985 relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli stati membri in materia di responsabilità per danno da prodotti difettosi, GUUE L 210 del 07.08.1985.

[4] Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale), COM(2021) 206 final.

[5] Così come definiti dall’articolo 6 del regolamento sull’intelligenza artificiale.

[6] A norma dell’articolo 24 o dell’articolo 28, paragrafo 1, della regolamento sull’intelligenza artificiale.

[7] Si vedano i commi 2 e 3 dell’articolo 4 della direttiva.