IL NUOVO REGOLAMENTO EUROPEO SULL’INTELLIGENZA ARTIFICIALE. LE PROPOSTE DEL COMITATO EUROPEO DELLE REGIONI INNALZANO I LIVELLI DI PRECAUZIONE PRESCRITTI

marketude Data Protection and Cybersecurity, EU and Competition, Marco Stillo, Perspectives, Publications, Roberto A. Jacchia

In data 28 febbraio 2022, il Comitato Europeo delle Regioni (European Committee of Regions, ECR) ha pubblicato i propri emendamenti[1] alla proposta della Commissione per un Regolamento che stabilisce un quadro giuridico uniforme per lo sviluppo, la commercializzazione e l’utilizzo delle intelligenze artificiali (IA)[2].

La proposta si pone a coronamento di una serie di iniziative che, nel corso degli ultimi anni, le istituzioni europee hanno intrapreso in materia di IA riconoscendone il ruolo crescente nella società del terzo millennio nonché le capacità, attraverso la progressiva automatizzazione dei processi in un numero esponenziale di settori e di utilizzi, quali, ad esempio, la diminuzione degli incidenti stradali, l’ottimizzazione dell’impiego delle risorse scarse quali l’energia e l’acqua, la riduzione dell’uso dei pesticidi in agricoltura, il potenziamento della competitività del settore manifatturiero e la sempre maggiore affidabilità della chirurgia e della tele-chirurgia. Più particolarmente, il nuovo quadro giuridico, che si applicherà ai soggetti pubblici e privati a condizione che il sistema sia immesso sul mercato dell’Unione o che il suo utilizzo abbia effetti sulle persone ivi situate (potendo perciò riguardare sia i fornitori che gli utenti), si fonda su una classificazione dei sistemi di IA basata sul rischio, prevedendo diversi obblighi per i fornitori dei sistemi ad alto rischio nonché una governance a doppio livello[3].

In primo luogo, l’ECR interviene sulla definizione di “sistema di IA”. Nello specifico, la proposta originale prevedeva un’unica definizione di IA adeguata alle esigenze future, vietando, da un lato, talune pratiche di IA particolarmente dannose in quanto in contrasto con i valori fondamentali dell’Unione e proponendo, dall’altro, restrizioni e tutele specifiche in relazione a determinati usi dei sistemi di identificazione biometrica remota a fini di attività di contrasto della criminalità e delle situazioni di ordine pubblico e sicurezza[4]. Secondo l’ECR, invece, poiché un sistema di IA è costituito da una combinazione di componenti tecniche che collegano dati, algoritmi e potenza di calcolo a pratiche sociali, alla società, all’identità e alla cultura, la definizione di tale insieme socio-tecnico dinamico dovrebbe, con il passar del tempo, poter rispondere alle esigenze future ed essere aggiornata regolarmente al fine di rispecchiare il crescente impatto sociale dell’IA, individuando nel contempo le sfide e le opportunità ad essa collegate.

In secondo luogo, l’ECR apporta delle modifiche alle pratiche di IA vietate. La proposta originaria, infatti, proibiva l’immissione sul mercato o la messa in servizio di IA che sfruttano le vulnerabilità di gruppi specifici o utilizzano tecniche subliminali per distorcere il comportamento di una persona in un modo tale da provocarle o poterle provocare un danno, od anche provocare un danno ad un’altra persona[5]. Poiché, tuttavia, l’IA può, al tempo stesso, minare o indebolire i diritti dei consumatori, l’ECR propone il divieto anche dei sistemi di IA che utilizzano tecniche subliminali in grado di violare i diritti fondamentali di un’altra persona o di un gruppo di persone, anche per quanto riguarda la loro salute e la loro incolumità fisica o psicologica, oppure in grado di causare un pregiudizio ai consumatori (quali ad esempio, perdite finanziarie o discriminazione economica). Oltre a ribadire il divieto di immissione sul mercato, messa in servizio o uso di sistemi di IA che forniscono un punteggio sociale delle persone fisiche per finalità generali delle autorità pubbliche o di loro rappresentanti, inoltre, l’ECR propone di consentire la generazione o la raccolta di dati per finalità specifiche unicamente laddove realizzata con una sorveglianza umana, e a condizione che ciò non leda il diritto alla dignità e alla non discriminazione nonché i valori di uguaglianza e giustizia.

In terzo luogo, l’ECR propone di introdurre un obbligo di trasparenza e di informazione per le persone che interagiscono con i sistemi di IA ad alto rischio o che potrebbero essere interessate dalla loro applicazione, nel senso che queste ultime, da un lato, devono esserne informate esplicitamente, in forma appropriata e comprensibile, e con modalità facilmente accessibili e che, dall’altro lato, devono avere  accesso a informazioni esplicite, facilmente reperibili e pubbliche sul fatto che sono assoggettati a tali sistemi.

In quarto luogo, la proposta della Commissione prevedeva che i sistemi di IA ad alto rischio siano progettati e sviluppati in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il tempo in cui il sistema è in uso[6]. Secondo l’ECR, tuttavia, in alcune circostanze la mera supervisione potrebbe rivelarsi non sufficiente, richiedendosi piuttosto l’intervento del personale umano. Di conseguenza, qualsiasi decisione adottata dai sistemi di IA destinati ad essere utilizzati da o per conto delle autorità pubbliche per valutare l’ammissibilità delle persone fisiche alle prestazioni e ai servizi di assistenza pubblica, per concedere, ridurre, revocare o recuperare tali prestazioni e servizi, nonché per valutare l’affidabilità creditizia o per stabilire il merito di credito (ad eccezione di quelli messi in servizio per uso proprio da fornitori di piccole dimensioni) dovrà formare oggetto di un intervento umano ed essere fondata su un processo decisionale rigoroso.

Secondo l’ECR, infine, gli utenti dei sistemi di IA ad alto rischio dovrebbero effettuare obbligatoriamente una valutazione etica prima che il sistema sia messo in servizio, in modo tale da approfondire i) quale potrebbe essere l’impatto derivante dalla sua installazione sugli individui e sulla società, ii) le finalità per cui viene installato, nonché iii) i valori fondamentali coinvolti, in che modo siano stati determinati e se il sistema ne tenga o meno adeguato conto.

Download Article


[1] Parere del Comitato europeo delle regioni, Approccio europeo in materia di intelligenza artificiale- Legge sull’intelligenza artificiale, GUUE C 97 del 28.02.2022.

[2] Com. Comm. COM(2021) 206 final del 21.04.2021, Proposta di Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’unione.

[3] Per ulteriori informazioni si veda il nostro precedente contributo, disponibile al seguente LINK.

[4] L’articolo 3 della proposta, intitolato “Definizioni”, al numero 1) dispone: “Ai fini del presente regolamento si applicano le definizioni seguenti:

1) “sistema di intelligenza artificiale” (sistema di IA): un software sviluppato con una o più delle tecniche e degli approcci elencati nell’allegato I, che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono…”.

[5] L’articolo 5 della proposta, intitolato “Pratiche di intelligenza artificiale vietate”, al paragrafo 1 lettera a) dispone: “Sono vietate le pratiche di intelligenza artificiale seguenti:

a) l’immissione sul mercato, la messa in servizio o l’uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole al fine di distorcerne materialmente il comportamento in un modo che provochi o possa provocare a tale persona o a un’altra persona un danno fisico o psicologico…”.

[6] L’articolo 14 della proposta, intitolato “Sorveglianza umana”, al paragrafo 1 dispone “I sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui il sistema di IA è in uso…”.