Nell’epoca dell’informazione digitale e della crescente ondata di tecnologie innovative, il legame tra intelligenza artificiale (IA) e privacy è diventato un nodo cruciale nel tessuto della società contemporanea. L’avanzamento esponenziale dell’IA ha aperto la strada a una serie di nuove opportunità, ma ha anche sollevato interrogativi sempre più pressanti sulla protezione dei dati personali e sulla salvaguardia della sfera privata degli individui. In questa cornice, l’intersezione tra IA e privacy si presenta come un terreno potenzialmente controverso sia sul piano giuridico che su quello etico.
Le applicazioni dell’IA, che spaziano dalla profilazione online alla sorveglianza urbana, creano aree di frizione per quanto riguarda il rispetto dei diritti fondamentali dell’individuo e il mantenimento della trasparenza e dell’accountability nel trattamento dei dati personali: come vasi inevitabilmente comunicanti, le due prospettive sono funzionalmente collegate, poiché l’IA non può sussistere senza i dati. D’altro verso, tuttavia, sono proprio i dati a tracciare, sulla scorta delle oramai sperimentate tutele implementate dal GDPR, un confine nell’utilizzo della stessa IA.
Come correttamente evidenziato nel parere congiunto n. 5/2021 redatto dall’ EDPB e dall’EDPS[1], il legame intrinseco tra protezione della privacy e intelligenza artificiale si riflette puntualmente nel dibattito in corso sulla governance nazionale dell’IA. Secondo il parere, sarebbe opportuno assegnare il ruolo di Autorità nazionale per l’IA al Garante della privacy, che, per la sua vicinanza tecnica alla materia dei dati, sarebbe un organo sostanzialmente già preparato a svolgere il ruolo di supervisore delle nuove tecnologie. Significativamente, ancor prima dell’imminente implementazione dell’AI Act[2], il Garante della privacy era intervenuto più volte, emanando provvedimenti sanzionatori, nei frequenti casi in cui i sistemi di IA erano ritenuti in violazione del GDPR.
Al riguardo, è di particolare interesse un recente provvedimento dell’11 gennaio 2024, in cui il Garante della privacy (il “Garante”) si è pronunciato[3] nei confronti del Comune di Trento riguardo l’applicazione del Regolamento (UE) n. 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati, “Regolamento generale sulla protezione dei dati” (appunto, il “GDPR”)[4].
I fatti
Il Comune di Trento, con il supporto della Fondazione Bruno Kessler (la “Fondazione”), aveva preso parte alla sperimentazione, finanziata dall’Unione Europea e in partnership con la Polizia di Anversa (Belgio) e il Ministero dell’Interno della Bulgaria, di sistemi di intelligenza artificiale mirati alla rilevazione di potenziali situazioni di pericolo per la pubblica sicurezza in ambito urbano. Tali iniziative nascevano nell’ambito di progetti europei i cui obiettivi e le cui modalità di svolgimento sono oggetto di specifici Agreements sottoscritti tra la Commissione Europea, il Coordinatore e i Partner di progetto beneficiari dei finanziamenti.
Più particolarmente, il progetto “Marvel” (“Multimodal Extreme Scale Data Analysis for Smart Cities Environments”)[5] riguardava l’acquisizione di filmati estratti da telecamere di videosorveglianza e di audio registrato da microfoni con condivisione in tempo reale con un software in grado di riconoscere eventi rilevanti per la salvaguardia della pubblica sicurezza come assembramenti, scippi o aggressioni.
Diversamente, nel progetto “Protector” (“PROTECTing places of “wORship”)[6] il ruolo dell’IA era finalizzato alla protezione dei luoghi di culto da minacce terroristiche e crimini d’odio e prevedeva sia l’analisi di filmati (privi di audio), ottenuti per mezzo delle videocamere comunali poste nelle vicinanze di edifici religiosi, che la raccolta di dati testuali nella forma di post su Twitter (ora “X”) e commenti su YouTube.
Il Comune di Trento, agendo in qualità di titolare del trattamento e con il supporto della Fondazione, identificata quale responsabile del trattamento, condivideva i dati raccolti, anonimizzati e successivamente elaborati dal software con i partner del progetto (la Polizia di Anversa e il Ministero dell’Interno della Bulgaria).
Decisione del Garante
Dalle notizie di stampa, il Garante aveva appreso circa le sperimentazioni messe in atto dal Comune di Trento utilizzando l’IA, e aveva così rivolto a quest’ultimo una richiesta di informazioni. Si era successivamente dato avvio al procedimento per l’adozione dei provvedimenti di cui all’art. 58, par. 2, del GDPR.
Su queste premesse, e all’esito dell’attività istruttoria, il Garante considera che, in virtù dell’obiettivo dichiarato dal Comune di Trento di addestrare un’IA a rilevare potenziali pericoli per la pubblica sicurezza, i dati raccolti dalle registrazioni audio e video nell’ambito del progetto Marvel siano da identificarsi come dati personali relativi a reati ai sensi dell’articolo 10 del GDPR.
Quanto al progetto Protector, le riprese delle videocamere comunali e i messaggi/commenti ottenuti da YouTube e Twitter/X considerato il loro carattere religioso, sono invece da classificarsi come dati particolari ai sensi dell’articolo 9 del GDPR[7].
Relativamente alle tecniche di anonimizzazione impiegate, il Garante rileva che, come sostenuto dallo stesso Comune di Trento nell’istruttoria, esse siano state utilizzate solo successivamente alla raccolta, pertanto, sebbene per un ridotto periodo di tempo e nonostante la Polizia italiana e i partner del progetto (Polizia di Anversa e Ministero dell’Interno della Bulgaria) avessero accesso solo ai dati anonimizzati, un trattamento dei dati personali è stato senza dubbio posto in essere. Inoltre, ad eccezione dei commenti YouTube – immediatamente cancellati insieme ai nomi utente dopo l’analisi – le metodologie utilizzate sono da considerarsi inidonee e non efficaci per rendere tali dati effettivamente anonimi[8]. Più particolarmente, le tecniche impiegate erano consistite nell’oscuramento dei volti e delle targhe dei veicoli riguardo ai video, nella sostituzione della voce nelle tracce audio e nella cancellazione dei messaggi pubblicati su Twitter/X. Tuttavia, a tali misure era seguita una mera pseudonimizzazione[9] dei nomi utente. A nulla è valso l’argomento opposto dal Comune di Trento per giustificare il modus procedendi seguito, nel senso che i dati audio e video raccolti sarebbero stati di “bassa qualità” e, quindi, non avrebbero consentito di distinguere chiaramente il contenuto delle conversazioni e/o le caratteristiche personali sufficienti a identificare gli interessati poiché, oltre a non essere sufficientemente comprovata, tale insufficienza di mezzi sarebbe stata incoerente con lo scopo stesso dei progetti.
Tutto ciò premesso, il Garante conclude ricordando che i dati raccolti siano da considerarsi “informazioni relative a persone fisiche comunque identificabili, che, conseguentemente, costituiscono dati personali[10] […] il cui trattamento […] avrebbe dovuto rispettare i principi di protezione dei dati (art. 5 e 25 del Regolamento) e fondarsi su un’idonea base giuridica che potesse giustificare lo stesso (art. 6, 9 e 10 del Regolamento)”.
Proprio con riguardo alla base giuridica individuata dal Comune di Trento nelle disposizioni di legislazione regionale e statutarie che gli attribuiscono funzioni amministrative di promozione dello sviluppo culturale, sociale ed economico della popolazione, il Garante rileva che essa sia da definirsi “del tutto generica e programmatica” e pertanto inidonea a rispettare i requisiti degli articoli 5 e 6 GDPR. Infatti, come ribadito dalla Corte di Giustizia, ai sensi dell’articolo 52 della Carta dei diritti fondamentali dell’Unione Europea, eventuali limitazioni dei diritti garantiti dagli articoli 7 (rispetto della vita privata) e 8 (protezione dei dati di carattere personale) devono essere previste da una normativa giuridicamente vincolante che ne definisca specificatamente la portata, imponendo requisiti minimi che proteggano gli interessati dal rischio di abusi e arbitrarietà[11]. Inoltre, tale base giuridica deve garantire il rispetto del contenuto essenziale dei diritti protetti dalla Carta nonché del principio di proporzionalità[12]. La centralità di tali principi è ribadita dalla Corte Europea dei Diritti dell’Uomo (Corte EDU)[13] guardando all’ articolo 8 della Convenzione per la Salvaguardia dei Diritti dell’Uomo del 1950 (CEDU), in particolar modo qualora il trattamento dei dati personali sia automatizzato e/o si sia in presenza di tecnologie altamente sofisticate[14]. In virtù di tali considerazioni, il Garante ritiene che il trattamento dei dati personali realizzato dal Comune di Trento in discorso sia stato posto in essere in assenza di base giuridica (articoli 6, 9 e 10 del GDPR) e non sia conforme ai principi di liceità, correttezza e trasparenza (articolo 5 del GDPR).
Peraltro, aggiunge il Garante, i sopracitati principi impongono al Comune di Trento di fornire all’interessato alcune informazioni riguardo il trattamento, che devono essere fornite in loco in forma semplificata, mediante apposita segnaletica di avvertimento (c.d. informazioni di primo livello) e in forma estesa, tramite, ad esempio, un sito web (c.d. informazioni di secondo livello). Tuttavia, il Garante evidenzia sul punto mancanze, imperfezioni ed una totale omissione delle informazioni riguardanti i dati prelevati dai social network Twitter/X e YouTube, rilevando una distinta violazione degli articoli 13 e 14 del GDPR.
Infine, il titolare del trattamento ha mancato di redigere una corretta valutazione d’impatto sulla protezione dei dati, obbligatoria qualora si presentino rischi elevati per gli interessati come, ad esempio, quelli derivanti dall’utilizzo di nuove tecnologie o dalla sorveglianza sistematica di una zona pubblica. In particolare, il Comune di Trento ha stilato un documento privo di data e non sottoscritto, che non rispetta i requisiti di cui all’articolo 35 del GDPR.
In conclusione
Ad esito del procedimento, il Garante ha ritenuto che il trattamento dei dati personali operato dal Comune di Trento nell’ambito dei progetti “Marvel” e “Protector” fosse in violazione degli articoli 5, 6, 9, 10, 13, 14 e 35 del GDPR, ed ha inflitto all’amministrazione comunale una sanzione amministrativa di euro 50.000 nonché l’immediata cancellazione dei dati personali raccolti.
La vicenda, che riecheggia gli atavici timori di un “Grande Fratello” onnipresente e invasivo, evidenzia l’esigenza di limiti alle attività poste in essere dalle IA, e conferma l’approccio garantista degli Stati membri dell’Unione Europea rispetto alla tutela della privacy degli individui.
Il ruolo del Garante nella governance dell’IA emergerebbe come un ambito di competenza naturale, che potrebbe essere formalizzato istituzionalmente oppure, meno semplicemente e meno efficacemente, circoscritto ai casi in cui sia configurabile una potenziale violazione della privacy. Tuttavia, notizie di stampa indicano che il governo italiano starebbe considerando di assegnare il ruolo di Autorità nazionale per l’IA all’Agenzia per l’Italia Digitale (AgID), che svolge un ruolo eminentemente tecnico, e con le minori garanzie di terzietà e imparzialità che discendono dal suo status di agenzia, anziché di autorità indipendente.
Guardando agli altri Stati membri che hanno già provveduto all’attribuzione della competenza interna, può essere indicativa la scelta della Spagna, che si è dotata di un’Agenzia ad hoc (Agencia Española de Supervisión de Inteligencia Artificial, AESIA)[15].
Il completamento del quadro istituzionale interno sulla governance dell’IA non è una questione accademica né un divertissement burocratico per gli addetti ai lavori.
La regolazione domestica dell’IA (in base all’AI Act di prossima introduzione) persegue anche obiettivi di contenimento di forme di innovazione potenzialmente “aggressive” nei riguardi dei diritti e delle libertà fondamentali, in quanto sostenute da interessi economici forti, sulla scorta di tecnologie incomprensibili alla stragrande maggioranza della società e che, in ogni caso, progrediranno ad un passo infinitamente più rapido della risposta legislativa e giurisprudenziale. Si tratta, quindi, di un caso di scuola di bilanciamento tra interessi e principi, a giudizio di chi scrive, solo in astratto di pari rango, e la cui risoluzione dovrebbe auspicabilmente propendere per la tutela sostanziale dei diritti individuali (il Garante), piuttosto che per scelte e obiettivi di mera efficienza di sistema (AgID).
[1] Si veda il parere congiunto al seguente LINK. L’EDPB (European Data Protection Board) è un organismo indipendente dell’Unione Europea il cui scopo è garantire un’applicazione coerente del Regolamento generale sulla Protezione dei Dati e promuovere la cooperazione tra le autorità di protezione dei dati dell’Unione. L’EDPS (European Data Protection Supervisor) è, ancora, un’autorità di controllo indipendente il cui obiettivo principale è monitorare e garantire che le istituzioni e gli organismi europei rispettino il diritto alla privacy e alla protezione dei dati quando trattano dati personali e sviluppano nuove politiche.
[2] Il testo dell’AI Act attende ora l’approvazione formale da parte del Parlamento europeo e del Consiglio che avrà luogo nel corso del mese di aprile 2024. L’ultimo step risale a venerdì 2 febbraio 2024, giorno in cui il Comitato dei rappresentanti permanenti degli Stati membri presso l’Unione (Coreper) ha convalidato l’accordo politico provvisorio sul Regolamento in oggetto raggiunto dal Parlamento europeo e dal Consiglio in data 8 dicembre 2023.
[3] Provvedimento dell’11.01.2024 n. 9977020, si veda il seguente LINK.
[4] GU L 119 del 4.5.2016.
[5] Per ulteriori informazioni si veda il seguente LINK.
[6] Per ulteriori informazioni si veda il seguente LINK.
[7] L’articolo 9, paragrafo 1, del Regolamento (UE) n. 2016/679 definisce “dati particolari” come: “[…] dati personali che rivelino l’origine razziale o etnica, le opinioni politiche, le convinzioni religiose o filosofiche, o l’appartenenza sindacale, nonché […] dati genetici, dati biometrici intesi a identificare in modo univoco una persona fisica, dati relativi alla salute o alla vita sessuale o all’orientamento sessuale della persona”.
[8] Il “dato anonimo”, come riportato nel provvedimento del Garante, è “tale solo se non consente in alcun modo l’identificazione diretta o indiretta di una persona, tenuto conto di tutti i mezzi (economici, informazioni, risorse tecnologiche, competenze, tempo) nella disponibilità di chi (titolare o altro soggetto) provi a utilizzare tali strumenti per identificare un interessato”.
[9] L’articolo 4, punto 5, del Regolamento (UE) n. 2016/679 definisce “pseudonimizzazione” come: “il trattamento dei dati personali in modo tale che […] non possano più essere attribuiti a un interessato specifico senza l’utilizzo di informazioni aggiuntive, a condizione che tali informazioni aggiuntive siano conservate separatamente e soggette a misure tecniche e organizzative intese a garantire che tali dati personali non siano attribuiti a una persona fisica identificata o identificabile”.
[10] L’articolo 4, punto 1, del Regolamento (UE) n. 2016/679 definisce “dato personale” come: “qualsiasi informazione riguardante una persona fisica o identificata o identificabile («interessato»); si considera identificabile la persona fisica che può essere identificata, direttamente o indirettamente, con particolare riferimento a un identificativo come il nome, un numero di identificazione, dati relativi all’ubicazione, un identificativo online o a uno o più elementi caratteristici della sua identità fisica, fisiologica, genetica, psichica, economica, culturale o sociale”.
[11] CGUE 24.02.2022, Causa C-175/20, Valsts ieņēmumu dienests, punti 55 e 83.
[12] CGUE 01.08.2022, Causa C-184/20, Vyriausioji tarnybinės etikos komisija, punto 64.
[13] Corte EDU 04.07.2023, ricorso n. 11519/20, Glukhin v. Russia, punto 77; Corte EDU 03.04.2007, ricorso n. 62617/00, Copland v. United Kingdom, punto 46.
[14] Corte EDU 04.07.2023, ricorso n. 11519/20, Glukhin v. Russia, punto 75.
[15] Per ulteriori informazioni si veda il seguente LINK.