LA NATO ADOTTA LA PROPRIA STRATEGIA PER L’INTELLIGENZA ARTIFICIALE

marketude Andrea Palumbo, Prospettive, Protezione dei Dati e Cybersecurity, Pubblicazioni, Roberto A. Jacchia

Nel mese di ottobre, l’Organizzazione del Trattato dell’Atlantico del Nord (NATO) ha adottato[1] una propria strategia per l’intelligenza artificiale[2], sulla scia delle numerose iniziative recentemente intraprese da vari Stati nel mondo e dall’Unione europea per far fronte alle sfide e alle opportunità che questa presenta. Con la nuova strategia, gli Stati membri della NATO hanno stabilito i principi che guideranno le proprie azioni relative all’utilizzo dell’intelligenza artificiale per finalità di difesa e sicurezza.

La strategia è stata motivata dalla realizzazione che l’intelligenza artificiale potrebbe avere un forte impatto in tutte le aree in cui l’organizzazione esercita le proprie competenze principali: difesa collettiva, gestione delle crisi e cooperazione in materia in sicurezza. Per il futuro, la NATO ambisce a favorire l’adozione dell’intelligenza artificiale nei propri Stati membri, con soluzioni che ne permettano l’interoperabilità, al fine di supportare l’esercizio delle proprie competenze.

La strategia per l’intelligenza artificiale persegue molteplici finalità. Oltre a dettare i principi che gli Stati membri dovrebbero seguire per assicurarne un utilizzo responsabile, la NATO intende promuoverne l’adozione per le attività di sicurezza e difesa, al contempo identificando e mitigando i relativi rischi.

Al centro della strategia si colloca l’utilizzo responsabile dell’intelligenza artificiale nel settore della difesa, nel pieno rispetto dei valori e delle norme dell’organizzazione, nonché del diritto internazionale. In particolare, gli Stati membri si impegnano a far sì che le applicazioni d’intelligenza artificiale che intendono sviluppare o impiegare nei settori di competenza rispettino i sei principi seguenti: legalità, accountability, trasparenza, affidabilità, governabilità, e attenuazione degli effetti discriminatori. Questi principi sono sostanzialmente equiparabili a quelli individuati dalla Commissione in una propria comunicazione del 2019[3], ove si esponevano, appunto, i requisiti necessari per assicurare la fiducia verso le applicazioni dell’intelligenza artificiale[4]. Inoltre, i principi NATO coincidono largamente anche con i principi ispiratori della proposta di regolamento recentemente presentata dalla Commissione in materia[5], soprattutto per le applicazioni di intelligenza artificiale considerate ad alto rischio.

La strategia riconosce l’importanza della cooperazione tra la NATO, il settore privato[6] e il mondo accademico. Ciò prefigura, per il futuro, significative opportunità di contratti per la ricerca, lo sviluppo e la fornitura di applicazioni tecnologiche impiegabili nell’ambito della difesa o della sicurezza, anche al di là di quelle tradizionali dell’industria degli armamenti, dell’industria aerospaziale e delle comunicazioni, coinvolgendo anche altri attori, quali le le start-ups innovative e i ricercatori accademici.

Come in tutti i settori a cui l’intelligenza artificiale sta approdando, anche per le collaborazioni future tra il settore pubblico e il privato per lo sviluppo di soluzioni di difesa e sicurezza sarà fondamentale che i diritti di proprietà intellettuale dei licenzianti siano adeguatamente tutelati. La tutela dei diritti di proprietà intellettuale relativi alle applicazioni di intelligenza artificiale è un tema che sta generando un dibattito a tutto campo nel mondo accademico e professionale, con vaste aree di incertezza e di vero e proprio vuoto normativo. Ne sono un esempio le recenti divergenze giurisprudenziali e di prassi applicativa delle autorità brevettuali che si sono registrati sulla possibilità o meno che un’intelligenza artificiale possa venire indicata come inventore in una domanda di brevettazione, con soluzioni diverse allo stato fornite dall’Ufficio Europeo dei Brevetti, negli Stati Uniti d’America, nel Regno Unito, in Australia ed in Sud Africa.

Sarà di particolare interesse seguire gli sviluppi della proposta di regolamento europeo, attesi già nel 2022, e quelli settoriali in ambito NATO che verosimilmente procederanno in parallelo.

Scarica l’articolo


[1] La strategia è stata adottata nel corso della riunione dei ministri della difesa degli Stati membri della NATO, che si è tenuta nei giorni 21 e 22 ottobre 2021. Il comunicato stampa rilasciato dalla NATO in seguito alla riunione è disponibile al seguente LINK.

[2] Un riassunto con gli aspetti salienti della strategia adottata è disponibile al seguente LINK.

[3] Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato Economico e Sociale europeo e al Comitato delle Regioni, “creare fiducia dell’intelligenza artificiale antropocentrica, del 08.04.2019, COM(2019) 168 final.

[4] I sette requisiti fondamentali, individuati negli orientamenti del gruppo di esperti ad alto livello creato dalla Commissione, sono: intervento e sorveglianza umani; robustezza tecnica e sicurezza; riservatezza e governance dei dati; trasparenza; diversità, non discriminazione ed equità; benessere sociale e ambientale; e accountability

[5] Proposta di Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’unione del 21.04.2021, COM(2021) 206 final.

[6] Il settore privato, cui il documento della strategia fa riferimento, include le c.d. “Big tech”, le start-ups, le piccole e medie imprese, e gli investitori privati disposti ad apportare capitale di rischio (ad esempio, i fondi di private equity).