ISSN 2784-9635

L’intelligenza artificiale cambia la difesa e la sicurezza globale: NATO’s first-ever strategy for Artificial Intelligence (AI)

Anna Bruna Barbera - 03/11/2021

Il 21 ottobre del 2021 i ministri della difesa dei Paesi della NATO hanno adottato la prima strategia di intelligenza artificiale (Artificial Intelligence – AI)[1].

Tale strategia – nel rispetto delle norme di diritto internazionale – stabilisce gli standard per l’uso dell’AI nel contesto della difesa, predisponendo le modalità di adozione della stessa e fronteggiando, inoltre, le minacce che potrebbero facilmente derivare dall’uso di tale tecnologia da parte degli avversari.

Preliminarmente, occorre osservare che alla fine del 2016, sotto la presidenza di Barack Obama – in risposta al piano cinese “13th National Five-Year Plan for the Development of Strategic Emerging Industries” del 2015 – fu emanato un documento chiamato “Preparing for the Future of Artificial Intelligence”. In tale rapporto, al fine di tenere conto del contesto storico e affrontare le diverse sfide per l’IA, venivano formulate ventitré raccomandazioni organizzate in diversi settori tematici: applicazioni dell’IA per il bene pubblico; IA nel governo federale; IA e regolamentazione; ricerca e forza lavoro; IA, automazione ed economia; equità, sicurezza e governance; considerazioni globali e sicurezza[2].

Pertanto, appare evidente che la strategia NATO, pubblicata nel 2021, si sia pienamente ispirata alle raccomandazioni statunitensi del 2016[3].

Dunque, l’intelligenza artificiale è una delle aree tecnologiche a cui gli alleati della NATO hanno attribuito la priorità e sta, tra l’altro, cambiando il modo di interpretare la difesa e la sicurezza globale.

Questa tecnologia offre un’opportunità senza precedenti per rafforzare il vantaggio tecnologico della NATO, aumentando tuttavia anche la velocità delle minacce ed influenzando probabilmente l’intero spettro delle attività intraprese dall’Alleanza a sostegno dei suoi tre principali compiti:

  • difesa collettiva;
  • gestione delle crisi;
  • cooperazione in materia di sicurezza.

Gli obiettivi di questa Strategia sono riassumibili in quattro punti:

  1. Fornire una base affinché la NATO e gli Alleati incentivino lo sviluppo e l’uso dell’IA in modo responsabile per scopi di difesa e sicurezza degli Alleati;
  2. Velocizzare e perfezionare l’adozione dell’IA, migliorando l’operabilità all’interno dell’Alleanza, anche attraverso proposte di casi d’uso, nuove strutture e nuovi programmi;
  3. Salvaguardare e monitorare le tecnologie di intelligenza artificiale e la capacità di innovare, affrontando considerazioni sulla politica di sicurezza come l’operatività dei principi per un utilizzo responsabile;
  4. Identificare e salvaguardarsi dalle minacce derivanti dall’uso dannoso dell’IA da parte di attori statali e non statali.

Da ultimo, la NATO si impegna a garantire che le varie applicazioni di intelligenza artificiale avvengano in conformità con i seguenti sei principi:

  1. a) legalità: le applicazioni AI saranno sviluppate e utilizzate in conformità con il diritto nazionale e internazionale, incluso il diritto internazionale umanitario;
  2. b) responsabilità: le applicazioni AI saranno sviluppate e utilizzate con adeguati livelli di giudizio e cura;
  3. c) comprensibilità e trasparenza: le applicazioni di intelligenza artificiale saranno adeguatamente comprensibili e trasparenti, anche attraverso l’uso di metodologie, fonti e procedure di revisione; ciò include meccanismi di verifica, valutazione e convalida a livello NATO e/o nazionale;
  4. d) affidabilità: le applicazioni AI avranno casi d’uso espliciti e ben definiti; la sicurezza, la protezione e la solidità di tali capacità saranno soggette a test e garanzie all’interno di tali casi d’uso durante l’intero ciclo di vita, anche attraverso procedure di certificazione stabilite dalla NATO e/o nazionali;
  5. e) governabilità: le applicazioni di intelligenza artificiale saranno sviluppate e utilizzate in base alle funzioni previste e consentiranno: un’adeguata interazione uomo-macchina; la capacità di rilevare ed evitare conseguenze indesiderate; e la capacità di adottare misure, come il disimpegno o la disattivazione dei sistemi, quando tali sistemi mostrano un comportamento non intenzionale;
  6. f) mitigazione dei pregiudizi: saranno adottate misure proattive per ridurre al minimo qualsiasi distorsione non intenzionale nello sviluppo e nell’uso di applicazioni di intelligenza artificiale e nei set di dati[4].

Come la NATO intenda perseguire i suoi obiettivi si può desumere leggendo lo stesso documento strategico, all’interno del quale infatti si legge che: «la NATO intende integrare l’AI in modo interoperabile a supporto dei tre tasks chiave. L’impiego della AI sarà condotto in modo responsabile attraverso l’organizzazione, il supporto alla missione e a livello operativo in accordo con le leggi internazionali».

Di conseguenza, prossimamente, la NATO lancerà un nuovo fondo per l’innovazione di un miliardo di dollari, come dichiarato il 20 ottobre scorso da Jens Stoltenberg, il Segretario Generale dell’Organizzazione.

Sarà poi la nuova struttura NATO chiamata “Defence Innovation Accelerator for the North Atlantic” (DIANA), l’equivalente NATO della DARPA, a fare da collegamento con il mondo civile e della ricerca dei paesi dell’Alleanza.

[1] L’intelligenza artificiale (IA) è l’attitudine di un macchinario di manifestare determinate capacità umane quali l’apprendimento, il ragionamento, la pianificazione ovvero l’utilizzo della creatività. Infatti, “l’intelligenza artificiale permette ai sistemi di capire il proprio ambiente, mettersi in relazione con quello che percepisce e risolvere problemi, e agire verso un obiettivo specifico. Il computer riceve i dati (già preparati o raccolti tramite sensori, come una videocamera), li processa e risponde. I sistemi di IA sono capaci di adattare il proprio comportamento analizzando gli effetti delle azioni precedenti e lavorando in autonomia” v. https://www.europarl.europa.eu/news/it/headlines/society/20200827STO85804/che-cos-e-l-intelligenza-artificiale-e-come-viene-usata;

[2] In particolare, nella parte finale, “Global considerations and Security”, si davano raccomandazioni su alcuni aspetti particolarmente importanti, ossia:

Recommendation 20: The U.S. Government should develop a government-wide strategy on international engagement related to AI and develop a list of AI topical areas that need international engagement and monitoring.

Recommendation 21: The U.S. Government should deepen its engagement with key international stakeholders, including foreign governments, international organizations, industry, academia, and others, to exchange information and facilitate collaboration on AI R&D. 

Recommendation 22: Agencies’ plans and strategies should account for the influence of AI on cybersecurity, and of cybersecurity on AI. Agencies involved in AI issues should engage their U.S. Government and private-sector cybersecurity colleagues for input on how to ensure that AI systems and ecosystems are secure and resilient to intelligent adversaries. Agencies involved in cybersecurity issues should engage their U.S. Government and private sector AI colleagues for innovative ways to apply AI for effective and efficient cybersecurity.

Recommendation 23: The U.S. Government should complete the development of a single, government-wide policy, consistent with international humanitarian law, on autonomous and semi-autonomous weapons.

[3] La posizione americana è così riassunta nelle conclusioni: “L’IA può essere un importante motore della crescita economica e del progresso sociale, se l’industria, la società civile, il governo e il pubblico lavorano insieme per sostenere lo sviluppo della tecnologia, con attenzione ponderata al suo potenziale e alla gestione dei suoi rischi. Il governo ha diversi ruoli da svolgere […] Dovrebbe sostenere la ricerca di base e l’applicazione dell’IA ai beni pubblici, così come lo sviluppo di una forza lavoro qualificata e diversificata. E il governo dovrebbe usare l’IA stessa, per servire il pubblico più velocemente, più efficacemente e a costi inferiori. Molte aree di politica pubblica, dall’istruzione e la rete di sicurezza economica, alla difesa, la conservazione dell’ambiente e la giustizia penale, vedranno nuove opportunità e nuove sfide guidate dal continuo progresso dell’IA. Il governo deve continuare a costruire la sua capacità di comprendere e adattarsi a questi cambiamenti […] Sviluppare e studiare l’IA può aiutarci a capire e apprezzare meglio la nostra intelligenza umana. Usata in modo ponderato, l’IA può aumentare la nostra intelligenza, aiutandoci a tracciare un percorso migliore e più saggio”. Per maggiori approfondimenti cfr. Aa.Vv., L’intelligenza artificiale per lo sviluppo sostenibile, Consiglio Nazionale delle Ricerche Edizioni, 2021.

[4] Sul punto v., Summary of the NATO Artificial Intelligence Strategy, consultabile in https://www.nato.int/cps/en/natohq/official_texts_187617.htm.