L’INTELLIGENZA ARTIFICIALE: VANTAGGI E PROBLEMATICITÀ NEL COMPARTO DIFESA

INTRODUZIONE

“L’essenza di una disciplina come l’I.A. (Intelligenza Artificiale) è tutta racchiusa nei fini che essa si prefigge di raggiungere. L’obiettivo precipuo dell’I.A. è, in termini estremamente sintetici ma allo stesso tempo esaustivi, la progettazione e realizzazione di una macchina capace, come l’uomo, di comportamenti cognitivi” (Tramonti, 1996)1. Da questa affermazione prende avvio la riflessione sull’Intelligenza Artificiale e la sua applicazione al comparto della Difesa italiana. Ma per comprendere appieno la questione e i rischi e i vantaggi che l’IA porta con sé, è necessario che questo discorso inizi dalle sue origini, più esattamente poco prima dello scoppio della Seconda guerra mondiale. 

Nel 1936, Alan Turing pensò che sarebbe stato possibile creare una macchina in grado di eseguire qualsiasi tipo di procedura di calcolo o, più in generale, risolvere un problema con un numero limitato di operazioni. La ricerca che ha seguito questa intuizione ha permesso al celebre matematico di presentare il test di Turing in un articolo della Rivista Mind del 1950 intitolato Computing machinery and intelligence (Turing, 2009)2. L’obiettivo dell’articolo era determinare se le macchine avessero la capacità di pensare o se avessero un tipo di intelligenza paragonabile all’intelligenza umana. Nonostante Turing sia considerato il pioniere di questo studio, il primo ad utilizzare il termine “intelligenza artificiale” fu John McCarthy nel 19563

Da allora, il termine IA ha assunto nuove connotazioni e ha raggiunto orizzonti ampissimi, uno dei quali certamente si applica alla difesa del nostro Paese. Inoltre, essa rappresenta una delle innovazioni più affascinanti e complesse del nostro tempo.  Spesso si tende a pensare all’IA come a una mera imitazione dell’intelligenza umana, ma in realtà essa è molto di più: è un’intelligenza aumentata che si sviluppa e si nutre delle capacità umane. L’IA, infatti, non si limita a replicare il pensiero umano, ma amplifica le nostre capacità di analisi, previsione e problem solving, permettendoci così di affrontare sfide sempre più complesse. In questo senso, essa può essere considerata come una sorta di partner intellettuale che ci supporta, estendendo i nostri limiti e trasformando le informazioni in intuizioni pratiche. 

Da questo assunto prende l’incipit questo breve articolo su come l’IA viene utilizzata in diversi ambiti della Difesa. Così come porta molti vantaggi, come si vedrà nel primo paragrafo, l’intelligenza artificiale pone anche una serie di quesiti e problematiche. Queste ultime, che verranno trattate nel secondo paragrafo, toccano tematiche complesse, ad esempio quelle legate alla responsabilità di alcune pratiche. Nell’ultima parte di questo articolo vedremo come l’utilizzo dell’intelligenza artificiale applicata al comparto Difesa del nostro Paese solleva anche questioni etiche e legali che vanno ad inserirsi nell’ambito della rule of law e delle ROE.

VANTAGGI E BENEFICI DELL’INTELLIGENZA ARTIFICIALE APPLICATA ALLA DIFESA ITALIANA

L’impiego dell’intelligenza artificiale nel comparto della Difesa italiana rappresenta una trasformazione significativa che sta ridefinendo le modalità operative e strategiche delle Forze Armate. In un contesto globale caratterizzato da crescenti complessità e minacce multidimensionali, l’adozione di tecnologie avanzate è diventata non solo vantaggiosa, ma essenziale per garantire la sicurezza nazionale. Come ha dichiarato il Generale Enzo Vecciarelli, ex Capo di Stato Maggiore della Difesa, «l’innovazione tecnologica è la chiave per affrontare le sfide del futuro» (Vecciarelli, 2020)4.

Uno degli utilizzi più rilevanti dell’AI nella difesa può essere certamente ricondotto al campo della sorveglianza e del monitoraggio. In questo ambito, tecnologie come i droni autonomi, ad esempio il P.1HH HammerHead, sono impiegati per monitorare i confini nazionali, offrendo un’analisi in tempo reale dei dati provenienti da satelliti e sensori. Questi droni sono in grado di identificare attività sospette con una precisione mai vista prima. Si pensi solo all’Operazione Mare Nostrum, dove l’intelligenza artificiale ha giocato un ruolo cruciale nel monitoraggio dei flussi migratori nel Mediterraneo, dimostrando come la tecnologia possa contribuire a gestire situazioni di crisi umanitaria con grande efficienza. In questo contesto particolare, l’IA è stata impiegata per analizzare grandi quantità di dati provenienti da satelliti e droni e ciò ha permesso di identificare aree di maggiore rischio per i migranti e di ottimizzare i percorsi di pattugliamento. Inoltre, tutto questo combinato agli algoritmi di machine learning ha permesso di prevedere le rotte migratorie e migliorare la gestione delle risorse a disposizione5.

Un altro ambito in cui si ravvisa un impatto significativo dell’intelligenza artificiale è sicuramente la cybersecurity. Con l’aumento delle minacce informatiche negli ultimi anni, infatti, l’Agenzia per la Cybersicurezza Nazionale (ACN) ha adottato sistemi di IA per proteggere le infrastrutture critiche del Paese. «La difesa informatica è una delle priorità per garantire la sicurezza del Paese», affermava l’ormai ex Direttore dell’ACN, Roberto Baldoni (Baldoni, 2021)6. Sempre grazie all’utilizzo di algoritmi avanzati, così come nel campo del monitoraggio, l’intelligenza artificiale rende possibile rilevare attacchi e anomalie in tempo reale, proteggendo così sistemi vitali da potenziali compromissioni. Inoltre, la capacità dell’AI di analizzare enormi volumi di dati permette una risposta tempestiva alle minacce stesse, rendendo più efficace la gestione della sicurezza informatica. Inoltre, il supporto decisionale fornito dall’AI rappresenta un ulteriore passo avanti nella modernizzazione delle Forze Armate italiane. L’integrazione di piattaforme AI per l’analisi dei dati consente di ottimizzare la pianificazione delle operazioni, facilitando la valutazione di scenari complessi. Le simulazioni AI permettono ai comandanti di prepararsi a situazioni critiche, fornendo informazioni utili per decisioni più informate e tempestive. Francesco Rocca, allora presidente della Croce Rossa Italiana, pochi anni fa sottolineava che «l’AI non sostituisce l’uomo, ma potenzia la sua capacità di decisione» (Rocca, 2022)7, evidenziando così come la tecnologia possa integrarsi con le competenze umane anziché sostituirle.

AI: I POSSIBILI RISCHI

Oltre ai benefici, è fondamentale considerare anche i rischi associati all’uso dell’AI nella Difesa. Uno dei temi più controversi riguarda la cosiddetta autonomia letale. Con il termine autonomia letale si fa riferimento a sistemi d’arma che possono operare senza un intervento umano diretto, in grado dunque di prendere decisioni riguardo all’uso della forza. Questo concetto è spesso associato a droni e veicoli militari autonomi che utilizzano algoritmi di intelligenza artificiale per identificare e ingaggiare obiettivi. Si deduce che questo peculiare utilizzo dell’IA solleva interrogativi etici e legali molto rilevanti poiché comprende alcune problematiche legate alla responsabilità di alcune pratiche. Chi è responsabile in caso di un errore? È etico delegare decisioni vitali a una macchina? Tali interrogativi richiedono una profonda riflessione e a questo riguardo esperti e organizzazioni discutono da tempo circa la necessità di regolamentazioni internazionali per limitare o vietare l’uso di armi autonome letali. 

Oltre alle problematiche riguardanti i sistemi d’arma, l’IA presenta alcune problematiche anche se applicata al settore della sicurezza o cybersicurezza. Gli algoritmi di IA, infatti, possono riflettere i bias presenti nei dati su cui sono addestrati, portando a discriminazioni nelle decisioni di sorveglianza e nell’analisi delle minacce. Questo è un rischio non trascurabile, in quanto potrebbe compromettere la fiducia pubblica nei sistemi di sicurezza. Su questa tematica, nel 2021, si era espressa anche la Commissione Europea che aveva avvertito: «l’AI deve essere progettata e utilizzata in modo da rispettare i diritti fondamentali» (Commissione Europea, 2021)8. Un’altra preoccupazione sull’utilizzo di AI è rappresentata sicuramente dalla vulnerabilità dei sistemi di intelligenza artificiale in caso di cyber attacchi. L’integrazione dell’AI nei sistemi di difesa espone infatti le infrastrutture a nuove minacce informatiche. Attacchi mirati potrebbero compromettere capacità operative essenziali, rendendo necessario un approccio proattivo nella protezione dei sistemi informatici. In questo ambito, ma non solo, l’affidamento eccessivo sull’AI potrebbe portare a una diminuzione delle competenze umane nel processo decisionale, creando una dipendenza pericolosa dalla tecnologia.

LE DIFFICOLTÀ DELL’INTELLIGENZA ARTIFICIALE RISPETTO A RULE OF LAW E RULES OF ENGAGEMENT

Come accennato nel paragrafo precedente, l’impiego dell’IA pone enormi quesiti. In questo paragrafo si tratterà delle problematicità legate alla rule of law e alle cosiddette ROE (Rules of Engagement). 

La rule of law, o legalità, implica che tutti, inclusi gli enti governativi e le Forze Armate, siano soggetti alla legge e che le azioni siano condotte in conformità con le normative stabilite. Una delle più gravi criticità riguarda anche in questo caso l’impiego di sistemi autonomi di armamento. In queste situazioni, come avevamo detto precedentemente, si pongono interrogativi relativi soprattutto alla responsabilità in caso di incidenti o di violazioni dei diritti umani. Se un sistema d’arma autonomo commette un errore fatale, chi deve rispondere: il programmatore, il comandante, o lo Stato stesso? Questa ambiguità giuridica è pericolosa e può minare la fiducia pubblica nelle istituzioni, come evidenziato nel rapporto del Centro per la Sicurezza Nazionale (CNAS, 2023)9, secondo il quale è essenziale garantire che l’uso dell’intelligenza artificiale rispetti i principi di accountability e trasparenza.

D’altro canto, per ciò che concerne le rules of engagement (ROE), ovvero le regole che definiscono le condizioni e i limiti dell’uso della forza da parte del personale militare, l’introduzione dell’IA può influenzare significativamente le operazioni sul campo. L’Intelligenza Artificiale può contribuire a fornire informazioni in tempo reale volte a migliorare la precisione delle operazioni militari, riducendo i rischi di danni collaterali e di violazioni delle ROE. Tuttavia, la dipendenza da sistemi automatizzati può anche portare a situazioni in cui le decisioni vengono prese rapidamente senza la necessaria supervisione umana, con il rischio di violare le norme internazionali. In contesti complessi, come le operazioni di peacekeeping o le missioni umanitarie, l’IA può apportare certamente grandi vantaggi ma deve essere utilizzata con estrema cautela. Le regole di ingaggio stabiliscono, infatti, non solo le condizioni per l’uso della forza, ma anche l’obbligo di proteggere i civili. L’uso di tali tecnologie per automatizzare decisioni strategiche può risultare problematico, specialmente in scenari in cui le sfide etiche e legali sono particolarmente acute10. Secondo un documento dell’Organizzazione delle Nazioni Unite, l’uso di armamenti autonomi deve essere regolamentato rigorosamente per garantire che non violino i diritti umani e il diritto internazionale umanitario (ONU, 2022)11.

CONCLUSIONE

Da questo breve articolo, si può concludere che l’integrazione dell’Intelligenza Artificiale nel comparto della Difesa, intesa sia in termini nazionali sia internazionali, offre significative opportunità in molti ambiti. Si pensi solo, come richiamato nel primo paragrafo ai sistemi di cybersecurity, sicurezza nazionale e ai sistemi di sorveglianza in generale. Tuttavia, non si può prescindere dai rischi che l’applicazione dell’IA porta con sé. Questi ultimi richiedono più riflessioni che spesso sono legate a tematiche quali la rule of law, la responsabilità e, per quanto riguarda prettamente lo staff stesso delle Forze Armate sicuramente le preoccupazioni più pressanti sono legate alle rules of engagement. È cruciale stabilire normative chiare e procedure di audit per garantire che l’uso di questa risorsa sia etico, responsabile e in linea con i principi fondamentali dei diritti umani. Infatti, solo attraverso un approccio equilibrato e consapevole potrà rendersi possibile il pieno sfruttamento del suo potenziale, proteggendo al contempo i valori fondamentali della società e garantendo la fiducia nelle istituzioni militari.

Pubblicato il 26/04/2024

Sara Torricelli (Dossier Difesa, Content Analyst)

  1. TRAMONTI E. (1996) L’intelligenza artificiale: prospettive per la Difesa ↩︎
  2. A. M. Turing (1950) Computing Machinery and Intelligence ↩︎
  3. Nuove prospettive nell’intelligenza artificiale – Enciclopedia. Treccani. https://www.treccani.it/enciclopedia/nuove-prospettive-nell-intelligenza-artificiale_(XXI-Secolo)/ ↩︎
  4. VECCIARELLI E. (2020). Discussione su Innovazione e Sicurezza Nazionale ↩︎
  5. CASD (2020), L’impatto dell’Intelligenza Artificiale (AI) sul ciclo di intelligence e sugli strumenti a disposizione per i pianificatori militari e le forze dell’ordine ↩︎
  6. BALDONI R. (2021), Intervento presso l’Agenzia per la Cybersicurezza Nazionale ↩︎
  7. ROCCA F. (2022), Intervista sulla tecnologia e l’umanità ↩︎
  8. COMMISSIONE EUROPEA (2021). Documento sulle Normative dell’Intelligenza Artificiale ↩︎
  9. CNAS. (2023), Report sulla Governance dell’Intelligenza Artificiale nel Settore della Difesa ↩︎
  10. CASD (2023), Applicazione di Artificial Intelligence per fini militari: individuazione dei criteri relativi al passaggio dall’approccio Human in the Loop allo Human on the Loop e definizione delle conseguenti implicazioni sul ciclo di definizione e approvazione delle ROE, con considerazioni sull’adeguamento del quadro normativo in caso di incidenti/eventi avversi ↩︎
  11. ONU (2022). Rapporto sull’Utilizzo di Armamenti Autonomi e Diritti Umani ↩︎

Articoli simili

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *