giovedì, Aprile 30, 2026

Una mappatura del settore dell’intelligenza artificiale militare

Il nuovo articolo SIPRI per la sezione governance dell'intelligenza artificiale

by Elena Fecchio
Logo SIPRI

Il coinvolgimento dell’industria è un obiettivo fondamentale delle iniziative di controllo degli armamenti volte a garantire un uso responsabile dell’intelligenza artificiale (IA) in ambito militare. Tuttavia, si presta scarsa attenzione a chi debba rappresentare l’«industria» in questi processi, ovvero quali aziende o segmenti della catena di approvvigionamento dell’IA nel settore privato siano rilevanti nel contesto politico. Questo documento informativo mira a fornire una panoramica del settore dell’intelligenza artificiale militare per aiutare policymakers, membri della società civile e ricercatori accademici, a comprendere l’ampia varietà di prodotti, attori e relazioni coinvolti.

La logica del coinvolgimento dell’industria

Come ha osservato il Segretario Generale delle Nazioni Unite António Guterres in un recente rapporto, molti Stati ritengono importante coinvolgere una serie di parti interessate – tra cui l’industria, la comunità scientifica e la società civile – nelle iniziative politiche sulle applicazioni militari responsabili dell’IA. Ciò va oltre gli sforzi sotto l’egida dell’ONU e include processi come il Vertice sull’IA responsabile nel settore militare (REAIM). Gli Stati hanno fornito due ragioni principali per coinvolgere l’industria in queste discussioni. La prima è che gli attori dell’industria dispongono di competenze tecniche ed esperienza altamente rilevanti. Possono aiutare i responsabili politici a comprendere meglio la tecnologia. Possono inoltre contribuire a generare e perfezionare idee su come sfruttare i benefici dell’IA in ambito militare, nonché a identificare e mitigare i rischi associati a queste tecnologie. La seconda ragione è che le scelte progettuali compiute durante lo sviluppo di un sistema di IA possono influire sulla capacità delle forze armate di utilizzarlo in linea con i quadri giuridici ed etici pertinenti. Poiché i sistemi di IA sono in gran parte sviluppati e prodotti dal settore privato, gli Stati ritengono necessario coinvolgere l’industria per comprendere come mettere in pratica i principi di un uso responsabile, nonché per comunicare all’industria le implicazioni delle loro tecnologie per la pace e la sicurezza internazionali.

Lo “stack di IA”: analisi dei segmenti del settore

Mentre le ragioni per coinvolgere l’industria sono relativamente chiare, lo è molto meno cosa – o chi – ciò significhi nella pratica. Non esiste un organismo rappresentativo per l’industria dell’IA, e persino il concetto stesso di industria dell’IA è meno semplice di quanto sembri.

L’IA non è una tecnologia distinta, ma un termine generico che copre un’ampia gamma di tecniche e tecnologie fornite da diverse aziende in modi diversi. Di conseguenza, ciò che si intende per “azienda di IA militare” è oggetto di dibattito. Ad esempio, Palantir è considerata un attore chiave nell’attuale ondata di IA militare, anche se non si concentra sulla creazione di modelli di IA. Piuttosto, Palantir fornisce piattaforme di analisi dei dati che incorporano modelli di IA di altre aziende. Esistono anche aziende specializzate nella fornitura di servizi a supporto dell’adozione dell’IA, come la gestione dei dati e il test, la valutazione, la verifica e la convalida (TEVV), ma che non producono esse stesse sistemi di IA.

Un modo per concepire il settore – ovvero le relazioni tra i prodotti, i servizi e gli attori coinvolti nello sviluppo di un sistema di IA militare – è lo “stack”, un termine tratto dall’informatica che si riferisce all’ecosistema a strati di software e hardware che rende possibili le applicazioni dell’IA. Questo stack comprende tre livelli.

Il livello inferiore è costituito dall’hardware e dall’infrastruttura. Comprende risorse computazionali fisiche (come i chip dei computer), lo storage e le reti. Esempi includono data center, cavi in fibra ottica, reti energetiche e infrastrutture cloud come Microsoft Azure o Amazon Web Services.

Al di sopra di questo si trova il livello fondamentale del software e della programmazione. Questo comprende modelli di IA di base (ad esempio modelli linguistici di grandi dimensioni), framework di codifica e addestramento e pipeline di dati che trasformano dati e algoritmi in intelligenza artificiale. Questo livello fornisce le capacità su cui si basano le applicazioni a valle dell’IA. È fondamentale perché determina fattori quali la sicurezza e la protezione delle applicazioni risultanti. Ad esempio, un modello di base vulnerabile alle iniezioni di prompt (istruzioni dannose volte a bypassare le misure di sicurezza degli sviluppatori) offre agli avversari l’opportunità di manipolare l’IA militare a valle per produrre risultati fuorvianti. Esempi di modelli di base includono il modello GPT di OpenAI (che alimenta il “chatbot” di IA ChatGPT) e il modello Claude di Anthropic — il modello al centro di una controversia in corso con il Dipartimento della Difesa degli Stati Uniti.

Il terzo livello è il livello applicativo. È qui che l’IA viene integrata in sistemi specifici di dominio progettati per svolgere compiti per gli utenti finali militari. Oltre ai modelli di base, in questi sistemi saranno integrati modelli di “IA ristretta”, ovvero modelli progettati per svolgere compiti specifici e circoscritti. Un’altra caratteristica importante del livello applicativo è che determina come gli esseri umani possono interagire con il sistema di IA ed è qui che emergono i rischi specifici di dominio associati all’IA.

Le applicazioni specifiche per uso militare vanno oltre aspetti quali il supporto alla selezione degli obiettivi e l’uso nelle armi autonome e possono includere anche funzioni di supporto militare quali la logistica, la manutenzione e il comando e controllo.

I prodotti e i servizi nei primi due livelli dello stack sono solitamente di uso generale o a duplice uso, ed è solo una volta raggiunto il livello delle applicazioni che i prodotti e i servizi sono principalmente specifici per uso militare. Le forze armate raramente costruiscono da zero uno stack completamente separato, soprattutto perché il tipo di infrastruttura richiesta per i modelli di IA più potenti è proibitivamente costoso. Piuttosto, tendono a separare e governare in modo selettivo parti di uno stack commerciale in gran parte condiviso. Ad esempio, lo specifico modello Claude (“Claude Gov”) fornito alle forze armate statunitensi era uno specificamente personalizzato per i clienti della sicurezza nazionale degli Stati Uniti da utilizzare in ambienti classificati, mentre Claude è utilizzato anche in un’ampia varietà di applicazioni commerciali rivolte al pubblico.

Per leggere il resto dell’articolo, cliccate qui.

Fonte: SIPRI Backgrounders

Photo credits: ClaireFanch, CC BY-SA 4.0 <https://creativecommons.org/licenses/by-sa/4.0>, via Wikimedia Commons

Per ulteriori notizie del giorno: News

Per aggiornamenti su eventi nell’ambito internazionale: Next

You may also like

error: Il contenuto è protetto!!