Vai al contenuto

Guerra e inganno: come la Cina cambia la sua strategia militare nell’era dell’intelligenza artificiale

Pubblicato: 27/11/2025 07:57
Guerra e intelligenza artificiale cina

Guerra e intelligenza artificiale, nel cuore del deserto del Gobi, nel grande centro di addestramento di Zhurihe, una simulazione militare è diventata il simbolo dell’evoluzione strategica dell’Esercito Popolare di Liberazione. Durante un’esercitazione notturna, la Forza Blu sembrava aver neutralizzato l’artiglieria della Forza Rossa con un attacco perfettamente eseguito, guidato da sensori avanzati e sistemi di puntamento assistiti dall’intelligenza artificiale. In realtà, come ha rivelato il controllo dell’operazione, la vittoria era solo un’illusione: i bersagli colpiti erano semplici installazioni ingannevoli e oltre metà delle unità della Forza Blu era già compromessa.
L’episodio mostra in modo plastico la direzione intrapresa da Pechino: un campo di battaglia in cui umani e algoritmi non solo si affrontano, ma tentano attivamente di ingannarsi. Con questo obiettivo, l’Esercito Popolare di Liberazione ha incorporato nella dottrina militare il concetto di “guerra contro l’IA”, una strategia che mira a confondere i sistemi di intelligenza artificiale nemici colpendo dati, algoritmi e potenza di calcolo.

La triade cinese contro l’intelligenza artificiale avversaria

Secondo le analisi pubblicate dal quotidiano PLA Daily, la strategia cinese si fonda su un approccio integrato che prende di mira contemporaneamente l’intero ciclo vitale dell’IA nemica. I vertici militari sostengono che l’unico modo per “decifrare l’intelligenza” dell’avversario sia intervenire su più livelli, sabotando fonti dati, modelli decisionali e capacità di elaborazione.
Le operazioni su dati e sensori riguardano l’iniezione di informazioni manipolate, la distorsione delle immagini radar e infrarosse, la creazione di firme termiche e acustiche false e l’uso di rivestimenti che trasformano il profilo di un veicolo. Sul piano algoritmico, l’obiettivo è sfruttare i punti ciechi dei modelli, alterandone la logica interna e inducendoli a deviare verso obiettivi sbagliati. Infine, la terza componente della triade mira a ridurre la potenza di calcolo dell’avversario mediante attacchi cinetici ai data center, operazioni cyber e saturazione elettromagnetica.
Nello stesso filone, una ricerca del 2024 segnala l’uso crescente di tecniche di “soft-kill”, basate su inquinamento dei dati, inversione dei segnali, attivazione di backdoor e attacchi avversari per manipolare i modelli di machine learning.

Guerra e intelligenza artificiale in Cina: addestramento, simulazioni e ruolo dei comandanti

L’attenzione crescente al ruolo dell’intelligenza artificiale non esclude la componente umana, considerata ancora essenziale dal comando cinese. Le esercitazioni degli ultimi anni includono sempre più scenari che prevedono l’uso simultaneo di bersagli reali e falsi, costringendo gli operatori a valutare la credibilità dei segnali ricevuti dai sensori.
La formazione insiste sulla capacità dei comandanti di riconoscere errori nei sistemi di IA, evitare eccessiva dipendenza dagli algoritmi e mantenere quella che il PLA definisce “coerenza cognitiva” tra operatore e macchina. Un numero crescente di esercitazioni simula conflitti tra umani e IA, con l’obiettivo di abituare i militari a identificare raccomandazioni errate dei sistemi automatici e scartarle rapidamente.
Il Tenente Generale He Lei ha ribadito nel 2024 che il potere di vita o di morte deve restare saldamente nelle mani degli esseri umani. Le linee guida più recenti definiscono inoltre protocolli rigorosi su raccolta, etichettatura e tracciamento dei dati, che alimentano poi gli scenari di addestramento e le valutazioni post-esercitazione.

L’industria cinese al servizio della guerra digitale

Parallelamente all’evoluzione dottrinale, le aziende tecnologiche cinesi stanno sviluppando un intero mercato di prodotti anti-IA, capaci di alterare, ingannare o saturare i sistemi intelligenti del nemico. La gamma va dalle mimetizzazioni multispettrali ai radar gonfiabili, dai generatori di segnali ingannevoli ai software per testare la robustezza dei modelli avversari.
Huaqin Technology produce rivestimenti che mascherano segnali radar, infrarossi e visivi, mentre aziende come Yangzhou Spark e JX Gauss commercializzano materiali stealth, generatori di fumo, simulatori di segnali e strutture ingannatrici a grandezza naturale. Numerosi produttori di apparecchiature per la guerra elettronica offrono sistemi in grado di saturare lo spettro con interferenze e falsi echi, costringendo l’IA nemica a consumare risorse preziose su bersagli inesistenti.
Anche i colossi digitali intervengono nella partita. Tencent Cloud, Qi’anxin e RealAI sviluppano software capaci di rilevare input manipolati, bloccare intrusioni, generare casi di test avversari e simulare attacchi ai modelli. Questi strumenti, presentati come soluzioni di protezione, vengono anche utilizzati per affinare le tecniche offensive.

La reazione degli Stati Uniti e la sfida globale sull’inganno digitale

Il lavoro del PLA riflette lezioni già osservate sui fronti di guerra contemporanei, in particolare in Ucraina, dove l’inganno elettromagnetico e la manipolazione dei sensori hanno assunto un peso crescente. Secondo vari analisti, questa evoluzione apre un nuovo fronte: il rischio di un “divario nell’inganno”, in cui chi non sviluppa capacità di contrasto all’IA rischia di essere vulnerabile.
Gli Stati Uniti hanno già avviato programmi dedicati alla robustezza dei modelli e alla difesa da attacchi avversari, ma gli analisti avvertono che tali sforzi non possono limitarsi a dimostrazioni occasionali. Test continui, pipeline verificabili e capacità di reazione sul campo diventano essenziali.

La dottrina militare americana continua a prevedere una supervisione umana costante, come stabilito nella Direttiva 3000.09 del Dipartimento della Difesa. Tuttavia, gli esperti sottolineano la necessità di rafforzare anche le forze “rosse” coinvolte nelle esercitazioni, dotandole di strumenti avanzati di inganno basati sull’IA, così da individuare e correggere vulnerabilità prima che emergano sul campo reale.
Il rischio, avvertono gli analisti, è che un’eccessiva fiducia nell’intelligenza artificiale, senza un adeguato sistema di contromisure, si trasformi da punto di forza in nuova debolezza. Nell’era del conflitto algoritmico, a dominare non sarà solo chi avrà l’IA più potente, ma chi saprà usarla – e ingannarla – con maggiore efficacia.

Continua a leggere su TheSocialPost.it

Hai scelto di non accettare i cookie

Tuttavia, la pubblicità mirata è un modo per sostenere il lavoro della nostra redazione, che si impegna a fornirvi ogni giorno informazioni di qualità. Accettando i cookie, sarai in grado di accedere ai contenuti e alle funzioni gratuite offerte dal nostro sito.

oppure