
Sembra la trama di un film di fantascienza, invece è realtà. E non una realtà futura ancora in divenire, ma qualcosa di inquietante che sta già causando devastazione e morte in alcune parti del mondo.
I cosiddetti “robot killer“, meglio conosciuti come “Lethal Autonomous Weapons Systems“, sono sistemi d’arma autonomi che possono selezionare e attaccare obiettivi senza la necessità di un intervento umano diretto. Questa tecnologia, basata sull’intelligenza artificiale, rappresenta una minaccia crescente non solo per la sicurezza globale, ma anche per le fondamenta dell’etica umana.
Le conseguenze devastanti dell’uso dei robot killer
Il principale rischio legato all’uso delle armi autonome è la loro capacità di agire senza comprendere il contesto o le conseguenze. I “robot killer” non distinguono tra civili e obiettivi militari in modo affidabile. Sono già adoperati in campo militare, e il loro utilizzo sta causando polemiche e preoccupazioni in seno alle istituzioni di tutto il mondo. Un interrogativo inquietante riguarda anche il fatto che, in un prossimo futuro, questa tecnologia possa finire nelle mani di gruppi privati o della malavita organizzata.

Il fatto di non possedere un codice morale e di essere prive di discernimento pone enormi problemi legati all’opportunità di impiego di queste armi, guidate esclusivamente dall’intelligenza artificiale. A essere in discussione è innazitutto la capacità di rispettare le norme giuridiche internazionali che regolano i conflitti armati. La mancanza di un significativo controllo umano mina la responsabilità morale e giuridica, aprendo la porta a violazioni della dignità umana.
Uso nei conflitti attuali: Ucraina e Gaza
Le armi autonome non sono un’ipotesi futura, ma una realtà già applicata nei conflitti attuali. In Ucraina, dal 2022, sono state segnalate munizioni vaganti con capacità di targeting autonomo, utilizzate per colpire obiettivi senza l’intervento umano.
Anche Israele ha impiegato tecnologie autonome simili nella Striscia di Gaza, con conseguenze devastanti per la popolazione civile. Questi sistemi, come i programmi Habsora e Lavender, elaborano rapidamente enormi quantità di dati per identificare bersagli, ma la riduzione degli esseri umani a semplici “punti dati” rappresenta una grave minaccia per l’umanità.

L’erosione del controllo umano
Sebbene alcuni di questi sistemi, come Habsora, non siano completamente autonomi, il loro impiego segna l’erosione del controllo umano nelle decisioni sull’uso della forza. L’impiego di questi strumenti rende sempre più difficile per i militari valutare l’impatto morale e strategico delle loro azioni, contribuendo a una progressiva disumanizzazione della guerra.Le principali otenze mondiali, tra cui Stati Uniti e Russia, continuano a competere nello sviluppo di queste tecnologie, aumentando i rischi per la sicurezza globale.
Una sfida morale e legale
Il crescente uso dei “robot killer” solleva questioni fondamentali riguardo alla nostra capacità di garantire un controllo umano significativo nelle operazioni belliche. Senza un controllo da parte di responsabili umani, non solo vengono compromessi i diritti dei civili, ma si pone anche una minaccia alla pace globale. Per questo in molti chiedono un intervento immediato della comunità internazionale per regolamentare l’uso di queste armi e impedire un futuro in cui le macchine decidano autonomamente chi vive e chi muore.