
Un video realizzato con l’intelligenza artificiale e circolato in rete ha scatenato forti polemiche nel panorama politico italiano. Protagonista involontario del filmato è Giovanni Donzelli, deputato e responsabile organizzazione di Fratelli d’Italia, che in queste ore ha annunciato azioni legali contro chi ha realizzato e diffuso il contenuto manipolato.
Leggi anche: “Basta chiacchiere, ecco cosa devi fare!”. Attentato a Ranucci, avvertimento shock alla Meloni
Nel video deepfake, che è stato diffuso sui social network, si sente una voce – falsamente attribuita al parlamentare meloniano – esprimersi con dichiarazioni gravi e potenzialmente lesive in merito al lavoro giornalistico di Sigfrido Ranucci, autore di numerose inchieste e volto noto della trasmissione “Report”.
Le frasi false sul lavoro di Ranucci
Il video incriminato simula un’intervista in cui Donzelli sembrerebbe affermare: “Credo che Ranucci spesso ha toccato temi e fatto investigazione che non doveva fare, ha messo il naso dove non doveva metterlo”.
Un’altra frase attribuita al parlamentare recita: “Ognuno quando fa un lavoro si deve assumere tutte le responsabilità e sapere a cosa si va incontro”.
Le parole, apparse subito come gravi e fuori contesto, hanno provocato una raffica di reazioni indignate da parte di utenti, attivisti e anche esponenti del mondo politico e giornalistico. Tuttavia, le dichiarazioni non sono mai state pronunciate da Donzelli, e l’intero filmato è stato generato attraverso tecnologie avanzate di sintesi vocale e manipolazione video.

Donzelli smentisce: “Video ignobile e pericoloso”
Il diretto interessato ha smentito categoricamente qualsiasi coinvolgimento nel contenuto audio-video. Attraverso una nota pubblica, Donzelli ha denunciato la gravità dell’episodio: “Non so chi si sia messo a perdere del tempo così, ma trovo ignobile e pericoloso che qualcuno abbia creato un video con l’intelligenza artificiale completamente falso per attribuirmi dichiarazioni mai fatte sul grave attentato di cui è stato vittima Ranucci”.
Non so chi si sia messo a perdere del tempo così, ma trovo ignobile e pericoloso che qualcuno abbia creato un video con l’intelligenza artificiale completamente falso per attribuirmi dichiarazioni mai fatte sul grave attentato di cui è stato vittima Ranucci. A individuare i…
— Giovanni Donzelli (@Donzelli) October 19, 2025
Il deputato ha anche precisato che non si tratta solo di una questione personale, ma di un tema che investe la sicurezza dell’informazione pubblica e il rischio concreto di manipolazioni digitali a fini diffamatori o politici.
Donzelli ha confermato di aver già avviato l’iter per presentare formale denuncia alle autorità competenti. “A individuare i responsabili ci penseranno gli inquirenti. Non hanno niente da fare di meglio che spargere odio e menzogne”, ha concluso, evidenziando come l’uso distorto dell’intelligenza artificiale generativa possa creare danni profondi alla reputazione delle persone e alla qualità del dibattito pubblico.
Stavo vedendo su tik tok questo video di Donzelli. Chiaramente generato con intelligenza artificiale. Il poblrma è che moltissimi commentano come fosse reale. Problema enorme per la democrazia. #Ranucci pic.twitter.com/OIsoxF3VGQ
— MC (@Virus1979C) October 19, 2025
Intelligenza artificiale e fake news: il caso rilancia l’allarme
Il caso che ha coinvolto Donzelli riporta al centro del dibattito l’urgenza di normare l’uso dell’IA nelle produzioni digitali, soprattutto per quanto riguarda contenuti che possono avere ripercussioni politiche o sociali. I deepfake, ovvero contenuti video o audio manipolati grazie all’uso dell’intelligenza artificiale, rappresentano una minaccia crescente, sia in ambito giornalistico che nella comunicazione politica.
In questo caso, l’obiettivo del video manipolato sembra essere stato quello di creare un collegamento inesistente tra le dichiarazioni del deputato e il grave attentato subito da Ranucci, sfruttando un contesto particolarmente delicato. Una dinamica che ha amplificato l’indignazione pubblica prima ancora che fosse possibile verificarne l’autenticità.