
L’ondata di entusiasmo che circonda l’intelligenza artificiale è stata analizzata in profondità da Emily M. Bender e Alex Hanna nel libro “The Ai Con” (Harper, 2025). Le autrici sono state intervistate da Andrea Siccardo per Altraeconomia, in un dialogo pubblicato con il titolo “The Ai Con, la grande truffa dell’intelligenza artificiale. E chi ci guadagna” (link all’intervista originale). Dalla conversazione emerge un racconto lucidissimo sulla costruzione di una narrazione salvifica attorno all’Ai, utilizzata per attrarre capitali e giustificare politiche di automazione e concentrazione del potere tecnologico.
La “truffa” dietro l’intelligenza artificiale
Secondo Bender, l’inganno si struttura su più livelli. Alla base ci sono i grandi modelli linguistici – come ChatGPT – presentati come strumenti capaci di “comprendere” il linguaggio umano, mentre in realtà si limitano a imitarne le forme. Sui livelli più alti della piramide si collocano i produttori di tecnologie Ai e i governi che le acquistano per sostituire servizi pubblici, come l’istruzione, con “tutor automatizzati”.
Hanna sottolinea che una delle strategie narrative più diffuse consiste nel far credere che, se l’Ai funziona in un ambito, debba automaticamente funzionare in qualsiasi altro. È su questa base che vengono giustificati giganteschi investimenti infrastrutturali — data center, centrali elettriche, sistemi per la gestione idrica — alimentando una vera e propria corsa all’oro tecnologica. Oggi, osserva, dichiarare di lavorare con l’Ai è uno dei modi più rapidi per ottenere capitale di rischio nella Silicon Valley.
Tra entusiasmo e catastrofismo: la falsa opposizione
Nel loro libro, le autrici distinguono due correnti dominanti nel discorso pubblico: i “Boosters”, che esaltano le promesse dell’intelligenza artificiale, e i “Doomers”, che la considerano una minaccia esistenziale. Apparentemente opposte, queste narrazioni condividono lo stesso presupposto: l’idea che l’Ai sia inevitabile, onnipresente e potentissima. Una visione che, secondo Bender e Hanna, non ha riscontro nella realtà, ma serve a spostare l’attenzione dai problemi concreti.
Crisi reali oscurate dalla retorica tecnologica
L’ossessione per l’Ai viene utilizzata per rimuovere dall’agenda politica temi come crisi climatica e disuguaglianze sociali. Se, come sostengono i Boosters, l’Ai risolverà tutto, o – come temono i Doomers – ci condurrà comunque alla catastrofe, allora non avrebbe senso occuparsi del presente. Un meccanismo ideologico pericoloso, reso ancora più potente dal sostegno di figure come Elon Musk.
L’Ai come amplificatore delle disuguaglianze
Hanna ricorda che l’Ai non viene introdotta in sistemi neutri: entra in contesti già segnati da disuguaglianze, amplificandole. Nel settore tecnologico, la promessa di automazione è stata usata per giustificare tagli e precarizzazione, mentre le attività di supervisione e correzione dei modelli vengono delegate a lavoratori sottopagati e invisibili.
Sul fronte ambientale, l’addestramento di modelli generativi ha generato un boom di data center ad alto impatto energetico, mettendo in crisi gli stessi obiettivi climatici dichiarati dalle Big Tech.
Estrazione di dati e rischi per la privacy
Per Bender, il motore economico dell’Ai si fonda sull’estrazione massiva di dati personali. Informazioni fornite dagli utenti, testi raccolti tramite scraping, contenuti prodotti interagendo con i sistemi: tutto viene trasformato in risorsa commerciale. Una dinamica che espone a rischi di violazioni, uso improprio e perdita di controllo sui propri dati.
Strategie di resistenza: dallo scetticismo all’azione collettiva
Le autrici propongono un approccio di autodifesa digitale basato su domande essenziali: quali dati sono stati utilizzati? Chi controlla il sistema? Che impatto ambientale produce?
Bender invita anche a praticare il “ridicolo come prassi”: usare l’ironia per smontare la retorica mitizzante e aprire spazi di critica pubblica. Più cresce lo scetticismo informato, più si rafforza la possibilità di azioni collettive che coinvolgano legislatori, comunità e sindacati.
Sindacati e regolazione: segnali di resistenza
Hanna cita l’esempio della Writers Guild of America e del National Nurses United, che hanno negoziato limiti all’introduzione dell’Ai nei rispettivi settori. In Europa, il Gdpr ha permesso interventi regolatori significativi come il blocco temporaneo di ChatGPT in Italia nel 2023. Questi segnali dimostrano che l’innovazione tecnologica può essere regolata e contestata.
Verso un’Ai giusta e comunitaria
Esiste un’alternativa? Bender invita a ripensare il termine stesso “Ai”, troppo generico e fuorviante. Ma tecnologie progettate a partire dai bisogni delle comunità possono avere un impatto diverso.
Un esempio virtuoso è Kaituhi, progetto neozelandese sviluppato da una comunità Maori per la trascrizione linguistica, costruito in modo da mantenere i dati all’interno della comunità, fuori dalla logica estrattiva delle Big Tech.
Hanna conclude che la vera innovazione non è nella scala, ma nell’aderenza ai bisogni reali. L’opposto della strategia delle grandi piattaforme – da Sam Altman a OpenAI – orientate a costruire modelli universali per dominare il mercato globale.


