Economia / Intervista
“The Ai Con”. La grande truffa dell’intelligenza artificiale e chi ci guadagna
Abbiamo chiesto ad Emily M. Bender e Alex Hanna di spiegarci il fenomeno della mitizzazione dell’intelligenza artificiale e la sua strumentalizzazione da parte delle Big Tech. Il loro ultimo libro “The Ai Con” (Harper, 2025) avanza una critica radicale alla narrazione dominante, informando l’opinione pubblica dei costi reali di queste tecnologie. Invitando a sviluppare un pensiero accorto e consapevole
Negli ultimi anni le tecnologie basate sull’intelligenza artificiale (Ai) si sono moltiplicate, così come le promesse da parte di chi le produce sulle loro potenzialità. Dietro questo entusiasmo si nasconde però una pericolosa bolla, generata da quanti utilizzano il termine Ai per promuovere i prodotti più disparati. Lo evidenziano Emily M. Bender, professoressa di Linguistica all’Università di Washington, e Alex Hanna, direttrice delle ricerche del Distributed AI Research Institute, nel libro “The Ai Con” edito da Harper (2025). Si tratta di un vero e proprio manuale di autodifesa contro i proclami roboanti e senza fondamento delle Big Tech e per costruire un’Ai realmente giusta. Le abbiamo intervistate.
Nel vostro libro descrivete l’intelligenza artificiale come una frode, appunto “con”. Perché?
EMB Si tratta di una truffa che agisce su diversi livelli. Alla base vi sono i grandi modelli linguistici (large language model, Llm), come ChatGPT, che sono un “gioco di prestigio” basato sul modo in cui noi elaboriamo il linguaggio. Nei livelli più alti della “piramide” troviamo i produttori delle tecnologie Ai, che le presentano come qualcosa che non sono, ma anche chi compra questi strumenti, come i governi che li usano per sostituire gli insegnanti con “tutor Ai personalizzati”.
AH Un’altra idea alla base di questa truffa è di far credere che se l’Ai è efficiente in un campo allora deve esserlo per forza anche in altri settori, anche se molto diversi. Come se il fatto che i modelli di intelligenza artificiale siano molto abili nel costruire un testo scritto implichi che possono essere in grado di produrre ricerca scientifica o di stabilire chi riceve determinati benefici sociali. La conseguenza di questo imbroglio è l’idea che si debba investire in larga scala su queste tecnologie. Stiamo assistendo alla costruzione di grandi infrastrutture come data center, nuove centrali elettriche e impianti di depurazione d’acqua, come mezzo per alimentare questo sistema e ottenere cospicui investimenti dall’industria privata. Finanziamenti tecnologici nell’ordine delle decine di miliardi di dollari sono stati destinati a questi settori. Al momento il modo migliore per ottenere qualsiasi tipo di capitale di rischio nella Silicon valley è affermare che si sta lavorando con l’Ai.
Dal lato opposto degli entusiasti dell’intelligenza artificiale, quelli che nel libro avete chiamato “Boosters”, ci sono i “Doomers” che sostengono che l’Ai sia una minaccia esistenziale per l’umanità. Qual è il loro pensiero?
EMB Queste due filosofie sono spesso presentate come gli estremi dello spettro ma in realtà fanno parte di un’unica ideologia. I “Boosters” sostengono che l’intelligenza artificiale sia inevitabile, che sarà onnipresente, potentissima e che risolverà tutti i nostri problemi. I “Doomers” invece ritengono che l’intelligenza artificiale sia inevitabile, onnipresente, potentissima e che ci ucciderà tutti. Entrambe le ideologie si basano su questo pensiero riguardo le capacità quasi magiche dell’Ai che però non ha alcun fondamento nella realtà.
Entrambe le visioni quindi tendono a rimuovere i reali problemi dell’Ai. In che modo?
EMB Ad esempio pensano che il cambiamento climatico non sia rilevante o perché verrà risolto dall’Ai o perché questa ci ucciderà tutti. L’ideologia dei “Doomers”, che sarebbe irrilevante se non fosse sostenuta a livello politico da personalità come Elon Musk, si basa sull’idea che esistano minacce esistenziali in grado di portare l’umanità all’estinzione e che quindi non ci sia necessità di affrontare altri temi attuali, ritenuti da loro irrilevanti, come il cambiamento climatico o le disuguaglianze sociali.
Si potrebbe affermare che l’Ai non causa problemi ma amplifica le crisi già esistenti negli ambiti in cui viene applicata?
AH I sistemi di intelligenza artificiale vengono spesso utilizzati per colmare le carenze nei servizi come la mancanza di fondi o di personale per l’assistenza medica o sociale. Ne è un esempio la programmazione informatica: potendo automatizzare tante delle mansioni base, a molti sviluppatori viene detto che non è necessario assumere altro personale e aziende come Microsoft, Amazon e Google affermano di effettuare il 30% della loro codifica tramite Llm. In realtà visto che molti di questi modelli si basano ancora sull’intervento umano questi lavori sono solo trasferiti ad altri dipendenti, spesso sottopagati. Un altro problema riguarda invece l’impatto ambientale. La necessità di sviluppare e di addestrare le intelligenze artificiali generative ha portato a un’esplosione nella costruzione di nuovi data center e di conseguenza delle emissioni a essi correlate. Per questo molte Big Tech hanno fallito o stanno ridimensionando i loro obiettivi di decarbonizzazione.
È possibile che Chatbot e Llm possano peggiorare ulteriormente il modello economico delle Big Tech basato sull’estrazione di dati personali?
EMB Decisamente. L’intero modello di business dietro le cosiddette tecnologie di intelligenza artificiale si basa sull’accumulo di dati con qualsiasi mezzo necessario, compreso lo scrapping non consensuale. Questo include qualsiasi dato che le persone inseriscono in questi sistemi. Una volta raccolti, questi dati possono essere utilizzati dalle aziende per scopi pubblicitari e, se non vengono gestiti con la giusta attenzione, esiste anche il rischio che vengano trafugati o diffusi online, esponendo informazioni anche molto personali. Le implicazioni per la privacy sono enormi e non vanno prese alla leggera.
Quali azioni possiamo intraprendere per fermare questa tendenza?
EMB Come consumatori credo che in generale dovremmo essere molto scettici sia sulle tecnologie sia sul modo in cui vengono descritte. Nel libro elenchiamo una serie di domande (ad esempio, come è stato valutato questo sistema o su quali dati è stato addestrato) che dovremmo porci ogni volta che prendiamo decisioni in questo ambito. Inoltre bisogna rivolgersi a un giornalismo che porta avanti questi quesiti. Un altro metodo è farsi beffa dell’Ai, lo chiamiamo “ridicolo come prassi”. Tutte queste strategie individuali, a mio avviso, aiutano ad aprire lo spazio per altre persone che intraprendono azioni simili. Più si fa strada nel discorso pubblico l’idea che l’Ai non è quello che promette, più sarà facile promuovere azioni collettive che coinvolgano sia i legislatori sia i sindacati.
AH A proposito aggiungo che ci sono stati alcuni sindacati, come il Writers guild of America (che tutela gli sceneggiatori televisivi o cinematografici, ndr) o il National nurses united (la più grande organizzazione sindacale di infermieri, ndr), che sono riusciti a delineare casi in cui non possono essere costretti a usare l’Ai generativa. A livello normativo in Europa esiste una migliore regolamentazione, in particolare grazie al Regolamento generale sulla protezione dei dati (Gdpr). Ad esempio, proprio sulla base del Gdpr, l’Italia è stata in grado di bloccare momentaneamente ChatGPT ad aprile 2023. Infine penso che sia necessario concentrarsi anche sull’impatto che l’Ai ha su ambiente ed ecosistema informatico.
Per concludere, è possibile avere un’intelligenza artificiale etica ed efficace?
EMB Dipende da che cosa si vuole intendere per Ai. Nel libro problematizziamo questo termine perché non si riferisce a un insieme coerente di tecnologie. È vero però che certi strumenti venduti come Ai possono essere prodotti in modo etico e utilizzati in misura ragionevole. Un esempio positivo è quello di Kaituhi, un progetto sviluppato da un gruppo di Maori della Nuova Zelanda che permette la trascrizione automatica per le lingue maori e che è stato costruito in modo che i dati utilizzati rimangano nella comunità e non vengano utilizzati dalle Big Tech.
AH Possiamo inoltre promuovere queste innovazioni concentrandoci sulle organizzazioni il cui lavoro è strutturato in modo tale da rispondere alle esigenze delle comunità. Quindi invece di concedere questo potere alle grandi aziende tecnologiche che dicono di avere una soluzione per tutto, possiamo concentrarci su strumenti più piccoli che soddisfino i bisogni di particolari gruppi. È proprio l’antitesi di ciò sta accadendo con i grandi player tecnologici come Sam Altman e OpenAI, che stanno cercando di costruire modelli sempre più grandi. Si tratta di una mossa coloniale che cerca di acquisire sempre più mercato per avere uno strumento che funzioni per tutti.
© riproduzione riservata





