Una voce indipendente su economia, stili di vita, ambiente, cultura
Cultura e scienza / Opinioni

Provaci ancora, Sam. Come Altman (e i suoi “techbros”) ci stanno portando verso il collasso

© ANIRUDH - Unsplash

Il capo di OpenAI ha annunciato a inizio anno che il suo nuovo modello di intelligenza artificiale avrebbe ottenuto risultati simili a quelli umani in una sorta di test del quoziente intellettivo. Un esito ottenuto però facendo allenare la macchina sulle stesse domande e in modo poco trasparente, con costi ecologici ed economici fuori scala. È ora di disertare questa agenda, fatta di macchine mangia-soldi e mangia-risorse. La rubrica di Stefano Borroni Barale

Il 2025 si apre con fuochi d’artificio superiori a quelli a cui ci eravamo abituati sul fronte della propaganda attorno all’intelligenza artificiale (Ai).

OpenAI o3 and o3-mini—12 Days of OpenAI: Day 12

Il nuovo modello prodotto da OpenAI avrebbe infatti raggiunto risultati comparabili con gli esseri umani nel risolvere il test ARC-AGI. Il video qui sopra contiene un esempio delle domande contenute in tale test, che ricorda molto da vicino i test del quoziente intellettivo (Qi) utilizzati in psicologia per “misurare l’intelligenza” degli esseri umani. Sorvoleremo in questa sede su due fatti chiave che richiederebbero invece una seria analisi: non esiste un consenso scientifico su che cosa sia l’intelligenza umana e animale, ossia una definizione condivisa e, anche fingendo di aver raggiunto un consenso, misurarla resterebbe tutta un’altra faccenda. Dal punto di vista “teorico” ci limiteremo a richiamare l’etimologia: “inter” più “ligere”, “leggere tra (le cose)”, leggere in profondità.

Sam Altman (più in generale l’intero comparto dell’Ai) ci ha abituato a trucchi degni degli artisti della truffa che giravano il suo Paese a inizi Ottocento, usati a supporto di affermazioni-bomba come quella appena citata (e immediatamente seguita da affermazioni ancora più esplosive sulla “Superintelligenza”). Ricordiamo, a titolo d’esempio non esaustivo, la figuraccia di Google alla presentazione del suo Gemini, quando i suoi padroni raccontarono che il modello in questione sapeva riconoscere il gioco della morra cinese al primo colpo (zero-shot), mentre -guardando il video completo- si scopriva che la verità era molto diversa (e i dettagli, in questo campo, sono molto importanti).

Fatta questa dovuta premessa, ChatGPT o3 ha davvero superato il test ARC-AGI? Tutto fa pensare di sì, a partire dalla conferma del premio ARC-AGI di François Chollet. Il punto sta tutto nel dettaglio, ossia nel come questo risultato sia stato ottenuto. La prima cosa da dire è che siamo di nuovo in un territorio semi-oscuro, come nel caso di Google. Pare che il risultato, infatti, sia stato ottenuto da un modello pre-ottimizzato sul materiale fornito dal premio ARC-AGI e solo Altman sa come. Perché questo è importante? Perché la premessa posta (e forse dimenticata) da Chollet al suo premio era che l’eventuale “intelligenza” dovrebbe essere intrinseca al modello, non emergere come frutto di un’ottimizzazione “furbetta”.

Per capire l’importanza di questo dettaglio pensate al Dustin Hoffman di “Rainman”. Tutti le Ai generative (Llm) hanno, ovviamente, la prodigiosa memoria del protagonista. Così come lui ricorda perfettamente tutte le carte già uscite in una mano di Blackjack, se mostrassimo a un’Ai generativa tutte le risposte di un corpus di milioni di domande, questa sarebbe -subito dopo- in grado di rispondere correttamente nella stragrande maggioranza delle volte, in accordo ai nuovi pesi che sarebbero registrati nella sua rete neurale artificiale, in ragione di questa ottimizzazione.

Non solo, attraverso metodi come il fine tuning e l’uso di ontologie, queste macchine divengono in grado di raggiungere un’accuratezza pari a circa il 72,55% nel produrre testo appropriato al contesto, non troppo distante dal 75,7% dei risutati “low compute” raggiunto da o3 nei test. Per fare un’analogia semplificatoria, ma comprensibile, è come se queste macchine non divenissero in grado solo di rispondere alla pseudo-domanda “di che colore è il cavallo bianco di Napoleone”, ma di fare lo stesso con un ipotetico “cavallo castano del Duca di Wellington”. Per questo sarebbe importante avere il risultato di ChatGPT o3 allo stesso test senza alcun tipo di pre-ottimizzazione, risultati che OpenAI si è guardata bene dal rendere pubblici.

Il punto più interessante, però, sembra essere rimasto fuori da un sano e aperto dibattito pubblico, ossia il costo necessario a raggiungere questo “notevole” risultato. Per fare una semplice comparazione con l’esistente, una singola ricerca del motore Google Search costa attualmente due centesimi di dollaro.

Per raggiungere un’accuratezza dell’85,7% nel rispondere a cento domande usando una macchina invece di un singolo essere umano, OpenAI ha speso la pantagruelica cifra di un milione di dollari. Si tratta di mezzo milione di volte il costo di una ricerca Google per ogni domanda. Particolare ancora più importante: raggiungere il 75,7% di accuratezza è costato poco meno di seimila euro. La differenza, quindi, per migliorare il risultato del 10% è stata di oltre 995.000 dollari (ossia un costo e un lavoro di ottimizzazione 170 volte maggiore).

Perché questo rapporto è di massima importanza? Perché è uno straordinario indizio del fatto che la strada utilizzata da OpenAI per rispondere al test sia stata la forza bruta, non il tentativo di replicare realmente il ragionamento astratto, che Altman e altri propagandano possa “emergere” dalle reti neurali artificiali, ma sul quale sappiamo solo che nel cervello animale si presenta con una straordinaria efficienza energetica. Un’efficienza di cui le reti neurali dei sistemi GPT sono prive.

Che cosa s’intende quindi per “usare la forza bruta”? Al solito, invece di studiare e comprendere una lezione di storia potremmo decidere di studiare tutte le domande che un determinato professore (nel caso il “professor Chollet di ARC-AGI”) ha fatto ai candidati in tutta la sua carriera, e mandare a memoria quelle.

Potremmo anche pagare degli umani per concepire domande e risposte simili e mandare a memoria anche quelle coppie di domande/risposte. Certo un metodo poco efficiente, ma molto efficace se il nostro obiettivo è solo passare quel dannato test a ogni costo, perché da quello dipendono gli investimenti che ci permetteranno di tenere aperto il nostro traveling show abbastanza a lungo da poter scappare con la cassa come fatto da Charles Ponzi e, più di recente, da Sam Bankman-Fried prima di noi. Oppure, se le promesse non risultassero disattese al 100%, per reinvestire quanto guadagnato con questa ondata di hype nella prossima moda che verrà, seguendo le orme di Elon Musk e Peter Thiel, senza troppi pensieri per i soldi degli investitori “bruciati” nel frattempo.

Fino a qui qualcuno si sarà forse convinto che l’approccio dell’industria “GenAi” non sia il più efficace o il più scientificamente solido. Ma c’è ancora un aspetto che non abbiamo preso in considerazione. I costi dell’operazione di marketing “ARC-AGI” sono enormi per un buon motivo: procedere in modalità forza bruta richiede una quantità di energia mostruosa. Ma quanto? Così tanto da spingere l’amministratore delegato di AT&T, certo non una organizzazione non profit preoccupata dell’ecologia, a lanciare l’allarme dichiarando che, se l’Ai proseguirà lungo questa strada, c’è il rischio si arrivi nel 2027 a dei black-out catastrofici causati da una nuova crisi energetica. Infatti, nonostante Microsoft e OpenAI abbiano già dichiarato di voler alimentare l’Ai con l’energia atomica (saltiamo a piè pari i rischi ecologici), questa opzione richiede decenni per poter essere operativa.

La recente elezione di Donald Trump e le mosse di Elon Musk, Jeff Bezos, Mark Zuckerberg che l’hanno seguita non lasciano adito a dubbi sul fatto che i techbros della Silicon Valley (ora ribattezzati broligarchi dalla stampa) ne abbiano finanziato la campagna elettorale in maniera rilevante con il preciso scopo di rimuovere ogni ostacolo alla marcia verso il collasso del sistema, un collasso cibernetico perché causato da interazioni fuori controllo tra l’animale-uomo e le macchine mangia-soldi e mangia-risorse che pochi techbros hanno deciso di creare allo scopo di moltiplicare il loro potere.

A noi la scelta se stare a guardare o decidere che è arrivata finalmente l’ora di disertare questa agenda: migliaia di tecnologie sono possibili, la condizione per poterle immaginare è l’abbandono del culto demenziale dell’intelligenza artificiale generale con i suoi GPT proprietari, per concentrarci sulla creazione “macchine conviviali” create per affiancare gli esseri viventi nel distribuire potere e per convivere armoniosamente con l’ambiente che ci sostiene. Non saranno scintillanti Golem moderni, pronti a combattere guerre in cui uccidono al posto nostro, ma ci terranno al sicuro dal collasso ambientale, sociale ed economico.

“Scatole oscure. Intelligenza artificiale e altre tecnologie del dominio” è una rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è tutto meno che neutra. Non è un mero strumento che dipende unicamente da come lo si usa, i dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per questo le tecnologie “del dominio”, quelle che ci propongono poche multinazionali, sono quasi sempre costruite come scatole oscure impossibili da aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una società in cui la tecnologia ha un ruolo via via più dispositivo (e può quindi essere usata per controllarci) aprire e modificare le scatole oscure diventa un esercizio vitale per la partecipazione, la libertà, la democrazia. In altre parole: rompere le scatole è un atto politico.

Stefano Borroni Barale (1972) è laureato in Fisica teorica presso l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel programma di formazione sindacale Actrav del Centro internazionale di formazione dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del software libero da fine anni Novanta, è autore per Altreconomia di “Come passare al software libero e vivere felici” (2003), una delle prime guide italiane su Linux e altri programmi basati su software libero e “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” (2023).

© riproduzione riservata

Newsletter

Iscriviti alla newsletter di Altreconomia per non perderti le nostre inchieste, le novità editoriali e gli eventi.


© 2025 Altra Economia soc. coop. impresa sociale Tutti i diritti riservati