Cultura e scienza / Opinioni
Scatole oscure o intelligenze aliene? Il caso del software AlphaGo e i fantasmi di Italo Calvino
AlphaGo è un’Intelligenza artificiale creata dalla società DeepMind, oggi controllata da Google, per battere gli esseri umani al gioco orientale del Go. Nel 2016 ha sconfitto il campione mondiale con una mossa ritenuta “sbagliata”, spingendo diversi osservatori a parlare di intelligenza quasi magica. Una visione “tecnoentusiasta” che agita l’imperscrutabile ma dimostra di ignorare la statistica. E non solo
La tecnologia odierna si presenta, software o hardware che sia, sotto forma di “scatole oscure” che i produttori confezionano in maniera da renderci impossibile comprenderla, studiarla e -soprattutto- modificarla. Questa impossibilità si traduce spesso in una forte sensazione di alienazione che fa sì che più di una persona si trovi a disagio.
Secondo il filosofo Gilbert Simondon, l’alienazione tecnica cresce al crescere del divario tra cultura e tecnica. Questo divario fa sì che la tecnica venga vissuta come pericolosa dai tecnofobici, ossia da coloro che pensano che la tecnica sia inferiore alla vera cultura (quella umanistica “classica”), e come magica dai tecnoentusiasti, ossia da coloro che pensano che il sapere tecnico sia un sapere riservato a pochi eletti.
Nell’articolo di presentazione dell’ultimo libro dello storico e divulgatore israeliano Yuval Noah Harari, intitolato “Nexus: A Brief History of Information Networks from the Stone Age to AI”, si ravvisa un esempio da manuale di questa visione della tecnologia mistificata in senso magico.
Harari analizza la storia del software AlphaGo, un’Intelligenza artificiale creata da DeepMind (azienda ora controllata di Google) per battere gli esseri umani al gioco orientale del Go. AlphaGo non funziona come ChatGPT o gli altri modelli linguistici, ma si basa sempre sulle reti neurali (originariamente inventate dai cibernetici McCulloch e Pitts nel 1943), utilizzando tecniche come il reinforcement learning e il deep learning per migliorare continuamente le sue strategie di gioco.
Questo software nel 2016 è arrivato a battere il campione mondiale di AlphaGo, Lee Sedol, utilizzando una particolare mossa (la numero 37 nella sequenza della partita), che tutti gli esperti del gioco del Go avevano considerato sbagliata. Ecco come Harari descrive la cosa: “La mossa 37 è un emblema della rivoluzione dell’IA per due motivi. In primo luogo, ha dimostrato la natura aliena dell’IA. In Asia orientale, il Go è considerato molto più di un gioco: è una preziosa tradizione culturale. Per più di 2.500 anni […] intere scuole di pensiero si sono sviluppate intorno al gioco […]. Tuttavia, durante tutti questi millenni, le menti umane hanno esplorato solo alcune aree del paesaggio del Go. Altre aree sono rimaste intatte, perché le menti umane non hanno pensato di avventurarvisi. L’intelligenza artificiale, libera dai limiti delle menti umane, ha scoperto ed esplorato queste aree precedentemente nascoste”.
Si comprende la ragione per cui Harari, da esperto di storia militare, sia potuto cadere in questo tranello tesogli, con tutta probabilità, dalle sue frequentazioni provenienti dalla Silicon Valley (note per non brillare per onestà intellettuale, per capacità di prevedere il comportamento delle future Ai o per entrambe).
Per chi non ha una pluriennale frequentazione con la statistica, infatti, non è affatto evidente che esista una spiegazione molto più semplice per il comportamento di AlphaGo, che nulla ha a che vedere con l’ipotesi che il programma esibisca una intelligenza di livello umano -come lui sembra invece intendere- e meno che mai aliena, ossia con caratteristiche imperscrutabili o, magari, superumane.
Harari continua osservando che i grandi giocatori di Go fanno parte di una “preziosa tradizione culturale”. Le mosse che scelgono sono ovviamente il frutto di questa appartenenza, ed è assolutamente ragionevole attendersi che un campione di Go non sceglierebbe una mossa sbagliata, tanto quanto un italiano non metterebbe mai l’ananas su una pizza margherita.
Il programma di DeepMind, invece, non appartiene a nessuna cultura, non ha alcuna intelligenza, ma -da buon agente cibernetico automatico- risponde fedelmente ai nostri comandi in base al suo algoritmo. Nel momento in cui lo abbiamo ottimizzato con reinforcement e deep learning, conserva al suo interno l’informazione su quale sarà il comportamento più probabile del suo antagonista umano. Per questo, se l’algoritmo “valuta” che una mossa sbagliata (nel senso di “contraria ad ogni tradizione e buonsenso, ma compatibile con il suo algoritmo) ha maggiori chance di portarlo alla vittoria, la eseguirà, senza alcun riguardo per la tradizione.
Questo comportamento il grande scrittore Italo Calvino l’aveva saputo immaginare quando questa tecnologia “intelligente” muoveva i primi passi. Infatti nel suo saggio “Cibernetica e fantasmi. Appunti sulla letteratura come arte combinatoria”, pubblicato nell’ormai remoto 1967, Calvino immaginava una macchina in grado di scrivere racconti semplicemente permutando le parole, ma concludeva così: “[La] letteratura è sì un gioco combinatorio che segue le possibilità implicite nel proprio materiale, indipendentemente dalla personalità del poeta, ma è gioco che a un certo punto si trova investito d’un significato inatteso […]. La macchina letteraria può effettuare tutte le permutazioni possibili in un dato materiale; ma il risultato poetico sarà l’effetto particolare d’una di queste permutazioni sull’uomo dotato d’una coscienza e d’un inconscio, cioè sull’uomo empirico e storico, sarà lo shock che si verifica solo in quanto attorno alla macchina scrivente esistono i fantasmi nascosti dell’individuo e della società”.
Siamo dunque noi umani a dare un senso al prodotto della macchina, nella veste di lettori del racconto creato da questa -nel caso di Calvino- o nella veste degli esperti di Go che non riescono a dare un senso alla mossa di AlphaGo perché, effettivamente, secondo la loro tradizione ed esperienza non ne ha alcuna.
Quindi, contrariamente a quanto raccontato da Suleyman (già amministratore delegato di DeepMind) ad Harari, non v’è nulla di “insondabile” in AlphaGo: la programmazione statistica con cui è stato realizzato lo rende solo una “scatola oscura”, ma questo non significa che all’interno della scatola siano violate in alcun modo le leggi ordinarie della fisica o venga evocato un demone in grado di dare vita a ciò che vita non ha. Come scrive Calvino, i “portatori di senso” sono l’individuo e la società.
Ecco materializzarsi, quindi, un gioco di sfumature semantiche, impervio per le macchine, forse impenetrabile. L’aggettivo aliena usato da Harari per indicare altrui (un soggetto altro) assume qui il senso di differente (un fenomeno di altra natura). L’intelligenza artificiale, pur esibendo una somiglianza esterna con quella umana, è un fenomeno differente.
Alan Turing aveva immaginato questa obiezione al suo imitation game: “Non potrebbero le macchine essere capaci di qualcosa che dovrebbe essere descritto come ‘pensare’, ma che è molto differente da quanto fa l’uomo?” (da “Computing Machinery and Intelligence”, 1950). Lui era convinto fosse un’obiezione forte, ma che sarebbe risultata poco interessante, una volta create tali macchine. E noi?
“Scatole oscure. Intelligenza artificiale e altre tecnologie del dominio” è una rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è tutto meno che neutra. Non è un mero strumento che dipende unicamente da come lo si usa, i dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per questo le tecnologie “del dominio”, quelle che ci propongono poche multinazionali, sono quasi sempre costruite come scatole oscure impossibili da aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una società in cui la tecnologia ha un ruolo via via più dispositivo (e può quindi essere usata per controllarci) aprire e modificare le scatole oscure diventa un esercizio vitale per la partecipazione, la libertà, la democrazia. In altre parole: rompere le scatole è un atto politico. E “Scatole oscure” lo farà, in modo documentato e regolare sul nostro sito.
Stefano Borroni Barale (1972) è laureato in Fisica teorica presso l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud) all’interno del gruppo di ricerca dell’’Istituto nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel programma di formazione sindacale Actrav del Centro internazionale di formazione dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del software libero da fine anni Novanta, è autore per Altreconomia di “Come passare al software libero e vivere felici” (2003), una delle prime guide italiane su Linux e altri programmi basati su software libero e “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” (2023).
© riproduzione riservata