Una voce indipendente su economia, stili di vita, ambiente, cultura
Economia / Approfondimento

Sulla guerra in OpenAI e sull’intelligenza artificiale che promuove le diseguaglianze

Mentre i miliardari proprietari delle società tech discutono dell’avvento di un’improbabile “singolarità”, uno scenario fantascientifico dove le macchine conquisteranno l’umanità, l’intelligenza “artificiale” si basa in realtà ancora sui lavoratori del Sud del mondo. Impegnati in mansioni sottopagate e non regolamentate

Wolfgang von Kempelen, Public domain, da Wikimedia Commons

Per raccontare gli eventi fondamentali di questa telenovela in salsa tecnologica, partiamo da alcuni momenti chiave nella vita di questo ornitorinco della Silicon Valley chiamato OpenAI. Come tutti sanno, l’ornitorinco è un simpatico mammifero noto per aver causato parecchi mal di testa ai naturalisti per molti motivi, primo tra tutti il deporre uova anziché dare alla luce piccoli vivi, caratteristica che è tipica di rettili e uccelli. Insomma, un vero e proprio “pasticcio” evolutivo. OpenAI sembra avere problemi simili. Nel 2015 i suoi fondatori, tra cui figurano Elon Musk e l’allora poco conosciuto Sam Altman, scrivono sul sito dell’azienda che “Il nostro obiettivo è quello di far progredire l’intelligenza digitale nel modo più vantaggioso per l’umanità nel suo complesso, senza essere vincolati dalla necessità di generare un ritorno economico. Poiché la nostra ricerca è libera da obblighi finanziari, possiamo concentrarci meglio su un impatto umano positivo”. 

In particolare, Musk, finanziatore della prima ora, vuole un’azienda che faccia concorrenza all’allora gigante dell’Ai DeepMind, controllata da Google. Spiega ad Altman che “l’intelligenza artificiale non va lasciata in mano a Larry Page (Google)” perché, nell’inevitabile momento in cui si verificherà la “singolarità”, ossia quando le macchine raggiungeranno o supereranno l’uomo in intelligenza, Page non farà nulla per evitare che questa nuova intelligenza sottometta o elimini l’umanità dallo scenario. A lui, invece, l’umanità piace (a patto che non abbia la forma del popolo boliviano che vuole autodeterminarsi: in quel caso si sente titolato a produrre “cambi di regime” a colpi di morti ammazzati senza troppi problemi, come twittava più o meno nella stessa epoca). E poco importa se la congettura in quel momento ha la stessa concretezza del motore a curvatura di Star Trek o delle spade laser di Guerre Stellari: Musk è convinto che arriverà a breve.  

L’azienda rischia effettivamente di chiudere i battenti, ma alla fine Sam Altman trova la soluzione: convince il consiglio di amministrazione a trasformare OpenAI da non profit impegnata a sviluppare software liberi a “capped profit”, ossia a profitto limitato fino a cento volte il valore iniziale. Ciò consente a OpenAI di attrarre investimenti da parte di fondi di rischio, i famigerati venture capital. Di lì a breve Microsoft entra in scena, investendo un miliardo di dollari, e OpenAI annuncia l’intenzione di concedere in licenza le proprie tecnologie per uso commerciale, mettendo in soffitta l’idea del codice libero. 

Alcuni ricercatori criticano la svolta, sollevando dubbi sull’impegno dell’azienda a democratizzare l’Ai, ma ovviamente restano inascoltati. Così arriviamo alla vigilia del conflitto: con un’azienda saldamente collocata nell’orbita Microsoft, e che è divenuta famosa grazie al lancio sul mercato di una tecnologia sperimentale che causa molti più problemi di quelli che risolve, ma che sembra fatta apposta per occupare la prima pagina dei giornali un giorno sì e l’altro anche. 

© Mojahid Mottakin – Unsplash

La sera di domenica 17 novembre, Sam Altman pubblica sul social X (un tempo Twitter) un breve messaggio in cui annuncia al mondo la fine del suo rapporto di lavoro con OpenAI. Poco prima il consiglio ha diffuso un comunicato in cui lo sfiducia adducendo una poco chiara “mancanza di sincerità”. Scattano consultazioni frenetiche. Microsoft non era stata in alcun modo avvisata della mossa. In poco tempo Satya Nadella, amministratore delegato di Microsoft, diffonde a sua volta un comunicato in cui conferma l’intenzione della sua azienda di continuare a investire in OpenAI.  Passano ventiquattro ore e Altman riceve un’offerta di lavoro da Microsoft: dirigerà un nuovo dipartimento di ricerca sull’intelligenza artificiale, questa volta interno alla multinazionale. Il consiglio di OpenAI va in fibrillazione e comincia a nominare amministratori delegati al ritmo di uno al giorno, ma la cosa non dura molto: con una lettera il 95% dei dipendenti dell’azienda minaccia di licenziarsi se Altman non farà ritorno, e la cosa costringe i vertici alla resa. Sam Altman è nuovamente a capo di OpenAI. 

Che cosa ha generato questa “guerra civile” all’interno dell’azienda? Le dichiarazioni dei principali protagonisti sono talmente ambigue da aumentare la confusione al proposito, invece di ridurla. Per provare a dipanare la matassa non resta che “unire i puntini”. Per prima cosa, ufficialmente, alla base del conflitto non ci sarebbero motivazioni economiche. Resta il fatto che, come risultato, Microsoft ha rimesso “in sella” Altman e porta a casa un posto dentro alla dirigenza di OpenAI. In secondo luogo, alla base dell'”OpenAI Drama” ci sarebbe il conflitto che ha contrapposto gli “accelerazionisti efficaci” (l’amministratore delefato Sam Altman e i suoi fedelissimi) agli “altruisti efficaci” (di cui fa parte il direttore della ricerca Ilya Sutskever). Se questi termini vi suonano strampalati, non vi preoccupate: è lo stesso pressoché per chiunque non abiti nella Silicon Valley. Per farla breve, queste due “scuole di pensiero”, pur condividendo la fede nell’imminenza della singolarità, hanno idee molto differenti su che cosa fare nell’immediato: i primi vogliono premere l’acceleratore a tavoletta e confidare nella “mano invisibile del mercato”, i secondi lanciano appelli ai politici perché intervengano immediatamente “contro qualcosa di più pericoloso degli stessi armamenti nucleari”.

Negli stessi giorni in cui i giornali erano intasati da questa telenovela, mi sono ritrovato a seguire online un’interessante conferenza dal titolo “Come l’Ai promuove le diseguaglianze a livello globale”, tenuta presso l’Università di Groninga in Olanda. Dopo due anni di studi sul campo in America Latina e Africa, questi erano i dati raccolti dai ricercatori. La tecnologia che chiamiamo Ai si basa sui “minitask” come l’etichettatura manuale dei dati (e su questo è d’accordo anche più d’uno degli “entusiasti” dell’Ai, solo che lo considerano un problema da risolvere attraverso le prossime generazioni di sistemi di intelligenza artificiale). Contrariamente a quanto sostengono in Silicon Valley questi lavori non stanno diminuendo al crescere delle capacità dell’Ai (che, quindi, non sembra diventare più “intelligente” al passare degli anni), bensì sono in crescita esponenziale. L’intelligenza su cui si basano sembra avere origine molto più umana che artificiale. 

Quello che si è scoperto è che in parecchi casi, servizi propagandati al pubblico come realizzati con l’Ai sono puri e semplici paravento per lavoro sottopagato svolto nel “Sud del mondo” (è il caso delle telecamere antitaccheggio inglesi, le cui funzioni Ai erano date da lavoro manuale in Madagascar). Si tratterebbe di marketing dell’intelligenza artificiale, impegnato a presentare lavoro umano come realizzato da macchine, al punto da coniare il termine real time training. Termine utilizzato quando un umano si sostituisce alla macchina nell’interazione con il cliente, istruendo l’Ai su come deve comportarsi nel futuro in tempo reale. Ne consegue che i minitask alla base della gig economy (economia dei “lavoretti”) sono talmente in crescita che Amazon ha acquisito fin dai primi anni 2000 una piattaforma, chiamata Mechanical Turk (Turco meccanico), che ha il compito di aiutare le aziende a trovare questo tipo di manovalanza. Lucrando, ovviamente, sull’impiego di persone pagate anche meno di 120 dollari al mese. Quindi la ricerca, l’uso e la propaganda dell’Ai avvengono nel “Nord del mondo”, ma il lavoro necessario a far “funzionare la magia” viene erogato dal Sud. Se ci fosse mai un “blocco” temporaneo di internet l’intelligenza artificiale si fermerebbe quasi subito. Questo significa anche che le nuove diseguaglianze create da questo nascente “modello di business” si sovrappongono a quelle precedenti e -spesso- le peggiorano.  

I lavoratori impegnati in minitask li svolgono da casa, senza tutele sindacali e senza possibilità di crearsele (se non attraverso la rete), spesso sono soggetti lavorativamente fragili come anziani, donne e -purtroppo- bambini. Il problema più urgente, visto da qui, ci sembra il fatto che questa “rivoluzione tecnologica” sia in mano a una manciata di super miliardari. Questo significa che abbiamo un serio problema di partecipazione e autodeterminazione, oltre che un gigantesco problema di relazioni del lavoro. Come fare per risolverli? Accettare lo status quo come durante l’era dei social media non è più un’opzione. Ci vuole un approccio radicalmente diverso al design dell’Ai, che può partire unicamente dall’abbandono dei racconti fantascientifici per concentrarsi sul cambiare il modello di business che questa tecnologia induce. 

Stefano Borroni Barale, classe 1972, è fisico teorico. Inizialmente ricercatore nel progetto Eu-DataGrid (per Infn To), dopo otto anni nella formazione sindacale internazionale e una (triste) parentesi nel privato, oggi insegna informatica in un Iti del torinese. Sostenitore del software libero da fine anni 90, è autore per Altreconomia del manuale di liberazione informatica “Come passare al software libero e vivere felici” (edito nel 2003) e da ultimo de “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale”

© riproduzione riservata

Newsletter

Iscriviti alla newsletter di Altreconomia per non perderti le nostre inchieste, le novità editoriali e gli eventi.