Una voce indipendente su economia, stili di vita, ambiente, cultura
Cultura e scienza / Opinioni

Tu chiamale, se vuoi, allucinazioni. Sull’intelligenza artificiale che “le spara grosse”

© Nahrizul Kadri - Unsplash

Il racconto entusiasta dell’Ai da parte delle aziende che ne detengono lo sviluppo e la commercializzazione ha un secondo livello di mistificazione. È quello dei Large language model (LLM), etichettati dall’eretica Emily Bender come “pappagalli stocastici”. Come (non) funzionano, anche se posti sotto la supervisione umana per dare risposte accurate, e perché dovremmo approcciarci con estrema cautela

Dall’esplosione di ChatGPT nel dicembre 2022, passato il primo momento di ubriacatura, hanno cominciato a sorgere voci critiche.

Verso le reali potenzialità dell’intelligenza artificiale (Ai) e verso la narrazione stessa di questa tecnologia promossa dalle Big Tech, ossia le aziende che ne detengono lo sviluppo e la commercializzazione, a partire alla ormai celeberrima OpenAi (di fatto una sussidiaria di Microsoft, soprattutto dopo gli ultimi “aggiustamenti” nell’organismo che la controlla, seguiti al licenziamento e al successivo rientro da vincitore di Sam Altman, di cui abbiamo scritto qui).  

Il dibattito, per fortuna, è ricco. Curiosamente, ma in modo tutto meno che sorprendente, le prime voci a sollevarsi, nel mondo anglosassone, sono state quelle di tre donne: Timnit Gebru, Emily Bender e Meredith Whittaker.

Grazie a una ricerca della prima abbiamo scoperto che le Ai per il riconoscimento facciale sbagliano statisticamente molto di più nel riconoscere i tratti somatici delle minoranze etniche, e quando ha posto seriamente il problema dei rischi di queste tecnologie è stata licenziata in tronco da Google.

La seconda è co-autrice dell’articolo “incriminato” nonché colei che ha etichettato i Large language model (LLM) con il termine “pappagalli stocastici”, per sottolineare come questi software realizzino il divorzio tra segno e significato.

La terza attualmente lavora per Signal, uno dei software di chat criptati più sicuri al mondo, posizione a cui è giunta dopo essere stata costretta a lasciare Google per via del suo attivismo sindacale, nonché delle sue critiche nel campo della cosiddetta “etica dell’Ai”.  

In Italia le migliori analisi recenti sono quelle contenute nel lavoro di Vivien Garcia e Carlo Milani, che esplora con precisione chirurgica il modo in cui i sistemi automatizzati diffondono il condizionamento reciproco tra umani e macchine; e quelle della professoressa Daniela Tafani, due assoluti must read per chiunque voglia capire quali siano le principali mistificazioni che stanno alla base dell’Ai odierna. 

Ma c’è un secondo livello a cui si presenta la mistificazione, che riguarda in particolare gli LLM: l’output di questi modelli mistifica la realtà. Mi riferisco al fatto che questo software, anche se opportunamente ottimizzato sotto la supervisione umana per rispondere accuratamente, spesso produce output spazzatura. 

Gli entusiasti dell’Ai chiamano questo tipo di risultato “allucinazioni”, ma questa etichetta è fuorviante (ossia “allontana dal vero”). L’allucinazione è una percezione distorta della realtà, in psichiatria definita “percezione in assenza di stimolo”.

Come ho spiegato nel mio libro, un LLM non ha alcuna percezione della realtà che possa “andare in crisi” generando percezioni distorte analoghe alle allucinazioni di un essere umano. Per questo diversi autori preferiscono dire che “le spara grosse” (il termine inglese suona più duro: bullshitting), un po’ come uno studente interrogato che inventa notizie e personaggi storici per non fare scena muta (trovate gli articoli a cui mi riferisco qui e qui).  

Non solo, i LLM abbassano in maniera impressionante il costo della creazione di campagne di marketing, propaganda o -più in generale- di qualsiasi testo che non debba essere di particolare complessità e originalità. Per questo si presentano come poderosi strumenti di manipolazione dell’informazione. Questi utilizzi degli LLM, reiterati lungo il tempo e uniti all’eccessiva fiducia che nutriamo socialmente verso il loro output, stanno generando diversi effetti di inquinamento della cosiddetta “infosfera”.

A iniziare dai contenuti (esplosione dei contenuti spazzatura prodotti da LLM); in particolare a scopi di propaganda politica ed elettorale; dei dati personali (creazione di informazioni false su persone vere); della produzione accademica (ricercatori, magari spinti dalle urgenze del “publish or perish” che utilizzano i chatbot per scrivere articoli, che vengono sottoposti a peer-review “automatizzate” utilizzando altri chatbot, creando un clima di generale crescita della sfiducia anche verso le pubblicazioni scientifiche).

Se la narrazione mistificata dell’hype è correggibile (con un enorme sforzo collettivo) la tendenza dei LLM a “spararle grosse” non potrà essere “corretta” per il semplice fatto che non è un comportamento erroneo, bensì la forma di funzionamento “naturale” dei modelli.  

La questione si comprende meglio se capiamo che l’output di questi modelli non è costruito come una risposta alle nostre domande, ma come un tentativo di costruire una frase che probabilmente avrà senso per un essere umano, sulla base del contesto che l’utente ci fornisce con il suo prompt. In pratica, se il contesto è “Che cosa ha causato la sconfitta di Caporetto?”, l’output potrà partire con le parole “La sconfitta di Caporetto fu causata da…”.

La maggiore o minore aderenza al contesto è addirittura un parametro di funzionamento dei LLM, che viene chiamato “temperatura”. Alte temperature causano più bullshit di quelle basse. Insomma: mentre per rispondere bisogna comprendere, per generare statisticamente frasi che hanno alta probabilità di avere senso compiuto basta non “allontanarsi troppo” dal contesto fornito dall’utente.  

Questo fatto rende i LLM del tutto inutilizzabili? Forse no, ma certamente ne limita grandemente l’utilità e dovrebbe spingerci a una cautela di molto superiore a quella che si registra di questi tempi nel loro utilizzo, soprattutto alla luce degli utilizzi nefasti che ne possono essere fatti. 

“Scatole oscure. Intelligenza artificiale e altre tecnologie del dominio” è una rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è tutto meno che neutra. Non è un mero strumento che dipende unicamente da come lo si usa, i dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per questo le tecnologie “del dominio”, quelle che ci propongono poche multinazionali, sono quasi sempre costruite come scatole oscure impossibili da aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una società in cui la tecnologia ha un ruolo via via più dispositivo (e può quindi essere usata per controllarci) aprire e modificare le scatole oscure diventa un esercizio vitale per la partecipazione, la libertà, la democrazia. In altre parole: rompere le scatole è un atto politico.

Stefano Borroni Barale (1972) è laureato in Fisica teorica presso l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel programma di formazione sindacale Actrav del Centro internazionale di formazione dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del software libero da fine anni Novanta, è autore per Altreconomia di “Come passare al software libero e vivere felici” (2003), una delle prime guide italiane su Linux e altri programmi basati su software libero e “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” (2023).

© riproduzione riservata

Newsletter

Iscriviti alla newsletter di Altreconomia per non perderti le nostre inchieste, le novità editoriali e gli eventi.


© 2024 Altra Economia soc. coop. impresa sociale Tutti i diritti riservati