Cultura e scienza / Opinioni
L’Ai in medicina? Non basta “usarla bene”, e l’etica non ci salverà dall’effetto Vajont
L’introduzione dell’intelligenza artificiale in medicina dovrebbe essere valutata caso per caso, e con grande attenzione. È una tecnologia tutt’altro che neutra, soggetta al problema delle “allucinazioni” e non sempre rispettosa dei protocolli tipici della ricerca scientifica. Errori metodologici pericolosi che un certo marketing asfissiante vuole cancellare. L’analisi di Stefano Borroni Barale
“Cosa succede quando abbiamo messo la decisione [sulla vita o morte di un paziente, ndr] nelle mani di un’inesorabile macchina a cui dobbiamo porre le giuste domande in anticipo, senza comprendere appieno le operazioni o il processo attraverso cui esse troveranno risposta?”. Norbert Wiener, “God and Golem, Inc.”, 1963.
Questa citazione ha aperto un recente congresso sull’uso dell’Intelligenza artificiale (Ai) in ambito sociosanitario durante il quale era intenzione di chi scrive provocare un dibattito per cercare di uscire dallo “spettro delle opinioni accettabili” (Noam Chomsky) e -al contempo- ampliare la comprensione del fenomeno, ripercorrendone la storia.
Nello specifico, le “opinioni accettabili” nel dibattito sull’adozione dell’Ai sono quelle che vengono chiamati “i tre assiomi della transizione digitale” di cui l’adozione a rotta di collo dell’Ai è la logica conseguenza.
Primo, la tecnologia è neutra, l’importante è usarla bene (eticamente?); secondo, digitale è meglio di analogico, perché la tecnologia di oggi è sempre meglio di quella di ieri; terzo, i problemi di oggi saranno risolti dalla tecnologia di domani, perché la tecnologia risolve qualsiasi problema.
Il primo assioma è relativamente semplice da “smontare”. Se fosse vero che la tecnologia è neutrale allora dovrebbe esistere un modo per “usare bene” l’auto nelle strade di Roma, alle cinque del pomeriggio. Invece il problema dello spostamento in orario di punta si risolve solo cambiando tecnologia: bisogna abbandonare l’auto a favore della bici, del motorino o del trasporto pubblico. Saper “usare bene” l’auto non aiuta.
Nel caso specifico dell’uso dell’Ai in medicina siamo poi davanti a un rischio ancora più grave: l’effetto Vajont. Come racconta Marco Paolini nel suo spettacolo teatrale, dopo il disastro, lui non riesce a dare la colpa dei morti alla diga. La diga aveva fatto bene il suo lavoro: non era crollata.
Anche Dino Buzzati scrive, all’indomani del disastro, “la diga del Vajont era ed è un capolavoro”. Fascinazione tutta maschile per l’artefatto. Eppure questa tecnologia perfetta è coinvolta nella morte di oltre duemila innocenti. Com’è possibile? La diga non andava costruita in quella valle: troppo stretta e troppo frequentemente soggetta a frane importanti, quello è il problema. Un problema politico.
Sulla scena del disastro, a denunciarlo, c’è una donna coraggiosa: Tina Merlin, inviata per l’Unità, che scrive un libro che inchioda politici e imprenditori senza scrupoli alle loro responsabilità: “Sulla pelle viva. Come si costruisce una catastrofe. Il caso del Vajont”.
Oggi le donne che parlano fuori dal coro dell’entusiasmo “virile” per la tecnologia si chiamano Gebru, Bender, Whittaker, Tafani. L’ultima, da esperta di etica, non è affatto convinta che l’etica possa offrire risposte a questi problemi: “L’’etica dell’intelligenza artificiale’ è assimilabile dunque a una merce, che i ricercatori e le università sono interessati a fornire, in quanto ‘olio che unge le ruote della collaborazione’ con le grandi aziende tecnologiche, e che le aziende commissionano e acquistano perché è loro utile come capitale reputazionale” (Daniela Tafani, L’”etica”come specchietto per le allodole, 2023).
Infatti, per tornare all’esempio dell’auto, l’etica del pilota non diminuisce l’inquinamento causato dallo stare fermi al semaforo. Per diminuirlo bisogna entrare nella “stanza dei bottoni” e imporre una modifica che preveda lo spegnimento del mezzo quando si ferma. L’etica a posteriori diventa, appunto, uno specchietto per le allodole.
La falsificazione del secondo assioma può passare nuovamente da un confronto della bicicletta con l’auto: la prima è certo una tecnologia precedente, ma è capace di risolvere un problema che la seconda non risolve. Di esempi come questo se ne possono trovare molti: i vecchi Nokia che mitigano il problema dell’e-waste grazie a una batteria facilmente rimovibile, per esempio.
Il terzo assioma esprime il pensiero che il sociologo Evgeny Morozov ha definito soluzionismo tecnologico, ossia la convinzione che tutti i problemi umani contemplino una soluzione per via tecnologica. Questa posizione si fonda su un credo che Nick Barrowman chiama “culto del dato”: “Siamo tentati di presupporre che i dati siano autosufficienti e indipendenti dal contesto e che, con sufficienti dati, le preoccupazioni relative a causalità, bias (distorsione), selezione e incompletezza possano essere ignorate. È una visione seducente: i dati ‘crudi’, non corrotti dalla teoria o dall’ideologia, ci condurranno alla verità; non saranno necessari esperti; non saranno rilevanti le teorie, né sarà necessario vagliare alcuna ipotesi” (Nick Barrowman, Why data is never raw).
Il credo di tale “setta”, che altro non è se non un culto minore dello scientismo, produce una distorsione paradossale: credere nella supremazia del dato sulla stessa scienza che dovrebbe produrlo, come l’ex caporedattore di Wired, Chris Anderson quando scrive che “oggi possiamo gettare i numeri nei più grandi cluster di calcolo che il mondo abbia mai visto e lasciare che gli algoritmi statistici trovino modelli dove la scienza non può arrivare”.
Se Anderson avesse ragione l’avvento della tecnologia causerebbe la fine della scienza. La realtà è che i dati non sono mai “crudi”: “I dati ‘crudi’ sono un ossimoro e una cattiva idea. Al contrario, i dati dovrebbero essere cucinati con cura. ‘Crudo’ ha un senso di naturale o incontaminato, mentre ‘cotto’ suggerisce il risultato di processi cognitivi. Ma i dati sono sempre il prodotto di processi cognitivi, culturali e istituzionali che determinano cosa raccogliere e come farlo” (ibidem).
Esplicitare questi processi significa fare scienza, associando alle “sensate esperienze” le “dimostrazioni necessarie” (come affermava Galileo Galilei). Sorvolarli, per contro, significa rischiare conclusioni grossolanamente errate, o persino non rendersi conto di tali errori e sprofondare nella pseudoscienza.
Sgombrato quindi il campo dalle mistificazioni che “limitano rigorosamente lo spettro delle opinioni accettabili” (Chomsky) siamo finalmente in condizione di sintetizzare i motivi per cui l’introduzione dell’Ai in medicina dovrebbe essere valutata caso per caso, e con grande attenzione.
Questa tecnologia non è neutra: si fonda sul lavoro sottopagato del Sud globale; pone già oggi un enorme problema ecologico per via dei consumi pantagruelici di acqua, elettricità, suolo, terre rare (al punto che l’Ue ha lanciato una campagna per riaprire le miniere entro i territori dell’Unione per garantirsi i “materiali strategici” necessari a costruire i datacenter con tutti i rischi geopolitici che questo implica).
Le applicazioni delle Ai generative sono soggette al problema delle “allucinazioni” che, in situazioni di rischio per la vita, rappresentano un problema gravissimo e, anche quando potrebbero essere utili, generano pesanti cambiamenti nel modus operandi di una istituzione sanitaria, cambiamenti non sempre possibili o economici. Quindi non sono sempre meglio dei metodi precedenti: dipende.
C’è poi il fatto che le Ai pensate per la medicina non sono abbastanza testate per poter essere considerate sicure, soprattutto quando non si rispettano i protocolli tipici della ricerca scientifica, sull’onda della “immaterialità del digitale” o di slogan assurdi coniati in Silicon Valley, come “move fast, break things”. L’unica cosa da rompere sono certi piani di dominio del mondo, roba da scienziati pazzi.
Infine, l’uso degli strumenti Ai in medicina può produrre pericolosi errori metodologici, che possono portare a storture distopiche come l’utilizzo dell’Ai per decidere automaticamente se staccare la spina a un paziente, o quale trattamento salvavita somministrargli. L’eventuale morte del paziente non potrà essere risolta dalla successiva tecnologia.
“Scatole oscure. Intelligenza artificiale e altre tecnologie del dominio” è una rubrica a cura di Stefano Borroni Barale. La tecnologia infatti è tutto meno che neutra. Non è un mero strumento che dipende unicamente da come lo si usa, i dispositivi tecnici racchiudono in sé le idee di chi li ha creati. Per questo le tecnologie “del dominio”, quelle che ci propongono poche multinazionali, sono quasi sempre costruite come scatole oscure impossibili da aprire, studiare, analizzare e, soprattutto, cambiare. Ma in una società in cui la tecnologia ha un ruolo via via più dispositivo (e può quindi essere usata per controllarci) aprire e modificare le scatole oscure diventa un esercizio vitale per la partecipazione, la libertà, la democrazia. In altre parole: rompere le scatole è un atto politico.
Stefano Borroni Barale (1972) è laureato in Fisica teorica presso l’Università di Torino. Inizialmente ricercatore nel progetto EU-DataGrid (il prototipo del moderno cloud) all’interno del gruppo di ricerca dell’Istituto nazionale di fisica nucleare (Infn), ha lasciato la ricerca per lavorare nel programma di formazione sindacale Actrav del Centro internazionale di formazione dell’Ilo. Oggi insegna informatica in una scuola superiore del torinese e, come membro di Circe, conduce corsi di formazione sui temi della Pedagogia hacker per varie organizzazioni, tra cui il ministero dell’Istruzione. Sostenitore del software libero da fine anni Novanta, è autore per Altreconomia di “Come passare al software libero e vivere felici” (2003), una delle prime guide italiane su Linux e altri programmi basati su software libero e “L’intelligenza inesistente. Un approccio conviviale all’intelligenza artificiale” (2023).
© riproduzione riservata