Diritti / Opinioni
I limiti della normativa europea sull’intelligenza artificiale
Per Amnesty International il testo non tocca il “cuore” del problema: l’estrazione non autorizzata dei dati e l’opacità degli algoritmi. La rubrica di Lorenzo Guadagnucci
A inizio maggio, il ministro dell’Interno Matteo Piantedosi ha perorato l’uso sistematico dei sistemi di riconoscimento facciale da parte delle forze di polizia. Si tratta di una tecnologia invasiva, che pone importanti dilemmi etici e giuridici riguardanti il rispetto della privacy, l’esercizio delle libertà civili, l’esposizione dei cittadini a possibili abusi (ed errori) delle autorità. Piantedosi ne ha parlato sull’onda emotiva di un fatto di cronaca nera, con l’intento di spingere l’opinione pubblica verso l’accettazione di uno scenario di controllo visivo pressoché totale e di schedatura di massa della popolazione. O almeno di sue porzioni giudicate di volta in volta pericolose, problematiche, indesiderate.
Le tecnologie di riconoscimento facciale hanno come premessa necessaria l’estrazione di grandi quantità di dati (immagini di persone tratte da telecamere, fotografie, social network, web) e non sono al momento legittimate dalla normativa. Ma la pressione è forte: lo scambio “più sicurezza – meno diritti” è da tempo all’ordine del giorno e Piantedosi è tutt’altro che isolato, politicamente parlando.
Il ministro ha però perso -almeno in apparenza- la prima partita, visto che l’11 maggio le commissioni Mercato interno e Libertà civili del Parlamento europeo hanno approvato il cosiddetto “Artificial intelligence act”, la prima importante normativa comunitaria sull’intelligenza artificiale (AI nell’acronimo inglese), stabilendo il divieto di utilizzo, sia pure con alcune eccezioni, dei sistemi di identificazione biometrica in tempo reale.
No, dunque, alle tecniche usate dalle polizie in varie parti del mondo, non solo sotto regimi autoritari come quello cinese, ma anche in alcune democrazie occidentali. Sono ben documentati, tra gli altri, i casi di schedatura e controllo ravvicinato dagli attivisti di Black Lives Matter negli Stati Uniti e la pervasiva sorveglianza inflitta in Israele alla popolazione palestinese. A partire dal primo caso, Amnesty International ha lanciato la campagna “Ban the scan” per la messa al bando non solo dell’uso ma anche della produzione e del commercio degli strumenti di riconoscimento facciale. E ha pubblicato sul secondo un rapporto dal titolo eloquente: “Apartheid automatizzato”.
Sono mille gli scienziati, giuristi, studiosi, imprenditori che hanno sottoscritto a marzo 2023 una lettera aperta per chiedere una moratoria di sei mesi nello sviluppo dell’intelligenza artificiale, in modo da poter definire un sistema globale di regolamentazione e controllo.
La stessa organizzazione, pur apprezzandone alcuni aspetti positivi, fa notare che nell’“AI Act” ci sono molte zone d’ombra e spazi aperti all’elusione, al punto che una volta approvato in via definitiva (probabilmente a fine anno) potrebbe rivelarsi “un semplice documento orientativo per l’uso dell’intelligenza artificiale ad alto rischio” anziché una stringente regolamentazione.
La normativa europea sarà la prima al mondo a disciplinare la materia, ma sappiamo già che avrà un’efficacia limitata e non toccherà il “cuore” dell’intelligenza artificiale e dei sistemi di sorveglianza: ossia l’estrazione non autorizzata dei dati e l’opacità degli algoritmi. È su questi punti -protezione dei dati, trasparenza degli algoritmi- che si giocherà nei prossimi mesi e anni una battaglia politica decisiva, perché l’intelligenza artificiale, in assenza di limiti precisi e regole effettive, potrebbe demolire sia la tutela dei diritti fondamentali sia l’esercizio delle libertà civili. Ancora una volta, casi estremi come quelli citati negli Stati Uniti e in Israele potrebbero diventare, più che pericolose derive, addirittura dei modelli.
Lorenzo Guadagnucci è giornalista del “Quotidiano Nazionale”. Per Altreconomia ha scritto, tra gli altri, i libri “Noi della Diaz” e “Parole sporche”.
© riproduzione riservata