Una voce indipendente su economia, stili di vita, ambiente, cultura
Diritti / Attualità

Algoritmi e big data: lo Stato digitale minaccia la privacy dei cittadini

In Olanda un sistema informatico antifrode ha sorvegliato i cittadini di interi quartieri di alcune città, analizzando migliaia di dati personali. La Corte distrettuale de L’Aja lo ha sospeso perché vìola i diritti umani

Tratto da Altreconomia 225 — Aprile 2020
© Matthew Henry

Vivere in un quartiere povero di Rotterdam poteva essere motivo di sospetto di frode in Olanda, almeno fino allo scorso febbraio. Un software sottoponeva migliaia di cittadini a una sorveglianza speciale sulla base del codice postale. Combinando tutti i dati delle persone raccolti dalla pubblica amministrazione, il sistema assegnava un punteggio a ogni individuo che indicava la probabilità che quel cittadino potesse agire contro la legge. Lo scorso 5 febbraio il tribunale distrettuale de L’Aia ha stabilito la sospensione del sistema, dopo che una coalizione di associazioni della società civile ha fatto causa allo Stato accusandolo di violare i diritti umani fondamentali attraverso il sistema informatico antifrode statale.

Nella sentenza il giudice conferma che la legge olandese che regola l’uso del software vìola l’articolo 8 della Convenzione europea dei diritti dell’uomo che riconosce il diritto al rispetto della vita privata e familiare. Inoltre la norma “non è sufficientemente trasparente” e non permette un adeguato controllo da parte di terzi del suo funzionamento. Nessuno, a parte il ministero degli Affari sociali, sa come funziona. Anche il Relatore speciale delle Nazioni Unite per la povertà, Philip Alston, ha accolto con favore la sentenza. Esperto di diritti umani e professore alla Scuola di Legge dell’Università di New York, Alston considera il caso olandese un precedente importante: “È una delle prime volte che un tribunale ferma l’uso di tecnologie di questo tipo per motivi legati ai diritti umani. Il giudizio farà da campanello d’allarme, non solo in Olanda ma anche in molti altri Paesi dove i governi stanno mettendo a punto la digitalizzazione dello Stato”. Il caso olandese riguarda un sistema informatico: il System Risk Indication (SyRI). Adottato dallo Stato nel 2014, è stato sviluppato dal ministero degli Affari sociali olandese con il Stichting Inlichtingenbureau, un gruppo privato che funziona de ente terzo di controllo per la raccolta e l’analisi dei dati per le autorità pubbliche olandesi. La norma che ne ha regolato l’utilizzo consente la condivisione dei dati dei cittadini tra varie autorità e istituzioni statali: comuni, autorità assistenziali, fiscali e altre autorità governative competenti. Possono essere condivisi fino a 17 categorie di dati, da quelli relativi al lavoro e alle tasse, ai dati della residenza e dell’assicurazione sanitaria. Il sistema è stato utilizzato cinque volte: due a Rotterdam, una a Eindhoven, Haarlem e Capelle aan den IJssel. Ronald Huissen, giornalista e ricercatore per la Piattaforma di Protezione dei Diritti Civili, una delle associazioni olandesi nella causa contro SyRI, ha spiegato ad Altreconomia come funziona il sistema: “SyRI esegue la scansione di tutti i cittadini presenti in uno o più codici postali. Per ora sono stati solo i quartieri poveri con molti abitanti in condizioni di assistenza sociale, di cui una gran parte sono immigrati. Interi quartieri e tutti i cittadini che vi abitano sono stati analizzati”.

“Si capovolge il principio di non colpevolezza. Il sistema entra nella vita delle persone senza che vi sia un reale sospetto nei confronti di chi è controllato” – Bruno Saetta

Attraverso un algoritmo il software calcola il “rischio di irregolarità” per ogni cittadino sottoposto ad analisi: “Non è necessario aver agito contro la legge per ricevere un punteggio che indica il rischio. Qualsiasi cittadino con una combinazione di dati che SyRI ritene ‘ad alto rischio’ può essere inserito in un registro ed essere segnalato alle autorità”, spiega Huissen. “Il governo non vuole che i cittadini sappiano quali dati SyRI cerca nello specifico perché teme di scoprire le sue carte ai truffatori. Mentre il ministero ha spiegato che il sistema cerca solo le incongruenze che potrebbero rappresentare comportamenti contro la legge, ma senza dare ulteriori informazioni. Detto così potrebbe significare qualsiasi cosa”, conclude.
Le autorità statali hanno cercato di rassicurare i cittadini affermando che il sistema ha solo un ruolo ausiliario. Quando trova soggetti a rischio, SyRI manda una segnalazione al ministero degli Affari sociali che esamina la documentazione prodotta e stabilisce quali ulteriori controlli effettuare anche con il coinvolgimento di autorità competenti. Solo se il sospetto è confermato, lo Stato interviene.

“Si capovolge il principio di non colpevolezza”, spiega ad Altreconomia Bruno Saetta, avvocato e esperto di diritto applicato alle nuove tecnologie. “Questo sistema entra pesantemente nella vita privata delle persone senza motivo, senza che ci sia un reale sospetto nei confronti di chi è controllato. Un esempio: se la polizia deve entrare in casa mia per una perquisizione, deve avere un mandato, cioè indizi fondati su di me. Il sistema olandese, per come è impostato ora, parte dal presupposto che tutti i soggetti inseriti nell’analisi del sistema siano potenzialmente colpevoli”. Al controllo generalizzato si aggiunge il segreto sui dati e l’algoritmo utilizzati. “Un’impostazione contraria anche a quanto prescritto dal nuovo Regolamento europeo sulla privacy, il Gdpr”, continua Saetta. “L’articolo 6 stabilisce che le finalità della raccolta del dato devono essere chiare.

Se faccio un’assicurazione sanitaria non mi aspetto che quei dati possano essere utilizzati per stabilire se posso o meno ricevere un sussidio di disoccupazione. Se lo Stato vuole usarli, deve comunicare al cittadino tutti i modi in cui i dati sono usati. Inoltre, è molto importante che chi riceve un controllo conosca nel dettaglio come questo è avvenuto perché solo così potrà eventualmente contestare una sanzione o un provvedimento a suo carico”.

“Tutti devono sapere come funzionano gli algoritmi, a cosa servono i dati e cosa sono i big data. Serve a rendere i cittadini consapevoli” – Giulio De Petra

C’è poi la questione legata all’analisi limitata ai quartieri con residenti a basso reddito o con popolazione composta da minoranze. Un criterio che il relatore speciale dell’Onu ha considerato una minaccia verso i diritti umani dei più poveri. La sua valutazione è stata accolta dal giudice del tribunale de L’Aia che ha confermato il rischio che il sistema possa discriminare sulla base dello status socio-economico o di migrante. Per la corte SyRI non soddisfa il principio dell’equilibrio tra il fine che si vuole perseguire e i mezzi usati per raggiungerlo. “L’interferenza dello Stato nella vita privata di una persona deve rispettare il principio generale di proporzionalità”, spiega Saetta. Un’inchiesta della testata olandese de Volkskrant di giugno 2019 ha rivelato che l’algoritmo non è riuscito a scoprire casi di frode in nessuno dei comuni autorizzati a usarlo. Se le persone diventano sempre più visibili agli occhi degli amministratori, i governi non sono altrettanto trasparenti.

Philip Alston, il Relatore speciale delle Nazioni Unite per la povertà e professore presso la Scuola di Legge dell’Università di New York, ha redatto un rapporto sugli effetti che la tendenza verso uno Stato sociale digitalizzato ha sui diritti umani delle classi socio-economiche più povere ed emarginate – © UN Photo/Manuel Elias

“I costi di sviluppo di SyRI non sono noti. Nel 2014, il governo aveva dichiarato che la gestione di SyRI sarebbe costata 264mila euro annui. Ma durante il processo del 2019, i legali del ministero hanno riportato un importo di 325mila euro”, denuncia Huissen. L’Olanda non è l’unico Paese ad aver sperimentato queste tecnologie. Ci sono esempi nel Regno Unito e in Svezia ma anche in Canada, Australia e Nuova Zelanda. Li ha raccolti il relatore Onu Alston in un report presentato lo scorso ottobre all’Assemblea generale dell’Onu. Il relatore ha definito la tendenza attuale globale verso lo stato sociale digitalizzato potenzialmente pericolosa per i diritti umani dei più poveri e degli emarginati. In Italia il Forum Disuguaglianze e Diversità ha lanciato, nel marzo 2019, 15 proposte per la giustizia sociale. Sulla proposta numero sette il ForumDD collabora con la Scuola Critica del Digitale del Centro Riforma dello Stato (CRS), l’obiettivo è “costruire una sovranità collettiva” sugli algoritmi e i dati personali. “La proposta è legata al concetto di bene comune e riprende le proposte di Stefano Rodotà. I dati digitali sono considerati beni che non sono né dello Stato né del singolo ma della comunità”, spiega Giulio De Petra, direttore del CRS ed esperto di innovazione digitale nelle pubbliche amministrazioni. “Esiste una grande quantità di dati che non sono prodotti dal singolo, in parte già tutelati dal Gdpr, ma comunque riferibili a un singolo. Come tutti i dati raccolti da sensori e telecamere delle città”. Il piano del Forum si articola in quattro mosse: una campagna di sensibilizzazione sui temi della trasformazione digitale; la formazione e la ricerca con organizzazioni della società civile; le sperimentazioni territoriali e l’introduzione del tema del digitale anche in altre aree di ricerca del Forum. “La mossa da cui partire è la formazione. Tutti devono sapere come funzionano gli algoritmi, a cosa servono i dati e cosa sono i big data, come vengono raccolti e chi ne garantisce la qualità e l’aggiornamento. Serve a creare consapevolezza per cambiare i comportamenti e sollecitare i cittadini a chiedere che l’utilizzo dei dati comuni digitali serva ad ampliare i diritti di ognuno’’.

© riproduzione riservata

Newsletter

Iscriviti alla newsletter di Altreconomia per non perderti le nostre inchieste, le novità editoriali e gli eventi.