Diritti / Attualità

Le tecnologie per il controllo delle frontiere in Italia e la criminalizzazione dei migranti

Una ricerca dell’Hermes center ha analizzato le modalità con cui vengono raccolti i dati personali e biometrici degli stranieri al momento dello sbarco. Le informazioni confluiscono nel database AFIS, gestito dalla polizia e utilizzato per le indagini, senza alcuna trasparenza sul funzionamento degli algoritmi

© Shane Rounce - Unsplash

Al momento dello sbarco o dell’ingresso in Italia le persone migranti, rifugiate o richiedenti asilo “effettuano un vero e proprio baratto dei loro dati personali e biometrici in cambio di accoglienza e informazioni”. Una volta arrivati sul territorio e negli hotspot, infatti, gli stranieri vengono sottoposti a un iter standardizzato che prevede anche la raccolta di informazioni personali, impronte digitali e il foto-segnalamento. A differenza dei cittadini italiani ed europei, però, migranti e richiedenti asilo non possono dare un consenso informato, non sanno dove verranno conservate queste informazioni, né per quanto tempo. Hanno ben poche possibilità di conoscere il percorso che faranno i loro dati personali e biometrici e men che meno possono “opporsi al peso che poi questo flusso di informazioni avrà sulla loro condizione in Italia e in tutta l’Unione europea”.

La denuncia arriva dalla ricerca “Tecnologie per il controllo delle frontiere in Italia”, che analizza l’impatto dei nuovi sistemi di sorveglianza digitale sui cittadini di origine straniera. Lo studio è stato realizzato nell’ambito del progetto “proTECHt migrants” promosso dall’Hermes center for transparency and digital human rights, organizzazione impegnata a promuovere e sviluppare la consapevolezza e l’attenzione sul tema dei diritti digitali.

“Pensiamo che la criminalizzazione di alcune categorie di persone, in particolare migranti, rifugiati e richiedenti asilo, sia di fatto inscritta all’interno dell’infrastruttura tecnologica italiana -spiega Laura Carrer, co-autrice della ricerca assieme a Riccardo Coluccini-. Le immagini del foto-segnalamento e le impronte digitali raccolte al momento dell’ingresso in Italia vengono inserite all’interno dell’Automated fingerprint identification system (AFIS) che viene utilizzato per ritrovare corrispondenze di volti e identità attraverso il sistema di riconoscimento facciale SARI”. L’acronimo sta per “Sistema automatico di riconoscimento immagini” e viene utilizzato dalla polizia italiana dal 2018 (nella sua versione “Enterprise”, dopo aver ottenuto il via libera dal Garante della privacy) per identificare, durante le fasi di indagine, un soggetto ignoto confrontando la foto del volto con quelle collezionate nella banca dati AFIS.

L’analisi condotta da Hermes Center ha dedicato particolare attenzione alla composizione del database e al funzionamento di SARI: “Il bacino di soggetti presenti nell’AFIS include un ampio spettro di categorie: dal soggetto che ha commesso reati ed è stato sottoposto a foto-segnalamento, alla persona che chiede protezione internazionale una volta arrivata in Italia”. In uno stesso contenitore confluiscono quindi persone che hanno alle spalle storie molto diverse tra loro e in larga parte si tratta di cittadini stranieri: secondo quanto riporta Hermes Center nella banca dati AFIS sono presenti “oltre 17,5 milioni di cartellini fotosegnaletici”, corrispondenti a 9,8 milioni di individui, di cui 2 milioni si riferiscono a cittadini italiani.

“Includere nello stesso database persone che hanno commesso furti o omicidi, persone che hanno un permesso di soggiorno, e chi è invece migrante o richiedente asilo rischia di minare i diritti fondamentali degli interessati -si legge nel report-. Chi è incluso nel database AFIS è considerato automaticamente un potenziale sospetto e la sua identità digitale biometrica è sottoposta una perquisizione ogni qualvolta il sistema SARI viene utilizzato”.

Non è possibile sapere a quali nazionalità appartengano gli oltre 7 milioni di cittadini stranieri inseriti nel database AFIS né avere statistiche sull’utilizzo del sistema SARI: le questure a cui i ricercatori di Hermes Center hanno posto i quesiti tramite accesso civico hanno negato l’accesso a queste informazioni. “È quindi impossibile avere numeri sulle nazionalità delle persone incluse del database AFIS e soprattutto le motivazioni che giustificano l’inserimento. Questo quadro deve farci preoccupare ulteriormente perché non sono disponibili valutazioni aggiornate degli algoritmi del sistema SARI”. Le ultime disponibili, sottolinea Hermes Center, risalgono 2016. Inoltre “a distanza di tre anni dal primo utilizzo del sistema SARI la polizia non ha pubblicato alcun tipo di analisi sull’accuratezza e sul tasso di falsi positivi del sistema”. Un dato da non sottovalutare se si tengono in considerazione i risultati di studi pubblicati dal Massachusset institute of technology (MIT) e dalla Stanford University, che dimostrano come i sistemi di riconoscimento facciale attualmente in commercio commettono sistematicamente più errori quando si tratta di riconoscere persone “non bianche”. Il rischio denunciato da Hermes Center è che un richiedente asilo possa essere fermato e interrogato solamente perché l’algoritmo del sistema SARI ha indicato una corrispondenza con la foto di una persona indagata, persona con la quale condivide solo il colore della pelle.

“La sperimentazione di tecnologie digitali in materia di immigrazione è totalmente sui generis poiché migranti e stranieri sono rappresentati come popolazioni da dover controllare, tracciare e sorvegliare in quanto fuori dai confini e dunque dalla legge -proseguono i ricercatori-. Non è previsto, come per tutti gli altri cittadini o legalmente residenti all’interno dell’Unione europea, che sia determinata una ragione specifica per la quale le persone in movimento debbano essere controllate poiché è la loro intrinseca situazione che le rende oggetto di tale sorveglianza”.

Così come non è possibile conoscere le nazionalità dei cittadini stranieri presenti nel database AFIS, allo stesso modo non c’è trasparenza sugli algoritmi utilizzati. “L’algoritmo riflette gli stereotipi e i pregiudizi di chi lo costruisce -spiega Laura Carrer-. La tecnologia viene percepita come ‘neutra’, ma non è così: il lato umano dietro queste tecnologie è molto rilevante. Inoltre, al momento non ci sono norme specifiche né direttive europee che richiedano la trasparenza degli algoritmi; non è quindi possibile conoscerne il funzionamento, non sappiamo quali siano i criteri su cui si basa il riconoscimento facciale e come avviene l’identificazione. Per questo motivo chiediamo al ministero dell’Interno di fornire dettagli puntuali sugli algoritmi utilizzati con il sistema SARI, pubblicando valutazioni semestrali sulle prestazioni del sistema”.

Hermes Center chiede inoltre che il governo intervenga sulla gestione dei database che raccolgono dati biometrici di persone vulnerabili come migranti, richiedenti asilo e rifugiati “in modo tale che queste informazioni non vengano ‘diluite’ tra quelle relative allo stato legale ad esempio di una persona che ha commesso qualsiasi reato penale”.

© riproduzione riservata

Newsletter

Iscriviti alla newsletter di Altreconomia per non perderti le nostre inchieste, le novità editoriali e gli eventi.