Per la libertà di movimento, per i diritti di cittadinanza
Il progetto grafico della ricerca è stato curato da Joëlle Noharet
/

«Tecnologie per il controllo delle frontiere in Italia»: uno studio di Hermes Center

I nodi dell’identificazione tra diritti e abusi

I dati personali delle persone migranti giunti sui confini europei vengono ceduti sotto forma di vero e proprio baratto in cambio di accoglienza. È quanto emerge dalla ricerca condotta da Hermes Center for Transparency and Digital Human Rights 1, pubblicato il 5 dicembre scorso 2.

Lo studio, condotto dai giornalisti Laura Carrer e Riccardo Coluccini, mira a mostrare ancora una volta come strumenti basati su machine learning e intelligenza artificiale, ancor più dei mezzi umani, possono criminalizzare categorie vulnerabili come quella dei migranti irregolari.

Il tema dell’identificazione è di per sé delicato: chiama in causa categorie giuridiche e non solo. Cedere i propri dati personali permette di provare che una persona è esattamente quella data persona e non un’altra e rappresenta il primo passaggio per formalizzare la propria esistenza in un paese. Chi non possiede questo tipo di formalizzazione agli occhi dello Stato non esiste.

Illustrazione tratta dalla ricerca

Questo buco giuridico 3 impedisce di accedere ai servizi essenziali o di denunciare una violenza subita: tutele e diritti che ad oggi in Europa vengono rilasciati a persone identificate e provviste di un preciso status giuridico. Privi come sono di questi requisiti, i migranti irregolari sono esposti agli abusi ormai noti da parte delle polizie di frontiera e a dinamiche in cui l’impotenza giuridica contribuisce all’impunità dei soggetti che agiscono violenza contro di loro: se una vittima non ha volto e nome, come potrà denunciare le violenze subite?

In base al Regolamento Generale (art. 4 GDPR), il consenso è la manifestazione di volontà libera, specifica, informata e inequivocabile dell’interessato, con la quale lo stesso esprime il proprio assenso al trattamento dei dati personali che lo riguardano. Inoltre, in base al Considerando 32, “il consenso dovrebbe essere espresso mediante un atto positivo inequivocabile”, ossia come risposta affermativa a una richiesta chiara e concisa: il consenso è dunque legittimo nella misura in cui all’interessato vengono offerti il controllo e l’effettiva possibilità di scegliere se accettare o rifiutare i termini proposti.

Il consenso informato è un diritto, e come tale viene esercitato nella misura in cui lo si possiede: nella regione grigia dell’identificazione, il migrante non è ancora nella posizione di soggetto giuridico, con un potere di scelta nel rilascio dei propri dati. Pertanto, nonostante il consenso libero e informato sia previsto dalla normativa europea, ai migranti ancora in fase di irregolarità viene negata la possibilità di scegliere quali dati rilasciare e se rilasciarli. Aldilà della giurisdizione che regola in teoria la materia del consenso, i loro dati costituiscono nei fatti la merce di scambio per ottenere l’accoglienza. Inoltre, rappresentano un vincolo alla libertà di movimento, dal momento che la procedura di richiesta di protezione internazionale, avviata nel paese di identificazione, costringe a restarvi anche qualora il migrante volesse proseguire in altri paese dell’UE; una conseguenza, questa, del regolamento di Dublino.

La situazione in Italia: il sistema SARI e le tecnologie criminalizzanti

La procedura di identificazione, già di per sé lesiva della libertà di movimento, assume caratteri inquietanti quando i sistemi manuali del riconoscimento vengono sostituiti a sistemi automatici di riconoscimento facciale, basati su algoritmi di riconoscimento facciale 4. Nel 2017 il Ministero dell’Interno ha acquistato il sistema SARI (Sistema Automatico di Riconoscimento Immagini).

Uno dei due moduli di cui è composto il sistema, SARI Enterprise, permette di confrontare l’immagine di un sospetto, acquisita tramite dispositivi come videocamere, e confrontarla con immagini di volti salvate in una banca dati già in possesso della polizia. “Il sistema è in grado di fornire un elenco di immagini ordinato secondo un grado di similarità; i suoi risultati sono poi analizzati dagli operatori specializzati della Polizia scientifica”, si legge nell’articolo di Hermes Center.

Questo strumento, utilizzato durante le indagini, è stato approvato nel 2018 dal Garante privacy, che ha riconosciuto come il sistema “automatizza un’attività che le forze dell’ordine hanno sempre svolto manualmente”, ossia la ricerca di volti per anagrafica e dettagli nel sistema AFIS, il database dei potenziali sospetti utilizzato da anni per ritrovare corrispondenze di volti e identità.

Tuttavia, da un’analisi di comunicati stampa delle Questure italiane e di alcuni episodi che hanno coinvolto persone arrestate presenti nella banca dati, è emerso che il bacino di soggetti presenti nel database AFIS usato per le indagini della polizia include uno spettro di categorie molto più ampio: non solo soggetti che, avendo commesso un reato, sono stati sottoposti a foto-segnalamento, ma anche persone che hanno chiesto protezione internazionale all’arrivo in Italia 5.

Una conferma di questo fatto sarebbe il video nel quale un ufficiale, effettuando la ricerca di un volto per mostrare il funzionamento di SARI Enterprise, ottiene dall’algoritmo uno spettro di foto, tra cui quella di una persona che tiene tra le mani un cartellino identificativo: una scena compatibile con una regolare situazione di foto-segnalamento dei migranti effettuata allo sbarco in Italia.

Comprendere la composizione del database AFIS utilizzato con il sistema di riconoscimento facciale SARI è fondamentale per capire quali rischi corrono le persone che vi sono incluse”, viene scritto nello studio.

L’inclusione di migranti e richiedenti asilo all’interno di un database come AFIS, utilizzato nelle indagini per confronti con soggetti rei già identificati, rischia di criminalizzare ulteriormente i migranti, la cui condizione di irregolarità impedisce di sottrarsi alla cessione dei dati anagrafici e biometrici al loro arrivo. Uno strumento tecnologico nuovo come l’algoritmo SARI, che potrebbe avere il valore aggiunto di una maggiore obiettività in sede di indagini, finisce per contenere bias e condizionamenti umani e di essere, pertanto, costitutivamente criminalizzante verso le categorie più vulnerabili.

A febbraio 2020, in occasione di un’interrogazione parlamentare circa la composizione del database AFIS e delle modalità in cui esso viene aggiornato, il Ministero dell’Interno si è espresso soltanto circa il numero totale di soggetti presenti nel sistema e il numero di cittadini italiani; ma la nazionalità degli altri cartellini, così come le motivazioni della loro inclusione nel database, non è stata chiarita 6; il Centro Hermes ha inviato delle richiesto di accesso civico alla Divisione Anticrimine di 22 Questure italiane, chiedendo dettagli sulla nazionalità dei soggetti foto-segnalati in AFIS e delle statistiche sull’utilizzo di SARI Enterprise ma, laddove c’è stata risposta, le Questure hanno negato l’accesso ai dati “al fine di evitare un pregiudizio concreto alla tutela dell’interesse pubblico inerente all’ordine e alla sicurezza pubblica.”


Altri links per approfondire il tema:


  1. Hermes Center for Transparency and Digital Human Rights è un’associazione nata nel 2011 per promuovere e tutelare i diritti umani digitali in Italia. Oltre all’implementazione del software di whistleblowing GlobaLeaks, l’associazione è partner italiano della campagna reclaim Your Face per il divieto di utilizzo di tecnologie biometriche nello spazio pubblico, ed è impegnata in prima linea sulla regolazione delle intelligenze artificiali in Italia. Oltre alle attività di ricerca sui temi della sorveglianza tecnologica, l’associazione svolge training per giornalisti e giornaliste, scuole e professionisti.
  2. «Tecnologie per il controllo delle frontiere in Italia. Identificazione, riconoscimento facciale e finanziamenti europei». La ricerca è parte del progetto proTECHt migrants, sostenuto da Privacy International.
  3. «Una legge sull’intelligenza artificiale che guardi ai diritti fondamentali», Asgi – 30 novembre 2021
  4. «Accusato dall’algoritmo e arrestato dalla polizia per un reato che non aveva commesso. I problemi del riconoscimento facciale», Valigia Blu – 2 luglio 2020
  5. «Riconoscimento facciale, nel database di Sari quasi 8 schedati su 10 sono stranieri» di Raffaele Angius e Riccardo Coluccini (Wired, 3 aprile 2019)
  6. La risposta del Viminale (era presente il sottosegretario Sibilia in Commissione Affari Costituzionali) in materia di riconoscimento facciale

Rossella Marvulli

Ho conseguito un master in comunicazione della scienza. Sono stata a lungo attivista e operatrice nelle realtà migratorie triestine. Su Melting Pot scrivo soprattutto di tecnologie biometriche di controllo delle migrazioni sui confini europei.