Per la libertà di movimento, per i diritti di cittadinanza
Il progetto grafico della ricerca è stato curato da Joëlle Noharet
//

Tecnologie digitali: come sta cambiando il controllo dei flussi migratori?

Intervista a Laura Carrer, co-autrice della ricerca «Tecnologie per il controllo delle frontiere in Italia»

Start

Il 5 dicembre scorso, all’interno del progetto proTECHt migrants, Hermes Center for Transparency and Digital Human Rights ha pubblicato uno studio condotto dai giornalisti Laura Carrer e Riccardo Coluccini dal titolo «Tecnologie per il controllo delle frontiere in Italia» 1.

La ricerca, di cui abbiamo parlato recentemente su Melting Pot, analizza come i dati personali e biometrici dei migranti giunti sui confini europei vengano barattati in cambio dell’accoglienza all’interno di quella terra grigia che precede l’identificazione dei migranti e, pertanto, questi non sono protetti da alcuna garanzia sulla propria privacy.

Lo studio inoltre si analizza l’uso delle tecnologie di riconoscimento facciale, usate per creare cartellini foto-segnaletici resi interoperabili da tutte le polizie dell’Unione Europea e inseriti in Italia all’interno di un database di rei o sospettati: si criminalizza di default la categoria delle persone migranti che fanno ingresso nel paese.

Lo studio pone le basi per un dibattito, ancora poco presente nell’opinione pubblica e nella classe politica, sui criteri di uso pubblico degli strumenti basati su machine learning e intelligenza artificiale, considerati spesso imparziali e di fatto capaci di criminalizzare categorie vulnerabili ancor più dei mezzi umani.

Abbiamo avuto l’opportunità di parlare con Laura Carrer 2 della ricerca e degli spunti che solleva in termini di diritti umani, identificazione, regolamentazione giuridica di questi nuovi dispositivi usati dalle nostre polizie.

In che modo si estrae valore dai dati?

L’estrazione di valore dai dati deriva da una attività di raccolta di informazioni relative a una persona, sotto forma di dati o metadati, finalizzata a una profilazione della persona. L’estrazione di valore dai dati avviene quando si ottiene un numero di informazioni sulla persona sufficienti a costruire un identikit che identifica una serie di preferenze, abitudini comportamentali e via dicendo.
Questa grande mole di informazioni è poi funzionale a chi vuole vendere determinati beni o servizi: di per sé queste informazioni hanno un valore strettamente personale, ma se cedute a terzi per scopi di marketing iniziano ad assumere anche un valore economico. Un parallelismo abbastanza calzante è quello dei rider: lavorando tramite delle app, il loro lavoro è meticolosamente profilato in modo che l’azienda possa rintracciare dove o in che fasce orarie si vendono determinati cibi, con che cadenza e secondo quali condizioni. Per vendere di più.

Ed entrando nel merito della vostra ricerca?

Nella nostra ricerca non parliamo propriamente di estrazione di valore per fini commerciali, ma di una profilazione di persone motivata dalla loro vulnerabilità giuridica. La raccolta di dati sui migranti che fanno ingresso in Italia è un’imposizione su chi è privo di uno status giuridico. Per ottenere accoglienza in Europa, queste persone si trovano a dover rilasciare delle informazioni personali protette da GDPR 3, che qualsiasi cittadino europeo ha il diritto di NON rilasciare: si tratta di un vero e proprio baratto dei dati personali con l’accoglienza.

Che uso si fa dei dati rilasciati?

I dati rilasciati non rimangono nel faldone di un distretto di polizia, ma vengono inseriti in un database reso interoperabile da tutte le polizie dell’UE: un fatto che mette i migranti nella posizione di essere continuamente attenzionati, anche dopo anni dal loro ingresso in Europa, quando magari hanno raggiunto una condizione di piena regolarità giuridica.

I dati sensibili sono comunque estorti, non per fini commerciali ma per sostenere politiche securitarie che vorrebbero criminalizzare le persone prive di regolare passaporto…

Sì, è così. La raccolta di dati è finalizzata alla sorveglianza.

Come è potuto avvenire il passaggio dalla pura raccolta di dati all’immissione di questi dati in AFIS, un database di persone ree o sospettate di crimini?

Anche a noi piacerebbe capirlo. La polizia non ha dato risposte rispetto ai criteri con cui questi dati vengono inseriti in AFIS. La nostra ricostruzione è stata la seguente: secondo il Testo Unico sull’Immigrazione, chiunque metta piede sul territorio italiano dal di fuori dell’Unione Europea senza rientrare nella politica dei flussi commette reato di clandestinità e questo giustificherebbe l’inserimento in un database di criminali.

Nella nostra ricerca abbiamo osservato però che il reato commesso da un migrante irregolare che fa ingresso in Italia è ben diverso da un furto o uno stupro. La vera domanda è cioè se un migrante irregolare che mette piede in territorio italiano stia effettivamente compiendo un reato: il discorso, prima di essere tecnologico, è di natura politica.

La digitalizzazione è quindi solo un ulteriore dispositivo di abuso di una categoria vulnerabile?

Sì, la questione è primariamente politica. L’UE chiede a Italia, Grecia e Spagna – i tre stati membri più esposti ai flussi irregolari – di portare avanti una serie di procedure di identificazione che sono iniziati con i trattati Schengen. L’idea di identificare nasce dal paradigma dello Stato-Nazione e dei confini nazionali.

In che modo la tecnologia entra in gioco in queste dinamiche? La tecnologia automatizza la raccolta di informazioni, il foto-segnalamento e tutto quanto rientra nell’iter di identificazione. Forse l’aspetto cruciale è l’interoperabilità di questi database, chiaramente resa possibile dagli attuali mezzi tecnologici: se metto piede in Francia verrò attenzionata dalla polizia francese in breve tempo, e questo verrà trasmesso e rilevato in Italia, e così via. Quindi non porrei l’accento sulle tecnologie digitali, ma sull’uso politico di questi strumenti che automatizzano comportamenti e pregiudizi che altrimenti sarebbero più circoscritti e attenuati.

Quindi questi dispositivi tecnologici rendono semplicemente più efficaci delle prassi discriminanti che erano già messe in atto?

Esatto. E poi c’è questa sorta di tecno-ottimismo per il quale tendiamo a fidarci della tecnologia come sostituto dell’uomo. La vediamo come razionale, imparziale, al di sopra delle parti. Ma non è così: l’ideatore dei software che automatizzano questi processi è l’uomo. Nella fase di costruzione di un software c’è spazio per incorporare preconcetti, bias culturali e sociali, visioni politiche: il fattore umano. Tutto questo diventa lampante proprio quando questi dispositivi vengono implementati per questioni sociali, come l’immigrazione o la sicurezza urbana.

In Italia sono usati strumenti fortemente criminalizzanti nei confronti dei migranti, pensiamo al sistema SARI: come te lo spieghi? Dipende da una scarsa regolamentazione della materia dal punto di vista giuridico?

Nel caso specifico di migranti – un tema che solleva questioni securitarie – le forze dell’ordine hanno il permesso di fare quasi tutto, anche di attenzionare persone che ritengono essere pericolose. Certo, l’attività di investigazione si basa su precise norme, e determinate indagini non si fanno senza la richiesta e l’ottenimento di permessi da parte della magistratura.
Al contrario, nell’ambito del riconoscimento facciale non c’è una normativa che regolamenti i modi e i criteri per l’impiego di queste tecnologie. A questo proposito, a dicembre scorso è entrata in vigore la moratoria 4 sui sistemi di riconoscimento facciale che abbiamo seguito anche noi di Hermes Center attraverso la campagna «Reclaim your face» 5.

Con questa moratoria, l’installazione di impianti di videosorveglianza con sistemi di riconoscimento facciale nei luoghi pubblici, da parte delle autorità pubbliche o di privati, è sospesa “fino all’entrata in vigore di una disciplina legislativa della materia”. Ma questa moratoria non è sorretta da una base di legge, pertanto stabilisce che il riconoscimento facciale può essere impiegato dalle forze dell’ordine senza dare precisazioni sulle modalità.

Come Hermes Center avete la possibilità di interfacciarvi con le istituzioni per una maggiore regolamentazione di questi dispositivi digitali?

Sul piano legislativo possiamo intervenire in modo limitato. Il nostro lavoro è principalmente di comunicazione e di sensibilizzazione della coscienza collettiva su questi temi. Ad esempio, abbiamo portato avanti la questione della moratoria tramite un deputato del Partito Democratico, che ci ha contattato e abbiamo lavorato su un programma di divulgazione. Del resto, le nostre posizioni su questi temi non si aprono a grosse mediazioni. Per noi, non ci sono ancora le condizioni perché i sistemi di tecnologia biometria e di riconoscimento facciale siano implementati senza includere al loro interno pregiudizi ed errori. Riteniamo quindi che questi sistemi dovrebbero essere vietati almeno fino al momento di una forte regolamentazione a livello europeo.

  1. «Tecnologie per il controllo delle frontiere in Italia. Identificazione, riconoscimento facciale e finanziamenti europei». La ricerca è parte del progetto proTECHt migrants, sostenuto da Privacy International.
  2. Laura Carrer, giornalista freelance laureata in Sociologia, tra le altre testate scrive su Wired Italia, European Journalism Observatory e Il Manifesto. Membra del Centro Hermes e precedentemente Fellow alla Coalizione italiana libertà e diritti civili (CILD), si occupa di diritti umani e digitali, con un particolare focus su privacy, open data, trasparenza e hacking. Dal 2020 è a capo in Italia di «Reclaim your face», una campagna europea contro la sorveglianza biometrica.
  3. Il regolamento generale sulla protezione dei dati in sigla RGPD (o GDPR in inglese General Data Protection Regulation), ufficialmente regolamento (UE) n. 2016/679, è un regolamento dell’Unione europea in materia di trattamento dei dati personali e di privacy, adottato il 27 aprile 2016, pubblicato sulla Gazzetta ufficiale dell’Unione europea il 4 maggio 2016 ed entrato in vigore il 24 maggio dello stesso anno ed operativo a partire dal 25 maggio 2018, Fonte Wikipedia
  4. Cosa cambia con la moratoria sui sistemi di riconoscimento facciale, Il Post (7 dicembre 2021)
  5. Reclaim Your Face. Firma la petizione per una nuova legge

Rossella Marvulli

Ho conseguito un master in comunicazione della scienza. Sono stata a lungo attivista e operatrice nelle realtà migratorie triestine. Su Melting Pot scrivo soprattutto di tecnologie biometriche di controllo delle migrazioni sui confini europei.