Per la libertà di movimento, per i diritti di cittadinanza
///

Ceuta e Melilla: implementazione dell’Intelligenza Artificiale alla frontiera e la violazione dei diritti

Un appello delle associazioni spagnole

Photo credit: Antonio Sempere

Recentemente è apparsa sulla stampa la notizia dell’intenzione del governo spagnolo di applicare la cosiddetta “frontiera intelligente ai valichi di frontiera di Ceuta e Melilla per esercitare un maggiore controllo di sicurezza attraverso l’uso dell’Intelligenza Artificiale raccogliendo dati biometrici (riconoscimento facciale, impronte digitali…).

Di fronte a questa notizia, noi che abbiamo sottoscritto questo appello esprimiamo la nostra preoccupazione e crediamo sia necessario mettere in guardia dai pericoli associati a questo tipo di decisioni politiche che coinvolgono l’uso dell’intelligenza artificiale.

I severi controlli alle frontiere sono spazi di potenziale violazione dei diritti:

  • Violazione dei diritti fondamentali: l’impatto sui diritti fondamentali che la raccolta di dati biometrici può avere in futuro, come sta già accadendo in applicazione della Convenzione di Dublino. I trasferimenti di richiedenti asilo da uno Stato membro all’altro contro la loro volontà, che sono aumentati negli ultimi anni, sono stati in parte facilitati dalla raccolta di dati biometrici, come le loro impronte digitali.
  • Violazione della privacy: i dati biometrici sono dati intrinseci agli individui. La raccolta di dati biometrici su persone senza passaporto europeo non rispetta il principio di proporzionalità. Queste persone sono spesso in una situazione vulnerabile e non si prendono in considerazione le conseguenze involontarie di avere dati biometrici di persone che non possono far affidamento a meccanismi adeguati di protezione, salvaguardia e ricorso.
  • Discriminazione e criminalizzazione. L’applicazione della “frontiera intelligente” come elemento della lotta contro il terrorismo costituisce un pericolo di discriminazione e criminalizzazione e la trasforma in un nuovo dispositivo razzista all’interno dello Stato spagnolo. Le politiche antiterrorismo si sono spesso rivelate uno strumento per la diffusione dell’islamofobia, che hanno avuto come conseguenza una generale opposizione nei confronti della popolazione migrante e razzializzata. È noto che gli algoritmi di riconoscimento facciale spesso producono falsi positivi e falsi negativi su volti non caucasici, il che, in questo particolare contesto, potrebbe avere gravi conseguenze per le persone erroneamente identificate come sospetti terroristi. L’uso dell’IA per il controllo delle frontiere renderebbe più profonde la stigmatizzazione e la criminalizzazione di gruppi di persone che sono già altamente vulnerabili e/o escluse.
  • Trasparenza e auditing. La procedura soffre di una mancanza di trasparenza sia nella forma che nella sostanza. Non c’è anche alcuna menzione dell’auditing e della divulgazione degli algoritmi. Secondo le informazioni disponibili, non si fa riferimento al fatto che gli algoritmi impiegati possano essere verificabili e/o spiegabili, né ai meccanismi di tracciabilità che permetterebbero la supervisione umana, né a politiche di protezione dei dati.
  • Meccanismi di controllo e revisione. È essenziale incorporare meccanismi di controllo e revisione delle procedure algoritmiche che permettano di correggere rapidamente gli errori a gruppi indipendenti di persone a cui devono poter partecipare le organizzazioni a difesa dei diritti umani e antirazziste. L’uso di questi sistemi di riconoscimento facciale implica una doppia “securitizzazione” del processo, che stigmatizza ma anche ne diminuisce la responsabilità umana e politica per qualsiasi danno, effetti indesiderati o conseguenze negative.

Per tutti questi motivi, l’applicazione di meccanismi di intelligenza artificiale nel controllo delle frontiere pone un pericolo di violazione dei diritti umani, discriminazione, criminalizzazione e violazione della privacy.

Perciò chiediamo:

  • L’applicazione del regolamento sull’AI e la protezione dei dati elaborato dalla Commissione europea anche a contesti e situazioni considerate di tipo “securitario”, non può esserci un vuoto giuridico in questo settore.
  • L’abrogazione del regolamento UE 2017/2226 del Parlamento europeo e del Consiglio 30/11/17 che permette il riconoscimento facciale.
  • La necessità di informazione e di consenso informato all’uso di questi sistemi, anche se vengono implementati e distribuiti.
  • Incorporazione sistematica di osservatori dei diritti umani nelle azioni di frontiera.
  • Applicazione di tecnologie spiegabili e verificabili, audit e controllo esterno delle tecnologie applicate, dei dati e delle immagini raccolte.
  • Affinché la supervisione e il controllo della società civile possano essere effettuati in modo rigoroso, i processi di progettazione e test dei sistemi, compresi i database utilizzati per calibrare gli algoritmi, devono essere messi a disposizione di audit indipendenti e delle persone interessate.

Le adesioni complete a questo appello sono disponibili sul blog Fronteras Digitales