Per la libertà di movimento, per i diritti di cittadinanza

I campi profughi come banco di prova per le nuove tecnologie. Intervista ad Ariana Dongus

di Vanessa Graf

Iris-Scan in un supermercato nel campo profughi di Zaatari © Muhammad Hamed/Reuters

È una scelta apparentemente semplice: o acconsenti alla scansione dell’iride, e accetti tutti i possibili rischi connessi alla sicurezza dei dati, o non acconsenti e perdi la tua richiesta di protezione e il tuo stato di rifugiato. Questa è l’amara realtà in molti campi profughi gestiti dall’UNHCR, nonché il modo in cui vengono sperimentate le nuove tecnologie nel sud del mondo prima che siano riconosciute come sicure e quindi adatte ai mercati occidentali.

Ariana Dongus ha analizzato queste strategie di digitalizzazione usate nei campi UNHCR all’interno del suo progetto di ricerca presso il KIM/Center for Critical Studies in Machine Intelligence (Karlsruhe). Insieme a Christina zur Nedden ha pubblicato un articolo sullo stesso argomento sul settimanale tedesco Die Zeit intitolato “Getestet an Millionen Unfreiwillingen” (“Testato su milioni di soggetti involontari”). Durante l’Ars electronica festival (7-8 settembre 2018) ha presentato una ricerca sul ricorso alla biometria come continuazione dei rapporti coloniali, nonché sulla produzione, da parte dei rifugiati, di una nuova forma di lavoro immateriale.

La presente intervista è stata rilasciata in occasione del ciclo di conferenze organizzate durante il festival.

Il titolo del tuo intervento all’interno del seminario “Falsità, responsabilità e strategie” è The camp as labo(u)ratory. Qual è il significato dietro questo gioco di parole?

Ariana Dongus: Mi riferisco all’uso della biometrica nei campi profughi dell’UNHCR. Le scansioni biometriche sui rifugiati sono diventate un elemento centrale nelle strategie di digitalizzazione sfruttate nei campi UNHCR di tutto il mondo. Nella mia ricerca una delle ipotesi avanzate è che questo tipo di campi siano una sorta di laboratorio all’interno del quale questo tipo di tecnologia viene testata su essere umani che non hanno, di fatto, nessuna libertà di scelta, per essere preparata alla commercializzazione. Quali sono le condizioni in cui uomini e donne, all’interno di questi campi, diventano una massa di cavie, e quali continuità si rilevano con logiche di fatto coloniali? Un secondo focus su cui mi sto concentrando sono invece le politiche economiche dei campi. Fino a che punto i profughi biometricamente registrati stanno producendo una nuova forma di lavoro immateriale e in quale misura i data prodotti hanno un valore? Personalmente ritengo che queste persone facciano parte di una catena di valore aggiunto di mercati che hanno elaborato un nuovo modo di sfruttare le minoranze e i poveri. I difensori di questi progetti li inquadrano come un “Banking the Unbanked”, un “Banking the Poor”, o li definiscono la quarta rivoluzione industriale.

Dalla fine della Guerra Fredda e in crescente risposta alle numerose crisi politiche, ecologiche ed economiche, nonché ai nuovi conflitti, l’UNHCR ha costruito campi profughi in tutto il mondo. Il campo profughi però rappresenta, in maniera allegorica, il prodotto della deregulation mondiale del 21esimo secolo. L’UNHCR è un’istituzione che opera a livello locale, nazionale e internazionale.

Prende decisioni che si ripercuotono sulla vita e sulla morte di milioni di persone e costringe alcune di queste nei propri campi, come hanno mostrato gli studi di Michel Agier. I cosiddetti accampamenti di queste persone – i loro “depositi”, come suggerisce la parola tedesca Lager – sono la diretta manifestazione di un perenne stato di emergenza.

Una porzione piuttosto significativa della popolazione mondiale vive ormai nei campi profughi; in molti ci hanno trascorso interi decenni. Il rapporto UNHCR del 2016 contava che le persone che avevano abbandonato le proprie abitazioni ammontavano a 65,6 milioni: si tratta di numeri mai visti prima. Il modo in cui la vita di queste persone viene trattata all’interno di questi campi è indicativo dell’organizzazione, amministrazione e sfruttamento produttivo da parte dell’UNHCR nei confronti di “persone non gradite”. In aggiunta, il fatto che l’UNHCR sia in possesso dei dati biometrici di milioni di persone crea un forte disequilibrio nei rapporti di forza.

I contesti di insicurezza, stato d’emergenza e urgenza rendono automaticamente ognuna delle azioni messe in atto dall’UNHCR un progetto sperimentale. Ciò nonostante, il ricorso a procedure sperimentali e a tecnologie come la biometrica all’interno di contesti tanto fragili è, esattamente per questo motivo, estremamente controverso. Le sperimentazioni tecnologiche vengono portate avanti e legittimate proprio in riferimento a quest’emergenza, che necessita di una risposta rapida e improrogabile. Nel mondo occidentale, le nuove tecnologie vengono testate sotto determinate condizioni prima di essere pronte per il mercato. In questo caso, invece, sono i campi profughi a fungere da laboratori e i rifugiati da cavie.

Tu e Christina zur Nedden avete di recente riportato di un campo in Giordania nel quale i rifugiati sono registrati tramite scansione dell’iride, che lo vogliano o meno. Qual è lo scopo di una scansione dell’iride? Cosa succede a coloro che si rifiutano?

Ariana Dongus: La scansione biometrica viene praticata su tutti i rifugiati nel momento in cui accedono per la prima volta a un campo. Senza la scansione dell’iride, perdono lo status di rifugiato e non ricevono alcun aiuto. Di conseguenza il rifiuto non è un’opzione.

A giustificare queste pratiche concorrono le necessità di un’organizzazione più efficiente e di prevenire doppie registrazioni. Questo genere di tecnologia viene definita doppelganger-safe ma, allo stesso tempo, credo che questo significhi uno scivolamento paradigmatico dell’immaginario sui rifugiati: sulle persone confluite all’interno di un campo UNHCR grava il sospetto diffuso e generalizzato che siano truffatoriinvece che, prima di ogni altra cosa, persone in cerca d’aiuto che dovrebbero ricevere sostegno. Potranno averne solo dopo essersi registrate.

Il ciclo di conferenze in cui compare il tuo intervento ha a che fare, tra le altre cose, con la responsabilità. Qual è il tuo giudizio sulla situazione nel campo giordano? Quali responsabilità si assume l’UNHCR nell’adottare un dispositivo come IrisGuard e, per converso, quali responsabilità avoca?

Ariana Dongus: IrisGuard è una compagnia che offre soluzioni end-to-end, il che significa che fornisce da sola l’hardware, il software e la piattaforma cloud in cui tutti i dati sono salvati. Questi ultimi vengono salvati anche in un database a Ginevra, in Svizzera, ma il cloud li rende contemporaneamente disponibili in tutto il mondo. Stando a IrisGuard, nessuno al di fuori dell’UNHCR ha accesso a quei dati. Al di là di ciò, non pochi interrogativi rimangono aperti – ad esempio come vengano impiegati i dati raccolti nei supermercati che, ovviamente, registrano chi ha comprato cosa, quando etc.

Perciò, in base alle dichiarazioni di IrisGuard, tutte le responsabilità spettano all’UNHCR.

Non è una cattiva mossa, dal punto di vista legale, dal momento che l’UNHCR non è legalmente perseguibile in caso, ad esempio, di un comprovato cattivo utilizzo dei data, fughe di notizie o misure inefficaci di protezione dell’accesso ai computer. Non saprei dire con certezza se si può parlare di un tentativo, da parte di entrambi i partner, di scaricare la responsabilità sull’altro, ma quel che a me sembra evidente è che, nel workflow che registra biometricamente milioni di persone, viene riposta grande fiducia nella tecnologia come strumento neutrale, privo di valore e quindi, forse, investito di eccessive responsabilità.

In generale, l’UNHCR sta lavorando sempre più, sul piano operativo, in partnership pubblico-private e un’ampia fetta del processo di erogazione degli aiuti è esternalizzata al settore privato. All’interno di questo, la maggior parte è costituita da imprese commerciali con modelli imprenditoriali basati sui big data. Ormai anche gli amministratori delle organizzazioni umanitarie sembrano convinti del fatto che i dati raccolti su larga scala possano rivelare modelli di fisica sociale. Il tutto accade all’interno di un quadro in cui l’UNHCR promuove come proprio principio base un’attitudine in linea con quelle che si stanno affermando tra le startup statunitensi.

Personalmente, sulla scorta di quanto detto, io definirei una strategia coloniale il fatto che uno slogan della Silicon Valley, «fallisci in fretta, spesso e presto», sia diventato il principio-guida che i vertici manageriali dell’UNHCR applicano a questo tipo di partnership e che traspongono, quasi fosse un mantra basato sulla fede, al terreno inesplorato dei campi profughi. In particolare, la promozione di tecnologie presumibilmente neutrali e apolitiche, destinate a sostituire l’azione politica, dimostra un aggressivo utopismo tecnologico che sposta le responsabilità di quest’acuta emergenza sulle spalle dei rifugiati stessi.

Per quanto mi riguarda sono dell’idea che tutto questo concorra a creare una situazione precaria – il miglioramento della quale rimane la missione dell’UNHCR – e diffonda un clima di diffidenza a scapito dei rifugiati. Dal 2016 ad oggi, la registrazione biometrica di tutti i profughi è stata parte della strategia di base dell’UNHCR per organizzare la gestione dell’identità e istituzionalizzare la distribuzione di contanti. In passato si usava distribuire le razioni di cibo, oggi invece, sempre più, viene elargito del denaro o si opta per un sistema di pagamento cashless, il che significa che nei supermercati dei campi il rifugiato paga battendo le palpebre!

Quali sono i rischi e i vantaggi di un simile sistema di riconoscimento biometrico?

Ariana Dongus: Personalmente temo che non sappiamo ancora, con certezza, cosa potrebbe succedere con l’utilizzo dei data, fondamentalmente perché si tratta di una realtà relativamente nuova. Al momento della registrazione, i rifugiati sono tenuti a firmare una liberatoria: abbiamo chiesto all’UNHCR di visionarla, ma la nostra richiesta è stata rifiutata. Insomma, è abbastanza dubbio che queste persone siano realmente informate su cosa verrà fatto dei loro data.

In Giordania, ad esempio, l’UNHCR inoltra i dati delle scansioni dell’iride alla Cairo Amman Bank. Le transazioni vengono coordinate da qui e alcune vengono effettuate usando cripto-valute come l’Ethereum. Non è affatto chiaro se queste persone ne siano al corrente, ed è ancora più dubbio se – e, in caso affermativo, in che misura – questa banca condivida questi dati con terze parti. Date le condizioni, credo sia altamente problematico che non venga offerta nessuna alternativa. Con chi vengono condivisi questi dati? Oltre 68.000 Rohingya, una minoranza musulmana perseguitata in Myanmar, sono fuggiti dall’orrore e dalle violenze entrando in Bangladesh. Le loro impronte digitali, i loro occhi e i loro visi sono stati registrati biometricamente e l’UNHCR ha condiviso i dati raccolti con il governo del Bangladesh. Nella scorsa primavera (ndt, 2018) il Bangladesh ha avviato delle negoziazioni con il governo del Myanmar per rispedire indietro queste persone, e insieme a loro i loro dati. Ora, consideriamo cosa può significare una cosa come questa per una minoranza perseguitata nel loro Paese d’origine a causa della loro identità. Questi database possono avere conseguenze sulla loro salvaguardia, se cadono nelle mani sbagliate! È un problema non da poco.

Un altro pericolo proviene poi da qualcosa che è strutturalmente insito in questa tecnologia, vale a dire la tendenza a discriminare. Queste tecnologie funzionano attraverso schemi generati automaticamente – viene scattata una fotografia dell’occhio o del viso di una persona e un algoritmo la converte in un codice a barre. Si tratta di un processo standardizzato che il ricercatore Joseph Pugliese ha definito “strutturalmente bianco”: il che significa che tutti gli occhi e le facce che si discostano dalla “norma” spesso non vengono riconosciuti o sono identificati erroneamente, il che può generare tutta un’altra serie di errori.

Credo che un trattare in modo responsabile questi dati debba sempre significare dare la massima priorità ai diritti e alla sicurezza degli esseri umani. L’elaborazione di approcci che mettano realmente al centro dell’attenzione le persone e le loro esigenze è una questione pressante all’interno delle discussioni attuali di molte ONG.

Insieme a Christina zur Nedden, ho intervistato Zara Rahman, attivista dell’ONG The Engine Room in collaborazione con la nostra ricerca. Seguono criticamente e attivamente il lavoro dell’UNHCR e stanno si stanno sforzando di mostrare in che modo attivisti e organizzazioni possono essere d’aiuto nella gestione responsabile e nell’uso dei data come agenti di cambiamento sociale.

In generale, è evidente che le applicazioni della biometrica costituiscano un mercato in rapida espansione. Non riguardano solo i campi profughi – l’iPhone X, con il suo software per il riconoscimento facciale, ne è un esempio. Ma è altrettanto chiaro che queste applicazioni possono essere considerate sicure per il mercato occidentale solo una volta testate nei Paesi del sud globale, come la sociologa Katja Lindskov Jacobsen ha presentato dettagliatamente nel suo studio.

Va da sé che, allo stesso tempo, nei mercati occidentali deve esserci interesse per questa tecnologia, ma c’è anche – e questa è una costante storica che affonda le proprie radici ancora prima del colonialismo – una storia segreta di sperimentazione delle tecnologie sui corpi delle minoranze in condizioni di insicurezza così da renderle sicure per i cittadini dei Paesi occidentali. Anche in questo caso ci si chiede che tipo di lavoro è questo…

Penso che questa possa essere definita una nuova prassi, operativa su scala mondiale, che dà assolutamente per scontato che il processo identitario implichi la registrazione dei tratti biologici e la misurazione del corpo umano per generare dati biometrici e genetici. Queste identità digitali sono archiviate in database che sono inclini all’errore, altamente problematici e di grande valore. L’autrice/regista Hito Steyerl lo ha riassunto così alcuni anni fa: «Identità è il nome della battaglia che si combatte sul tuo codice, sia esso genetico, informativo o visivo».