Per la libertà di movimento, per i diritti di cittadinanza
/

L’impatto degli algoritmi sui diritti umani: il caso dei Rohingya in Myanmar

Tesi di Laurea magistrale di Albertina Sanchioni

Foto di Amnesty International

Papers, una rubrica di Melting Pot per la condivisione di tesi di laurea, ricerche e studi.
Per pubblicare il tuo lavoro consulta la pagina della rubrica e scrivi a [email protected].


Università La Sapienza di Roma
Facoltà di Scienze Politiche, Sociologia, Comunicazione
Dipartimento di Scienze Politiche
Corso di laurea in Relazioni Internazionali

L’impatto degli algoritmi sui diritti umani: il caso dei Rohingya in Myanmar

di Albertina Sanchioni (Anno accademico 2021-2022)

Introduzione

Alla base del presente lavoro vi è la volontà di indagare e approfondire i meccanismi di moderazione del discorso d’odio – anche detto hate speech – all’interno delle maggiori piattaforme social. In particolare, si pone l’attenzione sulle possibili violazioni di diritti umani connesse alla content moderation all’interno dei social media, con un focus specifico su Facebook e i suoi algoritmi. Il caso su cui pone il focus è quello dei Rohingya in Myanmar: lo chiamano il “popolo dimenticato”, è la storia di uno dei gruppi più perseguitati al mondo. Durante le persecuzioni del 2017, gli algoritmi di Facebook hanno contribuito alla diffusione di un sentimento antimusulmano nel Paese e all’amplificarsi delle violenze.

L’obiettivo di questa ricerca è quello di fornire un quadro analitico della situazione attuale delle big tech in relazione alle possibili influenze che esse possono avere nell’incentivare messaggi d’odio in contesti particolarmente instabili, quali zone di conflitto interno, guerre civili, genocidi, o più generalmente in ambiti in cui le discriminazioni offline nei confronti di minoranze sono amplificate da hate speech online. Le piattaforme sono attori ibridi, agiscono a metà tra un organismo privato ed un organismo pubblico, e la normativa in ambito comunitario ed internazionale spesso non riesce ad intervenire in modo realmente incisivo laddove sopraggiungano situazioni di illecito – come nel caso dello scandalo di Cambridge Analytica – o laddove le piattaforme siano le sedi in cui il discorso d’odio si propaga nei confronti di minoranze già vulnerabili nel mondo offline.

Due gli interrogativi alla base della ricerca: qual è il ruolo delle piattaforme social media – in particolare Facebook – nella moderazione dei discorsi d’odio? In quali termini Facebook fu responsabile del propagarsi delle violenze e del genocidio nei confronti del popolo Rohingya in Myanmar?

Nel primo capitolo l’analisi si concentra sui big data, grandi quantità di dati a disposizioni delle piattaforme big tech, di gran lunga superiori a quelle gestibili dalle banche dati tradizionali, e sulla regolamentazione delle piattaforme stesse, con un focus particolare sulle recenti introduzioni comunitarie del Digital Services Act e del Digital Markets Act. Il secondo capitolo si sofferma sulla diffusione dell’hate speech all’interno delle piattaforme social media e sulle modalità di moderazione – di tipo algoritmico o umano – degli stessi discorsi d’odio. Il discorso d’odio non trova una definizione univoca, sia a livello online che offline, per questo definire i limiti dell’intervento delle piattaforme, sia a livello internazionale, che comunitario, che nazionale, risulta urgente e necessario.

Nel terzo capitolo, infine, si è scelto di focalizzarsi su un caso particolare di diffusione di discorso d’odio all’interno di Facebook, quello nei confronti del popolo Rohingya in Myanmar, e dell’inazione della piattaforma nell’oscurare questi messaggi. Una class action da parte di rifugiati Rohingya è stata presentata nei confronti della big tech – Doe v. Meta (2021) – con l’intento di procedere all’acquisizione di una qualche forma di risarcimento per i profughi Rohingya a Cox’s Baxar (Bangladesh) e nel mondo.

Alla base della ricerca vi è la consapevolezza che il caso del popolo Rohingya non è isolato, ma che l’inazione e l’inadeguatezza delle piattaforme nell’oscurare messaggi d’odio sta attualmente danneggiando – e lo farà in futuro – diverse minoranze già sufficientemente perseguitate in altre parti del mondo. Tra le numerose piattaforme esistenti nel panorama virtuale, Facebook agisce in un ruolo di preminenza rispetto alle altre, e opera attualmente in un ambito precedentemente riservato agli Stati. È l’organo di governo di uno spazio – uno spazio digitale, ma pur sempre uno spazio – popolato da centinaia di milioni di persone per lunghi periodi di tempo, e in questo ruolo regolamenta il dibattito, e con esso anche i messaggi d’odio.

Albertina Sanchioni

Mi sono laureata in Sicurezza Globale con una tesi sulle implicazioni sui diritti umani degli algoritmi relativi all’hate speech nei social network, con un focus sul caso del popolo Rohingya in Myanmar.
Volontaria dello sportello anti-tratta a Torino, frequento il Master in “Accoglienza e inclusione dei richiedenti asilo e rifugiati” all’Università Roma Tre.