Mjanmar: Facebookov sistem je promoviral nasilje nad Rohingami

Nevarni algoritmi Mete, ki ima v lasti Facebook, in nepremišljeno zasledovanje dobičkov so pomembno prispevali h grozodejstvom, ki jih je mjanmarska vojska leta 2017 zagrešila nad ljudstvom Rohinga, v novem poročilu ugotavlja Amnesty International.

Poročilo z naslovom The Social Atrocity: Meta and the right to remedy for the Rohingya podrobno opisuje, da je Meta vedela ali pa bi morala vedeti, da algoritmični sistemi Facebooka dajejo v Mjanmarju ogromen zagon širjenju škodljivih vsebin, usmerjenih zoper Rohinge, a podjetje kljub temu ni ukrepalo.

»Tisoče Rohing so v letu 2017 ubili, mučili, posiljevali in prisilili, da so zapustili svoj dom, kot del kampanje etničnega čiščenja mjanmarskih varnostnih sil. V mesecih in letih pred grozodejstvi so algoritmi Facebooka krepili nevihto sovraštva proti Rohingam, ki je prispevala k nasilju v fizičnem svetu,« je dejala generalna sekretarka Amnesty International Agnès Callamard.

»Medtem ko je mjanmarska vojska proti Rohingam izvajala hudodelstva zoper človečnost, je Meta kovala dobičke v ‘mehurčkih’ sovraštva, ustvarjenih z njenimi algoritmi, ki so poganjali špiralo sovraštva.«

»Meta mora odgovarjati. Podjetje ima odgovornost, da zagotovi odškodnine vsem, ki so trpeli nasilne posledice njihovih nepremišljenih akcij.«

Sawyeddollah, 21-letni begunec po poreklu Rohinga, je Amnesty International povedal: »Na Facebooku sem videl veliko groznih stvari. In sem mislil, da so le ljudje, ki to objavljajo, slabi … Potem pa sem spoznal, da ne gre le za te ljudi – ki objavljajo – ampak je odgovoren tudi Facebook. Facebook jim pomaga, ker ne skrbi za svojo platformo.«

Ukrepajte! Kliknite in podpišite peticijo za Meto oz. njenega glavnega izvršnega direktorja Marka Zuckerberga. 

Rohinge so večinsko muslimanska etnična manjšina, ki živi na severu mjanmarske zvezne države Rakhine. Avgusta 2017 jih je več kot 700.000 zbežalo iz te države, ko so mjanmarske varnostne sile proti njim sprožila ciljno usmerjeni pregon, zaznamovan s široko razširjenim in sistematičnim ubijanjem, posiljevanjem in požiganjem domov. Nasilje je sledilo desetletjem državne diskriminacije, preganjanja in zatiranja, ki predstavlja apartheid. 

»Mehurčki« na Facebooku, usmerjeni proti Rohingam

Meta uporablja algoritmični sistem, ki temelji na interakcijah uporabnikov_ic (engagement-based algorithmic systems), s čimer poganja t. i. news feed, razporeditev objav, priporočila in lastnosti skupin, s čimer oblikuje, kar se vidi na platformi. Meta ima dobiček, če uporabniki_ce Facebooka čim dlje ostajajo na platformi, s čimer prodajo več ciljno usmerjenega oglaševanja. Prikazovanje vsebin, ki hujskajo – vključno s takimi, ki promovirajo sovraštvo, predstavljajo hujskanje k nasilju, sovražnosti in diskriminaciji – je učinkovit način, da se ljudi dlje časa zadrži na platformi. Promocija in pomnožitev take vsebine sta ključna za poslovni model Facebooka, ki temelji na nadzoru (surveillance-based).

V mesecih in letih pred zatrtjem je Facebook v Mjanmarju postal »mehurček«, v katerem so odmevale vsebine, usmerjene zoper Rohinge. Ljudje, povezani z mjanmarsko vojsko in radikalnimi budističnimi nacionalnimi skupinami, so preplavili platformo s protimuslimanskimi vsebinami; objavljali so dezinformacije, da grozi takojšnji muslimanski prevzem, ter prikazovali Rohinge kot vsiljivce. 

V enem zapisu, ki je bil deljen več kot tisočkrat, je bil muslimanski zagovornik človekovih pravic označen in opisan kot »nacionalni izdajalec«. Komentarji pod zapisom so vključevali grozeča in rasistična sporočila, vključno z »On je musliman. Muslimani so psi in jih je treba ustreliti.« ter »Ne ga pustiti živega. Odstranite vso njegovo raso. Čas teče.«

Vsebine, ki so hujskale k nasilju in diskriminaciji, so prihajale iz samega vrha mjanmarskega in civilnega vodstva. Višji general Min Aung Hlaing, vodja mjanmarske vojske, je leta 2017 na svoji strani na Facebooku objavil: »Odprto izjavljamo, da v naši državi absolutno ni rohinške rase.« Kasneje je v državnem udaru februarja 2021 prevzel oblast. 

Meddržavno sodišče (International Court of Justice) je julija 2022 odločilo, da ima jurisdikcijo, da zaradi ravnanja Mjanmarja z Rohingami proti mjanmarski vladi sproži primer na podlagi konvencije o preprečevanju genocida. Amnesty International pozdravlja ta pomemben korak v smeri zagotavljanja odgovornosti mjanmarske vlade ter še naprej poziva, da se višje predstavnike mjanmarske vojske za njihovo vlogo v zločinih zoper Rohinge privede pred sodišče.

Leta 2014 je Meta poskušala podpreti proti-sovražno pobudo, znano kot ‘Panzagar’ ali ‘rožni govor’, s tem, da je ustvarila nalepko, ki so jo lahko uporabniki_ce uporabili_e v odziv na objave, ki so zagovarjale nasilje ali diskriminacijo. Nalepke so imele sporočila, kot sta: »Premisli, preden deliš« in »Ne bodi vzrok za nasilje.« 

Aktivisti_tke pa so kmalu ugotovili_e, da imajo nalepke nenačrtovane posledice. Algoritmi Facebooka so nalepke interpretirali kot znak, da ljudje v teh objavah uživajo in so jih začeli promovirati. Namesto da bi nalepke zmanjšale število objav ljudi, ki so videli objave, ki so hujskale k sovraštvu, so te objave naredile še za bolj vidne.

 Neodvisna mednarodna misija ZN za odkrivanje dejstev glede Mjanmara (UN’s Independent International Fact-Finding Mission on Myanmar) je sklenila, da je bila »vloga družbenega medija pomembna« pri grozodejstvih v državi, kjer »Facebook je internet«.

»Rohinge sanjamo, da bi živele na isti način kot drugi ljudje v svetu … ampak ti, Facebook, ti si uničil naše sanje.«

Mohamed Showife, rohinški aktivist

Facebook ni ukrepal

V poročilu je podrobno predstavljeno, kako Meti večkrat ni uspelo izpeljati primerne ocene dolžne skrbnosti za človekove pravice glede svojega delovanja v Mjanmarju, čeprav jo k temu zavezujejo mednarodni standardi.

Notranje študije, ki segajo vse do leta 2012, kažejo na to, da je Meta vedela, da bi lahko njeni algoritmi imeli za posledico resno škodo v realnem svetu. Metina lastna raziskava iz leta 2016 je jasno prepoznala, da »naš sistem priporočil povečuje problem« ekstremizma.

V letih 2012 do 2017 so lokalni aktivisti_tke civilne družbe Meto večkrat obiskali in ji tudi pošiljali sporočila, da podjetje tvega, da prispeva k ekstremnemu nasilju. Leta 2014 so oblasti v Mjanmarju celo začasno blokirale dostop do Facebooka v povezavi z vlogo platforme kot sprožilca izbruha etničnega nasilja v Mandalayju. A v Meti vedno znova tem opozorilom niso namenili ustrezne pozornosti, prav tako dosledno niso uveljavljali svojih lastnih politik glede sovražnega govora. 

Preiskava Amnesty International vsebuje analizo novih dokazov iz Facebook Papers, internih dokumentov, ki jih je javnosti razkrila Frances Haugen.

»Iz različnih virov imamo dokaze, da sovražni govor, politični govor, ki ustvarja delitve, in misinformacije na Facebooku … vplivajo na družbe po vsem svetu. Imamo tudi utemeljene dokaze, da je mehanika naših osnovnih produktov, kot so na primer viralnost, priporočila in optimiziranje interakcij, pomemben del tega, zakaj ti načini govora uspevajo na platformi.”

Oseba, zaposlena pri Meti, 2019