W 2017 roku algorytmy generowania treści przez Facebooka „bezpośrednio przyczyniły się do morderstw i innych okrucieństw” popełnianych przez wojsko Myanmaru wobec muzułmańskiej mniejszości Rohingya. Tak wynika z dochodzenia przeprowadzonego przez Amnesty International.
W 74-stronicowym raporcie działacze praw człowieka wymienili naruszenia praw Rohingya w ciągu ostatnich pięciu lat wśród systematycznych prześladowań i apartheidu. Od 2017 roku ludobójstwo pochłonęło życie ponad 25 tysięcy osób.
Według organizacji, Meta „znacząco przyczyniła się” do czystek etnicznych w Myanmarze, czerpiąc zyski z niezgody i nienawiści. W raporcie czytamy:
Masowe rozpowszechnianie wiadomości nawołujących do brutalności i ograniczania praw Rohingya, a także innych nieludzkich treści, podsyciło długotrwałą dyskryminację i znacznie zwiększyło ryzyko wybuchu przemocy.
Pod koniec 2016 roku siły zbrojne Myanmaru rozpoczęły serię rozpraw w Arakanie, gdzie duża populacja Rohingya żyła w przeludnionych gettach. Udokumentowano liczne przypadki łamania praw człowieka – pobicia, zabójstwa, gwałty, arbitralne aresztowania i przymusowe niewolnictwo.
Satelity zarejestrowały również materiał filmowy, na którym widać, jak wojsko spala tysiące domów. Okrucieństwa, w wielu przypadkach popełniane przez radykalnych buddyjskich nacjonalistów, nasiliły się na początku 2017 roku i wywołały falę rebelianckich kontrdziałań.
Siły zbrojne tego kraju rozpoczęły wtedy coś, co nazwały „Operacją Oczyszczenie”, ludobójczą kampanię, która obejmowała użycie artylerii, helikopterów szturmowych i min przeciwpiechotnych.
Według raportu, portale społecznościowe, takie jak Facebook, pomogły ekstremistycznym nacjonalistom nękać i dehumanizować Rohingya poprzez rozpowszechnianie ogromnego strumienia treści. Amnesty International zacytowała nauczyciela szkoły Rohingya Mohameda Ayasa:
Społeczeństwo zwykło podążać za swoimi przywódcami religijnymi, a kiedy ci wraz z rządem zaczęli dzielić się mową nienawiści na platformie, umysły ludzi się zmieniły.
Algorytmy Facebooka przyczyniają się do przemocy w świecie rzeczywistym
Jeszcze przed „eskalacją okrucieństw” sekretarz generalny organizacji praw człowieka Agnes Callamard powiedziała, że algorytmy Facebooka podsycają gniew wobec mniejszości, przyczyniając się do przemocy w świecie rzeczywistym. Podczas gdy wojsko Myanmaru popełniało zbrodnie przeciwko ludzkości, Meta kapitalizowała się na nienawiści stworzonej przez jej toksyczne algorytmy – dodała.
Callamard powiedziała również, że firma powinna zostać pociągnięta do odpowiedzialności i zmuszona do zrekompensowania wszystkim tym, którzy ponieśli konsekwencje jej lekkomyślnych działań.
Amnesty International wyróżniła przypadek postu Min Aung Hlainga jako jeden z „niezliczonych” przykładów dehumanizacji Rohingya przez algorytmy sieci społecznościowych. We wrześniu 2017 roku stwierdził on na Facebooku, że „w Birmie absolutnie nie ma rasy Rohingya”.
Gigant technologiczny zablokował jego konto dopiero rok później.
Rafael Frankel, dyrektor ds. polityki publicznej dla rynków wschodzących w Meta w APAC, powiedział, że firma wspierała wysiłki mające na celu pociągnięcie wojska do odpowiedzialności za jego zbrodnie przeciwko Rohingya.
W tym celu dobrowolnie i zgodnie z prawem dostarczyliśmy dane do mechanizmu śledczego ONZ w sprawie Myanmaru i Gambii, a także jesteśmy obecnie zaangażowani w proces składania skarg przez OECD.
Przypomnijmy, że w listopadzie 2021 roku izraelska armia wdrożyła rozbudowany system rozpoznawania twarzy w celu śledzenia Palestyńczyków na Zachodnim Brzegu.
W grudniu 2020 roku Alibaba przyznał, że opracował technologię AI do identyfikacji mniejszości ujgurskiej w Chinach.