Алгоритмы Facebook обвинили в «содействии» геноциду рохинджа в Мьянме

В 2017 году алгоритмы формирования контента Facebook «напрямую способствовали убийствам и другим зверствам», совершенным военными Мьянмы в отношении мусульманского меньшинства рохинджа. Об этом говорится в расследовании международной организации Amnesty International.

В 74-страничном отчете правозащитники привели перечень нарушений прав рохинджа за последние пять лет на фоне систематических преследований и апартеида. С 2017 года геноцид унес жизни более 25 000 человек.

По данным организации, Meta «существенно поспособствовала» этнической чистке в Мьянме, наживаясь на разногласиях и ненависти.

«Массовое распространение сообщений, подстрекающих к жестокости и ограничению прав рохинджа, а также другого антигуманного контента, подлило масла в огонь давней дискриминации и существенно увеличило риск вспышки насилия», — говорится в отчете.

В конце 2016 года Вооруженные силы Мьянмы начали серию репрессий в Ракхайне, где большая часть населения рохинджа жила в переполненных гетто. Были задокументированы многочисленные нарушения прав человека — избиения, убийства, изнасилования, произвольные аресты и принуждения к рабству.

Также спутники зафиксировали кадры, где военные сжигают тысячи домов. Зверства, многие из которых совершали радикальные буддийские националисты, обострились в начале 2017 года и вызвали волну контратак повстанцев.

Тогда Вооруженные силы страны начали так называемую «операцию по очистке» — кампанию геноцида, которая включала использование артиллерийского оружия, боевых вертолетов и противопехотных мин.

Согласно отчету, социальные сети вроде Facebook помогали экстремистским националистам преследовать и дегуманизировать рохинджа за счет распространения огромного потока контента.

«Раньше общественность следовала за своими религиозными лидерами, и когда те вместе с правительством начали делиться ненавистническими высказываниями на платформе, сознание людей изменилось», — цитирует Amnesty International школьного учителя рохинджа Мохамеда Аяса.

По словам генерального секретаря правозащитной организации Аньес Калламар, еще до «обострения злодеяний» алгоритмы Facebook разжигали злобу к меньшинствам, что способствовало насилию в реальном мире. Пока военные Мьянмы совершали преступления против человечности, Meta извлекала выгоду из эхо-камеры ненависти, созданной ее токсичными алгоритмами, добавила она.

Калламар также заявила, что компанию необходимо привлечь к ответственности и заставить возместить ущерб всем тем, кто пострадал от последствий ее безрассудных действий.

В качестве одного из «бесчисленного множества» примеров по дегуманизации рохинджа алгоритмами соцсети Amnesty International выделила случай с постом Мин Аун Хлайна. В сентябре 2017 года военачальник заявил в Facebook, что «в Мьянме абсолютно нет расы рохинджа».  

Техгигант заблокировал его аккаунт только через год.

Директор по государственной политике для развивающихся рынков Meta в АТР Рафаэль Франкель заявил, что компания поддерживает усилия по привлечению военных к ответственности за их преступления против рохинджа.

«С этой целью мы добровольно и законно предоставили данные Следственному механизму ООН по Мьянме и Гамбии, а также в настоящее время участвуем в процессе подачи жалоб в ОЭСР», — сказал он.

Напомним, в ноябре 2021 года израильская армия развернула обширную систему распознавания лиц для отслеживания палестинцев на Западном берегу реки Иордан.

В декабре 2020 года компания Alibaba признала, что разработала ИИ-технологию для выявления уйгурского меньшинства в Китае.

Подписывайтесь на наш Telegram и будьте в курсе последних новостей!
Чтобы оставить комментарий необходимо или зарегистрироваться