В 2017 году алгоритмы формирования контента Facebook «напрямую способствовали убийствам и другим зверствам», совершенным военными Мьянмы в отношении мусульманского меньшинства рохинджа. Об этом говорится в расследовании международной организации Amnesty International.
В 74-страничном отчете правозащитники привели перечень нарушений прав рохинджа за последние пять лет на фоне систематических преследований и апартеида. С 2017 года геноцид унес жизни более 25 000 человек.
По данным организации, Meta «существенно поспособствовала» этнической чистке в Мьянме, наживаясь на разногласиях и ненависти.
«Массовое распространение сообщений, подстрекающих к жестокости и ограничению прав рохинджа, а также другого антигуманного контента, подлило масла в огонь давней дискриминации и существенно увеличило риск вспышки насилия», — говорится в отчете.
В конце 2016 года Вооруженные силы Мьянмы начали серию репрессий в Ракхайне, где большая часть населения рохинджа жила в переполненных гетто. Были задокументированы многочисленные нарушения прав человека — избиения, убийства, изнасилования, произвольные аресты и принуждения к рабству.
Также спутники зафиксировали кадры, где военные сжигают тысячи домов. Зверства, многие из которых совершали радикальные буддийские националисты, обострились в начале 2017 года и вызвали волну контратак повстанцев.
Тогда Вооруженные силы страны начали так называемую «операцию по очистке» — кампанию геноцида, которая включала использование артиллерийского оружия, боевых вертолетов и противопехотных мин.
Согласно отчету, социальные сети вроде Facebook помогали экстремистским националистам преследовать и дегуманизировать рохинджа за счет распространения огромного потока контента.
«Раньше общественность следовала за своими религиозными лидерами, и когда те вместе с правительством начали делиться ненавистническими высказываниями на платформе, сознание людей изменилось», — цитирует Amnesty International школьного учителя рохинджа Мохамеда Аяса.
По словам генерального секретаря правозащитной организации Аньес Калламар, еще до «обострения злодеяний» алгоритмы Facebook разжигали злобу к меньшинствам, что способствовало насилию в реальном мире. Пока военные Мьянмы совершали преступления против человечности, Meta извлекала выгоду из эхо-камеры ненависти, созданной ее токсичными алгоритмами, добавила она.
Калламар также заявила, что компанию необходимо привлечь к ответственности и заставить возместить ущерб всем тем, кто пострадал от последствий ее безрассудных действий.
В качестве одного из «бесчисленного множества» примеров по дегуманизации рохинджа алгоритмами соцсети Amnesty International выделила случай с постом Мин Аун Хлайна. В сентябре 2017 года военачальник заявил в Facebook, что «в Мьянме абсолютно нет расы рохинджа».
Техгигант заблокировал его аккаунт только через год.
Директор по государственной политике для развивающихся рынков Meta в АТР Рафаэль Франкель заявил, что компания поддерживает усилия по привлечению военных к ответственности за их преступления против рохинджа.
«С этой целью мы добровольно и законно предоставили данные Следственному механизму ООН по Мьянме и Гамбии, а также в настоящее время участвуем в процессе подачи жалоб в ОЭСР», — сказал он.
Напомним, в ноябре 2021 года израильская армия развернула обширную систему распознавания лиц для отслеживания палестинцев на Западном берегу реки Иордан.
В декабре 2020 года компания Alibaba признала, что разработала ИИ-технологию для выявления уйгурского меньшинства в Китае.
Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!
Источник: https://forklog.com/news/algoritmy-facebook-obvinili-v-sodejstvii-genotsidu-rohindzha-v-myanme
Подпишитесь на телеграм-канал @FeedBitcoin и будьте в курсе всех событий в мире биткоин и криптовалют!
Биткоин бесплатно получить
Купить, продать, обменять Биткоин