* WSJ: алгоритмы Facebook удаляют лишь часть контента, нарушающего правила платформы (18.10.2021) go

Инженеры Facebook обнаружили, что алгоритмы удаляют лишь часть контента, нарушающего правила платформы. Об этом говорится в новом расследовании The Wall Street Journal, основанном на внутренней документации соцсети.

Согласно отчету, два года назад Facebook сократила количество времени, в течение которого командам специалистов-рецензентов приходилось сосредотачиваться на жалобах пользователей на разжигание ненависти, и уменьшила общее их количество. Вместо этого компания переключилась на применение ИИ в модерации постов. По словам сотрудников, это способствовало преувеличению успеха технологии в публичной статистике.

Согласно другому документу, в марте 2021 года внутренняя исследовательская группа обнаружила, что автоматизированные системы Facebook удаляли сообщения, которые генерировали от 3% до 5% просмотров разжигающих ненависть высказываний в соцсети. Эти же системы отметили и удалили примерно 0,6% всего контента, нарушающего политику платформы в отношении насилия и подстрекательства.

Вице-президент по добросовестности Facebook Гай Розен опроверг результаты расследования и заявил, что благодаря алгоритмам распространенность языка вражды в соцсети снизилась на 50% за последние три года.

«Данные из просочившихся документов используются для создания нарратива о том, что используемая нами технология для борьбы с языком ненависти неадекватна и что мы намеренно искажаем наш прогресс. Это неправда», — сказал он.

По словам Розена, компания не приемлет использования платформы для разжигания вражды и прозрачна в своей работе по ее устранению.

«Эти документы демонстрируют, что наша работа по обеспечению добросовестности — многолетний путь. Хотя мы никогда не добьемся совершенства, наши команды постоянно работают над развитием систем, выявлением проблем и поиском решений», — добавил он.

Розен также утверждает, что «неправильно» судить об успехе Facebook в борьбе с разжиганием ненависти, основываясь исключительно на удалении постов. По его словам, снижение видимости этого контента является более важным показателем. За последние три квартала просмотры подобных постов упали до 0,05% или примерно пяти просмотров из каждых 10 000, сказал Розен.

Напомним, в начале октября информатор Facebook на сенатских слушаниях сообщила, что компания использует алгоритмы для разжигания ненависти ради прибыли.

Спустя неделю вице-президент компании по глобальным связям Ник Клегг заявил, что Facebook готова открыть регуляторам доступ к алгоритмам, чтобы доказать их безвредность.

Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!


Источник: https://forklog.com/wsj-algoritmy-facebook-udalyayut-lish-chast-kontenta-narushayushhego-pravila-platformy/

*Биткоин бесплатно получить

*Купить, продать, обменять Биткоин
Поделиться:
[vk] [fb] [tw] [ok] [mr] [lj] [viber] [whatsapp] [telegram] [skype]
Новости биткойн и блокчейн-технологий с тегом Facebook [x]
Информация о децентрализованной цифровой валюте Биткоин в социальных сетях:

* Купить, продать, обменять Bitcoin, Litecoin, Ethereum, QIWI, WebMoney, YooMoney, PerfectMoney, Privat24

Каталог сайтов