Опубликовано 18 октября 2021, 15:10
2 мин.

Алгоритмы Facebook уличили в пропуске более 90% проблемного контента

Искусственный интеллект (ИИ) компании Facebook, который должен защищать пользователей от опасного и проблемного контента, в том числе о насилии и разжигании ненависти, работает неэффективно и пропускает более 90% сомнительных материалов. Об этом сообщила газета The Wall Street Journal (WSJ) со ссылкой на внутренние документы соцсети. В частности, ИИ не всегда распознаёт расистские высказывания и не может увидеть разницу между петушиными боями и автокатастрофами.

Алгоритмы Facebook уличили в пропуске более 90% проблемного контента

Алгоритмы Facebook не удаляют большинство постов, в которых можно обнаружить разжигание ненависти, а также не всегда блокируют аккаунты, размещающие сомнительный контент, написала газета.

«Проблема в том, что у нас нет и, вероятно, никогда не будет модели, которая охватывала бы даже большую часть вредного контента, особенно в чувствительных областях», — сообщал ещё в 2019 году старший инженер Facebook. Тогда он заявлял, что автоматизированные системы компании удаляют всего 2% нежелательной информации и без серьёзных изменений в подходе вряд ли удастся сделать цифру выше 10–20%.

В 2021 году сотрудники соцсети писали, что ИИ удаляет всего 3–5% постов от общей массы связанных с разжиганием ненависти и всего 0,6% — контента, нарушающего правила соцсети.

Внутренняя статистика компании контрастирует с официальными заявлениями топ-менеджеров Facebook. Например, её основатель Марк Цукерберг считал, что к концу 2019 года алгоритмы смогут обнаруживать «подавляющее большинство проблемного контента». Также в Facebook заявляли, что почти все разжигающие ненависть высказывания соцсеть удаляла до того, как пользователи на них жаловались.

Статистика из внутренних документов касается только алгоритмов, но не имеет отношения к другим методам борьбы с нарушающим правила контентом, заявил пресс-секретарь Facebook Энди Стоун. По его словам, соцсеть показывает в выдаче меньше постов, разжигающих ненависть, поэтому такие материалы распространяются в меньших объёмах.

Ранее Facebook заблокировала пост российского популяризатора космонавтики Виталия Егорова из-за слова «хохлома». Затем в компании извинились и вернули публикацию.

Фото: Pexels, Pexels License