Алгоритмы Facebook уличили в пропуске более 90% проблемного контента
Искусственный интеллект (ИИ) компании Facebook, который должен защищать пользователей от опасного и проблемного контента, в том числе о насилии и разжигании ненависти, работает неэффективно и пропускает более 90% сомнительных материалов. Об этом сообщила газета The Wall Street Journal (WSJ) со ссылкой на внутренние документы соцсети. В частности, ИИ не всегда распознаёт расистские высказывания и не может увидеть разницу между петушиными боями и автокатастрофами.
Алгоритмы Facebook не удаляют большинство постов, в которых можно обнаружить разжигание ненависти, а также не всегда блокируют аккаунты, размещающие сомнительный контент, написала газета.
«Проблема в том, что у нас нет и, вероятно, никогда не будет модели, которая охватывала бы даже большую часть вредного контента, особенно в чувствительных областях», — сообщал ещё в 2019 году старший инженер Facebook. Тогда он заявлял, что автоматизированные системы компании удаляют всего 2% нежелательной информации и без серьёзных изменений в подходе вряд ли удастся сделать цифру выше 10–20%.
В 2021 году сотрудники соцсети писали, что ИИ удаляет всего 3–5% постов от общей массы связанных с разжиганием ненависти и всего 0,6% — контента, нарушающего правила соцсети.
Внутренняя статистика компании контрастирует с официальными заявлениями топ-менеджеров Facebook. Например, её основатель Марк Цукерберг считал, что к концу 2019 года алгоритмы смогут обнаруживать «подавляющее большинство проблемного контента». Также в Facebook заявляли, что почти все разжигающие ненависть высказывания соцсеть удаляла до того, как пользователи на них жаловались.
Статистика из внутренних документов касается только алгоритмов, но не имеет отношения к другим методам борьбы с нарушающим правила контентом, заявил пресс-секретарь Facebook Энди Стоун. По его словам, соцсеть показывает в выдаче меньше постов, разжигающих ненависть, поэтому такие материалы распространяются в меньших объёмах.
Ранее Facebook заблокировала пост российского популяризатора космонавтики Виталия Егорова из-за слова «хохлома». Затем в компании извинились и вернули публикацию.
Фото: Pexels, Pexels License