TikTok начнёт автоматически удалять ролики со сценами насилия
Об изменении системы модерации контента сообщила пресс-служба TikTok. Сейчас все ролики в соцсети проходят через технологию, которая выявляет и помечает потенциальные нарушения политики сервиса. Затем данные поступают членам команды безопасности, которые удаляют контент, если подтверждается, что он нарушает правила соцсети. Создателей таких видеороликов оповещают о причинах их удаления, после чего пользователь может обжаловать решение.
Теперь в течение ближайших нескольких недель администрация TikTok начнёт использовать технологию для автоматического удаления некоторых видов запрещённого контента, выявленных при загрузке. По словам разработчиков, автоматизация коснётся категорий контента, где технология сервиса показывает самую высокую степень точности при выявлении:
- нарушение правил безопасности несовершеннолетних;
- обнажённые тела;
- сцены насилия;
- секс;
- запрещённые товары.
Нововведение коснётся пользователей в США и Канаде. В TikTok признали, что ни одна технология не может быть точной в плане модерирования контента, поскольку всегда есть нюансы. Но разработчики пообещали улучшать свою систему, чтобы свести к минимуму ошибочные удаления. У авторов роликов останется возможность обжаловать удаление своего контента.
Ранее «Секрет» рассказывал, что TikTok признали в России лидером по темпам и масштабам распространения суицидального контента в 2021 году. В сервисе коротких видео нашли более 1700 роликов, посвящённых самоубийствам и группам смерти. Аудитория этих видео превышает 580 000 человек. В июле Лига безопасного интернета попросила Роскомнадзор «принять меры» в отношении TikTok вплоть до замедления трафика — из-за обнаруженных на онлайн-платформе видеороликов с информацией о суицидах, пропагандой наркотиков и оскорблением чувств верующих.
Фото: Pixabay, Pixabay License
Ещё ближе к делу — главные новости и самые интересные истории в нашем Telegram-канале.