Издание опубликовало спецпроект-расследование о работе алгоритмов соцсети
У издания Baza вышло большое расследование «хочу #врек» о том, как работает модерация популярного контента TikTok в России и на международном уровне.
Для контроля над контентом соцсеть использует специальные стоп-листы.
Официально они созданы, чтобы контент в TIkTok был безопасным, пишет Baza. По словам нескольких модераторов российского офиса, цензура затрагивает не только порнографические видео и сцены жестокости, но и политические публикации, а также те, которые потенциально могут трактоваться как сепаратизм.«Каждый загруженный ролик сначала демонстрируется маленькой группе около десяти человек, потом сотне, потом тысяче и т. д. Уже на самом раннем этапе появления видео к процессу подключается автоматическая модерация. Она опирается на метрики, позволяющие понять, будет ли интересен контент аудитории и нужно ли его продвигать: лайк-рейт (показатель того, как часто лайкают видео), коммент-рейт (показатель того, как часто комментируют видео), шер-рейт (показатель того, как часто делятся видео). Как только клип проходит первоначальный фильтр, он начинает распространяться по ленте рекомендаций. Интересным считается контент, у которого показатели выше средних, например, у лайк-рейта этот показатель 8,5», — объяснил процесс модерации источник Baza из TikTok.
В первый раз модератор тщательно «досматривает» ролик, когда он пересекает отметку в 10 тыс. просмотров. Затем это же видео снова модерируют на 35 тысячах просмотров.
Если вопросов к контенту нет, то ролик больше проверять не будут и он может набрать хоть 5, хоть 10 млн просмотров. Но только на территории России.Предпосылкой к написанию материала стали новости о том, что рекламная кампания «Авито» набрала около одного миллиарда просмотров во вкладке «Рекомендации», но их большая часть оказалось «накрученной», говорится в тексте спецпроекта. Похожая история произошла с брендами Lay’s и «Индилайт».
Свежие комментарии