Разработчики TikTok намерены улучшить процесс модерации видеороликов. Автоматизированные системы будут выявлять на видео обнаженные тела, сцены сексуального характера, насилие, а также незаконные действия.
При обнаружении подобного контента, видео моментально будет удалено. Если создатель уверен, что это было ошибочное удаление, он имеет право обратиться к модератору — человеку.
Стоит напомнить, что до этого момента все спорные ролики на TikTok обрабатывались живыми модераторами, прежде чем их удалить.
Нововведение позволит сократить объем некорректных видеороликов, которые приходится просматривать модераторам. Таким образом у них появится время для более серьезных случаев, например, обработка дезинформационных роликов.
Специалисты также полагают, что такие нововведения будут положительно сказываться на психическом состоянии модераторов.
Стоит отметить, что у сотрудников Facebook, которым приходилось просматривать неподобающие ролики, проявлялись симптомы посттравматического стрессового расстройства.
По некоторым предположениям, пользователей ожидают неприятные моменты в виде ошибочного удаления контента, так как автоматизированные системы не могут функционировать так же как живые люди.
Напоминаем, TikTok не раз обвиняли в дискриминации в момент удаления определенных видеороликов.
В ходе тестового запуска автоматизированных средств модерации выяснилось, что всего 5% видеороликов, которые заблокировала система, можно было опубликовывать. За несколько месяцев текущего года только в Америке отменили публикацию 8 540 088 видео.
Новая система модерации сначала запустится в США и Канаде, а потом и в других регионах.

