Щербинин Дмитрий, генеральный директор Likee в России, в интервью «ГлагоL» рассказал о том, кто ответственен за распространение нежелательного контента среди несовершеннолетних, как платформа борется с ним и как пользователям защитить себя от потенциально опасного контента.
- В последнее время появляется все больше новостей о нежелательном контенте на вашей платформе. Что вы об этом думаете?
В первую очередь, мы хотим отметить, что как влиятельная социальная платформа, мы всегда считали регулирование контента нашей неотъемлемой ответственностью и главным приоритетом. Мы стремимся создать безопасное интернет-сообщество для всех пользователей. Однако, несмотря на наши постоянные усилия по борьбе с опасным контентом, его трудно избежать. Злоумышленники, пусть и в небольшом количестве, всегда пытаются участвовать в незаконной деятельности через социальные сети. Поэтому мы также призываем регулирующие органы, средства массовой информации, экспертов, создателей, пользователей и другие заинтересованные стороны работать вместе с нами для борьбы с преступниками, которые создают и распространяют вредоносную информацию.
- Глава Лиги безопасного интернета попросила Роскомнадзор обратить внимание на вашу социальную сеть Likee из-за сообщений о вовлечении несовершеннолетних пользователей в создание порнографического контента. Обсуждали ли вы с представителями Лиги безопасного интернета совместное регулирование проблемы?
Я хочу подчеркнуть, что несовершеннолетние не занимаются созданием порнографического контента, но к сожалению некоторые люди со злыми намерениями пытаются обмануть или использовать несовершеннолетних на платформе.
Мы поддерживаем дружеское общение с главой Альянса безопасного Интернета Екатериной Мизулиной, рассказываем ей об усилиях Likee в области безопасности контента, и не так давно достигли консенсуса о создании специального Telegram-бота для рассмотрения жалоб от ее читателей. Мы совместно обеспечиваем безопасное сообщество. Сама она также поделилась нашими совместными усилиями в своем Telegram.
Мизулина и Альянс интернет-безопасности являются лидерами в области защиты несовершеннолетних в России, и мы полностью понимаем их обеспокоенность, особенно когда видим предоставленные пользователями скриншоты или видео, содержащие недопустимую информацию. В настоящий момент, большая часть недопустимого контента оперативно удаляется нашей системой безопасности и модераторами до того, как он будет опубликован. В будущем мы надеемся продолжать сотрудничество с лигой безопасного интернета.
- Существует мнение, что ответственность за распространение нежелательного контента среди несовершеннолетних несут родители детей. Что вы думаете по этому поводу?
В наше время, когда интернет находится на пике развития, родителям чрезвычайно трудно контролировать доступ и использование социальных сетей подростками. В связи с этим наша платформа всегда стремилась обеспечить максимальную защиту потенциальных молодых пользователей. Например, при регистрации несовершеннолетних их учетные записи автоматически переключаются в родительский режим, запрещая им публиковать видео, проводить прямые эфиры, оставлять комментарии, отправлять личные сообщения и так далее.
В общих функциях мы также предлагаем родительский контроль, приватные аккаунты и фильтры контента, которые помогают избегать подросткам неприятных конфронтаций с вредной информацией. Мы призываем и другие социальные платформы совместно работать над совершенствованием мер безопасности, связанных с общественными стандартами и защитой подростков.
- Как ваша социальная сеть борется с нежелательным контентом? Какие меры принимаются для обеспечения безопасности пользователей?
В отношении защиты контента мы вложили средства в тысячи современных серверов для автоматического распознавания контента с применением искусственного интеллекта. Эти серверы обеспечивают наблюдение за нежелательным контентом, включая изображения, текст и аудио. Кроме того, у нас есть обширная сеть профессионально обученных модераторов по всему миру, которые изучают контент, загруженный пользователями, и обрабатывают информацию, полученную от пользователей, в режиме реального времени.
Что касается выявления и наказания пользователей, ведущих ненадлежащее поведение, учетная запись любого пользователя, нарушившего правила сообщества, будет заблокирована, а пользователи, серьезно нарушившие правила, не смогут зарегистрироваться и снова использовать Likee.
Likee также использует модель безопасности, основанную на поведении пользователей и их маршрутах в приложении, которая используется для выявления подозрительных пользователей и предотвращения публикации преступниками неприемлемой информации. Аккаунты и связанные с ними устройства, соответствующие данной модели, будут автоматически заблокированы.
- Сколько средств вы инвестируете для создания новых инструментов по борьбе с нежелательным контентом?
Борьба с нежелательным контентом — непрерывная и сложная задача. Нам сложно назвать точную цифру, но с момента создания Likee мы инвестировали не менее одного миллиарда рублей в постоянное обновление технологий безопасности, включая инвестиции в технологии безопасности, персонал службы безопасности и инвестиции в оборудование. Насколько нам известно, эта сумма является крупнейшей среди платформ аналогичного масштаба.
- Расскажите подробнее о процедурах модерации. Как часто они проводятся и кто отвечает за этот процесс? Сколько сотрудников этим занимаются в России?
Контент, загруженный пользователями, сначала проходит проверку технологии искусственного интеллекта Likee. Likee разработала более 60 моделей искусственного интеллекта для безопасности контента, охватывающих общие категории нарушений контента в различных сценариях, таких как короткие видео, прямые трансляции и текстовые чаты, с помощью таких технологий, как распознавание изображений, OCR и ACR, гарантируя, что пользователи защищены от нежелательных действий. Около 90% нарушений выявляются и обрабатываются до того как они будут опубликованы.
После того как наша группа ручной проверки подтвердит безопасность результатов, они снова проверяют риски контента, чтобы обеспечить точность. Наконец, у нас также есть онлайн-инспекторы проверок, работающие в режиме реального времени, чтобы постоянно обеспечивать безопасность общества. У Likee есть тысячи профессионально подготовленных модераторов по всему миру, которые проверяют контент, загруженный пользователями. Модераторы работают круглосуточно семь дней в неделю, 24 часа в сутки, обрабатывая контент, о котором сообщают пользователи, в режиме реального времени.
- Какие обновления и улучшения в области безопасности и модерации контента мы можем ожидать от вашей социальной сети в ближайшем будущем?
Во-первых, улучшение возможностей ИИ, которое имеет ключевое значение для борьбы с развивающимися атаками с использованием вредоносной информации. Нам необходимо иметь возможность быстро и всесторонне выявлять вредоносную информацию.
Во-вторых, мы планируем в ближайшее время увеличить количество российских модераторов на 20%. Мы проводим профессиональное обучение для группы проверки не реже одного раза в месяц, чтобы повысить их способность проверять новые типы вредоносного контента.
В то же время выявление вредоносной информации в этом случае будет легко интегрироваться с будущими автоматизированными механизмами безопасности, устраняя необходимость ручного вмешательства и предотвращая производство и распространение 99% вредоносной информации. Благодаря нашим испытаниям мы достигли точности 99,9%.
В последней версии приложения мы ввели частные аккаунты. Пользователи теперь могут активировать режим приватной учетной записи в «Настройки» -> «Конфиденциальность». Если этот режим включен, то ваши видео смогут просматривать только подписчики. Вы должны одобрить новых подписчиков и можете скрыть личные данные, такие как возраст и местоположение. Это гарантирует, что контент частных прямых трансляций будет виден только приглашенным пользователям.
Кроме того, пользователи будут иметь возможность самостоятельно контролировать количество конфиденциального контента из учетных записей, не являющихся подписчиками, в своих push-уведомлениях. Хотя этот контент не может нарушать правила сообщества, он может содержать темы, которых некоторые пользователи предпочитают избегать.
- Какова ваша стратегия в отношении обучения пользователей правилам безопасного поведения в интернете и использования вашей платформы?
Наш подход к обучению безопасности пользователей строится на принципе «партнерства со всеми заинтересованными сторонами, с уклоном на профилактику». Помимо использования технических и кадровых ресурсов, о которых мы упомянули ранее, мы активно осуществляем информационно-просветительскую деятельность с поддержкой различных средств массовой информации и регулирующих органов.
В июле 2021 года мы запустили в сотрудничестве с Росмолодежью акцию «За благополучие онлайн-поколения. Вместе». Эта инициатива рассчитана на широкий круг заинтересованных лиц, волнующихся о безопасности молодежи в интернете, включая подростков, родителей, учителей, журналистов, государственных чиновников и прочих. Мероприятие включает разнообразные темы и предлагает интерактивные спецэффекты и фильтры, вроде ResponsibleSnake, чтобы помочь пользователям лучше понимать политику сообщества и правила безопасности в интернете через задания, ответы и игры, повышая их уровень информированности о самозащите.
Кроме того, мы активно проводим обучение пользователей для повышения их осведомленности о безопасности в сети. На нашем официальном сайте мы создали Центр безопасности, который регулярно представляет и пропагандирует правила и знания о безопасности в интернете. Мы обновили материалы по рекомендациям о поведении, профилактике суицидов, а также по шести другим темам. В начале 2020 года мы создали официальную учетную запись Likee Russia Safety, где публикуем образовательный контент о безопасности учетной записи, противодействии мошенничеству и предупреждаем пользователей с помощью уведомлений в приложении. Наша инициатива собрала более 16 миллионов просмотров, что успешно увеличило уровень осведомленности пользователей о сетевой безопасности и обеспечило безопасность сообщества.
- Компании ориентированы на прибыль. Как вы рассматриваете противоречие между управлением безопасностью контента и ростом числа пользователей?
Мы не думаем, что эти два понятия противоречат друг другу. В настоящее время мы ежемесячно обрабатываем десятки тысяч не соответствующих учетных записей. Управление контентом может привести к потере части пользователей в краткосрочной перспективе, но в долгосрочной перспективе это пойдет на пользу здоровому развитию сообщества. Если мы не примем меры против пользователей или учетных записей, не соответствующих требованиям, это нанесет вред тем, кто действительно любит нашу платформу. Как платформа, которая уже много лет активно развивает российский рынок, мы считаем, что только здоровый и устойчивый рост может продвинуть нас дальше.
- Можете ли вы напоследок дать советы или рекомендации пользователям, которые вместе с вами готовы бороться с нежелательным контентом?
Если вы обнаружите какой-либо неприемлемый контент, пожалуйста, не стесняйтесь сообщать о видео, прямых трансляциях или аккаунтах, подозреваемых в нарушении правил, непосредственно в приложении. Наша круглосуточная группа проверки вручную обработает его в течение 5 минут. Пользователи также могут отправить электронное письмо нам, и соответствующая команда оперативно ответит и решит любые проблемы.
Мы также призываем пользователей обратить внимание на наши достижения в области управления контентом. Ежегодно мы будем публиковать отчеты по управлению контентом на официальном сайте в соответствии с нормативными требованиями, и каждый сможет регулярно их проверять. Если у вас есть еще хорошие предложения относительно безопасности контента, которыми вы можете поделиться с нами, вы также можете написать нам в любое время.