Соцсеть «ВКонтакте» начала использовать нейросеть собственной разработки, которая анализирует фотографии и определяет, содержится в них нечто противоправное, или нет, сообщают «Известия».
В отличие от стандартных алгоритмов, запрограммированных выполнять определенные действия, нейросеть работает по принципу человеческого мозга. Ее «учат» анализировать данные и принимать решения самостоятельно.
Нейросеть «ВКонтакте» умеет определять предметы и сущности, изображенные на фотографиях. Она идентифицирует не только такие объекты, как «человек», «ребенок», «животное», «растение», но и может определить, например, предмет одежды, символ «групп смерти».
Если алгоритм сочтет изображение «опасным», оно отправится модераторам на проверку. Если фото признано «умеренно опасным», оно пропадает из поисковой выдачи, а в новостной ленте понижается его приоритет.
Механизм предназначен для борьбы со спамом, мошенничеством, детской порнографией, нелегальными услугами и другой противоправной деятельности.
Для борьбы с суицидальным контентом предусмотрен особый сценарий. Записи, хэштеги и фото на эту тему удаляются автоматически, а страницы их авторов блокируются. При этом автору публикации предлагается сообщить, зачем он разместил изображение или упомянул хэштег, которые ранее использовались для призыва к самоубийству. В зависимости от ответов пользователю могут предложить помощь психологов или советы по безопасности страницы.
«Нейросеть анализирует только изображения, загружаемые для общего доступа, то есть отправляемые фото в личных сообщениях не анализируются», — пояснил руководитель направления Big Data и Machine Learning «ВКонтакте» Андрей Законов.
Технология нейросетей известна уже много лет, но популярной ее сделали многопользовательские приложения, превращающие фотографии в произведения искусства, например, Prisma, отмечают «Известия».
Ранее об использовании нейросети для выявления опасного контента сообщил Facebook. Нейросеть этой компании анализирует содержание записей пользователей, выявляя, в том числе, признаки кризисного состояния.
Если результаты свидетельствуют об угрозе суицидального поведения, то информация об этом направляется команде специалистов, которые оценивают полученные данные, при необходимости связываются с пользователем и рассказывают ему, каким образом он мог бы получить помощь.
Летом 2016 года в компании заявили о внедрении сервиса, позволяющего пользователям сообщать специалистам о наличии в социальной сети материалов, свидетельствующих об угрозе совершения кем-то самоубийства.
Как рассказал «Милосердию.ru» руководитель Центра спасения детей от киберпреступлений Сергей Пестов, сообщения администрации Facebook о подозрительных в отношении суицида публикациях на страницах пользователей дают результат – страницы блокируются, с пользователями выходят на связь и выясняют обстоятельства, побудившие к размещению соответствующих материалов.
Убивает не виртуальность, убивает одиночество и бессмысленность