Соцсеть «Вконтакте» начала автоматически выявлять суицидальные фото

Во «ВКонтакте» разработали алгоритм для определения противоправного или «опасного» контента на фотографиях. Нейросеть распознает объекты на картинках, которые в итоге исключаются из поисковой выдачи и «умной» новостной ленты или полностью блокируются. Об этом пишет TJournal с ссылкой на газету «Известия».

Нейросеть определяет изображённые предметы и сущности, в том числе человека, ребёнка, животное, растение, предметы одежды и символы «групп смерти». Как утверждается, записи и фото с суицидальным контентом удаляются автоматически, а страницы авторов блокируются.

Представители «ВКонтакте» рассказали, что нейросеть имеет несколько тысяч классов, которые присваиваются фотографиям — от 0 до 1 по нескольким параметрам. Если алгоритм характеризует фото как «опасное», оно отправляется модераторам для проверки. Если же фото признано «умеренно опасным», оно пропадает из поисковой выдачи, а в новостной ленте понижается его приоритет.

Руководитель направления Big Data и Machine Learning «ВКонтакте» Андрей Законов пояснил, что алгоритм тестируют на анализ текстовых записей на изображениях. По его словам, нейросеть обучили на основе жалоб пользователей. Андрей Законов пояснил, что нейросеть анализирует только изображения, загружаемые для общего доступа, то есть отправляемые фото в личных сообщениях не анализируются. С помощью этой технологии в будущем мы сможем бороться со спамом и мошенничеством.

В феврале 2017 года «ВКонтакте» стала блокировать страницы пользователей, упоминающих хэштеги, связанные с суицидальными пабликами — так называемыми «группами смерти». Кроме того, Во «ВКонтакте» появилась новая причина для жалоб на записи и комментарии — призыв к суициду.

 
24.03.2017

Самое читаемое на сайте за последние дни

Поделиться в соц. сетях: