Facebook начал выявлять пользователей, склонных к суициду (деятельность Meta (соцсети Facebook, Instagram) запрещена в России как экстремистская)

Социальная сеть Facebook (деятельность Meta (соцсети Facebook, Instagram) запрещена в России как экстремистская) начала отслеживать пользователей, которые могут быть склонны к самоубийству. Выявлением аккаунтов займется искусственный интеллект.

Будет проводиться анализ постов, созданных пользователем, и его комментариев. Если нейросеть сочтет, что человек находится в депрессивном состоянии, она отправит данные команде исследователей. Если люди сойдутся во мнении с искусственным интеллектом, они обратятся к пользователю и предложат ему квалифицированную помощь.

Руководитель подразделения, занимающегося данным направлением, отметил, что эти меры «не просто полезны, но критически необходимы». Пока что система будет применяться только для США.

Об этом сообщает «Интерфакс».

Напомним, в российских социальных сетях разрастаются так называемые «группы смерти». Пользователи вступают в «игру», в конце которой должен произойти суицид. «ВКонтакте» уже начала блокировать странички, на которых размещены соответствующие хештеги. Владельцам аккаунтов предлагают помощь психологов.

В конце декабря 2016 года Роскомнадзор и Mail.ru Group (владелец «ВК» и «Одноклассники») заявили о совместной разработке программы, отслеживающей и устраняющей скрытую пропаганду суицида. В середине января 2017 года в Государственную думу внесен законопроект, который вводит уголовную ответственность для создателей «групп смерти».

После введения мер борьбы с «группами смерти» в ВК, злосчастные хештеги перекочевали в Instagram.

Подписывайтесь на наш Telegram-канал, а также на наше сообщество в Viber. Оперативные новости и комментарии редакции