Коротко

Соцсеть Facebook тестирует программу для предотвращения конфликтов в комментариях

Как сообщает CNN, искусственный интеллект начнет помечать оскорбительные комментарии, размещаемые в сообществах в социальной сети Facebook. В результате пользователи, отвечающие за модерацию страниц, будут получать уведомления о возможном конфликте среди подписчиков.


Записи с неприемлемой лексикой в группах получат плашки «moderation alert» («оповещение модератора»). Предполагается, что благодаря программе получится упростить работу администраторов групп. После того, как администратор узнает о конфликте, он сможет замедлить дискуссию.

С новым способом маркировки и оповещения станет возможным своевременно принимать необходимые действия для локализации конфликта в сети. Однако новые ограничения нельзя будет применить к таким темам, как вакцинация, политика, а также культурные различия.

Программный инструмент, как считают в Facebook, пригодится 70 миллионам пользователей, управляющим страницами.


Тэги


Реклама

Партнёры

Загрузка…

Реклама

Политика

партнеры

Реклама

Send this to a friend