Американский студент придумал бота, который осуждает людей за расизм в твиттере
Новости17 ноября, 2016

Американский студент придумал бота, который осуждает людей за расизм в твиттере

Студенту удалось снизить количество расистских высказываний

Студент из Университета Нью-Йорка Кевин Мангер запрограммировал несколько ботов находить и комментировать расистские записи в твиттере. Аккаунты ботов принадлежали разным людям: белому или чёрному мужчине с большим или маленьким количеством подписчиков. Студент выяснил, что упрёки в расизме от белого мужчины с популярным аккаунтом сильнее всего влияют на поведение пользователей. Исследование Кевина Мангера опубликовано в журнале Political Behaviour, сообщает Apparat.

Мангер проанализировал больше 200 твиттер-аккаунтов, которые принадлежали белым мужчинам, часто позволявшие себе расистские и сексистские высказывания. Боты — фейковые аккаунты с аватаром в виде лица чёрного и белого мужчины, отличающихся только цветом кожи, — автоматически отвечали на твиты этих аккаунтов, содержащие слово «nigger». «Эй, чувак, помни, что есть реальные люди, которые страдают, когда ты их оскорбляешь такими словами», — писали боты. У некоторых из них было от 0 до 10 подписчиков, у других — от 500 до 5000.

Аватары, которые использовал Кевин Мангер

С помощью фейкового аккаунта белого мужчины с 500 подписчиками удалось на 27% уменьшить количество расистских твитов. Эффект не был мгновенным и краткосрочным: число твитов сокращалось постепенно, и это продолжалось как минимум в течение месяца. «Упрекающие» комментарии остальных ботов оказались значительно менее эффективными.

«Вот почему члены общества с высоким статусом несут большую долю ответственности за выступления против расизма, — говорит Бетси Леви Палак, психолог из Принстонского университета. — Люди с высоким статусом влияют на нормы, и с этим влиянием приходит ответственность. Если кто-то говорит „я не образец для подражания“ — это их желание, а не факт».

В 2014 году 14-летний программист создал приложение, посвященное борьбе с кибербуллингом, под названием Rethink. Приложение определяло, когда пользователи писали «ранящие» комментарии, и спрашивало их, уверены ли они, что хотят это опубликовать. Большинство людей меняли своё мнение и отказывались от публикации обидных высказываний.

Читайте также
Комментариев пока нет
Больше статей