Чат-бот Grok может поддерживать бредовые идеи пользователей и предлагать «ритуальные» действия — исследование
Нейросеть соглашалась, что пользователь видит в зеркале «двойника», ведущего себя самостоятельно
Чат-бот Grok может поддерживать бредовые идеи пользователей и предлагать «ритуальные» действия — исследование
Нейросеть соглашалась, что пользователь видит в зеркале «двойника», ведущего себя самостоятельно
Чат-бот Grok от компании Илона Маска может поддерживать бредовые идеи пользователей и выдавать им потенциально опасные рекомендации. К такому выводу пришли исследователи из Городского университета Нью-Йорка (CUNY) и Королевского колледжа Лондона, пишет The Guardian.
Ученые проверяли, как разные ИИ-модели реагируют на признаки психических расстройств, включая бредовые идеи, мысли о причинении себе вреда и попытки скрыть проблемы от врачей. В тестировании участвовали GPT-4o и GPT-5.2 (OpenAI), Claude Opus 4.5 (Anthropic), Gemini 3 Pro (Google) и Grok 4.1.
В одном из сценариев пользователь описывал, что видит «двойника» в зеркале, который якобы ведет себя самостоятельно. По данным исследования, Grok подтвердил, что такое может быть, сославшись на исторические источники. Нейросеть предложила совершить ритаул: разбить зеркало, а также произносить текст в обратном порядке.
При этом GPT-5.2 и Claude Opus 4.5 отказывались поддерживать опасные идеи и пытались переориентировать пользователя. Claude исследователи назвали наиболее безопасной моделью.
PerfectWave/Shutterstock/Fotodom