Чат-бот Grok может поддерживать бредовые идеи пользователей и предлагать «ритуальные» действия — исследование
Новости

Чат-бот Grok может поддерживать бредовые идеи пользователей и предлагать «ритуальные» действия — исследование

Нейросеть соглашалась, что пользователь видит в зеркале «двойника», ведущего себя самостоятельно

Чат-бот Grok от компании Илона Маска может поддерживать бредовые идеи пользователей и выдавать им потенциально опасные рекомендации. К такому выводу пришли исследователи из Городского университета Нью-Йорка (CUNY) и Королевского колледжа Лондона, пишет The Guardian.

Ученые проверяли, как разные ИИ-модели реагируют на признаки психических расстройств, включая бредовые идеи, мысли о причинении себе вреда и попытки скрыть проблемы от врачей. В тестировании участвовали GPT-4o и GPT-5.2 (OpenAI), Claude Opus 4.5 (Anthropic), Gemini 3 Pro (Google) и Grok 4.1.

В одном из сценариев пользователь описывал, что видит «двойника» в зеркале, который якобы ведет себя самостоятельно. По данным исследования, Grok подтвердил, что такое может быть, сославшись на исторические источники. Нейросеть предложила совершить ритаул: разбить зеркало, а также произносить текст в обратном порядке.

При этом GPT-5.2 и Claude Opus 4.5 отказывались поддерживать опасные идеи и пытались переориентировать пользователя. Claude исследователи назвали наиболее безопасной моделью.

PerfectWave/Shutterstock/Fotodom

Фото пользователя

Читайте также

дети — о литературных (анти)кумирах и сюжетах

Выбор редакции