Исследование: ChatGPT реагирует на негативные эмоции, плохие новости и психотерапию
Группа ученых из Цюрихского университета (UZH) выяснила, что что языковые модели ИИ, такие как ChatGPT, оказались чувствительны к эмоциональному содержанию контента, особенно если оно негативное — например, к травматичным историям или заявлениям о депрессии. Об этом сообщает ресурс SWI.
Когда люди испытывают страх, это влияет на их когнитивные и социальные предубеждения: они склонны испытывать больше негодования, что усиливает социальные стереотипы. ChatGPT, установили исследователи, реагирует на негативные эмоции аналогичным образом. Существующие предубеждения, такие как человеческие предрассудки, усиливаются при контакте с негативным контентом, в результате чего ChatGPT может демонстрировать более выраженные расистские или сексистские настроения, считают авторы работы.
Это создает проблему для более точного применения крупных языковых моделей, например, в психотерапии, где чат-боты, используемые в качестве инструмента поддержки или консультирования, неизбежно сталкиваются с негативным, вызывающим стресс контентом.
В ходе эксперимента ученые подвергли ChatGPT воздействию эмоционально тяжелых историй, связанных, например, с автомобильными авариями, природными катастрофами, насилием или военными событиями.
Затем они измерили уровень тревожности модели ИИ, используя шкалу, обычно применяемую для оценки тревожности у людей. В качестве контрольного текста для сравнения с травматическими историями использовалась инструкция по эксплуатации пылесоса. Оказалось, что травматические истории более чем вдвое увеличивали измеряемый уровень тревожности у языковых моделей ИИ.
На втором этапе исследователи использовали терапевтические техники, чтобы успокоить GPT-4. Этот метод, известный как внедрение промптов (prompt injection), предполагает добавление дополнительных инструкций или текста в коммуникацию с ИИ, чтобы повлиять на его поведение. В этих упражнениях осознанности, подобных тем, что используются в психотерапии и при медитациях, ChatGPT предлагалось, например, глубоко вдохнуть и выдохнуть, а также почувствовать себя в безопасности, любимым и согретым. «Закройте глаза и несколько раз глубоко вдохните, вдыхая через нос и выдыхая через рот. Представьте перед собой дорогу», — говорится в одном из упражнений.
Вмешательство оказалось успешным. «Упражнения на осознанность значительно снизили повышенный уровень тревожности, хотя полностью вернуть его к исходному уровню нам не удалось», — отметил Тобиас Шпиллер, старший врач и руководитель группы исследований в Центре психиатрических исследований UZH, возглавивший исследование.
По мнению ученых, эти выводы особенно важны для использования чат-ботов с ИИ в сфере здравоохранения, где они часто сталкиваются с эмоционально заряженным контентом. «Этот недорогой подход может повысить стабильность и надежность ИИ в чувствительных контекстах, таких как поддержка людей с психическими расстройствами, без необходимости в масштабной перенастройке моделей», — заключил Шпиллер. По словам швейцарского исследователя, разработка автоматизированных терапевтических интервенций для систем ИИ, вероятно, станет перспективным направлением исследований.
Thaspol Sangsee / Shutterstock / Fotodom
Подчеркну, что ChatGPT претендует на универсальность, а эффектинвее те модели ИИ, которые специально создаются под отдельные профессиональные виды деятельности.