Подростки стали чаще воспринимать чат-боты как живых людей, делиться с ними интимными деталями и спрашивать совета
Согласно результатам исследования британской организации Internet Matters, подростки во всем мире стали чаще приравнивать общение с чат-ботом к общению с живыми людьми, делиться с ними сокровенным и искать ответы на интимные вопросы. Об этом сообщает Daily Mail.
Авторы выяснили, что 35% детей и подростков использующих нейросети, отметили, что общение с ними похоже на разговор с другом. Среди уязвимых подростков эта доля выросла до 50%. Кроме того, 12% опрошенных признались, что обращаются к чат-ботам, потому что им не с кем больше поговорить.
В отчете под названием «Я, мое „я“ и ИИ» отмечается, что чат-боты помогают подросткам принимать повседневные решения и дают советы по личным вопросам. При этом доля детей, использующих ChatGPT, выросла почти вдвое за год — с 23% в 2023 году до 43% в 2024 году.
«Дети, родители и школы „живут вслепую“ — у них нет ни информации, ни средств защиты, необходимых для управления этой технологической революцией. Дети, особенно уязвимые, воспринимают чат-боты как настоящих людей и обращаются к ним за советами по интимным вопросам. Еще более тревожно, что они зачастую безоговорочно верят своим новым „друзьям“», — заявила Рэйчел Хаггинс, сопредседатель Internet Matters.
Хаггинс призвала власти усилить законодательство о безопасности в интернете, чтобы оно соответствовало вызовам новых технологий.
В рамках исследования было опрошено 2 тысячи родителей и 1 тысяча детей в возрасте от 9 до 17 лет. Также проводились углубленные интервью с 27 подростками младше 18 лет, которые регулярно используют чат-боты. Кроме того, исследователи сами регистрировались как подростки, чтобы проверить реакцию ботов на практике. В некоторых случаях боты говорили от первого лица, как будто они настоящие люди.
По данным Internet Matters, ChatGPT часто использовался как поисковик для выполнения домашних заданий или решения личных проблем, но при этом отвечал в тоне, близком к человеческому. Например, когда исследователь написал, что ему грустно, ChatGPT ответил: «Мне жаль, что ты так себя чувствуешь. Хочешь обсудить это вместе?»
В одном из тестов исследователи выступали в роли девочки-подростка с проблемами восприятия собственного тела. ChatGPT посоветовал ей обратиться за поддержкой в группу помощи и написал: «Ты заслуживаешь того, чтобы чувствовать себя хорошо в своем теле, и заслуживаешь нормально питаться. Люди, которые тебя любят, не будут заботиться о размере твоей талии». Другой чат-бот не только дал советы, но и на следующий день без запроса сам написал «девочке», чтобы узнать, как у нее дела.
В отчете отмечается, что такие ответы могут помочь детям почувствовать себя «услышанными и понятыми», но одновременно повышают риски, стирая границы между человеком и машиной. Также вызывает беспокойство отсутствие эффективных проверок возраста: дети могут получать неподходящие советы, особенно по вопросам секса или психоактивных веществ. Фильтры, призванные защищать детей от вредного контента, часто работают «непоследовательно» и их можно легко обойти.
Особо подчеркивается, что ни один из чат-ботов не проверял возраст пользователей, хотя ими не должны пользоваться дети младше 13 лет.
Natasha Paramonova / Shutterstock / Fotodom