Может ли искусственный интеллект приказывать нашим детям и управлять ими
Может ли искусственный интеллект приказывать нашим детям и управлять ими
Интерактивные игрушки, умные колонки, голосовые помощники — всё это становится привычной частью окружения детей и одновременно вызывает беспокойство родителей. Ведь контролировать ответы Siri или технические уязвимости в игрушках почти невозможно. Учёные Плимутского университета провели исследование и выяснили, насколько дети доверяют искусственному интеллекту.
«Если друзья тебе скажут из окна прыгнуть, пойдёшь прыгать?» — обычный приём, который использовали и продолжают использовать раздражённые родители в попытке доказать ребёнку, что не надо идти на поводу у сверстников. Теперь у детей есть не только реальные друзья, но и виртуальные: голосовые колонки, «умный дом», интерактивные «умные» игрушки. Искусственный интеллект всё больше используется в воспитании и образовании детей, те же самые игрушки и виртуальные помощники учат детей вежливости и дают им разные советы.
Тема рисков распространения искусственного интеллекта поднималась уже не один раз — проблема не только в том, что изначально заложено в робота. В системах подключения игрушек и других роботов находят уязвимости, которые можно использовать совсем не в воспитательных целях. Тут возникают другие вопросы — как дети взаимодействуют со своими игрушками, доверяют ли искусственному интеллекту и готовы ли воспринимать его советы без критического осмысления.
Исследование провели учёные из Германии и Великобритании, чтобы понять, как сильно роботы влияют на детей. Кроме того, пытались выяснить, повышается ли доверие к продуктам, услугам и сервисам, которые рекомендует искусственый интеллект (по сравнению с обычной рекламой).
Изучение реакции людей на рекомендации и советы роботов провели в формате эксперимента Аша, возможно, одного из самых известных и наиболее влиятельных доказательств социального конформизма. Серия тестов, которые Соломон Аш впервые провёл в 1951, показывала, как люди, попадая под влияние группового мышления, начинают отрицать даже самые очевидные факты.
В ходе своих экспериментов Аш приглашал 50 студентов колледжей мужского пола поучаствовать в проверке зрения. Студентов собирали вместе и показывали им график с четырьмя линиями разной длины, три из которых были обозначены буквами A, B и C. Затем их просили поочерёдно сказать, какая из трёх линий совпадала по длине с той, у которой не было обозначения. Ответ был очевиден, но участники эксперимента не знали, что все студенты, кроме одного, были актёрами, которые давали одинаковые неверные ответы.
Настоящий испытуемый всегда давал ответ последним. Выяснилось, что примерно треть ответов не подставных участников в итоге была неверной. Причиной же было то самое социальное воздействие группы. Всего Аш провёл 20 испытаний, в ходе которых около 75% участников подстраивались под общее мнение хотя бы однажды, и только 25% ни разу не уступили.
«Этот небольшой эксперимент был так изящен, что мы подумали: почему бы нам не воспроизвести его с роботами?» — так комментирует решение выбрать именно такую форму изучения влияния на людей Тони Билпэм, профессор робототехники Университета Плимута. Он вместе с коллегами повторил опыт, слегка изменив его: испытуемые были разделены на две группы, детскую и взрослую.
В младшую группу входили 43 ребёнка в возрасте от 7 до 9 лет, форма полностью повторяла эксперимент Аша: те же самые линии, длину которых предлагалось сопоставить. Когда детей тестировали индивидуально, они давали правильный ответ в 87% случаев. Затем форма менялась — вместе с ребёнком отвечать на вопросы садились три человекоподобных робота, которые давали исходно неправильные ответы. Хотя линии были очевидно различны, дети-участники начали сомневаться и следовать за роботами в своих ответах. В итоге процент верных ответов у детей тут же упал до 75.
Аналогичный эксперимент провели с участием группы из 60 взрослых. В отличие от детей, они продолжались настаивать на правильных ответах даже тогда, когда роботы пытались их сбить. Взрослые тут же указывали на то, что робот может быть сломан.
Правда, исследователи считают, что против роботов сработал их внешний вид — они были маленькими и слишком напоминали игрушки. Возможно, такой же опыт с роботами, которые выглядили бы солиднее, прошёл по-другому.
Изучение взаимодействия людей и роботов показывает, что люди активнее взаимодействуют с искусственным интеллектом, если он облечён в форму, напоминающую самого человека или обладает какими-то человеческими чертами. Например, понимание гендерной принадлежности робота всегда увеличивает доверие к нему пользователя, что особенно заметно в эпоху голосовых помощников — большая их часть названа женскими именами.
Перевод Веры Портновой. Иллюстрации: Shuttertock (NotionPic)