Может ли искусственный интеллект приказывать нашим детям и управлять ими
25.08.2018
Интерактивные игрушки, умные колонки, голосовые помощники — всё это становится привычной частью окружения детей и одновременно вызывает беспокойство родителей. Ведь контролировать ответы Siri или технические уязвимости в игрушках почти невозможно. Учёные Плимутского университета провели исследование и выяснили, насколько дети доверяют искусственному интеллекту.
«Если друзья тебе скажут из окна прыгнуть, пойдёшь прыгать?» — обычный приём, который использовали и продолжают использовать раздражённые родители в попытке доказать ребёнку, что не надо идти на поводу у сверстников. Теперь у детей есть не только реальные друзья, но и виртуальные: голосовые колонки, «умный дом», интерактивные «умные» игрушки. Искусственный интеллект всё больше используется в воспитании и образовании детей, те же самые игрушки и виртуальные помощники учат детей вежливости и дают им разные советы.
![](https://image.mel.fm/i/6/61nWTg3oEM/590.png)
Тема рисков распространения искусственного интеллекта поднималась уже не один раз — проблема не только в том, что изначально заложено в робота. В системах подключения игрушек и других роботов находят уязвимости, которые можно использовать совсем не в воспитательных целях. Тут возникают другие вопросы — как дети взаимодействуют со своими игрушками, доверяют ли искусственному интеллекту и готовы ли воспринимать его советы без критического осмысления.
Исследование провели учёные из Германии и Великобритании, чтобы понять, как сильно роботы влияют на детей. Кроме того, пытались выяснить, повышается ли доверие к продуктам, услугам и сервисам, которые рекомендует искусственый интеллект (по сравнению с обычной рекламой).
Изучение реакции людей на рекомендации и советы роботов провели в формате эксперимента Аша, возможно, одного из самых известных и наиболее влиятельных доказательств социального конформизма. Серия тестов, которые Соломон Аш впервые провёл в 1951, показывала, как люди, попадая под влияние группового мышления, начинают отрицать даже самые очевидные факты.
В ходе своих экспериментов Аш приглашал 50 студентов колледжей мужского пола поучаствовать в проверке зрения. Студентов собирали вместе и показывали им график с четырьмя линиями разной длины, три из которых были обозначены буквами A, B и C. Затем их просили поочерёдно сказать, какая из трёх линий совпадала по длине с той, у которой не было обозначения. Ответ был очевиден, но участники эксперимента не знали, что все студенты, кроме одного, были актёрами, которые давали одинаковые неверные ответы.
![](https://image.mel.fm/i/b/bFjP4NZk1l/590.png)
Настоящий испытуемый всегда давал ответ последним. Выяснилось, что примерно треть ответов не подставных участников в итоге была неверной. Причиной же было то самое социальное воздействие группы. Всего Аш провёл 20 испытаний, в ходе которых около 75% участников подстраивались под общее мнение хотя бы однажды, и только 25% ни разу не уступили.
«Этот небольшой эксперимент был так изящен, что мы подумали: почему бы нам не воспроизвести его с роботами?» — так комментирует решение выбрать именно такую форму изучения влияния на людей Тони Билпэм, профессор робототехники Университета Плимута. Он вместе с коллегами повторил опыт, слегка изменив его: испытуемые были разделены на две группы, детскую и взрослую.
В младшую группу входили 43 ребёнка в возрасте от 7 до 9 лет, форма полностью повторяла эксперимент Аша: те же самые линии, длину которых предлагалось сопоставить. Когда детей тестировали индивидуально, они давали правильный ответ в 87% случаев. Затем форма менялась — вместе с ребёнком отвечать на вопросы садились три человекоподобных робота, которые давали исходно неправильные ответы. Хотя линии были очевидно различны, дети-участники начали сомневаться и следовать за роботами в своих ответах. В итоге процент верных ответов у детей тут же упал до 75.
Аналогичный эксперимент провели с участием группы из 60 взрослых. В отличие от детей, они продолжались настаивать на правильных ответах даже тогда, когда роботы пытались их сбить. Взрослые тут же указывали на то, что робот может быть сломан.
![](https://image.mel.fm/i/m/mvdV0lsQOZ/590.png)
Правда, исследователи считают, что против роботов сработал их внешний вид — они были маленькими и слишком напоминали игрушки. Возможно, такой же опыт с роботами, которые выглядили бы солиднее, прошёл по-другому.
Изучение взаимодействия людей и роботов показывает, что люди активнее взаимодействуют с искусственным интеллектом, если он облечён в форму, напоминающую самого человека или обладает какими-то человеческими чертами. Например, понимание гендерной принадлежности робота всегда увеличивает доверие к нему пользователя, что особенно заметно в эпоху голосовых помощников — большая их часть названа женскими именами.
Перевод Веры Портновой. Иллюстрации: Shuttertock (NotionPic)