Тест MIT помогает понять моральные дилеммы искусственного интеллекта
Исследователи из Массачусетского технологического института (MIT) представили тест, благодаря которому любой желающий может ощутить себя на месте искусственного интеллекта, стоящего перед сложным моральным выбором. Электронный опросник Moral Machine — часть исследования, в рамках которого ученые пытаются сформулировать алгоритмы, следуя которым компьютер будет выбирать, чьей жизнью пожертвовать в экстремальных ситуациях.
Тест представляет собой серию вариаций на классическую этическую «проблему вагонетки»: выступая в роли компьютера самоуправляемой машины, желающим предлагается сделать выбор: разбить автомобиль, убив пассажиров, или задавить прохожих на переходе.
В каждом сценарии меняются потенциальные жертвы, их количество, социальные параметры (врач, чиновник, преступник, беременная женщина, и так далее). Постепенно задача усложняется. В игру вступают различные факторы: кто из потенциальных жертв переходит дорогу на красный? Кто отделается травмами? Что, если компьютер в части случаев не может предугадать смертельный или благополучный исход столкновения? По окончании тестирования пользователю сообщают, кем он жертвует чаще всего, и насколько в этом совпадает с другими пользователями.
Проанализировав результаты теста, ученые пришли к выводу, что, будучи отстраненными наблюдателями, люди, как правило, выбирают наиболее рациональное решение каждой из представленных проблем — часто предлагая жертвовать пассажирами автомобиля. Однако, как только речь заходит о том, чтобы стать пассажиром подобной машины, большинство голосует за искусственный интеллект, который поставит их собственную безопасность превыше всего. Возникает новая дилемма: самоуправляемые автомобили могут сделать дорожное движение безопаснее только благодаря тем же алгоритмам, из-за которых люди откажутся их покупать.