Исследователи из Массачусетского технологического института (MIT) представили тест, благодаря которому любой желающий может ощутить себя на месте искусственного интеллекта, стоящего перед сложным моральным выбором. Электронный опросник Moral Machine — часть исследования, в рамках которого ученые пытаются сформулировать алгоритмы, следуя которым компьютер будет выбирать, чьей жизнью пожертвовать в экстремальных ситуациях.
Тест представляет собой серию вариаций на классическую этическую «проблему вагонетки»: выступая в роли компьютера самоуправляемой машины, желающим предлагается сделать выбор: разбить автомобиль, убив пассажиров, или задавить прохожих на переходе.
В каждом сценарии меняются потенциальные жертвы, их количество, социальные параметры (врач, чиновник, преступник, беременная женщина, и так далее). Постепенно задача усложняется. В игру вступают различные факторы: кто из потенциальных жертв переходит дорогу на красный? Кто отделается травмами? Что, если компьютер в части случаев не может предугадать смертельный или благополучный исход столкновения? По окончании тестирования пользователю сообщают, кем он жертвует чаще всего, и насколько в этом совпадает с другими пользователями.
Проанализировав результаты теста, ученые пришли к выводу, что, будучи отстраненными наблюдателями, люди, как правило, выбирают наиболее рациональное решение каждой из представленных проблем — часто предлагая жертвовать пассажирами автомобиля. Однако, как только речь заходит о том, чтобы стать пассажиром подобной машины, большинство голосует за искусственный интеллект, который поставит их собственную безопасность превыше всего. Возникает новая дилемма: самоуправляемые автомобили могут сделать дорожное движение безопаснее только благодаря тем же алгоритмам, из-за которых люди откажутся их покупать.





