Всё сочувствие, на которое мы решились
 

Культурные различия повлияли на решение проблемы вагонетки для автопилота

Исследователи из MIT проанализировали данные, собранные с помощью проекта Moral Machine, в рамках которого людям нужно было решить знаменитую проблему вагонетки в ситуации сломанных тормозов у беспилотного автомобиля, подъезжающего к пешеходному переходу.

Культурные различия повлияли на решение проблемы вагонетки для автопилота

Ученым удалось выделить определенный паттерн принятия таких решений (к примеру, детей спасают чаще, чем пожилых, а человеческая жизнь ценится выше жизни животного) и разделить людей на три кластера в зависимости от того, как на их решение влияют культурные различия и страна проживания. Статья опубликована в журнале Nature.

В 2014 году Медиа-лаборатория Массачусетского технологического института запустила проект Moral Machine — платформу, с помощью которой собираются данные о возможном решении искусственным интеллектом знаменитой проблемы вагонетки: в интерпретации проекта беспилотный автомобиль со сломанными тормозами едет в сторону пешеходного перехода. В каждом примере такой задачи на двух половинах перехода разные персонажи (к примеру, дети и взрослые), а решение может быть осложнено тем, что персонажи нарушают правила (переходят на красный свет), одна из сторон пешехода закрыта ограничителем, а в салоне автомобиля — люди, которые могут пострадать. Решения существует два, а принятие любого, как и в классической задаче с вагонеткой, приведет к жертвам.

Основная задача проекта — изучить мнения людей по поводу возможного принятия решений моральных задач искусственным интеллектом. Всего исследователям удалось собрать ответы 40 миллионов человек из 223 стран и территорий. В новой статье авторы проекта под руководством Эдмонда Авада (Edmond Awad) поделились собранными результатами. Всего ученые проанализировали данные, собранные из 130 стран с минимум 100 респондентами. Каждый участник решил 13 вариантов задачи, после чего заполнил краткую анкету, предоставив свои демографические данные.

Сначала ученые изучили общую динамику ответов пользователей. Так, участники чаще выбирали действие (направить автопилот в другую сторону), старались спасти большее количество людей, чаще спасали мужчин, а не женщин и предпочитали спасать детей, а не пожилых людей. Кроме того, участники опроса также чаще спасали людей, а не животных.

Затем ученые подробно рассмотрели ответы участников из разных стран. В зависимости от ответов ученые выделили три культурных кластера. В первый «западный» кластер попали жители Северной Америки и некоторых европейских стран — приверженцы католицизма и православия. Во второй «восточный» кластер попали жители азиатских стран и стран Ближнего Востока. Наконец, в третий «южный» кластер попали жители латинской и центральной Америки и жители бывших французских колоний.

Для каждого кластера был характерен свой паттерн принятия решений. К примеру, жители «южного» кластера чаще других спасали женщин и чаще предпочитали спасать людей более высокого статуса (бизнесменов, а не бездомных), участники из «восточного» кластера чаще спасали тех, кто не нарушает ПДД, а «западный» кластер чаще других предпочитал бездействие.

Кроме того, различия в принятии решений нашли и на уровне стран. К примеру, в Финляндии и Японии тщательно следят за соблюдением ПДД: именно поэтому жители этих стран решали пожертвовать нарушителями чаще, чем страны с более «мягкими» ПДД (например, Нигерия). Кроме того, жители стран с низкими показателями экономического неравенства (например, той же Финляндии) не показывали предпочтений в спасении либо бизнесменов, либо бездомных.

В целом работа показывает, насколько решения моральных дилемм обусловлены культурными различиями. Интересно, что общая динамика ответов совпала с базовыми принципами, по которым уже строится принятие таких решений искусственным интеллектом: например, по тому, что человеческая жизнь ставится выше, чем жизнь животного. Пока что непонятно, будут ли результаты этого опроса в дальнейшем применяться для обучения автопилотов принятию решений в похожих ситуациях. В компании Audi, к примеру, заявляют, что разработчикам беспилотных автомобилей необходимо «прийти к консенсусу по поводу того, на какие риски можно пойти».

Несмотря на важность полученных результатов следует также отметить, что поставленная перед участниками опроса задача — гипотетическая. Недавно ученые протестировали проблему вагонетки в реальности с участием людей и выяснили, что в реальной жизни они поступают не так, поэтому гипотетическая проблема может быть не самым валидным способом изучения моральных норм.

Автор: Елизавета Ивтушок

Ссылка на источник