Учёные выяснили, как дети ведут себя в разных психологических ситуациях, когда их партнёрами являются роботы. Исследователей интересовало, как дошкольники оценивают возможность машины обманываться и её представление о справедливости.
Эксперимент проводился на 31 итальянском ребёнке в возрасте 5–6 лет, а результаты исследования опубликованы в издании International Journal of Social Robotics.
Первый тест касался theory of mind. Этот англоязычный термин не имеет общепринятого перевода. Встречаются варианты «модель психического состояния», «модель сознания» и другие, а также дословный перевод «теория разума». Имеется же в виду способность человека представлять себе, что знает, думает и чувствует другой человек.
Представим себе, что Саша кладёт игрушку в красный ящик и уходит. После этого приходит Катя, перекладывает её в синий ящик и тоже уходит (Саша этого не видит). Вопрос: в каком ящике будет искать игрушку вернувшийся Саша?
Правильный ответ: в красном, поскольку он не знал, что в его отсутствие игрушку переместили. Чтобы дать верный ответ, нужно представить себе, что известно Саше и к каким выводам он может прийти на основе этих сведений.
Эта задача совсем не так проста, как кажется. Здоровые дети начинают правильно отвечать на этот вопрос лишь с четырёх лет (притом что многие другие интеллектуальные задания оказываются по плечу даже младенцам). А вот аутисты, например, всю жизнь испытывают трудности с такими задачами, хотя их общий интеллект может быть очень высоким.
В данном случае учёные хотели выяснить, одинаково ли работает детская теория разума, когда в роли Саши и Кати выступают живые люди и роботы.
Для этого испытуемым сначала объяснили происходящее, используя в качестве наглядного пособия двух кукол. Одна из них «клала» мяч в коробку, а другая «перекладывала» его в корзину. После этого участникам задали несколько вопросов, проверяя их память и теорию разума.
Затем им показали четыре видеоролика. В первом из них в обеих ролях выступали дети. Один ребёнок прятал плюшевого мишку в красную коробку, другой перекладывал в синюю. В другом «Сашей» был ребёнок, а «Катей» – робот-гуманоид. В третьем – наоборот. Наконец, в четвёртом видео обе роли достались роботам. После просмотра видео детям задали обычный вопрос: где «Саша» будет искать своего мишку?
Оказалось, что дошкольники так же охотно приписывают способность мыслить и ошибаться человекоподобному роботу, как и своему сверстнику. Результат не зависел от того, кто перепрятывал игрушку, человек или робот.
После этого психологи проверили, различает ли детская теория разума людей и машины в другом аспекте, а именно в ситуации, когда речь идёт о справедливости. Для этого они использовали классическую игру «ультиматум».
Поясним правила игры. Участнику А выдаётся некоторое количество денег. Он может полностью оставить их себе или отдать участнику Б ту часть суммы, которую сам посчитает уместной. Роль участника Б в том, что он может согласиться с участником А, взяв выделенную ему долю, или наложить на его решение вето. В последнем случае ни один из участников не получает ни копейки.
С точки зрения сиюминутной выгоды участнику Б стоит согласиться с любым решением участника А, если тот выделил ему хоть что-то, поскольку любая сумма лучше, чем ничего. Однако у людей обычно развито чувство справедливости. Если участник Б считает, что ему заплатили неприлично мало, он часто накладывает вето и остаётся без денег вообще, но зато наказывает и «жадину».
Отметим, что в долгосрочной перспективе такое возмущение выгодно. Если человек знает, что его накажут за эгоистичное решение, и обиженный сделает это даже в ущерб себе, он постарается быть справедливее. Это позволяет людям эффективнее сотрудничать друг с другом. Видимо, именно поэтому наше врождённое чувство справедливости было закреплено естественным отбором. К слову, оно свойственно не только людям, но также собакам и шимпанзе, хотя животным, конечно, предлагают более простые тесты.
С точки зрения теории разума «ультиматум» интересен тем, что игроку А приходится прогнозировать реакцию игрока Б. Удовлетворит ли его та или иная сумма? Не сочтёт ли он, что справедливость попрана слишком явно, и не оставит ли «скупого рыцаря» с носом? Ответ требует представлять себе, что думает и чувствует партнёр.
Психологи предложили испытуемым сыграть в «ультиматум» в роли игрока А. Вместо денег использовались наклейки или другие предметы, ценные для детей этого возраста.
В одних случаях игроком Б был другой ребёнок, а в других – робот. Как установили экспериментаторы, эта разница практически не сказалась на поведении игрока А. То есть дети приписывали машинам те же представления о справедливости, что и людям.
Однако на сознательном уровне те же испытуемые прекрасно понимали, что человек и робот – совсем не одно и то же, и что у них разный «внутренний мир». Это показал специально созданный исследователями опросник.
Заметим, что это классическое явление в экспериментальной психологии: вслух испытуемый совершенно искренне декларирует одни представления, а в его поступках проявляются другие. Именно поэтому прямые вопросы о том, что «подопытный» думает, чувствует или знает – не лучший инструмент познания, и многие выводы отцов-основателей психологии, полученные путём таких опросов, ныне опровергнуты.
Как отмечают авторы, это исследование стало ещё одним шагом к выяснению того, как человек психологически взаимодействует с роботами. Нет сомнения, что в скором будущем эти машины прочно войдут в нашу повседневную жизнь, и лучше заранее представлять себе, на что она при этом станет похожа и какие подводные камни здесь могут встретиться.
Автор: Анатолий Глянцев