В первое воскресенье 2015 года Элон Маск вышел на сцену закрытой конференции в Пуэрто-Рико, чтобы обсудить взрыв интеллекта. Этот страшный теоретический термин означает неконтролируемый семимильный прыжок в познавательной способности искусственного интеллекта.
Как Маск, так и известный физик Стивен Хокинг считают, что однажды ИИ может стать приговором для человеческой расы.
Само появление такой фигуры, как Элон Маск, на конференции, которая долгое время была вотчиной смутных академиков, — знаменательное событие. Однако конференция с оптимистическим названием «Будущее ИИ: возможности и проблемы» стала беспрецедентной встречей светлейших умов человечества; приехал специалист по этике ИИ из Оксфорда Ник Бостром, основатель Skype Яан Таллинн и эксперт по ИИ в Google Шейн Легг.
Маск и Хокинг обеспокоены тем, что ИИ может привести к апокалипсису, хотя есть и более очевидные угрозы. За последние пять лет достижения в области искусственного интеллекта — в частности, в сфере глубоких нейронных сетей — вывели искусственный интеллект в нашу повседневную жизнь. Google, Facebook, Microsoft, Baidu — если назвать несколько компаний — нанимают специалистов по искусственному интеллекту с беспрецедентной скоростью и вводят сотни миллионов долларов в гонку за более совершенные алгоритмы и умные компьютеры.
Проблемы искусственного интеллекта, которые казались нерешабельными всего несколько лет назад, уже решены. Глубокое обучение позволило состояться качественному распознаванию речи. Google строит самоуправляемые автомобили и компьютерные системы, которые могут самостоятельно учиться определять кошек на видео. Роботы-собаки ходят почти так же, как их живые сородичи.
«Начинает работать компьютерное зрение, заработало распознавание речи. Есть определенное ускорение в развитии систем искусственного интеллекта, — говорит Барт Зельман, профессор Корнелльского университета и этик ИИ, бывший на мероприятии с Маском. — Все это заставляет заниматься непосредственно этикой ИИ».
Учитывая этот существенный рост, Маск и другие ученые призывают тех, кто создает эти продукты, тщательно рассматривать этические последствия. На конференции в Пуэрто-Рико делегаты подписали открытие письмо, призывающее заняться тщательным изучением последствий развития искусственного интеллекта, чтобы избежать возможных ошибок. Маск тоже подписался. «Ведущие исследователи ИИ говорят, что безопасность ИИ — очень важная вещь. Я с ними согласен».
Google созывает совет
Девять исследователей из DeepMind, компании по разработке искусственного интеллекта, которую приобрела Google в прошлом году, тоже подписались под письмом. В целом история письма уходит корнями еще в 2011 год. Тогда Яан Таллинн познакомился с Демисом Хассабисом после того, как последний сделал презентацию на конференции по искусственному интеллекту. Не так давно Хассабис основал горячий стартап DeepMind, и Таллинн этим весьма заинтересовался. С момента основания Skype он стал евангелистом безопасного ИИ и искал сторонников. Двое мужчин разговорились об ИИ, и вскоре Таллинн инвестировал в DeepMind, а в прошлом году Google выложила 400 миллионов долларов за компанию с 50 сотрудниками. В один присест Google завладела крупнейшим доступным пулом талантов и экспертов в сфере глубокого обучения. Google не раскрывает амбиции DeepMind, но доподлинно известно, что DeepMind занимается исследованиями, которые позволят роботам или самоуправляемым автомобилям лучше ориентироваться в окружающей среде.
Все это беспокоит Таллинна. В презентации, которую он представил на конференции в Пуэрто-Рико, Таллинн вспомнил, как однажды за обедом Хассабис показал ему систему машинного обучения, которая могла играть в классическую аркадную игру 80-х годов Breakout. Мало того, что машина освоила игру, она еще и играла в нее с безжалостной эффективностью, что потрясло Таллинна. Хотя «технолог во мне удивился этому достижению, другая моя сторона задумалась о том, каким безжалостным может быть искусственный интеллект, демонстрирующий невероятные возможности», вспоминает Таллинн.
Разрешения и запреты этического плана уже принимались в истории, например, молекулярными биологами во время встречи 1975 года Asilomar Conference on Recombinant DNA (Асиломарская конференция по рекомбинантной ДНК), когда они договорились о стандартах безопасности, направленных на предотвращение создания искусственных генетически модифицированных организмов и создания угроз для общественности. Асиломарская конференция пока дала более конкретные результаты, нежели разговоры в Пуэрто-Рико.
На конференции в Пуэрто-Рико участники подписали письмо, излагающее приоритеты научных исследований в области ИИ — экономические и правовые последствия, а также безопасность систем ИИ. Вчера Элон Маск выделил 10 миллионов долларов на эти исследования (об этом ниже). Это важные первые шаги по удержанию роботов от разрушения экономики. Некоторые компании пошли еще дальше. В прошлом году канадский производитель робототехники Clearpath Robotics пообещал не создавать автономных роботов для использования в военных целях. «Люди, которые против роботов-убийц: мы поддерживаем вас», — написал технический директор Clearpath Robotics Райан Гэрипай на сайте компании.
Обещания не строить терминаторов — это один шаг. Компании по разработке искусственного интеллекта вроде Google должны думать о безопасности и юридической ответственности своих самоуправляемых автомобилей, роботов, оставляющих людей без работы, и непреднамеренных последствий алгоритмов, которые могут вести себя несправедливо по отношению к людям. К примеру, этично ли с точки зрения Amazon продавать продукты по одной цене одним людям, и по другой — другим? Каковы гарантии того, что торговый алгоритм не обрушит товарные рынки? Что будет с людьми, которые работают таксистами и водителями автобусов в эпоху самоуправляемого транспорта?
Итамар Арель — основатель Binatix, компании глубокого обучения, которая работает на фондовом рынке. Он не был на конференции в Пуэрто-Рико, но подписал письмо вскоре после прочтения. По его словам, ввиду грядущей революции в сфере разумных алгоритмов и дешевых разумных роботов, все это нужно тщательно изучать и прорабатывать. «Пришло время выделить дополнительные ресурсы для понимания социальных последствий систем искусственного интеллекта, которые будут вытеснять голубые воротнички с рабочих мест, — говорит он. — На мой взгляд, очевидно, что они будут развиваться со скоростью, при которой общество не сможет их догнать. И это проблема».
СМИ могут как угодно раздувать из мухи слона, снабжая подобные материалы заголовками на тему того, что ИИ поработит мир, но на деле все куда прозаичнее. Просто последствиями ИИ будут заниматься на метауровне, силами советов по этике и консультантов по безопасности искусственного интеллекта.
10 миллионов на борьбу с искусственным интеллектом
Элон Маск переживает, что исследования искусственного интеллекта могут пойти не в ту степь, совершенно не в ту.
Может показаться неожиданным, что архитектор концептуальной высокоскоростной транспортной системы Hyperloop, генеральный директор компаний SpaceX и Tesla думает именно так. Но Маск настолько серьезно к этому относится, что после конференции в Пуэрто-Рико он пожертвовал 10 миллионов долларов Институту будущего жизни (Future of Life Institute, FLI), который будет разрабатывать глобальную исследовательскую программу, направленную на сохранение ИИ «полезным для человечества». Другими словами, Маск хочет, чтобы ИИ вырос исключительно в полезную, а не опасную вещь для людей.
Программа — и эти 10 миллионов долларов — будут спонсировать исследования по всему миру, направленные в этом русле. В понедельник FLI откроет портал, позволяющий ученым подавать заявки на гранты по программе.
Долгое время искусственный интеллект оставался в поле зрения Голливуда и научной фантастики либо обсуждался в абстрактной философии. Но по мере того, как гиганты вроде Google включают ИИ в саму сердцевину своих текущих и будущих технологий, а волна мелких стартапов создает бизнес на гребне этой науки, мы не можем отрицать мощное развитие ИИ. Однако дебаты по поводу этической стороны вопроса будут продолжаться еще долго.
Автор: Илья Хель