secretmag.ru
Опубликовано 03 октября 2016, 15:13

Четвёртый закон робототехники: Почему у машин скоро появятся права

Им нужны твоя одежда, сапоги и мотоцикл

Последние несколько месяцев займут важное место в истории эмансипации машин. В сентябре Британский институт стандартов выпустил документ, регламентирующий этику роботов. Если бы не общие (что, впрочем, неизбежно) формулировки, это был бы полноценный ГОСТ. А континентальным андроидам повезло ещё больше — Европарламент с начала лета обсуждает возможность сделать их практически гражданами. «По меньшей мере некоторые, наиболее сложные, автономные роботы могут получить статус электронных лиц, наделяющий их специфическими правами и обязанностями», — говорится в проекте резолюции, которую депутаты из Комитета по законодательству направили своим коллегам.

Четвёртый закон робототехники: Почему у машин скоро появятся права

Последние несколько месяцев займут важное место в истории эмансипации машин. В сентябре Британский институт стандартов выпустил документ, регламентирующий этику роботов. Если бы не общие (что, впрочем, неизбежно) формулировки, это был бы полноценный ГОСТ. А континентальным андроидам повезло ещё больше — Европарламент с начала лета обсуждает возможность сделать их практически гражданами. «По меньшей мере некоторые, наиболее сложные автономные роботы могут получить статус электронных лиц, наделяющий их специфическими правами и обязанностями», — говорится в проекте резолюции, которую депутаты из Комитета по законодательству направили своим коллегам.

Про всевозможные этические проблемы, алгоритмы и законы, регулирующие поведение машин, говорят из каждого утюга (а скоро о них начнут говорить и сами утюги), но идея прав роботов почти не обсуждается, наверно потому, что интуитивно кажется абсурдной. Но это только на первый взгляд. Европейский проект, хоть и сваливает в одну кучу сразу несколько не связанных между собой проблем, интересен и важен тем, что впервые ставит этот вопрос на официальном уровне.

Полтора года назад интернет облетел ролик, в котором сотрудник принадлежащей Google робототехнической компании Boston Dynamics пинает робота Spot, слегка напоминающего собаку. Видео подняло бурю: люди по всему миру выражали возмущение и вступались за машину. Издание The Verge опубликовало статью «Прекратите бить роботов, пока они не начали бить нас», в которой автор пугает читателей тем, что недружественный искусственный интеллект, посмотревший на унижение Spot, может и отомстить. Это аргумент смешон в своей наивности, но есть и другие, более серьёзные причины не унижать роботов.

Социальные роботы, которые коммуницируют с людьми и принимают на себя их роли, заслуживают юридической защиты, считает Кейт Дарлинг из Массачусетского технологического института (MIT). Она написала целый манифест в защиту своей позиции. Люди испытывают к роботам эмоциональную привязанность и склонны их одушевлять, считает она, а значит, общество должно наказывать жестокость по отношению к человекообразным роботам точно так же, как оно наказывает жестокость по отношению к кошкам или собакам. Эпиграфом к её статье стоит высказывание Иммануила Канта: «Тот, кто жесток к животным, ожесточается и по отношению к людям».

Как бы странно это ни звучало, Кейт Дарлинг, скорее всего, окажется права и социальные роботы получат юридическую защиту. Умных роботов становится всё больше, умные роботы с неизбежностью будут социальными, и люди, в свою очередь, не сумеют их не одушевлять. Алгоритмы поработят людей — если не нашу волю, то точно наши чувства.

Важный член семьи

Kismet

Kismet

© © Peter Menzel

Десять лет назад физик Марк Тилден построил робота для обезвреживания противопехотных мин. Самый простой способ обезвредить мину — наступить на неё, поэтому у робота было несколько ног и он бегал на них по заминированной местности, теряя одну конечность за другой, припадал на бок, перегруппировывался, неловко переваливался и полз дальше. С точки зрения робототехников, испытание было абсолютным успехом, но армейский полковник, руководивший учениями, их остановил. Он не мог спокойно смотреть, как покалеченный и обожжённый робот полз, отталкиваясь от земли последней своей ногой.

Люди жалеют роботов. Люди приписывают роботам моральную ответственность. Люди и взаимодействуют с роботами как с себе подобными. Новозеландский исследователь Кристоф Бартнек с соавторами заставлял роботов подкупать людей: они намеренно поддавались в игре «Камень — ножницы — бумага» (испытуемые получали некоторую сумму за каждую победу) в расчёте на то, что им вернут услугу. Только 10% людей сообщили экспериментаторам о том, что произошло, и лишь трое решили, что робот сломан. Подавляющему большинству людей тот факт, что робот плетёт интригу, не показалось чем-то удивительным.

Люди считают роботов почти живыми существами. Один из самых знаменитых экспериментов в социальной психологии описал в начале 1960-х Стенли Милгрэм. Он хотел проверить, могут ли люди причинять друг другу вред под давлением авторитета. Испытуемые должны были бить током незнакомых людей (на самом деле — актёров, симулировавших боль) в наказание за неправильные ответы. Если испытуемые не хотели этого делать, экспериментатор давил на них. Как ни удивительно, многие оказались способны пытать невиновных. В 1990-х новозеландский учёный Кристоф Бартнек попытался провести вариацию эксперимента Милгрэма — только мучить надо было не человека, а робота. В эксперименте испытуемый и его будущая жертва (робот) сидели бок о бок и играли в компьютерную игру. Затем испытуемый должен был стереть память робота, полностью уничтожив его «личность». Робот, согласно дизайну эксперимента, понимал, что происходит, и пытался спасти свою жизнь: «Ты же не собираешься всерьёз меня выключить? Пожалуйста! Если не будешь меня выключать, я буду сидеть тихо-тихо!» Для людей, которые совершенно точно знают, что всего лишь стирают файл, это оказалось непростой задачей.

«Если не будешь меня выключать, я буду сидеть тихо-тихо!»

От склонности антропоморфизировать роботов не могут избавиться даже профессионалы. Сотрудники лаборатории MIT, которые создавали знаменитого робота Kismet, отгораживались от него при помощи ширмы, поскольку его взгляд не позволял им сконцентрироваться на работе. Создательница Kismet Сьюзен Бизил, чувствовала себя, по собственному признанию, совершенно опустошённой, когда контракт не позволил ей, уходя из лаборатории, забрать робота с собой. Но горевала она недолго. Сейчас у неё новый социально-роботехнический стартап Jibo, который собрал почти $4 млн на краудфандинговом сайте Indiegogo, а перед этим — ещё $25 млн венчурных инвестиций.

Можно подумать, что люди одушевляют только человеко- или звероподобных роботов, но это совсем не так. Десять лет назад, когда самым распространённым бытовым роботом был пылесос Roomba, исследователи из Технологического института Джорджии показали, что по-человечески можно относиться даже к нему. Они обнаружили, что почти каждое четвёртое сообщение на форуме владельцев Roomba демонстрировало ту или иную степень интимности по отношению к пылесосу, и поговорили с несколькими десятками владельцев умной бытовой техники. Один из хозяев рассказал исследователям, что теперь его дети заранее убирают с пола мелкие предметы, так как знают, что теоретически они способны повредить Roomba. Владельцы пылесосов говорили учёным, что «переживают» или «волнуются» за своего робота, когда тот где-нибудь застревает, и спешат к нему на помощь. Один мужчина из опрошенных перестал использовать в быту глагол «пылесосить». С появлением Roomba он стал говорить: «Я играю с роботом». Люди называли свой пылесос «важным членом семьи» и «почти питомцем», приписывали ему чувства, намерения и уникальные черты. Одна участница исследования выкинула свой ковёр, потому что он, с её точки зрения, фрустрировал пылесосившего его робота.

Свойственная людям способность очеловечивать любой кусок пластика совершенно поразительна. Всё, что требовалась Roomba, чтобы пробудить в людях бездны эмпатии, — проявить нестандартное (с человеческой точки зрения) поведение.

Большое жульничество искусственного интеллекта

Четвёртый закон робототехники: Почему у машин скоро появятся права

© © Softbank

Рынок потребительских роботов растёт как на дрожжах. В 2015 году было продано 6,6 млн сервисных роботов (пылесосов, газонокосилок и очистителей бассейнов), а в 2020 году, как подсчитала исследовательская компания Tractica, их продадут больше 30 млн. Рынок умных роботов, то есть таких, которые способны выполнять свои функции без вмешательства человека, достигнет в том же 2020 году $8 млрд. Существенную часть этих роботов составят социальные, общительные и симпатичные на вид создания. Совсем не только потому, что людям так приятнее.

Первая причина состоит в том, что для многих ролей, зарезервированных в нашем мире за машинами, требуется некоторый антропоморфизм. Роботу-сиделке в доме престарелых или, скажем, роботу-охраннику в детском саду нужно вызывать у людей добрые чувства просто для того, чтобы полноценно выполнять свои должностные обязанности. Нормальная работа возможна только тогда, когда нездоровый или пожилой человек испытывает хоть какие-то чувства по отношению к тому, кто о нём заботится. И хотя нынешние роботы, занятые медицинским уходом, не слишком похожи на людей, эта ситуация неизбежно изменится. Тем более, страны, в которых особенно много пожилых людей — Япония и Китай, — известны вместе с тем и исторической нежностью по отношению к роботам.

Вторая причина производства социальных роботов — возможности для обучения. Человек, самое разумное известное нам существо, не обладает всей полнотой своих интеллектуальных возможностей с рождения, а приобретает их, общаясь с другими людьми. Способность к обучению — один из интуитивно понятных признаков «настоящего» робота. Кто из нас назовёт роботом механизм, неспособный менять своё поведение и свои представления с течением времени? По мнению некоторых учёных, эффективное обучение у роботов, как и у людей, должно быть социальным. Исследователи из Плимута показали, что роботы быстрее обучались языковым играм, когда взаимодействовали с людьми. В реальной жизни такое взаимодействие будет возможно, если люди сами захотят общаться с роботами. А это значит, что те должны быть социальными. Любой социальный робот при этом будет казаться людям разумным.

Одна участница исследования выкинула ковёр, потому что он, с её точки зрения, фрустрировал робота, который его пылесосил

С точки зрения многих учёных, занятых в робототехнике, сильный искусственный интеллект, полноценное сознание машины, создать невозможно. Но чтобы люди только думали, что имеют дело с мыслящим существом, достаточно имитации, обмана. Человеческий мозг расцвёл во всём своём великолепии для того, чтобы решать социальные задачи: манипулировать соплеменниками, распознавать обман, поддерживать коммуникацию (это представление об эволюции рассудка известно под названием «гипотезы Макиавелли»). Социальный процессор, встроенный в человеческое сознание, настолько мощный, что готов воспринимать мыслящим и одушевлённым существом практически любой объект, обладающий сложным поведением, даже если поведение это создано алгоритмом. В этом состоит «большое жульничество» искусственного интеллекта: когда робот выглядит как разумное милое создание, мы считаем его разумным — все душевные качества машины проецируются нами на него.

Знаменитый тест, придуманный Аланом Тьюрингом, был построен на идее, что машина, способная обмануть человека, уже может считаться разумной. Это могло бы быть справедливо в отношении машин, но категорически не вяжется с реальной человеческой природой. Люди счастливы обманываться. Как они счастливы обманываться.

6
,
6
м
л
н
сервисных роботов

В 2015 году было продано

К 2050 году обыденными станут близкие отношения между людьми и роботами. Автор книги «Любовь и секс с роботами» Дэвид Леви — известный специалист по искусственному интеллекту, а вовсе не по искусственным гениталиям. Он двукратный обладатель премии Лёбнера, которую вручают за самого антропоморфного чат-бота. Его уверенность в собственных предсказаниях проистекает из этого опыта. Люди неизбежно будут привязываться к роботам и воспринимать малейшие непредсказуемости в их поведении как знаки внимания, считает он. А значит, всё дело только за созданием физической оболочки, в которую легко влюбиться.

Модель №2

Четвёртый закон робототехники: Почему у машин скоро появятся права

© © Locus Robotics

Маттиас Шойтц из Лаборатории взаимодействия людей и роботов Университета Тафтса провёл множество экспериментов. Он выяснил, что в ситуациях, когда робот и человек вместе решают какую-то задачу, люди ценят в роботах проявление самостоятельности. Он программировал роботов, чтобы они демонстративно не подчинялись указаниям (мотивируя это тем, что «заканчивается время»), и это улучшало, а не ухудшало их оценки. Люди ценят в роботах человечность, и Шойтца это скорее пугает.

Есть множество свидетельств привязанности людей к роботам, но вот только сами роботы к людям не привязываются. Они в большинстве своём даже не имеют программного обеспечения для распознавания людей. С точки зрения Roomba или военного робота-пакбота, применявшегося в Ираке, каждый из нас — всего лишь препятствие на пути.

Неразделённые чувства по отношению к роботам, считает Шойтц, — верный путь к эксплуатации и несчастьям. Он предлагает три возможных способа избежать плохих последствий. Во-первых, программировать в роботах определённые этические принципы. Во-вторых, снабжать их системой, которая постоянно чётко и недвусмысленно сообщает людям, что робот не испытывает эмоций и не может ответить на эмоции взаимностью (так на пачках сигарет пишут, что «курение убивает»). Наконец, признаёт он, есть и третий радикальный, почти утопический путь: встроить в роботов эмоции. Проделать с ними тот же жестокий трюк, который проделала с нами эволюция. Научить их понимать и жалеть своих биоорганических братьев.

Не все коллеги Шойтца готовы рисковать и идти по третьему пути: люди адаптируются к роботам гораздо быстрее, чем роботы к людям. Стэнфордский специалист по робототехнике Джон МакКарти ещё в 1990-х предупреждал коллег, что не стоит делать из роботов мишени для человеческих эмоций. «Если роботы смогут выглядеть грустными, заскучавшими или разозлёнными, люди начиная с детского возраста будут относиться к ним как к личностям. В этом случае роботы, вероятно, получат какой-то статус в человеческом обществе. Человеческое общество и без того достаточно запутанно». Тот самый статус роботы, кажется, получают на наших глазах, для начала — в Евросоюзе.

Умные роботы с неизбежностью будут социальными, и люди не смогут их не одушевлять

В великом романе «Модель №2», по которому был снят фильм «Крикуны», колонисты позволяют роботам эволюционировать самостоятельно, чтобы эффективнее решать возникающие проблемы. Роботы, понятное дело, в какой-то момент эволюционируют в безжалостных убийц. Но если первое поколение не оставляет больших сомнений в своих намерениях (больше всего напоминая популяцию самодвижущихся циркулярных пил), то второе и внешним видом, и поведением неотличимо от обычных, причём беззащитных людей, мальчика или привлекательной молодой женщины. Филип Дик, который, кажется, глубже любого другого писателя смог погрузиться в психологию взаимоотношений людей и роботов, первым понял, что антропоморфные создания завоюют человечество гораздо быстрее, чем Skynet или Hal 9000 (хотя, если исследования не врут, человек способен одушевить и полюбить хоть Skynet, хоть циркулярную пилу). В ещё одной экранизированной книге Дика «Мечтают ли андроиды об электроовцах» («Бегущий по лезвию» Ридли Скотта) описана неразделённая любовь к роботу.

Проект резолюции, лежащий сейчас в Европарламенте, может и не пройти прямо сейчас, но это не значит, что роботы не получат юридической защиты. Они этого добьются рано или поздно, потому что сумеют воспользоваться очевидным несовершенством человеческой природы. По этой же причине разумные роботы (если и когда они появятся), будут претендовать на получение полных гражданских прав. Если захотят, конечно.

Фотография на обложке: Paul Gilham / Getty Images