10 ноября 2017 года в 12:29

Почему искусственный интеллект — это очень страшно

— пугает Иван Новиков (Wallarm)

Почему искусственный интеллект — это очень страшно

Искусственный интеллект скоро будет повсюду. Если вас это не пугает, наверно, вы просто не в курсе, что даже его создатели не понимают, как он работает.

Давайте для начала рассмотрим такую простую штуку, как обычный пассажирский самолёт. Ни для кого не секрет, что большую часть полёта лайнер управляется автоматически, а задача пилота сводится к контролю за автоматикой. Автопилоты применяются в пассажирских авиаперевозках десятки лет, и ярых противников этого в общем нет. Тем более, по статистике, человеческий фактор приводит к авариям чаще, чем отказ электроники.

Отличие «безопасного» интеллекта системы автоматического управления самолётом от искусственного интеллекта в общепринятом понимании состоит в том, что автопилот является исполнителем ограниченного набора инструкций, заданных человеком. Действия, которые может совершить автопилот, известны заранее. Или должны быть известны.

Мы не опасаемся того, что автопилот вдруг решит полететь в Дубай, а не в Парижа. Мы можем бояться разве что того, что человек, который сделал автопилот, допустил какую-нибудь ошибку, из-за которой самолёт изменит курс. Запомните этот факт, он пригодится нам в дальнейшем.

Рассмотрим теперь более сложный пример — современную систему машинного обучения. Она состоит из искусственных нейронных сетей, каждая из которых представляет собой множество отдельных простых элементов, связанных друг с другом. Каждый элемент — искусственный нейрон. В зависимости от величины входного сигнала, приходящего на него, он отправляет выходные сигналы разной величины на другие нейроны, которые к нему подключены. Похоже на корни растения.

Первый вопрос, который задают студенты и люди, которые только начинают разбираться в теме, звучит так: если всё настолько просто, почему мы не можем предсказать поведение такой системы по всех случаях? Действительно, странно принять то, что мы каким-то образом соорудили сложную искусственную систему, понимаем в целом принципы её устройства, однако не может предсказать её поведение. Но мы действительно не можем этого сделать.

Дело в том, что для проверки всех возможных вариантов потребовалось бы слишком много времени. Математики по всему миру бьются над этой проблемой, но пока ответа нет. Существенно продвинуться в этом направлении лишь в этом году смогли учёные из Еврейского университета в Иерусалиме.

Чтобы показать масштаб задачи, приведу ещё один пример. Представьте, что мы с вами делаем беспилотный автомобиль. На вход нейронной сети, которая им управляет, передаётся чёрно-белая картинка с камеры — размером, допустим, 16 на 16 точек. Это ужасно низкое разрешение. Никто не доверится машине с таким автопилотом, но посмотрите, сколько вариантов различных изображений существует даже для такого разрешения:

2 ^ (16 * 16) = 115 792 089 237 316 195 423 570 985 008 687 907 853 269 984 665 640 564 039 457 584 007 913 129 639 936

В этом числе — 79 цифр!

Разумеется, реальные беспилотные автомобили принимают и выдают куда больше информации. Но давайте ограничимся нашим примером и прикинем, сколько потребуется времени, чтобы проверить корректность работы нейросети в каждом из возможных вариантов.

Представим, что мы написали необходимые проверки и запускаем их с немыслимой скоростью в 100 млрд тестов в секунду. Тогда эта работа займёт всего лишь:

2 ^ (16 * 16) / (100 * 10 ^ 9) / 3600 / 24 / 365 = 36 717 430 630 808 027 468 154 168 254 911 183 362 909 051 454 097 083 980 041,09 лет.

Для сравнения, учёные считают, что Вселенная существует 13,075 млрд лет. Это число на 48 порядков меньше того, что мы только что получили (кстати, для двухцветной картинки размером 8x8 точек нам потребовалось бы всего-навсего пять лет тестов).

То, что мы уже начали повсеместно использовать нейронные сети, но еще не поняли до конца как они работают, — это очень странный и очень интересный факт.

Никто не может гарантировать, что самоуправляемая машина не решит резко ускориться, если увидит на дороге, например, кошку необычного окраса. Поэтому решения, принимаемые нейрсетями, проверяются на адекватность простыми аналитическими методами. То есть в ситуации со странной кошки, которая взрывает мозг нейросети, аварию должен предотвратить старый добрый механический автомат.

Обсудить ()
Новости партнеров