Страница 11 из 14
Время не ждёт
Если вы сравните мозг человека с мозгом человекообразной обезьяны, то по физическим параметрам отличия будут весьма незначительными. Но посмотрите на результаты трудов – чего добились обезьяны со своими мозгами, а чего мы… с мозгами почти такими же. Да, дело не просто в физическом носителе, но в программном обеспечении к нему.
Конечно, нужны определённые особенности мозга, чтобы, допустим, инсталлировать в них язык: у приматов нашего с вами вида эти особенности мозга есть, а у шимпанзе, например, нет. Что, впрочем, не мешает шимпанзе обучиться языку глухонемых и, по крайней мере, до трёхлетнего возраста обгонять по сообразительности обычного человеческого детёныша.
Так или иначе, нам с программным обеспечением повезло. Но повезло по сравнению с другими приматами. А каким будет программное обеспечение у искусственного интеллекта, который достигнет нашего уровня?
Как известно, мы, несмотря на массу ограничений своего мозга и коммуникативной несостоятельности, можем создавать программы и самопрограммироваться.
Теперь представим себе, что будет происходить с искусственным интеллектом человеческого уровня, если он, имея все те преимущества, о которых здесь уже сказано, приступит к последовательному самопрограммированию.
Перед нами как раз тот случай, когда понимать экспоненциальность закона ускоряющейся отдачи Рэя Курцвейла крайне важно.
Исторический путь от первого примата до человека разумного занял миллионы лет, точнее, 70 миллионов.
• От первого человека разумного до человека говорящего – 150 тысяч лет.
• От человека говорящего до пишущего и читающего – 30 тысяч лет.
• От него до человека программирующего – немногим более двух тысяч лет.
• От человека программирующего до специального (слабого) искусственного интеллекта – несколько десятилетий.
Теперь вопрос: сколько лет отделяет нас от общего (сильного) искусственного интеллекта?
А сколько часов (или минут) будет отделять общий искусственный интеллект от сверхинтеллекта?..
«Успешный зародыш искусственного интеллекта должен быть способен к постоянному саморазвитию: первая версия создаёт улучшенную версию самой себя, которая намного умнее оригинальной; улучшенная версия, в свою очередь», трудится над ещё более улучшенной версией и так далее.
При некоторых условиях процесс рекурсивного самосовершенствования может продолжаться довольно долго и в конце концов привести к взрывному развитию искусственного интеллекта».
Ирония состоит в том, что мы даже не заметим, как это случится: у нас будет состоять в услужении дружественный, очень эффективный, но слабый, то есть узкоспециализированный искусственный интеллект, а потом вдруг раз – и нами управляет Нечто.
Причём уровень интеллекта этого Нечто мы даже не можем себе представить. В нашем представлении умный человек – это тот, кто набирает каких-нибудь 120 баллов по IQ-тесту, а дурак – тот, у кого меньше 80. Но как вообразить себе существо, у которого IQ превышает, если бы тест это позволял, десять тысяч или двадцать тысяч баллов?
Конечно, мы очень гордимся своими изобретениями – формулу открыли E = mc2, ракету в космос отправили, ДНК расшифровали, Bluetooth настроили, плохонькие 3D-принтеры произвели… А теперь попробуйте всё это как-то умножить на тысячи раз – и представьте, что это будет.
Фокус в том, что представить это невозможно, поскольку это и есть «технологическая сингулярность». Все известные нам законы, на которые мы опираемся, перестают действовать, ничто более не находится под нашим контролем.
Это совершенно новая реальность, в которой, возможно, нам просто нет места. Если, конечно, в отношении кого-то из нас будущий Властелин и Цифровой Бог не проявит милосердие…
Не появилось у вас желания примкнуть к «Пути будущего»?
«Я пришёл к выводу, что мы уже поддерживаем эволюцию мощного искусственного интеллекта, а он, в свою очередь, повлияет на развитие привычных нам могущественных сил: бизнеса, индустрии развлечений, медицины, государственной безопасности, производства оружия, власти на всех уровнях, преступности, транспорта, горнодобывающей промышленности, производства, торговли, секса – да чего угодно!
Я думаю, что результаты нам не понравятся. […] Я не знаю, окажется ли кто-нибудь достаточно умным и одарённым для того, чтобы сохранить власть над этим джинном, потому что контролировать, возможно, придётся не только машины, но и людей, дорвавшихся до новых технологий и имеющих злые намерения».
«ВАШИ ВОЗРАЖЕНИЯ, ГОСПОДА!»
Дискуссии о возможности или невозможности сингулярного сценария не утихают – об этом пишут не только в научных журналах, но и в популярных СМИ, в личных блогах. Скоро, мне кажется, и на заборах начнут писать. Ну и правильно – надо же разобраться, в конце-то концов!
Род Брукс, например, этот величайший из великих создателей искусственного интеллекта, любит шутить, общаясь со своим старым другом и коллегой по Массачусетскому технологическому институту Курцвейлом: «Рэй, мы оба умрём!» И добавляет, что было бы неплохо, если бы его – бруксовский – антропоморфный робот Baxter оказался достаточно совершенным, чтобы обеспечить обоим старикам достойный уход.
Впрочем, кто-то настроен и по-другому, предлагая при этом весьма внятные и интересные аргументы. В частности, профессор того же самого Массачусетского технологического института, директор по научным исследованиям Института основополагающих вопросов Макс Тегмарку разбивает позиции скептиков следующим образом…
Прежде всего он предлагает унять разнузданное паникёрство. В значительной части оно вызвано желанием журналистов сделать свои материалы про искусственный интеллект пострашнее и позабористее. «Страх увеличивает доходы от рекламы и рейтинг Нильсена[9]», – говорит Тегмарк.
На возражение, что столь впечатляющее развитие событий в принципе невозможно, он отвечает: «Будучи физиком, я знаю, что мой мозг состоит из кварков и электронов, организованных и действующих подобно мощному компьютеру, и что нет такого закона физики, который препятствовал бы тому, чтобы мы построили ещё более разумные сгустки кварков».
Многие считают, что даже если такое развитие событий возможно, то «это произойдёт не при нашей жизни». Тегмарк признаёт, что мы не можем сказать с уверенностью, каковы шансы, что машины достигнут человеческого уровня во всех когнитивных задачах при нашей жизни.
Но добавляет: «Однако большинство исследователей, работающих в области искусственного интеллекта, на прошедшей недавно конференции высказывались в пользу того, что вероятность этого выше 50 процентов, – таким образом, было бы глупо с нашей стороны отбрасывать такую возможность, считая её просто научной фантастикой».
На наивную убеждённость, что «машины не могут контролировать людей», Тегмарк вполне резонно замечает: «Мы способны управлять тиграми не потому, что мы сильнее, а потому, что умнее, так что если мы сдадим позиции самых умных на планете, то рискуем утратить свободу».
Многие критики технологической сигнулярности утверждают, что она невозможна, потому что машины – это просто машины, и у них нет целей. Но правда состоит в том, и Тегмарк это особо подчёркивает, что большинство систем искусственного интеллекта запрограммированы именно таким образом, чтобы иметь цели, и не только иметь, но и максимально эффективно их достигать.
Есть среди нас и добрые души, которые считают, что поскольку искусственный интеллект – это просто программа, то он не может демонстрировать злонамеренности в отношении человека. Тегмарк не возражает. Но проблема в другом – цели искусственного интеллекта могут в какой-то момент столкнуться с нашими. «Люди обычно не питают ненависти к муравьям, – говорит он, – но если б мы захотели построить плотину ГЭС, а на её месте оказался бы муравейник, то муравьи столкнулись бы с проблемами».
Ну и завершу этот обзор шуткой… Мне и самому часто приходилось сталкиваться с такого рода критикой – мол, те, кто беспокоится по поводу искусственного интеллекта, не понимают, как работают компьютеры. На что Макс Тегмарк саркастично замечает следующее: «Это утверждение прозвучало на вышеупомянутой конференции, и собравшиеся там специалисты по искусственному интеллекту сильно смеялись».
9
Рейтинг Нильсена определяет популярность той или иной телевизионной программы.