Добавить в цитаты Настройки чтения

Страница 124 из 140



Одно из популярных возражений против искусственного интеллекта (напр., Searle 1980; Hamad 1989) состоит в том, что симуляция феномена не тождественна его воспроизведению. К примеру, при компьютерной симуляции пищеварения никакая пища в действительности не переваривается. Симуляция урагана — это не настоящий ураган; при его симуляции на компьютере никто не промокает. При симуляции тепла реальное тепло не выделяется. Так почему же мы должны ожидать появления настоящего сознания при его симуляции? Почему мы должны ожидать, что именно в этом случае вычислительный процесс не просто симуляция, но и нечто реальное?

Нет сомнений, что для многих свойств симуляция не является воспроизведением. Симулированное тепло — это не реальное тепло. Имеются, однако, и такие свойства, для которых симуляция есть воспроизведение. К примеру, симуляция системы с каузальной петлей есть система с каузальной петлей. Так что реальный вопрос состоит здесь в том, как отличить типы X, при которых симуляция X действительно есть X, от иных?

Ответ, как я полагаю, может быть таким: симуляция X оказывается X именно в тех случаях, когда свойство быть X является организационным инвариантом. Дефиниция организационного инварианта — такая же, как и раньше: свойство есть организационный инвариант, когда оно зависит только от функциональной организации фундирующей системы, а не от каких бы то ни было иных деталей. Вычислительная симуляция физической системы может ухватывать ее абстрактную каузальную организацию и гарантировать ее воспроизводимость при любой имплементации, вне зависимости от состава имплементирующей инстанции. Подобная имплементация будет в таком случае воспроизводить любые организационные инварианты изначальной системы, однако другие свойства будет утрачены.

Свойство быть ураганом не является организационным инвариантом, так как оно отчасти зависит от таких неорганизационных свойств, как скорость, форма и физических состав фундирующей системы (система с теми же каузальными взаимодействиями, очень медленно имплементированная на большом количестве бильярдных шаров, не была бы ураганом). Пищеварение и тепло сходным образом зависят от различных аспектов фундирующих физических субстратов, не являющихся всецело организационными. Мы могли бы постепенно заменять биологические компоненты пищеварительной системы — так, чтобы реакции, основанные на действии кислоты, заменялись каузально изоморфными взаимодействиями кусочков металла, и это уже не было бы пищеварением. Так что нам не стоит ожидать, что симуляция систем с этими свойствами сама будет обладать ими.

Но феноменальные свойства не таковы. Как я доказывал в главе 7, эти свойства представляют собой организационные инварианты. И если это так, то отсюда следует, что надлежащая симуляция системы с феноменальными свойствами сама будет обладать ими — благодаря воспроизведению высокодетализированной функциональной организации изначальной системы. Организационная инвариантность принципиально отличает сознание от других упомянутых свойств и открывает путь сильному ИИ.

5. Внешние возражения

По большей части меня интересовали внутренние возражения против сильного искусственного интеллекта, так как они наиболее значимы в контексте этой книги, однако я хотя бы упомяну некоторые внешние возражения. Я уже отмечал, что позиции противников внешних возражений против искусственного интеллекта изначально кажутся сильными: есть все основания считать, что законы физики, по крайней мере в их нынешнем понимании, вычислимы, и что человеческое поведение определяется физическими законами. Если так, то из этого следует, что вычислительная система может симулировать человеческое поведение. Тем не менее возражения время от времени выдвигаются, так что я кратко обсужу их.

Возможно, самое давнее внешнее возражение против ИИ состоит в том, что вычислительные системы всегда следуют правилам и поэтому неизбежно будут лишены ряда человеческих способностей, вроде креативности или гибкости. Во многих отношениях это самое слабое из внешних возражений, в частности из-за его явной нечеткости и неконкретности. В самом деле, на него можно легко ответить, сказав, в свою очередь, что на нейронном уровне человеческий мозг может быть вполне механичным и рефлекторным, но это никоим образом не препятствует креативности и гибкости на макроскопическом уровне. Конечно, оппонент опять-таки всегда может не согласиться с утверждением о механичности нейронного уровня, но в любом случае не видно хорошего аргумента в пользу тезиса о том, что вычислительная динамика на базовом каузальном уровне несовместима с креативностью и гибкостью на макроскопическом уровне.

Подобное возражение может подкрепляться неявным отождествлением вычислительных систем с символьными вычислительными системами: системами, производящими символьные манипуляции с высокоуровневыми концептуальными репрезентациями — в предельном случае, с системами, жестко выводящими заключения из посылок логики предикатов. Не исключено, что в этой области указанное возражение не лишено оснований, хотя даже это не очевидно. Но в любом случае класс вычислительных систем гораздо шире. К примеру, низкоуровневая симуляция мозга представляет собой некое вычисление, но не символьное вычисление того рода. Если говорить о промежуточном уровне, то к несимвольным вычислениям обращались коннекционистские модели в когнитивной науке. В этих случаях на каком-то уровне система может следовать правилам, но это напрямую не отражается на поведенческом уровне; и в самом деле, коннекционисты часто говорят, что их метод позволяет получить гибкость на высоком уровне из низкоуровневой механистичности. Как выразился Хофштадтер (Hofstadter 1979), уровень, на котором я мыслю, не обязательно совпадает с уровнем, на котором я существую[185].



Иногда утверждается, что теорема Геделя показывает, что вычислительным системам свойственны ограничения, которых нет у людей. Теорема Геделя говорит нам, что в любой непротиворечивой формальной системе, достаточно богатой для произведения арифметических операций, будет существовать некое истинное предложение — Геделевское предложение системы — которое эта система не сможет доказать. И аргумент состоит в том, что поскольку мы, однако же, можем понять, что оно истинно, мы обладаем некоей способностью, отсутствующей у этой формальной системы. Из этого следует, что никакая формальная система не может в точности передавать человеческие способности. (Подобные аргументы выдвигали среди прочих Лукас (Lucas 1961) и Пенроуз (Penrose 1989, 1994).)

Краткий ответ на эти аргументы состоит в том, что нет оснований считать, что и люди могут знать об истинности соответствующих Геделевских предложений. В лучшем случае мы можем знать, что если система непротиворечива, то ее Геделевское предложение истинно, но нет оснований полагать, что мы можем установить непротиворечивость произвольных формальных систем[186]. В особенности это справедливо в случае сложных формальных систем, таких как система, симулирующая реакции человеческого мозга: задача определения непротиворечивости подобной системы вполне может выходить за пределы наших возможностей. Так что вполне может оказаться так, что каждый из нас может симулироваться сложной формальной системой F, такой, что мы не в состоянии установить, является ли она непротиворечивой. И если это так, то мы не сможем узнать, будут ли истинными наши собственные Геделевские предложения.

Существует множество вариаций этого геделевского аргумента, с реакциями оппонентов на это предположение и ответными репликами, нацеленными на то, чтобы обойти эти возражения. Здесь я не буду обсуждать их (хотя я подробно обсуждаю их в Chalmers 1995с). Эти вопросы связаны со множеством интересных и стимулятивных моментов, но, думаю, мы вправе сказать, что тезис о том, что геделевские ограничения не применимы к людям, никогда не был убедительным образом обоснован.

185

Примечательно, что хотя Дрейфус (Dreyfus 1972) назвал свою книгу, в которой делается подобное возражение, «Чего не могут компьютеры», впоследствии он признал, что надлежащий тип вычислительной системы (такой как коннекционистские системы) не подпадал бы под эти возражения. На деле «возможности компьютера» отождествляется с тем, чего может достичь очень узкий класс вычислительных систем.

186

Насколько мне известно, это четкое возражение против геделевских аргументов впервые в печатных изданиях было высказано Патнэмом (Putnam 1960), и, насколько я знаю, оно никогда не было опровергнуто, несмотря на отчаянные усилия Лукаса и Пенроуза. Пенроуз (Penrose 1994, гл. 3.3) доказывает, что он может установить непротиворечивость формальной системы, ухватывающей его собственные рассуждения, поскольку он мог бы уверенно определить истинность аксиом и верность правил вывода. Это, похоже, зависит от изначального допущения, что вычислительная система является системой аксиом и правил, каковой она, однако, не обязана быть в общем случае (о чем свидетельствует нейронная симуляция мозга). Даже в случае системы с аксиомами и правилами мне не очевидно, что мы сможем определить значимость каждого правила, которым могла бы воспользоваться наша система, особенно если речь идет о таких правилах, применение которых выходит за пределы обычного вычисления и касается повторных геделизаций, относительно которых геделевские аргументы действительно имели бы реальный вес в случае, когда речь идет о людях.