Добавить в цитаты Настройки чтения

Страница 122 из 140



4. Китайская комната и другие возражения

Противники сильного ИИ, конечно же, подчас выдвигали конкретные доводы против этой позиции. Наиболее известным из них мы обязаны Джону Серлу, излагающему их, в частности, в статье 1980 г. «Сознания, мозги и программы». Я отвечу на них в рамках очерченной модели.

В ходе знаменитого аргумента против сильного ИИ, Серл (Searle 1980) доказывает, что любая программа может быть имплементирована без порождения ментального. Доказательство построено на демонстрации того, что он считает контрпримером для тезиса о сильном ИИ: Китайской комнаты, внутри которой субъект, манипулирующий символами, симулирует человека, понимающего китайский язык. Китайская комната задумана как иллюстрация системы, имплементирующей программу — какой бы они ни была — при отсутствии релевантного сознательного опыта.

В изначальной версии Серл направляет свой аргумент скорее против машинной интенциональности, чем против машинного сознания, доказывая, что у Китайской комнаты отсутствует «понимание». Ясно тем не менее, что, по сути, речь идет о сознании. Ядро этого аргумента, если он верен, напрямую устанавливает, что система Китайской комнаты лишена сознательных состояний, таких как сознательное переживание понимания китайского языка. Серл считает, что интенциональность предполагает сознание, так что этого достаточно для того, чтобы убедиться, что комната лишена и интенциональности. Другие, впрочем, отрицают это. В любом случае, мы можем отвлечься от вопроса о связи между сознанием и интенциональностью и сформулировать проблему исключительно в терминах сознания. При этом можно чуть лучше высветить спорные моменты.

(Иначе говоря, мы можем разделить выводы Серла на две части: (1) программы не достаточно для сознания; и (2) программы не достаточно для интенциональности. Серл полагает, что из (1) следует (2), но другие отрицают это. Яснее всего будет, если сфокусировать аргумент о сильном ИИ на (1): все стороны согласятся, что, если (1) верен, то наиболее интересная разновидность сильного ИИ обречена, и даже Серл согласился бы, что опровержение (1) показало бы, что аргумент Китайской комнаты не проходит. Связь между сознанием и интенциональностью можно выделить тогда в отдельный вопрос, не критичный для аргумента против ИИ.

Действуя подобным образом, мы избегаем ситуации, при которой оппоненты выступают против (2), не беспокоясь об опровержении (1). К примеру, возражения, сфокусированные на связи между Китайской комнатой и ее окружением (Fodor 1980; Rey 1986), и возражения, процедурно или функционально объясняющие интенциональность (Boden 1988; Thagard 1986), могут в лучшем случае прояснить вопрос об интенциональности, но они никак не повышают правдоподобность вывода о сознательности Китайской комнаты. В результате они оставляют такое чувство, будто проблема, которую ставит перед ИИ этот сценарий, так и не была рассмотрена. Максимум, что они делают, так это оспаривают вспомогательную посылку о том, что интенциональность предполагает сознание [182].)

Аргумент Китайской комнаты разворачивается следующим образом. Возьмем любую программу, которая, как предполагается, передает какой-то из аспектов сознания, к примеру, понимание китайского языка или наличие ощущения красного. Далее эта программа может быть имплементирована англоязычным субъектом, не знающим других языков, — будем называть его демоном — в черно-белой комнате. Демон вручную следует всем правилам, специфицированным программой, ведя записи о всех релевантных внутренних состояниях и переменных на клочках бумаги, при необходимости стирая и обновляя их. Мы можем также вообразить, что демон соединен с роботизированным телом, получая цифровые данные от перцептивных датчиков, манипулируя ими согласно программным спецификациям и посылая результирующие данные на моторные эффекторы. Здесь можно говорить о совершенной имплементации программы. Тем не менее кажется очевидным, что у демона нет сознательного понимания китайского и что он лишен ощущения красного. Поэтому имплементация программы не достаточна для этих сознательных переживаний. Сознание предполагает не только имплементацию релевантной программы.

Защитники сильного ИИ обычно возражали так, что они соглашались, что демон не понимает по-китайски, но доказывали, что понимание и сознание должны быть атрибутированы системе, включающей в свой состав демона и клочки бумаги. Серл заявлял об очевиднейшей неубедительности такого возражения. Действительно, в утверждении о том, что система, состоящая из субъекта и клочков бумаги, обладает коллективным сознанием, есть нечто контринтуитивное. На этой стадии аргумент заходит в тупик. Защитники ИИ доказывают, что система обладает сознанием, оппоненты находят этот вывод нелепым, и дальнейшее продвижение кажется затруднительным. Думаю, однако, что приведенные ранее доводы дают возможность выйти из тупика к сильному ИИ.

Допустим, что программа, о которой мы говорим, в действительности является комбинаторным автоматом, отражающим на нейронном уровне организацию носителя китайского языка, смотрящего на сочное красное яблоко. Демон в комнате имплементирует этот КоА, располагая клочками бумаги для каждого элемента вектора состояния и обновляя их на каждом временном шагу в соответствии с правилами перехода от состояния к состоянию. Мы можем развернуть аргументы блекнущих и скачущих квалиа, сконструировав спектр случаев, занимающих промежуточное положение между исходным носителем китайского языка и Китайской комнатой[183]. Сделать это нетрудно. Вначале мы можем вообразить, что нейроны в голове носителя китайского языка последовательно заменяются крошечными демонами, каждый из которых дуплицирует входяще — исходящую функцию нейрона[184]. При получении стимулов со стороны соседних нейронов демон производит соответствующие вычисления и, в свою очередь, стимулирует соседние нейроны. По мере замены все большего количества нейронов демоны берут верх, пока весь череп не оказывается заполнен миллиардами демонов, реагирующих на сигналы друг друга и на входящие чувственные данные, производящих вычисления, сигнализирующих другим демонам и, в свою очередь, стимулирующих моторные окончания. (Если кто-то будет возражать, сказав, что все эти демоны никогда не смогут поместиться в череп, то взамен можно вообразить сценарий с устройствами радиопередачи, находящимися вне черепа.)



Далее, мы постепенно уменьшаем число демонов, удваивая их работу. Сперва мы заменяем два соседних демона одним демоном, делающим их работу. Новый демон будет фиксировать внутреннее состояние обоих симулируемых им нейронов — можно представить, что эта запись будет храниться на клочке бумаги в каждой из локаций. Каждый из этих клочков бумаги будет обновляться в зависимости от сигналов, поступающих от соседних нейронов и от состояния другого клочка бумаги. Консолидация демонов будет продолжена, пока в конце концов на их месте не окажется один-единственный демон и миллиарды крошечных клочков бумаги. Можно представить, будто каждый из этих клочков находится в месте изначального расположения соответствующего ему нейрона, а демон мечется по мозгу, обновляя каждый из этих клочков в качестве функции состояний соседних клочков и, при необходимости, чувственных данных.

Несмотря на все эти изменения, итоговая система имеет ту же функциональную организацию, что и исходный мозг. Каузальные отношения между нейронами в исходном случае отражаются в каузальных отношениях между демонами в промежуточном случае и между клочками бумаги — в конечном случае. В этом конечном случае каузальные отношения опосредуются действиями демона — клочок бумаги воздействует на состояние демона, который воздействует на соседний клочок бумаги — но они тем не менее являются каузальными отношениями. Если мы посмотрим на функционирование этой системы в ускоренном режиме, то мы увидим вихрь каузальных взаимодействий, точно соответствующий нейронному вихрю.

182

Сходные тезисы высказаны в (КогЬ 1991) и (Newton 1989). Они считают, что Китайская комната может быть хорошим аргументом если не против машинной интенциональности, то против машинного сознания.

183

Хофштадтер (Hofstadter 1981) очерчивает сходный спектр промежуточных случаев между мозгом и Китайской комнатой.

184

Идея о том, что гомункул в Китайской комнате аналогичен демону, мечущемуся внутри черепной коробки, была высказана Хауглендом (Haugeland 1980).