Страница 6 из 8
В 1738 году Жак де Вокансон, художник и изобретатель, построил несколько автоматов для Французской академии наук, и среди них – сложно устроенную утку, очень похожую на живую. Она не только подражала движениям настоящей утки, хлопая крыльями и клюя зерно, но и умела имитировать пищеварение. Таким образом, философам была предложена пища для размышлений: если нечто выглядит как утка и крякает как утка, является ли оно на самом деле уткой? Если мы полагаем, что утка обладает душой, отличной от нашей, каково достаточное условие для вывода, что утка осознает себя, и что из этого следует?
Шотландский философ Дэвид Юм отвергал идею, что осознание своего существования служит доказательством наличия сознания. В отличие от Декарта, Юм был сторонником эмпиризма. Он разработал научный метод, основанный на наблюдаемых фактах и логических рассуждениях. Когда Вокансон показывал свою оснащенную пищеварительной системой утку – и задолго до того, как впервые заговорили об ИИ, – Юм писал в «Трактате о человеческой природе»: «Разум является, и должен быть, всего лишь слугой страстей». В данном случае под «страстями» Юм подразумевал «иррациональные мотивы» и утверждал, что наше поведение определяют привлекательные для нас цели, а не абстрактная логика. Если наши впечатления – просто восприятие нами вещей, которые мы видим, чувствуем, осязаем, пробуем на вкус, обоняем, а идеи – восприятие вещей, с которыми мы не входим в непосредственное соприкосновение, то наше существование и картина окружающего нас мира, по Юму, оказываются основаны на концепции человеческого восприятия.
Разработка сложных автоматов, облик которых приобретал все большую реалистичность, более внимательное рассмотрение идеи компьютеров как мыслящих машин привели французского врача и философа Жюльена Офре де Ламетри к мысли предпринять исследование людей, животных и автоматов – столь же радикальное, сколь и скандальное. В статье 1747 года, которую он сначала опубликовал анонимно, Ламетри утверждал, что люди удивительно похожи на животных и обезьяна могла бы освоить человеческий язык, если бы ее «надлежащим образом учили». Ламетри также сделал вывод, что люди и животные – просто машины, управляемые инстинктом и опытом. «Человеческое тело – машина, которая сама заводит свои пружины; душа – не более чем принцип движения или материальная и ощутимая часть мозга»[23].
Из мысли, что люди представляют собой просто машины, приводимые в действие материальными силами, – то есть шестерни и колеса, выполняющие определенный набор функций, – следовало, что мы не особенные и не уникальные. Из нее также следовало, что, может быть, нас можно программировать. Окажись это правдой, от конструирования убедительно выглядящих уток и миниатюрных монахов люди когда-нибудь смогут перейти к изготовлению копий самих себя – и делать разнообразные разумные, мыслящие машины.
Можно ли построить мыслящую машину?
К 1830-м годам математики, инженеры и ученые всерьез взялись за постройку машины, способной производить вычисления так же, как люди-«компьютеры». Английский математик Ада Лавлейс и ученый Чарльз Бэббидж изобрели «разностную машину», а позже разработали проект более сложной «аналитической машины», решавшей математические задачи путем выполнения заранее определенной последовательности шагов. Бэббидж не предполагал, что его машина будет использована для чего-либо, кроме действий над числами. Именно Лавлейс в примечаниях к научной статье, которую тогда переводила, добавила изумительно глубокий комментарий, что более мощный вариант машины можно было бы использовать иначе[24]. Если машина способна манипулировать символами, обозначающими разные вещи (например, музыкальные ноты), тогда ее можно было бы использовать для «размышления» о вещах, лежащих за пределами математики. Хотя Лавлейс не верила, что компьютер когда-либо обретет способность к самостоятельному мышлению, она предвидела создание сложной системы, умеющей выполнять инструкции и таким образом подражать человеку во многих его повседневных задачах.
В ста милях к северу от Кембриджского университета, где работали Лавлейс и Бэббидж, молодой математик-самоучка по имени Джордж Буль шел через поле в Донкастере, когда его внезапно осенило: он решил посвятить свою жизнь расширению логики человеческого мышления[25]. Во время этой прогулки родилось то, что мы сегодня называем булевой алгеброй: способ упрощения логических выражений (например, «и», «или», «не») через использование символов и чисел. Скажем, вычисление выражения «истина и истина» должно давать результат «истина», что физически могло бы соответствовать положению переключателей или крышек луз на компьютере. Булю потребовалось два десятилетия на формализацию своих идей. И еще только через сто лет кому-то пришло в голову, что булева логика в сочетании с теорией вероятностей могла бы превратить компьютеры из средства автоматизации элементарных математических операций в более сложные мыслящие машины. Технологии, позволяющей построить такую машину, еще не было – отсутствовали необходимые процессы, материалы и источники энергии, – и проверить теорию на практике было невозможно.
Переход от теоретического представления о мыслящей машине к компьютерам, начавшим имитировать мышление человека, произошел одномоментно, с публикацией двух основополагающих статей: «Символический анализ релейных и переключательных схем» Клода Шеннона и «О вычислимых числах и их применении к проблеме разрешения» (Entscheidungsproblem) Алана Тьюринга. Изучая электротехнику в Массачусетском технологическом институте, Шеннон в качестве предмета по выбору взял философию, что выглядело необычно. Основным научным трудом, на который опиралась его диссертация, был трактат Джорджа Буля «Исследование законов мышления». Научный руководитель Шеннона, Вэнивар Буш, подал ему идею реализовать булеву логику в виде физических схем. Буш построил усовершенствованную версию «аналитической машины» Лавлейс и Бэббиджа – она называлась «дифференциальный анализатор», – но сконструирована она была в некоторой степени бессистемно. В то время не существовало теории, которая диктовала бы методику проектирования электрических схем. Открытие Шеннона заключалось в том, что он осуществил схемную реализацию булевой логики и объяснил, каким образом с ее помощью получить рабочую схему, способную складывать нули и единицы.
В то же время, когда Шеннон работал над переносом булевой логики на физические схемы, Тьюринг экспериментировал с «универсальным переводчиком» Лейбница, способным представлять все физическое и научное знание. Английский ученый ставил перед собой задачу доказать так называемую Entscheidungsproblem, или «проблему[26] разрешения». Упрощая, можно сформулировать ее так: не существует алгоритма, при помощи которого возможно доказать истинность или ложность произвольного математического утверждения. Ответ оказался отрицательным. Тьюринг сумел продемонстрировать, что такого алгоритма действительно не существует, но побочным результатом его работы явилась математическая модель универсальной вычислительной машины[27].
И это изменило все. Тьюринг понял, что программа и данные могут храниться внутри компьютера – для 1930-х годов это было радикальной идеей. До того все сходились на мысли, что машина, программа и данные – три независимые друг от друга сущности. Универсальная машина Тьюринга объясняла, почему они крепко связаны друг с другом. Если смотреть на вещи механически, логика управления схемами и переключателями тоже может быть закодирована в программе и данных. Подумайте на секунду о важности этих утверждений. Контейнер, программа и данные оказались объединены в рамках общей сущности подобно тому, как обстоит дело у людей. Мы тоже контейнеры (наши тела), программы (автономные функции клеток) и данные (наша ДНК в сочетании с прямой и косвенной информацией, поставляемой органами чувств).
23
“Apes to Androids: Is Man a Machine as La Mettrie Suggests?” http://www. charliemccarron.com/man_a_machine/.
24
Luigi Manabrea, Sketch of the Analytical Engine Invented by Charles Babbage (London: Richard and John E. Taylor, 1843).
25
Desmond MacHale, The Life and Work of George Boole: A Prelude to the Digital Age, New ed. (Cork University Press, 2014).
26
В русскоязычной литературе устоялось название «проблема разрешения», но по существу эта задача представляет собой теорему, поэтому мы позволяем себе использовать в отношении ее глагол «доказать». – Прим. пер.
27
Лучшее объяснение содержится в книге ученого-логика Мартина Дэвиса The Universal Computer: The Road from Leibniz to Turing: «Тьюринг знал, что лучше всего задавать алгоритм в виде списка правил, которые человек мог бы исполнять механически, подобно рецепту в кулинарной книге. Он сумел показать, что список действий для такого человека может быть сведен к небольшому количеству исключительно простых операций без последствий для результата вычисления. Затем, доказав, что способная выполнять только эти элементарные операции машина могла бы определить, следует ли данное заключение из указанных предпосылок… он пришел к выводу, что алгоритма, удовлетворяющего условиямEntscheidungsproblem, не существует».