Страница 11 из 19
Оглядываясь назад, трудно понять, как можно было настолько недооценить весь объем проблем, связанных с достижением этой цели. Сегодня понятно, что сама идея о возможности создать искусственный интеллект за два с половиной десятилетия опередила свое время на несколько поколений. С течением времени количество трудностей увеличивалось. В работе над созданием мыслящей машины на одну скромную победу приходились сотни поражений. Становилась очевидной истинная глубина и сложность разума людей и животных. Даже простейшие задачи, например определить местонахождение чашки и поднять ее, оказались весьма нетривиальными. Именно те аспекты нашего разума, которые мы по большей части воспринимаем как должное, машине оказалось скопировать труднее всего.
Как же все-таки получилось, что столько исключительно умных людей недооценили истинный характер проблемы? По большей части причина крылась в простой эпистемологической истине: мы не знаем о том, чего мы не знаем. Эпистемология – это ветвь философии, изучающая характер и объем знания. Она изучает то, что мы знаем, как мы это знаем, правдиво ли то, что мы знаем и, наконец, каковы пределы знания. В случае с искусственным интеллектом еще слишком многое не было открыто в области естественного разума и сознания. Лишь после того, как человечество узнало намного больше о мозге, причем за счет использования сложных технологий обработки данных и точных методов сканирования, нам удалось достичь того этапа развития науки, на котором появление продвинутого машинного интеллекта стало казаться неизбежным.
Основы искусственного интеллекта были заложены куда раньше, чем многие считают. В эпоху Просвещения в XVII и XVIII веках такие философы, как Декарт, Гоббс и Лейбниц, исследовали природу рационального мышления и пытались формализовать свое понимание явления. Они рассматривали разум как систематический процесс сродни математическим правилам. Лейбниц даже исследовал возможность существования универсального языка рациональных суждений, благодаря которому они приобрели структуру и четкость, как теоремы в геометрии4. Позже эти идеи станут вдохновением и путеводной звездой для зарождающейся сферы искусственного интеллекта.
В XIX и XX веках прогресс в области математической логики в сочетании с делающей первые шаги электроникой привел к появлению машинной логики, а впоследствии – к появлению целого ряда языков программирования. Кроме того, исследования в области неврологии, проведенные в XX веке, не так давно определили, что мозг сам по себе – это сеть клеток, обменивающихся сигналами. Сложно удержаться от их сравнения с современными электрическими и опорными коммуникационными сетями.
В период Второй мировой войны вычислительные технологии поднялись на более высокий уровень, и в конечном итоге возникла уверенность в неизбежном появлении искусственного интеллекта (ИИ). Военные нужды и проблема на первый взгляд не поддающихся дешифровке сообщений, используемых Германией и Японией, обусловили гигантские шаги в области, которая стала одним из направлений информатики5. Группа дешифровщиков из Блетчли-Парк, Англия, в составе которой был и Алан Тьюринг, годами работала над решением проблемы6. Возможно, без их достижений война длилась бы куда дольше и союзники могли потерпеть поражение. После Второй мировой войны компьютерные науки и теория находились на том этапе, когда некоторые ученые и исследователи считали, что человечеству вскоре удастся создать настоящий машинный разум.
Учитывая обстоятельства, легче понять, почему новая область информатики истолковала эту идею настолько неверно. Машинный «разум» выиграл войну – сначала это почти удалось Германии, но в конечном итоге победили союзники. Без технологии немецкая машина «Энигма» не могла бы шифровать и расшифровывать тысячи, казалось бы, не поддающихся расшифровке сообщений. Без еще более сложной технологии (усовершенствованной за счет человеческого разума в качестве основного компонента) союзники не взломали бы разработанное по последнему слову науки и техники тех времен и практически абсолютно криптографически стойкое шифрование.
После войны Тьюринг, все еще обязанный исполнять закон о неразглашении государственной тайны Великобритании, опубликовал свою знаменитую статью 1950 года «Вычислительные машины и разум» (Computing Machinery and Intelligence), которая начинается словами: «Я предлагаю рассмотреть вопрос „Могут ли машины думать?"»7 Наряду с другими аналитическими разработками, такими как формализованная логика, созданная в середине XIX века математиком Джорджем Булем, автором книги «Законы мысли» (The Laws of Thought), становится проще понять, насколько специалисты в области компьютерных наук были слепы в отношении трудностей, с которыми они столкнулись. С некоторыми из сложнейших интеллектуальных проблем столкнулся не человеческий разум, а его слуга – машина.
В послевоенные годы в исследования машинного интеллекта вкладывали миллионы долларов. Термин «искусственный интеллект» был введен в обращение в 1956 году на конференции в Дартмуте, которая считается началом этого направления. В конце 1950-х годов было предпринято несколько практических попыток создания первых программ ИИ: Logic Theorist, написанная в 1956 году, и General Problem Solver, написанная в 1957 году, а также создание языка программирования ИИ LISP в 1958 году. Но несмотря на открытия, было множество провалов. Наконец в начале 1970-х годов правительства Соединенных Штатов и Великобритании, разочарованные отсутствием прогресса и под влиянием политического давления, прекратили финансирование в этой области. Этот период получил название «зима ИИ» – образное выражение, означавшее утрату иллюзий со стороны политиков и крупных корпораций, что привело к значительному сокращению финансирования проектов по разработке ИИ.
Учитывая положительную обратную связь и пользу, которую приносит технология, она обеспечивает нам возможность изменять окружающий мир с невиданной скоростью, что ведет к ускорению темпа изменений.
Последующие периоды подъема и упадка отрицательно сказались на сфере исследований ИИ, но во многом это было необходимо. Подобно тому как условия окружающей среды оказывают давление на природу, внося свой вклад в эволюционные процессы естественного отбора, экономические и социальные реалии влияют на эволюцию технологии. При разработке идей менее удачные отвергают или откладывают в сторону и исследуют новые. Если финансирование бесперспективных проектов не прекращается, ресурсы и усилия расходуются понапрасну.
Подобные периоды разочарования служат важной цели – отделяют зерна от плевел.
Тем не менее, несмотря на все возникшие перед становлением искусственного интеллекта проблемы, у направления все же был припрятан в рукаве туз, о котором люди на начальном этапе разработок могли и не знать: закон Мура.
Постоянное развитие компьютерной технологии было обусловлено многими причинами, но, вне всякого сомнения, одним из основных решающих факторов была тенденция, которую впоследствии назвали законом Мура. Название вошло в употребление через пять лет после выхода в 1965 году статьи Гордона Мура, в то время директора отдела исследований и разработок компании Fairchild Semiconductor, а одноименное наблюдение описывает одну из наиболее важных тенденций технологии. В своей статье Мур представил график из четырех точек, показавший, что количество транзисторов, размещенных на кристалле интегральной микросхемы, регулярно удваивается. Схема повторялась в период с 1962 по 1965 год. Мур считал, что тенденция будет устойчивой, и выдвинул экстравагантный прогноз, согласно которому в пределах десятилетия плотность электронных компонентов возрастет с 64 до более чем 65 000. Это увеличение – более чем в тысячу раз – соответствует удвоению в течение каждого года (210 равно 1024). Позже, в 1975 году, Мур пересмотрел прогноз и сказал, что в будущем удвоение будет происходить каждые два года.8