Добавить в цитаты Настройки чтения

Страница 6 из 8



«Китайская комната» действительно выглядит убедительно и описывает подавляющее большинство сфер применения узконаправленного ИИ (ANI). Но в этом примере, равно как и в других концепциях, оспаривающих способность машины освоить мыслительную деятельность, на мой взгляд, есть три фундаментальных пробела. Поэтому я бы не спешил ставить крест на эволюции «тупого алгоритма».

Первая проблема заключается в ограниченности подхода автора концепции «китайской комнаты» к описанию проблемы.

История науки и техники полна примеров того, как при освоении новых сфер изобретатели пытались опереться на костыли старых решений или представлений. Тут и шагающий паровоз английского инженера Уильяма Брантона, и пароход с приводом на весла американского изобретателя Джона Фитча, и попытки создать летательные аппараты тяжелее воздуха с машущими крыльями. Карл Маркс в «Капитале» высказывался по этому поводу так: «До какой степени старая форма средства производства господствует вначале над его новой формой, показывает, между прочим, даже самое поверхностное сравнение современного парового ткацкого станка со старым, современных приспособлений для дутья на чугунолитейных заводах – с первоначальным немощным механическим воспроизведением обыкновенного кузнечного меха и, быть может, убедительнее, чем всё остальное, – первый локомотив, сделанный до изобретения теперешних локомотивов: у него было, в сущности, две ноги, которые он попеременно поднимал, как лошадь. Только с дальнейшим развитием механики и с накоплением практического опыта форма машины начинает всецело определяться принципами механики и потому совершенно освобождается от старинной формы того орудия, которое превращается в машину».

Аналогично, наивно предполагать, что AGI, способный обрабатывать информацию с той же эффективностью, что и человек, станет работать по принципу «махания крыльев», или заложенных алгоритмов. Безусловно, AGI окажется сложным симбиозом технологий, но далеко не факт, что он будет состоять из понятных нам алгоритмов и нейронных сетей – возможно (даже скорее всего), при его создании будут использоваться принципиально новые подходы. Но он точно сможет самообучаться, современные методики обучения ИИ подразумевают в том числе обучение по принципу «что хорошо, а что плохо». Да, пока это не означает, что наш человек в комнате сможет выучить китайский по просовываемым ему под дверь иероглифам. Но представьте на секунду, что в комнате стоит огромная плазменная панель. И каждый раз, когда под дверь просовывается листок с иероглифами, на телевизоре включается видеоролик, подробно описывающий значение фразы, иллюстрирующий объект, описываемый иероглифами, и его связи с другими объектами – и все это на всех языках мира, в том числе на китайском. У человека в комнате нулевые знания, но фотографическая память, он ничего не забывает, его нейронные сети постоянно адаптируются под получаемую информацию, а время не имеет значения. При правильно построенном обучении человек в комнате со временем (речь о сотнях тысяч человеческих лет, но для машины это могут быть всего лишь часы) сможет отвечать на любой вопрос не хуже всех людей, которые помогали ему учиться. Просто потому, что машину перестанут учить махать крыльями, как птица, а снабдят планером с мотором. Пример немного утрированный, но ничего невозможного в нем нет.

Вторая проблема заключается в самом понимании принципа сознания. Мы, люди, безусловно, считаем себя венцом природы, а свой мозг – абсолютной загадкой. Во многом это правда, о чем мы поговорим в следующей главе, но с точки зрения машинного обучения мы мало чем отличаемся от индивидуума в «китайской комнате». Раз человек может обучаться, почему бы и машинам не научиться учиться, как мы? Когда человеческий детеныш появляется на свет, он не владеет ни китайским, ни английским, ни русским, не понимает значения слова «красный» и словосочетания «сборная Германии». Он не в курсе, что такое «горячо» или «холодно» и уж точно не знает принципа неопределенности Гейзенберга. Но… он учится. Ребенок несколько лет получает огромное количество информации на вход (листки с иероглифами под дверью), а со стороны родителей и взрослых в целом, равно как и от собственной нервной системы, – подкрепление информации (условную маркировку): если он обжегся и ему больно, он запоминает, что открытый огонь небезопасен. Упал, ушибся, порезался – больно; значит, все, что к этому привело, небезопасно. Если мама говорит, что лезть ножницами в розетку небезопасно, значит, она имеет в виду, что будет больно. Больно – это плохо, не хочу. Так, постепенно, через многочисленные итерации, нейронная сеть мозга получает некую первичную картинку окружающей действительности, определяющую базовые реакции организма на мир – день, ночь, больно, приятно, комфортно, безопасно, вкусный зефир и мороженое… К этим маркерам «притягиваются» новые, связанные с ними, и происходит это в геометрической прогрессии – вчера ребенок не знал, почему небо синее, а сегодня уже задает вопрос о том, откуда берутся дети и он в частности. Если это не прогресс, то что? Родители говорят на определенном языке, что для мозга означает: каждый предмет, действие или абстракция «вкусно» маркируются неким вербальным маркером (звуком, что издает мама). В школе этот голосовой маркер отождествляют с письменным маркером, что позволяет не просто диктовать ответ «обратно под дверь», но и графически писать от руки, а не просто выбирать иероглиф из коробочки. Причем все эти «вкусно» и «радостно» тоже есть не что иное, как разновидность дополнительных маркеров-классификаторов для информации, формируемых на уровне гормонов.

И вот наш ребенок, который 10 лет назад мог только кушать, какать и кричать (не обязательно в такой последовательности), уже постоянно задает вопросы на вполне понятном вам языке, постоянно обогащает свою базу знаний, систему ценностей (хорошо/плохо), словарный запас, и… его уже не остановить! И все потому, что ему не просто совали записки с иероглифами под дверь, но одновременно давали тысячи пояснений к каждой из них, и все были детальными и связными. Мое мнение: человеческое сознание, безусловно, не чета современным нейронным сетям, но тем не менее оно – результат обучения нейронной сети нервной системы на входящих данных с глубокой разметкой и интерполяции уже полученных данных, не более. В каком-то смысле мы тоже машины. Просто, если вернуться к примеру с «китайской комнатой», детей мы учим, не просто просовывая иероглифы под дверь; мы даем им детальные описания, картинки, звуки, сладости (когда информацию надо закрепить), включаем в комнате ТВ-панель со всеми возможными знаниями и делаем еще тысячи вещей, чтобы ребенок учился быстрее. Если мы будем так же поступать с машинным сознанием, результат тоже изменится – ИИ начнет учиться и адаптироваться. С точки зрения описываемого подхода к сути жизни и ее разновидностей человек – это просто очень совершенная машина с конечным сроком годности.

Современный ИИ, безусловно, несовершенен с точки зрения человеческой нервной системы, но, в отличие от нас, срок годности машинного интеллекта неограничен. Рано или поздно при правильном обучении (прогрессирующая методика, не статика) и усовершенствовании технической базы, а конкретно парадигм программирования, квантовых компьютеров, серверов, способных обслуживать многоуровневые нейронные сети без расходования энергии в масштабах небольшой страны, как это делают Google, Apple, Facebook, IBM, Amazon сегодня, машины нас догонят. Так же, как нас догоняют собственные дети, а иногда (как, например, в случае с Эйнштейном и Ньютоном) еще и обгоняют. И произойти это может совершенно обыденно и в то же время неожиданно для человека, как в рассказе Клиффорда Саймака «Театр теней»[6].

Наконец, третья проблема противников возможности AGI, считающих этот тип ИИ невозможным, а саму мысль о нем абсурдной, в том, что в научном сообществе есть группа авторитетных экспертов с полярным мнением. То есть проблема скептиков и критиков AGI в том, что, какими бы умными они ни были, им придется считаться с не менее умными оппонентами. Значимость противодействия в научном сообществе, согласующегося с экспериментальными данными (пример: победа ИИ над человеком при игре в го, как и способность отличать кошек и собак на фото, считалась невозможной, однако практика показывает, что это не так), не стоит недооценивать, ибо отсутствие единства по вопросу безопасности технологии как минимум косвенно говорит о ее небезопасности. Еще на этапе подготовки к публикации работа Джона Серла вызвала критику со стороны 27 исследователей, чьи комментарии были также приведены в том же номере журнала. Речь не о постах в соцсетях, а о серьезных и аргументированных возражениях представителей научного сообщества. Сейчас таких работ более 950. То есть постулат «умные машины невозможны» разделяют не все эксперты. Возможность развития ИИ до уровня AGI и далее, до уровня ASI, полагал вполне вероятной, например, Стивен Хокинг, многократно предупреждавший об опасности и реальности ASI, а в интервью BBC в 2014 году он и вовсе сказал, что «появление полноценного искусственного интеллекта может стать концом человеческой расы»[7]. Илон Маск много лет говорил об опасностях AGI и ASI, несмотря на регулярный троллинг в свой адрес. В интервью Джо Рогану он хорошо разъяснил свою позицию: «Мы просто загрузчик для ИИ – мы прокладываем ему дорогу… если принять весь интеллект за 100 %, сейчас количество искусственного интеллекта незначительно по сравнению с человеческим, но доля искусственного интеллекта растет. Скоро в общем объеме, мы, люди, будем составлять крайне незначительную часть»[8]. Я отношу себя к этой группе и разделяю опасения и Хокинга, и Маска, а сам факт появления ASI считаю исключительно вопросом времени – история полна примеров того, как жестоко ошибались даже великие люди в оценке перспектив того или иного направления. Великий британский физик Эрнест Резерфорд в сентябре 1933-го на заседании Британской ассоциации развития науки заявил: «Всякий, кто видит в превращении атома источник энергии, болтает чепуху», но не прошло и шести лет с момента его выступления, как Отто Ган и Фриц Штрассман открыли деление ядер урана, а еще через шесть лет на свет появилась атомная бомба, положив тем самым начало новой эпохе в истории человечества.



6

Саймак К. Театр теней. – М.: Эксмо, 2008.

7

https://www.bbc.com/russian/science/2014/12/141202_hawking_ai_danger.

8

https://www.youtube.com/watch?v=Ra3fv8gl6NE.