Добавить в цитаты Настройки чтения

Страница 52 из 53

Публике NLS была впервые представлена в 1968 г. на Осенней объединенной компьютерной конференции (Fall Joint Computer Conference). Именно там состоялся дебют основных составляющих системы, включая мышь. Отметим, что все это происходило в режиме телеконференции между залом и лабораторией в SRI. Появление современных человеко-машинных интерфейсов окончательно похоронило первое поколение вопросно-ответных систем, однако ему было суждено возродиться через полвека в образе разнообразных чат-ботов.

NLP на основе статистического подхода

В 90-х изменилась парадигма NLP – вместо превращения компьютера в инструмент для перевода или оперирования заложенными в память человеческими знаниями возникла идея использования его в качестве инструмента для автоматизации работы с текстами и извлечения информации из текстовых данных. Это направление получило название NLU. Один из известных подходов к извлечению скрытой в тексте информации основывается на статистике, достаточно вспомнить «Пляшущих человечков» Конан Дойла.

Математическую структуру текста начал изучать Андрей Андреевич Марков (1856–1922), использовав для этого первые 20 000 букв из «Евгения Онегина». В качестве эксперимента он поместил их в 200 таблиц 10х10, исключив из текста знаки препинания и пробелы, чтобы потом определить вероятность появления гласных и согласных. Он хотел убедиться в том, что появление буквы в том или ином месте не совсем случайно и подчиняется какой-то закономерности. Эта работа привела его к тому, что теперь называют цепью Маркова. Речь идет об анализе последовательности случайных событий с конечным исходом, где вероятность каждого события зависит от состояния, достигнутого в предыдущем событии, увязывая таким образом настоящее с будущим независимо от прошлого.

Основными импульсами к развитию статистического подхода стали, с одной стороны, возможность работы с большими объемами текстовых данных, доступными через интернет, а с другой – применение статистических методов для разбора с использованием алгоритмов динамического программирования. Успеху статистического подхода способствовал постоянный рост производительности, обычно связываемой с законом Мура и постепенная утрата доминантного положения лингвистической теории Хомского.

NLP на основе коннекционстского подхода

О коннекционистском подходе Co





Заключение

За короткий срок представление о том, что такое AI радикально изменилось, еще лет 10–15 назад под AI понимали область отвлеченных академических изысканий, а в общественном сознании доминировало навязанное авторами научной фантастики и футурологами представление о чем-то враждебном и опасном для человека или даже человечества в целом. Еще совсем недавно, в 2006 году к 50-ой годовщине Дартмутского семинара автором была написана статья с названием «Весна придет, когда не знаю», адресующим к зимам AI и с надеждой на благоприятные изменения. Предположить столь скорое наступление весны было совершенно невозможно. Наконец все стало на свои места – забыты мечты о Сильном AI, полный отказ от мыслей о конкуренции AI с человеком (competition) в сторону сотрудничества (coopetition). Апокалиптические прогнозы остались в прошлом, сейчас на самых разных уровнях об AI говорят как об одной из важнейших составляющих мирового рынка высоких технологий со всеми вытекающими из этого последствиями – рост производительности, улучшение условий и безопасности труда, возможность автоматизации в новых сферах и т. д.

AI освободился от приписываемой ему способности делать что-то самостоятельно. Анализ известных внедрений AI показывает, что только чатботы являются примером в некоторой степени автономного AI, скорее всего потому что это приложение не отличается большой сложностью. Во всех остальных случаях AI играет сугубо вспомогательную роль, ему отведено место умного помощника человека или, точнее, как говорили прежде, соработника. Именно так следует перевести принятый английский термин AI-coworker. Такому AI-коллеге можно передать ряд рутинных функций, освободив от них человека, оставив за ним более сложные, с элементами творчества. На редкость точно по этому поводу недавно написала Миранда Кац, автор журнала Wired: «Мы живем не в золотой век AI, а в золотой век повышения производительности труда человека средствами AI (AI-enhanced productivity)». AI-технологии становятся органичной частью современной производственной среды и даже среды обитания, где AI-коллеги в большинстве случаев материализованы как программные продукты и гораздо реже – как какие-то физические устройства. Нынешние экономические сдвиги связаны с качественно новым способом взаимодействия человека с машиной, прежде всего, в области анализа данных, применение AI-коллег освобождает человека функций, не требующих обладания серьезными когнитивными способностями. В такой области, как управлении бизнесом, это может быть реферирование, то есть чтение стандартных документов, выделение тех или иных показателей, перенос этих данных в электронные таблицы или базы данных. Основанное же на этих данных стратегическое и тактическое планирование, выбор и приятие решений остаются за человеком. Нечто подобное может иметь место и в других областях, от медицины до разработки ПО.

Как на этом прозаичном фоне отнестись к прошлому, к сложному пути, по которому исследователи AI шли путем метода проб и ошибок? К сожалению приходится признать, что из знаний в области AI, накопленных за первые 70 лет его истории, не осталось почти ничего полезного для нашего времени. Для объяснения этого явления возможно подойдет эмпирический закон полураспада знаний (half-life of knowledge), сформулированный австрийским экономистом Фрицем Махлупом (Fritz Machlup, 1902–1983), эмигрировавшим в Америку. Закон получил широкую известность благодаря книге популярного писателя и ученого Самюэля Арбесмана «Период полураспада фактов. Почему все, что мы знаем имеет конечный срок» (The Half-Life of Facts: Why Everything We Know Has an Expiration Date, 2012). В ней он приводит следующую статистику: наиболее долгий период полураспада знаний в медицине, он достигает 45 лет, а дальше по убывающей – в физике 13, в математике 9, в психологии 7. Нетрудно предположить, что в компьютерной науке он еще короче и тем более в AI.

Что же к таком случае остается? При распаде знаний остается наиболее существенное, можно предположить, что одним из долгоживущих AI останется предложенное Аланом Тьюрингом деление на два подхода «сверху-вниз» и «снизу-вверх». Они соответственно ассоциировалось с символьным AI и коннекционизмом, но сейчас по прошествии лет, накопив определенный опыт эти подходы можно назвать иначе – подход «сверху-вниз» ориентированным на модель (Model-driven AI, MDAI), а подход «снизу-вверх» ориентированным на данные (Data-driven AI, DDAI).

MDAI – это прямой наследник символьного AI (symbolic AI), строившегося исходя из так и не доказанной гипотезы о возможности создания программной модели искусственного мозга. Для организации процесса передачи знаний в модели использовались самые разные приемы, но все они страдают общими непреодолимыми недостатками – они чрезвычайно трудоемки в процессе создания и поддержки, зависят от человеческих ошибок (prone to human error), а в ряде случаев сложность такова, что человек попросту оказывается не в состоянии создать необходимую модель знаний. Например, если средствами MDAI решать задача распознавания, то следует сделать полную декомпозицию опознаваемого предмета, выделить все возможные признаки и разработать правила сравнения данных, заложенных в модель с распознаваемым изображением. В экспериментах по распознаванию геометрических фигур такой подход был возможен, но для предметов из реального мира требуемое количество признаков и признаков и слишком велико. Поэтому MDAI неприменим к популярным сейчас компьютерному зрению и к работе с текстами на естественном языке.