Добавить в цитаты Настройки чтения

Страница 47 из 65

Современная организация информационных технологий (ИТ) полностью противоположна этому естественному порядку: она пытается контролировать любую систему из единого центра, последовательно и жестко указывая каждому элементу что и когда ему делать.

Эта тупиковая парадигма блокирует развитие всех основных составляющих ИТ: архитектуру компьютера и технологию программирования, организацию данных и их потоков в сетях, системы менеджмента и управление сложными системами. Многочисленные попытки ее перестройки не связаны пока с радикальной сменой фарватера. Мы постоянно слышим, что развитие ИТ достигло этапа, на котором не предвидится новых больших скачков (кроме технологий аппаратных элементов) и задача которого ограничивается развитием имеющегося опыта и расширением сферы его практического применения…» — пишет сам ученый:

«…Эта тупиковая парадигма блокирует развитие всех основных составляющих ИТ: архитектуру компьютера и технологию программирования, организацию данных и их потоков в сетях, системы менеджмента и управление сложными системами. Многочисленные попытки ее перестройки не связаны пока с радикальной сменой фарватера. Мы постоянно слышим, что развитие ИТ достигло этапа, на котором не предвидится новых больших скачков (кроме технологий аппаратных элементов) и задача которого ограничивается развитием имеющегося опыта и расширением сферы его практического применения.

Однако это отнюдь не соответствует истине. Ощущение вечности устоев довольно характерно для окрестностей точек бифуркации («точке катастрофы», пункте, где поведение сложной системы становится малопредсказуемым): достаточно вспомнить начало 60-х годов, когда программирование в кодах казалось основной формой ИТ на необозримую перспективу. И навсегда ушло в историю всего через несколько лет.

На этот раз мы близки к точке бифуркации, глобальной для всего комплекса ИТ. Уже сформировались и активно развиваются качественно новые технологии, базирующиеся на неалгоритмическом процессе управления по данным (data-driven), обладающим естественной параллельностью и недетерминизмом. Революция, на пороге которой мы стоим, обещает полностью сменить сегодняшнюю парадигму, вплоть до радикальной перестройки аппарата вычислительной математики, сравнимой по своей незыблемости разве что с географией…»

В восьмидесятые годы Нариньяни с товарищами подошли к порогу создания нового принципа работы компьютеров, основанного не на алгоритме, а на НЕ-факторах (неопределенных, некорректных, недостаточно формализованных комплексах свойств знаний о реальном мире). На основании этого затем Нариньяни создал технологию так называемых Н-моделей. «В то же время, остальные НЕ-факторы, тесно связанные между собой и играющие не менее важную роль в приложениях, остаются практически не разработанными (меньшинство) или вообще не известными. Представляется, что изучение НЕ-факторов, создание адекватных формальных средств и организация их в единый комплекс сыграют для ИТ не менее революционную роль, чем переход от алхимии к современной химии…» — пишет наш выдающийся исследователь.





Именно эта технология позволяет преодолеть накладываемые принципом алгоритма ограничения. Причем с наименьшими затратами! По мнению Нариньяни, обеспечиваются совершенно естественная децентрализация, разновременность и параллельность процесса вычислений. Можно развивать управление сложными объектами (управление по данным, а затем управление на основе событий). Открывается путь к созданию информтехнологий любой сложности. Математический аппарат Н-моделей дает возможность работы с неопределенностью! Модель занимает место алгоритма. Новая организация вычислительного процесса в форме сжатия пространства модели на основе управления по данным выступает внутренне децентрализованной, параллельной, недерминированной, асинхронной. Следовательно, она естественным образом переносится на параллельные ЭВМ.

Новые тенденции радикально меняют технологический фундамент практически во всех областях приложений. Прежде всего в таких, как экономика и финансы, системы автоматического проектирования, инженерные и научные расчеты, двойные технологии, менеджмент, управление сложными технологическими процессами, потоками в распределенных сетях и многих других. Все это невиданно наращивает могущество человека, позволяет ему управлять тем, что еще сегодня считается слишком сложным и стихийным. Мы сможем управлять потоками! Ведь сегодня алгоритмические методы не в состоянии справиться с гигантскими логико-комбинаторными задачами управления потоками, динамика которых в ряде случаев (как, например, управление потоками данных в современных сетях связи в режиме реального времени) сравнима со скоростью передачи и обработки данных для самой системы маршрутизации. Управление по данным, аппарат активных объектов и Н-модели формируют качественно новую основу для разработки систем этого типа во всех секторах приложений. И прежде всего — в такой базовой для современных ИТ области, как сети связи: от локальных технологических до Интернета.

Метод Нариньяни позволит человеку разговаривать с компьютером. Ведь теперь можно совместить принцип распознавания звуков с анализом содержания речи. Преодолевается тридцатилетний тупик в этом направлении разработок.

«…Еще до середины прошлого десятилетия (до 1985 г. — прим. авт.) наша страна занимала второе место в мире по уровню развития вычислительной техники. Одновременно с этим, отставание основных отечественных линий массовых ЭВМ достигло масштаба 10-15 лет по отношению к технике США из-за непоправимого урона, нанесенного переходом в начале 70-х годов на слепое копирование наиболее коммерчески успешных семейств компьютеров западных фирм.

Несмотря на это, интеллектуальный потенциал и оригинальность перспективных разработок ведущих отечественных коллективов по многим параметрам не уступали аналогичным американским проектам, особенно в области мощных компьютеров параллельной архитектуры. При этом ахиллесовой пятой отечественной техники стала элементная база, которая и определила в конечном счете окончательное крушение российской индустрии ЭВМ в конце 80-х начале 90-х годов.