Добавить в цитаты Настройки чтения

Страница 6 из 10

В своих исследованиях и размышлениях Р. Курцвейл во многом опирается на два положения: с одной стороны, технологические инновации развиваются по экспоненте, с другой стороны, прогресс, достигнутый в одной области, оплодотворяет другие области. Так, складывается процесс беспрерывного взаимообогащения, который невиданным образом ускоряет технологический прогресс. Благодаря такому крестообразному оплодотворению все более многочисленных и все более быстро развивающихся технологий инновационные циклы становятся все более короткими, доходя до стадии, когда неожиданно возникает технологическая сингулярность [3, с. 79–80]. Курцвейл полагает, что точкой отсчета и точкой невозврата станет момент, когда искусственный интеллект превзойдет по всем параметрам человеческий интеллект. На этой же стадии возникнет супер- искусственный интеллект, более умный, чем человеческий. Своего высшего уровня, по мнению Курцвейла, он достигнет к 2045 году.

Закон ускорения отдачи дополняет и уточняет действие искусственного интеллекта и технологической сингулярности, хотя ему Курцвейл уделяет несколько меньше внимания. Этот закон является механическим, он показывает, что эволюционные процессы имеют тенденцию к ускорению. Примером проявления его действия выступает рост объема памяти и эффективности информационных технологий. Изучение действия этого закона раскрывает нам особенности информационных процессов, лежащих в основе биологических законов, включая законы функционирования нашего мозга. В изучении работы человеческого мозга Курцвейл видит один из самых важных проектов современной цивилизации.

В целом последствия технологической сингулярности могут быть разными, одна из них является оптимистической.

Этой версии придерживается Курцвейл. Он считает, что технологическая сингулярность решит все проблемы человечества. Он при этом полагает, что возникший интеллект будет по-прежнему представлять человеческую цивилизацию, что будущие машины будут человеческими, даже если фактически они уже не будут таковыми.

Будучи футурологом, Курцвейл является также известным представителем трансгуманизма. Трансгуманисты полагают, что прежняя эволюция человечества заканчивается, она вступает в трансгуманизм, который означает глубокие изменения во всех областях человеческой жизни. Благодаря опять же технологической сингулярности уже в нынешнем столетии развитие общества приобретет невиданное ускорение. Курцвейл считает, что уже сейчас темпы технологического прогресса каждые десять лет возрастают в два раза, а в последующие десятилетия ускорение будет идти по экспоненте и станет многократным. Курцвейл предсказывает, что через несколько десятилетий люди начнут переходить от тела с искусственными органами к телу нанороботов. Он опирается при этом на известный закон Г. Мура, согласно которому каждые 18 месяцев компьютеры становятся вдвое мощнее, считая, что действие этого закона можно успешно распространить на другие области, растущее число которых оказывается во власти сингулярности с ее «ускоряющимся ускорением». Новые технологии откроют путь к победе над болезнями и старостью, к растущему продолжению жизни. Радикальное продление жизни приведет к фактическому бессмертию постчеловека.

Концепция Р. Курцвейла является последовательно положительной и оптимистической. Она получила большое влияние и широкое распространение. Вместе с тем далеко не все ученые разделяют его взгляды, многие из них занимают двойственную позицию, сочетая признание и отрицание искусственного интеллекта. Таковой является позиция известного английского физика-теоретика Стива Хоккинга, профессора Кембриджского университета. Его концепция во многом является пессимистической. Вслед за Курцвейлом он называет себя «убежденным редукционистом», полагая, «что законы биологии можно свести к законам химии», «что химические законы могут быть сведены к физическим» [2, c. 165].

С. Хокинг считает роль искусственного интеллекта в человеческой истории неоднозначной. Сегодня нельзя сказать, будет ли он другом, соратником, соперником или даже врагом человека. Он может стать как наиболее положительным, так и наиболее отрицательным фактором для человека. Искусственный интеллект может быть успешно использован для борьбы с болезнями и преодоления бедности.

Вместе с тем Хокинг допускает, что последние достижения цивилизации могут привести к деградации человека. В то же время он отмечает, что при правильном подходе искусственный интеллект способен решить большинство проблем в современном мире. Он также не исключает, что искусственный интеллект «может стать последней технологической революцией, если человечество не научится контролировать риски».



В общем, так или иначе, искусственный интеллект фактически преобразует все аспекты нашей жизни. Он может стать как «лучшим», так и «худшим» событием в жизни человека, нести как преимущества, так и опасности. Наряду с выгодами искусственного интеллекта также создает угрозы, к каковым следует отнести новое автономное оружие, а также возможности для немногих господствовать над большинством. Хокинг согласен с теми, кто видит опасность в том, что интернет выступает командным центром для террористических организаций. Он не исключает того, что искусственный интеллект может вступить в конфликт с людьми. С недоверием и опасением смотрит он на развитие высоких технологий искусственного интеллекта, полагая, что роботы могут всюду заменить людей.

Хокинг допускает, что в будущем будет создан искусственный интеллект, который окажется способным воспроизводить и улучшать самого себя. Это станет новой формой жизни, которая превзойдет человеческую жизнь. У роботов может возникнуть желание избавиться от людей, или же люди могут погубить самих себя. Хокинг считает, что люди прошли точку невозврата. Земля становится слишком тесной для них, к тому же население растет слишком быстро и пугающими темпами, люди рискуют уничтожить самих себя. Созданные людьми изобретения все сильнее угрожают планете. Вместе с тем Хокинг не считает, что люди должны отказываться от движения вперед. Просто возникшими опасностями надо уметь управлять. Человечество должно найти способ покинуть Землю и освоить другие планеты.

Интересной представляется концепция французского ученого и философа Ж.-К. Эдена, который является автором многих книг и статей по искусственному интеллекту. Его подход является критическим, он также не лишен иронии.

Ж.-К. Эден отмечает, что в современном коллективном воображаемом искусственным интеллектом стал настоящим мифом всесильного технологического прогресса. Его технопророки активно предсказывают скорый приход супер-интеллекта, который во всем превзойдет человеческий разум, станет неким божеством и установит контроль над человеческой судьбой. Несмотря на призывы со стороны многих ученых вернуться к разуму и здравому смыслу, в реальной ситуации почти ничего не меняется. Публикации в пользу искусственного интеллекта и технологической сингулярности продолжают множиться. В этой сложной ситуации, когда самые светлые умы оказываются в плену самых фантастических построений, Ж.-К. Эден высказывает несколько предложений. Он полагает, что следует признавать существование искусственного интеллекта, а также стремиться как можно больше знать о нем. Французский ученый отмечает, что искусственный интеллект обладает большим потенциалом и может помочь в решении многих проблем, особенно в области здоровья и образования. Он напоминает, что, как показывает опыт истории, «обычно более полезным бывает скорее брать кое-что из прогресса, нежели противостоять ему» [8, c. 14]. В этом плане он предлагает свой подход к классификации искусственных интеллектов, включающий шесть уровней, не ограничиваясь простой оппозицией «сильного» и «слабого» искусственного интеллекта.

Уровень 1 – ниже человеческого интеллекта, (уступающий ему по многим параметрам).

Уровень 2 – равный человеческому интеллекту, созданный в 1970-е годы в Стэнфордском университете.

Уровень 3 – превосходящий человеческий интеллект. Его реальным примером выступает компьютер Deep Blue, разработанный IBM в 1990-е годы и обыгравший в 1997 г. чемпиона мира по шахматам Г. Каспарова.