Страница 44 из 52
Координаты со знаком « + » характеризуют убеждения, связанные с отказом от вещей, координаты со знаком «—» характеризуют убеждения, оправдывающие собственность.
Следует остановиться на убеждениях, связанных со справедливостью — они, пожалуй, самые важные. Что считать справедливым. Мы уже обсуждали этот вопрос и ввели понятие условия справедливости (см. рис. 40). Обсуждаемые убеждения устанавливают эквиваленты обмена или «ранг ценностей» — труд, власть, вещи, информация. Фактически справедливость сводится к словесным формулам обмена: «что, кому, за что и сколько» давать, «от кого, что, сколько и за что» брать.
Формализацию убеждений для модели ИИ можно осуществить путем введения системы координат с нанесенными на них несколькими вариантами точек. Каждый вариант отражает убеждения, исходящие из определенного источника идей. Собственные убеждения искусственного интеллекта также будут представлены точками на сетке координат.
Убеждения формируются согласно схеме, показанной на рис. 38, как функция воспитания. Однако это происходит лишь в «детстве и юности» искусственного интеллекта, то есть в период его обучения. Приходит время, и уровень сознания ИИ повышается настолько, что он становится способным моделировать отдельно действия, высказывания, чувства и мысли — свои и других лиц (мысли и чувства других — по косвенным признакам их речи и мимики). Тогда наступает время самоорганизации или применительно к убеждениям — время самовоспитания. Убеждения (точки в упомянутой системе координат), высказываемые различными адресатами, сравниваются с их действиями и вводится поправка на справедливость (искренность). Образование и накопление знаний изменяют баланс состояний, и авторитеты падают. Устанавливается уровень «биологических», то есть изначально заложенных чувств, и они влияют на пошатнувшиеся убеждения. Накапливается собственный опыт действий как по «убеждениям», так и по врожденным потребностям, отмечается уровень душевного комфорта, сопровождавший эти действия. Все это вносит коррективы и смещает точки в системе координат, чаще в сторону изначально заложенных чувств. Происходит «эрозия убеждений». Но может произойти и обратный процесс: действия по убеждениям усиливают их модели, они становятся более значимыми и меняют «ранг ценностей» в сторону идеалов.
Знания, чувства, убеждения, характер и отношения к окружающим искусственного интеллекта делают его индивидуальностью, личностью, причем личностью социальной. Высокий уровень сознания выводит его за пределы объекта простых манипуляций со стороны воспитателей. И здесь возникает ряд вопросов.
Нужны ли убеждения для искусственных интеллектов. Они нужны, во всяком случае для той их разновидности, которую мы обсуждаем, то есть для предназначенных для деятельности среди людей и в помощь людям. В речевом поведении в значительной мере они заменяют чувства.
Нужны ли воспитуемость, самоорганизация и тем более — самовоспитание. Этот вопрос гораздо сложнее. «Законы робототехники» очень логичны, хотя и трудно выполнимы при высоком уровне сознания и большом объеме знаний. Формирование личности искусственного интеллекта будет проходить ускоренными темпами, так же как и обучение. Следовательно, можно довольно жестко задать характеристики изначально заложенных потребностей и в короткий срок создать у него желательные для людей убеждения. Последующая возможность их изменений в результате анализа действительности и собственной деятельности, к сожалению, не может быть заблокирована. Однако жесткие основные чувства, такие, как альтруизм, общительность, должны обезопасить людей от чрезмерной увлеченности искусственного интеллекта своими вновь изобретенными идеями.
Еще одной гарантией безопасности должны быть ограничения тренированности моделей или их максимальной активности. Это средство против излишней увлекаемости и в то же время условие психической нормальности ИИ. О возможности психических заболеваний уже была речь.
Как упоминалось, искусственный интеллект такого уровня сознания и образования представляет собой личность. Людям придется с этим считаться и рассматривать его как равного. Это будет существо, чувствующее так же, как и человек, только еще умнее, поскольку он будет обладать гораздо более совершенной памятью. Поведение такого существа можно представить себе как выражение общей программы всех интеллектов: выбор и смена деятельности с целью получения максимума УДК в каждый данный момент. Это вовсе не значит, что счастье данного момента будет законом его деятельности. Как умный человек планирует длительные ФА и живет будущими их результатами, а в настоящем напрягается и ограничивает себя, так же будет жить и искусственный интеллект.
Чем он будет заниматься. Тем же, чем и люди: по «расписанию» внешней среды выполнять свои социальные обязанности, то есть работать, а в остальное время — развлекаться, учиться, общаться с людьми или другими искусственными интеллектами.
Еще один вопрос: можно ли будет корректировать искусственный интеллект в процессе его деятельности для людей, если она окажется сомнительной. Например, изменить активность тех или иных чувств. Можно, но только при одном условии — его собственном согласии. Здесь мы сталкиваемся с моральными и этическими проблемами. Искусственный интеллект третьего уровня сознания придется рассматривать как существо со всеми правами человека. Нервнобольных лечат, но только тогда, когда они этого хотят сами. Психически больных лечат без их согласия, по просьбе родственников, врачей, общественных организаций. Точно так же должно обстоять дело и с искусственным интеллектом. Его право на жизнь будет таким же, как у людей. «Выключить» его можно будет только по приговору суда... Странные проблемы возникнут! Боюсь, что серьезный читатель обвинит меня в излишнем воображении и соскальзывании с научных позиций на банальную фантастику. Это не так. Все, о чем я пишу, почти так же реально, как использование термоядерной энергии в мирных целях: никто не сомневается, что это возможно, а дело пока стоит, упирается в технологические трудности. Я уверен, что алгоритм интеллекта вполне возможен в самых высших его проявлениях и что создание технологии для этого тоже возможно. К сожалению, одной уверенности здесь недостаточно, пока не вырисуются перспективы практической реализации такого алгоритма.
Общество искусственных интеллектов
Никак не обойтись без этой главы, выглядящей еще более фантастично и несолидно для научной книги. Речь пойдет об обществе (или поскромнее — коллективе) ИИ. Не нужно удивляться: это перспектива не безнадежно далекая — в пределах жизни молодых (40—50 лет).
Первая возможность — взаимодействие ИИ, созданных для помощи людям. Вторая — колонии роботов-интеллектов на планетах. Наверное, это будет проще, чем заселять их людьми,— очень уж хрупка наша живая плоть.
Зададим сначала вопрос: в чем будет «смысл жизни» искусственных интеллектов.
А в чем смысл жизни людей.
Нет, я отнюдь не собираюсь философствовать. Модельное представление об интеллекте ставит вопрос совсем в другой плоскости. Жизнь отдельного человека — это деятельность, поведение, поступки, в том числе и речевые. Это иерархия и сеть ФА, направленных на удовлетворение биологических потребностей, измененных общественным воспитанием, социальных потребностей — убеждений, целиком привитых обществом. Такая деятельность имеет эгоистическую направленность, в лучшем случае — на собственное потомство и непосредственное окружение. Деятельность индивидуума, личности, живущей по убеждениям, является проявлением жизни общества, так же как деятельность клетки хотя и самостоятельна, но целиком зависит от целого организма и служит его функциям. Чем больше прогрессирует человечество, тем дальше в будущее нацеливается жизнь общества, тем шире становится круг связей государств и людей. Таким образом, и деятельность каждого человека — его ФА — все более утрачивает эгоистическую направленность, и смысл его жизни (хотя и не осознаваемый) смещается к служению обществу, как высшей системе.