Страница 8 из 11
В жизни от нас часто требуют определенного объема знаний: например, знания физики в объеме школьной программы. Может быть, и объем знаний можно оценивать количеством бит? Представьте себе, что вы являетесь на экзамены и вас встречает... электронная машина! Вы отвечаете на вопросы, а машина подсчитывает количество информации, содержащейся в вашем ответе, и выдает точную оценку ваших знаний, выраженную количеством бит. Конечно, подобный пример - всего лишь шутка, ведь для оценки ответов по физике нужно знать не только объем, но и смысл информации по самым разнообразным вопросам. И все же шутка эта, как, впрочем, и всякая шутка, имеет определенный смысл. Можно, например, сконструировать такую машину, которая сможет задавать вопросы по правилам уличного движения и оценивать качество ответов по принципу «верно» или «неверно» («да» или «нет»).
Итак, все сведения, передаваемые по различным каналам связи, имеют определенный объем. Объемом обладают и телефонные переговоры, и сигналы, идущие к головному мозгу от руки, наткнувшейся на острый предмет, и звуки симфонической музыки, несущиеся по эфиру с другого материка. Когда теория информации решает задачи об объеме информации и о наилучшем способе передачи заданного объема, она не интересуется вопросом о том, для чего предназначена данная информация и какова ее ценность или смысл.
Нетрудно, например, подсчитать по формуле Шеннона, что количество информации, получаемой при извлечении одной карты из колоды, состоящей из 32 карт, составляет 5 бит. Это количество информации будет получено независимо от того, окажется ли вынутая наугад карта семеркой или тузом. Установленная правилами игры «ценность» той или иной карты не учитывается при расчете количества информации. Количество и объем информации, передаваемой по радио или телеграфу, не зависит от содержания или ценности тех сообщений, которые предстоит передать. Весь объем должен быть передан полностью, независимо от того, что в нем содержится: звуки джаза или биение пульса оперируемого больного, важное постановление или легкомысленный телефонный флирт.
Именно поэтому для сложного, многогранного понятия «информация» удается найти общие законы, такие же точные, как законы движения жидкости, текущей по трубе.
Именно поэтому теория информации сумела обобщить самые разнообразные виды сообщений, перевести их на единый и точный язык - язык математических формул.
Опыт многих десятилетий, проблемы различных областей науки, красоту и гибкость склонной к анализу и обобщениям человеческой мысли несут в себе скупые и педантичные математические значки.
Границы Нового Города
Давно уж окончен рассказ, но никто из нас не проронил ни единого слова. Мы пытаемся осмыслить то новое, что нам удалось узнать. Шары в ящике, телеграфный текст, звуки оркестра и оживающие на телевизионном экране кадры забытых лент - не такто легко усмотреть в этом нечто единое, чему можно найти общую меру, выражаемую количеством бит.
Но почему решили ученые, что при расчете количества информации не надо учитывать ее ценности? Ведь из книги и из доклада каждый из нас почерпнет именно то, что ему интересно и важно. Что ценно - то информация, а все остальное - пустые слова.
Почему же теория информации предлагает отбросить и ценность и смысл?
- Не от хорошей жизни, - соглашается с нами ученый. - Конечно, это несовершенство теории, которое надо будет как-то со временем исправлять. Уже стоит на повестке дня вопрос о создании теории семантической (смысловой) информации.
- Значит, на современном уровне теория информации попросту оторвалась от жизни? Ведь в жизни всякая информация имеет какую-то ценность и вполне определенный смысл!
- Да, конечно. Но жизнь сложна и многообразна. Чтобы найти для каких-то явлений четкий критерий, надо эти явления упрощать.
Сначала надо найти способ оценивать количество информации объективно, а уж потом решать, что ценко, а что не ценно, и как будет воспринимать информацию тот или иной человек.
- Для этого и придумали какую-то несуществующую информацию, вовсе лишенную смысла?
- Это абстракция. Вроде геометрических точек, которые не имеют размеров, и геометрических линий без толщины. Зато из них можно построить любые геометрические фигуры, а затем исследовать свойства этих фигур.
Для исследования реальных явлений науке часто приходится отвлекаться от их конкретных свойств. Нельзя создать на земле механического движения, при котором не возникало бы трения. Но до тех пор, пока Галилей не представил себе, как будет двигаться тело без трения, никаких законов движения нельзя было установить. Всем казалось, что скорость телеги определяется силой лошади. А Галилей сделал вдруг неожиданный вывод: сила лошади придает телеге не скорость, а ускорение. А трение замедляет движение. Не будь трения, не нужна была бы и лошадь - телега могла бы ехать сама!
Гениальная это была догадка. Благодаря ей Ньютон смог построить механику, объясняющую движение и земных механизмов, и небесных планет, и светил.
Шеннон сделал нечто подобное. Исключив понятие ценности, он сумел построить теорию, позволяющую рассчитать, сколько бит информации необходимо для управления станком и самолетом или для передачи будущим поколениям вкусов, склонностей и привычек отцов.
- Какая же сила заключена в этих битах?
- Сила? - задумчиво переспрашивает ученый. - Нет, информация - это не сила.
- Так почему же она управляет станком или целым заводом? Почему самолет, получающий информацию, может без участия человека совершать сложный полет? Почему с информацией связано все живое? Почему? Если она не сила и не энергия, то что же она такое?
- Вопрос довольно сложный. Сила, энергия - эти понятия хорошо известны науке. В настоящее время исследована природа механической, тепловой и электромагнитной энергии, изучаются свойства ядерных сил. Даже силы гравитации, благодаря которым все находящиеся на Земле предметы испытывают притяжение и обладают собственным весом, даже эти силы будут скоро до конца разгаданы современной наукой. Но информация... Она не имеет отношения ни к одной из перечисленных сил...
- Но и она участвует в самых разнообразных процессах!
- Да, участвует. И влияет на ход этих процессов. Но она имеет иную природу. Она связана с энтропией.
- С энтропией? Опять это непонятное слово. Что оно означает?
- Это слово пришло из физики, точнее - из термодинамики, одного из ее разделов. Происходит оно от греческого слова «тропэ», что означает «превращение». Термодинамика изучает процессы превращения тепловой энергии в механическую работу. Или в электричество. И для того чтобы объяснить, как это происходит, понадобилась энтропия.
- Ну, а при чем же здесь ящик с шарами, музыка, телеграфный текст?
- Как вам сказать... Видите ли, формула, которая красуется на этой колонне, как символ нашего города, тоже впервые появилась в термодинамике, а уж потом, много лет спустя, Шеннон применил ее для учета количества информации, которую содержит в себе телеграфный текст.
- Значит, эта формула просто «пришлась по вкусу»? И слово «энтропия» употребляется в Новом Городе совсем не в том смысле, который вкладывает в него физик?
Несколько мгновений ученый молчит.
- Вы сказали: «не в том смысле»? Да, так считают многие жители нашего города5.
- А вы?
- Я? Скажу вам прямо: ваши вопросы застали меня врасплох. Я уже много лет изучаю энтропию всяческих сообщений, но энтропия в физике - это не моя область. И едва ли кто-нибудь в нашем городе сможет дать вам четкий ответ на этот вопрос. Наш город исследует информацию и средства ее передачи. А ваш вопрос выходит за рамки этих проблем. Очевидно, тут надо идти от самых истоков. Что измеряли мы с помощью энтропии, извлекая из ящика черные и белые шары? Неопределенность опыта. Чем больше неопределенность, тем больше энтропия опыта, тем больше количество бит. А что выражает энтропия в термодинамике? То же самое. Электрическая энергия превращается в тепловую. Согласно законам термодинамики энтропия при этом должна возрасти. Почему? Да все потому же - возросла неопределенность: упорядоченное движение электронов по проводу превратилось в неопределенное, хаотическое тепловое движение. Все подчиняется той же формуле: