Тем не менее необходимо еще раз подчеркнуть, что понятие энтропии является чисто статистическим, так же, как, в конечном счете, чисто статистическим является тот же принцип необратимости: как уже показал Больцман, в замкнутой системе обратимость не невозможна, а только невероятна. Столкновение молекул газа происходит согласно статистическим законам, которые сводят различие скоростей к среднему равенству. Когда более быстрая молекула сталкивается с более медленной, может случиться так, что последняя передаст часть своей скорости первой молекуле, но статистически более вероятно, что произойдет обратное, то есть быстрая молекула замедлит свой бег и сообразует свою скорость со скоростью более медленной молекулы, порождая состояние большего единообразия и, следовательно, способствуя росту элементарной неупорядоченности. «Таким образом, закон увеличения энтропии обусловлен законом больших чисел, известным любому виду статистики, однако он не относится к строгим физическим законам, которые, как, например, законы механики, не допускают исключений»5. То, каким образом от теории «расхода» энергии можно перейти к использованию понятия энтропии в теории информации, нам довольно ясно показывают рассуждения Ганса Рейхенбаха. Общая тенденция к возрастанию энтропии, свойственная физическим процессам, не препятствует тому, чтобы (как мы это ощущаем каждый день) происходили такие физические процессы, в которых совершается определенная организация, то есть упорядочение событий в соответствии с определенной невероятностью (все органические процессы таковы) и, следовательно, в соответствии с уменьшением энтропии. По отношению к общей графической кривой роста энтропии эти моменты ее уменьшения Рейхенбах называет branch systems (боковыми системами) (как отклонения, ответвления от этой кривой), в которых взаимодействие некоторых событий приводит к упорядочению соответствующих элементов. Приведем пример. Ветры, дующие на пляже, порождают в тысячах песчинок общую тенденцию к беспорядку и, следовательно, к единообразию их расположения, но вот неожиданно по пляжу проходит человек, и взаимодействие его ног с поверхностью песка представляет собой взаимодействие событий, приводящих к появлению определенной конфигурации (статистически совершенно невероятной) следа от его ноги. Эта конфигурация, являющаяся формой, фактом определенной организации, очевидно, будет стремиться к исчезновению под воздействием ветров, иными словами, если она и представляла собой ответвление от общей кривой энтропии (там, где сама энтропия уменьшалась, уступая место невероятному порядку), сама боковая система, тем не менее, будет стремиться к тому, чтобы снова слиться с общей кривой увеличивающейся энтропии. В то же время в этой системе, как раз благодаря уменьшению элементарной неупорядоченности и осуществлению порядка, сложились причинно — следственные отношения: причина представляла собой совокупность фактов взаимодействия с песчинками пляжа (читай «человеческая нога»), а следствие — возникшую затем их организацию («след»).

Существование причинно — следственных отношений в системах, организованных при уменьшении энтропии, приводит к возникновению «воспоминания»; с физической точки зрения воспоминание представляет собой запись, «упорядочение, структура которого остается неизменной, так сказать, замороженной»6. Это помогает нам установить цепь причин, чтобы воссоздать событие, однако поскольку второе начало термодинамики ведет к признанию и утверждению существования воспоминаний о прошлом, постольку воспоминание представляет собой не что иное, как накопление информации, из этого рождается тесная связь между энтропией и информацией1.

Поэтому нас не удивит, если в теоретических работах по информации мы обнаружим широко используемый термин «энтропия»: это, напротив, поможет нам понять, что измерение количества информации означает измерение того порядка или беспорядка, в соответствии с которым организовано то или иное сообщение.

<p>Понятие информации в теории Винера</p>
Перейти на страницу:

Похожие книги