Нам легко могут возразить, сказав, что не только рост непредсказуемости придает очарование поэтической речи. Если бы это было так, тогда гораздо более поэтичными были бы стихи Буркиелло, которые гласят:

«Жареные телячьи ножки // и румяна в пресном бульоне // гневно спорили в куче переваренной еды // где речь заходила о поверженных кочешках брокколи». Нет, мы просто хотели сказать, что способ11 необычного использования языка — вот что определило поэтический результат, и чтс использование вероятностей, предусмотренных системой языка, ничего бы нам не дало. Если. конечно, новизна не содержалась в самом сообщении, а не в использованных выражениях и не в способе оживлять ставшие привычными чувства: в таком смысле составленное по всем правилам смысловой избыточности радиосообщение о том, что на Рим сбрасывают атомную бомбу, было бы весьма информативно. Однако этот разговор выводит нас за пределы изучения структур языковой системы (а также за пределы эстетики, что лишний раз доказывает: эстетика должна интересоваться не столько тем, что говорится, сколько тем, как это сказано). И потом, если стихи Петрарки сообщают информацию любому, кто способен постичь их смысл, даже и самому Петрарке, сообщение об атомной бомбардировке, напротив, ничего нового не сказало бы пилоту бомбардировавшему город, и уже тем более — тому, кто слушал бы его во второй раз. Таким образом, мы исследуем возможность передавать информацию, не являющуюся привычным «смыслом», через использование традиционных структур языка, которое противоречит законам вероятности, управляющим им изнутри.

Следовательно, в таком случае информация связывается не с порядком, а с неупорядоченностью, по крайней мере, с определенным непорядком, который непривычен и которого нельзя предугадать. Мы говорили о том, что положительным измерением такой информации (поскольку она отличается от смысла (significato) является энтропия. Но если энтропия оказывается максимальной неупорядоченностью и внутри нее наблюдается сосуществование всяческих вероятностей и никакой именно, тогда информация, содержащаяся в намеренно организованном сообщении (поэтическом или обычном) предстанет лишь как весьма своеобразная форма неупорядоченности — неупорядоченности, которая кажется таковой поскольку берет начало в предшествовавшем ей порядке. Можно ли в этой связи по — прежнему говорить об энтропии?

<p>Передача информации</p>

Вернемся ненадолго к классическому примеру из кинетической теории газов: представим сосуд, наполненный молекулами газа, которые движутся с одинаковой скоростью. Если движение регулируется чисто статистическими законами, энтропия системы очень высока, и — даже если мы можем предсказать общее поведение системы — нам нелегко предугадать, каким будет следующее положение той или иной молекулы; иными словами, молекула может двигаться самыми разными способами, она, так сказать, открыта всем возможностям, мы знаем, что она может занять самые разные положения, но не знаем, какие именно. Для того, чтобы лучше определить поведение отдельных молекул, нам потребовалось бы дифференцировать их скорость, одним словом, придать системе порядок и уменьшить в ней энтропию: поступив таким образом, мы увеличим возможность того, что молекула будет вести себя так, а не иначе, но ограничим число ее изначальных разнообразных возможностей (подчинив их определенному коду).

Итак, если я хочу что — либо знать о поведении отдельной частицы, информация, которой я ищу, противостоит энтропии, но если я хочу знать все возможные варианты поведения любой частицы, тогда информация, которую я ищу, будет прямо пропорциональна энтропии; привнося в систему порядок и уменьшая в ней энтропию, я узнаю много в каком — то одном смысле, но много меньше в другом.

То же самое происходит и с передачей информации.

Постараемся это пояснить ссылкой на формулу, с помощью которой обычно выражается величина какой — либо информации:

I = N log h

где «h» представляет собой число элементов, из которых делается выбор, а N — количество вариантов выбора, которые можно сделать (в случае с двумя игральными костями h = 6, а N = 2; если же мы имеем шахматную доску, то h = 64, а N = все ходы, которые допускаются правилами шахматной игры).

Если же речь идет о системе с высокой энтропией (где могут осуществиться все комбинации), значения величин N и h оказываются очень большими и, следовательно, самой высокой оказывается и величина той информации о поведении одного или нескольких элементов системы, которую можно было бы передать. Однако очень трудно сообщить столько бинарных вариантов выбора, сколько необходимо для того, чтобы обособить выбранный элемент и определить его сочетания с другими элементами.

Перейти на страницу:

Похожие книги