Мы рассмотрели, каким образом вводится мера информации, исходя из основополагающих принципов квантовой теории. При таком определении для любого чистого состояния (замкнутой системы) мера информации равна 1 (следствие нормировки амплитуд вектора состояния). Это максимальное значение — то есть для любой изолированной системы информация максимальна и равна единице. Для смешанных состояний (открытых систем) информация меньше единицы, и минимальное ее значение достигается для максимально смешанных состояний и равно 1/d, где d = 2N — размерность гильбертова пространства (N — число двухуровневых подсистем). Таким образом, количество информации, содержащейся в системе, изменяется от 1/2N для максимально смешанных состояний до 1 для чистых состояний (изолированных систем). С физической точки зрения это легко объяснить. В замкнутой системе вся информация содержится в ней самой, и нормированная ее величина равна 1. Для смешанных состояний, то есть для систем, взаимодействующих со своим окружением, часть информации о системе теряется в ее окружении. И минимум информации, который может остаться в самой системе (случай максимально смешанного состояния), определяется числом локализованных структур в системе в процессе декогеренции (напомню, что взаимодействие с окружением сопровождается декогеренцией, то есть локализацией системы и ее составных частей из изначально нелокального информационного состояния).

Однако определение (3.7) не совсем удобно в практическом плане. Для нас привычнее иметь дело с аддитивными величинами, когда информация составной системы равняется сумме частичных информаций. А согласно определению (3.7), информация не суммируется, а перемножается. Так, для двусоставной системы (в случае некоррелированного, то есть состояния):

IAB = ()2 = ()2 ()2 = IA IB.

Поэтому оказалось перейти к логарифму от этой величины. Поскольку логарифм произведения равен сумме логарифмов сомножителей, получалась . При этом [(ρ2)] изменяется в пределах от —до 0.

Из статистической механики известно, что на больших временах энтропия системы соответствует среднему значению — k , где k — постоянная Больцмана, так что согласно (3.8) имеем:

<—k > = —k )

Отсюда связь между количеством информации в системе и энтропией () = <>, которая называется энтропией фон Неймана и чаще всего используется сейчас в качестве меры квантовой информации. Она и была введена в качестве первой меры квантовой запутанности, которая определяется выражением (3.6). Различие между натуральным логарифмом и логарифмом по основанию 2 в данном случае не принципиально.

Заметим, что () и [(ρ2)] изменяются в одних и тех же пределах и никогда сильно не отличаются друг от друга. Однако при использовании этой меры, чтобы получить положительное число, приходится в выражениях ставить знак минус, как в (3.6). При этом иногда забывается, что при переходе к логарифму с информацией произошел своеобразный «перевертыш»: там, где был минимум информации, — теперь стал максимум, а максимум информации (единица для чистого состояния) обратился в нуль. Хотя и эту ситуацию можно трактовать так, что, с точки зрения внешнего наблюдателя, о чистом состоянии он ничего не может сказать, поскольку это замкнутая система, которую наблюдатель еще не «потревожил» своим измерением.

Квантовая теория таким образом непосредственно связывает информацию с энергией через энтропию фон Неймана, которую можно считать основной физической характеристикой энергоинформационного процесса. Изменение информации сопровождается изменением энергии, а обмен информацией напрямую связан с обменом энергией (справедливо и обратное) — это еще один важный вывод, который сделан в физике квантовой информации.

Есть и отдельные строгие результаты, связывающие информацию, энергию и энтропию. В частности, теорема утверждает, что число элементарных логических операций, которые физическая система может выполнить в единицу времени, ограничено энергией системы, а количество информации, которую система может зарегистрировать (воспринять), ограничено ее собственной максимальной энтропией[92].

Прямая связь между энергией и выполняемыми логическими операциями (информационными процессами) позволяет перекинуть мостик к физическим процессам, сопровождающим работу сознания, поскольку она непосредственно связана с логическими операциями.

Перейти на страницу:

Поиск

Все книги серии Квантовая магия

Похожие книги