Алгоритм размножения и отбора требует принятия права частной собственности и свободной конкуренции. Общественная собственность объективно существует. Нужен закон управления общественной собственностью, записанный в конституции. Он не отнимает права частной собственности, например, на землю, а только вводит ограничения на управление общественной собственностью. Это – загрязнение окружающей среды, «хищническая эксплуатация» (сведение лесов, истощение плодородия и т.п.), очевидное отсутствие деятельности и проч.

Согласно четвертому алгоритму самоорганизации без потребления энергии не может существовать функционирование, поэтому в любом случае нельзя уменьшать уровень её потребления ниже минимального, обеспечивающего жизненно важные потребности людей.

Алгоритм накопления опыта требует построения экономической системы переменной степени жесткости функционирования. Практически этот принцип предполагает различные уровни ее регулирования государством. Тут существуют две крайности: свободный «дикий» рынок и абсолютно жесткое регулирование (типа Госплана).

Чем в большей степени работа данного предприятия влияет на социальную систему в целом, тем меньше у него должно быть возможностей совершать непредсказуемые, рискованные поступки.

Можно построить информационную систему типа Интернета для привлечения многих людей к решению неких насущных задач, связанных с улучшением работы любых «механизмов» социальной системы.

18. Игра. Потребность в игре, очевидно, находится в подсознании, т.е. представляет собой инстинкт. Для социальных систем, для человека игра это палка с двумя концами. С одной стороны это развитие детей, творчество («что там, за горизонтом?»), удовольствие, культура. С другой – обман в игре, азартные игры и игромания, политика и война, всевозможные интриги в борьбе за власть и, вообще, за собственное благополучие, часто в ущерб другим людям

<p>Приложение</p>1п. Вывод формулы К. Шеннона для энтропии

Если принять аксиому о существовании в природе вероятностных явлений (о точках бифуркации), то легко выводятся формулы, связанные с естественным процессом нарастания энтропии. Это, конечно, формула Шеннона (в теории информации). Выведем ее, исходя из самых общих предпосылок, следуя известной идее, изложенной в [1П, и др.]. Эти предпосылки несколько отличаются от принятых К. Шенноном для информационной энтропии, но сущность вывода при этом не меняется.

Сделаем три исходные предпосылки:

– энтропия должна быть функцией вероятностей любого из возможных состояний системы и их числа (n);

– значение энтропии не должно зависеть от способа постановки задачи, физической сущности системы и языка описания.

– все состояния системы полностью определенны, дискретны.

Рассмотрим сначала систему, у которой все вероятности переходов из состояния в состояние одинаковы, (точки бифуркации идут подряд) и сделаем еще две предпосылки:

– энтропия (Sp), в этом случае, должна быть монотонной функцией числа возможных состояний системы;

– энтропия должна обладать свойством аддитивности.

Все пять предпосылок достаточно очевидны и не нуждаются в дополнительных комментариях.

Так как вероятности переходов приняты одинаковыми, то энтропия будет зависеть только от числа возможных состояний. Предположим, в течение некоторого времени система переходила из одного состояния в другое m раз. Если обозначить число возможных состояний при каждом переходе через N и иметь в виду первую и пятую предпосылки, то получим,

очевидно, n=Nm (n – число всех возможных состояний системы) и

Приравняем правые части этих выражений

Теперь продифференцируем это выражение по m и по n

Основание логарифма – a принято произвольным.

Исключим сложную производную из двух последних формул

Учитывая уравнения (2А) и (3А) линейной зависимости Sp от m и упрощая выражение (7А), получим дифференциальное уравнение

После разделения переменных и интегрирования, имеем

где ln k – произвольная постоянная интегрирования. Отсюда

Так как вероятности переходов приняты одинаковыми, то вероятность каждого i-го состояния равна Pi=1/n и

Обобщим теперь эту формулу на произвольные вероятности переходов.

Представим себе последовательность переходов с, каждый раз, разным числом возможных равновероятных состояний. При каждом отдельном переходе значение Sp дает меру неопределенности всех возможных состояний системы или, в терминах теории вероятностей, общую неопределенность опыта. Но каждый отдельный исход опыта (одно из возможных состояний) имеет вероятность Pi, и, следовательно, вносит долю неопределенности Pi Sp. Суммируя теперь эту величину по всем возможным состояниям, получим формулу Шеннона

где n – число возможных состояний системы, а Pi – вероятность каждого из них, k и a – произвольные постоянные.

Анализ этой формулы показывает, что рост энтропии максимален при равной вероятности возможных состояний; при увеличении n энтропия растет.

Перейти на страницу:

Похожие книги