Что ж, мне также интересна эта дискуссия.
Но вернёмся к исходной проблеме - энтропия больших систем в экономике и обществе. Далее условно я буду называть её просто "большая система".
В отношении такой большой системы я хотел бы отметить следующее. Во-первых, она обладает сложной структурой, во-вторых, характеризуется некоторой неопределённостью. В связи с этим я и предлагал измерять энтропию по Шеннону для двух составляющих большой системы.
Можно предложить аналогию большой системы с лототроном.
Представим себе лототрон, в котором лежат шары, на шарах написаны буквы, и эти буквы всё время выдаются по схеме с возвращением. Каждая буква выдаётся со своей вероятностью. Отсюда по формуле Шеннона считаем некоторую энтропию, которая характеризует неопределённость ситуации.
Но кроме того, сам лототрон имеет некоторое устройство с технической точки зрения. Допустим, устройство лототрона, принципы его работы, описание отдельных узлов и механизмов изложены в некоторой книге. Текст состоит из отдельных символов, и можно подсчитать информацию, которая содержится в этой книге. Для инженера-"лототронщика" (не путать с лохотронщиком
)эта информация будет невелика, потому что он и так имеет знания об устройстве лототронов. Но для наблюдателя, который впервые знакомится с информацией об устройстве лототронов, энтропия по Шеннону данной книги будет достаточно большой. Эта энтропия характеризует фактически степень сложности устройства лототрона, и она не зависит от наблюдателя.
Итак, с лототроном связаны:
1) Энтропия информации об устройстве лототрона H1 (для ранее не информированного наблюдателя), которая характеризует степень сложности устройства самого лототрона.
2) Энтропия H2, которая характеризует неопределённость ситуации, которая связана с этим лототроном и рассчитывается на основе вероятностей выпадения отдельных букв.
Энтропии H1 и H2 - разные величины, хотя и считаются по одной и той же формуле. Вы с этим согласны ?