Из предложенных мною двух определений сложности мне больше импонирует второе, которого я и придерживаюсь в своих работах, и которое соответствует математическому. Однако во многих работах по экономике и по социологии под сложностью понимается увеличение числа связей, что противоречит (я поясню) колмогоровскому. То есть в нашей области однозначно принятого определения еще нет.
Вот несколько цитат из сети, показывающие, что чуть ли не в каждой области знания существует свое представление об сложности:
"Следует стремиться к минимизации числа связей между компонентами информационной системы, поскольку именно оно определяет сложность ."
"Если заглянуть в справочники, то увидим, что подходы к определению степени сложности сводятся всего к двум. Первый подход опирается на попытку совмещения описания структуры технического объекта с механическими характеристиками его элементов. Например, предлагается рассчитать степень сложности как отношение между произведением числа элементов, числа связей между ними, числа используемых физических и других эффектов и т.п. на произведение показателей точности изготовления и функционирования [3]. Затруднительно представить себе расчёт по такой формуле из-за заведомой несопоставимости подставляемых в неё величин. Ну, скажем, в каждом креплении непременно существует эффект трения. В резьбе используются геометрические эффекты. Строго говоря, в любом техническом объекте мы используем (осознанно или нет) множество самых разнообразных эффектов. Даже если мы и не подозреваем о существовании таковых. А если задаваться критериями (что учитывать, а что нет), то получим очень условную оценку, не имеющую практической ценности. И что понимать под точностью функционирования? Её можно измерить в миллиметрах, метрах, градусах, паскалях … да мало ли в чём приходится измерять изменение состояния обрабатываемого объекта (если точность считать по нему)? Смысл тоже не очень улавливается - достаточно пройтись по предельным условиям, чтобы получить полную чепуху. С другой стороны, здесь косвенно присутствует оценка по числу исполняемых функций. И хотя это вполне субъективная оценка, этот подход позволяет оценивать не только иерархические структуры. В какой-то мере этот подход близок к пониманию идеальности в ТРИЗ при всех расхождениях в толковании этого термина.
Второй подход (самый распространённый) основан на сведении понятия "сложность" к числу системных уровней [4]: чем их больше, тем система сложнее. То есть, трёхуровневая система сложнее двухуровневой. Здесь возможна градация степени сложности по числу уровней. Правда, разница между системами разной сложности при таком подходе заметна лишь при малом числе уровней (например, 2-3). При большом числе уровней (например, 10-11) она практически незаметна. Более того, сомнительно, что к обычным иерархическим системам, различающимся только числом уровней, вообще можно применить понятие "сложность"."
" В самом общем случае сложность структуры зависит от числа и разнообразия её элементов, от числа существующих и потенциальных связей между ними. То есть, от материала, на котором могут возникать деревья, образующие мангровые кусты."
"М. Перах пишет: "К сожалению, сам Бэхэ не предлагает четко сформулированного определения сложности ." И далее приводит определение сложности ... задачи у Дембского, философа и математика, приверженца идеи разумного замысла! Внеся путаницу в вопрос сложности (объединяя сложность системы со сложностью задачи), Перах затем разбирает созданный им самим завал, признавая, что "на самом деле мы имеем дело с двумя различными понятиями сложности,.. сложность, подразумеваемая Бэхэ, состоит в структуре биохимической системы. Она определяется количеством компонентов системы и количеством связей и взаимодействий между этими компонентами. Указанные два понятия сложности существенно различны"."
Однако, я рад, что стучался в открытую дверь. Итак, придерживаемся математического определения.
Вот определение: Сложность слова относительно оптимального способа описания, определенная с точностью до ограниченного слагаемого, называется алгоритмической энтропией слова .
Что такое неопределенность? Если система изменяется точно заданным образом, то нам не нужно получать о ней никакой дополнительной информации для ее описания. Объем информации которую будет "нести" такая система будет постоянным, но точно определить его невозможно, так как его объем будет зависеть от способа обработки информации, и в принципе (в пределе) может быть равным нулю. Теперь устроим так, что эта система начинает "нести" дополнительную информацию. Как это можно сделать? Только внеся неопределенность в ее поведение! Так как без этой неопределенности объем информации оставался бы на прежнем уровне.
Эта неопределенность измеряется объемом дополнительной информации и определяется через формулу Шеннона. Таким образом, информация о системе равна сумме некоторого постоянного объема, соответствующего "безэнтропийной" системе, и объема дополнительной информации, объем которой равен значению энтропии. Если постоянный объем равен нулю, то информация о системе равна ее энтропии (и это минимальный объем которым можно описать систему). То есть неопределенность измеряется дополнительной информацией, необходимой для описания изменяющейся системы. Если сложность измеряется минимально возможным объемом информации полностью описывающим систему, то и такая информация, и сложность, и энтропия - одно и тоже.
Поэтому, если придерживаться математического определения сложности, то формула Шеннона описывает и минимальную информацию полно описывающую систему, и ее энтропию, и сложность только потому, что это одно и то же. Впрочем, другое и представить себе трудно. Да, в математике есть выражения одинаковые по форме, которые описывают разные «вещи» в зависимости от того какие аргументы мы в них подставляем. Но в формуле Шеннона такого плюрализма нет. С одним и тем же аргументом, эта функция может означать и информацию, и энтропию, и сложность только потому, что в рассмотренном контексте это одно и то же.
То есть если брать за основу математическое определение сложности (а я так и делаю в своих работах), то в процессе эволюции увеличивается и энтропия, и информация, и сложность.
Сегодня господствует точка зрения, что в процессе эволюции общества его энтропия уменьшается, а сложность увеличивается. Но в приведенном математическом определении сложность это энтропия (в общем и целом), поэтому они либо вместе уменьшаются либо вместе увеличиваются. То же что бытует указанное мнение, говорит о том, что далеко не все подразумевают под сложностью его математическое определение.
Все что говорилось выше я написал вчера, но из-за плохой связи не смог отправить. Текст получился очень сумбурным из-за спешки, и из-за раздражения на то, что Вы могли подумать, будто я взялся рассуждать о «сложности» не зная даже ее математического определения. Тем более, что так оно и было. То есть я знал, что это должно быть так-то и так-то (по логике) но конкретно ничего не читал. А гуляя вечером со своим кобелем, я думал о том, что было бы правильней всего называть этим термином. И вот наши с ним соображения:
Представьте себе плату, на которой смонтировано замысловатое электронное устройство (работающее) и простой маятник (качающийся), уровни энтропии и там и там одинаковы. Для нас будет естественным считать электронное устройство более сложным. Но как это выглядит с математической точки зрения? Пусть под сложностью мы будем понимать объем информации необходимый для описания системы. Но он будет в значительной степени зависеть от субъекта, то есть того, кто эту информацию воспринимает. Так можно вообразить себе робота, единицей восприятия которого является такая вот плата именно этого устройства. То есть описание любого объекта у него будет сводиться к перечислению отличий этого объекта от данной платы. Понятно, что поскольку это электронное устройство не имеет отличий от самого себя, то информация полностью его описывающая будет равна только его энтропии, но только для данного робота. Для робота плата будет гораздо проще, чем маятник, который сильно от нее отличается. Таким образом, если попытаться абстрагироваться от субъекта восприятия, то объективная сложность (зависящая только от объекта) будет равна энтропии. Но, во-первых, такая трактовка будет отличаться от нашего интуитивного представления (плата все-таки сложнее! J), а, во-вторых, если эта «сложность» становится тождественной «энтропии», то для чего она нам нужна? Зачем нам два термина обозначающих одно и то же?
Я считаю, что целесообразней было бы считать сложностью тот объем информации, который необходим тому или иному субъекту (без отрыва от него) для описания объекта. Это могло бы выглядеть так: Сложность=К1*Энтропия+К2, где К1 и К2 - какие-то константы зависящие от способа обработки информации субъектом (скажем, людьми). Такая «сложность» не была бы тождественна энтропии, но находилась бы с ней в прямой зависимости - при увеличении энтропии увеличивается и сложность.
Теперь еще раз о том, какой энтропией пользоваться. Дадим три определения (одной и той же) энтропии (это именно разные определения одного и того же).
1) – мера неопределенности;
2) – объем информации необходимый для полного описания объекта за вычетом той информации, которая описывает этот объект в отсутствии всякой неопределенности. «Дополнительная» информация об изменениях.
3) – сложность объекта, в том случае если в отсутствии неопределенности его сложность равна нулю. «Минимальная» сложность.
Самое простое и ясное из них – первое, им и предлагаю пользоваться. Но если в анализе мы коснемся сложности или информации, то вспомним и об остальных определениях. Это одно и то же.
|