С О Ц И Н Т Е Г Р У М

цивилизационный форум
     На главную страницу сайта Социнтегрум      Люди и идеи      Организации      Ресурсы Сети      Публикации      Каталог      Публикатор_картинок
                       
 
Текущее время: Чт мар 28, 2024 1:56 pm

Часовой пояс: UTC + 3 часа [ Летнее время ]




Начать новую тему Ответить на тему  [ Сообщений: 110 ]  На страницу Пред.  1 ... 3, 4, 5, 6, 7, 8  След.
Автор Сообщение
 Заголовок сообщения:
СообщениеДобавлено: Пн сен 27, 2004 3:07 pm 
Не в сети
Давний участник
Давний участник

Зарегистрирован: Вт авг 31, 2004 12:32 pm
Сообщения: 29
Откуда: Минск
1)В науке под энтропией физического объекта понимается то, что знать заранее невозможно. Поэтому информация о системе самого осведомленного наблюдателя будет равна энтропии системы.

2) Вы путаете понятия: энтропия физического объекта и энтропия знаний наблюдателя об этом объекте. Только в предельном случае, когда наблюдатель осведомлен максимально, насколько это возможно, эти значения совпадают. И поэтому только в этом случае субъективная, по своей природе величина информации, становится равной объективной величине, которая зависит только от объекта, а не от наблюдателя.

Постоянную же величину информации, при отсутствии физической энтропии, я ввел только для неосведомленного в полной мере наблюдателя, для него энтропия его собственных знаний не равна 0 (раз он не все знает). Поэтому даже система с нулевой физической энтропией будет нести для него определенную информацию.

3)Но если и энтропия и информация для Вас - одно и тоже, то почему Вы не хотите сделать вывод: если увеличивается энтропия, то и информация увеличивается тоже?


Вернуться к началу
 Профиль  
 
 Заголовок сообщения:
СообщениеДобавлено: Пн сен 27, 2004 3:40 pm 
Не в сети
Администратор форума
Администратор форума
Аватара пользователя

Зарегистрирован: Ср авг 25, 2004 12:26 am
Сообщения: 1050
Откуда: Москва
Цитата:
1)В науке под энтропией физического объекта понимается то, что знать заранее невозможно. Поэтому информация о системе самого осведомленного наблюдателя будет равна энтропии системы.

Если наблюдатель самый осведомлённый, то есть он всё знает, то для него информация о системе будет равна нулю.
Цитата:
2) Вы путаете понятия: энтропия физического объекта и энтропия знаний наблюдателя об этом объекте. Только в предельном случае, когда наблюдатель осведомлен максимально, насколько это возможно, эти значения совпадают.

Если он уже осведомлён максимально, то он не получит никакой дополнительной информации.
Цитата:
3)Но если и энтропия и информация для Вас - одно и тоже, то почему Вы не хотите сделать вывод: если увеличивается энтропия, то и информация увеличивается тоже?

Прежде чем делать какой-то вывод, нужно определиться с понятиями. Я ранее изложил своё видение понятий, связанное с энтропией (H1 и H2), Вы предлагаете некое другое. Поэтому и нужны уточнения.
В частности, я не понимаю, что Вы называете "постоянной величиной информации при отсутствии физической энтропии для неинформированного в полной мере наблюдателя". И как она измеряется ? По какой формуле оценивается ?
Может быть это то же самое, что я до этого называл энтропией информации об устройстве лототрона H1 для неинформированного наблюдателя ?


Вернуться к началу
 Профиль Отправить email  
 
 Заголовок сообщения:
СообщениеДобавлено: Вт сен 28, 2004 10:33 am 
1) Самый осведомленный наблюдатель - тот больше которого знать невозможно, но это не значит, что он знает все. Можно знать об электроне все, что только можно, но не знать куда он сейчас повернет (налево или направо). Только в этом случае говорят, что электрон обладает энтропией. Если бы можно было сказать однозначно куда он повернет то и энтропии (физической) не было бы.

2)Поэтому если система обладает энтропией (физической), то она будет нести и для самого осведомленного наблюдателя информацию, потому что физическая энтропия - то, что нельзя знать заранее. И объем этой информации будет равен физической энтропии системы (но только в этом предельном случае).

3) Да, это тоже самое, что и Ваше H1. И если честно, я бы эту составляющую опустил совсем. Мы же пытаемся анализировать систему, а зачем это делать с точки зрения какого-то "недоумка" :D , который мало что знает. Кроме того эта величина будет сугубо субъективной и не будет характеризовать саму систему. Я ее ввел только для того, чтобы показать, что раз она более статична относительно неопределенности физической (Н2), то при анализе изменений и производных, эта Н1 все равно пропадет. Короче, не нужна она нам при анализе системы, для изучения наблюдателя - да, системы - нет.


Вернуться к началу
  
 
 Заголовок сообщения:
СообщениеДобавлено: Вт сен 28, 2004 11:48 pm 
Не в сети
Администратор форума
Администратор форума
Аватара пользователя

Зарегистрирован: Ср авг 25, 2004 12:26 am
Сообщения: 1050
Откуда: Москва
Цитата:
Да, это тоже самое, что и Ваше H1. И если честно, я бы эту составляющую опустил совсем. Мы же пытаемся анализировать систему, а зачем это делать с точки зрения какого-то "недоумка" , который мало что знает. Кроме того эта величина будет сугубо субъективной и не будет характеризовать саму систему. Я ее ввел только для того, чтобы показать, что раз она более статична относительно неопределенности физической (Н2), то при анализе изменений и производных, эта Н1 все равно пропадет. Короче, не нужна она нам при анализе системы, для изучения наблюдателя - да, системы - нет.

Думаю, что дело не только в том самом недоумке. Эта величина объективно характеризует количество информации о системе, позволяющее сравнивать системы между собой по информативности, другими словами - сложность системы.
К тому же её нельзя назвать статичной. Вы тоже пишете, что она не статична вообще, а более статична, чем "физическая" энтропия. Полагаю, что анализ динамики величины H1 так же важен, как и H2.


Последний раз редактировалось Artashir Ср сен 29, 2004 12:03 am, всего редактировалось 1 раз.

Вернуться к началу
 Профиль Отправить email  
 
 Заголовок сообщения:
СообщениеДобавлено: Ср сен 29, 2004 12:02 am 
Не в сети
Администратор форума
Администратор форума
Аватара пользователя

Зарегистрирован: Ср авг 25, 2004 12:26 am
Сообщения: 1050
Откуда: Москва
Швец писал(а):
для того что бы иметь возможность сравнивать книги между собой по информативности принято считать ту информацию, которую получит неосведомленный читатель (но знающий язык), то есть опять речь идет не о фактически полученной информации, а о максимальной (как и для любого носителя).


Так что Вы сами писали, что ориентация на неосведомлённого человека есть мера информативности, то есть её никак нельзя считать субъективной.


Вернуться к началу
 Профиль Отправить email  
 
 Заголовок сообщения:
СообщениеДобавлено: Ср сен 29, 2004 12:10 am 
Не в сети
Администратор форума
Администратор форума
Аватара пользователя

Зарегистрирован: Ср авг 25, 2004 12:26 am
Сообщения: 1050
Откуда: Москва
И другая Ваша цитата:
Швец писал(а):
" Количеством информации называют числовую характеристику сигнала , отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала . Эту меру неопределенности в теории информации называют энтропией."


Вернуться к началу
 Профиль Отправить email  
 
 Заголовок сообщения:
СообщениеДобавлено: Ср сен 29, 2004 12:16 am 
Не в сети
Администратор форума
Администратор форума
Аватара пользователя

Зарегистрирован: Ср авг 25, 2004 12:26 am
Сообщения: 1050
Откуда: Москва
Таким образом, одно дело энтропия H1 как мера информативности или сложности устройства системы, с другой стороны - H2 как мера физической неопределённости самой системы. Вы согласны с тем, что H1 и H2 - разные величины, и что они определяются именно таким образом ?


Вернуться к началу
 Профиль Отправить email  
 
 Заголовок сообщения:
СообщениеДобавлено: Ср сен 29, 2004 6:22 pm 
1) Если какая-то величина зависит от субъекта, то как она называется? Если одна и та же книга по своему оформлению кому-то нравится, а кому-то нет то как их сравнивать (по этому субъективному признаку) друг с другом? Единственый способ - выбрать какого-нибудь одного субъекта (лучше себя) в качестве судьи и узнать его мнение о разных изданиях. Если бы мы их сравнивали по весу, то необходимость в выборе субъекта отпала бы, и мы бы его не оговаривали, потому-что вес - объективная характеристика зависящая только от объекты. Вы согласны? Но тогда не понятно почему Вы приводите отрывок в котором описан способ сравнения книг по их информативности, где черным по белому дается описание субъекта относительно которого эта информативность измеряется, и тут же утверждаете, что таким образом измеряется объективная величина, присущая самой книге. Конечно эта величина зависит от субъекта, и поэтому субъективна.

2)Если какая-то величина зависит от субъекта, то она субъективна. Ответьте: Вы с этим согласны? Поэтому любая информация полученная субъектом - субъективна, поскольку зависит от его степени осведомленности. Просто информация полученная о системе предельно осведомленным человеком по величине будет равняться физической энтропии системы, но сам человек этого знать не может, поскольку не может точно сказать, что его осведомленность максимальна, то есть информация для него даже в этом случае не будет какой-то особенной, для него она так и останется субъективной величиной снимающей неопределенность его знаний, и считаться она для него будет точно также как и всегда, через формулу Шеннона.

Если мы анализируем развитие системы, то следует это делать впервую очередь в объективных величинах. Вы согласны? Если же нам нужно будет сказать сколько информации может получить субъект от этой системы, то мы заявим, что минимум этой информации будет равен энтропии этой системы, а дальше может расти хоть до бесконечности в зависимости от информированности субъекта.

3)Будем продвигаться шажками. Шаг первый. Представьте себе систему (лототрон), за которой наблюдает некий наблюдатель. Теперь представьте, что произошло незначительное увеличение энтропии этой системы. В этом случае разница между той информацией, которую он получал до и после будет равна разнице между энтропиями этого лототрона. Вы согласны? (конструкция не изменилась)


Вернуться к началу
  
 
 Заголовок сообщения:
СообщениеДобавлено: Ср сен 29, 2004 7:18 pm 
Не в сети
Администратор форума
Администратор форума
Аватара пользователя

Зарегистрирован: Ср авг 25, 2004 12:26 am
Сообщения: 1050
Откуда: Москва
1)
Цитата:
Вы приводите отрывок в котором описан способ сравнения книг по их информативности, где черным по белому дается описание субъекта относительно которого эта информативность измеряется, и тут же утверждаете, что таким образом измеряется объективная величина, присущая самой книге. Конечно эта величина зависит от субъекта, и поэтому субъективна.

Информативность или сложность объекта зависит от самого объекта, и потому она объективна. У одного объекта она одна, у другого - другая. Она не зависит от субъекта, поскольку по принятому определению субъект всегда один и тот же.
Цитата:
2)Если какая-то величина зависит от субъекта, то она субъективна. Ответьте: Вы с этим согласны?

Да, согласен.
Цитата:
Если мы анализируем развитие системы, то следует это делать впервую очередь в объективных величинах. Вы согласны?

Конечно.
Цитата:
Если же нам нужно будет сказать сколько информации может получить субъект от этой системы, то мы заявим, что минимум этой информации будет равен энтропии этой системы, а дальше может расти хоть до бесконечности в зависимости от информированности субъекта.

Минимум информции вообще-то будет равен нулю ...
Можно вообще не получить от системы никакой информации. Особенно если она специально охраняется, чтобы никто не получил о ней никакой информации.
Цитата:
3)Будем продвигаться шажками. Шаг первый. Представьте себе систему (лототрон), за которой наблюдает некий наблюдатель. Теперь представьте, что произошло незначительное увеличение энтропии этой системы. В этом случае разница между той информацией, которую он получал до и после будет равна разнице между энтропиями этого лототрона. Вы согласны? (конструкция не изменилась)

Да, согласен, если речь идёт об информации о выпадениях шара.


Вернуться к началу
 Профиль Отправить email  
 
 Заголовок сообщения:
СообщениеДобавлено: Чт сен 30, 2004 2:39 pm 
Не в сети
Давний участник
Давний участник

Зарегистрирован: Вт авг 31, 2004 12:32 pm
Сообщения: 29
Откуда: Минск
1) Здрасте! :) "Оценка не зависит от субъекта, потому что субъект всегда один и тот же". Если я возьму местную бомжиху Нину, отведу ее в Эрмитаж и попрошу дать оценки картинам, то они тоже будут объективны, поскольку субъект один?

Вы же сразу соглашаетесь с тем, что раз оценка зависит от субъекта, то она субъективна!

Информация полученная неосведомленным субъектом о системе будет зависить от уровня этой осведомленности субъекта. Вопрос: Вы согласны, что объем информации полученной субъектом о системе зависит от его осведомленности?

2) Надеюсь, что это сообщение вырвалось у Вас с горяча. Иначе, разговор может стать похожим на обычные чатовские препирательства среди подростеов. Понятно, что речь идет о минимуме информации, которая может полно описать систему, именно в этом контексте мы всегда и говорили, и именно этот объем количественно равен физической энтропии системы.



3) Нет речь идет об изменениях информации обо всем лототроне. Вы согласны, что если при неизменной конструкции, изменится только энтропия лототрона, то разница полученной информации "до" и "после" будет равна разнице между энтропиями лототрона до и после.


Вернуться к началу
 Профиль  
 
 Заголовок сообщения:
СообщениеДобавлено: Чт сен 30, 2004 4:18 pm 
1) Зависимостью называется ситуация, когда при изменении одной системы изменяется другая. Если субъект по определению фиксирован, то не может быть и зависимости от субъекта, отличия в численной характеристике определяются только отличиями между объектами.
Цитата:
Оценка не зависит от субъекта, потому что субъект всегда один и тот же". Если я возьму местную бомжиху Нину, отведу ее в Эрмитаж и попрошу дать оценки картинам, то они тоже будут объективны, поскольку субъект один?

Безусловно. Если известна формула, по которой даётся оценка картин.

2)
Цитата:
Надеюсь, что это сообщение вырвалось у Вас с горяча

Напрасно надеятесь. Вопрос о том, какую именно информацию получает субъект, принципиален.
Цитата:
Понятно, что речь идет о минимуме информации, которая может полно описать систему, именно в этом контексте мы всегда и говорили, и именно этот объем количественно равен физической энтропии системы.

Это совсем не "понятно". Минимум информации, который может полно описать
систему, не может быть равен его физической энтропии. Например, описывая лототрон, недостаточно описать неопределённость выпадения шаров. Нужно ещё описать и устройство самого лототрона. Именно поэтому вопрос о том, какую именно информацию получает субъект, является принципиальным.
Цитата:
3) Нет речь идет об изменениях информации обо всем лототроне. Вы согласны, что если при неизменной конструкции, изменится только энтропия лототрона, то разница полученной информации "до" и "после" будет равна разнице между энтропиями лототрона до и после.

Опять же, нужно уточнить, какую именно информацию субъект получал от лототрона "до" и "после". О выпадениях шаров ? О конструкции лототрона ?


Вся дикуссия у нас, к сожалению, упирается в субъекта. Нужна некая объективная характеристика, характеризующая энтропию системы, с чётким определением. Формально я, так же как и Вы, считаю, что в процессе эволюции энтропия увеличивается. Но под энтропией, судя по этой дискуссии, мы понимаем совершенно разные вещи. Поэтому совпадение окончаельных выводов у нас чисто случайное ...


Вернуться к началу
  
 
 Заголовок сообщения:
СообщениеДобавлено: Чт сен 30, 2004 5:37 pm 
1)Хорошо, дайте определение субъективной оценки. Вы считаете что оценка двух картин Нинки объективна? Тогда я приведу Клаву, ее оценка будет противоположной, и она тоже будет объективной оценкой этих полотен?

Вопрос: оценка этих картин Ниной и Клавдией - объективная оценка или субъективная?

2) Минимум информации, которым можно полностью описать систему, равен ее энтропии. Я уже приводил пример робота, единицей восприятия которого является этот лототрон. То есть все объекты описываются через перечисление отличий этого объекта от идеала (лототрона), кстати, этот принцип широко применяется в промышленных роботах. Так вот информация равная описанию конструкции самого лототрона будет равна 0 поскольку не будет никаких отличий. И тогда полная информация о системе будет равна только величине энтропии системы. Привести цитаты из учебников? Спрашиваю, потому что Вы этого не любите :)

3)Уточняю, речь идет о полной информации о лототроне: и о конструкции, и о работе (выпадении шаров). Вопрос не буду перенабирать, он остается в силе.

4) Физическая энтропия объекта - мера неопределенности его состояний.

Энтропия информационная - мера неопределенности знаний субъекта об объекте.

Для максимально информированного наблюдателя обе эти величины становятся равны друг другу.


Вернуться к началу
  
 
 Заголовок сообщения:
СообщениеДобавлено: Чт сен 30, 2004 11:21 pm 
Не в сети
Администратор форума
Администратор форума
Аватара пользователя

Зарегистрирован: Ср авг 25, 2004 12:26 am
Сообщения: 1050
Откуда: Москва
Цитата:
Вопрос: оценка этих картин Ниной и Клавдией - объективная оценка или субъективная?

Субъективная, так как субъект в этом случае может меняться.

Цитата:
2) Минимум информации, которым можно полностью описать систему, равен ее энтропии.

Если только физической энтропии, то сильно сомневаюсь. А как же информационная ? Приведите цитаты, так как я совершенно этого не понимаю.


3) Да, согласен.

Цитата:
4) Физическая энтропия объекта - мера неопределенности его состояний.

Энтропия информационная - мера неопределенности знаний субъекта об объекте.


Итак, если я правильно понял, информационную энтропию Вы считаете чем-то несущественным, так как она характеризует только восприятие субъекта, а не сам объект ?


Вернуться к началу
 Профиль Отправить email  
 
 Заголовок сообщения:
СообщениеДобавлено: Пт окт 01, 2004 12:34 pm 
1) То есть, если Клава идти откажется ("чего я там не видела!") то Нинкина оценка картин будет объективной. Но как только Клавдия протрезвеет и двинет в музей, оценка экспонатов Ниной сразу станет субъективной. Я Вас правильно понял?

2) Привожу цитаты "накопанные" на скорую руку. Физическую энтропию объекта обычно называют энтропией опыта, информационную - энтропией сообщения или информации.

«Как было показано в з 3.3, в одном отсчете любого непрерывного сообщения содержится бесконечное количество собственной информации. И тем не менее, непрерывные сообщения (телефонные разговоры, телепередачи) успешно передаются по каналам связи. Это объясняется тем, что на практике никогда не требуется абсолютно точного воспроизведения переданного сообщения, а для передачи даже с очень высокой, но ограниченной точностью, требуется конечное количество информации, также как и при передаче дискретных сообщений. Данное обстоятельство и положено в основу определения количественной меры собственной информации, источников непрерывных сообщений. В качестве такой меры, принимается минимальное количество информации, необходимое для воспроизведения непрерывного сообщения с заданной точностью. Очевидно, что при таком подходе собственная информация зависит не только от свойств источника сообщений, но и от выбора параметра e, характеризующего точность воспроизведения. Возможны различные подходы к определению e в зависимости от вида и назначения передаваемой информации………Таким образом, e - энтропия определяет минимальное количество информации, содержащейся в одном отсчете непрерывного сообщения, необходимое для воспроизведения его с заданной верностью.»

«В теории информации задача управления сводится к ограничению разнообразия возможных значений параметров, описывающих состояние или положение объекта в виде совокупности фазовых точек, занимающей в многомерном пространстве гиперобъем V0 до гиперобъема V1є V0. Минимальное количество полученной и переработанной информации для выбора V1 из V0 определяется максимальной энтропией для данной неопределенности:»

«Минимально необходимое число свойств, содержащее всю необходимую информацию об исследуемом объекте, определяется на основании анализа влияния их числа на скорость изменения приращения количества информации, рассматриваемой как разность энтропий до и после получения информации.»

«энтропия опыта равна той информации , которую мы получаем в результате его осуществления.»

«Используя все указанные посылки и приведя логарифм (1) к натуральному основанию, получим формулу Шеннона ? информационную энтропию в расчете на каждое из M возможных состояний.

В дальнейшем понятие энтропии можно применить для решения задач по вычислению неопределенности (а значит и информационной нагрузки) различных опытов. Если полученная информация полностью снимает неопределенность опыта, то ее количество считается равным энтропии данного опыта.»

«Один из основных результатов теории информации связан с теоремой, согласно которой выборочную случайную величину можно представить без ошибки с помощьюH + 1 бита и невозможно представить источник без ошибки с помощью менее, чем H битов.»

«До сих пор мы рассматривали сложность описания источника информации и показали, что естественной мерой этой сложности служит коэффициент энтропии случайного процесса, моделирующего источник.»

«Энтропия устанавливает нижнюю границу средней длины любого двоичного представления случайной величины.»

3) Следующий шаг. Представим себе, второй точно такой же лототрон, но у которого, на незначительную величину толще барабан. Незначительная в том смысле, что это утолщение никак не изменяет взаимодействие между элементами лототрона. Будет ли информация о первом (в одинаковых прочих условиях) отличаться от информации о втором? Ведь с точки зрения теории информации, нам "фиолетово", что 11, что 12 мм.

4) Что значит несущественный? Речь идет о знании, поэтому она не может быть несущественной вообще. Любая величина, может быть существенной в одном анализе и несущественной в другом.


Вернуться к началу
  
 
 Заголовок сообщения:
СообщениеДобавлено: Пт окт 01, 2004 1:51 pm 
Не в сети
Администратор форума
Администратор форума
Аватара пользователя

Зарегистрирован: Ср авг 25, 2004 12:26 am
Сообщения: 1050
Откуда: Москва
Цитата:
То есть, если Клава идти откажется ("чего я там не видела!") то Нинкина оценка картин будет объективной. Но как только Клавдия протрезвеет и двинет в музей, оценка экспонатов Ниной сразу станет субъективной. Я Вас правильно понял?

Повторюсь, этого недостаточно для объективности. Объективная оценка подразумевает, что применяется некая единая формула (в общем случае - единый критерий) для оценки разных объектов, то есть не присутствует человеческий фактор. Объективная - значит, она зависит только от объекта. И в этой связи информативность объекта, то есть количество информации в тексте, который описывает этот объект для человека, который ранее не имел этот текст - объективная величина. Это величина, которая позволяет сравнивать разные объекты по сложности-информативности.

2) По поводу цитат. Теперь мне, по крайней мере, понятно, почему Вы упоминали бесконечную энтропию. Речь в первой цитате идёт об энтропии непрерывных сообщений. Мы же пока об этом не говорили. Речь у нас всё время шла об энтропии информации текста, то есть дискретного сообщения, состоящего из отдельных символов. Энтропия по Шеннону такого текста не может быть бесконечной.

3) Если изменилась толщина стенок барабана, значит, появилась некоторая новая информации. 11 мм - одна информация, 12 мм - другая.


Вернуться к началу
 Профиль Отправить email  
 
Показать сообщения за:  Поле сортировки  
Начать новую тему Ответить на тему  [ Сообщений: 110 ]  На страницу Пред.  1 ... 3, 4, 5, 6, 7, 8  След.

Часовой пояс: UTC + 3 часа [ Летнее время ]


Кто сейчас на конференции

Сейчас этот форум просматривают: нет зарегистрированных пользователей и гости: 11


Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете добавлять вложения

Найти:
Перейти:  
cron






Powered by phpBB2
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group
Русская поддержка phpBB