Ну, слава богу? Наконец-то Вы увидели всю противоречивость этого подхода. А ведь пример с книгой именно это и показывал. Потому что, то что в ней заключен 1 бит не вызывал сомнения с самого начала, и это было оговорено при первом же о ней упоминании: "Итак, ситуация. Перед нами лежит книга, и мы знаем, что в ней на всех 100 страницах напечатано либо 10 000 единиц, либо столько же нулей . Вопрос 1 (очень прошу ответить): сколько информации мы получим открыв эту книгу? По теории информации - 1 бит, по Вашему способу (Один символ или знак можно принять за единицу информации) - 10 000 бит (столько же сколько в полноценной книге). "
Пример был и призван показать ошибочность Вашего подхода к вероятности. Ведь Вы утверждали,что даже если исход заранее известен, то это не значит, что его вероятность равна 1, и, следовательно, присутствует неопределенность. Именно Вы настаивали на том, что не имеет значения, что в действительности происходит с сигналом, главное - какие сочитания могут быть "в принципе". Чтобы показать абсурдность этого подхода и была придумана эта книга. Мы знаем по условию, что могут быть либо единицы, либо нули, но ведь раньше это знание Вас никогда не останавливало
, Вы же все время утверждали о "принципиальной" возможности перестановки. Именно поэтому у неменяющегося сигнала по Вашим словам все равно была неопределенность. В рассматриваемой книге тоже символы не меняются, но по Вашей же концепции это не так уж и важно, главное, что можно вообразить себе перестановки в принципе. Именно этот подход я и критиковал. А поскольку Вы согласились, что несмотря на толщину данной книги, при этих условиях, информация остается равной 1биту, то мои усилия были не напрасны.
Я нигде не менял условия задачи, и она имеет конкретное решение - 1 бит. Путаница возникает только если мы введем "потенциальную неопределенность" ("в принципе"), или будем настаивать на измерении информации по количеству символов.
Итак, судя по вполне праведному гневу, Вы согласны с тем, что в случае с лототроном, который всегда выбрасывает одну букву из 32, вероятность ее выпадения равна 1, а не 1/32? Потому что мы не должны учитывать те возможности, которые могут быть только "в принципе", а не в реальности.
И, следовательно, в случае с одним сигналом, по формуле Шеннона если вероятность его получения равна единице, то объем информации, который он передает равен нулю.