Вероятность всегда субъективна. Я подбрасываю монетку, она выпадает так, что Вы не видите результата - а я вижу. Предположим, она выпала орлом (я это вижу). Тогда для меня вероятность выпадения орла - единица, решки - ноль. А для Вас (пока Вы не увидели результат) по-прежнему 1/2 для обоих вариантов.
И это и правда разные миры. Я всё ищу выходы в ФИЗИКУ - способы ФИЗИЧЕСКИ подтвердить различия этих реальностей. Не знаю, возможно ли такое в принципе. Но не исключаю такого. В конце концов:
3.1. Бит - базовая единица измерения количества информации, равная количеству информации, содержащемуся в опыте, имеющем два равновероятных исхода; см. информационная энтропия. Это тождественно количеству информации в ответе на вопрос, допускающий ответ «да» или «нет» и никакого другого (то есть такое количество информации, которое позволяет однозначно ответить на поставленный вопрос).
3.2. Один бит равен количеству информации, получаемой в результате осуществления одного из двух равновероятных событий[5].
3.3. Бит - двоичный логарифм вероятности равновероятных событий или сумма произведений вероятности на двоичный логарифм вероятности при равновероятных событиях; см. информационная энтропия
( ... )
Штука в том, что осмысленное сообщение и случайный набор бит той же длины, по этому определению, содержат в себе в точности равный объём информации. И повторная передача того же самого сообщения содержит в себе ровно столько же бит информации, сколько и первая.
Этого уже достаточно, чтобы никогда и ни при каких условиях не смешивать информацию в разговорном смысле (знание) и в теоретическом. Это омонимы - звучат одинаково, а смысл у них разный. Именно эту ошибку вы сейчас и совершаете.
Информация в бытовом смысле субъективна. В теоретическом - объективна и может быть измерена автоматически: это характеристика системы.
И повторная передача того же самого сообщения содержит в себе ровно столько же бит информации, сколько и первая.
Для того, кто её получает в первый раз - да. Но не для того, кто её уже получал.
В теоретическом - объективна и может быть измерена автоматически: это характеристика системы.
Ну да. Но результат получится одним и тем же. Во всех копиях файла (условно говоря) содержится ОДНА И ТА ЖЕ информация. То, что 10 (копий) файлов займут на флешке в 10 раз больше места, чем один файл (оригинал), ничего не изменит. Это как газ, который занимает весь предоставленный ему объём. Ну да, занимает - но газа от расширения его объёма больше не становится, количество его молекул остаётся одним и тем же.
И вы опять смешиваете информацию в бытовом и теоретическом смысле. Из-за этого у вас и вся путаница.
Для того, кто её получает в первый раз - да. Но не для того, кто её уже получал.
Для того, кто получает в первый раз. Для того, кто в сотый. Даже если её вообще никто не получил, в ней содержатся ровно те же сто (допустим) бит.
Во всех копиях файла (условно говоря) содержится ОДНА И ТА ЖЕ информация. То, что 10 (копий) файлов займут на флешке в 10 раз больше места, чем один файл (оригинал), ничего не изменит.Ещё как изменит. Одна копия файла занимает килобайт. Десять копий - десять килобайт, уже существенно больше
( ... )
Вам дали записку, в ней написано, где лежит миллион рублей. Вы пошли и забрали этот миллион (или даже нет, не забрали, просто планируете сделать это чуть позже).
Теперь вопрос. Вы что предпочли бы: получить эту записку ещё раз - или другую, где говорится о месте расположения УЖЕ ДРУГОГО клада в миллион рублей?
Всё проверяется экспериментально. Обе записки, если они одинаковы, оцифровываются, и в них содержится одинаковое количество бит.
Именно это я и пытаюсь вам втолковать. Информация в человеческом смысле и "информация", измеренная в битах - РАЗНЫЕ понятия. Информация в человеческом смысле битами не измеряется и к вероятности никаким боком не относится. А вы их постоянно путаете.
Всё проверяется экспериментально. Обе записки, если они одинаковы, оцифровываются, и в них содержится одинаковое количество бит.
Информация - не физическая величина. Это не масса и не заряд. Две одинаковые книги содержат не разную информацию, они содержат ОДИНАКОВУЮ. ОДНУ И ТУ ЖЕ.
Именно это я и пытаюсь вам втолковать. Информация в человеческом смысле и "информация", измеренная в битах - РАЗНЫЕ понятия.
Так не обязательно же в человеческом. Можно эксперимент с запиской и миллионом повторить на машинном примере.
Информация в человеческом смысле битами не измеряется и к вероятности никаким боком не относится. А вы их постоянно путаете. Вы не будете читать в десятый раз книгу (ну, условно говоря...) которую уже читали. Десять одинаковых книг Вам ничего не дадут
( ... )
"Информация", измеряемая в битах - именно что физическая величина. Больше того, существует формула, позволяющая вычислить объём полной информации, содержащийся в заданном количестве материи. Это одна из формул физики.
Информация в человеческом смысле - действительно не физическая величина, и к ней неприменимы ваши рассуждения о файлах.
Вероятность всегда субъективна. Я подбрасываю монетку, она выпадает так, что Вы не видите результата - а я вижу. Предположим, она выпала орлом (я это вижу). Тогда для меня вероятность выпадения орла - единица, решки - ноль. А для Вас (пока Вы не увидели результат) по-прежнему 1/2 для обоих вариантов.
И это и правда разные миры. Я всё ищу выходы в ФИЗИКУ - способы ФИЗИЧЕСКИ подтвердить различия этих реальностей. Не знаю, возможно ли такое в принципе. Но не исключаю такого. В конце концов:
https://lenta.ru/news/2019/03/13/reality/
Полагаю, должны быть способы убеждаться в подобном и на макро-уровне. То есть, примерно так, о чём Вы и написали в своём посте.
Reply
ЦИТАТА:
«3. В теории информации:
3.1. Бит - базовая единица измерения количества информации, равная количеству информации, содержащемуся в опыте, имеющем два равновероятных исхода; см. информационная энтропия. Это тождественно количеству информации в ответе на вопрос, допускающий ответ «да» или «нет» и никакого другого (то есть такое количество информации, которое позволяет однозначно ответить на поставленный вопрос).
3.2. Один бит равен количеству информации, получаемой в результате осуществления одного из двух равновероятных событий[5].
3.3. Бит - двоичный логарифм вероятности равновероятных событий или сумма произведений вероятности на двоичный логарифм вероятности при равновероятных событиях; см. информационная энтропия ( ... )
Reply
Этого уже достаточно, чтобы никогда и ни при каких условиях не смешивать информацию в разговорном смысле (знание) и в теоретическом. Это омонимы - звучат одинаково, а смысл у них разный. Именно эту ошибку вы сейчас и совершаете.
Информация в бытовом смысле субъективна. В теоретическом - объективна и может быть измерена автоматически: это характеристика системы.
Reply
И повторная передача того же самого сообщения содержит в себе ровно столько же бит информации, сколько и первая.
Для того, кто её получает в первый раз - да. Но не для того, кто её уже получал.
В теоретическом - объективна и может быть измерена автоматически: это характеристика системы.
Ну да. Но результат получится одним и тем же. Во всех копиях файла (условно говоря) содержится ОДНА И ТА ЖЕ информация. То, что 10 (копий) файлов займут на флешке в 10 раз больше места, чем один файл (оригинал), ничего не изменит. Это как газ, который занимает весь предоставленный ему объём. Ну да, занимает - но газа от расширения его объёма больше не становится, количество его молекул остаётся одним и тем же.
Reply
Для того, кто её получает в первый раз - да. Но не для того, кто её уже получал.
Для того, кто получает в первый раз. Для того, кто в сотый. Даже если её вообще никто не получил, в ней содержатся ровно те же сто (допустим) бит.
Во всех копиях файла (условно говоря) содержится ОДНА И ТА ЖЕ информация. То, что 10 (копий) файлов займут на флешке в 10 раз больше места, чем один файл (оригинал), ничего не изменит.Ещё как изменит. Одна копия файла занимает килобайт. Десять копий - десять килобайт, уже существенно больше ( ... )
Reply
Так всё же проверяется экспериментально.
Вам дали записку, в ней написано, где лежит миллион рублей. Вы пошли и забрали этот миллион (или даже нет, не забрали, просто планируете сделать это чуть позже).
Теперь вопрос. Вы что предпочли бы: получить эту записку ещё раз - или другую, где говорится о месте расположения УЖЕ ДРУГОГО клада в миллион рублей?
Reply
Именно это я и пытаюсь вам втолковать. Информация в человеческом смысле и "информация", измеренная в битах - РАЗНЫЕ понятия. Информация в человеческом смысле битами не измеряется и к вероятности никаким боком не относится. А вы их постоянно путаете.
Reply
Всё проверяется экспериментально. Обе записки, если они одинаковы, оцифровываются, и в них содержится одинаковое количество бит.
Информация - не физическая величина. Это не масса и не заряд. Две одинаковые книги содержат не разную информацию, они содержат ОДИНАКОВУЮ. ОДНУ И ТУ ЖЕ.
Именно это я и пытаюсь вам втолковать. Информация в человеческом смысле и "информация", измеренная в битах - РАЗНЫЕ понятия.
Так не обязательно же в человеческом. Можно эксперимент с запиской и миллионом повторить на машинном примере.
Информация в человеческом смысле битами не измеряется и к вероятности никаким боком не относится. А вы их постоянно путаете. Вы не будете читать в десятый раз книгу (ну, условно говоря...) которую уже читали. Десять одинаковых книг Вам ничего не дадут ( ... )
Reply
Информация в человеческом смысле - действительно не физическая величина, и к ней неприменимы ваши рассуждения о файлах.
Reply
"Информация", измеряемая в битах - именно что физическая величина.
Если это физическая величина, то она должна сказываться на объективно регистрируемых физических явлениях. Вам такие известны?
Reply
Leave a comment