Второй закон термодинамики, сформулированный Больцманом в вероятностных терминах, кажется интуитивно-понятным: действительно, если одно макросостояние порождается малым числом микросостояний, а другое - их большим числом, то со временем наша система неизбежно перейдет от первого макросостояния ко второму, не так ли? Так-то оно так, но ведь та же
(
Read more... )
Yes, thermodynamic entropy is a special case of Shannon entropy. Shannon entropy is a measure of uncertainty in information theory, while thermodynamic entropy is a measure of uncertainty in a system's energy distribution.
...
Thermodynamic entropy is a special case of Shannon entropy when applied to a physical system in equilibrium with a heat bath. In this case, the system's average energy is fixed.
https://www3.nd.edu/~lent/pdf/nd/Information_and_Entropy_in_Physical_Systems.pdf
И вот здесь мне непонятно: есть ли аналог корреляции между сталкивающимися частицами в шенноновском определении.
Но даже если оставаться в рамках термодинамики и мысленно представить частицы, которые вообще никак не взаимодействуют друг с другом, а просто хаотично и независимо друг от друга движутся в пространстве - неужели в такой системе энтропия не будет необратимо возрастать?
Reply
Но такие физики есть. На этот счет есть неплохая диссертация, в которой представлена история появления информационной физики:
Anta Pulido, Javier. "Historical and Conceptual Foundations of Information Physics." (2021).
https://diposit.ub.edu/dspace/bitstream/2445/182254/1/JAP_PhD_THESIS.pdf
Reply
Reply
В книге того же Кэрролла по этому поводу есть закон сохранения информации на уровне законов физики - при сублимации кристалла (кристалл - газ) информация сохраняется.
Reply
Reply
Информационная энтропия идет из теории Шеннонна. Ее связь с термодинамической выводится из аналогичного уравнения для энтропии в статистической термодинамике. Два уравнения для энтропии формально выглядят одинаковыми, отсюда делается вывод, что это одно и то же.
В этом случае ваш пример не годится, поскольку вы не сможете приспособить эту логику к статистической термодинамике.
Reply
И если эта конечная точность больше, чем расстояние между атомами в кристаллической решетке, то длина сообщения в случае с кристаллом будет меньше. Или не так?
Reply
Reply
Reply
Более того, не надо забывать, что энтропия кристалла и энтропия газа зависят от температуры. У вас, насколько я вижу, эта зависимости и в помине нет.
Reply
Что касается микросостояний - я не вижу необходимости сгенерить их все. По моему, длина сообщения для одного микросостояния сама по себе зависит от количества всех возможных. Давайте на примере: если у Вас семь игральных костей, на каждой из которых со всех сторон шестерки, то количество возможных комбинаций равно одному, а энтропия системы нулевая, как и длина сообщения. Если же кости обычные, то возрастает и количество комбинаций, и длина сообщения.
Reply
Reply
Reply
Reply
Shannon entropy is a measure of the amount of information in a message, and it limits the length of the shortest possible encoding for that message.
Reply
количество информации, которое в среднем приходится на одно событие (для предложений на русском языке - количество информации в среднем на одну букву).
Reply
Leave a comment