Leave a comment

vadj65 February 23 2016, 10:38:01 UTC
Об энтропии применительно к статье.

Энтропия не мера беспорядка, но мера вероятности протекания самопроизвольного процесса в изолированной термодинамической системе.ТДС.
Процесс же наиболее вероятен тогда, когда все молекулы вещества, или элементы системы занимают или займут в результате процесса РАВНОЕ (одинаковое) энергетическое состояние, при этом станет невозможен никакой дальнейший процесс, то есть система станет термодинамически устойчива.
Такое состояние не всегда совпадает с наибольшим беспорядком (хаосом) и напротив, хаос сам по себе не является устойчивым состоянием; несёт потенцию - либо достижения ещё большего хаоса, либо увеличения энтальпии; то есть порядка в системе. В не изолированных (закрытых) , а тем более открытых системах "всё ещё сложнее", и понятие энтропии там несколько условно. Это изначально феноменологическая функция, употребляемая в зависимости от краевых, начальных и граничных условий, без которых, она (эта функция), - фикция. Энтропия - мера экстенсивности. Термодинамической системы при данном интенсивном факторе которой выступает температура, да, произведение энтропии на дельту температуры, это и есть изменение энергии системы.
Энтропия (замкнутых в ниокр) может и не меняться тогда как энергия, sic! системы изменяться будет. В случае изотермии, составляющая энергии системы в которую входит энтропия, равна нулю.
Применительно к информационным системам смысл энтропии как экстенсивного фактора, видимо, сохраняется.

Reply


Leave a comment

Up