пользователей: 30398
предметов: 12406
вопросов: 234839
Конспект-online
РЕГИСТРАЦИЯ ЭКСКУРСИЯ

Энтропи́я

Энтропи́я (от др.-греч. ἐντροπία — поворот, превращение) — в естественных науках мера неупорядоченности системы, состоящей из многих элементов. В частности, в статистической физике — мера вероятности осуществления какого-либо макроскопического состояния; в теории информации — мера неопределённости какого-либо опыта (испытания), который может иметь разные исходы, а значит, и количество информации; в исторической науке, для экспликации феномена альтернативности истории (инвариантности и вариативности исторического процесса).

Энтропия в информатике — степень неполноты, неопределённости знаний.

Явление, обратное энтропии, именуется негэнтропией.

Понятие энтропии впервые было введено Клаузиусом в термодинамике в 1865 году для определения меры необратимого рассеивания энергии, меры отклонения реального процесса от идеального. Определённая как сумма приведённых теплот, она является функцией состояния и остаётся постоянной при замкнутых обратимых процессах, тогда как в необратимых — её изменение всегда положительно.

dS = \frac{\delta Q}{T},

где dS — приращение энтропии; \delta Q — минимальная теплота, подведённая к системе; {T} — абсолютная температура процесса.

Вопрос: Что такое Энтропия? Где встречается? Существующие формулы?

Ответ: От греческого entropia -- поворот, превращение. Понятие энтропии впервые было введено в термодинамике для определения меры необратимого рассеяния энергии. Энтропия широко применяется и в других областях науки: в статистической физике как мера вероятности осуществления какого -- либо макроскопического состояния; в теории информации -- мера неопределенности какого-либо опыта (испытания), который может иметь разные исходы. Все эти трактовки энтропии имеют глубокую внутреннюю связь.

Энтропия -- это функция состояния, то есть любому состоянию можно сопоставить вполне определенное (с точность до константы -- эта неопределенность убирается по договоренности, что при абсолютном нуле энтропия тоже равна нулю) значение энтропии.

Для обратимых (равновесных) процессов выполняется следующее математическое равенство (следствие так называемого равенства Клаузиуса)

\(S_{A}-S_{B}=\int_{A}^{B} \frac{\delta Q}{T}\),

где \(\delta Q\) -- подведенная теплота, \(T\) -- температура, \(A\) и \(B\) -- состояния, \(S_{A}\) и \(S_{B}\) -- энтропия, соответствующая этим состояниям (здесь рассматривается процесс перехода из состояния \(A\) в состояние \(B\)).

Для необратимых процессов выполняется неравенство, вытекающее из так называемого неравенства Клаузиуса

\(S_{A}-S_{B}<\int_{A}^{B} \frac{\delta Q}{T}\),

где \(\delta Q\) -- подведенная теплота, \(T\) -- температура, \(A\) и \(B\) -- состояния, \(S_{A}\) и \(S_{B}\) -- энтропия, соответствующая этим состояниям.

Поэтому энтропия адиабатически изолированной (нет подвода или отвода тепла) системы при необратимых процессах может только возрастать.

Используя понятие энтропии Клаузиус (1876) дал наиболее общую формулировку 2-го начала термодинамики: при реальных (необратимых) адиабатических процессах энтропия возрастает, достигая максимального значения в состоянии равновесия (2-ое начало термодинамики не является абсолютным, оно нарушается при флуктуациях).

Подводим итог: Что бы мы не делали -- энтропия увеличивается, следовательно любыми своими действиями мы увеличиваем хаос, и, следовательно, приближаем "конец света". Вероятно, можно точно подсчитать, когда он, то есть "конец света", наступит, но я думаю, что ближайшие несколько миллиардов лет можно об этом не беспокоиться.

Рекомендуемая литература: Любой учебник по термодинамике, например: Кубо Р., Термодинамика, пер с англ., М., 1970; Румер Ю.Б., Рывкин М.Ш., Термодинамика, статистическая физика и кинетика.  


17.01.2014; 20:11
хиты: 53
рейтинг:0
Естественные науки
физика
для добавления комментариев необходимо авторизироваться.
  Copyright © 2013-2024. All Rights Reserved. помощь