Энтропи́я (от др.-греч. ἐντροπία — поворот, превращение) — в естественных науках мера неупорядоченности системы, состоящей из многих элементов. В частности, в статистической физике — мера вероятности осуществления какого-либо макроскопического состояния; в теории информации — мера неопределённости какого-либо опыта (испытания), который может иметь разные исходы, а значит, и количество информации; в исторической науке, для экспликации феномена альтернативности истории (инвариантности и вариативности исторического процесса).
Энтропия в информатике — степень неполноты, неопределённости знаний.
Явление, обратное энтропии, именуется негэнтропией.
Понятие энтропии впервые было введено Клаузиусом в термодинамике в 1865 году для определения меры необратимого рассеивания энергии, меры отклонения реального процесса от идеального. Определённая как сумма приведённых теплот, она является функцией состояния и остаётся постоянной при замкнутых обратимых процессах, тогда как в необратимых — её изменение всегда положительно.
,
где — приращение энтропии; — минимальная теплота, подведённая к системе; — абсолютная температура процесса.
Вопрос: Что такое Энтропия? Где встречается? Существующие формулы?
Ответ: От греческого entropia -- поворот, превращение. Понятие энтропии впервые было введено в термодинамике для определения меры необратимого рассеяния энергии. Энтропия широко применяется и в других областях науки: в статистической физике как мера вероятности осуществления какого -- либо макроскопического состояния; в теории информации -- мера неопределенности какого-либо опыта (испытания), который может иметь разные исходы. Все эти трактовки энтропии имеют глубокую внутреннюю связь.
Энтропия -- это функция состояния, то есть любому состоянию можно сопоставить вполне определенное (с точность до константы -- эта неопределенность убирается по договоренности, что при абсолютном нуле энтропия тоже равна нулю) значение энтропии.
Для обратимых (равновесных) процессов выполняется следующее математическое равенство (следствие так называемого равенства Клаузиуса)
,
где -- подведенная теплота, -- температура, и -- состояния, и -- энтропия, соответствующая этим состояниям (здесь рассматривается процесс перехода из состояния в состояние ).
Для необратимых процессов выполняется неравенство, вытекающее из так называемого неравенства Клаузиуса
,
где -- подведенная теплота, -- температура, и -- состояния, и -- энтропия, соответствующая этим состояниям.
Поэтому энтропия адиабатически изолированной (нет подвода или отвода тепла) системы при необратимых процессах может только возрастать.
Используя понятие энтропии Клаузиус (1876) дал наиболее общую формулировку 2-го начала термодинамики: при реальных (необратимых) адиабатических процессах энтропия возрастает, достигая максимального значения в состоянии равновесия (2-ое начало термодинамики не является абсолютным, оно нарушается при флуктуациях).
Подводим итог: Что бы мы не делали -- энтропия увеличивается, следовательно любыми своими действиями мы увеличиваем хаос, и, следовательно, приближаем "конец света". Вероятно, можно точно подсчитать, когда он, то есть "конец света", наступит, но я думаю, что ближайшие несколько миллиардов лет можно об этом не беспокоиться.
Рекомендуемая литература: Любой учебник по термодинамике, например: Кубо Р., Термодинамика, пер с англ., М., 1970; Румер Ю.Б., Рывкин М.Ш., Термодинамика, статистическая физика и кинетика.