Энтропия — понятие, впервые введенное в термодинамике для определения меры необратимого рассеяния энергии. Энтропия широко применяется и в других областях науки: в статистической физике как мера вероятности осуществления какого-либо макроскопического состояния; в теории информации как мера неопределенности какого-либо опыта (испытания), который может иметь разные исходы.
Термодинамическая энтропия — функция состояния термодинамической системы.
Информационная энтропия — мера хаотичности информации, связана с вероятностью появления тех или иных символов при передаче сообщений.
Номера энтропии используются в математической теории метрических пространств для измерения размеров наборов (и, частично, фракталов).
Энтропия в теории управления — мера неопределенности состояния или поведения системы в данных условиях.
Энтропия (настольная игра) — одна из двух настольных игр, известных под именем Entropy, созданных Эриком Соломоном (Eric Solomon) в 1977 г. или Августином Каррено (Augustine Carreno) в 1994 г.
Энтропия (сеть) — децентрализованная пиринговая сеть, разработанная с целью быть стойкой к цензуре.
Энтропия в биологической экологии — единица измерения биологической вариативности.
Журнал «Энтропия» — международный междисциплинарный журнал на английском языке об исследованиях энтропии и информации.
На бытовом уровне, энтропия - это мера беспорядка или мера неопределенности.
В физике энтропия стоит в ряду таких фундаментальных понятий, как энергия или температура. Энтропия может быть определена как одна из основных термодинамических функций (впервые это сделал Клаузиус).
Одно из основных фундаментальных свойств мира, в котором мы живем, называется вторым началом термодинамики. Существуют три внешне не похожие, но логически эквивалентные формулировки второго начала термодинамики. В формулировке Томсона-Планка он гласит: невозможно построить периодически действующую машину, единственным результатом которой было бы поднятие груза за счет охлаждения теплового резервуара. Существует формулировка Клаузиуса: теплота не может самопроизвольно переходить от тела менее нагретого к телу более нагретому. В третьей формулировке этого фундаментального закона "главным действующим лицом" является энтропия: в адиабатически изолированной системе энтропия не может убывать; либо возрастает, либо остается постоянной.
Именно из этой формулировки наиболее ясна принципиальная необратимость физических процессов, а также неизбежная деградация любой замкнутой системы (все различные формы энергии переходят в конечном итоге в тепловую, после чего становятся невозможны никакие процессы). Обобщив этот принцип на всю вселенную, Клаузиус сформулировал гипотезу тепловой смерти Вселенной.
Эта необратимость процессов, являющаяся следствием второго начала, находилась в видимом противоречии с обратимым характером механического движения. Размышляя над этим парадоксом Больцман получил совершенно удивительную формулу для энтропии, раскрывающую совершенно новое содержание. Применив статистические методы, Больцман показал, что энтропия прямо пропорциональна логарифму термодинамической вероятности. Эта формула высечена на надгробии ученого на Центральном кладбище Вены. Это открытие Больцмана тем значительнее, что понятие вероятности впервые проникло в самые основания физики (за несколько десятилетий до построения новой картины мира на основе квантовой механики).
Таким образом, по Больцману второе начало термодинамики могло бы звучать так: природа стремится к переходу от менее вероятных состояний к более вероятным.
От связи энтропии и вероятности по Больцману можно перейти к определению энтропии в теории информации, что было сделано Шенноном. Энтропия в теории информации выступает как мера неопределенности. Понятие информации является, в известном смысле, противоположным понятию энтропии. Точнее, информация определяется как разность между безусловной и условной энтропиями, но пояснять это без формул не представляется возможным.
Источники: