Что такое энтропия?

Пост опубликован в блогах iXBT.com, его автор не имеет отношения к редакции iXBT.com
| Обзор | Наука и космос

Наверняка вы хотя бы раз в жизни задумывались над тем, почему физические процессы протекают в некотором определённом направлении. Горячий чайник остывает на морозе, ну, а стрела времени направлена из прошлого в будущее. Скорее всего тут всплывал термин энтропия, который обозначался как объяснение поведения системы. А ещё традиционно энтропия — это мера беспорядка системы.

Но на самом деле понятие куда более глубокое, чем это кажется на первый взгляд. Если провести незримую грань между направлением течения физических процессов и мерой беспорядка системы, то появится интересная параллель.

Скорее всего поверхностное знакомство с энтропией произошло у вас уже в школе, а может быть где-то на ранних курсах института. Там вы слышали очень много непонятного. Энтропия характеризовалась как мера беспорядка системы, как мера упорядочивания, как показатель направления физического процесса. Какое определение будет правильным?

Если спросить любого студента, которого вы поймаете в коридоре между парами, он вам скажет «энтропия — мера беспорядка системы». Этот зазубренный вариант определения рушит всё понимание глубины вопроса. В какой-то степени это правильно. Но давайте начнем распутывать клубок с другой стороны.

Давайте разберемся, почему мера беспорядка системы. Здесь, наверное, стоило бы провести параллели с устройством Вселенной и с тем, как все это формировалось. Существовала некая неупорядоченная система, которая функционировала по некоторым законам и, по сути дела, это именуется хаосом.

Из хаоса каким-то образом (не важно каким), возможно в результате большого взрыва, почему-то начали упорядочиваться различные формы энергии, которые привели к тому, что появились первые частички. Эти частички были демонстрацией того, что из хаоса появились упорядоченные элементы. Упорядочивание постепенно приводило к тому, что формировалась материя в том виде, как мы привыкли её видеть. И тут даже можно говорить не про саму материю, а вспомнить физические явления в том виде, в котором мы привыкли их видеть.

Например, закономерности, описывающие существование электромагнитного поля — это тоже упорядочивание, потому что в противном случае это была бы энергия в чистом виде, которую сложно было бы отнести к чему-то конкретному.

Формулировка определения энтропии, которая построена на мере беспорядка системы, отталкивается как раз от этой логики. Чем больше у нас упорядочивание, тем ниже у нас энтропия и наоборот.

Направление процесса
Автор: freepik Источник: ru.freepik.com

Система всегда стремится от направления с наибольшей упорядоченностью к состоянию с наименьшим упорядочиванием. Это обычное направление энтропии. Впрочем, при формировании Вселенной это направление почему-то сменилось. В обычном случае любая система будет стремиться из состояния более упорядоченного к менее упорядоченному.

Тут появляется и другой аспект проблемы. Любое упорядочивание подразумевает большое количество информации. Чем больше у нас информации о системе, тем больше, собственно говоря, мы можем эту систему упорядочить. Информация будет кодом состояния.

Поэтому второе определение энтропии, которое вы, возможно, тоже уже слышали, построено на том, что энтропия — это то, сколько мы знаем о системе. Тут опять стоит вернуться к природе хаоса. Дело в том, что в хаосе никто ничего не знает. Если мы этот хаос пытаемся упорядочить, найти какие-то связи, то энтропия падает. Энтропия уменьшается по мере появления информации о системе.

Любой хаос — это незаметный порядок
Автор: starline Источник: ru.freepik.com

Почему так? На самом деле это довольно сложный, даже уже мировоззренческий принцип. В каком-то счёте можно это перенести это на простое экспериментальное исследование любого образца. Чем больше сведений, тем больше порядка. Дальше хоть новый объект формируй, хоть старый изучай.

Чем больше появляется информации, тем ниже становится энтропия и тем больше мы знаем о самой системе. А чем больше у нас информации о системе, тем больше мы можем про нее сказать и больше можем ей управлять.

Фактически у случайного события максимальная энтропия. А вот если бы у нас была какая-то информация об этом событии, то энтропия была ниже, и мы могли бы сказать, что это событие подчиняется таким-то и таким-то закономерностям. В случае случайности это тоже очень важный момент. Случайность не была бы «случайной», если бы мы понимали ситуацию в должной мере.

Следующий момент- это способ описания направления физического процесса. Неизбежно горячий чайник, поставленный на мороз на улицу, будет остывать. Процесс направлен из состояния с наименьшей энтропией к состоянию с наибольшей энтропией. Были частицы, которые имели некоторый нагрев и определенную тепловую энергию, чайник начал остывать, и энергетически выгоднее частицам стало перейти в свободное состояние.

Это свободное состояние технически сложнее описать, поэтому можно даже исходя из этого сказать, что энтропия такого состояния будет возрастать.

Но всегда ли направление процесса одинаковое? Нет, это лишь условность. На эту тему можно написать целую статью. Больцман писал, что течение процесса в том направлении, которое мы привыкли видеть — это только вероятность. С ничтожной вероятностью обратный процесс тоже может происходить.

Так или иначе, энтропия остаётся наверное одним из самых неопределенных физических понятий. Мы рассмотрели лишь три стандартных подхода, но их значительно больше. Наибольший интерес тут представляет мера хаоса.

Изображение в превью:
Автор: kjpargeter
Источник: ru.freepik.com
Автор не входит в состав редакции iXBT.com (подробнее »)
Об авторе
Изучаю физику и стараюсь познать устройство мира с её помощью. Делюсь наработками и открытиями с вами. Кандидат наук, научный сотрудник и когда-то преподаватель. Читайте мои статьи на этой страничке ixbt или смотрите научпоп видео в Telegram-канале!

1 комментарий

1
Пытаясь пересказать тему, которая вам далека, вы получаете безумный набор слов. Который никак не соотносится реальностью. Не делайте так больше, пожалуйста.
А в энтропии нет никакой меры «хаоса». Достаточно посмотреть на саму формулу этой самой несчастной энтропии.

Добавить комментарий

Сейчас на главной

Новости

Публикации

Русские импрессионисты: в ГМИИ им. А. С. Пушкина показывают ранние работы М. Ларионова и Н. Гончаровой

Новая камерная выставка в ГМИИ посвящена раннему творчеству двух представителей русского авангарда - Михаила Ларионова и Натальи Гончаровой. Совместная она неслучайно, ведь хорошо...

Между жидкостью и твердым телом: раскрыта механика распространения волн на поверхности сверхмягких материалов

Физика сплошных сред разделяет материалы на две большие группы, поведение которых при внешнем воздействии описывается разными математическими законами. В жидкостях форма поверхности и...

Почему мы говорим «сорок» и «девяносто», а не «четыредесят» и «девятьдесят»

Русский язык обладает удивительно стройной системой числительных. Мы говорим «двадцать», «тридцать», «пятьдесят», «шестьдесят», «семьдесят», «восемьдесят». Всё выстроено по единой модели, в которой...

Обзор внешнего аккумулятора Baseus EnerFill FC41 100W 20000 mAh: Мощность Шрёдингера. 100 Вт есть, но не для всех и не всегда

Рынок павербанков давно разделился на два лагеря: дешёвые кирпичи с базовой зарядкой и дорогие устройства с полным набором протоколов и встроенными кабелями. Baseus EnerFill FC41 метит именно во...

Зачем машинист специально выключает свет в электричке? Ответ кроется в устройстве контактной сети

Каждый пассажир электрички хотя бы раз замечал это странное, но привычное явление: размеренное покачивание вагона, монотонный стук колес — и вдруг свет на мгновение тускнеет, лампы...

Гибридный профиль в механике: обзор клавиатуры NuPhy Kick75 HP

NuPhy Kick75 — клавиатура с гибридным профилем, который можно изменить на свое усмотрение, но для этого нужны дополнительные средства, ведь набор приобретается отдельно. Впрочем, если...