Что такое энтропия в термодинамике

Энтропия идеального газа

что такое энтропия в термодинамике

В этой статье мы расскажем, что такое энтропия идеального газа и в чем заключается ее физический смысл. Начнем с определения.

Определение 1

Энтропия – это функция состояния системы (S) с дифференциалом в бесконечном обратимом процессе, равным dS=δQT.

Параметр δQ обозначает элементарное тепло, которое сообщается системе. Соответственно, T – это общая температура системы.

Если у системы в обратимом процессе изменяется знак энтропии, то это говорит о смене направления обмена теплом. Основная формула дает нам возможность найти, на сколько изменилась величина энтропии. Важно подчеркнуть, что она будет верной только в том случае, если процесс будет обратим.

В чем состоит физический смысл энтропии

Свойства идеального газа таковы, что с их помощью удобно пояснять физический смысл энтропии. Допустим, у нас есть один моль некоторого газа, для которого мы можем записать первое правило термодинамики (в дифференциальной форме):

δQ=dU+pdV.

Выполним деление левой и правой части выражения на температуру. У нас получится, что:

δQT=dUT+pdVT=cμVdTT+pdVT.

Здесь cμV=i2R. С помощью уравнения Менделеева-Клайперона мы можем выразить из него pT и получить:

pV=RT→pT=RV.

Подставляем это в исходное выражение:

δQT=cмVdTT+RdVV=dcмVlnT+RlnV.

Правая часть уравнения у нас получилась полностью дифференциальной, значит, и слева тоже должен быть полный дифференциал. Назовем его dS. С помощью одной из приведенных выше формул вычислим ∆S в изотермическом процессе. Если температура остается постоянной, то и внутренняя энергия системы также остается прежней. Получаем следующее:

dS=RdlnV→∫(1)(2)dS=R∫(1)(2)dlnV=S2-S1=RlnV2V1.

Нам известно, что объем, занимаемый газом в равновесном состоянии, связан с количеством пространственных микросостояний частиц формулой Г0=N!N-n! (Г0 – общее количество микросостояний, N – количество ячеек, в которые помещены частица системы, n – общее количество частиц). Поскольку исходный объем идеального газа равен одному молю, то n=NA. Выведем формулу объемов V1 и V2 из выражения выше. Она будет иметь следующий вид:

Г01=N1!N1-NA!, Г02=N2!N2-NA!.

Здесь N1=V1l3, N1=V2l3, l=10-10 м.

Для дальнейших преобразований нам потребуется формула Стирлинга (для больших n, n!≈N2N1NA=V2V1NA):

Г02Г01≈N2N1NA=V2V1NA.

Берем логарифм от этого выражения и получаем:

lnV2V1=1NAlnГ02Г01.

Таким образом, S2-S1=RlnV2V1=RNAlnГ02Г01=klnГ02-klnГ01.

Здесь параметр k обозначает постоянную Больцмана.

Формула Больцмана

Сам вид формулы энтропии говорит нам о том, что она может быть определена через логарифм числа микросостояний, образующих макросостояние, рассматриваемое как S=klnГ.

Выведенное выше равенство называется формулой Больцмана. Она позволяет сделать вывод, что чем больше упорядоченность системы, тем меньше в ней микросостояний, с помощью которых достигается макросостояние. Поэтому энтропия является мерой упорядоченности системы. Максимальная энтропия достигается в состоянии упорядоченности.

Энтропия является аддитивной величиной. При S=const процесс называется изоэнтропийным. Если система является физически однородной, то ее энтропия выражается как функция двух независимых параметров состояния (масса считается постоянной).

Пример 1

Условие: есть идеальный газ, в котором происходит изотермическое расширение, при этом объем меняется от V1 до V1. При этом температура системы в первом процессе равна T1, а во втором T2, причем вторая температура меньше, чем первая. Определите, как будет меняться значение энтропии.

Решение

Зная основное определение энтропии и обратимость процессов в идеальном газе, мы можем использовать формулу для вычисления ∆S при постоянной температуре.

∆S=∫(1)(2)δQT=1T∫(1)(2)δQ.

Идеальный газ в физике – это понятие, подразумевающее, что мы можем пренебречь взаимодействием между его молекулами. Если V=const, то работа идеального газа равна 0.

Обратимся к первому правилу термодинамики, зная, что при постоянной температуре dU=0:

δQ=pdV.

Выражаем давление из уравнения Менделеева-Клайперона:

pV=νRT→p=vRTV.

Подставляем в исходную формулу и получаем:

∆S=1T∫(1)(2)нRTVdV=RTнT∫(1)(2)dVV=vRlnV2V1

Ответ: поскольку не существует зависимости энтропии от температуры в изотермическом процессе, то в заданных условиях оба процесса будут иметь одинаковую энтропию.

Пример 2

Условие: на рисунке схематично обозначены обратимые процессы. Сопоставьте, какие количества теплоты будут поглощаться системой в ходе обеих процессов.

Решение

Данная задача решается на основе определения энтропии для обратимых процессов.

dS=δQT.

Выражаем показатель δQ из уравнения, выведенного ранее, и получаем:

δQ=TdS.

Для определения объема подведенного к системе тепла нам нужно проинтегрировать выражение:

∆Q=∫S1S2TdS.

Теперь, используя геометрическое свойство интеграла (по площади) и рисунок, мы можем подытожить, что площадь, ограниченная кривой процесса, изоэнтропами, перпендикулярными S, и осью S, больше площади для процесса 2, значит, QI>QII.

Ответ: в первом процессе поглощается большее количество теплоты, чем в во втором.

Если вы заметили ошибку в тексте, пожалуйста, выделите её и нажмите Ctrl+Enter

Источник: https://Zaochnik.com/spravochnik/fizika/termodinamika/entropija-idealnogo-gaza/

Энтропия – что это такое простыми словами?

что такое энтропия в термодинамике

Энтропия – это один из весьма распространённых терминов, который используется для объяснения большого количества физических, химических и даже социальных явлений.

Для того чтобы правильно его понимать, необходимо знать все особенности того, в каком контексте это определение может использоваться.

История появления термина

Впервые термин «энтропия» был использован в 1865 году Рудольфом Клаузиусом. Этим значением специалист описывал способность тепловой энергии преобразуется в механическую.

Длительное время понятие энтропии использовалось только лишь в термодинамике. Со временем оно было заимствовано другими областями науки и теориями. Именно поэтому в настоящее время существует большое количество определений данного термина.

Понятие «энтропия» произошло от древнегреческого слова «τροπή», что в переводе на русский означает «поворот» или же «превращение».

На сегодняшний момент данный термин преимущественно используется в термодинамике, экономике, физической статистике, теории информации и социологии.

Энтропия в термодинамике

Главный постулат термодинамики гласит о том, что любая изолированная система со временем приходит в состояние равновесия и не может из него выйти без воздействия внешних факторов. Этот процесс отличается беспорядком.

Энтропия в свою очередь – это мера данного беспорядка, которую можно вычислить. Для этого следует всем состояниям приписать число способов того, как их можно реализовать. Чем больше данное значение, тем больше энтропия конкретной системы.

Таким образом, если структура или само вещество является организованным, то его неопределенность, которую часто называют хаотичностью, ниже.

Для определения абсолютного числа энтропии необходимо вычислить количество изменений у конкретной системы во время осуществления ею теплопередачи при заданных температурных показателях.

Для определения абсолютного числа энтропии необходимо разделить уровень теплоотдачи на абсолютную температуру, при которой происходит данный процесс. Чем больше количество теплоты, тем более значительным будет показатель абсолютного числа энтропии.

Энтропия в экономике

В экономической теории часто применяется такой термин, как коэффициент энтропии. Он используется для определения изменчивости концентрации рынка.

Чем выше значение коэффициента энтропии, тем значительнее экономическая неопределенность. В таких условиях существенно снижается уровень образования монополии.

Коэффициент энтропии в экономике частично помогает оценить выгоды, которые может получить компания в ходе возможного обретения монопольного положения или же вследствие модификации концентрации рынка.

Энтропия в статистике и теории информации

Под энтропии специалисты, собирающие статистику, подразумевают меру непредсказуемости или же неопределенности определенной системы, которую они исследуют. Такая величина позволяет вычислить степень беспорядочности осуществляемого эксперимента или проходимого события.

Чем больше состояний анализируемой система, тем больше значение неопределенности. Все процессы, направленные на появление структуры, приводят к возникновению информационной предсказуемости. Она отличается такими своими особенностями, как:

  • возможность частично или полностью предугадывать ход опыта;
  • возможность предположение возникновения определенных событий;
  • возможность исчисления вероятности тех или иных происшествий;
  • возможность расшифровки закодированных текстов и т.д.

Также в статистике применяется такой термин, как абсолютная энтропия языка. Он характеризует наибольшее количество данных, которые можно передать единицей этого языка. Это касается прежде всего символа или буквы, что в данном случае при определении играют роль бита.

Энтропия в социологии

Под энтропией в социологии принято понимать информационную неопределенность. Она является одной из характеристик отклонения социума, что воспринимается, как единая система, от определенного состояния, которое считается эталоном. Такой анализ также проводится по отношению к различным звеньям групп людей.

Проявляется характеристика отклонения в снижении эффективности развития или функционирования анализируемой системы, что в свою очередь ведет к ухудшению ее самоорганизации.

Примером высокой энтропии является чрезмерная загруженность офисных работников, который постоянно необходимо сдавать отчеты о своей деятельности, вследствие чего они не могут выполнять другие свои прямые обязанности по работе.

В данном примере информационная неопределенность является мерой нецелесообразного использования руководством компании своих трудовых ресурсов.

Источник: https://finleaks.ru/entropiya-chto-eto-takoe-prostymi-slovami/

Энтропия в термодинамике, теория и примеры

что такое энтропия в термодинамике

Понятие энтропии ввел в XIX веке Р. Клаузиус. Энтропия () – это функция состояния, в обратимом процессе дифференциалом которой является величина :

где – количество теплоты, полученное термодинамической системой в ходе обратимого процесса; – термодинамическая температура системы.

В любом обратимом круговом процессе изменение энтропии равно нулю:

Энтропия системы, которая совершает необратимый цикл, растет:

Выражения (2) и (3) относятся только к замкнутым системам, в том случае, если система обменивается теплотой с внешней средой, то энтропия может вести себя как угодно. Формулы (2) и (3) в единстве представляют собой неравенство Клаузиуса:

которое говорит о том, что в замкнутых системах при обратимых процессах, энтропия остается постоянной, а в необратимых процессах она растет.

В случае равновесного перехода из одного состояния в другое, в соответствии с определением энтропии (1), имеем:

где по первому началу термодинамики. – изменение внутренней энергии термодинамической системы; – работа выполняемая системой. В формуле (5) подынтегральное выражение и пределы интегрирования следует выразить, используя параметры, которые характеризуют процесс, происходящий в термодинамической системе. Выражение (5) определяет энтропию с точностью до аддитивной постоянной. Физический смысл несет изменение энтропии, а не сама энтропия.

Свойство энтропии

Энтропия имеет свойство аддитивности: Энтропия совокупности тел равна сумме энтропий каждого тела, которое входит в систему.

Глубинный смысл энтропии открывает статистическая физика. Больцман установил, что энтропия системы связана с термодинамической вероятностью ():

где – постоянная Больцмана.

Напомним, что термодинамической вероятностью называют число способов, при помощи которых можно реализовать макросостояние термодинамической системы, или количество микросостояний, которые реализуют данное макросостояние.

В соответствии с (6) энтропия — это мера вероятности состояния термодинамической системы. Иногда, исходя из статистического толкования энтропии, говорят, что энтропия – мера неупорядоченности системы.

Примеры решения задач

Понравился сайт? Расскажи друзьям!

Источник: http://ru.solverbook.com/spravochnik/fizika/entropiya-v-termodinamike/

Что такое Энтропия

Энтропия (от др. греч. entropia — «поворот к» / «трансформация») — это мера хаоса, беспорядка или неопределённости в какой-то системе. Существует теория, что всё в мире идёт от порядка в сторону беспорядка, и энтропия измеряет эти изменения.

Пример энтропии — таяние льда в воде. В это время будет увеличиваться энтропия — это происходит когда идёт изменение от сформированного состояния к свободному, т. е. от упорядоченного к неупорядоченному.

Единица измерения энтропии называется энтропийной единицей — Дж/К, ккал/К.

Формула энтропии

Существует несколько вариантов формулы энтропии. Одна из них:

«S» — мера энтропии;»Q» — мера тепла;

«Т» — температура системы (в градусах Кельвина).

Энтропия в физике

Простыми словами энтропия — это мера распределения энергии. Когда энтропия высокая — энергия распределена, когда низкая — энергия сконцентрирована.

Энтропия Вселенной

Во втором законе термодинамики говорится, что в спонтанном процессе общая энтропия Вселенной постоянно увеличивается; это означает, что она становится более неупорядоченной, хаотичной.

Энтропия системы

Энтропия — это мера случайной активности в системе, мера тепловой энергии системы на единицу температуры, которая недоступна для выполнения полезной работы.

Количество энтропии — это ещё и мера молекулярного беспорядка или случайности системы.

Эту концепцию открыл немецкий физик Рудольф Юлиус Эмануэль Клаузиус в 1850 году.

Энтропия в химии

Энтропия — функция состояния каждого вещества. Энтропия веществ меняется когда происходит химическая реакция. Это изменение энтропии веществ (ΔS) называется «энтропия реакции» или «изменение энтропии в процессе».

Это включает все вещества в реакции, и указывает на состояние системы, а то, как это состояние было достигнуто игнорируется.

Чем выше степень неупорядоченности системы, тем выше энтропия системы.

Разница между энтальпией и энтропией

Простыми словами, энтропия — это мера количества случайности или беспорядка в системе, т. е. мера случайной активности в системе. В то время как энтальпия — это мера общего количества энергии в системе.

Смотрите также, что такое Полимер.

Источник: https://www.uznaychtotakoe.ru/entropiya/

Энтропия – что это такое простыми словами в химии, физике и каков ее коэффициент

Понятие энтропии используется в различных науках: физике, химии, математике, биологии, социологии. Само слово произошло от греческого и обозначает «превращение, изменение». Что это такое простыми словами? Можно сказать, что это мера беспорядка, хаотичности в любой системе. Чем меньше порядка, тем больше ее значение. Если книги стоят на полке, неупорядоченность у них меньше, чем если они лежат кучей.

Что означает термин

Определение данного термина зависит от сферы его применения. В общих словах можно сказать, что это мера беспорядка и необратимого рассеяния энергии. Чем более упорядочена какая-то система, тем энергия более сконцентрирована. Например, если мы поместим горячий предмет в холодную воду, постепенно он остынет, а вода нагреется. Во втором случае энтропия больше.

Важно! Энтропия характеризует беспорядок. Чем она больше, тем меньше система упорядочена.

В качестве системы может выступать что угодно. В физике или химии это обычно газ, жидкость, твердое тело, набор определенного числа частиц. В информатике это может быть текст, в социологии группа людей.

В физике

Этот термин используется в таких разделах физики, как термодинамика и статистическая физика. Термодинамика изучает способы передачи и превращения энергии. Она имеет дело с процессами, в которых можно использовать понятие температуры. Именно в термодинамике впервые начали использовать это понятие. Ввел его немецкий ученый Рудольф Клаузиус. Статистическая механика изучает поведение систем из конечного количества частиц, используя для этого методы теории вероятности.

В разных разделах физики этот термин означает несколько разные вещи. В термодинамике это характеристика необратимого рассеяния энергии. В статистической физике эта величина показывает вероятность какого-то состояния.

! В чем заключается принцип теории Гюйгенса Френеля

В термодинамике

Энтропия — единственная величина, показывающая направление физических процессов. Что это значит?

  • В изолированной системе, то есть той, которая не обменивается ни веществом, ни энергией с окружающими предметами, процессы всегда идут так, что неупорядоченность увеличивается. Достигнув максимума, она остается постоянной. В этом суть второго начала термодинамики.
  • Обратимые процессы не меняют неупорядоченность.
  • Необратимые процессы всегда идут так, что беспорядок увеличивается. В открытой системе эта величина может возрастать или оставаться постоянной, возможны и такие процессы, при которых беспорядок уменьшается. То есть вмешательством извне мы можем уменьшить неупорядоченность.

Всякая система, находящаяся в неизменных внешних условиях, со временем приходит в состояние равновесия и не может самостоятельно из него выйти. При этом все ее части будут иметь одинаковую температуру. Это нулевое начало термодинамики.

ЭТО ИНТЕРЕСНО:  Димрот что это такое

В равновесии беспорядок больше всего. Например, есть сосуд, разделенный перегородкой. С одной стороны находится один газ, с другой — другой. Если убрать перегородку, постепенно газы смешаются и самостоятельно уже не разделятся снова. Такое состояние будет более беспорядочным, чем состояние, когда газы были разделены.

В физике эта величина — функция состояния системы. Это значит, что она зависит от параметров системы:

  • температуры;
  • давления;
  • объема;
  • внутренней энергии.

! Формула закона полного отражения и преломления света

В статистической механике

В статистической механике это понятие связано с вероятностью получить определенное состояние. Например, для нескольких предметов или частиц она зависит от числа способов их расположить.

Есть несколько определений этой величины. Наиболее простое определение Больцамана. Она равна логарифму вероятности состояния, умноженному на постоянную Больцмана: S=k*ln(W).

Источник: https://znaniya.guru/fizika/entropiya.html

Энтропия в термодинамике — что это? Отвечаем на вопрос. Описание, теория и примеры

Понятие об энтропии в термодинамике — это достаточно важный и в то же время непростой вопрос, поскольку существуют различные точки зрения для ее интерпретации. Опишем энтропию подробно в статье, а также приведем примеры процессов, где она играет ключевую роль.

Значение понятия

Разговор об энтропии логичнее всего начать с ее определения. Итак, энтропия в термодинамике — это экстенсивная физическая величина, которая отражает число возможных микросостояний описываемой макросистемы. Иными словами, энтропия отражает уровень организации: чем более неоднородной является система, тем меньше ее энтропия.

Важно понимать два основных свойства энтропии:

  1. Экстенсивность. То есть эта величина зависит от размеров системы и массы вещества, которая в ней присутствует. Например, если посчитать количество энтропии для каждого из двух сосудов с водородом объемами V1 и V2, в которых газ находится при некотором давлении P и имеет температуру T, то в результате соединения этих сосудов между собой общая энтропия будет равна их сумме.
  2. Энтропия в термодинамике — это функция состояния системы. Это означает, что говорить об этой величине можно только тогда, когда система находится в термодинамическом равновесии. При этом энтропия не зависит от истории эволюции этой системы, то есть совершенно не важно, каким способом она пришла к этому термодинамическому состоянию.

Что определяет энтропия?

Другими словами, для чего она была введена в физику? Чтобы ответить на этот вопрос, достаточно рассмотреть простой эксперимент: всем известно, что если взять холодный прут металла и привести его в контакт с таким же прутом, но нагретым до некоторой температуры, то с течением времени горячее тело будет охлаждаться, а холодное – нагреваться. Никто никогда не наблюдал обратный процесс. Направление протекания рассмотренного явления описывается с использованием концепции «энтропия».

Любая изолированная система, предоставленная самой себе, всегда стремится занять наиболее вероятное состояние. Это состояние характеризуется хаотичным и однородным распределением элементов, составляющих систему, и понимается как состояние с максимальным значением энтропии.

Статистическая интерпретация

В конце XIX — начале XX века австрийский физик Людвиг Больцман развил новое направление в физике, получившее название статистическая механика. В этой новой науке он ввел понятие об абсолютной энтропии, которую ученый представил в виде: S = k*ln(Ω), где k — константа Больцмана, Ω — количество возможных состояний в системе.

Отметим, что в физике абсолютное значение энтропии мало кого интересует, поскольку все математические формулы, которые учитывают рассматриваемую физическую величину, включают в себя именно ее изменение.

Обратимые процессы в термодинамике

Еще одно определение энтропии в термодинамике — это связь с энергией, которая никаким способом не может быть переведена в полезную работу, например, в механическую. Известно, что эта энергия существует в виде тепла в данной системе, но для практического использования она непригодна.

Например, двигатель внутреннего сгорания работает с некоторым КПД (многие люди, возможно, об этом никогда не задумывались, но коэффициент полезного действия двигателей, которые находятся внутри их автомобилей, составляет всего около 20-25 %), который никогда не будет равен 100 %, какими бы совершенными ни были технологии. Это происходит потому, что в результате термодинамического процесса сгорания топлива часть энергии (большая часть в рассматриваемом случае) теряется на разогрев деталей и на трение. Процесс сгорания топлива — яркий пример увеличения энтропии.

В середине XIX века немецкий ученый Рудольф Клаузиус, анализируя разные термодинамические процессы, ввел понятие «энтропия системы» и смог математически его выразить в виде следующего выражения: dS = δQ/T, здесь dS — изменение энтропии системы, δQ — изменение энергии, которое произошло в результате данного процесса, T — абсолютная температура. Отсюда получаем, что единицей измерения dS в СИ является Дж/К.

Приведенная формула энтропии в термодинамике справедлива только для обратимых процессов, то есть таких переходов, которые могут происходить как в прямом, так и обратном направлении, если изменить внешние условия. Например, если сжать газ, находящийся в герметичном цилиндре с помощью внешней силы, а затем прекратить действие этой силы, то газ восстановит свой первоначальный объем (состояние).

Таким образом, согласно уравнению Клаузиуса, изменение энтропии во время обратимого процесса равно отношению изменения энергии между начальным и конечным состояниями к абсолютной температуре.

Изотермический и адиабатический обратимые процессы

Изотермический процесс — это частный случай, который предполагает, что конечное и начальное состояния системы имеют одинаковую температуру. Согласно формуле Клаузиуса, в результате обратимого изотермического процесса изменение энтальпии системы будет точно равно количеству тепла, которым она обменялась с окружающей средой, деленному на температуру.

Примером такого процесса является расширение идеального газа за счет подвода к нему теплоты извне. Вся подводимая энергия в этом случае тратится на выполнение механической работы (расширение), а температура газа при этом остается постоянной.

Рассматривая концепцию энтропии, интересно также вспомнить об адиабатическом процессе, под которым понимают любой переход в изолированной системе, то есть в ней сохраняется внутренняя энергия. Если этот процесс является обратимым, то согласно формуле dS = δQ/T = 0, поскольку δQ = 0 (нет обмена теплом с окружающей средой).

Необратимые процессы

Рассмотренные примеры разных процессов могут только в грубом приближении считаться обратимыми, поскольку в них всегда существуют различные тепловые потери. В нашей Вселенной практически все процессы являются необратимыми.

Для них сформулирован 2 закон термодинамики, и энтропия играет важную роль. Приведем формулу: dS≥δQ/T.

О чем говорит это выражение: согласно второму закону термодинамики, энтропия в результате абсолютно любого необратимого процесса всегда увеличивается (см. знак «>» в выражении).

Таким образом, подобно факту, что энергия не может быть создана из ничего и не может исчезать бесследно, второй закон термодинамики свидетельствует, что энтропия может быть создана, но не может быть уничтожена (постоянно увеличивается).

Историческая справка

Как было выше сказано, об энтропии физики стали задумываться только в середине XIX века. Причиной этому послужил тот факт, что первые паровые машины обладали чрезвычайно низким КПД (в начале XVIII века типичным значением КПД для этих машин было 2 %). То есть энтропия изначально понималась как «распыление» тепловой энергии во время термодинамического процесса.

Само слово «энтропия», введенное Клаузиусом, с древнегреческого языка означает «эволюция, преобразование», тем самым подчеркивается ее важность для описания протекающих процессов.

Энтропия и тепловая смерть Вселенной

Согласно 2-му началу термодинамики, энтропия в нашей Вселенной постоянно увеличивается. Это означает, что в конце концов она достигнет своего максимального значения, когда вещество однородно распределится и температура выровняется во всем пространстве. Такая гипотеза была выдвинута тем же Клаузиусом и получила название тепловой смерти Вселенной.

Реализуется ли она в действительности, зависит от области применимости термодинамики. Дело в том, что на микроуровне, когда рассматриваются отдельные молекулы и атомы, энтропия в термодинамике — это бессмысленная величина, так как сами законы этой ветви физики перестают работать. Предполагается, что аналогичные ограничения их применимости существуют, когда масштабы системы достигают бесконечных значений, то есть размеров Вселенной.

Источник: https://autogear.ru/article/422/081/entropiya-v-termodinamike-eto-chto-takoe-opisanie-teoriya-i-primeryi/

Энтропия в термодинамике — это что такое? Описание, теория и примеры

Понятие об энтропии в термодинамике — это достаточно важный и в то же время непростой вопрос, поскольку существуют различные точки зрения для ее интерпретации. Опишем энтропию подробно в статье, а также приведем примеры процессов, где она играет ключевую роль.

Энтропия • ru.knowledgr.com

В термодинамике энтропия (обычный символ S) является мерой числа особенных методов, в которых термодинамическая система может быть устроена, обычно пониматься как мера беспорядка. Согласно второму закону термодинамики никогда не уменьшается энтропия изолированной системы; такая система спонтанно разовьется к термодинамическому равновесию, конфигурации с максимальной энтропией.

Системы, которые не изолированы, могут уменьшиться в энтропии, если они увеличивают энтропию своей среды, по крайней мере, той же самой суммой. Так как энтропия — государственная функция, изменение в энтропии системы — то же самое для любого процесса, который идет от данного начального состояния до данного конечного состояния, обратим ли процесс или необратим.

Однако необратимые процессы увеличивают объединенную энтропию системы и ее среды.

Изменение в энтропии (ΔS) системы было первоначально определено для термодинамически обратимого процесса как

:,

где абсолютная температура системы, деля возрастающую обратимую передачу высокой температуры в ту систему . (Если бы высокая температура передана, знак был бы полностью изменен, дав уменьшение в энтропии системы.

) Вышеупомянутое определение иногда называют макроскопическим определением энтропии, потому что это может привыкнуть без отношения к любому микроскопическому описанию содержания системы. Понятие энтропии, как находили, было вообще полезно и имеет несколько других формулировок.

Энтропия была обнаружена, когда она, как замечали, была количеством, которое ведет себя как функция государства, в результате второго закона термодинамики.

Энтропия — обширная собственность. У этого есть измерение энергии, разделенной на температуру, у которой есть единица джоулей за kelvin (J K) в Международной системе Единиц (или kg m s K с точки зрения основных единиц). Но энтропия чистого вещества обычно дается как интенсивная собственность — любая энтропия на единицу массы (единица СИ: J K kg) или энтропия за количество единицы вещества (единица СИ: J K молекулярная масса).

Абсолютная энтропия (S, а не ΔS) была определена позже, используя или статистическую механику или третий закон термодинамики.

В современной микроскопической интерпретации энтропии в статистической механике энтропия — сумма дополнительной информации, должен был определить точное физическое состояние системы, учитывая ее термодинамическую спецификацию.

Понимание роли термодинамической энтропии в различных процессах требует понимания того, как и почему та информация изменяется, поскольку система развивается от ее начальной буквы до ее заключительного условия. Часто говорится, что энтропия — выражение беспорядка или хаотичность системы, или нашего отсутствия информации об этом.

Второй закон теперь часто замечается как выражение фундаментального постулата статистической механики через современное определение энтропии.

История

Анализ, который привел к понятию энтропии, начался с работы французского математика Лазара Карно, который в его 1 803 бумажных Основных принципах Равновесия и Движения предложил, чтобы в любой машине ускорение и шоки движущихся частей представляли потери момента деятельности.

Другими словами, в любом естественном процессе там существует врожденная тенденция к разложению полезной энергии.

Основываясь на этой работе, в 1824 сын Лазара Сади Карно издал Размышления о Движущей Власти Огня, который установил это во всех тепловых двигателях, каждый раз, когда «тепловой» (что теперь известно как высокая температура) проваливается, перепад температур, работа или движущая власть могут быть произведены из действий ее падения от горячего до холодного тела.

Он сделал аналогию, с тем из как вода падает в водном колесе. Это было ранним пониманием второго закона термодинамики.

Карно базировал свои взгляды на высокую температуру частично в начале 18-го века «ньютонова гипотеза», что и высокая температура и свет были типами неразрушимых форм вопроса, которые привлечены и отражены другим вопросом, и частично на современных взглядах графа Рамфорд, кто показал (1789), что высокая температура могла быть создана трением как тогда, когда орудие наводят скуку, обработаны. Карно рассуждал, что, если тело рабочего вещества, такого как тело пара, возвращено к его исходному состоянию в конце полного цикла двигателя, то «никакое изменение не происходит в условии рабочего органа».

Первый закон термодинамики, выведенной из экспериментов теплового трения Джеймса Джула в 1843, выражает понятие энергии и ее сохранение во всех процессах; первый закон, однако, неспособен определить количество эффектов трения и разложения.

В 1850-х и 1860-х немецкий физик Рудольф Клосиус возразил против гипотезы, что никакое изменение не происходит в рабочем органе и дало этому «изменению» математическую интерпретацию, подвергнув сомнению природу врожденной потери применимой высокой температуры, когда работа сделана, например, высокая температура, произведенная трением.

Клосиус описал энтропию как содержание преобразования, т.е. рассеивающее использование энергии, термодинамической системы или рабочего органа химических разновидностей во время изменения состояния.

Это было в отличие от более ранних взглядов, основанных на теориях Исаака Ньютона, та высокая температура была неразрушимой частицей, у которой была масса.

Позже, ученые, такие как Людвиг Больцманн, Джозия Виллард Гиббс и клерк Джеймса Максвелл дали энтропии статистическое основание.

В 1877 Больцманн визуализировал вероятностный способ измерить энтропию ансамбля идеальных газовых частиц, в которых он определил энтропию, чтобы быть пропорциональным логарифму числа микрогосударств, которые мог занять такой газ.

Впредь, существенная проблема в статистической термодинамике, т.е. согласно Эрвину Шредингеру, состояла в том, чтобы определить распределение данной суммы энергии E по идентичным системам N.

Carathéodory связал энтропию с математическим определением необратимости, с точки зрения траекторий и интегрируемости.

Определения и описания

Есть два связанных определения энтропии: термодинамическое определение и статистическое определение механики. Исторически, классическое определение термодинамики развилось сначала.

В классической точке зрения термодинамики система составлена из очень больших количеств элементов (атомы, молекулы), и государство системы описано средними термодинамическими свойствами тех элементов; детали элементов системы непосредственно не рассматривают, но их поведение описано макроскопическим образом усредненными свойствами, например, температурой, давлением, энтропией, теплоемкостью.

Раннее классическое определение свойств системы приняло равновесие. Классическое термодинамическое определение энтропии было позже расширено в область неравновесной термодинамики.

Позже, термодинамическим свойствам, включая энтропию, дали альтернативное определение с точки зрения статистики движений микроскопических элементов системы — смоделированный сначала классически, например, ньютоновы частицы, составляющие газ и более поздний квант механически (фотоны, фононы, вращения, и т.д.). Статистическое описание механики поведения системы необходимо, поскольку определение свойств системы, используя классическую термодинамику становится все более и более ненадежным методом предсказания конечного состояния системы, которая подвергается некоторому процессу.

Функция государства

Есть много термодинамических свойств, которые являются функциями государства. Это означает, что в особом термодинамическом государстве (который не должен быть перепутан с микроскопическим государством системы), у этих свойств есть определенная стоимость.

Часто, если два свойства системы определены, то государство определено, и ценности других свойств могут также быть определены. Например, газ при особой температуре и давлении имеет свое государство, фиксированное теми ценностями, и имеет особый объем, который определен теми ценностями.

Как другой случай, система, составленная из чистой сущности единственной фазы при особой однородной температуре и давлении, определена (и таким образом особое государство), и в не только особый объем, но также и в особой энтропии. Факт, что энтропия — функция государства, является одной причиной, это полезно.

В цикле Карно рабочая жидкость возвращается в то же самое государство, которое это имело в начале цикла, следовательно интеграл линии любой государственной функции, такой как энтропия, по циклу является нолем.

ЭТО ИНТЕРЕСНО:  Испаритель в холодильнике что это такое

Обратимый процесс

Энтропия определена для обратимого процесса и для системы, которую, в любом случае, можно рассматривать как являющийся в однородном государстве и таким образом при однородной температуре. Обратимость — идеал, что некоторые реальные приблизительные процессы и это часто представляется в упражнениях исследования.

Для обратимого процесса энтропия ведет себя как сохраненное количество, и никакое изменение не происходит в полной энтропии. Более определенно полная энтропия сохранена в обратимом процессе и не сохранена в необратимом процессе. Нужно быть осторожным относительно системных границ.

Например, в цикле Карно, в то время как тепловой поток от горячего водохранилища до холодного водохранилища представляет увеличение энтропии, производительности работы, если обратимо и отлично сохраненный в некотором механизме аккумулирования энергии, представляет уменьшение в энтропии, которая могла использоваться, чтобы управлять тепловым двигателем наоборот и возвратиться к предыдущему состоянию, таким образом полное изменение энтропии все еще нулевое в любом случае, если весь процесс обратим. Любой процесс, который не отвечает требованиям обратимого процесса, нужно рассматривать как необратимый процесс, который обычно является сложной задачей. Необратимый процесс увеличивает энтропию.

Ситуации с теплопередачей требуют двух или больше неизолированных систем в тепловом контакте. В необратимой теплопередаче тепловая энергия безвозвратно передана от более высокой температурной системы до более низкой температурной системы и объединенной энтропии увеличений систем. У каждой системы, по определению, должна быть своя собственная абсолютная температура, применимая во всех областях в каждой соответствующей системе, чтобы вычислить передачу энтропии.

Таким образом, когда система при более высоких температурных передачах нагревается к системе более низкой температуры, прежний теряет энтропию и последнюю энтропию прибыли. С тех пор, из этого следует, что, откуда есть чистая прибыль в объединенной энтропии.

Вычисляя энтропию, то же самое требование наличия абсолютной температуры для каждой системы в тепловой высокой температуре обмена контакта также относится к изменению энтропии изолированной системы, имеющей тепловой контакт.

Цикл Карно

Источник: http://ru.knowledgr.com/00006194/%D0%AD%D0%BD%D1%82%D1%80%D0%BE%D0%BF%D0%B8%D1%8F

Энтропия в термодинамике

Обычно любой физический процесс, при котором система постепенно переходит из одного состояния в другое, протекает по-разному, поэтому провести это явление в обратное состояние практически невозможно. Для этого необходимо использовать показатели промежуточного времени в окружающих определенную среду телах. Это напрямую связано с тем, что в процессе часть энергетического потенциала рассеивается путем постоянного трения и излучения.

Рисунок 1. Термодинамическая энтропия. Автор24 — интернет-биржа студенческих работ

Согласно законам термодинамики, практически все явления в природе необратимы. В любом физическом процессе часть энергии постепенно теряется.

Для характеристики и описания рассеяния энергии вводится определение энтропии, объясняющее тепловое состояние концепции и определяющее вероятность возникновения нового состояния тела. Чем более вероятно это состояния, тем больше показатель энтропии.

Все естественные ситуации в обычной жизни сопровождаются ростом данного элемента, который остается постоянным только в случае идеализированного процесса, наблюдаемого в замкнутой системе.

Ничего непонятно?

Попробуй обратиться за помощью к преподавателям

Определение 1

Энтропия – это универсальная функция состояния конкретной системы, незначительное изменение которой в обратимой ситуации равно отношению ничтожно малого количества введенной в данный процесс теплоты при соответствующей начальному состоянию температуре.

Поскольку энтропия есть основная функция состояния физического тела, то свойством интеграла выступает его самостоятельность и независимость от формы контура, по которому он вычисляется таким образом:

  • в любом обратимом физическом явлении изменения энтропии приравниваются нулю;
  • в термодинамике доказывается, что системы необратимой цикл возрастает с равными промежуточными параметрами;
  • энтропия замкнутой системы может либо возрастать, либо оставаться в стабильном состоянии.

Следовательно, указанная термодинамическая функция обладает особенностями аддитивности: энтропия каждой системы равна сумме энтропий материальных тел, входящих в систему: $S = S_1 + S_2 + S_3 + $ Существенным отличием теплового движения элементарных частиц от других форм движения является их беспорядочность и хаотичность.

Поэтому для описания теплового движения изначально нужно ввести количественный уровень молекулярной нестабильности.

Если рассмотреть данное макроскопическое состояния вещества с любыми средними значениями параметров, то оно представляет собой ни что иное, как систематическая смена близко расположенных микросостояний, которые отличаются друг от друга распределением молекул в различных частях объема.

Статистическое определение энтропии: принцип Больцмана

Рисунок 2. Статистический смысл энтропии. Автор24 — интернет-биржа студенческих работ

В 1877 году ученый Людвиг Больцман обнаружил, что энтропия концепции может относиться к числу вероятных «микросостояний», которые согласуются с основными термодинамическими свойствами. Хорошим примером такого явления выступает идеальный газ в сосуде. Микросостояние в указанном элементе определено как импульсы и позиции (моменты движения) каждого составляющего систему атома и молекула.

Комплексность предъявляет к ученым требования исследовать только те микросостояния, для которых:

  • месторасположения всех движущихся частей расположены в пределах сосуда;
  • для получения общего энергетического потенциала кинетические энергии газа в итоге суммируются;
  • затем тепловая константа определяет количество микросостояний, которые возможны в имеющемся состоянии (статистический вес состояния).

Такой постулат, известный в науке как принцип Больцмана, возможно охарактеризовать в виде начала статистической механики, описывающего подробно главные термодинамические системы и использующего для своих целей принципы классической и квантовой физики.

Замечание 1

Закон Больцмана связывает в термодинамике все микроскопические свойства системы с одним из её динамических свойств.

Согласно определению исследователя, энтропия является просто дополнительной функцией состояния, параметры которой могут быть только натуральным числом.

Понимание энтропии как меры беспорядка

Рисунок 3. Возрастание энтропии. Автор24 — интернет-биржа студенческих работ

Существует мнение, что энтропию возможно рассматривать, как меру беспорядка в определенной системе.

Иногда, с научной точки зрения, это может быть оправдано, так как зачастую ученые в первую очередь думают об «упорядоченных» концепциях как элементах, имеющих практически нулевую возможность дальнейшего конфигурирования, а как о «нестабильных» системах, обладающих множеством вероятных состояний. Собственно, это просто переформулированное трактовка энтропии как количества микросостояний, действующих в определенной среде.

Подобное определение беспорядка и хаотичности термодинамической системы как основного параметра возможностей конфигурирования концепции практически дословно соответствует формулировке энтропии в виде микросостояний.

Проблемы начинаются в двух конкретных случаях:

  • когда физики начинают смешивать разные понимания беспорядка, в результате чего энтропия становится мерой беспорядка в целом;
  • когда определение энтропии используется для систем, изначально не являющихся термодинамическими.

В вышеуказанных случаях применение понятия энтропии в термодинамике абсолютно неправомерно.

Значение энтропии для живых организмов

Все трансформации и превращения внутренней энергии описываются в физике законами термодинамики, которые при адекватных физических моделях и грамотно сформулированных физических ограничениях вполне применимы и для жизненных нестабильных процессов. Уменьшение показателя энтропия (появление отрицательной энергии по Шрёдингеру) в живом организме при тесном взаимодействии его с окружающей средой автоматически приводит к росту свободного энергетического потенциала.

Замечание 2

Если система «уклоняется» от постоянного равновесия, то она непременно должна в дальнейшем компенсировать увеличение энтропии другой энергией, с точки зрения науки — свободной энергией.

Таким образом, живая природа пытается избегать роста энтропии, повышая ее значимость в окружающей среде при общении с ней живого организма. Энтропия представляет собой «омертвленную» энергия, которую невозможно превратить в стабильную работу. По законам классической термодинамики в изолированных, хаотичных системах теплота полностью рассеивается, следовательно, процесс идет от порядка к хаосу.

Для живых микроорганизмов, как главных открытых систем, с научной точки зрения акт возникновения живого будет характеризоваться спонтанной трансформацией тепловой энергии необратимых функций в механическую целенаправленную работу создания высокоразвитой системы.

Все это возможно осуществить посредством наличия свободной энергии.

Следовательно, термодинамическая неравновесность существующих живых систем свидетельствует об их обязательной упорядоченности, так как полноценное равновесие соответствует хаосу и это в итоге приводит к смерти живого организма, когда его энтропия находится на максимальном уровне.

В целом, энтропия выступает как мера неопределенности и нестабильности, усреднения поведения физических объектов, установления правильного состояния и даже определенного единообразия. Жизнедеятельность биологических систем доказывает, что они не хотят подчиняться закону термодинамики для изолированной среды.

Источник: https://spravochnick.ru/fizika/termodinamika/entropiya_v_termodinamike/

Энтропия? Это просто!

Этот пост является вольным переводом ответа, который Mark Eichenlaub дал на вопрос What's an intuitive way to understand entropy?, заданный на сайте Quora Энтропия. Пожалуй, это одно из самых сложных для понимания понятий, с которым вы можете встретиться в курсе физики, по крайней мере если говорить о физике классической. Мало кто из выпускников физических факультетов может объяснить, что это такое.

Большинство проблем с пониманием энтропии, однако, можно снять, если понять одну вещь. Энтропия качественно отличается от других термодинамических величин: таких как давление, объём или внутренняя энергия, потому что является свойством не системы, а того, как мы эту систему рассматриваем. К сожалению в курсе термодинамики её обычно рассматривают наравне с другими термодинамическими функциями, что усугубляет непонимание.

Так что же такое энтропия?

Если в двух словах, тоЭнтропия — это то, как много информации вам не известно о системе Например, если вы спросите меня, где я живу, и я отвечу: в России, то моя энтропия для вас будет высока, всё-таки Россия большая страна. Если же я назову вам свой почтовый индекс: 603081, то моя энтропия для вас понизится, поскольку вы получите больше информации. Почтовый индекс содержит шесть цифр, то есть я дал вам шесть символов информации.

Энтропия вашего знания обо мне понизилась приблизительно на 6 символов. (На самом деле, не совсем, потому что некоторые индексы отвечают большему количеству адресов, а некоторые — меньшему, но мы этим пренебрежём). Или рассмотрим другой пример. Пусть у меня есть десять игральных костей (шестигранных), и выбросив их, я вам сообщаю, что их сумма равна 30.

Зная только это, вы не можете сказать, какие конкретно цифры на каждой из костей — вам не хватает информации. Эти конкретные цифры на костях в статистической физике называют микросостояниями, а общую сумму (30 в нашем случае) — макросостоянием. Существует 2 930 455 микросостояний, которые отвечают сумме равной 30.

Так что энтропия этого макросостояния равна приблизительно 6,5 символам (половинка появляется из-за того, что при нумерации микросостояний по порядку в седьмом разряде вам доступны не все цифры, а только 0, 1 и 2). А что если бы я вам сказал, что сумма равна 59? Для этого макросостояния существует всего 10 возможных микросостояний, так что его энтропия равна всего лишь одному символу. Как видите, разные макросостояния имеют разные энтропии.

Пусть теперь я вам скажу, что сумма первых пяти костей 13, а сумма остальных пяти — 17, так что общая сумма снова 30. У вас, однако, в этом случае имеется больше информации, поэтому энтропия системы для вас должна упасть. И, действительно, 13 на пяти костях можно получить 420-ю разными способами, а 17 — 780-ю, то есть полное число микросостояний составит всего лишь 420х780 = 327 600.

Энтропия такой системы приблизительно на один символ меньше, чем в первом примере. Мы измеряем энтропию как количество символов, необходимых для записи числа микросостояний.

Математически это количество определяется как логарифм, поэтому обозначив энтропию символом S, а число микросостояний символом Ω, мы можем записать: S = log Ω Это есть ничто иное как формула Больцмана (с точностью до множителя k, который зависит от выбранных единиц измерения) для энтропии. Если макросостоянию отвечают одно микросостояние, его энтропия по этой формуле равна нулю.

Если у вас есть две системы, то полная энтропия равна сумме энтропий каждой из этих систем, потому что log(AB) = log A + log B. Из приведённого выше описания становится понятно, почему не следует думать об энтропии как о собственном свойстве системы. У системы есть опеделённые внутренняя энергия, импульс, заряд, но у неё нет определённой энтропии: энтропия десяти костей зависит от того, известна вам только их полная сумма, или также и частные суммы пятёрок костей. Другими словами, энтропия — это то, как мы описываем систему. И это делает её сильно отличной от других величин, с которыми принято работать в физике.

Физический пример: газ под поршнем

Классической системой, которую рассматривают в физике, является газ, находящийся в сосуде под поршнем. Микросостояние газа — это положение и импульс (скорость) каждой его молекулы. Это эквивалентно тому, что вы знаете значение, выпавшее на каждой кости в рассмотренном раньше примере. Макросостояние газа описывается такими величинами как давление, плотность, объём, химический состав.

Это как сумма значений, выпавших на костях. Величины, описывающие макросостояние, могут быть связаны друг с другом через так называемое «уравнение состояния». Именно наличие этой связи позволяет, не зная микросостояний, предсказывать, что будет с нашей системой, если начать её нагревать или перемещать поршень.

Для идеального газа уравнение состояния имеет простой вид: p = ρT

хотя вы, скорее всего, лучше знакомы с уравнением Клапейрона — Менделеева pV = νRT — это то же самое уравнение, только с добавлением пары констант, чтобы вас запутать. Чем больше микросостояний отвечают данному макросостоянию, то есть чем больше частиц входят в состав нашей системы, тем лучше уравнение состояния её описывают.

Для газа характерные значения числа частиц равны числу Авогадро, то есть составляют порядка 1023.

Величины типа давления, температуры и плотности называются усреднёнными, поскольку являются усреднённым проявлением постоянно сменяющих друг друга микросостояний, отвечающих данному макросостоянию (или, вернее, близким к нему макросостояниям). Чтобы узнать в каком микросостоянии находится система, нам надо очень много информации — мы должны знать положение и скорость каждой частицы. Количество этой информации и называется энтропией. Как меняется энтропия с изменением макросостояния? Это легко понять. Например, если мы немного нагреем газ, то скорость его частиц возрастёт, следовательно, возрастёт и степень нашего незнания об этой скорости, то есть энтропия вырастет. Или, если мы увеличим объём газа, отведя поршень, увеличится степень нашего незнания положения частиц, и энтропия также вырастет.

Твёрдые тела и потенциальная энергия

Если мы рассмотрим вместо газа какое-нибудь твёрдое тело, особенно с упорядоченной структурой, как в кристаллах, например, кусок металла, то его энтропия будет невелика.

Почему? Потому что зная положение одного атома в такой структуре, вы знаете и положение всех остальных (они же выстроены в правильную кристаллическую структуру), скорости же атомов невелики, потому что они не могут улететь далеко от своего положения и лишь немного колеблются вокруг положения равновесия.

ЭТО ИНТЕРЕСНО:  Candy чья фирма какой страны

Если кусок металла находится в поле тяготения (например, поднят над поверхностью Земли), то потенциальная энергия каждого атома в металле приблизительно равна потенциальной энергии других атомов, и связанная с этой энергией энтропия низка. Это отличает потенциальную энергию от кинетической, которая для теплового движения может сильно меняться от атома к атому.

Если кусок металла, поднятый на некоторую высоту, отпустить, то его потенциальная энергия будет переходить в кинетическую энергию, но энтропия возрастать практически не будет, потому что все атомы будут двигаться приблизительно одинаково. Но когда кусок упадёт на землю, во время удара атомы металла получат случайное направление движения, и энтропия резко увеличится. Кинетическая энергия направленного движения перейдёт в кинетическую энергию теплового движения. Перед ударом мы приблизительно знали, как движется каждый атом, теперь мы эту информацию потеряли.

Понимаем второй закон термодинамики

Второй закон термодинамики утверждает, что энтропия (замкнутой системы) никогда не уменьшается. Мы теперь можем понять, почему: потому что невозможно внезапно получить больше информации о микросостояниях. Как только вы потеряли некую информацию о микросостоянии (как во время удара куска металла об землю), вы не можете вернуть её назад. Давайте вернёмся обратно к игральным костям.

Вспомним, что макросостояние с суммой 59 имеет очень низкую энтропию, но и получить его не так-то просто. Если бросать кости раз за разом, то будут выпадать те суммы (макросостояния), которым отвечает большее количество микросостояний, то есть будут реализовываться макросостояния с большой энтропией. Самой большой энтропией обладает сумма 35, и именно она и будет выпадать чаще других. Именно об этом и говорит второй закон термодинамики.

Любое случайное (неконтролируемое) взаимодействие приводит к росту энтропии, по крайней мере до тех пор, пока она не достигнет своего максимума.

Перемешивание газов

И ещё один пример, чтобы закрепить сказанное. Пусть у нас имеется контейнер, в котором находятся два газа, разделённых расположенной посередине контейнера перегородкой. Назовём молекулы одного газа синими, а другого — красными.

Если открыть перегородку, газы начнут перемешиваться, потому что число микросостояний, в которых газы перемешаны, намного больше, чем микросостояний, в которых они разделены, и все микросостояния, естественно, равновероятны. Когда мы открыли перегородку, для каждой молекулы мы потеряли информацию о том, с какой стороны перегородки она теперь находится.

Если молекул было N, то утеряно N бит информации (биты и символы, в данном контексте, это, фактически, одно и тоже, и отличаются только неким постоянным множителем).

Разбираемся с демоном Максвелла

Ну и напоследок рассмотрим решение в рамках нашей парадигмы знаменитого парадокса демона Максвелла. Напомню, что он заключается в следующем. Пусть у нас есть перемешанные газы из синих и красных молекул. Поставим обратно перегородку, проделав в ней небольшое отверстие, в которое посадим воображаемого демона. Его задача — пропускать слева направо только красных, и справа налево только синих.

Очевидно, что через некоторое время газы снова будут разделены: все синие молекулы окажутся слева от перегородки, а все красные — справа. Получается, что наш демон понизил энтропию системы. С демоном ничего не случилось, то есть его энтропия не изменилась, а система у нас была закрытой.

Получается, что мы нашли пример, когда второй закон термодинамики не выполняется! Как такое оказалось возможно? Решается этот парадокс, однако, очень просто. Ведь энтропия — это свойство не системы, а нашего знания об этой системе. Мы с вами знаем о системе мало, поэтому нам и кажется, что её энтропия уменьшается.

Но наш демон знает о системе очень много — чтобы разделять молекулы, он должен знать положение и скорость каждой из них (по крайней мере на подлёте к нему). Если он знает о молекулах всё, то с его точки зрения энтропия системы, фактически, равна нулю — у него просто нет недостающей информации о ней.

В этом случае энтропия системы как была равна нулю, так и осталась равной нулю, и второй закон термодинамики нигде не нарушился.

Но даже если демон не знает всей информации о микросостоянии системы, ему, как минимум, надо знать цвет подлетающей к нему молекулы, чтобы понять, пропускать её или нет.

И если общее число молекул равно N, то демон должен обладать N бит информации о системе — но именно столько информации мы и потеряли, когда открыли перегородку. То есть количество потерянной информации в точности равно количеству информации, которую необходимо получить о системе, чтобы вернуть её в исходное состояние — и это звучит вполне логично, и опять же не противоречит второму закону термодинамики.

Источник: https://habr.com/post/374681/

Что такое энтропия?

Физика > Что такое энтропия?

Читайте определение и значение энтропии в термодинамике: изменение энтропии в обратимом процессе, формулировка и формулы, цикл Карно, уравнения, обратимость.

Энтропия – мера беспорядка системы и недоступности энергии для осуществления работы.

Задача обучения

  • Определить изменение энтропии в системе с обратимым процессом.

Основные пункты

  • Соотношение Q/T – изменение энтропии ΔS для обратимого процесса: ΔS = (Q/T)rev.
  • Изменение энтропии (ΔS) между двумя состояниями остается таким же.
  • Полное изменение энтропии для системы с обратимым процессом приравнивается к нулю.

Термины

  • Обратимость – способность вернуться в начальное состояние без применения свободной энергии и увеличения энтропии.
  • Цикл Карно – теоретический процесс в термодинамике.

Определение энтропии

Само определение энтропии можно вывести из механизма Карно. Для цикла и любых обратимых процессов: Qc/Qh = Tc/Th. Из перестановки терминов получаем Qc/Tc = Qh/Th (Qc и Qh – абсолютные значения теплоотдачи при температурах Tc и Th). Отношение Q/T – изменение энтропии ΔS для обратимого процесса:

ΔS = (Q/T)rev,

(Q – теплопередача, выступающая положительной для переноса тепла и отрицательной для теплопередачи, а T – абсолютная температура для обратимого процесса).

Единица энтропии – Дж/К. Если во время процесса в температуре происходят изменения, то Т – средняя температура и не нуждается в применении ΔS.

Использование ΔS оправдывается только в обратимых процессах, например, в двигателе Карно. Но для реальных механизмов ΔS можно опустить. Дело в том, что энтропия зависит исключительно от состояния системы. Она останется одинаковой и не зависит от того, как именно произошло изменение. Нам всего лишь необходимо отыскать обратимый процесс и вычислить ΔS.

Когда система меняет состояние, энтропия меняется на ту же величину ΔS, независимо от того, был ли это обратимый или необратимый процесс

Пример

Давайте взглянем на изменения в двигателе Карно и его тепловых резервуарах в полноценном цикле. Горячий резервуар теряет энтропию: ΔSh = -Qh/Th. У холодного коэффициент – ΔSc = Qc/Tc. Выходит, что полное изменение энтропии:

Здесь используются исключительно обратимые изотермические и адиабатические процессы. Теплообмен Qh поступает в рабочее вещество в период изотермического пути АВ при стабильной температуре Th. Теплопередача осуществляется во время изотермического пути CD при температурной отметке Tc. Тогда W равно площади внутри пути – ABCDA. Также отображена схема двигателя Карно, функционирующего между горячими и прохладными резервуарами при показателях Th и Tc

ΔStot = ΔSh + ΔSc.

Мы знаем, что Qh/Th = Qc/Tc для двигателя Карно, поэтому:

ΔStot = -Qh/Th + Qc/Tc = 0.

Это значит, что полное изменение энтропии в любом обратимом процессе приравнивается к нулевому показателю.

Читайте нас на Яндекс.Дзен

Источник: https://v-kosmose.com/fizika/chto-takoe-entropiya/

Энтропия — что это такое: объяснение простыми словами, значение термина в разных областях науки, примеры | tvercult.ru

Что такое энтропия? Этим словом можно охарактеризовать и объяснить почти все процессы в жизни человека (физические и химические процессы, а также социальные явления). Но не все люди понимают значение этого термина и уж тем более не все могут объяснить, что это слово значит. Теория сложна для восприятия, но если добавить в неё простые и понятные примеры из жизни, то разобраться с определением этого многогранного термина будет легче. Но обо всём по порядку.

  • Энтропия: определение и история появления термина
  • История появления термина
  • Определение термина из Википедии
  • Виды энтропий
  • В физической химии (термодинамике)
  • В экономике
  • В статистической физике или теории информации
  • В социологии
  • Энтропия: тезисно и на примерах
  • В заключение

Определение термина из Википедии

Этот термин долгое время использовался только в механической теории тепла (термодинамике), для которой оно вводилось. Но со временем это определение перешло в другие области и теории. Существует несколько определений термина «энтропия».

Википедия даёт краткое определение для нескольких областей, в которых этот термин используется:«Энтропия (от др.-греч. ἐντροπία «поворот»,«превращение») — часто употребляемый в естественных и точных науках термин. В статистической физике характеризует вероятность осуществления какого-либо макроскопического состояния. Помимо физики, этот термин широко используется в математике: теории информации и математической статистике».

Виды энтропий

Этот термин используется в термодинамике, экономике, теории информации и даже в социологии. Что же он определяет в этих областях?

В физической химии (термодинамике)

Основной постулат термодинамики о равновесии: любая изолированная термодинамическая система приходит в равновесное состояние с течением времени и не может из него выйти самопроизвольно. То есть каждая система стремится в равновесное для неё состояние. И если говорить совсем простыми словами, то такое состояние характеризуется беспорядком.

Энтропия — это мера беспорядка. Как определить беспорядок? Один из способов — приписать каждому состоянию число вариантов, которыми это состояние можно реализовать. И чем больше таких способов реализации, тем больше значение энтропии. Чем больше организованно вещество (его структура), тем ниже его неопределённость (хаотичность).

Абсолютное значение энтропии (S абс.) равно изменению имеющейся у вещества или системы энергии во время теплопередачи при данной температуре. Его математическая величина определяется из значения теплопередачи (Q), разделённого на абсолютную температуру (T), при которой происходит процесс: S абс. = Q / T. Это означает, что при передаче большого количества теплоты показатель S абс. увеличится. Тот же эффект будет наблюдаться при теплопередаче в условиях низких температур.

В экономике

В экономике используется такое понятие, как коэффициент энтропии. С помощью этого коэффициента исследуют изменение концентрации рынка и её уровень. Чем выше значение коэффициента, тем выше экономическая неопределённость и, следовательно, вероятность появления монополии снижается. Коэффициент помогает косвенно оценить выгоды, приобретённые фирмой в результате возможной монопольной деятельности или при изменении концентрации рынка.

В статистической физике или теории информации

Информационная энтропия (неопределённость)— это мера непредсказуемости или неопределённости некоторой системы. Эта величина помогает определить степень беспорядочности проводимого эксперимента или события. Чем больше количество состояний, в которых может находиться система, тем больше значение неопределённости. Все процессы упорядочивания системы приводят к появлению информации и снижению информационной неопределённости.

С помощью информационной непредсказуемости можно выявить такую пропускную способность канала, которая обеспечит надёжную передачу информации (в системе закодированных символов).

А также можно частично предсказывать ход опыта или события, деля их на составные части и высчитывая значение неопределённости для каждой из них. Такой метод статистической физики помогает выявить вероятность события.

С его помощью можно расшифровать закодированный текст, анализируя вероятность появления символов и их показатель энтропии.

Существует такое понятие, как абсолютная энтропия языка. Эта величина выражает максимальное количество информации, которое можно передать в единице этого языка. За единицу в этом случае принимают символ алфавита языка (бит).

В социологии

Здесь энтропия (информационная неопределённость) является характеристикой отклонения социума (системы) или его звеньев от принятого (эталонного) состояния, а проявляется это в снижении эффективности развития и функционирования системы, ухудшении самоорганизации.

Простой пример: сотрудники фирмы так сильно загружены работой (выполнением большого количества отчётов), что не успевают заниматься своей основной деятельностью (выполнением проверок).

В этом примере мерой нецелесообразного использования руководством рабочих ресурсов будет являться информационная неопределённость.

Энтропия: тезисно и на примерах

  • Чем больше способов реализации, тем больше информационная неопределённость.

Пример 1. Программа Т9. Если в слове будет небольшое количество опечаток, то программа легко распознает слово и предложит его замену. Чем больше опечаток, тем меньше информации о вводимом слове будет у программы. Следовательно, увеличение беспорядка приведёт к увеличению информационной неопределённости и наоборот, чем больше информации, тем меньше неопределённость.

Пример 2. Игральные кости. Выкинуть комбинацию 12 или 2 можно только одним способом: 1 плюс 1 или 6 плюс 6. А максимальным числом способов реализуется число 7 (имеет 6 возможных комбинаций). Непредсказуемость реализации числа семь самая большая в этом случае.

  • В общем смысле энтропию (S) можно понимать как меру распределения энергии. При низком значении S энергия сконцентрирована, а при высоком — распределена хаотично.

Пример. Н2О (всем известная вода) в своём жидком агрегатном состоянии будет обладать большей энтропией, чем в твёрдом (лёд).

Потому что в кристаллическом твёрдом теле каждый атом занимает определённое положение в кристаллической решётке (порядок), а в жидком состоянии у атомов определённых закреплённых положений нет (беспорядок).

То есть тело с более жёсткой упорядоченностью атомов имеет более низкое значение энтропии (S). Белый алмаз без примесей обладает самым низким значением S по сравнению с другими кристаллами.

  • Связь между информацией и неопределённостью.

Пример 1. Молекула находится в сосуде, который имеет левую и правую часть.

Если неизвестно, в какой части сосуда находится молекула, то энтропия (S) будет определяться по формуле S = S max = k * lgW, где k -число способов реализации, W- количество частей сосуда. Информация в этом случае будет равна нулю I = I min =0.

Если же точно известно, в какой части сосуда находится молекула, то S = S min =k*ln1=0, а I = I max= log 2 W. Следовательно, чем больше информации, тем ниже значение информационной неопределённости.

Пример 2. Чем выше порядок на рабочем столе, тем больше информации можно узнать о вещах, которые на нём находятся. В этом случае упорядоченность предметов снижает энтропию системы «рабочий стол».

Пример 3. Информация о классе больше на уроке, чем на перемене. Энтропия на уроке ниже, так как ученики сидят упорядочено (больше информации о местоположении каждого ученика). А на перемене расположение учеников меняется хаотично, что повышает их энтропию.

  • Химические реакции и изменение энтропии.

Пример. При реакции щелочного металла с водой выделяется водород. Водород-это газ. Так как молекулы газа движутся хаотично и имеют высокую энтропию, то рассматриваемая реакция происходит с увеличением её значения. То есть энтропия химической системы станет выше.

В заключение

Если объединить всё вышесказанное, то получится, что энтропия является мерой беспорядка или неопределённости системы и её частей. Интересен тот факт, что всё в природе стремится к максимуму энтропии, а человек — к максимуму информации. И все рассмотренные выше теории направлены на установление баланса между стремлением человека и естественными природными процессами.

Источник: https://tvercult.ru/nauka/entropiya-chto-eto-takoe-obyasnenie-termina-prostyimi-slovami

Понравилась статья? Поделиться с друзьями:
Дом холодильников