Неравновесная термодинамика

Неравновесные системы характеризуются не только термодинамическими параметрами, но и скоростью их изменения во времени и в пространстве, которая определяет потоки (процессы переноса) и термодинамические силы (градиент температуры, градиент концентрации и др.).

Появление потоков в системе нарушает статистическое равновесие. В любой физической системе всегда происходят процессы, старающиеся вернуть систему в состояние равновесия. Происходит как бы противоборство между процессами переноса, нарушающими равновесие, и внутренними процессами, старающимися его восстановить.

Процессы в неравновесных системах обладают следующими тремя свойствами:

1. Процессы, приводящие систему к термодинамическому равновесию (восстановление), происходят тогда, когда нет особых факторов, сохраняющих неравновесное состояние внутри самой системы. Если исходное состояние сильно неравновесно, а на фоне общего стремления системы к равновесию рождаются представляющие большой интерес подсистемы, в которых энтропия локально уменьшается, то возникают локальные подсистемы, где упорядоченность повышается. При этом общее возрастание для всей системы во много раз больше. В изолированной системе локальное уменьшение энтропии, конечно, является временным. В открытой же системе, через которую длительное время протекают мощные потоки, снижающие энтропию, могут возникнуть какие-то упорядоченные подсистемы. Они могут существовать, изменяясь и развиваясь, очень долго (пока не прекратятся питающие их потоки).

2. Рождение локальных состояний с низкой энтропией приводит к ускорению общего роста энтропии всей системы. Благодаря упорядоченным подсистемам вся система в целом движется быстрее ко все более неупорядоченным состояниям, к термодинамическому равновесию.

Наличие упорядоченной подсистемы может в миллионы и более раз ускорить выход всей системы из «благополучного» метастабильного состояния. В природе ничего «даром» не дается.

3. Упорядоченные состояния представляют собой диссипативные структуры, которые требуют для своего становления большого притока энергии. Такие системы реагируют на малые изменения внешних условий более чутко и более разнообразно, чем термодинамическое равновесное состояние. Они могут легко разрушаться или же превращаться в новые упорядоченные структуры.

Возникновение диссипативных структур носит пороговый характер. Неравновесная термодинамика связала пороговый характер с неустойчивостью. Новая структура всегда является результатом неустойчивости и возникает из флуктуации.

Выдающейся заслугой неравновесной термодинамики является установление того, что самоорганизация присуща не только «живым системам». Способность к самоорганизации является общим свойством всех открытых систем, у которых возможен обмен энергией с окружающей средой. При этом именно неравновесность служит источником упорядоченности.

Этот вывод является основным тезисом для круга идей группы И. Пригожина.

Совместимость второго начала термодинамики со способностью систем к самоорганизации – одно из крупнейших достижений современной неравновесной термодинамики.

Энтропия и вещество. Изменение энтропии в химических реакциях

При повышении температуры растет скорость различных видов движения частиц. Отсюда число микросостояний частиц, а соответственно и термодинамическая вероятность W, и энтропия вещества растут. При переходе вещества из твердого состояния в жидкое увеличивается неупорядоченность частиц и соответственно энтропия (ΔSплавл). Особенно резко растет неупорядоченность и соответственно энтропия при переходе вещества из жидкого состояния в газообразное (ASкипен). Энтропия увеличивается при превращении кристаллического вещества в аморфное. Чем выше твердость вещества, тем меньше его энтропия. Увеличение атомов в молекуле и усложнение молекул ведет к увеличению энтропии. Энтропия измеряется в Кал/моль·К (энтропийная единица) и в Дж/моль·К При расчетах применяют значения энтропии в так называемом стандартном состоянии, то есть при 298,15 К (25 °C). Тогда энтропию обозначают S298. Например, энтропия кислорода 03S298 = 238,8 ед. э., а 02S298 = 205 ед. э.

Абсолютные значения энтропии многих веществ являются табличными и приведены в справочниках. Например:

Н20(ж) = 70,8; Н20(г) = 188,7; СО(г) = 197,54;

СН4(r) = 186,19; Н2(г) = 130,58; НС1(г) = 186,69; НСl(р) = 56,5;

СН30Н(ж) = 126,8; Са(к) = 41,4; Са(ОН)2(к) = 83,4; С(алмаз) = 2,38;

С(графит) = 5,74 и т. д.

Примечание: ж – жидкость, г – газ, к – кристаллы; р – раствор.

Изменение энтропии системы в результате химической реакции (ΔS) равно сумме энтропий продуктов реакции за вычетом энтропий исходных веществ. Например:

СН420(г) = С0 + 3Н2– здесь ΔS298 = Sco.298 + 3SH2.298SH4.298SH2.298 =

197,54 = 3 · 130,58 – 188,19 – 188,7 = 214,39 Дж/моль · К.

В результате реакции энтропия возросла (AS > 0), возросло число молей газообразных веществ.

Информационная энтропия. Энтропия в биологии

Информационная энтропия служит мерой неопределенности сообщений. Сообщения описываются множеством величин x1, x2 xn, которые могут быть, например, словами: p1, p2…, pn. Информационную энтропию обозначают Sn или Hu. Для определенного дискретного статистического распределения вероятностей Pi используют следующее выражение:

Концепции современного естествознания i_028.png

при условии:

Концепции современного естествознания i_029.png

Значение Sn = 0, если какая-либо вероятность Pi = 1, а остальные вероятности появления других величин равны нулю. В этом случае информация достоверна, то есть неопределенность в информации отсутствует. Информационная энтропия принимает наибольшее значение, когда Pi равны между собой и неопределенность в информации максимальна.

Общая энтропия нескольких сообщений равна сумме энтропий отдельных сообщений (свойство аддитивности).

Американский математик Клод Шеннон, один из создателей математической теории информации, использовал понятие энтропии для определения критической скорости передачи информации и при создании «помехоустойчивых кодов». Такой подход (использование из статистической термодинамики вероятностной функции энтропии) оказался плодотворными в других направлениях естествознания.

Понятие энтропии, как показал впервые Э. Шредингер (1944 г.), а затем Л. Бриллюэн и др., существенно и для понимания многих явлений жизни и даже деятельности человека.

Теперь ясно, что с помощью вероятностной функции энтропии можно анализировать все стадии перехода системы от состояния полного хаоса, которому соответствуют равные значения вероятностей и максимальное значение энтропии, к состоянию предельно возможной упорядоченности, которому соответствует единственно возможное состояние элементов системы.

Живой организм с точки зрения протекающих в нем физико-химических процессов можно рассматривать как сложную открытую систему, находящуюся в неравновесном, нестационарном состоянии. Для живых организмов характерна сбалансированность процессов обмена, ведущих к уменьшению энтропии. Конечно, с помощью энтропии нельзя охарактеризовать жизнедеятельность в целом, так как жизнь не сводится к простой совокупности физико-химических процессов. Ей свойственны другие сложные процессы саморегуляции.


Перейти на страницу:
Изменить размер шрифта: