Критерием эволюции является принцип о минимальном производстве энтропии. Он указывает на то, что направленное развитие термодинамической системы происходит вне равновесного состояния и поддерживается слабыми, но постоянными силами. Когда система встречает препятствия к достижению идеального состояния минимального рассеяния, она начинает выбирать следующий наилучший путь и остается в состоянии минимального рассеяния и минимального производства энтропии. Т.е. самоорганизующаяся система появляется всегда, когда возможно "выжить" за счет своих кооперативных свойств при различных воздействиях или для того, чтобы лучше использовать окружающую среду [11-13]. Это можно считать обоснованием "целенаправленного" действия для любых самоорганизующихся систем.
Любое целенаправленное действие можно описать преобразованием (4):
где R - ресурсы, расходуемые на его осуществление; S - условия среды, в которой это действие происходит; Q - объект, или оператор, это действие осуществляющий и построенный согласно некоторому определенному плану, или информации, I - событие цели; w - "побочный продукт", сопровождающий осуществление Z; р и Р - вероятность осуществления Z спонтанно и/или при участии оператора Q. Мы видим, что единственное отличие целенаправленного действия от естественного течения событий состоит в том, что оператор Q, его совершающий, построен на основании данной информации. Только это приводит к тому, что в некоторой ситуации s вероятность осуществления Z при участии Q выше, чем в его отсутствие (Р>р). Яркий пример этому – размножение живых организмов. В отсутствие в данной среде s живых организмов они не способны возникать спонтанно, "самозарождаться", т. е. р=0 даже при самых подходящих внешних условиях. Размножение же живых существ в подходящих условиях среды происходит с вероятностью Р, близкой к единице.
Роль информации в явлении размножения первым отметил, пожалуй, Дж. фон Нейман [14]. Выступая в Калифорнийском технологическом институте на симпозиуме "Механизмы мозга в поведении" с лекцией "Общая и логическая теория автоматов" (1948 г.), он впервые предложил описание универсального самовоспроизводящего автомата. Дж. фон Нейман отметил, что такой воспроизводящийся автомат, по существу, имеет структуру, подобную структуре живых организмов. Мы можем добавить, что этот автомат можно рассматривать как устройство, призванное обеспечить размножение, или аутокатализ, кодирующей его информации. Автомат имеет блок, отвечающий за создание оператора Q и автомата следующего поколения на основе ресурсов R. В живой клетке этот блок организует "метаболизм", и через него осуществляется отбор наилучших образцов. Если посмотреть на автомат фон Неймана с этой точки зрения, то очевидно, что он – схематическое отображение любых информационных систем, устроенных так, чтобы они могли обеспечивать воспроизведение кодирующей их информации. Вирусы и одноклеточные живые существа, многоклеточные растения и грибы, многоклеточные животные, наконец, человек и человеческие сообщества – все это информационные системы, структура которых задается относящейся к ним информацией, а функция обеспечивает воспроизведение этой информации.
В процессе дублирования исходной информации или при передаче ее из одного автомата в другой она может претерпеть изменения, и возможны три последствия: 1) либо новый автомат не сможет воспроизвести самого себя, и вся система погибнет; 2) либо автомат начнет "неправильно работать" и будет производить обреченных на гибель уродцев; 3) либо эти изменения окажутся жизнеспособными, и возникнет новый автомат, воспроизводящий новую, измененную информацию.
Как мы видели, самовоспроизведение автомата Q и кодирующей его информации I всегда и неизбежно сопровождается появлением "побочных продуктов" w. Это результат того факта, что КПД любого материального процесса не может превысить 1, а точнее – всегда остается меньше 1. Любое действие всегда сопровождается появлением "побочных продуктов", от диссипации энергии до накопления в окружающей среде различных "отходов производства", возникающих в ходе построения Q. Любая информационная система, таким образом, в ходе своего функционирования, направленного на ее самовоспроизведение, неизбежно изменяет окружающую среду 5 путем истощения ее ресурсов R и накопления в ней "побочных продуктов" w.
Здесь мы можем вспомнить Н.Винера [15]: "Информация – это обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему". Но чтобы не придавать информации антропоморфный оттенок, что проступает у Н. Винера, можно предложить несколько иное определение. А именно: информацией можно назвать алгоритм построения системы, обеспечивающей воспроизведение этой информации, функционально связанной со средой своего местоположения. При этом следует подчеркнуть, что обеспечение воспроизведения информации – обязательный и необходимый атрибут любой информационной системы. Ведь система, не отвечающая этому требованию, неизбежно "выбывает из игры", а кодирующая ее информация разрушается и бесследно исчезает. Именно исчезает, а не переходит во что-то другое, – ведь "информация есть информация, а не материя и не энергия" [15], и законы сохранения на нее не распространяются [16].
Остановимся коротко на структуре информационных систем и носителях информации.
После публикации работы К. Шеннона [1] понятие "информация" было очень быстро вытеснено понятием "количество информации". За "количество информации", согласно формуле (1), принимали логарифм величины, обратной вероятности осуществления какого-либо события. Такую подмену понятий стали использовать очень широко. Такой подход привел к отрыву понятия "информация" от семантики, или содержания сообщений, искони ему присущего. Подчеркнем, что в данном примере мы не можем выделить смысл (семантику) сообщения, не взяв для этого всех букв текста, являющихся носителями информации.
Рассмотрим пример информационных процессов из газодинамики (подробно см. [3]). В общем случае поведение разреженного газа описывается кинетическим уравнением Больцмана (5):
где f – локальная функция распределения частиц по скоростям, a St(f) – член столкновения между атомами. Если столкновения часты, то функция распределения становится максвелловской и зависит от п, Т, и – локальных значений плотности, температуры и средней скорости. Если эти переменные являются функциями координат и времени, то уравнение Больцмана превращается в систему
где p = nT.
Увеличение члена столкновений St(f) выделило набор величин n, Т, u, которые стали динамическими переменными. Их можно назвать параметрами порядка.
Мы дали описание открытой системы, далекой от равновесия. Если мы пойдем по пути усложнения системы, то заметим, что можно выделить часть, более тонко реагирующую на возмущения. Ее можно назвать управляющей, информационной частью, передающей сигналы в динамическую часть.
Теперь перейдем к генетической информации, носителями которой являются молекулы ДНК. Слова "ДНК", "гены", "наследственная информация" стали настолько привычными, что нередко воспринимаются как синонимы. В действительности это далеко не так. Гигантская по длине молекула ДНК состоит из четырех типов "кирпичиков", или нуклеотидов, которые могут быть соединены в любой последовательности. Эти молекулы обладают свойством, которое Г. Меллер назвал аутокатализом. Если в раствор, содержащий такие молекулы, внести в должном количестве все четыре нуклеотида (основания), то при соблюдении некоторых дополнительных условий эти молекулы начнут пристраивать основания вдоль своей цепи точно в той же последовательности, как и в них самих, а затем отделять от себя готовые копии. Процесс этот не зависит от того, какова последовательность оснований, составляющих исходные молекулы ДНК. Это может быть случайная последовательность, или строго чередующаяся, или любая иная – копии будут всегда похожи на оригинал, если не произойдет мутации, т. е. случайной замены, вставки или выпадения одного или нескольких оснований.