Классическая наука, основанная Ньютоном, описывала простой и постижимый мир, состоящий их простых систем, которые можно было понять с помощью простых уравнений. Безусловно, это имело мало общего с тем миром, который обнаруживался за окнами физиков — но их это не особо тревожило: они бы его все равно не поняли.

Ученые всегда проявляли индифферентность к вопросам наподобие тех, которые задают дети: «Почему деревья выглядят так, а не иначе, почему облака похожи на уточек или ягнят, почему мир выглядит не так, как в наших книжках по геометрии?» Или точнее можно выразиться так: ученые не столько проявляли индифферентность, сколько осознавали, что не смогут ответить на подобные вопросы. Им были известны уравнения мира — но у них не было достаточно энергии, чтобы выполнить все подсчеты: если бы ее хватало, они бы их выполнили. Они бы, конечно, поняли, почему облака похожи на животных и вечерний туман придает облик эльфам и троллям…

Обычные вещи настолько сложны, что выполнять для них подсчеты не имеет смысла — во всяком случае, так говорят друг другу ученые. И предоставляют родителям и учителям попадаться в ловушки пытливых отроков.

Но компьютеры все изменили. Внезапно стало возможным выполнять полномасштабные вычисления — и стало очевидно, что даже самые простые уравнения поднимают на поверхность очень сложные решения. Хотя мир и описывается в простых формулах, которые выглядят такими же понятными, как примеры в наших учебниках, выяснилось, что эти формулы — и это при том, что мы еще не закончили вычисления — вдруг оказались исключительно сложными. Умные слова типа «хаос» и «фракталы» — не единственные рассказчики этой истории. Где бы в науке ни начали применяться компьютеры, выясняется, что мы можем генерировать очень сложные миры даже на основе самых простых формул.

Ох, ученые не могли и подумать, к каким моделям могут привести эти формулы — большинство систем оказались несокращаемыми с вычислительной точки зрения. Мы не имеем представления о структуре, пока не проведем вычисления по формуле. Этот феномен является вариацией теоремы Геделя — и очень глубокой. Мы можем рассматривать физические процессы как вычисления, которые превращают простые законы и несколько базовых условий в окончательный результат. Это значит, что многие сложности, которые возникли в теории вычислений, должны также появиться и в описании физического мира. Физические системы также являются несокращаемыми: мы не знаем, где они заканчиваются и заканчиваются ли вообще, пока не вычислим их в рамках самих этих систем. Нет ничего хорошего в грубых вычислениях, в которых мы, к примеру, игнорируем трение — в этом случае мы не узнаем, в каком направлении развивается система.

В 1985 году 24-летний американский физик Стивен Вольфрам написал: «Вычислительная несокращаемость часто наблюдается в системах, исследуемых в математической и вычислительной теории. Эта работа предполагает, что они встречаются также и в теоретической физике».

В течение сотен лет ученые верили, что у них в руках находятся формулы — и простые уравнения ведут к простому же поведению. Но оказалось, что эти формулы несокращаемы с вычислительной точки зрения. Никто не сможет знать их содержания, пока они не будут просчитаны — но никто не собирался высчитывать их в те дни, когда все вычисления выполнялись вручную.

Так что ученые решили ограничиться своими формулами — и закрыли глаза на мир, который находился у них за окном.

Но тем не менее однажды произошло кое-что серьезное. Из простоты вычислений, которая была дана нам компьютерами, появилась сложность. Простые вычисления выполнялись снова и снова в петле, которая известна как «итерация». Простые вычисления привели к огромной сложности, когда они были повторены достаточное количество раз, и когда на компьютерных мониторах по всему миру появилась сложность, ученые выглянули в окно и узрели знакомый вид.

Они поняли, что мир не делится на хорошо упорядоченные формулы и беспорядочный повседневный мир. Они тесно смыкаются! Беспорядок происходит из порядка — и это очень сложный и запутанный процесс.

Появилась новая область, и ученые ринулись в нее. Сложность стала уважаемым предметом даже для ученых. А инструментом для них стал компьютер. «Родилась новая парадигма», — написал Стивен Вольфрам.

Вольфрам установил повестку дня для ученых на ближайшие десятилетия. «Системы, поведение в которых является исключительно сложным, часто встречаются в природе — тем не менее их фундаментальные составляющие части по отдельности очень просты. Сложность создается совместным эффектом многочисленных идентичных компонентов. В физических и биологических системах уже было много открытий, касающихся природы их компонентов — но пока мало известно о механизмах, благодаря которым эти компоненты выступают вместе, создавая общую наблюдаемую сложность.»

Это территория между порядком и хаосом: огромный неоткрытый континент — континент сложности. Предпосылкой его открытия стало то, что мы хотим научиться лавировать между двумя полюсами нашего видения — порядок и случайность, контроль и сюрприз, карта и территория, наука и наша повседневная жизнь.

Нам необходимо проложить путь не просто между порядком и беспорядком в структуре вещей. Сложность возникает на полпути между предсказуемостью и непредсказуемостью, стабильностью и нестабильностью, периодичностью и случайностью, иерархическим и единообразным, открытым и закрытым. Между тем, что мы можем сосчитать и тем, что не можем.

Сложность — это то, что не тривиально. То, что не скучно. То, что мы можем интуитивно ощущать — но не в состоянии выразить.

Все это может казаться очевидным — но самое любопытное то, что прошло не так много лет с тех пор, как влиятельный в международном масштабе и исключительно информированный немецкий физик Петер Грассбергер из Университета Вупперталя вынужден был признать: не существует точного понимания того, что вообще представляет собой сложность.

На 16-ой Международной конференции по термодинамике и статистической механике в Бостоне в августе 1986 года он сказал: «Мы столкнулись с загадкой, что никакая признанная мера сложности не может, к примеру, подтвердить, что музыка Баха является более сложной, нежели случайная музыка, написанная обезьяной».

Единственная общепризнанная мера сложности, к которой в то время мог обратиться Грассбергер — это сложность Холмогорова. Это понятие, которое пришло от одного из трех джентльменов, представленных в предыдущей главе книги со своей алгоритмической информационной теорией.

В 60-е годы Андрей Холмогоров предположил, что сложность объекта может быть измерена путем оценки длины самого короткого описания этого объекта, то есть смой короткой из всех возможных последовательностей бинарных чисел, представляющих этот объект. Холмогоров предположил, что чем длиннее будет это самое короткое объяснение, тем большей степенью сложности обладает объект. Но, конечно, это значит всего лишь то, что случайная последовательность обладает наибольшей сложностью, так как случайность не может быть выражена в более краткой форме.

Холмогоров приравнял сложность к случайности, а, следовательно, и сложность к информации. Это не самая лучшая идея, так как благодаря ей обезьяна, с сумасшедшим усердием барабанящая по клавишам, порождает больше сложности, чем творения Иоганна Себастьяна Баха.

Таким образом, с сложностью Холмогорова что-то было явно не так.

Но в то же время эта мера является самой привычной. И потому в 1986 году возникла проблема. «Интуитивное представление о сложности структуры не совпадает с единственным объективным определением сложности любой специфической структуры, которое видится возможным (имеется в виду определение Холмогорова)», — объясняет Грассбергер. — Это загадка, известная уже в течение определенного времени, хотя создается впечатление, что в печатном виде она появилась только недавно».

Бернардо Хуберман и Тад Хорр, ученые в исследовательском центре Rank Xerox, Пало Альто, Калифорния, в 1985 году указали, что сложность должна лежать где-то между порядком и беспорядком, и, следовательно, ее невозможно измерить в качестве алгоритмической сложности информации. Они предложили другой способ измерения сложности, который предполагал, что она является наибольшей в системах, в которых не слишком много и не слишком мало порядка.

Грассбергер позже осознал, что подход Хубермана и Хогга был не нов: еще в 1962 году его выразил Херберт А. Саймон, один из основателей исследований искусственного интеллекта.

Тем не менее нам не придется возвращаться во времени дальше 1986 года за тем, что ведущий международный физик вроде Питера Грассберга признал полной новинкой предположение о том, что сложность лежит между порядком и хаосом и что она довольно существенно отличается от случайности, которая измеряется информацией Шеннона.

Тем не менее перед тем, как лекция 1986 года была напечатана, Грассбергер, один из самых благородных представителей физики, демонстрировавший вежливость и скромность, в доказательной части прибавил извинения: «В то время, когда я писал это, к сожалению, я не был знаком с понятием С.Х. Беннетта о «логической глубине».

А в предыдущем году произошел великий прорыв в изучении сложности.

«У меня есть критерий смысла», — робко высказался Чарльз Беннетт во время обеда в «Паскале» в Санта Фе в апреле 1990 года. Беннета и его близкого коллегу из IBM Рольфа Ландауэра попросили объяснить, что исследования вычислительной теории могли бы рассказать о нашей повседневной жизни.


Перейти на страницу:
Изменить размер шрифта: