Шрифт:
Интервал:
Закладка:
Если представить себе все возможные способы, которыми можно собрать атомы, то подавляющее большинство вариантов будут выглядеть как ржавые кучи. И гораздо меньшее число будет напоминать автомобиль. И даже среди последних, заглянув внутрь, вы, скорее всего, обнаружите ржавую кучу. Работающий автомобиль получится в исчезающе малом числе вариантов. Энтропия автомобиля и энтропия ржавой кучи как-то связаны с числом вариантов, которые будут восприниматься как автомобиль и как ржавая куча соответственно. Если перемешать атомы автомобиля, вы с гораздо большей вероятностью получите кучу ржавчины, потому что такая куча реализуется намного большим числом вариантов, чем автомобиль.
А вот другой пример. Обезьяна, стучащая по клавишам пишущей машинки, будет почти всегда печатать абракадабру. Очень редко ей удастся построить грамматически правильное предложение вроде такого: «Я хочу рассудить мою гипотенузу с помощью точки с запятой». Ещё реже у неё будет получаться осмысленная фраза вроде: «У короля Кнуда[61] была бородавка на подбородке». А ещё, если взять буквы осмысленного предложения, перемешать их и выложить друг за другом, как в игре «Эрудит», результат почти наверняка окажется абракадаброй. Причина? Существует гораздо больше бессмысленных последовательностей из двадцати или тридцати букв, чем тех, которые имеют смысл.
Английский алфавит содержит двадцать шесть букв, но есть и более простые системы письменности. Азбука Морзе — очень простая система, использующая всего два символа: точку и тире. Строго говоря, в ней три символа — точка, тире и пробел, — но всегда можно заменить пробел специальной последовательностью точек и тире, которая в других случаях вряд ли встретится. Если игнорировать пробелы, на описание короля Кнуда и его бородавки азбукой Морзе уходит в целом 110 знаков[62]:
Сколько различных сообщений азбукой Морзе можно составить из 110 точек и/или тире? Всё, что нужно, — это перемножить 110 двоек и получить 2110, что составляет примерно миллион миллиардов миллиардов миллиардов.
Когда информация кодируется с помощью двух символов — это могут быть точки и тире, единицы и нули или любые другие пары, — такие символы называются битами. Таким образом, в кодировке Морзе фраза «У короля Кнуда была бородавка на подбородке» представляет собой 110-битное сообщение. Если вы собираетесь читать эту книгу дальше, то было бы неплохо запомнить определение технического термина бит. Его значение отличается от того, что использовано во фразе: «За это он не раз бывал бит». Бит — это отдельная минимальная единица информации, подобно точкам или тире в азбуке Морзе.
Зачем нам эти трудности с переводом информации в точки и тире, нули и единицы? Почему не использовать последовательность 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, а ещё лучше буквы алфавита? Сообщения было бы проще читать, и они занимали бы гораздо меньше места.
Суть в том, что буквы алфавита (как и десять обычных цифр) — это человеческое изобретение, которые мы обучаемся распознавать и хранить в памяти. Но каждая буква или цифра несёт сразу много информации за счёт весьма тонкой разницы между буквами А и Б или цифрами 5 и 8. Телеграфисты и компьютерщики, которые полагаются только на простейшие математические правила, предпочитают — на самом деле они просто вынуждены — использовать двоичный код из точек и тире или нулей и единиц. Между прочим, когда Карл Саган разрабатывал систему для отправки сообщений негуманоидным цивилизациям, живущим в далёких планетных системах, он использовал двоичный код.
Вернёмся к королю Кнуду. Сколько из 110-битных сообщений будут связными? На самом деле я не знаю, возможно, несколько миллиардов. Но всё равно это — чрезвычайно малая доля от 2110. Так что почти наверняка если вы возьмёте 110 битов или 37 букв фразы «У короля Кнуда была бородавка на подбородке» и перемешаете их, результатом будет абракадабра. Вот что я получил, когда проделал это с фишками «Эрудита» (выкинув пробелы):
ОРКЫУРООЛО ДАДВЛБОНБРЕ ДКБКАУАОЯНАОКДПА
Допустим, вы перемешивали буквы совсем недолго. Сообщение лишь слегка утратит связность. «У кролоя Кнуда была бородавка а подбородкен». Но постепенно буквы будут превращаться во всё менее осмысленную мешанину. Бессмысленных комбинаций так много, что сползание к абракадабре неизбежно.
Теперь я могу дать определение энтропии. Энтропия — это мера числа вариантов, которые соответствуют некоему конкретному распознаваемому критерию. Если критерий состоит в наличии 110 битов, тогда число вариантов составляет 2110.
Но энтропия — это не само число вариантов, в данном случае — не 2110. Она равна просто 110 — числу раз, сколько надо помножить на себя двойку, чтобы получить количество вариантов. В математике количество перемножений двойки на себя, необходимое для получения определённого числа, называют логарифмом[63]. Так, 110 — это логарифм 2110. Энтропия, таким образом, — это логарифм числа вариантов.
Из 2110 возможностей лишь очень небольшая доля представляет собой осмысленные фразы. Допустим, что их миллиард. Чтобы получить миллиард, надо возвести двойку в 30-ю степень. Иными словами, миллиард — это около 230, или, что эквивалентно, логарифм миллиарда равен 30. Отсюда следует, что энтропия осмысленного предложения всего лишь около 30, что намного меньше 110. Бессмысленные цепочки символов, очевидно, имеют большую энтропию, чем комбинации, составляющие осмысленные фразы. Неудивительно, что энтропия возрастает, когда буквы перемешиваются.
Предположим, компания BMW подняла управление качеством до такого уровня, что все автомобили, сходящие с конвейера, абсолютно идентичны. Иными словами, допустим, что существует одна, и только одна комбинация атомов, которая может считаться истинным BMW. Какова будет её энтропия? Ответ — ноль. Когда такой BMW сходит с конвейера, в нём не будет никакой неопределённости. Когда задан единственный уникальный вариант, энтропии вообще нет.
Второе начало термодинамики, которое говорит, что энтропия возрастает, это просто утверждение, что с течением времени мы теряем контроль за деталями. Представьте, что мы уронили крохотную каплю чёрных чернил в ванну с тёплой водой. Вначале мы точно знаем, где находятся чернила. Число возможных конфигураций чернил не так велико. Но по мере того как мы следим за диффузией чернил в воде, мы всё меньше и меньше знаем о местоположении отдельных молекул чернил. Число вариантов, отвечающих тому, что мы видим, а именно в ванне с однородной, слегка посеревшей водой, становится колоссальным. Можно ждать и ждать, но мы не увидим, как чернила вновь соберутся в концентрированную каплю. Энтропия возрастает. Это второе начало термодинамики. Всё стремится к скучной однородности.
Вот ещё один пример — ванна, полная горячей воды. Как много мы знаем о воде в ванне? Предположим, что она налита в ванну достаточно давно и все заметные течения прекратились. Можно измерить количество воды в ванне (190 литров) и её температуру (32 градуса Цельсия). Но ванна заполнена молекулами вводы, и, очевидно, очень большое число вариантов размещения молекул соответствует заданным условиям — 190 литров воды при 32 градусах Цельсия. Мы сможем узнать намного больше, только если точно обмерим каждый атом.
Энтропия — это мера того, сколь много информации скрыто в деталях, которые по той или иной причине трудно наблюдать. Таким образом, энтропия — это скрытая информация. В большинстве случаев информация бывает скрыта, потому что касается вещей слишком малых, чтобы их увидеть, и слишком многочисленных, чтобы за ними уследить. В случае с водой в ванне это микроскопические подробности, касающиеся молекул воды: положение и движение каждой из миллиардов миллиардов миллиардов молекул воды в ванне.