Рейтинговые книги
Читем онлайн Эволюционизм. Том первый: История природы и общая теория эволюции - Лев Кривицкий

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 341 342 343 344 345 346 347 348 349 ... 683

18.3. Эволюционное содержание информатики

Информатика возникла в 60-е годы XX века как часть кибернетики. Её создание было связано с развитием вычислительной техники, появлением первых компьютеров, созданием высокоскоростных линий связи. К основателям информатики принадлежали Норберт Винер, Клод Шеннон и Уильям Росс Эшби.

Н. Винер почти одновременно с К. Шенноном разработал статистическую теорию количества информации, заложил основы теории управления, в которой ключевую роль придавал приёму, передаче, хранению, переработке и использованию информации, а также прямым и обратным связям с использованием каналов поступления информации от источника к приёмнику. Винер первым отождествил информацию с отрицательной энтропией, что имело фундаментальное значение не только для становления информатики, но и для зарождения впоследствии эволюционной физики.

Вслед за Винером К. Шеннон в 1948 г. (в котором вышла книга Винера «Кибернетика») разработал количественный способ измерения потока информации, содержащегося в одном случайном объекте. При этом информация была интерпретирована как устранение (или, выражаясь философским языком, как снятие) неопределённости. Минимальный шаг в устранении неопределённости был связан Шенноном с различением между двумя знаками, например, между нулём и единицей. Поэтому для оперирования информацией и её передачи была использована двоичная система счисления, и каждое сообщение предлагалось разъять на последовательно поступающие сигналы, различие между которыми проводилось наиболее чётко и недвусмысленно путём разграничением между нулём и единицей. Соответственно было предложено измерять количество информации в минимальных шагах по снятию неопределённости, которые были названы битами. Шеннон произвёл это название от английских слов «бинари дигит», что означает «двоичная система». В качестве более крупной единицы количества информации был введён байт – набор из 8 бит, т. е. количество информации в четырёх двоичных разрядах.

Весьма характерно, что Шеннон называл созданную им теорию информации теорией связи. При создании этой теории он абстрагировался от смысла и ценности информационных сообщений, представив информацию в виде двоичных кодов для передачи её по каналам связи. Практическое значение теории Шеннона заключалось прежде всего в преодолении помех, которые неизбежно возникают при передаче даже чётко различимых сигналов от источника к получателю информации, её адресату. Помехи, или информационный шум, возникают при передаче сигналов постоянно, они являются следствием энтропии, т. е. хаотического, несвязного движения молекул, атомов и элементарных частиц на микроуровнях, а также вторжения различных посторонних физических воздействий извне (например, радиоволн) на макроуровне.

Система передачи сигналов становится уязвимой именно в результате кодирования сообщений, их разъятия на чётко определённые коды. При этом теряется, как бы погружается в непроницаемый «чёрный ящик» смысл сообщения, позволяющий интеллекту человека восстанавливать первоначальный текст по некоторым достаточно существенным деталям. Поступление в передаваемый по каналу связи поток информации посторонних сигналов сразу же затрудняет дешифровку сообщений именно вследствие неразличимости по смыслу полезной информации и шума. Возникает определённый предел допустимого шума, за порогом которого распознавание декодированных сообщений резко снижается либо даже становится невозможным. Нарастание неопределённости в связи с образованием помех требует решения проблемы передачи информации наиболее определённым образом с целью минимизации поступления помех и их максимального устранения. Для этого необходимо либо разработать и установить различные типы фильтров для создания препятствий поступлению помех, либо повысить надёжность передаваемых сигналов путём их повторения в определённом количестве раз. Последний способ наиболее действен, но при его применении происходит снижение скорости передачи информации в столько же раз, во сколько необходимо увеличить число повторений.

К. Шеннон разработал математический аппарат для достижения оптимального сочетания между повторением сигналов и скоростью передачи информации, обеспечиваемой проходимостью каналов связи. Для характеристики количества повторений и для предотвращения искажений и потерь информации под воздействием шума Шеннон ввёл понятие избыточности информации.

Одним из главных достижений теории К. Шеннона была физикализация процессов оперирования информацией и рассмотрение физической стороны информационных процессов. «Основная идея теории связи, – писал он, – состоит в том, что с информацией можно обращаться почти так же, как с такими физическими величинами, как масса и энергия» (Шеннон К. Современные достижения теории связи – В кн.: Работы по теории информации и кибернетике – М.: ИЛ, 1963 – 669 с., с. 404). Главным героем научных произведений Шеннона стал сигнал как физический объект, способный передаваться по каналам связи и оказывать управленческие воздействия на сложные системы. Тем самым был открыт путь к изучению роли информации в физических процессах, в образовании порядка, в космической эволюции в целом. По мысли американского физика и информатика французского происхождения Леона Бриллюэна, теория информации оказывается одним из самых мощных средств исследования, одним из самых надёжных проводников, ведущих нас, подобно ариадниной нити, сквозь лабиринт «гносеологических наслоений» современного научного познания (Бриллюэн Л. Научная неопределённость и информация – М.: Мир, 1966 – 484 с., с. 12)

Следующий важный шаг в развитии информатики был сделан английским психиатром, биологом и нейрокибернетиком Уильямом Россом Эшби. Эшби ввёл понятие уровня организации системы, предложив формулу количественного выражения такого уровня как отношения между информационной энтропией для равновероятных состояний и информационной энтропией для неравновероятных состояний.

Формула Эшби позволила оценивать уровни организации сложных систем, введя для такой оценки чёткие количественные критерии. Она обеспечила возможность измерять уровень организации любой материальной системы, определять количественные различия между вероятностными и детерминированными системами. Появилась возможность количественно характеризовать степень упорядоченности как материальной, так и информационной системы, сравнивать по степени упорядоченности различные системы и определять изменения степени упорядоченности каждой системы, прослеживать динамику изменения степени упорядоченности. Связывая информированность с уровнем организованности и упорядоченности системы, Эшби в то же время рассматривал информацию как меру разнообразия, что соответствовало техническому, кибернетическому подходу к определению сущности информации.

Именно Эшби ввёл понятие и термин «самоорганизующиеся системы», задав тем самым первоначальный импульс к исследованиям процессов самоорганизации в неживой природе, которые в конечном счёте привели к созданию синергетики. Однако подход Эшби как кибернетика коренным образом отличался от подхода, который позднее нашёл воплощение в синергетике. Стремясь создать кибернетическую модель работы человеческого мозга, Эшби разработал техническую модель так называемого гомеостата, позволяющую имитировать восстановление постоянства внутренней среды живых организмов путём адаптации к изменениям среды с помощью системы обратных связей. Тем самым в качестве основы самоорганизации были признаны именно явления гомеостаза, т. е. воспроизведения относительного постоянства состояний сложной системы в ответ на разнообразные воздействия внешней среды. В синергетике же самоорганизация рассматривается в связи с резким выведением системы из состояния равновесия, удалением от стабильного состояния.

Кибернетический подход к исследованию и преобразованию информации связал информацию с управлением и организационным упорядочением сложных систем, привёл к рассмотрению информации как альтернативы энтропии, беспорядочному и бессвязному движению как в технических устройствах, так и в живой и неживой природе. Информация стала рассматриваться как средство управления техническими, физическими, химическими, биологическими и социальными процессами. Такой подход вызвал кризис самого понимания информации, её трактовки с мировоззренческих позиций. Дискуссии о природе информации начались в 60-е годы XX века и продолжаются до сих пор. Особую остроту они приобрели в 70-е годы XX столетия.

Так, в Советском Союзе, где давление коммунистической идеологии обеспечивало жёсткую привязку философского мышления к принципам и положениям «единственно верного учения», в 60-х – 70-х годах XX века развернулась бурная дискуссия об онтологическом статусе информации. При этом одни философы, опираясь на цитаты из классиков марксизма, доказывали невозможность объективного существования информации в неживой природе, признавали возможность такой информации лишь в отношении к мыслящему и воспринимающему субъекту. Другие, указывая на необходимость развивать диамат на базе новейших достижений естествознания, предлагали признать кибернетический подход к информации подтверждением диалектики. Обвиняя своих оппонентов в субъективизме, они рассматривали информационные процессы как существующие объективно, вне и независимо от человека, во всех сферах бытия – в живой и неживой природе, в обществе и человеческом мышлении. При этом они стремились опереться на марксистскую теорию отражения.

1 ... 341 342 343 344 345 346 347 348 349 ... 683
На этой странице вы можете бесплатно читать книгу Эволюционизм. Том первый: История природы и общая теория эволюции - Лев Кривицкий бесплатно.
Похожие на Эволюционизм. Том первый: История природы и общая теория эволюции - Лев Кривицкий книги

Оставить комментарий