Главная > Математика > Наука и теория информации
<< Предыдущий параграф
Следующий параграф >>
<< Предыдущий параграф Следующий параграф >>
Макеты страниц

ВВЕДЕНИЕ

Новая территория была завоевана для науки с появлением в недавнее время теории информации. Это открытие создало новую область, немедленно привлекшую разведчиков и исследователей. Это интересное явление в истории науки, и такое внезапное расширение области научного исследования заслуживает более пристального рассмотрения. Как это случилось? Как далеко это идет? И где оно может продолжать распространяться? Означает ли это вторжение науки на территорию, принадлежащую по традиции философии, или это есть открытие новой страны, своего рода «ничейной земли», которая ускользала от прежних исследований?). Мы разберем все эти вопросы и дадим на них ответ.

Прежде всего, что такое информация? Заглянем в словарь Вебстера: «Сообщение, или получение знаний или сведений. Факты, приготовленные для сообщения, в отличие от тех, которые воплощены в мысли или знании. Данные, новости, сведения, знания, полученные путем изучения или наблюдения...». Мы можем установить, что информация есть сырой материал и состоит из простого собрания данных, тогда как знание предполагает некоторое размышление и рассуждение, организующее данные путем их сравнения и классификации. Следующий шаг приводит к научному знанию и формулировке научных законов.

Каким образом можно сформулировать научную теорию информации? Прежде всего, нужно начать с точного определения. Наука начинается, когда значения слов четко разграничены. Слова могут быть выбраны из существующего словаря, либо могут быть созданы новые слова, но все они

должны получить новое определение, исключающее недоразумения и двусмысленность в пределах того раздела науки, где они применяются.

Может случиться, что одно и то же слово имеет различные значения в двух различных отраслях науки: слово корень имеет одно ясно определенное значение для изучающего алгебру и другое столь же специфическое значение для ботаника. Однако опасность смешения при столь удаленных областях невелика. Алгебраические корни не растут, а корни ботаника никогда не бывают мнимыми. Эта единственность значения слов характерна для научного метода. Так как сходные определения введены учеными всех стран, то перевод облегчается однозначным соответствием научных словарей. Если бы такое положение преобладало в повседневной практике, то международное взаимопонимание было бы много легче осуществить!

Рядовой человек испытывает беспокойство, когда обычные слова применяются в новом научном определении, и он склонен называть эту практику научным жаргоном. Но жаргоны применяются, как правило, в любой специальной области — в богословии и в философии так же, как и в технике. Рядовой читатель не может понять язык специалистов, так как он недостаточно знаком с обсуждаемыми вопросами.

Точное определение слов в научном языке обычно основано на двух различных методах. В математике определение начинается с некоторого числа тщательно отобранных и сформулированных постулатов; более сложные сущности выводятся из этих постулатов и выражаются через них. Новые определения равносильны словесному переводу формул, данных в символической форме и основанных на постулатах. Экспериментальные науки ввели другой тип определения, часто называемый операционным (operational). Сила, масса, скорость и т. д. определяются кратким описанием эксперимента, необходимого для измерения этих величин. Операционная точка зрения в экспериментальных науках настойчиво рекомендуется многими выдающимися учеными, и имя П. Бриджмена часто упоминается в этой связи. Как правило, считается целесообразным вводить в научный язык только те величины, которые могут быть определены операционно. Слова, не поддающиеся операционному определению, обычно в конце концов признаются не заслуживающими доверия и исключаются

из научного словаря. Вспомним, например, эфир, и как теория относительности лишила этот термин смысла.

Возвращаясь к теории информации, мы должны начать с точного определения слова информация. Мы рассматриваем задачу с некоторым числом возможных ответов, если мы не имеем специальной информации о действительном положении. Если окажется, что мы располагаем некоторой информацией о задаче, то число возможных ответов уменьшается, а полная информация может даже оставить нам лишь единственный возможный ответ. Информация есть функция отношения числа возможных ответов до и после (получения информации), и мы выбираем логарифмический закон для обеспечения аддитивности информации, содержащейся в независимых ситуациях. Эти задачи и определения обсуждаются в главе 1 и составляют основу новой теории.

Методы этой теории могут с успехом применяться ко всем техническим проблемам, касающимся информации, как-то: кодирование, связь, вычислительные устройства и т. д. Во всех этих проблемах мы фактически перерабатываем информацию, или передаем ее из одного места в другое, и данная теория очень полезна для формулировки правил и установления точных пределов того, что может быть, а что не может быть сделано.

Но мы не в состоянии исследовать процесс мышления, и мы не можем в настоящее время ввести в нашу теорию какой-либо элемент, включающий человеческую оценку информации. Это исключение человеческого элемента является очень серьезным ограничением, но это есть та цена, которую мы должны были уплатить за возможность построения этой области научного знания. Введенные ограничения позволяют нам дать количественное определение информации и трактовать информацию как физически измеримую величину. Определение не может делать различия между очень важной информацией и новостью, не имеющей большой ценности для того, кто ее узнаёт.

Определение может показаться на первый взгляд искусственным, но в действительности оно практично и научно. Оно основано на собрании статистических данных о каждой обсуждаемой проблеме, и эти данные, поскольку они доступны, одинаковы для всех наблюдателей. Поэтому наше определение информации есть абсолютно объективное определение,

не зависящее от наблюдателя. С другой стороны, ценность информации является, очевидно, субъективным элементом, относящимся к наблюдателю. Информация, содержащаяся в некотором предложении, может иметь очень большое значение для меня и быть совершенно неинтересной для моего соседа. Заметка в газете может быть прочитана с некоторым интересом многими читателями, но теорема Эйнштейна не имеет ценности для рядового человека, тогда как она привлекает большое внимание физика.

Все эти элементы человеческой оценки игнорируются в настоящей теории. Это не означает, что они должны игнорироваться всегда, но в настоящее время они еще не исследованы и не классифицированы. По всей вероятности эти проблемы будут очередными в программе научных исследований, и можно надеяться, что они смогут обсуждаться с применением научных методов.

Теперешняя теория простирается на «ничейную землю» абсолютной информации, на проблемы, которые до сих нор не обсуждали ни ученые, ни философы. Когда мы дойдем до проблем ценности, то мы начнем уже вторгаться на территорию, принадлежащую философии. Сможем ли мы пересечь эту границу и раздвинуть пределы науки в этом направлении? Будущее ответит на этот вопрос).

Определение абсолютной информации имеет большое практическое значение. Исключение человеческого элемента как раз дает возможность ответить на целый ряд вопросов. Инженера, который конструирует телефонную систему, не интересует, будет ли она использована для передачи сплетен, биржевых цен или дипломатических сообщений. Техническая задача всегда одна и та же: передать информацию, какова бы она ни была, правильно и точно. Конструктор вычислительной машины не знает, будет она применяться для составления астрономических таблиц или для коммерческих расчетов. Исключение человеческой оценки информации — это как раз путь к ее научному обсуждению, не подверженному влиянию предвзятых мнений и эмоций.

Физика вступает в игру, когда мы обнаруживаем примечательное сходство между информацией и энтропией. Это сходство давно уже было отмечено Л. Силардом в его старой

работе 1929 г., которая является предшественницей данной теории. В этой работе Силард является поистине пионером на неизведанной территории, которую мы сейчас изучаем во всех направлениях. Он исследовал проблему демона Максвелла, которая является одним из важных вопросов, обсужденных в этой книге. Связь между информацией и энтропией была вновь открыта Шенноном в другом классе задач, и мы отводим много глав этому сравнению. Мы показываем, что информация должна рассматриваться как отрицательное слагаемое энтропии системы; короче говоря, информация есть негэнтропия.

Энтропия физической системы часто описывалась как мера случайности строения системы. Мы можем теперь сформулировать это положение несколько иначе: всякая физическая система не полностью определена. Мы знаем лишь значения некоторых макроскопических переменных, и мы не в состоянии определить в точности положения и скорости всех молекул, образующих систему. Мы имеем лишь скудную частичную информацию о системе, и большая часть информации о детальной структуре отсутствует. Энтропия есть мера недостатка информации; она выражает общее количество отсутствующей информации об ультрамикроскопической структуре системы.

Эта точка зрения определяется как негэнтропийный принцип информации и непосредственно ведет к обобщению второго начала термодинамики, так как энтропия и информация должны рассматриваться совместно и не могут трактоваться порознь. Этот негэнтропийный принпип информации будет подтвержден различными примерами в диапазоне от теоретической физики до повседневной жизни. Существенно показать, что любое наблюдение или эксперимент над физической системой автоматически ведет к увеличению энтропии лаборатории. После этого возможно сравнить потерю негэнтропии (увеличение энтропии) с количеством полученной информации.

Эффективность эксперимента может быть определена как отношение полученной информации к связанному с ней увеличению энтропии. Эта эффективность согласно обобщенному принципу Карно всегда меньше единицы. Примеры показывают, что эффективность может быть близка к единице в некоторых специальных случаях, но может быть также чрезвычайно малой в других случаях.

Этот подход очень полезен при сравнении основных экспериментов, применяемых в науке, в частности в физике. Он ведет к новому исследованию эффективности различных методов наблюдения, а также их точности и надежности.

Интересным результатом этого рассуждения является заключение о том, что измерение чрезвычайно малых расстояний физически невозможно. Математик определяет бесконечно малые, но физик абсолютно не в состоянии измерить их, и они представляют собой чистую абстракцию, лишенную физического смысла. Если мы примем операционную точку зрения, мы должны исключить бесконечно малые из физических теорий, но, к сожалению, мы не имеем представления о том, как выполнить такую программу.

В общем, мы надеемся, что научная теория информации отмечает начало новой важной главы научных исследований, в особенности в области физики, а также биологии.

<< Предыдущий параграф Следующий параграф >>
Оглавление