Полезное понятие информации

Jun 15, 2010 01:41


До того уж туманно это слово «информация» и, в то же время, до того уж общеупотребимо, что просто напрашивается на уточнения. Примерно три года назад я составил эпигенетическое описание понятия информации, которое было озвучено в узком кругу. Пожалуй, вкратце его стоит воспроизвести публично.

Формально к понятию информации стали подходить лишь в 1930-1940-х годах. Тогда Клод Шеннон выпустил ряд работ в рамках разрабатывавшейся им теории информации. Собственно информация тогда мало кого волновала, гораздо больший интерес вызывали сигналы. Сигналами обменивались люди, связь была неустойчивой, и Шеннон решал прикладную задачу надёжной передачи сигнала по ненадёжному каналу связи. С точки зрения этой задачи информация - это количественная характеристика сигнала, полезная для определения достаточной надёжности. При таком подходе исследователей интересовала лишь измеримость информации, и они нашли меру, единица которой называется «бит».

Позже, в 1940-1950-х годах, когда благодаря деятельности Норберта Винера возникла новая наука кибернетика, теория информации стала разделом этой науки. Помимо этого в рамках кибернетики последовательно развивались другие разделы. Для дальнейшего обсуждения информации интересны теория управления и теория систем.

Шеннон выводил меру информации, фактически опираясь на H-теорему Людвига Больцмана и связанное с ней понятие энтропии. Мера информации при этом оказалась величиной, обратной энтропии, называемой так же негэнтропией. Теория управления рассматривает сигнал не сам по себе, как противоположность шуму, а в контексте процесса управления - как передачу сведений между субъектом и объектом управления. Переданный сигнал тогда несёт информацию, когда снимает неопределённость у субъекта управления относительно объекта управления. Будто субъект управления имеет вопрос и множество вариантов ответа на него, а сигнал позволяет выяснить, какой из этих вариантов - верный. С этой точки зрения информация - это определённость в рамках некоторого разнообразия возможностей.

Теория систем идёт ещё дальше. Она, в свою очередь, рассматривает процесс управления не сам по себе, а в контексте кибернетической системы. Части этой системы могут обмениваться сигналами и изменяться под воздействием этих сигналов. Обмен информацией между частями системы происходит только тогда, когда наблюдаются какие-то изменения, имеют место реакции на воздействия. Чем больше изменений, тем больше передано и получено информации. При этом, в силу второго начала термодинамики, в изолированной системе количество изменений (и количество информации) со временем не увеличивается, энтропия не уменьшается, и система стремится к покою, к устойчивому состоянию - гомеостазу. Чтобы достичь этого состояния, система изменяет свою структуру, т. е. происходящие с ней изменения будто выкристаллизовывают информацию в системной структуре, возникает определённый порядок, соответствующий уровню запасов энергии и меняющийся только при переходе к другому энергетическому уровню. С этой точки зрения информация - это порядок, структурная организация системы.

Последнее определение и сопутствующее ему понимание информации, по-моему, наиболее полезны для системного анализа и построения информационных моделей. Сейчас любая более-менее крупная организация имеет одну или несколько компьютерных информационных систем или АСУ. При построении таких систем аналитик опирается на сведения, получаемые от членов организации, и способен создать более-менее формальную модель, по меньшей мере непротиворечивую, отражающую содержание коллективного сознания всех участвующих лиц. Однако у аналитика зачастую нет подходящего угла зрения, чтобы привнести в организацию какие-то улучшения. Анализ структуры и динамики построенной информационной модели с точки зрения самого базового понятия - информации - способствует конструктивному критическому подходу к разрабатываемой ИС или АСУ.

Знание, Методология

Previous post Next post
Up