Изменить размер шрифта - +

Как это происходит, показано на рисунке 2, причем для простоты число возможных случаев сокращено до восьми если имеется восемь непредсказуемых, так как они все равновероятны, возможных исхо­дов, то определение одного из них потребует трех последовательных операций выбора. Эти операции выбора обозначены буквами. Напри­мер, чтобы идентифицировать пятый случай, нужно три раза произ­вести выбор в точке А между B1 и В2, в точке B2 между С3 и C4 и в точке СЗ выбрать между пятым и шестым случаями. И так как речь шла об идентификации одного случая из восьми возможных, то

Log28 = 3.

40

В теории информации единицей информации, или битом (от "bi­nary digit", т. e. "бинарный сигнал"), называют информацию, получае­мую при выборе из двух равновероятных возможностей. Следователь­но, если идентифицируется один из восьми случаев, мы получаем три бита информации, если один из шестидесяти четырех — то шесть битов.

При помощи бинарного метода определяется один из любого воз­можного числа случаев—достаточно последовательно осуществлять выбор, постепенно сужая круг возможностей. Электронный мозг, на­зываемый цифровым, или дигитальным, работая с огромной скорос­тью, осуществляет астрономическое число операций выбора в едини­цу времени. Напомним, что и обычный калькулятор функционирует за счет замыкания и размыкания цепи, обозначенных 1 и О соответст­венно; на этой основе возможно выполнение самых разнообразных операций, предусмотренных алгеброй Буля.

III.2.

Характерно, что в новейших лингвистиических исследовани­ях обсуждаются возможности применения метода бинарных оппози­ций при изучении вопроса о возникновении информации в таких сложных системах, как, например, естественный язык . Знаки (слова) языка состоят из фонем и их сочетаний, а фонемы—это минимальные единицы звучания, обладающие дифференциальными признаками, это непродолжительные звучания, которые могут совпадать или не совпадать с буквами или буквой алфавита и которые сами по себе не обладают значением, но, однако, ни одна из них не может подменять собой другую, а когда такое случается, слово меняет свое значение. Например, по-итальянски я могу по-разному произносить "e" в сло­вах "bene" и "cena", но разница в произношении не изменит значения слов. Напротив, если, говоря по-английски, я произношу "i" в словах

"ship" и "sheep" (транскрибированных в словаре соответственно "∫ip"

и "∫i:p") по-разному, налицо оппозиция двух фонем, и действительно,

первое слово означает "корабль", второе — "овца". Стало быть, и в этом случае можно говорить об информации, возникающей за счет бинарных оппозиций.

III.3.

Вернемся, однако, к нашей коммуникативной модели. Речь шла о единицах информации, и мы установили, что когда, например, известно, какое событие из восьми возможных осуществилось, мы получаем три бита информации. Но эта "информация "имеет косвен-

10 См библиографию в Lepschy, cit, и у Якобсона (Якобсон P. Избранные работы М , 1985)

41

ное отношение к собственно содержанию сообщения, к тому, что мы из него узнали. Ведь для теории информации не представляет интереса, о чем говорится в сообщениях, о числах, человеческих именах, лоте­рейных билетах или графических знаках. В теории информации зна­чимо число выборов для однозначного определения события. И важны также альтернативы, которые — на уровне источника — представляются как со-возможные. Информация это не столько то, что говорится, сколько то, что может быть сказано. Информация — это мера возможности выбора. Сообщение, содержащее один бит информации (выбор из двух равновероятных возможностей), отлича­ется от сообщения, содержащего три бита информации (выбор из восьми равновероятных возможностей), только тем, что во втором случае просчитывается большее число вариантов.

Быстрый переход