.. Потенциальная возможность источника, связанная со свободой выбора, чрезвычайно высока, но передача этой информации оказывается весьма затруднительной .
12 G Т. Guilbaud, La Cybernétique P U F , 1954
43
III.4.
Здесь-то и возникает нужда в коде с его упорядочивающим действием. Но что дает нам введение кода? Ограничиваются комбинационные возможности задействованных элементов и число самих элементов. В ситуацию равновероятности источника вводится система вероятностей: одни комбинации становятся более, другие менее вероятными. Информационные возможности источника сокращаются, возможность передачи сообщений резко возрастает.
Шеннон 13 определяет информацию сообщения, включающего N операций выбора из h символов, как I = NLg2 h (эта формула напоминает формулу энтропии).
Итак, сообщение, полученное на базе большого количества символов, число комбинаций которых достигает астрономической величины, оказывается высокоинформативным, но вместе с тем и непередаваемым, ибо для этого необходимо слишком большое число операций выбора. Но эти операции требуют затрат, идет ли речь об электрических сигналах, механическом движении или мышлении: всякий канал обладает ограниченной пропускной способностью, позволяя осуществить лишь определенное число операций выбора. Следовательно, чтобы сделать возможной передачу информации и построить сообщение, необходимо уменьшить значения N и h. И еще легче передать сообщение, полученное на основе системы элементов, число комбинаций которых заранее ограничено. Число выборов уменьшается, но зато возможности передачи сообщений возрастают.
Упорядочивающая функция кода как раз и позволяет осуществить коммуникацию, ибо код представляет собой систему вероятностей, которая накладывается на равновероятность исходной системы, обеспечивая тем самым возможность коммуникации. В любом случае информация нуждается в упорядочении не из-за ее объема, но потому, что иначе ее передача неосуществима.
С введением кода число альтернатив такого высокоэнтропийного источника, как клавиатура пишущей машинки, заметно сокращается. И когда я, человек знакомый с кодом итальянского языка, за нее сажусь, энтропия источника уменьшается, иными словами, речь идет уже не о 85 сообщениях на одной машинописной странице, обеспечиваемых возможностями клавиатуры, но о значительно меньшем их числе в соответствии с вероятностью, отвечающей определенному набору ожиданий, и, стало быть, более предсказуемом. И даже если
13 Впервые закон сформулирован R.V L. Harthley, Transmission of Information, in "Bell System Tech. I", 1928. См. также, помимо Cherry, cit, Anatol Rapaport, What is Information?, in "ETC", 10, 1953.
44
число возможных сообщений на страничке машинописного текста неизменно велико, все равно введенная кодом система вероятностей делает невозможным присутствие в моем сообщении таких последовательностей знаков, как "wxwxxsdewvxvxc", невозможных в итальянском языке за исключением особых случаев металингвистических описаний, таких как только что приведенное. Она, эта система, не разрешает ставить q после ass, зато позволяет предсказать с известной долей уверенности, что вслед за ass появится одна из пяти гласных: asse, assimilare и т.д. Наличие кода, предусматривающего возможность разнообразных комбинаций, существенно ограничивает число возможных выборов.
Итак, в заключение дадим определение кода как системы, устанавливающей 1) репертуар противопоставленных друг другу символов; 2) правила их сочетания; 3) окказионально взаимооднозначное соответствие каждого символа какому-то одному означаемому. При этом возможно выполнение лишь одного или двух из указанных условий 14 .
IV. Код
IV.1.
Все сказанное позволяет вернуться к нашей первоначальной модели. В упоминавшемся водохранилище могут происходить самые разнообразные процессы. |