СООБЩЕНИЕ
в теории информ а ц и
Xi принимают равным log является важнейшей характеристикой источника.
Пример. Пусть источником С. являются результаты
При изучении конкретных типов С., таких,
А
Б
В
Г
Д
Е
Ё
Ж
З
И
Й
К
Л
М
Н
О
П
Р
С
Т
У
Ф
Х
Ц
Ч
Ш
Щ
Ъ
Ы
Ь
Э
Ю
Я
и, всякий носитель информации. При этом теория информации интересуется
лишь количеств, стороной информации, содержащейся в С. Понятие С. в теории
информации имеет существенно вероятностный характер: каждый источник информации
(или источник С.) задаётся перечислением возможных С. и соответствующих
им вероятностей. Пусть х
соответствующие вероятности. Тогда количество информации в С.
т.
е. сумма
Именно величина энтропии определяет возможности передачи и хранения С.,
производимых источником.
N
последовательных
измерений с точностью до 0,1 нек-рой физ. величины, равномерно распределённой
в интервале от нуля до единицы. Тогда, если указывать только число десятых
(с недостатком), возможными результатами отд. измерения будут числа 0,1,...,9.
Вероятность появления каждого из них равна 0,1. С. в данном примере представляются
N-членными последовательностями цифр. Вероятность каждого С. равна (0,1)N.
Количество информации в каждом С. и энтропия источника равны Nlоg
примере является случайная последовательность десятичных знаков (цифр)
длины N. Именно такую форму случайных последовательностей знаков
(или более общим образом - форму случайных процессов) имеют источники С.,
рассматриваемые в теории информации.
как письменная речь, телеграфные, телефонные или телевизионные сигналы,
обычно строится та или иная приближённая вероятностная модель источника
С. Так, с достаточной для целей теории информации точностью в качестве
модели русской письменной речи может быть принята т. н. сложная цепь Маркова.
Для непрерывных С. в качестве моделей используются стационарные случайные
процессы. Построение подобных моделей опирается на обширные статистич.
данные, касающиеся рассматриваемых процессов. Ю. В. Прохоров.