Автор: Пользователь скрыл имя, 19 Января 2012 в 14:02, реферат
аждое сообщение несет в себе определенное количество информации. Определим количество информации, содержащееся в сообщении xi, выбранном из ансамбля сообщений источника {Х, р(х)}. Одним из параметров, характеризующих данное сообщение, является вероятность его появления - p(xi), поэтому естественно предположить, что количество информации I(xi) в сообщении xi является функцией p(xi). Вероятность появления двух независимых сообщений x1 и x2 равна произведению вероятностей p(x1, x2) = p(x1).p(x2), а содержащаяся в них информация должна обладать свойством аддитивности, т. е.:
I(x1, x2) = I(x1)+I(x2). (1)
Поэтому для оценки количества информации предложена логарифмическая мера:
. (2)
При этом, наибольшее количество информации содержат наименее вероятные сообщения, а количество информации в сообщении о достоверном событии равно нулю. Т. к. все логарифмы пропорциональны, то выбор основания определяет единицу информации: logax = logbx/logba.
В зависимости от основания логарифма используют следующие единицы информации:
2 - [бит] (bynary digit – двоичная единица), используется при анализе ин-формационных процессов в ЭВМ и др. устройствах, функционирующих на основе двоичной системы счисления;
e - [нит] (natural digit – натуральная единица), используется в математических методах теории связи;
10 -[дит] (decimal digit – десятичная единица), используется при анализе процессов в приборах работающих с десятичной системой счисления.
При этом избыточность равна R = 1-0,815=0,18
Пример 3. Определить количество информации и энтропию сообщения из пяти букв, если число букв в алфавите равно 32 и все сообщения равновероятные.
Решение: Общее число пятибуквенных сообщений равно: N = mn = 32
Энтропия
для равновероятных сообщений равна:
H = I = -log2 1/N = log2325 = 5 log232 = 25 бит./симв.
ЛИТЕРАТУРА
Гринченко А.Г. Теория информации и кодирование: Учебн. пособие. – Харьков: ХПУ, 2000.
Кудряшов Б. Д. Теория информации. Учебник для вузов Изд-во ПИТЕР, 2008. – 320с.