Математическая теория информации

Автор: Пользователь скрыл имя, 19 Января 2012 в 14:02, реферат

Краткое описание

аждое сообщение несет в себе определенное количество информации. Определим количество информации, содержащееся в сообщении xi, выбранном из ансамбля сообщений источника {Х, р(х)}. Одним из параметров, характеризующих данное сообщение, является вероятность его появления - p(xi), поэтому естественно предположить, что количество информации I(xi) в сообщении xi является функцией p(xi). Вероятность появления двух независимых сообщений x1 и x2 равна произведению вероятностей p(x1, x2) = p(x1).p(x2), а содержащаяся в них информация должна обладать свойством аддитивности, т. е.:
I(x1, x2) = I(x1)+I(x2). (1)
Поэтому для оценки количества информации предложена логарифмическая мера:
. (2)
При этом, наибольшее количество информации содержат наименее вероятные сообщения, а количество информации в сообщении о достоверном событии равно нулю. Т. к. все логарифмы пропорциональны, то выбор основания определяет единицу информации: logax = logbx/logba.
В зависимости от основания логарифма используют следующие единицы информации:
2 - [бит] (bynary digit – двоичная единица), используется при анализе ин-формационных процессов в ЭВМ и др. устройствах, функционирующих на основе двоичной системы счисления;
e - [нит] (natural digit – натуральная единица), используется в математических методах теории связи;
10 -[дит] (decimal digit – десятичная единица), используется при анализе процессов в приборах работающих с десятичной системой счисления.

Файлы: 1 файл

МАТЕМАТИЧЕСКАЯ ТЕОРИЯ ИНФОРМАЦИИ.doc

— 27.81 Кб (Скачать)

         

      При этом избыточность равна R = 1-0,815=0,18

      Пример 3. Определить количество информации и энтропию сообщения из пяти букв, если число букв в алфавите равно 32 и все сообщения равновероятные.

      Решение: Общее число пятибуквенных сообщений равно: N = mn = 32

      Энтропия для равновероятных сообщений равна: 

      H = I = -log2 1/N = log2325 = 5 log232 = 25 бит./симв.

      ЛИТЕРАТУРА 

Гринченко А.Г. Теория информации и кодирование: Учебн. пособие. – Харьков: ХПУ, 2000.

    1. Цымбал В.П. Теория информации и кодирование. –М.: Высш. шк., 1986.
    2. Кловский Д. Д. Теория передачи сигналов. –М.: Связь, 1984.

Кудряшов Б. Д. Теория информации. Учебник для вузов Изд-во ПИТЕР, 2008. – 320с.

    1. Цымбал В.П. Теория информации и кодирование. –М.: Высш. шк., 1986.
    2. Асанов М.О., Баранский В.А., Расин В.В. Дискретная математика: графы матроиды, алгоритмы. - Ижевск: НИЦ "РХД", 2001, 288 стр.

Информация о работе Математическая теория информации