Автор: Пользователь скрыл имя, 27 Марта 2012 в 19:15, реферат
Важнейшим шагом на пути постижения природы и механизмов антиэнтропийных процессов следует введение количественной меры информации. Первоначально эта мера предназначалась лишь для решения сугубо прикладных задач техники связи. Однако последующие исследования в области физики и биологии позволили выявить универсальные меры, предложенные К.Шенноном, позволяющие установить взаимосвязь между количеством информации и физической энтропией и в конечном счете определить сущность новой научной интерпретации понятия "информация" как меры структурной упорядоченности самых разнообразных по своей природе систем .
1.Введение ………………………………………………………..............................3-4
2.Основная часть
2.1 Понятие энтропии и информации ………………................5-6
2.2 Основа информационной теории ………………………...7-12
2.3 Информационная энтропия……………………………….13-15
2.4 Свойства и эффективность………………………………..16-17
2.5 Вариации и обобщения……………………………………………..18-21
3.Заключение …………………………………………………………………………………22
4.Список используемой литературы……………
Например, для русского языка без буквы «ё» [3].
Через
частную и общую условные энтропии
полностью описываются
b1 |
b2 |
… |
bj |
… |
bm | |
a1 |
… |
… |
||||
a2 |
… |
… |
||||
… |
… |
… |
… |
… |
… |
… |
ai |
… |
… |
||||
… |
… |
… |
… |
… |
… |
… |
am |
… |
… |
Очевидно,
вероятности, расположенные по диагонали,
описывают вероятность
Для вычисления потерь при передаче всех сигналов используется общая условная энтропия:
означает энтропию со стороны источника, аналогично рассматривается — энтропия со стороны приёмника: вместо всюду указывается (суммируя элементы строки можно получить p(ai), а элементы диагонали означают вероятность того, что был отправлен именно тот символ, который получен, то есть вероятность правильной передачи).
Взаимная энтропия или энтропия объединения предназначена для расчёта энтропии взаимосвязанных систем (энтропии совместного появления статистически зависимых сообщений) и обозначается H(AB), где A характеризует передатчик, а B — приёмник.
Взаимосвязь переданных и полученных сигналов описывается вероятностями совместных событий p(aibj), и для полного описания характеристик канала требуется только одна матрица:
p(a1b1) |
p(a1b2) |
… |
p(a1bj) |
… |
p(a1bm) |
p(a2b1) |
p(a2b2) |
… |
p(a2bj) |
… |
p(a2bm) |
… |
… |
… |
… |
… |
… |
p(aib1) |
p(aib2) |
… |
p(aibj) |
… |
p(aibm) |
… |
… |
… |
… |
… |
… |
p(amb1) |
p(amb2) |
… |
p(ambj) |
… |
p(ambm) |
Для более общего случая, когда описывается не канал, а в целом взаимодействующие системы, матрица необязательно должна быть квадратной. Очевидно, сумма всех элементов столбца с номером j даёт p(bj), сумма строки с номером i есть p(ai), а сумма всех элементов матрицы равна 1. Совместная вероятность p(aibj) событий ai и bj вычисляется как произведение исходной и условной вероятности:
Условные вероятности производятся по формуле Байеса. Таким образом, имеются все данные для вычисления энтропий источника и приёмника:
Взаимная энтропия вычисляется последовательным суммированием по строкам (или по столбцам) всех вероятностей матрицы, умноженных на их логарифм:
H(AB) = − |
∑ |
∑ |
p(aibj)logp(aibj). |
i |
j |
Единица измерения — бит/два символа, это объясняется тем, что взаимная энтропия описывает неопределённость на пару символов: отправленного и полученного. Путём несложных преобразований также получаем
Взаимная энтропия обладает свойством информационной полноты — из неё можно получить все рассматриваемые величины.
Заключение
Трудно найти понятия более общие для всех наук (не только естественных) и, вместе с тем, иногда носящих оттенок загадочности, чем энтропия и информация. Отчасти это связано с самими названиями. Если бы не звучное название “энтропия” осталась бы с момента первого рождения всего лишь “интегралом Клаузиуса”, вряд ли она бы не рождалась вновь и вновь в разных областях науки под одним именем. Кроме того, ее первооткрыватель Клаузиузус, первым же положил начало применению введенного им для, казалось, бы узкоспециальных термодинамических целей понятия к глобальным космологическим проблемам (тепловая смерть Вселенной). С тех пор энтропия многократно фигурировала в оставшихся навсегда знаменитыми спорах . В настоящее время универсальный характер этого понятия общепризнан и она плодотворно используется во многих областях.
Термин
“информация” замечателен тем, что,
существующему с давних пор бытовому
понятию, К.Шенноном был придан математически
точный смысл. Неопределенно-бытовой
смысл этого термина уже
Список используемой литературы