Автор: Пользователь скрыл имя, 01 Ноября 2011 в 16:08, реферат
Разные люди, получившие одно и то же сообщение, по-разному оценивают его информационную ёмкость, то есть количество информации, содержащееся в нем. Это происходит оттого, что знания людей о событиях, явлениях, о которых идет речь в сообщении, до получения сообщения были различными. Поэтому те, кто знал об этом мало, сочтут, что получили много информации, те же, кто знал больше, могут сказать, что информации не получили вовсе. Количество информации в сообщении, таким образом, зависит от того, насколько ново это сообщение для получателя.
Введение
Важным вопросом является измерение количества информации. Как понять, сколько информации мы получили в том или ином сообщении?
Разные
люди, получившие одно и то же сообщение,
по-разному оценивают его
Мощность
информационного сигнала, также
как и вес носителя информации
не могут служить оценкой
Измерение информации
1.1 Измерение информации в технике
В технике информацией считается любая хранящаяся, обрабатываемая или передаваемая последовательность знаков, символов. В технике под количеством информации понимают количество кодируемых, передаваемых или хранимых символов.
Определить
понятие «количество
Пример: собака – 6 символов, dog – 3 символа.
Человеку привычно работать с символами, а компьютеру - с кодами. Каждый символ кодируется двоичным кодом, длиной в 8 знаков (восьмибитный код).
Прежде чем измерить информацию в битах, вы определяете количество символов в этом сообщении. Каждый символ не случайно кодируется 8-битным кодом. Для удобства введена более "крупная" единица информации в технике – байт, с помощью которой легче подсчитать количество информации в техническом сообщении - оно совпадает с количеством символов в нем.
В вычислительной технике: бит (binary digit) - двоичный знак двоичного алфавита {0, 1}, минимальная единица измерения информации.
Байт (byte) - единица количества информации в системе СИ. Байт - восьмиразрядный двоичный код, с помощью которого можно представить один символ.
Единицы
измерения информации в вычислительной
технике:
Бит | Элементарная единица информации |
Байт (б) | 8 бит |
Килобайт (Кбайт) | 210 байт = 1024 байт |
Мегабайт (Мбайт) | 210 Кбайт = 220 байт |
Гигабайт (Гбайт) | 210 Мбайт = 230 байт |
Терабайт (Тбайт) | 1024 Гбайт = 240 байт |
Петабайт (Пбайт) | 1024 Тбайт = 250 байт |
Эксабайт (Эбайт) | 1024 Пбайт = 260 байт |
Информационный объем сообщения (информационная емкость сообщения) - количество информации в сообщении, измеренное в битах, байтах, производных единицах (Кб, Мб и т.д.) [2].
Длина сообщения зависит от числа различных символов, употребляемых для записи сообщения. Например, слово "мир" в русском алфавите записывается тремя знаками, в английском - пятью (peace), а в КОИ-8 - двадцатью четырьмя битами (111011011110100111110010).
1.2 Измерение информации в быту
Вы получили какое-то сообщение. В этом сообщении содержится какое-то количество информации. Как оценить, сколько информации вы получили? Другими словами, как измерить информацию? Можно ли сказать, что чем больше статья, тем больше информации она содержит?
Разные
люди, получившие одно и тоже сообщение,
по-разному оценивают
1.3
Измерение информации
в теории
В
теории информации количеством информации
называют числовую характеристику сигнала,
не зависящую от его формы и
содержания и характеризующую
Теория информации как самостоятельная научная дисциплина была основана Клодом Шенноном в конце 40-х годов 20 века. Предложенная им теория основывалась на фундаментальном понятии количественной меры неопределенности – энтропии и связанного с нею понятия количества информации. При энтропийном подходе под информацией понимается количественная величина исчезнувшей в ходе какого-либо процесса (испытания, измерения и т.д.) неопределенности. При этом в качестве меры неопределенности вводится энтропия. Энтропия – мера внутренней неупорядоченности информационной системы.
Энтропия
увеличивается при хаотическом
распределении информационных ресурсов
и уменьшается при их упорядочении.
Одним из самых замечательных
результатов теории информации является
доказательство, что при любых
помехах и шумах можно
Если в системе, состоящей из одного атома, произошло его энергетическое возбуждение, нам это может стать известно по значению температуры. При этом возможно только одно распределение возбуждения в системе равному единице. Энтропия связана с распределением следующим образом: . В нашем случае , а значит, система обладает нулевой энтропией.
В системе из ста атомов, распределение возбуждения может быть осуществлено ста способами, т.е. , . Энтропия системы выросла и стала хаотичной, поскольку мы не знаем, где находится в каждый момент возбужденный атом. Принято считать, что любая система стремится к состоянию равновесия, т.е. растет энтропия системы. Однако второе начало термодинамики (закон сохранения энтропии и информации) требует компенсировать рост энтропии. Информация и является средством компенсации.
Р. Хартли предложил в качестве меры неопределенности логарифм от числа возможностей, т.е. процесс получения информации рассматривает как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N: - формула Хартли. Обычно количество информации представляется в виде: , где m - число возможных выборов. Тогда стандартной единицей количества информации будет выбор из двух возможностей. Такая единица получила наименование бит и представляется одним символом двоичного алфавита: 0 или 1.
В некоторых случаях, когда однозначно нельзя ответить на вопросы распределения вероятности, для определения количества информации уже нельзя использовать формулу Хартли.
Пример: являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь.
Для задач
такого рода американский учёный Клод
Шеннон предложил в 1948 г. другую формулу
определения количества информации,
учитывающую возможную
Формула Шеннона:
,
где рi - вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.
Если вероятности равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли.
2. Подходы измерения
В информатике, как правило, измерению подвергается информация, представленная дискретным сигналом. При этом различают следующие подходы:
Структурный. Измеряет количество информации простым подсчетом информационных элементов, составляющих сообщение. Применяется для оценки возможностей запоминающих устройств, объемов передаваемых сообщений, инструментов кодирования без учета статистических характеристик их эксплуатации.
Статистический. Учитывает вероятность появления сообщений: более информативным считается то сообщение, которое менее вероятно, т.е. менее всего ожидалось. Применяется при оценке значимости получаемой информации.
Семантический. Учитывает целесообразность и полезность информации. Применяется при оценке эффективности получаемой информации и ее соответствия реальности.
2.1Структурный подход к измерению информации
В рамках структурного подхода выделяют три меры информации:
геометрическая. Определяет максимально возможное количество информации в заданных объемах. Мера может быть использована для определения информационной емкости памяти компьютера;
комбинаторная.
Оценивает возможность
аддитивная, или мера Хартли.
Геометрическая мера
Определяет
максимально возможное
8 бит = 1 байт (сокращенно б или Б),
1024 Б = 1 килобайт (сокращенно Кб или К),
1024 К = 1 мегабайт (сокращенно Мб или М),
1024 М = 1 гигабайт (сокращенно Гб или Г).