Измерение информации

Автор: Пользователь скрыл имя, 01 Ноября 2011 в 16:08, реферат

Краткое описание

Разные люди, получившие одно и то же сообщение, по-разному оценивают его информационную ёмкость, то есть количество информации, содержащееся в нем. Это происходит оттого, что знания людей о событиях, явлениях, о которых идет речь в сообщении, до получения сообщения были различными. Поэтому те, кто знал об этом мало, сочтут, что получили много информации, те же, кто знал больше, могут сказать, что информации не получили вовсе. Количество информации в сообщении, таким образом, зависит от того, насколько ново это сообщение для получателя.

Файлы: 1 файл

реферат по информатике.docx

— 73.28 Кб (Скачать)

Введение

     Важным  вопросом является измерение количества информации. Как понять, сколько  информации мы получили в том или  ином сообщении?

     Разные  люди, получившие одно и то же сообщение, по-разному оценивают его информационную ёмкость, то есть количество информации, содержащееся в нем. Это происходит оттого, что  знания людей о событиях, явлениях, о которых идет речь в  сообщении, до получения сообщения  были различными. Поэтому те, кто  знал об этом мало, сочтут, что получили много информации, те же, кто знал больше, могут сказать, что информации не получили вовсе. Количество информации в сообщении, таким образом, зависит  от того, насколько ново это сообщение  для получателя.

     Мощность  информационного сигнала, также  как и вес носителя информации не могут служить оценкой количества информации, переносимой сигналом. Истрепанная книжка, если в ней  нет вырванных страниц, несет  для вас ровно столько же информации, сколько такая же новая. В таком случае, количество информации в одном и том же сообщении должно определяться отдельно для каждого получателя, то есть иметь субъективный характер. При этом нельзя объективно оценить количество информации, содержащейся даже в простом сообщении. Поэтому, когда информация рассматривается как новизна сообщения для получателя (бытовой подход), не ставится вопрос об измерении количества информации. Информационные процессы (сбор, обработка и передача информации) всегда играли важную роль в науке, технике и жизни общества. В ходе эволюции человечества просматривается устойчивая тенденция к автоматизации этих процессов, хотя их внутреннее содержание по существу осталось неизменным. Информация не существует сама по себе, она проявляется в информационных процессах. Человек живет в мире информации и на протяжении всей жизни участвует во всевозможных информационных процесса

Измерение информации

1.1 Измерение информации  в технике

     В технике информацией считается  любая хранящаяся, обрабатываемая или  передаваемая последовательность знаков, символов. В технике под количеством  информации понимают количество кодируемых, передаваемых или хранимых символов.

     Определить  понятие «количество информации»  сложно. В решении этой проблемы существуют два основных подхода. Исторически  они возникли почти одновременно. В конце 40-х годов XX века Клод Шеннон развил вероятностный подход к измерению  количества информации, работы по созданию ЭВМ привели к «объемному»  подходу. В технике используют простой  способ определения количества информации, названный объемным, основанный на подсчете числа символов в сообщении, не связан с его длиной и не учитывает  содержания.

Пример: собака – 6 символов, dog – 3 символа.

Человеку  привычно работать с символами, а  компьютеру - с кодами. Каждый символ кодируется двоичным кодом, длиной в 8 знаков (восьмибитный код).

Прежде  чем измерить информацию в битах, вы определяете количество символов в этом сообщении. Каждый символ не случайно кодируется 8-битным кодом. Для  удобства введена более "крупная" единица информации в технике  – байт, с помощью которой легче  подсчитать количество информации в  техническом сообщении - оно совпадает  с количеством символов в нем.

В вычислительной технике: бит (binary digit) - двоичный знак двоичного  алфавита {0, 1}, минимальная единица  измерения информации.

Байт (byte) - единица количества информации в  системе СИ. Байт - восьмиразрядный  двоичный код, с помощью которого можно представить один символ.

Единицы измерения информации в вычислительной технике:  

Бит Элементарная  единица информации
Байт (б) 8 бит
Килобайт (Кбайт) 210 байт = 1024 байт
Мегабайт (Мбайт) 210 Кбайт = 220 байт
Гигабайт (Гбайт) 210 Мбайт = 230 байт
Терабайт (Тбайт) 1024 Гбайт = 240 байт
Петабайт (Пбайт) 1024 Тбайт = 250 байт
Эксабайт (Эбайт) 1024 Пбайт = 260 байт
 

Информационный  объем сообщения (информационная емкость  сообщения) - количество информации в  сообщении, измеренное в битах, байтах, производных единицах (Кб, Мб и т.д.) [2].

Длина сообщения зависит от числа различных  символов, употребляемых для записи сообщения. Например, слово "мир" в русском алфавите записывается тремя знаками, в английском - пятью (peace), а в КОИ-8 - двадцатью четырьмя битами (111011011110100111110010).

1.2 Измерение информации  в быту

     Вы  получили какое-то сообщение. В этом сообщении содержится какое-то количество информации. Как оценить, сколько информации вы получили? Другими словами, как измерить информацию? Можно ли сказать, что чем больше статья, тем больше информации она содержит?

     Разные  люди, получившие одно и тоже сообщение, по-разному оценивают количество информации, содержащееся в нем. Это  происходит оттого, что знания людей  об этих событиях, явлениях до получения  сообщения были различными. Поэтому  те, кто знал об этом мало, сочтут, что  получили много информации, те же, кто  знал больше, чем написано в статье, скажут, что информации не получили вовсе. Количество информации в сообщении  зависит от того, насколько важно  сообщение для получателя. При  таком подходе непонятно, по каким  критериям можно ввести единицу  измерения информации. С точки  зрения информации как новизны можно  оценить количество информации, содержащейся в научном открытии, музыкальном  стиле, новой теории общественного  развития.

1.3 Измерение информации в теории 

     В теории информации количеством информации называют числовую характеристику сигнала, не зависящую от его формы и  содержания и характеризующую неопределенность, которая исчезает после получения  сообщения в виде данного сигнала - в этом случае количество информации зависит от вероятности получения  сообщения о том или ином событии. Для абсолютно достоверного события (событие обязательно произойдет, поэтому его вероятность равна 1) количество вероятности в сообщении  о нем равно 0. Чем вероятнее  событие, тем больше информации о  нем несет сообщение. Лишь при  равновероятных ответах ответ "да" или "нет" несет 1 бит информации. Оценка количества информации основывается на законах теории информации. Сообщение  имеет ценность, несет информацию, когда мы узнаем и понимаем смысл  данного сообщения.

     Теория  информации как самостоятельная  научная дисциплина была основана Клодом Шенноном в конце 40-х годов 20 века. Предложенная им теория основывалась на фундаментальном понятии количественной меры неопределенности – энтропии и связанного с нею понятия количества информации. При энтропийном подходе под информацией понимается количественная величина исчезнувшей в ходе какого-либо процесса (испытания, измерения и т.д.) неопределенности. При этом в качестве меры неопределенности вводится энтропия. Энтропия – мера внутренней неупорядоченности информационной системы.

Энтропия  увеличивается при хаотическом  распределении информационных ресурсов и уменьшается при их упорядочении. Одним из самых замечательных  результатов теории информации является доказательство, что при любых  помехах и шумах можно обеспечить передачу информации без потерь. Первая теорема Шеннона гласит, что при  скорости создания информации меньшей  пропускной способности канала можно  передавать информацию со сколь угодно малой вероятностью ошибок, несмотря на шумы. Шеннон сформулировал энтропию как меру хаоса в противовес количеству информации как меры упорядоченности  структур.

     Если  в системе, состоящей из одного атома, произошло его энергетическое возбуждение, нам это может стать известно по значению температуры. При этом возможно только одно распределение возбуждения  в системе равному единице. Энтропия связана с распределением следующим  образом: . В нашем случае , а значит, система обладает нулевой энтропией.

     В системе из ста атомов, распределение  возбуждения может быть осуществлено ста способами, т.е. , . Энтропия системы выросла и стала хаотичной, поскольку мы не знаем, где находится в каждый момент возбужденный атом. Принято считать, что любая система стремится к состоянию равновесия, т.е. растет энтропия системы. Однако второе начало термодинамики (закон сохранения энтропии и информации) требует компенсировать рост энтропии. Информация и является средством компенсации.

     Р. Хартли предложил в качестве меры неопределенности логарифм от числа  возможностей, т.е. процесс получения  информации рассматривает как выбор  одного сообщения из конечного наперёд  заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N: - формула Хартли. Обычно количество информации представляется в виде: , где m - число возможных выборов. Тогда стандартной единицей количества информации будет выбор из двух возможностей. Такая единица получила наименование бит и представляется одним символом двоичного алфавита: 0 или 1.

     В некоторых случаях, когда однозначно нельзя ответить на вопросы распределения  вероятности, для определения количества информации уже нельзя использовать формулу Хартли.

     Пример: являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком  именно здании идет речь.

Для задач  такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу  определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона:

,

где рi - вероятность того, что именно i-е  сообщение выделено в наборе из N сообщений.

Если  вероятности  равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли.

 

2. Подходы измерения

     В информатике, как правило, измерению  подвергается информация, представленная дискретным сигналом. При этом различают  следующие подходы:

     Структурный. Измеряет количество информации простым подсчетом  информационных элементов, составляющих сообщение. Применяется для оценки возможностей запоминающих устройств, объемов передаваемых сообщений, инструментов кодирования без учета статистических характеристик их эксплуатации.

  Статистический. Учитывает вероятность появления сообщений: более информативным считается то сообщение, которое менее вероятно, т.е. менее всего ожидалось. Применяется при оценке значимости получаемой информации.

     Семантический. Учитывает целесообразность и полезность информации. Применяется при оценке эффективности получаемой информации и ее соответствия реальности.

2.1Структурный подход к измерению информации

     В рамках структурного подхода выделяют три меры информации:

геометрическая. Определяет максимально возможное  количество информации в заданных объемах. Мера может быть использована для  определения информационной емкости  памяти компьютера;

комбинаторная. Оценивает возможность представления  информации при помощи различных  комбинаций информационных элементов  в заданном объеме. Комбинаторная  мера может использоваться для оценки информационных возможностей некоторого системы кодирования;

аддитивная, или мера Хартли.

Геометрическая  мера

Определяет  максимально возможное количество информации в заданных объемах. Единица  измерения – информационный элемент. Мера может быть использована для  определения информационной емкости  памяти компьютера. В этом случае в  качестве информационного элемента выступает минимальная единица  хранения – бит. Список самых распространенных более крупных единиц и соотношение  между ними приведено ниже:

8 бит  = 1 байт (сокращенно б или Б),

1024 Б  = 1 килобайт (сокращенно Кб или  К),

1024 К  = 1 мегабайт (сокращенно Мб или  М),

1024 М  = 1 гигабайт (сокращенно Гб или  Г).

Информация о работе Измерение информации