Единицы измерения информации

Автор: Пользователь скрыл имя, 28 Февраля 2013 в 20:05, доклад

Краткое описание

Для количественного выражения количества информации необходимо ввести единицу измерения:
Бит - количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза.
Поэтому, сообщение о получении зачета несет 1 бит информации (одно из двух возможных сообщений "зачет" или "незачет").

Файлы: 1 файл

теория.docx

— 23.13 Кб (Скачать)

Измерение информации

Алфавитный подход к измерению  информации

При алфавитном подходе к  определению количества информации отвлекаются от содержания информации и рассматривают информационное сообщение как последовательность знаков определенной знаковой системы.

Применение алфавитного  подхода удобно прежде всего при использовании технических средств работы с информацией. Алфавитный подход является объективным способом измерения информации в отличие от субъективного содержательного подхода.

 

 Алфавит - все множество  используемых в языке символов.

Обычно под алфавитом  понимают только буквы, но поскольку  в тексте могут встречаться знаки  препинания, цифры, скобки, то мы их тоже включим в алфавит. В алфавит  также следует включить и пробел, т.е. пропуск между словами.

 Мощность алфавита (N) - полное количество символов алфавита.

 Мощность русского  алфавита - 33 знака, английского - 28, двоичного кода - 2 ("0" или  "1"), компьютерного текста - 256.

 Информационный вес  символа алфавита i и мощность N алфавита связаны между собой формулой N = 2i.

Например в 32 - символьном алфавите каждый знак несет 5 бит информации.

1 символ компьютерного  текста (256 знаков: русские, латинские  буквы, строчные заглавные, знаки  препинания, специальные знаки, пробел) равен 8 бит = 1 байту. 

Информационный объем  сообщения (количество информации) представленного  символами  какого-либо алфавита, складывается из информационных весов составляющих его символов.

Информационный объем V сообщения  равен произведению количеству K символов в сообщении на информационный вес  i символа алфавита  V = K * i

Единицы измерения информации

8 бит = 1 байт

1 Кбайт (Килобайт) = 1024 байт = 210 байт

1 Мбайт (Мегабайт) = 1024 Кбайт  = 210 Кбайт 

1 Гбайт (Гигабайт) = 1024 Мбайт  = 210 Мбайт 

1 Тбайт (Терабайт) = 1024 Гбайт  = 210 Гбайт 

Примеры:

Найти объем сообщения, содержащего 200 знаков 16-символьного алфавита.

Дано:  Решение:

N = 16  N = 2i;  16=2i

K = 200  I = 4 бита

V = K * i;  V=200*4=800 бит = 100 байт

Найти:  

V - ?  Ответ: 100 байт

Сообщение занимает 3 страницы по 25 строк. В каждой строке записано по 60 символов. Сколько символов в  использованном алфавите, если все  сообщение содержит 1125 байтов?

Дано:  Решение:

V = 2250 байта  К = 3*25*60 = 4500 символов в тексте

K = 3 x 25 x 60  V = K * i;  i = V / K;

i = 2250 * 8 / 4500 = 4 бита

Найти:  N = 2i;  N = 24;  N = 16 символов

N - ?  

   Ответ: 16 символов

Содержательный подход к  измерению информации

Для человека информация —  это знания человека.

Получение новой информации приводит к расширению знаний. Если некоторое сообщение приводит к  уменьшению неопределенности нашего знания, то можно говорить, что такое сообщение  содержит информацию.

Сообщение информативно (т.е. содержит ненулевую информацию), если оно пополняет знания человека. Например, прогноз погоды на завтра — информативное  сообщение, а сообщение о вчерашней  погоде неинформативно, т.к. нам это  уже известно.

Информативность одного и  того же сообщения может быть разной для разных людей. Например: «2x2=4»  информативно для первоклассника, изучающего таблицу умножения, и неинформативно для старшеклассника.

 Количество информации - мера уменьшения неопределенности  знания при получении информационных  сообщений.

Сообщение несет информацию для человека, если содержащиеся в  нем сведения являются для него новыми и понятными.

Для количественного выражения  количества информации необходимо ввести единицу измерения:

 Бит - количество информации, которое содержится в информационном  сообщении, уменьшающем неопределенность  знания в два раза.

Поэтому, сообщение о получении  зачета несет 1 бит информации (одно из двух возможных сообщений "зачет" или "незачет").

Количество информации, содержащееся в сообщении о том, что произошло  одно из N равновероятных событий, определяется из решения уравнения Формулы  Хартли:

N = 2i

где N - количество возможных  информационных сообщений,

I - количество информации, которое несет одно полученное  сообщение.

Например, сообщение об отметке  за экзамен (из 4 возможных вариантов - "5", "4", "3" или "2") уменьшает неопределенность в 4 раза, поэтому узнав о полученной отметке, мы получили 2 бита информации.

Т.о., чем более неопределенна  первоначальная ситуация, тем больше информации мы получим при получении  информационного сообщения.

 Задания:

Если известно, что узнав  номер квартиры в которой живет человек, вы получили 6 бит информации, то можно определить, что в доме 64 квартиры (26 = 64).

Сообщение о том в каком  ряду и на каком месте находится зритель в театре, если всего 8 рядов по 16 мест, несет 7 бит информации (8*16=128=27, I = 7 бит).

В школьной библиотеке 16 стеллажей  с книгами. На каждом стеллаже 8 полок. Библиотекарь сообщил Пете, что нужная ему книга находится на пятом  стеллаже на третьей сверху полке. Какое  количество информации библиотекарь передал  Пете?

Решение: Поскольку книга  равновероятно может оказаться  на любой из полок, то количество информации определяется по формуле: 2I=N, где I –  количество информации, N=16*8=128 – количество полок. Отсюда: 2I=128, I=7 бит.

 


по теме «Информация», полученных на предыдущих 2 уроках. С целью формирования речи, закрепления основополагающих понятий данной темы проверка домашнего  задания проводится в виде фронтального устного опроса по следующим вопросам:

Что вы понимаете под информацией? Приведите примеры. Предполагаемые ответы: обычно учащиеся легко приводят примеры информации, которые они получают сами в окружающем мире – новости, школьный звонок, новые знания на уроках, сведения, полученные при чтении научно-популярной литературы, опыт и эмоции, полученные при чтении художественной литературы, эмоциональные переживания, полученные от прослушивания музыки, эстетические каноны, сведения о костюме и быте 18 века, эмоции, полученные при просмотре картин художников 18 века. Желательно, чтобы учащиеся приводили примеры информации и в технических, и в биологических системах и др. (форма бородки ключа содержит информацию о замке, определенная температура воздуха в помещении – информация для системы пожаротушения, в биологической клетке содержится информация о биологическом объекте, частью которого она является…)

Мы знаем, что две другие важные сущности мира вещество и энергия  существовали до живых организмов на Земле. Существовала ли информация и  информационные процессы до появления  человека? Предполагаемый ответ –  да, существовала. Например, информация, содержащаяся в клетке растения о  виде растения, об условиях прорастания, размножения и пр. позволяет растению расти и размножаться без вмешательства  человека; информация, накопленная  поколениями хищных животных, формирует  условные и безусловные рефлексы поведения следующих поколений  хищников.

Вещество – то, из чего все состоит, энергия – то, что  все приводит в движение. Верно  ли суждение, что информация управляет  миром. Обоснуйте свой ответ. Ответ: информация действительно управляет  миром. Сигнал с Земли спутнику заставляет изменить траекторию его движения; если мы на пути видим лужу, то информация о ее виде, о том, что она мокрая и грязная, заставляет нас принять  решение обойти лужу. Характерный  жест человека (вытянутая вперед рука с вертикально расположенной  ладонью) заставляет нас остановиться, информация на бородке ключа и  форма щели замка позволяет принять  решение о выборе ключа из связки, сформированные поколениями определенного вида птиц рефлексы управляют миграционными процессами. Читая художественную литературу, мы впитываем жизненный опыт героев, который влияет на принятие определенных решений в нашей собственной жизни; слушая определенную музыку, мы формируем соответствующий вкус, влияющий на наше поведение, окружение и пр.

Назовите виды информации по форме представления, приведите  примеры. Ответ: числовая (цена на товар, числа в календаре), текстовая (книга, написанная на любом языке, текст учебников), графическая (картина, фотография, знак СТОП), звуковая (музыка, речь), видео (анимация + звук), командная (перезагрузить компьютер - нажатие клавиш Ctrl+Alt+Delete/Enter).

Какие действия можно производить  с информацией? Ответ: ее можно обрабатывать, передавать, хранить и кодировать (представлять).

Назовите способы восприятия информации человеком. Ответ: человек воспринимает информацию с помощью 5 органов чувств - зрение (в форме зрительных образов), слух (звуки – речь, музыка, шум…), обоняние (запах с помощью рецепторов носа), вкус (рецепторы языка различают кислое, горькое, соленое, холодное), осязание (температура объектов, тип поверхности…)

Приведите примеры знаковых систем. Ответ: естественный язык, формальный язык (десятичная система счисления, ноты, дорожные знаки, азбука Морзе), генетический алфавит, двоичная знаковая система.

Почему в компьютере используется двоичная знаковая система для кодирования  информации? Ответ: двоичная знаковая система используется в компьютере, так как существующие технические  устройства могут надежно сохранять  и распознавать только два различных  состояния (знака).

3. Вероятностный подход  к измерению количества информации (см. мультимедийную презентацию).

 

Сегодня мы с вами поговорим  об измерении информации, т. е. об определении  ее количества. (Учащиеся записывают тему урока в тетрадь – «Количество  информации»). Как вы думаете, какая из книг содержит большее количество информации (показать тонкую и толстую)? Как правило, учащиеся выбирают толстую, так как в ней больше записано слов, текста, букв (некоторые ребята задают вопрос о том, какого типа информация содержится в книге – графическая или текстовая? Следует уточнить, что в книге содержится только текстовая информация ). Какое сообщение несет для вас больше информации «завтра учимся по обычному расписанию» или «завтра вместо литературы будет химия»? Учащиеся интуитивно ответят, что второе, потому что, несмотря на почти одинаковое количество слов, во втором сообщении содержится более важная, новая или актуальная для них информация. А первое сообщение вообще не несет никакой новой информации. Вы заметили, что посмотрели на информацию с точки зрения количества символов, в ней содержащихся, и с точки зрения ее смысловой важности для вас? Существует 2 подхода при определении количества информации – смысловой и технический (алфавитный). Смысловой применяется для измерения информации, используемой человеком, а технический (или алфавитный) – компьютером.

Для человека получение новой  информации приводит к расширению знаний, или к уменьшению неопределенности. Например, сообщение о том, что  завтра среда, не приводит к уменьшению неопределенности, поэтому оно не содержит информацию. Пусть у нас  имеется монета, которую мы бросаем  на ровную поверхность. Мы знаем до броска, что может произойти одно из двух событий – монета окажется в одном из двух положений: «орел» или «решка». После броска наступает полная определенность (визуально получаем информацию о том, что выпал, например, «орел»). Информационное сообщение о том, что выпал «орел» уменьшает нашу неопределенность в 2 раза, так как получено одно из двух информационных сообщений.

В окружающей действительности достаточно часто встречаются ситуации, когда может произойти больше, чем 2 равновероятных события. Так, при бросании шестигранного игрального кубика – 6 равновероятных событий. Событие выпадение одной из граней кубика уменьшает неопределенность в 6 раз. Чем больше начальное число событий, тем больше неопределенность нашего знания, тем больше мы получим информации при получении информационного сообщения.

Количество информации можно  рассматривать как меру уменьшения неопределенности знания при получении  информационных сообщений. (Выделенное курсивом учащиеся записывают в тетрадь).

Существует формула, которая  связывает между собой количество возможных информационных сообщений N и количество информации I, которое  несет полученное сообщение:

N=2I (N – количество возможных  информационных сообщений, I – количество  информации, которое несет полученное  сообщение).

Для количественного выражения  любой величины необходимо определить единицу измерения. Например, для  измерения длины выбран определенный эталон метр, массы – килограмм.

4. Единицы измерения информации 

За единицу измерения  количества информации принимается  такое количество информации, которое  содержится в сообщении, уменьшающем  неопределенность знания в 2 раза. Такая  единица называется битом.

Вернемся к рассмотренному выше получению информационного  сообщения о том, что выпал  «орел» при бросании монеты. Здесь  неопределенность уменьшилась в 2 раза, следовательно, это сообщение равно 1 биту. Сообщение о том, что выпала определенная грань игрального кубика, уменьшает неопределенность в 6 раз, следовательно, это сообщение равно 6 битам.

Минимальной единицей измерения  количества информации является бит, а  следующей по величине единицей –  байт, причем

1 байт = 8 битов

В международной системе  СИ используют десятичные приставки  «Кило» (103), «Мега» (106), «Гига» (109),… В компьютере информация кодируется с помощью двоичной знаковой системы, поэтому в кратных единицах измерения количества информации используется коэффициент 2n.

1 килобайт (Кбайт) = 210 байт = 1024 байт

1 мегабайт (Мбайт) = 210 Кбайт  = 1024 Кбайт

1 гигабайт (Гбайт) = 210 Мбайт  = 1024 Мбайт

1 терабайт (Тбайт) = 210 Гбайт  = 1024 Гбайт

Терабайт – очень крупная  единица измерения информации, поэтому  применяется крайне редко. Всю информацию, которое накопило человечество, оценивают  в десятки терабайт.

5. Определение количества  информации 

Задача 1. Определите количество экзаменационных билетов, если зрительное сообщение о номере одного вытянутого билета несет 5 битов информации. Количество билетов – это количество информационных сообщений. N=2I = 25 = 32 билета.

Информация о работе Единицы измерения информации