Автор: Пользователь скрыл имя, 28 Сентября 2011 в 20:55, контрольная работа
В теории информации под этим термином понимается такое сообщение, которое содержит факты, неизвестные ранее потребителю и дополняющие его представление об изучаемом или анализируемом объекте (процессе, явлении). Другими словами, информация – сведения, которые должны снять в той или иной степени существующую у потребителя до их получения неопределенность, расширить его понимание объекта полезными (для потребителя) сведениями. По Шеннону, информация – это снятая неопределенность.
ИНФОРМАЦИЯ И ИНФОРМАТИКА …………………………….. 3
1.1. Понятие информации ……………………………………………... 3
1.2. Свойства информации …………………………………………….. 4
1.3. Измерение информации …………………………………………... 5
1.4. Системы счисления ……………………………………………….. 8
1.5. Информатика как наука …………………………………………… 12
СПИСОК ЛИТЕРАТУРЫ ……………………………………………... 15
МІНІСТЕРСТВО КУЛЬТУРИ І ТУРИЗМУ УКРАЇНИ
НАЦІОНАЛЬНА АКАДЕМІЯ КЕРІВНИХ КАДРІВ КУЛЬТУРИ І МИСТЕЦТВ
ІНСТИТУТ
СОЦІАЛЬНО-КУЛЬТУРНИХ
КОМУНІКАЦІЙ І
МЕНЕДЖМЕНТУ
Кафедра
менеджменту інформаційних
технологій і стандартизації
на тему:
«Інформація
та інформатика»
Роботу виконав:
студент 1-го курсу
групи МО 90/5
Олексюк Роман
роботу перевірив:
ст.
викладач Стешенко
А.М.
Київ-2010
СОДЕРЖАНИЕ
1. ИНФОРМАЦИЯ И ИНФОРМАТИКА …………………………….. 3
1.1. Понятие информации ……………………………………………... 3
1.2. Свойства информации …………………………………………….. 4
1.3. Измерение информации …………………………………………... 5
1.4. Системы счисления ……………………………………………….. 8
1.5. Информатика как наука …………………………………………… 12
СПИСОК ЛИТЕРАТУРЫ ……………………………………………...
15
1. ИНФОРМАЦИЯ И ИНФОРМАТИКА
1.1. ПОНЯТИЕ
ИНФОРМАЦИИ
Термин «информация» происходит от латинского informatio, что в переводе означает изложение, разъяснение.
В обыденной жизни под этим словом понимают сведения, передаваемые людьми устным, письменным или другим образом. В научных и официальных источниках этот термин трактуется по-разному. Информация – сведения (сообщения, данные) независимо от формы их представления.
В наиболее общем виде понятие информации можно выразить следующим образом. Информация – это отражение предметного мира с помощью знаков и сигналов.
В теории информации под этим термином понимается такое сообщение, которое содержит факты, неизвестные ранее потребителю и дополняющие его представление об изучаемом или анализируемом объекте (процессе, явлении). Другими словами, информация – сведения, которые должны снять в той или иной степени существующую у потребителя до их получения неопределенность, расширить его понимание объекта полезными (для потребителя) сведениями. По Шеннону, информация – это снятая неопределенность.
В процессе обработки информация может менять структуру и форму. Признаками структуры являются элементы информации и их взаимосвязь. Различают содержательную и формальную структуры. Содержательная структура
естественно ориентирована на содержание информации, а формальная – на форму представления информации. Формы представления информации также различны. Основные из них – символьная (основанная на использовании символов – букв,
цифр, знаков), текстовая (использует тексты – символы, расположенные в определенном порядке), графическая (различные виды изображений), звуковая.
В зависимости от области знаний различают научную, техническую, производственную, правовую и т.д. информацию. Каждый из видов информации имеет свои особые смысловые нагрузку и ценность, требования к точности и достоверности, преимущественные технологии обработки, формы представления и носители (бумажные, магнитные и др.).
Информация – это неубывающий ресурс жизнеобеспечения. Объем информации с течением времени возрастает. Особенно ярко это стало проявляться с середины XX в. В 70-е гг. объем информации удваивался каждые 5 – 7 лет. В 80-е гг. удвоение происходило уже за 20 месяцев, а с 90-х – ежегодно. Такой хлынувший лавинообразный поток не дает человеку воспринять информацию в полной мере и требует информатизации всех сфер человеческой деятельности на основе использования современных информационных технологий (т.е. технологий, связанных с получением, обработкой и ее распространением (передачей)).
В повседневной практике такие понятия, как информация, данные, знания, часто рассматриваются как синонимы. Однако это не совсем верно. Данными называется информация, представленная в удобном для обработки виде (технология автоматизированной обработки информации предполагает манипулирование отдельными информационными элементами). Для автоматизации работы с данными, относящимися к разным типам, унифицируют форму их представления. Для этого используют кодирование данных. Примерами могут служить код Морзе, код ASCII, двоичное кодирование, которое используется в вычислительной технике. Знание – это проверенный практикой результат познания действительности, ее верное отражение в сознании человека. Знания рассматривают как констатацию фактов и их описание. Научное знание заключается в понимании действительности в ее прошлом, настоящем и будущем, в достоверном обобщении фактов, в том, что за случайным оно находит необходимое, закономерное, за единичным – общее, а на основе этого осуществляет предвидение. Научное знание может быть как эмпирическим, так и теоретическим.
В области систем искусственного интеллекта знания связываются с логическим выводом: знания – это информация, на основании которой реализуется процесс логического вывода. Другими словами, на основании этой информации можно делать различные заключения по имеющимся в системе данным с помощью логического вывода.
В
системах обработки информации под
знаниями понимают сложноорганизованные
данные, содержащие одновременно как
фактографическую
(регистрация некоторого факта), так и
семантическую (смысловое описание
зарегистрированного факта) информацию,
которая может потребоваться пользователю
при работе с данными.
1.2. СВОЙСТВА
ИНФОРМАЦИИ
Как и всякий объект, информация обладает определенными свойствами.
Наиболее важными требованиями, предъявляемыми к информации, являются: корректность, полезность, оперативность, точность, достоверность, устойчивость, достаточность.
Корректность информации обеспечивает ее однозначное восприятие всеми потребителями.
Ценность (или полезность) информации проявляется в том случае, если она способствует достижению стоящей перед потребителем цели.
Ценность информации – это свойство относительное: одна и та же информация имеет разную ценность для разных потребителей. С течением времени ценность информации уменьшается – она стареет. Однако следует иметь в виду, что старит информацию не само время, а появление новой информации, которая отвергает полностью или частично имеющуюся информацию, уточняет ее, дополняет, дает новое сочетание сведений, приводящее к получению дополнительного эффекта.
Оперативность отражает актуальность информации для необходимых расчетов и принятия решений в изменившихся условиях.
Точность определяет допустимый уровень искажения как исходной, так и результатной информации, при котором сохраняется эффективность функционирования системы.
Достоверность определяется свойством информации отражать реально существующие объекты с необходимой точностью. Достоверность информации измеряется доверительной вероятностью необходимой точности, т.е. вероятностью того, что отображаемое информацией значение параметра не отличается от истинного значения этого параметра в пределах необходимой точности.
Устойчивость информации отражает ее способность реагировать на изменения исходных данных без нарушения необходимой точности. Устойчивость информации определяется выбранной методикой ее отбора и формирования.
Достаточность (полнота) информации означает, что она содержит минимально необходимый объем сведений для принятия правильного решения. Неполная информация (недостаточная для принятия правильного решения) снижает эффективность принимаемых пользователем решений. Избыточность обычно снижает оперативность и затрудняет принятие решения, но зато делает информацию более устойчивой.
При передаче информации от источника к получателю используется некоторый носитель информации. Сообщение, передаваемое с помощью носителя, называют сигналом. Если при передаче сигнала одна из его характеристик (параметр сигнала) принимает конечное число значений, то такой сигнал (как и само сообщение) называют дискретным. Информация, передаваемая при этом, также будет дискретной. Если при передаче источник вырабатывает непрерывное сообщение, то в этом случае передаваемая информация будет непрерывной. Примером дискретного сообщения может быть процесс чтения книги, информация в котором представлена дискретной последовательностью букв. Примером непрерывного сообщения – человеческая речь, передаваемая звуковой волной.
Непрерывное
сообщение всегда можно преобразовать
в дискретное. Процесс такого преобразования
называют дискретизацией.
1.3. ИЗМЕРЕНИЕ
ИНФОРМАЦИИ
Разработаны различные способы оценки количества информации. Чаще всего используется способ оценки, предложенный в 1948 г. основоположником теории информации Клодом Шенноном. Как было отмечено выше, информация – это снятая неопределенность.
Степень неопределенности принято характеризовать с помощью понятия «вероятность».
Вероятность – величина, которая может принимать значения в диапазоне от 0 до 1. Она есть мера возможности наступления какого-либо события, которое может иметь место в одних случаях и не иметь места в других. Если событие никогда не может произойти, его вероятность считается равной 0. Если событие происходит всегда, его вероятность равна 1.
Чем больше вероятность события, тем больше уверенность в том, что оно произойдет, и тем меньше информации содержит сообщение об этом событии. Если вероятность события мала, то сообщение о том, что оно случилось, очень информативно.
Количество
информации I, характеризующей состояние,
в котором пребывает объект, можно определить,
используя формулу Шеннона
I
= –(p1log2p1 + p2log2p2 + ... + pnlog2pn),
где n – число возможных состояний; p1, ..., pn – вероятности отдельных состояний; log2 – функция логарифма при основании 2.
Знак минус перед суммой позволяет получить положительное значение для I, поскольку значение log2 pi всегда не положительно.
Единица информации называется битом. Термин «бит» предложен как аббревиатура от английского словосочетания «Binary digiT», которое переводится как «двоичная цифра».
1 бит информации – количество информации, посредством которого выделяется одно из двух равновероятных состояний объекта.
Формула
Шеннона может быть использована
и для оценки количества информации
в непрерывных величинах. При оценке
количества дискретной информации часто
используется также формула Хартли
I
= log2(n),
где n – число возможных равновероятных состояний; log2 – функция логарифма при основании 2.
Формула Хартли применяется в случае, когда вероятности состояний, в которых может находиться объект, одинаковые.
В общем случае справедливо утверждение, что количество информации в сообщении зависит от числа разнообразий, присущих источнику информации и их вероятностей.