Автор: Пользователь скрыл имя, 09 Марта 2012 в 15:45, шпаргалка
Информатика - это наука об информации, способах ее сбора, хранения, обработки и предоставления с помощью компьютерной техники. Объектом информатики выступают как компьютеры, так и информационные системы.
" графическая (изображение и т. п.);
" звуковая
Из учебника:
Данные (структурированные (таблицы, курсы), неструктурированные (программы по радио, ТВ,, изображения).
Информация- результат анализа данных в связи с поставленной задачей. => информация в виде записок, докладов, статей, отчета итд
10. Что объединяет и различает данные, информацию и знание?
Понятия данных, информации, знаний.
К базовым понятиям, которые используются в экономической информатике, относятся: данные, информация и знания. Эти понятия часто используются как синонимы, однако между этими понятиями существуют принципиальные различия.
Термин данные происходит от слова data - факт, а информация (informatio) означает разъяснение, изложение, т.е. сведения или сообщение.
Данные - это совокупность сведений, зафиксированных на определенном носителе в форме, пригодной для постоянного хранения, передачи и обработки. Преобразование и обработка данных позволяет получить информацию.
Информация - это результат преобразования и анализа данных. Отличие информации от данных состоит в том, что данные - это фиксированные сведения о событиях и явлениях, которые хранятся на определенных носителях, а информация появляется в результате обработки данных при решении конкретных задач. Например, в базах данных хранятся различные данные, а по определенному запросу система управления базой данных выдает требуемую информацию.
Существуют и другие определения информации, например, информация – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.
Знания – это зафиксированная и проверенная практикой обработанная информация, которая использовалась и может многократно использоваться для принятия решений.
Знания – это вид информации, которая хранится в базе знаний и отображает знания специалиста в конкретной предметной области. Знания – это интеллектуальный капитал.
Формальные знания могут быть в виде документов (стандартов, нормативов), регламентирующих принятие решений или учебников, инструкций с описанием решения задач. Неформальные знания – это знания и опыт специалистов в определенной предметной области.
Необходимо отметить, что универсальных определений этих понятий (данных, информации, знаний) нет, они трактуются по-разному. Принятия решений осуществляются на основе полученной информации и имеющихся знаний.
Принятие решений – это выбор наилучшего в некотором смысле варианта решения из множества допустимых на основании имеющейся информации.
Взаимосвязь данных, информации и знаний в процессе принятия решений представлена на рисунке.
Для решения поставленной задачи фиксированные данные обрабатываются на основании имеющихся знаний, далее полученная информация анализируется с помощью имеющихся знаний. На основании анализа, предлагаются все допустимые решения, а в результате выбора принимается одно наилучшее в некотором смысле решение. Результаты решения пополняют знания.
В зависимостиаВ вычислительной технике данные обычно различают от сферы использования информация может быть различной: научной, технической, управляющей, экономической и т.д. Для экономической информатики интерес представляет экономическая информацияпрограмм. Программа является набором инструкций, которые детализируют вычисление или задачу, которая производится компьютером. Данные — это всё отличное от программного кода.С точки зрения программы данные — это часть программы, совокупность значений определенных ячеек памяти, преобразование которых осуществляет код. С точки зрения компилятора, процессора, операционной системы, это совокупность ячеек памяти, обладающих определёнными свойствами (возможность чтения и записи (необязательно), невозможность исполнения). Контроль за доступом к данным в современных компьютерах осуществляется аппаратно. В соответствии с принципом фон Неймана, одна и та же область памяти может выступать как в качестве данных, так и в качестве исполнимого кода.
Информацией называется продукт взаимодействия данных и методов, рассмотренный в контексте этого взаимодействия. Информация первична и содержательна — это категория,, поэтому в категориальный аппарат науки она вводится портретно — описанием, через близкие категории: материя, система, структура, отражение. В материальном мире (человека) информация материализуется через свой носитель и благодаря ему существует. Сущность материального мира предстаёт перед исследователем в единстве формы и содержания. Передаётся информация через носитель. Материальный носитель придаёт информации форму. В процессе формообразования производится смена носителя информации. Определения термин информация не имеет, так как не является понятием. Существует информация в каналах связи систем управления. Не следует путать категорию информация с понятием знание. Знание определяется через категорию информация.
Знание — форма существования и систематизации результатов познавательной деятельности человека. Выделяют различные виды знания: научное, обыденное (здравый смысл), интуитивное, религиозное и др. Обыденное знание служит основой ориентации человека в окружающем мире, основой его повседневного поведения и предвидения, но обычно содержит ошибки, противоречия. Научному знанию присущи логическая обоснованность, доказательность, воспроизводимость результатов, проверяемость, стремление к устранению ошибок и преодолению противоречий.
Знание — субъективный образ объективной реальности, то есть адекватное отражение внешнего и внутреннего мира в сознании человека в форме представлений, понятий, суждений, теорий.
Знание в широком смысле - совокупность понятий, теоретических построений и представлений.
Знание в узком смысле — данные, информация.
Знание (предмета) — уверенное понимание предмета, умение самостоятельно обращаться с ним, разбираться в нём, а также использовать для достижения намеченных целей.
11. В чем состоит семиотический подход к анализу информации?
Семио́тика, или семиоло́гия, (греч. σημειωτική, от др.-греч. σημεῖον — «знак, признак») — наука, исследующая свойства знаков и знаковых систем (естественных и искусственных языков).
Семиотика изучает характерные особенности отношения «знак — означаемое».
Семиотика выделяет три основных аспекта изучения знака и знаковой системы:
1. синтактика изучает внутренние свойства систем знаков безотносительно к интерпретации;
2. семантика рассматривает отношение знаков к обозначаемому;
3. прагматика исследует связь знаков с «адресатом», то есть проблемы интерпретации знаков теми, кто их использует, их полезности и ценности для интерпретатора.
1. создание искусственных языков, позволяющих удобно алгоритмизировать процессы обработки информации (например, языков программирования, языков для индексирования документов, записи научно-технических фактов и т. п.).
2. создание алгоритмов, обеспечивающих обработку текстов на естественном языке (машинный перевод, автоматическое индексирование и реферирование, перевод с естественного языка на формальный язык и т. п.).
3. вопросы проектирования и составления картографических изображений.
Чарлз Сандерс Пирс пытался охарактеризовать ряд важных семиотических понятий (понятие знака, его значения, знакового отношения и т. д.). Он отчетливо сознавал, что эта область исследования должна быть предметом особой науки — семиотики, которую он определял как учение о природе и основных разновидностях знаковых процессов.
В частности Пирс создал базовую для семиотики классификацию знаков:
1. знаки-иконы (icon), изобразительные знаки, в которых означаемое и означающее связаны меж собой по подобию;
2. знаки-индексы (index), в которых означаемое и означающее связаны меж собой по расположенности во времени и/или пространстве;
3. знаки-символы (symbol), в которых означаемое и означающее связаны меж собой в рамках некоторой конвенции, то есть как бы по предварительной договоренности. Национальные языки — примеры таких конвенций.
Чарлз Уильям Моррис значительно развил идеи семиотики и ввёл разделение её на синтактику, семантику и прагматику. В 1938 году он опубликовал небольшую книгу «Основы теории знаков», которая является кратким очерком новой науки. Наиболее полную попытку изложения основных проблем семиотики можно найти в его книге «Знаки, язык и поведение», изданной в Нью-Йорке в 1946 году.
12. Какие существуют меры информации?
Для измерения информации вводятся два параметра: количество информации I и объем данных VД. Эти параметры имеют разные выражения и интерпретацию в зависимости от рассматриваемой формы адекватности. Каждой форме адекватности соответствует своя мера количества информации и объема данных. Объем данных VД в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных: в двоичной системе счисления единица измерения - бит (bit - binаry digit - двоичный разряд); в десятичной системе счисления единица измерения - дит (десятичный разряд).
Количество информации I на синтаксическом уровне невозможно определить без рассмотрения понятия неопределенности состояния системы (энтропии системы). Действительно, получение информации о какой-либо системе всегда связано с изменением степени неосведомленности получателя о состоянии этой системы. Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения о системе . Мерой его неосведомленности о системе является функция H(), которая в то же время служит и мерой неопределенности состояния системы. Если мы получаем инф-ию то H() уменьшается.
Поэтому стремятся к повышению информативности, для чего разрабатываются специальные методы оптимального кодирования информации.
Синтаксические меры информации.
Возникновение информологии как науки можно отнести к концу 50-х годов нашего столетия, когда американским инженером Р. Хартли была сделана попытка ввести количественную меру информации, передаваемой по каналам связи. Рассмотрим простую игровую ситуацию. До получения сообщения о результате подбрасывания монеты человек находится в состоянии неопределенности относительно исхода очередного броска. Сообщение партнера дает информацию, снимающее эту неопределенность. Заметим, что число возможных исходов в описанной ситуации равно 2, они равноправны (равновероятны) и каждый раз передаваемая информация полностью снимала возникавшую неопределенность. Хартли принял «количество информации», передаваемое по каналу связи относительно двух равноправных исходов и снимающее неопределенность путем оказания на один из них, за единицу информации, получившую название «бит».
Создатель статистической теории информации К. Шеннон обобщил результат Хартли и его предшественников. Его труды явились ответом на бурное развитие в середине века средств связи: радио, телефона, телеграфа, телевидения. Теория информации Шеннона позволяла ставить и решать задачи об оптимальном кодировании передаваемых сигналов с целью повышения пропускной способности каналов связи, подсказывала пути борьбы с помехами на линиях и т.д.
В работах Хартли и Шеннона информация возникает перед нами лишь в своей внешней оболочке, которая представлена отношениями сигналов, знаков, сообщений друг к другу - синтаксическими отношениями. Количественная мера Хартли-Шеннона не претендует на оценку содержательной (семантической) или ценностной, полезной (прагматической) сторон передаваемого сообщения
Эта мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.
Семантические меры информации.
Новый этап теоретического расширения понятия информации связан с кибернетикой - наукой об управлении и связи в живых организмах, обществе и машинах. Оставаясь на позициях шенноновского подхода, кибернетика формулирует принцип единства информации и управления, который особенно важен для анализа сути процессов, протекающих в самоуправляющихся, самоорганизующихся биологических и социальных системах. Развитая в работах Н. Винера концепция предполагает, что процесс управления в упомянутых системах является процессом переработки (преобразования) некоторым центральным устройством информации, получаемой от источников первичной информации (сенсорных рецепторов) и передачи ее в те участки системы, где она воспринимается ее элементами как приказ для выполнения того или иного действия. По совершении самого действия сенсорные рецепторы готовы к передаче информации об изменившейся ситуации для выполнения нового цикла управления. Так организуется циклический алгоритм (последовательность действий) управления и циркуляции информации в системе.
Семантическая адекватность определяет степень соответствия образа объекта самому объекту. Здесь учитывается смысловое содержание информации, передаваемой рецепторами и центральным устройством. Информация, по Винеру - это «обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств».
Таким образом, кибернетическая концепция подводит к необходимости оценить информацию как некоторое знание, имеющее одну ценностную меру по отношению к внешнему миру (семантический аспект) и другую по отношению к получателю, накопленному им знанию, познавательным целям и задачам (прагматический аспект).
При всем многообразии логико-семантических теорий им присущи общие черты, они указывают путь решения трех связанных друг с другом проблем: определения совокупности возможных альтернатив средствами выбранного языка, количественной оценки альтернатив, их относительного сопоставления (взвешивания), введения меры семантической информации.
В рассмотренных теоретических конструкциях - статистической и семантической информации - речь шла о потенциальной возможности извлечь из передаваемого сообщения какие-либо сведения. Вместе с тем в процессах информационного обмена очень часто складываются ситуации, в которых мощность или качество информации, воспринимаемое приемником, зависит от того, насколько он подготовлен к ее восприятию.