Автор: Пользователь скрыл имя, 02 Декабря 2012 в 20:33, реферат
В самых разнообразных областях научной и практической деятельности приходится сталкиваться с необходимостью использования электрических сигналов, создаваемых различного рода датчиками, преобразователями, схемами сравнения. На основе этого построена вся радиоэлектроника, электронно-вычислительные машины и т.д..
Введение 3
1. Электрический сигнал и формы его представления 4
2. Детерминированные и случайные сигналы 6
3. Гармонический анализ 7
4. Дискретизация и квантование 8
4.1 Дискретизация непрерывного сигнала 8
4.2 Квантование 8
5. Представление сигнала в виде рядов Котельникова 11
5.1 Теорема Котельникова 11
5.2 Ряд Котельникова 12
Заключение 14
Список использованных источников 15
Министерство образования и науки Российской Федерации
Федеральное государственное бюджетное образовательное учреждение
высшего профессионального образования
«Уфимский государственный нефтяной
технический университет»
Кафедра электротехники и электрооборудования предприятий
Реферат
Электрический сигнал и формы его представления. Детерминированные и случайные сигналы. Гармонический анализ. Дискретизация и квантование. Представление сигнала в виде рядов Котельникова
Выполнил: студ. гр. ПО-09-01 И.М. Давлетчурин
Проверил: доцент, кан.тех.наук Р.А. Башаров
Уфа 2012
Оглавление
Введение 3
1. Электрический сигнал и формы его представления 4
2. Детерминированные и случайные сигналы 6
3. Гармонический анализ 7
4. Дискретизация и квантование 8
4.1 Дискретизация непрерывного сигнала 8
4.2 Квантование 8
5. Представление сигнала в виде рядов Котельникова 11
5.1 Теорема Котельникова 11
5.2 Ряд Котельникова 12
Заключение 14
Список использованных источников 15
Введение
Имеется множество определений понятия информации от наиболее общего философского (информация есть отражение реального мира) до практического (информация есть все сведения (данные), являющиеся объектом хранения, передачи, преобразования).
Передается информация в виде сигналов. Сигнал есть физический процесс, несущий в себе информацию. Сигнал может быть звуковым, световым, в виде почтового отправления и др. На практике чаще всего используются электрические сигналы.
Сигнал - это информационная функция, несущая сообщение о физических свойствах, состоянии или поведении какой-либо физической системы, объекта или среды, а целью обработки сигналов можно считать извлечение определенных информационных сведений, которые отображены в этих сигналах (кратко - полезная или целевая информация) и преобразование этих сведений в форму, удобную для восприятия и дальнейшего использования. Наиболее распространен сигнал в электрической форме в виде зависимости напряжения от времени U(t)[1].
|
ИИ - источник информации (сообщение)
ПС - преобразование в электрический сигнал
Кд - кодирование
М - модулятор
ГН - генератор несущей
РУ - регистрирующее устройство
ДО - декодирование, обработка, выделение из помех
УНЧ - усилитель низкой частоты
Д - детектор (демодулятор)
УВЧ - усилитель высокой частоты
ИВЦ - избирательная входная цепь
Рисунок 1 – Общая схема передачи информации
Есть два способа
представления сигнала в
Кроме привычного временного
представления сигналов и функций при
анализе и обработке данных широко используется
описание сигналов функциями частоты.
Действительно, любой сколь угодно сложный
по своей форме сигнал можно представить
в виде суммы более простых сигналов, и,
в частности, в виде суммы простейших гармонических
колебаний, совокупность которых называется частотным спектром сигнала. Для перехода к частотному способу
представления используется преобразование
Фурье:
.
[2]
Детерминированным называется сигнал, характеристики которого могут быть определены в любой момент времени с вероятностью равной единице. Детерминированный сигнал описывается функцией времени, которая, отражает закон изменения во времени напряжения между какими-либо узлами цепи или тока в какой-либо ее ветви.
Случайные сигналы — сигналы, мгновенные значения которых (в отличие от детерминированных сигналов) не известны, а могут быть лишь предсказаны с некоторой вероятностью, меньшей единицы. Характеристики таких сигналов являются статистическими, то есть имеют вероятностный вид. Существует 2 основных класса случайных сигналов. Во-первых, это шумы — хаотически изменяющиеся во времени электромагнитные колебания, возникающие в разнообразных физических системах из-за беспорядочного движения носителей заряда. Во-вторых, случайными являются все сигналы, несущие информацию, поэтому для описания закономерностей, присущих осмысленным сообщениям, также прибегают к вероятностным моделям.
Разновидность обработки данных, связанная с преобразованием их частотного представления или спектра, называется гармоническим анализом. Спектр получается в результате разложения исходной функции, зависящей от времени (временной ряд) или пространственных координат (например, изображения), в базис некоторой периодической функции. Наиболее часто для спектральной обработки используется спектр Фурье, получаемый на основе базиса синуса (преобразование Фурье). Основной смысл преобразования Фурье в том, что исходная непериодическая функция произвольной формы, которую невозможно описать аналитически и в общем случае трудная для обработки и анализа, представляется в виде совокупности синусов или косинусов с различной частотой и амплитудой. Иными словами, сложная функция преобразуется в множество более простых. Каждая синусоида (или косинусоида) с определенной частотой и амплитудой, полученная в результате разложения Фурье, называется спектральной составляющей или гармоникой. Спектральные составляющие образуют спектр Фурье. Визуально спектр Фурье представляется в виде графика, на котором по горизонтальной оси откладывается круговая частота, обозначаемая греческой буквой «омега», а по вертикали – амплитуда спектральных составляющих, обычно обозначаемая латинской буквой A. Тогда каждая спектральная составляющая может быть представлена в виде отсчета, положение которого по горизонтали соответствует ее частоте, а высота – ее амплитуде. Гармоника с нулевой частотой называется постоянной составляющей (во временном представлении это прямая линия).
4.1 Дискретизация непрерывного сигнала
Процедуру получения дискретного сигнала xT(t) рассмотрим как умножение непрерывного сигнала x(t) на вспомогательную последовательность у(t) дискретизирующих прямоугольных импульсов единичной амплитуды: xT ( t ) = x( t ) y( t ).
Рисунок 2 – Дискретизация сигнала: а) – дискретизатор, б) – непрерывный сигнал, в) – дискретизирующие импульсы, г) – дискретный сигнал
Такую операцию осуществляют с помощью электронного ключа К и генератора прямоугольных импульсов ГИ. Длительность дискретизирующих импульсов tи должна быть много меньше интервала дискретизации D.
Принцип формирования дискретного сигнала показан на рис. 4, где изображены графики функций u(t), у(t) и uT(t)[3].
Как известно, в компьютере все данные представляются с конечным числом знаков после занятой. Это объясняется конечной разрядностью регистров и
шины данных. Поэтому для введения информации в ЭВМ кроме дискретизации необходимо провести квантование сигнала – округление значений сигнала с заданной точностью. Квантование сигнала осуществляется в АЦП. Квантование проиллюстрировало на рисунке 5,а. На этом рисунке жирными точками показал цифровой сигнал xn (сигнал, полученный в результате дискретизации и квантования). Сплошной линией показан исходный аналоговый сигнал. Горизонтальными линиями показаны уровни квантования. Расстояние между этими уровнями называют шагом квантования Dх. Из рисунка 5,а следует, что при квантовании возникает погрешность квантования. Эту погрешность en для совокупности произвольных входных сигналов можно считать случайной дискретной величиной (рисунок 5,б)
Рисунок 3 – Процесс квантования (а) и ошибка квантования (б)
Погрешность en можно рассматривать как некоторый дополнительный
шумовой сигнал – шум квантования. Этот шум добавляется к дискретному сигналу в процессе квантования. Из анализа процесса квантования и рисунка 5
следует, что шум можно рассматривать как случайную величину, значения которой равномерно распределены в диапазоне от -Δх/2 до + Δх/2. Плотность распределения вероятности случайной величины en приведена на рисунке 6.
Рисунок 4 – Плотность распределения ошибки квантования
Математическое ожидание для шума квантования, очевидно, будет равно нулю, а дисперсия и среднеквадратичное значение шума квантования:
(2)
[4]
Построение ортонормированного базиса
Любые два сигнала с ограниченным спектром, принадлежащие семейству
(3)
где k=0,±1,±2,..., являются ортогональными. Путем соответствующего выбора S0 преобразуем это семейство сигналов в ортонормированное. Нормы всех сигналов sk(t) одинаковы. Действительно, согласно равенству Парсеваля
(4)
Нормы сигналов sk(t) будут равны 1, если выполняется равенство
при выполнении которого семейство функций ортонормировано.
Следовательно
Таким образом, ортогональное семейство преобразуется в
ортонормированное семейство
(7)
которое образует базис Котельникова в линейном пространстве сигналов с
ограниченным спектром[5].
Пусть u(t) – сигнал с ограниченным спектром. Запишем обобщенный ряд Фурье для сигнала u(t)
где коэффициенты сk определяются как проекции сигнала u(t) на направление Sck(t;ωв), т.е.
Заметим, что спектральная плотность элемента базиса Котельникова при -ωв<ω<ωв имеет вид
(10)
где tk=kπ/ωв .
Теперь наиболее простой способ вычисления коэффициентов сk заключается в применении обобщенной формулы Рэлея. Если U(ω) - спектр изучаемого сигнала u(t), который за пределами интервала -ωв<ω<ωв равен нулю, то
(11)
Величина
согласно формуле обратного преобразования Фурье представляет собой мгновенное значение сигнала u(tk)=uk в отсчетных точках
где k=0,±1,±2,.... Поэтому
Таким образом, ряд преобразуется к виду
(15)
Называемому рядом Котельникова. На основании равенства формулируется теорема Котельникова, являющаяся обоснованием дискретных методов обработки информации: произвольный сигнал, спектр которого не содержит частот выше ωв , может быть восстановлен без потери информации по дискретным отсчетным значениям этого сигнала, взятым через равные промежутки времени Tд=π/ωв= 1/(2fв ), где fв=ωв /2π.