Автор: Пользователь скрыл имя, 24 Февраля 2013 в 14:32, реферат
Для систем передачи информации важна физическая природа ее восприятия. По этому признаку информация может быть разделена на слуховую, зрительную и “машинную”. Первые два вида соответствуют наиболее емким каналам восприятия информации человеком. Пропускная способность слухового канала составляет тысячи десятичных единиц информации, а зрительного - миллионы. “Машинная” информация предназначена для обработки ЭВМ. Здесь пропускная способность каналов должна согласовываться со скоростью обработки ее машиной – до нескольких десятков миллионов двоичных единиц информации в секунду.
Если разряды кодовых комбинаций пронумеровать справа налево и символы в этих разрядах обозначить для безызбыточного кода a1,a2…ak‚ а для корректирующего b1,b2…bk+1‚ то описанная выше процедура формирования кодовой комбинации запишется в виде:
Первое равенство означает, что информационные символы при
кодировании не изменяются‚ второе описывает правило формирования проверочного символа и определяет контрольную сумму этого кода как результат проверки кодовой комбинации на четность.
При любой однократной ошибке передачи последнее условие нарушается и тем самым выявляется ошибка.
Рисунок 7– Структурная схема кодера.
Кодовые комбинации заданных отсчетов в цифровом ИКМ сигнале с использованием помехоустойчивого кодирования с проверкой на четность:
1. Исходная кодовая комбинация –100010,
r = 1 0 0 0 1 0 = 0
Полная кодовая комбинация
2. Исходная кодовая комбинация –001000,
r = 0 0 1 0 0 0 = 0
Полная кодовые комбинации
4.1 Расчет длительности
единичного элемента кодовой
комбинации цифрового ИКМ
Для определения длительности единичного элемента кодовой комбинации ИКМ сигнала (тактового интервала Ттакт ) с проверкой на чётность необходимо определить:
а) количество информационных элементов к кодовой комбинации
к=6
б) общая длина кодовой комбинации n с учётом кодирования и проверкой на чётность n=14
Fд >2ΔF и кратна частоте дискретизации f=8кГц
Тд=1/2ΔF ΔF=10*103
Fд > 20 кГЦ Fд=20кГЦ
Тд=1/(20)=0.05
Ттакт= Тд/(n-k)= 0.05/(14-6)= 0,00625
Вероятность появления символа «1»: р(1)=0.001+0.50
Вероятность появления символа “0”: р(0)=1-р(1)=1-0,501=0,499.
Энтропия элемента (среднее количество информации) вычисляется по формуле:
H(A)=-0.501*log20.501-0. 0,499*log20. 0,499=1 (бит/Эл.)
Производительность источника сообщений (среднее количество информации‚ производимое источником за единицу времени):
Здесь tср=Ттакт – средняя длительность сообщения. Отсюда
=1/(0,00625)=160 бит/с.
Для двоичного источника информации максимальная элемента достигает максимального значения при равенстве вероятностей появления символов “1” и “0”, т.е. когда p(1) = p(0) = 0.5.
При этом максимальная производительность источника равна:
Н” МАХ = 1/ТТАКТ, =1/(0,00625)=160 бит/с.
Избыточность источника двоичных сообщений оценивается коэффициентом избыточности и равна:
æ = 1-1=0
Избыточность показывает долю (12%) от максимально возможной энтропии, не используемую источником.
Количество информации, содержащееся элементах “1” и “0” равно:
I1 = -log2p(1) бит; I0 = -log2p(0) бит.
Количество информации в конкретной кодовой комбинации равно:
IКК = IЭЛ1+ IЭЛ2+…+ IЭЛ К, или IКК = а·I1+ b·I0.
Здесь IЭЛ i – количество информации в i–м элементе кодовой комбинации; k – количество информационных элементов в кодовой комбинации (проверочный элемент информации не несёт); а – количество элементов “1” в кодовой комбинации (без учёта проверочного элемента); b – количество элементов “0” в кодовой комбинации (без учёта проверочного элемента).
Количество информации, содержащееся в кодовых комбинациях 1000100 и 0010000 из пункта 3:
Для увеличения энтропии источника, если p(1)¹p(0), следует перекодировать кодовые комбинации ИКМ сигнала таким образом, чтобы символы нового двоичного кода были как можно более равновероятны. Это увеличит энтропию элемента (символа) нового двоичного кода. Для этой цели можно использовать неравномерный двоичный код, который содержит две кодовые комбинации длиной в 1 элемент (k=1), т.е. 1 и 0, четыре кодовые комбинации длиной 2 элемента (k=2), т.е. 00, 01, 10, 11, восемь кодовых комбинаций длиной 3 элемента (k=3) , т.е. 000, 001, 010, 011, 100, 101, 110, 111 и т.д.
Для увеличения энтропии необходимо наиболее вероятные кодовые комбинации исходного кода закодировать наиболее короткими кодовыми комбинациями нового двоичного кода (неравномерного). Так как p(1)>p(0), то наиболее вероятной будет кодовая комбинация, состоящая из k – единиц, затем идёт кодовая комбинация, состоящая из (k-1) единицы и одного нуля и т. д. В таблице 2 ан алгоритм перекодирования равномерного кода в неравномерный.
Таблица 2 – Алгоритм перекодирования равномерного кода в неравномерный
Кодовая комбинация равномерного кода |
Кодовая комбинация неравномерного кода |
11111111 |
0 |
11111110 |
1 |
11111101 |
00 |
11111011 |
01 |
11110111 |
10 |
11101111 |
11 |
11011111 |
000 |
4.3 Определение величины параметра h2 на входе детектора, при которой достигается вероятность ошибки Рош=10-6, если помеху, воздействующую на сигнал, считать «белым шумом» со спектральной плотности мощности G0
PОШ = 0,65× exp(-0,44(γh+0.75)2); для АМн γ=1/√2
0,65× exp(-0,44(h/√2+0.75)2)=10-6
h/√2=4,77
h=6,75
h2=45,6
Go – спектральная плотность мощности помехи, В2 с
Для получения вероятности ошибки PОШ = 10-6 , необходимо, чтобы величина h2 =45,6
h2 = E/Go;
E – энергия сигналов S1(t) и S0(t), B2 c;
Из формулы h2 = E/GO находим:
Е= h2* Go=45,6*8*10-7=364,8*10-7, B2 c
Энергия сигналов S1(t) и S0(t) равна
Ес=Рс*Ттакт, B2 c
Рс=364,8*10-7/0,00625=0,0466
Мощность гармонического несущего сигнала: PC = U2/2, В2, где U – амплитуда сигнала, B
После подстановок и преобразований получим:
U =√2Рс=0,066 В
Значение h2 = 45,6 достигается при амплитуде сигнала, равной U = 0,066В.
Формулировка теоремы
Шеннона для дискретного
Теорема. Если производительность источника Нист(А). меньше пропускной способности канала С‚ т.е.
то существует способ кодирования (преобразования сообщения в сигнал на входе) и детектирования (преобразования сигнала в сообщение на выходе канала)‚ при котором вероятность ошибочного декодирования может быть сколь угодно мала. Если же Нист(А)≥С‚ то таких способов не существует.
Пропускная способность для непрерывного‚ без памяти‚ канала связи с аддитивным белым Гауссовским шумом:
‚
Fк=Fмод=2/(3Ттакт)=2/3*0,
Рш=G0*Fк=8*10-7*320=2.56*10-4
Рс=0,0466
С=320*9,804*10-3=3,137
Так как выполняется условие Нист(А)<С ‚ то можно утверждать‚ что существует способ кодирования (преобразования сообщения в сигнал на входе) и детектирования (преобразования сигнала в сообщение на выходе канала)‚ при котором вероятность ошибочного декодирования может быть сколь угодно мала.
При увеличении полосы частот канала ΔFк‚ пропускная способность канала стремится к пределу:
С∞=2,043*103
Вывод: рассчитав пропускную способность канала связи и сравнив ее с рассчитанной в предыдущих пунктах производительностью источника информации мы подтвердили неравенство Шеннона. Столь большая разница между производительностью источника Нист(А) и пропускной способностью канала (С) в целом предопределяет низкую эффективность системы связи с применением амплитудной модуляции.
Рисунок 8 – Структурная схема дискретно-аналогового модулятора.
Ширина спектра модулированного сигнала:
Рисунок 9 – Временные диаграммы сигнала на входе и выходе амплитудного модулятора с различными значениями M
Рисунок 10 – Амплитудно-частотный спектр сигнала на выходе амплитудного модулятора.
Математическое выражение первичного несущего сигнала:
Математическое выражение
,
Информация о работе Цифровая передача непрерывныых сообщений