Цифровая передача непрерывныых сообщений

Автор: Пользователь скрыл имя, 24 Февраля 2013 в 14:32, реферат

Краткое описание

Для систем передачи информации важна физическая природа ее восприятия. По этому признаку информация может быть разделена на слуховую, зрительную и “машинную”. Первые два вида соответствуют наиболее емким каналам восприятия информации человеком. Пропускная способность слухового канала составляет тысячи десятичных единиц информации, а зрительного - миллионы. “Машинная” информация предназначена для обработки ЭВМ. Здесь пропускная способность каналов должна согласовываться со скоростью обработки ее машиной – до нескольких десятков миллионов двоичных единиц информации в секунду.

Файлы: 1 файл

Курсовая 1 -5.doc

— 819.00 Кб (Скачать)

Если разряды кодовых  комбинаций пронумеровать справа налево и символы в этих разрядах обозначить для безызбыточного кода a1,a2…ak‚ а для корректирующего b1,b2…bk+1‚ то описанная выше процедура формирования кодовой комбинации запишется в виде:

Первое равенство означает, что информационные символы при

кодировании не изменяются‚  второе описывает правило формирования проверочного символа и определяет контрольную сумму этого кода как результат проверки кодовой  комбинации на четность.

При любой однократной  ошибке передачи последнее условие нарушается и тем самым выявляется ошибка.

 

 

Рисунок 7– Структурная  схема кодера.

 

Кодовые комбинации заданных отсчетов в цифровом ИКМ сигнале  с использованием помехоустойчивого  кодирования с проверкой на четность:

1. Исходная кодовая комбинация –100010,

r = 1 0 0 0  1 0 = 0

        Полная кодовая комбинация кода  с проверкой на четность: 1000100

2. Исходная кодовая  комбинация –001000,

r = 0 0 1 0 0 0 = 0

         Полная кодовые комбинации кода  с проверкой на чётность: 0010000

 

4.1 Расчет длительности  единичного элемента кодовой  комбинации цифрового ИКМ сигнала  с проверкой на чётность.

 

Для определения длительности единичного элемента кодовой комбинации ИКМ сигнала (тактового интервала  Ттакт ) с проверкой на чётность необходимо определить:

а) количество информационных элементов к  кодовой комбинации

к=6

б) общая длина кодовой  комбинации n с учётом кодирования и проверкой на чётность n=14

Fд >2ΔF и кратна частоте дискретизации f=8кГц

Тд=1/2ΔF  ΔF=10*10

Fд  > 20 кГЦ      Fд=20кГЦ

Тд=1/(20)=0.05

Ттакт= Тд/(n-k)= 0.05/(14-6)= 0,00625

 

4.2 Определение характеристики  источника независимых двоичных  сообщений 

 

Вероятность появления  символа «1»: р(1)=0.001+0.50

Вероятность появления  символа “0”: р(0)=1-р(1)=1-0,501=0,499.

Энтропия элемента (среднее  количество информации) вычисляется  по формуле:

H(A)=-0.501*log20.501-0. 0,499*log20. 0,499=1 (бит/Эл.)

 

Производительность источника  сообщений (среднее количество информации‚  производимое источником за единицу времени):

 

 

Здесь tсртакт – средняя длительность сообщения. Отсюда


      =1/(0,00625)=160 бит/с.

 

Для двоичного источника  информации максимальная элемента достигает  максимального значения при равенстве вероятностей появления символов “1” и “0”, т.е. когда p(1) = p(0) = 0.5.

 

 

При этом максимальная производительность источника равна:

     Н МАХ = 1/ТТАКТ, =1/(0,00625)=160 бит/с.

Избыточность источника  двоичных сообщений оценивается коэффициентом избыточности и равна:

 

æ = 1-1=0

Избыточность показывает долю (12%) от максимально возможной  энтропии, не используемую источником.

Количество информации, содержащееся  элементах “1”  и “0”  равно:

I1 = -log2p(1) бит; I0 = -log2p(0) бит.

Количество информации в конкретной кодовой комбинации равно:

IКК = IЭЛ1+ IЭЛ2+…+ IЭЛ К, или IКК = а·I1+ b·I0.

Здесь IЭЛ i – количество информации в i–м элементе кодовой комбинации; k – количество информационных элементов в кодовой комбинации (проверочный элемент информации не несёт); а – количество элементов “1” в кодовой комбинации (без учёта проверочного элемента); b – количество элементов “0” в кодовой комбинации (без учёта проверочного элемента).

Количество информации, содержащееся в кодовых комбинациях 1000100 и 0010000 из пункта 3:

Для увеличения энтропии источника, если p(1)¹p(0), следует перекодировать кодовые комбинации ИКМ сигнала таким образом, чтобы символы нового двоичного кода были как можно более равновероятны. Это увеличит энтропию элемента (символа) нового двоичного кода. Для этой цели можно использовать неравномерный двоичный код, который содержит две кодовые комбинации длиной в 1 элемент (k=1), т.е. 1 и 0, четыре кодовые комбинации длиной 2 элемента (k=2), т.е. 00, 01, 10, 11, восемь кодовых комбинаций длиной 3 элемента (k=3) , т.е. 000, 001, 010, 011, 100, 101, 110, 111 и т.д.

Для увеличения энтропии необходимо наиболее вероятные кодовые  комбинации исходного кода закодировать наиболее короткими кодовыми комбинациями нового двоичного кода (неравномерного). Так как p(1)>p(0), то наиболее вероятной будет кодовая комбинация, состоящая из k – единиц, затем идёт кодовая комбинация, состоящая из (k-1) единицы и одного нуля и т. д. В таблице 2 ан алгоритм перекодирования равномерного кода в неравномерный.

 

Таблица 2 – Алгоритм перекодирования равномерного кода в неравномерный

Кодовая комбинация равномерного кода

Кодовая комбинация неравномерного кода

11111111

0

11111110

1

11111101

00

11111011

01

11110111

10

11101111

11

11011111

000


 

 

4.3 Определение величины  параметра h2 на входе детектора, при которой достигается вероятность ошибки Рош=10-6, если помеху, воздействующую на сигнал, считать «белым шумом» со спектральной плотности мощности G0

PОШ = 0,65× exp(-0,44(γh+0.75)2); для АМн   γ=1/√2

0,65× exp(-0,44(h/√2+0.75)2)=10-6

h/√2=4,77

h=6,75

h2=45,6

Go – спектральная плотность мощности помехи, В2 с

Для получения вероятности  ошибки PОШ = 10-6 , необходимо, чтобы величина h2 =45,6

h2 = E/Go;

E – энергия сигналов S1(t) и S0(t), B2 c;

Из формулы h2 = E/GO находим:

Е= h2* Go=45,6*8*10-7=364,8*10-7, B2 c

Энергия сигналов S1(t) и S0(t)  равна

 Есстакт, B2 c

Рс=364,8*10-7/0,00625=0,0466

Мощность гармонического несущего сигнала: PC = U2/2, В2, где U – амплитуда сигнала,  B

После подстановок и  преобразований получим:

 U =√2Рс=0,066 В

Значение h2 = 45,6  достигается при амплитуде сигнала,  равной U  = 0,066В.

 

4.4 Определим пропускную  способность канала связи.

 

Формулировка теоремы  Шеннона для дискретного канала:

Теорема. Если производительность источника Нист(А). меньше пропускной способности канала С‚ т.е.

                                                      Нист(А)<С                                                     

то существует способ кодирования (преобразования сообщения  в сигнал на входе) и детектирования (преобразования сигнала в сообщение  на выходе канала)‚ при котором  вероятность ошибочного декодирования  может быть сколь угодно мала. Если же  Нист(А)≥С‚ то таких способов не существует.

     Пропускная  способность для непрерывного‚  без памяти‚ канала связи с  аддитивным белым Гауссовским  шумом:

‚     

Fк=Fмод=2/(3Ттакт)=2/3*0,00625=320

Рш=G0*Fк=8*10-7*320=2.56*10-4

Рс=0,0466

С=320*9,804*10-3=3,137

Так как выполняется  условие Нист(А)<С ‚ то можно утверждать‚ что существует способ кодирования (преобразования сообщения в сигнал на входе) и детектирования (преобразования сигнала в сообщение на выходе канала)‚ при котором вероятность ошибочного декодирования может быть сколь угодно мала.

При увеличении полосы частот канала ΔFк‚ пропускная способность канала стремится к пределу:

            

С∞=2,043*103

 

Вывод: рассчитав пропускную способность канала связи и сравнив ее с рассчитанной в предыдущих пунктах производительностью источника информации мы подтвердили неравенство Шеннона. Столь большая разница между производительностью источника Нист(А) и пропускной способностью канала (С) в целом предопределяет низкую эффективность системы связи с применением амплитудной модуляции.

 

5 Разработка структурной  схемы дискретно-аналогового модулятора  и алгоритма его работы.

 

Рисунок 8 – Структурная  схема дискретно-аналогового модулятора.

 

Ширина спектра модулированного сигнала:

 

Рисунок 9 – Временные  диаграммы сигнала на входе и  выходе амплитудного модулятора с различными значениями M

 

 

 

Рисунок 10 – Амплитудно-частотный  спектр сигнала на выходе амплитудного модулятора.

Математическое выражение  первичного несущего сигнала:

Математическое выражение сигнала  на выходе модулятора (UM(t) – модулирующий сигнал):

 

,

 


Информация о работе Цифровая передача непрерывныых сообщений