Теория оптимального приема сигналов
Структурная схема системы связи
Основы теории немодулированных сигналов
Корреляционные характеристики детерминированных сигналов
4.65M
Категория: ЭлектроникаЭлектроника

Теория оптимального приема сигналов

1.

Теория оптимального приема сигналов
Приемники сигналов, обеспечивающие минимальные искажения сообщения
при приеме сигналов в условиях помех, называются оптимальными или
идеальными.
В зависимости от назначения приемника критерии оптимальности и количественные характеристики искажений могут быть разными.
В теории оптимального приема обобщенным критерием качества является
критерий «среднего риска» R.
R I ( , ) ( , )d d min
,
(1)
I ( , ) - функция потерь (цена за ошибку)
( , ) - совместная плотность распределения вероятностей ,
( , ) ( ) ( / ) (2)
( ) - плотность распределения вероятностей (ПРВ) оценки сообщения
( / ) - условная плотность распределения вероятностей сообщения
2

2. Теория оптимального приема сигналов

Правило оценки принятого сообщения может быть регулярным или
нерегулярным.
Регулярный прием – это такое решение, при котором каждой принятой
.
реализации y (t ) соответствует определенное решение
Нерегулярное решение – это такое решение, при котором оценка
связана с y (t ) статистической зависимостью, т.е. оценка сообщения
происходит с определенной вероятностью.
R I ( , ) ( y ) ( / y )dyd (3)
y ,
Rус I ( , ) ( / y )d - условный риск
(4)
R Rус ( y )dy
(5)
y
( y ) - априорная плотность распределения вероятностей y
( / y ) - апостериорная плотность распределения вероятностей
3

3.

Упрощенная структурная схема оптимального приемника
y (t )
( / y )
ОФУ
РУ
ОФУ – оптимальное
фильтрующее устройство
РУ – решающее устройство
Алгоритм разработки структурной схемы оптимального приемника:
1) выбор функции потерь (для непрерывных сообщений – это минимум ( )
для дискретных – это минимум вероятности ошибки;
2) вычисление апостериорной плотности распределения вероятностей (АПРВ)
для определения максимума ( / y ) ,т.е. наиболее вероятного значения;
3) разработка алгоритма работы решающего устройства.
Основная задача оптимального приемника – вычисление ( / y ) для всех
переданных сообщений и принятие решения в соответствии с выбранной
функцией потерь.
4
2

4.

Определение АПРВ
1
( / y )
( ) ( y / )
( y)
(6)
( y ) , ( ) - априорные плотности распределения
вероятностей соответственно входного сигнала
и сообщения.
( y / )
- функция правдоподобия.
ПРВ входного сигнала и сообщения распределены по равномерному закону.
1
( y)
y
y
1
( )
- динамический диапазон изменения сообщения.
- динамический диапазон изменения входного
сигнала.
( / y ) K ( y / )
(7)
5

5.

Многомерная функция правдоподобия полностью известных сигналов
(n)
y (t ) S ( , t ) n(t )
(8)
- многомерная плотность распределения вероятностей помехи
(гауссовский закон).
( y / ) n [ y(t ) S ( , t )]
(9)
T - интервал времени существования сигнала;
t
1
- интервал дискретизации входного сигнала;
2 Fэ
H
T
- количество выборок.
t
n (nh )
h
n2 N 0 2 Fэ
2
n
1
exp( h 2 )
2 n
2 n2
(11)
- дисперсия помехи.
nh yh Sh ( )
(10)
(12)
6

6.

7

7.

Определение ФРВ
Для одномерной ФРВ
P(t1 ) [ X (t1 ) x1 ]
Для многомерной ФРВ
P(t1 ) [ X (t1 ) x2 ]
P X (t1 ) x1 ; X (t 2 ) x2 ,.... X (t n ) xn
P(t1 ) [ X (t1 ) xn ]
Значения x1 , x2 ,.......xn меняются во всем диапазоне
изменений случайного процесса (флуктуационнойX (t )
n(t )сигнала
помехи
или первичного
).
(t )
8

8.

2
n
( y / ) nh [ y h S h ( )] (
) H exp( h 2 ) (13)
2 n
h 1
h 1
2 n2
H
1
H
exp суммы = произведению exp (после
подстановки (14) в (13) получили (15))
2
(14)
h
h
nh2 [ y h S h ( )] 2 y h2 2 y h S ( ) S ( )
y h2
y h S h ( )
S h2 ( )
( y / ) K1 exp( 2 ) exp(
) exp(
) (15)
2
2
2 n
n
2 n
h 1
H
произведение exp = exp суммы (см. (16)
К2
H
( y / ) K 2 exp(
h 1
y h S h ( )
2
n
H
) K 2 exp (
h 1
( y / ) K 2 exp q( )
n ( y / ) nK 2 q( )
y h S h ( )
2
n
) (16)
(17)
(18)
9

9.

Структурная схема оптимального (корреляционного) приемника
различения дискретных сигналов (полностью известных)
t
q( 1 )
0
S1 (t )
y (t )
t
q( 2 )
РУ
0
S 2 (t )
Оценка сообщения
t
q ( n )
дмЗ
0
S n (t )
n - количество сообщений или первичных сигналов (позиционность кода);
t
- длительность элементарного импульса.
10

10.

Коэффициент взаимной корреляции
q ( )
1
2
n
H
H
h 1
h 1
q ( )
[ S h ( ) S oh ( ) nh S oh ( )] g ( ) h( ) (19)
При непрерывном наблюдении выражение для
t
случайная
функция
q ( ) изменится:
t
2
q ( )
[ S ( , t ) S ( 0 , t )dt n(t ) S ( 0 , t )dt ] g ( ) h( )(20)
неслучайная
N0 0
0
функция
E
2 E
2
2
(22)
g ( )
rc ( , 0 ) 2 rc ( , 0 ) (21)
на входе пр-ка N 0
N0
t
t
1
rc ( , 0 )
S ( , t ) S ( 0 , t )dt (24)
E S 2 ( , t )dt (23)
E 0
0
2
вых
g 2 ( ) max
h2
(2 )
2
2
2 2
2 2
(25)
11

11.

Параметры сигналов-переносчиков
Параметры сигналов-переносчиков делятся на
информационные и неинформационные.
Информационные параметры: амплитуда синусоидального
сигнала (АМн); частота синусоидального сигнала (ЧМн); фаза
синусоидального сигнала (ФМн, ОФМн).
Неинформационные параметры делятся на существенные и
несущественные.
Существенные неинформационные параметры синусоидального
сигнала: частота сигнала (АМн, ФМн, ОФМн); время прихода
элементарного импульса и его длительность; начальная фаза для
когерентного приема (ЧМн).
Несущественные неинформационные параметры
синусоидального сигнала: амплитуда (ЧМн, ФМн, ОФМн);
начальная фаза для некогерентного приема (АМн, ЧМн, ОФМн).
Для приема сигналов со случайными несущественными
параметрами используется квадратурный приемник. Для приема
сигналов со случайными существенными параметрами
используется приемник с синхронизацией: высокочастотной и
тактовой.
12

12.

Оптимальные приемники классифицируются в зависимости от
решаемых задач.
Оптимальный приемник решает одну из следующих задач:
1) различение сигналов;
2) обнаружение сигналов;
3) фильтрация сигналов от помех;
4) оценка параметров сигналов (для определения дальности, скорости,
условных координат);
5) одновременное обнаружение, различение и оценка параметров
сигналов.
Для каждой задачи выбирается критерий оптимальности.
Обобщенным критерием является критерий «среднего риска».
Если все ошибки приема являются равноценными, то критерий
«среднего риска» называется критерием «идеального наблюдателя».
13

13.

Лекция №2
Оптимальный приемник для сигналов-переносчиков
со случайной амплитудой и начальной фазой
S ( , t , Ac , ) Ac (t ) cos[ 0 t c ( , t ) (t )]
y (t ) S ( , t , Ac , ) n(t )
(1)
(2)
Ac (t ) - огибающая радиосигнала (почти не меняется за время длительности сигнала).
с ( , t ) - медленно меняющаяся функция, обусловленная частотной или фазовой
модуляцией.
(t ) - случайная начальная фаза.
( )
1/ 2
Значения
Ac , ,
Равномерный закон
плотности распределения
вероятностей начальной
фазы
( )
являются статистически независимыми.
14

14.

Закон Рэлея
( Ac ) 2h 2 Acexp( h 2 Aс2 )
( Ac )
1
h2
h 2
(3)
4
4 A2c
( Ac ) - плотность распределения
Ac
вероятностей амплитуды сигналапереносчика
- наиболее вероятное значение (мода)
15

15.

Выражение АПРВ для приемника полностью известных сигналов
1
( / y )
( ) ( y / )
( y)
(4)
см. (6) лекция №1
Выражение АПРВ для приемника со случайными амплитудой и
начальной фазой
( , Ас , / y )
1
( , Ac , ) ( y / , Ac , )
( y)
(5)
( y ) - априорная ПРВ входного сигнала;
( , Ac , ) ( ) ( Ac ) ( ) - совместная ПРВ случайных
, Ас , ;
величин
( ) - априорная ПРВ случайной величины ;
(6)
( y / , Ac , ) - функция правдоподобия.
16

16.

( , Ас , / y) ( / y)
Операция усреднения по случайным величинам
Ас ,
( / y) ( , Ac , / y) ( Ac , )dAc d
(7)
0
На основании статистической независимости случайных величин
( Ас , ) ( Ас ) ( )
Ас , :
(8)
После преобразований выражения ( 7 ) получим формулу ( 9 ):
0
( / y) ( Ac )[ ( , Ac , / y) ( )d ]dAc (9)
17

17.

Выражение АПРВ для сигналов со случайными несущественными
неинформационными параметрами ( Ас , ) после операции
усреднения по начальной фазе
( , Ac / y) k ( , Ac ) I 0 [| q( ) |]
(10)
1
АПРВ для полностью известных сигналов
k
( / y) k ( ) K 2 exp q( )
( y)
I 0 [| q( ) |] - модифицированная функция Бесселя нулевого порядка
Лекция №1
Модуль комплексной функции взаимной корреляции
| q ( ) | Ac q ( ) q ( )
2
1
Ac 1 ;
q1, 2 ( )
2
2
(11)
- квадратурные составляющие
q ( )
2
q1, 2 ( )
y(t ) S1, 20 ( , t )dt
N0 0
S1, 20 ( , t ) - квадратурные опорные сигналы
(12)
18

18.

Структурная схема квадратурного приемника
0
q1 ( )
y (t )
q12 ( ) q 22 ( )
S10 ( , t ) U m cos 0 t
| q ( ) |
q2 ( )
0
S 20 ( , t ) U m sin 0 t
19

19.

Оптимальный приемник сигналов со случайными существенными
неинформационными параметрами
Цель: сформировать опорные сигналы с учетом оценок случайных параметров
сигнала-переносчика для использования в системах синхронизации СС
(высокочастотной СВС и тактовой СТС). СС работает по информационным или
специальным сигналам.
СВС предназначена для отслеживания несущего сигнала по частоте и начальной
фазе и формирования опорных сигналов.
СТС предназначена для отслеживания временных границ элементарных символов
и формирования коротких тактовых импульсов.
y (t )
t
0
РУ
t
0
СВС
СТС
СС
20

20.

Система фазовой автоподстройки частоты ФАПЧ
Фазовый демодулятор
Входной
сигнал
Г
ФНЧ
Г
УЭ
- генератор сигналов
ФНЧ - фильтр нижних частот
УЭ - управляющий элемент
Обеспечивает автоматическое изменение
одного из параметров генератора (частоты,
фазы) за счет управляющего элемента в
соответствии с изменением параметра
входного сигнала с помощью
формирования на выходе фазового
демодулятора сигнала ошибки.
21

21.

Лекция №3
Оптимальный приемник сигналов при воздействии негауссовской помехи
В основе оптимального приемника лежит алгоритм нахождения max АПРВ,
который сводится к вычислению max функции правдоподобия и max q ( ) .
Алгоритм справедлив, если ПРВ помехи имеет экспоненциальный характер, как у
закона Гаусса .
H
H
q( ) n ( y / ) n{ п [ y h S h ( )]} n n [ y h S h ( )] (1)
см. (18) лек.№1
h 1
см. (13) лек.№1
Z 0 [ y h S h ( )] n n [ y h S h ( )] (2)
h 1
логарифм произведения = сумме логарифмов
- характеристика оптимального блока
нелинейных преобразований ОБНП
H
y h S h ( ) n h
ОБНП
-
h 1
S h ( 1 )
H
ОБНП
S h ( 0 )
РУ
h 1
Опорные сигналы S h ( 1 ) и S h ( 0 )
22
должны формироваться с точностью до амплитуды.

22.

Асимптотически оптимальный приемник
Преобразование функции n ( y / ) с помощью разложения в ряд Тейлора
S h ( ) nh
(справедливо для широкополосных приемников
Выражение для
членов ряда не выше
первого порядка
f ( y S ) f ( y) S f 1 ( y) (3)
Исходное выражение для разложения в ряд Тейлора
S S h ( )
d n п ( y h )
Z ao ( y h )
dy
при условии
f 1 ( y)
S y
H
n [ y S ( )]
h 1
f ( y S ) n n [ y h S h ( )]
f ( y) n п ( y h )
)
n
h
h
см. (1) лек. №3
d n n ( y h )
dy
(4) - характеристика блока нелинейного
преобразования (БНП)
Выражение для реализации схемы асимптотически оптимального приемника
H
H
n [ y S ( )] Z ( y ) S ( )
h 1
n
п ( y)
h
h
h 1
ao
h
h
(5)
S h ( ) и не влияет на
- функция не зависит от сигнала
схему приемника (поиск максимума коэффициента корреляции).

23.

Структурная схема асимптотически оптимального приемника при воздействии
негауссовских помех
yh
БНП
q( 1 )
H
h 1
РУ
S h ( 1 )
q ( 0 )
H
h 1
S h ( 0 )
2
2
2
2
выхнг
выхг
ао
2 2 ао
ао
2
ао
1
Е
N0
2
(см. (22), (23) лек. №1)
- коэффициент подавления негауссовской помехи
2
ао
1 для гауссовской помехи
24

24.

Лекция №4
Основы теории обнаружения сигналов
Задача обнаружения состоит в формировании наибольшего пикового отношения сигнал/шум и
сравнении выходного напряжения
с порогом q ( ) .
H
Схема оптимального приемника обнаружения для полностью известных сигналов
у (t )
с
q ( )
ПУ
q( ) H
0
Выбор порога
H зависит от критерия оптимальности приемника:
1. Критерий среднего риска (известны априорные вероятности).
2. Критерий идеального наблюдателя (известны априорные вероятности, все
ошибки одинаково опасны).
3. Критерий Неймана-Пирсона (априорные вероятности неизвестны).

25.

Варианты результатов работы приемника обнаружения
1
0
Р(0 / 1)
вероятность пропуска сигнала
Р (1 / 1)
вероятность правильного обнаружения
Р(1 / 0)
вероятность ложного обнаружения
Р (0 / 0) вероятность правильного необнаружения
Рош Р(0 / 1) Р(1 / 0) вероятность суммарной ошибки по
критерию идеального наблюдателя
Алгоритм выбора порога приемника (критерий Неймана-Пирсона):
1. Задается вероятность ложного обнаружения
Р(1./ 0)
Р(1 / 0) определяется величина порога H .
Р (1 / 1) ,
Р(0 / 1.) .
3. По значению порога вычисляются вероятности
2. По вероятности
26

26.

H
Определение порога
2 c
y(t ) S o (t )dt g ( ) h( ) (1)
q ( )
N0 0
y (t ) S (t ) n(t )
Сигнал присутствует, на выходе коррелятора - случайная величина
1.
с параметрами
М [q сп ] 2 ;2
q cп
D[q сп ] 2 2 .
В результате линейного преобразования гауссовского шума закон ПРВ
случайной величины
cп остается гауссовским (нормальным).
q
2.
(2)
Сигнал отсутствует, на выходе коррелятора - случайная величина
с параметрами гауссовского распределения
п (q)
2 с
[ S (t ) n(t )] S o (t )dt H
N0 0
cп (q)
qп
. 2
M [q п ] ; 0 D[q п ] 2
Сигнал есть
Отношение правдоподобия
2 c
n(t ) S o (t )dt H
N0 0
Сигнала нет
27

27.

ПРВ п (q ) (сигнала нет) и ПРВ cп (q ) (сигнал есть) распределены по
гауссовскому закону и нормальному закону
п (q)
cп (q)
H
Р (1 / 0) п (q ) dq
M [q сп ] 2 2
q
H
(3)
P(0 / 1) сп (q )dq
(4)
Пропуск сигнала
H
Ложная тревога
Р(1 / 1) 1 Р(0 / 1)
Правильное обнаружение
п (q)
cп (q)
q
28

28.

Вычисление вероятностей и порога
V [H ]
1
H
2
exp(
z
/ 2)dz
2 H
P(1 / 0) V [ H / 2 2 ]
(6)
(5)
Табличный интеграл (дополнение к
интегралу вероятностей)
Задаем значение вероятности ложной тревоги и
определяем по таблице порог
H .
Р[1 / 1] V [ H / 2 2 2 2 ]
(7)
Р(0 / 1) 1 V [ H / 2 2 2 2 ]
(8)
Р(0 / 0) 1 V [ H / 2 2 ]
Рош V [ H / 2 2 ] (1 V [ H / 2 2 2 2 ])
(9)
По критерию идеального наблюдателя
29

29.

Лекция №5
Оптимальная линейная фильтрация непрерывных случайных сигналов
Выделение полезного сигнала (t ) из аддитивной смеси сигнала и помехи:
y (t ) (t ) n(t )
Для гауссовских случайных процессов оптимальными являются линейные фильтры.
y (t )
Wф ( j )
(t )
Критериями оптимальности фильтрации являются: 1) минимум среднеквадратической
погрешности , обеспечивает наилучшее воспроизведение формы
непрерывного сигнала (фильтрация второго рода); 2) отношение максимального
значения сигнала к среднеквадратическому отклонению помехи 2 , обеспечивает
надежную фиксацию факта наличия сигнала (фильтрация первого рода).
К фильтрам первого рода относятся согласованные и корреляционные фильтры.
Решение задачи оптимальной фильтрации (фильтрации второго рода) осуществляется
при непрерывном или дискретном наблюдении во временной или частотной областях.
Наиболее простой является расчетная модель линейной фильтрации в частотной
области при непрерывном времени.

30.

Расчетная модель линейной оптимальной фильтрации второго рода
(t ) и n(t ) - независимые эргодические случайные процессы с гауссовским законом
ПРВ и известными функции СПМ
S ( ) и S п ( )
Wид ( j ) 1
2
(t ) (t ) (t )
(t )
(t )
2
На основании принципа
суперпозиции получим
выражения (1,2).
S ( ) S ( ) Wф ( j ) S п ( ) Wф ( j ) S ( ) Wид ( j )
S п S п ( ) Wф ( j )
2
S д S ( ) 1 Wф ( j )
(1)
(t )
Wф ( j )
-
(t )
y (t )
n(t )
Текущая погрешность
2 min
Критерий оптимальности
2
(2)
- помеховая составляющая текущей погрешности
2
- динамическая составляющая текущей погрешности

31.

2 д2 п2 (3) S ( ) S ( ) 1 W ( j ) 2 S ( ) W ( j ) 2 (4)
ф
п
ф
2
2
1
1
2
S ( ) 1 Wф ( j ) d
S п ( ) Wф ( j ) d (5)
2
2
d 2
0
dWф ( j )
dS ( )
0
dWф ( j )
(6)
Фазовый сдвиг (время задержки) между входным и выходным сигналами фильтра не влияет на
текущую погрешность. Поэтому можно перейти от W
Уравнение (6) решаем относительно
ф
( j ) к
Wф ( . )
Wф ( ) .
Характеристика оптимального фильтра
Wф ( ) опт
Wф ( ) опт
S ( )
S ( ) S п ( )
(7)

32.

После подстановки формулы (7) в выражение (5) получим:
S ( ) S п ( )
1
2
d
2 S ( ) S п ( )
(8)
Для физически реализуемых фильтров интегрирование имеет смысл в пределах от 0 до
.
Формула (8) показывает потенциальные возможности оптимальной фильтрации.
Если
S п ( ) S ( )
, то
Если
S п ( ) S ( )
,
Wф ( ) опт
то
S ( )
S п ( )
Wф ( ) опт 1
В полосе частот, где спектры сигнала и помехи не пересекаются, т.е.
2 2 .
,
,
2 п2
.
S ( ) S п ( ) 0 ,
Wф ( ) опт 1 . На участках, где спектры сигнала и помехи пересекаются, АЧХ фильтра тем
меньше, чем меньше соотношение между спектральными составляющими сигнала и помехи.
Wф ( ) опт
S ( )
S п ( )
1
33

33.

Пример передаточной функции физически реализуемого оптимального
фильтра
для
S п ( ) N 0
(белого шума)
и
S ( )
рациональной функции, стремящейся к нулю, например, экспоненциального типа.
N0
1 W ( j )
N 0 S ( )
2
2
min
S ( )
N0
n 1
d
2
N0
в виде

34.

Лекция №6
Помехоустойчивость оптимального приемника дискретных сигналов
В качестве основного показателя помехоустойчивости приемника дискретных сигналов
используется вероятность ошибки при приеме элементарного символа
Р.
ош
Рош N ош
N пер
при
N пер
Pi
Pi / j
(1)
0
- апостериорные вероятности
Рош
Пример аналитического расчета
0 ( Р0 ); 1 (
- априорные вероятности
Р1 ); 2 ( Р2 ); 3 ( Р3 )
P1 / 0
Р2 / 0
Р3 / 0
Р0 / 0
Рош (а 1) Рi / j (4)
а=4
(позиционность кода)
3
Рош0 Рi / 0 (2)
i 1
Операция усреднения с помощью
априорных вероятностей
Pi
Рош Р0 Рош0 Р1 Рош1 Р2 Рош2 Р3 Рош3
a
a 1
Рош Pi Pi / j
i
j i
(3)
j
для случая равенства апостериорных вероятностей и
1
Pi
равенства априорных вероятностей
а
35

35.

Помехоустойчивость оптимального и асимптотически оптимального приемника
различения полностью известных сигналов
у (t ) S ( , t ) n(t ) (1)
На входе приемника
х
х
S (t ) - ортогональные сигналы с
одинаковой энергией
n(t ) - гауссовская помеха
РУ
y (t )
Выражение коэффициента корреляции на выходе приемника в канале с копией входного
сигнала:
i j
q ( ) g ( ) h( ) 2 2 h H
(2)
Случай «свой-свой»
i, j
Закон распределения ПРВ
параметрами:
величины
сп (qслучайной
)
M [q сп ] 2 2
q сп- нормальный с
D[q сп ] 2 2
(3)
Выражение коэффициента корреляции на выходе приемника в канале без копии входного сигнала:
Случай «свой-чужой»
i j
q i , j ( ) 0 h ( ) h
п (qслучайной
)
Закон распределения ПРВ
величины
параметрами:
M [q п ] 0
q п - гауссовский с
D[q п ] 2 2
Вероятность превышения значения
h
величины
P1 (h H ) п (q )dq
(4)
(5)
H
(6)
H
36

36.

1 P1 (h H )
Вероятность отсутствия ошибки:
(7)
Вероятность отсутствия ошибки во всех каналах, где нет копии входного сигнала:
[1 Р1 (h H )] a 1 (8)
Вероятность правильного приема:
Рправ.пр. [1 P (h H )] a 1 сп ( H )dH
Вероятность ошибки:
Выражение
Выражение
сп ( H ) сп (q)
а 1 Рош 0,1
2
для сигналов с неизвестной начальной фазой:
Рош [( а 1) / 2] exp( 2 / 2)
Выражение
(10)
Рош 1 Рправ.пр. (11)
Рош для ортогональных сигналов при условии
Рош (а 1) V ( ) (12)
Рош
(9)
(13)
- отношение мощностей
сигнала и шума на один
элементарный импульс
квадратурный прием
Рош для канала с негауссовской помехой:
Рош ( а 1) V [ , ао , 1 qi , j ( )]
i j
(14)
37

37.

Лекция №7
Помехоустойчивость цифровых систем передачи непрерывных сообщений
2
Оценка помехоустойчивости – приведенная дисперсия суммарной
погрешности:
2 и2 ф ( кв2 ан2 )
и2 - погрешность интерполяции
(1)
и2 кв2 ан2
и2 0
ф - коэффициент фильтрации помех интерполяционным
фильтром
2
кв - погрешность квантования
2
- аномальная погрешность
ан
2
Причина погрешности:
2
кв
(2)
2
ан
ф 1
(3)
кв2 - операция квантования;
ан2 -
действие внешних помех.
38

38.

Оценка погрешности квантования в цифровых системах с ИКМ
Погрешность квантования – неустранимая погрешность, возникает вследствие
замены истинного значения сообщения
разрешенным
(t к )
квантованным уровнем
. кв
кв кв (tк )
кв - случайная величина, ПРВ
(4)
кв зависит от способа разбивки шкалы,
способа отождествления истинного значения с квантованным уровнем (шаг
квантования, число уровней квантования, основание кода), ПРВ сообщения.
( ) 1 / оптимальным (по
При равномерном распределении ПРВ сообщения
критерию минимума среднеквадратичной погрешности квантования) является равномерное
квантование.
АИМ-сигнал
кв
max min
Lкв 1
Lкв 1
(5)
кв
- шаг квантования
Lкв
- число уровней квантования
- динамический диапазон сообщения
Lкв а к
а
- позиционность кода
кв
к - разрядность кода
39

39.

Погрешность квантования
( кв )
1
кв
в интервале
кв
кв / 2 кв кв / 2 (6)
в вне интервала ПРВ равна 0
М [ кв ] 0
кв / 2
3
2
2
D[ кв ] кв2 кв2 ( кв )d кв кв 2 2кв / 12
2
2
3
12
(
L
1
)
12
L
кв
кв
кв
2
/ 2
кв
кв
кв
( )
( кв )
1 / кв
-
6
36
2
2
(8)
-
- кв / 2
кв
кв / 2
кв
40
(7)

40.

кв2 ИКМ
Приведенная дисперсия погрешности квантования для ИКМ
2
2
36
3
3
2
кв
квИКМ 2
2 2к
2 2
12( Lкв 1)
Lкв а
2
кв ИКМ
(9)
зависит от шага квантования, количества уровней квантования,
позиционности кода, числа разрядов в кодовой комбинации, ПРВ
сообщения.
Приведенная дисперсия погрешности квантования для ДИКМ
кв2 ДИКМ

12 L
6 р р
2
кв р
(11)
2
36 р2
12 L
2
кв р
2
3 р2
а
2к р
По аналогии с формулой (8)
2
р
2
р 2 1 (13)
2
(10)
2 р 36 р2 (12)
2
квДИКМ
квИКМ
(14)
41

41.

АИМ- сигнал
(t k 1 ) (t k )
конечная разность первого порядка
р
(1) (t k ) (t k 1 )
р
кв const
Lкв р Lкв
при
кр к
при
а соnst
42

42.

Аномальные погрешности при ИКМ
В результате действия помех в канале связи дискретные сигналы искажаются, происходит
ошибочный прием (вместо одного символа фиксируется другой).
Последовательность видеоимпульсов (огибающая радиоимпульсов)
1
0
1
1
1 2 0 0 21 1 2 2 1 2 3 13
1 2 0 0 21 1 2 2 0 2 3 5
1
0
1
0
ан 5 13 8
к 1
ан к а 0 а 1 а 2 а ... а
i
0
1
2
к 1
i 0
i
- разрядная цифра, случайная величина, принимающая значения:
правильно;
, если
1произошла ошибка для
i
ан кв ан
(16)
ан - аномальная ошибка в единицах измерения
амплитуды.
,
Lкв Lкв (15)
i , если
0 символ принят
а 2
а
- основание кода.
аномальная ошибка,
ан -выраженная
в количестве
разрядов.
43

43.

Дисперсия аномальной погрешности
к 1
к 1
i 0
i 0
D( ан ) D( i a i ) (а i ) 2 D( ) (17)
- дисперсия
ан
D( ) - дисперсия случайной величины
(зависит от вероятности
ошибки Рош
и позиционности кода )
Дисперсия аномальной погрешности в единицах измерения амплитуды
k 1
D( ан ) a 2i D( )
2
кв
(18)
- дисперсия
i 0
ан
Приведенная дисперсия аномальной погрешности
2
ан
D( ан ) / 12 Pош (19)
2
для гауссовского сообщения
Аномальная погрешность характеризует достоверность передачи сообщений.
В качестве достоверности используют также вероятность появления
аномальной погрешности
.
Р
ан
44

44.

Ран
Оценка вероятности появления аномальной погрешности
ксимволов, может быть искажено от одного
до всех к символов.
В кодовой комбинации, состоящей из
Р- ан
Вероятность появления аномальной погрешности
это вероятность того, что кодовая
Ран
комбинация будет принята хотя бы с одной ошибкой. Величина
зависит от вероятности
ошибочного приема элементарного символа
и характера распределения
Рош ошибок в
канале связи.
Допущения:
В канале действует белый гауссовский шум (все ошибки при приеме кодового слова независимые события). Значения вероятности ошибки в любом разряде кодового слова одинаковы
Рош i имеют
constодинаковые энергии и коэффициенты взаимной корреляции.
. Сигналы-переносчики
Вероятность того, что в кодовой комбинации из
символов, определяется
по формуле Бернулли:
l
ксимволов будут искажены
l
Рошк (l ) Ckl Pош
(1 Pош ) к l
C k! / l!(k l )! (21)
l
k
- число сочетаний из
(20)
к по l
45

45.

Расчет вероятности аномальной ошибки
Ран
Вероятность хотя бы одной ошибки в кодовой комбинации
k
k
l
Ран Pошк (l ) C kl Pош
(1 Pош ) k l
l 1
(22)
l 1
При качественной передаче цифровых сигналов в кодовых комбинациях
возникают преимущественно одиночные ошибки и значение
Ран
рассчитывается по упрощенной формуле:
Ран 1 (1 Рош ) к к Рош (23)
где
(1 Рош ) к
(25)
к Рош 0,1 (24)
- вероятность того, что ошибки не будет
ни в одном из
к символов.
Ран зависит от основания кода, метода манипуляции,
Вероятность
коэффициента взаимной корреляции несущих сигналов, метода приема, вида
2 приемника.
помех, отношения мощностей сигнала к шуму
на входе
46

46.

2
анр
Оценка
и
Ранр
при дифференциально-импульсно-кодовой
модуляции (ДИКМ)
2
Методика расчетов
и
Ранр при ДИКМ такая же, как для
анр
ИКМ.
р ДИКМ
Учитывая, что динамический диапазон изменений сигнала
при
(конечные разности первого порядка) значительно меньше динамического
диапазона
при ИКМ, можно записать следующие соотношения:
р
Lкв р Lкв
кв const
кр к
а соnst
2
анр
12 Рош р2
Ранр к р Рош
(26)
(27)
2
р
2
р 2 1
по аналогии с формулами
(19); (23)
При одинаковом качестве канала передачи, определяемом

в ош
2
системе с ДИКМ обеспечивается в
раз меньшее значение
р
и в ( к / к р ) раз меньшее значение
Ран
.
ан2
47

47.

Расчет суммарной погрешности при ИКМ
Явление порога
При передаче непрерывных сигналов с помощью ИКМ с гауссовским законом ПРВ
помехи приведенная дисперсия суммарной погрешности определяется по формуле:
2
2
кв
3
2 к 12 Рош
а
2
ан
(28)
Если передача ведется с помощью ИКМ-ЧМ, то вероятность ошибки
равна:
См. лек.№6 формула (13) для
12
а 1
Рош
ехр( ) (29) квадратурного приема.
2
2
к - отношение мощности,
2
12 - отношение мощностей
элементарного импульса и помехи.
2
1
затраченной на передачу
кодового слова, к
мощности помехи.
3
2
2 к 6 (а 1) ехр( )

а
2
(30)
48

48.

2 f (к , Lкв )
2
2 const
Lкв а к
d 2
0

Индекс модуляции
к опт
Области зависимости
f ( )
2
подпороговая,
2
:
2
к1
M опт а к опт
к, Lкв
к2
2 f ( 2 )
k const
к1 к 2
пороговая,
надпороговая.
2
пор
- рабочее значение
2
2
Чем больше число разрядов, тем больше вероятность аномальной ошибки, тем
резче проявляется порог. Чем больше индекс модуляции, тем больше полоса
частот сигнала, тем выше качество передачи.
49

49.

Расчет приведенной суммарной погрешности при ДИКМ
2
3
2
2р кв2 р анр
[ 2 к 6 (а 1) ехр(
а
р
2к р
)] р2
(31)
р2 1
M р а кр
По сравнению с ИКМ при одинаковых условиях ДИКМ обеспечивает
меньшую погрешность квантования
погрешности
кв2и меньшие значения аномальной
ан2 и вероятности аномальной погрешности
Р,анявляясь
более помехоустойчивой системой передачи сигналов.
Недостаток ДИКМ (процесс накопления и размножения аномальных ошибок)
устраняется с помощью различных технических методов.
50

50.

Лекция №8
Многоканальные системы передачи информации (МКС)
В основе МКС лежит принцип уплотнения линий связи (одновременная передача
нескольких модулированных сигналов-переносчиков), который повышает пропускную
способность, а также экономическую эффективность использования линий связи. В основе
уплотнения лежит принцип ортогональности (различимости) сигналов-переносчиков.
Методы уплотнения основываются на формуле Шеннона для определения информационного объема
канала (линии) связи
:

Vк Tк Fк Dк
Коэффициент корреляции для
ортогональных сигналов
1
C, i j
r ( Si , S j ) Si (t ) S j (t )dt
Е0
0, i j
Tк - время передачи сигналов
Fк - полоса частот канала (линии связи)
Dк - динамический диапазон канала (линии связи)
t
Классификация методов уплотнения:
1) временное разделение каналов (ВРК): на отдельные временные интервалы (тайм-слоты) делится
T
к
2) частотное разделение
каналов (ЧРК): на отдельные частотные полосы делится
;

3) кодовое разделение каналов или по форме сигнала переносчика (КРК): для разделения сигналов
используется ресурс
.

51

51.

Dk
Временное разделение
каналов (линии связи)
Частотное разделение
каналов (линии связи)
Tk
Dk
Fk
Vк Tк Fк Dк
Tk
Fk

52.

Особенности методов уплотнения
ВРК
Сигналы-переносчики – импульсные последовательности (кодовые комбинации),
которые передаются для каждого сообщения в отведенные временные интервалы (таймслоты), занимают всю полосу частот линии , требуют временной синхронизации

(точного совпадения начала и конца временных каналов на передающей и приемной
сторонах).
ЧРК
Сигналы-переносчики –синусоидальные сигналы, амплитудно-модулированные,
которые передаются в разных частотных полосах линии связи, существуют в одно и то
Tк одновременно), требуют частотной синхронизации (точного
же время
(передаются
совпадения спектра модулированного сигнала с выделенной полосой частотного канала
на передающей и приемной сторонах).
КРК
Сигналы-переносчики – дискретные ортогональные последовательности в виде
прямоугольных импульсов различной длительности и полярности («прямоугольной
волны» функций Уолша, Радемахера или прямоугольного синуса, Чебышева и т.д.),
требуют точного совпадения начала и конца интервалов ортогональности (тактовых
интервалов) на передающей и приемной сторонах, передаются одновременно и

занимают одну и ту же полосу частот линии связи
.
53

53.

Принципы временного уплотнения АИМ-сигналов в системе с ВРК
АИМ-импульсы
В t АИМ может
учитываться
t АИМ
Период опроса
N
Т о 1 / 2 f эф
- число временных
каналов в системе с
ВРК
N
f эф

t АИМ
межканальный
интервал
- эффективная полоса
частот сообщения
54

54.

Структурная схема передающей аппаратуры системы с ВРК
1 (t )
2 (t )
n (t )
ФНЧ
ФНЧ
ФНЧ
Кл
Кл
Кл
ФСИ
ГИ
АМн,
ЧМн,
ФМн,
ОФМн
АИМ
ИКМ
Гн
Кл
Распределитель
управляющих импульсов (РИ)
РИ состоит из линий задержки на
ФСИ - формирователь синхроимпульса
Коммутационная система КС=РИ+Кл
Мн
Под действием УИ
замыкается Кл и
формируется
выборка АИМ
t АИМ
Электронный ключ
(Кл)
Управляющий
импульс (УИ)
Длительность УИ =
t АИМ 55

55.

АМн, ЧМн,
ФМн, ОФМн
ДМ
Структурная схема приемной аппаратуры системы с ВРК
ИКМ
Кл
Корреляционн
ый приемник
АИМ
ИКМ
Кл
АИМ
Кл
ИКМ
АИМ
Декодирующие
ВСИ
ГИ+РС
ФНЧ
ФНЧ
ФНЧ
1 (t )
2 (t )
n (t )
ИНТЕРПОЛЯЦИОННЫЕ
ФИЛЬТРЫ
устройства
ВСИ - выделитель синхроимпульса (СИ) для запуска генератора управляющих
импульсов и распределительной системы. СИ отличаются от импульсов АИМ
большей амплитудой и большей длительностью. Кл каждого временного канала
на передающей и приемной сторонах должны работать синхронно (замыкаться и
размыкаться).
56

56.

Принципы частотного уплотнения в системе с ЧРК
АЧХ линии связи и спектры уплотняемых сигналов
(t )
(t )
АМ
ПФ1
ОМ
ОМсигнал
Частотная полоса ПФ
f
f н1
f н1
Преобразователь
(Пр)
f
f н1
4 кГц
Пр=АМ+ПФ
Частотная полоса уплотняемой линии связи
Число уплотняемых каналов
F
N
F
f
57

57.

Приемо-передающая аппаратура системы с ЧРК
S1 ( , t )
1 (t )
S1 ( , t )
S 2 ( , t )
S 2 ( , t )
f н1
2 (t )
n (t )
f нn
1 (t )
S n ( , t )
f н2
Мод Гр
ЧМ,
ФМ
ДемодГ
р
S n ( , t )
Ген
ПФ1
ПФ2
f н1
2 (t )
f н2
n (t )
f нn
S1 ( , t )
ПФ1
S 2 ( , t )
ПФ2
S n ( , t )
ПФn
ПФn
58

58.

Принцип кодового уплотнения в системе с КРК
Функции Уолша
Амп.
База шумоподобного сигнала ШПС
64 ортогональных комбинаций
В
Т
1
t
1
2
t
3
t
4
t
Т
- период ортогональности
59

59.

Принцип модуляции с помощью
ШПС
Амп.
Т
- период опроса сообщений
1
Мод
1 функция
2
Мод
2 функция
3
Мод
3 функция
1
2
АИМсигнал
3
(t ) 1
t
1
2
2
3
3
Т
поступают на модуляторы
одновременно
60

60.

Модулированные сигналы (64 комбинации ШПС) складываются и поступают на
модулятор ЧМ (ФМ). На одной несущей частоте могут одновременно
обслуживаться 64 абонента (на практике используют 32 комбинации для
уменьшения «шумов ортогональности», возникающих за счет отсутствия
возможности синхронизации периодов ортогональности ШПС, например, в
системах сотовой связи).
Структурная схема системы передачи сигналов ШПС
1 (t )
х
2 (t )
х
n (t )
х
Мод
Демод
ЧМ,ФМ
ЧМ,ФМ
СФ1
1 (t )
СФ2
2 (t )
n (t )
СФn
Чем больше база ШПС, тем меньше длительность элементарного импульса, тем
больше ширина полосы частот, занимаемая системой КРК, тем сильнее спектр
ШПС приближается к спектру белого шума, тем меньше «шумы ортогональности»
(выше качество связи). Свойство квазиортогональности ШПС и использование их без синхронизации
есть преимущество ШПС перед системой ортогональных синусоидальных сигналов.
На приемной стороне используются согласованные фильтры, настроенные на
прием определенной комбинации импульсов (функций Уолша). В основе
согласованных фильтров (СФ) – линии задержки на время длительности
элементарного импульса. На выходе СФ формируется метка по аналогии с
оптимальным приемником, пропорциональная амплитуде АИМ (сообщения) на
передающей стороне.
61

61.

Лекция №1
I часть
Теория передачи сигналов (ТПС)
В курсе ТПС изучаются способы передачи информации от источника к потребителю.
Основные понятия курса: информация, сообщение, сигнал, система связи.
Информация – совокупность сведений о каких-либо событиях, явлениях или предметах.
Сообщение – форма представления информации в виде совокупности букв, цифр, знаков,
символов.
Сигнал – материальный носитель сообщения в виде физического процесса (звуковой или
электромагнитной волны, электрического тока).
Система связи – совокупность технических средств, предназначенных для передачи
сообщений в виде электрических или оптических сигналов по линиям связи.
Система связи состоит из передающего и приемного устройств, линейных сооружений
(электрического или оптического кабеля, воздушных линий, а также усилительных и
регенерационных устройств).
62

62.

Структурная схема системы связи
(t )
Источник
сигналов
Передающее
устройство
S ( , t )
(t )
y (t )
Линия связи
n(t )
Приемное
устройство
Получатель
информации
y (t ) S ( , t ) n(t )
Источник
помех
Передающее устройство – предназначено для преобразования сообщения в сигнал-переносчик,
способный распространяться по линии связи.
Приемное устройство - предназначено для обратного преобразования сигнала-переносчика в
сообщение.
Линия связи – физическая среда, по которой распространяется сигнал-переносчик (электрический
или оптический кабель, воздушная линия связи, электромагнитная волна или радиоканал).
Важнейшими параметрами системы связи являются: энергия, затраченная на передачу сигналапереносчика; полоса частот канала связи, которые выбираются, исходя из заданного качества
передачи.
63

63. Структурная схема системы связи

Основы теории немодулированных сигналов
Немодулированные сигналы – это сигналы, параметры которых не изменяются в
зависимости от других сигналов.
Модулированные сигналы – это сигналы, параметры которых изменяются под
действием других сигналов.
Немодулированные сигналы подразделяются на две группы: детерминированные сигналы,
случайные сигналы.
Детерминированные сигналы и их характеристики
Детерминированные сигналы подчиняются определенным функциям времени и при
известных параметрах этих функций могут быть определены точно на сколь угодно
большом промежутке времени.
S (t ) U m cos( o t o )
Например,
Um
,
o
,
o
- известные параметры синусоидальной функции
Детерминированные сигналы делятся на 1) периодические
2) непериодические
S (t ) S (t T0 )
S (t ) S (t T0 )
64

64. Основы теории немодулированных сигналов

Основные характеристики детерминированных сигналов:
мощность, энергия, корреляционная функция, амплитудно-частотный спектр.
P(t ) S 2 (t )
- мгновенная мощность сигнала
T
- энергия сигнала
E S 2 (t )dt
0
T - длительность сигнала
T
1
E
2
Pср S (t )dt
T0
T
- средняя мощность сигнала
Т0
U m2 T0
Е (U m cos 0 t ) dt
2
0
2
А
t
Т0
Е U m2
Рср
Т0
2
для синусоидального сигнала
65

65.

Корреляционные характеристики детерминированных сигналов
Автокорреляционная функция сигналов с
конечной энергией
Т
Rав ( ) S (t ) S (t )dt
0
Т
1
R ав ( ) im S (t ) S (t )dt
T0
1
Автокорреляционная функция сигналов с бесконечно
большой энергией
T
T
RS1S2 ( ) S1 (t ) S 2 (t )dt
0
T
1
RS1S2 ( ) im S1 (t ) S 2 (t )dt
T0
Функция взаимной корреляции сигналов с
конечной энергией
Функция взаимной корреляции сигналов с
бесконечно большой энергией
T
T
RS1S2 (0) S1 (t ) S 2 (t )dt
0
при
S1 (t ) S 2 (t )
при
S1 (t ) S 2 (t )
Корреляция определяет зависимость между
двумя значениями сигнала (сигналов),
отстоящих друг от друга на временной
промежуток
Временной сдвиг между значениями сигналов
Определение
ортогональности
сигналов
66

66. Корреляционные характеристики детерминированных сигналов

Автокорреляционная функция прямоугольного импульса
и
Аим п
Т
Rав ( ) S (t ) S (t )dt
t
0
А
t
и
2
Е S 2 (t )dt Аимп
и
Rав ( )
0
Е Rав (0)
и
и
67

67.

Лекция №2
Случайные сигналы и их характеристики
Случайные сигнал (процесс) изменяется случайным образом и не может быть точно определен
во времени.
t1
Случайный процесс
случайного сигнала
t2
tn
X (t )характеризуется совокупностью реализаций
x1 (t ), x2 (t )....xn (t )
.
Случайный процесс в фиксированный момент времени
величина.
t
есть
n случайная
x1 (t ), x2 (t )....xn (t )в
Совокупность случайных величин реализаций
момент времени
есть сечение случайного процесса.
n
t
xк (t )
68

68.

Определение ФРВ
Для одномерной ФРВ
P(t1 ) [ X (t1 ) x1 ]
Для многомерной ФРВ
P(t1 ) [ X (t1 ) x2 ]
P X (t1 ) x1 ; X (t 2 ) x2 ,.... X (t n ) xn
P(t1 ) [ X (t1 ) xn ]
Значения x1 , x2 ,.......xn меняются во всем диапазоне
изменений случайного процесса (флуктуационнойX (t )
n(t )сигнала
помехи
или первичного
).
(t )
69

69.

Функция распределения вероятностей случайного процесса ФРВ
(интегральный закон)
F ( x1 , x2 ,.....xn ; t1 , t 2 ,....t n )
Случайный процесс
X (t )полностью задан, если для любого набора моментов времени
t1 , t 2 ,....t n
x1 , x2 ,.......xможно
и любых значений сигнала
вычислить вероятность
n
того, что в указанные моменты времени случайный сигнал
значения, не
Xпринимает
(t )
x1 , x2 ,.......xn , а именно:
превышающие
F ( x1 , x2 ,.....xn ; t1 , t 2 ,....t n ) Р X (t1 ) x1 , X (t 2 ) x2 ,...... X (t n ) xn
Р X (t1 ) x1 , X (t 2 ) x2 ,...... X (t n ) xn
совместная вероятность события,
определяющая многомерную ФРВ
Плотность распределения вероятностей случайного процесса ПРВ (дифференциальный
закон)
n F ( x1 , x 2 ,....x n , t1 , t 2 ,.....t n )
( x1 , x2 ,....xn , t1 , t 2 ,....t n )
x1 x 2 ...... xn
70

70.

Свойства ФРВ (одномерной)
1.
F ( x, t ) 0
2.
0 F ( x, t ) 1
Свойства ПРВ (одномерной)
1.
( x, t ) 0
2.
( x, t )dx 1
x
F ( x, t ) ( x, t )dx
71

71.

ПРВ
ФРВ
ФРВ
72

72.

Классификация случайных процессов
1.Стационарные и нестационарные случайные процессы.
Случайный процесс, у которого вероятностные характеристики не изменяются во времени,
называется стационарным.
Случайный процесс, у которого вероятностные характеристики изменяются во времени,
называется нестационарным.
Стационарные процессы разделяются на стационарные в узком смысле, когда не изменяются во
времени законы распределения вероятностей, и в широком смысле, когда от времени не зависят
только числовые характеристики: математическое ожидание, дисперсия, корреляционная
функция (зависит только от
).
Стационарные случайные процессы в узком смысле стационарны и в широком смысле, но не
наоборот.
Эргодический случайный процесс относится к стационарным, у которого каждая достаточно
продолжительная реализация может характеризовать весь случайный процесс.
Эргодический случайный процесс
73

73.

74

74.

Продолжение классификации случайных процессов
2. Классификация по характеру зависимости текущего значения случайного процесса от
предыдущих значений:
2а) абсолютно случайные, т.е. непредсказуемые (например, белый шум), характеризуются
одномерной ПРВ, имеют корреляционную функцию в виде дельта-функции и
равномерную спектральную плотность мощности (СПМ).
X (t )
t
S x ( )
Rx ( )
N0
0
75

75.

2б. Марковский случайный процесс: текущие значения случайного процесса зависят
только от одного предыдущего значения, характеризуется одномерной ПРВ и ПРВ
перехода из одного состояния в другое.
2в. Немарковские случайные процессы: текущие значения случайного процесса
зависят от двух и более предыдущих значений.
3. Классификация случайных процессов по виду закона распределения плотности
вероятностей:
3а. Гауссовские и негауссовские случайные процессы.
4. Классификация случайных процессов по виду корреляционной функции.
Закон Гаусса (ПРВ)
x(t ) m1 (t )
( x, t )
exp
2
2
2
2 x (t )
x (t )
1
2
x1
F ( x, t ) ( x, t )dx
Многомерная ПРВ гауссовского процесса определяется одномерной ПРВ и корреляционной
функцией. Некоррелированные сечения гауссовского процесса являются независимыми
случайными величинами.
76

76.

77

77.

Лекция №3
Моментные функции -
это среднее значение случайного процесса порядка
статистическим путем.
mk (t ) x k (t ) ( x, t )dx
m1 (t ) M [ x(t )] x(t ) ( x, t )dx
к, полученное
Усреднение по
множеству реализаций
к 1
0
x(t ) M [ x(t )] x(t )
2
D[ x(t )] x(t ) ( x, t )dx
0
к 2
T
Для стационарных и
эргодических случайных
процессов
M (x) D(x) (x )
1
M ( x) im x(t )dt
T0
T
Усреднение по времени
T
1 02
D( x) im x (t )dt
T0
T
78

78.

Среднее значение случайного процесса

79.

mk
k
x
k 1
k 3
k 4
(x)
- коэффициенты, характеризующие вид функции ПРВ
- коэффициент вариации, является мерой случайности
(стационарного случайного процесса)
- коэффициент характеризует степень несимметричности
функции ПРВ
- характеризует степень остроконечности функции ПРВ
( С 2, C 2 - обобщенный гауссовский закон,
гауссовский закон )
С 2
С
С 2
x
m4
x4
С 2 -
Среднеквадратическое
отклонение
x D[x]
80

80.

Корреляционная функция случайного процесса
Корреляционная функция устанавливает взаимосвязь между двумя
значениями случайного процесса, соответствующими двум моментам
времени.
R x (t1 , t 2 ) x(t1 ) x(t 2 ) ( x1 , x 2 ; t1 , t 2 )dx1 dx 2
Для стационарных случайных процессов
(t 2 t1 )
R x ( ) x1 (t ) x 2 (t ) ( x1 , x 2 , )dx1 dx 2
Нормированная функция корреляции
R x ( 0) D ( x )
2
x
Rx ( )
rx ( )
Rx (0)
к rx ( )d интервал
корреляции
0
rx ( )
Rx ( )
1.
Rx ( ) Rx ( )
2
2. R x ( ) R (0) x
3. imR x ( ) 0
81
Свойства

81.

Нормированная функция корреляции стационарного
случайного процесса
к rx ( )d
0
интервал корреляции
1
к
Rx ( )d
Rx (0) 0

82.

Спектральная плотность мощности (СПМ)
S x ( )
СПМ – энергетическая характеристика стационарного случайного процесса.
СПМ – это зависимость
частот шириной в 1 Гц.
S x ( средней
)
мощности случайного процесса от полосы
СПМ однозначно связана с корреляционной функцией преобразованиями
Винера-Хинчина.
Преобразования Винера-Хинчина:
1
j
R x ( )
S
(
)
e
d
x
2
S x ( ) R x ( ) e j d
Для четных функций и положительных значений аргументов:
S x ( ) 2 Rx ( ) cos( )d
Rx ( )
1
S ( ) cos( )d
x
0
0
Эффективная полоса частот случайного сигнала
1
эф
S x ( )d
S x (0) 0

83.

Примеры случайных процессов
t
эф
к
Rx (0)
S x (0)
84

84.

Спектральная плотность мощности речевого сигнала
форманты
2 (1Гц )
Частота
основного
тона
2 (1Гц )

85.

Модели
S x ( )
речевого сигнала
Полиномы Баттерворта
2 x2
sin( / 2k )
S x ( )
/ 2k
x [1 ( / x ) 2 k ]
эф

86.

Лекция №4
Дискретное представление случайных процессов
- это преобразование функции непрерывного времени в функцию дискретного времени.
S (t ) может быть точно или приближенно
Случайный сигнал
представлен в виде линейного
функционального ряда в виде оценки
S:(t )
Nk
S (t ) S k Wk (t )
k 0
Sk
- весовые коэффициенты
Wk (t )
- базисные функции
Nk
N k конечно
S (t ) S (t )
S (t ) S (t ) (t )
- погрешность восстановления
T
S k S (t ) Vk (t )dt
Vk (t ) - весовые функции
0
87

87.

Классификация дискретных представлений
Обобщенное дискретное представление в виде разложения в обобщенный ряд
Фурье с последующей аппроксимацией (восстановление непрерывного сигнала).
Vk (t ) Wk (t )
Дискретное представление в виде отдельных отсчетов (выборок)
с
S (t k )
последующей интерполяцией (восстановление непрерывного сигнала). Этот вид
дискретного представления лежит в основе импульсно-кодовой модуляции ИКМ.
Vk (t ) (t t k )
Разностное дискретное представление в виде конечных разностей с
последующей интерполяцией (лежит в основе дифференциально-импульсно-кодовой модуляции
ДИКМ) .
Весовая функция
Vk (t )есть линейная комбинация отсчетов
S (t. k )
88

88.

Обобщенные дискретные представления ортогональным рядом (ОДП)
(разложение сигналов в обобщенный ряд Фурье)
Система ортогональных функций:
С
0 Wi (t ) Wk (t )dt 0
T
при
при
k i
k i
Т
2
W
k (t )dt 0
Функции не равны тождественно нулю.
0
T
2
W
k (t )dt 1
Система ортонормированных
функций
0
В качестве системы ортонормированных функций используются различные полиномы:
Лежандра, Чебышева, Уолша, Хаара, тригонометрические и др.
89

89.

Пример разложения сигнала в ряд Фурье с помощью тригонометрических функций

90.

Пример формирования координат
Координаты
t
Временной промежуток
для передачи координат
других сигналов
00 1 0 0 11 00

91.

Структурная схема системы передачи сигналов с ОДП
Т
х
S0
S0
х
Л. С.
0
W0 (t )
Т
х
S (t )
W0 (t )
S1
MUX
S1
DEMUX
х
0
W1 (t )
W1 (t )
Т
х
Sk
S (t )
Sk
х
0
Wk (t )
Wk (t )
92

92.

Лекция №5
Текущая погрешность
(t ) (t ) (t )
2
(t )
2
2
Приведенная дисперсия
текущей погрешности
93

93.

Дискретизация по выборкам и интерполяция
В качестве координат используются мгновенные значения сигнала, взятые в определенные
моменты времени. Представление непрерывного сигнала в виде отдельных отсчетов
называется процессом дискретизации.
k
S (t k ) S (kT0 ) S (t ) (t kT0 )
k
T0 const
- регулярная дискретизация
T0 const
- нерегулярная дискретизация
T0
- период опроса
94

94.

На приемной стороне осуществляется обратный процесс восстановления непрерывного сигнала
из отдельных выборок (интерполяция).
Nk
S (t ) S (kT0 ) Wи (t kT0 )
Wи (t kT0 ) - интерполирующий полином
k 0
S (t )
Квадратичная
интерполяция
Ступенчатая
интерполяция
t
T0
S (t )
Линейная
интерполяция
T0
t
t з T0
T0
t
95

95.

Теорема Котельникова
Любая непрерывная функция может быть восстановлена точно по своим
незашумленным выборкам только при следующих условиях:
T
1) процесс восстановления стремится к бесконечности
2) дискретизируемая функция должна иметь ограниченный спектр
3) частота опроса должна быть равна
сигнала)
F0 2F(c
[0 Fс ]
F-сграничная частота
4) интерполятором должен быть идеальный фильтр нижних частот ФНЧ:
Wи (t kT0 )
sin[ 2 Fc (t kT0 )]
2 Fc (t kT0 )
Теорема Котельникова определяет потенциальные возможности дискретизации по выборкам,
которые достижимы только теоретически:
1. Идеальные ФНЧ физически не реализуемы.
2. Бесконечное время наблюдения (восстановления) невозможно в случае практической
реализации.
Следовательно, в реальных условиях всегда имеет место интерполяционная
погрешность
и2 , которая является функцией СПМ дискретизируемого сигнала,
частоты опроса и метода интерполяции.
96

96.

Расчет интерполяционной погрешности
Непрерывные сигналы, представленные выборками, должны восстанавливаться с заданной
и2
интерполяционной погрешностью. Расчет
и определение
являются F
важными
0
задачами, возникающими при проектировании и эксплуатации цифровых систем передачи
информации.
При использовании частотной методики процесс интерполяции трактуется как процесс фильтрации
спектра исходной функции
из спектраSпоследовательности
выборок
(t )
S (kT0 ) .
Исходные данные:
S ( )
S ( ) СПМ исходного сигнала
S (t ) и период опроса
СПМ
S * ( )
есть сумма СПМ сигнала
смещенных составляющих
T0
выборок S (kT0 )
S ( ) и СПМ
S см ( )
2 Fc c
1
1
1
S ( )
S
(
k
)
[
S
(
)
S
(
k
)]
[ S ( ) S см ( )]
0
0
T0 k
T0
T0
k
*
k 0
97

97.

Интерполяция идеальным ФНЧ
S (t )
S * ( )
1
T0
F0
2 F0 0
2 Fc c
искажения
98

98.

Выделяют два случая фильтрации исходного сигнала в зависимости от ширины СПМ и
периода опроса:
1. СПМ сигнала ограничена
F0 2Fc ( спектры не перекрываются и с помощью
идеального ФНЧ выделяется сигнал без искажений.
2. СПМ сигнала не ограничена или не соблюдается условие
F0 2F(спектры
c
перекрываются и сигнал выделяется с искажением, т.е. интерполяционной
погрешностью
и2 ).
Интерполяционная погрешность состоит из двух статистически независимых
составляющих: динамической
ид2 , возникающей из-за того, что часть СПМ
S ( ) не пропускается через интерполяционных фильтр;
помеховой
ип2 , возникающей из-за того, что в полосу частот пропускания
S см.( )
интерполирующего фильтра попадает часть смещенных СПМ
сигнала
2
и
2
ид
2
ип
2 дисперсия сигнала
2
и2 и2
приведенная дисперсия
интерполяционной погрешности
99

99.

2
ид
2
1
S ( ) 1 Wи ( j ) d
2
2
ип
1
2
S см ( ) Wи ( j ) d
2
Wи ( j )
комплексный коэффициент передачи
интерполирующего фильтра
Коэффициент фильтрации интерполирующего фильтра по отношению к внешним помехам
приблизительно равен единице.
100

100.

Лекция №6
Дискретные разностные представления
Алгоритм формирования дискретных разностных представлений:
1. Формирование мгновенных отсчетов сигнала.
N гоотсчета
S пр (t kна) основании
2. Предсказание очередного
предыдущих ( N 1) отсчетов с учетом вероятностных свойств сигнала.
3. Сравнение предсказанного значения
с действительным значением
S
(
t
k)
текущего отсчета
и формированиепрразности
предсказания
S (t k )
порядка.
N го
( N ) S (t k ) S пр (t k )
В частном случае разностное представление первого порядка имеет вид:
S пр (t k ) S (t k 1 )
(1) S (t k ) S (t k 1 )
)
В линию связи посылается
В результате уменьшается динамический диапазон сигнала
( Nразность.
(сообщения), повышается помехоустойчивость, устраняется информационная избыточность сигнала, за
счет временного уплотнения повышается пропускная способность каналов связи. После дискретизации
сигнала по времени и формирования разности осуществляется процесс квантования по уровню и(1)
кодирование.
101

101.

Дельта-модуляция
При увеличении частоты опроса разность между соседними отсчетами может быть
достаточно малой и квантоваться на два уровня:
1) если
( N ) S (t k ) 0
, то в линию связи передается единица,
2) если
( N ) S (t k ) 0
, то в линию связи передается ноль.
Структурная схема передающего и приемного устройств систем передачи сигналов с
дискретным разностным представлением
S (t )
дискретизатор
(1)
Прогнозирующее
устройство
Линия задержки на
(1)
T0
S (t к )
Канал связи
к интерполятору
Прогнозирующее устройство
Линия задержки на
T0
102

102.

На передающем стороне
S (t ) S (t k )
дискретизация
S (t k ) ( N ) S пр (t k )
S пр (t k ) S (t k 1 )
На приемной стороне
S (t k ) ( N ) S пр (t k )
S пр (t k ) S (t k 1 )
S (t k ) S (t )
интерполяция
103

103.

Дискретизация, квантование, кодирование
Импульснокодовая
модуляция ИКМ
S (t k )
Уровни
квантования
икм
256 уровней
1)дискретизация
2)квантование
3
2
1
0
3)кодирование
t
кодирование
Динамические диапазоны
икм
00000110
(N )
дикм
Дифференциальноимпульсно-кодовая
модуляция ДИКМ
1)дискретизация
Уровни
квантования
3
дикм
0
t
2
1
16 уровней
2)вычисление конечных
разностей
3)квантование
4)кодирование
кодирование
0011
104

104.

Лекция №7
Теория модулированных сигналов
Модуляция – управление параметрами несущего сигнала по закону передаваемого
сообщения.
Назначение модуляции:
1) преобразование первичного сигнала в высокочастотное колебание для передачи
информации по линии связи;
2) устранение информационной избыточности в первичном сигнале.
Классификация видов модуляции
сообщение
несущий сигнал
шумоподобные
непрерывные
дискретные
гармонические
импульсные
аналоговые виды
АМ,ЧМ,ФМ
аналоговые импульсные
АИМ,ШИМ,ФИМ,ЧИМ
дискретные виды
АМн,ЧМн,ФМн,ОФМн
цифровые виды
ИКМ,ДИКМ

105.

АМ – амплитудная модуляция (амплитуда синусоидального сигнала-переносчика изменяется по закону
изменения амплитуды непрерывного сообщения).
ЧМ – частотная модуляция (частота синусоидального сигнала-переносчика изменяется по закону
изменения амплитуды непрерывного сообщения).
ФМ – фазовая модуляция (фаза синусоидального сигнала изменяется по закону изменения амплитуды
непрерывного сообщения).
АМн – амплитудная манипуляция (амплитуда синусоидального сигнала-переносчика изменяется по закону
изменения амплитуды дискретного сообщения).
ЧМн – частотная манипуляция (частота синусоидального сигнала-переносчика изменяется по закону
изменения амплитуды дискретного сообщения).
ФМн- фазовая манипуляция (фаза синусоидального сигнала-переносчика по закону изменения амплитуды
дискретного сообщения).
ОФМн – относительно фазовая манипуляция (фаза синусоидального сигнала-переносчика по закону
изменения амплитуды дискретного сообщения).
АИМ – амплитудно- импульсная модуляция (амплитуда импульса импульсного сигнала-переносчика
изменяется по закону изменения амплитуды непрерывного сообщения).
ШИМ – широтно-импульсная модуляция (длительность импульса импульсного сигнала-переносчика
изменяется по закону изменения амплитуды непрерывного сообщения).
ФИМ – фазо-импульсная модуляция ( фаза импульса импульсного сигнала-переносчика изменяется по
закону амплитуды непрерывного сообщения).
ЧИМ – частотно-импульсная модуляция (частота импульсов импульсного сигнала-переносчика изменяется
по закону амплитуды непрерывного сообщения).
ИКМ – импульсно-кодовая модуляция, ДИКМ – дифференциально-импульсно-кодовая модуляция,
ДМ – дельта-модуляция.
106

106.

(t )
Дискретная модуляция (манипуляция)
107

107.

Модулятор ФМн
(t )
S ( , t )
X
S (t )
f эф
101001
1
эл
СПМ –
бесконечна
0
При 180
несущая
подавлена
108

108.

Демодулятор ФМн
ФД
S ( , t )
ФНЧ
S(t)
(t )
УмЧ
ФВ
Ф2
ДЧ
Ф1
ВОК
109

109.

Манипулятор ОФМн
(t )
ОФМн
2
ФМ
Л.З.
S (t )
Демодулятор ОФМн
ОФМн
ВОК
ФНЧ
2
(t )
Л.З.
110

110.

Частотный манипулятор
Автогенератор
Кв1
Выход
Кл
Кв2
Частотный демодулятор огибающей
Ф1
АД1
+
В
1
РУ
_
Ф2
0
АД2
f эф
2
эл
111

111.

Амплитудный манипулятор
(t )
Кл
S ( , t )
АМн
Ген
S (t )
+
Кл
_
t
Детектор огибающей
(t )
+_
t
112

112.

Детектор огибающей
f эф
1
эл
113

113.

Лекция №8
Амплитудно-импульсно модулированный сигнал (АИМ)
Т0
эл
114

114.

U АИМ U 0 U m cos c t U 0 (1 M АИМ cos c t )
M АИМ U m /U 0
(t ) U m cos( c t )
S ( , t ) (1 M АИМ cos c t ) S и (t t k )
k 1
U0
- амплитуда импульса
Um
- амплитуда первичного сигнала
с
- круговая частота первичного сигнала
M АИМ 1
- индекс модуляции АИМ
S и (t t k )
- функция, описывающая форму импульса
115

115.

Спектр АИМ - сигнала для
(t ) U m cos( c t )
S ( )
0
0 c
c
2 0
3 0
2 0 c 3 0 c
0 c
2 0 c
3 0 c
f эф
1
им п
116

116.

Модулятор АИМ
U АИМ
(t )
t
АИМ сигнал
Демодулятор АИМ
АИМ-сигнал
ФНЧ
(t )
интерполятор
117

117.

Аналого-импульсные виды модуляции
118

118.

Широтно-импульсная модуляция (ШИМ)
изменяется по закону
Ширина импульса
(t ) U m sin .c t
0
0 sin c t
0
- среднее значение ширины (длительности) импульса
-- девиация ширины импульса
c
f эф
S ( )
-- круговая частота первичного сигнала
1
им п
- эффективная полоса частот ШИМ-сигнала
0 l c
0 l c
к 0 l c
c
0
2 0
3 0
119

119.

Модулятор ШИМ (мультивибратор Роера МР)
(t )
Модулятор
ШИМ
T0
МР
t
Демодулятор ШИМ
ШИМ-сигнал
ФНЧ
(t )
120

120.

Фазо-импульсная модуляция (ФИМ)
Аналитическое выражение ФИМ-сигнала
S ( , t ) U 0 S и (t k д k )
k 1
- амплитуда измерительного импульса
U0
- функция огибающей измерительного импульса
S и (t )
д Т0 / 2
T0
- период опроса
к (t k )
f эф
- девиация временного положения импульса
1
им п
t
- значение нормированного сообщения в момент опроса k
- эффективная полоса частот ФИМ-сигнала
121

121.

(t )
t
tk
(t )
Модулятор ФИМ-сигнала
T0
t k T0
tk
ДУ
Мод.
ШИМ
дифференцирующ
ее устройство
tk
ОВ
Однополупериодный
выпрямитель
tk
Од
Одновибратор
восстанавливает
форму импульса
ФИМсигнал
Демодулятор ФИМ-сигнала
ФИМсигнал
РУ
ФНЧ
(t )
122

122.

АИМ-ЧМ
и
АИМ-ЧМ
ФИМ-АМ
f эф 2 f эфАИМ ( М 1) 2
1
им п
( М 1)
ФИМ-АМ
f эф 2 f эфФИМ
2
им п
123

123.

Лекция №9
Аналоговые непрерывные системы модуляции
Амплитудная модуляция (АМ)
амплитуда несущего сигнала
(tизменяется
)
По закону передаваемого сообщения
.
S (t ) U cos( t )
0
АМ-сигнал:
0
0
S АМ (t ) U 0 [1 M АМ (t )] cos( 0 t 0 )
М АМ
Um
U0
индекс АМ модуляции
Выражение АМ-сигнала для
С учетом формулы
(t ) U m sin c t
М АМ 1
при
0 0
cos cos (1 / 2) cos( ) (1 / 2) cos( )
S ( , t ) U 0 [cos 0 t (1 / 2) M АМ cos( 0 c )t (1 / 2) M АМ cos( 0 c )t ]
f эф 2 Fc
для
f АМ 2 Fc
(t ) U m sin c t
Fc - ширина полосы частот (t )
124

124.

(t ) U m sin c t
(t )
S ( )
0 c
c
S (t )
S ( )
0
0 c
S ( , t )
2 Fc
0

125.

(t )
ПФ
Спектр
S ( )
Формирование АМ-сигнала (модулятор)
0 c
S ( , t )
2 0
2 c
S (t )
0
c
(t )
0 c
S ( , t )
I Вых
S (t )
i a0 a1u a2u 2 ...
u U 0 cos 0 t U m cos c t
Вх U
126

126.

Балансная модуляция
S ( )
2 Fc
f АМ 2 Fc
Однополосная амплитудная модуляция
S ( )
2 Fc
2 Fc
127

127.

Демодулятор АМ-сигналов
S ( , t )
ФНЧ
(t )
S (t )
(t )
S ( , t )
S ( )
0 c
2 0 c
S (t )
2 0
c
2 c
0
0 c
2( 0 c )
2 0 c
2( 0 c )
128

128.

Угловая модуляция (УМ)
SУМ U 0 cos[ 0 t ( , t ) 0 ]
( , t ) M ФМ (t )
ФМ
M
- индеск ФМ модуляции
(максимальное
ФМ 1 отклонение фазы)
t
ЧМ
( , t ) д (t )dt
д
0
(t ) cos c t
д
M ЧМ
с
0 c
М ЧМ 1
0 c
0 3 с
0 3 с
0
0 2 с
f эфУМ 2Fс (М УМ 1)
М УМ 1
М УМ 1
- девиация частоты
- индеск ЧМ
модуляции
(максимальное
отклонение
фазы)
0 2 с
f эфЧМ 2 Fд
f эфУМ 2 Fc
f эфФМ 2 М ФМ Fc
129

129.

Изменения частоты несущего сигнала при фазовой и частотной модуляциях
(t ) at
S ( , t )
0 M ФМ a
1 const
(t ) at b
0 M ФМ а
2 const
t
t
( , t ) M ФМ (t )
ФМ
d ( , t )
M ФМ a
dt
S ( , t )
t
t
ЧМ
( , t ) д (t )dt
0
0 д аt
0 д ( at b)
d ( , t )
д (t )
dt
130

130.

Мгновенный спектр
S ( )
2 2 Fc
N0
Pш N 0 f эф
f эфУМ 2 Fc
( f эф1 / f эф2 )
2 Fc ( M 1)
M 1
2 Fc
Система ФАПЧ
S ( , t )
ФНЧ
ЧМГ
0 2Fc
ФНЧ
(t )
0 Fc
131

131.

Модулятор ЧМ
(t )
Демодуляция ЧМ
Колебательный
контур
Детектор
огибающей
t
132
t

132.

Лекция №10
Основы теории кодирования
Преобразование дискретных сообщений в сигнал осуществляется с помощью двух операций:
кодирование и модуляция.
Кодирование – преобразование дискретных сообщений в последовательность некоторых символов.
Каждому элементу сообщения присваивается определенная совокупность кодовых символов,
которая называется кодовой комбинацией.
Правило, по которому устанавливается однозначное соответствие между сообщением и кодовой
комбинацией, называется кодом.
Код известен на передающей и приемной сторонах.
Для этого существует специальные кодовые таблицы, в которых размещают алфавит кодирования.
Классификация кодов
1) двухпозиционные
и многопозиционные
а 2
а 2
а - основание кода
2) равномерные
n
n const
и неравномерные
n var
- длина кодовой комбинации
3) по назначению: первичные, статистические, корректирующие
133

133.

Основные параметры кодов
а 0 2 0 а1 21 а 2 2 2 а3 2 3 а 4 2 4 а5 2 5 а 6 2 6 а 7 2 7
1)
а
2)
n
n k r s
информационные, проверочные, служебные
. Это число ненулевых элементов в комбинации,
3) вес кодовой комбинации
для двоичных кодов – число единиц в комбинации.
v1 01110
1 3
v2 01010
2 2
4) кодовое расстояние между двумя комбинациями
d . Это количество
элементов, в которых одна комбинация отличается от другой. Для двоичных кодов – это
вес суммы по модулю 2.
d (vi , v j ) (vi v j ) mod 2
(01101 00110) mod 2 01011( 3), d (vi , v j ) 3
+
=
01101
00110
01011
Минимальное кодовое расстояние (расстояние Хемминга) по множеству
комбинаций характеризует все множество кодовых комбинаций.
d min 1
- простые коды,
d min 2
- корректирующие коды
134

134.

Выполнение алгебраических операций над кодовыми комбинациями
10011001 1 x 7 0 x 6 0 x 5 1 x 4 1 x 3 0 x 2 0 x1 1 x 0
A( x) x 7 x 4 x 3 1
Все операции выполняются по законам двоичной алгебры.
( x i x i ) mod 2 0
xn 1
7
4
3
[ A( x) B( x)] mod 2 [ A( x) x x x 1
B( x) x 6 x 4 1 ] mod 2
+
x7 x4 x3 1 x6 x4 1 x7 x6 x3
A( x) B( x) ( x 7 x 4 x 3 1)( x 6 x 4 1) x13 x10 x 9 x 6 x11 x 8 x 7 x 4 x 7 x 4 x 3 1
x6 x5 x 2 x
13-8=5
---
1
---
-
-
1 2 7 1 2 6 1 2 5 0 2 4 0 2 3 1 2 2 1 21 0 2 0
135

135.

Первичные (линейные) коды
Первичные коды (ПК) служат для согласования сформированной последовательности двоичных
сигналов с параметрами линии связи и обеспечения определенной синхронизации между передающей
и приемной сторонами. Первичный сигнал должен содержать тактовую частоту,
ПК должен иметь узкую полосу частот, не должен содержать постоянную составляющую (длинных
нулевых посылок) из-за присутствия в тракте передачи согласующих трансформаторов и усилителей,
не пропускающих низкочастотные составляющие (что вызывает искажения импульсов). Основная
часть энергии линейного сигнала должна быть сосредоточена в среднем диапазоне частот. От выбора
линейного кода зависят длина регенерационного участка и гарантированное выделение тактовой
частоты, качество передачи и возможность совместной работы различных систем передачи.
Искажения сигнала за счет
несоответствия полосе частот
л.св.
136

136.

1
2
1
2
1
2
1
2
Код
Манчестера
1 10
0 01
Квазитроичный
1b2b
Уменьшается вероятность длительных последовательностей единиц и нулей .
137

137.

Корректирующие коды (КК)
КК – служат для повышения помехоустойчивости и достоверности передачи
информации в условиях помех. Это достигается введением в простые коды
избыточных разрядов.
Избыточные символы формируются по определенным правилам и называются
проверочными или контрольными.
d (vk ) 2
N0
- общее число комбинаций, делится на две части:

N0 N р
- разрешенные и
неразрешенные
d 1
d 2 1
- кратность обнаруживаемых
ошибок
-- кратность исправляемых
ошибок
1
d 2
1
d 3
138

138.

Классификация
корректирующих
Классификация
корректирующие
кодов
кодов
Блочные
Непрерывные
Разделимые
Неразделимые
Древовидный
Линейные
Нелинейные
Код с проверкой на четность (линейный, разделимый, блочный)
Обнаруживает все ошибки нечетной кратности (четной кратности не
обнаруживает)
k 01010
k 01011
r 0
r 1
139

139.

Код с постоянным весом (блочный, неразделимый)
const
N 0 2 5 32
N р Сn
N р С53 10
N з 32 10 22
Код обнаруживается все ошибки нечетной кратности и часть ошибок четной кратности.
11100
1-группа
11101
10111
10101
11001
2-группа
3-группа
10001
11000
10001
11011
10011

00011
00001
Среди блочных линейных кодов самые перспективные - цикличные коды.
140

140.

Признаком принадлежности какой-либо комбинации к подмножеству разрешенных
комбинаций является деление ее без остатка на некоторый многочлен
степени
g (x ) образующим.
r nВид
k многочлена определяет схему и порядок работы
, который называется
кодера и декодера.
g ( x) x 3 x 2 1
r 3
A( x) x 3 x 2 x
x
Пример:
x x x
5
5
4
x3 x
3
x4 x3
A( x) x 6 x 5 x 4 x
x x x
4
A( x) x x x
6
( x 3 x 2 1)
(x6 x5 x4 )
6
3
3
x
R( x) x
На приемной стороне комбинация
остатка на образующий многочлен
A(xбудет
)
делиться без
g (x.)
141

141.

Статистические коды
Служат для уменьшения информационной избыточности в передаваемой
цифровой последовательности.
Количество информации определяется вероятностью появления сообщения
(буквы).
Каждая буква появляется с разной вероятностью и несет разное количество
информации.
Для повышения скорости передачи информации каждое сообщение должно
нести одно и то же количество информации. Для этого требуется
перекодирование сообщений, чтобы все сообщения были равновероятными.
Для этого часто встречающиеся буквы должны составлять короткие кодовые
комбинации. Реже встречающиеся буквы длинные кодовые комбинации.
Главное, чтобы короткие комбинации не совпадали с началом длинных
комбинаций.
Статистическое кодирование предложил К. Шеннон, правило кодирования
предложил Р. Фено. Статистические коды называются кодами ФеноШеннона.
142

142.

Лекция №11
Модели сообщений, сигналов-переносчиков, помех
Сообщения
Импульсные
Дискретные
Непрерывные
Сигналыпереносчики
Синусоидальные
Импульсные
Шумоподобные
143

143.

Принцип кодового уплотнения в системе с КРК
Функции Уолша
Амп.
База шумоподобного сигнала ШПС
64 ортогональных комбинаций
В
Т
1
t
1
2
t
3
t
4
t
Т
- период ортогональности
144

144.

S ( , t ) U m cos[ 0 t ( , t ) 0 ]
Известны все параметры
Неизвестна
0
Неизвестны
0 U m
Неизвестны
0 U m 0
145

145.

Модели помех
Классификация помех
1. Флуктуационные
1. Внутренние
2. Импульсные
2. Внешние
3. Синусоидальные
1. Аддитивные
2. Мультипликативные
146

146.

Виды погрешностей
Погрешности
1. Методические
1. Нормальные
2. Аппаратурные
2. Аномальные
3. Помеховые
147

147.

Показатели качества
Непрерывных
Дискретных
сигналов
сигналов
Приведенная
дисперсия текущей
погрешности
Вероятность
2 f ( Pс / Рш )
Рош f ( Рс / Рш )
ошибки
148

148.

Лекция №12
Элементы количественной теории информации
Свойства количественной меры информации
1. Количество информации должно быть аддитивной мерой.
2. Количество информации в сообщении о достоверном событии равно нулю.
3. Количество информации не должно зависеть от качественного содержания.
i(a) k log 2 P(a)
а – дискретное
сообщение
k 1
1
i(a) log 2 [
]
P( a )
Энтропия дискретного источника сообщений
1
Н ( А) М [i (a)] М [log 2 (
)]
P(a)
K
H ( A) P (ai ) log 2 [
i 1
1
]
P(ai )
1
i(a) log 2 ( ) 1бит
0,5
149

149.

Свойства энтропии
1. Энтропия неотрицательна
2. Энтропия аддитивна
3.
H ( A) log 2 K
32
1
1
H ( A) log 2 (
) 5бит
1 / 32
1 32
Избыточность источника информации
log 2 K H ( A)
log 2 K
150

150.

Взаимная информация
Совместная энтропия
H ( A / B) M {log 2
Условная энтропия
n
1
H ( A, B) M {log 2
}
P(a k , bi )
m
H ( A / B) P(ak / bi ) log 2 [
k 1 i 1
1
P (a k / bi )
}
1
]
P(ak / bi
P(a, b) P(a) P(b / a) P(b) P(a / b)
H ( A, B) H ( A) H ( B / A) H ( B) H ( A / B)
Теорема
умножения
вероятностей
Свойства условной энтропии
0 H ( A / B ) H ( A)
H ( A / B) H ( A)
151

151.

Взаимная информация
P(ak / bi )
1
1
I ( A, B) H ( A) H ( A / B) M [log 2
] M [log 2
] M [log 2
]
P ( ak )
P(ak / bi )
P ( ak )
P (ak , bi )
I ( A / B ) M [log 2
]
P (ak ) P (bi )
Выражение
симметрии взаимной
информации
Свойства взаимной информации
I ( A, B ) 0
1.
3.
5.
2.
I ( A, B ) H ( A)
I ( A, B) I ( B, A)
4.
I ( A, B ) H ( B )
I ( A, A) H ( A)
I ( A, B) H ( A) H ( A / B) H ( B) H ( B / A)
Потери информации
H ( A) I ( A, B) H ( A / B)
152

152.

Скорость передачи информации
I ( A, B )
I ( A, B )
T
Производительность источника сообщений
H ( A)
H ( A)
T
I ( A, B)
H (A)
H ( A / B)
H (B)
H ( B / A)
153

153.

Эффективное кодирование
Источник
дискретных
сообщений
Кодирующее
устройство
I ( A, B)
H (A)
H (B)
Для эффективного кодирования (без учета помех) необходимо:
I ( A, B) H ( A)
Из свойства взаимной информации имеем неравенство:
I ( A, B) H ( B)
Отсюда,
Т с / Т к H ( A) / H ( B)
H ( A) H ( B)
H ( B) / Т к H ( A) / Т с
H ( A) log 2 256 8бит
Т с / Т к 8 /1
H ( B) log 2 2 1бит

154.

Дискретизация, квантование, кодирование
Импульснокодовая
модуляция ИКМ
S (t k )
Уровни
квантования
икм
256 уровней
1)дискретизация
2)квантование
3
2
1
0
3)кодирование
t
кодирование
Динамические диапазоны
икм
00000110
(N )
дикм
Дифференциальноимпульсно-кодовая
модуляция ДИКМ
1)дискретизация
Уровни
квантования
3
дикм
0
t
2
1
16 уровней
2)вычисление конечных
разностей
3)квантование
4)кодирование
кодирование
0011
155

155.

Теоремы Шеннона
Первая теорема: если пропускная способность канала больше или равна
производительности источника дискретных сигналов, то имеются кодирующие и
декодирующие устройства, которые обеспечивают передачу информацию по
каналу связи без ошибок, в противном случае передача без ошибок невозможна.
Простое кодирование.
Вторая теорема: среди кодов и кодирующих устройств, обеспечивающих
выполнение условий первой теоремы, имеются коды, которые обеспечивают
максимальную производительность источника дискретных сигналов.
Статистическое кодирование.

156.

Лекция № 13
Пропускная способность дискретного канала
При передаче каждого символа в среднем по каналу проходит следующее
количество информации:
I ( A, B) H ( A) H ( A / B) H ( B) H ( B / A)
Максимальное количество информации, взятое по всем возможным
источникам, характеризует канал и называется пропускной способностью
канала (в расчете на символ):
С max I ( A, B)
Ссим max I ( A, B)
Р( А)
Пример:
Р( А)
С VCсим
бит/ с
Дискретный канал (симметричный без памяти): может передать каждый
Рошошибки
символ с вероятностью ошибки
и без
(1 Рош )
157

157.

Условная вероятность того, что вместо переданного
любой другой из ансамбля
:
K
Р(b j / ai ) 1 Pош , i j
Р(b j / ai ) Pош /( K 1), i j
Допустим:
К 3
i
-го символа может быть принят
Передали 9 раз букву a , приняли 3 раза а, 3 раза b, 3
раза с.
a
b
c
P (b / a ) 1 / 3
Рош 2 / 3
a
Ссим max[ H ( B) H ( B / A)]
H ( B) log 2 K *
1
K 1
1
H [ B / A] M [log 2
] Рош log 2
(1 Рош ) log 2
P(b j / ai )
Pош
(1 Pош )
K
1
1
Cсим log 2 K Рош log 2
(1 Рош ) log 2
Pош
(1 Pош )
158

158.

K 2
С V [1 Pош log 2 Pош (1 Рош ) log 2 (1 Pош )]
C /V
1
Pош
1
1/2
Pош 1 / 2
С 0
инверсия
159

159.

Информация в непрерывных сигналах
( )
к
Р( к к ) ( к )
log 2 1 / Р( к к ) log 2
H ( ) lim M [log 2
0
1
( к )
1
1
1
1
1
1
1
] lim M [log 2
log 2
] lim M [log 2
] lim M [log 2
] M [log 2
] lim M [log 2
]
( )
( )
( )
( )
0
0
0
0
160

160.

Лекция №14
Дифференциальная энтропия
h( ) M [log 2
1
1
] ( )[log 2
]d
( )
( )
Количество взаимной информации в непрерывном сообщении
I ( , ) lim M [log 2
( , )
( , )
] M [log 2
]
( ) ( )
( ) ( )
0
0
На основании теоремы умножения вероятностей:
I ( , ) h ( ) h ( / ) h ( ) h ( / )
161

161.

Дифференциальная энтропия гауссовской случайной величины
( x a) 2
( x)
exp[
]
2
2 x
2 x2
1
(x )
h( x) log 2 2 e
2
x
Максимальна, не зависит
от м.о., растет
пропорционально
дисперсии
x
162

162.

Пропускная способность непрерывного канала
(t )
1
T0
2 Fc
- период
опроса
t
Cот max I ( , ) max[ h( ) h( / )]
( )
( )
Пропускная способность непрерывного канала с шириной полосы частот
может быть
взятой
F определена в виде суммы значений
,
С отпо всем
отсчетам за единицу времени 1 сек.
С 2 FCот
(t k ) - сообщение на выходе канала
163

163.

Непрерывный канал без памяти с аддитивным белым гауссовским шумом.
(tk ) - входной сигнал с мощностью
с помехой мощностью
Рсв канале шириной полосы частот
Рш
.
Гауссовские распределения
(n)
n
F
( / )
n
n
t
t
t
164

164.

Cот max I ( , ) max[ h( ) h( / )]
( )
( )
max h( ) log 2 2 e( Pс Рш )
h( x) log 2 2 e x2
h( / ) log 2 2 ePш
Условная энтропия:
Сот log 2 2 e( Pс Рш ) log 2
Pс Рш
1
2 ePш log 2 (
)
2
Рш
С 2 FCот
Формула Шеннона
С F log 2 (1

P
) Vк Т к Fк log 2 (1 с ) Т к Fк Dк
Рш
Рш
165

165.

Dk
Временное разделение
каналов (линии связи)
Частотное разделение
каналов (линии связи)
Tk
Dk
Fk
Vк Tк Fк Dк
Tk
Fk

166.

Эпсилон-энтропия
Количество информации в непрерывном сообщении равно бесконечности.
Для воспроизведения непрерывных сообщений не требуется абсолютная точность.
Допустимую неточность воспроизведения можно измерить с помощью малого
параметра
(эпсилон).
Минимальное количество информации, которое требуется передать по каналу связи,
чтобы обеспечить допустимую неточность, называется эпсилон-энтропией.
1
h ( B) log 2
2
2
B
2
167
English     Русский Правила