курсовые,контрольные,дипломы,рефераты
КАНАЛЫ СВЯЗИ
1. Классификация и характеристики канала связи
Канал связи – это совокупность средств, предназначенных для передачи сигналов (сообщений).
Для анализа информационных процессов в канале связи можно использовать его обобщенную схему, приведенную на рис. 1.
На рис. 1 приняты следующие обозначения: X, Y, Z, W – сигналы, сообщения; f – помеха; ЛС – линия связи; ИИ, ПИ – источник и приемник информации; П – преобразователи (кодирование, модуляция, декодирование, демодуляция).
Существуют различные типы каналов, которые можно классифицировать по различным признакам:
1. По типу линий связи: проводные; кабельные; оптико-волоконные;
линии электропередачи; радиоканалы и т.д.
2. По характеру сигналов: непрерывные; дискретные; дискретно-непрерывные (сигналы на входе системы дискретные, а на выходе непрерывные, и наоборот).
3. По помехозащищенности: каналы без помех; с помехами.
Каналы связи характеризуются:
1. Емкость канала определяется как произведение времени использования канала Tк, ширины спектра частот, пропускаемых каналом Fк и динамического диапазона Dк., который характеризует способность канала передавать различные уровни сигналов
Vк = Tк Fк Dк. (1)
Условие согласования сигнала с каналом:
Vc £ Vk; Tc £ Tk; Fc £ Fk; Vc £ Vk; Dc £ Dk.
2. Скорость передачи информации – среднее количество информации, передаваемое в единицу времени.
3. Пропускная способность канала связи – наибольшая теоретически достижимая скорость передачи информации при условии, что погрешность не превосходит заданной величины.
4. Избыточность – обеспечивает достоверность передаваемой информации (R = 0¸1).
Одной из задач теории информации является определение зависимости скорости передачи информации и пропускной способности канала связи от параметров канала и характеристик сигналов и помех.
Канал связи образно можно сравнивать с дорогами. Узкие дороги – малая пропускная способность, но дешево. Широкие дороги – хорошая пропускная способность, но дорого. Пропускная способность определяется самым «узким» местом.
Скорость передачи данных в значительной мере зависит от передающей среды в каналах связи, в качестве которых используются различные типы линий связи.
Проводные:
1. Проводные – витая пара (что частично подавляет электромагнитное излучение других источников). Скорость передачи до 1 Мбит/с. Используется в телефонных сетях и для передачи данных.
2. Коаксиальный кабель. Скорость передачи 10–100 Мбит/с – используется в локальных сетях, кабельном телевидении и т.д.
3. Оптико-волоконная. Скорость передачи 1 Гбит/с.
В средах 1–3 затухание в дБ линейно зависит от расстояния, т.е. мощность падает по экспоненте. Поэтому через определенное расстояние необходимо ставить регенераторы (усилители).
Радиолинии:
1. Радиоканал. Скорость передачи 100–400 Кбит/с. Использует радиочастоты до 1000 МГц. До 30 МГц за счет отражения от ионосферы возможно распространение электромагнитных волн за пределы прямой видимости. Но этот диапазон сильно зашумлен (например, любительской радиосвязью). От 30 до 1000 МГц – ионосфера прозрачна и необходима прямая видимость. Антенны устанавливаются на высоте (иногда устанавливаются регенераторы). Используются в радио и телевидении.
2. Микроволновые линии. Скорости передачи до 1 Гбит/с. Используют радиочастоты выше 1000 МГц. При этом необходима прямая видимость и остронаправленные параболические антенны. Расстояние между регенераторами 10–200 км. Используются для телефонной связи, телевидения и передачи данных.
3. Спутниковая связь. Используются микроволновые частоты, а спутник служит регенератором (причем для многих станций). Характеристики те же, что у микроволновых линий.
2. Пропускная способность дискретного канала связи
Дискретный канал представляет собой совокупность средств, предназначенных для передачи дискретных сигналов [5].
Пропускная способность канала связи – наибольшая теоретически достижимая скорость передачи информации при условии, что погрешность не превосходит заданной величины. Скорость передачи информации – среднее количество информации, передаваемое в единицу времени. Определим выражения для расчета скорости передачи информации и пропускной способности дискретного канала связи.
При передаче каждого символа в среднем по каналу связи проходит количество информации, определяемое по формуле
I (Y, X) = I (X, Y) = H(X) – H (X/Y) = H(Y) – H (Y/X), (2)
где: I (Y, X) – взаимная информация, т.е. количество информации, содержащееся в Y относительно X; H(X) – энтропия источника сообщений; H (X/Y) – условная энтропия, определяющая потерю информации на один символ, связанную с наличием помех и искажений.
При передаче сообщения XT длительности T, состоящего из n элементарных символов, среднее количество передаваемой информации с учетом симметрии взаимного количества информации равно:
I(YT, XT) = H(XT) – H(XT/YT) = H(YT) – H(YT/XT) = n [H(X) – H (X/Y), (3)
где T = n ; – среднее время передачи одного символа; n‑число символов в сообщении длительностью Т.
Для символов равной длительности = t, в случае неравновероятных символов неравной длительности
.
При этом скорость передачи информации
[бит/с]. (4)
Скорость передачи информации зависит от статистических свойств источника, метода кодирования и свойств канала.
Пропускная способность дискретного канала связи
. (5)
Максимально-возможное значение, т.е. максимум функционала ищется на всем множестве функций распределения вероятности p(x).
Пропускная способность зависит от технических характеристик канала (быстродействия аппаратуры, вида модуляции, уровня помех и искажений и т.д.). Единицами измерения пропускной способности канала являются: [bit/s], [Kbit/s], [Mbit/s], [Gbit/s].
2.1 Дискретный канал связи без помех
Если помехи в канале связи отсутствуют, то входные и выходные сигналы канала связаны однозначной, функциональной зависимостью.
При этом условная энтропия равна нулю, а безусловные энтропии источника и приемника равны, т.е. среднее количество информации в принятом символе относительно переданного равно
I (X, Y) = H(X) = H(Y); H (X/Y) = 0.
Если ХТ – количество символов за время T, то скорость передачи информации для дискретного канала связи без помех равна
(6)
где V = 1/ – средняя скорость передачи одного символа.
Пропускная способность для дискретного канала связи без помех
(7)
Т.к. максимальная энтропия соответствует для равновероятных символов, то пропускная способность для равномерного распределения и статистической независимости передаваемых символов равна:
. (8)
Первая теорема Шеннона для канала: Если поток информации, вырабатываемый источником, достаточно близок к пропускной способности канала связи, т.е.
, где - сколь угодно малая величина,
то всегда можно найти такой способ кодирования, который обеспечит передачу всех сообщений источника, причем скорость передачи информации будет весьма близкой к пропускной способности канала.
Теорема не отвечает на вопрос, каким образом осуществлять кодирование.
Пример 1. Источник вырабатывает 3 сообщения с вероятностями:
p1 = 0,1; p2 = 0,2 и p3 = 0,7.
Сообщения независимы и передаются равномерным двоичным кодом (m = 2) с длительностью символов, равной 1 мс. Определить скорость передачи информации по каналу связи без помех.
Решение: Энтропия источника равна
[бит/с].
Для передачи 3 сообщений равномерным кодом необходимо два разряда, при этом длительность кодовой комбинации равна 2t.
Средняя скорость передачи сигнала
V =1/2t = 500 [1/c].
Скорость передачи информации
C = vH = 500×1,16 = 580 [бит/с].
2.2 Дискретный канал связи с помехами
Мы будем рассматривать дискретные каналы связи без памяти.
Каналом без памяти называется канал, в котором на каждый передаваемый символ сигнала, помехи воздействуют, не зависимо от того, какие сигналы передавались ранее. То есть помехи не создают дополнительные коррелятивные связи между символами. Название «без памяти» означает, что при очередной передаче канал как бы не помнит результатов предыдущих передач.
При наличии помехи среднее количество информации в принятом символе сообщении – Y, относительно переданного – X равно:
.
Для символа сообщения XT длительности T, состоящего из n элементарных символов среднее количество информации в принятом символе сообщении – YT относительно переданного – XT равно:
I(YT, XT) = H(XT) – H(XT/YT) = H(YT) – H(YT/XT) = n [H(Y) – H (Y/X). (9)
Для определения потерь в дискретном канале связи используется канальная матрица (матрица переходных вероятностей), позволяющая определить условную энтропию характеризующую потерю информации на символ сообщения.
Скорость передачи информации по дискретному каналу с помехами
равна:
(10)
Пропускная способность дискретного канала при наличии помех равна максимально допустимой скорости передачи информации, причем максимум разыскивается по всем распределениям вероятностей p(x) на X и, поскольку, энтропия максимальна для равномерного распределения (для равновероятных символов сообщения), то выражение для пропускной способности имеет вид:
. (11)
Как видно из формулы, наличие помех уменьшает пропускную способность канала связи.
p(x1)=0,1; p(x2)=0,2; p(x3)=0,3; p(x4)=0,4.
Канальная матрица, определяющая потери информации в канале связи имеет вид:
|
.
Определить:
1. Энтропию источника информации – H(X).
2. Безусловную энтропию приемника информации – H(Y).
3. Общую условную энтропию – H (Y/X).
4. Скорость передачи информации, если время передачи одного символа первичного алфавита t = 0,1 мс.
5. Определить потери информации в канале связи при передаче 500 символов алфавита.
6. Среднее количество принятой информации.
7. Пропускную способность канала связи.
Решение:
1. Энтропия источника сообщений равна
2. Вероятности появления символов на входе приемника
Проверка:
Энтропия приемника информации равна
3. Общая условная энтропия равна
4. Скорость передачи информации равна:
=(1,85–0,132)/0,0001=17,18 Кбит/с.
5. Потери информации в канале связи при передаче 500 символов алфавита равны:
500×0,132=66 бит.
6. Среднее количество принятой информации равно:
=500×(1,85–0,132)=859 бит.
7. Пропускная способность канала связи
(2–0,132)/0,0001=18,68 Кбит/с.
2.3 Пропускная способность бинарного, симметричного канала
Бинарным дискретным каналом называется канал, по которому передается только два элементарных дискретных символа (т.е. используется двоичный код).
Симметричным дискретным каналом называется канал, в котором. вероятности не зависят от передаваемых символов, т.е. вероятности правильной передачи одинаковы (p(x1)= p(x2)) и вероятности ошибочной передачи одинаковы (p(y1 /x2)= p(y2/x1)).
Рассмотрим двоичный дискретный канал, по которому передаются дискретные символы «0» и «1» (m=2). Если передаваемые символы независимы и равновероятны (p(x1)= p(x2)=1/2), то сигнал имеет максимальную энтропию (Hmax(X)=1), при этом p (1/0) = p (0/1).
Если Pош – вероятность ошибки то 1‑Рош – вероятность правильного приема. Диаграмма передачи двоичных сигналов по симметричному калу приведена на рис. 2.
p(y1/ x1) = 1‑Рош
x1 не искажен y1
искажен p(y1/x2) =Pош
искажен p(y2/x1) =Pош
x2 не искажен y2
p(y2 / x2)= 1‑Рош
Рис. 2. Диаграмма переходных вероятностей симметричного канала
Условная энтропия для симметричного канала равна
Пропускная способность для двоичного, симметричного канала
(12)
Это уравнение Шеннона для симметричного двоичного канала.
Наличие ошибки приводит к уменьшению пропускной способности.
Так при pош = 0,01 пропускная способность равна C = 0,9/t = 0,9Cmax.
Основная теорема Шеннона о кодировании для дискретного канала с помехами: Для дискретного канала с помехами существует такой способ кодирования, который позволяет осуществлять безошибочную передачу информации, если производительность источника ниже пропускной способности
Решение:
Составим таблицу вероятностей:
p(x0) = 0,5; p(y0/ x0) = 0,96;
p(x1) = 0,5; p(y1/ x0) = 0,04;
p(y0) = 0,5; p(y0/ x1) = 0,04;
p(y1) = 0,5; p(y1/ x1) = 0,96.
Пропускная способность для двоичного, симметричного канала
3. Пропускная способность непрерывного канала связи
Непрерывный канал передачи информации содержит совокупность средств для передачи непрерывных сигналов, при этом вместо кодирующих и декодирующих устройств используются различного рода преобразователи (модуляция и т.д.). Входные и выходные сигналы в непрерывном канале связи представляют ансамбли непрерывных функций с соответствующими плотностями распределений вероятности.
Если на вход непрерывного канала связи поступает непрерывный сигнал X(t) длительностью T, то вследствие воздействия помех f(t) выходной сигнал Y(t) будет отличаться от входного. При этом количество информации в сигнале Y(t) о сигнале X(t) равно:
. (13)
Непрерывный сигнал, можно рассматривать как дискретный при. Он может быть представлен в виде решетчатой функции, при этом на приемной стороне по отдельным взятым отсчетам через интервал Dt может быть восстановлен исходный непрерывный сигнал.
Шаг квантования Dt = T/n, где n – число точек отсчета. В соответствии с теоремой Котельникова Dt = 1/2fc, где fc - частота среза а n = 2Tfc – база сигнала.
При этом в выражении (13) для взаимной информации вместо разности энтропии можно записать разности соответствующих дифференциальных энтропий отдельных отсчетов
.
Пропускная способность непрерывного канала связи
(14)
Для дискретного канала связи максимальное значение скорости передачи соответствует равновероятным символам алфавита. Для непрерывного канала связи, когда заданной является средняя мощность сигнала, максимальная скорость обеспечивается при использовании нормальных центрированных случайных сигнала.
Если сигнал центрированный (mx = 0) т.е. без постоянной составляющей при этом мощность покоя равна нулю (P0 = 0). Условие центрированности обеспечивает максимум дисперсии при заданной средней мощности сигнала
Если сигнал имеет нормальное распределение, то априорная дифференциальная энтропия каждого отсчета максимальна.
Поэтому при расчете пропускной способности непрерывного канала считаем, что по каналу передается непрерывный сигнал с ограниченной средней мощностью – Pc и аддитивная помеха (y = x+f) также с ограниченной средней мощностью – Pn типа белого (гауссова) шума.
Так как помеха аддитивна, то дисперсия выходного сигнала равна
.
Для того, чтобы энтропия была максимальна для сигнала с ограниченной мощностью, он должен быть гауссовым, при этом
.
Для того чтобы помеха была максимальна, она тоже должна быть гауссова
.
При этом пропускная способность непрерывного канала должна быть равна пропускной способности сигнала
. (15)
Таким образом, скорость передачи информации с ограниченной средней мощностью максимальна, если и сигнал, и помеха являются гауссовыми, случайными процессами.
Пропускную способность канала можно изменять, меняя ширину спектра сигнала – fc его мощность – Pc. Но увеличение ширины спектра увеличивает мощность помехи – Pn, поэтому соотношение между полосой пропускания канала и уровнем помех выбирается компромиссным путем.
Если распределение f(x) источника непрерывных сообщений отличается от нормального, то скорость передачи информации – С будет меньше. Используя, функциональный преобразователь, можно получать сигнал с нормальным законом распределения.
Обычно pc/pп >>1, при этом пропускная способность непрерывного канала равна Сп = FкDк. Связь между емкостью и пропускной способностью канала связи имеет вид Vк = Tк Fк Dк = Tк Сп.
Теорема Шеннона для непрерывного канала с шумом. Если энтропия источника непрерывных сообщений сколь угодно близка к пропускной способности канала, то существует метод передачи, при котором все сообщения источника будут переданы со сколь угодно высокой верностью воспроизведения.
Пример. По непрерывному каналу связи, имеющим полосу пропускания Fk = 1 кГц, передается полезный сигнал X(t), представляющий собой нормальный случайный процесс с нулевым математическим ожиданием и дисперсией = 4 мВ. В канале действует независимый от сигнала гауссов шум F(t) с нулевым математическим ожиданием и дисперсией = 1 мВ.
Определить:
– дифференциальную энтропию входного сигнала;
– дифференциальную энтропию выходного сигнала;
– условную дифференциальную энтропию;
– количество информации в одном непрерывном отсчете процесса Y(t) относительно отсчета X(t);
– скорость передачи информации по непрерывному каналу с дискретным временем;
– пропускную способность непрерывного канала связи;
– определить емкость канала связи, если время его работы T = 10 м;
– определить количество информации, которое может быть передано за 10 минут работы канала;
– показать, что информационная емкость непрерывного канала без памяти с аддитивным гауссовым шумом при ограничении на пиковую мощность не больше информационной емкости такого же канала при той же величине ограничения на среднюю мощность.
Решение:
Дифференциальная энтропия входного сигнала
= 3,05 бит/отсчет.
Дифференциальная энтропия выходного сигнала
=3,21 бит/отсчет.
Условная дифференциальная энтропия
= 2,05 бит/отсчет.
Количество информации в одном непрерывном отсчете процесса Y(t) относительно отсчета X(t) определяется по формуле
I (X, Y) = h(x) – h (x/y) = h(y) – h (y/x) = 3,21–2,05 = 1,16 бит/отсчет.
Скорость передачи информации по непрерывному каналу с дискретным временем определяется по формуле
=
= 2×103× [3,21–2,05] = 2320 бит/с
Пропускная способность непрерывного канала с помехами определяется по формуле
=2322 бит/с.
Докажем, что информационная емкость непрерывного канала без памяти с аддитивным гауссовым шумом при ограничении на пиковую мощность не больше информационной емкости такого же канала при той же величине ограничения на среднюю мощность.
Математическое ожидание для симметричного равномерного распределения
Средний квадрат для симметричного равномерного распределения
Дисперсия для симметричного равномерного распределения
При этом, для равномерно-распределенного процесса .
Дифференциальная энтропия сигнала с равномерным распределением
.
Разность дифференциальных энтропий нормального и равномерно распределенного процесса не зависит от величины дисперсии
= 0,3 бит/отсч.
Таким образом, пропускная способность и емкость канала связи для процесса с нормальным распределением выше, чем для равномерного.
Определим емкость (объем) канала связи
Vk = TkCk = 10×60×2322 = 1,3932 Мбит.
Определим количество информации, которое может быть передано за 10 минут работы канала
10×60×2322=1,3932 Мбит.
1. В канал связи передаются сообщения, составленные из алфавита x1, x2 и x3 с вероятностями p(x1)=0,2; p(x2)=0,3 и p(x3)=0,5.
Канальная матрица имеет вид:
при этом .
Вычислить:
1. Энтропию источника информации H(X) и приемника H(Y).
2. Общую и условную энтропию H (Y/X).
3. Потери информации в канале при передаче к символов (к = 100).
4. Количество принятой информации при передаче к символов.
5. Скорость передачи информации, если время передачи одного символа t = 0,01 мс.
2. По каналу связи передаются символы алфавита x1, x2, x3 и x4 с вероятностями . Определить количество информации принятой при передаче 300 символов, если влияние помех описывается канальной матрицей:
.
3. Определить потери информации в канале связи при передаче равновероятных символов алфавита, если канальная матрица имеет вид
.
Определить скорость передачи информации, если время передачи одного символа t = 0,001 сек.
4. Определить потери информации при передаче 1000 символов алфавита источника x1, x2 и x3 с вероятностями p=0,2; p=0,1 и p()=0,7, если влияние помех в канале описывается канальной матрицей:
.
5. Определить количество принятой информации при передаче 600 символов, если вероятности появления символов на выходе источника X равны: а влияние помех при передаче описывается канальной матрицей:
.
6. В канал связи передаются сообщения, состоящие из символов алфавита , при этом вероятности появления символов алфавита равны:
Канал связи описан следующей канальной матрицей:
.
Определить скорость передачи информации, если время передачи одного символа мс.
7. По каналу связи передаются сигналы x1, x2 и x3 с вероятностями p=0,2; p=0,1 и p()=0,7. Влияние помех в канале описывается канальной матрицей:
.
Определить общую условную энтропию и долю потерь информации, которая приходится на сигнал x1 (частную условную энтропию).
8. По каналу связи передаются символы алфавита x1, x2, x3 и x4 с вероятностями .
Помехи в канале заданы канальной матрицей
.
Определить пропускную способность канала связи, если время передачи одного символа t = 0,01 сек.
Определить количество принятой информации при передаче 500 символов, если вероятности появления символов на входе приемника Y равны: , а влияние помех при передаче описывается канальной матрицей:
.
Список литературы
1 Гринченко А.Г. Теория информации и кодирование: Учебн. пособие. – Харьков: ХПУ, 2000.
2 Куприянов М.С., Матюшкин Б.Д. – Цифровая обработка сигналов: процессоры, алгоритмы, средства проектирования. – СПб: Политехника, 1999.
3 Хемминг Р.В. Цифровые фильтры: Пер. с англ. / Под ред. А.М. Трахтмана. – М.: Сов. радио, 1980.
4 Сиберт У.М. Цепи, сигналы, системы: В 2-х ч. / Пер. с англ. – М.: Мир, 1988.
5 Скляр Б. Цифровая связь. Теоретические основы и практическое применение: Пер. с англ. – М.: Издательский дом «Вильямс», 2003. – 1104 с.
6 Kalinin, V.I. Microwave & Telecommunication Technology, 2007. CriMiCo 2007. 17th International Crimean ConferenceVolume, Issue, 10–14 Sept. 2007 Page(s):233 – 234
7 Феер К. Беспроводная цифровая связь. Методы модуляции и расширения спектра. Пер. с англ. – М.: Радио и связь, 2000.
8 Игнатов В.А. Теория информации и передачи сигналов: Учебник для вузов. – 2-е изд., перераб. и доп. – М.: Радио и связь, 1991;
КАНАЛЫ СВЯЗИ 1. Классификация и характеристики канала связи Канал связи – это совокупность средств, предназначенных для передачи сигналов (сообщений). Для анализа информационных процессов в канале связи можно использова
Кантроль інтэрнэт
Карманные и блокнотные персональные компьютеры
Керування процесами і роботами в Linux
Кибернетика как наука об управлении, связи и переработке информации
Кібернетика
Клавиатура как основной элемент компьютера
Классификация автоматизированных систем управления
Классификация интерфейсов
Классификация информационных систем
Классификация информационных технологий
Copyright (c) 2024 Stud-Baza.ru Рефераты, контрольные, курсовые, дипломные работы.