Страны с наибольшим удельным числом пользователей (на конец 20 века)
1. Финляндия. 2. Швеция. 3. Норвегия. 4. Дания
Первый стандарт беспроводного доступа в Интернет (стандарт 802.11 Wi-Fi (Wireless Fidelity)) на передачу данных со скоростью до 2 Мбит/с в диапазоне 2,4 ГГц ратифицирован в 1997 году
Стандарт 802.11b на передачу данных со скоростью до 11 Мбит/с в диапазоне 2,4 ГГц ратифицирован в 1999 году
Стандарт 802.11а ратифицирован в 1999 году и регламентирует скорость передачи данных до 54 Мбит/с в частотном диапазоне 5 ГГц
Макросота ~ 35 км
Сота ~ 3-5 км
Микросота ~ 0.8-1 км
Пикосота ~ 0.2 км
Повторное использование частот заключается в том, что в соседних сотах используются разные полосы частот, которые повторяются через несколько сот.
Кластер (cluster) – группа сот с различным набором частот.
7-ми частотный кластер
( f1, f2, …, f7)
Расстояние между центрами сот с одинаковыми частотами,
R – радиус соты (радиус описанной окружности), N – число сот в кластере.
N=3, D=3R; N=7, D=4.58R; N=19, D=7.55R
Отношение D/R=q называется коэффициентом уменьшения соканальных помех или коэффициентом соканального повторения.
Обратная величина C=1/N называется коэффициентом повторного использования частот
Расстояние между центрами сот с одинаковыми частотами
Результирующий сигнал формируется путем коммутации и «склеивания» сигналов от разных базовых станций
Сигналы, принимаемые базовыми станциями А и Б
Жесткий handoff приводит к кратковременной передаче пользователя от одной БС к другой, то есть возможны перерывы в сеансе связи
Пороговое ОСШ (замена обслуживающей БС)
Нет Handoff
Handoff
Сигналы, принимаемые базовыми станциями А и Б
Мягкий handoff уменьшает число передач пользователя от одной БС к другой, то есть число возможных перерывах в сеансе связи
Мягкая «Handoff»-процедура
Кодовое разделение пользователей - CDMA (code division multiple access)
Основные принципы множественного
доступа (разделения) пользователей
1. Взаимное влияние каналов должно быть минимально возможным;
2. Время ожидания пакета для всех пользователей одинаково;
3. При замираниях в канале некоторые частотные каналы могут быть сильно ослаблены.
Скорость передачи данных R бит/сек (один пользователь).
М – число пользователей (число отдельных полос).
Длительность импульсов увеличивается в M раз, то есть все M пользователей одновременно передают информацию, но с уменьшенной скоростью R/M бит/сек.
Скорость передачи
Время ожидания пакета для всех пользователей различно
Скорость передачи данных R бит/сек (один пользователь).
М – число пользователей (число временных интервалов).
Каждый пользователь использует всю полосу и передает информацию со скоростью R бит/сек (длительность импульсов не изменяется), но за время T/M.
Скорость передачи
Скорость передачи одинакова для частотного и временного разделения
Пакет передается за меньшее время
время
Время задержки пакета состоит из среднего времени w ожидания пакета и из среднего времени τ передачи пакета
Частотное разделение - пакет передается без задержки
в течение T секунд
Временное разделение - пакет передается с задержкой
в течение T/M секунд.
Время задержки m-го пакета
Среднее время ожидания m-го пакета
Модулированные импульсы
(сигнал с расширенным спектром)
Передаваемые импульсы dA=1, dB=1, dC= –1, dD= 1
(простой сигнал)
MS 2
MS 1
MS 2
15 дБ
8 дБ
0 дБ
-5 дБ
Без РС
с РС
Стандарт CDMA (IS-95)
Управление мощностью (power
control - PC) на мобильной станции
Периодический сигнал с периодом T имеет линейчатый спектр
Сигнал представляется рядом Фурье
Докажем, что
периодическая последовательность δ-импульсов имеет линейчатый спектр в виде периодической последовательности δ-компонент
Так как
то
*
Плохое восстановление сигнала
Спектр аналогового сигнала
Спектр дискретного сигнала
Передаточная функция восстанавливающего фильтра
Спектр восстановленного сигнала
f N > 2f M
f N = 2f M
f N < 2f M
Δtmax=1/(2fM) - максимальный интервал между временными отсчетами сигнала, определяемый шириной полосы
Доказательство. Сигнал можно восстановить в частотной области, используя идеальный низкочастотный фильтр
Идеальная передающая функция
(см. рисунок на слайде выше)
Идеальная импульсная характеристика
Доказали
Амплитудная характеристика 3-битового квантователя
Мощность
ошибки квантования
Мощность входного сигнала x при равномерной плотности вероятности на интервале от -Emax до +Emax
ОСШ увеличивается на 6 дБ на каждый разряд АЦП
Пример: 8-разрядный (b=8) АЦП (256 уровней). ОСШ = 48 дБ.
Пример. Сигнал x занимает часть динамического диапазона квантователя и имеет равномерную плотность вероятности на интервале (a >1)
Мощности сигнала
Пример: a=4. Тогда C=12 дБ.
Характеристика компрессора y=C(x). Размер шага квантования
Дисперсия ошибки квантования (плотность вероятности p(x) и характеристика компрессора y=C(x) произвольные)
Дисперсия сигнала
.
Устройство неравномерного квантования
Граничные условия
x<0.
Функции логарифмического сжатия
Амплитудная характеристика μ-компрессора
Амплитудная характеристика A-компрессора
A=87.56 - стандартное значение параметра A.
В стандарте США и Канады при кодировании речи μ=255 при 8-битовом АЦП.
X множество всевозможных дискретных сообщений x1, x2, …, xn передается по каналу связи с вероятностями p(x1), p(x2), …, p(xn).
Условие непрерывной передачи: p(x1)+p(x2)+ … +p(xn)=1.
Энтропия источника (среднее количество информации при передаче одного символа сообщения)
- при равновероятных символах (p(xi)=1/n),
Кодовые слова фиксированной длины (при равновероятных символах источника)
Каждому из n символов источника ставится в соответствие R бит.
Эффективность кодирования – H/R (H – энтропия)
- n равно целой степени основания 2: число бит на символ источника R=log2(n), H/R=1
n не равно целой степени основания 2: число бит на символ R=⎣log2(n)⎦ +1, H/R<1
Код I (слева) не обеспечивает однозначное декодирование.
Код II (справа) обеспечивает однозначное декодирование
Принятая последовательность 001001 имеет два варианта декодирования (при коде I): a2a4a3 или а2а1а2а1
Длина кодовой посылки обратно пропорциональна его априорной вероятности
Идеальный канал связи без помех и искажений сигналов (P2=1)
Чем меньше вероятность P1 (больше неопределенность) события, тем большая информация о нем получается в результате приема сообщения. Если в качестве основания логарифма выбрать 2, то единицей измерения информации является бит.
1.2. Количество информации в дискретных сообщениях.
Найдем информационное содержание сообщения, состоящего из n символов, при алфавите, насчитывающем L символов S1, S2,…, SL.
Сколько различных последовательностей из n символов можно составить при заданном алфавите из L различных символов? Рассмотрим частные случаи:
n=1 (одно сообщение содержит один символ) число возможных сообщений равно L;
Энтропия случайной величины (или сообщения)
Два свойства сообщений при равновероятных и независимых символах:
а) количество информации в сообщении пропорционально полному числу n символов и логарифму от числа L различных символов в алфавите;
б) средняя информация, приходящаяся на один символ, зависит только от числа различных символов в алфавите.
Символы сообщения не равновероятны. Энтропия случайной величины (или сообщения)
n=2 (одно сообщение содержит два символа) число возможных сообщений равно L×L и возможные сообщения образуют следующую совокупность:
Пример. Источник сообщений выдает два независимых символа: 0 с вероятностью q и 1 с вероятностью (1-q). Энтропия
Передаваемые сообщения обладают избыточностью и число символов в сообщении больше, чем это требуется при их независимости и равномерном использовании. Поэтому фактическая энтропия H меньше максимальной Hmax. Избыточность
1.3. Информационная емкость дискретного сигнала
Двоичный сигнал (-1, +1). Энтропия - 1 бит/символ.
τи - длительность импульса. T=nτи - длительность сообщения.
Количество информации n бит.
Полоса частот w≈1/τи.
Количество информации в сигнале
Информационная емкость сигнала
.
Информационная емкость двоичного сигнала равна полосе частот сигнала
Информационная емкость является предельной скоростью передачи информации
Информационная емкость сигнала (предельная скорость безошибочной передачи информации) при условии
Точное выражение (несмотря на приблизительное определение L)
Энтропия непрерывного распределения
Пусть Δxi=Δx. Второе слагаемое
Не зависит от плотности вероятности
Дифференциальная энтропия
Средняя мощность сигнала
Энтропия
2. Случайный процесс с нулевым средним и амплитудой, равномерно распределенной на интервале [−A0÷A0].
Плотность вероятности
Энтропия
3. Гауссов случайный процесс с нулевым средним и дисперсией (мощностью) P0.
Энтропия
Энтропия процесса со случайной фазой (1), случайной амплитудой (2) и гауссова случайного процесса (3)
Теорема. Среди всех распределений с одинаковой дисперсией гауссово распределение обладает наибольшей энтропией.
1.6. Энтропия совокупности выборок непрерывного сигнала.
x(t) - сигнал длительностью T сек, с наибольшей частотой Fmax Гц.
Сигнал однозначно определяется N=2FmaxT+1≈2FmaxT выборками (интервал Δt=1/2Fmax).
При независимости выборок (что имеет место для гауссова случайного процесса) энтропия совокупности выборок в N раз больше энтропии отдельной выборки, то есть
ДСКБП характеризуется набором X={0,1} возможных входов, набором Y={0,1} возможных выходов, а также набором условных вероятностей возможных выходов при условии возможных входов (вероятностей ошибок и правильной передачи)
Двоичный симметричный канал без памяти
ДКБП характеризуется набором X={x0, x1, …, xq-1} возможных входов, набором Y={y0, y1, …, yQ-1} возможных выходов, а также набором qQ условных вероятностей возможных выходов при условии возможных входов
Дискретный канал без памяти
i=(1,2,…,Q-1), j=(1,2,…,q-1)
- u1, u2, …, un – входная последовательность из n символов, выбираемых из алфавита X,
- v1, v 2 , …, vn - выходная последовательность из n символов из алфавита Y,
- совместные условные вероятности при отсутствии памяти в канале равны
Канал характеризуется набором X={x0, x1, …, xq-1} возможных входов, непрерывным выходом Y={−∞,∞}, и условными плотностями вероятностей
k=0,1,…,q-1
Наиболее важный канал этого типа – канал с аддитивным гауссовым шумом
Y=X+n, где n – гауссовы случайные величины с нулевым средним и СКО σ, X=xk (k=1,2,…,q-1).
Условная плотность вероятностей для X=xk
- x1, x2, …, xn – входная последовательность из n символов,
- y1, y2, …, yn - выходная последовательность, yi=xi+ni (i=1,2,…,n).
- совместные условные вероятности при отсутствии памяти в канале
Разложения x(t), y(t) и n(t) в полный ряд по ортонормированным функциям fi(t)
Условия ортонормированности
Выходной сигнал
Коэффициенты разложения
Выходной сигнал
ni – статистически независимые случайные величины
i=(1,2,…,Q-1), j=(1,2,…,q-1)
- взаимная информация о событии X=xj, когда имеет место событие Y=yi
- средняя взаимная информация о событии X, когда имеет место событие Y
Спектральной эффективностью (СЭ) канала называется максимальное значение величины I(X,Y) по набору вероятностей входных символов.
при условиях
Единица измерения СЭ - бит/символ
3. Спектральная эффективность каналов без памяти.
H(p) – энтропия
Поведение вероятности ошибки и СЭ ДСКБП в зависимости от ОСШ
СЭ (бит/символ) в зависимости от ОСШ A2/2σ2 (дБ)
СЭ такого канала в единицу времени (Шеннон, 1948 год)
Средняя взаимная информация между X и Y
Непрерывные функции y(t), x(t) и n(t) заменяем их выборками {yi}, {xi} и {ni}, взятыми через интервалы времени Δt=1/2W (теорема отсчетов).
Затем находим среднюю взаимную информацию между векторами XN ={x1, …, xN} и YN ={y1, …, yN} размерности N=2WT. Имеем
Выборки шума статистически независимыми между собой. Средняя взаимная информация между XN и YN равна сумме средних взаимных информаций между отдельными выборками
Нормированная СЭ (бит/символ)
Энтропия N=2WT выборок выходной смеси
Теорема кодирования в канале с шумами (теорема Шеннона)
Смысл теоремы Шеннона: шум может определять СЭ канала, а не точность передачи информации. В пределе можно получить сколь угодно высокую безошибочность передачи данных, применяя кодирование достаточно больших блоков.
Лекция 5.
Модуляции, используемые в системах цифровой связи
где Am (m=1,2,…,M) - возможные амплитуды, соответствующие M=2b сигналам.
Функция g(t) описывает форму вещественного сигнального импульса, которая определяет спектр передаваемого сигнала.
Амплитуда сигнала Am принимает дискретные значения
Таким образом, имеем, что
где 2d – расстояние между соседними амплитудами
Двоичная последовательность на входе модулятора имеет скорость R бит/сек.
Скорость передачи символов (скорость изменения амплитуды несущей ) равна R/b.
- сигнальный интервал
- информационный или битовый временной интервал
где
Диаграмма отображения для сигналов АМ
Код Грея - соседние амплитуды сигналов соответствуют информационным двоичным блокам, различающимся только одним битом.
- евклидово расстояние между какой-либо парой сигнальных точек
- минимальное евклидово расстояние между парой соседних точек
При M=2 двоичная АМ имеет специальное свойство:
Два сигнала имеют одинаковую энергию и коэффициент их взаимной корреляции равен –1 (противоположные сигналы)
2. Двумерная фазовая модуляция (ФМ).
- M возможных значений фазы несущей, которая переносит передаваемую информацию
ФМ сигналы имеют одинаковую энергию
Сигналы с ФМ являются двумерными и их можно представить в виде
где
- двумерный вектор с компонентами
- минимальное евклидово расстояние между парой соседних точек
3. Двумерная квадратурная амплитудная модуляция (КАМ)
где Amc и Ams – информационные амплитуды для квадратурных несущих
Сигнал КАМ можно рассматривать как комбинацию АМ и ФМ.
Можно образовать определенную комбинацию М1-уровневой АМ и М2-позиционной ФМ
В результате получается сигнальное созвездие комбинированной АМ-ФМ, содержащее М=М1×М2 точек пространства сигналов.
Если М1=2n и М2=2m, то сигнальное созвездие позволяет передавать m+n=logM1M2 двоичных символов со скоростью R/(m+n).
где
- двумерный вектор
- евклидово расстояние между произвольной парой сигнальных векторов (сигнальных точек)
Диаграммы отображения для сигналов КАМ при разных M
- минимальное евклидово расстояние между парой соседних точек
4-ФМ сигналы: I= ±1; Q=±1
16-КАМ сигналы: I= ±1, ±3; Q=±1, ±3
2-ФМ сигналы: I= ±1; Q=0.
k=1
64-КАМ сигналы: I= ±1, ±3, ±5, ±7; Q=±1, ±3, ±5, ±7
Исходный поток импульсов, состоящий из (±1), разделяется на два квадратурных потока.
T - длительность импульса.
2T - длительность импульса в квадратурах.
QPSK сигнал
За время 2T фаза несущей может измениться один раз.
Импульсы не меняют знака - фаза не изменяется.
Один импульс меняет знак - фаза изменяется на ±90°.
Оба импульса меняют знак - фаза изменяется на 180°.
Потоки данных (QPSK модуляция)
QPSK модулятор
В QPSK потоки импульсов dI(t) и dQ(t) синхронизированы так, что их переходы совпадают по времени (см. предыдущий слайд).
В OQPSK эти потоки синхронизированы со сдвигом на T. Поэтому фаза несущей не может измениться на 180°. За каждые T секунд фаза может измениться только на 0° или ±90°.
QPSK и OQPSK сигналы
Потоки данных (OQPSK модуляция)
Формирование сигнала ММС
1. Сигнал s(t) имеет постоянную составляющую
2. Фаза несущей непрерывна при изменении значений dI(t) и dQ(t)
3. Сигнал s(t) - частотно манипулированный сигнал с частотами передачи
4. Разнесение между частотами -
Спектральная плотность мощности QPSK или OQPSK сигнала и ММС сигнала (пунктир)
Боковые максимумы для ММС сигнала значительно ниже, чем для QPSK или OQPSK сигналов
Амплитуда изменяется только при передаче 1.
Это - дифференциальное кодирование.
4. Гауссова частотная манипуляция с минимальным частотным сдвигом (GMSK - Gaussian Minimum Shift Keying) -
{ak} – входная двоичная информационная последовательность кодера,
{bk} – выходная последовательность кодера, ⊕ - суммирование по модулю 2.
bk=1, передаваемый сигнал – положительный прямоугольный импульс,
bk=0, передаваемый сигнал – это отрицательный прямоугольный импульс.
Операция дифференциального кодирования вводит память в сигнал.
Диаграмма состояний кодера и модулятора
Решетчатая диаграмма кодера и модулятора
На интервале времени (0–Ts) передается один из M сигналов (гипотез) {dm(t)}, m=1, 2,.., M.
Функции fn (t) образуют ортонормированный базис размерности N
Приемник состоит из демодулятора и детектора.
Демодулятор превращает принимаемую смесь сигнала и шума в N-мерный вектор (N − размерность сигнала)
Детектор решает на основе вектора X, какой из M возможных сигналов передан
1. Корреляционный демодулятор.
4-ФМ-сигналы (N=2)
Демодулятор состоит из одного коррелятора.
Демодулятор состоит из двух корреляторов.
Прямоугольный импульс
4-ФМ, 16- и 64-КАМ сигналы (N=2)
Статистически независимые гауссовы случайные величины
3. Основные критерии, используемые для принятия решений.
- Критерий максимума апостериорной вероятности
- Критерий максимального правдоподобия
Критерий максимума апостериорной вероятности.
на вычислении апостериорных вероятностей
(m=1,2,…,M)
Алгоритм оценки переданного сигнала
- N-мерный вектор
Правило Байеса
Тождество
(m=1,2,…,M)
Алгоритм оценки переданного сигнала
- N-мерный вектор
Условная плотность вероятности
называется правдоподобием dm
Алгоритм оценки - минимизация евклидова расстояния
Дистанционная метрика (метрика расстояний)
Правило принятия решения:
x>0 – передан сигнал d1(t),
x<0 – передан сигнал d2(t)
Вероятность битовой ошибки при передаче второго сигнала
Вероятность битовой ошибки
– ОСШ на бит
2-ФМ-сигналы
– ОСШ на символ
ρ 0>>1
ρ 0→0
BER→0.5
BER не может превышать 0.5
Вероятность битовой ошибки совпадает с вероятностью символьной ошибки
2-ФМ сигналы.
BER = 0.001 при ОСШ=6.9 дБ
– ОСШ на символ
- минимальное евклидово расстояние между 4-ФМ сигналами
4-ФМ модулятор
ОСШ на бит
Связь ОСШ с ОСШ на бит
4-ФМ сигналы.
BER = 0.001 при ОСШ=9.9 дБ
Связь ОСШ с ОСШ на бит
Одинаковая BER достигается для 4-ФМ при ОСШ большем в 2 раза (на 3 дБ), чем для 2-ФМ.
– ОСШ на символ
Следствие кода Грея
16-КАМсигналы.
BER = 0.001 при ОСШ=16.7 дБ
3. 16-КАМ сигналы.
SER ≈ 4 BER
Следствие кода Грея
– ОСШ на символ
64-КАМ сигналы.
BER = 0.001 при ОСШ=22.7 дБ
4. 64-КАМ сигналы.
SER ≈ 6 BER
Следствие кода Грея
– ОСШ на символ
Следствие кода Грея
kb= 1, 2, 4 и 6 для 2-ФМ, 4-ФМ, 16-КАМ и 64-КАМ, соответственно
BER = 0.001
Eb/N0 = 6.9, 6.9, 10.7 и 15.9 дБ
(2-ФМ, 4-ФМ, 16-КАМ и 64-КАМ сигналы)
– ОСШ на бит
*
Если не удалось найти и скачать презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:
Email: Нажмите что бы посмотреть