Общая теория связи презентация

Содержание

Слайд 1Общая теория связи
Занятие 2. Преобразование сообщений в СПИ. Виды модуляции. Цифровое представление сообщений. Основы

теории передачи и кодирования.

Слайд 2Обобщённая структурная схема системы электросвязи – последовательность преобразования сигналов


Слайд 3Виды модуляции сигналов
амплитудная модуляция: A(t) = A0 + ΔA(t) = A0 +

asc(t)
частотная модуляция: ω(t) = ω0+Δω(t) = ω0 + asc(t)
фазовая модуляция: ϕ(t) = ϕ0 + Δϕ(t) = ϕ0 + asc(t)

Слайд 4Обобщённая схема модулятора


Слайд 5Принцип амплитудной модуляции
mАМ = ΔA / A0
SАМ(sc,t) = A0 [ 1+

mАМ sc(t) ] cos(ω0t +ϕ0).

Слайд 6Спектр АМ-сигнала


Слайд 7Балансная модуляция


Слайд 8ОБП-модуляция


Слайд 9Детектирование АМ

Амплитудный детектор



Синхронный детектор


Слайд 10Фазовая модуляция


Слайд 11Частотная модуляция


Слайд 12Прямые методы ЧМ и ФМ


Слайд 13Косвенные методы ФМ и ЧМ


Слайд 14Детектирование ФМ
Разновидность синхронного детектора


Слайд 15Примеры
Спектры модулированных сигналов.


Слайд 16Основы теории информации
Методы количественного определения (К. Шеннон, 1948)
количество информации должно быть аддитивной

мерой;
количество информации о достоверном событии равно нулю;
количество информации не должно зависеть от содержания.

Слайд 17Энтропия
Энтропия неотрицательна: H(A) = 0; p(ai) = 1;p(aj) = 0.
Энтропия аддитивна,

т. е. Если , то H<А, А, …, А> = nH(A).
Если в ансамбле K = mn различных сообщений, то H(A) ≤ log K.

Слайд 18Энтропия источника
Число комбинаций букв M = mN
Русский алфавит: log 32 =

5

Слайд 19Вероятности русских букв


Слайд 20Избыточность источника
Характеристика, показывающая количественное превышение числа символов в сообщении над минимально

необходимым для передачи содержания

Коэффициент избыточности


Слайд 21Производительность источника
количество информации, выдаваемое источником в среднем за единицу времени (одну

секунду) его непрерывной работы

Слайд 22Пропускная способность канала
Пропускной способностью (C’, бит/символ) канала, рассчитанной на один входной

символ, называется максимальное количество информации, которое может быть передано по каналу.

Используют также пропускную способность в единицу времени C = 1 / T * C’ , бит/с, или просто пропускную способность

Слайд 23Пропускная способность дискретного канала


Слайд 24Прямая и обратная теоремы кодирования
Прямая теорема кодирования:
для любого однозначно декодируемого кода

среднее число символов в двоичном кодовом слове всегда не меньше энтропии источника сообщений nСР ≥ H(X), и существует однозначно декодируемый код, для которого выполняется неравенство nСР < H(X)+1.

Обратная теорема кодирования:
невозможно построить однозначно декодируемый код, для которого выполнялось бы неравенство nСР

Слайд 25Задание:
Проработать раздел Основы теории кодирования дискретных сообщений
Проработать разделы Основы оптимального

приёма дискретных и непрерывных сообщений
Самостоятельно!

Обратная связь

Если не удалось найти и скачать презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое ThePresentation.ru?

Это сайт презентаций, докладов, проектов, шаблонов в формате PowerPoint. Мы помогаем школьникам, студентам, учителям, преподавателям хранить и обмениваться учебными материалами с другими пользователями.


Для правообладателей

Яндекс.Метрика