Презентація прикладів рішення задач по курсу ОТПІ презентация

Задача №1 Відомо, що одне з рівноімовірнисних можливих повідомлень несе 6 біти інформації. Із скількох якісних признаків m складається алфавіт, якщо число можливих комбінацій повідомлення N = 128?

Слайд 1Презентація прикладів рішення задач по курсу ОТПІ


Слайд 2Задача №1
Відомо, що одне з рівноімовірнисних можливих повідомлень несе
6 біти

інформації. Із скількох якісних признаків m складається
алфавіт, якщо число можливих комбінацій повідомлення N = 128?

В умові задачі навмисно введена помилка, бо при 6 біт інформації
число можливих комбінацій повідомлення буде 64. Тому одне рів-
ноІмовірносне можливе повідомлення має нести 7 бітів інформа-
ції. В цьому випадку правильне рішення буде:
Розв'язок : N = mn ; 128 = m7 ; тобто m = 2, так як I = log2 N =
Log2 128 = 7 може бути тільки у випадку, якщо N = mn = 27

Розвязок:


Слайд 3Задача №3

В плановому відділі працює три економіста: двоє досвідчених і

один молодий-недосвідчений. Для недосвідченого економіста поява любого типу документу – рівно імовірно. Досвідчені економісти знають, що документи типу S складають 10%загальної кількості документів, які надходять у відділ. Визначити яку к-ть інформації отримає кожний економіст відділу при отриманні документу типу S?

Розвязок:
1.Так як для недосвідченого економіста поступлення любого типу документів
рівноімовірно, то



2. Досвідчені економісти вже завчасно можуть передбачити імовірність
поступлення документу типу S і тому при р1 =0,9 і р2=0,1, маємо
І2 = - (0,9log2 0,9 + 0,1log2 0,1)= 0,468bit


Слайд 4Задача № 4
Алфавіт складається з двох букв В і Х (m=2).

Довжина повідомлення
3 букви (n=3). Скільки при вибраних m I n можна скласти різних повідо-
млень N ? Яка кількість інформації I буде в такому повідомленні?
Розв'язок:
Кількість різних повідомлень визначається по формулі: N = mn
Для даного випадку N = 23 =8
Кількість інформації в повідомленні визначається по формулі:
I = log2 N
В нашому випадку І = log2 mn = n log2 m = 3 log2 2 = 3 bit.

Слайд 5Задача № 20
Скільки питань типу "так" або "ні", тобто бітів інформації,

треба задати люди-
ні, яка задумала число в межах від 1 до 100 ( N=100), використовуючи самий
оптимальний спосіб знаходження невідомого числа "Ділення пополам". Для
вирішення задачі використати формулу Р.Хартлі, врахувавши, що кількість
інформації, яка закладена в відповіді "так" / "ні", рівна одному біту.
Розв'язок:
Кількість інформації I необхідної для визначення конкретного елемента, є
логарифм по основі 2 від загальної кількості елементів N, тобто
I = log2 N = log2 100 = lg100/lg2 =6,66 bit ~ 7 bit.
Другими словами треба задати 7 питань типу "так" або "ні", щоб знайти
задумане число
ПРИКЛАД ДЛЯ ДІАЛОГУ, щоб знайти невідоме задумане число
від 1 до 100. Хай задумане число буде 27:
Використовуючи метод "Ділення пополам", задаємо питання
Задумане число більше 50 – НІ. Задумане число більше 25 – ТАК. Задумане
число більше 38 – НІ задумане число менше 32 – ТАК. Задумане число
менше 29 – ТАК. Задумане число більше 27 – НІ. Це число 26 – НІ. Значить,
якщо це число не 26 і не більше 27, то це число - 27. Що би визначити заду-
мане число методом "Ділення пополам". нам потрібно було задати 7 питань,
які мають 7 біт інформації.

Слайд 6Задача №27
Повідомлення передається вісімковим алфавітом m = 8 по 4 символи

(n = 4) в повідомленні. Всього передано 10 повідомлень (k=10). Яка
кількість інформації буде передана в цих повідомленнях?

Розв'язок:
К-ть інформації в одному повідомленні I = n log2 m. Одночасно в К по-
відомленнях буде I = k n log2 m інформації: I = 10·4·log2 8 = 120 bit

Слайд 7Задача №32
В алфавіті три букви А, В, С. ( m =

3 ) 1.Складіть максимальну кількість
повідомлень N комбінуючи по 3 букви (n=3) в повідомленні.
2.Яка к-ть інформації припадає на одне таке повідомлення?


Розв'язок:
1. m = 3: n =3: N = mn =33 =27; 2. I = log2 N = log2 27 = 4,75489 bit

Слайд 8Задача №34
А). Чому дорівнює максимальна ентропія системи, яка складається
з двох

елементів(m=2), кожний з яких може бути в 2-х станах (n=2)?
В)Чому дорівнює максимальна ентропія системи, яка складається з
трьох елементів (m=3), кожний з яких може бути в 4-х станах(n=4)?

Розв'язок: H1 = log2 22 = 2 bit/symvol, H2 = log2 34 = 6,32 bit/symvol

ЕНТРОПІЯ системи – невизначеність того, що система буде знахо-
дитись в одному з n можливих станів.

Слайд 9Задача №42
Визначити, скільки необхідно способів, щоби передати положення
фігур на шаховій

дошці? Чому дорівнює к-ть Інформації в кожному
випадку?

Розв'язок №1: Можна пронумерувати всі клітинки шахматної дошки і
передати номер клітинки. Для цього буде потрібно 64 якісних при-
знаків (m=64), але для передачі номера клітинки достатньо буде
одного повідомлення (n=1). При цьому к-ть інформації буде
I = nlog2 m = 1·log2 64 = 6 bit

Розв'язок №2: Вказати на дошці необхідну клітинку можна також,
якщо передати координати по горизонталі і вертикалі. Для цього
достатньо восьми (m=8) якісних при знаків (вісім номерів по горизон-
талі і вісім по вертикалі). Але тепер треба передати два повідомлення
(n=2). При цьому к-ть переданої інформації буде
I = nlog2 m = 2·log2 8 = 6 bit

Розв'язок №3 ???

Слайд 10Задача №52
Число символів алфавіту m = 5. Визначити кількість інформації на

символ повідомлення, складеного з цього алфавіту, якщо:
1.Символи зустрічаються з рівними імовірностями
2.якщо символи алфавіту зустрічаються в повідомленні з імовірнос-
тями р1=0,8; р2=0,15; р3=0,03; р4=0,015; р5=0,005
3.наскільки недогружені символи в другому випадку?

Розв'язок : 1. Hmax = log2 m = log2 5 = 2,321 bit/symvol

=0,257+0,410+0,151+0,090+0,038=0,948bit/symvol

3. H = Hmax – H1 = 2,321 – 0,948 = 1,373 bit/symvol



Слайд 11Задача №63
В повідомленні, яке складено з 5-ти признаків (m=5),і які використовуються
з

різною імовірністю, що дорівнює р1=0.7;р2=0,2;р3=0.08;р4=0,015;р5=0,005
Всього в повідомленні прийнято 20 знаків (n=20). Визначити к-ть інформа-
ції у всьому повідомленні.
Яка к-ть інформації в даному повідомленні, якщо поява всіх знаків має рівну
імовірність?

Розв'язок:

1.К-ть інформації в повідомленні з різною імовірністю:


2.Ентропія на один символ Н1=24,9:20 = 2,32 біт/символ

3.К-ть інформації в m признаках І2 = 20 log2 m=20·2,32=46,4bit

4.Ентропія цього повідомлення Н2= log2 m=2,32 біт




Слайд 12Задача №64
За 2008 рік на Львівській залізниці магніто-динамічним методом було виявле-
но

біля 160 дефектних і гостродефектних рейок з дефектами по кодам 10, 11,
14, 17, 21,22, 30.
З усіх виявлених дефектних рейок,як показав аналіз, Імовірності появи
дефектів по коду 10 складала 0,39, по коду 11 – 0,18, по коду 14 – 0,24 і по
коду 17 – 0,18
Треба знайти математичне сподівання і дисперсію появи цих дефектів



Слайд 13Задача №65


Обратная связь

Если не удалось найти и скачать презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое ThePresentation.ru?

Это сайт презентаций, докладов, проектов, шаблонов в формате PowerPoint. Мы помогаем школьникам, студентам, учителям, преподавателям хранить и обмениваться учебными материалами с другими пользователями.


Для правообладателей

Яндекс.Метрика