Измерение информации. Информационная характеристика источника двоичных сообщений презентация

Содержание

Введение Измерение – нахождение значения физической величины опытным путем с помощью специальных технических средств. Мера – средство измерения, предназначенное для воспроизведения заданного значения физической величины (например, гиря).

Слайд 1Измерение информации. Информационная характеристика источника двоичных сообщений.
Лекция 2


Слайд 2Введение
Измерение – нахождение значения физической величины опытным путем с помощью специальных

технических средств.
Мера – средство измерения, предназначенное для воспроизведения заданного значения физической величины (например, гиря).

Слайд 3Введение
Рис. 1.1 Меры информации


Слайд 4Введение
В синтаксическом подходе выделяют:
Структурная теория рассматривает дискретное строение массивов информации и

их измерение простым подсчетом информационных элементов (квантов).
Статистическая теория оперирует понятием энтропии как меры неопределенности, учитывающей вероятность появления и, следовательно информативность тех или иных сообщений.

Слайд 51.1. Синтаксические меры информации. Структурная теория.
При использовании структурной теории (структурных мер)

учитывается только дискретное строение данного информационного комплекса, в особенности количество содержащихся в нем информационных элементов (квантов информации), связей между ними или комбинацией из них.

Слайд 61.1.1. Геометрическая мера
Определение количества информации геометрическим методом сводится к измерению длины

лини, площади или объёма геометрической модели данного информационного комплекса в количестве дискретных единиц – квантов.
Геометрическим методом определяется потенциальное (максимально возможное) количество информации или информационная ёмкость исследуемого комплекса.

Слайд 7Пусть информация отражается полным комплексом XTN.
Если отсчеты по осям X, T,

N осуществляются соответственно через интервалы Δx, Δt, Δn соответственно, то непрерывные координаты распадаются на кванты, количество которых определяется как
mx=X/Δx , mT=T/Δt , mN=N/Δn
Тогда количество информации в полном комплексе XTN равно

I=mx•mT•mN=X•T•N/(Δx•Δt•Δn) [ед.]


1.1.1. Геометрическая мера


Слайд 8 К этой мере целесообразно прибегать тогда, когда требуется оценить возможность передачи

информации при помощи различных комбинаций информационных элементов.

1.1.2. Комбинаторная мера


Слайд 9В комбинаторике рассматривают различные виды соединения из n элементов по m

элементов, например:
сочетания Cnm=n!/[m!•(n-m)!]
перестановки Pm=m!
размещения Anm=n!/(n-m)!=Cnm•Pm

1.1.2. Комбинаторная мера


Слайд 10Количество информации в комбинаторной мере вычисляется как количество комбинаций информационных элементов.
Т.е.

производится оценка структурного разнообразия, а не простой подсчет квантов, как в геометрической мере.
Количество информации при том же количестве элементов теперь многократно увеличивается.

1.1.2. Комбинаторная мера


Слайд 11Например, при сочетаниях из n=10 по m=0, 1, 2, 3 …9,

10 элементов имеем

C=10!/0!(10-0)!+10!/1!(10-1)!+…+10!/10!(10-10)!=1+10+45+120+210+252+210+120+45+10+1=1024 комбинации
Перестановка тех же элементов дает:
P=10!=3 682 800 комбинаций.

1.1.2. Комбинаторная мера


Слайд 12Не всегда все возможные комбинации составляют действительные степени свободы данной системы.
Тогда

расчет ведется по реализуемым комбинациям.

1.1.2. Комбинаторная мера


Слайд 13Из теории вероятностей:
Проводится некий опыт, исход которого называется событием.
Например, при бросании

монеты имеем 2 состояния: А – появление «орла», В – появление «решки».
Разные события обладают разной степенью возможности, т.о., исход любого опыта – случайное событие.

1.1.3. Аддитивная мера Хартли


Слайд 14Из теории вероятностей:
Меру случайности называют вероятностью и обозначают P(A).
Если P(A)=1, то

имеем достоверное событие, если P(A)=0 – невозможное событие; для всех остальных событий справедливо 0

1.1.3. Аддитивная мера Хартли


Слайд 15Из теории вероятностей:
Событие A называется независимым от события B, если P(A)

не зависит от того, произошло B или нет.
В противном случае рассматривают условную вероятность P(A/B) – вероятность наступления события A при условии, что событие B уже произошло.
Например, вероятность попадания снаряда в одну и ту же воронку.

1.1.3. Аддитивная мера Хартли


Слайд 16Из теории вероятностей:
События A и B называют несовместными, если в результате

опыта они никогда не могут появиться одновременно.
Например, появление «орла» и «решки» одновременно при бросании монеты.

1.1.3. Аддитивная мера Хартли


Слайд 17Из теории вероятностей:
Суммой событий A и B называется событие, состоящее в

появлении хотя бы одного из них.
Произведение событий A и B - событие, состоящее в появлении обоих.

1.1.3. Аддитивная мера Хартли


Слайд 18Из теории вероятностей:
Совокупность событий составляют полную группу, если в результате опыта

непременно должно произойти одно из них.
Например, появление любой цифры от 1 до 6 при бросании игральной кости.
Суммарная вероятность всех входящих в полную группу событий равна 1.

1.1.3. Аддитивная мера Хартли


Слайд 19Рассмотрим 2 независимых опыта с числом равновероятных исходов N1 и N2
Предположим,

что в результате наблюдения за исходами этих опытов получено количество информации I1=f(N1) и I2=f(N2)
Пусть оба опыта проводятся одновременно, тогда общее число исходов равно N=N1•N2
При этом получаемое количество информации I=I1+I2=f(N1•N2)


1.1.3. Аддитивная мера Хартли


Слайд 20
Искомая функция f(*) должна удовлетворять условию: f(N1)+f(N2)=f(N1•N2)
Единственной функцией удовлетворяющей этому условию

является f(*)=loga(*)
Формула Р.Хартли (1928 г.) I=logaN

1.1.3. Аддитивная мера Хартли


Слайд 21В зависимости от выбора основания логарифма получаем следующие меры количества информации:


a=e I=ln N [нит] – натуральные единицы
a=10 I=lg N [дит] – десятичные единицы
a=2 I=ld N [бит] –двоичные единицы
(1 бит информации от английских слов binary digit)

1.1.3. Аддитивная мера Хартли


Слайд 22Иной подход к выводу формулы Хартли:
Пусть передаваемое сообщение имеет вид числа,

представленного в той или иной системы счисления.
Одно и то же количество разрядов в разных системах счисления может передавать разное число состояний отображаемого объекта: N=mn ,
где N – число возможных отображаемых состояний;
m – основание системы счисления;
n – число разрядов в сообщении (длина разрядной сетки).
Например, при m=100 и n=2 имеем 100 чисел от 00 до 99, а при m=2 и n=2 всего 4 числа: 00, 01, 10 и 11

1.1.3. Аддитивная мера Хартли


Слайд 23В случае, когда все N состояний равновероятны, получаем следующую формулу для

оценки количества информации:
I=logaN=n•logam
Если a=m, то I=n, т.е. количество информации равно объему данных.
Эту меру можно назвать компьютерной, т.к. при a=m=2 (двоичная система счисления) и n=1 (один разряд) имеем единицу измерения 1 бит, от которой производными являются байт, килобайт, мегабайт и т.д.

1.1.3. Аддитивная мера Хартли


Слайд 24При статистическом (вероятностном) подходе информация рассматривается как сообщения о случайных событиях

– исходах некоторого опыта, а количество информации ставится в зависимость от априорных вероятностей.
При бросании кубика: вероятность встретить один знак (одну из цифр от 1 до 6) в произвольный момент времени совпадает с относительной частотой этого знака во всей последовательно знаков.



1.2. Синтаксическая мера. Статистическая теория


Слайд 25Последовательность знаков с таким свойством называется шенноновским сообщением.
Поскольку сами знаки и

содержащаяся в них информация известны заранее, существенным является сам факт, какой именно знак выбран.

1.2. Синтаксическая мера. Статистическая теория


Слайд 26Упорядоченным называется состояние системы, осуществляемое относительно малым числом способов, а беспорядочным

– состояние, реализуемое относительно большим числом способов.

1.2.1. Понятие энтропии


Слайд 27Рассмотрим в качестве системы сосуд, разделенный проницаемой перегородкой на две равные

части и содержащий 4 молекулы (рис. 1.2)

1.2.1. Понятие энтропии

Рис. 1.2. Распределение четырех молекул в двух зонах


Слайд 281.2.1. Понятие энтропии
Таблица 1.1 Распределение четырех молекул в двух зонах


Слайд 29Формула:
K=N!/(N1!•N2!)=N!/[N1!•(N-N1)!]
С увеличением числа молекул различия в вероятностях будут резко возрастать (таблица

1.2)

1.2.1. Понятие энтропии


Слайд 301.2.1. Понятие энтропии
Таблица 1.2. Распределение N молекул в двух зонах


Слайд 31Вероятность скопления N молекул газа в одной половине сосуда объемом 1

см3 можно оценить следующим образом:
для одной молекулы P1=0,5 (да/нет)
при нормальных условиях в 1 см3 содержится L=2,7•1019 молекул газа (число Лошмидта)
Тогда для N молекул имеем PN=P1N=0,51=2-1

1.2.1. Понятие энтропии


Слайд 32Второй закон термодинамики:
Природа стремится от состояний менее вероятных к состояниям более

вероятным (Л. Больцман).

1.2.1. Понятие энтропии


Слайд 33Пример:
Если взять 4-разрядные двоичные числа, то в 6 комбинациях из 16

возможных имеем равное количество 0 и 1 (табл. 1.3)

1.2.1. Понятие энтропии

Таблица 1.3. Распределение 0 и 1 в двоичных числах


Слайд 34Энтропия в термодинамике – количественная мера неупорядоченности, мера вероятности осуществления какого-либо

состояния системы.
В физику понятие энтропии ввел Рудольф Клаузиус (19 в.).
Л. Больцман использовал это понятие для определения меры необратимого рассеяния энергии, что позволило строго математически сформулировать второй закон термодинамики.

1.2.1. Понятие энтропии


Слайд 35Статистический смысл второго закона (начала) термодинамики:
Макроскопическое состояние газа с некоторыми значениями

параметров представляет собой смену микроскопических состояний, которые отличаются одно от другого нахождением одних и тех же молекул в разных частях объема и перераспределением энергии между этими молекулами.

1.2.1. Понятие энтропии


Слайд 36В соответствии со вторым законом для замкнутого пространства (изолированной системы) энтропия

равна
S=-1/N•Σni ln(ni/N)=-Σpi ln pi
где N-общее число молекул в системе;
pi – вероятность того, что ni молекул имеют скорости vi+Δvi

1.2.1. Понятие энтропии


Слайд 37Иная трактовка - энтропия как мера вероятности осуществления какого-либо состояния системы:
S=-Σpi

ln pi =k lnW
где pi – вероятность нахождения молекул в i-й ячейке фазового пространства; W – термодинамическая вероятность данного макроскопического состояния системы или число соответствующих состояний; k=1,38•10-23 Дж/К – постоянная Больцмана.

1.2.1. Понятие энтропии


Слайд 38Третий смысл энтропии получается из понятия упорядоченности: коль скоро неупорядоченные состояния

системы достижимы большим числом способов и поэтому более вероятны, то энтропия оказывается и мерой неупорядоченности системы.

1.2.1. Понятие энтропии


Слайд 39Энтропия в теории информации – количественная мера неопределенности.
Трактовку ввел в 1948

г. Клод Шеннон


1.2.2. Мера Шеннона


Слайд 40Главным свойством рассмотренных опытов является неопределенность, т.к. каждый исход – случайное

событие.
Важно уметь численно оценить степень неопределенности, чтобы иметь возможность объективного сравнения различных опытов.
Степень неопределенности опыта, имеющего N исходов, зависит от N: если при N=1 исход опыта вообще не является случайным, то по мере возрастания N предсказание того или иного исхода становится все более проблематичным.

1.2.2. Мера Шеннона


Слайд 41Для опыта с N равновероятными исходами x1, x2,…xN (полная группа случайных

событий) таблица вероятностей имеет вид:

1.2.2. Мера Шеннона


Слайд 42Рассматривая количество информации как меру неопределенности такого опыта в соответствии с

формулой Хартли имеем
I= ld N [бит]
При этом каждый исход имеет неопределенность
Ik=(1/N) ld N=-(1/N) ld (1/N) [бит]

1.2.2. Мера Шеннона


Слайд 43В общем случае для опыта с N неравновероятными исходами:



Мера неопределенности:
H(X)=-p1 ld

p1-p2ld p2 -…-pN ld pN [бит]

1.2.2. Мера Шеннона


Слайд 44H(X) – энтропия случайного опыта или просто энтропия.
H(X)=-Σpi ld pi при

Σpi=1
Это основное определение теории информации Шеннона.
Количественно выражается как средняя функция каждого из возможных исходов опыта.
Формула Хартли является предельным случаем формулы Шеннона.

1.2.2. Мера Шеннона


Слайд 45Единице измерения энтропии 1 бит соответствует опыт, имеющий N=2 равновероятных исходов


H(X)=-1/2 ld ½-1/2 ld ½=1/2+1/2=1 [бит]

1.2.2. Мера Шеннона


Слайд 46Сопоставление термодинамической формулы (Больцмана) и информационной (Хартли и Шеннона) трактовок понятия

энтропии приводит к фундаментальному соотношению фон Неймана, связывающему энергию и информацию:
E0=k T ln2 [Дж/бит]
Где E0 – количество энергии, требуемое для обработки 1 бита информации при заданном значении термодинамической температуры, k – постоянная Больцмана

1.2.2. Мера Шеннона


Слайд 47H(X) – величина вещественная и неотрицательная
H(X)min=0 когда pk=1, pi=1
H(X)max=ld N когда

pi=1/N
H(X)minH(X)>=H(f(X)) при любой функции f(X)
Для двух независимых опытов X и Y, осуществляемых одновременно H(X,Y)=H(X)+H(Y)
Для двух зависимых опытов X и Y, осуществляемых одновременно H(X,Y)=H(X)+HX(Y)=H(Y)+HY(X), где HX(Y) – условная энтропия Y


1.2.3. Свойства энтропии


Слайд 481.2.3. Свойства энтропии
Рис.1.3 Энтропия опыта с двумя исходами


Слайд 49Условная энтропия HY(X) является мерой остаточной неопределенности.


1.2.4. Количество информации
Рис.1.4. Упрощенная схема

передачи сообщений

Слайд 50Пусть источник сообщений (испытатель), наблюдая за случайными исходами, генерирует и передает

исходное сообщение X, характеризуемое энтропией H(X).
После прохождения через канал связи это сообщение преобразуется в принятое (конечное) сообщение Y, характеризуемое энтропией H(Y), которое и воспринимает получатель.
Т.к. получатель не имеет прямого доступа к опыту, он оценивает его исходы только по сообщению Y.
В результате для получателя неопределенность ситуации уменьшилась на величину HY(X) – энтропия сообщения X при условии, что получено сообщение Y.
Разность H(X)-HY(X) называется неэнтропией (отрицательная энтропия), т.к. Определяет уменьшение энтропии за счет передачи сообщения, служит мерой количества информации при передаче сообщения.

1.2.4. Количество информации


Слайд 51Количество информации – числовая характеристика сигнала, позволяющая оценить исходную степень неопределенности,

которая исчезает после выбора (получения) сообщения в виде данного сигнала.
Количество информации – мера уменьшения неопределенности ситуации (случайной величины) X, возникающая вследствие того, что становятся известными исходы другой ситуации (случайной величины) Y, усредненная по исходу X и Y:
I(X,Y)=H(X) –HY(X)

1.2.4. Количество информации


Слайд 52Для латинского алфавита (26 букв) H=ld 26≈4,7 бит/букву
Для кириллицы (33 буквы)

H=ld 33≈5,05 бит/букву
С учетом вероятности (частоты) появления букв в словах того или иного языка имеем


1.2.5. Информационные характеристики некоторых языков


Слайд 53Рассмотрим оценки, отвечающие как семантическому, так и прагматическому подходам.
Это обусловлено тем,

что в инженерных применениях прагматические оценки сливаются с семантическими: не имеющие смысла сведения бесполезны, а бесполезные знания бессмысленны.

1.3. Семантическая и прагматическая меры информации


Слайд 54Оценка содержательности основана на математической логике, в которой логические функции истинности

m(A) и
имеют формальное сходство с функциями вероятностей наступления события P(A) и антисобытия

cond-мера содержательности сообщения z


1.3.1 Содержательность информации


Слайд 55Логическая оценка информации:


Отличие статистической оценки от логической состоит в том, что

в первом случае учитываются вероятности реализации тех или иных событий (исходов опытов), а во втором – меры истинности, что приближает к оценке смысла информации.

1.3.1 Содержательность информации


Слайд 56А.А.Харткевичем предложена мера целесообразности информации, которая определяется как изменение вероятности достижения

цели при получении дополнительной информации.
Полученная информация может не изменять вероятности достижения цели (ситуация не изменилась), тогда ее мера равна 0.
Информация может уменьшать вероятность достижения цели (дезинформативность, ситуация ухудшилась), тогда ее мера отрицательна.
Информация может увеличивать вероятность достижения цели (добротная информация, ситуация улучшилась), тогда ее мера положительна.

1.3.2 Целесообразность информации


Слайд 57Мера целесообразности в общем виде может выть выражена соотношением
I=Ld p1-ld p0=ld(p1/p0)
где

p0, p1 – начальная (до получения информации) и конечная (после получения информации) вероятности достижения цели

1.3.2 Целесообразность информации


Слайд 581.3.2 Целесообразность информации
Рис.1.5. Пути движения к цели


Слайд 59Пусть имеется некоторое исходное состояние (точка 1), цель (точка 3), и

некоторое промежуточное состояние (точка2).
Из точки 1 возможны 2 пути: 1-2 и 1-3.
Если пути к цели априорно неизвестны, то можно предположить, что вероятности ее достижения по обоим путям равны, т.е. P(1-2)=P(1-3)=1/2


1.3.2 Целесообразность информации


Слайд 60Предположим, что достигнута точка 2, и при этом получена нейтральная информация:

с равным успехом можно двигаться как по пути 2-3, так и по пути 2-4
Тогда I=ld[P(2-3)/P(1-2)]=ld(1/2)-ld(1/2)=0
Предположим, что достигнута точка 2, и при этом получена ложная информация: пять направлений из шести ведут по пути 2-4 и только одно – по пути 2-3.
Тогда I=ld[P(2-3)/P(1-2)]=ld(1/6)-ld(1/2)=-ld 6+ld 2=-1,58
Предположим, что достигнута точка 2, и при этом получена благоприятная информация: два направления из шести ведут по ложному пути 2-4 и четыре направления – по пути 2-3
Тогда I=ld[P(2-3)/P(1-2)]=ld(4/6)-ld(1/2)=ld 4- ld 6 +ld 2=0,42




1.3.2 Целесообразность информации


Обратная связь

Если не удалось найти и скачать презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое ThePresentation.ru?

Это сайт презентаций, докладов, проектов, шаблонов в формате PowerPoint. Мы помогаем школьникам, студентам, учителям, преподавателям хранить и обмениваться учебными материалами с другими пользователями.


Для правообладателей

Яндекс.Метрика