Слайд 1КРИПТОГРАФИЧЕСКАЯ ЗАЩИТА
ИНФОРМАЦИИ
Слайд 2Методы и средства защиты компьютерной информации
Слайд 3Методы и средства защиты информации
Слайд 4К. Шеннон «Теория связи в секретных системах»
Материал, изложенный в данной статье,
первоначально составлял содержание секретного доклада «Математическая теория криптографии», датированного 1 сентября 1945 г., который в настоящее время (1949) рассекречен.
Слайд 5Имеются три общих типа секретных систем:
1) системы маскировки, которые включают
применение таких методов, как невидимые чернила, представление сообщения в форме безобидного текста или маскировки криптограммы, и другие методы, при помощи которых
факт наличия сообщения скрывается от противника;
Слайд 62) тайные системы (например, инвертирование речи),
в которых для раскрытия сообщения
требуется специальное оборудование;
Слайд 73) «собственно» секретные системы,
где смысл сообщения скрывается при помощи шифра,
кода и т. д.,
но само существование сообщения не скрывается и предполагается, что противник обладает любым специальным оборудованием, необходимым для перехвата и записи переданных сигналов.
Слайд 16Мао В. Современная криптография: теория и практика.: Пер. с англ. –М.:"Вильямс",
2005.-768 с.
Слайд 17Дьяконов В.П. Mathematica 5/6/7. Полное руководство.-М.:ДМК Пресс, 2009. -624 с.
Слайд 27Мао В. Современная криптография: теория и практика.: Пер. с англ. –М.:"Вильямс",
2005.-768 с.
Слайд 31Информация –это некоторые сведения, являющиеся объектом хранения, передачи, преобразования.
Слайд 32КЛАССИФИКАЦИЯ ЗАЩИЩАЕМОЙ ИНФОРМАЦИИ И ЕЕ НОСИТЕЛЕЙ
Информацию можно классифицировать по трем основным
признакам:
по принадлежности (праву собственности),
степени секретности,
по содержанию.
Слайд 33Владельцами (собственниками) защищаемой информации могут быть:
Государство и его структуры (органы).
В этом случае к ней относятся сведения, являющиеся государственной, служебной тайной, иные виды защищаемой информации, принадлежащей государству или ведомству.
В их числе могут быть и сведения, являющиеся коммерческой тайной.
Слайд 342. Предприятия, товарищества, акционерные общества
(в том числе и совместные) и
другие —
информация является их собственностью и составляет коммерческую тайну;
Слайд 353. Общественные организации —
как правило, партийная тайна,
не исключена также
государственная и коммерческая тайна;
Слайд 364. Граждане государства:
их права (тайна переписки, телефонных и телеграфных разговоров,
врачебная тайна и др.) гарантируются государством,
личные тайны — их личное дело.
Следует отметить, что государство не несет ответственность за сохранность личных тайн.
Слайд 37Всю информацию по степени секретности можно разделить на пять уровней:
особой важности
(особо важная);
совершенно секретная (строго конфиденциальная);
секретная (конфиденциальная);
для служебного пользования (не для печати, рассылается по списку);
несекретная (открытая).
Чем выше секретность информации определена ее собственником, тем выше уровень ее защиты, тем более дорогостоящей она становится, тем уже круг лиц, знакомящихся с этой информацией.
Слайд 38По содержанию защищаемая информация может быть разделена на:
политическую,
экономическую,
военную,
разведывательную и контрразведывательную,
научно-техническую,
технологическую,
деловую и коммерческую.
Слайд 39Энтропия и неопределенность
Теория информации определяет количество информации в сообщении как минимальное
число битов, необходимое для кодирования всех возможных значений сообщения, если полагать все сообщения равновероятными.
Слайд 40Например, в базе данных для поля дня недели достаточно использовать три
бита информации, поскольку вся информация может быть закодирована 3 битами:
000 = Воскресенье
001 = Понедельник
010 = Вторник
011 = Среда
100 = Четверг
101 = Пятница
110 = Суббота
111 ~ Не используется
Если бы эта информация была представлена соответствующими строками символов ASCII, она заняла бы в памяти больше места, однако не содержала бы больше информации.
Слайд 41Аналогично, поле базы данных «ПОЛ» содержит только 1 бит информации, хотя
эта информация может храниться и как одна из двух 7-байтовых строк ASCII:
«МУЖЧИНА» или «ЖЕНЩИНА».
Слайд 42Формально количество информации в сообщении М измеряется энтропией сообщения, обозначаемой как
Н(М).
В общем случае, энтропия сообщения, измеряемая в битах, равна log2n, где п - число возможных значений.
При этом предполагается равновероятность всех значений.
Слайд 43В реальном тексте появление букв не равновероятно
— одни буквы, как
в русском, так и в английском тексте, встречаются чаще, другие реже.
Частоты, т. е. вероятности появления букв, отражают структуру языка.
Слайд 44.
Пусть имеется сообщение, содержащее N последовательных ячеек, -
текст из N букв.
В каждой из N ячеек может находиться одна из М букв
( в русском языке М = 32
в английском языке M = 26).
В сообщении содержится N 1 букв “а”, N 2 букв “б” и т.д. вплоть до N 32 букв “я”.
Имеем:
Слайд 45Вероятность появления данной буквы находим для достаточно длинного
Слайд 46Общее число различных последовательностей из N букв M-буквенного языка, т. е.
число возможных различных сообщений длиною в N букв, равно:
Слайд 48Количество информации в сообщении
Слайд 49 воспользовавшись формулой Стирлинга (если N и все Ni велики), находим:
Слайд 50или, в расчете на одну букву,
Величина
была названа Шенноном энтропией.
Слайд 51где k — коэффициент, учитывающий выбранное основание логарифма;
pi — вероятность i-го
исхода.
Количественно энтропия подсчитывается по формуле
Слайд 52Преимущественно энтропия измеряется в двоичных единицах (битах), если основанием логарифма выбрано
число 2;
если основание логарифма равно 10, то энтропия измеряется в десятичных логарифмических единицах (дитах);
если основанием выбрано число е, то в натуральных логарифмических единицах (натах).
Благодаря знаку минус, стоящему перед символом суммирования, энтропия всегда положительна, может принимать минимальное и максимальное значения, причем максимальна для ситуации с равновероятными исходами.
Слайд 62Подстановка этих значений в формулу Шеннона дает:
Это число заметно меньше, чем
I0= log232= 5 бит. Количество информации в сообщении, приходящейся на букву, уменьшилось, так как мы уже располагаем предварительной информацией о частотах встречаемости букв.
Слайд 63В языке имеются корреляции — определенные частоты встречаемости уже не отдельных
букв, а их парных, тройных, четверных и т. д. сочетаний.
Языковый текст представляет собой сложную цепь Маркова — вероятность появления данной буквы на данном месте зависит от того, какие буквы ей предшествовали.
Слайд 64Математические модели открытого текста
Один из естественных подходов к моделированию открытых текстов
связан с учетом их частотных характеристик, приближения для которых можно вычислить с нужной точностью, исследуя тексты достаточной длины.
Основанием для такого подхода является устойчивость частот к -грамм или целых словоформ реальных языков человеческого общения (то есть отдельных букв, слогов, слов и некоторых словосочетаний).
Слайд 67Эта модель также называется позначной моделью открытого текста.
В такой модели
открытый текст с1с2...сl имеет вероятность
Слайд 69В такой модели открытый текст с1с2…сl имеет вероятность
Слайд 70Таблица частот биграмм русского языка
Слайд 71Модели открытого текста более высоких приближений учитывают зависимость каждого знака от
большего числа предыдущих знаков.
Чем выше степень приближения, тем более "читаемыми" являются соответствующие модели.
Слайд 72Проводились эксперименты по моделированию открытых текстов с помощью ЭВМ.
(Позначная модель) алисъ
проситете пригнуть стречи разве возникл;
(Второе приближение) н умере данного отствии офици-
ант простояло его то;
3. (Третье приближение) уэт быть как ты хоть а что я
спящихся фигурой куда п;
4. (Четвертое приближение) ество что ты и мы дохнуть
перетусовались ярким сторож;
5. (Пятое приближение) луну него словно него словно из ты
в его не полагаете помощи я д;
6. (Шестое приближение) о разведения которые звенел в
тонкостью огнем только.
Как видим, тексты вполне "читаемы".
Слайд 73Последовательные значения информационной энтропии при учете все более протяженной корреляции для
русского языка таковы:
Для английского языка Шеннон провел более далекие оценки:
Слайд 74Язык характеризуется определенной избыточностью информации, т. е. возможностью прочитать осмысленный текст
и при нехватке букв.
In стремится к некоторому пределу при возрастании протяженности корреляций п.
Истинная избыточность есть:
Слайд 75Для русского языка получаем значения Rn:
и для английского языка :
Для
английского языка избыточность R наверняка превосходит 60%.
Это значит, что для понимания текста можно ограничиться сорока процентами букв — конечно, расположенных не подряд.
Слайд 76Энтропия языка
Для данного языка энтропия языка равна
Слайд 77 Абсолютная энтропия языка
равна максимальному числу битов, которое может быть
передано каждым символом при условии равновероятности всех последовательностей символов.
Если в языке используются L символов, абсолютная энтропия равна:
R = log2 L.
Это максимальная энтропия отдельных символов.
Для английского языка с 26 буквами абсолютная энтропия равна log226, или около 4.7 бит/буква.
Слайд 78Избыточность языка,
обозначаемая D определяется как:
D=R-r
Если принять, что энтропия английского языка
равна 1.3( для 16-буквенных блоков ), его избыточность составит 3.4 бит/буква. Это означает, что в каждой английской букве содержится 3.4 бит избыточной информации.
Слайд 79Энтропия криптосистемы
служит мерой пространства ключей К.
Энтропия криптосистемы равна логарифму числа ключей
по основанию 2:
Слайд 80Стойкость криптосистем
Цель работы криптоаналитика , при расшифровке некоторого набора символов, заключается
в определении ключа К, открытого текста M, либо их обоих.
Однако он может довольствоваться и некоторой вероятностной информацией о M:
является ли этот открытый текст оцифрованным звуком, текстом на каком-либо языке, данными электронных таблиц, либо чем-то еще.
Цель криптоаналитика - изменение вероятностей, связанных с каждым возможным открытым текстом. В конце концов, из груды возможных открытых текстов будет отобран один конкретный (или, по крайней мере, весьма вероятный) текст.
Слайд 81Существуют криптосистемы, обеспечивающие совершенную секретность.
Таковой считается криптосистема, в которой шифртекст
не предоставляет никакой информации об открытом тексте (кроме, возможно, его длины).
Шеннон теоретически доказал, что такое возможно только если число возможных ключей столь же велико, что и число возможных сообщений.
Иными словами, ключ должен быть не короче самого сообщения и не может использоваться повторно.
Слайд 82Расстояние единственности - U,
называемое также точкой единственности, это такой приблизительный
размер шифртекста, для которого сумма реальной информации (энтропия) в соответствующем открытом тексте плюс энтропия ключа шифрования равна числу используемых битов шифртекста
.
Шеннон показал, что шифртексты, которые длиннее расстояния единственности, можно дешифровать только одним осмысленным способом.
Шифртексты, которые заметно короче расстояния единственности, вероятнее всего, можно дешифровать несколькими способами, причем каждый из них может быть
корректен, и таким образом обеспечить защиту сообщения, поставив противника перед выбором правильного открытого текста.
Слайд 83В большинстве симметричных криптосистем расстояние единственности определяется как частное от деления
энтропии криптосистемы на избыточность языка.
Расстояние единственности не позволяет сделать точное предсказание, но дает вероятностный результат. Оно позволяет оценить минимальный объем шифртекста, при лобовом вскрытии которого имеется, вероятно, только один разумный способ дешифрования.
Слайд 84Расстояние единственности служит мерой не объема шифртекста, необходимого для криптоанализа, а
объема шифртекста, необходимого для достижения единственности результата криптоанализа.
Криптосистема может быть неуязвима к вскрытию вычислительными методами, хотя, теоретически, её можно взломать-
- если используется небольшой объем шифртекста.
Расстояние единственности обратно пропорционально избыточности. Если избыточность стремится к нулю, даже заурядный шифр может не поддаться вскрытию с использованием только шифртекста.
Слайд 85Шеннон определил криптосистему с бесконечным расстоянием единственности, как идеально секретную.
Идеально
секретная криптосистема не обязательно совершенна, но совершенная криптосистема обязательно идеальна.
Если криптосистема идеально секретная, то даже после успешного криптоанализа остается некоторая неопределенность в правильности восстановленного открытого текста.