Слайд 1Информатика
Преподаватель:
Бычков Игорь Николаевич
Электронная почта: 29203617@s.mfua.ru
Мобильный Тел.: 8-903-184-93-72
Слайд 2Литература
Основная:
Под ред. Байкова А.Ю. Информатика в МФЮА. Базовый курс., МФЮА, М:
- 2006г. – 148 с.
Под ред. Байкова А.Ю. ПРАКТИКУМ ПО ИНФОРМАТИКЕ, МФЮА, М: - 2006г. – 106 с.
Алексеев А. П. Информатика 2015. Учебное пособие. Обзоры по программным продуктам и аппаратным средствам. Толкование терминов. Методы сжатия информации. Помехоустойчивое кодирование. Защита информации. М.: Из-во Солон-пресс, 2015. – 400 с. - ISBN 978-5-91359-158-6
Информатика: экспресс-подготовка к Интернет-тестированию: учеб. Пособие/ В.М. Титов, О.Н. Рубальская, О.В. Маленкова и др.; под ред. О.Н. Рубальской – М.: Финансы и статистика; ИНФРА-М, 2010. – 240 с
Коноплева И.А., Денисов А.В., Хохлова О.А.: Информационные технологии. Учебное пособие. М.: Изд-во Проспект, 2015. – 328 с. ISBN: 978-5-392-01410-1
Слайд 3Метелица Н.Т. Основы информатики [Электронный ресурс]: учебное пособие/ Метелица Н.Т., Орлова
Е.В.— Электрон. текстовые данные.— Краснодар: Южный институт менеджмента, 2012.— 113 c.— Режим доступа: http://www.iprbookshop.ru/9751.— ЭБС «IPRbooks», по паролю
Исакова А.И. Информационные технологии [Электронный ресурс]: учебное пособие/ Исакова А.И., Исаков М.Н.— Электрон. текстовые данные.— Томск: Томский государственный университет систем управления и радиоэлектроники, Эль Контент, 2012.— 174 c.— Режим доступа: http://www.iprbookshop.ru/13938.— ЭБС «IPRbooks», по паролю
Слайд 4Дополнительная:
Алексеев А.П.: Сборник лабораторных работ по дисциплине "Информатика". Часть 1. М.:
Издательство: Солон-пресс, 2016. – 262 с. - ISBN: 978-5-91359-193-7
Каймин В. А. Информатика: учебник / Каймин В. А;. - М.: Изд-во Москва: Проспект, 2011. - 270, [2] с.: ил. - ISBN 978-5-392-02121-5
Капралов Е., Кошкарев А., Тикунов В., Лурье И., Семин В., Серапинас Б., Сидоренко В. , Симонов А. Геоинформатика. В 2 книгах. — Москва: Academia, 2010. — ISBN 978-5-7695-6820-6, ISBN 978-5-7695-6821-3
Кудинов Ю. И. Основы современной информатики: учебное пособие для вузов / Кудинов Ю. И., Пащенко Ф. Ф.; . - Санкт-Петербург [и др.]: Лань, 2009. - 255 с.: ил. - ISBN 978-5-8114-0918-1 Гриф: УМО
Слайд 5Перечень ресурсов информационно-телекоммуникационной сети «Интернет», необходимых для освоения дисциплины:
Виды операционных систем
[электронный ресурс]. – Режим доступа: http://nashol.com/201011076179/vidi-operacionnih-sistem.html
Информатика: аппаратные средства персонального компьютера. Электронная библиотека читать онлайн произведения [электронный ресурс]. – Режим доступа: http://fb2gratis.com/read/30826/18
Компьютерные сети [электронный ресурс]. – Режим доступа: http://www.lanberry.ru/lan/kompjyuternie_seti
Слайд 6Основные понятия вычислительной техники. Студопедия. [электронный ресурс]. – Режим доступа: http://studopedia.su/10_90436_osnovnie-ponyatiya-vichislitelnoy-tehniki.html
Основы
информатики: Учебник для вузов [электронный ресурс]. – Режим доступа: http://wm-help.net/lib/b/book/120467185/
Программные и аппаратные средства информатики Викиверситет [электронный ресурс]. – Режим доступа: https://ru.wikiversity.org/wiki/
Структурная организация и аппаратные средства персонального компьютера nnre.ru библиотека [электронный ресурс]. – Режим доступа: http://www.nnre.ru/kompyutery_i_internet/informatika_apparatnye_sredstva_personalnogo_kompyutera/p6.php
Слайд 7Информатика и информация.
Системы счисления, меры количества и объёма информации, кодирование
Слайд 8Обобщённая формулировка
Информатика
Информатика – это научно-техническая и практическая человеческая деятельность, связанная с
процессами накопления, обработки и передачи информации с помощью компьютерной вычислительной техники и телекоммуникационной связи.
Информатика
Слайд 9Информатика как
Фундаментальная наука;
Теоретическую наука;
Прикладная, как отрасль народного хозяйства.
Слайд 10Определение информатики
как науки.
Информатика изучает структуру и общие свойства всех видов
информации и форм представления, процессы и методы её сбора, хранения, поиска, переработки, преобразования, использования, распространения и защиты в различных сферах научной, производственной, гуманитарной и общечеловеческой деятельности при помощи автоматизированных средств приема, обработки, передачи и уничтожения.
Слайд 11Фундаментальная информатика
Занимается разработкой методологии получения обобщённых знаний о любых закономерностях информационных
систем и содержит следующие направления:
Теория информации;
Информационное моделирование;
Методы измерения информации;
Алгебра логики;
Теория алгоритмов и структуры данных;
Теория баз данных;
Искусственный интеллект и интеллектуальные системы;
Теория автоматов и др.
Слайд 12Теоретическая информатика
Дискретная математика;
Системный анализ;
Вычислительная математика.
Слайд 13Прикладная информатика
Основные направления прикладной информатики:
Вычислительные и информационные технологии;
Техническое и программное
обеспечение;
Поиск и восстановление информации;
Робототехника;
Компьютерная графика и визуализация;
Взаимодействие человека и компьютера и др.
Слайд 14Информатика как отрасль народного Хозяйства
Это непосредственное промышленное производство всех комплектующих вычислительной
техники и средств защиты, а также интеллектуальная деятельность по созданию программных продуктов.
Слайд 15Термин «информатика»
Об информатике как науке заговорили в 40-х годах прошлого века,
а отдельной наукой она стала в 70-ых годах.
Термин «информатика» как комбинация слов «информатизация» и «автоматика» закрепился, благодаря французским ученым, которые в те годы были активистами в развитии информационных технологий и техники.
Слайд 16В США эту науку называют computer Science, в Великобритании – Computing
Science, акцентируя на научно-технической сущности этой науки.
В СССР новая наука под термином информатика была официально утверждена и зарегистрирована в 1983 году Академии Наук СССР с трактовкой как «комплексная научная и инженерная дисциплина, изучающая все аспекты разработки, проектирования, создания, оценки, функционирования основанных на ЭВМ систем переработки информации, их применения и воздействия на различные области социальной практики».
Слайд 17Термин информация
Термин информация возник от латинского information – разъяснение, изложение.
ГОСТ
Р 50922-2006 «Защита информации. Основные термины и определения» определяет следующее толкование: информация – Сведения (сообщения, данные) независимо от формы их представления.
Информация
Слайд 18Система передачи информации
В информатике среда естественная или искусственная, содержащая информацию, называется
информационной средой. Объект среды (клетка, человек, механизм и т.д.), хранящий или передающий информацию называется в общем случае источником, генератором или передатчиком.
Объект, принимающий информацию (клетка, человек, автомат и т.д.) в общем случае называется получателем информации, потребителем или адресатом.
Если для принятия информации, например, звуковой, требуется техническое средство, например, слуховой аппарат, такое устройство называется приёмником.
Информация идет по определенным, соответствующим, каналам связи, сам процесс между источником (передатчиком) и приёмником (получателем) называется информационным взаимодействием, а всё это в совокупности называется системой передачи информации.
Слайд 20Классификация информации
(по видам)
Слайд 21Система счисления
Это - определенный метод и способ записи чисел с помощью
набора цифр или символов, обозначающих количественное значение.
Системы счисления бывают позиционные и непозиционные.
Слайд 22Позиционная система счисления
В такой системе одна и та же цифра может
иметь различные значения в зависимости от места расположения.
Позиционная система основывается на том, что некоторое число q единиц первого разряда объединяется в одну единицу второго разряда, q единиц второго разряда в одну единицу третьего разряда и т.д.
Число q называется основанием системы.
Слайд 23Представление чисел в позиционной системе
Любое число в позиционной системе может быть
представлено следующим образом:
an*pn+an-1*pn-1+…+a1*p1+a0*p0
Например, в десятичной системе (т.е. основание 10) запись числа 13 будет вычисляться так:
1*101+3*100=1310
Слайд 24К позиционным системам относятся:
Двоичная;
Восьмеричная;
Десятеричная;
Шестнадцатеричная.
Слайд 25Современные арабские цифры
Используются в позиционных системах.
Современные арабские цифры пришли в Европу
в 13 веке из Индии и получили широкое распространение во всём мире со второй половины 15 века.
Слайд 26Непозиционные системы счисления
В непозиционной системе количественное значение символа определяется только его
изображением и не зависит от его позиции в числе.
Слайд 27Пример – Римские цифры
Европа перешла на них с 4-го века.
Главные часы
России, кремлёвские куранты, оснащены именно римскими цифрами.
Семь чисел обозначаются буквами:
1 – I, 5 – V, 10 – X, 50 – L, 100 – C, 500 – D и 1000 – M
Например, 2016 год римскими цифрами будет выражен так: MMXVI год.
Слайд 28Представление чисел в позиционной системе
Суть преобразования цифр в число в любой
позиционной системе счисления заключается в соглашении о разрядах. Разряды нумеруются справа на лево, начиная с 0. Цифра, стоящая в k-ом разряде, означает количество единиц этого разряда.
Например, в десятичной позиционной системе счисления из 3-х целых натуральных цифр 1, 2, 3 можно получить несколько числе – 123, 132, 213, 231, 312 и 321, поменяв позицию каждой цифры.
В согласии с разрядом каждая цифра в этих числах может выражать единицы, десятки и сотни.
Слайд 29В вычислительной технике, для физического представления чисел, подлежащих обработке, необходимы элементы,
способные находится в одном из нескольких устойчивых состояний.
Простота технической реализации двухпозиционных элементов обеспечила наибольшее распространение ЭВМ двоичной системы счисления, основание которой S=2. В ней используются лишь две цифры 0 и 1.
Любое действительное число в двоичной системе представляется в виде суммы целых степеней основания S=2, умноженных на соответствующие коэффициенты – 0 или 1. Числа в двоичной системе выглядят громоздко и однообразно.
Например, 625,12510=1001110001,001.
Слайд 30Восьмеричная и шестнадцатеричная
Восьмеричную систему счисления можно представить, как 8=23, шестнадцатеричную систему,
как 16=24.
Запись чисел короче, чем в двоичной системе. Вот как выглядит одно и то же число в разных системах:
625,12510=1001110001,0012=1161,18=271,216
Слайд 31Восьмеричная и шестнадцатеричная системы счисления применяются в процессе программирования для более
компактной записи команд программы.
В восьмеричной системе счисления используется восемь цифр от 0 до 7, а любое число представляется суммой целых степеней основания s=8, умноженных на соответствующие коэффициенты a1=0,1,…7.
В шестнадцатеричной системе счисления используются цифры от 0 до 9 и дополнительно к ним применяются буквенные символы латинского алфавита 10-A, 11-B, 12-C, 13-D, 14-E, 15-F.
Слайд 32Перевод в системах счисления. Общее правило.
Начнём рассматривать 10-ю систему счисления. Любое
число можно разложить по разрядам. Например, 213 мы воспринимаем как 2 сотни, один десяток и три единицы.
Правило, по которому образуются разряды таково: необходимо взять основу системы счисления (в нашем случае 10) и возвести её в разные степени, начиная с 0 (любое число в степени 0 равно 1). Выходит следующее:
100=1
101=10
102=100
103=1 000
104= 10 000
После чего сначала узнаём сколько целых сотен содержится в числе 213, 213 : 100=2. Затем сколько десятков (213-200=13, 13/10=1) и сколько единиц – 3 единицы.
Вот что получается:
213=2*102+1*101+3*100=200+10+3
Слайд 33Меры и единицы количества и объёма информации
Слайд 34В информатике и вычислительной технике ячейка памяти, которая может хранить одну
двоичную цифру (0 или 1) называется битом и является наименьшей единицей измерения количества и объёма информации.
Если в ячейке памяти есть заряд, то она содержит 1, а если нет – 0. Для практических целей этого недостаточно и биты группируют вместе, чтобы они могли хранить больше цифр, а это значит – больше информации.
Бит
Слайд 35Существует следующее правило: группа N битов может принимать 2n значений.
Например:
Если один
бит хранит однозначное двоичное число, то 2 бита могут содержать двузначное число и таких чисел будет уже 4;
3 бита будут хранить уже 8 значений и выражать трехзначное двоичное число 000, 001, 011, 100, 101, 110, 111;
Если использовать группу из 4-х бит, то она примет 16 значений четырёхзначных двоичных чисел.
Слайд 36Байт
Наименьшая группа битов, использующаяся на практике, состоит из 8 бит и
называется байтом, т.е. байт может принимать 28=256 значений, которые соответствуют двоичным числам от 00000000 до 11111111 или, если перевести их в десятичную систему, от 0 до 255.
Если объединить 2 байта, а это 16 бит, следовательно, они могут хранить одно из 216=65 536 чисел.
Наряду с байтами используются образованные от него единицы:
1 Килобайт – 1024 байта
1 Мегабайт – 1024 Килобайта
1 Гигабайт – 1024 Мегабайта
1 Терабайт – 1024 Гигабайта
1 Петабайт – 1024 Терабайта
1 Эксабайт – 1024 Петабайта
1 Зеттабайт – 1024 Эксабайта
1 Иоттабайт – 1024 Заттабайта
Слайд 37Количество информации
Количество информации J обычно связывают с получением оценки пока неопределённых,
но может быть вероятных свойств, процессов системы (а) или правильных решений любых хозяйственных, управленческих или бытовых вопросов.
Американский инженер Ральф Хартли в 1928г. предложил рассматривать процесс определения количества информации как выбор вероятностного сообщения из конечно заданного множества N равноконечного сообщений, используя формулу:
J=log2N
Например: Допустим, нужно угадать одно число из 100. Можно вычислить сколько информации для этого потребуется J=log2100=6,644 бит, т.е. сообщение о верно угаданном числе будет содержать около 7 бит.
Слайд 38Энтропия – количество информации
по Шеннону
Клод Шеннон в 1948г. ввел понятие
неопределенности – энтропия H(α). Мерой количества информации Шеннон предложил считать функцию, названную им энтропией.
Полученное сообщение β об объекте, проблеме, выборе или какой-то системе (α) может изменить энтропию, т.е. энтропия может стать Hβ(α)H(α), или H β(α)=H(α).
Разность между первоначальной энтропией и энтропией с β сообщением и есть, по мнению Шеннона, информация.
Jβ(α)=H(α)-Hβ(α)
Слайд 39Величина Jβ(α) может быть положительной, если сообщение достоверное и своевременное, может
быть отрицательной, если не изменило, а увеличило нашу неопределённость и может быть нулевой.
Нулевой результат Jβ(α)=0 может быть в двух случаях:
Сообщение β не понятное, не своевременное и не принесло никакой информации, т.е. Hβ(α)=H(α);
Сообщение B на столько ценное, что полностью сняло неопределенность и можно принять решение, т.е. Jβ(α)=H(α).
Слайд 40В общем случае энтропия, изменяясь до K-го состояний, равна
H (α)=
, где
P1 – вероятность того, что система находится в i-ом состоянии.
Если K=1, тогда никакой неопределенности нет.
При росте числа K возможных вариантов мера степени неопределенности является функцией K-f(K) монотонно растёт с увеличением K.
При определении конкретной оценки неопределенности обычно используют логарифм по основанию 2, т.е. f(K)=log2K
Это значит, что за единицу неопределенности берутся два равновероятных случая (как при подбрасывании монеты или как в ячейке двоичной памяти), т.е. P1=1/K, согласно формуле Шеннона
H(α)=log2K.
Слайд 41Например, энтропия нашего алфавита из 32 букв (е и ё не
будем различать):
H=Log232=5 бит
Энтропия десятичного набора цифр: H=log210= 3.32 бита.
Энтропия, содержащая 32 буквы и 10 цифр:
H=log2(32+10)= 5 + 3,32 = 8,32 бита
Слайд 42Объём информации
Это некоторый текст, содержащий различные символы (буквы, цифры, знаки –
препинания, математические, музыкальные и т.д.).
Для одного и того же смыслового содержания объем информации в зависимости от краткости или расширенного изложения или от языка той или иной национальности может быть различным, поэтому некоторые авторы вместо объема используют синоним – длина информации.
Слайд 43Тезаурус
Для измерения смыслового содержания информации получила распространение, т.н. тезаурусная мера, которая
связана со способностью пользователя принимать информацию.
Тезаурус – это совокупность сведений и связей между ними, которыми располагает пользователь, т.е. – это кругозор, интеллект, накопленные знания пользователя.
Слайд 44Если информацию получает персональный компьютер, его тезаурус определяется заложенными в него
программами и устройствами, позволяющими принимать, обрабатывать и представлять текстовые сообщения на разных языках, разными шрифтами, с помощью аудио- и видеоинформации из локальной, корпоративной или всемирной сети.
Если получателем является человек, его тезаурус может быть очень богат, глубок и многообразен, что позволяет извлекать информацию из любого сообщения.
Слайд 45Зависимость количества смысловой (семантической) информации от тезауруса получателя
При S=0 получатель не
воспринимает информацию.
При S>0 получатель воспринимает малое количество информации.
При S -> ∞ Получатель всё знает и поступающая информация ему не нужна.
Слайд 46Коэффициент содержательности
Относительной мерой количества семантической информации служит коэффициент содержательности С, определяемый
отношением информации достаточной для понимания смысла к объёму информации, который получил пользователь:
C=J/V – коэффициент содержательности.
Эта мера чисто индивидуальная и зависит от технических возможностей компьютера или состояния интеллекта пользователя.
Прагматическая мера информации определяет полезность (ценность) информации и называется релевантностью информации.
Слайд 47Кодирование информации
Кодирование информации — процесс преобразования сигнала из формы, удобной для непосредственного
использования информации, в форму, удобную для передачи, хранения или автоматической переработки.
Слайд 48Кодирование числовой информации
Для кодирования чисел используются 1, 2, 4, 8, 16
байт. Один бит (крайний слева) отводится под знак числа.
В вычислительной технике применяются специальные коды:
Прямой код представляет двоичные числа, где отрицательные значения кодируются единицей, а положительные - нулем. При этом старший разряд называется знаковым. Например, числа +510 и -510 выглядят, как +510=0,1012 и -52=1,1012
Обратный код для отрицательных чисел получается путём инверсии (единицы знаковых разрядов заменяются нулями, а нули заменяются единицами) из прямого кода. Например, число -510 в обратном коде выглядит, как 1,0102
Дополнительный код для отрицательных чисел получается из обратного кода добавлением единицы к младшему разряду кода.
Слайд 49Формы предоставления чисел
В ЭВМ применяют две формы представления двоичных чисел:
Естественная форма
с фиксированной запятой (точкой);
Нормальная форма с плавающей запятой (точкой).
Слайд 50Естественная форма
Числа представляются последовательностью двоичных чисел, представляющих целые числа.
Точка или
запятая формально отделяет знаковые разряды.
С целыми числами вычисления проводят точно, т.е. результат (при делении) с остатком округляют до целого числа.
Недостатком этой формы является ограничительный диапазон чисел.
Слайд 51Нормальная форма с плавающей точкой (запятой)
Представляет число в следующем виде: x=m*qn
,
где m – мантисса в виде набора цифр
(10 > мантисса >1);
q – основание системы счисления;
n – порядок числа.
Множитель qn называется характеристикой мантиссы.
Слайд 52Нормальная форма используется для представления дробных чисел, для чего их преобразуют
по указанной формуле.
Например, пусть дано число 12,37510, в нормальной форме оно будет выглядеть как
12,37510 = 0,12375*102
1100,0112=0,1100011*2100
При хранении дробных чисел часть бит отводится для мантиссы, часть для порядка числа, а в крайнем левом бите хранится знак.
Мантисса выражается в прямом коде, как для положительных, так и для отрицательных чисел. Различие в знаке отражается только на значении разряда.
Слайд 53Кодирование текстовой информации
При обработке текстовой информации каждому символу соответствует определенное число.
Соответствие между набором символов и чисел называется кодировкой символов.
Существует много различных кодировок. В большинстве из них символы кодируются однобайтовыми комбинациями. Одним байтом можно закодировать 256 целых чисел. Этого достаточно для кодирования всех букв латинского и русского алфавита, арабских цифр, знаков препинания и некоторых других необходимых знаков.
Для наглядности, существуют таблицы кодирования, где каждому символу присваивается свой номер.
Слайд 54Таблицы кодировок текста
ASCII – американский стандартный код обмена информацией – 1
байт (256 символов).
Windows-1251 - была разработана под кириллицу компанией Microsoft – 1 байт (256 символов).
КОИ-8 - код обмена информацией, восьмизначный, разработан в 60-х годах в СССР – 1 байт (256 символов).
Unicode - разработали компании Microsoft, Borland и Adobe, в кодировке каждому символу отводилось не 1, а 2 байта (65536 символов).
Слайд 55Кодирование графической информации
Кодирование такой информации заключается в кодировке цвета. Изображение так
же, как и символы, можно закодировать, оцифровав цвета.
Графическую информацию можно представить в виде таблицы, состоящей из квадратиков, т.е. реальное изображение покрывается ячеистой сеткой, где каждой ячейке соответствует свой цвет.
Минимальный размер ячейки приводит к максимальному качественному представлению изображения, т.е. увеличению частоты дискретизации приводит к чёткости, яркости, и большой цветовой гамме.
Сканер превращает аналоговое изображение в цифровое, а видеосистема, напротив, из цифровой последовательности создаёт для человеческого глаза аналоговое изображение.
Слайд 56Режимы кодировки цветов
Режим Bitmap. Используется 1 бит, поэтому можно закодировать только
два варианта цвета, например, чёрный и белый, красный и зелёный;
Режим Grayscale. Используется 1 байт, дающий каждой ячейки (точке) 256 градаций серого цвета;
Режим индекса. Использует 1 байт. Каждый из 256 градаций соответствует свой цвет с определенным названием;
Режим True Color. Используется 3 байта, которые содержат 16 777 216 цветов и оттенков на основе 3-х базовых цветов – красного (Red), зелёного (Green) и синего (Blue). Такой режим также называется по первым буквам базовых цветов RGB- моделью.
Слайд 57CMYK
Для печатных изображений применяется другая цветовая модель на базе голубого (Cyan),
пурпурного (Magenta), желтого (Yellow) и чёрного (Black) – CMYK-модель. (буква K от окончания Black).
При печати увеличение количества краски не приводит к увеличению яркости, а к её уменьшению. Поэтому метод печати с помощью CMYK-модели является не аддитивным, а субтрактивным (вычитающим).
Цветовыми компонентами этой модели являются не основные цвета, а те которые получаются в результате вычитания основных цветов из белого.
Слайд 58Типы графических изображений
Векторные изображения, состоят из схематических контуров и заливок, всегда
условно передают смысловую реальность. Основным элементом отображения является сегмент – отрезок линии или контур – несколько таких отрезков;
Растровые изображения качественно отображают исходную графику. Главным элементом кодирования является пиксель – квадратная ячейка или точка, внутри которой все свойства изображения остаются неизменными. Термин пиксель образовался от английского picture – картина, изображение и element – элемент, элемент изображения.
Слайд 59Кодирование звуковой информации
Звук представляет собой типичный аналоговый сигнал, в котором по
оси t откладывается время, а оси A(t) колебание воздуха.
Слайд 60Оцифровка звукового сигнала происходит в три этапа:
Дискретизация - заключается в определении
временных промежутков для снятия показаний, т.е. определяем частоту измерений амплитуды сигнала в секунду.
Квантование – заключаются в разбитии сигнала на отдельные дискретные участки, в результате чего получается ступенчатая кривая.
Кодирование – заключаются в непосредственном процессе оцифровки в соответствии с принятыми правилами дискретизации и квантования.