Оверхайп машинного и глубинного обучения презентация

Содержание

ПОЧЕМУ Я Лауреат премии while true года; Темный властелин бинарных мамок; Занесен в книгу рекордов Гиннеса за самые прямые из кривых рук; Знатный пиздабол.

Слайд 1ЛЕКТОРИУМ
ТЕМА. ОВЕРХАЙП МАШИННОГО И ГЛУБИННОГО ОБУЧЕНИЯ (DEEP LEARNING)


Слайд 2ПОЧЕМУ Я
Лауреат премии while true года;
Темный властелин бинарных мамок;
Занесен в книгу

рекордов Гиннеса за самые прямые из кривых рук;
Знатный пиздабол.

Слайд 3НАШ МАЛЕНЬКИЙ ROADMAP
Немного истории;
Основы машинного обучения;
Нейросети;
Deep learning;
Вопросы – ответы.

Присаживайтесь поудобнее на

бутылку и… поехали

Слайд 4ВЕХИ
Машина Паскаля 1642г.
Артур Самуэль, создает первую шашечную программу для IBM

701 1952г.

Deuz Ex машина тамплиеров

Не я, но тоже очень умный мужик




Слайд 5ВЕХИ
1936 AT&T Bell Labs создает синтезатор речи;
1958 Фрэнк Розенблатт (Frank Rosenblatt)

придумал Персептрон — первую искусственную нейронную сеть и создал первый нейрокомпьютер «Марк-1»;
1967 Написан метрический алгоритм классификации (Метод k ближайших соседей). Алгоритм позволил компьютерам использовать простые шаблоны распознавания;
1985 Терри Сейновски (Terry Sejnowski) создает NetTalk искусственную нейронную сеть;
1997 Компьютер Deep Blue обыграл чемпиона мира по шахматам Гарри Каспарова;
2006 Джеффри Хинтон (Geoffrey Hinton), ученый в области искусственных нейросетей, ввел в обиход термин «Глубинное обучение» (Deep learning).

Слайд 6ОСНОВНЫЕ ТЕРМИНЫ
Основные понятия и обозначения:
Данные о задачах обучения по прецедентам;
Модели алгоритмов

и методы обучения;
Обучение и переобучение.
Примеры прикладных задач:
Классификация;
Регрессия;
Ранжирование.

Слайд 7МАШИННОЕ ОБУЧЕНИЕ
Наука о том как проводить функцию через точки.
Линейные;
Нелинейные.

{х} – обучающая


выборка;
{y} – известные
ответы;
a: X →Y – решающая функция

Слайд 8СРАЗУ К ПРИМЕРАМ
Задача: отличить осмысленный текст от белиберды
Текст, который пишут настоящие

люди, выглядит так:
Могу творить, могу и натворить!
У меня два недостатка: плохая память и что-то еще.
Никто не знает столько, сколько не знаю я.

Белиберда выглядит так:
ОРПорыав аоырОрпаыор ОрОРАыдцуцзущгкгеуб ыватьыивдцулвдлоадузцщ
Йцхяь длваополц ыадолцлопиолым бамдлотдламда

Слайд 9РЕШЕНИЕ ЗАДАЧИ
Обучающая выборка
Словарь
Применяем для оценки осмысленности


Слайд 10РЕШЕНИЕ ЗАДАЧИ
 


Слайд 11ОБУЧЕНИЕ И МОДЕЛЬ
Обучающая выборка:
Правильные и неправильные результаты;
Подбор частотность выборки;
Задача обучения сводится

к оптимизации и может быть решена численными методами оптимизации.

Проблема постановки.
Проблема переобучения.

Слайд 12ИТОГО
 
 
Что есть модель:
Модель в нашем примере:


Слайд 13КАК ВСЕ ВЫГЛЯДИТ СВЕРХУ
Мы здесь


Слайд 14МАШИННОЕ ОБУЧЕНИЕ. ВИДЫ РЕГРЕССИИ








Слайд 15КАК РАБОТАЮТ НЕЙРОННЫЕ СЕТИ
Нейронные сети обучаются.
Самые популярные:
Метод обратного распространения (Backpropagation)

Метод

упругого распространения (Resilient propagation или Rprop)

Генетический Алгоритм (Genetic Algorithm)

Слайд 16НЕЙРОННЫЕ СЕТИ
С математической точки зрения, обучение нейронных сетей — это многопараметрическая

задача нелинейной оптимизации.

синапс


Слайд 17КАК РАБОТАЕТ НЕЙРОННАЯ СЕТЬ
Вход
Ф-ция активации
Ошибка — это процентная величина, отражающая расхождение

между ожидаемым и полученным ответами.

Слайд 18ФУНКЦИЯ АКТИВАЦИИ


Слайд 19НЕЙРОНЫ СМЕЩЕНИЯ


Слайд 20ГРАДИЕНТНЫЙ СПУСК
Способ нахождения локального минимума или максимума функции с помощью движения

вдоль градиента.

Градиент — это вектор который определяет крутизну склона и указывает его направление относительно какой либо из точек на поверхности или графике.

Слайд 21ГРАДИЕНТНЫЙ СПУСК


Слайд 22ГРАДИЕНТНЫЙ СПУСК


Слайд 23МЕТОД ОБРАТНОГО РАСПРОСТРАНЕНИЯ ОШИБКИ


Слайд 24ИТОГО
Считаем выход нейронной сети;
Вычисляем ошибку;
Считаем обратный ход – улучшаем результат, минимизируем

ошибку;

Что это дает:
Мы можем использовать нейронные сети там, где заранее не знаем решения;
Обучение позволяет сети самой подстраиваться под изменяющиеся входные данные.

Слайд 25СОБСАНО ЭТО ПРЕЛЮДИЯ
Что мы знаем:
Машинное обучение – наука о том как

проводить функцию через точки;
Нейронные сети – самообучающийся подбор коэффициентов функции.


Слайд 26ГОЛУБИННОЕ ОБУЧЕНИЕ
«В 1997 году Deep Blue обыграл в шахматы Каспарова.
В 2011

Watson обставил чемпионов Jeopardy.
Сможет ли ваш алгоритм в 2017 году отличить Бобика от Пушистика?»

Слайд 27РАСПОЗНОВАНИЕ


Слайд 28КОТИКИ БЫВАЮТ РАЗНЫЕ



Слайд 29КОМПЬЮТЕР ВИДИТ ПО СВОЕМУ


Слайд 30ИЗДЕВАТЕЛЬСТВО НАД КОТИКАМИ
Хьюбел и Визель в своем эксперименте в 1959 году

обнаружили в зрительной коре мозга клетки, реагирующие на определенные символы на экране — и кроме этого обнаружили существование других клеток «уровнем выше», которые, в свою очередь, реагируют на определенные устойчивые сочетания сигналов от клеток первого уровня.

Слайд 31СВЕРТОЧНАЯ НЕЙРОННАЯ СЕТЬ


Слайд 32СВЕРТОЧНАЯ НЕЙРОННАЯ СЕТЬ


Слайд 33СВЕРТОЧНАЯ НЕЙРОННАЯ СЕТЬ


Слайд 34СВЕРТОЧНАЯ НЕЙРОННАЯ СЕТЬ


Слайд 35ВЫДЕЛЕНИЕ ШАБЛОНОВ, ФИЛЬТРОВ


Слайд 36ИГОГО
Машинное обучение – чуть моложе коня Буденного;

Машинное обучение – не применяется

сейчас только твоей мамкой;

Нейронные сети – классная штука, если ты не знаешь как решать задачу;

Глубинное обучение – очень свежий и интуитивный аппарат;

Границ анализа данных нет(почти)!


Слайд 37О ЧЕМ БЫ ЕЩЕ ПОПИЗДЕТЬ?
Internet of Things







Bitcoins, blockchain


Слайд 38СПАСИБО ЗА ВНИМАНИЕ


Обратная связь

Если не удалось найти и скачать презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое ThePresentation.ru?

Это сайт презентаций, докладов, проектов, шаблонов в формате PowerPoint. Мы помогаем школьникам, студентам, учителям, преподавателям хранить и обмениваться учебными материалами с другими пользователями.


Для правообладателей

Яндекс.Метрика