Вводная информация. TensorFlow презентация

ПРИМЕР ПОСТРОЕНИЯ ГРАФА Графы потоков данных описывают матема-тические вычисления из ориентированных узлов & ребер графа. Узлы реализуют математические операции Ребра описывают входные/выходные взаимоотношения между узлами. Ребра

Слайд 1










широкая поддержка Deep Learning.
система легко расширяема и масштабируема
автоматическое вычисление градиентов


вычисления представлены в виде графа

граф строится с помощью Python или C++

TENSORFLOW - БИБЛИОТЕКА МАШИННОГО ОБУЧЕНИЯ ОТ GOOGLE


Слайд 2ПРИМЕР ПОСТРОЕНИЯ ГРАФА
Графы потоков данных описывают матема-тические вычисления из ориентированных узлов

& ребер графа.
Узлы реализуют математические операции
Ребра описывают входные/выходные взаимоотношения между узлами.
Ребра носят данные дин. размера многомерных массивов (эти ребра и называют tensor).
Узлы назначаются и выполняются асинхронно и параллельно, когда все тензоры из вход. ребер становится до-ступными.

Слайд 3placeholder


Слайд 4Представление в матричном виде
получим:
y=softmax(Wx+b)


Слайд 5










постоянно развивается
сторонние библиотеки
с 0.8.0 поддержка sklearn
Scikit-learn+TF = Scikit Flow
Развитие TensorFlow


Слайд 6Пример построения модели





C использованием tensorflow.contrib.learn


Слайд 7Нейронные сети


Слайд 8Реализация DNN
Использование затруднено большой размерностью входного вектора входных значений нейронной

сети, большим количеством нейронов в промежуточных слоях и, как следствие, большими затратами вычислительных ресурсов на обучение и вычисление сети.

Слайд 9Convolution NN


Слайд 10Свёртка


Слайд 11Pooling


Слайд 12ReLU функция


Слайд 13Фрагмент кода для CNN


Слайд 14РЕКУРРЕНТНЫЕ СЕТИ

Ключевой особенностью LSTM-сети является состояние ячейки (cell state).
LSTM-сеть имеет

возможность удалять и добавлять информацию в состояние
ячейки. Этот процесс регулируется специальными структурами.

Слайд 15Реализация RNN


Слайд 16Сравнение скорости работы


Слайд 17TensorBoard


Слайд 18TensorBoard


Слайд 19Пример использования CPU и GPU
def my_model(X, y):

"""

This is DNN with 10, 20, 10 hidden layers, and dropout of 0.5 probability.
"""

with tf.device('/gpu:1'):

layers = learn.ops.dnn(X, [10, 20, 10], dropout=0.5)

with tf.device('/gpu:2'):

return learn.models.logistic_regression(layers, y)


Обратная связь

Если не удалось найти и скачать презентацию, Вы можете заказать его на нашем сайте. Мы постараемся найти нужный Вам материал и отправим по электронной почте. Не стесняйтесь обращаться к нам, если у вас возникли вопросы или пожелания:

Email: Нажмите что бы посмотреть 

Что такое ThePresentation.ru?

Это сайт презентаций, докладов, проектов, шаблонов в формате PowerPoint. Мы помогаем школьникам, студентам, учителям, преподавателям хранить и обмениваться учебными материалами с другими пользователями.


Для правообладателей

Яндекс.Метрика