Рекуррентные нейронные сети | Глубокое обучение на Python

Краткий обзор архитектуры рекуррентных нейронных сетей. Страница курса – http://www.asozykin.ru/courses/nnpython.

Рекуррентные нейронные сети – это сети, в которых возможны циклы.

Рекуррентные нейронные сети хорошо подходят для задач анализа последовательностей, среди которых:
– Автоматическое распознавание речи
– Автоматический перевод
– Обработка естественных языков

Для обучения рекуррентной нейронной сети используется алгоритм обратного распространения ошибки с разворачиванием во времени. При этом рекуррентная сеть представляется в виде сети с прямым распространением сигнала путем разворачивания во времени.

На практике часто используется специальный тип рекуррентной нейронной сети – сеть долго-краткосрочной памяти (Long short-term memory, LSTM).
Эта архитектура представлена в работе Sepp Hochreiter, Jürgen Schmidhuber. Long short-term memory (1997). Neural Computation.

При реализации проекта используются средства поддержки, выделенные в качестве гранта на основании конкурса, проведенного Общероссийской общественно-государственной просветительской организации «Российское общество «Знание».

Мой канал с краткими и понятными объяснениями сложных тем в ИТ и компьютерных науках:
https://goo.gl/kW93MA

ПРИСОЕДИНЯЙТЕСЬ
Поделиться

Андрей Созыкин

Меня зовут Андрей Созыкин, я работаю в университете, веду курсы по компьютерным наукам. Здесь представлены видеолекции, подготовленные на основе этих курсов. Для видеолекций я отбираю самые важные материалы, необходимые для понимания предмета, и рассказываю их кратко, без лишних деталей, которые затруднят восприятие. Несмотря на краткость, изложение ведется системно; это не набор забавных видео, никак не связанных между собой.