Содержание
- 2. План лекции Задачи Sequence to Sequence Архитектура энкодер-декодер Механизм внимания Tips & Tricks Разбор примера Machine
- 3. RNN Recap
- 4. RNN Recap len(input) != len(output)
- 5. Задачи Sequence to Sequence Распознавание речи (spectrum -> text) Синтез речи (text -> waveform) Рукописный ввод
- 6. Speech recognition
- 7. Speech Synthesis
- 8. Рукописный ввод
- 9. Задача перевода Rosetta Stone ---> Параллельный корпус, найден в 1799 г. Позволил расшифровать египетские иероглифы
- 11. Чатботы
- 12. RNN Sequence-to-sequence model Google, Sutskever et al. 2014 Encoder Decoder https://arxiv.org/pdf/1409.3215.pdf
- 13. RNN Sequence-to-sequence model Cho et al. 2014 Encoder (same) Decoder https://www.aclweb.org/anthology/D14-1179
- 14. RNN Sequence-to-sequence model Улучшения: Deep Encoder Deep Decoder LSTM Layer 1 LSTM Layer 2 LSTM Layer
- 15. RNN Sequence-to-sequence model Улучшения: Bidirectional Encoder Forward LSTM Backward LSTM
- 16. RNN Sequence-to-sequence model Проблемы: Размер стейта фиксирован Изменения из начала последовательности затираются Не все входные токены
- 17. RNN Sequence-to-sequence model Решение: Внимание
- 18. Механизм внимания, мотивация Xu et al. 2015 Show, Attend and Tell: Neural Image Caption Generation with
- 20. Soft vs Hard Attention Hard Выбор одной/n областей Получаем сэмплингом из softmax Не дифференцируем Нужно учить
- 21. Механизм внимания, мотивация В случае машинного перевода
- 22. Механизм внимания, alignment
- 23. Механизм внимания, мотивация https://github.com/google/seq2seq
- 24. Механизм внимания https://arxiv.org/pdf/1409.0473.pdf
- 25. Механизм внимания Bahdanau et al. 2014 https://arxiv.org/pdf/1409.0473.pdf
- 26. Механизм внимания Bahdanau et al. 2014 Карта внимания или alignment слов https://arxiv.org/pdf/1409.0473.pdf
- 27. Механизм внимания Bahdanau et al. 2014 https://arxiv.org/pdf/1409.0473.pdf
- 28. Attention function Dot Product General Additive
- 29. Практические нюансы Wordpiece models and character-based models Pretrained embeddings Multihead Attention Teacher Forcing Beam Search
- 30. Проблемы словаря большой размер эмбеддингов и софтмакс слоя (сотни тысяч) неизвестные слова при инференсе, приходится заменять
- 31. Pretrained embeddings
- 32. Wordpiece models, BPE - byte-pair encoding
- 33. Multihead Attention
- 34. Teacher Forcing Подаем на вход декодера не прошлый выход, а верный символ из таргета
- 35. Beam Search
- 36. Beyond attention Attention позволяет построить текущее состояние с учетом всего прошлого последовательности. Одинаково хорошо учитывает данные
- 37. Transformer Attention is all you need, Vaswani et al. 2017 https://arxiv.org/abs/1706.03762 Self-attention instead of recurrence
- 38. Positional encoding Sinusoidal encoding 2. Learned positional embeddings. Position index -> embedding layer -> vector
- 40. Скачать презентацию





































Лекция 2
Программирование автоматики В терминалах РЗ АПВ, АВР, АЧР
Kibersport_3
TK
Интерфейсы на Java
Основы логики
Язык программирования
Системы счисления. Краткие обозначения. Модифицированные коды. (часть 4)
Презентация на тему Язык программирования C++
Электронный учебник Создание презентаций
Коммутация каналов и пакетов кафедра ЮНЕСКО по НИТ
Каскадные таблицы стилей CSS
Инструктаж по прохождению программы Основы здорового питания на платформе ФБУН Новосибирский НИИ гигиены Роспотребнадзора
Прототипирование. 3D печать
Практическая квалификационная работа Устройство памяти персонального компьютера
Основная (каноническая) задача линейного программирования (ОЗЛП)
Основные понятия ООП
Прогнозы технического директора Google Рэймонда Курцвейла
Информационная безопасность
Программа - Ты предприниматель
Социальные сети
Специфика поиска и обработки информации в спортивной журналистике
Залогинивание
Самостоятельная работа: построить электронную таблицу, точечную диаграмму
Кодирование информации. Язык и алфавит
Статистика по каталогу СТЕ портала поставщиков
Различные системы счисления
Разработка приложения StarPlatinum: Алгоритмизация