Содержание
- 2. Виды обучения Обучение с учителем (supervised learning) – есть размеченные данные (для каждого примера есть «решение
- 3. Виды обучения Обучение с подкреплением (reinforcement learning) – есть размечаемые данные («ситуация, предполагаемое решение»). Алгоритм обучения
- 4. Выборки
- 5. Признаки Исходные Производные Агрегированные – показатели, определенные по группе (сумма, среднее, минимум, максимум) Индикаторы – наличие
- 6. Извлечение признаков Тексты – это токенизация Изображения – извлечение краев и цветовые пятна Дата и время
- 7. Ошибка обобщения Ошибка обобщения – сумма смещения, дисперсии и величины, называемой неустранимой погрешностью, которая является результатом
- 8. Сложность количество настраиваемых параметров архитектуры модели, другими словами, сложность модели определяет ее информационную емкость. При увеличении
- 9. Недообучение Недообучение (underfitting) – когда модель, построенная с помощью алгоритма, является слишком упрощенной, чтобы представлять базовую
- 10. Переобучение Переобучение (overfitting) – когда модель, построенная с помощью алгоритма, настолько сложна, что модель слишком точно
- 11. Нейросети по характеру связей Прямого распространения Обратного распространения, или рекуррентные Радиально-базисные функции Самоорганизующиеся
- 12. Кросс-валидация (скользящий контроль) Метод отложенных данных (holdout method) – разделение 70-30 или 60-40 или 80-20. Оценка
- 13. Кросс-валидация (скользящий контроль) Контроль по k-блокам (k-fold cross-validation) - данные случайным образом делятся на k непересекающихся
- 14. Оценка классификации
- 15. Оценка классификации
- 16. F-мера
- 17. ROC-кривая Вектора вероятностей классов, порог позволяет разделить классы, кривая строится для разных значений порога. Выбор порога
- 18. ROC-кривая
- 19. AUC
- 20. Оценка регрессии
- 21. Оценка регрессии
- 23. Формальный нейрон
- 24. Формальный нейрон
- 25. Сигмоида
- 26. Многослойный персептрон
- 27. Признаки Локальные признаки (local feature) извлекаются в первом скрытом слое. Глобальные признаки (global feature) извлекаются во
- 28. Распространение сигнала
- 29. Ошибка обучения
- 30. Обратное распространение ошибки
- 31. Скорость обучения
- 32. Влияние скорости на процесс обучения
- 33. Свертка
- 34. Свертка
- 35. Пулинг
- 36. Le-Net 5
- 37. Google Inception V3
- 38. Ядра сверток
- 39. VGG
- 40. Регуляризация
- 41. Штрафы по норме параметров
- 42. Регуляризация Тихонова
- 43. Стохастический градиентный спуск Суть – обновление весов по одному объекту 1 эпоха = 1 итерация На
- 45. Скачать презентацию