Содержание
- 2. Линейная регрессия Дано: K N-мерных самплов {xi} для каждого известно значение функции {fi} Найти: вектор a,
- 3. Регуляризация Когда данных мало простое решение не работает Нужна какая-то дополнительная информация, например, мы можем сказать,
- 4. L1 регуляризация Итеративный алгоритм L1 регуляризации У нас есть текущий “остаток” ri, который в начале равен
- 5. Нелинейные модели Если бы у нас были пропорциональные релевантности независимые факторы, нам бы хватило линейной регрессии
- 6. Decision Tree
- 7. Boosting Построение strong learner как комбинации “weak learners” Связь с L1 регуляризацией weak learner = единственный
- 8. Bagging На каждой итерации будем брать не все самплы, а их случайное подмножество Магическим образом более
- 9. Limit on decision tree leafs Дисперсия ошибки значения в листе пропорциональна 1/N, где N – количество
- 10. TreeNet TreeNet товарища Friedman-a это Boosted Decision Tree с Bagging и ограничением на минимальное количество самплов
- 11. MatrixNet http://seodemotivators.ru/
- 12. MatrixNet MatrixNet отличается в 3-х моментах Использование Oblivious Trees Регуляризация значений в листах вместо ограничения на
- 13. Oblivious Trees
- 14. Регуляризация в листьях Вместо ограничения на количество самплов в листьях будем “регуляризовать” значение в листе Например,
- 15. Другие целевые функции А что, если вместо квадратичной ошибки мы хотим оптимизировать что-нибудь другое? Например, для
- 16. Gradient boosting На каждом шаге boosting-a вместо невязки ri мы аппроксимируем производную целевой функции в текущей
- 17. Ranking А что же делать, если мы хотим научиться ранжировать? Целевая функция для ranking (NDCG/pFound/whatever) задана
- 18. Luce-Plackett model Luce-Plackett model позволяет нам назначить вероятности всем перестановкам, если у нас есть веса документов
- 19. Expected pFound Для каждой перестановки мы можем посчитать ее pFound(perm). Также мы знаем вероятность этой перестановки
- 21. Скачать презентацию