Машинное обучение: качество

Содержание

Слайд 2

Немного «фраз»

«Гораздо легче что-то измерить, чем понять, что именно вы измеряете.»
— Джон

Немного «фраз» «Гораздо легче что-то измерить, чем понять, что именно вы измеряете.»
Уильям Салливан

«If you can't measure it, you can't improve it»
— Lord Kelvin

Слайд 3

Постановка в случае учителя

Ожидание хотим считать по всей ген. совокупности
Функцию

Постановка в случае учителя Ожидание хотим считать по всей ген. совокупности Функцию
обучаем на X
=> Если бы X была репрезентативной то все проще:

Слайд 4

Какая нужна выборка

Интересно получить выборку, несмещенную (смещенную не более чем …) по

Какая нужна выборка Интересно получить выборку, несмещенную (смещенную не более чем …)
результатам процедуры обучения:
Найти «хороший» способ генерации выборки при условии процедуры подбора
Наложить ограничения на процедуру подбора
Ограничения на решающую функцию
=> Надо научиться мерять смещенность выборки

Иными словами, репрезентативная выборка представляет собой микрокосм, меньшую по размеру, но точную модель генеральной совокупности, которую она должна отражать.
- Дж. Б. Мангейм, Р. К. Рич

Слайд 5

Как это выглядит на практике?

Как это выглядит на практике?

Слайд 6

Как это выглядит на практике?

Как это выглядит на практике?

Слайд 7

Как это выглядит на практике?

Как это выглядит на практике?

Слайд 8

Виды ошибок обучения

Виды ошибок обучения

Слайд 9

Виды ошибок обучения

Переобучение, переподгонка (overtraining, overfitting) — нежелательное явление, возникающее при решении

Виды ошибок обучения Переобучение, переподгонка (overtraining, overfitting) — нежелательное явление, возникающее при
задач обучения по прецедентам, когда вероятность ошибки обученного алгоритма на объектах тестовой выборки оказывается существенно выше, чем средняя ошибка на обучающей выборке.
Недообучение (underfitting)— нежелательное явление, возникающее при решении задач обучения по прецедентам, когда алгоритм обучения не обеспечивает достаточно малой величины средней ошибки на обучающей выборке. Недообучение возникает при использовании недостаточно сложных моделей.
- machinelearning.ru

Слайд 10

Наш первый метод

Наш первый метод

Слайд 11

Пример

По материалам machinelearning.ru

Пример По материалам machinelearning.ru

Слайд 12

Пример

По материалам machinelearning.ru

Пример По материалам machinelearning.ru

Слайд 13

Пример

По материалам machinelearning.ru

Пример По материалам machinelearning.ru

Слайд 14

Задача

Дано:
Найти оптимальные p и a

Задача Дано: Найти оптимальные p и a

Слайд 15

Постановка в случае учителя

Ожидание хотим считать по всей ген. совокупности
Функцию

Постановка в случае учителя Ожидание хотим считать по всей ген. совокупности Функцию
обучаем на X
=> Если бы X была репрезентативной то все проще:

Слайд 16

Схема тестирования

Схема тестирования

Слайд 17

Overfit on validation

Overfit on validation

Слайд 18

Как не оверфитнуться?

White box:
Выбор решающего семейства при фиксированном объеме данных:

Как не оверфитнуться? White box: Выбор решающего семейства при фиксированном объеме данных:
VC оценки
Оценка вероятности переобучения (по Воронцову)
PAC-Bayes bounds
Изменение процедуры подбора:
Игры с шагом
Регуляризация
Black box:
Cross-validation

Слайд 19

Теория Вапника-Червоненкиса

Владимир Наумович Вапник, Алексей Яковлевич Червоненкис
Задача минимизации эмпирического риска
VC-оценка (классификация):

Теория Вапника-Червоненкиса Владимир Наумович Вапник, Алексей Яковлевич Червоненкис Задача минимизации эмпирического риска VC-оценка (классификация):

Слайд 20

Вероятность переобучения

Воронцов Константин Вячеславович (machinelearning.ru, ШАД в Москве)
Вводим слабую вероятностную аксиоматику
Оцениваем

Вероятность переобучения Воронцов Константин Вячеславович (machinelearning.ru, ШАД в Москве) Вводим слабую вероятностную аксиоматику Оцениваем вероятность переобучения:
вероятность переобучения:

Слайд 21

PAC-Bayes bounds

Результат алгоритма – распределение над семейством
Решающая функция –среднее выборки

PAC-Bayes bounds Результат алгоритма – распределение над семейством Решающая функция –среднее выборки этого распределения
этого распределения

Слайд 22

Изменение процедуры подбора

Игры с шагом: а давайте не будем точно решать

Изменение процедуры подбора Игры с шагом: а давайте не будем точно решать
задачку
Поменяем Lossь так, чтобы более «рискованные» решения получали discount.

Слайд 23

Cross-validation

Рандомно поделим множество X на несколько кусочков
Обучимся на одной части

Cross-validation Рандомно поделим множество X на несколько кусочков Обучимся на одной части
Проверим на оставшихся
Повторим до ощущения надежности

Слайд 24

Виды cross-validation

2-fold
k-fold
Random sub-sampling (e.g. bootstrapping)
Leave-one-out (LOOCV)

Виды cross-validation 2-fold k-fold Random sub-sampling (e.g. bootstrapping) Leave-one-out (LOOCV)

Слайд 25

Как принять решение по результатам CFV?

Wilcoxon signed rank test для проверки

Как принять решение по результатам CFV? Wilcoxon signed rank test для проверки
на равенство
Знак по выборочному среднему
Проблемы:
Чем меньше выборка X тем более зависимы результаты
Интересно:
а наблюдаем мы только 1 реализацию.
Слишком оптимистичные решения
Любое практическое исследование должно иметь эти оценки

Слайд 26

На чем тестировать?

Реальные данные
Поиск: РОМИП, TREC, Яндекс.ИМАТ, Yahoo LTRCh
Pascal

На чем тестировать? Реальные данные Поиск: РОМИП, TREC, Яндекс.ИМАТ, Yahoo LTRCh Pascal
Challenge
InnoCentive
Искусственные данные (многомерный XOR)
Задумаем «хитрое» распределение и попробуем его отгадать

Слайд 27

ОТСЕБЯТЕНА

Машинное Обучение: качество

ОТСЕБЯТЕНА Машинное Обучение: качество
Имя файла: Машинное-обучение:-качество.pptx
Количество просмотров: 119
Количество скачиваний: 0