Обучение без учителя

Содержание

Слайд 2

Пример
После проведения социологического исследования, как выявить группы людей сходных мнений?
Есть большая база

Пример После проведения социологического исследования, как выявить группы людей сходных мнений? Есть
данных изображений, требуется разделить их на группы
Сегментация

Слайд 3

Обучение без учителя
Пусть, имеется набор наблюдений:
Требуется некоторым образом сделать суждения о наблюдаемых

Обучение без учителя Пусть, имеется набор наблюдений: Требуется некоторым образом сделать суждения
данных

Трудно придумать более общую постановку, неправда ли?

Слайд 4

Обучение без учителя

Кластеризация
Разбиение наблюдений на некоторые группы, с максимально близкими наблюдениями внутри

Обучение без учителя Кластеризация Разбиение наблюдений на некоторые группы, с максимально близкими
групп и максимально далекими между
Понижение размерности
Понижение размерности наблюдений с сохранением описательной силы
Анализ плотности распределения
Получить аппроксимацию плотности распределения вероятности наблюдений или поиск их особых точек

Слайд 5

Обучение без учителя

Кластеризация
К-средних
Смесь нормальных распределений

Понижение размерности
Метод главных компонент
SOM

Анализ плотности распределения
Аппроксимация плотности распределения

Обучение без учителя Кластеризация К-средних Смесь нормальных распределений … Понижение размерности Метод
через обучение с учителем
Сдвиг среднего для поиска экстремумов плотности распределения

Слайд 6

Отличие от классификации
Множество ответов неизвестно
Нет четкой меры качества решений
Задачи поставлены крайне нечетко

Отличие от классификации Множество ответов неизвестно Нет четкой меры качества решений Задачи поставлены крайне нечетко

Слайд 7

Кластеризация Постановка задачи (1)

Пусть, имеется набор наблюдений:
Требуется разбить на некоторые непересекающиеся подмножества (группы,

Кластеризация Постановка задачи (1) Пусть, имеется набор наблюдений: Требуется разбить на некоторые
кластеры), таким образом, что объекты внутри одной группы соотносились сильнее чем объекты из разных групп

Слайд 8

Кластеризация Постановка задачи (2)

Пусть, так же, имеется некоторая мера , характеризующая «схожесть» между

Кластеризация Постановка задачи (2) Пусть, так же, имеется некоторая мера , характеризующая
объектами
Тогда, требуется найти некоторое разбиение:
Такое, что минимизируется
И максимизируется

Слайд 9

Кластеризация Модель кластеров

Под моделью кластеров будем понимать некоторое параметрическое семейство отображений из исходного

Кластеризация Модель кластеров Под моделью кластеров будем понимать некоторое параметрическое семейство отображений
пространства в множество индексов кластеров
Множество параметров, пространством поиска
Нахождения параметров - кластеризацией

Слайд 10

Алгоритм К-средних

Кто хочет рассказать как он работает?

Случайным образом выбрать k средних mj

Алгоритм К-средних Кто хочет рассказать как он работает? Случайным образом выбрать k
j=1,…,k;
Для каждого xi i=1,…,p подсчитать расстояние до каждого из mj j=1,…,k,
Отнести (приписать) xi к кластеру j’, расстояние до mj’ минимально;
Пересчитать средние mj j=1,…,k по всем кластерам;
Повторять шаги 2, 3 пока кластеры не перестанут изменяться;

Слайд 11

Иллюстрация

Иллюстрация

Слайд 12

Алгоритм К-средних

Мера схожести
Евклидово расстояние в пространстве Х
Модель кластеров
Пространство поиска - центры

Алгоритм К-средних Мера схожести Евклидово расстояние в пространстве Х Модель кластеров Пространство поиска - центры масс
масс

Слайд 13

Алгоритм К-средних

Однопараметрический
Требует знания только о количестве кластеров
Рандомизирован
Зависит от начального приближения
Не учитывает строения

Алгоритм К-средних Однопараметрический Требует знания только о количестве кластеров Рандомизирован Зависит от
самих кластеров

Слайд 14

EM алгоритм Общая идеология

Пусть есть вектор неизвестных величин
и параметрическая модель с так же

EM алгоритм Общая идеология Пусть есть вектор неизвестных величин и параметрическая модель
неизвестным параметром(ами)
Пусть возможно рассчитать правдоподобие
Наша задача подобрать такие и , чтобы правдоподобие было максимальным

Слайд 15

EM алгоритм Общая идеология

Возьмем некоторые начальные приближения
Итеративно t =1… делаем два шага:
Expect:

EM алгоритм Общая идеология Возьмем некоторые начальные приближения Итеративно t =1… делаем
согласно текущему значению высчитываем наиболее вероятные значения
Maximize: согласно текущем значениям высчитываем новое значение максимизирующее функцию правдоподобия
Остановимся когда правдоподобие стабилизируется

Слайд 16

Кластеризация смесью нормальных распределений

Будем считать, что наблюдения сгенерированы смесью нормальных распределений, то

Кластеризация смесью нормальных распределений Будем считать, что наблюдения сгенерированы смесью нормальных распределений,
есть:
Пусть k известно заранее, будем осуществлять кластеризацию ЕМ алгоритмом

- Индексы кластеров наблюдений

Слайд 17

Кластеризация смесью нормальных распределений

Возьмем некоторые (случайные) начальные приближения
Итеративно для t =1… :
E:

Кластеризация смесью нормальных распределений Возьмем некоторые (случайные) начальные приближения Итеративно для t
согласно текущему значению высчитываем наиболее вероятные значения индексов кластеров для наблюдений из
M: согласно текущем значениям индексов пересчитаем параметры распределений (методом максимального правдоподобия)

Слайд 18

Иллюстрация

Иллюстрация

Слайд 19

Кластеризация смесью нормальных распределений

Плюсы
Более полная модель кластеров (больше итоговой информации)
Более качественная аппроксимация
Эффективная

Кластеризация смесью нормальных распределений Плюсы Более полная модель кластеров (больше итоговой информации)
оценка качества кластеризации (правдоподобие)

Минусы
Все равно некоторая ограниченная модель со строгой «геометрией»
Чувствительность к размерности и нормализации данных

Слайд 20

Иллюстрация

Иллюстрация

Слайд 21

Понижение размерности наблюдаемых данных
Зачастую, наблюдаемые данные могут обладать высокой размерностью, но в

Понижение размерности наблюдаемых данных Зачастую, наблюдаемые данные могут обладать высокой размерностью, но
действительности быть функцией всего нескольких скрытых (латентных) переменных
Задачей понижения размерности является некоторое преобразование исходного пространства в пространство более низкой размерности без существенной потери информативности данных

Слайд 22

Метод главных компонент

Пусть имеется набор наблюдений
Будем строить новый базис в пространстве ,

Метод главных компонент Пусть имеется набор наблюдений Будем строить новый базис в
таким образом что:
Центр координат совпадает с мат. ожиданием наблюдений (выборочным средним)
Первый вектор направлен таким образом, что дисперсия вдоль него была максимальной
Каждый последующий вектор ортогонален предыдущим и направлен по направлению максимальной дисперсии

Слайд 23

Метод главных компонент Расчет базиса

Сдвинем все данные таким образом, чтобы их выборочное среднее

Метод главных компонент Расчет базиса Сдвинем все данные таким образом, чтобы их
равнялось нулю
Рассчитаем ковариационную матрицу:

Ковариация двух сл. величин

Выборочное среднее

Слайд 24

Метод главных компонент Расчет базиса
Векторами нового базиса будут являться собственные вектора ковариационной матрицы
Собственные

Метод главных компонент Расчет базиса Векторами нового базиса будут являться собственные вектора
числа – значениями дисперсии наблюдений вдоль них

Слайд 25

Иллюстрация

Убирая базисные вектора с малыми значениями мы можем сократить размерность без существенной

Иллюстрация Убирая базисные вектора с малыми значениями мы можем сократить размерность без
потери информации

*Вопрос: Почему это так?

Слайд 26

Случай нормального распределения

Расстояние от центра распределения в новой системе координат равно:
Так называемое

Случай нормального распределения Расстояние от центра распределения в новой системе координат равно:
расстояние Махалонобиса
Пропорционально правдоподобию наблюдения

Слайд 27

Метод главных компонент Связь с линейной аппроксимацией

Если рассмотреть систему проекций данных на первые

Метод главных компонент Связь с линейной аппроксимацией Если рассмотреть систему проекций данных
главных компонент, то мы получим систему наилучших линейных приближений данных (в смысле среднеквадратичного отклонения)

Слайд 28

Метод главных компонент

Следует применять:
Данные распределены нормально и требуется привести их к более

Метод главных компонент Следует применять: Данные распределены нормально и требуется привести их
удобной форме
Или предполагается, что данные содержатся в линейном многообразии исходного пространства и требуется выделить лишь его и сократить размерность
НЕ следует применять:
Распределение данных произвольно и далеко от нормального
Данные нелинейные

Слайд 29

Самоорганизующиеся карты SOM (Карты Кохенена)
Основная идея
вписать в данные сетку низкой размерности, и анализировать

Самоорганизующиеся карты SOM (Карты Кохенена) Основная идея вписать в данные сетку низкой
ее, вместо самих данных

Слайд 30

SOM (Карты Кохенена) Модель сетки
Матрица узлов
Соседство - 4 или 8 связность
Каждому узлу соответствует

SOM (Карты Кохенена) Модель сетки Матрица узлов Соседство - 4 или 8
точка в исходном пространстве

Слайд 31

SOM (Карты Кохенена) Алгоритм построения

Проинициализируем случайными значениями
Далее, в случайном порядке будем предъявлять

SOM (Карты Кохенена) Алгоритм построения Проинициализируем случайными значениями Далее, в случайном порядке
наблюдения и для каждого:
Вычисляем ближайший узел
Выберем множество соседей узла, такое что расстояние на сетке между ними меньше r
Для некоторого множества соседей узла, включая сам узел, изменяем их положения согласно:
Повторяем процедуру уменьшая r и пока сеть не стабилизируется

Слайд 32

SOM (Карты Кохенена) Иллюстрация: исходные данные

SOM (Карты Кохенена) Иллюстрация: исходные данные

Слайд 33

SOM (Карты Кохенена) Иллюстрация: сетка

SOM (Карты Кохенена) Иллюстрация: сетка

Слайд 34

SOM (Карты Кохенена) Иллюстрация: проекции на матрицу

SOM (Карты Кохенена) Иллюстрация: проекции на матрицу

Слайд 35

SOM (Карты Кохенена) Практическое использование
Данные представляют некоторую поверхность, требуется сократить размерность
Хорошо подходят

SOM (Карты Кохенена) Практическое использование Данные представляют некоторую поверхность, требуется сократить размерность
для последующей кластеризации
Могут работать «online»
В случае слишком сложных данных не информативны

Слайд 36

Задание №2

Каждому будут выданы
Данные (3 набора)
Алгоритмы классификации, реализованные в MatLab
Требуется
Для каждого

Задание №2 Каждому будут выданы Данные (3 набора) Алгоритмы классификации, реализованные в
из наборов натренировать наилучший возможный классификатор (из выданных вам)
Написать отчет (по форме лежащий на сайте) описывающий каким образом вы выбирали классификатор и настроили параметры
Оценка складывается из:
Аккуратности и полноты отчета
Результатов работы Вами присланного классификатора на наших данных (часть выборки мы дали Вам, часть оставили себе)

Слайд 37

Содержание отчета

Применявшиеся методы
Список
Алгоритм, по которому оценивались алгоритмы и выбирались параметры
Результаты в виде
Графиков
Таблиц
Выводы

Содержание отчета Применявшиеся методы Список Алгоритм, по которому оценивались алгоритмы и выбирались
(кратко!)
Какой классификатор был выбран в итоге
Почему именно этот классификатор
Имя файла: Обучение-без-учителя.pptx
Количество просмотров: 132
Количество скачиваний: 0