Методы кластеризации

Содержание

Слайд 2

Задачи интеллектуального анализа данных

Задачи ИАД

Описательные

Ассоциативные правила

Кластеризация

Классификация

Прогнозирование

Предсказательные

Задачи интеллектуального анализа данных Задачи ИАД Описательные Ассоциативные правила Кластеризация Классификация Прогнозирование Предсказательные

Слайд 3

Введение

Задача кластеризации состоит в разделении исследуемого множества объектов на группы «похожих» объектов, называемых

Введение Задача кластеризации состоит в разделении исследуемого множества объектов на группы «похожих»
кластерами
Решение задачи кластеризации называют кластерным анализом

Слайд 4

Кластеризация отличается от классификации тем, что этап обучения на примерах отсутствует
В задачах классификации

Кластеризация отличается от классификации тем, что этап обучения на примерах отсутствует В
множество классов заранее известно, в кластеризации классы определяются в процессе анализа
Поэтому кластеризация относится к задачам обучения без учителя (unsupervised learning)

Слайд 5

Задача кластеризации часто решается на начальных этапах исследования, когда о данных мало

Задача кластеризации часто решается на начальных этапах исследования, когда о данных мало
что известно
Ее решение помогает лучше понять данные
После определения кластеров применяются другие методы Data Mining, чтобы попытаться установить, что означает такое разбиение
Кластерный анализ позволяет рассматривать достаточно большой объем информации и сжимать большие массивы информации, делать их компактными и наглядными

Слайд 6

ПРИМЕР –кластеризация результатов поиска

ПРИМЕР –кластеризация результатов поиска

Слайд 8

Формальная постановка задачи

Дано множество данных, состоящее из N объектов (векторов):
S1, S2, …,

Формальная постановка задачи Дано множество данных, состоящее из N объектов (векторов): S1,
SN
Каждый объект описывается набором признаков:
x1, x2, …, xm,
где m – размерность пространства признаков

Слайд 9

Формальная постановка задачи

Таким образом, i-й объект можно записать в виде:
Si = (xi1,

Формальная постановка задачи Таким образом, i-й объект можно записать в виде: Si
xi2, …, xim)
Класс для каждого объекта неизвестен

Слайд 10

Формальная постановка задачи

Требуется:
найти способ сравнения d(Sp, Sq) объектов между собой (меру сходства, функцию

Формальная постановка задачи Требуется: найти способ сравнения d(Sp, Sq) объектов между собой
расстояния)
определить множество кластеров
С1, C2, …, Cr
причем количество кластеров r – неизвестно
разбить данные по кластерам

Слайд 11

евклидово расстояние
Манхэттенское расстояние
расстояние Чебышева

 

Метрики расстояния между объектами

евклидово расстояние Манхэттенское расстояние расстояние Чебышева Метрики расстояния между объектами

Слайд 12

Методы кластерного анализа можно разделить на две группы:
неиерархические
иерархические

Методы кластерного анализа можно разделить на две группы: неиерархические иерархические

Слайд 13

Виды кластеров

Внутрикластерные расстояния, как правило, меньше межкластерных
Но бывают ленточные кластеры, в которых

Виды кластеров Внутрикластерные расстояния, как правило, меньше межкластерных Но бывают ленточные кластеры,
внутрикластерные расстояния большие
Идеальный случай- сферические кластеры с центром (встречаются редко)

Слайд 14

Разные виды кластеров ведут к проблеме выбора оптимального алгоритма кластеризации

Разные виды кластеров ведут к проблеме выбора оптимального алгоритма кластеризации

Слайд 15

Алгоритмы кластеризации

Алгоритмы кластеризации

Слайд 16

 

Как сделать признаки
равноправными в образовании кластеров?

ИТОГ: мы получим значения признаков,

Как сделать признаки равноправными в образовании кластеров? ИТОГ: мы получим значения признаков,
95% которых находится в интервале (-2;2)

Стандартизация данных

Слайд 17

Метод k-средних

Неиерархическим методом кластеризации является метод k-средних (k-means)
Предварительно необходимо выбрать вероятное число

Метод k-средних Неиерархическим методом кластеризации является метод k-средних (k-means) Предварительно необходимо выбрать вероятное число кластеров k
кластеров k

Слайд 18

Метод k-средних

1. Выбирается k произвольных исходных центров кластеров – обычно выбираются k

Метод k-средних 1. Выбирается k произвольных исходных центров кластеров – обычно выбираются
объектов
2. Все объекты разбиваются на k групп, наиболее близких к одному из центров
3. Вычисляются новые центры кластеров
4. Проводится новое разбиение всех объектов на основании близости к новым центрам
Шаги 3 и 4 повторяются до тех пор, пока центры кластеров не перестанут меняться или пока не достигнуто максимальное число итераций

Слайд 19

Метод k-средних

Пример.

Примем k = 3

Начальные центры – объекты 1, 3, 4

Разобьем

Метод k-средних Пример. Примем k = 3 Начальные центры – объекты 1,
все объекты по кластерам

Слайд 20

Метод k-средних

Найдем новые центры кластеров

Метод k-средних Найдем новые центры кластеров

Слайд 21

Метод k-средних

Найдем новые центры кластеров

Метод k-средних Найдем новые центры кластеров

Слайд 22

Метод k-средних

Разобьем все объекты по новым кластерам, относя каждый объект к кластеру

Метод k-средних Разобьем все объекты по новым кластерам, относя каждый объект к кластеру с ближайшим центром
с ближайшим центром

Слайд 23

Метод k-средних

Пересчитаем центры кластеров.
Дальнейшая разбивка объектов по новым кластерам не меняет расположение центров

Метод k-средних Пересчитаем центры кластеров. Дальнейшая разбивка объектов по новым кластерам не меняет расположение центров

Слайд 24

Метод k-средних: определение k с помощью метода каменистой осыпи

J (Ck) - сумма

Метод k-средних: определение k с помощью метода каменистой осыпи J (Ck) -
квадратов расстояний от точек до центроидов кластеров, к которым они относятся, k- количество кластеров

Слайд 25

До стандартизации

После

График средних значений
Признаков в кластерах

До стандартизации После График средних значений Признаков в кластерах

Слайд 26

Иерархические методы

К иерархическим методам кластеризации относятся:
агломеративный алгоритмы
дивизимный алгоритмы

Иерархические методы К иерархическим методам кластеризации относятся: агломеративный алгоритмы дивизимный алгоритмы

Слайд 27

Агломеративный метод

В начале работы алгоритма все объекты являются отдельными кластерами
На первом шаге

Агломеративный метод В начале работы алгоритма все объекты являются отдельными кластерами На
наиболее похожие (близкие) два кластера объединяются в дин кластер
На последующих шагах объединение продолжается до тех пор, пока все объекты не будут составлять один кластер
На любом этапе объединение можно прервать, получив нужное число кластеров

Слайд 28

Метод ближайшего соседа (одиночная связь, Single linkage). Расстояние между двумя кластерами определяется

Метод ближайшего соседа (одиночная связь, Single linkage). Расстояние между двумя кластерами определяется
расстоянием между двумя наиболее близкими объектами («ближайшими соседями») в различных кластерах.
Метод наиболее удаленного соседа (полная связь, Complete linkage). Расстояния между кластерами определяются наибольшим расстоянием между любыми двумя объектами в различных кластерах.
Попарное среднее (Unweighted pair-group average). Расстояние между двумя различными кластерами вычисляется как среднее расстояние между всеми парами объектов в них.

Вычисление расстояния между
кластерами

Слайд 29

4. Невзвешенный центроидный метод (Unweighted pair-group centroid). В этом методе расстояние между двумя

4. Невзвешенный центроидный метод (Unweighted pair-group centroid). В этом методе расстояние между
кластерами определяется как расстояние между их центрами. 

Вычисление расстояния между
кластерами

5. Метод Варда (Ward's method). В качестве расстояния между кластерами берется прирост суммы квадратов расстояний объектов до центров кластеров, получаемый в результате их объединения В целом метод представляется очень эффективным, однако он стремится создавать кластеры малого размера.

Слайд 30

Агломеративный метод

Пример.

Каждый объект формирует свой кластер

Агломеративный метод Пример. Каждый объект формирует свой кластер

Слайд 31

Агломеративный метод

Выбираем и объединяем два наиболее близких кластера

Агломеративный метод Выбираем и объединяем два наиболее близких кластера

Слайд 32

Агломеративный метод

Выбираем и объединяем два наиболее близких кластера

Агломеративный метод Выбираем и объединяем два наиболее близких кластера

Слайд 33

Агломеративный метод

Выбираем и объединяем два наиболее близких кластера

Агломеративный метод Выбираем и объединяем два наиболее близких кластера

Слайд 34

Дивизимный метод

На первом шаге все объекты помещаются в один кластер С1
Выбирается объект,

Дивизимный метод На первом шаге все объекты помещаются в один кластер С1
у которого среднее значение расстояния до других объектов в этом кластере наибольшее:

Слайд 35

Дивизимный метод

Выбранный объект удаляется из кластера С1 и формирует первый элемент второго

Дивизимный метод Выбранный объект удаляется из кластера С1 и формирует первый элемент
кластера С2
На каждом последующем шаге объект в кластере С1, для которого разность между средним расстоянием до объектов, находящихся в С2 и средним расстоянием до объектов, остающихся в С1, наибольшая, переносится в С2

Слайд 36

Дивизимный метод

В результате один кластер делится на два дочерних, один из которых

Дивизимный метод В результате один кластер делится на два дочерних, один из
расщепляется на следующем уровне иерархии
Каждый последующий уровень применяет процедуру разделения к одному из кластеров, полученных на предыдущем уровне

Слайд 37

Иерархические методы

Иерархические методы

Слайд 38

ДЕНДРОГРАММА

ДЕНДРОГРАММА

Слайд 39

Метрики качества кластеризации

Коэффициент силуэта:
Здесь a — среднее внутрикластерное расстояние (то есть

Метрики качества кластеризации Коэффициент силуэта: Здесь a — среднее внутрикластерное расстояние (то
среднее расстояние между элементами, принадлежащими одному кластеру) , b— среднее межкластерное расстояние (cреднее расстояние между элементами, принадлежащими разным кластерам).
Значение коэффициента силуэта лежит в диапазоне [−1,1]. Чем больше величина коэффициента, тем качественнее проведена кластеризация. Значения, близкие к -1, соответствуют плохим (неправильным) кластеризациям, значения, близкие к нулю, говорят о том, что кластеры пересекаются и накладываются друг на друга, значения, близкие к 1, соответствуют плотно сгруппированным кластерам.

Слайд 40

Пример программы на Python

from sklearn import datasets
dataset = datasets.load_iris()
X =

Пример программы на Python from sklearn import datasets dataset = datasets.load_iris() X
dataset.data
y = dataset.target
from sklearn.cluster import KMeans
model = KMeans(n_clusters=3).fit(X)
labels = model.labels_
from sklearn import metrics
metrics.silhouette_score(X, labels, metric='euclidean')

Слайд 41

DBSCAN

На вход алгоритму подаётся набор точек, параметры ϵ (радиус окрестности)
и m (минимальное число точек в

DBSCAN На вход алгоритму подаётся набор точек, параметры ϵ (радиус окрестности) и
окрестности). 

Слайд 43

DBSCAN: результаты работы

DBSCAN: результаты работы