Слайд 3Постановка задачи
Если входные и выходные переменные модели непрерывные — перед нами задача
![Постановка задачи Если входные и выходные переменные модели непрерывные — перед нами](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/374879/slide-2.jpg)
регрессии.
Если выходная переменная одна и она является дискретной (метка класса), то речь идет о задаче классификации.
Слайд 4Этап первый
Поскольку метка класса каждого примера предварительно задана, построение классификационной модели часто
![Этап первый Поскольку метка класса каждого примера предварительно задана, построение классификационной модели](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/374879/slide-3.jpg)
называют обучением с учителем.
В процессе обучения формируются правила, по которым производится отнесение объекта к одному из классов
Слайд 5Этап второй
модель применяется для классификации новых, ранее неизвестных объектов и наблюдений
![Этап второй модель применяется для классификации новых, ранее неизвестных объектов и наблюдений](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/374879/slide-4.jpg)
Слайд 6Линейная регрессия
Задача линейной регрессии заключается в нахождении коэффициентов уравнения линейной регрессии, которое
![Линейная регрессия Задача линейной регрессии заключается в нахождении коэффициентов уравнения линейной регрессии,](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/374879/slide-5.jpg)
имеет вид:
y = b0 + b1 x1 + b2 x2 + ...+ bn xn ,
где y — выходная (зависимая) переменная модели;
x1, x2,…, xn — входные (независимые) переменные;
bi — коэффициенты линейной регрессии (b0 — свободный член).
Слайд 7Задача линейной регрессии заключается в подборе коэффициентов bi уравнения таким образом, чтобы
![Задача линейной регрессии заключается в подборе коэффициентов bi уравнения таким образом, чтобы](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/374879/slide-6.jpg)
на заданный входной вектор X = (x1, x2,…, xn)T регрессионная модель формировала желаемое выходное значение y
Слайд 9Линия регрессии — это прямая наилучшего приближения для набора пар значений входной
![Линия регрессии — это прямая наилучшего приближения для набора пар значений входной и выходной переменной](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/374879/slide-8.jpg)
и выходной переменной
Слайд 10Логистическая регрессия
задачи предсказания вероятности некоторого события в зависимости от значений набора независимых
![Логистическая регрессия задачи предсказания вероятности некоторого события в зависимости от значений набора](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/374879/slide-9.jpg)
переменных
логистическая регрессия служит не для предсказания значений зависимой переменной, а для оценки вероятности того, что зависимая переменная примет заданное значение.
Слайд 13Деревья решений
Методы, основанные на обучении
![Деревья решений Методы, основанные на обучении](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/374879/slide-12.jpg)
Слайд 14 Дерево решений — это древовидная иерархическая модель, где в каждом узле
![Дерево решений — это древовидная иерархическая модель, где в каждом узле производится](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/374879/slide-13.jpg)
производится проверка определенного атрибута (признака) с помощью правила
Деревья решений — иерархические древовидные структуры, состоящие из решающих правил вида «если… то…» и позволяющие выполнять классификацию объектов. В дереве каждому объекту соответствует единственный узел, дающий решение.
Слайд 15Деревья решений — это модели, основанные на обучении. Процесс обучения сравнительно прост
![Деревья решений — это модели, основанные на обучении. Процесс обучения сравнительно прост](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/374879/slide-14.jpg)
в настройке и управлении.
Процесс обучения деревьев решений быстр и эффективен.
Деревья решений универсальны — способны решать задачи как классификации, так и регрессии.
Деревья решений обладают высокой объясняющей способностью и интерпретируемостью.
Слайд 16Построение дерева
Описание атрибутов
Предварительное определение классов
Различимость классов
Полнота данных
![Построение дерева Описание атрибутов Предварительное определение классов Различимость классов Полнота данных](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/374879/slide-15.jpg)
Слайд 18Принцип «разделяй и властвуй»
2 3
![Принцип «разделяй и властвуй» 2 3](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/374879/slide-17.jpg)
Слайд 19Искусственные нейронные сети
Методы, основанные на обучении
![Искусственные нейронные сети Методы, основанные на обучении](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/374879/slide-18.jpg)
Слайд 20Искусственная нейронная сеть представляет собой параллельно-распределенную систему процессорных элементов (нейронов), способных выполнять
![Искусственная нейронная сеть представляет собой параллельно-распределенную систему процессорных элементов (нейронов), способных выполнять](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/374879/slide-19.jpg)
простейшую обработку данных, которая может настраивать свои параметры в ходе обучения на эмпирических данных. Накопленные знания нейронной сети сосредоточены в весах межэлементных связей.
Слайд 21свойства нейронных сетей
Нелинейность.
Обучение на примерах
Параллельная обработка данных.
Адаптивность.
Отказоустойчивость.
![свойства нейронных сетей Нелинейность. Обучение на примерах Параллельная обработка данных. Адаптивность. Отказоустойчивость.](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/374879/slide-20.jpg)
Слайд 22Входные данные хорошо интерпретируются
Желаемые результаты также хорошо интерпретируются
Доступный опыт
![Входные данные хорошо интерпретируются Желаемые результаты также хорошо интерпретируются Доступный опыт](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/374879/slide-21.jpg)
Слайд 23Выбор числа нейронов в многослойном персептроне
Число нейронов во входном и выходном слоях
![Выбор числа нейронов в многослойном персептроне Число нейронов во входном и выходном](/_ipx/f_webp&q_80&fit_contain&s_1440x1080/imagesDir/jpg/374879/slide-22.jpg)
жестко определяется числом входных и выходных переменных модели соответственно.
Число нейронов в скрытых слоях и число скрытых слоев выбираются таким образом, чтобы количество образованных ими связей было как минимум в два-три раза меньше числа обучающих примеров.