Обобщенная модель нейрона. Персептрон (структура, алгоритмы обучения). Решение задачи распознавания образов с помощью НС

Содержание

Слайд 2

в противном случае.

1943 – формальный нейрон (МакКаллок, Питтс):

если ;

в противном случае.

1958 –

в противном случае. 1943 – формальный нейрон (МакКаллок, Питтс): если ; в
расширение модели (МакКаллок):

если ;

Здесь:

«тормозящие» входы; «возбуждающие» входы

условие возбуждения

( – порог возбуждения)

Слайд 3

ПРОБЛЕМА ИСКЛЮЧАЮЩЕГО ИЛИ (Exclusive OR, XOR)

→ [М. Мински, С. Пейперт, 1969]

Таблица истинности

ПРОБЛЕМА ИСКЛЮЧАЮЩЕГО ИЛИ (Exclusive OR, XOR) → [М. Мински, С. Пейперт, 1969] Таблица истинности функции XOR
функции XOR

 

Слайд 4

Решение проблемы – 2-хслойная НС:

Таблица истинности:

= !

Условия возбуждения нейронов:

Решение проблемы – 2-хслойная НС: Таблица истинности: = ! Условия возбуждения нейронов:

Слайд 5

ОБОБЩЕННАЯ МОДЕЛЬ НЕЙРОНА

ОБОБЩЕННАЯ МОДЕЛЬ НЕЙРОНА

Слайд 6

ВИДЫ ФУНКЦИИ АКТИВАЦИИ

ВИДЫ ФУНКЦИИ АКТИВАЦИИ

Слайд 7

ПЕРСЕПТРОН (структура)

1958 – однослойный персептрон (Ф. Розенблат)
→ (от англ. Perception

ПЕРСЕПТРОН (структура) 1958 – однослойный персептрон (Ф. Розенблат) → (от англ. Perception
– «восприятие»)
1958 – 1-й нейрокомпьютер «Марк-1» (Ф. Розенблат)

Структура многослойного перспетрона

2 режима работы:
обучение (настройка весов НС);
эксплуатация.

– вектор входов,

– вектор выходов,



Слайд 8

ПЕРСЕПТРОН (процедура обучения)

– вектор эталонов, (желаемых выходов) НС;

– вектор ошибки обучения НС;

Цель

ПЕРСЕПТРОН (процедура обучения) – вектор эталонов, (желаемых выходов) НС; – вектор ошибки
обучения:
где – суммарная

квадратичная ошибка обучения (СКО) НС.



Слайд 9

ОБУЧАЮЩАЯ ВЫБОРКА

– это набор пар – соответственно входной вектор и вектор желаемых

ОБУЧАЮЩАЯ ВЫБОРКА – это набор пар – соответственно входной вектор и вектор
выходов НС r-м обучающем примере; R – число обучающих примеров(объем обучающей выборки).

Слайд 10

АЛГОРИТМЫ ОБУЧЕНИЯ ПЕРСЕПТРОНА

СКО:

где n – число выходов НС; R – объем обучающей

АЛГОРИТМЫ ОБУЧЕНИЯ ПЕРСЕПТРОНА СКО: где n – число выходов НС; R –
выборки.

Градиентный алгоритм обучения:

BP = Back Propagation
QP = Quick Prop
LM = Levenberg- Marquardt

Критерий останова: а) k = Kзад; б) E = Eзад

Слайд 11

СЛОЖНОСТИ ПРОЦЕССА ОБУЧЕНИЯ

«зависание» в локальных минимумах
метод «тяжелого» шарика:
где
регуляризация процесса обучения:
где –

СЛОЖНОСТИ ПРОЦЕССА ОБУЧЕНИЯ «зависание» в локальных минимумах метод «тяжелого» шарика: где регуляризация
коэффициент «штрафа» весов НС;
эффект «переобучения» (over-learning) НС
выбор оптимальной сложности НС (количества нейронов в скрытом слое); тестирование / валидация НС.

Слайд 12

РЕШЕНИЕ ЗАДАЧИ РАСПОЗНАВАНИЯ ОБРАЗОВ С ПОМОЩЬЮ ПЕРСЕПТРОНА

Задача классификации (распознавания образов):
требуется определить, к

РЕШЕНИЕ ЗАДАЧИ РАСПОЗНАВАНИЯ ОБРАЗОВ С ПОМОЩЬЮ ПЕРСЕПТРОНА Задача классификации (распознавания образов): требуется
какому из M известных классов относится предъявляемый объект (образ), представленный вектором

Множество входных векторов (признаков)

Множество решений (классов принадлежности)

Слайд 13

Решение:

Персептрон с 1 скрытым слоем:

Количество нейронов в скрытом слое:

*

*Васильев В.И., Ильясов Б.Г.

Решение: Персептрон с 1 скрытым слоем: Количество нейронов в скрытом слое: *
Интеллектуальные системы управления. Теория и практика, 2009. С. 168-170.
Имя файла: Обобщенная-модель-нейрона.-Персептрон-(структура,-алгоритмы-обучения).-Решение-задачи-распознавания-образов-с-помощью-НС.pptx
Количество просмотров: 47
Количество скачиваний: 0