Нейронные сети.

Содержание

Слайд 2

Represents a neuron in the brain

X1

X2

XP

...

O=bi0 + bi1X1 + … +

Represents a neuron in the brain X1 X2 XP ... O=bi0 +
bipXp

s(O)

S is a function on the interval (0,1) representing the strength of the output

0

1

s

O

Activation Function

Модель нейрона

Слайд 3

. . .

. . .

X1

X2

XP

Y

P predictors (inputs)

1 Hidden Layer with M Neurons

1

. . . . . . X1 X2 XP Y P predictors
output

1

2

M

Cтруктура сети.

Слайд 4

Принципиальная особенность сетей – необходимость их обучения для решения каждой конкретной задачи.

Принципиальная особенность сетей – необходимость их обучения для решения каждой конкретной задачи.

Обучение. Задаётся обучающее множество пар векторов { xs, ds}, s=1…m – число обучающих пар. ds–известный ответ. Задача обучения сводится к минимизации отклонения вычисленных сетью значений ys от точных ds на обучающем множестве. Для оценки качества приближения чаще всего используется суммарная квадратичная ошибка
E=ΣsEѕ=(1/2)ΣsΣј(dsj – ysj)2, где dsj, ysj – компоненты j обучающей пары ѕ. Es – ошибка, вносимая парой ѕ. Схема обучения: 1) присвоить весам и параметрам функции активации малые ненулевые значения; 2) подать на вход одну пару и рассчитать выход; 3) сосчитать ошибку Еs; 4) скорректировать параметры сети (веса, величины смещений, коэффициенты функций активации) так, чтобы ошибка уменьшилась; 5) повторить шаги 1–4 до тех пор, пока ошибка не станет заданной величины малости. Коррекция производится разными методами, являющимися до сих пор предметом изобретательства.

Слайд 5

Диссертация посвящена разработке инструментария и техники для диагностики нейтронов и анализа данных,

Диссертация посвящена разработке инструментария и техники для диагностики нейтронов и анализа данных,
полученных при изучении термоядерных реакций на Совместном Европейском Торе (JET).

Слайд 6

Схема накопления «обучающих» данных для сети n/γ– разделения.

Схема накопления «обучающих» данных для сети n/γ– разделения.

Слайд 7

Верхний рисунок – пример n (сплошная линия) и γ (штрихованная линия) форм

Верхний рисунок – пример n (сплошная линия) и γ (штрихованная линия) форм
импульсов. Нижний рисунок – распределение, собранного в данном временном интервале заряда.

Слайд 8

Плотность событий, использованных для отбора обучающих пар событий, в координатах t TOF–tIRT

Плотность событий, использованных для отбора обучающих пар событий, в координатах t TOF–tIRT γ n


γ

n

Слайд 9

Плотности распределений n и γ событий в координатах Q1–Q2, показывающие возможность выбора

Плотности распределений n и γ событий в координатах Q1–Q2, показывающие возможность выбора
линейной и квадратичной границ между ними.

Слайд 10

Плотности n и γ событий в координатах Q–tIRT и положения линейной и

Плотности n и γ событий в координатах Q–tIRT и положения линейной и квадратичной границ между ними.
квадратичной границ между ними.

Слайд 11

Р – доля неправильно идентифицированных различными методами нейтронов и γ –квантов. («keV

Р – доля неправильно идентифицированных различными методами нейтронов и γ –квантов. («keV
ee» означает выделенную энергию в электронном эквиваленте).

NN

Q1–Q2 lin/quad

Q–IRT lin/quad

Слайд 12

Архитектура нейронной сети, использованной для классификации n/γ–событий была «feed-forward» распространения с 71

Архитектура нейронной сети, использованной для классификации n/γ–событий была «feed-forward» распространения с 71
входными нейронами (~ 200 нс длительности импульса), двумя скрытыми слоями из 20 и 5 нейронами и одним сигмоидальным выходом.
Использование NN – сети более эффективно при «малых энергиях» по сравнению с традиционными методами, основанными на сравнении зарядов: РNN~5% при 20 кЭв против Р~20 – 25 %, достижимими традиционным образом. В области энергий порядка 200 кЭв разница меньше 1 и 2 %. “This method can be implemented into the most modern programmable ADC cards und used for real time application in most cases. This is due to fast application time of NN which is usually in the range of a few µs”.

Слайд 14

γ/π0 разделение, “feed-forward NN with backpropagation algorithm”

e(γ)/hadron separation

γ/π0 разделение, “feed-forward NN with backpropagation algorithm” e(γ)/hadron separation

Слайд 15

γ/π sep

γ/π sep

Слайд 16

Эффективность выделения электронов различными методами в функции их «чистоты» для ZEUS’a и

Эффективность выделения электронов различными методами в функции их «чистоты» для ZEUS’a и
экспериментов со столкновениями тяжелых ионов (LHC). Отношение эффективностей также представлено (правая шкала).

Слайд 17

Идентификация адронов в DELPHI основана на информации от RICH спектрометра и dE/dx

Идентификация адронов в DELPHI основана на информации от RICH спектрометра и dE/dx
информации от Time Projection Chamber (TPC).
Для сравнения с традиционными методами идентификации, был создан пакет MAGRIB, в котором преимущества RICH и dE/dx информации сочетаются с возможностями NN сети. NN сеть имела четыре слоя, 16 входных нейронов, один узел смещения , 19 нейронов в скрытом слое и один выходной нейрон. На входы сети подавались RICH и TPC переменные, использующиеся и в традиционных методах анализа.

Слайд 18

Реконструкция Φ-мезона с помощью сети (NN) и традиционным методом –зелёный цвет (RIBEAN).

Реконструкция Φ-мезона с помощью сети (NN) и традиционным методом –зелёный цвет (RIBEAN).
При том же уровне фона NN-сигнал содержит на 56% больше Φ мезонов, сопровождаясь увеличением «purity» на 16%. При одинаковой «purity» эффективность удваивается.

NN

RIBMEAN

Слайд 19

NN

HADSIN

При том же уровне фона эффективность выделения Λ практически удвоена. При той

NN HADSIN При том же уровне фона эффективность выделения Λ практически удвоена.
же «purity» отношение эффективностей около 4-х.

Слайд 20

Распределение параметра f, характеризующего качество реконструкции энергии одного нейтрального адрона в DELPHI

Распределение параметра f, характеризующего качество реконструкции энергии одного нейтрального адрона в DELPHI
калориметре. Левый рис. распределение f, полученное стандартным методом, справа – с помощью NN сети: “feed-forward” многослойная сеть с архитектурой (33, 53,1) и с линейной передаточной функцией между слоями. Обучение сети производилось с помощью RPROP алгоритма. NN-реконструкция имеет в ~ 1.5 раза лучшее разрешение.

=-0.71
σ/E=1.1/E 1/2

=-0.018
σ/E=.75/E 1/2

f=(Erec-E)/E^0.5

Слайд 21

Tevatron/LHC parameters

DELPHI/ CMS parameters

Tevatron/LHC parameters DELPHI/ CMS parameters

Слайд 22

Заключение: Бόльшие энергии следующего поколения ускорителей (LHC), скорости счета событий, множественности будут

Заключение: Бόльшие энергии следующего поколения ускорителей (LHC), скорости счета событий, множественности будут
иметь следствием , что следующая генерация HEP экспериментов будет иметь дело с огромным объёмом информации on–line и off–line. Это потребует резкого убыстрения обработки, что сделает параллелизм неизбежным. NN сети являются естественным орудием, отвечающим этим требованиям. Т.о внедрение NN сетей в HEP неизбежно (в триггерную систему, реконструкция треков, исследование столкновений тяжелых ионов, обработку).

Слайд 23

Application of Neural Networks Optimized by Genetic Algorithms to Higgs Boson Search
František

Application of Neural Networks Optimized by Genetic Algorithms to Higgs Boson Search
Hakl, Marek Hlaváček, and Roman Kalous (Prague, Czech Republic)
An application of a neural network approach to Higgs search in the assosiated production t t̃ H with H->b b̃. This decay channel is considered as a discovery channel for Higgs scenarios for Higgs boson masses in the range 80 – 130 GeV. Our results show that NN approach is applicable to the problem of Higgs boson detection.

Слайд 25

Reinhard Schwienhorst MICHGAN STATE UNIVERSITY CPPM D0 Seminnar, June 20 2008 Advanced

Reinhard Schwienhorst MICHGAN STATE UNIVERSITY CPPM D0 Seminnar, June 20 2008 Advanced event analysis methods
event analysis methods
Имя файла: Нейронные-сети..pptx
Количество просмотров: 320
Количество скачиваний: 0