Arhitectura Multistrat a Rețelelor Neurale

Содержание

Слайд 2

ARHITECTURĂ
Felul în care este construit sau alcătuit ceva; aspectul compozițional al

ARHITECTURĂ Felul în care este construit sau alcătuit ceva; aspectul compozițional al
unei opere artistice; structură. – Din fr. architecture, lat. architectura.

Слайд 3

Arhitectura Multistrat a RN

Neuronii pot fi conectați în diferite moduri pentru a

Arhitectura Multistrat a RN Neuronii pot fi conectați în diferite moduri pentru
forma o rețea neurală
O rețea neurală multistrat conține:
două sau mai multe straturi de neuroni
Primul strat primește intrările din mediu
Ieșirile din primul strat sunt intrări pentru stratul următor
Ieșirea rețelei este formată din ieșirile neuronilor din ultimul strat
Straturile situate între primul și ultimul strat se numesc straturi ascunse ale rețelei

Слайд 4

O rețea neurală cu un strat ascuns

8

Fiecare săgeată este o pondere

 

 

 

 

 

 

 

 

 

 

 

Strat

O rețea neurală cu un strat ascuns 8 Fiecare săgeată este o
de
intrare

Strat
ascuns

Strat
de ieșire

Слайд 5

3 concepte importante

Transformare
Instruire
Asociere

3 concepte importante Transformare Instruire Asociere

Слайд 6

Transformare

Rețelele neuronale transformă o anumită configurație de intrare într-o configurație de ieșire

Transformare Rețelele neuronale transformă o anumită configurație de intrare într-o configurație de

Ieșirile rețelei pot corespunde unei acțiuni pe care rețeaua trebuie să o realizeze
Ieșirile rețelei pot prezenta o clasificare a obiectelor prezentate la intrare
În general, ieșirea poate fi orice transformare a spațiului de intrare, deci funcționarea rețelei reprezintă o aplicație (proiecție, transformare) a spațiului vectorilor de intrare în spațiul vectorilor de ieșire

Слайд 7

Instruire

Prin instruire sau învățare înțelegem o metodă prin care este construită o

Instruire Prin instruire sau învățare înțelegem o metodă prin care este construită
astfel de aplicație
În mod obișnuit instruirea presupune că se furnizează rețelei suficient de multe exemple de perechi intrare – ieșire
Folosind aceste exemple, rețeaua este forțată să se adapteze în sensul generalizării unei aplicații intrare – ieșire
Această aplicație îi va permite rețelei să trateze corect și perechi intrare – ieșire care nu i-au mai fost prezentate niciodată

Слайд 8

Asociere

 

Asociere

Слайд 9

 

 

(R, S) - asociere

(R, S) - asociere

Слайд 10

Liste de asociere

 

Liste de asociere

Слайд 12

În Rețelele Neurale asocierile se memorează în ponderile sinapselor neuronilor
Reprezentarea unei

În Rețelele Neurale asocierile se memorează în ponderile sinapselor neuronilor Reprezentarea unei
asociații este distribuită peste mai multe conexiuni
Reciproc, fiecare conexiune este implicată în memorarea mai multor asocieri
Această reprezentare distribuită înzestrează sistemul cu un anumit grad de robustețe față de deteriorări fizice minore,
În plus, permite sistemul să „observe” (să detecteze) anumite regularități în mulțimea de instruire

Слайд 13

Faza în care toate asocierile sunt memorate sau învățate reprezintă faza de

Faza în care toate asocierile sunt memorate sau învățate reprezintă faza de
instruire a rețelei
Faza de lucru - este caracterizată printr-un proces de regăsire
În această fază se prezintă rețelei diferite forme-cheie

Слайд 14

Faza de lucru și de instruire

Semnalul se propagă în rețea dinspre stratul

Faza de lucru și de instruire Semnalul se propagă în rețea dinspre
de intrare spre cel de ieșire
În faza de lucru avem o propagare înainte a semnalului
În faza de instruire avem o propagare înapoi a erorii
În continuare vom prezenta algoritmul de propagare înapoi

Слайд 15

Algoritmul de propagare înapoi (I)

Algoritmul de propagare înapoi – retro-propagare (Back Propagation,

Algoritmul de propagare înapoi (I) Algoritmul de propagare înapoi – retro-propagare (Back
BP):
cel mai important şi mai utilizat algoritm pentru instruirea reţelelor neuronale multistrat
Popularitatea sa a constituit un factor important în reînvierea direcţiei conexioniste, în Inteligenţa Artificială

Слайд 16

Algoritmul de propagare înapoi (II)

Algoritmul de propagare înapoi este o metodă de

Algoritmul de propagare înapoi (II) Algoritmul de propagare înapoi este o metodă
instruire în reţelele neuronale multistrat cu transmitere înainte (reţele unidirecţionale),
în care se urmăreşte minimizarea erorii medii pătratice printr-o metodă de gradient.

Слайд 17

Caracteristici

BP acţionează asupra unei arhitecturi cu mai mulţi neuroni organizaţi în straturi

Caracteristici BP acţionează asupra unei arhitecturi cu mai mulţi neuroni organizaţi în
multiple, dintre care unele straturi sunt ascunse iar neuronii au funcţii de ieşire sigmoidale.

Слайд 18

Scurt istoric

Ideea propagării înapoi a fost redescoperită de mai multe ori
1974: Paul

Scurt istoric Ideea propagării înapoi a fost redescoperită de mai multe ori
Werbos
1982: David Parker și Rumelhart („Parallel Distributed Processing")
autorii au sugerat că algoritmul de propagare înapoi sau regula delta generalizată (cum au numit-o ei) poate depăşi limitările algoritmului perceptronului, enumerate de Minsky şi Papert (1969).

Слайд 19

Primele practici

În cadrul unui experiment pentru a sintetiza vocea dintr-un text scris,

Primele practici În cadrul unui experiment pentru a sintetiza vocea dintr-un text
fără a face apel la reguli ale unui sistem expert (Sejnowski şi Grossberg, 1987)
O bandă magnetică conţinea o bogată experienţă de instruire
Răsunetul pe care acest experiment l-a avut, a determinat popularizarea sa rapidă ca „un nou algoritm de instruire care învaţă din experienţă”.

Слайд 20

Aplicații

S-a apreciat că algoritmul de propagare înapoi ar putea avea numeroase aplicaţii

Aplicații S-a apreciat că algoritmul de propagare înapoi ar putea avea numeroase
potenţiale:
recunoaşterea în timp real a vorbirii,
traducerea automată,
vedere artificială

Слайд 21

Analogie

Psihologii şi neurofiziologii au căutat să identifice algoritmul de propagare înapoi în

Analogie Psihologii şi neurofiziologii au căutat să identifice algoritmul de propagare înapoi
funcţionarea creierului uman şi a sistemului nervos central
Cel puţin până acum, nu s-a descoperit analogia biologică a algoritmului de retro-propagare

Слайд 22

Algoritmul de propagare înapoi pentru RN cu un singur strat ascuns

 

Algoritmul de propagare înapoi pentru RN cu un singur strat ascuns

Слайд 29

Coborârea gradientului (gradient descent) în spațiul ponderilor

Din cartea Machine Learning, de Tom

Coborârea gradientului (gradient descent) în spațiul ponderilor Din cartea Machine Learning, de Tom Mitchel. http://profsite.um.ac.ir/~monsefi/machine-learning/pdf/Machine-Learning-Tom-Mitchell.pdf
Mitchel.
http://profsite.um.ac.ir/~monsefi/machine-learning/pdf/Machine-Learning-Tom-Mitchell.pdf

Слайд 34

De ce avem nevoie de mai multe straturi?

Incapacitatea arhitecturilor simple de a

De ce avem nevoie de mai multe straturi? Incapacitatea arhitecturilor simple de
rezolva o problemă sau o clasă de probleme
Uneori este sufiecient să mărim numărul de neuroni din rețea
fără de a schimba arhitectura
În alte situații este necesară modificarea arhitecturii rețelei
introducând unul sau mai multe straturi neurale noi