2,626 matches
-
ei crește [167, 168]. Acest principiu stă la baza procesului de învățare prin modificarea ponderilor sinaptice. Hebb a propus deci un mecanism calitativ, ce descrie procesul prin care conexiunile sinaptice sunt modificate pentru a reflecta mecanismul de învățare realizat de neuronii interconectați, atunci când aceștia sunt influențaȚi de anumiți stimuli ai mediului. Rosenblatt (1959) a propus un dispozitiv numit perceptron [167, 169, 170]. Perceptronul este bazat pe interconectarea unei mulțimi de neuroni artificiali și reprezintă primul 193 model de rețea neuronală artificială
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
sunt modificate pentru a reflecta mecanismul de învățare realizat de neuronii interconectați, atunci când aceștia sunt influențaȚi de anumiți stimuli ai mediului. Rosenblatt (1959) a propus un dispozitiv numit perceptron [167, 169, 170]. Perceptronul este bazat pe interconectarea unei mulțimi de neuroni artificiali și reprezintă primul 193 model de rețea neuronală artificială. Tot în anii 1950, Bernard Windrow și Ted Hoff dezvoltă algoritmi de învățare pentru rețele neuronale liniare cu un singur nivel de unități funcționale. Algoritmii lor sunt bazați pe minimizarea
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
de unități funcționale. Algoritmii lor sunt bazați pe minimizarea erorii pe setul de date de antrenare. Bernard Widrow a propus un model neuronal numit ADALINE și o rețea cu elemente de acest tip numit MADALINE. ADALINE reprezintă acronimul ADAptive Linear Neuron sau ADAptive LINear Element. MADALINE este un acronim pentru Multiple-ADALINE [167, 171]. Modelul ADALINE este în esență identic cu modelul perceptronului. Ieșirea este bipolară: +1 sau -1. ADALINE este un dispozitiv adaptiv, în sensul că există o procedură bine definită
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
își dovedesc limitele în domenii în care omul excelează, cum ar fi percepția și învățarea din experiență. Într-un calculator obișnuit elementul esențial este procesorul, caracterizat de viteza mare de lucru. În creier, elementele individuale de proces sunt celulele nervoase (neuronii). Ele sunt mai simple și mai lente decât un procesor de calculator, însă sunt foarte numeroase. Conexiunile dintre neuroni sunt la fel de importante ca și aceștia. Inteligența și procesele memoriei rezidă în întreaga rețea de celule și nu în neuronii individuali
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
calculator obișnuit elementul esențial este procesorul, caracterizat de viteza mare de lucru. În creier, elementele individuale de proces sunt celulele nervoase (neuronii). Ele sunt mai simple și mai lente decât un procesor de calculator, însă sunt foarte numeroase. Conexiunile dintre neuroni sunt la fel de importante ca și aceștia. Inteligența și procesele memoriei rezidă în întreaga rețea de celule și nu în neuronii individuali. Cortexul cerebral este o rețea neuronală naturală. O astfel de rețea neuronală are capacitatea de a gândi, învăța, simți
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
nervoase (neuronii). Ele sunt mai simple și mai lente decât un procesor de calculator, însă sunt foarte numeroase. Conexiunile dintre neuroni sunt la fel de importante ca și aceștia. Inteligența și procesele memoriei rezidă în întreaga rețea de celule și nu în neuronii individuali. Cortexul cerebral este o rețea neuronală naturală. O astfel de rețea neuronală are capacitatea de a gândi, învăța, simți și de a-și aminti. Rețelele neuronale artificiale sunt rețele de modele de neuroni conectați prin intermediul unor sinapse ajustabile [172
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
rețea de celule și nu în neuronii individuali. Cortexul cerebral este o rețea neuronală naturală. O astfel de rețea neuronală are capacitatea de a gândi, învăța, simți și de a-și aminti. Rețelele neuronale artificiale sunt rețele de modele de neuroni conectați prin intermediul unor sinapse ajustabile [172, 173]. Toate modelele de rețele neuronale se bazează pe interconectarea unor elemente simple de calcul dintr-o rețea densă de conexiuni. Fiecare unitate de proces este capabilă să execute doar calcule simple, dar rețeaua
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
neuronale achiziționează cunoașterea prin instruire. O rețea neuronală este instruită dacă aplicarea unei mulțimi de vectori de intrare va produce ieșirile dorite. Cunoașterea pe care rețeaua neuronală o dobândește este memorată de sinapsele neuronale, mai precis, în ponderile conexiunilor dintre neuroni. Deși se aseamănă în funcționare cu creierul uman, rețelele neuronale au o structură diferită de cea a creierului. O rețea neuronală este mult mai simplă decât corespondentul uman, dar, la fel ca și creierul uman, este compusă din unități puternice
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
uman, rețelele neuronale au o structură diferită de cea a creierului. O rețea neuronală este mult mai simplă decât corespondentul uman, dar, la fel ca și creierul uman, este compusă din unități puternice de calcul, mult inferioare însă corespondentului uman, neuronul. Rețelele neuronale artificiale se pot caracteriza pe baza a 3 elemente: modelul adoptat pentru elementul de procesare individual; structura particulară de interconexiuni (arhitectura); mecanismele de ajustare a legăturilor (de învățare). Există mai multe criterii de clasificare a modelelor neuronului elementar
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
uman, neuronul. Rețelele neuronale artificiale se pot caracteriza pe baza a 3 elemente: modelul adoptat pentru elementul de procesare individual; structura particulară de interconexiuni (arhitectura); mecanismele de ajustare a legăturilor (de învățare). Există mai multe criterii de clasificare a modelelor neuronului elementar, ce implică domeniul de definiție a semnalelor folosite, natura datelor folosite, tipul funcției de activare și prezența memoriei. Cel mai utilizat model este modelul aditiv (figura 7.1). Există numeroase modalități de interconectare a neuronilor elementari, putând fi identificate
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
de clasificare a modelelor neuronului elementar, ce implică domeniul de definiție a semnalelor folosite, natura datelor folosite, tipul funcției de activare și prezența memoriei. Cel mai utilizat model este modelul aditiv (figura 7.1). Există numeroase modalități de interconectare a neuronilor elementari, putând fi identificate două clase de arhitecturi [174]: cu propagare a informației numai dinspre intrare spre ieșire - rețele de tip feedforward (figura 7.2); rețele recurente (cu reacție). Un dezavantaj al rețelelor neuronale îl constituie lipsa teoriei care să
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
de arhitecturi [174]: cu propagare a informației numai dinspre intrare spre ieșire - rețele de tip feedforward (figura 7.2); rețele recurente (cu reacție). Un dezavantaj al rețelelor neuronale îl constituie lipsa teoriei care să precizeze tipul rețelei și numărul de neuroni elementari precum și modalitatea 195 de interconectare. Legat de cele spuse amintim că există câteva tehnici de tip pruning sau de tip learn and grow, însă acestea sunt încă în domeniul cercetării. Fig. 7.1. Modelul aditiv al neuronului artificial Fig
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
numărul de neuroni elementari precum și modalitatea 195 de interconectare. Legat de cele spuse amintim că există câteva tehnici de tip pruning sau de tip learn and grow, însă acestea sunt încă în domeniul cercetării. Fig. 7.1. Modelul aditiv al neuronului artificial Fig. 7.2. O rețea neuronală generală si o rețea de tip feedforward Principala deosebire a rețelelor neuronale față de alte sisteme de prelucrare a informațiilor îl constituie capacitatea de învățare în urma interacțiunii cu mediul înconjurător și cea de îmbunătățire
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
multe criterii: disponibilitatea răspunsului dorit la ieșirea rețelei, existența unui model analitic, tipul aplicației în care sunt utilizați; cele mai multe documentații se rezumă la două clase mari: învățarea supravegheată (care presupune existența în orice moment a unei valori dorite a fiecărui neuron din 196 stratul de ieșire) și învățarea nesupravegheată (în care rețeaua extrage singură anumite caracteristici importante ale datelor de ieșire, în urma unei „competiții” între neuronii elementari). În ultima perioadă s-a remarcat încă o clasă de algoritmi, algoritmii de învățare
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
mari: învățarea supravegheată (care presupune existența în orice moment a unei valori dorite a fiecărui neuron din 196 stratul de ieșire) și învățarea nesupravegheată (în care rețeaua extrage singură anumite caracteristici importante ale datelor de ieșire, în urma unei „competiții” între neuronii elementari). În ultima perioadă s-a remarcat încă o clasă de algoritmi, algoritmii de învățare critici, rezultați în urma observațiilor experimentale făcute pe animale, ei fiind de tipul recompensă/pedeapsă. 7.1.2. Aplicații ale rețelelor neuronale Domeniile în care rețelele
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
com), un mediu de dezvoltare dedicat exclusiv acestui tip de aplicații de învățare. Aplicația dispune de un compendiu complex de instrumente pentru implementarea unei rețele neuronale, de la simplul design general (declararea instanțelor de intrare-ieșire sau ponderi, număr de straturi ascunse, neuroni etc.), până la definirea algoritmilor de propagare și a funcțiilor asociate fiecărui neuron, respectiv la algoritmii de optimizare. O rețea neuronală este generic alcătuită din cele două baze de date antemenționate, respectiv o „cutie neagră” (black box) ce conține „creierul operațiunii
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
învățare. Aplicația dispune de un compendiu complex de instrumente pentru implementarea unei rețele neuronale, de la simplul design general (declararea instanțelor de intrare-ieșire sau ponderi, număr de straturi ascunse, neuroni etc.), până la definirea algoritmilor de propagare și a funcțiilor asociate fiecărui neuron, respectiv la algoritmii de optimizare. O rețea neuronală este generic alcătuită din cele două baze de date antemenționate, respectiv o „cutie neagră” (black box) ce conține „creierul operațiunii”: straturile ascunse compuse din neuroni (rețele interconectate de funcții). O rețea poate
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
de propagare și a funcțiilor asociate fiecărui neuron, respectiv la algoritmii de optimizare. O rețea neuronală este generic alcătuită din cele două baze de date antemenționate, respectiv o „cutie neagră” (black box) ce conține „creierul operațiunii”: straturile ascunse compuse din neuroni (rețele interconectate de funcții). O rețea poate dispune de oricâte straturi, uzual fiind utilizat unul singur sau cel mult două, în timp de numărul de neuroni este ales în funcție de complexitatea aplicației. Bazele de date au fost structurate după cum urmează: a
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
respectiv o „cutie neagră” (black box) ce conține „creierul operațiunii”: straturile ascunse compuse din neuroni (rețele interconectate de funcții). O rețea poate dispune de oricâte straturi, uzual fiind utilizat unul singur sau cel mult două, în timp de numărul de neuroni este ales în funcție de complexitatea aplicației. Bazele de date au fost structurate după cum urmează: a. baza de date de intrare (figura 7.3), constituită pe baza rezultatelor experimentale obținute în laborator (SEM), asupra marcajelor realizate - componente: a.1. materialul (Nimonic 75
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
fost determinate corect. Astfel, s-a ales o structură compusă din două straturi ascunse, pentru o fidelitate sporită a output-ului printr-un proces de învățare caracterizat de o eroare mai redusă, după cum urmează: primul strat este format din 12 neuroni (suma numărului de elementele distincte de intrare, respectiv de ieșire), iar al doilea din 5 neuroni (același număr cu elementele distincte de ieșire). Nu există o metodă specifică pentru determinarea acestor valori, fixarea lor fiind realizată prin efectuarea de teste
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
fidelitate sporită a output-ului printr-un proces de învățare caracterizat de o eroare mai redusă, după cum urmează: primul strat este format din 12 neuroni (suma numărului de elementele distincte de intrare, respectiv de ieșire), iar al doilea din 5 neuroni (același număr cu elementele distincte de ieșire). Nu există o metodă specifică pentru determinarea acestor valori, fixarea lor fiind realizată prin efectuarea de teste succesive și alegerea variantei rezultate ca fiind optimă pentru aplicația respectivă. Numărul de neuroni pe strat
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
din 5 neuroni (același număr cu elementele distincte de ieșire). Nu există o metodă specifică pentru determinarea acestor valori, fixarea lor fiind realizată prin efectuarea de teste succesive și alegerea variantei rezultate ca fiind optimă pentru aplicația respectivă. Numărul de neuroni pe strat se poate alege, de exemplu, astfel încât numărul de ponderi să fie mic în raport cu numărul de condiții; altfel apare supraînvățarea și capacitatea mică de generalizare. Ca detalii ale arhitecturii alese se pot menționa: rețea de tip stratificat (definită prin
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
rețea de tip RBF/GRNN/PNN: Radial Basis Function - rețea neliniară hibridă, ce conține în mod tipic un singur strat ascuns cu elemente de procesare; experimentele efectuate au demonstrat însă acuratețea sporită a unei variante cu două straturi, cu puțini neuroni pe stratul secund, precum se descrie la punctul următor. Acest gen de rețea tinde să învețe mult mai rapid decât altele, precum cea considerată optimă inițial: MLP Multilayer Perceptron, datorită caracterului ei mai general (rețea de tip feedforward cu retropropagare
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
plus, componenta GRNN/PNN (Generalized Regression/Probabilistic Neuronal Network) asigură determinarea analitică a ponderilor, fiind indicată pentru baze de date cu aproximativ 100 de exemplare / seturi de antrenare, precum este situația tezei de față; 2. număr de straturi ascunse: două, neuroni: doisprezece în primul strat (prima linie a procesului de învățare, ce necesită o putere de calcul sporită), respectiv cinci în cel secund, număr general recomandat egal cu numărul de elemente de ieșire; 3. funcția de transfer între straturile ascunse: SigmoidAxon
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]
-
Generalized Feed Forward, Modular, Jordan Elman, Principal Component Analysis, RBF, Self-Organizing Feature Map, Time-Lag Recurrent, Recurrent, CANFIS, Support Vector Machine), respectiv pentru arhitectura optimă descoperită, configurată cu toate combinările rezultate din: unul sau două straturi ascunse, cu șapte sau doisprezece neuroni în primul strat si cinci în cel de-al doilea, diverse modalități de transfer între neuroni (TanhAxon, Sigmoid Axon, versiunile lineare ale acestora două, SoftMaxAxon, BiasAxon, LinearAxon, Axon), reguli de învățare (Step, Momentum, ConjugateGradient, LevembergMarquardt, QuickProp, DeltaBarDelta), opțiuni de control
MARCAREA PRIN MICROPERCUŢIE ŞI CU FASCICUL LASER A UNOR MATERIALE by ŞTEFAN RUSU () [Corola-publishinghouse/Science/1607_a_2906]