1,638 matches
-
și până la organizațiile umane, Wiener formulează pentru prima oară un principiu care stă la baza ciberneticii și definește legăturile profunde ale acesteia cu informația: „cantitatea de informație dintr-un sistem este o măsură a gradului său de organizare, astfel că entropia unui sistem este o măsură a gradului său de dezorganizare” (1948). Deja, în acel moment, Wiener era informat (probabil în urma discuțiilor cu neurologul Arturo Rosenblueth) asupra lucrărilor de pionierat ale lui McCulloch și Pitts referitoare la rolul conexiunilor nervoase în
Bazele ciberneticii economice by Emil Scarlat, Nora Chiriță () [Corola-publishinghouse/Science/190_a_197]
-
până la creierul uman. În sfârșit, un ultim nume de care vom aminti, ale cărui lucrări fac, de fapt, legătura între etapa pionierilor și cea a inovatorilor, este Ilya Prigogine. Opera sa prezintă o importanță uriașă pentru înțelegerea rolului energiei și entropiei în sisteme, dar și pentru spargerea tiparelor gândirii mecaniciste, tributară modelului de dezvoltare științifică promovat în secolele al XVIII-lea, al XIXlea și începutul secolului XX. Asupra contribuțiilor sale ne vom opri mai în detaliu în capitolele următoare. 1.4
Bazele ciberneticii economice by Emil Scarlat, Nora Chiriță () [Corola-publishinghouse/Science/190_a_197]
-
departe-de-echilibru: Studiul proceselor și sistemelor autoorganizatoare dintr-o perspectivă termodinamică. Sistemele autoorganizatoare sunt denumite structuri disipative și ele au tendința de a se opune, prin modificări de structură sau prin schimbul informațional cu mediul, efectelor pe care le are creșterea entropiei. 14) Teoria sistemelor dinamice: Disciplină care studiază evoluția în timp a sistemelor descrise de modele cu ecuații diferențiale sau cu diferențe finite. Sistemele dinamice sunt, de obicei, considerate sisteme deterministe, deși pot fi influențate de evenimente aleatoare. Ceea ce unește aceste
Bazele ciberneticii economice by Emil Scarlat, Nora Chiriță () [Corola-publishinghouse/Science/190_a_197]
-
noi structuri și o nouă ordine. Ilya Prigogine a luat în 1977 Premiul Nobel pentru chimie pentru lucrările sale privind structurile disipative și termodinamica dezechilibrului. Prigogine a dat o interpretarea nouă celei de-a doua legi a termodinamicii. Disoluția în entropie nu este o fatalitate absolută, ci „în anumite condiții, entropia însăși devine generator de ordine”. Pentru a fi mai precis „în condiții de nonechilibru, cel puțin, entropia poate produce, în loc de degradare, ordine și organizare. Dacă este așa, atunci entropia, însăși
Bazele ciberneticii economice by Emil Scarlat, Nora Chiriță () [Corola-publishinghouse/Science/190_a_197]
-
în 1977 Premiul Nobel pentru chimie pentru lucrările sale privind structurile disipative și termodinamica dezechilibrului. Prigogine a dat o interpretarea nouă celei de-a doua legi a termodinamicii. Disoluția în entropie nu este o fatalitate absolută, ci „în anumite condiții, entropia însăși devine generator de ordine”. Pentru a fi mai precis „în condiții de nonechilibru, cel puțin, entropia poate produce, în loc de degradare, ordine și organizare. Dacă este așa, atunci entropia, însăși, își pierde caracterul său disipativ. În timp ce anumite sisteme dispar, alte
Bazele ciberneticii economice by Emil Scarlat, Nora Chiriță () [Corola-publishinghouse/Science/190_a_197]
-
dat o interpretarea nouă celei de-a doua legi a termodinamicii. Disoluția în entropie nu este o fatalitate absolută, ci „în anumite condiții, entropia însăși devine generator de ordine”. Pentru a fi mai precis „în condiții de nonechilibru, cel puțin, entropia poate produce, în loc de degradare, ordine și organizare. Dacă este așa, atunci entropia, însăși, își pierde caracterul său disipativ. În timp ce anumite sisteme dispar, alte sisteme evoluează simultan și cresc cu mai multă coerență.” (Prigogine și Stengers, 1985). În structurile disipative apare
Bazele ciberneticii economice by Emil Scarlat, Nora Chiriță () [Corola-publishinghouse/Science/190_a_197]
-
în entropie nu este o fatalitate absolută, ci „în anumite condiții, entropia însăși devine generator de ordine”. Pentru a fi mai precis „în condiții de nonechilibru, cel puțin, entropia poate produce, în loc de degradare, ordine și organizare. Dacă este așa, atunci entropia, însăși, își pierde caracterul său disipativ. În timp ce anumite sisteme dispar, alte sisteme evoluează simultan și cresc cu mai multă coerență.” (Prigogine și Stengers, 1985). În structurile disipative apare tendințe de a avea soluții alternative care se numesc bifurcații. Acest termen
Bazele ciberneticii economice by Emil Scarlat, Nora Chiriță () [Corola-publishinghouse/Science/190_a_197]
-
interacțiune Între ele și se prezintă ca Întreguri. Sistemul este un concept prin care se delimitează câmpul În cadrul căruia se cercetează procesul obiectiv de conducere. Conducerea este prezentă În orice sistem. Cu ajutorul proceselor de conducere sistemul se apără de creșterea entropiei și se reorganizează continuu, Își reconsideră starea entropică, luând măsuri de reducere a ei. În această situație este vorba de unicitatea a două concepte diferite; În timp ce noțiunea de sistem este gnoseologică, cea de conducere este ontologică. Prin conceptul de sistem
Managementul calității În Învățământul superior by Valentin Ambăruş, Ciprian Rezuş, Gabriel Ungureanu () [Corola-publishinghouse/Science/1697_a_2974]
-
depinde În mod esențial de probabilitățile evenimentelor care caracterizează rezultatul experimentului, notând cu H măsura gradului de nedeterminare al experimentului A, această măsură este o funcție de probabilitățile evenimentelor. Măsura nedeterminării, dată de expresia (1) se numește, după Claude E. Shannon, entropia experimentului A. Entropia este deci măsura gradului de nedeterminare. Alegând În expresia entropiei, ca bază a logaritmului numărul 2, Înseamnă că se ia ca unitate de măsură a nedeterminării gradul de nedeterminare pe care Îl conține un experiment care pune
Managementul calității În Învățământul superior by Valentin Ambăruş, Ciprian Rezuş, Gabriel Ungureanu () [Corola-publishinghouse/Science/1697_a_2974]
-
esențial de probabilitățile evenimentelor care caracterizează rezultatul experimentului, notând cu H măsura gradului de nedeterminare al experimentului A, această măsură este o funcție de probabilitățile evenimentelor. Măsura nedeterminării, dată de expresia (1) se numește, după Claude E. Shannon, entropia experimentului A. Entropia este deci măsura gradului de nedeterminare. Alegând În expresia entropiei, ca bază a logaritmului numărul 2, Înseamnă că se ia ca unitate de măsură a nedeterminării gradul de nedeterminare pe care Îl conține un experiment care pune În evidență o
Managementul calității În Învățământul superior by Valentin Ambăruş, Ciprian Rezuş, Gabriel Ungureanu () [Corola-publishinghouse/Science/1697_a_2974]
-
H măsura gradului de nedeterminare al experimentului A, această măsură este o funcție de probabilitățile evenimentelor. Măsura nedeterminării, dată de expresia (1) se numește, după Claude E. Shannon, entropia experimentului A. Entropia este deci măsura gradului de nedeterminare. Alegând În expresia entropiei, ca bază a logaritmului numărul 2, Înseamnă că se ia ca unitate de măsură a nedeterminării gradul de nedeterminare pe care Îl conține un experiment care pune În evidență o schemă formată din două evenimente egal probabile, unitate de măsură
Managementul calității În Învățământul superior by Valentin Ambăruş, Ciprian Rezuş, Gabriel Ungureanu () [Corola-publishinghouse/Science/1697_a_2974]
-
stări posibile cât și de probabilitățile acestor stări. El este dat de cele două mărimi ak și pk. H(A) este o valoare medie aleatoare care determină cantitatea de informație pe mulțimea A și de aceea se mai numește și entropie de informație. Funcția H(A) se bucură de anumite proprietăți care justifică utilizarea sa În calitate de caracteristică a gradului de incertitudine: se anulează când una din stări este sigură, celelalte fiind imposibile. Dacă una din posibilități este egală cu 1, H
Managementul calității În Învățământul superior by Valentin Ambăruş, Ciprian Rezuş, Gabriel Ungureanu () [Corola-publishinghouse/Science/1697_a_2974]
-
sistemul nu conține nici o nedeterminare, el este În Întregime cunoscut; semnul minus din față compensează faptul că logaritmii sunt negativi, deoarece probabilitățile sunt numere cuprinse Între 0 și 1. Orice măsură trebuie să aibă proprietatea de a fi nenegativă și entropia, ca măsură a nedeterminării, se bucură deci de această proprietate; pentru un număr dat de stări funcția este maximă când aceste stări sunt echiprobabile și crește cu numărul de stări; În fine, ceea ce este esențial, entropia este aditivă. Când mai
Managementul calității În Învățământul superior by Valentin Ambăruş, Ciprian Rezuş, Gabriel Ungureanu () [Corola-publishinghouse/Science/1697_a_2974]
-
a fi nenegativă și entropia, ca măsură a nedeterminării, se bucură deci de această proprietate; pentru un număr dat de stări funcția este maximă când aceste stări sunt echiprobabile și crește cu numărul de stări; În fine, ceea ce este esențial, entropia este aditivă. Când mai multe sisteme independente sunt reunite Într-unul singur, entropiile se adună. În construirea funcției care măsoară gradul de incertitudine s-a urmărit tocmai realizarea acestor proprietăți. Cu relația (1) se obține o măsură a nedeterminării, ca
Managementul calității În Învățământul superior by Valentin Ambăruş, Ciprian Rezuş, Gabriel Ungureanu () [Corola-publishinghouse/Science/1697_a_2974]
-
această proprietate; pentru un număr dat de stări funcția este maximă când aceste stări sunt echiprobabile și crește cu numărul de stări; În fine, ceea ce este esențial, entropia este aditivă. Când mai multe sisteme independente sunt reunite Într-unul singur, entropiile se adună. În construirea funcției care măsoară gradul de incertitudine s-a urmărit tocmai realizarea acestor proprietăți. Cu relația (1) se obține o măsură a nedeterminării, ca expresie matematică simplă, ușor de manipulat. Suntem Însă interesați să obținem o măsură
Managementul calității În Învățământul superior by Valentin Ambăruş, Ciprian Rezuş, Gabriel Ungureanu () [Corola-publishinghouse/Science/1697_a_2974]
-
obținem o măsură pentru cantitatea de informație pe care o transmite un mesaj cultural, pentru a putea caracteriza numeric informația mesajului pe care o primim atunci când aflăm rezultatul unui anumit experiment. Dar, mai Întâi trebuie clarificată legătura dintre noțiunea de entropie a experimentului sau nedeterminare a acestuia și noțiunea de informație. „Informația este informație, nu materie sau energie” scria Norbert Wiener. O definiție mult contestată, Însă de fiecare dată se revine la ea, fie și din faptul că a fost exprimată
Managementul calității În Învățământul superior by Valentin Ambăruş, Ciprian Rezuş, Gabriel Ungureanu () [Corola-publishinghouse/Science/1697_a_2974]
-
aceeași măsură ca și pentru gradul de nedeterminare (necunoaștere) din relația lui Claude E. Shannon, tocmai din cauza acestei corelații, din cauza acestei dualități dintre nedeterminare și informație. Cu alte cuvinte, informația este egală cu o nedeterminare Înlăturată. Informația și nedeterminarea sau entropia procesului instructiveducativ au aceeași măsură cantitativă, dar ele nu sunt identice. Sensul variației nedeterminării este opus sensului variației informației. Măsura nedeterminării, exprimată cu ajutorul entropiei, se ia ca măsură a cantității de informație care Înlătură nedeterminarea respectivă. Entropia, prin urmare, exprimă
Managementul calității În Învățământul superior by Valentin Ambăruş, Ciprian Rezuş, Gabriel Ungureanu () [Corola-publishinghouse/Science/1697_a_2974]
-
și informație. Cu alte cuvinte, informația este egală cu o nedeterminare Înlăturată. Informația și nedeterminarea sau entropia procesului instructiveducativ au aceeași măsură cantitativă, dar ele nu sunt identice. Sensul variației nedeterminării este opus sensului variației informației. Măsura nedeterminării, exprimată cu ajutorul entropiei, se ia ca măsură a cantității de informație care Înlătură nedeterminarea respectivă. Entropia, prin urmare, exprimă măsura cantității de informație. În relația (2)25: H - entropia informațională după Shannon; n - numărul evenimentelor preferențiale; 1 - evenimentul nepreferențial. Sistemul este considerat că
Managementul calității În Învățământul superior by Valentin Ambăruş, Ciprian Rezuş, Gabriel Ungureanu () [Corola-publishinghouse/Science/1697_a_2974]
-
și nedeterminarea sau entropia procesului instructiveducativ au aceeași măsură cantitativă, dar ele nu sunt identice. Sensul variației nedeterminării este opus sensului variației informației. Măsura nedeterminării, exprimată cu ajutorul entropiei, se ia ca măsură a cantității de informație care Înlătură nedeterminarea respectivă. Entropia, prin urmare, exprimă măsura cantității de informație. În relația (2)25: H - entropia informațională după Shannon; n - numărul evenimentelor preferențiale; 1 - evenimentul nepreferențial. Sistemul este considerat că are 2 evenimente: unul este evenimentul preferențial structural, statistic, al sistemului (nu izolat
Managementul calității În Învățământul superior by Valentin Ambăruş, Ciprian Rezuş, Gabriel Ungureanu () [Corola-publishinghouse/Science/1697_a_2974]
-
sunt identice. Sensul variației nedeterminării este opus sensului variației informației. Măsura nedeterminării, exprimată cu ajutorul entropiei, se ia ca măsură a cantității de informație care Înlătură nedeterminarea respectivă. Entropia, prin urmare, exprimă măsura cantității de informație. În relația (2)25: H - entropia informațională după Shannon; n - numărul evenimentelor preferențiale; 1 - evenimentul nepreferențial. Sistemul este considerat că are 2 evenimente: unul este evenimentul preferențial structural, statistic, al sistemului (nu izolat), cu probabilitatea p, iar celălalt nepreferențial, cu probabilitatea (1-p). Numitorul, din membrul al
Managementul calității În Învățământul superior by Valentin Ambăruş, Ciprian Rezuş, Gabriel Ungureanu () [Corola-publishinghouse/Science/1697_a_2974]
-
preferențiale și unul sau mai multe evenimente nepreferențiale și cazul unui sistem În care toate evenimentele sunt preferențiale. Desfășurarea În timp, sub forma evoluției, a unui sistem evolutiv H’ cu n evenimente preferențiale. Curba H log2(n+1) reprezintă evoluția entropiei taxiologice a sistemului (entropia corespunzătoare gradului de organizare și progres) În calculul gradului de organizare și progres (H’), probabilitatea medie a evenimentului preferențial se determină pe baza formulei structurale, reprezentată sub forma unei medii geometrice ponderate a celor două categorii
Managementul calității În Învățământul superior by Valentin Ambăruş, Ciprian Rezuş, Gabriel Ungureanu () [Corola-publishinghouse/Science/1697_a_2974]
-
mai multe evenimente nepreferențiale și cazul unui sistem În care toate evenimentele sunt preferențiale. Desfășurarea În timp, sub forma evoluției, a unui sistem evolutiv H’ cu n evenimente preferențiale. Curba H log2(n+1) reprezintă evoluția entropiei taxiologice a sistemului (entropia corespunzătoare gradului de organizare și progres) În calculul gradului de organizare și progres (H’), probabilitatea medie a evenimentului preferențial se determină pe baza formulei structurale, reprezentată sub forma unei medii geometrice ponderate a celor două categorii de evenimente. În acest
Managementul calității În Învățământul superior by Valentin Ambăruş, Ciprian Rezuş, Gabriel Ungureanu () [Corola-publishinghouse/Science/1697_a_2974]
-
calculul gradului de organizare și progres (H’), probabilitatea medie a evenimentului preferențial se determină pe baza formulei structurale, reprezentată sub forma unei medii geometrice ponderate a celor două categorii de evenimente. În acest fel, el a stabilit că, odată cu creșterea entropiei H până la valoarea ei maximă, În aceeași măsură crește și gradul de organizare și progres H’ al procesului evolutiv. Când entropia H Începe să descrească, dincolo de valoarea ei maximă, gradul de organizare și progres H’ al procesului evolutiv crește până la
Managementul calității În Învățământul superior by Valentin Ambăruş, Ciprian Rezuş, Gabriel Ungureanu () [Corola-publishinghouse/Science/1697_a_2974]
-
unei medii geometrice ponderate a celor două categorii de evenimente. În acest fel, el a stabilit că, odată cu creșterea entropiei H până la valoarea ei maximă, În aceeași măsură crește și gradul de organizare și progres H’ al procesului evolutiv. Când entropia H Începe să descrească, dincolo de valoarea ei maximă, gradul de organizare și progres H’ al procesului evolutiv crește până la valoarea ei teoretică maximă. Astfel, spre exemplu, dacă În Învățarea unei activități se pornește de la un grad foarte mic de organizare
Managementul calității În Învățământul superior by Valentin Ambăruş, Ciprian Rezuş, Gabriel Ungureanu () [Corola-publishinghouse/Science/1697_a_2974]
-
valoarea ei teoretică maximă. Astfel, spre exemplu, dacă În Învățarea unei activități se pornește de la un grad foarte mic de organizare și progres H’ al activității, atunci, pe măsură ce gradul de organizare crește, prin Învățare și exercițiu, 111 În aceeași măsură entropia H log2(n+1) (adică incertitudinea, dezordinea, haosul) crește, devenind maximă cu valoarea teoretică de log2 (n+1) biți (un bit), pentru p = 0,5. Pentru cazul valorilor lui p mai mare decât 0,5, mergând spre 1, gradul de
Managementul calității În Învățământul superior by Valentin Ambăruş, Ciprian Rezuş, Gabriel Ungureanu () [Corola-publishinghouse/Science/1697_a_2974]