1,638 matches
-
secolului al XX-lea, trecând în revistă ideile lui Georg Lukács, Edmund Husserl, Martin Heidegger, promotori ai structuralismului și existențialismului, dar mai ales pe cele ale lui Max Bense, cu a sa estetică informațională, în Vitralii dezvoltă concepte (eonul estetic, entropia, opera deschisă) și le exemplifică divers cu lucrările lui Albrecht Dürer, cu imnurile orfice, cu Don Quijote, E. A. Poe, Baudelaire, Dostoievski, Unamuno, dar și cu Ștefan Aug. Doinaș ori cu Mircea Ivănescu. Un eseu, N. V. Gogol sau Paradoxurile literaturii moderne (1996
PETRISOR. In: Dicționarul General al Literaturii Române () [Corola-publishinghouse/Science/288797_a_290126]
-
a transformărilor structurale aflate În curs, Îndeosebi prin sondajele chiar de talie națională. Constrângerile de ordin logistic (costuri prohibitive) nu-i permit sociologiei românești să fie, Încă, fișa clinică a disfuncțiilor Întregii noastre societăți aflate Într-o fază de accentuată entropie normativă. În etapa următoare ea trebuie să se afirme și ca instanță de reflexie calificată a societății asupra ei Însăși, denunțând braconajul epistemic al tuturor celor care-i represează că nu a anticipat evenimentele din ’89. Acestora le ofer următoarea
Sociologie românească () [Corola-publishinghouse/Science/2158_a_3483]
-
pragmatica textului. Asaltul „Caragialiei” este reluat, într-o manieră mai personală, în Caragiale, firește (1999). Cartea reciclează, mai întâi, studiile mai vechi, care, revăzute și aduse la zi, depistează maladiile esențiale ale omului caragialesc: hipersintaxia și hipersemantismul (în traducere aproximativă: entropia lumii operei comice), care conduc la efasarea, până la vidul lăuntric, a identității de sine a indivizilor și a identității lor exterioare, ambele devenind „lichide”, „pură convenție”. Partea a doua, relevant intitulată La răscruce, demonstrează, bazându-se aproape exclusiv pe Momente
PAPADIMA. In: Dicționarul General al Literaturii Române () [Corola-publishinghouse/Science/288669_a_289998]
-
memoriei, acest trecut al Bisericii este amenințat de o tristă marginalitate. Critica eclezială nu este deci degradată la statutul unei deconstrucții nihiliste. Nu sensul Bisericii este pus în cauză, ci problemele girării unui corp ecleziastic într-o epocă macerată de entropie și atrasă de confuzii. Conștienți de propriile slăbiciuni, Nae Ionescu și colegii săi de redacție vorbeau mereu din interiorul Bisericii, cu o inteligență apologetică lipsită de crispări, piperată cu ironie și altoită pe tangenta unei priviri generoase către alteritate. Sub
[Corola-publishinghouse/Science/1881_a_3206]
-
al acestuia (situații specifice coalițiilor, care sunt interesante și utile, dar destul de greu de evaluat în practică). Studiul independenței (dependenței) probabiliste globale sau parțiale poate fi realizat uneori destul de riguros și cu ajutorul unor indicatori statistici sau informaționali cum ar fi entropia și unele mărimi bazate pe aceasta (indicatori entropici ai dependenței probabiliste) utilizabili cu mult succes în probleme de organizare a sistemelor cu structuri probabiliste discrete [Guiașu (1968, 1977, 2003), Purcaru (1988, 2004) etc.)]. Dacă distribuția de probabilitate comună este cunoscută
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
Pe această linie, s-au obținut câteva rezultate remarcabile cu privire la măsurarea entropică a dependenței, a interdependenței și a organizării componentelor unui sistem probabilist sau cu evoluție statistică [Guiașu (1977, 2003), Purcaru (1978, 1988), Watanabe (1969) etc.), bazate pe conceptul de entropie Shannon (1948) definită ca măsură a cantității medii de informație (Guiașu (1968, 1971, 1973, 1977, 2003), Jaynes (1957), Mihoc (1976), Onicescu (1966), Preda (1992), Purcaru (1978, 1988, 2004), Rényi (1961), Watanabe (1969) etc.]. Pe lângă studiul gradului de dependență dintre componentele
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
o măsură cantitativă a dispersării unei populații (mulțimi, colectivități) de indivizi, după una sau mai multe categorii calitative sau cantitative diferite pe care le au toți indivizii populației. Până în prezent, cele mai frecvent folosite măsuri ale concentrării sau diversității sunt entropia lui Shannon (1948) și indicele lui Simpson (1949). Pe baza acestor două măsuri de referință în domeniu s-au introdus mulți alți indicatori cantitativi ai gradului de concentrare sau diversitate a unei populații statistice, ajungând în prezent la o junglă
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
diversității unui ecosistem [Guiașu (1968, 1977, 2003), Mihoc și Craiu (1976-1980), Purcaru (1988, 2004) etc.]. Având în vedere noțiunile de experiment probabilist sau statistic, vom introduce câțiva indicatori ai concentrării și diversității acestor tipuri de experimente, bazați pe conceptele de entropie Shannon (1948), diversitate Simpson (1949), entropie ponderată Guiașu (1971) sau diversitate ponderată Guiașu (2003), denumindu-i indicatori de tip Shannon-Simpson-Guiașu ai concentrării și diversității. Ținând cont de scopul studiului și de procedeul de analiză a concentrării sau diversității elementelor unei
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
2003), Mihoc și Craiu (1976-1980), Purcaru (1988, 2004) etc.]. Având în vedere noțiunile de experiment probabilist sau statistic, vom introduce câțiva indicatori ai concentrării și diversității acestor tipuri de experimente, bazați pe conceptele de entropie Shannon (1948), diversitate Simpson (1949), entropie ponderată Guiașu (1971) sau diversitate ponderată Guiașu (2003), denumindu-i indicatori de tip Shannon-Simpson-Guiașu ai concentrării și diversității. Ținând cont de scopul studiului și de procedeul de analiză a concentrării sau diversității elementelor unei mulțimi, putem distinge diferite clase de
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
rezultatelor care se pot obține! Concluziile la care se ajunge în practică se referă la un alt mod de grupare sau de împrăștiere care nu se mai compară cu un anumit reper numeric. 3) Indicatori neentropici. Indicatorii definiți fără ajutorul entropiei se numesc neentropici. 4) Indicatori neentropici. Indicatorii definiți cu ajutorul entropiei se numesc entropici 5) Indicatori statistici neponderați. Dacă vorbim despre indicatori statistici neponderați, atunci înțelegem faptul că, în determinarea acestora, rezultatele experimentului au aceeași importanță sau utilitate, în sensul că
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
în practică se referă la un alt mod de grupare sau de împrăștiere care nu se mai compară cu un anumit reper numeric. 3) Indicatori neentropici. Indicatorii definiți fără ajutorul entropiei se numesc neentropici. 4) Indicatori neentropici. Indicatorii definiți cu ajutorul entropiei se numesc entropici 5) Indicatori statistici neponderați. Dacă vorbim despre indicatori statistici neponderați, atunci înțelegem faptul că, în determinarea acestora, rezultatele experimentului au aceeași importanță sau utilitate, în sensul că nu considerăm sau nu admitem (pentru că nu avem niciun motiv
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
contextul pieței, s-ar putea numi indice de concentrare Gini-Simpson-Onicescu-Herfindahl Hirschmann sau IGSOHH (Indicele Gini-Simpson-Onicescu-HerfindahlHirschmann), o denumire care este mai aproape de numele autorilor indicelui de concentrare, dar ar fi destul de greoaie ca mod de scriere și de utilizare. 5.11. Entropia Shannon (1948) Precizări. Preocupat de cercetările sale de mecanică statistică, celebrul fizician austriac Ludwig Boltzmann (1844-1906) a introdus în 1876 o mărime interesantă și în același timp ciudată, denumită funcția H sau entropia statistică. El a definit-o ca valoarea
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
de scriere și de utilizare. 5.11. Entropia Shannon (1948) Precizări. Preocupat de cercetările sale de mecanică statistică, celebrul fizician austriac Ludwig Boltzmann (1844-1906) a introdus în 1876 o mărime interesantă și în același timp ciudată, denumită funcția H sau entropia statistică. El a definit-o ca valoarea medie a logaritmului densității de probabilitate (repartiție, distribuție) asociată moleculelor unui gaz a căror mișcare era aleatoare și a precizat că aceasta reprezintă cantitatea medie de incertitudine pe care o conține sistemul statistic
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
contribuție majoră la măsurarea dezordinii unei mulțimi de atomi. După aproape o jumătate de secol, într-un alt context, matematicianul și inginerul american Claude E. Shannon (1916-2001) a definit în anul 1948 o mărime discretă, printr-o frumoasă analogie cu entropia Boltzmann din cazul continuu, căreia i-a demonstrat proprietățile și pe care a considerat-o ca o măsură generală a cantității de incertitudine pe care o conține un experiment probabilist cu un număr finit de rezultate posibile. Ulterior, s-a
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
le-a făcut cunoscute apoi celebrului matematician și inginer american (evreu de origine maghiară) John von Neumann (1903-1957), cerându-i și părerea asupra denumirii acestei măsuri a cantității de informație. La sugestia lui von Neumann, Shannon i-a dat numele entropie prin analogie cu entropia lui Boltzmann. Dacă anul 1948 este socotit ca anul nașterii teoriei matematice a informației, iar Shanonn a fost considerat ca fondator al ei, anii care au urmat au dovedit un interes teoretic și practic deosebit pentru
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
apoi celebrului matematician și inginer american (evreu de origine maghiară) John von Neumann (1903-1957), cerându-i și părerea asupra denumirii acestei măsuri a cantității de informație. La sugestia lui von Neumann, Shannon i-a dat numele entropie prin analogie cu entropia lui Boltzmann. Dacă anul 1948 este socotit ca anul nașterii teoriei matematice a informației, iar Shanonn a fost considerat ca fondator al ei, anii care au urmat au dovedit un interes teoretic și practic deosebit pentru aceasta și au condus
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
a fost considerat ca fondator al ei, anii care au urmat au dovedit un interes teoretic și practic deosebit pentru aceasta și au condus la o adevărată explozie de rezultate dintre cele mai diverse și neașteptate, bazate pe conceptul de entropie Shannon, care au deschis calea apariției și dezvoltării unor teorii noi precum: teoria codurilor, teoria deciziilor, teoria jocurilor, teoria recunoașterii, teoria diversității etc. Notă. O contribuție de seamă la dezvoltarea domeniului teoriei matematice a informației a avut profesorul Silviu Guiașu
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
fondat-o în anii 1968-1980 și a condus-o cu multă măiestrie mai bine de un deceniu, până în anul 1981, când a plecat în Canada, desfășurând și acolo o activitate remarcabilă, la York University din Toronto). Ca o generalizare a entropiei Shannon (1948), Silviu Guiașu a introdus în anul 1968 conceptul remarcabil de entropie ponderată, asociind fiecărui rezultat al unui experiment și implicit cantității de informație sau de incertitudine pe care acesta o conține, o anumită pondere cu semnificații diverse. Observație
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
bine de un deceniu, până în anul 1981, când a plecat în Canada, desfășurând și acolo o activitate remarcabilă, la York University din Toronto). Ca o generalizare a entropiei Shannon (1948), Silviu Guiașu a introdus în anul 1968 conceptul remarcabil de entropie ponderată, asociind fiecărui rezultat al unui experiment și implicit cantității de informație sau de incertitudine pe care acesta o conține, o anumită pondere cu semnificații diverse. Observație. Din relațiile (5.61)-(5.62) constatăm că, redundanța și incertitudinea variază în
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
anumiți indicatori statistici ai concentrării sau ai diversității, dar nu sunt însă relevante din punct de vedere decizional, întrucât numărul de date utilizate (avem numai trei componente ale sistemului de asigurări considerat) în acest exemplu este foarte mic! 6.3. Entropia ponderată Guiașu (1971) Precizare. Așa cum menționam în paragraful 5.11, anul 1948 a fost socotit anul nașterii teoriei informației, iar Claude E. Shannon a fost considerat pe bună dreptate ca fondator al acestei noi teorii matematice. Anii care au urmat
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
noi teorii matematice. Anii care au urmat au demonstrat un interes deosebit pentru teoria informației și pentru numeroasele sale aplicații în diferite domenii și au condus la o adevărată explozie de idei și rezultate dintre cele mai diverse bazate pe entropia Shannon, deschizând calea apariției și dezvoltării unor noi teorii (teoria clasificării, teoria codurilor, teoria deciziilor, teoria jocurilor, teoria recunoașterii etc.), cu multiple și diverse aplicații în tehnică, ecologie, economie și științe sociale. Propunând o generalizare a entropiei lui Shannon (1948
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
diverse bazate pe entropia Shannon, deschizând calea apariției și dezvoltării unor noi teorii (teoria clasificării, teoria codurilor, teoria deciziilor, teoria jocurilor, teoria recunoașterii etc.), cu multiple și diverse aplicații în tehnică, ecologie, economie și științe sociale. Propunând o generalizare a entropiei lui Shannon (1948), Silviu Guiașu a introdus în anul 1971 conceptul remarcabil de entropie ponderată, asociind fiecărui rezultat al unui experiment și implicit probabilității sale de apariție o anumită pondere cu diferite semnificații practice [Guiașu (1971,1977)]. Ca un omagiu
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
clasificării, teoria codurilor, teoria deciziilor, teoria jocurilor, teoria recunoașterii etc.), cu multiple și diverse aplicații în tehnică, ecologie, economie și științe sociale. Propunând o generalizare a entropiei lui Shannon (1948), Silviu Guiașu a introdus în anul 1971 conceptul remarcabil de entropie ponderată, asociind fiecărui rezultat al unui experiment și implicit probabilității sale de apariție o anumită pondere cu diferite semnificații practice [Guiașu (1971,1977)]. Ca un omagiu adus dascălului nostru Silviu Guiașu pentru contribuția sa la dezvoltarea teoriei matematice a informației
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
pondere cu diferite semnificații practice [Guiașu (1971,1977)]. Ca un omagiu adus dascălului nostru Silviu Guiașu pentru contribuția sa la dezvoltarea teoriei matematice a informației, vom asocia numele Guiașu și vom folosi simbolul G, adică vom scrie pentru noțiunea de entropia ponderată pe care acesta a introdus-o. Observație. Ca și în cazul măsurilor neponderate ale diversității, relațiile (6.25) și (6.26) sunt foarte importante atât teoretic, cât și practic, deoarece justifică posibilitatea utilizării entropiei ponderate ca măsură a diversității
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
vom scrie pentru noțiunea de entropia ponderată pe care acesta a introdus-o. Observație. Ca și în cazul măsurilor neponderate ale diversității, relațiile (6.25) și (6.26) sunt foarte importante atât teoretic, cât și practic, deoarece justifică posibilitatea utilizării entropiei ponderate ca măsură a diversității ponderate. Logaritmii care apar în expresia de calcul al entropiei implică faptul că utilizarea unei astfel de măsuri în practică este destul de incomodă în general, dar nu este imposibilă, întrucât chiar și un calculator de
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]