1,634 matches
-
atâția ani!). Ar fi și prea puțin pentru o știință și prea mult pentru o critică a ei! După cum nu ne putem lipsi de o altă nuanțare, legată de trecerile de nivel când ar trebui să le asociem cu legea entropiei din termodinamică: dacă sensul nivelului convecției este „în sus” sfidez natura? Soluția la dileme nu se poate da nici în varianta metateoretică, care ne sugerează să ieșim din dilemă printr-o conceptualizare a unei sfidări logice de tipul înțelegerii că
ECONOMIA DE DICȚIONAR - Exerciții de îndemânare epistemicã by Marin Dinu () [Corola-publishinghouse/Science/224_a_281]
-
a cădea oricând de pe creanga cea mai înaltă și fragilă a arborelui abstracțiunii în picioare pe suprafața contondentă și accidentată a realității. Înapoi la uneltele specifice și la proba faptelor! Obsesia Economiei de a conceptualiza până la regularitatea legilor naturale - a entropiei, între altele - este fascinantă din punctul de vedere al entuziasmului participării la elaborarea teoriei generale (sau unificată) a universului, dar ar trebui să-și aducă propria contribuție la decelarea universului, cu uneltele și ritualurile specifice. Blestemul primar al furtului ideii
ECONOMIA DE DICȚIONAR - Exerciții de îndemânare epistemicã by Marin Dinu () [Corola-publishinghouse/Science/224_a_281]
-
of Being” (Abraham Maslow, 1968Ă și „Man into Superman” (Robert Ettinger, 1972Ă, noțiunea marcând trecerea la postumanitate prin adoptarea de noi tehnologii, de stiluri de viață și de perspective culturale. Conceptul de transuman este asociat adesea conceptului de extropie (antonimul entropiei sau al tendinței naturale a lucrurilor de a se degenera și de a muriă, așa cum este formulat în cadrul Extropy World Institute. Acest institut transuman a fost creat în 1991, sub conducerea lui Max More și prefigurat în revista Extropy înființată
[Corola-publishinghouse/Science/1913_a_3238]
-
metric tranzitiv) este dat de modelul lui Bernoulli, care, în cea mai simplă formă, este rezultatul statistic al aruncării cu banul. Începând de prin 1960, Kolmogorov și câțiva dintre studenții săi, în special Jakov Sinai, au generalizat conceptul fizic al entropiei într-un mod subtil pentru a servi ca instrument matematic în studierea transformării sistemelor probabilistice. Dezvoltarea teoriei ergodice în această nouă și sofisticată formă a creat instrumentele pentru o analiză mult mai adâncă a comportamentului statistic al sistemelor mecanice. Într-
by VIOREL BARBU [Corola-publishinghouse/Science/1112_a_2620]
-
milenii în urmă însemna să- ți treci pe frunte, dimineața, gheara de urs, împreună cu fiii Marii Ursoaice, s-o săruți și s-o pui la loc în punguța de la brâu pentru ca lumea să se țină încă o zi, să reziste entropiei universale. În afară de catolică, universalistă, propaganda este și totalitară. Marile totalitarisme - fascismul, nazismul, - au folosit propaganda ca pe o superarmă, fapt care ocultează natura totalitară a propagandei înseși, indiferent de utilizator. În propagandă, orice relativizare este interzisă, orice acceptare rațională a
Filmul surd în România mută: politică și propagandă în filmul românesc de ficţiune (1912‑1989) by Cristian Tudor Popescu () [Corola-publishinghouse/Science/599_a_1324]
-
a concentrației fazei disperse în volumul întregului sistem coloidal, dacă forțele externe, cum ar fi cea gravitațională pot fi neglijate. Sub aspect fundamental, distribuția uniformă a materiei în condiții de echilibru, este dictată de al doilea principiu al termodinamicii, deoarece entropia este maximă când moleculele sunt dispuse „haotic” în întreg spațiul disponibil. Din punct de vedere microscopic procesului de difuzie îi corespunde așa numita mișcare browniană. Cauza difuziei ca și mișcării browniwene este agitația termică dezordonată a moleculelor mediului de dispersie
Chimia fizică teoretică şi aplicativă a sistemelor disperse şi a fenomenelor de tranSport by Elena Ungureanu, Alina Trofin () [Corola-publishinghouse/Science/725_a_1319]
-
de apli-care, importanța atribuită etc. și, de aceea, ele pot caracteriza creațiile puternic individualizate și le conferă anumite trăsături. Din acest motiv, și atunci cînd sînt receptate, sentimentele și gîndirile devin tributare aptitudinilor și efortului de primire al receptorului, precum și entropiei comunicării, și, în acest caz, receptarea devine la rîndul ei particularizată și diversificată. De data aceasta însă, nu mai este o consecință a caracterului de construcție marcată individual a filozofiei sau a poeziei, ci a manierei umane de recepționare a
Elemente de filozofia limbii by Ioan Oprea [Corola-publishinghouse/Science/1424_a_2666]
-
al acestuia (situații specifice coalițiilor, care sunt interesante și utile, dar destul de greu de evaluat în practică). Studiul independenței (dependenței) probabiliste globale sau parțiale poate fi realizat uneori destul de riguros și cu ajutorul unor indicatori statistici sau informaționali cum ar fi entropia și unele mărimi bazate pe aceasta (indicatori entropici ai dependenței probabiliste) utilizabili cu mult succes în probleme de organizare a sistemelor cu structuri probabiliste discrete [Guiașu (1968, 1977, 2003), Purcaru (1988, 2004) etc.)]. Dacă distribuția de probabilitate comună este cunoscută
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
Pe această linie, s-au obținut câteva rezultate remarcabile cu privire la măsurarea entropică a dependenței, a interdependenței și a organizării componentelor unui sistem probabilist sau cu evoluție statistică [Guiașu (1977, 2003), Purcaru (1978, 1988), Watanabe (1969) etc.), bazate pe conceptul de entropie Shannon (1948) definită ca măsură a cantității medii de informație (Guiașu (1968, 1971, 1973, 1977, 2003), Jaynes (1957), Mihoc (1976), Onicescu (1966), Preda (1992), Purcaru (1978, 1988, 2004), Rényi (1961), Watanabe (1969) etc.]. Pe lângă studiul gradului de dependență dintre componentele
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
o măsură cantitativă a dispersării unei populații (mulțimi, colectivități) de indivizi, după una sau mai multe categorii calitative sau cantitative diferite pe care le au toți indivizii populației. Până în prezent, cele mai frecvent folosite măsuri ale concentrării sau diversității sunt entropia lui Shannon (1948) și indicele lui Simpson (1949). Pe baza acestor două măsuri de referință în domeniu s-au introdus mulți alți indicatori cantitativi ai gradului de concentrare sau diversitate a unei populații statistice, ajungând în prezent la o junglă
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
diversității unui ecosistem [Guiașu (1968, 1977, 2003), Mihoc și Craiu (1976-1980), Purcaru (1988, 2004) etc.]. Având în vedere noțiunile de experiment probabilist sau statistic, vom introduce câțiva indicatori ai concentrării și diversității acestor tipuri de experimente, bazați pe conceptele de entropie Shannon (1948), diversitate Simpson (1949), entropie ponderată Guiașu (1971) sau diversitate ponderată Guiașu (2003), denumindu-i indicatori de tip Shannon-Simpson-Guiașu ai concentrării și diversității. Ținând cont de scopul studiului și de procedeul de analiză a concentrării sau diversității elementelor unei
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
2003), Mihoc și Craiu (1976-1980), Purcaru (1988, 2004) etc.]. Având în vedere noțiunile de experiment probabilist sau statistic, vom introduce câțiva indicatori ai concentrării și diversității acestor tipuri de experimente, bazați pe conceptele de entropie Shannon (1948), diversitate Simpson (1949), entropie ponderată Guiașu (1971) sau diversitate ponderată Guiașu (2003), denumindu-i indicatori de tip Shannon-Simpson-Guiașu ai concentrării și diversității. Ținând cont de scopul studiului și de procedeul de analiză a concentrării sau diversității elementelor unei mulțimi, putem distinge diferite clase de
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
rezultatelor care se pot obține! Concluziile la care se ajunge în practică se referă la un alt mod de grupare sau de împrăștiere care nu se mai compară cu un anumit reper numeric. 3) Indicatori neentropici. Indicatorii definiți fără ajutorul entropiei se numesc neentropici. 4) Indicatori neentropici. Indicatorii definiți cu ajutorul entropiei se numesc entropici 5) Indicatori statistici neponderați. Dacă vorbim despre indicatori statistici neponderați, atunci înțelegem faptul că, în determinarea acestora, rezultatele experimentului au aceeași importanță sau utilitate, în sensul că
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
în practică se referă la un alt mod de grupare sau de împrăștiere care nu se mai compară cu un anumit reper numeric. 3) Indicatori neentropici. Indicatorii definiți fără ajutorul entropiei se numesc neentropici. 4) Indicatori neentropici. Indicatorii definiți cu ajutorul entropiei se numesc entropici 5) Indicatori statistici neponderați. Dacă vorbim despre indicatori statistici neponderați, atunci înțelegem faptul că, în determinarea acestora, rezultatele experimentului au aceeași importanță sau utilitate, în sensul că nu considerăm sau nu admitem (pentru că nu avem niciun motiv
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
contextul pieței, s-ar putea numi indice de concentrare Gini-Simpson-Onicescu-Herfindahl Hirschmann sau IGSOHH (Indicele Gini-Simpson-Onicescu-HerfindahlHirschmann), o denumire care este mai aproape de numele autorilor indicelui de concentrare, dar ar fi destul de greoaie ca mod de scriere și de utilizare. 5.11. Entropia Shannon (1948) Precizări. Preocupat de cercetările sale de mecanică statistică, celebrul fizician austriac Ludwig Boltzmann (1844-1906) a introdus în 1876 o mărime interesantă și în același timp ciudată, denumită funcția H sau entropia statistică. El a definit-o ca valoarea
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
de scriere și de utilizare. 5.11. Entropia Shannon (1948) Precizări. Preocupat de cercetările sale de mecanică statistică, celebrul fizician austriac Ludwig Boltzmann (1844-1906) a introdus în 1876 o mărime interesantă și în același timp ciudată, denumită funcția H sau entropia statistică. El a definit-o ca valoarea medie a logaritmului densității de probabilitate (repartiție, distribuție) asociată moleculelor unui gaz a căror mișcare era aleatoare și a precizat că aceasta reprezintă cantitatea medie de incertitudine pe care o conține sistemul statistic
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
contribuție majoră la măsurarea dezordinii unei mulțimi de atomi. După aproape o jumătate de secol, într-un alt context, matematicianul și inginerul american Claude E. Shannon (1916-2001) a definit în anul 1948 o mărime discretă, printr-o frumoasă analogie cu entropia Boltzmann din cazul continuu, căreia i-a demonstrat proprietățile și pe care a considerat-o ca o măsură generală a cantității de incertitudine pe care o conține un experiment probabilist cu un număr finit de rezultate posibile. Ulterior, s-a
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
le-a făcut cunoscute apoi celebrului matematician și inginer american (evreu de origine maghiară) John von Neumann (1903-1957), cerându-i și părerea asupra denumirii acestei măsuri a cantității de informație. La sugestia lui von Neumann, Shannon i-a dat numele entropie prin analogie cu entropia lui Boltzmann. Dacă anul 1948 este socotit ca anul nașterii teoriei matematice a informației, iar Shanonn a fost considerat ca fondator al ei, anii care au urmat au dovedit un interes teoretic și practic deosebit pentru
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
apoi celebrului matematician și inginer american (evreu de origine maghiară) John von Neumann (1903-1957), cerându-i și părerea asupra denumirii acestei măsuri a cantității de informație. La sugestia lui von Neumann, Shannon i-a dat numele entropie prin analogie cu entropia lui Boltzmann. Dacă anul 1948 este socotit ca anul nașterii teoriei matematice a informației, iar Shanonn a fost considerat ca fondator al ei, anii care au urmat au dovedit un interes teoretic și practic deosebit pentru aceasta și au condus
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
a fost considerat ca fondator al ei, anii care au urmat au dovedit un interes teoretic și practic deosebit pentru aceasta și au condus la o adevărată explozie de rezultate dintre cele mai diverse și neașteptate, bazate pe conceptul de entropie Shannon, care au deschis calea apariției și dezvoltării unor teorii noi precum: teoria codurilor, teoria deciziilor, teoria jocurilor, teoria recunoașterii, teoria diversității etc. Notă. O contribuție de seamă la dezvoltarea domeniului teoriei matematice a informației a avut profesorul Silviu Guiașu
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
fondat-o în anii 1968-1980 și a condus-o cu multă măiestrie mai bine de un deceniu, până în anul 1981, când a plecat în Canada, desfășurând și acolo o activitate remarcabilă, la York University din Toronto). Ca o generalizare a entropiei Shannon (1948), Silviu Guiașu a introdus în anul 1968 conceptul remarcabil de entropie ponderată, asociind fiecărui rezultat al unui experiment și implicit cantității de informație sau de incertitudine pe care acesta o conține, o anumită pondere cu semnificații diverse. Observație
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
bine de un deceniu, până în anul 1981, când a plecat în Canada, desfășurând și acolo o activitate remarcabilă, la York University din Toronto). Ca o generalizare a entropiei Shannon (1948), Silviu Guiașu a introdus în anul 1968 conceptul remarcabil de entropie ponderată, asociind fiecărui rezultat al unui experiment și implicit cantității de informație sau de incertitudine pe care acesta o conține, o anumită pondere cu semnificații diverse. Observație. Din relațiile (5.61)-(5.62) constatăm că, redundanța și incertitudinea variază în
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
anumiți indicatori statistici ai concentrării sau ai diversității, dar nu sunt însă relevante din punct de vedere decizional, întrucât numărul de date utilizate (avem numai trei componente ale sistemului de asigurări considerat) în acest exemplu este foarte mic! 6.3. Entropia ponderată Guiașu (1971) Precizare. Așa cum menționam în paragraful 5.11, anul 1948 a fost socotit anul nașterii teoriei informației, iar Claude E. Shannon a fost considerat pe bună dreptate ca fondator al acestei noi teorii matematice. Anii care au urmat
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
noi teorii matematice. Anii care au urmat au demonstrat un interes deosebit pentru teoria informației și pentru numeroasele sale aplicații în diferite domenii și au condus la o adevărată explozie de idei și rezultate dintre cele mai diverse bazate pe entropia Shannon, deschizând calea apariției și dezvoltării unor noi teorii (teoria clasificării, teoria codurilor, teoria deciziilor, teoria jocurilor, teoria recunoașterii etc.), cu multiple și diverse aplicații în tehnică, ecologie, economie și științe sociale. Propunând o generalizare a entropiei lui Shannon (1948
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
diverse bazate pe entropia Shannon, deschizând calea apariției și dezvoltării unor noi teorii (teoria clasificării, teoria codurilor, teoria deciziilor, teoria jocurilor, teoria recunoașterii etc.), cu multiple și diverse aplicații în tehnică, ecologie, economie și științe sociale. Propunând o generalizare a entropiei lui Shannon (1948), Silviu Guiașu a introdus în anul 1971 conceptul remarcabil de entropie ponderată, asociind fiecărui rezultat al unui experiment și implicit probabilității sale de apariție o anumită pondere cu diferite semnificații practice [Guiașu (1971,1977)]. Ca un omagiu
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]