1,634 matches
-
clasificării, teoria codurilor, teoria deciziilor, teoria jocurilor, teoria recunoașterii etc.), cu multiple și diverse aplicații în tehnică, ecologie, economie și științe sociale. Propunând o generalizare a entropiei lui Shannon (1948), Silviu Guiașu a introdus în anul 1971 conceptul remarcabil de entropie ponderată, asociind fiecărui rezultat al unui experiment și implicit probabilității sale de apariție o anumită pondere cu diferite semnificații practice [Guiașu (1971,1977)]. Ca un omagiu adus dascălului nostru Silviu Guiașu pentru contribuția sa la dezvoltarea teoriei matematice a informației
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
pondere cu diferite semnificații practice [Guiașu (1971,1977)]. Ca un omagiu adus dascălului nostru Silviu Guiașu pentru contribuția sa la dezvoltarea teoriei matematice a informației, vom asocia numele Guiașu și vom folosi simbolul G, adică vom scrie pentru noțiunea de entropia ponderată pe care acesta a introdus-o. Observație. Ca și în cazul măsurilor neponderate ale diversității, relațiile (6.25) și (6.26) sunt foarte importante atât teoretic, cât și practic, deoarece justifică posibilitatea utilizării entropiei ponderate ca măsură a diversității
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
vom scrie pentru noțiunea de entropia ponderată pe care acesta a introdus-o. Observație. Ca și în cazul măsurilor neponderate ale diversității, relațiile (6.25) și (6.26) sunt foarte importante atât teoretic, cât și practic, deoarece justifică posibilitatea utilizării entropiei ponderate ca măsură a diversității ponderate. Logaritmii care apar în expresia de calcul al entropiei implică faptul că utilizarea unei astfel de măsuri în practică este destul de incomodă în general, dar nu este imposibilă, întrucât chiar și un calculator de
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
și în cazul măsurilor neponderate ale diversității, relațiile (6.25) și (6.26) sunt foarte importante atât teoretic, cât și practic, deoarece justifică posibilitatea utilizării entropiei ponderate ca măsură a diversității ponderate. Logaritmii care apar în expresia de calcul al entropiei implică faptul că utilizarea unei astfel de măsuri în practică este destul de incomodă în general, dar nu este imposibilă, întrucât chiar și un calculator de buzunar se poate dovedi suficient pentru calculele aferente unei probleme de analiză statistică de mici
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
care corespund ecosistemului considerat, indicele de concentrare Simpson C(p), dat de relația (5.4), indicele de diversitate Simpson D(p), dat de relația (5.14), indicele de certitudine absolută al lui Guiașu CG(p), dat de relația (5.65), entropia Shannon H(p), dată de relația (5.53), indicele de diversitate ponderată Guiașu D(p;u), dat de relația (6.11), entropia ponderată Guiașu G(p;u), dată de relația (6.15), și indicele de certitudine absolută ponderată CG(p
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
de relația (5.14), indicele de certitudine absolută al lui Guiașu CG(p), dat de relația (5.65), entropia Shannon H(p), dată de relația (5.53), indicele de diversitate ponderată Guiașu D(p;u), dat de relația (6.11), entropia ponderată Guiașu G(p;u), dată de relația (6.15), și indicele de certitudine absolută ponderată CG(p;u), dat de relația (6.27), se obțin fără dificultate și au valorile numerice din tabelul 6.5 (calculele rotunjite utilizând acum
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
6 care corespund ecosistemului considerat, calculând indicele de concentrare Simpson C(p), dat de relația (5.4), indicele de diversitate Simpson D(p), dat de relația (5.14), indicele de certitudine absolută Guiașu CG(p), dat de relația (5.65), entropia Shannon H(p), dată de relația (5.53), indicele de diversitate ponderată Guiașu D(p;u), dat de relația (6.11), entropia ponderată Guiașu G(p;u), dată de relația (6.15) și indicele de certitudine absolută ponderată CG(p
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
p), dat de relația (5.14), indicele de certitudine absolută Guiașu CG(p), dat de relația (5.65), entropia Shannon H(p), dată de relația (5.53), indicele de diversitate ponderată Guiașu D(p;u), dat de relația (6.11), entropia ponderată Guiașu G(p;u), dată de relația (6.15) și indicele de certitudine absolută ponderată CG(p;u), dat de relația (6.27), vom obține valorile lor din tabelul 6.7 (utilizând logaritmii naturali). Observații. Din tabelul 6.7
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
indicatorii concentrării și diversității prezentați în capitolele 5-6, precum și noțiunile de experiment probabilist multidimensional (multiplu) comun și experiment probabilist multidimensional (multiplu) condiționat, vom introduce câțiva indicatori ai concentrării și diversității acestor tipuri de experimente probabiliste (statistice) bazați pe conceptele de entropie Shannon (1948), diversitate Simpson (1949), entropie ponderată Guiașu (1971) sau diversitate ponderată Guiașu (2003) pe care îi vom denumi indicatori de tip Shannon-Simpson-Guiașu ai concentrării și diversității. Indicatorii bazați pe entropie se numesc entropici, iar ceilalți se numesc neentropici, fiecare
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
capitolele 5-6, precum și noțiunile de experiment probabilist multidimensional (multiplu) comun și experiment probabilist multidimensional (multiplu) condiționat, vom introduce câțiva indicatori ai concentrării și diversității acestor tipuri de experimente probabiliste (statistice) bazați pe conceptele de entropie Shannon (1948), diversitate Simpson (1949), entropie ponderată Guiașu (1971) sau diversitate ponderată Guiașu (2003) pe care îi vom denumi indicatori de tip Shannon-Simpson-Guiașu ai concentrării și diversității. Indicatorii bazați pe entropie se numesc entropici, iar ceilalți se numesc neentropici, fiecare dintre ei putând să fie indicatori
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
tipuri de experimente probabiliste (statistice) bazați pe conceptele de entropie Shannon (1948), diversitate Simpson (1949), entropie ponderată Guiașu (1971) sau diversitate ponderată Guiașu (2003) pe care îi vom denumi indicatori de tip Shannon-Simpson-Guiașu ai concentrării și diversității. Indicatorii bazați pe entropie se numesc entropici, iar ceilalți se numesc neentropici, fiecare dintre ei putând să fie indicatori ponderați sau neponderați. În acest context, putem întâlni indicatori ai concentrării sau diversității directe (sau necondiționate) simple (când analiza este făcută după un singur criteriu
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
putând fi definit procentual prin raportul dintre informația unei părți și informația cuplului, ceea ce rezultă din relațiile (8.50.2) și (8.50.3) împărțite termen cu termen prin ),( YXH ]. Observații. Relațiile (8.51) și (8.52) justifică posibilitatea utilizării entropiei Shannon ca măsură a diversității (logaritmii din expresia entropiei fac utilizarea puțin cam incomodă). Cu aproximările de tipul (8.52) pentru entropiile și diversitățile experimentului (X,Y), se poate transcrie forțat relația (8.50.3) pentru gradul de diversitate a
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
părți și informația cuplului, ceea ce rezultă din relațiile (8.50.2) și (8.50.3) împărțite termen cu termen prin ),( YXH ]. Observații. Relațiile (8.51) și (8.52) justifică posibilitatea utilizării entropiei Shannon ca măsură a diversității (logaritmii din expresia entropiei fac utilizarea puțin cam incomodă). Cu aproximările de tipul (8.52) pentru entropiile și diversitățile experimentului (X,Y), se poate transcrie forțat relația (8.50.3) pentru gradul de diversitate a experimentelor, precizând că o astfel de relație nu apare
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
50.3) împărțite termen cu termen prin ),( YXH ]. Observații. Relațiile (8.51) și (8.52) justifică posibilitatea utilizării entropiei Shannon ca măsură a diversității (logaritmii din expresia entropiei fac utilizarea puțin cam incomodă). Cu aproximările de tipul (8.52) pentru entropiile și diversitățile experimentului (X,Y), se poate transcrie forțat relația (8.50.3) pentru gradul de diversitate a experimentelor, precizând că o astfel de relație nu apare direct din definiția și proprietățile diversității așa cum sunt cele date de relații de
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
gradelor de diversitate proprii și inferior sumei gradelor de diversitate totale ale componentelor cuplului [fiind vorba despre cuplul de experimente aleatoare (X ,Y) și de componentele sale X și Y luate ca experimente marginale ale cuplului], care numai prin prisma entropiei nu este forțată! Observații. Am scris coeficienții de mai sus în detaliu pentru fiecare caz în parte pentru a fi mai bine înțeleși de cei care îi aplică în practică. Coeficienții de concentrare (8.63), (8.67) și (8.71
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
care sunt date în tabelul 8.35, fără detalierea calculelor. Din tabelul 8.35, comparând ponderarea cu neponderarea, ca stări ale experimentului, constatăm influența ponderării asupra valorilor indicatorilor calculați. Mai remarcăm că indicele diversității Simpson-Guiașu este strict mai mic decât entropia Shannon-Guiașu, indiferent de starea de ponderare sau neponderare a rezultatelor, ceea ce ilustrează că aproximarea indicelui de diversitate Simpson-Guiașu prin entropia ShannonGuiașu este relativ forțată, dar acest rezultat nu împiedică utilizarea entropiei ca măsură a diversității. În tabelul 8.35 mai
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
ale experimentului, constatăm influența ponderării asupra valorilor indicatorilor calculați. Mai remarcăm că indicele diversității Simpson-Guiașu este strict mai mic decât entropia Shannon-Guiașu, indiferent de starea de ponderare sau neponderare a rezultatelor, ceea ce ilustrează că aproximarea indicelui de diversitate Simpson-Guiașu prin entropia ShannonGuiașu este relativ forțată, dar acest rezultat nu împiedică utilizarea entropiei ca măsură a diversității. În tabelul 8.35 mai sunt menționate, dar numai cu scop comparativ, și intervalele valorice posibile (valorile minime și valorile maxime), pentru fiecare indicator considerat
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
că indicele diversității Simpson-Guiașu este strict mai mic decât entropia Shannon-Guiașu, indiferent de starea de ponderare sau neponderare a rezultatelor, ceea ce ilustrează că aproximarea indicelui de diversitate Simpson-Guiașu prin entropia ShannonGuiașu este relativ forțată, dar acest rezultat nu împiedică utilizarea entropiei ca măsură a diversității. În tabelul 8.35 mai sunt menționate, dar numai cu scop comparativ, și intervalele valorice posibile (valorile minime și valorile maxime), pentru fiecare indicator considerat, având o idee despre mărimea gradului de concentrare sau de diversitate
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
care se obțin. Aceste afirmații sunt deja ilustrate în prezentarea rezultatelor referitoare la experimentele bidimensionale și tridimensionale, în mod deosebit în cazul ponderării rezultatelor. Fără să dăm demonstrația cuvenită, analog rezultatelor prezentate în cazurile anterioare, vom formula următoarele relații dintre entropie și diversitate în cazul multidimensional ale căror semnificații sunt evidente. Ca și în cazul experimentelor bidimensionale sau tridimensionale prezentate deja mai sus, se pot introduce și entropiile condiționate cu semnificații specifice în probleme de comunicare sau de măsurare a diversității
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
demonstrația cuvenită, analog rezultatelor prezentate în cazurile anterioare, vom formula următoarele relații dintre entropie și diversitate în cazul multidimensional ale căror semnificații sunt evidente. Ca și în cazul experimentelor bidimensionale sau tridimensionale prezentate deja mai sus, se pot introduce și entropiile condiționate cu semnificații specifice în probleme de comunicare sau de măsurare a diversității unor ecosisteme sau unor sisteme arbitrare. Formal, rezultatele prezentate pentru experimentele bidimensionale sau tridimensionale pot fi reluate cu prudență și în cazul unor experimente multiple cu partiții
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
înțeles. 9.1.2. Principiul Informației Maxime al lui Jaynes (1957) Teoria matematică a informației s-a conturat mai târziu cu peste un secol decât Principiul Rațiunii Insuficiente al lui Laplace, actul de naștere al acestei teorii fiind dat de entropia Shannon (1948), definită ca măsură a cantității medii de informație asociată unui experiment statistic (probabilist). Într-un astfel de context probabilist, Jaynes a formulat Principiul Informației Maxime, conform căruia: „dintre toate distribuțiile compatibile cu un număr de condiții impuse, se
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
formulat Principiul Informației Maxime, conform căruia: „dintre toate distribuțiile compatibile cu un număr de condiții impuse, se va alege aceea care maximizează cantitatea medie de informație asociată experimentului studiat”. Altfel spus, cea mai bună distribuție posibilă era aceea care maximiza entropia Shannon (pe vremea aceea cea mai cunoscută măsură a informației!). Introducând conceptul de entropie ponderată în anul 1971, Silviu Guiașu a extins entropia Shannon, definind cantitatea medie de informație utilă asociată unui experiment statistic și cu această ocazie a reformulat
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
condiții impuse, se va alege aceea care maximizează cantitatea medie de informație asociată experimentului studiat”. Altfel spus, cea mai bună distribuție posibilă era aceea care maximiza entropia Shannon (pe vremea aceea cea mai cunoscută măsură a informației!). Introducând conceptul de entropie ponderată în anul 1971, Silviu Guiașu a extins entropia Shannon, definind cantitatea medie de informație utilă asociată unui experiment statistic și cu această ocazie a reformulat Principiul Informației Maxime al lui Jaynes în sensul entropiei ponderate, astfel că: „dintre toate
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
medie de informație asociată experimentului studiat”. Altfel spus, cea mai bună distribuție posibilă era aceea care maximiza entropia Shannon (pe vremea aceea cea mai cunoscută măsură a informației!). Introducând conceptul de entropie ponderată în anul 1971, Silviu Guiașu a extins entropia Shannon, definind cantitatea medie de informație utilă asociată unui experiment statistic și cu această ocazie a reformulat Principiul Informației Maxime al lui Jaynes în sensul entropiei ponderate, astfel că: „dintre toate distribuțiile compatibile cu un număr de condiții impuse, se
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
a informației!). Introducând conceptul de entropie ponderată în anul 1971, Silviu Guiașu a extins entropia Shannon, definind cantitatea medie de informație utilă asociată unui experiment statistic și cu această ocazie a reformulat Principiul Informației Maxime al lui Jaynes în sensul entropiei ponderate, astfel că: „dintre toate distribuțiile compatibile cu un număr de condiții impuse, se va alege aceea care maximizează cantitatea medie de informație utilă asociată experimentului studiat”. 9.1.3. Principiul Diversității Maxime al lui Guiașu (2003) Dincolo de rezultatele deosebite
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]