1,638 matches
-
maximizează indicele diversității, oricare ar fi expresia de calcul al acestuia, constatând că dacă indicele diversității este definit cu ajutorul entropiei, atunci Principiul Diversității Maxime devine Principiul Informației Maxime. Maxime au ca obiectiv maximizarea gradului de diversitate exprimat analitic printr-o entropie sau printr-un indice de diversitate, distribuția căutată trebuind să fie compatibilă cu un număr de condiții bine definite cu ajutorul unor valori medii (de regulă, dar nu obligatoriu) care sunt asociate experimentului. Dacă se consideră un indicator economic oarecare asociat
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
problemă concretă care ilustrează Principiul Diversificării Optime prezentat mai precis și sub următoarea formă explicită: distribuții, structuri sau structurări optime ale componentelor unui ecosistem sau sistem bine precizat cu grad de diversitate maxim sau cu grad de concentrare minim. Precizare. Entropia poate să apară în oricare dintre problemele de optimizare amintite. Deoarece prezența logaritmilor în expresia entropiei induce un anumit grad de dificultate calculatorie, pentru rezolvarea problemelor Principiului Diversificării Optime vom utiliza cu precădere, în diferite situații, indicatorii neentropici ai concentrării
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
structuri sau structurări optime ale componentelor unui ecosistem sau sistem bine precizat cu grad de diversitate maxim sau cu grad de concentrare minim. Precizare. Entropia poate să apară în oricare dintre problemele de optimizare amintite. Deoarece prezența logaritmilor în expresia entropiei induce un anumit grad de dificultate calculatorie, pentru rezolvarea problemelor Principiului Diversificării Optime vom utiliza cu precădere, în diferite situații, indicatorii neentropici ai concentrării sau ai diversității. Alocări optime de acest fel ar putea fi întâlnite și utilizate în cazul
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
considerat sau despre restructurarea sau rearanjarea elementelor sale având în vedere și conceptele de concentrare sau diversitate în anumite ipostaze. Constatăm că Principiul Informației Maxime și Principiul Diversității Maxime au ca scop maximizarea gradului de diversitate exprimat analitic printr-o entropie sau printr-un indice de diversitate, distribuția căutată trebuind să fie compatibilă cu un număr de condiții bine definite cu ajutorul unor valori medii (de regulă, dar nu obligatoriu) asociate experimentului. Dacă se consideră un anumit indicator economic asociat experimentului a
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
253, 750-752 [023] Fady, B., Médail, F. (2006). Peut-on préserver la biodiversité? Le Pommier, Paris [024] Gaston, K.J., Spicer, I.J. (2004). Biodiversity: an Introduction. Blackwell, Oxford [025] Georgescu-Roegen, N. (1966). Analytical economics. Harvard University Press [026] Georgescu-Roegen, N. (1973). Legea entropiei și procesul economic. Editura Politică, București [027] Gibbs, J.P., Martin, W.T. (1962). Urbanization, technology and the diversity of labor. American Sociology Review, 27 [028] Gini, C. (1912). Variabilità e mutabilità. Studi Economico-Giuridici della Facoltà di Giurisprudenza dell’Università di
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
și Enciclopedică București [109] Purcaru, I. (1989). Note sur la mesure de l’information. Bulletin Mathématique, 2, 137-139 [110] Purcaru, I. (1990). Sur un estimateur entropique d’une variable aléatoire. Studii și cercetări matematice, 5-6, 465-469 [111] Purcaru, I. (1990). Entropie aux poids et stratégies optimales. Analele Universității Timișoara, 1, 59-63 [112] Purcaru, I. (1990). Mesures généralisées de l’information. Mathématica, 2, 169-171 [113] Purcaru, I. (1990). Note sur l’entropie aux poids et le principe du maximum de l’information
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
Studii și cercetări matematice, 5-6, 465-469 [111] Purcaru, I. (1990). Entropie aux poids et stratégies optimales. Analele Universității Timișoara, 1, 59-63 [112] Purcaru, I. (1990). Mesures généralisées de l’information. Mathématica, 2, 169-171 [113] Purcaru, I. (1990). Note sur l’entropie aux poids et le principe du maximum de l’information. Studia Universitas Babeș-Bolyai, 2, 99-102 [114] Purcaru, I. (1991). Note sur des possibilités d’aproximmation de l’entropie d’une distribution continue. Analele Universității Iași, 3, 399-404 [115] Purcaru, I.
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
l’information. Mathématica, 2, 169-171 [113] Purcaru, I. (1990). Note sur l’entropie aux poids et le principe du maximum de l’information. Studia Universitas Babeș-Bolyai, 2, 99-102 [114] Purcaru, I. (1991). Note sur des possibilités d’aproximmation de l’entropie d’une distribution continue. Analele Universității Iași, 3, 399-404 [115] Purcaru, I. (1991). The weighted relative information generating function. Studii și cercetări matematice, 1-2, 61-66 [116] Purcaru, I. (1992). Distributions de type gamma et le principe de l’information maxime
Introducere în măsurarea diversității Teorie și aplicații by Ion PURCARU () [Corola-publishinghouse/Science/231_a_213]
-
decurg conform planului doar dacă sunt angrenate în termeni de caracter practic și utilitate; supracontrolul este la fel de dăunător ca și subcontrolul prin faptul că rezultă impresia că cineva, undeva, monitorizează activitatea în timp ce această monitorizare s-ar putea să nu existe; entropia reprezintă tendința către destrămare și toate sistemele de control nu-și vor îndeplini obiectivele dacă nu sunt verificate și actualizate periodic; cultura organizațională afectează caracteristicile tipurilor de control implementate, care poate fi birocratic sau flexibil prin natură. În concluzie, implementarea
Guvernanţa corporativă by Marcel Ghiță () [Corola-publishinghouse/Science/229_a_483]
-
și se bazează pe ideea că informația exprimă incertitudinea înlăturată prin realizarea unui eveniment dintr-un set de evenimente posibile. În 1928, R.V. Hartley (1888-1970) a introdus noțiunea de cantitate de informație. În 1948, Claude Shannon 12 numește măsura informației entropie informațională, prin analogie cu entropia din termodinamică ce măsoară, de asemenea, gradul de nedeterminare a unui fenomen. Astfel, informația este acea cantitate care înlătură total sau parțial starea de nedeterminare, numită entropie, pe baza unui mesaj adresat unui receptor. Claude
Managementul cunoașterii in societatea informațională. In: Managementul cunoașterii în societatea informațională by Radu S. Cureteanu () [Corola-publishinghouse/Science/232_a_475]
-
că informația exprimă incertitudinea înlăturată prin realizarea unui eveniment dintr-un set de evenimente posibile. În 1928, R.V. Hartley (1888-1970) a introdus noțiunea de cantitate de informație. În 1948, Claude Shannon 12 numește măsura informației entropie informațională, prin analogie cu entropia din termodinamică ce măsoară, de asemenea, gradul de nedeterminare a unui fenomen. Astfel, informația este acea cantitate care înlătură total sau parțial starea de nedeterminare, numită entropie, pe baza unui mesaj adresat unui receptor. Claude Shannon (1916-2001) a propus ca
Managementul cunoașterii in societatea informațională. In: Managementul cunoașterii în societatea informațională by Radu S. Cureteanu () [Corola-publishinghouse/Science/232_a_475]
-
În 1948, Claude Shannon 12 numește măsura informației entropie informațională, prin analogie cu entropia din termodinamică ce măsoară, de asemenea, gradul de nedeterminare a unui fenomen. Astfel, informația este acea cantitate care înlătură total sau parțial starea de nedeterminare, numită entropie, pe baza unui mesaj adresat unui receptor. Claude Shannon (1916-2001) a propus ca unitatea de măsură a cantității de informație să fie informația generată de realizarea unui experiment cu două evenimente, având probabilități egale de realizare. Această unitate de măsură
Managementul cunoașterii in societatea informațională. In: Managementul cunoașterii în societatea informațională by Radu S. Cureteanu () [Corola-publishinghouse/Science/232_a_475]
-
local. Aceasta implică prioritizare și planificare riguroasă a acțiunilor, ținând seama de toate condiționările care intervin și de restricțiile introduse de limitarea resurselor ce pot fi alocate. Problema sistemului economico-social românesc se poate formula și ca un rezultat al creșterii entropiei generate de: fluctuația legislativă, imperfecțiunile sistemului judiciar, incoerența unor acțiuni ale instituțiilor guvernamentale centrale și locale, economia de piață incomplet concurențială, economia subterană, corupția etc. Scăderea entropiei necesită în primul rând o schimbare de mentalitate, în toate segmentele vieții socio-economice
Managementul cunoașterii in societatea informațională. In: Managementul cunoașterii în societatea informațională by Radu S. Cureteanu () [Corola-publishinghouse/Science/232_a_475]
-
Problema sistemului economico-social românesc se poate formula și ca un rezultat al creșterii entropiei generate de: fluctuația legislativă, imperfecțiunile sistemului judiciar, incoerența unor acțiuni ale instituțiilor guvernamentale centrale și locale, economia de piață incomplet concurențială, economia subterană, corupția etc. Scăderea entropiei necesită în primul rând o schimbare de mentalitate, în toate segmentele vieții socio-economice și la toate nivelurile.<footnote R. Rughiniș, R. Deaconescu, G. Milescu, M. Bardac, Introducere în sisteme de operare, Editura Printech, 2007, p. 159. footnote> Impactul economico-social considerabil
Managementul cunoașterii in societatea informațională. In: Managementul cunoașterii în societatea informațională by Radu S. Cureteanu () [Corola-publishinghouse/Science/232_a_475]
-
apelându-se la parametrii caracteristici ai acestora. Semnalul este mărimea care apare în procesul de funcționare a unui sistem sau a unui element. Semnalele cauză reprezintă în cadrul unui sistem mărimile de intrare, iar semnalele efect, mărimile de ieșire. 2.2. Entropia informațională Entropia este definită ca fiind „mărimea fundamentală în teoria informației care indică cantitatea de informație, raportată la un element al mesajului transmis, respectiv, gradul de organizare al unui sistem”. DEX-. Entropia este o noțiune preluată de C. Shannon, din
TEHNOLOGIA INFORMAŢIEI CU APLICAŢII ÎN ATLETISM NOTE DE CURS – STUDII DE MASTERAT by Ababei Cătălina () [Corola-publishinghouse/Science/278_a_505]
-
la parametrii caracteristici ai acestora. Semnalul este mărimea care apare în procesul de funcționare a unui sistem sau a unui element. Semnalele cauză reprezintă în cadrul unui sistem mărimile de intrare, iar semnalele efect, mărimile de ieșire. 2.2. Entropia informațională Entropia este definită ca fiind „mărimea fundamentală în teoria informației care indică cantitatea de informație, raportată la un element al mesajului transmis, respectiv, gradul de organizare al unui sistem”. DEX-. Entropia este o noțiune preluată de C. Shannon, din termodinamică și
TEHNOLOGIA INFORMAŢIEI CU APLICAŢII ÎN ATLETISM NOTE DE CURS – STUDII DE MASTERAT by Ababei Cătălina () [Corola-publishinghouse/Science/278_a_505]
-
iar semnalele efect, mărimile de ieșire. 2.2. Entropia informațională Entropia este definită ca fiind „mărimea fundamentală în teoria informației care indică cantitatea de informație, raportată la un element al mesajului transmis, respectiv, gradul de organizare al unui sistem”. DEX-. Entropia este o noțiune preluată de C. Shannon, din termodinamică și folosită în teoria informației, sub formă a entropiei unui câmp de probabilitate finit, care constituie măsura gradului de nedeterminare a unui câmp de probabilitate dat. În termodinamică conceptul de entropie
TEHNOLOGIA INFORMAŢIEI CU APLICAŢII ÎN ATLETISM NOTE DE CURS – STUDII DE MASTERAT by Ababei Cătălina () [Corola-publishinghouse/Science/278_a_505]
-
teoria informației care indică cantitatea de informație, raportată la un element al mesajului transmis, respectiv, gradul de organizare al unui sistem”. DEX-. Entropia este o noțiune preluată de C. Shannon, din termodinamică și folosită în teoria informației, sub formă a entropiei unui câmp de probabilitate finit, care constituie măsura gradului de nedeterminare a unui câmp de probabilitate dat. În termodinamică conceptul de entropie a fost introdus de Klausus în anul 1865 ca o funcție de stare a unui sistem închis, care rămâne
TEHNOLOGIA INFORMAŢIEI CU APLICAŢII ÎN ATLETISM NOTE DE CURS – STUDII DE MASTERAT by Ababei Cătălina () [Corola-publishinghouse/Science/278_a_505]
-
Entropia este o noțiune preluată de C. Shannon, din termodinamică și folosită în teoria informației, sub formă a entropiei unui câmp de probabilitate finit, care constituie măsura gradului de nedeterminare a unui câmp de probabilitate dat. În termodinamică conceptul de entropie a fost introdus de Klausus în anul 1865 ca o funcție de stare a unui sistem închis, care rămâne constantă în cazul unei transformări reversibile și crește pentru orice transformare ireversibilă. Abordarea statistică a teoriei cinetice a gazelor, datorată lui J.
TEHNOLOGIA INFORMAŢIEI CU APLICAŢII ÎN ATLETISM NOTE DE CURS – STUDII DE MASTERAT by Ababei Cătălina () [Corola-publishinghouse/Science/278_a_505]
-
stare a unui sistem închis, care rămâne constantă în cazul unei transformări reversibile și crește pentru orice transformare ireversibilă. Abordarea statistică a teoriei cinetice a gazelor, datorată lui J. W. Gibbs -1839-1903I-a permis fizicianului austriac Ludwig E. Boltzmann -1844-1906să definească entropia unui ansamblu de molecule în termeni probabiliști. Entropia constituie o măsură a nedeterminării sistemului. Evoluția viitoare a acestuia este cu atât mai previzibilă cu cât entropia sa este mai mică, căci comportarea elementelor ce compun un sistem entropic este mai
TEHNOLOGIA INFORMAŢIEI CU APLICAŢII ÎN ATLETISM NOTE DE CURS – STUDII DE MASTERAT by Ababei Cătălina () [Corola-publishinghouse/Science/278_a_505]
-
în cazul unei transformări reversibile și crește pentru orice transformare ireversibilă. Abordarea statistică a teoriei cinetice a gazelor, datorată lui J. W. Gibbs -1839-1903I-a permis fizicianului austriac Ludwig E. Boltzmann -1844-1906să definească entropia unui ansamblu de molecule în termeni probabiliști. Entropia constituie o măsură a nedeterminării sistemului. Evoluția viitoare a acestuia este cu atât mai previzibilă cu cât entropia sa este mai mică, căci comportarea elementelor ce compun un sistem entropic este mai dezordonată decât a acelora aparținând unuia caracterizat printr-
TEHNOLOGIA INFORMAŢIEI CU APLICAŢII ÎN ATLETISM NOTE DE CURS – STUDII DE MASTERAT by Ababei Cătălina () [Corola-publishinghouse/Science/278_a_505]
-
datorată lui J. W. Gibbs -1839-1903I-a permis fizicianului austriac Ludwig E. Boltzmann -1844-1906să definească entropia unui ansamblu de molecule în termeni probabiliști. Entropia constituie o măsură a nedeterminării sistemului. Evoluția viitoare a acestuia este cu atât mai previzibilă cu cât entropia sa este mai mică, căci comportarea elementelor ce compun un sistem entropic este mai dezordonată decât a acelora aparținând unuia caracterizat printr-o valoare mică a entropiei. Într-un mod absolut similar, de mărimea entropiei informaționale a unui proces depind
TEHNOLOGIA INFORMAŢIEI CU APLICAŢII ÎN ATLETISM NOTE DE CURS – STUDII DE MASTERAT by Ababei Cătălina () [Corola-publishinghouse/Science/278_a_505]
-
nedeterminării sistemului. Evoluția viitoare a acestuia este cu atât mai previzibilă cu cât entropia sa este mai mică, căci comportarea elementelor ce compun un sistem entropic este mai dezordonată decât a acelora aparținând unuia caracterizat printr-o valoare mică a entropiei. Într-un mod absolut similar, de mărimea entropiei informaționale a unui proces depind șansele de a-i prevedea desfășurarea, în sensul că o entropie scăzută corespunde unui nivel de predictibilitate ridicat și viceversa. Așa cum arăta profesorul M.C. Demetrescu, informația se
TEHNOLOGIA INFORMAŢIEI CU APLICAŢII ÎN ATLETISM NOTE DE CURS – STUDII DE MASTERAT by Ababei Cătălina () [Corola-publishinghouse/Science/278_a_505]
-
atât mai previzibilă cu cât entropia sa este mai mică, căci comportarea elementelor ce compun un sistem entropic este mai dezordonată decât a acelora aparținând unuia caracterizat printr-o valoare mică a entropiei. Într-un mod absolut similar, de mărimea entropiei informaționale a unui proces depind șansele de a-i prevedea desfășurarea, în sensul că o entropie scăzută corespunde unui nivel de predictibilitate ridicat și viceversa. Așa cum arăta profesorul M.C. Demetrescu, informația se mișcă în aceeași direcție cu incertitudinea: „când probabilitatea
TEHNOLOGIA INFORMAŢIEI CU APLICAŢII ÎN ATLETISM NOTE DE CURS – STUDII DE MASTERAT by Ababei Cătălina () [Corola-publishinghouse/Science/278_a_505]
-
sistem entropic este mai dezordonată decât a acelora aparținând unuia caracterizat printr-o valoare mică a entropiei. Într-un mod absolut similar, de mărimea entropiei informaționale a unui proces depind șansele de a-i prevedea desfășurarea, în sensul că o entropie scăzută corespunde unui nivel de predictibilitate ridicat și viceversa. Așa cum arăta profesorul M.C. Demetrescu, informația se mișcă în aceeași direcție cu incertitudinea: „când probabilitatea este foarte ridicată, există o incertitudine redusă și când există o incertitudine redusă și informația pe
TEHNOLOGIA INFORMAŢIEI CU APLICAŢII ÎN ATLETISM NOTE DE CURS – STUDII DE MASTERAT by Ababei Cătălina () [Corola-publishinghouse/Science/278_a_505]