11 matches
-
atenția asupra confuziei prezente într-o serie de lucrări, între entropia "informațională" și cea "termodinamică". De exemplu, după Norton, afirmația că entropiile a două aparate Szilard unimoleculare - unul fără partiție, iar celălalt cu o partiție dar cu o distribuție întîmplătoare (echiprobabilă) a moleculei în cele două compartimente - ar fi egale, este adevărată numai pentru entropia informațională, dar nu pentru cea termodinamică. Cea informațională este formula 7 în ambele cazuri, cea termodinamică este formula 48 când partiția este absentă, dar zero (formula 49) când este
Demonul lui Maxwell () [Corola-website/Science/309677_a_311006]
-
un titlu este: , în care: ri rentabilitatea titlului la momentul i; n nr. de observații ale seriei dinamice; rentabilitatea medie a titlului financiar pi probabilitatea de apariție a valorii ri. În calcule (n-1) se simplifică, iar pi se consideră echiprobabile și nu vor mai apărea în formule, fiind constante. Printr-un abuz de notație, putem considera formula simplificată a dispersiei: Abaterea medie pătratică este: Legea normală redusă de distribuție (cu media 0 și dispersia 1) ne permite să folosim următoarea
[Corola-publishinghouse/Science/1466_a_2764]
-
0 portofoliul conține numai titlul y; pentru =1, portofoliul se reduce la titlul x. Rentabilitatea portofoliului apare ca o medie ponderată a rentabilităților titlurilor individuale. (8) rP = unde Dacă titlul x are mai multe valori posibile de rentabilitate care sunt echiprobabile, atunci se calculează ca o medie aritmetică simplă a acestora. Riscul portofoliului nu este egal cu suma ponderată a riscurilor individuale. Ecuația riscului nu mai are caracterul liniar al ecuației (8). El nu este mai mic decât riscul fiecărui titlu
[Corola-publishinghouse/Science/1466_a_2764]
-
cu incertitudinea pe care o Înlătură; cu cât va fi mai probabil, cu atât el va aduce o informație mai mică și cu cât va fi mai puțin probabil, cu atât va aduce o informație mai mare. Dacă evenimentele sunt echiprobabile, atunci noutatea pe care o aduce un eveniment va depinde de mărimea câmpului de probabilitate din care poate apare evenimentul respectiv. În 1948, Claude Elwood Shannon (1916 - 2001) a arătat că informația H pe care o poate aduce un mesaj
Medicina si psihologie cuantica by Valentin AMBĂRUŞ, Mariana FLORIA, () [Corola-publishinghouse/Science/1642_a_2904]
-
cuprinse Între 0 și 1. Orice măsură trebuie să aibă proprietatea de a fi nenegativă și entropia, ca măsură a nedeterminării, se bucură deci de această proprietate; pentru un număr dat de stări funcția este maximă când aceste stări sunt echiprobabile și crește cu numărul de stări; În fine, ceea ce este esențial, entropia este aditivă. Când mai multe sisteme independente sunt reunite Într-unul singur, entropiile se adună. În construirea funcției care măsoară gradul de incertitudine s-a urmărit tocmai realizarea
Managementul calității În Învățământul superior by Valentin Ambăruş, Ciprian Rezuş, Gabriel Ungureanu () [Corola-publishinghouse/Science/1697_a_2974]
-
o mărime numită redundanță, al cărui rol În comunicarea dintre indivizi este, poate, mai mare decât acela al informației. Dacă H este informația efectivă și H0 119 informația maximă, pe care ar fi dat-o repertoriul semnelor utilizate În mod echiprobabil, redundanța este: 0 Se poate deci demonstra că imprevizibilitatea unui mesaj deține o valoare maximală dacă pentru diversele semne ce provin dintr-un repertoriu și care alcătuiesc mesajul avem aceeași probabilitate de apariție, dacă, pe scurt, nu se prevedea ce
Managementul calității În Învățământul superior by Valentin Ambăruş, Ciprian Rezuş, Gabriel Ungureanu () [Corola-publishinghouse/Science/1697_a_2974]
-
informație, un mesaj se poate situa Într-un punct definit al unei scale (jos) care se Întinde de la banalitatea totală al cărui exemplu perfect este repetiția, până la originalitatea totală, din care ne sunt oferite exemple de jocul aleatoriu al semnelor echiprobabile. Cu alte cuvinte, se numește redundanță excedentul relativ de semne față de acela care ar fi fost necesare pentru a transporta aceeași cantitate de originalitate, așa cum ea este măsurată pe baza formulei lui Shannon. Redundanța variază deci În sens invers față de
Managementul calității În Învățământul superior by Valentin Ambăruş, Ciprian Rezuş, Gabriel Ungureanu () [Corola-publishinghouse/Science/1697_a_2974]
-
mari pierderi de oportunitate, iar ulterior va fi aleasă varianta care minimizează aceste pierderi, adică un criteriu de tip min-max aplicat pierderilor (regretelor) monetare din problema dată. Mai există o regulă decizională care, considerând în situația de incertitudine toate evenimentele echiprobabile, alege varianta a cărei valoare așteptată este maximă (Laplace). Conceptul de risc este utilizat în conexiune cu efectele secundare, negative, incerte. Riscul este asociat consecințelor negative foarte mari, care se produc cu probabilitate scăzută. Sensul conceptului de risc este multiplu
Bazele analizei si diagnozei sistemelor economice by Adrian Victor Bădescu, Dana Maria Boldeanu, Nora Monica Chirița, Ioana Alexandra Bradea () [Corola-publishinghouse/Science/218_a_365]
-
capătul experimentului. Fiecare sesiune experimentală a adus în competiție 8 studenți pentru cumpărarea a 4 acțiuni identice, cu o durată de viață de o singură perioadă, dând dreptul la o dividendă de 0$ sau 40$ la sfârșitul perioadei în mod echiprobabil. Specificarea respectivă face ca dividenda medie (și a fortiori prețul corect al acțiuniiă să fie de 20$. Fiecare student a participat doar la o sesiune experimentală. Sesiunile de la 1 la 5 (de la 6 la 9Ă au constat în 6 (8
[Corola-publishinghouse/Administrative/1954_a_3279]
-
măsurată. Ideea evaluării cantității de informație, aparține inginerului american Hartley în anul 1928, cu aproximativ două decenii înaintea cristalizării teoriei informației, care propune ca măsură a cantității de informație parametrul: H 0 =log 2 n, unde n este numărul variantelor echiprobabile de realizare a evenimentului, iar log 2 al lui n, reprezintă puterea la care trebuie ridicată cifra 2 pentru a obține valoarea „n”. Altfel spus, în aprecierea cantității de informație nu se ia numărul maxim de comunicări ci logaritmul acestuia
TEHNOLOGIA INFORMAŢIEI CU APLICAŢII ÎN ATLETISM NOTE DE CURS – STUDII DE MASTERAT by Ababei Cătălina () [Corola-publishinghouse/Science/278_a_505]
-
ordine în interiorul sistemului. Zgomotul este sursă de ordine și generează noi organizări. Lucrările, deja vechi, despre schimbul de energie, pierderea căldurii, utilizarea sa într-un sistem mai larg, înglobînd mai multe subsisteme, calculele măsurii entropiei ca dezordine maximală a particulelor echiprobabile sînt tot atîtea piste, nu neglijabile, care deschid calea către o reflecție de tipul al treilea 89. Dar, pentru ca ele să meargă toate în direcția unei anume indeterminări a ordinii, afectînd un sistem și convergînd către singura probabilitate, aceea ca
Comunicarea by Lucien Sfez [Corola-publishinghouse/Science/922_a_2430]