2,315 matches
-
și dispersia lui x. Valoarea coeficientului indică faptul ca o creștere de o unitate pe scara lui X este însoțită de o creșterea, în medie, cu b unități a lui Y, celelalte variabile fiind ținute sub control. Atenție, coeficienții de regresie nu se interpretează în sens cauzal, ei exprimă covariația dintre variabila dependentă și cea independentă, nefiind posibilă testarea unei relații cauzale. Coeficientul b reprezintă panta dreptei de regresie a lui Y funcție de un predictor X. Cu cât b este mai
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
a lui Y, celelalte variabile fiind ținute sub control. Atenție, coeficienții de regresie nu se interpretează în sens cauzal, ei exprimă covariația dintre variabila dependentă și cea independentă, nefiind posibilă testarea unei relații cauzale. Coeficientul b reprezintă panta dreptei de regresie a lui Y funcție de un predictor X. Cu cât b este mai mare, panta (înclinarea) dreptei crește. Independența este redată printr-o linie de regresie paralelă cu axa Ox. Dacă b>0, relația dintre Y și X este direct proporțională
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
și cea independentă, nefiind posibilă testarea unei relații cauzale. Coeficientul b reprezintă panta dreptei de regresie a lui Y funcție de un predictor X. Cu cât b este mai mare, panta (înclinarea) dreptei crește. Independența este redată printr-o linie de regresie paralelă cu axa Ox. Dacă b>0, relația dintre Y și X este direct proporțională, iar graficul va arăta în felul următor: Figura nr. 8.4: Relația direct proporțională dintre două variabile y x Dacă b<0, relația dintre Y
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
proporțională, o creștere a lui x de o unitate conducând în medie la scăderea lui Y cu b unități. Figura nr. 8.5: Relația invers proporțională dintre două variabile y x 8.1.4. Intervalul de încredere pentru coeficientul de regresie Valoarea coeficientului de regresie este calculată la nivelul eșantionului. De obicei însă urmărim să formulăm concluzii despre populația din care a fost extras eșantionul. Calculând limitele intervalului de încredere, aflăm valorile între care se încadrează coeficientul în populația cercetată. Probabilitatea
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
lui x de o unitate conducând în medie la scăderea lui Y cu b unități. Figura nr. 8.5: Relația invers proporțională dintre două variabile y x 8.1.4. Intervalul de încredere pentru coeficientul de regresie Valoarea coeficientului de regresie este calculată la nivelul eșantionului. De obicei însă urmărim să formulăm concluzii despre populația din care a fost extras eșantionul. Calculând limitele intervalului de încredere, aflăm valorile între care se încadrează coeficientul în populația cercetată. Probabilitatea cu care putem încadra
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
intervalul de încredere conține valoarea zero, atunci impactul predictorului asupra dependentei este nesemnificativ din punct de vedere statistic. Pentru a calcula în SPSS limitele intervalului de încredere selectăm opțiunea Confidence intervals din ANALYZE/REGRESSION/LINEAR STATISTICS. Testarea semnificației coeficientului de regresie se face cu ajutorul testului t, ipoteza de nul fiind aceea că B=0 în populație. Variabilele pentru care nivelul de semnificație al testului t (notat cu Sig. în SPSS) este >0,05 sunt de obicei eliminate din model, întrucât probabilitatea
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
Sig. în SPSS) este >0,05 sunt de obicei eliminate din model, întrucât probabilitatea ca ipoteza de nul să fie adevărată este mai mare decât pragul convențional de 5% și deci nu o putem respinge. SPSS calculează și coeficienții de regresie standardizați (beta) care au avantajul de a fi adimensionali și permit compararea importanței predictorilor în cadrul aceluiași model de regresie. Coeficienții standardizați sunt egali cu coeficienții de regresie în condițiile în care variabilele din ecuație sunt standardizate cu scorul z. Pentru
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
fie adevărată este mai mare decât pragul convențional de 5% și deci nu o putem respinge. SPSS calculează și coeficienții de regresie standardizați (beta) care au avantajul de a fi adimensionali și permit compararea importanței predictorilor în cadrul aceluiași model de regresie. Coeficienții standardizați sunt egali cu coeficienții de regresie în condițiile în care variabilele din ecuație sunt standardizate cu scorul z. Pentru a face o comparație între populații diferite se folosesc însă coeficienții nestandardizați. Regula de citire pentru coeficienții standardizați (beta
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
de 5% și deci nu o putem respinge. SPSS calculează și coeficienții de regresie standardizați (beta) care au avantajul de a fi adimensionali și permit compararea importanței predictorilor în cadrul aceluiași model de regresie. Coeficienții standardizați sunt egali cu coeficienții de regresie în condițiile în care variabilele din ecuație sunt standardizate cu scorul z. Pentru a face o comparație între populații diferite se folosesc însă coeficienții nestandardizați. Regula de citire pentru coeficienții standardizați (beta) este următoarea: creșterea cu o abatere standard pe
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
standard pe scala variabilei independente este însoțită în medie cu o creștere cu beta abateri standard pe scala variabilei dependente, celelalte variabile fiind ținute sub control. 8.1.5.Coeficientul de determinație Așa cum am menționat, scopul construcției unui model de regresie este de a explica variația dependentei. În afară de coeficienții de regresie care măsoară impactul fiecărui predictor, avem nevoie și de o măsură globală a gradului în care variația dependentei este explicată de tot setul de predictori. Un astfel de indicator este
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
o creștere cu beta abateri standard pe scala variabilei dependente, celelalte variabile fiind ținute sub control. 8.1.5.Coeficientul de determinație Așa cum am menționat, scopul construcției unui model de regresie este de a explica variația dependentei. În afară de coeficienții de regresie care măsoară impactul fiecărui predictor, avem nevoie și de o măsură globală a gradului în care variația dependentei este explicată de tot setul de predictori. Un astfel de indicator este R2 , calculat pe baza raportului dintre variația lui Y explicată
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
indicator este R2 , calculat pe baza raportului dintre variația lui Y explicată de predictori și variația totală a lui Y. R2 *100 ne indică, așadar, cât la sută din variația lui Y este explicată de predictori. În absența modelului de regresie, predicția cea mai bună a lui Y ar fi fost chiar valorile sale medii din populația studiată. Spre exemplu, dacă dorim să prezicem înălțimea unui copil fără a avea alte informații, atunci predicția cea mai bună va fi valoarea medie
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
a avea alte informații, atunci predicția cea mai bună va fi valoarea medie din populație. Dacă însă cunoaștem înălțimea părinților și există o corelație între înălțimea părinților și înălțimea copilului, atunci ne putem îmbunătăți predicția. Variația explicată de modelul de regresie (VE) este suma pătratului diferențelor dintre valorile Y așteptate și Y mediu. VE este deci o măsură a gradului în care s-a îmbunătățit predicția lui Y pe baza modelului, comparativ cu predicția pe baza valorii medii. Variația totală (VT
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
Y și Z. Formula de calcul pentru r este: , unde cov(x,y) este covarianța dintre x și y, iar sx, respectiv sy sunt dispersiile lui x și y. Din această ecuație reiese, de asemenea, că într-un model de regresie multiplă r este egal cu coeficientul de regresie standardizat beta, reflectând impactul unui predictor asupra dependentei atunci când ceilalți predictori sunt ținuți sub control. Pentru a calcula coeficientul de corelație parțială selectăm din meniul SPSS opțiunea ANALYZE/CORRELATE/PARTIAL și introducem
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
este: , unde cov(x,y) este covarianța dintre x și y, iar sx, respectiv sy sunt dispersiile lui x și y. Din această ecuație reiese, de asemenea, că într-un model de regresie multiplă r este egal cu coeficientul de regresie standardizat beta, reflectând impactul unui predictor asupra dependentei atunci când ceilalți predictori sunt ținuți sub control. Pentru a calcula coeficientul de corelație parțială selectăm din meniul SPSS opțiunea ANALYZE/CORRELATE/PARTIAL și introducem variabila dependentă, cea independentă și setul de variabile
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
control. Pentru a calcula coeficientul de corelație parțială selectăm din meniul SPSS opțiunea ANALYZE/CORRELATE/PARTIAL și introducem variabila dependentă, cea independentă și setul de variabile pe care dorim să le ținem sub control. Ca și în cazul coeficientului de regresie bivariat urmărim să obținem un nivel de semnificație (Sig) care să fie <0,05. 8.1.7.Condiții de aplicare a regresiei 1. Modelul de regresie trebuie să fie specificat corect, adică să nu fie incluși predictori irelevanți sau să
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
și setul de variabile pe care dorim să le ținem sub control. Ca și în cazul coeficientului de regresie bivariat urmărim să obținem un nivel de semnificație (Sig) care să fie <0,05. 8.1.7.Condiții de aplicare a regresiei 1. Modelul de regresie trebuie să fie specificat corect, adică să nu fie incluși predictori irelevanți sau să fie omiși cei relevanți; 2. Să existe o relație liniară între variabile și nu de altă natură, de exemplu exponențială; 3. Variabilele
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
pe care dorim să le ținem sub control. Ca și în cazul coeficientului de regresie bivariat urmărim să obținem un nivel de semnificație (Sig) care să fie <0,05. 8.1.7.Condiții de aplicare a regresiei 1. Modelul de regresie trebuie să fie specificat corect, adică să nu fie incluși predictori irelevanți sau să fie omiși cei relevanți; 2. Să existe o relație liniară între variabile și nu de altă natură, de exemplu exponențială; 3. Variabilele să fie măsurate fără
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
de exemplu exponențială; 3. Variabilele să fie măsurate fără erori (să fie satisfăcută cerința de validitate a măsurării); 4. Variabilele incluse în model să fie măsurate la nivel metric sau să fie variabile fictive (dummy), discutate într-o secțiune anterioară. Regresia, fiind o metodă robustă, uneori se acceptă includerea unor variabile ordinale în model, însă în mod obligatoriu variabilele nominale trebuie transformate în variabile fictive (variabile dihotomice pentru care valoarea 1 indică prezența atributului, iar 0 absența lui). 5. Variabilele incluse
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
prezența atributului, iar 0 absența lui). 5. Variabilele incluse în model trebuie să aibă o distribuție normală. Normalitatea distribuției se verifică cu teste și măsuri specifice calculate de SPSS (indicele de aplatizare și oblicitate). 6. Condiția de necoliniaritate în cazul regresiei multiple stipulează necesitatea independenței dintre predictori. În caz contrar, apare fenomenul de multicoliniaritate. Pentru a verifica dacă această condiție este îndeplinită, SPSS-ul calculează toleranța (Tolerance, notată cu T) și VIF (variance-inflation factor). Dacă T>0,2 sau VIF<5
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
Durbin-Watson. Dacă valoarea indicelui Durbin-Watson tinde spre 2, înseamnă că termenii eroare sunt independenți. Dacă tinde spre 0, indică o corelație pozitivă intensă, iar dacă D >2 o corelație negativă între termenii eroare. 3. Excluderea valorilor extreme atunci când modelul de regresie se calculează la nivelul eșantionului și nu al populației. Atunci când valorile extreme nu sunt excluse din analiză, coeficientul de corelație poate fi supraestimat sau subestimat, depinzând de sensul abaterii valorilor extreme de la medie. Analiza valorilor extreme se face selectând ANALYZE
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
se face selectând ANALYZE/REGRESSION/ LINEAR, Statistics și Casewise Diagnostics cu opțiunea Outliers outside 3 Std Dev. Programul SPSS permite calcularea unor măsuri ale distanței sau ale influenței pe care un singur caz o poate avea asupra pantei dreptei de regresie. Pentru aceasta se selectează din meniu ANALYZE/ REGRESSION/LINEAR, apoi în SAVE se pot selecta următoarele măsuri ale distanței: Mahalanobis, Cook's Distance și Leverage values (h). În general se urmărește ca valoarea h care poate varia de la 0 lipsa
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
Leverage values (h). În general se urmărește ca valoarea h care poate varia de la 0 lipsa influenței, la 1 influență totală, să nu aibă valori mai mari decât 0,2. Mahalanobis și Cook sunt măsuri similare ale influenței unui caz. Regresia variabilelor fictive În analiza regresiilor, variabila dependentă este frecvent influențată nu doar de variabile care pot fi cuantificate pe o scală bine definită (spre exemplu venitul), ci și de variabile care în realitate sunt în mod esențial calitative (spre exemplu
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
se urmărește ca valoarea h care poate varia de la 0 lipsa influenței, la 1 influență totală, să nu aibă valori mai mari decât 0,2. Mahalanobis și Cook sunt măsuri similare ale influenței unui caz. Regresia variabilelor fictive În analiza regresiilor, variabila dependentă este frecvent influențată nu doar de variabile care pot fi cuantificate pe o scală bine definită (spre exemplu venitul), ci și de variabile care în realitate sunt în mod esențial calitative (spre exemplu sexul) . De exemplu, păstrând toți
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]
-
de sex masculin, iar 0 poate desemna o persoană de sex feminin. Variabilele care își asumă valori de 0 și 1 se numesc variabile fictive (variabile indicatoare, binare, categorice, calitative sau dihotomice). Variabilele fictive pot fi folosite în modele de regresie la fel de ușor ca și variabilele cantitative. De fapt, un model de regresie poate conține variabile explicatorii care sunt exclusiv fictive sau calitative. Asemenea modele sunt numite ANOVA. Ca exemplu, avem următorul model: Unde: = salariul anual al unui profesor universitar i
Statistică aplicată în științele sociale by Claudiu Coman () [Corola-publishinghouse/Science/1072_a_2580]