16,386 matches
-
explica și prezice diferențele în valorile unei variabile cantitative măsurate la nivel global (cum ar fi rata migrației, a natalității etc.) sau individual (indici atitudinali sau date factuale cum ar fi venitul). Modelele de regresie se compun dintr-o variabilă dependentă (cea a cărei variație urmărim să o explicăm) și variabilele independente sau predictorii care se află într-o relație liniară de asociere (covariație) cu dependenta. Relația de regresie este o relație asimetrică deoarece presupune că numai variația dependentei este explicată
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
sau date factuale cum ar fi venitul). Modelele de regresie se compun dintr-o variabilă dependentă (cea a cărei variație urmărim să o explicăm) și variabilele independente sau predictorii care se află într-o relație liniară de asociere (covariație) cu dependenta. Relația de regresie este o relație asimetrică deoarece presupune că numai variația dependentei este explicată de predictori nu și invers. În plus, se presupune că nu există efecte de interacțiune între predictori. Forma ecuației de regresie liniară este următoarea: (1
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
o variabilă dependentă (cea a cărei variație urmărim să o explicăm) și variabilele independente sau predictorii care se află într-o relație liniară de asociere (covariație) cu dependenta. Relația de regresie este o relație asimetrică deoarece presupune că numai variația dependentei este explicată de predictori nu și invers. În plus, se presupune că nu există efecte de interacțiune între predictori. Forma ecuației de regresie liniară este următoarea: (1) Y = a + b1X1 + b2X2+...+ bnXn unde: Y este variabila dependentă, X1, X2....Xn
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
că numai variația dependentei este explicată de predictori nu și invers. În plus, se presupune că nu există efecte de interacțiune între predictori. Forma ecuației de regresie liniară este următoarea: (1) Y = a + b1X1 + b2X2+...+ bnXn unde: Y este variabila dependentă, X1, X2....Xn sunt predictorii, a este constanta ecuației, iar b1, b2,... bn sunt coeficienții de regresie. Pentru a construi o ecuație de regresie în SPSS se selectează din meniul principal ANALYZE/REGRESSION/LINEAR, se selectează variabila dependentă din lista
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
este variabila dependentă, X1, X2....Xn sunt predictorii, a este constanta ecuației, iar b1, b2,... bn sunt coeficienții de regresie. Pentru a construi o ecuație de regresie în SPSS se selectează din meniul principal ANALYZE/REGRESSION/LINEAR, se selectează variabila dependentă din lista de variabile și se introduce în căsuța Dependent, iar variabilele independente se introduc în dreptul rubricii Independents. Celelalte opțiuni pentru realizarea ecuației de regresie disponibile prin selectarea butoanelor de jos (Statistics, Plots (grafice), Save, Options) vor fi discutate pe parcursul
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
constanta ecuației, iar b1, b2,... bn sunt coeficienții de regresie. Pentru a construi o ecuație de regresie în SPSS se selectează din meniul principal ANALYZE/REGRESSION/LINEAR, se selectează variabila dependentă din lista de variabile și se introduce în căsuța Dependent, iar variabilele independente se introduc în dreptul rubricii Independents. Celelalte opțiuni pentru realizarea ecuației de regresie disponibile prin selectarea butoanelor de jos (Statistics, Plots (grafice), Save, Options) vor fi discutate pe parcursul acestui capitol. Pentru a vizualiza graficele regresiei liniare dintre Y
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
o unitate pe scara lui X este însoțită de o creșterea, în medie, cu b unități a lui Y, celelalte variabile fiind ținute sub control. Atenție, coeficienții de regresie nu se interpretează în sens cauzal, ei exprimă covariația dintre variabila dependentă și cea independentă, nefiind posibilă testarea unei relații cauzale. Coeficientul b reprezintă panta dreptei de regresie a lui Y funcție de un predictor X. Cu cât b este mai mare, panta (înclinarea) dreptei crește. Independența este redată printr-o linie de
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
cercetată. Probabilitatea cu care putem încadra coeficientul în acest interval este de obicei de 95% sau 99%, în ultimul caz, bineînțeles, obținându-se un interval mai mare pentru coeficient. Dacă intervalul de încredere conține valoarea zero, atunci impactul predictorului asupra dependentei este nesemnificativ din punct de vedere statistic. Pentru a calcula în SPSS limitele intervalului de încredere selectăm opțiunea Confidence intervals din ANALYZE/REGRESSION/LINEAR STATISTICS. Testarea semnificației coeficientului de regresie se face cu ajutorul testului t, ipoteza de nul fiind aceea
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
între populații diferite se folosesc însă coeficienții nestandardizați. Regula de citire pentru coeficienții standardizați (beta) este următoarea: creșterea cu o abatere standard pe scala variabilei independente este însoțită în medie cu o creștere cu beta abateri standard pe scala variabilei dependente, celelalte variabile fiind ținute sub control. 8.1.5.Coeficientul de determinație Așa cum am menționat, scopul construcției unui model de regresie este de a explica variația dependentei. În afară de coeficienții de regresie care măsoară impactul fiecărui predictor, avem nevoie și de
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
însoțită în medie cu o creștere cu beta abateri standard pe scala variabilei dependente, celelalte variabile fiind ținute sub control. 8.1.5.Coeficientul de determinație Așa cum am menționat, scopul construcției unui model de regresie este de a explica variația dependentei. În afară de coeficienții de regresie care măsoară impactul fiecărui predictor, avem nevoie și de o măsură globală a gradului în care variația dependentei este explicată de tot setul de predictori. Un astfel de indicator este R2 , calculat pe baza raportului dintre
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
5.Coeficientul de determinație Așa cum am menționat, scopul construcției unui model de regresie este de a explica variația dependentei. În afară de coeficienții de regresie care măsoară impactul fiecărui predictor, avem nevoie și de o măsură globală a gradului în care variația dependentei este explicată de tot setul de predictori. Un astfel de indicator este R2 , calculat pe baza raportului dintre variația lui Y explicată de predictori și variația totală a lui Y. R2 *100 ne indică, așadar, cât la sută din variația
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
adică diferența dintre valorile observate și cele așteptate, alcătuind variația neexplicată (VN). VN este calculată ca suma pătratului diferențelor dintre valorile observate și cele așteptate. Pentru a testa semnificația lui R și implicit a gradului în care modelul explică variația dependentei, se folosește testul F. Dacă nivelul de semnificație calculat de SPSS prob(F)<0,05, ipoteza de nul se respinge și se acceptă ipoteza conform căreia modelul îmbunătățește semnificativ predicția valorilor lui Y. 8.1.6.Coeficientul de corelație Coeficientul
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
este egal cu 0 în populație. Tot în SPSS avem și opțiunea de a calcula coeficientul de corelație parțială. Acesta, notat în mod obișnuit cu , arată corelația dintre X și Y, ținând Z sub control (X = variabila independentă, Y = variabila dependentă și Z = variabila de control). În cazul în care coeficientul de corelație dintre X și Y este semnificativ diferit de zero, dar această corelație dispare atunci când ținem sub control Z, înseamnă că avem de a face cu o corelație superficială
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
x și y, iar sx, respectiv sy sunt dispersiile lui x și y. Din această ecuație reiese, de asemenea, că într-un model de regresie multiplă r este egal cu coeficientul de regresie standardizat beta, reflectând impactul unui predictor asupra dependentei atunci când ceilalți predictori sunt ținuți sub control. Pentru a calcula coeficientul de corelație parțială selectăm din meniul SPSS opțiunea ANALYZE/CORRELATE/PARTIAL și introducem variabila dependentă, cea independentă și setul de variabile pe care dorim să le ținem sub control
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
r este egal cu coeficientul de regresie standardizat beta, reflectând impactul unui predictor asupra dependentei atunci când ceilalți predictori sunt ținuți sub control. Pentru a calcula coeficientul de corelație parțială selectăm din meniul SPSS opțiunea ANALYZE/CORRELATE/PARTIAL și introducem variabila dependentă, cea independentă și setul de variabile pe care dorim să le ținem sub control. Ca și în cazul coeficientului de regresie bivariat urmărim să obținem un nivel de semnificație (Sig) care să fie <0,05. 8.1.7.Condiții de
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
SPSS-ul calculează toleranța (Tolerance, notată cu T) și VIF (variance-inflation factor). Dacă T>0,2 sau VIF<5 atunci condiția de necoliniaritate este respectată. Pentru a calcula valorile T și VIF, se selectează ANALYZE/ REGRESSION/LINEAR, se introduce variabila dependentă și cele independente, iar apoi din opțiunea Statistics se selectează Collinearity diagnostics, Continue și OK. În afară de acestea, mai trebuie menționate trei condiții auxiliare: 1. Clasele de valori reziduale Yobservat Yașteptat pentru fiecare valoare a lui X trebuie să aibă dispersii
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
au o distribuție normală. 2. Absența fenomenului de autocorelare între valorile reziduale sau termenii eroare se referă la independența observațiilor. Aceasta poate fi testată prin indicele Durbin Watson. În SPSS acesta se calculează selectând ANALYZE/REGRESSION/LINEAR. Se introduce variabila dependentă și cele independente, iar din opțiunea Statistics se selectează Residuals/ Durbin-Watson. Dacă valoarea indicelui Durbin-Watson tinde spre 2, înseamnă că termenii eroare sunt independenți. Dacă tinde spre 0, indică o corelație pozitivă intensă, iar dacă D >2 o corelație negativă
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
ca valoarea h care poate varia de la 0 lipsa influenței, la 1 influență totală, să nu aibă valori mai mari decât 0,2. Mahalanobis și Cook sunt măsuri similare ale influenței unui caz. Regresia variabilelor fictive În analiza regresiilor, variabila dependentă este frecvent influențată nu doar de variabile care pot fi cuantificate pe o scală bine definită (spre exemplu venitul), ci și de variabile care în realitate sunt în mod esențial calitative (spre exemplu sexul) . De exemplu, păstrând toți ceilalți factori
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
3 = 1, dacă profesorul este roman 3 = 0, dacă profesorul nu este roman 8.1.8. Etape în construcția unui model de regresie În concluzie, pentru a construi un model de regresie trebuie parcurși următorii pași: 1. Se alege variabila dependentă și, dacă este cazul, se construiește un indice pe baza întrebărilor din chestionar. Se verifică nivelul de măsurare și normalitatea distribuției. 2. Pe baza ipotezelor formulate, se aleg predictorii și în mod similar se construiesc indici, se transformă variabilele nominale
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
Pe baza ipotezelor formulate, se aleg predictorii și în mod similar se construiesc indici, se transformă variabilele nominale în variabile fictive și se verifică normalitatea distribuției (dacă este cazul). 3. Se verifică dacă există o corelație bivariată semnificativă între variabila dependentă și fiecare predictor în parte și se selectează predictorii pentru care corelația este semnificativă. Se poate întâmpla să existe o corelație bivariată semnificativă între predictor și variabila dependentă și totuși predictorul să nu aibă o influență semnificativă în modelul de
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
cazul). 3. Se verifică dacă există o corelație bivariată semnificativă între variabila dependentă și fiecare predictor în parte și se selectează predictorii pentru care corelația este semnificativă. Se poate întâmpla să existe o corelație bivariată semnificativă între predictor și variabila dependentă și totuși predictorul să nu aibă o influență semnificativă în modelul de regresie multiplă. Aceasta se datorează faptului că în modelul final, impactul unui predictor asupra dependentei este măsurat ținând sub control ceilalți predictori. 4. Se verifică dacă există corelație
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
Se poate întâmpla să existe o corelație bivariată semnificativă între predictor și variabila dependentă și totuși predictorul să nu aibă o influență semnificativă în modelul de regresie multiplă. Aceasta se datorează faptului că în modelul final, impactul unui predictor asupra dependentei este măsurat ținând sub control ceilalți predictori. 4. Se verifică dacă există corelație între predictori și se selectează predictorii, astfel încât să fie independenți între ei. 5. Se construiește modelul de regresie și în continuare se verifică dacă sunt îndeplinite condițiile
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
maghiar. REGR /MISSING LISTWISE /STATISTICS COEFF OUTS CI /DEP IOPD /ENT SUBVIRST SUBSCOAL MAGHIAR LOCORD CRISANA TRANSilvania CDR. /PARTIALPLOT ALL /SCATTERPLOT=(*ZRESID ,*ZPRED ) /RESIDUALS DURBIN HIST(ZRESID) NORM(ZRESID) /CASEWISE PLOT(ZRESID) OUTLIERS(3) . OUTPUT R2 reprezintă procentul din variația dependentei care este explicat de predictori. În acest caz modelul explică 13,5% din variație, restul datorându-se unor variabile care nu sunt incluse în model. R2 ajustat este valoarea lui R2 pentru care se elimină efectul numărului de predictori (cu
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
mediu 1,96*53,6. Rezultă deci că predicțiile realizate cu ajutorul acestui model sunt foarte slabe. Valoarea indicelui Durbin-Watson <2 indică faptul că reziduurile sunt independente. Testul F din tabelul de ANOVA testează ipoteza că modelul nu îmbunătățește semnificativ predicția dependentei. Nivelul de semnificație fiind <0,05 respingem această ipoteză. Model Summaryb Model R R Square Adjusted R Square Std. Error of the Estimate Durbin-Watson 1 ,367a ,135 ,131 53,66064 1,583 a. Predictors: (Constant), transilvania, cdr, subscoal, subvirst, maghiar
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]
-
semnificație fiind <0,05 respingem această ipoteză. Model Summaryb Model R R Square Adjusted R Square Std. Error of the Estimate Durbin-Watson 1 ,367a ,135 ,131 53,66064 1,583 a. Predictors: (Constant), transilvania, cdr, subscoal, subvirst, maghiar, locord b. Dependent Variable: IOPD ANOVAb Model Sum of Squares df Mean Square F Sig. 1 Regression 541078,332 6 90179,722 31,318 ,000a Residual 3469755,002 1205 2879,465 Total 4010833,333 1211 a. Predictors: (Constant), transilvania, cdr, subscoal, subvirst, maghiar
by Claudiu Coman [Corola-publishinghouse/Science/1072_a_2580]