844 matches
-
analiza componentelor principale se va descompune întreaga varianță a variabilelor. În analiza factorială propriu-zisă se va descompune doar varianța comună a variabilelor. În analiza componentelor principale, estimarea scorurilor factoriale se face pornind de la asumpția că factorii (componentele principale) explică întreaga varianță, atât cea comună, cât și cea specifică și eroarea. Acest lucru înseamnă că, în matricea de corelații ajustate, pe diagonală se vor trece comunalități egale cu 1 (matricea de corelații ajustate este, de fapt, chiar matricea de corelații). În celelalte
[Corola-publishinghouse/Science/2075_a_3400]
-
fapt, chiar matricea de corelații). În celelalte tipuri de metode de extracție, pe diagonala matricei de corelație ajustată vor fi introduse estimări ale comunalităților variabilelor. Valorile acestora vor fi mai mici decât 1, căci comunalitatea unei variabile este partea din varianță datorată factorilor comuni. Pentru a o obține, din varianța totală, egală cu 1, se scad varianța datorată factorului de unicitate și eventualele erori. În cazul analizei factoriale propriu-zise, factorii vor da seama doar de varianța comună a variabilelor. În obținerea
[Corola-publishinghouse/Science/2075_a_3400]
-
metode de extracție, pe diagonala matricei de corelație ajustată vor fi introduse estimări ale comunalităților variabilelor. Valorile acestora vor fi mai mici decât 1, căci comunalitatea unei variabile este partea din varianță datorată factorilor comuni. Pentru a o obține, din varianța totală, egală cu 1, se scad varianța datorată factorului de unicitate și eventualele erori. În cazul analizei factoriale propriu-zise, factorii vor da seama doar de varianța comună a variabilelor. În obținerea componentelor principale nu presupunem existența unor factori latenți. Componentele
[Corola-publishinghouse/Science/2075_a_3400]
-
corelație ajustată vor fi introduse estimări ale comunalităților variabilelor. Valorile acestora vor fi mai mici decât 1, căci comunalitatea unei variabile este partea din varianță datorată factorilor comuni. Pentru a o obține, din varianța totală, egală cu 1, se scad varianța datorată factorului de unicitate și eventualele erori. În cazul analizei factoriale propriu-zise, factorii vor da seama doar de varianța comună a variabilelor. În obținerea componentelor principale nu presupunem existența unor factori latenți. Componentele principale sunt funcții matematice de variabile observate
[Corola-publishinghouse/Science/2075_a_3400]
-
unei variabile este partea din varianță datorată factorilor comuni. Pentru a o obține, din varianța totală, egală cu 1, se scad varianța datorată factorului de unicitate și eventualele erori. În cazul analizei factoriale propriu-zise, factorii vor da seama doar de varianța comună a variabilelor. În obținerea componentelor principale nu presupunem existența unor factori latenți. Componentele principale sunt funcții matematice de variabile observate. Ca și în cazul analizei factoriale propriu-zise, metoda este folosită pentru a obține o reducere a reprezentării, dar obiectivul
[Corola-publishinghouse/Science/2075_a_3400]
-
de variabile observate. Ca și în cazul analizei factoriale propriu-zise, metoda este folosită pentru a obține o reducere a reprezentării, dar obiectivul ei nu este să explice covariația dintre variabile (un model cauzal), ci să explice cât mai mult din varianța datelor. Analiza factorială, în schimb, are ca scop principal explicarea corelației (covariației) dintre variabilele observate. Diferența dintre cele două abordări poate fi prezentată și astfel: analiza factorială propriuzisă reprezintă structura de covarianță în termenii unui model cauzal ipotetic, în timp ce analiza
[Corola-publishinghouse/Science/2075_a_3400]
-
prezentată și astfel: analiza factorială propriuzisă reprezintă structura de covarianță în termenii unui model cauzal ipotetic, în timp ce analiza componentelor principale sumarizează datele prin intermediul unei combinații liniare a datelor observate. Prima încearcă să explice covarianța, pe când cea de a doua explică varianța variabilelor. Voi începe prin a prezenta ultimele două dintre metodele enumerate, și anume: (f) metoda componentelor principale (principal component analysis) și (e) metoda factorilor principali (principal axis factoring). Pentru a explica modul cum extragem componentele principale (principal component analysis), respectiv
[Corola-publishinghouse/Science/2075_a_3400]
-
det(R1 - λ I) = 0 unde λ este o valoare proprie (eigenvalue) a matricei R1, iar I este matricea-unitate. Saturațiile bik sunt obținute înmulțind vectorii proprii cu rădăcina pătrată a valorii proprii corespunzătoare. Valorile proprii λk ne indică proporția din varianță care este explicată de componenta (factorul) respectivă, și anume λk/m. Întotdeauna putem reproduce corelațiile observate printr-un model care are exact atâția factori câte variabile, iar adecvarea modelului pentru date crește o dată cu numărul de factori. Scopul nostru este însă
[Corola-publishinghouse/Science/2075_a_3400]
-
de a explica astfel covarianța dintre variabile printr-un număr cât mai mic de factori comuni. Primul factor extras va corespunde valorii proprii celei mai mari, cu alte cuvinte primul factor extras este cel care explică cel mai mult din varianța variabilelor observate. Următorul factor extras va putea să explice cât mai mult din restul de varianță rămas neexplicat și așa mai departe. La câți factori ne oprim? De câți factori avem nevoie pentru a reprezenta datele? Una dintre soluții este
[Corola-publishinghouse/Science/2075_a_3400]
-
Primul factor extras va corespunde valorii proprii celei mai mari, cu alte cuvinte primul factor extras este cel care explică cel mai mult din varianța variabilelor observate. Următorul factor extras va putea să explice cât mai mult din restul de varianță rămas neexplicat și așa mai departe. La câți factori ne oprim? De câți factori avem nevoie pentru a reprezenta datele? Una dintre soluții este aceea de a opri descompunerea varianței în momentul în care factorul explică mai puțin decât varianța
[Corola-publishinghouse/Science/2075_a_3400]
-
va putea să explice cât mai mult din restul de varianță rămas neexplicat și așa mai departe. La câți factori ne oprim? De câți factori avem nevoie pentru a reprezenta datele? Una dintre soluții este aceea de a opri descompunerea varianței în momentul în care factorul explică mai puțin decât varianța unei singure variabile, adică atunci când valoarea proprie corespunzătoare factorului este mai mică decât 1. Totuși, unii analiști consideră că ignorarea factorilor a căror valoare proprie este mai mică decât 1
[Corola-publishinghouse/Science/2075_a_3400]
-
varianță rămas neexplicat și așa mai departe. La câți factori ne oprim? De câți factori avem nevoie pentru a reprezenta datele? Una dintre soluții este aceea de a opri descompunerea varianței în momentul în care factorul explică mai puțin decât varianța unei singure variabile, adică atunci când valoarea proprie corespunzătoare factorului este mai mică decât 1. Totuși, unii analiști consideră că ignorarea factorilor a căror valoare proprie este mai mică decât 1 poate rezulta în respingerea unor factori care, deși explică mai
[Corola-publishinghouse/Science/2075_a_3400]
-
că punctul în care linia graficului devine din abruptă lină ne va da numărul de factori necesari pentru a descrie structura. Dar ceea ce înseamnă abrupt și lin este interpretabil. În fine, o altă soluție este să stabilim un procent de varianță care să fie explicat (în mod obișnuit, acesta se alege 70% sau 80%) și să ne oprim atunci când varianța explicată de factori, cumulată, depășește acest prag. Unii autori sugerează că nu trebuie să ne bazăm automat pe astfel de criterii
[Corola-publishinghouse/Science/2075_a_3400]
-
descrie structura. Dar ceea ce înseamnă abrupt și lin este interpretabil. În fine, o altă soluție este să stabilim un procent de varianță care să fie explicat (în mod obișnuit, acesta se alege 70% sau 80%) și să ne oprim atunci când varianța explicată de factori, cumulată, depășește acest prag. Unii autori sugerează că nu trebuie să ne bazăm automat pe astfel de criterii formale și că numărul de factori obținut prin aplicarea acestor teste trebuie să ne indice doar numărul maxim de
[Corola-publishinghouse/Science/2075_a_3400]
-
a exista în univers. Altfel, prin această metodă saturațiile factoriale se obțin prin maximizarea coeficientului de încredere Alpha pentru factori (Alpha reliability). În fine, câteva considerente despre (d) analiza imaginii - image factoring. Această metodă se bazează pe interpretarea părții de varianță comună drept combinație liniară a tuturor celorlalte variabile din set și este numită imaginea variabilei. Partea unică este acea parte a variabilei care nu poate fi exprimată ca o combinație liniară a celorlalte variabile și poartă numele de anti-imagine. În
[Corola-publishinghouse/Science/2075_a_3400]
-
interpretarea, „numirea” factorilor. Termenul de rotație denumește exact ceea ce implică: sistemul de axe ortogonale reprezentat de factori este rotit în jurul originii într-o altă poziție. Soluția factorială inițială este una ortogonală, în care factorii sunt extrași în ordinea descrescătoare a varianței explicate. Primul factor tinde să se constituie într-un factor general, pe care fiecare variabilă îl saturează și explică cea mai mare parte a varianței. Factorii următori, ortogonali cu primul, explică varianța rămasă și explică succesiv o cantitate mai mică
[Corola-publishinghouse/Science/2075_a_3400]
-
Soluția factorială inițială este una ortogonală, în care factorii sunt extrași în ordinea descrescătoare a varianței explicate. Primul factor tinde să se constituie într-un factor general, pe care fiecare variabilă îl saturează și explică cea mai mare parte a varianței. Factorii următori, ortogonali cu primul, explică varianța rămasă și explică succesiv o cantitate mai mică din aceasta. Dar ortogonalitatea și ordinea factorilor nu sunt inerente structurii datelor, ci rezultă din condițiile stabilite de noi în procesul de extragere a factorilor
[Corola-publishinghouse/Science/2075_a_3400]
-
care factorii sunt extrași în ordinea descrescătoare a varianței explicate. Primul factor tinde să se constituie într-un factor general, pe care fiecare variabilă îl saturează și explică cea mai mare parte a varianței. Factorii următori, ortogonali cu primul, explică varianța rămasă și explică succesiv o cantitate mai mică din aceasta. Dar ortogonalitatea și ordinea factorilor nu sunt inerente structurii datelor, ci rezultă din condițiile stabilite de noi în procesul de extragere a factorilor. Efectul cel mai important al rotației matricei
[Corola-publishinghouse/Science/2075_a_3400]
-
cantitate mai mică din aceasta. Dar ortogonalitatea și ordinea factorilor nu sunt inerente structurii datelor, ci rezultă din condițiile stabilite de noi în procesul de extragere a factorilor. Efectul cel mai important al rotației matricei factoriale este acela că redistribuie varianța de la soluția de factori inițială la o alta, a cărei configurație este mai clară. Kim și Mueller sintetizează problematica rotației factorilor în trei abordări fundamentale 1. Prima constă în examinarea grafică a configurației de variabile, unde axele sunt reprezentate de
[Corola-publishinghouse/Science/2075_a_3400]
-
ortogonalitatea factorilor după rotație) sau oblică. Există mai multe metode de rotație ortogonale și oblice. Voi descrie în câteva cuvinte acele metode care se regăsesc în meniul pachetului statistic SPSS. Metoda ortogonală „varimax” urmează criteriul simplificării coloanelor matricei factoriale, maximizând varianța dată de pătratul saturațiilor pentru fiecare factor. Cu alte cuvinte, minimizează numărul de variabile cu saturații factoriale mari pentru fiecare factor,simplificând astfel interpretarea factorilor. Metoda ortogonală „quartimax” folosește alt criteriu de simplificare, și anume maximizează varianța dată de pătratul
[Corola-publishinghouse/Science/2075_a_3400]
-
matricei factoriale, maximizând varianța dată de pătratul saturațiilor pentru fiecare factor. Cu alte cuvinte, minimizează numărul de variabile cu saturații factoriale mari pentru fiecare factor,simplificând astfel interpretarea factorilor. Metoda ortogonală „quartimax” folosește alt criteriu de simplificare, și anume maximizează varianța dată de pătratul saturațiilor pentru fiecare variabilă. Prin aceasta se minimizează numărul de factori care explică fiecare variabilă (se reduce complexitatea factorială a variabilelor). O metodă ortogonală care aplică ambele criterii de simplificare este „equamax”. Aceasta minimizează numărul de variabile
[Corola-publishinghouse/Science/2075_a_3400]
-
de factori care explică fiecare variabilă (se reduce complexitatea factorială a variabilelor). O metodă ortogonală care aplică ambele criterii de simplificare este „equamax”. Aceasta minimizează numărul de variabile care saturează un factor și numărul de factori necesari pentru a explica varianța unei variabile. Rotația oblică transformă soluția inițială de factori într-un set de factori care nu sunt independenți, între care există corelație. Este natural să presupunem că influențele din realitatea socială sunt corelate și, chiar dacă ele nu sunt corelate în
[Corola-publishinghouse/Science/2075_a_3400]
-
decât „oblimin” și o recomand pentru situațiile în care avem baze de date mari. Interpretarea factorilortc "Interpretarea factorilor" Extracția soluției factoriale inițiale ne indică cea mai bună combinație liniară a variabilelor, în sensul explicării unei cantități cât mai mari de varianță în date. Primul factor poate fi deci înțeles ca fiind cea mai bună sumarizare a relațiilor liniare pe care le prezintă datele. Cel de-al doilea factor constituie cea de-a doua cea mai bună combinație liniară de variabile, supusă
[Corola-publishinghouse/Science/2075_a_3400]
-
sumarizare a relațiilor liniare pe care le prezintă datele. Cel de-al doilea factor constituie cea de-a doua cea mai bună combinație liniară de variabile, supusă condiției de ortogonalitate cu primul factor. El este obținut din explicarea proporției de varianță rămasă după ce primul factor a fost extras. În această situație, saturațiile factoriale, care ne indică gradul de corespondență între variabilă și factor, nu ne conduc întotdeauna la o interpretare clară a factorilor, nu ne spun ce reprezintă conceptual factorii. Așa cum
[Corola-publishinghouse/Science/2075_a_3400]
-
factorilor, nu ne spun ce reprezintă conceptual factorii. Așa cum am arătat, prin rotația factorilor ajungem la o soluție mai simplă în termenii configurației de variabile care saturează factorii. Efectul cel mai important al rotației matricei factoriale este acela că redistribuie varianța explicată de factorii soluției inițiale la o alta, ai cărei factori sunt mai ușor interpretabili. În general, interpretarea factorilor este facilitată atunci când variabilele saturează în mod semnificativ doar unul dintre factori. Când o variabilă saturează mai mulți factori, ea trebuie
[Corola-publishinghouse/Science/2075_a_3400]