factor de analiză
2. Metode bazate pe criteriile de sistem semne de auto-informativitatea
Algoritmii formală a acestui grup de metode nu sunt opera direct de formare informații cu privire la valoarea dorită a variabilei diagnosticate. În același timp, această informație este implicit întotdeauna prezentă în datele experimentale. Ea a pus pe prima etapă a construcției de testare psiho-diagnostic atunci când experimentatorul formează setul inițial de atribute, fiecare dintre care, în opinia sa, ar trebui să reflecte anumite aspecte ale caracteristicii. În acest caz, o reflectare a proprietăților caracterelor individuale, așa cum se înțelege este cea mai simplă formă de semn de comunicare cu indicator diagnosticat - xi corelare cu y. În cazul în care testul este omogen de proprietate, atunci există toate motivele să credem că conținutul informațional al măsurii finale de selecție caracteristică poate fi gradul de acțiune coordonată a acestor atribute în direcția corectă.
Componenta principală
Componenta principală (CIM), a fost propusă în 1901 de către Pearson Anul și apoi re-deschis și dezvoltat în detaliu Hottelingom / 1933 /. El a dedicat o mulțime de cercetare, și este larg reprezentată în literatura de specialitate, referindu-se la care este posibil să se obțină informații despre metoda componentelor principale cu diferite grade de detaliu și rigoarea matematică (de exemplu, S. Ayvazyan, A. și colab. 1974, 1983, 1989). Această secțiune nu are ca scop să realizeze o prezentare detaliată a tuturor caracteristicilor CIM. Ne concentrăm asupra fenomenelor de bază ale analizei componentelor principale.
Componenta principală face o tranziție la noul sistem de coordonate y1. ur în original x1 spațiu caracteristică. xp care este un sistem de combinații liniare ortnormirovannyh
unde mi - așteptările semn xi. Combinațiile liniare sunt alese astfel încât între toate posibilele combinații liniare ale caracteristicilor inițiale ale primului normalizat y1 component principal (x) are cea mai mare variabilitate. Geometric, se pare ca un nou coordonate de orientare de-a lungul axei Y1 direcția de alungire mai mare de elipsoid obiecte eșantion de studiu x1 spațiu caracteristică. XP. A doua componentă principală are cea mai mare variabilitate între transformările liniare rămase, necorelate cu primul component principal. Acesta este interpretat ca direcția de alungire mai mare a elipsoidului perpendiculară pe prima componentă principală. Următoarele componente principale sunt determinate de același program.
Calcularea coeficienților Wij componentelor principale pe baza faptului că vectorii wi = (w11. WPL)“. wp = (w1p. WPP) „sunt (caracteristice) vectori proprii ale matricei S. corelație La rândul lor, valorile proprii corespunzătoare ale acestei matrice sunt varianțele ale multitudinii de proiecții ale obiectelor de pe axa componentei principale.
Algoritmi, asigurând punerea în aplicare a componentelor principale includ aproape toate pachetele de software de statistică.
factor de analiză
În metoda de mai sus, componenta principală în temeiul criteriului de spațiu caracteristică auto-informativitatea se înțelege că o informație de diagnostic valoros să se reflecte într-un model liniar, care se potrivește noii axe de coordonate în acest spațiu cu dispersia maximă a distribuției proiecțiilor obiectelor. Această abordare este rodnică atunci când majoritatea clară a locurilor de muncă „brute“ variantă de testare în mod constant „lucrări“ în manifestarea proprietăților de testare și suprimă influența factorilor irelevante asupra distribuției de obiecte. De asemenea, un rezultat pozitiv este obținut cu o cantitate relativ mică a unui grup de semne informative legate, dar interacțiunea inconsecvent factori externi care influențează uniformitatea nu este perturbată de elipsă, ci pur și simplu a redus alungire de-a lungul direcției de distribuție a obiectelor diagnosticate tendințe. Spre deosebire de metoda de analiza componentelor principale factoriale nu se bazează pe caracteristicile de dispersie ale criteriilor de sisteme de auto-informativitatea și explicația este axat pe corelațiile existente între atribute. Prin urmare, analiza factor este aplicat cazuri mai complexe, structura comună de manifestare a datelor experimentale ale obiectelor de testare și proprietăți irelevante grad comparabil de coerență internă și pentru a izola grupul de indici de diagnostic din totalul setului inițial de atribute.
Modelul de bază al analizei factoriale este înregistrată ca urmare VV egalitati / system Nalimov 1971 /
Cu alte cuvinte, se presupune că valoarea fiecărui xi caracteristică poate fi exprimată ca o sumă ponderată de variabile latente (factori simpli) fi. număr este mai mic decât numărul de simptome inițiale și restul # 949; i cu o variație # 963; 2 (# 949; i), care acționează numai pe xi. care se numește factor specific. Coeficienți lij numit de sarcină i-lea variabilă pe factorul de încărcare-j-lea sau factorul-j-lea al variabilei i-lea. În cel mai simplu model de factor de analiză se consideră că factorii fj sunt reciproc independente și varianțelor lor egale cu una, și variabilele aleatoare # 949; i, de asemenea, sunt independente una de cealaltă și de la orice FJ factor. Numărul maxim posibil de factori m pentru un anumit număr p este determinată de semnele de inegalitate
care trebuie să se asigure că sarcina nu degenereze în banal. Această inegalitate se obține prin numărarea gradelor de libertate disponibile în problema / Lawley D. și colab., 1967 /. Suma pătratelor tensiunilor în formula de bază modelul de analiză factorială a caracteristica xi apel comună corespunzătoare și mai mare valoarea, caracteristica xi descris mai bine dedicat factorilor fj. Caracterul comun face parte din semnul dispersiei, ceea ce explică factorii. La rândul său, # 949; Am 2 indică cât de mult din dispersia inițială rămâne caracteristică inexplicabila utilizată la un set de factori și valoarea dată este numită specificitate caracteristică. Astfel,
Principalul factor de analiză raport arată că coeficientul de corelare a oricăror două caracteristici ale xi și xj este posibil să se exprime produsul din suma factorilor necorelate încărcările
Sarcina de factor de analiză nu poate fi rezolvată în mod unic. Egalitatea modelul de bază al analizei factoriale nu dau o verificare directă deoarece atributele inițiale p definite de (p + m) cu alte variabile - factori simpli și specifici. Prin urmare, reprezentarea matricei de corelare a factorilor, cum se spune, factorizare ei, puteți face un număr infinit de moduri. Dacă nu reușiți să producă o factorizare matrice de corelație folosind o matrice de factor de încărcări F. apoi orice transformare ortogonală liniar F (rotația ortogonală) va conduce la același factorizare / Nalimov VV 1971 /.
La finalul întregii proceduri de analiză factorială utilizând transformări matematice factori expres prin semne inițiale imbinate in dinti, adică primi parametrii de diagnostic explicite ale modelului liniar.
În analiza factor, există mai mulți susținători și mulți adversari. Dar, după cum a remarcat pe bună dreptate V. Nalimov“. Psihologii și sociologi au avut nici un alt mod, și ei au învățat aceste două metode de analiză (factor și analiza componentelor principale - VD), în detaliu „/ Nalimov VV 1971, p. 100 /. Literatura Pentru mai multe detalii privind analiza factorului și metodele sale pot fi recomandate / Lawley 1967 D. și colab .; Harman, G. 1972 Aivazyan S. A. și colab .; 1974 Iberl K 1980 /.
grupuri Metodă contrastante
În primul rând numit chei inițiale barchart (greutate) w # 730; j pentru elementele de testare (trasaturi dihotomice) xj. Pentru fiecare test de a i-a calculat scorul total de încercare
De obicei, valorile absolute ale greutăților wj se determină aproximativ luate și de multe ori să fie unitate. Prin urmare, direcția
Acesta va fi ușor diferită de direcția elipsoid diagonalei principale (x) (fig. 3).
Fig. 3. Ilustrarea metodei contrastante grupurile
Dar dacă provizoriu UCH (x) diagnosticat reflectă în mod corect proprietatea, la marginile distribuției scorul total, care a fost construit pe toate obiectele din eșantionul de studiu, putem distinge grupul contrastantă # 969; 1 și # 969; 2. care va include obiecte cu un minim de erori introduse de semne „zgomotoase“. Aceste grupuri nu trebuie să fie prea mică. Pentru o distribuție normală, luați de obicei grupul contrastanta de 27% din volumul total al probei cu un plan - 33%. Se consideră, în general, acceptabil de către orice număr între 25 și 33% / 1982 A. Anastasi /. Următorul pas este de a determina gradul de corelare a fiecărui element cu o variabilă dihotomică - numărul de grup de contrast. O măsură a acestei conexiuni este așa-numitul indicele de discriminare care reprezintă diferența procentuală a unei răspuns la punctelor analizate grupele polare ale subiecților. Cel mai frecvent utilizat de cuplare coeficient Pearson # 966;, care este apoi comparată cu valoarea de delimitare
unde # 967; 2 c - un cuantila standard a distribuției # 967; 2, cu un grad de libertate. De obicei, orientat spre 5% și 1% niveluri \ importanță, pentru care valoarea # 967; 2 este egal cu 3,84 și, respectiv, 6,63. Dacă elementul i-lea | # 966; i |<|φгр |, то весовому коэффициенту wi присваивается значение нуля, то есть признак хi исключается из линейной диагностической модели уч (х). Таким образом проверяются все пункты «чернового» варианта теста. Затем для оставшихся пунктов вся процедура снова полностью повторяется и т. д.
În practică, nu îndeplinește cazul în care în cele din urmă selectate cu ajutorul acestei proceduri, semne informative au coincis complet cu setul original. Convergența acestei proceduri depinde de raportul inițial de sarcini „bune“ și „rele“ de testare. Aparent, pentru modelele de diagnostic bazat pe principiul semnelor de consistență internă utilizate în fiecare problemă specifică există un anumit raport prag informativ și semne de „zgomotoase“, de la care se pot experimenta efectul de auto-organizare sau model auto-diagnosticare descris de algoritmul de mai sus.