Załóżmy, że mam zestaw danych z wynikami dla wielu elementów kwestionariusza, które teoretycznie składają się z mniejszej liczby skal, jak w badaniach psychologicznych.
Wiem, że powszechnym podejściem jest tutaj sprawdzanie wiarygodności skal za pomocą alfa Cronbacha lub czegoś podobnego, a następnie agregowanie elementów w skalach w celu utworzenia wyników skali i kontynuowanie analizy.
Ale jest też analiza czynnikowa, która może wziąć wszystkie twoje wyniki jako dane wejściowe i powiedzieć, który z nich tworzy spójne czynniki. Możesz dowiedzieć się, jak silne są te czynniki, patrząc na obciążenia i społeczności, i tak dalej. Dla mnie to brzmi jak ta sama rzecz, tylko o wiele bardziej dogłębna.
Nawet jeśli wszystkie twoje rzetelności na skali są dobre, EFA może cię poprawić, które przedmioty lepiej pasują do których skal, prawda? Prawdopodobnie dostaniesz obciążenia krzyżowe i może być bardziej sensowne zastosowanie pochodnych ocen czynników niż prostych sum skali.
Jeśli chcę użyć tych skal do późniejszych analiz (takich jak regresja lub ANOVA), czy powinienem po prostu agregować skale, dopóki ich wiarygodność się utrzyma? Lub jest coś w rodzaju CFA (testowanie, czy skale utrzymują się jako dobre czynniki, co wydaje się mierzyć to samo, co „niezawodność”).
Nauczono mnie o obu podejściach niezależnie, więc tak naprawdę nie wiem, jak się one odnoszą, czy można je stosować razem, czy które z nich ma większy sens w jakim kontekście. Czy w tym przypadku istnieje drzewo decyzyjne dotyczące dobrej praktyki badawczej? Coś jak:
Uruchom CFA zgodnie z przewidywanymi elementami skali
- Jeśli CFA wykazuje dobre dopasowanie, oblicz wyniki czynnikowe i wykorzystaj je do analizy.
- Jeśli CFA wykazuje słabe dopasowanie, zamiast tego uruchom EFA i zastosuj podejście eksploracyjne (lub coś takiego).
Czy analiza czynnikowa i testy niezawodności są rzeczywiście osobnymi podejściami do tej samej rzeczy, czy też gdzieś się nie rozumiem?