Użyj sparowanego testu t
Tak długo, jak masz wystarczającą liczbę ocen (15 jest wystarczających, a byłbym szczęśliwy nawet z mniejszą liczbą) i pewne różnice w różnicach w ocenach, nie ma żadnego problemu ze stosowaniem sparowanego testu t . Następnie otrzymujesz oszacowania, które są bardzo łatwe do interpretacji - średnie oceny w skali numerycznej 1–5 + jego różnica (między produktami).
Kod R.
W R jest to bardzo łatwe:
> ratings = c("very bad", "bad", "okay", "good", "very good")
> d = data.frame(
customer = 1:15,
product1 = factor(c(5, 4, 3, 5, 2, 3, 2, 5, 4, 4, 3, 5, 4, 5, 5),
levels=1:5, labels=ratings),
product2 = factor(c(1, 2, 2, 3, 5, 4, 3, 1, 4, 5, 3, 4, 4, 3, 3),
levels=1:5, labels=ratings))
> head(d)
customer product1 product2
1 1 very good very bad
2 2 good bad
3 3 okay bad
4 4 very good okay
5 5 bad very good
6 6 okay good
Najpierw sprawdźmy średnie oceny:
> mean(as.numeric(d$product1))
[1] 3.9333
> mean(as.numeric(d$product2))
[1] 3.1333
A test t daje nam:
> t.test(as.numeric(d$product1),
as.numeric(d$product2), paired=TRUE)
Paired t-test
data: as.numeric(d$product1) and as.numeric(d$product2)
t = 1.6, df = 14, p-value = 0.13
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
-0.27137 1.87137
sample estimates:
mean of the differences
0.8
The p-wartość wynosi 0,13, co nie sugeruje zdecydowanie, że produkty są oceniane inaczej, pomimo pozornej różnicy wynoszącej 0,8 (należy jednak pamiętać o dość pewnym przedziale ufności - naprawdę potrzebujemy więcej danych).
Fałszywe dane?
Co ciekawe i nieoczekiwanie, niesparowany test t daje niższą wartość p .
> t.test(as.numeric(d$product1),
as.numeric(d$product2), paired=FALSE)
Welch Two Sample t-test
data: as.numeric(d$product1) and as.numeric(d$product2)
t = 1.86, df = 27.6, p-value = 0.073
[…]
To sugeruje, że przykładowe dane są fałszywe. W przypadku danych rzeczywistych można oczekiwać (dość wysokiej) dodatniej korelacji między ocenami tego samego klienta. Tutaj korelacja jest ujemna (choć nie tak istotna statystycznie):
> cor.test(as.numeric(d$product1), as.numeric(d$product2))
Pearson's product-moment correlation
data: as.numeric(d$product1) and as.numeric(d$product2)
t = -1.38, df = 13, p-value = 0.19
alternative hypothesis: true correlation is not equal to 0
95 percent confidence interval:
-0.73537 0.18897
sample estimates:
cor
-0.35794
Brakujące dane
Gdy nie wszyscy klienci ocenili oba produkty (tzn. Niezrównoważone dane), lepszym podejściem jest zastosowanie modelu mieszanego:
Najpierw przekonwertujmy dane do postaci liczbowej:
> d2 = d
> d2[,-1] = lapply(d2[,-1], as.numeric)
I przekonwertuj go na „długą” formę:
> library(tidyr)
> d3 = gather(d2, product, value, -customer)
I wreszcie dopasuj model efektów mieszanych z klientem jako efekt losowy:
> l = lme(value~product, random=~1|customer, data=d3)
> summary(l)
Linear mixed-effects model fit by REML
Data: d3
AIC BIC logLik
101.91 107.24 -46.957
Random effects:
Formula: ~1 | customer
(Intercept) Residual
StdDev: 3.7259e-05 1.1751
Fixed effects: value ~ product
Value Std.Error DF t-value p-value
(Intercept) 3.9333 0.30342 14 12.9633 0.0000
productproduct2 -0.8000 0.42910 14 -1.8644 0.0834
[…]
The p-wartość wynosi 0,0834. Zwykle dla zbalansowanych danych będzie prawie identyczny jak wartość p ze sparowanego testu t . Tu jest bliżej p -value wystąpienia niesparowany t -test, ze względu na korelację ujemną. Zauważ, że wariancja efektu klienta (przechwytywanie losowe) wynosi prawie zero. Zdarza się to rzadko w przypadku rzeczywistych danych.
Podsumowanie
Podsumowując, użyj sparowanego testu t . Następnie otrzymujesz oszacowania, które są łatwe do interpretacji (proste średnie liczbowe).
Jeśli nie wszyscy klienci ocenili oba produkty, użyj zamiast tego modelu efektów mieszanych. (To daje w przybliżeniu takie same wyniki jak sparowane t -test kiedy już wszystko ocenione zarówno produkty, więc równie dobrze można go używać zawsze).