Nn
Aby wyjaśnić mój punkt widzenia na temat mocy, oto bardzo prosta symulacja napisana dla R:
set.seed(9) # this makes the simulation exactly reproducible
power5050 = vector(length=10000) # these will store the p-values from each
power7525 = vector(length=10000) # simulated test to keep track of how many
power9010 = vector(length=10000) # are 'significant'
for(i in 1:10000){ # I run the following procedure 10k times
n1a = rnorm(50, mean=0, sd=1) # I'm drawing 2 samples of size 50 from 2 normal
n2a = rnorm(50, mean=.5, sd=1) # distributions w/ dif means, but equal SDs
n1b = rnorm(75, mean=0, sd=1) # this version has group sizes of 75 & 25
n2b = rnorm(25, mean=.5, sd=1)
n1c = rnorm(90, mean=0, sd=1) # this one has 90 & 10
n2c = rnorm(10, mean=.5, sd=1)
power5050[i] = t.test(n1a, n2a, var.equal=T)$p.value # here t-tests are run &
power7525[i] = t.test(n1b, n2b, var.equal=T)$p.value # the p-values are stored
power9010[i] = t.test(n1c, n2c, var.equal=T)$p.value # for each version
}
mean(power5050<.05) # this code counts how many of the p-values for
[1] 0.7019 # each of the versions are less than .05 &
mean(power7525<.05) # divides the number by 10k to compute the %
[1] 0.5648 # of times the results were 'significant'. That
mean(power9010<.05) # gives an estimate of the power
[1] 0.3261
N=100n1=50n2=50n1=75n2=25n1=90n2=10. Należy ponadto zauważyć, że ustandaryzowany średni proces generowania różnic / danych był taki sam we wszystkich przypadkach. Jednak podczas gdy test był „znaczący” w 70% przypadków dla próbki 50–50, moc wynosiła 56% przy 75–25 i tylko 33%, gdy wielkość grupy wynosiła 90–10.
Myślę o tym przez analogię. Jeśli chcesz poznać obszar prostokąta, a obwód jest stały, obszar ten zostanie zmaksymalizowany, jeśli długość i szerokość będą równe (tj. Jeśli prostokąt jest kwadratem ). Z drugiej strony, gdy długość i szerokość się rozchodzą (w miarę wydłużania się prostokąta), obszar się kurczy.