Jak uzyskać połączone wartości p na testach przeprowadzonych w wielu przypisanych zestawach danych?


11

Używając Amelii w R, uzyskałem wiele przypisanych zestawów danych. Następnie wykonałem test z powtarzanymi pomiarami w SPSS. Teraz chcę połączyć wyniki testu. Wiem, że mogę używać reguł Rubina (zaimplementowanych w dowolnym pakiecie wielokrotnej imputacji w R) do łączenia średnich i standardowych błędów, ale jak mam łączyć wartości p? Czy to możliwe? Czy w R jest taka funkcja? Z góry dziękuję.


Możesz sprawdzić informacje na temat metaanalizy wartości p. Jeden dobry punkt wyjścia: en.wikipedia.org/wiki/Fisher%27s_method
user29889

Odpowiedzi:


13

Tak , jest to możliwe i tak, są Rfunkcje, które to robią. Zamiast obliczania P-wartości powtarzanych analiz przez strony, można skorzystać z pakietu Zelig, który jest również określany w winiety na Amelia-package ( dla metody bardziej informacyjny zobaczyć moją aktualizację poniżej ). Wykorzystam przykład z Amelia-winiety, aby to zademonstrować:

library("Amelia")
data(freetrade)
amelia.out <- amelia(freetrade, m = 15, ts = "year", cs = "country")

library("Zelig")
zelig.fit <- zelig(tariff ~ pop + gdp.pc + year + polity, data = amelia.out$imputations, model = "ls", cite = FALSE)
summary(zelig.fit)

Jest to odpowiedni wynik, w tym wartości :p

  Model: ls
  Number of multiply imputed data sets: 15 

Combined results:

Call:
lm(formula = formula, weights = weights, model = F, data = data)

Coefficients:
                Value Std. Error t-stat  p-value
(Intercept)  3.18e+03   7.22e+02   4.41 6.20e-05
pop          3.13e-08   5.59e-09   5.59 4.21e-08
gdp.pc      -2.11e-03   5.53e-04  -3.81 1.64e-04
year        -1.58e+00   3.63e-01  -4.37 7.11e-05
polity       5.52e-01   3.16e-01   1.75 8.41e-02

For combined results from datasets i to j, use summary(x, subset = i:j).
For separate results, use print(summary(x), subset = i:j).

zeligzmieści wiele modeli innych niż najmniejsze kwadraty.

Aby uzyskać przedziały ufności i stopnie swobody dla swoich oszacowań, możesz użyć mitools:

library("mitools")
imp.data <- imputationList(amelia.out$imputations)
mitools.fit <- MIcombine(with(imp.data, lm(tariff ~ polity + pop + gdp.pc + year)))
mitools.res <- summary(mitools.fit)
mitools.res <- cbind(mitools.res, df = mitools.fit$df)
mitools.res

Zapewni to przedziały ufności i odsetek całkowitej wariancji, który można przypisać brakującym danym:

              results       se    (lower    upper) missInfo    df
(Intercept)  3.18e+03 7.22e+02  1.73e+03  4.63e+03     57 %  45.9
pop          3.13e-08 5.59e-09  2.03e-08  4.23e-08     19 % 392.1
gdp.pc      -2.11e-03 5.53e-04 -3.20e-03 -1.02e-03     21 % 329.4
year        -1.58e+00 3.63e-01 -2.31e+00 -8.54e-01     57 %  45.9
polity       5.52e-01 3.16e-01 -7.58e-02  1.18e+00     41 %  90.8

Oczywiście możesz po prostu połączyć interesujące wyniki w jeden obiekt:

combined.results <- merge(mitools.res, zelig.res$coefficients[, c("t-stat", "p-value")], by = "row.names", all.x = TRUE)

Aktualizacja

Po micekrótkiej zabawie znalazłem bardziej elastyczny sposób na uzyskanie wszystkich niezbędnych informacji za pomocą pakietu. Aby to zadziałało, musisz zmodyfikować funkcję pakietu as.mids(). Użyj wersji Gerko opublikowanej w moim kolejnym pytaniu :

as.mids2 <- function(data2, .imp=1, .id=2){
  ini <- mice(data2[data2[, .imp] == 0, -c(.imp, .id)], m = max(as.numeric(data2[, .imp])), maxit=0)
  names  <- names(ini$imp)
  if (!is.null(.id)){
    rownames(ini$data) <- data2[data2[, .imp] == 0, .id]
  }
  for (i in 1:length(names)){
    for(m in 1:(max(as.numeric(data2[, .imp])))){
      if(!is.null(ini$imp[[i]])){
        indic <- data2[, .imp] == m & is.na(data2[data2[, .imp]==0, names[i]])
        ini$imp[[names[i]]][m] <- data2[indic, names[i]]
      }
    } 
  }
  return(ini)
}

Po zdefiniowaniu tego można przejść do analizy przypisanych zbiorów danych:

library("mice")
imp.data <- do.call("rbind", amelia.out$imputations)
imp.data <- rbind(freetrade, imp.data)
imp.data$.imp <- as.numeric(rep(c(0:15), each = nrow(freetrade)))
mice.data <- as.mids2(imp.data, .imp = ncol(imp.data), .id = NULL)

mice.fit <- with(mice.data, lm(tariff ~ polity + pop + gdp.pc + year))
mice.res <- summary(pool(mice.fit, method = "rubin1987"))

To daje wszystkie wyniki można uzyskać przy użyciu Zeligi mitoolswięcej:

                  est       se     t    df Pr(>|t|)     lo 95     hi 95 nmis   fmi lambda
(Intercept)  3.18e+03 7.22e+02  4.41  45.9 6.20e-05  1.73e+03  4.63e+03   NA 0.571  0.552
pop          3.13e-08 5.59e-09  5.59 392.1 4.21e-08  2.03e-08  4.23e-08    0 0.193  0.189
gdp.pc      -2.11e-03 5.53e-04 -3.81 329.4 1.64e-04 -3.20e-03 -1.02e-03    0 0.211  0.206
year        -1.58e+00 3.63e-01 -4.37  45.9 7.11e-05 -2.31e+00 -8.54e-01    0 0.570  0.552
polity       5.52e-01 3.16e-01  1.75  90.8 8.41e-02 -7.58e-02  1.18e+00    2 0.406  0.393

pool()prefamethodR2)

pool.r.squared(mice.fit)

mice.fit2 <- with(mice.data, lm(tariff ~ polity + pop + gdp.pc))
pool.compare(mice.fit, mice.fit2, method = "Wald")$pvalue

1
Świetna odpowiedź, po prostu chciałem podkreślić niewielki literówkę, myślę, że masz na myśli: mice.res <- summary(pool(mice.fit, method = "rubin1987")).
FrankD

Dobry chwyt Poprawiłem literówkę.
crsh

8

Zwykle wziąłbyś wartość p, stosując reguły Rubina dotyczące konwencjonalnych parametrów statystycznych, takich jak wagi regresji. Dlatego często nie ma potrzeby bezpośredniego łączenia wartości p. Również statystykę prawdopodobieństwa można połączyć w celu porównania modeli. Procedury łączenia dla innych statystyk można znaleźć w mojej książce Elastyczne przypisywanie brakujących danych, rozdział 6.

W przypadkach, w których nie ma znanej dystrybucji lub metody, istnieje niepublikowana procedura Licht i Rubin dotycząca testów jednostronnych. Użyłem tej procedury do zebrania wartości p z wilcoxon()procedury, ale jest ona ogólna i łatwa w adaptacji do innych zastosowań.

Zastosuj poniższą procedurę TYLKO, jeśli wszystko inne zawiedzie, ponieważ na razie niewiele wiemy o jej właściwościach statystycznych.

lichtrubin <- function(fit){
    ## pools the p-values of a one-sided test according to the Licht-Rubin method
    ## this method pools p-values in the z-score scale, and then transforms back 
    ## the result to the 0-1 scale
    ## Licht C, Rubin DB (2011) unpublished
    if (!is.mira(fit)) stop("Argument 'fit' is not an object of class 'mira'.")
    fitlist <- fit$analyses
        if (!inherits(fitlist[[1]], "htest")) stop("Object fit$analyses[[1]] is not an object of class 'htest'.")
    m <- length(fitlist)
    p <- rep(NA, length = m)
    for (i in 1:m) p[i] <- fitlist[[i]]$p.value
    z <- qnorm(p)  # transform to z-scale
    num <- mean(z)
    den <- sqrt(1 + var(z))
    pnorm( num / den) # average and transform back
}

@ Stef van Buuren, co masz na myśli mówiąc „weź wartość p, stosując reguły Rubina dotyczące konwencjonalnych parametrów statystycznych, takich jak wagi regresji”? W jaki sposób pool() funkcja w twoim pakiecie (która jest doskonała przy okazji) osiąga zbiorczą wartość p?
llewmills,
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.