Dopasowywanie wyniku skłonności po wielokrotnym przypisaniu


34

Odnoszę się do tego artykułu: Hayes JR, Groner JI. „Korzystanie z wielu ocen imputacji i skłonności do testowania wpływu używania fotelików samochodowych i pasów bezpieczeństwa na stopień obrażeń na podstawie danych rejestru urazów”. J Pediatr Surg. 2008 maja; 43 (5): 924–7.

W tym badaniu przeprowadzono wielokrotną imputację w celu uzyskania 15 kompletnych zestawów danych. Następnie obliczono wyniki skłonności dla każdego zestawu danych. Następnie dla każdej jednostki obserwacyjnej losowo wybrano rekord z jednego z ukończonych 15 zestawów danych (w tym powiązany wynik skłonności), tworząc w ten sposób jeden końcowy zestaw danych, dla którego następnie analizowano poprzez dopasowanie wyniku skłonności.

Moje pytania brzmią: czy jest to prawidłowy sposób na wykonanie dopasowania oceny skłonności po wielokrotnym przypisaniu? Czy istnieją alternatywne sposoby na zrobienie tego?

Dla kontekstu: W moim nowym projekcie staram się porównać efekty 2 metod leczenia przy użyciu dopasowania oceny skłonności. Brakuje danych i zamierzam użyć MICEpakietu w R, aby przypisać brakujące wartości, a następnie twangwykonać dopasowanie oceny skłonności, a następnielme4 przeanalizować dopasowane dane.

Aktualizacja 1:

Znalazłem ten artykuł, który przyjmuje inne podejście: Mitra, Robin and Reiter, Jerome P. (2011) Dopasowywanie wyników skłonności do brakujących zmiennych towarzyszących poprzez iterowane, sekwencyjne wielokrotne przypisywanie [Dokument roboczy]

W tym artykule autorzy obliczają oceny skłonności dla wszystkich przypisanych zbiorów danych, a następnie łączą je poprzez uśrednianie, co jest w duchu wielokrotnej imputacji przy użyciu reguł Rubina dla oszacowania punktowego - ale czy to naprawdę ma zastosowanie do wyniku skłonności?

Byłoby naprawdę miło, gdyby ktokolwiek w CV mógł udzielić odpowiedzi z komentarzem na temat tych 2 różnych podejść i / lub innych…

Odpowiedzi:


20

Pierwszą rzeczą do powiedzenia jest to, że dla mnie metoda 1 (pobieranie próbek) wydaje się być bezcelowa - odrzuca korzyści wielokrotnej imputacji i sprowadza się do pojedynczej imputacji dla każdej obserwacji, jak wspomniał Staś. Nie widzę żadnej korzyści z jego używania.

Doskonała dyskusja na temat problemów związanych z analizą oceny skłonności z brakującymi danymi w Hill (2004): Hill, J. „Redukcja błędu systematycznego w szacowaniu efektu leczenia w badaniach obserwacyjnych cierpiących na brakujące dane” ISERP Working Papers, 2004. Można ją pobrać z tutaj .

W artykule rozważono dwa podejścia do stosowania wielokrotnej imputacji (a także inne metody radzenia sobie z brakującymi danymi) i oceny skłonności:

  • uśrednianie wyników skłonności po wielokrotnym przypisaniu, a następnie wnioskowanie przyczynowe (metoda 2 w twoim poście powyżej)

  • wnioskowanie przyczynowe przy użyciu każdego zestawu wyników skłonności z wielu imputacji, a następnie uśrednianie szacunków przyczynowych.

Ponadto w artykule rozważono, czy wynik powinien zostać uwzględniony jako predyktor w modelu imputacji.

Hill twierdzi, że chociaż wielokrotne przypisywanie jest preferowane w porównaniu z innymi metodami radzenia sobie z brakującymi danymi, generalnie nie ma a prioripowód, dla którego wolę jedną z tych technik od drugiej. Jednak mogą istnieć powody, aby preferować uśrednianie wyników skłonności, szczególnie przy użyciu pewnych algorytmów dopasowania. Hill przeprowadził badanie symulacyjne w tym samym artykule i stwierdził, że uśrednienie wyników skłonności przed wnioskowaniem przyczynowym, gdy uwzględnienie wyniku w modelu imputacji dało najlepsze wyniki pod względem średniego błędu kwadratu i najpierw uśrednienie wyników, ale bez wyniku w modelu imputacji uzyskał najlepsze wyniki pod względem średniego obciążenia (bezwzględna różnica między szacowanym a rzeczywistym efektem leczenia). Zasadniczo zaleca się uwzględnienie wyniku w modelu imputacji (na przykład patrz tutaj ).

Wygląda więc na to, że Twoja metoda 2 jest właściwą drogą.


1
Rozumiem metodę numer 2, ale nie wiem, jak ją wdrożyć w R. Czy ktoś ma jakieś odniesienia do mnie?
sam

2
Kod R dla obu metod znajduje się w winiecie dla cobaltpakietu zatytułowanego „Używanie kobaltu ze skomplikowanymi danymi”. Możesz uzyskać do niego dostęp tutaj: CRAN.R-project.org/package=cobalt
Noah

13

Może wystąpić zderzenie dwóch paradygmatów. Wielokrotna imputacja jest rozwiązaniem bayesowskim w dużej mierze opartym na modelu: koncepcja prawidłowej imputacji zasadniczo stwierdza, że ​​musisz próbkować z dobrze zdefiniowanego tylnego rozkładu danych, w przeciwnym razie jesteś przykręcony. Z drugiej strony dopasowanie wyniku skłonności jest procedurą półparametryczną: po obliczeniu wyniku skłonności (bez względu na to, jak mogłeś użyć oszacowania gęstości jądra, niekoniecznie modelu logit), możesz zrobić resztę po prostu biorąc różnice między obserwowanymi i nietraktowanymi obserwacjami z tym samym wynikiem skłonności, co jest teraz trochę nieparametryczne, ponieważ nie ma już modelu, który kontrolowałby inne zmienne towarzyszące. Ja nieAbadie i Imbens (2008) omawiali, że uniemożliwia to prawidłowe wyregulowanie standardowych błędów w niektórych pasujących sytuacjach). Dałbym więcej zaufania płynniejszym podejściom, takim jak ważenie przez odwrotną skłonność. Moim ulubionym odniesieniem w tej sprawie jest „Głównie nieszkodliwa ekonometria” z podtytułem „Towarzysz empiryczny” i skierowana do ekonomistów, ale myślę, że ta książka powinna być lekturą obowiązkową dla innych naukowców społecznych, większości biostatystów i statystów niebiograficznych, więc że wiedzą, jak inne dyscypliny podchodzą do analizy danych.

W każdym razie użycie tylko jednej z 15 symulowanych pełnych linii danych na obserwację jest równoważne pojedynczej imputacji. W rezultacie tracisz wydajność w porównaniu do wszystkich 15 kompletnych zestawów danych i nie możesz poprawnie oszacować standardowych błędów. Z mojego punktu widzenia wygląda to na wadliwą procedurę.

Oczywiście z radością omiatamy założenie, że zarówno model wielokrotnej imputacji, jak i model skłonności są poprawne w sensie posiadania wszystkich właściwych zmiennych we wszystkich właściwych formach funkcjonalnych. Jest mały sposób, aby to sprawdzić (chociaż chętnie usłyszę inaczej o środkach diagnostycznych dla obu tych metod).


(+1) W szczególności dlatego, że nie czuję się dobrze z powodu nieciągłości wprowadzonej przez dosłowną implementację dopasowania (znajdź kontrolę o najbliższej możliwej wartości wyniku skłonności i zignoruj ​​resztę) . Ocena skłonności zawsze wydawała mi się dość trudną procedurą.
kardynał

@ cardinal, patrz aktualizacja.
StasK

Widziałem więcej krytyki IPTW niż dopasowania przez inne metody (będę musiał przeczytać). Patrz Regresja ważenia według wyników skłonności ( Freedman i Berk, 2008 ), a dla zastosowanego przykładu patrz Bjerk, 2009 . Nie jestem do końca pewien, dlaczego polecasz w związku z tym Nieszkodliwą Ekonometrię , ale jest to dobra rekomendacja dla wszystkich zainteresowanych badaniami obserwacyjnymi.
Andy W

@Andy, utwór Freedman & Berk wydaje się radzić sobie z dużo prostszą sytuacją, kiedy można modelować wszystko w regresji logistycznej. Rozumiem, że metody takie jak PSM są stosowane w znacznie bardziej chaotycznych sytuacjach, gdy masz dużo więcej zmiennych towarzyszących i nie ufasz modelowi wystarczająco dobrze, aby założyć, że jest on poprawnie określony. Zauważyli, że sytuacja sprzyja ważeniu, ale myślę, że była korzystna dla modelu w porównaniu z innymi możliwymi metodami.
StasK

2
Ponieważ twoje dane nie są ididalne, a twierdzenie o wielkim maksymalnym prawdopodobieństwie dotyczące równości odwrotnego Hesji i iloczynu zewnętrznego gradientu już się nie utrzymuje i żadne z nich nie jest spójnym oszacowaniem wariancji. Trzeba użyć estymatora wariancji kanapkowej, czyli estymatora linearyzacji w statystykach badań, a także solidnego białego estymatora w ekonometrii.
StasK

10

Naprawdę nie umiem mówić o teoretycznych aspektach pytania, ale dam swoje doświadczenie z wykorzystaniem modeli PS / IPTW i wielokrotnego przypisywania.

  1. Nigdy nie słyszałem o kimś, kto używa wielokrotnie przypisywanych zbiorów danych i losowego próbkowania do zbudowania jednego zestawu danych. To niekoniecznie oznacza, że ​​jest źle ale jest to dziwne podejście do użycia. Zestaw danych również nie jest wystarczająco duży, byś musiał wykazać się kreatywnością, aby obejść 3-5 modeli zamiast tylko jednego, aby zaoszczędzić czas i obliczenia.
  2. Reguła Rubina i metoda łączenia są dość ogólnym narzędziem. Biorąc pod uwagę łączny, wielokrotnie kalkulowany wynik można obliczyć przy użyciu tylko wariancji i szacunków, nie widzę powodu, dla którego nie mogę go wykorzystać w twoim projekcie - tworzenie przypisanych danych, przeprowadzanie analizy dla każdego zestawu, a następnie łączenie. To właśnie zrobiłem, co widziałem, i chyba że masz konkretne uzasadnienie, aby tego nie robić, tak naprawdę nie widzę powodu, aby wybrać coś bardziej egzotycznego - zwłaszcza jeśli nie rozumiesz, co jest kontynuując tę ​​metodę.

+1 To pytanie, na które trudno jest udzielić dobrej odpowiedzi, ponieważ wydaje się, że jest to tak wysoce specjalistyczny artykuł. Ale oprócz twierdzenia, że ​​utracił nagrodę za poprzednie podobne pytanie, PO dodał pytanie błagające o rozwiązania, które zostały przeniesione do meta. W odpowiedzi udzieliłem podobnych komentarzy do twojego. Szczególnie wątpię w kwestię próbki z wielokrotnie przypisanego zestawu danych.
Michael R. Chernick,

Dzięki ! Czy masz jakieś referencje dotyczące zastosowania metody 2?
Joe King

@JoeKing Niestety, nie z mojej głowy.
Fomite
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.