Czy ważenie oparte na dokładności (tj. Wariancji odwrotnej) jest integralną częścią metaanalizy?


10

Czy ważenie precyzyjne ma kluczowe znaczenie dla metaanalizy? Borenstein i in. (2009) piszą, że aby metaanaliza była możliwa, konieczne jest jedynie:

  1. Badania podają oszacowanie punktowe, które można wyrazić jako pojedynczą liczbę.
  2. Odchylenie można obliczyć dla tego oszacowania punktowego.

Nie jest od razu jasne, dlaczego (2) jest absolutnie niezbędny. Rzeczywiście wszystkie powszechnie akceptowane metody metaanalizy opierają się na schematach ważenia opartych na precyzji (tj. Wariancji odwrotnej), które wymagają oszacowania wariancji dla wielkości efektu każdego badania. Należy zauważyć, że chociaż Metoda Hedgesa (Hedges i Olkin, 1985; Hedges & Vevea, 1998) oraz Metoda Huntera i Schmidta (Hunter i Schmidt, 2004) zasadniczo wykorzystują ważenie wielkości próby, metody te mają zastosowanie tylko do znormalizowanych średnich różnic, a zatem wymagają standardowe odchylenie gdzie indziej. Ma to sens, że wagi odwrotnie proporcjonalne do wariancji w każdym badaniu zminimalizują wariancję w ogólnym estymatorze wielkości efektu, więc czy ten schemat ważenia jest wymaganą cechą wszystkich metod?

Czy można przeprowadzić systematyczny przegląd bez dostępu do wariancji dla każdego rozmiaru efektu i nadal nazwać wynik metaanalizą? Wydaje się, że wielkość próbki może służyć jako wskaźnik dokładności, gdy wariancja jest niedostępna. Czy można na przykład zastosować ważenie wielkości próby w badaniu, w którym wielkość efektu została zdefiniowana jako surowa średnia różnica? Jak wpłynęłoby to na spójność i wydajność uzyskanego średniego rozmiaru efektu?


dobre pytanie. Jeśli podniesiesz wyraźny konkretny querry, może pomóc czytelnikowi.
Subhash C. Davar,

W szczególności szukam sposobu na włączenie miary heterogeniczności między badaniami (tj. Efektów losowych) do mojego schematu ważenia, gdy dane dotyczące wariancji nie są dostępne dla wszystkich badań. Wcześniejszą, bardziej szczegółową wersję mojego pytania można znaleźć tutaj: stats.stackexchange.com/questions/155063/…
Jennifer

Odpowiedzi:


11

Trudno odpowiedzieć na pytanie, ponieważ jest ono tak bardzo wskazujące na ogólne zamieszanie i zagmatwany stan rzeczy w dużej części literatury metaanalitycznej (OP nie jest tutaj winny - to jest literatura i opis metod , modele i założenia, które często powodują bałagan).

Krótko mówiąc: nie, jeśli chcesz połączyć wiele oszacowań (które określają jakiś efekt, stopień powiązania lub inny wynik uznany za istotny) i rozsądne jest połączenie tych liczb, wtedy możesz po prostu wziąć ich (nieważoną) średnią i byłoby idealnie. Nie ma w tym nic złego i zgodnie z modelami, które zwykle zakładamy, gdy przeprowadzamy metaanalizę, daje to nawet obiektywne oszacowanie (zakładając, że same oszacowania są obiektywne). Więc nie, nie potrzebujesz wariancji próbkowania, aby połączyć oszacowania.

Dlaczego więc ważenie odwrotnej wariancji jest prawie równoznaczne z faktycznym wykonaniem metaanalizy? Ma to związek z ogólną ideą, że większą wiarygodność przykładamy do dużych badań (przy mniejszych wariancjach próbkowania) niż do mniejszych badań (przy większych wariancjach próbkowania). W rzeczywistości, zgodnie z założeniami zwykłych modeli, zastosowanie odwrotnego ważenia wariancji prowadzi do estymatora obiektywnego minimalnie jednakowej minimalnej wariancji(UMVUE) - no cóż, poniekąd, zakładając obiektywne szacunki i ignorując fakt, że wariancje próbkowania w rzeczywistości często nie są dokładnie znane, ale są szacowane same i w modelach efektów losowych, musimy również oszacować składnik wariancji dla niejednorodności, ale potem potraktowaliśmy to jako znaną stałą, co też nie jest całkiem właściwe ... ale tak, uzyskujemy UMVUE, jeśli zastosujemy ważenie odwrotnej wariancji, jeśli po prostu mocno zmrużymy oczy i zignorujemy niektóre z nich problemy.

Stawką jest tutaj wydajność estymatora, a nie sama bezstronność. Ale nawet nieważona średnia często nie będzie o wiele mniej wydajna niż stosowanie średniej ważonej odwrotnej wariancji, szczególnie w modelach efektów losowych i gdy ilość niejednorodności jest duża (w takim przypadku zwykły schemat ważenia prowadzi do prawie jednakowych wag tak czy siak!). Ale nawet w modelach z efektami stałymi lub z niewielką niejednorodnością różnica często nie jest przytłaczająca.

I jak wspominasz, można również z łatwością rozważyć inne schematy ważenia, takie jak ważenie według wielkości próbki lub niektóre ich funkcje, ale znowu jest to tylko próba uzyskania czegoś zbliżonego do wag odwrotności wariancji (ponieważ wariancje próbkowania mają, w dużej mierze, zależy od wielkości próby badania).

Ale tak naprawdę można i należy całkowicie oddzielić kwestię wag i odchyleń. To naprawdę dwa osobne elementy, o których trzeba pomyśleć. Ale to nie jest tak, jak rzeczy są zazwyczaj przedstawiane w literaturze.

Chodzi jednak o to, że naprawdę musisz pomyśleć o obu. Tak, możesz przyjąć nieważoną średnią jako swoje łączne oszacowanie, co w gruncie rzeczy byłoby metaanalizą, ale gdy chcesz rozpocząć wnioskowanie na podstawie tego połączonego oszacowania (np. Przeprowadzić test hipotez, skonstruuj przedział ufności ), musisz znać wariancje próbkowania (i liczbę niejednorodności). Pomyśl o tym w ten sposób: jeśli połączysz kilka małych (i / lub bardzo niejednorodnych) badań, twoje oszacowanie punktowe będzie o wiele mniej dokładne niż po połączeniu tej samej liczby bardzo dużych (i / lub jednorodnych) badania - niezależnie od tego, jak ważono swoje szacunki przy obliczaniu łącznej wartości.

W rzeczywistości istnieje nawet kilka sposobów, aby nie znać wariancji próbkowania (i ilości niejednorodności), kiedy zaczynamy tworzyć statystyki wnioskowania. Można rozważyć metody oparte na ponownym próbkowaniu (np. Ładowanie, testy permutacji) lub metody, które dają spójne standardowe błędy dla połączonych danych szacunkowych, nawet gdy błędnie określimy części modelu - ale to, jak dobrze te podejścia mogą działać, należy dokładnie ocenić na na podstawie indywidualnych przypadków.


0

Jeśli znasz niektóre ze standardowych błędów, ale nie wszystkie, oto rozwiązanie:

(1) zakładamy, że nieznana SE jest losowo wybierana z tego samego rozkładu, co znane SE, lub niech rozkład SE oszacowań artykułów o nieznanej SE będzie zmienną swobodną. Jeśli chcesz być fantazyjny, możesz użyć uśredniania modelu dla tych opcji.

(2) oszacuj według maksymalnego prawdopodobieństwa

Jeśli twoje badanie z nieznaną SE jest „wartością odstającą”, model wyjaśni anomalię na kilka sposobów:

(a) badanie prawdopodobnie miało wysoką ocenę SE (badanie prawdopodobnie ma niską moc)

(b) badanie prawdopodobnie ma duży składnik losowy (badacz wybrał zestaw danych lub metodę itp., co daje nietypowy wynik)

W efekcie model ten zmniejszy efektywną precyzję oszacowania przy nieznanym SE, ponieważ staje się on bardziej anomalny. Pod tym względem bardzo solidne jest włączenie „wartości odstających”. Jednocześnie, jeśli dodasz wiele badań z nieznaną wariancją, ale z typowymi wynikami, SE lub twoje ostateczne oszacowanie spadną.

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.