Trudno odpowiedzieć na pytanie, ponieważ jest ono tak bardzo wskazujące na ogólne zamieszanie i zagmatwany stan rzeczy w dużej części literatury metaanalitycznej (OP nie jest tutaj winny - to jest literatura i opis metod , modele i założenia, które często powodują bałagan).
Krótko mówiąc: nie, jeśli chcesz połączyć wiele oszacowań (które określają jakiś efekt, stopień powiązania lub inny wynik uznany za istotny) i rozsądne jest połączenie tych liczb, wtedy możesz po prostu wziąć ich (nieważoną) średnią i byłoby idealnie. Nie ma w tym nic złego i zgodnie z modelami, które zwykle zakładamy, gdy przeprowadzamy metaanalizę, daje to nawet obiektywne oszacowanie (zakładając, że same oszacowania są obiektywne). Więc nie, nie potrzebujesz wariancji próbkowania, aby połączyć oszacowania.
Dlaczego więc ważenie odwrotnej wariancji jest prawie równoznaczne z faktycznym wykonaniem metaanalizy? Ma to związek z ogólną ideą, że większą wiarygodność przykładamy do dużych badań (przy mniejszych wariancjach próbkowania) niż do mniejszych badań (przy większych wariancjach próbkowania). W rzeczywistości, zgodnie z założeniami zwykłych modeli, zastosowanie odwrotnego ważenia wariancji prowadzi do estymatora obiektywnego minimalnie jednakowej minimalnej wariancji(UMVUE) - no cóż, poniekąd, zakładając obiektywne szacunki i ignorując fakt, że wariancje próbkowania w rzeczywistości często nie są dokładnie znane, ale są szacowane same i w modelach efektów losowych, musimy również oszacować składnik wariancji dla niejednorodności, ale potem potraktowaliśmy to jako znaną stałą, co też nie jest całkiem właściwe ... ale tak, uzyskujemy UMVUE, jeśli zastosujemy ważenie odwrotnej wariancji, jeśli po prostu mocno zmrużymy oczy i zignorujemy niektóre z nich problemy.
Stawką jest tutaj wydajność estymatora, a nie sama bezstronność. Ale nawet nieważona średnia często nie będzie o wiele mniej wydajna niż stosowanie średniej ważonej odwrotnej wariancji, szczególnie w modelach efektów losowych i gdy ilość niejednorodności jest duża (w takim przypadku zwykły schemat ważenia prowadzi do prawie jednakowych wag tak czy siak!). Ale nawet w modelach z efektami stałymi lub z niewielką niejednorodnością różnica często nie jest przytłaczająca.
I jak wspominasz, można również z łatwością rozważyć inne schematy ważenia, takie jak ważenie według wielkości próbki lub niektóre ich funkcje, ale znowu jest to tylko próba uzyskania czegoś zbliżonego do wag odwrotności wariancji (ponieważ wariancje próbkowania mają, w dużej mierze, zależy od wielkości próby badania).
Ale tak naprawdę można i należy całkowicie oddzielić kwestię wag i odchyleń. To naprawdę dwa osobne elementy, o których trzeba pomyśleć. Ale to nie jest tak, jak rzeczy są zazwyczaj przedstawiane w literaturze.
Chodzi jednak o to, że naprawdę musisz pomyśleć o obu. Tak, możesz przyjąć nieważoną średnią jako swoje łączne oszacowanie, co w gruncie rzeczy byłoby metaanalizą, ale gdy chcesz rozpocząć wnioskowanie na podstawie tego połączonego oszacowania (np. Przeprowadzić test hipotez, skonstruuj przedział ufności ), musisz znać wariancje próbkowania (i liczbę niejednorodności). Pomyśl o tym w ten sposób: jeśli połączysz kilka małych (i / lub bardzo niejednorodnych) badań, twoje oszacowanie punktowe będzie o wiele mniej dokładne niż po połączeniu tej samej liczby bardzo dużych (i / lub jednorodnych) badania - niezależnie od tego, jak ważono swoje szacunki przy obliczaniu łącznej wartości.
W rzeczywistości istnieje nawet kilka sposobów, aby nie znać wariancji próbkowania (i ilości niejednorodności), kiedy zaczynamy tworzyć statystyki wnioskowania. Można rozważyć metody oparte na ponownym próbkowaniu (np. Ładowanie, testy permutacji) lub metody, które dają spójne standardowe błędy dla połączonych danych szacunkowych, nawet gdy błędnie określimy części modelu - ale to, jak dobrze te podejścia mogą działać, należy dokładnie ocenić na na podstawie indywidualnych przypadków.