Pytania otagowane jako multiple-comparisons

Sygnalizuje sytuacje, w których obawia się osiągnięcia zamierzonej mocy i wielkości, gdy wykonuje się więcej niż jeden test hipotez.

1
Po co w ogóle stosować ANOVA zamiast skakać bezpośrednio do post-hoc lub planowanych testów porównawczych?
Patrząc na sytuację ANOVA między grupami, co otrzymujesz, wykonując najpierw taki test ANOVA, a następnie post-hoc (Bonferroni, Šidák itp.) Lub planowane testy porównawcze? Dlaczego nie pominąć całkowicie kroku ANOVA? Wydaje mi się, że w takiej sytuacji jedyną korzyścią ANOVA między grupami jest możliwość zastosowania HSD Tukeya jako testu post hoc. …

1
Prosty język oznaczeń „zależnych” i „niezależnych” testów w literaturze z wieloma porównaniami?
Zarówno w literaturze dotyczącej wskaźnika błędu rodzinnego (FWER), jak i wskaźnika fałszywego wykrywania (FDR), określone metody kontrolowania FWER lub FDR są odpowiednie do testów zależnych lub niezależnych. Na przykład w artykule z 1979 r. „Prosta sekwencyjnie wielokrotna procedura testowa wielokrotnego testu” Holm napisał, aby skontrastować swoją metodę podwyższania Šidáka z …


2
Niezależność reszt w komputerowym eksperymencie / symulacji?
Przeprowadziłem komputerową ocenę różnych metod dopasowania konkretnego typu modelu stosowanego w naukach paleeo. Miałem duży zestaw treningowy, więc losowo (stratyfikowane losowe próbkowanie) odłożyłem zestaw testowy. I przystosowany różnych metod zestawów testowych próbek i za pomocą otrzymanego wzór I przewidzieć odpowiedź dla zestawu testowego do próbki i oblicza się na RMSEP …

5
Miary podobieństwa między krzywymi?
Chciałbym obliczyć miarę podobieństwa między dwoma uporządkowanymi zestawami punktów --- tymi pod Użytkownikem w porównaniu z tymi pod Nauczycielem : Punkty są krzywymi w przestrzeni 3D, ale myślałem, że problem zostanie uproszczony, jeśli narysuję je w dwóch wymiarach, jak na zdjęciu. Jeśli punkty się pokrywają, podobieństwo powinno wynosić 100%.

1
Dlaczego kontrolowanie FDR jest mniej rygorystyczne niż kontrolowanie FWER?
Czytałem, że kontrolowanie FDR jest mniej rygorystyczne niż kontrolowanie FWER, na przykład w Wikipedii : Procedury kontrolujące FDR mają mniej rygorystyczną kontrolę nad fałszywym wykrywaniem w porównaniu z procedurami rodzinnego wskaźnika błędów (FWER) (takimi jak korekta Bonferroniego). Zwiększa to moc kosztem zwiększenia częstości błędów typu I, tj. Odrzucenia hipotezy zerowej …

1
Jakiej metody wielokrotnego porównania użyć w modelu Lmer: lsmeans czy glht?
Analizuję zestaw danych przy użyciu modelu efektów mieszanych z jednym ustalonym efektem (warunkiem) i dwoma efektami losowymi (uczestnik ze względu na projekt i parę wewnątrz przedmiotu). Model ten został wygenerowany z lme4pakietu: exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp). Następnie wykonałem test współczynnika wiarygodności tego modelu względem modelu bez ustalonego efektu (warunku) i mam znaczącą różnicę. …

1
Jaka intuicja kryje się za wymiennymi próbkami pod hipotezą zerową?
Testy permutacyjne (zwane również testem randomizacji, testem ponownej randomizacji lub testem dokładnym) są bardzo przydatne i przydają się, gdy t-testnie jest spełnione założenie o rozkładzie normalnym wymagane na przykład i gdy transformacja wartości przez ranking test nieparametryczny, Mann-Whitney-U-testktóry prowadziłby do utraty większej ilości informacji. Jednak nie należy zapominać o jednym …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

1
Klasyfikatory uczenia maszynowego duże O lub złożoność
Aby ocenić wydajność nowego algorytmu klasyfikatora, próbuję porównać dokładność i złożoność (duże O w treningu i klasyfikacji). Z uczenia maszynowego: recenzja Otrzymuję pełną listę nadzorowanych klasyfikatorów, tabelę dokładności między algorytmami i 44 problemy testowe z repozytorium danych UCI . Nie mogę jednak znaleźć recenzji, artykułu papierowego ani strony internetowej z …


2
Zdrowa regresja krokowa?
Załóżmy, że chcę zbudować binarny klasyfikator. Mam kilka tysięcy funkcji i tylko kilka 10 próbek. Z wiedzy domenowej mam dobry powód, by sądzić, że etykietę klasy można dokładnie przewidzieć przy użyciu tylko kilku funkcji, ale nie mam pojęcia, które z nich. Chcę również, aby reguła ostatecznej decyzji była łatwa do …

2
Jaka jest formuła skorygowanej wartości p Benjaminiego-Hochberga?
Rozumiem procedurę i to, co kontroluje. Jaki jest zatem wzór skorygowanej wartości p w procedurze BH dla wielokrotnych porównań? Właśnie teraz zdałem sobie sprawę, że pierwotny BH nie wytworzył skorygowanych wartości p, a jedynie dostosował warunek (nie) odrzucenia: https://www.jstor.org/stable/2346101 . Gordon Smyth wprowadził skorygowane wartości p BH w 2002 r., …


2
Test Dunnetta w R zwraca za każdym razem różne wartości
Korzystam z biblioteki R „multcomp” ( http://cran.r-project.org/web/packages/multcomp/ ) do obliczenia testu Dunnetta. Korzystam ze skryptu poniżej: Group <- factor(c("A","A","B","B","B","C","C","C","D","D","D","E","E","F","F","F")) Value <- c(5,5.09901951359278,4.69041575982343,4.58257569495584,4.79583152331272,5,5.09901951359278,4.24264068711928,5.09901951359278,5.19615242270663,4.58257569495584,6.16441400296898,6.85565460040104,7.68114574786861,7.07106781186548,6.48074069840786) data <- data.frame(Group, Value) aov <- aov(Value ~ Group, data) summary(glht(aov, linfct=mcp(Group="Dunnett"))) Teraz, jeśli uruchomię ten skrypt wiele razy w Konsoli R. Za każdym razem otrzymuję nieco inne …

2
Przekształcanie listy częściowych rankingów w globalny ranking
Pracuję nad czymś w rodzaju następującego problemu. Mam grupę użytkowników i N książek. Każdy użytkownik tworzy uporządkowany ranking wszystkich książek, które przeczytał (co jest prawdopodobnie podzbiorem N książek), np. Książka 1> Książka 40> Książka 25. Teraz chcę przekształcić te indywidualne rankingi użytkowników w jeden uporządkowany ranking wszystkich książek. Czy są …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.