Pewnego dnia podczas webinarium przeprowadzonego przez firmę testującą A / B ich rezydent „Data Scientist” wyjaśnił, że powinieneś zweryfikować swoje wyniki, ponownie uruchamiając eksperyment. Założeniem było, że jeśli wybierzesz 95% pewności, istnieje 5% (1/20) szansa na fałszywie pozytywny wynik. Jeśli ponownie uruchomisz eksperyment z tymi samymi ograniczeniami, teraz jest 1/400 (zakładam, że ustalili to jako 0,05 ^ 2 = 1/400)
Czy to jest prawidłowe oświadczenie? (tj. „Uruchom dwa razy, dwa statystycznie ważne zwycięstwa = 1/400 prawdopodobieństwa fałszywie dodatniego”)? Czy lepszym podejściem byłoby zwiększenie poziomu istotności?
Z biznesowego punktu widzenia moim problemem jest ponowne uruchomienie eksperymentu, narażasz więcej użytkowników na gorszą stronę (leczenie), a tym samym tracisz potencjalną sprzedaż.