Czy słupki błędów prawdopodobieństw mają jakieś znaczenie?


25

Ludzie często mówią, że jakieś wydarzenie ma 50-60% szansy na wydarzenie. Czasami nawet widzę, jak ludzie podają wyraźne słupki błędów przy przypisywaniu prawdopodobieństwa. Czy te stwierdzenia mają jakieś znaczenie, czy są jedynie dziwactwem językowym, wybierając konkretną liczbę dla czegoś, co z natury jest niepoznawalne?


1
Czy struktura Prawdopodobnie w przybliżeniu poprawna w obliczeniowej teorii uczenia się tego nie robi, zazwyczaj ograniczając poziom błędu klasyfikatora, który ma prawdopodobieństwo 1δ ? Gdyby była to bezsensowna koncepcja, wątpię, aby ci (wyjątkowo sprytni) ludzie CoLT nie zauważyliby jej!
Dikran Torbacz

5
@DikranMarsupial Błędy w nauce PAC nie dotyczą samych prawdopodobieństw (o które pyta to pytanie), ale danych. Oznacza to, że wyniki algorytmu nazywamy Prawdopodobnie w przybliżeniu poprawnymi, jeśli możemy udowodnić, że przy prawdopodobieństwie 1δ odpowiedź znajduje się w odległości ε od prawdziwej wartości.
Dyskretna jaszczurka

@Discretelizard, ale w ustawieniach klasyfikacji, czy nie jest to związane ze stopą błędów (co jest prawdopodobieństwem błędu)? Dawno nie patrzyłem na CoLT!
Dikran Torbacz

1
@DikranMarsupial W ogólnym ustawieniu dotyczącym uczenia się PAC część „przybliżona” mierzy „wielkość” błędu, a nie „prawdopodobieństwo”. Motywacją dla granic PAC jest uzyskanie bardziej szczegółowej analizy niż np. Oczekiwane ryzyko. Nie sądzę, aby zmiany w ustawieniach klasyfikacji, chociaż PAC miało sens, musi istnieć „odległość” (lub funkcja straty) między klasami. (w bardziej szczególnym przypadku klasyfikacji binarnej istnieje tylko jeden sposób na popełnienie błędu, więc przybliżona część nie ma sensu w tym przypadku)
Dyskretna jaszczurka

Odpowiedzi:


36

Nie ma sensu, jeśli mówimy o znanych prawdopodobieństwach, np. Przy uczciwej monecie prawdopodobieństwo rzucenia głowami wynosi z definicji 0,5. Jednak, chyba że mówisz o przykładzie z podręcznika, dokładne prawdopodobieństwo nigdy nie jest znane, znamy je tylko w przybliżeniu.

Inna historia polega na oszacowaniu prawdopodobieństwa na podstawie danych, np. Zaobserwowałeś 13 zwycięskich biletów spośród 12563 kupionych biletów, więc na podstawie tych danych szacujesz prawdopodobieństwo na 13/12563. Jest to coś, co oszacowałeś na podstawie próby, więc nie jest pewne, ponieważ z inną próbką można zaobserwować inną wartość. Szacunek niepewności nie dotyczy prawdopodobieństwa, ale jego oszacowania.

Innym przykładem jest sytuacja, gdy prawdopodobieństwo nie jest ustalone, ale zależy od innych czynników. Powiedz, że mówimy o prawdopodobieństwie śmierci w wypadku samochodowym. Możemy rozważyć prawdopodobieństwo „globalne”, pojedynczą wartość, która jest marginalizowana w stosunku do wszystkich czynników, które bezpośrednio i pośrednio prowadzą do wypadków samochodowych. Z drugiej strony możesz zastanowić się, w jaki sposób prawdopodobieństwa różnią się w zależności od czynników ryzyka.

Można znaleźć wiele innych przykładów, w których same prawdopodobieństwa są uważane za zmienne losowe , więc różnią się one raczej niż są stałe.


1
Gdyby obliczenia oszacowania prawdopodobieństwa dokonano za pomocą czegoś w rodzaju regresji logistycznej, nie byłoby również naturalne założenie, że te „słupki błędów” odnoszą się do przedziałów prognozowania? (Pytam głównie jako wyjaśnienie pierwszego punktu, który podniosłeś, +1 oczywiście)
mówi usεr11852 Przywróć Monic

1
@ usεr11852 przedziały ufności, przedziały prognozowania, regiony o największej gęstości itp., w zależności od rzeczywistego przypadku. Uczyniłem odpowiedź bardzo szeroką, ponieważ mamy „różne” prawdopodobieństwa w wielu scenariuszach i różnią się one na różne sposoby. Możesz również interpretować je inaczej w różnych scenariuszach.
Tim

1
Nawet „znane” prawdopodobieństwa mogą być skrótem dla bardzo małych słupków błędów. Można przypuszczalnie wykazać, że rzut monetą wynosi może 50,00001% - 49,99999% przy wystarczającej liczbie prób, aby uzyskać wystarczająco małe słupki błędów, które wykluczają 50,00000%. Nie ma prawa fizycznego sugerującego, że szanse powinny być dokładnie równe dla monety asymetrycznej, ale słupki błędów są zdecydowanie zbyt małe, aby ktokolwiek mógł się tym przejmować.
Nuclear Wang

5
@NuclearWang wynika to z użycia przez PO wyrażenia „uczciwa moneta”. Z definicji P (HEADS) dla uczciwej monety wynosi 0,5. Sprawiedliwa moneta jest konstrukcją matematyczną. Sugerowałbym zmianę, która zastąpiłaby „prawami fizyki” przez „z definicji”, aby podkreślić tę kwestię.
De Novo obsługuje GoFundMonica

2
@DeNovo to samo dotyczy monet fizycznych stat.columbia.edu/~gelman/research/published/diceRev2.pdf , ale tak powiedziałem „sprawiedliwie”, aby nie rozpoczynać tej dyskusji
Tim

23

Najbardziej odpowiednia ilustracja z xkcd :

wprowadź opis zdjęcia tutaj

z powiązanym podpisem:

... wielkość efektu 1,68 (95% CI: 1,56 (95% CI: 1,52 (95% CI: 1,504) (95% CI: 1,494 (95% CI: 1,488 (95% CI: 1,485 (95% CI: 1,482) (95% CI: 1,481 (95% CI: 1,4799 (95% CI: 1,4791 (95% CI: 1,4784 ...


Czy to oznacza, że ​​słupki błędów prawdopodobieństw są zbędne?
BalinKingOfMoria

12
Żartuję, to oznacza, że ​​precyzja słupków błędów jest niepewna, a sama ocena niepewności jest niepewna, w nieskończonym regresie.
Xi'an

7
Dlatego uważam ten obraz za istotny i głęboko związany z podstawową trudnością (i pięknym wyzwaniem) oceny błędów w statystykach.
Xi'an

14
Liczba ta ilustruje meta-niepewność , która może być związana z niepewnością dotyczącą prawdopodobieństwa, ponieważ sama niepewność jest miarą szerokości rozkładu prawdopodobieństwa, ale twój post nie wyjaśnia tego w żaden sposób; w rzeczywistości komiks XKCD sugeruje, że ma to coś wspólnego z propagacją błędów (co jest fałszem), czego nie ma pytanie.
gerrit

6

XYX/Y1/Y

0.50.5

X/Y[0.4,0.6][0.47,0.53]

Czy potrzebujemy wyższych prawdopodobieństw, a jeśli tak, co one oznaczają? Judei Pearl. UAI 1987. https://arxiv.org/abs/1304.2716


4

Wszystkie pomiary są niepewne.

Dlatego też każdy pomiar prawdopodobieństwa jest również niepewny.

Tę niepewność pomiaru prawdopodobieństwa można wizualnie przedstawić za pomocą paska niepewności. Zauważ, że słupki niepewności są często nazywane słupkami błędów. Jest to nieprawidłowe lub przynajmniej wprowadzające w błąd, ponieważ pokazuje niepewność, a nie błąd (błąd jest różnicą między pomiarem a nieznaną prawdą, więc błąd jest nieznany; niepewność jest miarą szerokości gęstości prawdopodobieństwa po przyjęciu pomiary).

NN2


3

prob(A|Θ=θ,I)IΘ=θ0prob(Θ=θ|I)=δθθ0

prob(A|I)=θprob(A|Θ=θ,I)δθθ0=prob(A|Θ=θ0,I)

ΘIprob(Θ=θ|I)prob(A|I)AΘ=θΘA

prob(A,Θ=θ|I)=prob(A|Θ=θ,I)prob(Θ=θ|I)prob(A|I)=θprob(A|Θ=θ,I)prob(Θ=θ|I)

Tak więc dodawanie słupków błędów do prawdopodobieństwa jest podobne do dodawania niepewności do uciążliwych parametrów, które mogą modyfikować prawdopodobieństwo, ale nie mogą powodować niepewności.


1

Bardzo często zdarza się, że chcesz mieć prawdopodobieństwo. Załóżmy na przykład, że pracowałeś nad bezpieczeństwem żywności i użyłeś modelu analizy przeżycia, aby oszacować prawdopodobieństwo kiełkowania zarodników botulinowych (a tym samym produkcji śmiertelnej toksyny) w zależności od etapów przygotowywania żywności (tj. Gotowania) oraz czasu / temperatury inkubacji (por. papier). Producenci żywności mogą następnie chcieć użyć tego modelu do ustalenia bezpiecznych terminów przydatności do spożycia, aby ryzyko zatrucia jadem kiełbasianym przez konsumenta było odpowiednio małe. Jednak model pasuje do skończonej próbki treningowej, więc zamiast wybierać datę przydatności do spożycia, dla której prawdopodobieństwo kiełkowania jest mniejsze niż, powiedzmy 0,001, możesz wybrać wcześniejszą datę, dla której (biorąc pod uwagę założenia modelowania) możesz być w 95% pewien, że prawdopodobieństwo kiełkowania jest mniejsze niż 0,001. Wydaje się to dość naturalne w przypadku bayesowskiej scenerii.


0

tl; dr - Każde jednorazowe domysły z konkretnego zgadywacza można sprowadzić do pojedynczego prawdopodobieństwa. To jednak tylko banalna sprawa; struktury prawdopodobieństwa mogą mieć sens, ilekroć istnieje jakieś kontekstowe znaczenie poza jednym prawdopodobieństwem.


Szansa na przypadkowe wylądowanie monety na głowach wynosi 50%.

Nie ma znaczenia, czy jest to uczciwa moneta, czy nie; przynajmniej nie dla mnie. Ponieważ chociaż moneta może mieć stronniczość, której doświadczony obserwator mógłby użyć do bardziej świadomych prognoz, musiałbym odgadnąć 50% szans.

HeadsTails50%50%.
First flipSecondflipHeadsTailsHeads25%25%Tails25%25%,
z którego mogliby się wywnioskować
Same sidetwiceHeadsand Tails50%50%.
Jednak rzut monetą nie jest niezależnym wydarzeniem; łączy je wspólny czynnik sprawczy, określany mianem stronniczości monety.

Jeśli założymy model, w którym moneta ma stałe prawdopodobieństwo Heads, wówczas bardziej precyzyjnie może być powiedziane Z tego , ktoś może pomyśleć PHeads,

HeadsTailsPHeads1PHeads.
First flipSecondflipHeadsTailsHeadsPHeads2PHeads(1PHeads)TailsPHeads(1PHeads)(1PHeads)2,
z którego mogą dojść do wniosku
Same sidetwiceHeadsand Tails12PHeads(1PHeads)2PHeads(1PHeads).
Gdybym miał zgadywać to bym nadal iść z tak że wydaje się, jakby to skrócić do poprzednich tabelach.GłowicePHeads,50%,

Więc to jest to samo, prawda?

Okazuje się, że szanse na zdobycie dwóch głów lub ogonów są zawsze większe niż zdobycie jednego z nich, z wyjątkiem specjalnego przypadku idealnie uczciwej monety. Jeśli więc zmniejszysz tabelę, zakładając, że samo prawdopodobieństwo uchwyci niepewność, twoje przewidywania byłyby absurdalne po rozszerzeniu.

To powiedziawszy, nie ma „ prawdziwego ” rzutu monetą. Moglibyśmy mieć różnego rodzaju metodologie przerzucania, które mogą dawać bardzo różne wyniki i pozorne uprzedzenia. Pomysł, że istnieje spójna wartość , również miałby skłonność do błędów, gdy konstruujemy argumenty na podstawie tej przesłanki.PHeads

Więc jeśli ktoś zapyta mnie o szanse przewrócenia monety, nie powiedziałbym mimo że to moje najlepsze przypuszczenie. Zamiast tego prawdopodobnie powiedziałbym`50%",probably about 50%".

Próbuję z grubsza powiedzieć:

Gdybym musiał jednorazowo zgadnąć, prawdopodobnie wybrałbym około Istnieje jednak dodatkowy kontekst, który prawdopodobnie powinieneś poprosić mnie o wyjaśnienie, czy to ważne.50%.


Ludzie często mówią, że jakieś wydarzenie ma 50-60% szansy na wydarzenie.

Jeśli usiądziesz z nimi i opracujesz wszystkie ich dane, modele itp., Możesz być w stanie wygenerować lepszą liczbę lub, najlepiej, lepszy model, który bardziej pewnie uchwyciłby ich zdolność przewidywania.

Ale jeśli podzielisz różnicę i po prostu nazwiesz ją 55%, to byłoby jak założenie, że w tym, że po skróceniu po prostu obliczyłbyś szybki szacunek aspekty wyższego rzędu. Niekoniecznie zła taktyka dla jednorazowego szybkiego oszacowania, ale coś traci.PHeads=50%


0

Twierdziłbym, że tylko słupki błędów mają znaczenie, ale w podanym przykładzie cała sprawa jest prawdopodobnie prawie bez znaczenia.
Przykład nadaje się do interpretacji jako przedziału ufności, w którym górne i dolne granice pewnego stopnia pewności są zakresem prawdopodobieństwa. Ta proponowana odpowiedź dotyczy tej interpretacji. Źródło większości - https://www.amazon.com/How-Measure-Anything-Intangibles-Business-ebook/dp/B00INUYS2U


Przykład mówi, że przy danym poziomie ufności jest mało prawdopodobne, aby odpowiedź przekroczyła 60%, a równie mało prawdopodobne, aby była poniżej 50%. Jest to tak wygodny zestaw liczb, że przypomina „grupowanie”, w którym łup o wartości 55% jest następnie zamieniany na zakres +/- 5%. Znane okrągłe liczby są natychmiast podejrzane.
Jednym ze sposobów osiągnięcia przedziału ufności jest decyzja o wybranym poziomie ufności - powiedzmy 90% - i pozwalamy, że rzecz może być albo niższa, albo wyższa niż nasze szacunki, ale że istnieje tylko 10% szansa „poprawna” odpowiedź leży poza naszym przedziałem. Szacujemy więc wyższą granicę, tak że „istnieje tylko 1/20 szansa, że ​​poprawna odpowiedź będzie większa niż ta górna granica”, i robimy podobnie dla dolnej granicy. Można tego dokonać poprzez „skalibrowane oszacowanie”, które jest jedną z form pomiaru lub innymi formami pomiaru.
Niezależnie od tego, chodzi o to, aby A) przyznać od samego początku, że istnieje niepewność związana z naszą niepewnością, i B) unikać rzucania rękami na coś, nazywając to bałaganem i po prostu halsując na 5% powyżej i poniżej. Korzyścią jest to, że podejście rygorystyczne do wybranego stopnia może dać wyniki, które są nadal matematycznie istotne, do stopnia, który można stwierdzić matematycznie: „Istnieje 90% szans, że poprawna odpowiedź leży między tymi dwiema granicami ...” jest prawidłowo utworzonym przedziałem ufności (CI) i można go wykorzystać w dalszych obliczeniach.
Co więcej, przypisując mu pewność, możemy skalibrować metodę zastosowaną do oszacowania, porównując prognozy z wynikami i działając na podstawie tego, co odkryjemy, aby poprawić metodę szacowania. Nic nie można uczynić idealnym, ale wiele rzeczy można uczynić skutecznymi w 90%.
Zauważ, że 90% CI nie ma nic wspólnego z faktem, że przykład podany w PO zawiera 10% pola i pomija 90%.
Jaka jest rozpiętość skrzydeł Boeinga 747-100 do 90% CI? Cóż, jestem w 95% pewien, że nie jest większy niż 300 stóp, i jestem równie pewien, że nie jest mniejszy niż 200 stóp. Więc z góry mojej głowy dam ci 90% CI 200 -235 stóp.
UWAGA: nie ma „centralnego” oszacowania. CI nie są tworzone przez domysły i czynniki krówki. Dlatego mówię, że słupki błędów prawdopodobnie mają większe znaczenie niż dane szacunki.


To powiedziawszy, oszacowanie przedziału (wszystko powyżej) niekoniecznie jest lepsze niż oszacowanie punktowe z poprawnie obliczonym błędem (który w tym momencie nie do końca sobie przypominam - pamiętam tylko, że często jest wykonywane niepoprawnie). Mówię tylko, że wiele oszacowań wyrażonych jako zakresy - i zaryzykuję, że większość zakresów z okrągłymi liczbami - to punkt + krówka, a nie szacunek przedziału lub punkt + błąd.


Jedno prawidłowe użycie błędu punkt +:

„Maszyna napełnia kubki płynem i powinna być tak dostosowana, aby zawartość kubków wynosiła 250 g płynu. Ponieważ maszyna nie może napełnić każdej filiżanki dokładnie 250,0 g, zawartość dodana do poszczególnych kubków wykazuje pewne różnice, i jest uważana za zmienną losową X. Zakłada się, że ta zmiana jest normalnie rozłożona wokół pożądanej średniej 250 g, ze standardowym odchyleniem σ, wynoszącym 2,5 g. Aby ustalić, czy maszyna jest odpowiednio skalibrowana, próbka n = 25 kubki cieczy są wybierane losowo, a kubki są ważone. Otrzymane zmierzone masy cieczy to X1, ..., X25, losowa próbka z X. "

Kluczowy punkt: w tym przykładzie zarówno średnia, jak i błąd są określone / założone, a nie oszacowane / zmierzone.

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.