Czy istnieje stabilny numerycznie sposób obliczania wartości rozkładu beta dla dużej liczby całkowitej alfa, beta (np. Alfa, beta> 1000000)?
Właściwie potrzebuję tylko 99% przedziału ufności wokół trybu, jeśli to w jakiś sposób ułatwi problem.
Dodaj : Przepraszam, moje pytanie nie było tak jasno określone, jak myślałem. Chcę to zrobić: mam maszynę, która sprawdza produkty na przenośniku taśmowym. Część frakcji tych produktów jest odrzucana przez maszynę. Teraz, jeśli operator maszyny zmieni jakieś ustawienia inspekcji, chcę mu pokazać szacunkową częstotliwość odrzucania i podpowiedź na temat tego, jak wiarygodne jest bieżące oszacowanie.
Pomyślałem więc, że traktuję rzeczywistą częstotliwość odrzucania jako zmienną losową X i obliczam rozkład prawdopodobieństwa dla tej zmiennej losowej na podstawie liczby odrzuconych obiektów N i zaakceptowanych obiektów M. Jeśli założę jednolity wcześniejszy rozkład dla X, jest to rozkład beta w zależności od N i M. Mogę albo wyświetlić ten rozkład użytkownikowi bezpośrednio, albo znaleźć przedział [l, r], aby rzeczywista częstość odrzucania była w tym przedziale przy p> = 0,99 (używając terminologii shabbychef) i wyświetlić to interwał. Dla małych M, N (tj. Bezpośrednio po zmianie parametru) mogę obliczyć rozkład bezpośrednio i przybliżać przedział [l, r]. Ale w przypadku dużych M, N takie naiwne podejście prowadzi do błędów niedopełnienia, ponieważ x ^ N * (1-x) ^ M jest zbyt małe, aby można je było przedstawić jako zmiennoprzecinkowe podwójnej precyzji.
Myślę, że moim najlepszym wyborem jest użycie mojej naiwnej dystrybucji beta dla małych M, N i przejście do normalnej dystrybucji z tą samą średnią i wariancją, gdy tylko M, N przekroczy pewien próg. Czy to ma sens?