Nauka statystyk bayesowskich po raz pierwszy; zastanawiając się nad kątem MCMC, zastanawiałem się: czy robi coś, czego zasadniczo nie da się zrobić inaczej, czy też robi coś znacznie wydajniejszego niż alternatywy?
Dla ilustracji załóżmy, że próbujemy obliczyć prawdopodobieństwo naszych parametrów, biorąc pod uwagę dane biorąc pod uwagę model, który oblicza coś przeciwnego, . Aby obliczyć to bezpośrednio za pomocą twierdzenia Bayesa, potrzebujemy mianownika jak wskazano tutaj . Ale czy możemy to obliczyć przez integrację, powiedzmy w następujący sposób:P ( D | x , y , z ) P ( D )
p_d = 0.
for x in range(xmin,xmax,dx):
for y in range(ymin,ymax,dy):
for z in range(zmin,zmax,dz):
p_d_given_x_y_z = cdf(model(x,y,z),d)
p_d += p_d_given_x_y_z * dx * dy * dz
Czy to zadziałałoby (choć bardzo nieefektywnie przy większej liczbie zmiennych), czy może jest coś innego, co spowodowałoby niepowodzenie tego podejścia?