Jedną z interesujących rzeczy w świecie „niepewności modelu” jest pojęcie „prawdziwego modelu”. Oznacza to domyślnie, że nasze „propozycje modelowe” mają postać:
M.( 1 )ja: I model jest modelem prawdziwym
P.( M( 1 )ja| DI)M.( 1 )ja
Wyczerpanie ma tutaj kluczowe znaczenie, ponieważ zapewnia to zwiększenie prawdopodobieństwa do 1, co oznacza, że możemy zmarginalizować model.
Ale to wszystko na poziomie koncepcyjnym - uśrednianie modelu ma dobrą wydajność. Oznacza to, że musi istnieć lepsza koncepcja.
Osobiście widzę modele jako narzędzia, takie jak młotek lub wiertło. Modele to konstrukcje mentalne służące do przewidywania lub opisywania rzeczy, które możemy obserwować. Mówienie o „prawdziwym młocie” brzmi bardzo dziwnie, a równie śmiało mówić o „prawdziwej konstrukcji mentalnej”. Na tej podstawie pojęcie „prawdziwego modelu” wydaje mi się dziwne. Bardziej naturalne wydaje się myślenie o „dobrych” i „złych” modelach niż o „dobrych” i „złych” modelach.
Biorąc pod uwagę ten punkt widzenia, równie dobrze moglibyśmy być niepewni co do „najlepszego” modelu do wyboru, z wybranych modeli. Załóżmy więc, że zamiast tego rozważamy propozycję:
M.( 2 )ja: Spośród wszystkich określonych modeli,
i-ty model jest najlepszym modelem do użycia
M.( 2 )jaM.( 2 )ja
W tym podejściu potrzebujesz jednak pewnego rodzaju miary dopasowania, aby ocenić, jak dobry jest twój „najlepszy” model. Można to zrobić na dwa sposoby, testując modele „pewności”, co odpowiada zwykłej statystyce GoF (dywergencja KL, Chi-kwadrat itp.). Innym sposobem zmierzenia tego jest włączenie wyjątkowo elastycznego modelu do swojej klasy modeli - być może normalnego modelu mieszanki z setkami składników lub mieszaniny procesowej Dirichleta. Jeśli ten model okaże się najlepszy, prawdopodobnie inne modele są nieodpowiednie.
Ten artykuł ma dobrą teoretyczną dyskusję i zawiera krok po kroku przykład tego, jak faktycznie dokonujesz wyboru modelu.