Niemal każde źródło lub osoba, z którą kiedykolwiek miałem kontakt, z wyjątkiem źródła Wolfram, do którego podłączyłeś, określa ten proces jako dopasowanie modelu do danych . Ma to sens, ponieważ model jest obiektem dynamicznym, a dane są statyczne (inaczej stałe i stałe).
Mówiąc o tym, podoba mi się podejście Larry'ego Wassermana do tego. Jego zdaniem model statystyczny jest zbiorem rozkładów. Na przykład zbiór wszystkich normalnych dystrybucji:
{ Normalny ( μ , σ) : μ , σ∈ R , σ> 0 }
lub zbiór wszystkich rozkładów Poissona:
{ Poisson ( λ ) : λ ∈ R , λ > 0 }
Dopasowywanie rozkładu do danych to dowolny algorytm, który łączy model statystyczny z zestawem danych (dane są ustalone) i wybiera dokładnie jedną z rozkładów z modelu jako taką, która „najlepiej” odzwierciedla dane.
Model zmienia się (w pewnym sensie): łączymy go z całej kolekcji możliwości w jeden najlepszy wybór. Dane to tylko dane; nic się z tym nie dzieje.