Tylko myśl:
Modele oszczędne zawsze były domyślnym wyborem przy wyborze modelu, ale w jakim stopniu to podejście jest przestarzałe? Jestem ciekawy, jak bardzo nasza skłonność do parsimony jest reliktem czasów zasad abaci i slajdu (lub, mówiąc poważniej, nienowoczesnych komputerów). Dzisiejsza moc obliczeniowa pozwala nam budować coraz bardziej złożone modele o coraz większej zdolności przewidywania. Czy w związku z tym rosnącym pułapem mocy obliczeniowej nadal musimy dążyć do prostoty?
Oczywiście, prostsze modele są łatwiejsze do zrozumienia i interpretacji, ale w dobie stale rosnących zestawów danych z większą liczbą zmiennych i przesunięciem w kierunku większego nacisku na możliwości przewidywania, może to już nie być możliwe do osiągnięcia lub konieczne.
Myśli?