W przypadku problemu z regresją widziałem, jak ludzie używają „współczynnika determinacji” (inaczej R do kwadratu), aby dokonać wyboru modelu, np. Znajdując odpowiedni współczynnik kary dla uregulowania.
Jednak często stosuje się „średni błąd kwadratowy” lub „średni błąd kwadratowy” jako miarę dokładności regresji.
Więc jaka jest główna różnica między tymi dwoma? Czy można je stosować zamiennie do zadań „regularyzacji” i „regresji”? A jakie są główne zastosowania każdego z nich w praktyce, na przykład w uczeniu maszynowym, w eksploracji danych?