W t -values i R2 są wykorzystywane do oceny bardzo różne rzeczy. W t -values są wykorzystywane do oceny dokładności, swojej ESTIMATE βi „s, ale R2 mierzy ilość zmienności zmiennej reakcji wyjaśnia swoimi współzmiennych. Załóżmy, że szacujesz model regresji za pomocą n obserwacji,
Yi=β0+β1X1i+...+βkXki+ϵi
gdzie ϵi∼i.i.dN(0,σ2) , i=1,...,n .
Duże wartości t (w wartości bezwzględnej) prowadzą do odrzucenia hipotezy zerowej, że βi=0 . Oznacza to, że możesz być pewien, że poprawnie oszacowałeś znak współczynnika. Także jeśli |t|> 4 i masz n>5 , wtedy 0 nie jest w 99% przedziale ufności dla współczynnika. Wartość t dla współczynnika βi jest różnicą między oszacowaniem βi^ a 0 znormalizowanym przez błąd standardowy se{βi^} .
t=βi^se{βi^}
który jest po prostu oszacowaniem podzielonym przez miarę jego zmienności. Jeśli masz wystarczająco duży zestaw danych, zawsze będziesz mieć statystycznie istotne (duże) wartości t . Nie oznacza to koniecznie, że twoje zmienne towarzyszące wyjaśniają dużą zmienność zmiennej odpowiedzi.
Jak wspomniano @Stat, R2 mierzy ilość zmienności zmiennej odpowiedzi tłumaczyć zmiennych zależnych. Więcej informacji na temat R2 , przejdź do wikipedii . W twoim przypadku wygląda na to, że masz wystarczająco duży zestaw danych, aby dokładnie oszacować βi , ale twoje zmienne towarzyszące słabo wyjaśniają i \ lub przewidują wartości odpowiedzi.