Szacunki parametrów, takie jak średnia próbki lub współczynnik regresji OLS, są przykładowymi statystykami, których używamy do wyciągania wniosków na temat odpowiednich parametrów populacji. Parametry populacji są tym, na czym nam naprawdę zależy, ale ponieważ nie mamy dostępu do całej populacji (zwykle uważanej za nieskończoną), musimy zamiast tego zastosować to podejście. Istnieją jednak pewne niewygodne fakty związane z takim podejściem. Na przykład, jeśli weźmiemy inną próbkę i obliczymy statystyki, aby ponownie oszacować parametr, prawie na pewno stwierdzilibyśmy, że różni się on. Co więcej, żadne oszacowanie prawdopodobnie nie zgadza się z prawdziwą wartością parametru, którą chcemy poznać. W rzeczywistości, jeśli robimy to w kółko, nadal próbujemy i oceniamy na zawsze, stwierdzilibyśmy, że względna częstotliwość różnych wartości szacunkowych była zgodna z rozkładem prawdopodobieństwa. Twierdzenie o granicy centralnej sugeruje, że ten rozkład prawdopodobnie będzie normalny. Potrzebujemy sposobu na oszacowanie ilości niepewności w tym rozkładzie. To właśnie robi dla ciebie standardowy błąd.
W twoim przykładzie chcesz poznać nachylenie zależności liniowej między x1 iy w populacji, ale masz dostęp tylko do próbki. W twojej próbce nachylenie wynosi 0,51, ale nie wiedząc, jak duża jest zmienność w odpowiadającym mu rozkładzie próbkowania , trudno jest ustalić, co zrobić z tą liczbą. Błąd standardowy, w tym przypadku 0,05, jest odchyleniem standardowym tego rozkładu próbkowania. Aby obliczyć istotność, dzielisz oszacowanie przez SE i sprawdzasz iloraz w tabeli. Zatem większe SE oznaczają mniejsze znaczenie.
Pozostałe odchylenie standardowe nie ma nic wspólnego z rozkładem próbkowania twoich zboczy. Jest to tylko standardowe odchylenie próbki zależne od modelu. Nie ma sprzeczności ani nie może być. Jeśli chodzi o to, jak masz większy SD z wysokim R ^ 2 i tylko 40 punktami danych, sądzę, że masz przeciwieństwo ograniczenia zakresu - twoje wartości x są bardzo szeroko rozłożone.