Pytania otagowane jako standard-error

Odnosi się do standardowego odchylenia rozkładu próbkowania statystyki obliczonej na podstawie próbki. Standardowe błędy są często wymagane przy tworzeniu przedziałów ufności lub testowaniu hipotez dotyczących populacji, z której pobrano próbę statystyki.

15
Intuicyjne wyjaśnienie dzielenia przez
W klasie zostałem dzisiaj zapytany, dlaczego dzielisz sumę błędu kwadratowego przez zamiastnn - 1n−1n-1nnn przy obliczaniu odchylenia standardowego dzielisz . Powiedziałem, że nie będę odpowiadać na to w klasie (ponieważ nie chciałem dokonywać obiektywnych szacunków), ale później zastanawiałem się - czy jest na to intuicyjne wyjaśnienie ?!



3
Przykład: regresja LASSO z użyciem glmnet dla wyniku binarnego
Zaczynam bawić sięglmnet za pomocą regresji LASSO, gdzie moje wyniki zainteresowania są dychotomiczne. Poniżej utworzyłem małą próbną ramkę danych: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, 0.91, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

2
Kształt przedziału ufności dla przewidywanych wartości w regresji liniowej
Zauważyłem, że przedział ufności dla przewidywanych wartości w regresji liniowej jest zwykle wąski wokół średniej predyktora, a tłuszcz wokół minimalnych i maksymalnych wartości predyktora. Można to zobaczyć na wykresach tych 4 regresji liniowych: Początkowo myślałem, że dzieje się tak, ponieważ większość wartości predyktorów była skoncentrowana wokół średniej predyktora. Zauważyłem jednak, …

6
Standardowe błędy do przewidywania lasso za pomocą R.
Próbuję użyć modelu LASSO do prognozowania i muszę oszacować standardowe błędy. Z pewnością ktoś już napisał paczkę, aby to zrobić. Ale o ile widzę, żaden z pakietów w CRAN, który wykonuje prognozy za pomocą LASSO, nie zwróci standardowych błędów dla tych prognoz. Więc moje pytanie brzmi: czy jest dostępny pakiet …


1
Regresja kwantowa: Jakie błędy standardowe?
summary.rqFunkcja z winiet quantreg oferuje wiele opcji dla standardowych szacunków błędach współczynników regresji kwantylowych. Jakie są specjalne scenariusze, w których każdy z nich staje się optymalny / pożądany? „ranga”, która wytwarza przedziały ufności dla oszacowanych parametrów poprzez odwrócenie testu rang, jak opisano w Koenker (1994). Domyślna opcja zakłada, że ​​błędy …

3
Co to jest pozostały błąd standardowy?
Podczas uruchamiania modelu regresji wielokrotnej w R jednym z wyjść jest resztkowy błąd standardowy wynoszący 0,0589 przy 95161 stopniach swobody. Wiem, że 95.161 stopni swobody wynika z różnicy między liczbą obserwacji w mojej próbce a liczbą zmiennych w moim modelu. Jaki jest pozostały błąd standardowy?

4
Standardowe grupowanie błędów w R (ręcznie lub w trybie plm)
Próbuję zrozumieć standardowy błąd „klastrowanie” i sposób wykonania w języku R (w Stacie jest to trywialne). W RI nie udało mi się ani użyć ani plmnapisać własnej funkcji. Użyję diamondsdanych z ggplot2paczki. Potrafię robić stałe efekty z dowolnymi zmiennymi obojętnymi > library(plyr) > library(ggplot2) > library(lmtest) > library(sandwich) > # …

3
Dlaczego nie zgłosić średniej dystrybucji bootstrap?
Kiedy jeden ładuje parametr, aby uzyskać standardowy błąd, otrzymujemy rozkład parametru. Dlaczego nie wykorzystamy średniej tego rozkładu jako wyniku lub oszacowania parametru, który próbujemy uzyskać? Czy rozkład nie powinien być zbliżony do rzeczywistego? Dlatego otrzymalibyśmy dobre oszacowanie „prawdziwej” wartości? Podajemy jednak oryginalny parametr uzyskany z naszej próbki. Dlaczego? Dzięki

5
Jak radzić sobie z hierarchicznymi / zagnieżdżonymi danymi w uczeniu maszynowym
Wyjaśnię mój problem na przykładzie. Załóżmy, że chcesz przewidzieć dochód danej osoby na podstawie niektórych atrybutów: {Wiek, płeć, kraj, region, miasto}. Masz taki zestaw danych szkoleniowych train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID CityID …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

3
R: Losowy las wyrzucający NaN / Inf w błędzie „wywołanie funkcji zagranicznej” pomimo braku NaN w zbiorze danych [zamknięte]
Zamknięte. To pytanie jest nie na temat . Obecnie nie przyjmuje odpowiedzi. Chcesz poprawić to pytanie? Zaktualizuj pytanie, aby było tematem dotyczącym weryfikacji krzyżowej. Zamknięte 2 lata temu . Używam karetki, aby uruchomić sprawdzony krzyżowo losowy las w zbiorze danych. Zmienna Y jest czynnikiem. W moim zestawie danych nie ma …


3
Jak obliczyć margines błędu w wyniku NPS (Net Promoter Score)?
Pozwolę Wikipedii wyjaśnić, w jaki sposób obliczany jest NPS : Wynik promotora netto uzyskuje się, zadając klientom jedno pytanie w skali od 0 do 10, gdzie 10 jest „bardzo prawdopodobne”, a 0 „wcale nie prawdopodobne”: „Jak prawdopodobne jest, że poleciłbyś naszą firmę przyjaciel czy kolega? ” Na podstawie ich odpowiedzi …



1
Jak stosować metodę delta do standardowych błędów efektów marginalnych?
Interesuje mnie lepsze zrozumienie metody delta do aproksymacji standardowych błędów średnich efektów krańcowych modelu regresji, który obejmuje termin interakcji. Patrzyłem na powiązane pytania metodą delta, ale żadne nie dostarczyło tego, czego szukam. Rozważ następujące przykładowe dane jako motywujący przykład: set.seed(1) x1 <- rnorm(100) x2 <- rbinom(100,1,.5) y <- x1 + …



1
Kiedy dostępny jest analityczny jakobian, czy lepiej jest przybliżyć Hessian przez
Powiedzmy, że obliczam niektóre parametry modelu, minimalizując resztkowe sumy do kwadratu i zakładam, że moje błędy są gaussowskie. Mój model wytwarza analityczne pochodne, więc optymalizator nie musi używać różnic skończonych. Po zakończeniu dopasowania chcę obliczyć standardowe błędy dopasowanych parametrów. Zasadniczo w tej sytuacji przyjmuje się, że Hesja funkcji błędu jest …

5
Jak wyświetlać słupki błędów dla eksperymentów krzyżowych (sparowanych)
Poniższy scenariusz stał się najczęściej zadawanym pytaniem w trio badacza (I), recenzenta / redaktora (R, niezwiązanego z CRAN) i mnie (M) jako twórcy fabuły. Możemy założyć, że (R) jest typowym recenzentem medycznym dużego bossa, który wie tylko, że każda fabuła musi mieć pasek błędu, w przeciwnym razie jest to błąd. …

3
Jak obliczyć standardowe błędy współczynników regresji logistycznej
Korzystam ze scikit-learn Pythona do trenowania i testowania regresji logistycznej. scikit-learn zwraca współczynniki regresji zmiennych niezależnych, ale nie podaje standardowych błędów współczynników. Potrzebuję tych standardowych błędów, aby obliczyć statystykę Walda dla każdego współczynnika i z kolei porównać te współczynniki ze sobą. Znalazłem jeden opis, w jaki sposób obliczyć standardowe błędy …

3
Jak mogę oszacować standardowe błędy współczynnika podczas regresji kalenicy?
Używam regresji grzbietu na wysoce wielokoliniowych danych. Używając OLS, otrzymuję duże standardowe błędy współczynników z powodu wielokoliniowości. Wiem, że regresja kalenicy jest sposobem na poradzenie sobie z tym problemem, ale we wszystkich implementacjach regresji kalenicy, na które patrzyłem, nie zgłoszono żadnych standardowych błędów dla współczynników. Chciałbym w jakiś sposób oszacować, …

1
Standardowe błędy dla wielu współczynników regresji?
Zdaję sobie sprawę, że to bardzo podstawowe pytanie, ale nigdzie nie mogę znaleźć odpowiedzi. Obliczam współczynniki regresji przy użyciu równań normalnych lub rozkładu QR. Jak obliczyć standardowe błędy dla każdego współczynnika? Zwykle myślę, że standardowe błędy są obliczane jako: SEx¯ =σx¯n√SEx¯ =σx¯nSE_\bar{x}\ = \frac{\sigma_{\bar x}}{\sqrt{n}} Co to jest dla każdego …

3
Jak działa standardowy błąd?
Ostatnio przyglądałem się wewnętrznym działaniom standardowego błędu i nie byłem w stanie zrozumieć, jak to działa. Rozumiem błąd standardowy, ponieważ jest to standardowe odchylenie rozkładu średnich próbek. Moje pytania to: • skąd wiemy, że błąd standardowy oznacza odchylenie standardowe próbki, gdy zwykle pobieramy tylko jedną próbkę? • dlaczego równanie do …

3
Dlaczego potrzebujemy ładowania początkowego?
Obecnie czytam „Wszystkie statystyki” Larry'ego Wassermana i zastanawia mnie coś, co napisał w rozdziale o szacowaniu funkcji statystycznych modeli nieparametrycznych. On napisał „Czasami możemy znaleźć szacowany błąd standardowy funkcji statystycznej, wykonując pewne obliczenia. Jednak w innych przypadkach nie jest oczywiste, jak oszacować błąd standardowy”. Chciałbym zaznaczyć, że w następnym rozdziale …

2
Obliczanie błędu standardowego w oszacowaniu średniej ważonej
Załóżmy, że w1,w2,…,wnw1,w2,…,wnw_1,w_2,\ldots,w_n i x1,x2,...,xnx1,x2,...,xnx_1,x_2,...,x_n są każdy narysowany IID go w dystrybucji z niezależnie od . W są absolutnie pozytywne. Obserwujesz wszystkie , ale nie ; raczej obserwujesz . Jestem zainteresowany oszacowaniem nazwawiwiw_ixixix_iwiwiw_iwiwiw_ixixix_i∑ixiwi∑ixiwi\sum_i x_i w_iE[x]E⁡[x]\operatorname{E}\left[x\right] podstawie tych informacji. Oczywiście estymator x¯=∑iwixi∑iwix¯=∑iwixi∑iwi \bar{x} = \frac{\sum_i w_i x_i}{\sum_i w_i} jest bezstronny i …

2
Jeśli „Błąd standardowy” i „Przedziały ufności” mierzą precyzję pomiaru, to jakie są pomiary dokładności?
W książce „Biostatystyka manekinów” na stronie 40 czytam: Błąd standardowy (w skrócie SE) jest jednym ze sposobów wskazania, jak dokładna jest twoja ocena lub pomiar czegoś. i Przedziały ufności stanowią kolejny sposób na wskazanie dokładności oszacowania lub pomiaru czegoś. Ale nie ma nic, co wskazywałoby na dokładność pomiaru. Pytanie: Jak …

2
Obliczanie przedziałów ufności dla regresji logistycznej
Korzystam z dwumianowej regresji logistycznej, aby określić, czy narażenie has_xlub ma has_ywpływ na prawdopodobieństwo kliknięcia przez użytkownika. Mój model jest następujący: fit = glm(formula = has_clicked ~ has_x + has_y, data=df, family = binomial()) To wynik z mojego modelu: Call: glm(formula = has_clicked ~ has_x + has_y, family = binomial(), …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.