Pytania otagowane jako generalized-linear-model

Uogólnienie regresji liniowej pozwalające na relacje nieliniowe za pomocą „funkcji łącza” oraz na wariancję odpowiedzi zależną od przewidywanej wartości. (Nie należy mylić z „ogólnym modelem liniowym”, który rozszerza zwykły model liniowy na ogólną strukturę kowariancji i reakcję wielowymiarową).



3
GLM z ciągłymi danymi zgromadzonymi na zerze
Próbuję uruchomić model, aby oszacować, w jaki sposób katastrofalne choroby, takie jak gruźlica, AIDS itp. Wpływają na wydatki na hospitalizację. Mam „na koszt hospitalizacji” jako zmienną zależną i różne indywidualne markery jako zmienne niezależne, z których prawie wszystkie są obojętne, takie jak płeć, głowa gospodarstwa domowego, stan ubóstwa i oczywiście …

1
Czy funkcja łącznika kanonicznego zawsze istnieje dla Uogólnionego Modelu Liniowego (GLM)?
W GLM, zakładając skalarny i dla rozkładu leżącego u podstaw z pdf Można wykazać, że . Jeśli funkcja łączenia spełnia następujące warunki, gdzie jest predyktorem liniowym, wówczas nazywa się w tym celu funkcją łącza kanonicznego Model.YYYθθ\thetafY(y|θ,τ)=h(y,τ)exp(θy−A(θ)d(τ))fY(y|θ,τ)=h(y,τ)exp⁡(θy−A(θ)d(τ))f_Y(y | \theta, \tau) = h(y,\tau) \exp{\left(\frac{\theta y - A(\theta)}{d(\tau)} \right)}μ=E(Y)=A′(θ)μ=E⁡(Y)=A′(θ) \mu = \operatorname{E}(Y) = …

4
Regresja logistyczna i punkt zapalny
Mamy dane z wynikiem binarnym i niektóre zmienne towarzyszące. Użyłem regresji logistycznej do modelowania danych. Po prostu prosta analiza, nic nadzwyczajnego. Ostatecznym wyjściem ma być krzywa zależności odpowiedzi od dawki, na której pokazujemy, jak zmienia się prawdopodobieństwo dla konkretnej zmiennej towarzyszącej. Coś takiego: Otrzymaliśmy krytykę od wewnętrznego recenzenta (nie tylko …

2
Analiza wzbogacania według poziomu duplikacji genów
Tło biologiczne Z czasem niektóre gatunki roślin mają tendencję do powielania całych genomów, uzyskując dodatkową kopię każdego genu. Z powodu niestabilności tej konfiguracji wiele z tych genów jest następnie usuwanych, a genom układa się ponownie i stabilizuje, gotowy do powtórzenia. Te zdarzenia duplikacji są powiązane ze specjacjami i inwazjami, a …

1
Czy dane te można agregować w proporcje dla dwumianowego glm?
Poprosiliśmy 60 osób o podanie jak największej liczby franczyz restauracyjnych w Atlancie. Ogólna lista obejmowała ponad 70 restauracji, ale wyeliminowaliśmy te, o których wspomniało mniej niż 10% osób, pozostawiając nam 45. Dla tych 45 obliczyliśmy odsetek informatorów, którzy wymienili franczyzę, i jesteśmy zainteresowani modelowanie tej proporcji jako funkcji budżetu reklamowego …

2
Parametr dyspersji na wyjściu GLM
Uruchomiłem glm w R, i summary()mówi, że w pobliżu dolnej części wyjścia (Dispersion parameter for gaussian family taken to be 28.35031) Zrobiłem trochę szperania w Google i dowiedziałem się, że parametr dyspersji służy do dopasowania do standardowych błędów. Mam nadzieję, że ktoś mógłby podać więcej szczegółów na temat parametru dyspersji …


1
Jak dostosować ANOVA do danych binarnych?
Mam cztery konkurencyjne modele, których używam do przewidywania binarnej zmiennej wynikowej (powiedzmy, status zatrudnienia po ukończeniu studiów, 1 = zatrudniony, 0 = niezatrudniony) dla n badanych. Naturalną miarą wydajności modelu jest współczynnik trafień, który jest procentem poprawnych prognoz dla każdego z modeli. Wydaje mi się, że nie mogę użyć ANOVA …

1
R / mgcv: Dlaczego produkty tensorowe te () i ti () wytwarzają różne powierzchnie?
mgcvOpakowanie Rposiada dwie funkcje montowania interakcji produktów napinacz: te()i ti(). Rozumiem podstawowy podział pracy między nimi (dopasowanie interakcji nieliniowej vs. rozkładanie tej interakcji na główne efekty i interakcję). To, czego nie rozumiem, to dlaczego te(x1, x2)i ti(x1) + ti(x2) + ti(x1, x2)może powodować (nieznacznie) różne wyniki. MWE (dostosowany z ?ti): …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 


1
OLS vs. Poisson GLM z łączem tożsamości
Moje pytanie ujawnia moje słabe zrozumienie regresji Poissona i ogólnie GLM. Oto kilka fałszywych danych ilustrujących moje pytanie: ### some fake data x=c(1:14) y=c(0, 1, 2, 3, 1, 4, 9, 18, 23, 31, 20, 25, 37, 45) Niektóre niestandardowe funkcje zwracające psuedo-R2: ### functions of pseudo-R2 psuR2 <- function(null.dev, model.dev) …

1
Jak wybrać prawdopodobieństwo odcięcia dla rzadkiego zdarzenia Regresja logistyczna
Mam 100 000 obserwacji (9 zmiennych fikcyjnych) z 1000 pozytywów. Regresja logistyczna powinna w tym przypadku działać dobrze, ale prawdopodobieństwo odcięcia mnie zastanawia. W powszechnej literaturze wybieramy 50% wartości odcięcia, aby przewidzieć 1 i 0. Nie mogę tego zrobić, ponieważ mój model daje maksymalną wartość ~ 1%. Więc próg może …

1
Test ilorazu wiarygodności i test Walda dostarczają różnych wniosków dla glm w R.
Odtwarzam przykład z modeli uogólnionych, liniowych i mieszanych . Moje MWE jest poniżej: Dilution <- c(1/128, 1/64, 1/32, 1/16, 1/8, 1/4, 1/2, 1, 2, 4) NoofPlates <- rep(x=5, times=10) NoPositive <- c(0, 0, 2, 2, 3, 4, 5, 5, 5, 5) Data <- data.frame(Dilution, NoofPlates, NoPositive) fm1 <- glm(formula=NoPositive/NoofPlates~log(Dilution), family=binomial("logit"), …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.