Istnieje kilka różnic między modelami regresji liniowej i nieliniowej, ale podstawowy matematyczny polega na tym, że modele liniowe są liniowe w parametrach, podczas gdy modele nieliniowe są nieliniowe w parametrach. Pinheiro i Bates (2000, s. 284–285), autorzy nlme
pakietu R, elegancko opisali bardziej merytoryczne względy przy wyborze modelu:
Wybierając model regresji, aby opisać, jak zmienna odpowiedzi zmienia się wraz ze zmiennymi towarzyszącymi, zawsze można skorzystać z modeli, takich jak modele wielomianowe, które są liniowe w parametrach. Zwiększając porządek modelu wielomianowego, można uzyskać coraz dokładniejsze przybliżenia do prawdziwej, zwykle nieliniowej funkcji regresji, w obrębie obserwowanego zakresu danych. Te modele empiryczne opierają się wyłącznie na zaobserwowanym związku między odpowiedzią a współzmiennymi i nie uwzględniają żadnych teoretycznych rozważań na temat mechanizmu leżącego u podstaw generowania danych. Z drugiej strony modele nieliniowe są często mechanistyczne, tj. Oparte na modelu mechanizmu wytwarzającego odpowiedź. W rezultacie parametry modelu w modelu nieliniowym mają na ogół naturalną interpretację fizyczną. Nawet gdy są uzyskane empirycznie, modele nieliniowe zwykle zawierają znane, teoretyczne cechy danych, takie jak asymptoty i monotoniczność, i w tych przypadkach można je uznać za modele półmechaniczne. Model nieliniowy zazwyczaj wykorzystuje mniej parametrów niż model liniowy konkurencji, taki jak wielomian, co daje bardziej oszczędny opis danych. Modele nieliniowe zapewniają również bardziej wiarygodne prognozy dla zmiennej odpowiedzi poza obserwowanym zakresem danych niż, powiedzmy, modele wielomianowe. podając bardziej oszczędny opis danych. Modele nieliniowe zapewniają również bardziej wiarygodne prognozy dla zmiennej odpowiedzi poza obserwowanym zakresem danych niż, powiedzmy, modele wielomianowe. podając bardziej oszczędny opis danych. Modele nieliniowe zapewniają również bardziej wiarygodne prognozy dla zmiennej odpowiedzi poza obserwowanym zakresem danych niż, powiedzmy, modele wielomianowe.
Istnieją również duże różnice między pakietami nlme i lme4, które wykraczają poza kwestię liniowości. Na przykład za pomocą nlme można dopasować modele liniowe lub nieliniowe i dla każdego typu określić struktury wariancji i korelacji dla błędów wewnątrz grupy (np. Autoregresyjny); Lme4 nie może tego zrobić. Ponadto losowe efekty można naprawić lub krzyżować w dowolnym pakiecie, ale o wiele łatwiej (i bardziej wydajnie obliczeniowo) jest określenie i modelowanie krzyżowanych efektów losowych w lme4.
Radziłbym najpierw rozważyć: a) czy będziesz potrzebować modelu nieliniowego, oraz b) czy będziesz musiał określić albo wariancje wewnątrz grupy, albo struktury korelacji. Jeśli którakolwiek z tych odpowiedzi brzmi „tak”, musisz użyć nlme (biorąc pod uwagę, że trzymasz się R). Jeśli dużo pracujesz z modelami liniowymi, które krzyżują losowe efekty lub skomplikowane kombinacje zagnieżdżonych i skrzyżowanych efektów losowych, wtedy lme4 jest prawdopodobnie lepszym wyborem. Może być konieczne nauczenie się korzystania z obu pakietów. Nauczyłem się najpierw lme4, a potem zdałem sobie sprawę, że muszę używać nlme, ponieważ prawie zawsze pracuję z autoregresyjnymi strukturami błędów. Nadal jednak wolę lme4, kiedy analizuję dane z eksperymentów ze skrzyżowanymi czynnikami. Dobra wiadomość jest taka, że wiele z tego, czego dowiedziałem się o lme4, zostało dobrze przeniesionych do nlme. Tak czy inaczej,
Bibliografia
Pinheiro, JC i Bates, DM (2000). Modele z efektami mieszanymi w S i S-PLUS . Nowy Jork: Springer-Verlag.