„Najmniejsze kwadraty” oznaczają, że ogólne rozwiązanie minimalizuje sumę kwadratów błędów popełnionych w wynikach każdego pojedynczego równania. Najważniejszym zastosowaniem jest dopasowanie danych. Najlepsze dopasowanie w sensie najmniejszych kwadratów minimalizuje sumę kwadratów reszt, przy czym reszta jest różnicą między wartością obserwowaną a dopasowaną wartością dostarczoną przez model. Problemy z najmniejszymi kwadratami dzielą się na dwie kategorie: liniowe lub zwykłe najmniejsze kwadraty i inne liniowe najmniejsze kwadraty, w zależności od tego, czy reszty są liniowe we wszystkich niewiadomych.
Bayesowska regresja liniowa to podejście do regresji liniowej, w którym analiza statystyczna jest przeprowadzana w kontekście wnioskowania bayesowskiego. Gdy w modelu regresji występują błędy o rozkładzie normalnym i przy założeniu określonej formy wcześniejszego rozkładu, dostępne są wyraźne wyniki dla późniejszych rozkładów prawdopodobieństwa parametrów modelu.
∥ β∥2)
Alternatywną regularną wersją najmniejszych kwadratów jest Lasso (operator najmniejszego bezwzględnego skurczu i operatora wyboru), który wykorzystuje ograniczenie, że , norma L1 wektora parametru, nie jest większa niż podana wartość . W kontekście bayesowskim jest to równoważne z umieszczeniem zerowej średniej Laplace'a przed rozkładem na wektorze parametrów.∥ β∥1
Jedną z głównych różnic między regresją Lasso i regresji kalenicowej jest to, że w regresji kalenicowej, wraz ze wzrostem kary, wszystkie parametry są zmniejszane, pozostając niezerowe, podczas gdy w Lasso, zwiększenie kary spowoduje, że będzie coraz więcej parametrów doprowadzony do zera.
W pracy porównano regularne lasso z lasso bayesowskie i regresją kalenicową (patrz ryc. 1 ).