Odpowiedzią na pytanie „Jaka regresja / oszacowanie nie jest MLE?”, prostą i solidną alternatywą dla metody najmniejszych kwadratów (LS), jest podobno najmniejsze odchylenie bezwzględne (LAD).
Cytując źródło:
„Metoda najmniejszych odchyleń bezwzględnych (LAD) jest jedną z głównych alternatyw dla metody najmniejszych kwadratów, gdy dąży się do oszacowania parametrów regresji. Celem regresji LAD jest zapewnienie solidnego estymatora.”
Co ciekawe, zgodnie z odniesieniem, cytując: „Oszacowanie najmniejszych bezwzględnych odchyleń pojawia się również jako oszacowanie maksymalnego prawdopodobieństwa, jeśli błędy mają rozkład Laplace'a”. Oto link, który omawia kilka interesujących zastosowań Laplace'a (jak wcześniej Bayesian i do ekstremalnych wydarzeń).
Historycznie rzecz biorąc, procedura LAD została wprowadzona 50 lat przed metodą najmniejszych kwadratów (1757) przez Rogera Josepha Boscovicha, który zastosował ją do pogodzenia niespójnych miar związanych z kształtem ziemi.
Przykładową różnicą jest bardzo prosty przypadek Y = Constant, gdzie LS zwraca średnią z próbki, podczas gdy LAD wybiera medianę próbki! Tak więc w kontekstach z jedną lub dwiema skrajnymi wartościami, które z jakiegokolwiek powodu (jak heteroskedastyczność), które mogą się pojawić, LS może wykazać duże przesunięcie w prawdziwym oszacowaniu nachylenia, zwłaszcza gdy jest jedna bardzo niska i / lub wysoka obserwacja, jak zauważona słabość. Wikipedia na temat silnej regresji zawiera dodatkowy komentarz:
„W szczególności oszacowania metodą najmniejszych kwadratów dla modeli regresji są bardzo wrażliwe na wartości odstające”.
W odniesieniu do zastosowań może to być szczególnie ważne, na przykład w chemicznej analizie danych w celu przewidzenia tak zwanego prawa szybkości reakcji (które jest oparte na oszacowaniu nachylenia).