Minimi quadrati
2021; Springer International Publishing; Linguagem: Italiano
10.1007/978-88-470-4010-6_11
ISSN2532-3318
AutoresA. Rotondi, P. Pedroni, Antonio Pievatolo,
Tópico(s)Statistical and numerical algorithms
ResumoNel par. 10.6 abbiamo mostrato che il metodo dei minimi quadrati (metodo LS, Least Squares) discende dal principio di massima verosimiglianza (metodo ML, Maximum Likelihood) quando le variabili sono gaussiane. Storicamente le cose sono andate però in modo diverso. Infatti, mentre la massima verosimiglianza fu introdotta da Fisher agli inizi del 1900, il metodo dei minimi quadrati fu applicato per la prima volta dal matematico francese Legendre fin dal 1803, come indicato nell’epigrafe di questo capitolo. Successivamente Laplace, nel suo famoso trattato “Théorie Analitique des Probabilités” del 1812, dimostrò che il metodo LS produce stime non distorte anche nel caso di variabili non gaussiane. Il passo decisivo per la collocazione corretta del metodo LS nell’ambito della statistica fu poi compiuto da Gauss nel 1821, con la dimostrazione che gli stimatori LS, quando i valori attesi delle variabili aleatorie sono funzioni lineari dei parametri da determinare, sono stimatori non distorti ed efficienti (a varianza minima). Questo fondamentale teorema fu esteso e meglio formalizzato da Markov nel 1912, ed è oggi noto come teorema di Gauss-Markov.
Referência(s)