Capítulo de livro Revisado por pares

Minimi quadrati

2021; Springer International Publishing; Linguagem: Italiano

10.1007/978-88-470-4010-6_11

ISSN

2532-3318

Autores

A. Rotondi, P. Pedroni, Antonio Pievatolo,

Tópico(s)

Statistical and numerical algorithms

Resumo

Nel par. 10.6 abbiamo mostrato che il metodo dei minimi quadrati (metodo LS, Least Squares) discende dal principio di massima verosimiglianza (metodo ML, Maximum Likelihood) quando le variabili sono gaussiane. Storicamente le cose sono andate però in modo diverso. Infatti, mentre la massima verosimiglianza fu introdotta da Fisher agli inizi del 1900, il metodo dei minimi quadrati fu applicato per la prima volta dal matematico francese Legendre fin dal 1803, come indicato nell’epigrafe di questo capitolo. Successivamente Laplace, nel suo famoso trattato “Théorie Analitique des Probabilités” del 1812, dimostrò che il metodo LS produce stime non distorte anche nel caso di variabili non gaussiane. Il passo decisivo per la collocazione corretta del metodo LS nell’ambito della statistica fu poi compiuto da Gauss nel 1821, con la dimostrazione che gli stimatori LS, quando i valori attesi delle variabili aleatorie sono funzioni lineari dei parametri da determinare, sono stimatori non distorti ed efficienti (a varianza minima). Questo fondamentale teorema fu esteso e meglio formalizzato da Markov nel 1912, ed è oggi noto come teorema di Gauss-Markov.

Referência(s)
Altmetric
PlumX