Metodo dei minimi quadrati
Il metodo dei minimi quadrati (in inglese OLS: Ordinary Least Squares) è una tecnica di ottimizzazione (o regressione) che permette di trovare una funzione, rappresentata da una curva ottima (o curva di regressione), che si avvicini il più possibile ad un insieme di dati (tipicamente punti del piano). In particolare, la funzione trovata deve essere quella che minimizza la somma dei quadrati delle distanze tra i dati osservati e quelli della curva che rappresenta la funzione stessa. In questo caso, possiamo distinguere parabola dei minimi quadrati e retta dei minimi quadrati. Questo metodo converge solo nel suo caso limite a un'interpolazione, per cui di fatto si richiede che la curva ottima contenga tutti i punti dati.
L'utilizzo più frequente è la deduzione dell'andamento medio in base ai dati sperimentali per l'estrapolazione fuori dal campo di misurazione. Anche altri problemi di ottimizzazione, come la minimizzazione dell'energia o la massimizzazione dell'entropia, possono essere riformulati in una ricerca dei minimi quadrati.
Stimatori OLS
[modifica | modifica wikitesto]Gli stimatori OLS sono:[1]
- pendenza =
- intercetta =
Assunzioni OLS
[modifica | modifica wikitesto]Le assunzioni OLS sono:[1]
- , con i = 1, …, n
- l'errore statistico ha media condizionata nulla data , ovvero ;
- sono estratti indipendentemente e identicamente distribuiti (i.i.d.) dalla loro distribuzione congiunta;
- hanno momenti quarti finiti non nulli.
Regressione lineare multipla
[modifica | modifica wikitesto]Le assunzioni OLS sono:[1]
- , con i = 1, …, n
- l'errore statistico ha media condizionata nulla date , ovvero ;
- sono estratti indipendentemente e identicamente distribuiti (i.i.d.) dalla loro distribuzione congiunta;
- hanno momenti quarti finiti non nulli;
- non vi è collinearità perfetta.
Da notare che l'ipotesi di media condizionale dell'errore nulla implica che:
- anche la media non condizionata sia nulla. Dalla legge delle aspettative iterate segue infatti:
- ,
- l'errore non sia correlato con i regressori, cioè la covarianza tra errore e regressori sia nulla:
- .
Formulazione del problema
[modifica | modifica wikitesto]Siano con i punti che rappresentano i dati in ingresso. Si vuole trovare una funzione tale che approssimi la successione di punti dati. Questa può essere determinata minimizzando la distanza (euclidea) tra le due successioni e , ovvero la quantità S :
da cui il nome "minimi quadrati".
Nei casi pratici in genere f(x) è parametrica: in questo modo il problema si riduce a determinare i parametri che minimizzano la distanza dei punti dalla curva. Naturalmente per ottenere un'unica curva ottimizzata e non un fascio, è necessario un numero di punti sperimentali maggiore del numero di parametri da cui dipende la curva (il problema in genere si dice sovradeterminato). In genere dai dati sperimentali ottenuti ci si aspetta una distribuzione regolata da relazioni determinate per via analitica; risulta utile quindi parametrizzare la curva teorica e determinare i parametri in modo da minimizzare S.
Esempi
[modifica | modifica wikitesto]La funzione interpolante desiderata è una retta, i parametri sono due a e b: per essere determinati univocamente servono almeno due punti da interpolare.
In tal caso è possibile scrivere in modo esplicito i valori dei parametri a e b.
Si consideri di avere N coppie . Allora i coefficienti sono:
La funzione interpolante desiderata è una potenza e possiede un solo parametro; diversamente dall'esempio precedente la funzione non è lineare rispetto ai parametri.
Soluzione del caso lineare
[modifica | modifica wikitesto]Sia f(x) una funzione lineare rispetto ai parametri
dove pi sono i k parametri, e n è il numero di punti noti.
Si può riorganizzare la situazione attraverso il sistema lineare sovradimensionato
dove:
Da cui:
Il problema di minimizzare S si riconduce dunque a minimizzare la norma del residuo
dove con si intende l'i-esima componente del vettore prodotto fra A e p.
Possiamo minimizzare derivando rispetto a ciascun pm e ponendo le derivate pari a 0:
queste equazioni sono equivalenti al sistema:
Quindi il vettore p che minimizza S è la soluzione dell'equazione:
Quest'ultima equazione è detta equazione normale. Se il rango di A è completo allora è invertibile e dunque:
La matrice è detta pseudo-inversa.
Caso non lineare
[modifica | modifica wikitesto]In molti casi la funzione non è lineare, in questi casi non si può indicare un modo certo per ottenere i parametri. Nel tipico caso in cui la dimensione dello spazio dei parametri sia maggiore di 1, il problema diventa fortemente non lineare conviene ricorrere all'uso di programmi di analisi numerica specifici che minimizzi la variabile .
Una delle librerie più famose per questo compito è MINUIT[2], inizialmente sviluppata al CERN in Fortran ed ora integrata nel più recente framework di analisi dati ROOT[3]. Si segnalano per questo compito anche altre librerie come le Gnu Scientific Library[4].
Minimi quadrati a due stadi - 2SLS o TSLS
[modifica | modifica wikitesto]Questo metodo si utilizza quando quello dei minimi quadrati ordinari fallisce, perché la stima ottenuta è correlata all'errore. In questo caso si opera una regressione della variabile che si vuole stimare su una variabile strumentale che sia correlata alla variabile dipendente stessa, ma non al termine di errore. Ottenuta questa stima, la si utilizza per girare una nuova regressione che non dovrebbe dare problemi. Ovviamente il problema più grosso è trovare una variabile strumentale con le caratteristiche adeguate.
È tipicamente utilizzato con le variabili strumentali.
Assunzioni TSLS
[modifica | modifica wikitesto]Le assunzioni OLS sono:[1]
- l'errore statistico ha media condizionata nulla: ;
- sono estratti indipendentemente e identicamenti distribuiti (i.i.d.) dalla loro distribuzione congiunta;
- le X, i W e le Z hanno momenti quarti finiti non nulli;
- non vi è collinearità perfetta;
- valgono le condizioni di validità degli strumenti.
Note
[modifica | modifica wikitesto]- ^ a b c d James Stock, Mark Watson, Introduzione all'econometria, Milano, Pearson Education, 2005, p. 100, ISBN 978-88-7192-267-6.
- ^ MINUIT Archiviato il 26 maggio 2008 in Internet Archive.
- ^ ROOT
- ^ Gnu Scientific Library
Voci correlate
[modifica | modifica wikitesto]Altri progetti
[modifica | modifica wikitesto]- Wikimedia Commons contiene immagini o altri file su metodo dei minimi quadrati
Collegamenti esterni
[modifica | modifica wikitesto]- http://www.physics.csbsju.edu/stats/least_squares.html
- levmar, in C/C++, con interfacce di MATLAB, Perl e Python. Licenza: GPL
- lmfit Archiviato il 26 novembre 2013 in Internet Archive. implementazione del algoritmo di Levenberg e Marquardt per uso in C e C++
- Zunzun.com - Online curve and surface fitting
- http://www.orbitals.com/self/least/least.htm
Controllo di autorità | Thesaurus BNCF 38670 · NDL (EN, JA) 00570033 |
---|