Quando un insieme di dati contiene due variabili che possono riguardare , ad esempio le altezze e pesi dei singoli, l’analisi di regressione trova una funzione matematica che meglio approssima la relazione . La somma dei residui è una misura di quanto bene un lavoro fa la funzione . Residui

analisi di regressione , abbiamo scelto una variabile di essere la ” variabile esplicativa “, che chiameremo x , e l’altro per essere la ” variabile di risposta “, che chiameremo y . L’analisi di regressione crea la funzione y = f ( x ) che meglio predice la variabile di risposta dalla relativa variabile esplicativa associata . Se x [ i] è una delle variabili esplicative , e y [ i] sua variabile di risposta , allora il residuo è l’errore , o la differenza tra il valore effettivo di y [ i] e il valore stimato di y [ i] . In altre parole , residuo = y [ i] – . F ( x [ i] )

Esempio

Un insieme di dati contiene le altezze in centimetri e pesi chilogrammi di 5 persone : [ ( 152,54 ) , ( 165,65 ) , ( 175.100 ) , ( 170,80 ) , ( 140 , 45 ) ] . Un fit quadratico di peso , w , per l’altezza , h, è w = f ( h ) = 1.160 -15,5 * h + 0.054 * h ^ 2 . I residui sono ( in kg ) : [ 2.38 , 7.65 , 1.25 , 5.60 , 3.40 ] . La somma dei residui è di 15,5 kg .

Linear Regression

Il tipo più semplice di regressione regressione lineare , in cui la funzione matematica è una linea retta di la forma y = m * x + b . In questo caso , la somma dei residui è 0 per definizione.