Ero sivun ”Lineaarinen regressioanalyysi” versioiden välillä

[arvioimaton versio][arvioimaton versio]
Poistettu sisältö Lisätty sisältö
pEi muokkausyhteenvetoa
Jkv (keskustelu | muokkaukset)
Luokka:Regressioanalyysi
Rivi 1:
'''Lineaarinen regressioanalyysi''' on [[tilastotiede|tilastollinen]] analyysimenetelmä, jossa aineiston perusteella estimoidaan tarkasteltavan vastemuuttujan lineaarinen riippuvuutta selittävistä muuttujista. Menetelmää sovelletaan lähes kaikilla tieteenaloilla, joilla tehdään empiiristä tutkimusta.
 
Seuraavassa on esimerkki lineaarisesta regressianalyysista, jossa estimoidaan suoran viivanyhtälön
:<math>y=\alpha+\beta x</math>,
tuntemattomat parametrit <math>\alpha, \beta</math> kun on annettunahavaittu havaintojaselitettävän muuttujan
<math>y_i</math> argumentinja arvoilleselittävän muuttujan<math>x_i,</math> havainnot <math>i=1,..,n</math>. Jos kirjoitetaanKirjoitetaan:
 
<math>
y_i=\alpha + \beta x_i+u_i\varepsilon_i,
</math>
 
missä <math>\varepsilon_i</math> on mallin jäännösvirhe eli residuaali. Kun mallin parametrit estimoidaan [[Pienimmän neliösumman menetelmä|pienimmän neliösumman menetelmällä]], valitaan estimaatit siten, että residuaalien neliöiden summa minimoidaan.
 
YlensäYleensä lineaarisessa regressio-ongelmissaregressioanalyysissa tehdään Gauss-Markov -oletukset:
* Virhetermit &epsilon;<submath>''i''\varepsilon_i</submath> ovat satunnaisia ja niiden odotusarvo on 0.
* Virhetermit ovat korreloimattomia (toisinaan tehdään vahvempi riippumattomuusoletus).
* Virhetermit ovat homoskedastisia eli niiden varianssi on vakio.
Gauss-Markov -teoreeman mukaan pienimmän neliösumman estimaattori on oletuksien vallitessa tietyssätehokkain mielessäharhaton optimaallinenlineaarinen estimaattori.
 
==Parametrien estimointi==
Rivi 42:
* [http://mathworld.wolfram.com/LeastSquaresFitting.html Least Squares Fitting -- MathWorld]
 
[[Luokka:TilastotiedeRegressioanalyysi]]
 
[[de:Regressionsanalyse]]