Tapahtumat

Kun kirjaudut sisään näet tässä ilmoitukset sinua kiinnostavista asioista.

Kirjaudu sisään
Tervetuloa lukemaan keskusteluja! Kommentointi on avoinna klo 7 - 23.
Tervetuloa lukemaan keskusteluja! Kommentointi on avoinna klo 7 - 23.

Osaisiko joku kertoa mitä tarkoittaa multikollineaarisuus?

Vierailija
20.04.2016 |

Sellanen sanahirviö. Google ei auttanut :(

Kommentit (10)

Vierailija
1/10 |
20.04.2016 |
Näytä aiemmat lainaukset

Miten niin google ei auttanut? Kyllä tuolla lineaarisen regressioanalyysin wikipedia-sivulla tuo selittyy.

Vierailija
2/10 |
20.04.2016 |
Näytä aiemmat lainaukset

Älä jaksa saivarrella.. Joo, "selittyyhän" se:

"Useamman muuttujan regressioanalyysissä oletetaan, ja itseasiassa analyysin onnistuminen edellyttää, että muuttujien välillä ei ole täydellistä multikollineaarisuutta eli että yksi muuttujista olisi täydellisessä lineaarisessa riippuvuussuhteessa toiseen. Yleensä täydellinen multikollineaarisuus on merkki siitä että tavalla tai toisella jokin muuttuja on tullut edustetuksi kaksi kertaa regressioyhtälössä, esimerkiksi eri mittayksiköissä"

Toi on kaikki mitä googlella on asiaan annettavaa, eikä sekään ole mun korviin kovin selvää suomen kieltä jos totta puhutaan :D Joku varmasti pitää mua nyt tyhmänä, mutta sama se jos sillä jollain olisi kysy vääntää asia rautalangasta. Joten yritin pyytä apua asian ymmärtämiseen, sillä tarkotus ois nimenomaan _ymmärtää_ asia eikä lukea wikipediaa "hauki on kala" menetelmällä...

Yritän siis sisäistää kyseisen kappaleen:

"Tilastollisen mallinnuksen ajatus on, että selitetään onnea ja terveyttä erilaisilla taustamuuttujilla ja toisillaan sekä vuonna 1998 että vuonna 2002. Vuoden 2002 mallissa on selittäjänä eksogeenisten taustamuuttujien lisäksi myös vuoden 1998 terveys ja onnellisuus. Selittäjien potentiaaliset keskinäiset korrelaatiot (multikollineaarisuus) tarkistettiin, ja se ei ole ongelma."

Anyone?

Sisältö jatkuu mainoksen alla
Sisältö jatkuu mainoksen alla
Vierailija
3/10 |
20.04.2016 |
Näytä aiemmat lainaukset

Mallinnettaessa riippuvaa muuttujaa useampien riippumattomien muuttujien avulla regressioanalyysin avulla mikään riippumaton muuttuja ei siis saa olla lähes täydellisessä lineaarisessa suhteessa toiseen riippumattomaan muuttujaan (lineaarinen suhde siis y = ax + b). Ajatuksena on siis, että selittävien tekijöiden tulisi olla itsenäisiä selitettävän tekijän käyttäytymisen mallintamisessa. Jos selittävät tekijät ovat multikollineaarisia, ne sisältävät ainakin jossakin määrin saman selittävän osan.

Vierailija
4/10 |
20.04.2016 |
Näytä aiemmat lainaukset

Siis jos sulla on yksi muuttuja, jossa 0:ssa tulee vaikka 20, ja 100:ssa vaikka 500 jne.. Jos toinen muuttuja käyttäytyy (lähes) samalla tavalla, niin ne on multikollineaarisia (moni-yhdessä-lineaarinen).

Eli usein ilmeisesti kyseessä on sama asia kahteen kertaan, siis ihan virhe.

Vierailija
5/10 |
20.04.2016 |
Näytä aiemmat lainaukset

Kiitos tuhannesti! Pääsin vihdoin jyvälle, teistä oli oikeesti tosi paljon apua :)

Vierailija
6/10 |
01.06.2019 |
Näytä aiemmat lainaukset

Asian voi ajatella myös näin:

muuttuja A kuvaa sään muutosta ja muuttuja B kuvaa liikenneonnettumuuksien määrää.

Näiden kahden muuttajan välillä on varmasti jokin korrelaatio. Sovitaan, että korrelaatio(A,B) = 0,3

MIkäli me jostain syystä tarkasteltaisiin muuttujan A:n korrelaatiota itsensä kanssa, korrelaatio olisi 1, eli muuttuja olisi multikolineaarinen (tosin itsensä kanssa) . Sama pätisi myös muuttujalle B.

korrelaatio(A,A) = 1, korrelaatio (B,B) = 1

Joskus voi löytyä jokin jokin muuttuja C, joka on multikolineaarinen jomman kumman edellä esitetyn muuttujan kanssa. Tuolloin on tutkittava mistä se voi johtua. Voi esimerkiksi olla, että jos korrelaatio (B,C) = 1 ( tai lähellä yhtä) , niin ne tosiassa mittaavat samaa asiaa ( tai ovat samoja muuttuja tms.) .  

 

Sisältö jatkuu mainoksen alla
Vierailija
7/10 |
01.06.2019 |
Näytä aiemmat lainaukset

Vierailija kirjoitti:

Mallinnettaessa riippuvaa muuttujaa useampien riippumattomien muuttujien avulla regressioanalyysin avulla mikään riippumaton muuttuja ei siis saa olla lähes täydellisessä lineaarisessa suhteessa toiseen riippumattomaan muuttujaan (lineaarinen suhde siis y = ax + b). Ajatuksena on siis, että selittävien tekijöiden tulisi olla itsenäisiä selitettävän tekijän käyttäytymisen mallintamisessa. Jos selittävät tekijät ovat multikollineaarisia, ne sisältävät ainakin jossakin määrin saman selittävän osan.

Eli tarkoittaako se esim kaksi fysikaaalista suuruutta jotka vaikuttavat toisiinsa.

Vierailija
8/10 |
01.06.2019 |
Näytä aiemmat lainaukset

multi = moni

kolli = uroskissa

nearisuus = läheisyys

Sisältö jatkuu mainoksen alla
Vierailija
9/10 |
01.06.2019 |
Näytä aiemmat lainaukset

Vierailija kirjoitti:

Vierailija kirjoitti:

Mallinnettaessa riippuvaa muuttujaa useampien riippumattomien muuttujien avulla regressioanalyysin avulla mikään riippumaton muuttuja ei siis saa olla lähes täydellisessä lineaarisessa suhteessa toiseen riippumattomaan muuttujaan (lineaarinen suhde siis y = ax + b). Ajatuksena on siis, että selittävien tekijöiden tulisi olla itsenäisiä selitettävän tekijän käyttäytymisen mallintamisessa. Jos selittävät tekijät ovat multikollineaarisia, ne sisältävät ainakin jossakin määrin saman selittävän osan.

Eli tarkoittaako se esim kaksi fysikaaalista suuruutta jotka vaikuttavat toisiinsa.

Mä en tieedä näistä "vakioist" ja muista mitäään.

Vierailija
10/10 |
01.06.2019 |
Näytä aiemmat lainaukset

SPSS..?