Ekonometria testaa monikollineaarisuuden tekijöitä. Multikollineaarisuus ja sen seuraukset

Kotiin / Käyttöjärjestelmät

Ulkoinen merkki multikollineaarisuuden olemassaolosta on liian suurien matriisielementtien arvot (X T X)~ 1 . Lisää matriisin määritelmää (X T X) X ja sen käyttö katso luku. 4, kohta 4.2.

Multikollineaarisuuden tärkein merkki: korrelaatiomatriisin determinantti Rxx. lähellä nollaa. Jos kaikki selittävät muuttujat eivät korreloi keskenään, niin R XjX.| = 1, tuumaa muuten 0 R x . x. |

On olemassa useita merkkejä, joilla multikollineaarisuuden esiintyminen voidaan määrittää.

  • 1. Determinaatiokerroin K 2 melko korkea, korkea f-tilasto, mutta jotkin (joskus kaikki) moninkertaisen lineaarisen regressioyhtälön kertoimet ovat tilastollisesti merkityksettömiä (niillä on alhainen 7-tilasto).
  • 2. Korkeat parikohtaiset korrelaatiokertoimet ja korkeat osittaiset korrelaatiokertoimet.

Määritelmä 7.1.Osittainen korrelaatiokerroin Sitä kutsutaan kahden selittävän muuttujan väliseksi korrelaatiokertoimeksi, joka on "puhdistettu" muiden muuttujien vaikutuksesta.

Esimerkiksi kolmella selittävällä muuttujalla X 1y X 2, X 3 osittaiskorrelaatiokerroin välillä X ( ja X3, "puhdistettu" X2:sta, lasketaan kaavalla

Huomautus 7.2. Osittaiskorrelaatiokerroin voi poiketa merkittävästi "tavanomaisesta" (pari)korrelaatiokertoimesta. Jotta selittävien muuttujien välisestä korrelaatiosta saadaan järkevämpi päätelmä, on tarpeen laskea kaikki osittaiset korrelaatiokertoimet.

Yleinen lauseke osittaisen korrelaatiokertoimen määrittämiseksi

Jossa Cjj- matriisielementtejä KANSSA = R~ x - matriisi käänteinen interfaktoriparin korrelaatiomatriisiin nähden R VjX . (7.1).

  • 3. Voimakas regressio selittävien muuttujien välillä. Mikä tahansa selittävistä muuttujista on yhdistelmä muita selittäviä muuttujia (lineaarisia tai lähes lineaarisia).
  • 4. Regressiokertoimien merkit ovat päinvastaiset kuin taloudellisista lähtökohdista odotetaan.
  • 5. Havaintojen lisääminen tai poistaminen otoksesta muuttaa suuresti arvioiden arvoja.

Katsotaanpa muutama esimerkki havainnollistamaan yllä olevaa.

Esimerkki 7.4

Tuotantovolyymille klo Seuraavat tärkeimmät tekijät vaikuttavat: x x- yrityksessä työskentelevien työntekijöiden lukumäärä; x 2- käyttöomaisuuden kustannukset; x 3- työntekijöiden keskipalkka. Lineaarisella moniregressioyhtälöllä on muoto y = b 0 + b ( x x + b 2 x 2 + b 3 x 3 .

Tämän mallin parikorrelaatiokertoimien matriisi

Matriisideterminantti |D | = 0,302. Tässä mallissa tekijät ja x 2, ja myös X ( Ja x 3 tekijät liittyvät heikosti toisiinsa, päinvastoin, x 2 Ja x 3 ovat vahvasti yhteydessä toisiinsa: r^z =0,8. Mahdollisesti vahva yhteys tekijöiden välillä x 2 Ja x l Tämä selittyy sillä, että korkeasti koulutetut työntekijät, joilla on korkeampi palkka, työskentelevät kalliilla laitteilla.

Tuloksena olevan muuttujan parilliset korrelaatiokertoimet tekijöiden kanssa osoittautuivat yhtäläisiksi: t yY| =0,7; g uh.^ =0,8; g uhz=0,75. Parin korrelaatiokertoimien täydellisellä matriisilla on muoto

Kaikki tekijät vaikuttavat merkittävästi tulokseen. Koska regressiomallin tulee sisältää tulokseen läheisesti liittyviä ja heikosti toisiinsa liittyviä tekijöitä, tässä esimerkissä sopivat kaksi regressiomallia samanaikaisesti: y, = f(x v x 2) ja y 2 = f(x v x 3).

Esimerkki 7.5

Selvitetään multikollineaarisuuden olemassaolo taulukossa annetuille näytetiedoille. 7.2.

Syötetiedot esimerkiksi 7.2

Taulukko 7.2

X,

Ratkaisu. Kaavan (7.2) avulla lasketut parilliset korrelaatiokertoimet on esitetty taulukossa. 7.3.

Taulukko 73

Parilliset korrelaatiokertoimet

Taulukossa annetuista tiedoista on selvää, että muuttujien välillä on vahva korrelaatio.G[ ja x 2. Parikohtaiset korrelaatiokertoimet voidaan määrittää myös käyttämällä analyysityökalua. Microsoft Excel (korrelaatiotyökalu),

Tarkastetaan selittävien ja selittävien muuttujien välinen korrelaatio. Käytämme tähän "Korrelaatio"-työkalua Microsoft Excel(voit laskea korrelaatiokertoimet g X1/ , käyttäen kaavaa (7.2)). Tulokset on esitetty kuvassa. 7.1.


Riisi. 7.1. Tulokset selittävien ja selittävien muuttujien välisen korrelaation laskemisesta Microsoft Excel

Lasketaan osittaiskorrelaatiokertoimet kaavalla (7.4), koska tässä esimerkissä on vain kolme selittävää muuttujaa (löydät osittaiskorrelaatiokertoimet kaavalla (7.5), kun olet ensin löytänyt käänteismatriisin C=R():

Muuttujien välinen osakorrelaatiokerroin osoittautui suurimmaksi x x niitä on 2 kpl. Osittainen korrelaatiokerroin g XXX ^ X2 pienin ja parikertoimen vastakkainen etumerkki g x x.

Vastaus. Mallin muuttujien välillä on vahva korrelaatio x x Ja x 2.

Multikollineaarisuuden ilmiö lineaarisen regressiomallin tapauksessa rikkoo yhtä sen premissioista, ts. tekijöiden välisen lineaarisen suhteen olemassaolo.

Monikollineaarisuus– tämä on selittävien muuttujien korkea keskinäinen korrelaatio.

_______________________________________________________________________

Multikollineaarisuus voi esiintyä kahdessa muodossa:

1) klo toiminnallinen/selkeä muoto monikollineaarisuus, ainakin yksi selittävien muuttujien välisistä parisuhteista on lineaarinen funktionaalinen suhde.

2) stokastinen/piilotettu muoto taloustutkimuksessa se ilmenee useammin, kun kahden selittävän muuttujan välillä on läheinen korrelaatio.

Jotta OLS-pohjainen regressioanalyysi antaa parhaat tulokset, oletetaan, että arvot X eivät ole satunnaismuuttujia ja että ne eivät korreloi, ts. jokainen muuttuja sisältää ainutlaatuista tietoa O y, joka ei sisällä muita. Kun tällainen ihanteellinen tilanne on olemassa, ei ole olemassa multikollineaarisuutta. Täysi kollineaarisuus tapahtuu, kun yksi muuttuja voidaan ilmaista täsmälleen toisella muuttujalla kaikille tietojoukon elementeille.

Syitä multikollineaarisuuteen:

1) menetelmä tiedon keräämiseksi ja muuttujien valitsemiseksi malliin ottamatta huomioon niiden merkitystä ja luonnetta(ottaen huomioon niiden väliset mahdolliset suhteet). Esimerkiksi arvioitaessa perheen tulojen ja perheen koon vaikutusta asunnon kokoon, jos kerätään tietoja vain perheiden kesken suuri koko ja korkeatuloisilla ja äläkä sisällytä malliin pieniä pienituloisia perheitä, niin tuloksena on malli, jossa on multikollineaarisuusvaikutus. Ratkaisu ongelmaan on parantaa näytteenottosuunnittelua. Jos muuttujat täydentävät toisiaan, otoksen säätäminen ei auta. Ratkaisu olisi poistaa yksi muuttujista;

2) suuri teho muuttuja. Esimerkiksi mallin ulkoasun muuttamiseksi voidaan lisätä lisätermi malliin, joka sisältää jo $

3) regressorit, jotka mittaavat suunnilleen samaa asiaa: valuuttakurssit päivän alussa ja lopussa;

4) luonnolliset suhteet regressoreiden välillä: ikä, kokemus ja koulutusvuosien lukumäärä.

Multikollineaarisuuden seuraukset:

1) testattaessa nollahypoteesia regressiokertoimien merkityksettömyydestä t-testillä, useimmiten se hyväksytään, mutta itse regressioyhtälö F-testillä testattuna osoittautuu merkitseväksi, mikä viittaa yliarviointiin. regressiokertoimesta; luottamusvälit ovat liian leveitä;



2) saadut yhtälöparametrien estimaatit ovat yleensä kohtuuttomasti liioiteltuja tai niillä on vääriä etumerkkejä;

3) 1-2 havainnon lisäämisellä tai pois jättämisellä alkuperäisestä tiedosta on voimakas vaikutus kertoimen arvioihin;

4) Multikollineaarisuuden esiintyminen mallissa voi tehdä siitä sopimattoman jatkokäyttöön.

Multikollineaarisuuden pääongelma on regressiokerroinestimaattien varianssin heikkeneminen. Multikollineaarisuuden vaikutuksen mittaamiseen käytetään indikaattoria VIF (variation inflation factor) – varianssiinflaatiokerroin verrattuna varianssiin, joka olisi ollut, jos se ei olisi ollut kollineaarinen muiden riippumattomien muuttujien kanssa regressiossa:

missä on kaikkien muiden regressorin monimäärityskertoimen arvo.

Esimerkiksi arvo VIF=6 tarkoittaa, että kertoimien dispersio on 6 kertaa suurempi kuin sen pitäisi olla jos täydellinen poissaolo kollineaarisuus. Uskotaan, että kriittinen arvo on VIF=10 – Tekijöiden välillä on liikaa korrelaatiota.

Esimerkki.

Regressio muihin regressoreihin

Regressiota varten

Regressiota varten

Onko olemassa multikollineaarisuutta?

Muut muuttujat selittävät melko huonosti, että muuttuja on lineaarisesti riippumaton.

Muuttujat ovat lineaarisesti riippuvaisia, korkeita.

1. Mallissa, jossa on kaksi muuttujaa, yksi multikollineaarisuuden merkeistä on parin korrelaatiokertoimen arvo lähellä yksikköä. Jos vähintään yhden parittaisen korrelaatiokertoimen arvo on suurempi kuin 0,8, niin multikollineaarisuus on vakava ongelma.

Kuitenkin mallissa, jossa on enemmän kuin kaksi riippumatonta muuttujaa, parikohtainen korrelaatiokerroin voi saada pienen arvon jopa multikollineaarisuuden läsnä ollessa. Tässä tapauksessa on parempi ottaa huomioon osittaiset korrelaatiokertoimet.

2. Voit tarkistaa monikollineaarisuuden parikorrelaatiokertoimien matriisin determinantit|r|. Tätä determinanttia kutsutaan korrelaatiodeterminantiksi |r| ∈(0; 1). Jos |r| = 0, silloin on täydellinen multikollineaarisuus. Jos |r|=1, multikollineaarisuutta ei ole. Mitä lähempänä |r| nollaan, sitä todennäköisemmin monikollineaarisuus on olemassa.

3. Jos estimaateissa on suuria keskivirheitä, pieni merkitsevyys, mutta malli kokonaisuudessaan on merkitsevä (sillä on korkea determinaatiokerroin), niin tämä osoittaa multikollineaarisuuden olemassaolon.

4. Jos uuden riippumattoman muuttujan lisääminen malliin johtaa merkittävään muutokseen parametriestimaateissa ja pieneen muutokseen determinaatiokertoimessa, niin uusi muuttuja on lineaarisesti riippuvainen muista muuttujista.

65. Dummy-muuttujat: nimien määritelmä, tarkoitus, tyypit, merkitys.

Tyhmiä muuttujia– Nämä ovat muuttujia, joilla on erillinen arvojoukko, jotka kuvaavat kvantitatiivisesti laadullisia ominaisuuksia. Ekonometriset mallit käyttävät tyypillisesti binaarisia "0-1" -tyyppisiä valemuuttujia.

Valemuuttujat vaaditaan endogeenisen muuttujan laadullisten ominaisuuksien arvioimiseksi. Esimerkiksi tietyn tuotteen kysyntää arvioitaessa rakensimme regressiomallin, jossa regressorit olivat kvantitatiivisia muuttujia - hinta ja kuluttajatulo. Yksi tapa tarkentaa tätä mallia olisi sisällyttää mukaan sellaisia ​​laadullisia ominaisuuksia kuin kuluttajan maku, ikä, kansalliset ominaispiirteet, kausiluonteisuus jne. Näitä indikaattoreita ei voida esittää numeerisessa muodossa. Siksi syntyy ongelma heijastaa niiden vaikutusta endogeenisen muuttujan arvoihin, mikä ratkaistaan ​​juuri ottamalla käyttöön valemuuttujia.

IN yleinen tapaus Kun kvalitatiivisella ominaisuudella on enemmän kuin kaksi arvoa, otetaan käyttöön useita binäärimuuttujia. Useita binäärimuuttujia käytettäessä on välttämätöntä sulkea pois muuttujien välinen lineaarinen suhde, koska muuten parametreja arvioitaessa tämä johtaa täydelliseen multikollineaarisuuteen. Siksi pätee seuraava sääntö: jos kvalitatiivisella muuttujalla on k vaihtoehtoista arvoa, niin mallintamisessa käytetään vain (k-1) valemuuttujia.

Regressiomallit käyttävät kahdenlaisia ​​valemuuttujia:

1. Valeet siirtomuuttujat

2. Kaltevuusmuuttujat on muuttuja, joka muuttaa regressioviivan kaltevuutta. Tällaisten dummy-muuttujien avulla voidaan rakentaa paloittain lineaarisia malleja, joiden avulla voidaan ottaa huomioon taloudellisten prosessien rakenteelliset muutokset (esim. uusien laki- tai verorajoitusten käyttöönotto, muutokset poliittisessa tilanteessa jne.). Tällaisia ​​muuttujia ovat mm. käytetään, kun kvalitatiivisen ominaisuuden muutos ei johda regressiograafin rinnakkaiseen siirtymiseen, vaan muutokseen sen kulmakertoimessa. Tästä syystä tällaisia ​​valemuuttujia kutsutaan kaltevuusmuuttujiksi.

66. Shift Dummy: Regressiomallin määrittely siirtonuken kanssa.

Valeet siirtomuuttujat– Näitä muuttujia käytetään dynaamisissa malleissa, kun jokin laadullinen tekijä alkaa toimia tietyn ajankohdan jälkeen (esimerkiksi kun tarkastellaan tehtaan tuottavuutta ennen työntekijöiden lakkoa ja sen aikana). Näitä muuttujia käytetään, kun kvalitatiivisen attribuutin muutos johtaa rinnakkaiseen siirtoon regressiomallikaaviossa, minkä vuoksi niitä kutsutaan siirtomuuttujiksi.

Parittaisen regressiomallin spesifikaatio valesiirtomuuttujan kanssa on:

missä α, β, δ ovat malliparametreja; – regressorin arvo havaintossa t;

Dummy muuttuja;

δ on valemuuttujan parametri.

Tekemän muuttujan dt=0 arvoa kutsutaan perusarvoksi (vertailu). Perusarvo voidaan joko määrittää tutkimuksen tavoitteiden mukaan tai valita mielivaltaisesti. Jos vaihdat muuttujan perusarvon, mallin olemus ei muutu, parametrin δ etumerkki muuttuu päinvastaiseksi.

Tarkastellaan parillista regressiomallia, jossa on valesiirtomuuttuja by esimerkki.

Anna jäätelön myyntiin vaikuttaa myyjän pakettiautossa oleva mainonta. Käyttämällä yhtälöä, jossa on valemuuttujia, käyttämällä yhtä regressioyhtälöä, voit saada tuloksia sekä myyjille mainonnan kanssa että myyjille ilman mainontaa.

Kuvataan alkuperäinen malli spesifikaatiolla:

Missä n on jäätelönmyyjien lukumäärä, on myynnin lukumäärä t:nnelle myyjälle, on kvantitatiivisen regressorin arvo t:nnelle myyjälle

Otetaan käyttöön fiktiivinen siirtomuuttuja

Oletetaan, että tarkastelemme regressioyhtälöä ja sen estimointiaineisto sisältää havaintoja erilaatuisista kohteista: miehille ja naisille, valkoisille ja mustille. Meitä saattaa tässä kiinnostaa seuraava kysymys: onko totta, että tarkasteltava malli yhtyy kahdelle näytteelle, jotka liittyvät erilaatuisiin esineisiin? Tähän kysymykseen voidaan vastata Chow-testillä.

Mietitään malleja:

, i=1,…,N (1);

, i=N+1,…,N+M (2).

Ensimmäisessä näytteessä N havainnot, toisessa - M havainnot. Esimerkki: Y– palkat, selittävät muuttujat – ikä, palvelusaika, koulutustaso. Seuraako käytettävissä olevista tiedoista, että palkkojen riippuvuuden malli oikeanpuoleisista selittävistä muuttujista on sama miehillä ja naisilla?

Tämän hypoteesin testaamiseksi voit käyttää yleistä hypoteesien testausjärjestelmää vertaamalla rajoitettua regressiota ja rajoittamatonta regressiota. Rajoittamaton regressio on tässä regressioiden (1) ja (2) liitto, ts. ESS UR = ESS 1 + ESS 2, vapausasteiden lukumäärä – N + M - 2k. Regressio rajoituksin (eli regressio olettaen, että nollahypoteesi täyttyy) on regressio koko käytettävissä olevalle havaintojoukolle:

, i = 1,…, N+M (3).

Arvioimalla (3) saamme ESS R. Nollahypoteesin testaamiseen käytämme seuraavia tilastoja:

Jolla, jos nollahypoteesi on totta, on Fisher-jakauma osoittajan vapausasteiden lukumäärällä k ja nimittäjä N+ M- 2k.

Jos nollahypoteesi pitää paikkansa, voimme yhdistää käytettävissä olevat näytteet yhdeksi ja arvioida mallin N+M havainnot. Jos hylkäämme nollahypoteesin, emme voi yhdistää kahta näytettä yhdeksi, ja meidän on arvioitava kaksi mallia erikseen.


Aiemmin tarkastelemamme yleisen lineaarisen mallin tutkiminen on, kuten olemme nähneet, hyvin merkittävää tilastolaitteiston perusteella. Kuitenkin, kuten kaikissa mattosovelluksissa. tilastoissa menetelmän vahvuus riippuu sen taustalla olevista ja sen soveltamisen kannalta tarpeellisista oletuksista. Jonkin aikaa pohditaan tilanteita, joissa yksi tai useampi lineaarisen mallin taustalla olevista hypoteeseista rikotaan. Harkitsemme vaihtoehtoisia menetelmiä arvioita näissä tapauksissa. Näemme, että joidenkin hypoteesien rooli on merkittävämpi kuin muiden. Meidän on tarkasteltava, mihin seurauksiin tiettyjen ehtojen (oletusten) rikkominen voi johtaa, kyettävä tarkastamaan, täyttyvätkö ne vai eivät, ja tiedettävä, mitä tilastollisia menetelmiä voidaan ja pitäisi käyttää, kun klassinen pienimmän neliösumman menetelmä ei sovellu.

1. Muuttujien välinen suhde on lineaarinen ja ilmaistaan ​​yhtälöllä - mallin määrittelyvirheet (merkittävien selittävien muuttujien sisällyttämättä jättäminen yhtälöön, tarpeettomien muuttujien sisällyttäminen yhtälöön, muuttujien välisen riippuvuuden muodon virheellinen valinta);


2. X 1 ,…,X k– deterministiset muuttujat – stokastiset regressorit, lineaarisesti riippumattomat – täydellinen multikollineaarisuus;

4. - heteroskedastisuus;

5. milloin i ¹ k– virheiden autokorrelaatio

Ennen keskustelun aloittamista harkitaan seuraavia käsitteitä: parin korrelaatiokerroin ja osakorrelaatiokerroin.

Oletetaan, että tutkimme yhden muuttujan vaikutusta toiseen muuttujaan ( Y Ja X). Ymmärtääksemme, kuinka nämä muuttujat liittyvät toisiinsa, laskemme parittaisen korrelaatiokertoimen käyttämällä seuraavaa kaavaa:

Jos saamme korrelaatiokertoimen arvon lähellä 1, päättelemme, että muuttujat liittyvät melko vahvasti toisiinsa.

Kuitenkin, jos kahden tutkimusmuuttujan välinen korrelaatiokerroin on lähellä yhtä, ne eivät välttämättä ole riippuvaisia. Esimerkki mielisairaista ja radioista on esimerkki niin sanotusta "väärästä korrelaatiosta". Korrelaatiokertoimen korkea arvo voi johtua myös kolmannen muuttujan olemassaolosta, jolla on vahva vaikutus kahteen ensimmäiseen muuttujaan, mikä on syynä niiden korkeaan korrelaatioon. Siksi tehtävänä on laskea "puhdas" korrelaatio muuttujien välillä X Ja Y, eli korrelaatio, jossa muiden muuttujien vaikutus (lineaarinen) on poissuljettu. Tätä tarkoitusta varten otetaan käyttöön osittaisen korrelaatiokertoimen käsite.

Haluamme siis määrittää muuttujien välisen osittaisen korrelaatiokertoimen X Ja Y, lukuun ottamatta muuttujan lineaarista vaikutusta Z. Sen määrittämiseksi käytetään seuraavaa menettelyä:

1. Arvioimme regression,

2. Saamme loput,

3. Arvioimme regression,

4. Saamme loput,

5. - otososittaiskorrelaatiokerroin, mittaa muuttujien välisen yhteyden astetta X Ja Y, puhdistettu muuttujan vaikutuksesta Z.

Suorat laskelmat:

Kiinteistö:

Osittaisen korrelaatiokertoimen muodostamismenettely on yleistetty tapaukseen, jossa halutaan päästä eroon kahden tai useamman muuttujan vaikutuksesta.


1. Täydellinen multikollineaarisuus.

Yksi Gauss-Markovin vaatimuksista kertoo meille, että selittävien muuttujien ei pitäisi olla yhteydessä millään tarkalla suhteella. Jos muuttujien välillä on tällainen suhde, sanotaan, että mallissa on täydellinen multikollineaarisuus. Esimerkki. Harkitse mallia, jonka kokeen keskimääräinen pistemäärä koostuu kolmesta selittävästä muuttujasta: minä- vanhempien tulot, D- keskimääräinen koulutukseen käytettyjen tuntien määrä päivässä, W- keskimääräinen harjoitteluun käytetty tuntimäärä viikossa. Se on selvää W=7D. Ja tämä suhde täyttyy jokaisen otokseen kuuluvan opiskelijan kohdalla. Täydellisen multikollineaarisuuden tapaus on helppo jäljittää, koska tässä tapauksessa on mahdotonta muodostaa estimaatteja pienimmän neliösumman menetelmällä.

2. Osittainen multikollineaarisuus tai yksinkertaisesti multikollineaarisuus.

Paljon yleisempi tilanne on, kun selittävien muuttujien välillä ei ole tarkkaa lineaarista suhdetta, mutta niiden välillä on läheinen korrelaatio - tätä tapausta kutsutaan todelliseksi tai osittaiseksi multikollineaarisuudeksi (yksinkertaisesti multikollineaarisuus) - muuttujien välisten läheisten tilastollisten suhteiden olemassaolo. On sanottava, että kysymys multikollineaarisuudesta on pikemminkin ilmiön vakavuusaste kuin sen tyyppi. Minkä tahansa regression estimointi kärsii siitä tavalla tai toisella, elleivät kaikki riippumattomat muuttujat ole täysin korreloimattomia. Tämän ongelman tarkastelu alkaa vasta, kun se alkaa vakavasti vaikuttaa regressioestimoinnin tuloksiin (regressorien välisten tilastollisten suhteiden esiintyminen ei välttämättä anna epätyydyttäviä arvioita). Joten multikollineaarisuus on ongelma, kun regressorien välinen läheinen korrelaatio johtaa epäluotettaviin regressioestimaatteihin.

Multikollineaarisuuden seuraukset:

Muodollisesti koska ( X"X) on ei-degeneroitunut, voimme muodostaa OLS-estimaatteja regressiokertoimista. Muistakaamme kuitenkin, kuinka regressiokertoimien estimaattien teoreettiset varianssit ilmaistaan: , missä a ii - i matriisin diagonaalinen elementti. Koska matriisi (X"X) on lähellä yksikköä ja det( X"X) » 0, sitten

1) käänteimatriisin päädiagonaalissa on hyvin suuria lukuja, koska käänteimatriisin alkiot ovat kääntäen verrannollisia det( X"X). Siksi teoreettinen varianssi i-kerroin on melko suuri ja myös varianssiarvio on suuri, joten t- Tilastot ovat pieniä, mikä voi johtaa tilastolliseen merkityksettömyyteen i- kerroin. Toisin sanoen muuttujalla on merkittävä vaikutus selittävään muuttujaan, ja päätämme, että se on merkityksetön.

2) Koska arviot ja riippuvat ( X"X) -1 , jonka alkiot ovat kääntäen verrannollisia det( X"X), sitten jos lisäämme tai poistamme yhden tai kaksi havaintoa, jolloin lisätään tai poistetaan yksi tai kaksi riviä matriisiin X"X, sitten arvot ja voivat muuttua merkittävästi, aina arviointitulosten etumerkin muuttamiseen saakka.

3) Regressioyhtälön tulkintavaikeus. Oletetaan, että yhtälössä on kaksi muuttujaa, jotka liittyvät toisiinsa: X 1 ja X 2. Regressiokerroin at X 1 tulkitaan muutoksen mittana Y muutoksen takia X 1 kaikkien muiden asioiden ollessa sama, ts. kaikkien muiden muuttujien arvot pysyvät samoina. Kuitenkin, koska muuttujat X 1 ja X 2 liittyvät toisiinsa, sitten muuttujan muutokset X 1 aiheuttaa ennakoitavissa olevia muutoksia muuttujaan X 2 ja arvo X 2 ei pysy ennallaan.

Esimerkki: , missä X 1 – kokonaispinta-ala, X 2 – olohuone. Sanomme: "Jos asuinpinta-ala kasvaa 1 neliömetrillä, niin kaiken muun pysyessä asunnon hinta nousee dollareilla." Tässä tapauksessa asuinpinta-ala kasvaa kuitenkin 1 neliömetrillä. m ja hinnankorotus on . Erottele vaikutus muuttujaan Y jokainen muuttuja erikseen ei ole enää mahdollista. Pääsy tähän asunnon hintatilanteeseen on sisällyttää malliin ei kokonaispinta-ala, vaan niin sanottu "lisä" tai "lisä" pinta-ala.

Multikollineaarisuuden merkkejä.

Ei ole olemassa tarkkoja kriteerejä multikollineaarisuuden olemassaolon (poissaolon) määrittämiseksi. Sen tunnistamiseen on kuitenkin olemassa heuristisia suosituksia:

1) Analysoi regressorien välisten parillisten korrelaatiokertoimien matriisi ja jos korrelaatiokertoimen arvo on lähellä 1, niin tätä pidetään merkkinä multikollineaarisuudesta.

2) Korrelaatiomatriisin analyysi on vain pinnallinen arvio multikollineaarisuuden olemassaolosta (puuttumisesta). Tämän asian huolellisempi tutkimus saavutetaan laskemalla osittaiset korrelaatiokertoimet tai laskemalla kunkin selittävän muuttujan määrityskertoimet kaikille muille selittäville muuttujille regressiossa.

4) (XX) on symmetrinen positiivinen määrätty matriisi, joten kaikki sen ominaisarvot ovat ei-negatiivisia. Jos matriisin determinantti ( XX) on yhtä suuri kuin nolla, silloin pienin ominaisarvo on myös nolla ja jatkuvuus säilyy. Näin ollen minimaalisen ominaisarvon arvosta voidaan päätellä, onko matriisin determinantti lähellä nollaa ( XX). Tämän ominaisuuden lisäksi pienin ominaisarvo on myös tärkeä, koska kertoimen keskivirhe on kääntäen verrannollinen.

5) Multikollineaarisuuden olemassaolo voidaan arvioida ulkoisten merkkien perusteella, jotka ovat seurausta multikollineaarisuudesta:

a) joissakin arvioissa on talousteorian kannalta vääriä merkkejä tai kohtuuttoman suuria arvoja;

b) pieni muutos alkuperäisessä taloudellisessa tiedossa johtaa merkittävään muutokseen mallin kertoimien arvioissa;

c) enemmistö t-kertoimien tilastot eivät poikkea merkittävästi nollasta, samalla malli kokonaisuutena on merkittävä, mistä kertoo korkea arvo F-tilastot.

Kuinka päästä eroon multikollineaarisuudesta, miten se eliminoidaan:

1) Tekijäanalyysin käyttö. Siirtyminen alkuperäisestä regressorijoukosta, mukaan lukien tilastollisesti riippuvaiset, uusiin regressoreihin Z 1 ,…,Zm pääkomponenttien menetelmää käyttäen - alkuperäisten muuttujien sijasta alkuperäisten muuttujien sijaan tarkastellaan joitakin niiden lineaarisia yhdistelmiä, joiden välinen korrelaatio on pieni tai puuttuu ollenkaan. Tässä tehtävänä on antaa uusille muuttujille mielekäs tulkinta Z. Jos se epäonnistuu, palaamme alkuperäisiin muuttujiin käänteismuunnoksilla. Tuloksena saadut arviot ovat kuitenkin puolueellisia, mutta niiden hajonta on pienempi.

2) Valitse kaikkien käytettävissä olevien muuttujien joukosta tekijät, jotka eniten vaikuttavat selitettyyn muuttujaan. Valintamenettelyjä käsitellään jäljempänä.

3) Siirtyminen puolueellisiin arviointimenetelmiin.

Kun kohtaamme multikollineaarisuuden ongelman, kokemattomalla tutkijalla on aluksi halu yksinkertaisesti sulkea pois tarpeettomat regressorit, jotka voivat aiheuttaa sen. Aina ei kuitenkaan ole selvää, mitkä muuttujat ovat tässä mielessä tarpeettomia. Lisäksi, kuten alla osoitetaan, niin sanottujen merkittävästi vaikuttavien muuttujien hylkääminen johtaa harhaan OLS-estimaateissa.


Huomaa, että joissakin tapauksissa multikollineaarisuus ei ole niin vakava "paha", että sen tunnistamiseksi ja poistamiseksi on tehtävä merkittäviä ponnisteluja. Pohjimmiltaan kaikki riippuu tutkimuksen tavoitteista.
Jos mallin päätehtävänä on ennustaa riippuvaisen muuttujan tulevat arvot, niin riittävän suurella determinaatiokertoimella R2(gt; 0,9) multikollineaarisuuden esiintyminen ei yleensä vaikuta mallin ennustusominaisuuksiin (jos jatkossa samat suhteet korreloitujen muuttujien välillä säilytetään kuin ennen ).
Jos on tarpeen määrittää, missä määrin kukin selittävä muuttuja vaikuttaa riippuvaiseen muuttujaan, monikollineaarisuus, joka johtaa suurempiin standardivirheisiin, todennäköisesti vääristää muuttujien välisiä todellisia suhteita. Tässä tilanteessa multikollineaarisuus on vakava ongelma.
Multikollineaarisuuden poistamiseksi ei ole olemassa yhtä ainoaa menetelmää, joka sopisi joka tapauksessa. Tämä johtuu siitä, että multikollineaarisuuden syyt ja seuraukset ovat moniselitteisiä ja riippuvat suurelta osin otoksen tuloksista.
Muuttuja(t) poissulkeminen mallista
Yksinkertaisin tapa eliminoida multikollineaarisuus on sulkea pois yksi tai useampi korreloitu muuttuja mallista. Tätä menetelmää käytettäessä on oltava varovainen. Tässä tilanteessa spesifikaatiovirheet ovat mahdollisia, joten sovelletuissa ekonometrisissä malleissa ei ole suositeltavaa jättää pois selittäviä muuttujia ennen kuin multikollineaarisuudesta tulee vakava ongelma.
Haetaan lisää dataa tai uusi näyte
Koska multikollineaarisuus riippuu suoraan näytteestä, on mahdollista, että eri näytteellä ei ole multikollineaarisuutta tai se ei ole niin vakavaa. Joskus multikollineaarisuuden vähentämiseksi riittää otoksen koon kasvattaminen. Jos käytät esimerkiksi vuositietoja, voit siirtyä neljännesvuosittaisiin tietoihin. Tietomäärän lisääminen vähentää regressiokertoimien varianssia ja lisää siten niiden tilastollista merkitsevyyttä. Uuden näytteen hankkiminen tai vanhan laajentaminen ei kuitenkaan aina ole mahdollista tai siihen liittyy vakavia kustannuksia. Lisäksi tämä lähestymistapa voi lisätä autokorrelaatiota. Nämä ongelmat rajoittavat tämän menetelmän käyttöä.
Mallin määritysten muuttaminen
Joissakin tapauksissa multikollineaarisuuden ongelma voidaan ratkaista muuttamalla mallin spesifikaatiota: joko muuttamalla mallin muotoa tai lisäämällä selittäviä muuttujia, joita ei otettu huomioon alkuperäisessä mallissa, mutta jotka vaikuttavat merkittävästi riippuvaiseen muuttujaan. Jos tätä menetelmää on perusteltua, sen käyttö vähentää neliöpoikkeamien summaa, mikä vähentää regression keskivirhettä. Tämä johtaa kertoimien keskivirheiden vähenemiseen.
Joidenkin parametrien ennakkotietojen käyttö
Joskus usean regressiomallin rakentamisen yhteydessä voit käyttää alustavia tietoja, erityisesti joidenkin regressiokertoimien tunnettuja arvoja.
On todennäköistä, että joillekin alustaville (yleensä yksinkertaisemmille) malleille tai vastaavalle aiemmin hankitun otoksen pohjalta laskettuja kertoimien arvoja voidaan käyttää kehitettävänä olevaan malliin. tällä hetkellä mallit.
Merkittävimpien selittävien muuttujien valinta. Menettely elementtien peräkkäiseen yhdistämiseen
Siirtyminen harvempiin selittäviin muuttujiin voi vähentää erittäin riippuvaisten piirteiden tuottaman tiedon päällekkäisyyttä. Juuri tämän kohtaamme selittävien muuttujien multikollineaarisuuden tapauksessa.
Anna

Monikerroin
riippuvaisen muuttujan Y ja selittävien muuttujien joukon X 1,X 2,...,Xm väliset korrelaatiot. Se määritellään tavalliseksi parittaiseksi korrelaatiokertoimeksi Y:n ja lineaarisen funktion välillä
regressio Y = b0 + KX1 + b2X2+... + bmXm. Anna & = R-1 - matriisi käänteinen matriisiin R:


Sitten kertoimen Ry.X = Rr(xi,x2,..,x) neliö voidaan laskea kaavalla:


Determinaatiokertoimen R2y.X estimaatti R*2.X, joka on korjattu harhautumattomuudella, on muotoa:

(Jos kaava (6.7) antaa negatiivisen luvun, oletetaan


Alempi luottamusraja kohteelle

päättänyt
kaavan mukaan:

Käytännössä päätettäessä, mitä selittäviä muuttujia malliin sisällytetään, käytetään usein menettelyä elementtien peräkkäiseen lisäämiseen.
(j = 1, 2,..., m). Samaan aikaan

yhtyy säännölliseen neliöön
parin korrelaatiokerroin

Anna


silloin muuttuja xp on informatiivisin. Sitten lasketaan puolueettomuudella korjattu kerroin
(m = 1) ja sen alempi luottamusraja R2min (1) .


pari jxp,xq on informatiivisempi). Sitten lasketaan puolueettomuudella korjattu kerroin (m = 2)
ja sen alempi luottamusraja R2min (2) .

Toimenpidettä jatketaan, kunnes seuraava ehto täyttyy vaiheessa (+1:een):
Sitten ensimmäisissä vaiheissa saadut informatiivisimmat muuttujat sisällytetään malliin. Huomaa, että laskelmissa käytetään kaavoja (6.7) ja (6.8), joissa m:n sijaan otetaan askelnumeron k vastaava arvo.
Itse asiassa tämä menetelmä ei takaa, että pääsemme eroon multikollineaarisuudesta.
Myös muita menetelmiä multikollineaarisuuden eliminoimiseksi käytetään.
Esimerkki 6.1. Seuraavat ehdolliset tiedot ovat saatavilla (taulukko 6.1):
Taulukko 6.1
Päivänkakkara-menetelmän tiedot


X1

X2

X3

U

1

1,5

0,7

12

2

2,5

1,2

20

3

1

1,4

15

4

5,5

1,9

41

5

3

2,5

33

6

3

3,1

35

7

2,8

3,5

38

8

0,5

4

28

9

4

3,8

47

10

2

5,3

40

Tarkastellaan jokaisen selittävän muuttujan vaikutusta riippuvaan muuttujaan erikseen. Laskemalla parikorrelaatiokertoimia huomaamme, että kertoimella on suurin arvo

Sitten:


Tarkastellaan muuttujaparien (x1, x2) ja (x1, x3) vaikutusta riippuvaan muuttujaan. Harkitse ensin muuttujaparin (x1, x2) vaikutusta.



icuvum uvjpcuuivi, ykhsdul rsimsldsіtshіm msiida ііі^ісдіїслп-
Kun muuttujia lisätään, yhtälöön tulee sisällyttää kaksi selittävää muuttujaa. Siksi teoreettinen yhtälö saa muodon:
Kampa menetelmä
Tarkastellaan "harjannemenetelmää" ("harjaregressio") multikollineaarisuuden eliminoimiseksi. A.E. Hoerl ehdotti menetelmää vuonna 1962, ja sitä käytetään, kun matriisi (xtX) on lähellä singulaaria. Matriisin diagonaalielementteihin (xtX) lisätään pieni luku (0,1 - 0,4). Tässä tapauksessa saadaan yhtälöparametrien puolueelliset estimaatit. Mutta tällaisten arvioiden keskivirheet multikollineaarisuuden tapauksessa ovat pienempiä kuin tavallisen pienimmän neliösumman menetelmän antamat virheet.
Esimerkki 6.2. Lähtötiedot on esitetty kohdassa ”Taulukko 6 2 Selittävien muuttujien korrelaatiokerroin

Mitä
osoittaa vahvaa multikollineaarisuutta.
Taulukko 6.2
Tietoa multikollineaarisuuden tutkimiseen harjumenetelmällä


x1

x2

U

1

1,4

7

2

3,1

12


Sitten saadaan yhtälö y = 2,63 +1,37x1 + 1,95x2. Käänteismatriisin diagonaaliset elementit pienenevät merkittävästi ja ovat yhtä kuin z00 = 0,45264, z11 = 1,57796, z00 = 0,70842, mikä johtaa kertoimien keskivirheiden pienenemiseen.
Jatkaa
Yksi tärkeimmistä seurauksista, joihin multikollineaarisuus voi johtaa, ovat seuraavat:
  1. testattaessa päähypoteesia useiden regressiokertoimien merkityksettömyydestä t-testillä, useimmiten se hyväksytään, mutta itse regressioyhtälö A-testillä testattuna osoittautuu merkitseväksi, mikä osoittaa yliarvioitua arvoa. moninkertaisen korrelaatiokertoimen;
  2. saadut estimaatit moninkertaisen regressioyhtälön kertoimista ovat yleensä kohtuuttoman suuret tai niillä on vääriä etumerkkejä;
  3. yhden tai kahden havainnon lisäämisellä tai pois jättämisellä alkuperäisestä tiedosta on vahva vaikutus mallikertoimien arvioihin;
  4. Multikollineaarisuuden esiintyminen moniregressiomallissa voi tehdä siitä sopimattoman jatkokäyttöön (esimerkiksi ennusteiden tekemiseen).
Itsetestauskysymykset
  1. Mitä on multikollineaarisuus?
  2. Mitkä indikaattorit osoittavat multikollineaarisuuden olemassaolon?
  3. Miksi on yhtä suuri kuin determinantti XTX-matriisit täydellisen multikollineaarisuuden tapauksessa?
  4. Mitä voidaan sanoa selittävien muuttujien kertoimien merkityksestä multikollineaarisuuden tapauksessa?
  5. Mikä muunnos harjumenetelmässä suoritetaan, mihin se johtaa?
  6. Mikä on menetelmä menetelmässä, jossa selittävien muuttujien lukumäärää lisätään peräkkäin?
  7. Mitä korrelaatiokerroin osoittaa?
  8. Mitä osittaiskorrelaatiokerroin osoittaa?

© 2024 ermake.ru - Tietoja PC-korjauksesta - Tietoportaali