Regresijas modeļa specifikācijas. Daudzkārtēja regresija. (Modeļa specifikācija. Faktoru izvēle daudzkārtējās regresijas vienādojuma konstruēšanā

Regresijas vienādojuma konstruēšana sākas ar modeļa specifikācijas jautājuma atrisināšanu, t.i. modeļa veida formulēšana, pamatojoties uz teoriju, kas nosaka saistību starp parādībām. Tas ietver divus jautājumu kopumus: faktoru atlasi un regresijas vienādojuma veida izvēli. No visa rezultējošo zīmi ietekmējošo faktoru klāsta jāizceļ visievērojamākie ietekmējošie faktori.

Nejaušo kļūdu skaits ir atkarīgs no pareizi izvēlētās modeļa specifikācijas: jo tās ir mazākas, jo vairāk iegūtās pazīmes teorētiskās vērtības atbilst faktiskajiem datiem.

Uz specifikācijas kļūdas ietvers ne tikai nepareizu konkrētas matemātiskās funkcijas izvēli, bet arī papildu mainīgā ietekmi un jebkura nozīmīga faktora nenovērtēšanu regresijas vienādojumā.

Neuzskaitīta mainīgā ietekme.

Ļaujiet būt patiesajam modelim.

Tas. ar mazākajiem kvadrātiem: (viltus modelim).

Un patiesībā: - objektīvs, efektīvs, bagāts.

Tie. - neobjektīvs parametra novērtējums (jo modelī nav iekļauts ).

Apskatīsim aplēses novirzes vērtību: .

Patiesajā modelī un tieši ietekmēt plkst ar trieciena spēku un attiecīgi. Viltus modelī tie tieši ietekmē plkst ar trieciena spēku , kā arī aizstāj mainīgo savā iedarbībā uz y, tie. ir aizstāšanas efekts.

Šī aizstāšana ir iespējama, jo , t.i. starp un ir savienojums: , kur saskaņā ar mazākajiem kvadrātiem.

Papildu mainīgā ietekme.

Ļaujiet būt patiesajam modelim.

Apskatīsim viltus modeli. Pamatojoties uz šī modeļa paraugu, mēs aprēķinājām regresijas vienādojumu: .

Jo faktiski tad - tāme , t.i.

Tajā pašā laikā, t.i. - objektīvs novērtējums.

Tomēr (skatiet G-M nosacījumus).

Tas. novērtējums ir neefektīvs. Tas ir mazāk precīzs nekā . Papildu mainīgā lieluma uzskaite sniedz neprecīzu parametra novērtējumu.

Daudzkolinearitāte.

Daudzkārtējā regresijā iekļautajiem faktoriem jāatbilst šādām prasībām:

1. Tiem jābūt kvantitatīvi nosakāmiem. Ja modelī nepieciešams iekļaut kvalitatīvu faktoru, kuram nav kvantitatīvā mērījuma, tad tam jādod kvantitatīvā noteiktība.

2. Daudzkārtējā regresijā iekļautajiem faktoriem ir jāizskaidro neatkarīgā mainīgā lieluma variācijas. Papildus regresijā iekļaujot faktoru, determinācijas koeficientam ir jāpalielinās, bet atlikušajai dispersijai jāsamazinās. Ja tas nenotiek, tad iekļautais faktors modeli neuzlabo un ir praktiski papildus faktors. Modeļa piesātinājums ar nevajadzīgiem faktoriem ne tikai nesamazina atlikušās dispersijas vērtību un nepalielina determinācijas indeksu, bet arī noved pie regresijas parametru statistiskā nenozīmīguma saskaņā ar Stjudenta t-testu.

3. Faktori nedrīkst būt savstarpēji saistīti, un vēl jo vairāk tiem jābūt precīzām funkcionālām attiecībām.

Faktoru ar augstu savstarpējo korelāciju iekļaušana modelī, kad atkarība var radīt nevēlamas sekas - normālo vienādojumu sistēma var būt slikti nosacīta un izraisīt regresijas koeficientu aplēšu nestabilitāti un neuzticamību.

Faktoru atlase parasti tiek veikta divos posmos: pirmajā posmā tiek atlasīti faktori, pamatojoties uz problēmas būtību; uz otro - pamatojoties uz korelācijas rādītāju matricu.

Korelācijas koeficientu matrica:

y x z v
y
x 0,8
z 0,7 0,8
v 0,6 0,5 0,2

Savstarpējās korelācijas koeficienti (t.i., korelācijas starp skaidrojošajiem mainīgajiem) dod iespēju no modeļa izslēgt dublējošus faktorus. Tiek pieņemts, ka divi mainīgie ir nepārprotami kolineāri, t.i. ir lineāri saistīti viens ar otru, ja ( - pāra korelācijas koeficients).

Ja faktori ir nepārprotami kolineāri, tad tie dublē viens otru, un vienu no tiem ieteicams izslēgt no regresijas. Šajā gadījumā priekšroka tiek dota nevis faktoram, kas ir ciešāk saistīts ar rezultātu, bet gan tam faktoram, kuram ar pietiekami ciešu saistību ar rezultātu ir vismazākā saistība ar citiem faktoriem. Šī prasība atklāj daudzkārtējās regresijas specifiku kā faktoru kompleksās ietekmes izpētes metodi to neatkarības apstākļos viens no otra.

Acīmredzot faktori x un z dublēt viens otru. Analīzē ieteicams iekļaut faktoru z, bet ne X, kopš korelācijas z ar rezultātu plkst vājāks par korelācijas koeficientu X Ar plkst(), bet starpfaktoru korelācija ir vājāka. Tāpēc šajā gadījumā daudzkārtējās regresijas vienādojumā ir iekļauti faktori z, v.

Pāru korelācijas koeficientu lielums atklāj tikai skaidru faktoru kolinearitāti.

Vislielākās grūtības izmantot daudzkārtējās regresijas aparātu rodas klātbūtnē daudzkolinearitāte faktoriem, kad vairāk nekā divi faktori ir savstarpēji saistīti ar lineāru sakarību, t.i. pastāv faktoru kumulatīvā ietekme vienam uz otru.

Daudzkolinearitāte- situācija, kurā lineāra sakarība starp neatkarīgiem mainīgajiem rada neefektīvus, neuzticamus lineārās regresijas aprēķinus.

Reāla (daļēja) multikolinearitāte rodas, ja starp skaidrojošajiem mainīgajiem ir pietiekami ciešas statistiskās sakarības.

Faktoru multikolinearitātes klātbūtne var nozīmēt, ka daži faktori vienmēr darbosies kopā. Līdz ar to sākotnējo datu variācijas vairs nav pilnīgi neatkarīgas, un nav iespējams novērtēt katra faktora ietekmi atsevišķi. Jo spēcīgāka ir faktoru multikolinearitāte, jo mazāk ticams ir izskaidrotās variācijas summas sadalījuma novērtējums pa atsevišķiem faktoriem, izmantojot mazāko kvadrātu metodi:

tiek pieņemts, ka kur

Noviržu kvadrātā kopējā summa ;

Faktoriāla (skaidrotā) noviržu kvadrātā summa;

Noviržu kvadrātā atlikusī summa .

Savukārt, ja faktori ir neatkarīgi viens no otra, tad vienlīdzība

Kur

Attiecīgo faktoru ietekmes radīto noviržu summas kvadrātā.

Ja faktori ir savstarpēji saistīti, tad šī vienlīdzība tiek pārkāpta.

Multikolineāru faktoru iekļaušana modelī nav vēlama sekojošā dēļ sekas:

· Grūtības interpretēt daudzkārtējās regresijas parametrus; lineārās regresijas parametri zaudē savu ekonomisko nozīmi;

· Parametru aplēses ir neuzticamas, uzrāda lielas standarta kļūdas un mainās līdz ar novērojumu apjomu (ne tikai lielumā, bet arī zīmēs), kas padara modeli nederīgu analīzei un prognozēšanai.

Priekš daudzkolinearitātes faktoru aplēses var izmantot faktoru pāru korelācijas koeficientu matricas determinantu.

Ja faktori nekorelē viens ar otru, tad pāru korelācijas koeficientu matrica būtu identitātes matrica, jo visi ārpusdiagonālie elementi būtu vienādi ar 0. Tātad regresijas vienādojumam, kas ietver trīs skaidrojošos mainīgos, pāra matrica korelācijas koeficientu determinants būtu vienāds ar 1:

. , tad hipotēze H 0 tiek noraidīta. Tas nozīmē, ka ārpusdiagonālie nulles korelācijas koeficienti norāda uz faktoru kolinearitāti. Daudzkolinearitāte tiek uzskatīta par pierādītu.

Ir vairākas pieejas pārvarot spēcīgu starpfaktoru korelāciju.

1) Vienkāršākais veids, kā novērst multikolinearitāti, ir izslēgt no modeļa vienu vai vairākus faktorus.

2) Cita pieeja ir saistīta ar faktoru transformāciju, kurā korelācija starp tiem samazinās. Piemēram, veidojot modeli, pamatojoties uz sērijām, dinamika pāriet no sākotnējiem datiem uz pirmā līmeņa atšķirībām, lai novērstu tendences ietekmi.

3) Tiek izmantotas metodes, kas samazina starpfaktoru korelāciju līdz nullei, t.i. pāriet no sākotnējiem mainīgajiem uz to lineārajām kombinācijām, kas nav savstarpēji saistītas (galveno komponentu analīze: izmantojot galveno komponentu metodi, tiek veikta pāreja uz ortogonalizētiem skaidrojošiem mainīgajiem. Šie jaunie skaidrojošie mainīgie ir dažas sākotnējo regresoru lineāras kombinācijas, izvēlēta tā, lai korelācijas starp tām būtu nelielas vai tās vispār nebija).

4) Faktoru multikolinearitātes novēršanas problēmas risinājumu var palīdzēt pāreja uz reducētās formas vienādojumiem. Šim nolūkam aplūkojamais faktors tiek aizstāts regresijas vienādojumā, izmantojot tā izteiksmi no cita vienādojuma.

5) Multikolinearitātes samazināšanas veidi ietver izlases lieluma palielināšanu; pieaugums (izlases nereprezentativitāte → ierobežotas vispārējās populācijas daļas analīze → nenovērtēts → aplēses nav uzticamas); samazināt (pievienot svarīgu mainīgo → samazinās); nekorelētu mainīgo lielumu izmantošana: 1) modeļa parametru teorētisko ierobežojumu izmantošana, 2) ārējo novērtējumu izmantošana.

Daudzkārtējās regresijas galvenais mērķis ir izveidot modeli ar lielu faktoru skaitu un vienlaikus atsevišķi noteikt katra no faktoriem ietekmi uz rezultātu, kā arī noteikt faktoru kumulatīvo ietekmi uz modelēto rādītāju.

Daudzkārtējas regresijas modeļa specifikācija ietver faktora izvēli un matemātiskās funkcijas veida izvēli (regresijas vienādojuma veida izvēli). Daudzkārtējā regresijā iekļautajiem faktoriem jābūt kvantitatīvi izmērāmiem un tiem nevajadzētu būt savstarpēji saistītiem, un vēl jo vairāk tiem jābūt precīzā funkcionālā attiecībā (t.i., tiem mazākā mērā jāietekmē viens otru un lielākā mērā uz iegūto atribūtu). .

Daudzkārtējā regresijā iekļautajiem faktoriem vajadzētu izskaidrot neatkarīgā mainīgā lieluma izmaiņas. Piemēram, ja modelis ir uzbūvēts ar - faktoru kopu, tad tam tiek atrasta noteikšanas rādītāja vērtība, kas fiksē efektīvā atribūta izskaidrotās variācijas daļu no - faktoriem.

Citu neņemto faktoru ietekme modelī tiek novērtēta kā atbilstošā atlikušā dispersija.

Ja modelī ir iekļauts papildu faktors, noteikšanas indeksa vērtībai jāpalielinās, bet atlikušās dispersijas vērtībai jāsamazinās. Ja tas nenotiek, tad papildu faktors modeli neuzlabo un ir praktiski lieks, un šāda faktora ieviešana var novest pie regresijas parametru statistiskā nenozīmīguma pēc Stjudenta t-testa.

Daudzkārtējas regresijas faktoru atlase tiek veikta divos posmos:

1. Faktori tiek izvēlēti, pamatojoties uz problēmas būtību.

2. Pamatojoties uz korelācijas rādītāju matricu, tiek noteikta statistika regresijas parametriem.

Korelācijas koeficienti starp skaidrojošajiem mainīgajiem, ko sauc arī par starpkorelācijas koeficientiem, ļauj no modeļa izslēgt dublētos faktorus.

Divi mainīgie un tiek uzskatīti par nepārprotami kolineāri, ja korelācijas koeficients ir .

Ja mainīgie ir nepārprotami kolineāri, tad tiem ir spēcīga lineāra sakarība.



Skaidri kolineāru mainīgo klātbūtnē priekšroka tiek dota nevis faktoram, kas ir ciešāk saistīts ar rezultātu, bet gan faktoram, kuram tajā pašā laikā ir vismazākā saistība ar citiem faktoriem.

Atbilstoši pāru korelācijas koeficientu lielumam tiek konstatēta tikai faktoru izteiktā koleniaritāte.

Lietojot daudzkārtēju regresiju, var rasties faktu multikolenialitāte, t.i. vairāk nekā divi faktori ir lineāri saistīti. Šādos gadījumos, novērtējot atsevišķus faktorus, OLS kļūst mazāk ticams, kā rezultātā rodas grūtības interpretēt daudzkārtējās regresijas parametrus kā faktora darbības raksturlielumus tā tīrā veidā. Lineārās regresijas parametri zaudē savu ekonomisko nozīmi, parametru aplēses ir neuzticamas, rodas lielas standartkļūdas, kuras šajā gadījumā var mainīties, mainoties novērojumu apjomam, t.i. modelis kļūst nepiemērots ekonomiskās situācijas analīzei un prognozēšanai. Lai novērtētu faktora multikolenialitāti, tiek izmantotas šādas metodes:

1. Pāru korelācijas koeficientu matricas noteikšana starp faktoriem, piemēram, ja dots lineāras daudzkārtējas regresijas modelis, tad pāru koeficientu matricas determinants būs šādā formā:

Ja šī determinanta vērtība ir 1

,

tad faktori nav kolineāri viens ar otru.

Ja starp faktoriem pastāv pilnīga lineāra sakarība, tad visi pāru korelācijas koeficienti ir vienādi ar 1, kā rezultātā

.

2. Mainīgo neatkarības hipotēzes pārbaudes metode. Šajā gadījumā, nulles hipotēze , tiek pierādīts, ka vērtība ir aptuvens sadalījums ar brīvības pakāpju skaitu .

Ja , tad nulles hipotēze tiek noraidīta.

Nosakot un salīdzinot faktora daudzkārtējās noteikšanas koeficientus, izmantojot katru no faktoriem kā atkarīgo mainīgo pēc kārtas, ir iespējams noteikt par multikolenialitāti atbildīgos faktorus, t.i. faktors ar lielāko vērtību .

Ir šādi veidi, kā pārvarēt spēcīgu starpfaktoru korelāciju:

1) viena vai vairāku datu izslēgšana no modeļa;

2) faktoru transformācija korelācijas samazināšanai;

3) regresijas vienādojuma kombinācija, kas atspoguļos ne tikai faktorus, bet arī to mijiedarbību;

4) reducētās formas vienādojuma pāreja u.c.

Konstruējot vairākkārtējas regresijas vienādojumu, viens no svarīgākajiem posmiem ir modelī iekļauto faktoru atlase. Dažādas pieejas faktoru atlasei, pamatojoties uz korelācijas rādītājiem ar dažādām metodēm, no kurām vispiemērotākās ir:

1) Izslēgšanas metode - dati tiek filtrēti;

2) Iekļaušanas metode - tiek ieviests papildu faktors;

3) Pakāpeniskās regresijas analīze - noņemiet iepriekš ievadīto faktoru.

Izvēloties faktorus, tiek izmantots šāds noteikums: iekļauto faktoru skaits parasti ir 6-7 reizes mazāks nekā populācijas apjoms, uz kura ir veidots modelis.

Parametrs nav ekonomiski interpretējams. Jaudas modelī daudzkārtējās regresijas nelineārais vienādojums, koeficienti , ,… ir elastības koeficienti, kas parāda, cik vidēji mainīsies rezultāts, ja attiecīgais faktors mainīsies par 1%, pārējo faktoru ietekmei paliekot nemainīgai. .

Pāru regresija var dot labu rezultātu modelēšanā, ja var neņemt vērā citu pētāmo objektu ietekmējošo faktoru ietekmi. Ja šo ietekmi nevar atstāt novārtā, tad šajā gadījumā jācenšas atklāt citu faktoru ietekmi, tos ieviešot modelī, t.i. izveidot vairākkārtēju regresijas vienādojumu

kur - atkarīgais mainīgais (rezultējošā zīme), - neatkarīgie vai skaidrojošie mainīgie (zīmes-faktori).

Daudzkārtēja regresija tiek plaši izmantota pieprasījuma, krājumu atdeves problēmu risināšanā, ražošanas izmaksu funkciju pētīšanā, makroekonomiskajos aprēķinos un vairākos citos ekonometrijas jautājumos. Pašlaik daudzkārtējā regresija ir viena no visizplatītākajām ekonometrijas metodēm. Daudzkārtējās regresijas galvenais mērķis ir izveidot modeli ar lielu faktoru skaitu, vienlaikus nosakot katra no tiem ietekmi atsevišķi, kā arī to kumulatīvo ietekmi uz modelēto rādītāju.

Modeļa specifikācija. Faktoru izvēle, konstruējot vairākkārtējas regresijas vienādojumu

Daudzkārtējas regresijas vienādojuma konstruēšana sākas ar lēmumu par modeļa specifikāciju. Tas ietver divus jautājumu kopumus: faktoru atlasi un regresijas vienādojuma veida izvēli.

Viena vai otra faktoru kopuma iekļaušana daudzkārtējās regresijas vienādojumā galvenokārt ir saistīta ar pētnieka priekšstatu par modelētā rādītāja un citu ekonomisko parādību attiecības raksturu. Daudzkārtējā regresijā iekļautajiem faktoriem jāatbilst šādām prasībām.

  • 1. Tiem jābūt kvantitatīvi nosakāmiem. Ja modelī nepieciešams iekļaut kvalitatīvu faktoru, kuram nav kvantitatīvā mērījuma, tad tam jādod kvantitatīvā noteiktība.
  • 2. Faktori nedrīkst būt savstarpēji saistīti, un vēl jo vairāk tiem jābūt precīzām funkcionālām attiecībām.

Faktoru ar augstu savstarpējo korelāciju iekļaušana modelī var radīt nevēlamas sekas - normālo vienādojumu sistēma var izrādīties slikti nosacīta un novest pie regresijas koeficienta aplēšu nestabilitātes un neuzticamības.

Ja starp faktoriem ir augsta korelācija, tad nav iespējams noteikt to izolētu ietekmi uz rezultatīvo rādītāju, un regresijas vienādojuma parametri izrādās neinterpretējami.

Daudzkārtējā regresijā iekļautajiem faktoriem vajadzētu izskaidrot neatkarīgā mainīgā lieluma izmaiņas. Ja modelis ir veidots ar faktoru kopu, tad tam tiek aprēķināts determinācijas rādītājs, kas fiksē iegūtā atribūta izskaidrotās variācijas daļu no regresijā aplūkotajiem faktoriem. Citu modelī neņemto faktoru ietekme tiek novērtēta tāpat kā ar atbilstošo atlikušo dispersiju.

Papildus regresijā iekļaujot faktoru, determinācijas koeficientam vajadzētu palielināties un atlikušajai dispersijai samazināties:

Ja tas nenotiek un šie rādītāji praktiski neatšķiras viens no otra, tad analīzē iekļautais faktors modeli neuzlabo un ir praktiski papildus faktors.

Modeļa piesātinājums ar nevajadzīgiem faktoriem ne tikai nesamazina atlikušās dispersijas vērtību un nepalielina determinācijas indeksu, bet arī noved pie regresijas parametru statistiskā nenozīmīguma saskaņā ar Stjudenta t-testu.

Tādējādi, lai gan teorētiski regresijas modelis ļauj ņemt vērā jebkuru faktoru skaitu, praksē tas nav nepieciešams. Faktoru izvēle balstās uz kvalitatīvu teorētisko un ekonomisko analīzi. Tomēr teorētiskā analīze bieži vien neļauj viennozīmīgi atbildēt uz jautājumu par kvantitatīvo saistību starp aplūkojamajām pazīmēm un faktora iekļaušanas modelī lietderību. Tāpēc faktoru atlase parasti tiek veikta divos posmos: pirmajā posmā tiek atlasīti faktori, pamatojoties uz problēmas būtību; otrajā - pamatojoties uz korelācijas rādītāju matricu, nosaka regresijas parametru statistiku.

Savstarpējās korelācijas koeficienti (t.i., korelācijas starp skaidrojošajiem mainīgajiem) dod iespēju no modeļa izslēgt dublējošus faktorus. Tiek pieņemts, ka divi mainīgie ir nepārprotami kolineāri, t.i. atrodas lineārās attiecībās savā starpā. Ja faktori ir nepārprotami kolineāri, tad tie dublē viens otru un vienu no tiem ieteicams izslēgt no regresijas. Šajā gadījumā priekšroka tiek dota nevis faktoram, kas ir ciešāk saistīts ar rezultātu, bet gan tam faktoram, kuram ar pietiekami ciešu saistību ar rezultātu ir vismazākā saistība ar citiem faktoriem. Šī prasība atklāj daudzkārtējās regresijas specifiku kā faktoru kompleksās ietekmes izpētes metodi to neatkarības apstākļos viens no otra.

Pāru korelācijas koeficientu lielums atklāj tikai skaidru faktoru kolinearitāti. Vislielākās grūtības izmantot daudzkārtējās regresijas aparātu rodas faktoru multikollinearitātes klātbūtnē, kad vairāk nekā divi faktori ir savstarpēji saistīti ar lineāru sakarību, t.i. pastāv faktoru kumulatīvā ietekme vienam uz otru. Faktoru multikolinearitātes klātbūtne var nozīmēt, ka daži faktori vienmēr darbosies unisonā. Līdz ar to sākotnējo datu variācijas vairs nav pilnīgi neatkarīgas, un nav iespējams novērtēt katra faktora ietekmi atsevišķi.

Multikolineāru faktoru iekļaušana modelī nav vēlama šādu seku dēļ:

  • 1. Daudzkārtējās regresijas parametrus ir grūti interpretēt kā faktoru darbības raksturlielumus "tīrā" formā, jo faktori ir korelēti; lineārās regresijas parametri zaudē savu ekonomisko nozīmi.
  • 2. Parametru aplēses ir neuzticamas, uzrāda lielas standarta kļūdas un mainās, mainoties novērojumu apjomam (ne tikai apjomam, bet arī zīmēm), kas padara modeli nederīgu analīzei un prognozēšanai.

Lai novērtētu faktoru multikolinearitāti, var izmantot faktoru pāru korelācijas koeficientu matricas determinantu.

Ja faktori nebūtu savstarpēji korelēti, tad pāru korelācijas koeficientu matrica starp faktoriem būtu identitātes matrica, jo visi ārpusdiagonālie elementi būtu vienādi ar nulli. Tātad vienādojumam, kas ietver trīs skaidrojošus mainīgos

korelācijas koeficientu matricai starp faktoriem determinants būtu vienāds ar vienu:

Ja, gluži pretēji, starp faktoriem pastāv pilnīga lineāra atkarība un visi korelācijas koeficienti ir vienādi ar vienu, tad šādas matricas determinants ir vienāds ar nulli:

Jo tuvāk nullei ir starpfaktoru korelācijas matricas determinants, jo spēcīgāka ir faktoru multikolinearitāte un vairākkārtējas regresijas rezultāti ir neuzticamāki. Un otrādi, jo tuvāk starpfaktoru korelācijas matricas determinants ir vienam, jo ​​zemāka ir faktoru multikolinearitāte.

Ir vairākas pieejas, lai pārvarētu spēcīgas starpfaktoru korelācijas. Vienkāršākais veids, kā novērst daudzkolinearitāti, ir izslēgt vienu vai vairākus faktorus no modeļa. Cita pieeja ir saistīta ar faktoru transformāciju, kas samazina korelāciju starp tiem.

Viens no veidiem, kā ņemt vērā faktoru iekšējo korelāciju, ir pāreja uz kombinētajiem regresijas vienādojumiem, t.i. vienādojumiem, kas atspoguļo ne tikai faktoru ietekmi, bet arī to mijiedarbību. Tātad, ja, tad ir iespējams izveidot šādu kombinēto vienādojumu:

Aplūkojamais vienādojums ietver pirmās kārtas mijiedarbību (divu faktoru mijiedarbību). Modelī ir iespējams iekļaut augstākas kārtas mijiedarbības, ja to statistiskais nozīmīgums ir pierādīts pēc Fišera α kritērija, taču parasti trešās un augstākās kārtas mijiedarbības izrādās statistiski nenozīmīgas.

Regresijā iekļauto faktoru atlase ir viens no svarīgākajiem posmiem regresijas metožu praktiskajā izmantošanā. Pieejas faktoru atlasei, pamatojoties uz korelācijas rādītājiem, var būt dažādas. Tie attiecīgi noved pie vairāku regresijas vienādojuma konstruēšanas dažādām metodēm. Atkarībā no tā, kura regresijas vienādojuma konstruēšanas metode tiek pieņemta, mainās algoritms tā risināšanai datorā.

Visplašāk izmantotās ir šādas vairākkārtējas regresijas vienādojuma konstruēšanas metodes:

  • 1. Eliminācijas metode - faktoru izslēgšana no tā komplekta.
  • 2. Iekļaušanas metode - faktora papildu ieviešana.
  • 3. Pakāpeniskās regresijas analīze - iepriekš ievadīta faktora izslēgšana.

Izvēloties faktorus, ieteicams izmantot arī šādu noteikumu: iekļauto faktoru skaits parasti ir 6-7 reizes mazāks nekā populācijas apjoms, uz kuru balstās regresija. Ja šīs attiecības tiek pārkāptas, tad atlikušās dispersijas brīvības pakāpju skaits ir ļoti mazs. Tas noved pie tā, ka regresijas vienādojuma parametri izrādās statistiski nenozīmīgi, un - kritērijs ir mazāks par tabulas vērtību.

Spurs uz ekonometriju.

Nr.1. MODEĻA SPECIFIKĀCIJA

vienkārša regresija ir regresija starp diviem mainīgajiem -y un x, t.i. apskatīt modeli, kur plkst- efektīva zīme; X- zīmes faktors.

Daudzkārtēja regresija ir efektīvas pazīmes regresija ar diviem vai vairākiem faktoriem, t.i., formas modelis

Modeļa specifikācija - modeļa veida formulēšana, pamatojoties uz attiecīgo mainīgo attiecību teoriju. Regresijas vienādojumā pazīmju būtībā korelācijas attiecības tiek attēlotas kā funkcionāla sakarība, kas izteikta ar atbilstošo matemātisku funkciju. kur yj - efektīvās pazīmes faktiskā vērtība;

y xj ir efektīvās pazīmes teorētiskā vērtība.

- gadījuma lielums, kas raksturo iegūtās pazīmes reālās vērtības novirzes no teorētiskās.

Izlases vērtībaε sauc arī sašutumu. Tas ietver modelī neņemto faktoru ietekmi, nejaušās kļūdas un mērījumu pazīmes.

Nejaušo kļūdu skaits ir atkarīgs no pareizi izvēlētās modeļa specifikācijas: jo tās ir mazākas, jo vairāk iegūtās pazīmes teorētiskās vērtības atbilst faktiskajiem datiem. y.

Specifikācijas kļūdas ietver nepareizu vienas vai citas matemātiskās funkcijas izvēli , un jebkura nozīmīga faktora regresijas vienādojumā par zemu novērtēšanu, t.i., pāru regresijas izmantošana daudzkārtu vietā.

Izlases kļūdas - pētnieks visbiežāk nodarbojas ar izlases datiem, nosakot regulāras attiecības starp pazīmēm.

Mērījumu kļūdas praktiski noliedz visus centienus noteikt saistību starp pazīmēm. Ekonometriskā pētījuma uzmanības centrā ir modeļu specifikācijas kļūdas.

Pāru regresijā matemātiskās funkcijas veida izvēli var veikt ar trim metodēm: grafisko, analītisko un eksperimentālo.

Grafiskā metode ir balstīta uz korelācijas lauku. Analītiskā metode ir balstīta uz pētāmo īpašību attiecību materiālā rakstura izpēti.

Eksperimentālā metode tiek veikta, salīdzinot ar dažādiem modeļiem aprēķināto atlikuma dispersijas Dres vērtību. Ja iegūtā atribūta faktiskās vērtības sakrīt ar teorētiskajām plkst =, tad Docm=0. Ja ir faktisko datu novirzes no teorētiskajiem ( plkst - ) tad .

Jo mazāka ir atlikušā dispersija, jo labāk regresijas vienādojums atbilst sākotnējiem datiem. Novērojumu skaitam jābūt 6 - 7 reizes lielākam par mainīgā x aprēķināto parametru skaitu.

#2 LINEĀRĀ REGRESIJA UN KORELĀCIJA: PARAMETRU NOZĪME UN NOVĒRTĒJUMS.

Lineārā regresija tiek reducēta līdz formas vai vienādojuma atrašanai.

Formas vienādojums ļauj dotajām faktora x vērtībām būt efektīvās pazīmes teorētiskajām vērtībām, aizstājot tajā faktora x faktiskās vērtības.

Lineārās regresijas konstrukcija tiek reducēta līdz tās parametru a un b novērtēšanai.

Lineārās regresijas parametru aplēses var atrast ar dažādām metodēm.

1.

2.

Parametrs b sauc par regresijas koeficientu. Tās vērtība parāda vidējās rezultāta izmaiņas, mainoties koeficientam par vienu vienību.

Formāli a- nozīme plkst pie x = 0. Ja zīme-faktors
nav un nevar būt nulles vērtība, tad iepriekš
brīva terminu interpretācija, a nav jēgas. parametrs, a var būt
tiem nav ekonomiska satura. Mēģina ekonomiski
interpretēt parametru, a var novest pie absurda, it īpaši, ja a < 0.

Var interpretēt tikai parametra zīmi a. Ja a> 0, tad rezultāta relatīvās izmaiņas ir lēnākas nekā faktora izmaiņas.

Regresijas vienādojums vienmēr tiek papildināts ar savienojuma hermētiskuma indikatoru. Lietojot lineāro regresiju, šāds rādītājs ir lineārās korelācijas koeficients r xy . Lineārās korelācijas koeficienta formulai ir dažādas modifikācijas.

Lineārās korelācijas koeficients ir robežās: -1≤ . rxy≤ 1. Turklāt, jo tuvāk r līdz 0, jo vājāka ir korelācija, un otrādi, jo tuvāk r ir 1 vai -1, jo spēcīgāka ir korelācija, t.i. x un y atkarība ir tuvu lineārai. Ja r precīzi =1 vai -1 visi punkti atrodas uz vienas taisnes. Ja koeficients regresija b>0, tad 0 ≤. rxy≤ 1 un otrādi b<0 -1≤.rxy≤0. Koef. korelācija atspoguļo m / y vērtību lineārās atkarības pakāpi izteiktas cita veida atkarības klātbūtnē.

Lai novērtētu lineārās funkcijas izvēles kvalitāti, aprēķina lineārās korelācijas koeficienta kvadrātu, t.s. noteikšanas koeficients. Determinācijas koeficients raksturo iegūtās pazīmes y dispersijas proporciju, kas izskaidrojama ar regresiju. Atbilstošā vērtība raksturo dispersijas proporciju y, ko izraisa citu modelī neņemtu faktoru ietekme.

Nr.3. MNK.

LSM ļauj iegūt šādus parametru novērtējumus a un b , kas ir iegūtā atribūta faktisko vērtību noviržu kvadrātā summa (y) no aprēķinātā (teorētiskā) minimuma:

Citiem vārdiem sakot, no visas līniju kopas regresijas taisne grafikā ir izvēlēta tā, lai vertikālo attālumu kvadrātu summa starp punktiem un šo līniju būtu minimāla. Normālo vienādojumu sistēma ir atrisināta

Nr.4. PARAMETRU NOZĪMĪBAS NOVĒRTĒJUMS LINEĀRĀ REGRESIJA UN KORELĀCIJA .

Regresijas vienādojuma nozīmīguma novērtējums kopumā dots, izmantojot Fišera F-testu. Šajā gadījumā tiek izvirzīta nulles hipotēze, ka regresijas koeficients ir vienāds ar nulli, t.i. b = 0, un līdz ar to koeficients X neietekmē rezultātu y.

Pirms tiešā F kritērija aprēķina tiek veikta dispersijas analīze. Tās centrālais elements ir mainīgā lieluma noviržu kvadrātā kopējās summas paplašināšana plkst no vidējās vērtības plkst divās daļās - "izskaidrotais" un "neizskaidrotais":

Kopējā noviržu kvadrātā summa

Ar regresiju izskaidrotās novirzes kvadrātu summa ir novirzes kvadrātu atlikušā summa.

, i., ar pazīmes neatkarīgas variācijas brīvības skaitu. Brīvības pakāpju skaits ir saistīts ar populācijas n vienību skaitu un no tā noteikto konstantu skaitu. Attiecībā uz pētāmo problēmu brīvības pakāpju skaitam vajadzētu parādīt, cik neatkarīgas novirzes no P

Izkliede uz vienu brīvības pakāpi D .

F koeficienti (F kritērijs):

Ja nulles hipotēze ir patiesa, tad faktoriālās un atlikušās dispersijas neatšķiras viena no otras. Attiecībā uz H 0 ir nepieciešams atspēkojums, lai faktora dispersija vairākas reizes pārsniegtu atlikumu. Angļu statistiķis Snedekors izstrādāja F koeficientu kritisko vērtību tabulas dažādiem nulles hipotēzes nozīmīguma līmeņiem un dažādam brīvības pakāpju skaitam. F kritērija tabulas vērtība ir dispersiju attiecības maksimālā vērtība, kas var rasties, ja tās nejauši atšķiras noteiktā nulles hipotēzes esamības varbūtības līmenī. Aprēķinātā F koeficienta vērtība tiek atzīta par ticamu, ja o ir lielāka par tabulas vērtību. Šajā gadījumā nulles hipotēze par zīmju attiecības neesamību tiek noraidīta un tiek izdarīts secinājums par šo attiecību nozīmīgumu: F fact > F tabula H 0 tiek noraidīta.

Ja vērtība ir mazāka par tabulas F faktu ‹, F tabulā, tad nulles hipotēzes varbūtība ir augstāka par doto līmeni un to nevar noraidīt bez nopietna riska izdarīt nepareizu secinājumu par attiecību esamību. Šajā gadījumā regresijas vienādojums tiek uzskatīts par statistiski nenozīmīgu. N o nenovirzās.

Regresijas koeficienta standartkļūda

Lai novērtētu regresijas koeficienta nozīmīgumu, tā vērtību salīdzina ar tā standartkļūdu, t.i., nosaka Stjudenta t-testa faktisko vērtību: kura

tad to salīdzina ar tabulas vērtību noteiktā nozīmīguma līmenī un brīvības pakāpju skaitā (n-2).

Parametra standarta kļūda a :

Lineārās korelācijas koeficienta nozīmīgumu pārbauda, ​​pamatojoties uz korelācijas koeficienta kļūdas lielumu t r :

Objekta x kopējā dispersija:

Koef. regresija Tās vērtība parāda sk. rezultāta izmaiņas, mainot koeficientu par 1 vienību.

Aptuvenā kļūda:

Nr.5. PROGNOZĒŠANAS INTERVĀLI PĒC LINEĀRO VIENĀDĀJUMA

REGRESIJAS

Novērtējuma stat. regresijas parametru nozīmīgumu veic, izmantojot t - Stjudenta statistiku un aprēķinot ticamības intervālu katram no rādītājiem. Tiek izvirzīta hipotēze H 0 par statistiski nozīmīgu atšķirību starp rādītājiem un 0 a = b = r = 0. Tiek aprēķinātas parametru a, b, r un faktiskās standartkļūdas. vērtību t - Studenta kritērijs.

Statistika ir noteikta. parametru nozīme.

t a ›T tabl - a stat. nozīmīgs

t b ›T tab - b stat. nozīmīgs

Tiek atrastas ticamības intervālu robežas.

Ticamības intervālu augšējo un apakšējo robežu analīze ļauj secināt, ka parametriem a un b, atrodoties norādītajās robežās, nav nulles vērtības, t.i. nevis javl.. stat. nenozīmīgs un būtiski atšķiras no 0.

Nr. 6. NELINEĀRĀ REGRESIJA. MODEĻU VEIDI

Ja starp ekonomiskajām parādībām pastāv nelineāras attiecības, tad tās izsaka, izmantojot atbilstošās nelineārās funkcijas: piemēram, vienādmalu hiperbolu. , otrās pakāpes parabolas un utt.

Ir divas nelineārās regresijas klases:

regresijas, kas ir nelineāras attiecībā uz analīzē iekļautajiem skaidrojošajiem mainīgajiem, bet lineāras attiecībā uz novērtētajiem parametriem;

Regresijas, kas novērtētajos parametros ir nelineāras.
Sekojošās funkcijas var kalpot kā nelineāras regresijas piemērs tajā iekļautajiem skaidrojošajiem mainīgajiem:

Dažādu pakāpju polinomi

Vienādmalu hiperbola

Nelineārās regresijas pēc aprēķinātajiem parametriem ietver šādas funkcijas:

Jauda

Demonstrācija

Eksponenciāls es

Nr. 7. REGRESIJAS KOEFICIENTA NOZĪME.

Parametrs b sauc par regresijas koeficientu. Tās vērtība parāda vidējās rezultāta izmaiņas, mainoties koeficientam par vienu vienību. Regresijas koeficienta novērtējumu var iegūt, neizmantojot mazāko kvadrātu metodi. Alternatīvu parametru novērtēšana b var atrast, pamatojoties uz šī koeficienta saturu: rezultāta izmaiņas tiek salīdzinātas ar faktora izmaiņām

Iegūtā atribūta atsevišķo vērtību noviržu kvadrātā kopējā summa plkst no vidējās vērtības izraisa daudzu faktoru ietekme. Mēs nosacīti sadalām visu iemeslu kopumu divās grupās: pētīts faktors x un citi faktori.

Ja faktors rezultātu neietekmē, tad regresijas taisne grafikā ir paralēla asij ak un . Tad visa iegūtā atribūta dispersija ir saistīta ar citu faktoru ietekmi, un kopējā noviržu kvadrātā sakritīs ar atlikumu. Ja citi faktori rezultātu neietekmē, tad tu esi piesiets Ar X funkcionāli, un atlikušā kvadrātu summa ir nulle. Šajā gadījumā ar regresiju izskaidroto noviržu kvadrātā summa ir tāda pati kā kvadrātu kopējā summa.

Tā kā ne visi korelācijas lauka punkti atrodas uz regresijas taisnes, to izkliede vienmēr notiek kā faktora x ietekmes dēļ, t.i., regresija. plkst ieslēgts X, un ko izraisa citu cēloņu darbība (neizskaidrojama variācija). Regresijas līnijas piemērotība prognozēšanai ir atkarīga no tā, cik liela daļa no pazīmes kopējās variācijas plkst ietilpst izskaidrotajā variantā

Acīmredzot, ja regresijas radīto noviržu kvadrātā summa ir lielāka par atlikušo kvadrātu summu, tad regresijas vienādojums ir statistiski nozīmīgs un faktors X ir būtiska ietekme uz rezultātu

Jebkura noviržu kvadrātā summa ir saistīta ar brīvības pakāpju skaitu , i., ar pazīmes neatkarīgas variācijas brīvības skaitu. Brīvības pakāpju skaits ir saistīts ar populācijas n vienību skaitu un no tā noteikto konstantu skaitu. Saistībā ar pētāmo problēmu brīvības pakāpju skaitam jāparāda, cik neatkarīgas novirzes no P iespējams, lai izveidotu noteiktu kvadrātu summu.

Nr.8. LSM PIELIETOJUMS NELINEĀRIEM MODEĻIEM ATTIECĪBĀ UZ IEKĻAUTAJIEM MAINĪGĀM UN NOVĒRTĒTAJIEM PARAMETRIEM.

Nelineārā regresija uz iekļautajiem mainīgajiem nesatur nekādas grūtības tās parametru novērtēšanā. To, tāpat kā lineārajā regresijā, nosaka ar mazāko kvadrātu metodi (LSM), jo šīs funkcijas ir lineāras parametros. Tātad otrās pakāpes parabolā y=a 0 +a 1 x+a 2 x 2 +ε, aizstājot mainīgos x=x 1 ,x 2 =x 2 , mēs iegūstam divu faktoru lineārās regresijas vienādojumu: y \u003d a 0 + a 1 x 1 + a 2 x 2 + ε

Otrās pakāpes parabola ir piemērota lietošanai, ja uz noteiktu faktoru vērtību intervālu mainās aplūkojamo pazīmju attiecības raksturs: tiešā sakarība mainās uz apgrieztu vai apgriezta uz tiešo. Šajā gadījumā tiek noteikta faktora vērtība, pie kuras tiek sasniegta efektīvās pazīmes maksimālā (vai minimālā) vērtība: pielīdzināt nullei otrās pakāpes parabolas pirmo atvasinājumu: , t.i. b+2cx=0 un x=-b/2c

Mazāko kvadrātu izmantošana, lai novērtētu otrās pakāpes parabolas parametrus, rada šādu normālo vienādojumu sistēmu:

To var atrisināt ar determinantu metodi:

Modeļos, kas novērtēto parametru ziņā ir nelineāri, bet reducēti līdz lineārai formai, pārveidotajiem vienādojumiem tiek piemērots LSM. Ja lineārajā modelī un modeļos, kuri ir nelineāri mainīgajos, novērtējot parametrus, tie vadās no min kritērija, tad modeļos, kas ir nelineāri aplēsto parametru ziņā, LSM prasība tiek piemērota nevis sākuma datiem. iegūtā atribūta, bet gan to pārveidotajām vērtībām, t.i., ln y , 1/y . Tātad pakāpju funkcijā mazāko kvadrātu metode tiek piemērota pārveidotajam vienādojumam lny = lnα + β ln x ln ε. Tas nozīmē, ka parametru novērtēšana balstās uz logaritmu noviržu kvadrātu summas samazināšanu. Attiecīgi, ja lineārajos modeļos, tad modeļos, kas ir nelineāri novērtēto parametru ziņā, . Rezultātā parametru aprēķini izrādās nedaudz neobjektīvi.

Nr.9. Elastības KOEFICIENTI DAŽĀDIEM REGRESIJAS MODEĻU VEIDU.

1. Lineārs y = a + bx + , y′ = b, E = .

2. 2. kārtas parabola y = a + bx + c +, y′ = b + 2cx, E = .

3. Hiperbola y = a+b/x +, y′=-b/, E = .

4. Eksponenciālais y=a, y′ = ln , E = x ln b.

5. Jauda y = a, y′ = , E = b.

6. Puslogaritmisks y = a + b ln x +ε , y′ = b/x , E = .

7. Loģistikas , y′ = , E = .

8. Apgriezts y = , y′ = , E = .

#10 KORELĀCIJAS RĀDĪTĀJI

Šī rādītāja vērtība ir robežās: 0 ≤ R 1, jo tuvāk 1, jo ciešākas aplūkojamo pazīmju attiecības, jo ticamāks ir atrastais regresijas vienādojums.

2. Determinācijas indeksu izmanto, lai pārbaudītu nelineārās regresijas vienādojuma nozīmīgumu kopumā saskaņā ar Fišera F kritēriju:

Nr.11. MULTIPLA REGRESIJA. MODEĻA SPECIFIKĀCIJA. FAKTORI IZVĒLE MODEĻA KONSTRUKCIJĀ.

Regresija var dot labu rezultātu modelēšanā, ja var neņemt vērā citu pētāmo objektu ietekmējošo faktoru ietekmi. Atsevišķu ekonomisko mainīgo uzvedību nevar kontrolēt, t.i., nav iespējams nodrošināt visu pārējo nosacījumu vienlīdzību viena pētāmā faktora ietekmes novērtēšanai. Šajā gadījumā jāmēģina identificēt citu faktoru ietekmi, tos ieviešot modelī, t.i., izveidot vairākkārtējas regresijas vienādojumu: y = a + b 1 x 1 + b 2 +…+ b p x p + e ; Šāda veida vienādojumu var izmantot patēriņa izpētē. Tad koeficienti bj- privātie patēriņa atvasinājumi plkst atbilstoši attiecīgajiem faktoriem x i : , pieņemot, ka visi pārējie x i ir nemainīgi. 30. gados. 20. gadsimts Keinss formulēja savu patērētāju funkcijas hipotēzi. Kopš tā laika pētnieki ir atkārtoti pievērsušies tā uzlabošanas problēmai. Mūsdienu patērētāja funkcija visbiežāk tiek uzskatīta par skata modeli: C = j ( y , P , M , Z ), kur NO- patēriņš; plkst- ienākumi; R- cenas, dzīves dārdzības indekss; M - skaidra nauda; Z- likvīdie aktīvi. Tajā pašā laikā .. Daudzkārtējās regresijas galvenais mērķis ir izveidot modeli ar lielu faktoru skaitu, vienlaikus nosakot katra no tiem ietekmi atsevišķi, kā arī to kumulatīvo ietekmi uz modelēto rādītāju. Modeļa specifikācija ietver divas jautājumu jomas: faktoru atlasi un regresijas vienādojuma veida izvēli. Prasības faktoriem.1 Tiem jābūt kvantitatīvi nosakāmiem. Ja modelī nepieciešams iekļaut kvalitatīvu faktoru, kuram nav kvantitatīvā mērījuma, tad tam jādod kvantitatīvā noteiktība (piemēram, ražas modelī augsnes kvalitāte ir dota punktu veidā) 2. Faktori. nedrīkst būt savstarpēji saistīti un turklāt jābūt precīzās funkcionālās attiecībās. Faktoru iekļaušana modelī ar augstu savstarpējo korelāciju, kad R yx 1 R x 1 x 2. Par atkarību y = a + b 1 x 1 + b 2 +…+ b p x p + e var radīt nevēlamas sekas, radīt regresijas koeficientu aplēšu nestabilitāti un neuzticamību. Ja starp faktoriem ir augsta korelācija, tad nav iespējams noteikt to izolētu ietekmi uz rezultatīvo rādītāju, un regresijas vienādojuma parametri netiek interpretēti.

Daudzkārtējā regresijā iekļautajiem faktoriem vajadzētu izskaidrot neatkarīgā mainīgā lieluma izmaiņas. Ja modelis ir būvēts ar komplektu R- faktoriem, tad tam tiek aprēķināts noteikšanas rādītājs R 2 , kas nosaka iegūtā atribūta izskaidrotās variācijas proporciju regresijā ņemto faktoru dēļ R- faktoriem. Citu modelī neņemto faktoru ietekme tiek novērtēta kā 1 - R 2 ar atbilstošo atlikušo dispersiju S 2 . Ar papildu iekļaušanu regresijā ( p+ 1) koeficients, determinācijas koeficientam jāpalielinās, un atlikušajai dispersijai jāsamazinās:. Modeļa piesātinājums ar nevajadzīgiem faktoriem ne tikai nesamazina atlikušo dispersiju un nepalielina determinācijas indeksu, bet arī noved pie regresijas parametru statistiskā nenozīmīguma saskaņā ar Stjudenta t-testu.

Tādējādi, lai gan teorētiski regresijas modelis ļauj ņemt vērā jebkuru faktoru skaitu, praksē tas nav nepieciešams. Faktoru atlase balstās uz kvalitatīvu teorētisko un ekonomisko analīzi, kas parasti tiek veikta divos posmos: pirmajā posmā tiek atlasīti faktori, pamatojoties uz problēmas būtību; otrajā posmā, pamatojoties uz korelācijas rādītājiem, tiek noteikta regresijas parametru t-statistika. Savstarpējās korelācijas koeficienti (t.i., korelācijas starp skaidrojošajiem mainīgajiem) ļauj no modeļa izslēgt dublējošus faktorus. Tiek pieņemts, ka divi mainīgie ir skaidri skaitīt lineārs, i., ir lineāri saistīti viens ar otru, ja . Ja faktori ir nepārprotami kolineāri, tad tie dublē viens otru un vienu no tiem ieteicams izslēgt no regresijas. Šajā gadījumā priekšroka tiek dota nevis faktoram, kas ir ciešāk saistīts ar rezultātu, bet gan tam faktoram, kuram ar pietiekami ciešu saistību ar rezultātu ir vismazākā saistība ar citiem faktoriem. Šī prasība atklāj daudzkārtējās regresijas specifiku kā faktoru kompleksās ietekmes izpētes metodi to neatkarības apstākļos viens no otra. Vislielākās grūtības izmantot daudzkārtējās regresijas aparātu rodas klātbūtnē daudzkolinearitāte faktoriem, ja vairāk nekā divi faktori ir savstarpēji saistīti ar lineāru sakarību. Faktoru multikolinearitātes klātbūtne var nozīmēt, ka daži faktori vienmēr darbosies unisonā. Līdz ar to sākotnējo datu variācijas vairs nav pilnīgi neatkarīgas, un nav iespējams novērtēt katra faktora ietekmi atsevišķi. Jo spēcīgāka ir faktoru multikolinearitāte, jo mazāk ticams ir izskaidrotās variācijas summas sadalījuma novērtējums pa atsevišķiem faktoriem, izmantojot mazāko kvadrātu metodi (LSM). Multikolineāru faktoru iekļaušana modelī nav vēlama šādu seku dēļ: 1. daudzkārtējās regresijas parametrus ir grūti interpretēt kā faktoru darbības raksturlielumus "tīrā" formā, jo faktori ir korelēti; lineārās regresijas parametri zaudē savu ekonomisko nozīmi;2 parametru aplēses ir neuzticamas, uzrāda lielas standarta kļūdas un mainās līdz ar novērojumu apjomu. Lai novērtētu faktoru multikolinearitāti, var izmantot sapāroto koreļu koeficientu matricas determinants faktoriem.

Ja faktori viens ar otru nekorelētu, tad pāru korelācijas koeficientu matrica starp faktoriem būtu identitātes matrica. Vienādojumam, kas ietver trīs skaidrojošus mainīgos: y = a + b 1 x 1 + b 2 + b 3 x 3 + e . Koeficientu matricai m / y faktoru korelācijā būtu determinants, kas vienāds ar 1. Det = 1, jo r x 1 x 1 = r x 2 x 2 = 1 un r x 1 x 2 = r x 1 x 3 = r x 2 x 3 =0. Ja m / y faktori pastāv pilnīga lineāra atkarība un visi korelācijas koeficienti = 1, tad šādas matricas determinants = 0. Jo tuvāk nullei ir starpfaktoru korelācijas matricas determinants, jo spēcīgāka ir faktoru multikolinearitāte un vairākkārtējas regresijas rezultāti ir neuzticamāki. Un otrādi, jo tuvāk starpfaktoru korelācijas matricas determinants ir vienam, jo ​​zemāka ir faktoru multikolinearitāte.

Nr.12. KO NOZĪMĒ FAKTORU MIJIEDARBĪBA UN KĀ TO VAR GRAFISKI APSKATĪT?

Viens no veidiem, kā ņemt vērā faktoru iekšējo korelāciju, ir pāreja uz kombinētajiem regresijas vienādojumiem, tas ir, uz vienādojumiem, kas atspoguļo ne tikai faktoru ietekmi, bet arī to mijiedarbību. Tātad, ja y=f(x1,x2,x3) , tad ir iespējams izveidot šādu kombinēto vienādojumu: y = a + b 1 x 1 + b 2 x 2 + b 3 x 3 + b 12 x 1 x 2 + b 13 x 1 x 3 + b 23 x 2 x 3 + e . Aplūkojamais vienādojums ietver pirmās kārtas mijiedarbību (divu faktoru mijiedarbību). Modelī ir iespējams iekļaut augstākas kārtas mijiedarbības, ja ir pierādīta to statistiskā nozīmība pēc Fišera F-testa. Ja kombinētā vienādojuma analīze parādīja tikai faktoru x 1 un x 3 mijiedarbības nozīmi, tad vienādojums izskatīsies šādi: y = a + b 1 x 1 + b 2 x 2 + b 3 x 3 + b 13 x 1 x 3 + e . Faktoru x 1 un x 3 mijiedarbība nozīmē, ka dažādos faktora x 3 līmeņos faktora x 1 ietekme uz plkst nebūs vienāds, t.i., tas ir atkarīgs no koeficienta x 3 vērtībām. Uz att. faktoru mijiedarbību attēlo neparalēlas komunikācijas līnijas ar rezultātu y. Un otrādi, paralēlas faktora x 1 ietekmes līnijas uz plkst dažādos faktora x 3 līmeņos nozīmē mijiedarbības neesamību starp faktoriem x 1 un x 3 . Diagrammas:

a - x 1 ietekmē y, turklāt šī ietekme ir vienāda gan x 3 \u003d B 1, gan attiecībā uz x 3 \u003d B 2(tāds pats regresijas līniju slīpums), kas nozīmē, ka starp faktoriem x 1 un x 3 nav mijiedarbības; b - palielinoties x 1, efektīvā zīme y palielinās pie x 3 \u003d B 1; ar augšanas x 1 efektīvo zīmi plkst samazinās pie x 3 = IN 2 .. Starp x 1 un x 3 ir mijiedarbība. Kombinētie regresijas vienādojumi tiek konstruēti, piemēram, pētot dažāda veida mēslošanas līdzekļu ietekmi uz ražu, faktoru multikolinearitātes novēršanas problēmas risinājumu var palīdzēt arī pāreja uz reducētās formas vienādojumiem. Šim nolūkam aplūkojamais faktors tiek aizstāts regresijas vienādojumā, izmantojot tā izteiksmi no cita vienādojuma.

Nr.13. LINEĀRĀ PATĒRIŅA MODEĻA REGRESIJAS KOEFICIENTU INTERPRETĀCIJA. SUMMAS NOZĪME b i RAŽOŠANAS FUNKCIJĀS UN SUMMAS VĒRTĪBĀ b i >1 . KOEFICIENTI, KAS IZMANTOTI, LAI NOVĒRTĒTU FAKTORU IETEKMES UZ REZULTĀTU SALĪDZINĀJO STIPRIBU.

Patēriņa funkcija: С=К*у+L, kur С-patēriņš, y-ienākumi, К un L-funkcijas parametri.(у=С+I, I-investīciju lielums). Pieņemsim, ka patēriņa funkcija ir: C= 1,9 + 0,65 *y. Regresijas koeficients raksturo tieksmi patērēt. Tas parāda, ka no katriem tūkstošiem ienākumu patēriņam tiek tērēti vidēji 650 rubļi, bet 350 rubļi. ir ieguldīti. Ražošanas funkcijās:

kur R- saražotā produkta daudzums t ražošanas faktori (F 1 , F 2 ,..., Fm ); b - parametrs, kas ir produkcijas daudzuma elastība attiecībā pret atbilstošo ražošanas faktoru daudzumu.

Ne tikai koeficientiem ir ekonomiska jēga b katra faktora, bet arī to summu, t.i., elastību summu: B= b 1 + b 2 +...+ b t.Šī vērtība nosaka ražošanas elastības vispārīgo raksturlielumu.

Praktiskajos aprēķinos ne vienmēr.Tas var būt vai nu vairāk vai mazāk par vienotību. Šajā gadījumā vērtība AT nosaka aptuvenu izlaides elastības novērtējumu, palielinoties katram ražošanas faktoram par 1% pieaugošā vidē (AT> 1) vai samazinās (AT < 1) отдачи на масштаб. Так, если P = 2,4* F * F 2 0,7 * F 3 0,2, tad, palielinot katra ražošanas faktora vērtības par 1%, kopējā izlaide palielinās par aptuveni 1,2%.

Nr.14. DAĻĒJĀS KORELĀCIJAS PIEŠĶIRŠANA, VEIDOOT DAUDZVEIDĀS REGRESIJAS MODELI. Daudzkārtējā lineārā regresijā iesaistīto faktoru ranžēšanu var veikt, izmantojot standartizētus regresijas koeficientus, izmantojot daļējas korelācijas koeficientus – lineārām attiecībām. Ar pētāmo pazīmju nelineāru saistību šo funkciju veic daļējas noteikšanas indeksi. Turklāt faktoru atlases problēmas risināšanā plaši tiek izmantoti daļējās korelācijas rādītāji: viena vai otra faktora iekļaušanas modelī lietderību pierāda daļējās korelācijas rādītāja vērtība.

Daļējie korelācijas koeficienti (vai indeksi). raksturo rezultāta un atbilstošā faktora attiecības ciešumu, novēršot citu regresijas vienādojumā iekļauto faktoru ietekmi.

Daļējās korelācijas indikatori ir atlikušās dispersijas samazinājuma attiecība, ko izraisa jauna faktora papildu iekļaušana analīzē, pret atlikušo dispersiju, kas notika pirms tā ieviešanas modelī.

Daļējās korelācijas koeficienti ietekmes uz y faktoru x i mērīšanu citu faktoru nemainīgā līmenī var noteikt pēc formulas:

Ar diviem faktoriem un i=1 šī formula būs šāda:

Daļējās korelācijas koeficienti svārstās no -1 līdz 1.

Nr.15. PRIVĀTS F -KRITĒRIJS, TĀ ATŠĶIRĪBA NO SERIĀLĀS F -KRITĒRIJI, TO KOMUNIKĀCIJA t - STUDENTU NOZĪMĪGUMA VĒRTĒŠANAS KRITĒRIJI b i UN PRIVĀTI F -KRITĒRIJS .

M/y faktoru korelācijas dēļ viena un tā paša faktora m/b nozīme ir atšķirīga atkarībā no tā ieviešanas secības modelī. Mērs faktora iekļaušanas modelī novērtēšanai ir biežais F-tests, t.i. Fx i. Kopumā faktoram x i biežais F tests ir definēts šādi:

Ja ņemam vērā vienādojumu y = a + b 1 x 1 + b 2 + b 3 x 3 + e, tad secīgi nosaka F kritēriju vienādojumam ar vienu faktoru x 1, tad F kritēriju faktora x 2 papildu iekļaušanai modelī, t.i., pārejai no viena faktora regresijas vienādojuma uz divu. -faktors viens un, visbeidzot, F-kritērijs faktora x 3 papildu iekļaušanai modelī, t.i., faktora x 3 nozīmīguma novērtējums tiek dots pēc faktoru x 1 no tiem 2 iekļaušanas. modelis. Šajā gadījumā F kritērijs faktora x 2 papildu iekļaušanai pēc x 1 ir konsekventi atšķirībā no F kritērija faktora x 3 papildu iekļaušanai modelī, kas ir Privāts F-kritērijs, jo tas novērtē faktora nozīmīgumu, pieņemot, ka tas modelī ir iekļauts pēdējais. Tas ir konkrētais F-tests, kas ir saistīts ar Stjudenta t-testu. Konsekvents F tests var interesēt pētnieku modeļa veidošanas stadijā. Vienādojumam y = a + b 1 x 1 + b 2 + b 3 x 3 + e regresijas koeficientu nozīmīguma novērtējums b 1, b 2, b 3 ietver trīs starpfaktoru determinācijas koeficientu aprēķinu, proti:

Pamatojoties uz attiecību b i, mēs iegūstam:

#16 FONA OLS.

Novērtējot regresijas vienādojuma parametrus, izmanto LSM. Šajā gadījumā tiek veikti noteikti pieņēmumi attiecībā uz komponentu , kas ir nenovērojams lielums.

Atlieku pētījumi - ietver šādu piecu OLS priekšnoteikumu esamības pārbaudi: 1.atlieku nejaušība; 2.nulles vidējā atlikuma vērtība, neatkarīgi no x i ;

3.homoskedastiskums-katras novirzes izkliede , ir vienāds visām vērtībām X; 4. atlieku autokorelācijas trūkums. Atlikušās vērtības , izplatīti neatkarīgi viens no otra; 5.atlikumi seko normālam sadalījumam.

1. Pārbauda atlikumu nejaušību , šim nolūkam tiek izveidots atlikuma atkarības grafiks no efektīvās pazīmes teorētiskajām vērtībām. Ja diagrammā tiek iegūta horizontāla josla, tad atlikumi , ir gadījuma lielumi un mazākie kvadrāti ir pamatoti, teorētiskās vērtības y x labi tuviniet faktiskās y vērtības. Citos gadījumos jums ir jāpiemēro cita funkcija vai jāievada papildu informācija un jāpārveido regresijas vienādojums līdz atlikuma , nebūs nejauši mainīgie.

2. LSM otrais priekšnoteikums attiecībā uz atlikuma nulles vidējo vērtību nozīmē, ka (y - y x)= 0. Tas ir iespējams lineāriem modeļiem un modeļiem, kas ir nelineāri attiecībā pret iekļautajiem mainīgajiem. Šim nolūkam kopā ar iepriekš minēto atlieku atkarības grafiku no efektīvās pazīmes teorētiskajām vērtībām y x nejaušu atlikumu uzzīmēšana uz x i regresijā iekļautajiem faktoriem. Ja atlikumi diagrammā ir sakārtoti horizontālas joslas formā, tad tie nav atkarīgi no x vērtībām j . Ja grafiks parāda atkarības esamību un x j, tad modelis ir neadekvāts. Neatbilstības iemesli var būt dažādi.

3. Saskaņā ar trešo mazāko kvadrātu pieņēmumu, atlikumu dispersijai ir jābūt homoskedastiskajai. Tas nozīmē, ka katrai faktora vērtībai xj pārpalikumi , ir tāda pati dispersija. Ja šis nosacījums LSM piemērošanai nav izpildīts, tad rodas heteroskedastiskums. Heteroskedastiskuma esamību var skaidri redzēt no korelācijas lauka. Atlikumu homoscedastiskums nozīmē atlikumu dispersiju - katrai vērtībai tas pats X .

4. Atlikumu, t.i., atlikušo vērtību, autokorelācijas trūkums sadalīti neatkarīgi viens no otra. Atlikumu autokorelācija nozīmē korelācijas esamību starp pašreizējo un iepriekšējo (nākamo) novērojumu atlikumiem. Atlikumu autokorelācijas neesamība nodrošina regresijas koeficientu aplēšu konsekvenci un efektivitāti.

Nr.17. ATLIKUMU ANALĪZES BŪTĪBA REGRESIJAS MODEĻA klātbūtnē. KĀ IR IESPĒJAMS PĀRBAUDĪT ATLIEKUMU HOMO- VAI HETEROSKEDASTISKU KĀTĒT. STATISTISKĀS REGRESIJAS MODEĻA KONSTRUKCIJAS IZVĒRTĒJUMS PAR ATLIKUMU AUTOKORELĀCIJAS NAV.

Šim nolūkam atlieku atkarības grafiks e i no efektīvās pazīmes teorētiskajām vērtībām:

Ja diagrammā tiek iegūta horizontāla josla, tad atlikumi e i ir gadījuma lielumi un mazākie kvadrāti ir pamatoti, teorētiskās vērtības y x labi tuvināt faktiskās vērtības y.

Ir iespējami šādi gadījumi: ja e i atkarīgs no plkst x , tad: 1.paliek e i nav nejauši.2. pārpalikumi e i, nav pastāvīgas izkliedes. 3. Pārpalikumi e i ir sistemātiskas šajā gadījumā negatīvas vērtības e i, atbilst zemām vērtībām y x, un pozitīvi - augstas vērtības. Šādos gadījumos jums ir jāizmanto cita funkcija vai jāievada papildu informācija.

Kā var pārbaudīt homo- vai heteroskedastiskuma atlieku klātbūtni? Atlikumu homoscedastiskums nozīmē atlikumu dispersiju e i tas pats katrai vērtībai X. Ja šis nosacījums LSM piemērošanai nav izpildīts, tad rodas heteroskedastiskums. Heteroskedastiskuma esamību var skaidri redzēt no korelācijas lauka. a- atlikumu dispersija palielinās kā X; b - atlikuma dispersija sasniedz maksimālo vērtību pie mainīgā lieluma vidējām vērtībām X un samazinās pie minimālās un maksimālās vērtības X; iekšā - maksimālā atlieku dispersija pie

mazas vērtības X un atlikuma dispersija ir vienmērīga, pieaugot vērtībām X. Homo- un hetero-tee diagrammas.

Atlikumu autokorelācijas trūkuma novērtēšana(t.i., atlikušās vērtības e i izplatīts neatkarīgi). Atlikumu autokorelācija nozīmē korelācijas esamību starp pašreizējo un iepriekšējo (nākamo) novērojumu atlikumiem. Korelācijas koeficients starp e i un e j, kur e i- pašreizējo novērojumu atlikumi, e j- iepriekšējo novērojumu atlikumus var noteikt pēc parastās lineārās korelācijas koeficienta formulas . Ja izrādās, ka šis koeficients būtiski atšķiras no nulles, tad atlikumi tiek autokorelēti un varbūtības blīvuma funkcija F( e) ir atkarīgs no j-tā novērošanas punkta un no atlikušo vērtību sadalījuma citos novērošanas punktos. Statiskās informācijas regresijas modeļiem var aprēķināt atlikumu autokorelāciju, ja novērojumi ir sakārtoti pēc faktora X. Atlikumu autokorelācijas neesamība nodrošina regresijas koeficientu aplēšu konsekvenci un efektivitāti. Īpaši svarīgi ir ievērot šo LSM priekšnoteikumu, veidojot regresijas modeļus laikrindām, kur tendences dēļ nākamie laikrindu līmeņi parasti ir atkarīgi no to iepriekšējiem līmeņiem.

#18 VISPĀRĪTĀ LSM NOZĪME .

Homoskedastikas pārkāpuma un kļūdu autokorelācijas klātbūtnes gadījumā ieteicams aizstāt tradicionālo LSM vispārināta metode. Transformētajiem datiem tiek piemērota vispārinātā mazāko kvadrātu metode, kas ļauj iegūt aplēses, kas ir ne tikai objektīvas, bet arī ar mazākām izlases dispersijas. Vispārinātie mazākie kvadrāti heterositātes korekcijai. Kopumā vienādojumam y i =a+bx i + e i kur K i ir proporcijas koeficients. Modelim būs šāda forma: y i =+x i + e es . Tajā atlikumi ir heteroskedastiski. Pieņemot, ka tajos nav autokorelācijas, mēs varam pāriet uz vienādojumu ar homoskedastiskajiem atlikumiem, visus i-tā novērojuma laikā reģistrētos mainīgos dalot ar . Tad atlikumu dispersija būs nemainīga vērtība. No y regresēšanas attiecībā pret x mēs pārejam uz regresiju jauniem mainīgajiem: y / un X/. Regresijas vienādojums būs šāds: . Saistībā ar parasto regresiju vienādojums ar jauniem, pārveidotiem mainīgajiem ir svērtā regresija, kurā mainīgie plkst un Xņemti ar svariem. Regresijas koeficientu b var definēt kā b ir svērta vērtība attiecībā pret parastajiem mazākajiem kvadrātiem ar svariem 1/K. Līdzīga pieeja ir iespējama ne tikai pāra vienādojumam, bet arī daudzkārtējai regresijai. Modelim būs šāda forma: . Modelis ar pārveidotiem mainīgajiem būs

Šis vienādojums nesatur brīvu terminu, izmantojot parasto LSM, mēs iegūstam: Vispārinātā LSM izmantošana šajā gadījumā noved pie tā, ka novērojumiem ar mazākām transformēto mainīgo x/K vērtībām ir relatīvi lielāka nozīme, nosakot regresijas parametri nekā ar sākotnējiem mainīgajiem.

Nr.19. EKONOMETRISKO VIENĀDĀJUMU SISTĒMAS. IDENTIFIKĀCIJAS PROBLĒMA.

Sarežģīti ekonomiskie procesi tiek aprakstīti, izmantojot savstarpēji saistītu vienādojumu sistēmu. Ir vairāki vienādojumu sistēmu veidi: 1. Neatkarīgo vienādojumu sistēma - kad katrs atkarīgais mainīgais plkst uzskata par viena un tā paša faktoru kopuma funkciju X :

y 1 = a 11 * x 1 + a 12 * x 2 +…+ a 1 m * x m + e 1 Lai atrisinātu šo sistēmu un atrastu tās parametrus

y n =a n1 *x 1 +a n2 *x 2 +…+a nm *x m +e n Tiek izmantots MNC.

2. Rekursīvo vienādojumu sistēma - kad atkarīgais mainīgais plkst viens vienādojums darbojas kā faktors X citā vienādojumā:

y 1 =a 11 *x 1 +a 12 *x 2 +…+a 1m *x m +e 1

y 2 = b 21 *y 1 +a 21 *x 1 +a 22 *x 2 +…+a 2m *x m +e 2

y 3 =b 31 *y 1 +b 32 *y 2 +a 31 *x 1 +a 32 *x 2 +…+a 3m *x m +e 3

Lai atrisinātu šo sistēmu un atrastu tās parametrus, tiek izmantota mazāko kvadrātu metode.

3 Savstarpēji saistītu vienādojumu sistēma - kad vieni un tie paši atkarīgie mainīgie dažos vienādojumos atrodas kreisajā pusē, bet citos - labajā pusē.

y 1= b 12 *y 2 +b 13 *y 3 +…+b 1n *y n +a 11 *x 1 +a 12 *x 2 +…+a 1m *x m +e 1

y 2 =b 21 *y 1 +b 23 *y 3 +…+b 2n *y n +a 21 *x 1 +a 22 *x 2 +…+a 2m *x m +e 2

y n =b n1 *y 1 +b n2 *y 2 +…+b nn-1 *y n-1 +a n1 *x 1 +a n2 *x 2 +…+a nm *x m +e n

Šādu vienādojumu sistēmu sauc par modeļa strukturālo formu. Endogēni mainīgie ir savstarpēji saistīti mainīgie, kas tiek noteikti modeļa (sistēmas) y ietvaros. Eksogēni mainīgie ir neatkarīgi mainīgie, kas tiek noteikti ārpus sistēmas x. Iepriekš noteiktie mainīgie ir sistēmas eksogēni un nobīdes (iepriekšējiem laika punktiem) endogēnie mainīgie. Koeficienti a un b mainīgajiem ir modeļa strukturālie koeficienti. Endogēnu mainīgo lineāro funkciju sistēma no visiem iepriekš definētajiem sistēmas mainīgajiem ir modeļa reducēta forma.

Kur ir modeļa reducētās formas koeficienti.

Nepieciešams identifikācijas nosacījums ir skaitīšanas noteikuma izpilde:

D+1=H – vienādojums ir identificējams;

D+1

D+1>H – vienādojums ir pārāk identificējams.

Kur H ir endogēno mainīgo skaits vienādojumā, D ir iepriekš definētu mainīgo skaits, kas nav vienādojumā, bet ir sistēmā.

Pietiekams nosacījums identifikācijai ir matricas determinants, kas sastāv no koeficientiem mainīgajiem, kuru pētāmajā vienādojumā nav vienāds ar nulli, un šīs matricas rangs nav mazāks par endogēniem mainīgajiem bez vienotības. Identificēta vienādojuma risināšanai izmanto QLS, pārlieku identificētu vienādojumu risināšanai izmanto divpakāpju mazāko kvadrātu metodi.

№20 KMNK . To izmanto precīzi identificēta modeļa gadījumā. QLS piemērošanas procedūra ietver šādas darbības: 1. Izveidojiet modeļa samazināto formu un nosakiet parametru skaitliskās vērtības katram tā vienādojumam, izmantojot parasto LLS. 2. ar algebrisko transformāciju palīdzību tie no reducētās formas pāriet uz modeļa strukturālās formas vienādojumiem, tādējādi iegūstot strukturālo parametru skaitliskos aprēķinus.

№21 DIVSTEPJU LSM. (D MNK)

DMNC galvenā ideja ir iegūt endogēno mainīgo teorētiskās vērtības, kas atrodas vienādojuma labajā pusē pārāk identificētam vienādojumam, pamatojoties uz modeļa samazināto formu. Turklāt, aizstājot tās ar faktiskajām vērtībām, var piemērot parasto mazāko kvadrātu metodi pārāk identificētā vienādojuma strukturālajai formai. Metode tiek saukta par divpakāpju LSM, jo LSM tiek izmantots divreiz: pirmajā solī, nosakot modeļa reducēto formu un uz tās pamata atrodot endogēnā mainīgā teorētisko vērtību aplēses.

un otrajā solī saistībā ar strukturālo pārāk identificēto vienādojumu, nosakot modeļa strukturālos koeficientus atbilstoši endogēno mainīgo teorētiskajām (aprēķinātajām) vērtībām.

Pārāk identificēts strukturālais modelis var būt divu veidu:

Visi sistēmas vienādojumi ir pārāk identificējami;

Sistēma satur kopā ar pārāk precīzi identificētu
identificējami vienādojumi.

Ja visi sistēmas vienādojumi ir pārāk identificējami, tad LSLS izmanto, lai novērtētu katra vienādojuma strukturālos koeficientus. Ja sistēmai ir precīzi identificējami vienādojumi, tad tiem strukturālie koeficienti tiek atrasti no reducēto vienādojumu sistēmas.

Pielietosim DMNC vienkāršākajiem pārmērīgi identificējamajiem

Šo modeli var atvasināt no iepriekšēja identificējama modeļa:

ja mēs uzliekam ierobežojumus tā parametriem, proti: b 12 =a 11

Rezultātā pirmais vienādojums kļuva pārāk identificējams: H= 1 (pie 1),

D = 1(x 2) un D+1 > H. Otrais vienādojums nav mainījies un ir precīzi identificējams: H = 2 un D =1

Pirmajā solī mēs atrodam modeļa samazināto formu un

DMNC ir visvispārīgākā un izplatītākā metode vienlaicīgu vienādojumu sistēmas risināšanai.

Neskatoties uz ekonometrisko vienādojumu sistēmas nozīmi, praksē dažas attiecības bieži netiek ņemtas vērā, ekonometrikā plaši izplatīta ir arī tradicionālo mazāko kvadrātu pielietošana vienam vai vairākiem vienādojumiem. Jo īpaši, veidojot ražošanas funkcijas, pieprasījuma analīzi var veikt, izmantojot parasto mazāko kvadrātu metodi.

№22 LAIKRĀLAS GALVENIE ELEMENTI.

laika rindas- ir jebkura rādītāja vērtību kopums vairākiem secīgiem brīžiem vai laika periodiem. Katrs laikrindas līmenis veidojas daudzu faktoru ietekmē, kurus nosacīti var iedalīt trīs grupās:

Faktori, kas veido sērijas tendenci;

Faktori, kas veido sērijas cikliskās svārstības;

nejaušības faktori.

Ar dažādām šo faktoru kombinācijām pētāmajā fenomenā vai procesā sērijas līmeņu atkarība no laika var izpausties dažādos veidos. Pirmkārt, vairumam ekonomisko rādītāju laikrindu ir tendence, kas raksturo daudzu faktoru kumulatīvo ilgtermiņa ietekmi uz pētāmā rādītāja dinamiku. Ir acīmredzams, ka šie faktori, atsevišķi ņemti, var daudzpusīgi ietekmēt pētīto rādītāju. Tomēr kopā tie veido tā pieauguma vai samazināšanās tendenci. 1. att

Otrkārt, pētāmais rādītājs var būt pakļauts cikliskām svārstībām. Šīm svārstībām var būt sezonāls raksturs, jo vairāku tautsaimniecības nozaru ekonomiskā aktivitāte ir atkarīga no gadalaika. 3. att

Vairumā gadījumu laikrindas faktisko līmeni var attēlot kā tendences, cikla un nejaušības komponentu summu vai reizinājumu. Tiek izsaukts modelis, kurā laikrindas tiek uzrādītas kā uzskaitīto komponentu summa piedevu modelis laika rindas. Tiek izsaukts modelis, kurā laikrindas tiek attēlotas kā uzskaitīto komponentu reizinājums reizināšanas modelis laika rindas. Atsevišķas laikrindas ekonometriskā pētījuma galvenais uzdevums ir identificēt un kvantitatīvi noteikt katru no iepriekš uzskaitītajiem komponentiem, lai iegūto informāciju izmantotu rindas nākotnes vērtību prognozēšanai vai divu vai vairāku attiecību modeļu veidošanai. laika rindas.

Nr.23. LAIKRĀKU LĪMEŅU AUTOKORELĀCIJA

Tiek saukta korelācijas atkarība starp secīgiem laikrindu līmeņiem sērijas līmeņu autokorelācija. To var kvantitatīvi izmērīt, izmantojot lineāro korelācijas koeficientu starp sākotnējās laikrindas līmeņiem un šīs rindas līmeņiem, kas nobīdīti par vairākiem soļiem laikā. Korelācijas koeficientam ir šāda forma:

iespējams noteikt otrās un augstākās kārtas autokorelācijas koeficientus. Tādējādi otrās kārtas autokorelācijas koeficients raksturo attiecību blīvumu starp līmeņiem plkst t un y t -1 un to nosaka pēc formulas:

Tiek izsaukts periodu skaits, par kuriem tiek aprēķināts autokorelācijas koeficients aizkavēšanās. Palielinoties nobīdei, autokorelācijas koeficienta aprēķināšanai izmantoto vērtību pāru skaits samazinās.

Mēs atzīmējam divus svarīgus koeficientu īpašības autokorelācija. Pirmkārt, tas ir izveidots pēc analoģijas ar lineārās korelācijas koeficientu un tādējādi raksturo tikai lineāras attiecības starp pašreizējo un iepriekšējo sērijas līmeņu blīvumu.

Otrkārt, pēc autokorelācijas koeficienta zīmes nav iespējams izdarīt secinājumu par rindas līmeņu pieauguma vai samazināšanās tendenci.

Tiek izsaukta pirmās, otrās utt. kārtas līmeņu autokorelācijas koeficientu secība autokorelācija laika rindas funkcija. Tiek saukts grafiks par tā vērtību atkarību no nobīdes lieluma korelogramma.

Nr.24. LAIKSĒRIJAS TENDENCES MODELĒŠANA (LAIKSĒRIJAS ANALĪTISKĀ LĪDZINĀŠANA)

Viens no visizplatītākajiem veidiem, kā modelēt laikrindas tendenci, ir izveidot analītisko funkciju, kas raksturo rindas līmeņu atkarību no laika jeb tendences. Šo metodi sauc analītisks tu laikrindu saskaņošana.

Tā kā atkarība no laika var izpausties dažādos veidos, tās formalizēšanai var izmantot dažādas funkcijas. Tendenču veidošanai visbiežāk tiek izmantotas šādas funkcijas:

Lineāra tendence:

Hiperbola: ,

Eksponenciāla tendence:

Jaudas funkcijas tendence:

Otrās un augstākas kārtas parabola:

Katras no iepriekšminētajām tendencēm parametrus var noteikt ar parastajiem mazākajiem kvadrātiem, izmantojot laiku t=1,2,..., n kā neatkarīgu mainīgo, bet faktiskos laikrindas y t līmeņus kā atkarīgo mainīgo. . Ir vairāki veidi, kā noteikt tendences veidu. Visizplatītākās metodes ietver pētāmā procesa kvalitatīvo analīzi, rindas līmeņu atkarības no laika grafika konstruēšanu un vizuālo analīzi un dažu dinamikas pamatrādītāju aprēķinu. Tiem pašiem mērķiem var izmantot arī sērijas līmeņu autokorelācijas koeficientus. Tendences veidu var noteikt, salīdzinot pirmās kārtas autokorelācijas koeficientus, kas aprēķināti no sērijas sākotnējā un pārveidotā līmeņa. Ja laikrindai ir lineāra tendence, tad tai blakus esošie līmeņi plkst t un plkst t -1 ir cieši saistīti. Šajā gadījumā sākotnējās sērijas līmeņu pirmās kārtas autokorelācijas koeficientam jābūt augstam. Ja laikrinda satur nelineāru tendenci, piemēram, eksponenciāla formā, tad pirmās kārtas autokorelācijas koeficients no sākotnējās rindas līmeņu logaritmiem būs lielāks par atbilstošo koeficientu, kas aprēķināts no līmeņiem sērija. Jo izteiktāka ir nelineārā tendence pētāmajā laikrindā, jo vairāk atšķirsies norādīto koeficientu vērtības.

Labākā vienādojuma izvēli, ja sērija satur nelineāru tendenci, var veikt, uzskaitot galvenās tendences formas, aprēķinot katram vienādojumam koriģēto determinācijas koeficientu R 2 un trenda vienādojuma atlase ar koriģētā noteikšanas koeficienta maksimālo vērtību.

Nē; 25. TENDENču IZSLĒGŠANAS METODES. NOviržu NO TENDENCES METODE.

Visu tendenču likvidēšanas metožu būtība ir novērst vai fiksēt laika faktora ietekmi uz sērijas līmeņu veidošanos. Pamatmetodes Tendences var iedalīt divās grupās:

Metodes, kuru pamatā ir oriģināla līmeņu konvertēšana
sērijas jaunos mainīgajos, kas nesatur tendences. Iegūtie mainīgie tiek izmantoti tālāk, lai analizētu attiecības starp pētītajām laikrindām. Šīs metodes ietver tiešu tendences komponenta likvidēšanu T no katra laikrindas līmeņa. Divas galvenās metodes
šī grupa ir secīgu atšķirību metode un
tendenču novirzes metode;

Metodes, kuru pamatā ir sākotnējās attiecības izpēte
laikrindu līmeņi iedarbības novēršanā
laika faktors atkarīgajiem un neatkarīgajiem mainīgajiem
modeļiem. Pirmkārt, šī ir metode laika faktora iekļaušanai regresijas modelī laika rindās.
Ļaujiet mums sīkāk apsvērt pielietošanas metodi, katras iepriekšminētās metodes priekšrocības un trūkumus. Tendenču novirzes metode

Lai ir divas laikrindas x t un y t, katra satur tendences komponentu T un nejauša komponente e. Analītiskā izlīdzināšana katrai no šīm sērijām ļauj mums atrast atbilstošo tendenču vienādojumu parametrus un noteikt līmeņus, kas aprēķināti atbilstoši tendencei. Šīs aprēķinātās vērtības var uzskatīt par katras sērijas tendenču komponenta T novērtējumu. Tāpēc tendences ietekmi var novērst, no faktiskajām atņemot aprēķinātās sērijas līmeņu vērtības. Šī procedūra tiek veikta katrai modeļa laikrindai. Turpmāka rindu attiecību analīze tiek veikta, izmantojot nevis sākotnējos līmeņus, bet novirzes no tendences un ar nosacījumu, ka pēdējās neietver tendenci.

Nr.26. SERIĀLO ATŠĶIRĪBU METODE .

Dažos gadījumos laika rindu analītiskas izlīdzināšanas vietā, lai novērstu tendenci, varat izmantot vienkāršāku metodi - secīgu atšķirību metodi.

Ja laikrindā ir izteikta lineāra tendence, to var novērst, aizstājot rindas sākotnējos līmeņus ar ķēdes absolūtajiem pieaugumiem (pirmās atšķirības).

Ļaujiet (1) ;

Tad (6.3) Tad

Koeficients b ir konstante, kas nav atkarīga no laika.

Ja laikrindā ir tendence otrās kārtas parabolas veidā, tad, lai to novērstu, sērijas sākotnējos līmeņus var aizstāt ar otrajām atšķirībām.

Ļaujiet attiecības (1) pastāvēt, bet

Tad

Kā liecina šī sakarība, pirmās atšķirības ∆ t ir tieši atkarīgas no laika faktora t un tāpēc satur tendenci.

Definēsim otrās atšķirības:

Acīmredzot otrās atšķirības ∆ t 2 nesatur tendenci, tādēļ, ja sākuma līmeņos ir tendence otrās kārtas parabolas veidā, tās var izmantot tālākai analīzei. Ja laikrindas tendence atbilst eksponenciālai vai jaudas tendencei, secīgo atšķirību metode jāpiemēro nevis rindas sākotnējiem līmeņiem, bet gan to logaritmiem.

Nr.27. IESKAITOT LAIKA FAKTORU REGRESIJAS MODELIS.

Korelācijas-regresijas analīzē jebkura faktora ietekmi var novērst, ja ir fiksēta šī faktora ietekme uz rezultātu un citiem modelī iekļautajiem faktoriem. Šo metodi plaši izmanto laikrindu analīzē, kad tendence tiek fiksēta, modelī iekļaujot laika faktoru kā neatkarīgu mainīgo.

Skata modelis attiecas uz modeļu grupu, kas ietver laika faktoru. Acīmredzot neatkarīgo mainīgo skaits šādā modelī var būt lielāks par vienu. Turklāt tas var būt ne tikai pašreizējās, bet arī neatkarīgā mainīgā nobīdes vērtības, kā arī iegūtā mainīgā nobīdes vērtības. Šī modeļa priekšrocība salīdzinājumā ar metodēm novirzēm no tendencēm un secīgām atšķirībām ir tāda, ka tas ļauj ņemt vērā visu informāciju, kas ietverta sākotnējos datos, jo y t un X t ir sākotnējās laikrindas līmeņi. Turklāt modelis ir balstīts uz visu aplūkojamā perioda datu kopumu, atšķirībā no secīgo atšķirību metodes, kas noved pie novērojumu skaita zuduma. Iespējas a un b modeļus ar laika faktora iekļaušanu nosaka ar parastajiem mazākajiem kvadrātiem.

Normālo vienādojumu sistēmai ir šāda forma:

#28 AUTOKORRELĀCIJA PALIEK. DURBINA-VATSONA KRITĒRIJS.

Ir divas visizplatītākās metodes atlikumu autokorelācijas noteikšanai. Pirmā metode ir celtniecība atlikumu grafiks pret laiku un vizuālo noteikšanu klātbūtne vai neesamība autokorelācija. Otrā metode - izmantot Durbina-Vatsona kritērija noteikšana un vērtības aprēķināšana

Tādējādi d ir secīgo atlikušo vērtību kvadrātisko atšķirību summas attiecība pret kvadrātu atlikušo summu saskaņā ar regresijas modeli. Var pieņemt, ka: , arī pieņemsim

Atlikušais autokorelācijas koeficients ir definēts kā

Ņemot vērā (3), mums ir:

Tādējādi, ja ir pilnīga pozitīva autokorelācija atlikumos un , tad d = 0. Ja atlikumos ir pilnīga negatīva autokorelācija, tad un tāpēc d = 4. Ja nav atlikumu autokorelācijas, tad d= 2. Tāpēc 0≤d≤4

Algoritms atlikumu autokorelācijas noteikšanai, pamatojoties uz Durbina-Vatsona testu, ir šāds. Tiek izvirzīta hipotēze H 0 par atlikumu autokorelācijas neesamību. Alternatīvas hipotēzes H 1 H 1 * sastāv, attiecīgi, pozitīvas vai negatīvas autokorelācijas klātbūtnē atlikumos. Turklāt saskaņā ar īpašām tabulām tiek noteiktas Durbina-Vatsona kritērija kritiskās vērtības d l un d u noteiktam novērojumu skaitam n – neatkarīgo modeļa mainīgo lielumu skaits uz un nozīmīguma līmenis α. Saskaņā ar šīm vērtībām skaitliskais intervāls ir sadalīts piecos segmentos. Ja Durbina-Vatsona kritērija faktiskā vērtība iekrīt nenoteiktības zonā, tad praksē tiek pieņemta atlikumu autokorelācijas esamība un hipotēze H o tiek noraidīta.

№29 . MODEĻU VISPĀRĪGIE RAKSTUROJI AR SADALĪTU lag. MODEĻU PARAMETRU INTERPRETĀCIJA AR SADALĪTO LAGU .

Vērtību L, kas raksturo faktora ietekmes uz rezultātu aizkavēšanos, sauc ekonometrikā lagom, un pašu faktoru mainīgo laika rindas, kas nobīdītas par vienu vai vairākiem laika punktiem, - nobīdes mainīgie.

Ekonometriskā modelēšana tiek veikta, izmantojot modeļus, kas satur ne tikai pašreizējo, bet arī faktoru mainīgo lielumu nobīdes vērtības. Šos modeļus sauc modeļi ar izplatītiem aizkavēšanās. Skatīt modeli

ir izplatīta nobīdes modeļa piemērs.

Līdz ar neatkarīgo vai faktoriālo mainīgo lielumu nobīdes vērtībām pašreizējā perioda atkarīgā mainīgā vērtību var ietekmēt tā vērtības pagātnes mirkļos vai laika periodos. Šos procesus parasti apraksta, izmantojot regresijas modeļus, kas satur atkarīgā mainīgā nobīdes vērtības kā faktorus, kurus sauc autoregresīvie modeļi. Skatīt modeli

attiecas uz autoregresīviem modeļiem. Modeļu veidošanai ar sadalītu nobīdi un autoregresīviem modeļiem ir sava specifika. Pirmkārt, autoregresīvo modeļu un vairumā gadījumu pat modeļu ar sadalītu nobīdi parametru novērtēšanu nevar veikt, izmantojot parastos mazākos kvadrātus, jo tiek pārkāpti tā priekšnoteikumi, un ir nepieciešamas īpašas statistikas metodes. Otrkārt, pētniekiem ir jāatrisina optimālās nobīdes vērtības izvēles un tās struktūras noteikšanas problēmas. Visbeidzot, trešais, pastāv noteikta saistība starp sadalītās nobīdes modeļiem un autoregresīvajiem modeļiem, un dažos gadījumos ir nepieciešams pāriet no viena modeļa veida uz citu. Modeļu ar sadalījuma nobīdi parametru interpretācija. Apsveriet modeli ar sadalītu nobīdi tā vispārējā formā, pieņemot, ka maksimālā nobīdes vērtība ir ierobežota:

Šis modelis saka, ka, ja kādā brīdī t notiek izmaiņas neatkarīgajā mainīgajā X, tad šīs izmaiņas ietekmēs mainīgā vērtības plkst l turpmākajos laika brīžos.

Regresijas koeficients b 0 ar mainīgo x t raksturo vidējās absolūtās izmaiņas plkst t kad tas mainās X t par 1 vienību tā mērīšana kādā noteiktā laika punktā t , neņemot vērā faktora x nobīdes vērtību ietekmi. Šo attiecību sauc īstermiņa reizinātājs.

Šobrīd (t + 1) faktoru mainīgā x t kopējā ietekme uz rezultātu y t būs (b 0 + b 1) arb. vienības, šobrīd (t + 2) šo efektu var raksturot ar summu ( b 0 + b 1 + b 2 ) utt.. Šādā veidā iegūtās summas sauc starpposma reizinātāji.

Ieviesīsim šādu apzīmējumu:

b 0 +b 1 +…+b l =b

vērtība b sauca ilgtermiņa reizinātājs. Tas parāda absolūtas izmaiņas ilgtermiņā t + l rezultāts plkst ietekmē 1 vienības maiņa. faktors a X.

Pieņemsim

ß j \u003d b j/b, j \u003d 0:1

Iegūtos daudzumus saucam relatīvie koeficienti tami modeļi ar sadalītu nobīdi. trešdiena ny lag tiek noteikts pēc svērtās aritmētiskās vidējās formulas: un attēlo vidējo periodu, kurā rezultāts mainīsies faktora izmaiņu ietekmē noteiktā laika brīdī t . Neliela vidējā nobīdes vērtība norāda uz salīdzinoši ātru rezultāta reakciju uz faktora izmaiņām, savukārt tā augstā vērtība norāda, ka faktora ietekme uz rezultātu būs jūtama ilgākā laika periodā. Vidējā nobīde ir nobīdes vērtība, kurai

Šis ir laika periods, kura laikā no laika t tiks realizēta puse no faktora kopējās ietekmes uz rezultātu.

Nr.30 ALMONA METODE.

A. metodē tiek pieņemts, ka skaidrojošo mainīgo pašreizējo nobīdes vērtību svari ir pakļauti paleniālajam sadalījumam. b j = c 0 + c 1 j+ c 2 j 2 +…+ c k j k

Regresijas vienādojums būs y t = a+c 0 z 0 +c 1 z 1 + c 2 z 2 + c k z k +ε t , kur z i =; i=1,…,k; j=1,…, lpp. Modeļa parametru aprēķins ar sadalītu nobīdi tiek veikts saskaņā ar šādu shēmu:

1. Maxi ir uzstādīts. nobīdes vērtība l.

2. Tiek noteikta k palenomas pakāpe, kas raksturo laga struktūru.

3. Tiek aprēķināta mainīgo lielumu vērtība no z 0 līdz z k.

4. Noteikti lineārās regresijas vienādojuma y t (z i) parametri.

5. Tiek aprēķināti sākotnējā modeļa parametri ar sadalītu nobīdi.

Nr.31 GULTAS METODE.

Koik sadalījums pieņem, ka koeficienti pie skaidrojošā mainīgā nobīdes vērtībām samazinās eksponenciāli. b l = b 0 λ l ; l=0,1.2.3; 0 ≤ λ ≤ 1. Regresijas vienādojums tiek pārveidots šādā formā:

y t =a+b 0 x t +b 0 λx t -1 +b 0 λ 2 x t -2 +…+ ε t . Pēc vienkāršām transformācijām iegūstam izejošās ur-th parametru ur-to novērtējumu.

№ 32 GALVENO SASTĀVDAĻU METODE.

Metodes būtība ir samazināt skaidrojošo mainīgo skaitu līdz būtiskākajiem ietekmējošiem faktoriem. Galveno komponentu analīzi izmanto, lai novērstu vai samazinātu skaidrojošās regresijas mainīgo daudzkolinearitāti. Galvenā ideja ir samazināt skaidrojošo mainīgo skaitu līdz nozīmīgākajiem ietekmējošiem faktoriem. To panāk, lineāri pārveidojot visus skaidrojošos mainīgos x i (i=0,..,n) jaunos mainīgajos, tā sauktajos galvenajos komponentos. Šajā gadījumā ir nepieciešams, lai pirmās galvenās komponentes izvēle atbilstu visu skaidrojošo mainīgo x i kopējās dispersijas maksimumam (i=0,..,n). Otrā komponente ir atlikušās dispersijas maksimums pēc pirmās galvenās komponentes ietekmes novēršanas utt.

Modeļi, kuros kā faktorus ir nobīdes vērtības. atkarīgo mainīgo sauc par autoregresīvajiem modeļiem. piem., y t =a+b 0 x t +c 1 y t -1 + ε t . Tāpat kā sadalītajā nobīdes modelī, arī šajā modelī b 0 raksturo īstermiņa y t izmaiņas x 1 izmaiņu ietekmē par 1 vienību. Ilgtermiņa reizinātājs autoregresīvajā modelī tiek aprēķināts kā īstermiņa un starpposma reizinātāju summa b = b 0 +b 0 c 1 +b 0 c 1 2 +b 0 c 1 3 +…=b 0 (1 +c 1 + c 1 2 + c 1 3 +…)=b 0 /1-c 1

Ņemiet vērā, ka šāda autoregresīvā modeļa koeficientu interpretācija un ilgtermiņa reizinātāja aprēķins ir balstīts uz pieņēmumu, ka pašreizējās vērtības ietekmē ir bezgalīga nobīde. atkarīgā mainīgā līdz tā nākotnes vērtībai.

Viena no iespējamām metodēm autoregresīvā vienādojuma parametru aprēķināšanai ir instrumentālo mainīgo metode.Šīs metodes būtība ir aizstāt mainīgo no modeļa labās puses, kuram tiek pārkāpti LSM pieņēmumi, ar jaunu mainīgo, kura iekļaušana regresijas modelī neizraisa tā pieņēmumu pārkāpumu. Attiecībā uz autoregresīviem modeļiem ir nepieciešams noņemt mainīgo y t -1 no modeļa labās puses. Vēlamais jaunais mainīgais, kas tiks ieviests modelī y t -1 vietā b jābūt divām īpašībām. Pirmkārt, tai jābūt cieši saistītai ar y t -1 b otrkārt, tam nevajadzētu korelēt ar atlikumiem u r .

Vēl viena metode, ko var izmantot, lai novērtētu šāda veida autoregresīvo modeļu parametrus, ir maksimālās varbūtības metode

#34 STATISTISKO HIPOTĒŽU PĀRBAUDE. ?????????????????????????

№ 35 KUSTĪBAS (KUSTĪBAS) VIDĒJĀ METODE.

Vienkāršā slīdošā vidējā metode. sastāv no tā, ka rādītāja aprēķins prognozētajam laika punktam tiek veidots, vidēji aprēķinot šī rādītāja vērtību vairākiem iepriekšējiem laika punktiem.

kur x k - i ir reālā vērtība. rādītājs laikā t n -1.

n ir aprēķinos izmantoto iepriekšējo laika punktu skaits.

f k ir prognoze laikā t k .

№ 36 EKSPONENTIĀLĀS IZGLĪDZINĀŠANAS METODE.

Tiek ņemtas vērā iepriekšējās prognozes novirzes no reālā rādītāja, un pats aprēķins tiek veikts saskaņā ar nākamo. formula:

kur x k -1 ir rādītāja faktiskā vērtība laikā t k -1 .

f k ir prognoze laikā t k .

α ir pastāvīga izlīdzināšana.

Piezīme: α vērtība atbilst nosacījumam 0‹ α ‹ 1, nosaka izlīdzināšanas pakāpi, un to parasti izvēlas ar universālu izmēģinājumu un kļūdu metodi.

№ 37 TENDENCES PROJEKCIJAS METODE.

Lineārās tendenču projekcijas metodes galvenā ideja ir izveidot taisnu līniju, kas vidēji vismazāk novirzās no laikrindas dotā punktu masīva. Taisni meklē formā: x = pie + b (a un b ir konstantes). Vērtības a un b ir apmierinošas. šāda lineārā sistēma:

Nr.38. NEPIECIEŠAMAS PROGNOZĒŠANAS METODES. KVALITATĪVĀS PROGNOZĒŠANAS METODES. ????????????????

Spurs uz ekonometriju.

Nr.1. MODEĻA SPECIFIKĀCIJA

vienkārša regresija ir regresija starp diviem mainīgajiem -y un x, t.i. skata modeli

, kur plkst- efektīva zīme; X- zīmes faktors.

Daudzkārtēja regresija ir efektīvas pazīmes regresija ar diviem vai vairākiem faktoriem, t.i., formas modelis

Modeļa specifikācija - modeļa veida formulēšana, pamatojoties uz attiecīgo mainīgo attiecību teoriju. Regresijas vienādojumā pazīmju būtībā korelācijas attiecības tiek attēlotas kā funkcionāla sakarība, kas izteikta ar atbilstošo matemātisku funkciju.

kur yj - efektīvās pazīmes faktiskā vērtība;

y xj ir efektīvās pazīmes teorētiskā vērtība.

- gadījuma lielums, kas raksturo iegūtās pazīmes reālās vērtības novirzes no teorētiskās.

Izlases vērtībaε sauc arī sašutumu. Tas ietver modelī neņemto faktoru ietekmi, nejaušās kļūdas un mērījumu pazīmes.

Nejaušo kļūdu skaits ir atkarīgs no pareizi izvēlētās modeļa specifikācijas: jo mazākas, jo lielākas ir iegūtās pazīmes teorētiskās vērtības.

atbilst faktiskajiem datiem y.

Specifikācijas kļūdas ietver nepareizu vienas vai citas matemātiskās funkcijas izvēli

, un jebkura nozīmīga faktora regresijas vienādojumā par zemu novērtēšanu, t.i., pāru regresijas izmantošana daudzkārtu vietā.

Izlases kļūdas - pētnieks visbiežāk nodarbojas ar izlases datiem, nosakot regulāras attiecības starp pazīmēm.

Mērījumu kļūdas praktiski noliedz visus centienus noteikt saistību starp pazīmēm. Ekonometriskā pētījuma uzmanības centrā ir modeļu specifikācijas kļūdas.

Pāru regresijā matemātiskās funkcijas veida izvēle

var veikt ar trim metodēm: grafisko, analītisko un eksperimentālo.

Grafiskā metode ir balstīta uz korelācijas lauku. Analītiskā metode ir balstīta uz pētāmo īpašību attiecību materiālā rakstura izpēti.

Eksperimentālā metode tiek veikta, salīdzinot ar dažādiem modeļiem aprēķināto atlikuma dispersijas Dres vērtību. Ja iegūtā atribūta faktiskās vērtības sakrīt ar teorētiskajām plkst=

, tad Docm=0. Ja ir faktisko datu novirzes no teorētiskajiem ( plkst- ) tad .

Jo mazāka ir atlikušā dispersija, jo labāk regresijas vienādojums atbilst sākotnējiem datiem. Novērojumu skaitam jābūt 6 - 7 reizes lielākam par mainīgā x aprēķināto parametru skaitu.

#2 LINEĀRĀ REGRESIJA UN KORELĀCIJA: PARAMETRU NOZĪME UN NOVĒRTĒJUMS.

Lineārā regresija tiek reducēta līdz formas vienādojuma atrašanai

vai .

Tipa vienādojums

ļauj dotajām faktora x vērtībām būt efektīvās pazīmes teorētiskajām vērtībām, aizstājot tajā faktora x faktiskās vērtības.

Lineārās regresijas konstrukcija tiek reducēta līdz tās parametru a un b novērtēšanai.

Lineārās regresijas parametru aplēses var atrast ar dažādām metodēm.

Parametrs b sauc par regresijas koeficientu. Tās vērtība parāda vidējās rezultāta izmaiņas, mainoties koeficientam par vienu vienību.

Formāli a- nozīme plkst pie x = 0. Ja zīme-faktors
nav un nevar būt nulles vērtība, tad iepriekš
brīva terminu interpretācija, a nav jēgas. parametrs, a var būt
tiem nav ekonomiska satura. Mēģina ekonomiski
interpretēt parametru, a var novest pie absurda, it īpaši, ja a< 0.

Var interpretēt tikai parametra zīmi a. Ja a> 0, tad rezultāta relatīvās izmaiņas ir lēnākas nekā faktora izmaiņas.

Regresijas vienādojums vienmēr tiek papildināts ar savienojuma hermētiskuma indikatoru. Lietojot lineāro regresiju, šāds rādītājs ir lineārās korelācijas koeficients r xy . Lineārās korelācijas koeficienta formulai ir dažādas modifikācijas.

Lineārās korelācijas koeficients ir robežās: -1≤ . rxy≤ 1. Turklāt, jo tuvāk r līdz 0, jo vājāka ir korelācija, un otrādi, jo tuvāk r ir 1 vai -1, jo spēcīgāka ir korelācija, t.i. x un y atkarība ir tuvu lineārai. Ja r precīzi =1 vai -1 visi punkti atrodas uz vienas taisnes. Ja koeficients regresija b>0, tad 0 ≤. rxy≤ 1 un otrādi b<0 -1≤.rxy≤0. Koef. korelācija atspoguļo m / y vērtību lineārās atkarības pakāpi izteiktas cita veida atkarības klātbūtnē.

Lai novērtētu lineārās funkcijas izvēles kvalitāti, tiek aprēķināts lineārās korelācijas koeficienta kvadrāts

, zvanīja noteikšanas koeficients. Determinācijas koeficients raksturo iegūtās pazīmes y dispersijas proporciju, kas izskaidrojama ar regresiju. Atbilstošā vērtība raksturo dispersijas proporciju y, ko izraisa citu modelī neņemtu faktoru ietekme.

Nr.3. MNK.

LSM ļauj iegūt šādus parametru novērtējumus a un b, kas ir iegūtā atribūta faktisko vērtību noviržu kvadrātā summa (y) no aprēķinātā (teorētiskā)

minimums: Citiem vārdiem sakot, no visas līniju kopas regresijas taisne grafikā ir izvēlēta tā, lai vertikālo attālumu kvadrātu summa starp punktiem un šo līniju būtu minimāla. Normālo vienādojumu sistēma ir atrisināta

Nr.4. PARAMETRU NOZĪMĪBAS NOVĒRTĒJUMS LINEĀRĀ REGRESIJA UN KORELĀCIJA .

Regresijas vienādojuma nozīmīguma novērtējums kopumā dots, izmantojot Fišera F-testu. Šajā gadījumā tiek izvirzīta nulles hipotēze, ka regresijas koeficients ir vienāds ar nulli, t.i. b = 0, un līdz ar to koeficients X neietekmē rezultātu y.

Pirms tiešā F kritērija aprēķina tiek veikta dispersijas analīze. Tās centrālais elements ir mainīgā lieluma noviržu kvadrātā kopējās summas paplašināšana plkst no vidējās vērtības plkst divās daļās - "izskaidrotais" un "neizskaidrotais":

- noviržu kvadrātā kopējā summa - ar regresiju izskaidroto noviržu kvadrātu summa - noviržu kvadrātā atlikušā summa.

Jebkura noviržu kvadrātā summa ir saistīta ar brīvības pakāpju skaitu , i., ar pazīmes neatkarīgas variācijas brīvības skaitu. Brīvības pakāpju skaits ir saistīts ar populācijas n vienību skaitu un no tā noteikto konstantu skaitu. Attiecībā uz pētāmo problēmu brīvības pakāpju skaitam vajadzētu parādīt, cik neatkarīgas novirzes no P iespējams, lai izveidotu noteiktu kvadrātu summu.

Izkliede uz vienu brīvības pakāpiD.

F koeficienti (F kritērijs):

Ja nulles hipotēze ir patiesa, tad faktoriālās un atlikušās dispersijas neatšķiras viena no otras. Attiecībā uz H 0 ir nepieciešams atspēkojums, lai faktora dispersija vairākas reizes pārsniegtu atlikumu. Angļu statistiķis Snedekors izstrādāja F koeficientu kritisko vērtību tabulas dažādiem nulles hipotēzes nozīmīguma līmeņiem un dažādam brīvības pakāpju skaitam. F kritērija tabulas vērtība ir dispersiju attiecības maksimālā vērtība, kas var rasties, ja tās nejauši atšķiras noteiktā nulles hipotēzes esamības varbūtības līmenī. Aprēķinātā F koeficienta vērtība tiek atzīta par ticamu, ja o ir lielāka par tabulas vērtību. Šajā gadījumā nulles hipotēze par zīmju attiecības neesamību tiek noraidīta un tiek izdarīts secinājums par šo attiecību nozīmīgumu: F fact > F tabula H 0 tiek noraidīta.