Daudzkārtēja lineārā regresija attiecas uz statistikas metodi, kuru izmanto, lai prognozētu mainīgā rezultātu, pamatojoties uz divu vai vairāku mainīgo lielumu vērtību. Dažreiz to sauc vienkārši par daudzkārtēju regresiju, un tas ir lineārās regresijas paplašinājums. Mainīgais, kuru mēs vēlamies paredzēt, ir pazīstams kā atkarīgais mainīgais, savukārt mainīgie, kurus mēs izmantojam, lai prognozētu atkarīgā mainīgā lielumu Atkarīgais mainīgais Atkarīgais mainīgais ir tāds, kas mainīsies atkarībā no cita mainīgā, sauktā par neatkarīgo, vērtības. ir pazīstami kā neatkarīgi vai paskaidrojoši mainīgie.
1. attēls. Vairāku lineārās regresijas modeļa prognozes atsevišķiem novērojumiem (Avots)
Kopsavilkums
- Daudzkārtēja lineārā regresija attiecas uz statistikas paņēmienu, kurā tiek izmantoti divi vai vairāki neatkarīgi mainīgie, lai prognozētu atkarīgā mainīgā rezultātu.
- Šī metode ļauj analītiķiem noteikt modeļa variācijas un katra neatkarīgā mainīgā relatīvo ieguldījumu kopējā dispersijā.
- Daudzkārtējai regresijai var būt divas formas, t.i., lineārā regresija un nelineārā regresija.
Vairāku lineāru regresijas formula
Kur:
- yi ir atkarīgais vai paredzamais mainīgais
- β0 ir y pārtveršana, t.i., y vērtība, kad gan xi, gan x2 ir 0.
- β1 un β2 ir regresijas koeficienti, kas atspoguļo y izmaiņas salīdzinājumā ar vienas vienības izmaiņām xi1 un xi2, attiecīgi.
- βp ir slīpuma koeficients katram neatkarīgajam mainīgajam
- ϵ ir modeļa izlases kļūdas (atlikuma) termins.
Izpratne par vairāku lineāru regresiju
Vienkārša lineārā regresija ļauj statistiķiem paredzēt viena mainīgā vērtību, izmantojot pieejamo informāciju par citu mainīgo. Lineārā regresija mēģina noteikt saikni starp diviem mainīgajiem pa taisnu līniju.
Vairākas regresijas ir regresijas veids, kad atkarīgais mainīgais parāda a lineārs attiecības ar diviem vai vairākiem neatkarīgiem mainīgajiem. Var arī būt nelineārs, kur atkarīgie un neatkarīgie mainīgie Neatkarīgais mainīgais Neatkarīgais mainīgais ir ievads, pieņēmums vai virzītājspēks, kas tiek mainīts, lai novērtētu tā ietekmi uz atkarīgo mainīgo (rezultātu). neievēro taisnu līniju.
Gan lineārā, gan nelineārā regresija izseko noteiktu reakciju, grafiski izmantojot divus vai vairākus mainīgos. Tomēr nelineāro regresiju parasti ir grūti izpildīt, jo tā tiek veidota no pieņēmumiem, kas iegūti izmēģinājumu un kļūdu rezultātā.
Vairāku lineāru regresiju pieņēmumi
Daudzkārtēja lineārā regresija balstās uz šādiem pieņēmumiem:
1. Lineāra sakarība starp atkarīgajiem un neatkarīgajiem mainīgajiem
Pirmais pieņēmums par vairāku lineāru regresiju ir tāds, ka starp atkarīgo mainīgo un katru neatkarīgo mainīgo pastāv lineāra sakarība. Labākais veids, kā pārbaudīt lineārās attiecības, ir izveidot izkliedes diagrammas un pēc tam vizuāli pārbaudīt izkliedes diagrammas attiecībā uz linearitāti. Ja izkliedes diagrammā attēlotā attiecība nav lineāra, analītiķim būs jāveic nelineāra regresija vai dati jāpārveido, izmantojot statistikas programmatūru, piemēram, SPSS.
2. Neatkarīgie mainīgie nav savstarpēji cieši saistīti
Dati nedrīkst parādīt daudzkolinearitāti, kas rodas, ja neatkarīgi mainīgie (skaidrojošie mainīgie) ir savstarpēji cieši saistīti. Kad neatkarīgi mainīgie parāda daudzkolinearitāti, būs problēmas noskaidrot konkrēto mainīgo, kas veicina atkarīgā mainīgā variāciju. Labākā metode pieņēmuma pārbaudei ir dispersijas inflācijas koeficienta metode.
3. Atlikumu dispersija ir nemainīga
Daudzkārtējā lineārā regresija pieņem, ka atlikumu kļūdu daudzums katrā lineārā modeļa punktā ir līdzīgs. Šis scenārijs ir pazīstams kā homoscedasticity. Analizējot datus, analītiķim jāatzīmē standartizētie atlikumi salīdzinājumā ar prognozētajām vērtībām, lai noteiktu, vai punkti ir sadalīti taisnīgi visās neatkarīgo mainīgo vērtībās. Lai pārbaudītu pieņēmumu, datus var uzzīmēt uz izkliedes diagrammas vai, izmantojot statistikas programmatūru, lai izveidotu izkliedes diagrammu, kas ietver visu modeli.
4. Novērošanas neatkarība
Modelis pieņem, ka novērojumiem jābūt neatkarīgiem viens no otra. Vienkārši sakot, modelis pieņem, ka atlieku vērtības ir neatkarīgas. Lai pārbaudītu šo pieņēmumu, mēs izmantojam Durbin Watson statistiku.
Tests parādīs vērtības no 0 līdz 4, kur vērtība no 0 līdz 2 parāda pozitīvu autokorelāciju, bet vērtības no 2 līdz 4 - negatīvu autokorelāciju. Viduspunkts, t.i., vērtība 2 parāda, ka autokorelācijas nav.
5. Daudzveidīgā normālība
Daudzfaktoru normālums rodas, ja atliekas parasti tiek sadalītas. Lai pārbaudītu šo pieņēmumu, apskatiet, kā tiek sadalītas atlikumu vērtības. To var pārbaudīt arī, izmantojot divas galvenās metodes, t.i., histogrammu ar uzliktu normālu līkni vai metodi Normālās varbūtības diagramma.
Vairāk resursu
Finanses piedāvā sertificētu banku un kredītu analītiķu (CBCA) ™ CBCA ™ sertifikātu sertificēto banku un kredītu analītiķu (CBCA) ™ akreditācija ir globāls kredītiķu analītiķu standarts, kas aptver finanses, grāmatvedību, kredītu analīzi, naudas plūsmas analīzi, paktu modelēšanu, aizdevumu atmaksas un vairāk. sertifikācijas programma tiem, kas vēlas karjeru pārcelt uz nākamo līmeni. Lai turpinātu mācīties un attīstīt savu zināšanu bāzi, lūdzu, izpētiet tālāk norādītos papildu finanšu resursus:
- Prognozēšanas metodes Prognozēšanas metodes Top Prognozēšanas metodes. Šajā rakstā mēs izskaidrosim četru veidu ieņēmumu prognozēšanas metodes, kuras finanšu analītiķi izmanto, lai prognozētu nākotnes ieņēmumus.
- Puasona sadalījums Puasona sadalījums Puasona sadalījums ir līdzeklis, ko izmanto varbūtību teorijas statistikā, lai prognozētu variāciju apjomu no zināma vidējā sastopamības ātruma
- Nejaušais mainīgais Nejaušais mainīgais Gadījuma mainīgais (stohastiskais mainīgais) ir statistikas mainīgā veids, kura iespējamās vērtības ir atkarīgas no noteiktas nejaušas parādības iznākuma.
- Regresijas analīze Regresijas analīze Regresijas analīze ir statistikas metožu kopums, ko izmanto, lai novērtētu attiecības starp atkarīgo mainīgo un vienu vai vairākiem neatkarīgiem mainīgajiem. To var izmantot, lai novērtētu mainīgo lielumu attiecības un modelētu turpmākās attiecības starp tiem.