Повна версія

Головна arrow Економіка arrow Економетрика

  • Увеличить шрифт
  • Уменьшить шрифт


<<   ЗМІСТ   >>

ПРОБЛЕМА МУЛЬТИКОЛІНЕАРНОСТІ В ЛІНІЙНИХ РЕГРЕСІЙНИХ МОДЕЛЯХ

Поняття мультиколінеарності та її наслідки на результати ідентифікації регресійних моделей

Ще один момент, тісно пов'язаний з правильністю вибору регресорів, який умовно теж можна віднести до задачі аналізу якості специфікації, це проблема мультиколінеарності в лінійних регресійних моделях. Ця проблема підходить до задачі правильності вибору екзогенних змінних для включення їх в рівняння регресії з позиції коректності застосування процедури методу найменших квадратів для оцінки параметрів лінійного рівняння множинної регресії.

Процедура методу найменших квадратів вимагає неколінеарності матриці коефіцієнтів рівнянь спостережень X. Це означає, що всі стовпці матриці X повинні бути взаємно незалежними. Число незалежних стовпців матриці одно її рангу. Якщо число стовпців в матриці X одно до, то і ранг матриці X теж повинен бути рівним к. Ранг матриці дорівнює розмірності не дорівнює нулю визначника, який можна вирізати з матриці (ХТХ). Математично ця умова можна записати в такий спосіб:

Якщо матриця X неколінеарна, то вона має повний ранг рівний k. У разі, коли в матриці X присутні лінійно залежні стовпці, то її ранг буде менше k , а визначник матриці (ХТХ) буде дорівнює нулю. Це в свою чергу призводить до того, що процедура МНК стає нереалізовуваної, так як в цьому випадку не існує зворотна матриця .

Розглядаються два види мультіколлінеарності: досконала (повна) і часткова мультиколінеарності.

Якщо регресорів в моделі жорстко пов'язані між собою лінійною залежністю, то таку мул'тіколлінеарност' називають досконалої або повної.

На практиці регресорів моделі пов'язані деякою стохастичною залежністю, яка характеризується коефіцієнтом кореляції між ними.

При повній мультіколлінсарності пропадає можливість однозначного визначення оцінок параметрів моделі. У цьому легко переконатися на простому прикладі. Нехай специфікація моделі має вигляд:

(6.18)

Припустимо, що між регресорів і існує жорстка функціональний зв'язок виду

(6.19)

Підставивши (6.19) в (6.18) і провівши приведення подібних, отримаємо:

(6.20)

Після заміни змінних:

вийде рівняння парної регресії з параметрами і , оцінками яких необхідно знайти три невідомих величини. Відомо, що така система алгебраїчних рівнянь єдиного рішення не має.

У разі часткової мультіколлінеарності зв'язок між екзогенними змінними носить стохастичний характер і її слід записати у вигляді економетричної моделі, тобто включити в якості додаткової складової випадкове обурення. Це призведе до того, що , але формально відмінним від нуля. Таку матрицю називають погано обумовленою. Остання обставина забезпечує існування оберненої матриці T Х) 1 і, як наслідок, отримання оцінок параметрів лінійної моделі, їх стандартних помилок, так що отримати прогнозне значення ендогенної змінної буде можливо, але їх значення стають нестійкими. Нестійкість оцінок проявляється в тому, що невеликі зміни в даних вибірки (наприклад, в результаті додавання до вибірки ще одного спостереження або навпаки видалення, будь-якого спостереження) призводять до великих змін в оцінках параметрів.

Часткова коллинеарность призводить до наступних неприємних наслідків:

  • • збільшення дисперсії оцінок параметрів моделі;
  • • отримання нестійких результатів оцінки моделі;
  • • отримання абсурдного з точки зору економічної теорії результату.

Збільшення дисперсій оцінок параметрів моделі в свою чергу призводить до розширення довірчих інтервалів оцінок параметрів. Це неминуче позначається на результатах тестування рівності нулю параметрів при регресорів. У число незначущих можуть бути включені важливі для практики регресорів.

Одним з показників ступеня зв'язку між регресорів служить матриця коефіцієнтів кореляцій. Якщо між деякою парою регресорів спостерігається високий ступінь взаємозалежності г ^, близький до одиниці, це неминуче призведе до небажаних наслідків при оцінці моделі.

 
<<   ЗМІСТ   >>