Повна версія

Головна arrow Економіка arrow Економетрика

  • Увеличить шрифт
  • Уменьшить шрифт


<<   ЗМІСТ   >>

ПРОБЛЕМА АВТОРЕГРЕСІЇ В СИСТЕМАХ ОДНОЧАСНИХ РІВНЯНЬ

Ця проблема тісно пов'язана з четвертої передумовою теореми Гаусса - Маркова: вимога відсутності зв'язку між регресорів і випадковими збуреннями в рівняннях спостережень.

Якщо ця вимога не виконується, то МНК-оцінки параметрів лінійної моделі втрачають властивість незсуненості (див. Гл. 5).

Така ситуація є типовою для моделей, які в якості регресорів містять або лагові ендогенні змінні, або поточні ендогенні змінні, як у випадку рівнянь моделі в структурній формі.

Нехай специфікація моделі отримала такий вигляд:

(11.20)

Будемо так само припускати, випадкові обурення гомоскедастичність і не автокоррелірованни.

У специфікації (11.20) беруть участь два регресорів: поточна екзогенна змінна і лагів ендогенна змінна . Система рівнянь спостережень для моделі (11.20) матиме вигляд:

(11.21)

У першому рівнянні системи (11.21) лаговой ендогенної змінної присвоюється деяке початкове значення, яке визначається з економічних міркувань. У другому рівнянні як регресорів з'являється лаговой змінна з індексом 1. Змінна , як випливає з першого рівняння, є величиною випадковою і залежить від випадкового обурення . При цьому ( ) може не корелювати з випадковим збуренням у другому рівнянні. Відповідно, значення ендогенної змінної стає функцією від двох випадкових збурень і , яке в свою чергу бере участь в третьому рівнянні як регресорів, і т.д. Якщо в системі твань (11.21) виконується умова

то при необмеженому (досить великому) збільшенні обсягу вибірки можна отримати заможні МНК- оцінки параметрів моделі (11.20).

У разі, коли

отримання заможних оцінок за допомогою МНК неможливо.

Саме ця ситуація виявляється типовою для структурних поведінкових рівнянь моделі.

В якості ілюстрації розглянемо елементарну макроекономічну модель Кейнса. Вона має специфікацію виду

(11.22)

де - обсяг споживання; Y t - внутрішній національний продукт; - обсяг зовнішніх інвестицій.

У поведінковому рівнянні моделі (11.22) в якості регресорів виступає поточна ендогенна змінна , яка пов'язана з поточним випадковим збуренням .

Для того щоб в цьому переконатися перепишемо першого рівняння моделі (11.22) в наведеній формі:

(11.23)

З (11.23) видно, що пов'язано функціонально з випадковим збуренням , при цьому

(11.24)

Звідси видно, що

а, отже, для першого рівняння моделі (11.22) четверта передумова теореми Гаусса - Маркова порушується в кожному рівнянні спостереження і не залежить від обсягу вибірки. Отже, МНК дасть зміщені оцінки параметрів і при його безпосередньому застосуванні.

Для того щоб зрозуміти, в яких випадках за допомогою МНК можна отримати спроможні оцінки параметрів моделі в умовах порушення четвертої передумови теореми Гаусса - Маркова, знайдемо залежність оцінок параметрів від обсягу вибірки. Для цього скористаємося процедурою МНК, сформульованої в теоремі Гаусса - Маркова, помноживши і розділивши її вираження на величину обсягу вибірки п :

(11.25)

В результаті виходить вираз для вектора оцінок параметрів моделі:

(11.26)

Математичне сподівання оцінки вектора параметрів моделі буде збігатися з його істинним значенням, якщо математичне сподівання другого доданка в (11.26) буде нульовим вектором.

Саме це доданок нс дозволяє отримати заможну оцінку вектора параметрів моделі за допомогою МПК.

Однак другий доданок в (11.26) залежить від обсягу вибірки і ця обставина дозволяє сформулювати умови, при яких МНК здатний дати спроможні оцінки параметрів лінійної моделі при наявності кореляції між регресорів і випадковими збуреннями в поточному рівнянні спостереження.

Другий доданок в (11.26) являє собою добуток двох співмножників - матриці і вектора:

(11.27)

Для того щоб твір (11.27) (його математичне очікування) було нульовим вектором, досить, щоб один із співмножників був нульовим. Перший співмножник, зворотна матриця , бути нульовою не може, так як в цьому випадку від неї не можна буде повернутися до вихідної матриці. Отже, необхідно вимагати, щоб другий співмножник був нульовий вектор.

Звідси отримуємо достатні умови спроможності МНК-оцінок параметрів моделі:

1) існує і дорівнює нулю межа по ймовірності

(11.28)

2) існує матриця

(11.29)

3) справедливо рівність

(11.30)

Умова (11.28) висловлює вимога зменшення залежності між вектором регресорів і з вектором випадкових збурень у міру збільшення обсягу вибірки.

Друга умова (11.29) формалізує вимога відсутності мультиколінеарності матриці коефіцієнтів в рівняннях спостережень хоча б при нескінченному обсязі вибірки.

Остання рівність визначає правило обчислення дисперсії випадкового обурення.

Виконання умов (11.28) - (11.30) забезпечує отримання заможних МНК-оцінок параметрів лінійної регресії в умовах порушення четвертої передумови теореми Гаусса - Маркова при виконанні інших умов.

Зауваження. Ефективним методом ідентифікації регресійних моделей в умовах автокореляції між регресорів і випадковими збуреннями є метод максимальної правдоподібності. ММП дає можливість отримати спроможні оцінки без будь-яких додаткових умов.

Разом з тим, привабливість методу найменших квадратів надихнуло фахівців на розробку підходу до оцінки таких моделей на основі МНК. Цей підхід отримав назву методу інструментальних змінних.

 
<<   ЗМІСТ   >>