Повна версія

Головна arrow Економіка arrow ЕКОНОМЕТРИКА

  • Увеличить шрифт
  • Уменьшить шрифт


<<   ЗМІСТ   >>

ДОСТУПНИЙ (УЗАГАЛЬНЕНИЙ) МЕТОД НАЙМЕНШИХ КВАДРАТІВ

У § 7.1 розглядалася узагальнена модель множинної регресії

У разі, коли ковариационная матриця ^ g = Q = a 2 Q 0 відома, як показано в § 7.2, найкращою лінійної несмещенной оцінкою вектора р є оцінка узагальненого методу наімсньшіх квадратів (що збігається з оцінкою максимальної правдоподібності)

Ця оцінка виходить з умови мінімізації узагальненого критерію (7.14):

При розгляді нормальної узагальненої моделі регресії, т. Е. У разі нормального закону розподілу збурень, т. Е. Z ~ 7V "(0; a 2 Q 0 ), оцінка Ь * також розподілена нормально:

На практиці матриця збурень Q майже ніколи невідома, і, як вже було зазначено в § 7.2, оцінити її я (/? + 1) / 2 параметрів по п спостереженнями не представляється можливим.

Припустимо, що задана структура матриці Q. (і відповідно Qo), т. Е. Форма її функціональної залежності від відносно невеликого числа параметрів 0j, 02, ..., 0 / я , т. Е. Матриця? E = a 2 Q o (0, 0 2 ... A "). Наприклад, в моделі з автокор-

релірованнимі залишками (структура матриці? з визначається двома параметрами ст 2 і 0j = p, так що матриця має вигляд (див. § 7.10):

де р - невідомий параметр, який необхідно оцінити. Ідея оцінки матриці? р = <т 2 Про 0 полягає в наступному.

Спочатку по вихідним спостереженнями знаходять заможні оцінки параметрів 0 = (0j, 0 ,,) '. Потім отримують оцінку параметра а 2 . Відповідно до (4.21) така оцінка для класичної моделі знаходиться діленням мінімальної залишкової сумою

п

ми квадратів ^ е} = її на число ступенів свободи (п - р- 1).

м

Для узагальненої моделі відповідна оцінка

л

Знаючи s ,, обчислюємо матрицю 2 ^ г . = * ХМВ 0 • Доведено, що при деяких досить загальних умовах використання отриманих оцінок в основних формулах узагальненого методу найменших квадратів замість невідомих істинних значень а 2 і ^ c = crQ 0 дасть також спроможні оцінки параметра р і ковариационной матриці ^ р . Описаний метод оцінювання називається доступним (або практично реалізованим) узагальненим методом найменших квадратів.

Таким чином, оцінкою доступного узагальненого методу найменших квадратів вектора р є

Застосовуючи метод максимальної правдоподібності (див. § 2.7, 3.4) для оцінки нормальної узагальненої лінійної моделі регресії, можна показати, що оцінки максимального правдопо-

А Л _

добія р, 0, сг знаходяться з системи рівнянь правдоподібності:

де e = YX р, с, = v .

dtij

А

Аналізуючи систему (7.50) - (7.52), бачимо, що оцінки р і а 2 методу максимальної правдоподібності збігаються з оцінками b * і si узагальненого методу найменших квадратів (правда, якщо

Р = /> *, то а 2 « si з точністю до асимптотично усувного зміщення).

Для вирішення системи (7.50) - (7.52) іноді вдається знайти точне рішення, однак частіше доводиться вдаватися до ітераційної процедури , наприклад, двокрокового.

1-й крок. Спочатку знаходять опеньку методу максимального

правдоподібності р 0 = (XX) ' XY , обчислюють залишки е, = Y -Xfa

і вирішують отриману систему (7.50) - (7.52) при заданих залишках.

Знаходять wx 1 вектор 0, і матрицю Q 0 (1) = Q o (0 (1) j.

2- й крок. Знаходять опеньку вектора р за формулою (7.49):

Отримані таким чином оцінки р (2) при деяких, вельми

слабких припущеннях (як, наприклад, спроможність оцінок 0) будуть асимптотично (при великому п) еквівалентні оцінками методу максимальної правдоподібності , а значить, будуть асимптотично ефективні в широкому класі випадків. Описана двокрокова итерационная процедура була фактично реалізована в процедурі Кохрейна-Оркатта (§ 7.10).

 
<<   ЗМІСТ   >>