Повна версія

Головна arrow Економіка arrow ЕКОНОМЕТРИКА

  • Увеличить шрифт
  • Уменьшить шрифт


<<   ЗМІСТ   >>

ДОКАЗ ТЕОРЕМИ ГАУССА-МАРКОВА. ОЦІНКА ДИСПЕРСІЇ ЗБУРЕНЬ

Тепер ми маємо можливість привести доказ теореми Гаусса-Маркова, сформульованої в § 4.2.

Вище (§ 4.2) ми вже показали, що оцінка методу найменших квадратів b = (X 'Х) ~ х Х'У є несмещенная оцінка для вектора параметрів р, т. Е. М (Ь) = р. Будь-яку іншу оцінку Ь вектора р без обмеження спільності можна представити у вигляді

де С - деяка матриця розміру (p + l) x / j.

Так що розглядаються в теоремі оцінки відносяться до класу незміщене оцінок, то і М (Ь) = р або М (Ь) = = MW'Xy'X '+ Cl Y = р.

З огляду на, що матриця в квадратних дужках - невипадкова, а в силу передумови 2 регресійного аналізу Л / (е) = 0, отримаємо

звідки випливає, що СХ- 0.

далі

так як СХ = 0, (XX) - 'ХХ $ = Е $ = $.

Тепер за допомогою перетворень, аналогічних проведеним при отриманні формул (4.15), (4.16), знайдемо, що ковариационная матриця вектора оцінок Ь, т. Е.

або, враховуючи (4.16),

Діагональні елементи матриці СС ' невід'ємні [1] , бо вони дорівнюють сумам квадратів елементів відповідних рядків цієї матриці. А так як діагональні елементи матриць Y і

Y є дисперсії компонент векторів оцінок Ьц і b h то дис-

ь

Персія а? > а ^ (/ = 1,2, ..., /> + 1). Це означає, що оцінки коефіцієнтів регресії , знайдених методом найменших квадратів, мають найменшої дисперсією , що й треба було довести.

Отже, ми довели, що оцеки b методу найменших квадратів є «найкращою» лінійної оцінкою параметра р. Перейдемо тепер до оцінки ще одного параметра - дисперсії збурень а 2 .

Розглянемо вектор залишків е , рівний відповідно до (4.2 ') е = Y- хь.

В силу (4.2) і (4.8)

або

(врахували, що твір (X'Х) ~ х (Х'Х) = Е, тобто. е. одно одиничної матриці Е р + (р + 1) -го порядку).

Знайдемо транспонований вектор залишків е ' . Так як при транспонировании матриця (Х'Х) ~ ] не змінюється, т. Е.

то

тепер

Так як останні два доданків взаємно знищуються, то

Перший доданок вираження (4.17) бо в силу передумов 2,3 регресійного аналізу

Матриця В = X (X'X) ~ l X ' симетрична (§ 13.8), так як

/ г

Тому 8 'Be являє квадратическую форму, е у -;

* V = i

її математичне очікування

Останню суму можна розбити на дві складові суми елементів на головній діагоналі матриці В і поза нею:

Другий доданок дорівнює нулю в силу передумови 4 регресійного аналізу, тобто m (s, s.) = 0. Сума діагональних елементів матриці В утворює слід матриці tr (?) (§ 13.8). отримаємо

Замінивши матрицю В її виразом, отримаємо

так як слід матриці не змінюється при її транспонировании (див. § 13.14), т. е. tr (y4C) = tr (C4), а слід одиничної матриці (тобто сума її діагональних елементів) дорівнює порядку цієї матриці. Тепер за формулою (4.17), з огляду на (4.18) і (4.19), отримаємо:

т. е.

Рівність (4.20) означає, що несмещенная оцінка s 2 параметра а 2 або вибіркова залишкова дисперсія s 2 визначається за формулою:

Отримана формула легко з'ясовна. У знаменнику вираження (4.21) варто п - (р +), а не п- 2, як це було вище в (3.26). Це пов'язано з тим, що тепер (р + 1) ступенів свободи (а не дві) губляться при визначенні невідомих параметрів, число яких разом з вільним членом одно (/? + 1).

Можна показати, що розглянуті в цьому параграфі оцінки b і s 1 параметрів р і а 2 при виконанні передумови 5 регресійного аналізу про нормальний розподіл вектора збурень е (е ~ N n (0; а 2 ? ")) Є незалежними. Для цього в даному випадку достатньо переконатися в некоррелированности оцінок b і s 2 .

  • [1] Матриця СС 'гак само, як і коваріаційні матриці Y ^ і Y »явяяетсянеотріцательно певної (див. §13.8). У цьому сенсі можна записати, чтоматріца V> У. , Т.с. вектор оцінок b = (Л "Х) ~] Х 'У, отриманий методом Ь 1 ~' п найменших квадратів, має менший розсіюванням щодо параметра р в порівнянні з будь-яким іншим вектором незміщене оцінок.
 
<<   ЗМІСТ   >>