соv[εi, εj] =
,то D[ε] = σ2In,
D[Y] = D[Y - Xβ] = D[ε], отже D[Y] = σ2In.
Звідси одержуємо
D[
] = D[(Х'Х)-1Х'Y] = сov((Х'Х)-1X'Y, (Х'Х)-1X'Y) == (X'X)-1X'cov(Y,Y)((X'X)-1X')' = (X'X)-1X'DYX(X'X)-1 =
= (X'X)-1X'σ2IX(X'X)-1 = σ2(X'X)-1(X'X) (X'X)-1 = σ2(X'X)-1 (1.1.10)
Виникає таке питання: чому за оцінку вектора β ми вибираємо саме
(оцінку найменших квадратів), а не будь – яку іншу оцінку? Далі покажемо, що в деякому розумному класі оцінок j, є оцінкою параметра βj з найменшою дисперсією. Цю оцінку j можна „виділити" з вектора = ( 0, 1, ..., p-1)' множенням зліва на вектор-рядок c', у якого (j +1)-й елемент рівний одиниці, а всі інші елементи дорівнюють нулю. Таку специфічну властивість оцінки j, можна узагальнити на випадок довільної лінійної комбінації а' . Для цього використовуємо наступну теорему.Теорема 1.1.4.
Нехай
- оцінка найменших квадратів вектора = Хβ. Тоді в класі всіх лінійних незміщених оцінок лінійної комбінації c'θ оцінка c' є єдиною оцінкою, яка має мінімальну дисперсію. (Будемо говорити, що c' є найкращою лінійною незміщеною оцінкою (НЛНО) для c'θ)Доведення.
Оцінку найменших квадратів
вектора = Хβ представимо у вигляді= X
= X(Х'Х)-1X'Y = X(Х'Х)-1X'Y = PY,при цьому
PX = X(Х'Х)-1X'X = X(Х'Х)-1X'X = XI = X .
Перевіримо, що c'
- лінійна незміщена оцінка для c'θ. Дійсно,M[c'
] = Mc'РY = c'P MY = c'Pθ = c'PXβ = c'Xβ = c'θдля всіх θ
Ω = [Х] і c' = c'PY = (P'c)'Y = (Рс)'Y. Розглянемо іншу лінійну незміщену оцінку для c'θ. Тоді M[d'Y] = c'θ з одного боку, а з іншогоM[d'Y] = d'MY = d'θ,
Тоді
c'θ = d'θ
(с' - d')θ = 0 (с- d)'θ = 0, тобто (c - d) Ω = R(X).Оскільки R(X) = R(P) в силу теореми 1.1.2, то
(c – d)
R(P), (c – d)'P = 0 ((c – d)'P)' = 0' P(c – d) = 0Pc = Pd
Порахуємо дисперсію оцінки c'
:Dc'
= D[(Рd)'Y] = D[(Рd)'Y] = Dd'P'Y = cov(d'P'Y, d'P'Y) == d'P'cov(Y, Y)(d'P')' = d'PDYPd = d'Pσ2IPd = σ2d'Р2d = σ2 d'Рd,
Тоді
D[d'Y] - D[c'
] = D[d'Y] - D[(Рd)' Y] == d'DYd - σ2d'Pd = σ2d'd - σ2d'Pd =
= σ2(d'd - d'Рd) = σ2d'(In - Р)d = {In – P = (In – P)2} =
= σ2 d'(In - Р)(In - Р)d = {In – P = (In – P)'} =
= σ2 d'(In - Р)'(In - Р)d = σ2 [(In - Р)d]'[(In - Р)d] ≥ 0
Рівність нулю досягається тоді й тільки тоді, коли
(In - Р)d = 0
d – Pd = 0
d = Рd = Рс
Тоді D(d'Y) ≥ D(c'
), при цьому c'θ = d'θ. Це і означає, що c' має мінімальну дисперсію і є єдиною оцінкою з такою властивістю в класі всіх лінійних незміщених оцінок лінійних комбінацій c'θ.Теорема доведена.
Теорема доведена в припущенні, що матриця X має ранг p, так що Р = X (Х'Х)-1X', і θ =Хβ випливає, що β = (Х'Х)-1Х'θ.
Нехай с' = а'(Х'Х)-1X', тоді звідси оцінка а'β = a'(X’X)-1X'
= с' є НЛНО з мінімальною дисперсією для а'β при кожному а.Зауваження. Якщо похибки εі незалежні й однаково розподілені ε ~
або, в еквівалентній формі, Y ~ , то a' має мінімальну дисперсію серед усіх незміщених оцінок, а не тільки в класі лінійних незміщених оцінок.Зокрема, МНК – оцінка
і, і = 0, …, p – 1 є також оцінкою максимальної правдоподібності, і вона ефективна оцінка для βі.Якщо ж розподіл εi не є нормальним, то МНК – оцінка
і відрізняється від оцінки максимальної правдоподібності. В цьому випадку МНК – оцінка і асимптотично ефективна для βі.Оцінимо параметр σ2 = Dεi, але спочатку сформулюємо низку лем.
Лема 1.1.1. Нехай Y = Y(n×1) – випадковий вектор, А(n×n) = A – симетрична матриця. Якщо MY = θ, DY = ∑, тоді математичне сподівання квадратичної форми Y'AY дорівнює
M(Y'AY) = tr(A∑) + θ'Aθ
.Наслідок
Якщо ∑ = σ2I, то tr(A∑) = σ2trA.
Лема 1.1.2.
Нехай маємо n незалежних випадкових величин Y1, Y2, …, Yn з середніми θ1, θ2, …, θn, однаковими дисперсіями μ2 та однаковими третіми та четвертими центральними моментами μ3 та μ4 відповідно (μr = M(Yi – θi)r). Якщо A = = А(n×n) – симетрична матриця, а a – вектор – стовпець, утворений її діагональними елементами, тоді дисперсія квадратичної форми Y'AY дорівнює
D(Y'AY) = (μ4 – 3(μ2)2)a'a + 2(μ2)2trA2 + 4(μ2)2θ'A2θ + 4μ3θ'Aa
Теорема 1.1.4.
Якщо
М[Y] = Xβ, де Х = X(n×p), rangX = p, D[Y] = σ2 In,
тоді оцінка
є незміщеною оцінкою для σ2.
Доведення.
Похибку ε запишемо у вигляді:
ε = Y -
= Y - Х = { = (X'X)-1X'Y } = Y – X(X'X)-1X'Y == (In – X(X'X)-1X')Y = (In - Р)Y.
Тоді
(n - p)S2 = (Y - X
)'(Y - X ) = ((In – P)Y)'((In – P)Y) = Y'(In – P)'(In – P)Y = {(In – P)' = In – P – симетрична} =Y'(In – P)2Y = Y'(In – P)Y.Виразимо Y'(In – P)Y з рівності:
(Y – Xβ)'(In – P)(Y – Xβ) = Y'(In – P)Y – Y'(In – P)Xβ – (Xβ)'(In – P)Y + (Xβ)'(In – P)Xβ;
Y'(In – P)Y = (Y – Xβ)'(In – P)(Y – Xβ) + Y'(In – P)Xβ + (Xβ)'(In – P)Y - (Xβ)'(In – P)Xβ.
Порахуємо M(n – p)S2
M(n – p)S2 = MY'(In – P)Y = {лема 1.1.1} = M(Y – Xβ)'(In – P)(Y – Xβ) +
+ MY'(In – P)Xβ + M(Xβ)'(In – P)Y – M(Xβ)'(In – P)Xβ =
= M(Y – Xβ)'(In – P)(Y – Xβ) + (Xβ)'(In – P)Xβ + (Xβ)'(In – P)Xβ –
- (Xβ)'(In – P)Xβ = M(Y – MY)'(In – P)(Y – MY) =
=
+ (Xβ)'(In – P)Xβ =