= (
- H)'X'X( - H) ==
== ((X'X)-1A'(A(X'X)-1A')-1(A
- c))'X'X((X'X)-1A'(A(X'X)-1A')-1(A - c)) == (A
- c)'(A(X'X)-1A')-1A(X'X)-1(X'X)(X'X)-1A'(A(X'X)-1A')-1(A - c) == (A
- c)'(A(X'X)-1A')-1(A - c).(II) Скористаємось лемою.
Нехай Y = Y(n×1) - випадковий вектор, A(n×n) = A - симетрична матриця. Якщо MY = θ, DY = ∑, тоді
M(Y'AY) = tr(A∑) + θ'Aθ.
Раніше, доведено, що
~ Np(β, σ2(Х'Х)-1), A ~ Nq(Aβ, σ2A(Х'Х)-1A').Позначимо Z = А
- c і В = А(Х'Х)-1А'. ТодіM[Z] = M(А
– c) = A - c = = Аβ – c іD[Z] = D(А
– c) = D[A ] = σ2BТоді
M[RSSH - RSS] = M[Z'В-1Z] = tr[σ2В-1В] + (Аβ - с)' В-1(Аβ - с) =
= tr[σ2Iq] + (Aβ – c)'B-1(Aβ – c) =
= σ2q + (Aβ – c)'B-1(Aβ – c). (1.2.2)
(III) Відомо, що
~ Nq(β,σ2А(Х'Х)-1), тодіA
~ Nq(Aβ, σ2A(Х'Х)-1A') іА
- с ~ Nq(Aβ - c, σ2A(Х'Х)-1A'), , тоді .Розглянемо (RSSH – RSS)/σ2
= (А - с)' (D[А ])-1(А - с),Раніше доведено, що RSS/σ2 ~
(теорема 1.1.6 (IV)), тоді статистикапри справедливій гіпотезі Н має вигляд [
/q]/[ /(n - р)]. Отже, якщо гіпотеза Н справедлива, то F ~ Fq,n-p.(IV) Нехай у виразі (1.2.1) c = 0, тоді маємо
= X( H - (Х'Х)-1А'[А(Х'Х)-1А']-1А ) = X -- X(Х'Х)-1А'[А(Х'Х)-1А']-1А
== X(Х'Х)-1 Х'Y - X(Х'Х)-1А'[А(Х'Х)-1А']-1А(Х'Х)-1 Х'Y =
={X(Х'Х)-1X' - X(Х'Х)-1А'[А(Х'Х)-1А']-1А(Х'Х)-1Х'}Y= (Р-Р1)Y, (1.2.3)
Тобто
(1.2.4)де РH - симетрична матриця. Спростивши вираз для матриці Р1, знаходимо, що Р1 симетрична і ідемпотентна і Р1Р = РР1 = Р1. Звідси одержуємо
= Р2 - Р1P – РP1 + = P - 2P1 + P1 = P - P1 = PH (1.2.5)PHP = (P - P1)P = P - P1 = PH (1.2.6)
і РРH = РH (останнє одержуємо транспонуванням).
Y - X
= Y - X(Х'Х)-1 Х'Y = Y(I - X(Х'Х)-1 Х') = (I – P)Y.Тоді
RSS = (Y - X
)'(Y - X ) = ((I – P)Y)'(I – P)Y == Y'(I – P)'(I – P)Y = Y'(In - Р)Y
Aналогічно
RSSH = (Y - X
H)'(Y - X H) = Y'(In – РH)Y. (1.2.7)Таким чином,
RSSH – RSS = Y'(In – РH)Y - Y'(In - Р)Y = Y'(I – РH – I + P)Y = Y'(P – РH)Y.
Отже,
Теорема доведена.
F – критерій для перевірки гіпотези H: Aβ = c.
Гіпотезу H: Aβ = c відхиляють при
і не відхиляють в супротивному разі. Рівень значущості критерію α.
1.3 Лінійна одновимірна регресія
Нехай Yi = β0 + β1xi + εi (i = 1,2, …, n) і ми хочемо перевірити гіпотезу H: β1 = 0. Тоді X = (In, x),
, ,Підставляючи ці вирази у формулу
= (X’X)-1X’Y, після деяких спрощень одержуємо 0 = (1.3.1) = 0 + 1xi = (1.3.2)Нарешті, знаходимо вираз для F- статистики
(1.3.3)Де
Помітимо, що з (1.3.4) випливає, що
Де
є квадратом вибіркового коефіцієнта кореляції між Y і х. Відношення r є мірою ступені лінійності зв'язку меж Y і х, оскільки, згідно з (1.3.5),
RSS =
(1.3.6)Отже, чим більше значення г2, тим менше RSS і, тим краще підібрана пряма відповідає спостереженням.
1.4 Порівняння прямих регресій. Критерій паралельності прямих. Критерій збігу прямих
Нехай необхідно порівняти K ліній регресій
Y = αk + βkxk + ε (k =1, 2, ..., K),
де M[ε] = 0 і дисперсії D[ε] = σ2 однакові для всіх K ліній. Якщо для k-й лінії є nk пар спостережень (xki, Yki ) (i = 1, 2, ..., nk), то модель приймає вигляд
Yki = αk + βkxki + εki (k =1, 2, ..., nk), (1.4.1)
де εki - незалежні випадкові величини з розподілом N(0, σ2).
Введемо позначення Y' = (Y11, Y12, …, Y1n1, …, YKn1, …, YKnk) запишемо модель у вигляді Y = Xγ + ε, де
Тут X -матріца розміру N×2K рангу 2К, а N =
.Використовуючи загальну теорію підрозділу 1.2, можна перевірити будь-яку гіпотезу вигляду Н:Аγ = с. Дві гіпотези такого роду розглядаються нижче.
Критерій паралельності прямих
Розглянемо задачу перевірки паралельності всіх K ліній. Тоді гіпотеза
Н:Аγ = с має вигляд H1: β1 = β2 = . . . = βK = β, або β1- βK = β2 – βK = ... = βK-1 - - βK = 0. У матричній формі H1 приймає вигляд