Оценивание регрессии с АЩ1)-ошибкой полным методом максимального правдоподобия
р
У(а2, р) = а1 Wft) =а2
... р
O р
р 1
1 р р O
N-1
N-1"
2 ®
Дисперсии є, и (І связаны между собой соотношением а = 1 р2.
Можно проверить, чтоO
1 -р -р 1+р^
-1
W
(1- р2)
O
1+р2 -р -р 1 J
Применим следующее разложение Холецкого: T T т= W 1(1- р2), где
V!
о
р2 -р
T =
O
-Р 1 j
Определим переменные вспомогательной регрессии следующим образом:
* Т * Т
Y = T TY, X = T TX.
-.—ж- * *
При фиксированном р регрессия Y по X дает оценки максимума правдоподобия для в (это будет оценка МП только в том случае, если X не содержит лагов зависимой переменной !!!). Этот прием называется преобразованием Прэйса-Винстена (Prais-Winsten transformation). Распишем его более подробно:
71* =V1V Y , x*y = V1V ху,
Y- = YІ -рУ-1 , X*y = X -рХі-у V і > 1. Как и следовало ожидать, при і > 1 преобразование совпадает с рассмотренным выше преобразованием при пропущенном первом наблюдении.
В данном случае формула для первого наблюдения отличается от формулы для прочих наблюдений. Поскольку в ней отсутствуют лаги, то ошибка
2
будет равна є, а не ( и дисперсия для первого наблюдения будет равна 1 _ 2
, а не а2. Поэтому первое наблюдение домножается на ~\\J 1-р2 , чтобы избавиться от гетероскедастичности.
Пусть в(р) — оценки коэффициентов из вспомогательной регрессии,
*
e (р) — остатки из вспомогательной регрессии. Мы можем максимизировать по р концентрированную функцию правдоподобия:
1С(р) = - 1 ln| W(р)| - 2 ln((Y- Xв(р)) TW(р)-1(Y -Xem +
* у чТ * у чч
+ const = 2 ln(1—р ) - "2 ln(e (р) e (рр) + const ^ max р. Здесь мы воспользовались тем, что T T т= W-1(1- р2) и ln|W = - ln|W-1| = - N ln(1—р2) - ln|TT т| =
= - N ln(1—р2) - 2 ln|T| = - N ln(1—р2) - 2 ln(V1V ) = = - (N+1) ln(1—р2). Можно показать, что условие первого порядка максимума концентрированной функции правдоподобия представимо в виде кубического уравнения. Максимум находится как средний корень этого уравнения.
Удобно, что при этом оценка р всегда лежит в интервале стационарности (-1;1).
Информационная матрица, как и всегда в модели обобщенного метода наименьших квадратов, является блочно-диагональной. Приводим ее выборочный аналог без доказательства
O
3р 2-1
N
¦ +
С2 (X TX*)-1
1- р2 (1- р2)2 $ (1- р)2
I N«9 Г1 :
O
2R.
2N
, 2
(С (1- рО) СО\'
Иногда первое наблюдение очень важно и добавляет много новой информации.