Нелинейная регрессия с пропущенным первым наблюдением
Yг - Хг в = р^г-1 - Xi-1 в) + (г.
Получим следующую нелинейную регрессионную модель: Y = Хг в + р^г-1 " Хг-1 в) + (г.
Ошибки ( независимые с одинаковой дисперсией и их ковариационная матрица равна с2 I.
Для оценивания нелинейной регрессии можно использовать метод Гаусса-Ньютона.
Поскольку Y0, Х0 и є0 неизвестны, то берут є0 = 0. С помощью вспомогательной регрессии метода Гаусса-Ньютона можно не только оценить модель, но и проверить гипотезу об отсутствии автокорреляции (р = 0).Если неизвестно, есть ли автокорреляция ошибок, лучше сначала получить оценки ОМНК и проверить гипотезу в этой точке (принцип LM-теста).
Такой тест можно реализовать воспользовавшись той же регрессией Гаусса- Ньютона. В точке оценок ОМНК (когда р= 0) матрица производных равна [X, e-1], т.е. к X добавляется столбец лагов остатков (где первое наблюдение равно нулю). Вспомогательная регрессия имеет вид
e = X b + r e-1 +ошибка.
Проверяем гипотезу, что r = 0. Для этого можно использовать обычную t- статистику. Поскольку модель линейна, то это все равно, что тест на добавление переменной e-1 в исходную регрессию, так как можно заменить в левой части e на Y.
Этот тест и этот метод годятся даже тогда, когда в правой части стоят лаги зависимой переменной (DW-статистика в этом случае непригодна). Идею теста предложил Дарбин.
Описанный метод дает оценки МП при предположении, что ошибки распределены нормально, но не является точным методом МП, поскольку не учитывает распределение первого наблюдения.