Выбор между альтернативными функциональными формами
(R).
Не следуетзабывать, что этот показатель можно использовать для сравнения только моделей с одной и той же зависимой переменной. Чтобы учитывать при выборе простоту модели, делают поправку на количество регрессоров. Это дает ко-
эффициент детерминации скорректированный на количество степеней свободы (R2).
Оценки метода наименьших квадратов являются одновременно и оценками метода максимального правдоподобия. Поэтому предлагается сравнивать модели на основе максимума логарифмической функции правдоподобия
(1). Если учесть при этом количество наблюдений (N) и ввести "штраф" за большое количество регрессоров (к), то получится информационный критерий Акаике (Akaike information criterion):
AIC = - 2/N (1$ - к).
Чем меньше AIC, тем лучшей считается модель.
Существует и другой подход к выбору между моделями. Одна из моделей предполагается истинной, т. е. принимается за нулевую гипотезу, и тестируется против некоторой альтернативной гипотезы, спецификация которой зависит от альтернативной модели. По сути дела, осуществляется тестирование функциональной формы "нулевой" модели.
Если одна из моделей является частным случаем другой модели (англ. nested), то в качестве "нулевой" берется более узкая модель, а альтернативой служит более широкая. В случае линейной регрессии применяется соответст-
17 2
вующая F-статистика, а в случае нелинейной — одна из х -статистик: статистика Вальда, множителя Лагранжа или отношения правдоподобия. Если же модели не входят одна в другую (nonnested), то любая из них принимается за нулевую и дополняется за счет информации, содержащейся в другой модели, так, чтобы "нулевая" модель была частным случаем этой расширенной.
Здесь уже можно применить один из вышеупомянутых тестов. Если нулевая гипотеза отвергается, то это означает, что альтернативная модель содержит какую-то информацию, не содержащуюся в "нулевой" модели.Тестов такого рода предложено очень много. Опишем только концептуально наиболее простые.
Сначала рассмотрим случай, когда обе сравниваемые модели линейны и зависимая переменная одна и та же. J-тест заключается в том, что в "нулевую" модель добавляется в качестве еще одного регрессора расчетные значения из альтернативной модели. Проверяется гипотеза о равенстве коэффициента при дополнительном регрессоре нулю с помощью соответствующей t- статистики.
Похожий тест состоит в том, что в "нулевую" модель добавляют из альтернативной модели все те регрессоры, которые не содержатся в нулевой и проверяют гипотезу о равенстве коэффициентов при дополнительных регрес- сорах нулю с помощью соответствующей F-статистики. В этом тесте обе сравниваемые модели содержатся в расширенной модели.
Один из тестов для сравнения моделей с разными зависимыми переменными — РЕ-тест. Пусть две сравниваемые модели заданы следующими уравнениями:
Y і = fi (Y) = Xi Pi + єі , Y2 = f2 (Y) = X2 в2 + Є2 .
Например, f (Y) = Y, f (Y) = ln Y или f (Y) = Y/W ("взвешенная" зависимая переменная). В "нулевую" модель в РЕ-тесте добавляется регрессор, равный разности расчетных значений из альтернативной модели и приведенных к тому же виду расчетных значений из "нулевой" модели. Так, в первую модель нужно добавить
Х2 P2 -f2 (fi _1(Хі в)) = Y2 -f2 (fi _1(Yl)).
Пусть, к примеру, fi (Y) = Y, а f2 (Y) = ln (Y). Тогда в первую модель до-бавляют Y2 - ln (YV), а во вторую — YV - exp (Y2).
Если отвергаются обе модели, то это должно означать, что каждая из них содержит информацию, не содержащуюся в другой, и следует попытаться как-то соединить две модели в одну. Если обе модели не отвергаются, то это означает, что с точки зрения данного теста они эквивалентны.