Содержание
-
МУЛЬТИКОЛЛИНЕАРНОСТЬ ФАКТОРОВ Определение и основные последствия мультиколлинеарности. Методы установления мультиколлинеарности. Метод Феррара-Глаубера. Методы снижения мультиколлинеарности. Лекция доктора физ.-мат. наук, профессора ЩЕТИНИНОЙ Е.К.
-
1. Определение и основные последствия мультиколлинеарности
При моделировании экономического процесса перед исследователем возникают две тенденции. 1) Для всестороннего изучения процесса и уменьшения ошибок моделирования следует учесть в модели все факторы и выбрать наиболее эффективные методы их оценивания, обеспечивающие достоверность исследования. 2) Количество факторов, включенных в модель, должно быть разумным. Уменьшение размерности уравнения регрессии за счет исключения несущественных факторов позволяет получить модель, которая реализуется быстрее и проще.
-
Однако, модели малой размерности неполно описывают явление. Включить в исследование наибольшее количество факторов не позволяют нежелательные особенности информационной базы данных, нарушающие одно из допущений МНК, а именно – линейную независимость факторов. Мультиколлинеарностью называют негативное явление, при котором между объясняющими переменными имеются корреляции, т.е один из факторов может быть представлен как линейная корреляционная комбинация остальных.
-
Различают экстремальную (точную, строгую) мультиколлинеарность, при которой факторы связаны функциональной зависимостью, и неэкстремальную, при которой между факторами имеется стохастическая (корреляционная) линейная зависимость. Нестрогая мультиколлинеарность бывает существенной, которая значительно ухудшает процесс построения модели, и несущественной, которая не оказывает заметного влияния на построение и оценку модели. Несущественной мультиколлинеарностью можно пренебречь. А наличием существенной мультиколлинеарности объясняются негативные последствия влияния этого явления. В дальнейшем под мультиколлинеарностью будем понимать существенную мультиколлинеарность.
-
Основныепоследствиямультиколлинеарности 1.Снижениеточностиоцениванияпараметроврегрессии, проявляющиеся в трех аспектах: увеличениеошибокоцениваниянекоторыхпараметроврегрессии; сильнаякоррелированностьошибокоценивания друг с другом; резкоевозрастаниевыборочныхдисперсий. 2.Незначимостьнекоторыхпараметроврегрессии при общейзначимостимодели. 3.Чрезвычайнаячувствительностипараметроврегрессии к особенностяммножествавыборочныхнаблюдений.
-
2. Методы установления мультиколлинеарности
1. В случаедвухфакторовX1 и X2парныйкоэффициенткорреляцииполносьюхарактеризуетсвязьмежду ними. Если , то междуX1 и X2имеетсясущественнаямультиколлинеарность. Для трех и более факторов близость парного коэффициента корреляции к 1 является достаточным условием наличия мультиколли-неарности. Однако, существенная мультиколли-неарность может иметь место и без близких к 1 коэффициентов парной корреляции. Поэтому в этом случае значение одного отдельного парного коэффициента не является мерой мультиколли-неарности.
-
2.Корреляционной матрицей данных называют симметричную матрицу, составленную из парных коэффициентов корреляции Корреляционная матрица факторов является частью общей корреляционной матрицы
-
Если , то имеется существенная мультиколлинеарность. Если , то мультиколлинеарность находится в допустимых пределах.
-
3. Факторы Xk и Xl считаются коррелированным между собой, если зависимость между ними выше коррелированности каждого с показателем Недостатком этих методов является отсутствие порогового значения, начиная с которого мультиколлинеарность следует считать существенной. На практике считают коррелированными факторы, для которых
-
3. Метод Феррара-Глаубера
Для исследования общей мультиколлинеарности используется критерий . Нулевая гипотезаН0: между объясняющими переменными мультиколлинеарность отсутствует. Альтернативная гипотеза Н1: между объясняющими переменными имеется мультиколлинеарность. В качестве критерия используется величина По таблице находят критическое значение
-
Если , то нулевая гипотеза принимается. Считаем, что мультиколлинеарность между объясняющими переменными находится в допустимых пределах. Если , то гипотеза о наличии мультиколлинеарности не противоречит исходным данным. Следовательно, с надежностью можно считать, что между всеми факторами существует мультиколлинеарность.
-
В случае наличия мультиколлинеарности следует выяснить, какими факторами она порождается. Для этой цели используют величины частных коэффициентов корреляции и t-статистики для каждой пары факторов. Частный коэффициент корреляции между факторами Xk и Xl определяет степень линейной корреляционной зависимости между этими факторами при условии исключения влияния на них остальных факторов элементы обратной матрицы
-
Критерием мультиколлинеарности для каждой пары факторов Xk и Xl служат величины t-статистик: По таблицам Стьюдента находят . Если , то между объясняющими переменными Xk и Xlмультиколлинеарностьнаходится в допустимыхпределах. Если , то между объясняющими переменными Xk и Xl имеется существенная мультиколлинеарность. .
-
4. Методы снижения мультиколлинеарности
1.Изменениеспецификациимодели 1.1.Исключение одного из пары факторов, порождающих мультиколлинеарность: а) исключение фактора, наименее коррелированного сY; б) исключение фактора, который сильнее коррелирует с остальными факторами; в) исключение фактора, для которого величина t-статистик является наибольшей; г) исключение фактора, исходя из качественного экономического анализа системы;
-
1.2.пересмотр факторов, включенных в исследование, выбор новых факторов изменение линейной модели на нелинейную; 1.3.метод пошаговой регрессии, проверяя на каждом шаге значимость параметров регрессии, автоматически исключает из дальнейшего анализа зависимые факторы, устраняя тем самым мультиколлинеарность. Процедура применения пошаговой регрессии начинается с построения простой регрессии, далее в модель последовательно прибавляют по одной переменной. Если оценка коэффициента незначима, то переменная не включается в модель и рассматривается другая объясняющая переменная. Таким образом постепенно определяются все составляющие регрессии.
-
2.Изменение методов оценивания параметров модели, которые несмотря на существенную мультиколлинеарность позволяют избежать ее отрицательных последствий: 2.1. методы с ограничениями на параметры: смешанный оценщик и минимаксный оценщик; 2.2.метод линейного преобразования факторов: переход от коррелированных факторов Xk и Xl к их линейной комбинации, замена Xl на X*l =Xk–Xl , проверка коррелированности Xk и X*l , при ее отсутствии в модель вводят X*l вместо Xl ; 2.3. переход к первым разностям;
-
2.4.метод главных компонент: выделению первой главной компоненты соответствует максимум общей дисперсии всех объясняющих переменных, второй компоненты – максимум дисперсии, оставшейся после исключения влияния первой главной компоненты и т.д.; 2.5.двухшаговый МНК; 2.6.метод инструментальных переменных; 2.7. метод наибольшего правдоподобия.
-
Пример.Исследовать методом Феррара-Глаубера наличие мультиколлинеарности факторов: X1 – количество филиалов; X2 – количество агентов-распространителей (работников), X3 – расходы на благотворительные цели, X4 – процент продукции собственного про-изводства; показатель Y – уровень рентабельности.
-
-
-
Расчет частных коэффициентов корреляции
-
Расчет частных t-статистик
-
МеждуX1и X3имеется мультиколлинеарность
-
МеждуX2и X4имеется мультиколлинеарность Дальнейшее исследование проводится по показателю Y и факторам X1и X2.
-
Докажем снижение мультиколлинеарности до допустимого уровня.
-
БЛАГОДАРЮ ЗА ВНИМАНИЕ ! ! !
Нет комментариев для данной презентации
Помогите другим пользователям — будьте первым, кто поделится своим мнением об этой презентации.