Содержание
- 
              
            
 МУЛЬТИКОЛЛИНЕАРНОСТЬ ФАКТОРОВ Определение и основные последствия мультиколлинеарности. Методы установления мультиколлинеарности. Метод Феррара-Глаубера. Методы снижения мультиколлинеарности. Лекция доктора физ.-мат. наук, профессора ЩЕТИНИНОЙ Е.К. 
- 
              
            1. Определение и основные последствия мультиколлинеарностиПри моделировании экономического процесса перед исследователем возникают две тенденции. 1) Для всестороннего изучения процесса и уменьшения ошибок моделирования следует учесть в модели все факторы и выбрать наиболее эффективные методы их оценивания, обеспечивающие достоверность исследования. 2) Количество факторов, включенных в модель, должно быть разумным. Уменьшение размерности уравнения регрессии за счет исключения несущественных факторов позволяет получить модель, которая реализуется быстрее и проще. 
- 
              
            
 Однако, модели малой размерности неполно описывают явление. Включить в исследование наибольшее количество факторов не позволяют нежелательные особенности информационной базы данных, нарушающие одно из допущений МНК, а именно – линейную независимость факторов. Мультиколлинеарностью называют негативное явление, при котором между объясняющими переменными имеются корреляции, т.е один из факторов может быть представлен как линейная корреляционная комбинация остальных. 
- 
              
            
 Различают экстремальную (точную, строгую) мультиколлинеарность, при которой факторы связаны функциональной зависимостью, и неэкстремальную, при которой между факторами имеется стохастическая (корреляционная) линейная зависимость. Нестрогая мультиколлинеарность бывает существенной, которая значительно ухудшает процесс построения модели, и несущественной, которая не оказывает заметного влияния на построение и оценку модели. Несущественной мультиколлинеарностью можно пренебречь. А наличием существенной мультиколлинеарности объясняются негативные последствия влияния этого явления. В дальнейшем под мультиколлинеарностью будем понимать существенную мультиколлинеарность. 
- 
              
            
 Основныепоследствиямультиколлинеарности 1.Снижениеточностиоцениванияпараметроврегрессии, проявляющиеся в трех аспектах: увеличениеошибокоцениваниянекоторыхпараметроврегрессии; сильнаякоррелированностьошибокоценивания друг с другом; резкоевозрастаниевыборочныхдисперсий. 2.Незначимостьнекоторыхпараметроврегрессии при общейзначимостимодели. 3.Чрезвычайнаячувствительностипараметроврегрессии к особенностяммножествавыборочныхнаблюдений. 
- 
              
            2. Методы установления мультиколлинеарности1. В случаедвухфакторовX1 и X2парныйкоэффициенткорреляцииполносьюхарактеризуетсвязьмежду ними. Если , то междуX1 и X2имеетсясущественнаямультиколлинеарность. Для трех и более факторов близость парного коэффициента корреляции к 1 является достаточным условием наличия мультиколли-неарности. Однако, существенная мультиколли-неарность может иметь место и без близких к 1 коэффициентов парной корреляции. Поэтому в этом случае значение одного отдельного парного коэффициента не является мерой мультиколли-неарности. 
- 
              
            
 2.Корреляционной матрицей данных называют симметричную матрицу, составленную из парных коэффициентов корреляции Корреляционная матрица факторов является частью общей корреляционной матрицы 
- 
              
            
 Если , то имеется существенная мультиколлинеарность. Если , то мультиколлинеарность находится в допустимых пределах. 
- 
              
            
 3. Факторы Xk и Xl считаются коррелированным между собой, если зависимость между ними выше коррелированности каждого с показателем Недостатком этих методов является отсутствие порогового значения, начиная с которого мультиколлинеарность следует считать существенной. На практике считают коррелированными факторы, для которых 
- 
              
            3. Метод Феррара-ГлаубераДля исследования общей мультиколлинеарности используется критерий . Нулевая гипотезаН0: между объясняющими переменными мультиколлинеарность отсутствует. Альтернативная гипотеза Н1: между объясняющими переменными имеется мультиколлинеарность. В качестве критерия используется величина По таблице находят критическое значение 
- 
              
            
 Если , то нулевая гипотеза принимается. Считаем, что мультиколлинеарность между объясняющими переменными находится в допустимых пределах. Если , то гипотеза о наличии мультиколлинеарности не противоречит исходным данным. Следовательно, с надежностью можно считать, что между всеми факторами существует мультиколлинеарность. 
- 
              
            
 В случае наличия мультиколлинеарности следует выяснить, какими факторами она порождается. Для этой цели используют величины частных коэффициентов корреляции и t-статистики для каждой пары факторов. Частный коэффициент корреляции между факторами Xk и Xl определяет степень линейной корреляционной зависимости между этими факторами при условии исключения влияния на них остальных факторов элементы обратной матрицы 
- 
              
            
 Критерием мультиколлинеарности для каждой пары факторов Xk и Xl служат величины t-статистик: По таблицам Стьюдента находят . Если , то между объясняющими переменными Xk и Xlмультиколлинеарностьнаходится в допустимыхпределах. Если , то между объясняющими переменными Xk и Xl имеется существенная мультиколлинеарность. . 
- 
              
            4. Методы снижения мультиколлинеарности1.Изменениеспецификациимодели 1.1.Исключение одного из пары факторов, порождающих мультиколлинеарность: а) исключение фактора, наименее коррелированного сY; б) исключение фактора, который сильнее коррелирует с остальными факторами; в) исключение фактора, для которого величина t-статистик является наибольшей; г) исключение фактора, исходя из качественного экономического анализа системы; 
- 
              
            
 1.2.пересмотр факторов, включенных в исследование, выбор новых факторов изменение линейной модели на нелинейную; 1.3.метод пошаговой регрессии, проверяя на каждом шаге значимость параметров регрессии, автоматически исключает из дальнейшего анализа зависимые факторы, устраняя тем самым мультиколлинеарность. Процедура применения пошаговой регрессии начинается с построения простой регрессии, далее в модель последовательно прибавляют по одной переменной. Если оценка коэффициента незначима, то переменная не включается в модель и рассматривается другая объясняющая переменная. Таким образом постепенно определяются все составляющие регрессии. 
- 
              
            
 2.Изменение методов оценивания параметров модели, которые несмотря на существенную мультиколлинеарность позволяют избежать ее отрицательных последствий: 2.1. методы с ограничениями на параметры: смешанный оценщик и минимаксный оценщик; 2.2.метод линейного преобразования факторов: переход от коррелированных факторов Xk и Xl к их линейной комбинации, замена Xl на X*l =Xk–Xl , проверка коррелированности Xk и X*l , при ее отсутствии в модель вводят X*l вместо Xl ; 2.3. переход к первым разностям; 
- 
              
            
 2.4.метод главных компонент: выделению первой главной компоненты соответствует максимум общей дисперсии всех объясняющих переменных, второй компоненты – максимум дисперсии, оставшейся после исключения влияния первой главной компоненты и т.д.; 2.5.двухшаговый МНК; 2.6.метод инструментальных переменных; 2.7. метод наибольшего правдоподобия. 
- 
              
            
 Пример.Исследовать методом Феррара-Глаубера наличие мультиколлинеарности факторов: X1 – количество филиалов; X2 – количество агентов-распространителей (работников), X3 – расходы на благотворительные цели, X4 – процент продукции собственного про-изводства; показатель Y – уровень рентабельности. 
- 
              
            
 
- 
              
            
 
- 
              
            
 Расчет частных коэффициентов корреляции 
- 
              
            
 Расчет частных t-статистик 
- 
              
            
 МеждуX1и X3имеется мультиколлинеарность 
- 
              
            
 МеждуX2и X4имеется мультиколлинеарность Дальнейшее исследование проводится по показателю Y и факторам X1и X2. 
- 
              
            
 Докажем снижение мультиколлинеарности до допустимого уровня. 
- 
              
            
 БЛАГОДАРЮ ЗА ВНИМАНИЕ ! ! ! 
 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
                  
                 
               
               
               
               
               
               
               
               
               
               
               
               
               
               
               
               
               
               
               
               
               
               
               
               
               
               
   
   
   
   
   
   
   
   
  
Нет комментариев для данной презентации
Помогите другим пользователям — будьте первым, кто поделится своим мнением об этой презентации.