Презентация на тему "1. Определение и основные последствия мультиколлинеарности"

Презентация: 1. Определение и основные последствия мультиколлинеарности
Включить эффекты
1 из 26
Ваша оценка презентации
Оцените презентацию по шкале от 1 до 5 баллов
  • 1
  • 2
  • 3
  • 4
  • 5
0.0
0 оценок

Комментарии

Нет комментариев для данной презентации

Помогите другим пользователям — будьте первым, кто поделится своим мнением об этой презентации.


Добавить свой комментарий

Аннотация к презентации

Скачать презентацию (0.22 Мб). Тема: "1. Определение и основные последствия мультиколлинеарности". Содержит 26 слайдов. Посмотреть онлайн с анимацией. Загружена пользователем в 2021 году. Оценить. Быстрый поиск похожих материалов.

  • Формат
    pptx (powerpoint)
  • Количество слайдов
    26
  • Слова
    другое
  • Конспект
    Отсутствует

Содержание

  • Презентация: 1. Определение и основные последствия мультиколлинеарности
    Слайд 1

    МУЛЬТИКОЛЛИНЕАРНОСТЬ ФАКТОРОВ Определение и основные последствия мультиколлинеарности. Методы установления мультиколлинеарности. Метод Феррара-Глаубера. Методы снижения мультиколлинеарности. Лекция доктора физ.-мат. наук, профессора ЩЕТИНИНОЙ Е.К.

  • Слайд 2

    1. Определение и основные последствия мультиколлинеарности

    При моделировании экономического процесса перед исследователем возникают две тенденции. 1) Для всестороннего изучения процесса и уменьшения ошибок моделирования следует учесть в модели все факторы и выбрать наиболее эффективные методы их оценивания, обеспечивающие достоверность исследования. 2) Количество факторов, включенных в модель, должно быть разумным. Уменьшение размерности уравнения регрессии за счет исключения несущественных факторов позволяет получить модель, которая реализуется быстрее и проще.

  • Слайд 3

    Однако, модели малой размерности неполно описывают явление. Включить в исследование наибольшее количество факторов не позволяют нежелательные особенности информационной базы данных, нарушающие одно из допущений МНК, а именно – линейную независимость факторов. Мультиколлинеарностью называют негативное явление, при котором между объясняющими переменными имеются корреляции, т.е один из факторов может быть представлен как линейная корреляционная комбинация остальных.

  • Слайд 4

    Различают экстремальную (точную, строгую) мультиколлинеарность, при которой факторы связаны функциональной зависимостью, и неэкстремальную, при которой между факторами имеется стохастическая (корреляционная) линейная зависимость. Нестрогая мультиколлинеарность бывает существенной, которая значительно ухудшает процесс построения модели, и несущественной, которая не оказывает заметного влияния на построение и оценку модели. Несущественной мультиколлинеарностью можно пренебречь. А наличием существенной мультиколлинеарности объясняются негативные последствия влияния этого явления. В дальнейшем под мультиколлинеарностью будем понимать существенную мультиколлинеарность.

  • Слайд 5

    Основныепоследствиямультиколлинеарности 1.Снижениеточностиоцениванияпараметроврегрессии, проявляющиеся в трех аспектах: увеличениеошибокоцениваниянекоторыхпараметроврегрессии; сильнаякоррелированностьошибокоценивания друг с другом; резкоевозрастаниевыборочныхдисперсий. 2.Незначимостьнекоторыхпараметроврегрессии при общейзначимостимодели. 3.Чрезвычайнаячувствительностипараметроврегрессии к особенностяммножествавыборочныхнаблюдений.

  • Слайд 6

    2. Методы установления мультиколлинеарности

    1. В случаедвухфакторовX1 и X2парныйкоэффициенткорреляцииполносьюхарактеризуетсвязьмежду ними. Если , то междуX1 и X2имеетсясущественнаямультиколлинеарность. Для трех и более факторов близость парного коэффициента корреляции к 1 является достаточным условием наличия мультиколли-неарности. Однако, существенная мультиколли-неарность может иметь место и без близких к 1 коэффициентов парной корреляции. Поэтому в этом случае значение одного отдельного парного коэффициента не является мерой мультиколли-неарности.

  • Слайд 7

    2.Корреляционной матрицей данных называют симметричную матрицу, составленную из парных коэффициентов корреляции   Корреляционная матрица факторов является частью общей корреляционной матрицы

  • Слайд 8

    Если , то имеется существенная мультиколлинеарность. Если , то мультиколлинеарность находится в допустимых пределах.

  • Слайд 9

    3. Факторы Xk и Xl считаются коррелированным между собой, если зависимость между ними выше коррелированности каждого с показателем Недостатком этих методов является отсутствие порогового значения, начиная с которого мультиколлинеарность следует считать существенной. На практике считают коррелированными факторы, для которых

  • Слайд 10

    3. Метод Феррара-Глаубера

    Для исследования общей мультиколлинеарности используется критерий . Нулевая гипотезаН0: между объясняющими переменными мультиколлинеарность отсутствует. Альтернативная гипотеза Н1: между объясняющими переменными имеется мультиколлинеарность. В качестве критерия используется величина По таблице находят критическое значение

  • Слайд 11

    Если , то нулевая гипотеза принимается. Считаем, что мультиколлинеарность между объясняющими переменными находится в допустимых пределах. Если , то гипотеза о наличии мультиколлинеарности не противоречит исходным данным. Следовательно, с надежностью можно считать, что между всеми факторами существует мультиколлинеарность.

  • Слайд 12

    В случае наличия мультиколлинеарности следует выяснить, какими факторами она порождается. Для этой цели используют величины частных коэффициентов корреляции и t-статистики для каждой пары факторов. Частный коэффициент корреляции между факторами Xk и Xl определяет степень линейной корреляционной зависимости между этими факторами при условии исключения влияния на них остальных факторов элементы обратной матрицы

  • Слайд 13

    Критерием мультиколлинеарности для каждой пары факторов Xk и Xl служат величины t-статистик: По таблицам Стьюдента находят . Если , то между объясняющими переменными Xk и Xlмультиколлинеарностьнаходится в допустимыхпределах. Если , то между объясняющими переменными Xk и Xl имеется существенная мультиколлинеарность. .

  • Слайд 14

    4. Методы снижения мультиколлинеарности

    1.Изменениеспецификациимодели 1.1.Исключение одного из пары факторов, порождающих мультиколлинеарность: а) исключение фактора, наименее коррелированного сY; б) исключение фактора, который сильнее коррелирует с остальными факторами; в) исключение фактора, для которого величина t-статистик является наибольшей; г) исключение фактора, исходя из качественного экономического анализа системы;

  • Слайд 15

    1.2.пересмотр факторов, включенных в исследование, выбор новых факторов изменение линейной модели на нелинейную; 1.3.метод пошаговой регрессии, проверяя на каждом шаге значимость параметров регрессии, автоматически исключает из дальнейшего анализа зависимые факторы, устраняя тем самым мультиколлинеарность. Процедура применения пошаговой регрессии начинается с построения простой регрессии, далее в модель последовательно прибавляют по одной переменной. Если оценка коэффициента незначима, то переменная не включается в модель и рассматривается другая объясняющая переменная. Таким образом постепенно определяются все составляющие регрессии.

  • Слайд 16

    2.Изменение методов оценивания параметров модели, которые несмотря на существенную мультиколлинеарность позволяют избежать ее отрицательных последствий: 2.1. методы с ограничениями на параметры: смешанный оценщик и минимаксный оценщик; 2.2.метод линейного преобразования факторов: переход от коррелированных факторов Xk и Xl к их линейной комбинации, замена Xl на X*l =Xk–Xl , проверка коррелированности Xk и X*l , при ее отсутствии в модель вводят X*l вместо Xl ; 2.3. переход к первым разностям;

  • Слайд 17

    2.4.метод главных компонент: выделению первой главной компоненты соответствует максимум общей дисперсии всех объясняющих переменных, второй компоненты – максимум дисперсии, оставшейся после исключения влияния первой главной компоненты и т.д.; 2.5.двухшаговый МНК; 2.6.метод инструментальных переменных; 2.7. метод наибольшего правдоподобия.

  • Слайд 18

    Пример.Исследовать методом Феррара-Глаубера наличие мультиколлинеарности факторов: X1 – количество филиалов; X2 – количество агентов-распространителей (работников), X3 – расходы на благотворительные цели, X4 – процент продукции собственного про-изводства; показатель Y – уровень рентабельности.

  • Слайд 19
  • Слайд 20
  • Слайд 21

    Расчет частных коэффициентов корреляции

  • Слайд 22

    Расчет частных t-статистик

  • Слайд 23

    МеждуX1и X3имеется мультиколлинеарность

  • Слайд 24

    МеждуX2и X4имеется мультиколлинеарность Дальнейшее исследование проводится по показателю Y и факторам X1и X2.

  • Слайд 25

    Докажем снижение мультиколлинеарности до допустимого уровня.

  • Слайд 26

    БЛАГОДАРЮ ЗА ВНИМАНИЕ ! ! !

Посмотреть все слайды

Сообщить об ошибке