Презентация на тему "Тема 2. Парная линейная регрессионная модель"

Презентация: Тема 2. Парная линейная регрессионная модель
1 из 66
Ваша оценка презентации
Оцените презентацию по шкале от 1 до 5 баллов
  • 1
  • 2
  • 3
  • 4
  • 5
2.0
1 оценка

Комментарии

Нет комментариев для данной презентации

Помогите другим пользователям — будьте первым, кто поделится своим мнением об этой презентации.


Добавить свой комментарий

Аннотация к презентации

Скачать презентацию (0.55 Мб). Тема: "Тема 2. Парная линейная регрессионная модель". Содержит 66 слайдов. Посмотреть онлайн. Загружена пользователем в 2017 году. Средняя оценка: 2.0 балла из 5. Оценить. Быстрый поиск похожих материалов.

  • Формат
    pptx (powerpoint)
  • Количество слайдов
    66
  • Слова
    другое
  • Конспект
    Отсутствует

Содержание

  • Презентация: Тема 2. Парная линейная регрессионная модель
    Слайд 1

    Тема 2. Парная линейная регрессионная модель

    ПЛРМ

  • Слайд 2

    Две переменные X и Y

    могут быть связаны функциональной зависимостью (т.е. существует функция f что , значения переменной Y полностью определяются значениями переменной X) статистической зависимостью независимы.  

  • Слайд 3

    могут быть связаны функциональной зависимостью (т.е. существует функция f что , значения переменной Y полностью определяются значениями переменной X) статистической зависимостью независимы.  

  • Слайд 4

    могут быть связаны функциональной зависимостью (т.е. существует функция f что , значения переменной Y полностью определяются значениями переменной X) статистической зависимостью независимы.  

  • Слайд 5

    Статистическая зависимость

    Если при изменении X меняется закон распределения случайной величины Y, то говорят, что величины (X,Y) связаны статистической зависимостью.

  • Слайд 6

    Здесь будет красивый рисунок (когда-нибудь)

  • Слайд 7

    Статистическая зависимость называется корреляционной, если при изменении X меняется математическое ожидание случайной величины Y. Если при изменении переменной Xменяется дисперсия переменной Y, такую зависимость называют гетероскедастичностью. Корреляция и гетерокедастичность могут наблюдаться одновременно

  • Слайд 8

    Статистическая зависимость называется корреляционной, если при изменении X меняется математическое ожидание случайной величины Y. Если при изменении переменной Xменяется дисперсия переменной Y, такую зависимость называют гетероскедастичностью. Корреляция и гетерокедастичность могут наблюдаться одновременно

  • Слайд 9

    Статистическая зависимость называется корреляционной, если при изменении X меняется математическое ожидание случайной величины Y. Если при изменении переменной Xменяется дисперсия переменной Y, такую зависимость называют гетероскедастичностью. Корреляция и гетерокедастичность могут наблюдаться одновременно

  • Слайд 10

    Статистическая зависимость называется корреляционной, если при изменении X меняется математическое ожидание случайной величины Y. Если при изменении переменной Xменяется дисперсия переменной Y, такую зависимость называют гетероскедастичностью. Корреляция и гетерокедастичность могут наблюдаться одновременно

  • Слайд 11

    Статистическая зависимость называется корреляционной, если при изменении X меняется математическое ожидание случайной величины Y. Если при изменении переменной Xменяется дисперсия переменной Y, такую зависимость называют гетероскедастичностью. Корреляция и гетерокедастичность могут наблюдаться одновременно

  • Слайд 12

    Статистическая зависимость называется корреляционной, если при изменении X меняется математическое ожидание случайной величины Y. Если при изменении переменной Xменяется дисперсия переменной Y, такую зависимость называют гетероскедастичностью. Корреляция и гетерокедастичность могут наблюдаться одновременно

  • Слайд 13

    Статистическая зависимость называется корреляционной, если при изменении X меняется математическое ожидание случайной величины Y. Если при изменении переменной Xменяется дисперсия переменной Y, такую зависимость называют гетероскедастичностью. Корреляция и гетерокедастичность могут наблюдаться одновременно

  • Слайд 14

    Корреляционная зависимость

    Если каждому значению величины X соответствует свое значение то говорят, что существует регрессионная функция Линию, которую описывает регрессионная функция, называется линия регрессии

  • Слайд 15

    Случайная составляющая

    Отклонение переменной Y от математического ожидания для соответствующего значения переменной X называется ошибкой и обозначается 

  • Слайд 16

    Регрессионное уравнение

    Уравнение называется уравнением регрессии переменной Y на переменную X

  • Слайд 17

    Компоненты Y

  • Слайд 18

    Экономический смысл 

    невключение объясняющих переменных в уравнение. На самом деле на переменную Yвлияет не только переменная X, но и ряд других переменных, которые не учтены в нашей модели по следующим причинам: мы знаем, что другая переменная влияет, но не модем ее учесть, потому как не знаем, как измерить (психологический фактор, например); существуют факторы, которые мы знаем, как измерить, но влияние их на Y так слабо, что их не стоит учитывать; существенные переменные, но из-за отсутствия опыта или знаний мы их таковыми не считаем.

  • Слайд 19

    Экономический смысл  (продолжение)

    Неправильная функциональная спецификация. Функциональное соотношение между Yи Х может быть определено неправильно. Например, мы предположили линейную зависимость, а она может быть более сложной. Ошибки наблюдений (занижение реального уровня доходов). В этом случае наблюдаемые значения не будут соответствовать точному соотношению, и существующее расхождение будет вносить свой вклад в остаточный член.

  • Слайд 20

    Способы определения регрессионной функции f(X)

    параметрический – предполагаем, что вид регрессионной функции известен, неизвестны параметры функции непараметрический – предполагаем, что вид регрессионной функции неизвестен и мы составляем алгоритм расчета значений функции в каждой точке

  • Слайд 21

    Выбор видаf(X)

    экономическая теория опыт, интуиция исследователя эмпирический анализ данных

  • Слайд 22

    Эмпирический анализ данных

    В парном случае материал наблюдений представляет собой набор пар чисел: .

  • Слайд 23

    На плоскости каждому такому наблюдению соответствует точка: Полученный график называют облако наблюдений, поле корреляции или диаграмма рассеяния. По виду облака наблюдений можно определить вид регрессионной функции.

  • Слайд 24

    Линейная Y=+X+.

  • Слайд 25

    Квадратичная

  • Слайд 26

    Показательная

  • Слайд 27

    Степенная

  • Слайд 28

    Гиперболическая

  • Слайд 29

    X и Yнезависимы

  • Слайд 30

    Парная линейная регрессионная модель Y=+X+.

  • Слайд 31

    Выбор коэффициентов регрессионной прямой

    Из всех возможных прямых мы хотим выбрать ту, чтобы она «наилучшим образом» подходила к нашим данным, т. е. отражала бы линейную зависимость Y от X. Иными словами, чтобы каждое Yi лежало бы как можно ближе к прямой. Можно сказать, мы хотим, чтобы желаемая прямая была бы в центре скопления наших данных.

  • Слайд 32

    Из всех возможных прямых мы хотим выбрать ту, чтобы она «наилучшим образом» подходила к нашим данным, т. е. отражала бы линейную зависимость Y от X. Иными словами, чтобы каждое Yi лежало бы как можно ближе к прямой. Можно сказать, мы хотим, чтобы желаемая прямая была бы в центре скопления наших данных.

  • Слайд 33

    Из всех возможных прямых мы хотим выбрать ту, чтобы она «наилучшим образом» подходила к нашим данным, т. е. отражала бы линейную зависимость Y от X. Иными словами, чтобы каждое Yi лежало бы как можно ближе к прямой. Можно сказать, мы хотим, чтобы желаемая прямая была бы в центре скопления наших данных.

  • Слайд 34

    Из всех возможных прямых мы хотим выбрать ту, чтобы она «наилучшим образом» подходила к нашим данным, т. е. отражала бы линейную зависимость Y от X. Иными словами, чтобы каждое Yi лежало бы как можно ближе к прямой. Можно сказать, мы хотим, чтобы желаемая прямая была бы в центре скопления наших данных.

  • Слайд 35

    Из всех возможных прямых мы хотим выбрать ту, чтобы она «наилучшим образом» подходила к нашим данным, т. е. отражала бы линейную зависимость Y от X. Иными словами, чтобы каждое Yi лежало бы как можно ближе к прямой. Можно сказать, мы хотим, чтобы желаемая прямая была бы в центре скопления наших данных.

  • Слайд 36

    Из всех возможных прямых мы хотим выбрать ту, чтобы она «наилучшим образом» подходила к нашим данным, т. е. отражала бы линейную зависимость Y от X. Иными словами, чтобы каждое Yi лежало бы как можно ближе к прямой. Можно сказать, мы хотим, чтобы желаемая прямая была бы в центре скопления наших данных.

  • Слайд 37

    Из всех возможных прямых мы хотим выбрать ту, чтобы она «наилучшим образом» подходила к нашим данным, т. е. отражала бы линейную зависимость Y от X. Иными словами, чтобы каждое Yi лежало бы как можно ближе к прямой. Можно сказать, мы хотим, чтобы желаемая прямая была бы в центре скопления наших данных.

  • Слайд 38

    Из всех возможных прямых мы хотим выбрать ту, чтобы она «наилучшим образом» подходила к нашим данным, т. е. отражала бы линейную зависимость Y от X. Иными словами, чтобы каждое Yi лежало бы как можно ближе к прямой. Можно сказать, мы хотим, чтобы желаемая прямая была бы в центре скопления наших данных.

  • Слайд 39

    Из всех возможных прямых мы хотим выбрать ту, чтобы она «наилучшим образом» подходила к нашим данным, т. е. отражала бы линейную зависимость Y от X. Иными словами, чтобы каждое Yi лежало бы как можно ближе к прямой. Можно сказать, мы хотим, чтобы желаемая прямая была бы в центре скопления наших данных.

  • Слайд 40

    Из всех возможных прямых мы хотим выбрать ту, чтобы она «наилучшим образом» подходила к нашим данным, т. е. отражала бы линейную зависимость Y от X. Иными словами, чтобы каждое Yi лежало бы как можно ближе к прямой. Можно сказать, мы хотим, чтобы желаемая прямая была бы в центре скопления наших данных.

  • Слайд 41

    Из всех возможных прямых мы хотим выбрать ту, чтобы она «наилучшим образом» подходила к нашим данным, т. е. отражала бы линейную зависимость Y от X. Иными словами, чтобы каждое Yi лежало бы как можно ближе к прямой. Можно сказать, мы хотим, чтобы желаемая прямая была бы в центре скопления наших данных.

  • Слайд 42

    Рассмотрение остатков на графике

  • Слайд 43
  • Слайд 44

    Грусть печаль

    Метод наименьших квадратов не всегда состоятельный

  • Слайд 45

    Как найти «наилучшую» прямую аналитически?

    Выберем меру близости одной точки к прямой. Построим интегральную меру близости всех точек к прямой, учитывающую меру близости отдельных точек и выберем ту прямую, для которой эта мера близости минимальна.

  • Слайд 46

    Мера близости одной точки к прямой – остаток.

  • Слайд 47

    Интегральная мера близости

  • Слайд 48

    почему бы не минимизировать просто сумму остатков?

  • Слайд 49

    почему бы не минимизировать просто сумму остатков?

  • Слайд 50

    почему бы не минимизировать просто сумму остатков?

  • Слайд 51

    почему бы не минимизировать просто сумму остатков?

  • Слайд 52

    Метод наименьших квадратов

    Среди всех возможных прямых выбираем ту, для которой сумма квадратов остатков минимальна

  • Слайд 53

    Минимизация

    или

  • Слайд 54

    Система нормальных уравнений

  • Слайд 55

    МНК-коэффициенты ПЛРМ

    - коэффициент наклона - свободный коэффициент

  • Слайд 56

    Другие формы записи коэффициента наклона

  • Слайд 57

    Замечания

    Линия регрессии проходит через точку Мы предполагаем, что среди Xiесть разные, тогда dX 0. В противном случае, оценок по методу наименьших квадратов не существует.

  • Слайд 58

    Теснота линейной корреляционной связи

    В качестве меры близости данных наблюдений к линии регрессии служит выборочный коэффициент парной линейной корреляции (парный линейный коэффициент корреляции):

  • Слайд 59

    Вспомним теоретический коэффициент корреляции

  • Слайд 60

    Связь между коэффициентом корреляции и коэффициентом наклона

    Знак коэффициента наклона линии регрессии и коэффициента корреляции совпадают

  • Слайд 61

    Знак коэффициента наклона линии регрессии и коэффициента корреляции совпадают

  • Слайд 62

    Знак коэффициента наклона линии регрессии и коэффициента корреляции совпадают

  • Слайд 63

    Свойства коэффициента корреляции

    - необходимое и достаточное условием того, что все наблюдаемые значения (Xi,Yi) лежат на прямой регрессии

  • Слайд 64

    Свойства коэффициента корреляции (продолжение)

    переменные не связаны линейной корреляционной связью. Линия регрессии проходит горизонтально. между переменными существует линейная корреляционная связь, которая тем лучше (ближе к линейной функциональной), чем ближе коэффициент корреляции по модулю к 1

  • Слайд 65

    Уравнение одно, коэффициенты корреляции разные

    Y Y X X Y = 3.0 + 0.8X

  • Слайд 66

    Вопросы для самопроверки

    Что такое функциональная зависимость между переменными. Что такое статистическая зависимость. Что такое корреляционная зависимость. Дайте определение независимых переменных. Что такое линия регрессии. Какова основная идея метода наименьших квадратов. Какие меры близости точек к линии регрессии вы знаете. Почему мы называем расчетные коэффициенты линии регрессии «статистическими оценками». Как выбрать функциональную форму линии регрессии. Форы записи МНК коэффициента наклона регрессионной прямой. В чем заключается экономический смысл случайной составляющей регрессионного уравнения. Для чего нужен коэффициент корреляции. Как связан коэффициент корреляции и коэффициент наклона линии регрессии. Перечислите свойства коэффициента корреляции. В каком случае линии регрессии по методу наименьших квадратов не существует.

Посмотреть все слайды

Сообщить об ошибке