Содержание
-
Взаимосвязи между социально-экономическими явлениями:корреляционный и регрессионный анализ
Тема 12
-
Вопросы
Причинность, регрессия, корреляция Задачи и предпосылки применения корреляционно-регрессионного анализа Парная регрессия на основе метода наименьших квадратов и метода группировок Множественная (многофакторная) регрессия Оценка значимости параметров взаимосвязи
-
Причинно-следственные отношения
- Это связь явлений и процессов, при которой изменение одного из них - причины - ведет к изменению другого - следствия. Причина - это совокупность условий, обстоятельств, действие которых приводит к появлению следствия
-
Признаки, обуславливающие изменения других, связанных с ними признаков, называются факторными, или факторами. Признаки, изменяющиеся под действием факторных признаков, являются результативными. Связи между явлениями и их признаками классифицируются по степени тесноты, направлению и аналитическому выражению.
-
Если причинная зависимость проявляется в общем, среднем при большом числе наблюдений, то зависимость называется стохастической. Частный случай стохастической зависимости - корреляционнаясвязь
-
Формы проявления взаимосвязей
-
Корреляционная связь
-существует когда изменение среднего значения результативного признака обусловлено изменением факторных признаков.
-
При корреляционной связи:
Связь между признаками проявляется лишь в среднем, в массе случаев. Каждому значению аргумента соответствуют случайно распределенные в некотором интервале значения функции.
-
Корреляционно-регрессионный анализ
Включает в себя: 1. измерение тесноты и направления связи корреляционный анализ 2. установление аналитической формы связи (формы зависимости признаков) регрессионный анализ
-
Виды корреляционной связи
-
Корреляционный метод
количественное определение тесноты связи между двумя признаками (при парной связи) и между результативным и множеством факторных признаков (при многофакторной связи). Корреляция - это статистическая зависимость между случайными величинами, при которой изменение одной из случайных величин приводит к изменению математического ожидания другой.
-
Регрессионный метод
аналитическое определение связи, в котором изменение одной величины (результативного признака) обусловлено влиянием одной или нескольких независимых величин (факторов), при этом множество прочих факторов, также влияющих на зависимую величину, принимается за постоянные и средние значения.
-
Регрессия
-
Парная корреляция и парная регрессия
характеризует связь между двумя признаками – результативным (Y) и факторным (X)
-
Простейший прием выявления связи между двумя признаками: корреляционная таблица
- f – частота соответствующих сочетаний X и Y - для каждого Хiрассчитывается среднее значение У
-
Множество точек {Xi, Yi} на плоскости XY - это корреляционное поле
-
Корреляционное поле – аналитическая взаимосвязь
-
Аналитическая связь (форма) между двумя признаками - описывается уравнениями:
-
Коэффициент корреляции
Количественная оценка тесноты связи Характеризует тесноту и направление связи между двумя признаками в случае наличия между ними линейной зависимости
-
Коэффициент корреляции принимает значения от -1 до +1
r > 0 – связь прямая r 0,70 - связь сильная, или тесная |r|= 1 - связь функциональная, т.е. каждому значению факторного признака строго соответствует одно значение результативного признака r близко к 0 - отсутствует линейная связь между У и X (возможно нелинейное взаимодействие)
-
Метод наименьших квадратов
Сущность метода: нахождение параметров модели (а0, а1), при которых минимизируется сумма квадратов отклонений фактических значений результативного признака от теоретических
-
Сущность метода: нахождение параметров модели (a, b), при которых минимизируется сумма квадратов отклонений фактических значений результативного признака от теоретических
-
Множественная (многофакторная) регрессия
Изучение связи между тремя и более связанными между собой признаками. Аналитическое определение связи между результативным признаком и множеством факторных признаков, т.е нахождение функции:
-
Методперебора различных уравнений
Сущность заключается в том, что большое число уравнений (моделей) регрессии, отобранных для описания связей какого-либо социально-экономического явления или процесса, реализуется на ЭВМ с помощью специально разработанного алгоритма перебора с последующей статистической проверкой, главным образом, на основе t - критерия Стьюдента и F-критерия Фишера-Снедекора.
-
Оценка значимости и правильности параметров взаимосвязи
Получив значения корреляции и уравнение регрессии - необходимо проверить их на соответствие истинным параметрам взаимосвязи: При этом: 1) значимость коэффициента корреляции проверяется на основе t– критерий Стьюдента 2) правильность выбора вида взаимосвязи и всего уравнения регрессии проверяетсяна основе F– критерий Фишера
-
Оценка значимости параметров корреляции: t– критерий Стьюдента
Значимостькоэффициента корреляции проверяется на основе t- критерия Стьюдента. При этом выдвигается и проверяется нулевая гипотеза о равенстве коэффициента корреляции нулю (r=0), т.е гипотеза об отсутствии взаимосвязи. При проверке этой гипотезы используется t-статистика (из специальных таблиц).
-
Оценка значимости параметров взаимосвязи: t– критерий Стьюдента
где tрасч –расчетное значение t-критерия. Eсли расчетное значение tр >tкр(табличное), то гипотеза отвергается , что свидетельствует о значимости линейного коэффициента корреляции, а следовательно, и о статистической зависимости между Х иУ
-
Оценка значимости параметров взаимосвязи: F– критерий Фишера
Вывод о правильности выбора вида взаимосвязи и характеристику значимости всего уравнения регрессии получают с помощью F-критерия. При этом выдвигается и проверяется нулевая гипотеза о несоответствии заложенных в уравнении регрессии связей реально существующим.
-
Оценка правильности выбора вида взаимосвязи и уравнения регрессии : F– критерий Фишера
Если Fр>Fα при α = 0,05 или α = 0,01, то гипотеза о несоответствии заложенных в уравнении регрессии связей реально существующим отвергается. Величина Fα определяется по специальным таблицам, входом в которые являются величины α = 0,05 или α = 0,01 и числа степеней свободы: v1 = k -1, v2 = n -k, где n - число наблюдений, k - число факторных признаков в уравнении
-
Измерение связи между качественными признаками
-
Таблица взаимной сопряженности
-
Коэффициент ассоциации
Зависимости a, b, c, d - значения признаков в клетках матрицы сопряженности альтернативных признаков
-
Коэффициент ассоциациипринимает значения от -1 до +1
Если коэффициент имеет положительный знак (+), то связь положительная, Если коэффициент имеет отрицательный знак (-), то связь отрицательная. Кас = 0 - корреляция отсутствует (данные факторы между собой нейтральны); 0,09≤ Кас ≤ 0,19 - статистическая взаимосвязь очень слабая; - если 0,2 ≤Кас ≤ 0,49 - статистическая взаимосвязь слабая; - если 0,5 ≤ Кас≤ 0,69 - статистическая взаимосвязь средняя; - если 0,70 ≤ Кас ≤0,99 - статистическая взаимосвязь сильная.
-
Коэффициент контингенции (сопряженности)
В отличие от коэффициента ассоциации он учитывает двустороннюю взаимосвязь альтернативных признаков, т.е. производит измерение более чутко и корректно.
-
Коэффициент детерминации
зависимости
-
Эластичность
зависимости
Нет комментариев для данной презентации
Помогите другим пользователям — будьте первым, кто поделится своим мнением об этой презентации.