Показательное уравнение регрессии

Показательное уравнение регрессии имеет вид y = a bx (для временного ряда выражение y = a bt носит название показательного тренда). Для расчетов уравнение приводят к виду: ln(y) = ln(a) + x ln(b)
Точечный коэффициент эластичности: Э(x0)=x0 ln(b). Средний коэффициент эластичности:

В случае b = e (примерное значение экспоненты e2.718281828), показательное уравнение регрессии называется экспоненциальным и записывается как y = a ex.

Здесь b - темп изменения в разах или константа тренда, которая показывает тенденцию ускоренного и все более ускоряющегося возрастания уровней.

Пример. Необходимо изучить зависимость потребительским расходами на моторное масло (у) и располагаемым личным доходом (х).

Годы Личный располагаемый доход Расходы на моторное масло
1963 622,9 4,9
1964 658 5,2
1965 700,4 5,5
1966 740,6 5,6
1967 774,4 5,6
1968 816,2 5,3
1969 853,5 5
1970 876,8 4,7
1971 900 4,6
1972 951,4 5
1973 1007,9 5,4
1974 1004,8 4,2
1975 1010,8 4,2
1976 1056,2 4,6
1977 1105,4 4,4
1978 1162,3 4,7
1979 1200,7 4,7
1980 1209,5 3,9
1981 1248,6 3,6
1982 1254,4 3,6
1983 1284,6 4

Перейти к онлайн решению своей задачи
Использование графического метода.
Этот метод применяют для наглядного изображения формы связи между изучаемыми экономическими показателями. Для этого в прямоугольной системе координат строят график, по оси ординат откладывают индивидуальные значения результативного признака Y, а по оси абсцисс - индивидуальные значения факторного признака X.
Совокупность точек результативного и факторного признаков называется полем корреляции.


На основании поля корреляции можно выдвинуть гипотезу (для генеральной совокупности) о том, что связь между всеми возможными значениями X и Y носит экспоненциальный характер.
Показательное уравнение регрессии имеет вид y = a bx + ε

Составляем систему нормальных уравнений с помощью онлайн-калькулятора Нелинейная регрессия.
a•n + b∑x = ∑y
a∑x + b∑x2 = ∑y•x

Для наших данных система уравнений имеет вид
21a + 20439.4 b = 32.32
20439.4 a + 20761197.38 b = 31007.03
Из первого уравнения выражаем а и подставим во второе уравнение:
Получаем эмпирические коэффициенты регрессии: b = -0.000515, a = 2.04
Уравнение регрессии (эмпирическое уравнение регрессии):
y = e2.04*e-0.000515x = 7.69529*0.99948x
Эмпирические коэффициенты регрессии a и b являются лишь оценками теоретических коэффициентов βi, а само уравнение отражает лишь общую тенденцию в поведении рассматриваемых переменных.
Для расчета параметров регрессии построим расчетную таблицу (табл. 1)

x log(y) x2 log(y)2 x • log(y)
622.9 1.59 388004.41 2.53 989.93
658 1.65 432964 2.72 1084.82
700.4 1.7 490560.16 2.91 1194.01
740.6 1.72 548488.36 2.97 1275.88
774.4 1.72 599695.36 2.97 1334.11
816.2 1.67 666182.44 2.78 1361.18
853.5 1.61 728462.25 2.59 1373.66
876.8 1.55 768778.24 2.39 1356.9
900 1.53 810000 2.33 1373.45
951.4 1.61 905161.96 2.59 1531.22
1007.9 1.69 1015862.41 2.84 1699.72
1004.8 1.44 1009623.04 2.06 1441.97
1010.8 1.44 1021716.64 2.06 1450.58
1056.2 1.53 1115558.44 2.33 1611.82
1105.4 1.48 1221909.16 2.2 1637.77
1162.3 1.55 1350941.29 2.39 1798.73
1200.7 1.55 1441680.49 2.39 1858.16
1209.5 1.36 1462890.25 1.85 1646.1
1248.6 1.28 1559001.96 1.64 1599.37
1254.4 1.28 1573519.36 1.64 1606.8
1284.6 1.39 1650197.16 1.92 1780.83
20439.4 32.32 20761197.38 50.1 31007.03

1. Параметры уравнения регрессии.
Выборочные средние.



Выборочные дисперсии:


Среднеквадратическое отклонение

1.3. Коэффициент эластичности.
Коэффициенты регрессии (в примере b) нежелательно использовать для непосредственной оценки влияния факторов на результативный признак в том случае, если существует различие единиц измерения результативного показателя у и факторного признака х.
Для этих целей вычисляются коэффициенты эластичности и бета - коэффициенты.
Средний коэффициент эластичности E показывает, на сколько процентов в среднем по совокупности изменится результат у от своей средней величины при изменении фактора x на 1% от своего среднего значения.
Коэффициент эластичности находится по формуле:

E = 973.3*(-0.000515) = -0.5
Коэффициент эластичности меньше 1. Следовательно, при изменении Х на 1%, Y изменится менее чем на 1%. Другими словами - влияние Х на Y не существенно.
Бета – коэффициент показывает, на какую часть величины своего среднего квадратичного отклонения изменится в среднем значение результативного признака при изменении факторного признака на величину его среднеквадратического отклонения при фиксированном на постоянном уровне значении остальных независимых переменных:

Т.е. увеличение x на величину среднеквадратического отклонения Sx приведет к уменьшению среднего значения Y на 0.79 среднеквадратичного отклонения Sy.
1.4. Ошибка аппроксимации.
Оценим качество уравнения регрессии с помощью ошибки абсолютной аппроксимации. Средняя ошибка аппроксимации - среднее отклонение расчетных значений от фактических:

Ошибка аппроксимации в пределах 5%-7% свидетельствует о хорошем подборе уравнения регрессии к исходным данным.

Поскольку ошибка меньше 7%, то данное уравнение можно использовать в качестве регрессии.
1.5. Эмпирическое корреляционное отношение.
Эмпирическое корреляционное отношение вычисляется для всех форм связи и служит для измерение тесноты зависимости. Изменяется в пределах [0;1].
Связи между признаками могут быть слабыми и сильными (тесными). Их критерии оцениваются по шкале Чеддока:
0.1 < η < 0.3: слабая;
0.3 < η < 0.5: умеренная;
0.5 < η < 0.7: заметная;
0.7 < η < 0.9: высокая;
0.9 < η < 1: весьма высокая;


где

Индекс корреляции.
Величина индекса корреляции R находится в границах от 0 до 1. Чем ближе она к единице, тем теснее связь рассматриваемых признаков, тем более надежно уравнение регрессии.


Полученная величина свидетельствует о том, что фактор x существенно влияет на y
Для любой формы зависимости теснота связи определяется с помощью множественного коэффициента корреляции:

Данный коэффициент является универсальным, так как отражает тесноту связи и точность модели, а также может использоваться при любой форме связи переменных. При построении однофакторной корреляционной модели коэффициент множественной корреляции равен коэффициенту парной корреляции rxy.
В отличие от линейного коэффициента корреляции он характеризует тесноту нелинейной связи и не характеризует ее направление. Изменяется в пределах [0;1].
1.6. Индекс детерминации.
Величину R2 (равную отношению объясненной уравнением регрессии дисперсии результата у к общей дисперсии у) для нелинейных связей называют индексом детерминации.
Чаще всего, давая интерпретацию индекса детерминации, его выражают в процентах.


т.е. в 62.05 % случаев изменения х приводят к изменению y. Другими словами - точность подбора уравнения регрессии - средняя. Остальные 37.95 % изменения Y объясняются факторами, не учтенными в модели.
Для оценки качества параметров регрессии построим расчетную таблицу (табл. 2)

x log(y) y(x) (yi-ycp)2 (y-y(x))2 (xi-xcp)2 |y - yx|:y
622.9 1.59 1.72 0.00253 0.017 122783.5 0.082
658 1.65 1.7 0.012 0.00278 99417.09 0.032
700.4 1.7 1.68 0.0275 0.000634 74477.01 0.0148
740.6 1.72 1.66 0.0338 0.00409 54151.51 0.0371
774.4 1.72 1.64 0.0338 0.00662 39563.1 0.0472
816.2 1.67 1.62 0.0166 0.00229 24681.91 0.0287
853.5 1.61 1.6 0.00498 7.7E-5 14353.18 0.00546
876.8 1.55 1.59 7.5E-5 0.00169 9313.17 0.0265
900 1.53 1.58 0.000165 0.00256 5373.59 0.0332
951.4 1.61 1.55 0.00498 0.00351 479.82 0.0368
1007.9 1.69 1.52 0.0218 0.0273 1196.83 0.098
1004.8 1.44 1.52 0.0108 0.00767 991.95 0.061
1010.8 1.44 1.52 0.0108 0.00714 1405.89 0.0589
1056.2 1.53 1.5 0.000165 0.000893 6871.62 0.0196
1105.4 1.48 1.47 0.00328 0.000117 17449.15 0.00729
1162.3 1.55 1.44 7.5E-5 0.0113 35719.2 0.0685
1200.7 1.55 1.42 7.5E-5 0.0158 51708.59 0.0813
1209.5 1.36 1.42 0.0317 0.00316 55788.19 0.0413
1248.6 1.28 1.4 0.0665 0.0135 75787.47 0.0906
1254.4 1.28 1.39 0.0665 0.0128 79014.53 0.0883
1284.6 1.39 1.38 0.0233 6.2E-5 96904.73 0.00567
20439.4 32.32 32.32 0.37 0.14 867432.03 0.96

2.3. Анализ точности определения оценок коэффициентов регрессии.
Несмещенной оценкой дисперсии возмущений является величина:


S2y = 0.00742 - необъясненная дисперсия (мера разброса зависимой переменной вокруг линии регрессии).

Sy = 0.0861 - стандартная ошибка оценки (стандартная ошибка регрессии).
Sa - стандартное отклонение случайной величины a.


Sb - стандартное отклонение случайной величины b.


2.4. Доверительные интервалы для зависимой переменной.
Экономическое прогнозирование на основе построенной модели предполагает, что сохраняются ранее существовавшие взаимосвязи переменных и на период упреждения. Для прогнозирования зависимой переменной результативного признака необходимо знать прогнозные значения всех входящих в модель факторов.
Прогнозные значения факторов подставляют в модель и получают точечные прогнозные оценки изучаемого показателя.
(a + bxp ± ε)
где

Рассчитаем границы интервала, в котором будет сосредоточено 95% возможных значений Y при неограниченно большом числе наблюдений и Xp = 600

(2.04 -0.000515*600 ± 0.0823)
(1.65;1.81)
С вероятностью 95% можно гарантировать, что значения Y при неограниченно большом числе наблюдений не выйдет за пределы найденных интервалов.
Индивидуальные доверительные интервалы для Y при данном значении X.
(a + bxi ± ε)
где


tкрит (n-m-1;α/2) = (19;0.025) = 2.093

xi y = 2.04 -0.000515xi εi ymin = y - εi ymax = y + εi
622.9 1.72 0.2 1.52 1.92
658 1.7 0.19 1.51 1.9
700.4 1.68 0.19 1.49 1.87
740.6 1.66 0.19 1.47 1.85
774.4 1.64 0.19 1.45 1.83
816.2 1.62 0.19 1.43 1.81
853.5 1.6 0.19 1.41 1.79
876.8 1.59 0.19 1.4 1.77
900 1.58 0.19 1.39 1.76
951.4 1.55 0.18 1.37 1.73
1007.9 1.52 0.18 1.34 1.71
1004.8 1.52 0.18 1.34 1.71
1010.8 1.52 0.18 1.33 1.7
1056.2 1.5 0.19 1.31 1.68
1105.4 1.47 0.19 1.28 1.66
1162.3 1.44 0.19 1.25 1.63
1200.7 1.42 0.19 1.23 1.61
1209.5 1.42 0.19 1.23 1.61
1248.6 1.4 0.19 1.2 1.59
1254.4 1.39 0.19 1.2 1.59

С вероятностью 95% можно гарантировать, что значения Y при неограниченно большом числе наблюдений не выйдет за пределы найденных интервалов.
2.5. Проверка гипотез относительно коэффициентов линейного уравнения регрессии.
1) t-статистика. Критерий Стьюдента.
С помощью МНК мы получили лишь оценки параметров уравнения регрессии, которые характерны для конкретного статистического наблюдения (конкретного набора значений x и y).
Для оценки статистической значимости коэффициентов регрессии и корреляции рассчитываются t-критерий Стьюдента и доверительные интервалы каждого из показателей. Выдвигается гипотеза Н0 о случайной природе показателей, т.е. о незначимом их отличии от нуля.
Чтобы проверить, значимы ли параметры, т.е. значимо ли они отличаются от нуля для генеральной совокупности используют статистические методы проверки гипотез.
В качестве основной (нулевой) гипотезы выдвигают гипотезу о незначимом отличии от нуля параметра или статистической характеристики в генеральной совокупности. Наряду с основной (проверяемой) гипотезой выдвигают альтернативную (конкурирующую) гипотезу о неравенстве нулю параметра или статистической характеристики в генеральной совокупности.
Проверим гипотезу H0 о равенстве отдельных коэффициентов регрессии нулю (при альтернативе H1 не равно) на уровне значимости α=0.05.
В случае если основная гипотеза окажется неверной, мы принимаем альтернативную. Для проверки этой гипотезы используется t-критерий Стьюдента.
Найденное по данным наблюдений значение t-критерия (его еще называют наблюдаемым или фактическим) сравнивается с табличным (критическим) значением, определяемым по таблицам распределения Стьюдента (которые обычно приводятся в конце учебников и практикумов по статистике или эконометрике).
Табличное значение определяется в зависимости от уровня значимости (α) и числа степеней свободы, которое в случае линейной парной регрессии равно (n-2), n-число наблюдений.
Если фактическое значение t-критерия больше табличного (по модулю), то основную гипотезу отвергают и считают, что с вероятностью (1-α) параметр или статистическая характеристика в генеральной совокупности значимо отличается от нуля.
Если фактическое значение t-критерия меньше табличного (по модулю), то нет оснований отвергать основную гипотезу, т.е. параметр или статистическая характеристика в генеральной совокупности незначимо отличается от нуля при уровне значимости α.
tкрит (n-m-1;α/2) = (19;0.025) = 2.093


Поскольку 5.15 > 2.093, то статистическая значимость коэффициента регрессии b подтверждается (отвергаем гипотезу о равенстве нулю этого коэффициента).


Поскольку 22.19 > 2.093, то статистическая значимость коэффициента регрессии a подтверждается (отвергаем гипотезу о равенстве нулю этого коэффициента).
Доверительный интервал для коэффициентов уравнения регрессии.
Определим доверительные интервалы коэффициентов регрессии, которые с надежность 95% будут следующими:
(b - tкрит Sb; b + tкрит Sb)
(-0.000515 - 2.093 • 9.2E-5; -0.000515 + 2.093 • 9.2E-5)
(-0.000725;-0.000306)
С вероятностью 95% можно утверждать, что значение данного параметра будут лежать в найденном интервале.
(a - tкрит Sa; a + tкрит Sa)
(2.04 - 2.093 • 0.0919; 2.04 + 2.093 • 0.0919)
(1.85;2.23)
С вероятностью 95% можно утверждать, что значение данного параметра будут лежать в найденном интервале.
2) F-статистика. Критерий Фишера.
Индекс детерминации R2 используется для проверки существенности уравнения нелинейной регрессии в целом.
Проверка значимости модели регрессии проводится с использованием F-критерия Фишера, расчетное значение которого находится как отношение дисперсии исходного ряда наблюдений изучаемого показателя и несмещенной оценки дисперсии остаточной последовательности для данной модели.
Если расчетное значение с k1=(m) и k2=(n-m-1) степенями свободы больше табличного при заданном уровне значимости, то модель считается значимой.

где m – число факторов в модели.
Оценка статистической значимости парной линейной регрессии производится по следующему алгоритму:
1. Выдвигается нулевая гипотеза о том, что уравнение в целом статистически незначимо: H0: R2=0 на уровне значимости α.
2. Далее определяют фактическое значение F-критерия:


где m=1 для парной регрессии.
3. Табличное значение определяется по таблицам распределения Фишера для заданного уровня значимости, принимая во внимание, что число степеней свободы для общей суммы квадратов (большей дисперсии) равно 1 и число степеней свободы остаточной суммы квадратов (меньшей дисперсии) при линейной регрессии равно n-2.
Fтабл - это максимально возможное значение критерия под влиянием случайных факторов при данных степенях свободы и уровне значимости α. Уровень значимости α - вероятность отвергнуть правильную гипотезу при условии, что она верна. Обычно α принимается равной 0,05 или 0,01.
4. Если фактическое значение F-критерия меньше табличного, то говорят, что нет основания отклонять нулевую гипотезу.
В противном случае, нулевая гипотеза отклоняется и с вероятностью (1-α) принимается альтернативная гипотеза о статистической значимости уравнения в целом.
Табличное значение критерия со степенями свободы k1=1 и k2=19, Fтабл = 4.38
Поскольку фактическое значение F > Fтабл, то коэффициент детерминации статистически значим (найденная оценка уравнения регрессии статистически надежна).
Связь между F-критерием Фишера и t-статистикой Стьюдента выражается равенством:

Дисперсионный анализ.
При анализе качества модели регрессии используется теорема о разложении дисперсии, согласно которой общая дисперсия результативного признака может быть разложена на две составляющие – объясненную и необъясненную уравнением регрессии дисперсии.
Задача дисперсионного анализа состоит в анализе дисперсии зависимой переменной:
∑(yi - ycp)2 = ∑(y(x) - ycp)2 + ∑(y - y(x))2
где
∑(yi - ycp)2 - общая сумма квадратов отклонений;
∑(y(x) - ycp)2 - сумма квадратов отклонений, обусловленная регрессией («объясненная» или «факторная»);
∑(y - y(x))2 - остаточная сумма квадратов отклонений.
Источник вариации Сумма квадратов Число степеней свободы Дисперсия на 1 степень свободы F-критерий
Модель 0.23 1 0.23 31.07
Остаточная 0.14 19 0.00737 1
Общая 0.37 21-1

Показатели качества уравнения регрессии.
Показатель Значение
Коэффициент детерминации 0.62
Средний коэффициент эластичности -0.000515
Средняя ошибка аппроксимации 4.59

Проверка на наличие автокорреляции остатков.
Важной предпосылкой построения качественной регрессионной модели по МНК является независимость значений случайных отклонений от значений отклонений во всех других наблюдениях. Это гарантирует отсутствие коррелированности между любыми отклонениями и, в частности, между соседними отклонениями.
Автокорреляция (последовательная корреляция) определяется как корреляция между наблюдаемыми показателями, упорядоченными во времени (временные ряды) или в пространстве (перекрестные ряды). Автокорреляция остатков (отклонений) обычно встречается в регрессионном анализе при использовании данных временных рядов и очень редко при использовании перекрестных данных.
В экономических задачах значительно чаще встречается положительная автокорреляция, нежели отрицательная автокорреляция. В большинстве случаев положительная автокорреляция вызывается направленным постоянным воздействием некоторых неучтенных в модели факторов.
Отрицательная автокорреляция фактически означает, что за положительным отклонением следует отрицательное и наоборот. Такая ситуация может иметь место, если ту же зависимость между спросом на прохладительные напитки и доходами рассматривать по сезонным данным (зима-лето).
Среди основных причин, вызывающих автокорреляцию, можно выделить следующие:
1. Ошибки спецификации. Неучет в модели какой-либо важной объясняющей переменной либо неправильный выбор формы зависимости обычно приводят к системным отклонениям точек наблюдения от линии регрессии, что может обусловить автокорреляцию.
2. Инерция. Многие экономические показатели (инфляция, безработица, ВНП и т.д.) обладают определенной цикличностью, связанной с волнообразностью деловой активности. Поэтому изменение показателей происходит не мгновенно, а обладает определенной инертностью.
3. Эффект паутины. Во многих производственных и других сферах экономические показатели реагируют на изменение экономических условий с запаздыванием (временным лагом).
4. Сглаживание данных. Зачастую данные по некоторому продолжительному временному периоду получают усреднением данных по составляющим его интервалам. Это может привести к определенному сглаживанию колебаний, которые имелись внутри рассматриваемого периода, что в свою очередь может служить причиной автокорреляции.
Последствия автокорреляции схожи с последствиями гетероскедастичности: выводы по t- и F-статистикам, определяющие значимость коэффициента регрессии и коэффициента детерминации, возможно, будут неверными.
Обнаружение автокорреляции
1. Графический метод
Есть ряд вариантов графического определения автокорреляции. Один из них увязывает отклонения εi с моментами их получения i. При этом по оси абсцисс откладывают либо время получения статистических данных, либо порядковый номер наблюдения, а по оси ординат – отклонения εi (либо оценки отклонений).
Естественно предположить, что если имеется определенная связь между отклонениями, то автокорреляция имеет место. Отсутствие зависимости скорее всего будет свидетельствовать об отсутствии автокорреляции.
Автокорреляция становится более наглядной, если построить график зависимости εi от εi-1
2. Коэффициент автокорреляции.

Если коэффициент автокорреляции rei < 0.5, то есть основания утверждать, что автокорреляция отсутствует.
3. Критерий Дарбина-Уотсона.
Этот критерий является наиболее известным для обнаружения автокорреляции.
При статистическом анализе уравнения регрессии на начальном этапе часто проверяют выполнимость одной предпосылки: условия статистической независимости отклонений между собой. При этом проверяется некоррелированность соседних величин ei.
y y(x) ei = y-y(x) e2 (ei - ei-1)2
1.59 1.72 -0.13 0.017 0
1.65 1.7 -0.0528 0.00278 0.00601
1.7 1.68 0.0252 0.000634 0.00608
1.72 1.66 0.0639 0.00409 0.0015
1.72 1.64 0.0813 0.00662 0.000304
1.67 1.62 0.0478 0.00229 0.00112
1.61 1.6 0.00878 7.7E-5 0.00152
1.55 1.59 -0.0411 0.00169 0.00249
1.53 1.58 -0.0506 0.00256 9.1E-5
1.61 1.55 0.0592 0.00351 0.0121
1.69 1.52 0.17 0.0273 0.0113
1.44 1.52 -0.0876 0.00767 0.064
1.44 1.52 -0.0845 0.00714 1.0E-5
1.53 1.5 0.0299 0.000893 0.0131
1.48 1.47 0.0108 0.000117 0.000364
1.55 1.44 0.11 0.0113 0.00908
1.55 1.42 0.13 0.0158 0.000392
1.36 1.42 -0.0562 0.00316 0.0331
1.28 1.4 -0.12 0.0135 0.00359
1.28 1.39 -0.11 0.0128 9.0E-6
1.39 1.38 0.00786 6.2E-5 0.0146
0.14 0.18

Для анализа коррелированности отклонений используют статистику Дарбина-Уотсона:


Критические значения d1 и d2 определяются на основе специальных таблиц для требуемого уровня значимости α, числа наблюдений n = 21 и количества объясняющих переменных m=1.
Автокорреляция отсутствует, если выполняется следующее условие:
d1 < DW и d2 < DW < 4 - d2.
Не обращаясь к таблицам, можно пользоваться приблизительным правилом и считать, что автокорреляция остатков отсутствует, если 1.5 < DW < 2.5. Поскольку 1.5 > 1.28 < 2.5, то автокорреляция остатков присутствует.
Для более надежного вывода целесообразно обращаться к табличным значениям.
По таблице Дарбина-Уотсона для n=21 и k=1 (уровень значимости 5%) находим: d1 = 1.22; d2 = 1.42.
Поскольку 1.22 < 1.28 и 1.42 < 1.28 < 4 - 1.42, то автокорреляция остатков присутствует.
Проверка наличия гетероскедастичности.
1) Методом графического анализа остатков.
В этом случае по оси абсцисс откладываются значения объясняющей переменной X, а по оси ординат либо отклонения ei, либо их квадраты e2i.
Если имеется определенная связь между отклонениями, то гетероскедастичность имеет место. Отсутствие зависимости скорее всего будет свидетельствовать об отсутствии гетероскедастичности.
2) При помощи теста ранговой корреляции Спирмена.
Коэффициент ранговой корреляции Спирмена.
Присвоим ранги признаку ei и фактору X. Найдем сумму разности квадратов d2.
По формуле вычислим коэффициент ранговой корреляции Спирмена.
X ei ранг X, dx ранг ei, dy (dx - dy)2
622.9 0.13 1 20 361
658 0.0528 2 9 49
700.4 0.0252 3 4 1
740.6 0.0639 4 12 64
774.4 0.0813 5 13 64
816.2 0.0478 6 7 1
853.5 0.00878 7 2 25
876.8 0.0411 8 6 4
900 0.0506 9 8 1
951.4 0.0592 10 11 1
1007.9 0.17 12 21 81
1004.8 0.0876 11 15 16
1010.8 0.0845 13 14 1
1056.2 0.0299 14 5 81
1105.4 0.0108 15 3 144
1162.3 0.11 16 16 0
1200.7 0.13 17 19 4
1209.5 0.0562 18 10 64
1248.6 0.12 19 18 1
1254.4 0.11 20 17 9
1284.6 0.00786 21 1 400
1372


Связь между признаком ei и фактором X слабая и прямая
Оценка коэффициента ранговой корреляции Спирмена.
Значимость коэффициента ранговой корреляции Спирмена
Для того чтобы при уровне значимости α проверить нулевую гипотезу о равенстве нулю генерального коэффициента ранговой корреляции Спирмена при конкурирующей гипотезе Hi. p ≠ 0, надо вычислить критическую точку:

где n - объем выборки; p - выборочный коэффициент ранговой корреляции Спирмена: t(α, к) - критическая точка двусторонней критической области, которую находят по таблице критических точек распределения Стьюдента, по уровню значимости α и числу степеней свободы k = n-2.
Если |p| < Тkp - нет оснований отвергнуть нулевую гипотезу. Ранговая корреляционная связь между качественными признаками не значима. Если |p| > Tkp - нулевую гипотезу отвергают. Между качественными признаками существует значимая ранговая корреляционная связь.

По таблице Стьюдента находим t(α, k):
t(α, k) = (19;0.05) = 1.729
Поскольку Tkp > p, то принимаем гипотезу о равенстве 0 коэффициента ранговой корреляции Спирмена. Другими словами, коэффициент ранговой корреляции статистически - не значим и ранговая корреляционная связь между оценками по двум тестам незначимая.
Проверим гипотезу H0: гетероскедастичность отсутствует.
Поскольку 2.093 > 0.39, то гипотеза об отсутствии гетероскедастичности принимается.
3. Тест Голдфелда-Квандта.
В данном случае предполагается, что стандартное отклонение σi = σ(εi) пропорционально значению xi переменной X в этом наблюдении, т.е. σ2i = σ2x2i , i = 1,2,…,n.
Тест Голдфелда-Квандта состоит в следующем:
1. Все n наблюдений упорядочиваются по величине X.
2. Вся упорядоченная выборка после этого разбивается на три подвыборки размерностей k,(n-2k),k.
3. Оцениваются отдельные регрессии для первой подвыборки (k первых наблюдений) и для третьей подвыборки (k последних наблюдений).
4. Для сравнения соответствующих дисперсий строится соответствующая F-статистика:
F = S3/S1
Построенная F-статистика имеет распределение Фишера с числом степеней свободы v1 = v2 = n – m - 1.
5. Если F > Fkp, то гипотеза об отсутствии гетероскедастичности отклоняется.
Этот же тест может использоваться при предположении об обратной пропорциональности между σi и значениями объясняющей переменной. При этом статистика Фишера имеет вид:
F = S1/S3
1. Упорядочим все значения по величине X.
2. Находим размер подвыборки k = 21/3 = 8.
3. Оценим регрессию для первой подвыборки.
Находим параметры уравнения методом наименьших квадратов.
Система уравнений МНК:
a0n + a1∑x = ∑y
a0∑x + a1∑x2 = ∑y•x
Для наших данных система уравнений имеет вид:
8a0 + 6042.8a1 = 4.01
6042.8a0 + 4623135.22a1 = 3021.69
Из первого уравнения выражаем а0 и подставим во второе уравнение
Получаем a0 = -0.000105, a1 = 0.58
x log(y) x2 y2 x • y y(x) (y-y(x))2
622.9 0.46 388004.41 0.21 288.56 0.51 0.0026
658 0.5 432964 0.25 328.97 0.51 0.0001
700.4 0.53 490560.16 0.28 373.61 0.51 0.0007
740.6 0.54 548488.36 0.3 402.84 0.5 0.0017
774.4 0.54 599695.36 0.3 421.22 0.5 0.002
816.2 0.51 666182.44 0.26 417.45 0.49 0.0002
853.5 0.48 728462.25 0.23 406.17 0.49 0.0002
876.8 0.44 768778.24 0.19 382.88 0.49 0.0026
6042.8 4.01 4623135.22 2.02 3021.69 4.01 0.0101

Здесь S1 = 0.0101
Оценим регрессию для третьей подвыборки.
Находим параметры уравнения методом наименьших квадратов.
Система уравнений МНК:
a0n + a1∑x = ∑y
a0∑x + a1∑x2 = ∑y•x
Для наших данных система уравнений имеет вид:
8a0 + 9521.7a1 = 2.82
9521.7a0 + 11375698.11a1 = 3324.96
Из первого уравнения выражаем а0 и подставим во второе уравнение
Получаем a0 = -0.000711, a1 = 1.2
x log(y) x2 y2 x • y y(x) (y-y(x))2
1056.2 0.42 1115558.44 0.18 446.44 0.45 0.0006
1105.4 0.39 1221909.16 0.15 434.56 0.41 0.0003
1162.3 0.44 1350941.29 0.19 507.55 0.37 0.0041
1200.7 0.44 1441680.49 0.19 524.32 0.34 0.0084
1209.5 0.31 1462890.25 0.095 372.77 0.34 0.0009
1248.6 0.25 1559001.96 0.0613 309.14 0.31 0.004
1254.4 0.25 1573519.36 0.0613 310.58 0.31 0.0035
1284.6 0.33 1650197.16 0.11 419.59 0.29 0.0017
9521.7 2.82 11375698.11 1.04 3324.96 2.82 0.0235

Здесь S3 = 0.0235
Fkp(1,19) = 4.38
Строим F-статистику:
F = 0.0235/0.0101 = 2.33
Поскольку F < Fkp = 4.38, то гипотеза об отсутствии гетероскедастичности принимается.

Перейти к онлайн решению своей задачи

загрузка...