Построить график функции Точки разрыва функции Построение графика методом дифференциального исчисления Создание схемы логических элементов
Примеры решений Коэффициент Спирмена Мультиколлинеарность
Линейная регрессия Коэффициент детерминации Частные F-критерии
Частные коэффициенты эластичности Проверка на автокорреляцию

Уравнение множественной регрессии через формулы Крамера

Двухфакторная линейная регрессия имеет вид: y=b0+b1x1+b2x2

Назначение сервиса. Данный онлайн-калькулятор позволяет вычислить следующие показатели:

Количество строк (исходных данных)

В расчетах используется метод наименьших квадратов (МНК). Кроме него, при вычислении параметров уравнения множественной регрессии также можно воспользоваться матричным методом. Результат оформляется в отчете формата Word. Дополнительно создается шаблон построения множественной регрессии в Excel.
Кроме этого проводится проверка наличия предпосылок МНК:
  1. Первая предпосылка МНК – случайный характер остатков εi.;
  2. Вторая предпосылка МНК – нулевая средняя величина остатков, не зависящая от εi.;
  3. Третья предпосылка МНК - дисперсия остатков должна была гомоскедастичной.;
  4. Четвертая предпосылки МНК – отсутствие автокорреляции остатков.;
  5. Пятая предпосылка МНК - нормальное распределение остатков.;

В многофакторных моделях результативный признак зависит от нескольких факторов. Множественный или многофакторный корреляционно-регрессионный анализ решает три задачи:

  1. определяет форму связи результативного признака с факторными;
  2. выявляет тесноту этой связи;
  3. устанавливает влияние отдельных факторов.

Пример. По 20 предприятиям региона изучается зависимость выработки продукции на одного работника Y (тыс. руб.) от ввода в действие новых основных фондов x1(% от стоимости фондов на конец года) и от удельного веса рабочих высокой квалификации в общей численности рабочих x2(%).
Требуется:

  1. Построить линейную модель множественной регрессии. Записать стандартизированное уравнение множественной регрессии. На основе стандартизированных коэффициентов регрессии и средних коэффициентов эластичности ранжировать факторы по степени их влияния на результат.
  2. Найти коэффициенты парной, частной и множественной корреляции. Проанализировать их.
  3. Найти скорректированный коэффициенты парной, частной и множественной детерминации. Сравнить его с нескорректированным (общим) коэффициентом детерминации.
  4. С помощью F- критерия Фишера оценить статистическую надежность уравнения регрессии и коэффициента детерминации R2.
  5. С помощью частных F- критериев Фишера оценить целесообразность включения в уравнение множественной регрессии фактора x1 после x2 и фактора x2 после x1.
  6. Составить уравнение линейной парной регрессии, оставив лишь один значащий фактор.
Исходные данные (таблица)
Номер предприятия y x1 x2
1 7 3,5 9
2 7 3,6 10
3 7 3,9 12
4 7 4,1 17
5 8 4,2 18
6 8 4,5 19
7 9 5,3 19
8 9 5,5 20
9 10 5,6 21
10 10 6,1 21
11 10 6,3 22
12 10 6,5 22
13 11 7,2 24
14 12 7,5 25
15 12 7,9 27
16 13 8,2 30
17 13 8,4 31
18 14 8,6 33
19 14 9,5 35
20 15 9,6 36

Решение.
1. Построить линейную модель множественной регрессии. Записать стандартизированное уравнение множественной регрессии. На основе стандартизированных коэффициентов регрессии и средних коэффициентов эластичности ранжировать факторы по степени их влияния на результат.
Система трех линейных уравнений с тремя неизвестными b0, b1, b2:
∑yi = nb0 + b1∑x1i + b2∑x2i
∑x1iyi = b0∑x1i + b1∑x1i2 + b2∑x1ix2i
∑x2iyi = b0∑x2i + b1∑x1ix2i + b2∑x2i2

YX1X2X12X22X1YX2Y X1X2 Y2
7 3.5 9 12.25 81 24.5 63 31.5 49
7 3.6 10 12.96 100 25.2 70 36 49
7 3.9 12 15.21 144 27.3 84 46.8 49
7 4.1 17 16.81 289 28.7 119 69.7 49
8 4.2 18 17.64 324 33.6 144 75.6 64
8 4.5 19 20.25 361 36 152 85.5 64
9 5.3 19 28.09 361 47.7 171 100.7 81
9 5.5 20 30.25 400 49.5 180 110 81
10 5.6 21 31.36 441 56 210 117.6 100
10 6.1 21 37.21 441 61 210 128.1 100
10 6.3 22 39.69 484 63 220 138.6 100
10 6.5 22 42.25 484 65 220 143 100
11 7.2 24 51.84 576 79.2 264 172.8 121
12 7.5 25 56.25 625 90 300 187.5 144
12 7.9 27 62.41 729 94.8 324 213.3 144
13 8.2 30 67.24 900 106.6 390 246 169
13 8.4 31 70.56 961 109.2 403 260.4 169
14 8.6 33 73.96 1089 120.4 462 283.8 196
14 9.5 35 90.25 1225 133 490 332.5 196
15 9.6 36 92.16 1296 144 540 345.6 225
206 126 451 868.64 11311 1394.7 5016 3125 2250
10.3 6.3 22.55 43.43 565.55 69.74 250.8 156.25 112.5
Для наших данных система уравнений имеет вид:
206 = 20 b0 + 126b1 + 451b2
1394.7 = 126b0 + 868.64b1 + 3125b2
5016 = 451b0 + 3125b1 + 11311b2

Решая систему методом Крамера, находим:
b0 = 2.212; b1 = 1.099; b2 = 0.0515
Уравнение регрессии: Y = 2.212 + 1.099 X1 + 0.0515 X2
Расчет β-коэффициентов можно выполнить и по формулам:

Стандартизированная форма уравнения регрессии имеет вид:
y0 = 0.84x1 + 0.154x2
Частные коэффициенты эластичности.
С целью расширения возможностей содержательного анализа модели регрессии используются частные коэффициенты эластичности, которые определяются по формуле:

Частный коэффициент эластичности показывает, насколько процентов в среднем изменяется признак-результат у с увеличением признака-фактора хj на 1% от своего среднего уровня при фиксированном положении других факторов модели.

Частный коэффициент эластичности |E1| < 1. Следовательно, его влияние на результативный признак Y незначительно.

Частный коэффициент эластичности |E2| < 1. Следовательно, его влияние на результативный признак Y незначительно.

2. Найти коэффициенты парной, частной и множественной корреляции. Проанализировать их.
Для расчета составим следующую таблицу:

Y X1 X2 (Yi-Y)2 (X1i-X1)2 (X2i-X2)2 (Yi-Y)(X1i-X1) (Yi-Y)(X2i-X2) (X1i-X1)(X2i-X2)
7 3.5 9 10.89 7.84 183.6 9.24 44.72 37.94
7 3.6 10 10.89 7.29 157.5 8.91 41.42 33.89
7 3.9 12 10.89 5.76 111.3 7.92 34.82 25.32
7 4.1 17 10.89 4.84 30.8 7.26 18.32 12.21
8 4.2 18 5.29 4.41 20.7 4.83 10.47 9.56
8 4.5 19 5.29 3.24 12.6 4.14 8.17 6.39
9 5.3 19 1.69 1 12.6 1.3 4.62 3.55
9 5.5 20 1.69 0.64 6.5 1.04 3.32 2.04
10 5.6 21 0.09 0.49 2.4 0.21 0.47 1.09
10 6.1 21 0.09 0.04 2.4 0.06 0.47 0.31
10 6.3 22 0.09 0 0.3 0 0.17 0
10 6.5 22 0.09 0.04 0.3 -0.06 0.17 -0.11
11 7.2 24 0.49 0.81 2.1 0.63 1.02 1.31
12 7.5 25 2.89 1.44 6 2.04 4.17 2.94
12 7.9 27 2.89 2.56 19.8 2.72 7.57 7.12
13 8.2 30 7.29 3.61 55.5 5.13 20.12 14.16
13 8.4 31 7.29 4.41 71.4 5.67 22.82 17.75
14 8.6 33 13.69 5.29 109.2 8.51 38.67 24.04
14 9.5 35 13.69 10.24 155 11.84 46.07 39.84
15 9.6 36 22.09 10.89 180.9 15.51 63.22 44.39
206 126 451 128.2 74.84 1140.95 96.9 370.7 283.7
10.3 6.3 22.55 6.41 3.74 57.05 4.85 18.54 14.19

Для y и x1
Средние значения

Дисперсия

Среднеквадратическое отклонение

Коэффициент корреляции

Для y и x2
Средние значения

Дисперсия

Среднеквадратическое отклонение

Коэффициент корреляции

Для x1 и x2
Средние значения

Дисперсия

Среднеквадратическое отклонение

Коэффициент корреляции

Матрица парных коэффициентов корреляции.

-yx1 x2
y10.9890.969
x1 0.98910.971
x20.9690.9711

Коэффициенты регрессии bi можно также найти по следующим формулам:

где ryx1, ryx2, rx1x2 - коэффициенты парной корреляции между результатом и каждым из факторов и между факторами; s(x1), s(x2) - среднее квадратическое отклонение 1-го и 2-го факторов соответственно; s(y) - среднее квадратическое отклонение результативного признака.
Параметр a можно определить по формуле:

Наибольшее влияние на результативный признак оказывает фактор x1 (r = 0.99), значит, при построении модели он войдет в регрессионное уравнение первым.
На основании частных коэффициентов можно сделать вывод об обоснованности включения переменных в регрессионную модель. Если значение коэффициента мало или он незначим, то это означает, что связь между данным фактором и результативной переменной либо очень слаба, либо вовсе отсутствует, поэтому фактор можно исключить из модели.

Теснота связи сильная


Теснота связи низкая.

Теснота связи не сильная

Множественный коэффициент корреляции.
Расчёт коэффициента корреляции выполним, используя известные значения линейных коэффициентов парной корреляции и β-коэффициентов.

Коэффициент множественной корреляции определить через матрицу парных коэффициентов корреляции:

где Δr - определитель матрицы парных коэффициентов корреляции; Δr11 - определитель матрицы межфакторной корреляции.

Коэффициент множественной корреляции

Аналогичный результат получим при использовании других формул:

Связь между признаком Y и факторами Xi низкая.
Коэффициент детерминации: R2 = 0.98
Таким образом, наибольшее влияние на результат оказывает x1 (β=0,84 > 0,154; E = 0,67 > 0,11).

3. Найти скорректированный коэффициенты парной, частной и множественной детерминации. Сравнить его с нескорректированным (общим) коэффициентом детерминации.
Более объективной оценкой является скорректированный коэффициент детерминации:


Добавление в модель новых объясняющих переменных осуществляется до тех пор, пока растет скорректированный коэффициент детерминации.

4. С помощью F- критерия Фишера оценить статистическую надежность уравнения регрессии и коэффициента детерминации R2 (проверим значимость совместной объясняющей способности всех независимых факторов модели).
Чем ближе этот коэффициент к единице, тем больше уравнение регрессии объясняет поведение Y.
Проверим гипотезу об общей значимости - гипотезу об одновременном равенстве нулю всех коэффициентов регрессии при объясняющих переменных:
H0: R2 = 0; β1 = β2 = ... = βm = 0.
H1: R2 ≠ 0.
Проверка этой гипотезы осуществляется с помощью F-статистики распределения Фишера (правосторонняя проверка).
Если F < Fkp = Fα ; n-m-1, то нет оснований для отклонения гипотезы H0.

Табличное значение при степенях свободы k1 = 2 и k2 = n-m-1 = 20 - 2 - 1 = 17, Fkp(2;17) = 3.59
Поскольку фактическое значение F > Fkp, то коэффициент детерминации статистически значим и уравнение регрессии статистически надежно

5. С помощью частных F- критериев Фишера оценить целесообразность включения в уравнение множественной регрессии фактора x1 после x2 и фактора x2 после x1.
Частные критерии Fx1 и Fx2 оценивают статистическую значимость включения факторов x1 и x2 в уравнение множественной регрессии и целесообразность включения в уравнение одного фактора после другого, т.е. Fx1 оценивает целесообразность включения в уравнение x1 после включения в него фактора x2.
Соответственно Fx2 указывает на целесообразность включения в модель фактора x2 после включения фактора x1.

Найдем ryx21, ryx22.
ryx12 = 0.9892 = 0.979
ryx22 = 0.9692 = 0.939

Поскольку фактическое значение F > Fkp, то коэффициент Fx1 статистически значим, т.е. целесообразно включать в уравнение x1 после включения в него фактора x2. Прирост факторной дисперсии за счет дополнительного фактора x1 является существенным.

Поскольку фактическое значение F < Fkp, то коэффициент Fx2 статистически не значим, т.е. не целесообразно включать в уравнение x2 после включения в него фактора x1.

6. Составить уравнение линейной парной регрессии, оставив лишь один значащий фактор.
Значащий фактор x1. Строим уравнение парной регрессии y = bx1 + b0.
Для расчета параметров регрессии построим расчетную таблицу (табл. 1)

xyx2y2x·y
3.5 7 12.25 49 24.5
3.6 7 12.96 49 25.2
3.9 7 15.21 49 27.3
4.1 7 16.81 49 28.7
4.2 8 17.64 64 33.6
4.5 8 20.25 64 36
5.3 9 28.09 81 47.7
5.5 9 30.25 81 49.5
5.6 10 31.36 100 56
6.1 10 37.21 100 61
6.3 10 39.69 100 63
6.5 10 42.25 100 65
7.2 11 51.84 121 79.2
7.5 12 56.25 144 90
7.9 12 62.41 144 94.8
8.2 13 67.24 169 106.6
8.4 13 70.56 169 109.2
8.6 14 73.96 196 120.4
9.5 14 90.25 196 133
9.6 15 92.16 225 144
126 206 868.64 2250 1394.7
Для наших данных система уравнений имеет вид
20a + 126 b = 206
126 a + 868.64 b = 1394.7

Домножим уравнение (1) системы на (-6.3), получим систему, которую решим методом алгебраического сложения.
-126a -793.8 b = -1297.8
126 a + 868.64 b = 1394.7
Получаем:
74.84 b = 96.9
Откуда b = 1.2948
Теперь найдем коэффициент «a» из уравнения (1):
20a + 126·b = 206
20a + 126·1.2948 = 206
20a = 42.86
a = 2.143
Получаем эмпирические коэффициенты регрессии: b = 1.2948, a = 2.143
Уравнение регрессии (эмпирическое уравнение регрессии): y = 1.2948 x + 2.143

Пример №2.
1. Построить уравнение множественной регрессии в стандартизованной и естественной форме; рассчитать частные коэффициенты эла­стичности, сравнить их с β1 и β2, пояснить различия между ними.
2. Рассчитать линейные коэффициенты частной корреляции и коэффициент множественной корреляции, сравнить их с линейными ко­эффициентами парной корреляции, пояснить различия между ними.
3. Рассчитать общий и частные F-критерии Фишера.

Решение. Пояснения: задачу решаем с помощью сервиса Уравнение множественной регрессии для двух переменных

1. Расчет коэффициентов множественной линейной регрессии.
Система трех линейных уравнений с тремя неизвестными b0, b1, b2:
∑yi = nb0 + b1∑x1i + b2∑x2i
∑x1iyi = b0∑x1i + b1∑x1i2 + b2∑x1ix2i
∑x2iyi = b0∑x2i + b1∑x1ix2i + b2∑x2i2

Y X1 X2 X12 X22 X1Y X2Y X1X2 Y2
4.07 182.94 1018 33467.04 1036324 744.57 4143.26 186232.92 16.56
4 193.45 920 37422.9 846400 773.8 3680 177974 16
2.98 160.09 686 25628.81 470596 477.07 2044.28 109821.74 8.88
2.2 157.99 405 24960.84 164025 347.58 891 63985.95 4.84
2.83 123.83 683 15333.87 466489 350.44 1932.89 84575.89 8.01
3 152.02 530 23110.08 280900 456.06 1590 80570.6 9
2.35 130.53 525 17038.08 275625 306.75 1233.75 68528.25 5.52
2.04 137.38 418 18873.26 174724 280.26 852.72 57424.84 4.16
1.97 137.58 425 18928.26 180625 271.03 837.25 58471.5 3.88
1.02 118.78 161 14108.69 25921 121.16 164.22 19123.58 1.04
1.44 142.9 242 20420.41 58564 205.78 348.48 34581.8 2.07
1.22 99.49 226 9898.26 51076 121.38 275.72 22484.74 1.49
1.11 116.17 162 13495.47 26244 128.95 179.82 18819.54 1.23
0.82 185.66 70 34469.64 4900 152.24 57.4 12996.2 0.67
31.05 2038.81 6471 307155.61 4062413 4737.04 18230.79 995591.55 83.37
2.22 145.63 462.21 21939.69 290172.36 338.36 1302.2 71113.68 5.95

Для наших данных система уравнений имеет вид:
31.05 = 14 b0 + 2038.81b1 + 6471b2
4737.0435 = 2038.81b0 + 307155.6083b1 + 995591.55b2
18230.79 = 6471b0 + 995591.55b1 + 4062413b2
Решая систему методом Крамера, находим:
b0 = 0.1804
b1 = 0.003
b2 = 0.0035
Уравнение регрессии: Y=0.1804+0.003X1+0.0035X2
Y X1 X2 (Yi-Yср)2 (X1i-X1ср)2 (X2i-X2ср)2 (Yi-Yср)(X1i-X1ср) (Yi-Yср)(X2i-X2ср) (X1i-X1ср)(X2i-X2ср)
4.07 182.94 1018 3.43 1392.09 308897.76 69.1 1029.39 20736.76
4 193.45 920 3.18 2286.82 209567.76 85.22 815.84 21891.64
2.98 160.09 686 0.58 209.11 50080.05 11.02 170.56 3236.1
2.2 157.99 405 0.0003 152.79 3273.47 -0.22 1.02 -707.21
2.83 123.83 683 0.37 475.21 48746.33 -13.34 135.15 -4812.97
3 152.02 530 0.61 40.84 4594.9 5 53.02 433.2
2.35 130.53 525 0.0175 227.99 3942.05 -2 8.3 -948.02
2.04 137.38 418 0.0316 68.05 1954.9 1.47 7.86 364.74
1.97 137.58 425 0.0614 64.79 1384.9 2 9.22 299.55
1.02 118.78 161 1.43 720.88 90730.05 32.16 360.81 8087.39
1.44 142.9 242 0.61 7.45 48494.33 2.12 171.3 601.03
1.22 99.49 226 1 2128.83 55797.19 46.04 235.71 10898.76
1.11 116.17 162 1.23 867.85 90128.62 32.64 332.59 8844.1
0.82 185.66 70 1.95 1602.46 153832.05 -55.96 548.26 -15700.62
31.05 2038.81 6471 14.5 10245.16 1071424.36 215.25 3879.04 53224.44
2.22 145.63 462.21 1.04 731.8 76530.31 15.38 277.07 3801.75

2. Анализ качества эмпирического уравнения множественной линейной регрессии.
Построение эмпирического уравнения регрессии является начальным этапом эконометрического анализа. Первое же построенное по выборке уравнение регрессии очень редко является удовлетворительным по тем или иным характеристикам. Поэтому следующей важнейшей оценкой является проверка качества уравнения регрессии. В эконометрике принята устоявшаяся схема такой проверки, которая проводится по следующим направлениям:
• проверка статистической значимости коэффициентов уравнения регрессии;
• проверка общего качества уравнения регрессии;
• проверка свойств данных, выполнимость которых предполагалась при оценивании уравнения (проверка выполнимости предпосылок МНК).
Прежде чем проводить анализ качества уравнения регрессии, необходимо определить дисперсии и стандартные ошибки коэффициентов, а также интервальные оценки коэффициентов.
При этом:


где m=2 – количество объясняющих переменных модели.




Стандартные ошибки коэффициентов:


Y(X1,X2) ei = (Yi-Y(X1,X2)) ei2
4.26 -0.19 0.0357
3.95 0.0503 0.0025
3.04 -0.058 0.0034
2.06 0.14 0.0208
2.92 -0.09 0.0081
2.47 0.53 0.28
2.39 -0.0411 0.0017
2.04 0.0002 0
2.06 -0.0947 0.009
1.09 -0.0721 0.0052
1.44 -0.0049 0
1.26 -0.0406 0.0016
1.09 0.0222 0.0005
0.97 -0.15 0.0239
31.05 -0 0.39
2.22 0 0.0279

3. Оценка мультиколлинеарности факторов.
Парные коэффициенты корреляции.
Для y и x1
Средние значения



Дисперсия


Среднеквадратическое отклонение


Коэффициент корреляции

Для y и x2
Средние значения



Дисперсия


Среднеквадратическое отклонение


Коэффициент корреляции

Для x1 и x2
Средние значения



Дисперсия


Среднеквадратическое отклонение


Коэффициент корреляции

Матрица парных коэффициентов корреляции.

- y x1 x2
y 1 0.56 0.98
x1 0.56 1 0.51
x2 0.98 0.51 1

3. Оценка мультиколлинеарности факторов.
При оценке мультиколлинеарности факторов следует учитывать, что чем ближе к 0 определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии.
Для отбора наиболее значимых факторов xi учитываются следующие условия:
- связь между результативным признаком и факторным должна быть выше межфакторной связи;
- связь между факторами должна быть не более 0.7;
- при высокой межфакторной связи признака отбираются факторы с меньшим коэффициентом корреляции между ними;
Более объективную характеристику тесноты связи дают частные коэффициенты корреляции, измеряющие влияние на результат фактора xi при неизменном уровне других факторов.
Частные коэффициенты корреляции.
Коэффициент частной корреляции отличается от простого коэффициента линейной парной корреляции тем, что он измеряет парную корреляцию соответствующих признаков (y и xi) при условии, что влияние на них остальных факторов (xj) устранено.


Теснота связи не сильная


Теснота связи сильная


Теснота связи не сильная


Теснота связи низкая.


Теснота связи сильная


Теснота связи низкая.
Уравнение регрессии в стандартизированном масштабе.
Другим видом уравнения множественной регрессии может быть уравнение регрессии в стандартизированном масштабе: ty = β1tx1 + β2tx2.
где


βi – стандартные коэффициенты регрессии.
К уравнению множественной регрессии в стандартизированном масштабе применим МНК. Стандартизированные коэффициенты регрессии (β-коэффициенты) определяются из следующей системы уравнений:
ryx1 = β1 + β2rx2x1
ryx2 = β1rx2x1 + β2
Связь коэффициентов множественной регрессии bi со стандартизированными коэффициентами βi описывается соотношением:




Параметр α определяется как:
α=y1·x12·x2


α=14.5-0·145.63-0·462.21=12.46
4. Оценка тесноты связи.
4. Теснота связи результативного признака с факторными определятся величиной коэффициента линейной множественной корреляции и детерминации, который могут быть исчислены на основе матрицы парных коэффициентов корреляции:


Более объективную оценку качества построенной модели дает скорректированный индекс множественной детерминации, учитывающий поправку на число степеней свободы:

где n- число наблюдений, m – число факторов.


Сравнительная оценка влияния анализируемых факторов на результативный признак.
5. Сравнительная оценка влияния анализируемых факторов на результативный признак производится:
- средним коэффициентом эластичности, показывающим на сколько процентов среднем по совокупности изменится результат y от своей средней величины при измени фактора xi на 1% от своего среднего значения;
- β–коэффициенты, показывающие, что, если величина фактора изменится на одно среднеквадратическое отклонение Sxi, то значение результативного признака изменится в среднем на β своего среднеквадратического отклонения;
- долю каждого фактора в общей вариации результативного признака определяют коэффициенты раздельной детерминации (отдельного определения): d2i = ryxiβi.
При этом должно выполняться равенство:
d21 + d22 = R2yx1x2.
Результаты сравнительного анализа факторов оформляются в таблице:
6. Оценка значимости коэффициентов регрессии с помощью t-критерия Стьюдента.
Оценка значимости коэффициентов регрессии b1 и b2 производится с помощью t-критерия Стьюдента и связана с сопоставлением их значений с величиной случайных ошибок mb1 и mb2. Более простым способом расчета фактических значений tb1 и tb2 является их определение через критерии F:
Проверим гипотезу H0 о равенстве отдельных коэффициентов регрессии нулю (при альтернативе H1 не равно) на уровне значимости α=0.05.
tкрит (n-m-1;α/2) = (11;0.025) = 2.201


Поскольку 0.638 < 2.201, то статистическая значимость коэффициента регрессии b0 не подтверждается (принимаем гипотезу о равенстве нулю этого коэффициента).

Поскольку 1.3733 < 2.201, то статистическая значимость коэффициента регрессии b1 не подтверждается (принимаем гипотезу о равенстве нулю этого коэффициента).

Поскольку 17.3651 > 2.201, то статистическая значимость коэффициента регрессии b2 подтверждается (отвергаем гипотезу о равенстве нулю этого коэффициента).
Доверительный интервал для коэффициентов уравнения регрессии.
Определим доверительные интервалы коэффициентов регрессии, которые с надежность 95% будут следующими:
(bj - tкрит Sbj; bj + tкрит Sbj)
(0.1804 - 2.201 • 0.2828; 0.1804 + 2.201 • 0.2828)
(-0.442;0.8028)
С вероятностью 95% можно утверждать, что значение данного параметра b0 будут лежать в найденном интервале.
(0.003 - 2.201 • 0.0022; 0.003 + 2.201 • 0.0022)
(-0.0018;0.0077)
С вероятностью 95% можно утверждать, что значение данного параметра b1 будут лежать в найденном интервале.
(0.0035 - 2.201 • 0.0002; 0.0035 + 2.201 • 0.0002)
(0.003;0.0039)
С вероятностью 95% можно утверждать, что значение данного параметра b2 будут лежать в найденном интервале.
7. Проверка гипотезы о статистической значимости уравнения регрессии.
Проверка гипотезы H0 о статистической значимости уравнения регрессии и показателя тесноты связи (R2 = 0) производится по F-критерию Фишера сравнением Fфакт с Fтабл.
Проверка значимости модели регрессии проводится с использованием F-критерия Фишера, расчетное значение которого находится как отношение дисперсии исходного ряда наблюдений изучаемого показателя и несмещенной оценки дисперсии остаточной последовательности для данной модели.
Если расчетное значение с k1=(m) и k2=(n-m-1) степенями свободы больше табличного при заданном уровне значимости, то модель считается значимой.

где m – число факторов в модели.
Оценка статистической значимости парной линейной регрессии производится по следующему алгоритму:
1. Выдвигается нулевая гипотеза о том, что уравнение в целом статистически незначимо: H0: R2=0 на уровне значимости α.
2. Далее определяют фактическое значение F-критерия:


где m=2 для множественной регрессии с двумя факторами.
3. Табличное значение определяется по таблицам распределения Фишера для заданного уровня значимости, принимая во внимание, что число степеней свободы для общей суммы квадратов (большей дисперсии) равно 2 и число степеней свободы остаточной суммы квадратов (меньшей дисперсии) при линейной регрессии равно n-2-1.
4. Если фактическое значение F-критерия меньше табличного, то говорят, что нет основания отклонять нулевую гипотезу.
В противном случае, нулевая гипотеза отклоняется и с вероятностью (1-α) принимается альтернативная гипотеза о статистической значимости уравнения в целом.
Табличное значение критерия со степенями свободы k1=2 и k2=11, Fkp = 3.98
Поскольку фактическое значение F > Fkp, то коэффициент детерминации статистически значим (найденная оценка уравнения регрессии статистически надежна).
Частные критерии.
Частные критерии Fx1 и Fx2 оценивают статистическую значимость включения факторов x1 и x2 в уравнение множественной регрессии и целесообразность включения в уравнение одного фактора после другого, т.е. Fx1 оценивает целесообразность включения в уравнение x1 после включения в него фактора x2.
Соответственно Fx2 указывает на целесообразность включения в модель фактора x2 после включения фактора x1.



Поскольку фактическое значение F < Fkp, то коэффициент Fx1 статистически не значим, т.е. не целесообразно включать в уравнение x1 после включения в него фактора x2.

Поскольку фактическое значение F < Fkp, то коэффициент Fx2 статистически не значим, т.е. не целесообразно включать в уравнение x2 после включения в него фактора x1.
Проверка наличия предпосылок МНК.
1. первая предпосылка МНК – случайный характер остатков εi. Для проверки этого свойства определяют значения εi и строится график зависимости εi от теоретических значений результативного признака.
Если на графике получена горизонтальная полоса остатков εi то они представляют собой случайные величины и МНК оправдан, теоретические значения yx независимы от εi.
При этом возможны следующие случаи, если εi зависит от yx:
- остатки εi не случайны;
- остатки εi не имеют постоянной дисперсии;
- остатки εi носят систематический характер.
2. Вторая предпосылка МНК – нулевая средняя величина остатков, не зависящая от εi. Для проверки этой предпосылки строится график зависимости случайных остатков εi от факторов, включенных в регрессию xi.
Если остатки на графике расположены в виде горизонтальной полосы, то они независимы от значений xi. Если же график показывает зависимости εi от xi, то это свидетельствует о наличии систематической погрешности модели, причины которой могут быть разные.
Возможно, нарушена третья предпосылка МНК и дисперсия остатков не постоянна для каждого значения фактора xi. Может быть, неправильно подобрана модель.
Корреляция случайны остатков с факторными признаками, позволяет проводить корректировку модели, например, использовать кусочно-линейные модели.
3. В соответствии с третей предпосылкой МНК требуется, чтобы дисперсия остатков была гомоскедастичной. Это значит, что для каждого значения фактора xi остатки εi имеют одинаковую дисперсию. Если это условие применения МНК не соблюдается, то имеет место гетероскедастичность.
Проверка на наличие гетероскедастичности.
a) Методом графического анализа остатков.
В этом случае по оси абсцисс откладываются значения объясняющей переменной Xi, а по оси ординат квадраты отклонения εi2.
Если имеется определенная связь между отклонениями, то гетероскедастичность имеет место. Отсутствие зависимости скоре всего будет свидетельствовать об отсутствии гетероскедастичности.
b) При помощи теста ранговой корреляции Спирмена.
4. При построение регрессионных моделей важно соблюдение четвертой предпосылки МНК – отсутствие автокорреляции остатков, т.е. значения остатков εi распределены независимо друг от друга.
Автокорреляция остатков означает наличие корреляции между остатками текущих и предыдущих (последующих) наблюдений. Коэффициент автокорреляции определяется по формуле линейного коэффициента корреляции:

Отсутствие автокорреляции остаточных величин обеспечивает состоятельность и эффективность оценок коэффициентов регрессии.
Пятая предпосылка МНК о нормальном распределении остатков может быть визуально проверена путем графического изображения ряда распределения остаточных величин и сравнения с кривой нормального распределения.
О соответствии эмпирического распределения теоретическому можно судить по величине эксцесса (Е≈0).

где М4 – центральный момент четвертого порядка, который определяется по формуле :