Частные коэффициенты эластичности


Частные коэффициенты эластичности определяются по формуле

Пример. 1. Оценка уравнения регрессии. Определим вектор оценок коэффициентов регрессии. Согласно методу наименьших квадратов, вектор получается из выражения:
s = (XTX)-1XTY
Матрица X

1 117.7 81.6 8.3 6.03
1 123.8 73.2 8.4 6.07
1 126.9 75.3 8.5 6.11
1 134.1 71.3 8.5 6.13
1 123.1 77.3 8.3 6.16
1 126.7 76 8.1 6.2
1 130.4 76.6 8.1 6.24
1 129.3 84.7 8.3 7.91
1 145.4 92.4 8.6 16.07
1 163.8 80.3 8.9 16.01
1 164.8 82.6 9.4 17.88
1 227.2 70.9 9.7 20.65
1 164 89.9 10.1 22.6
1 183.7 81.3 10.4 22.86
1 195.8 83.7 10 24.18
1 219.4 76.1 9.6 24.23
1 209.8 80.4 9.1 24.44
1 223.3 78.1 8.8 24.22
1 223.6 79.8 8.7 24.19
1 236.6 82.1 8.6 24.75
1 236.6 83.2 8.7 25.08
1 248.6 80.8 8.9 26.05
1 253.4 81.8 9.1 26.42
1 351.4 68.3 9.1 27

Можно также посмотреть, как было найдено решение аналогичного примера.


Матрица Y
72.9
67
69.7
70
69.8
69.1
70.7
80.1
105.2
102.5
108.7
134.8
116.7
117.8
128.7
129.8
133.1
136.3
139.7
151
154.6
160.2
163.2
191.7

Матрица XT
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
117.7 123.8 126.9 134.1 123.1 126.7 130.4 129.3 145.4 163.8 164.8 227.2 164 183.7 195.8 219.4 209.8 223.3 223.6 236.6 236.6 248.6 253.4 351.4
81.6 73.2 75.3 71.3 77.3 76 76.6 84.7 92.4 80.3 82.6 70.9 89.9 81.3 83.7 76.1 80.4 78.1 79.8 82.1 83.2 80.8 81.8 68.3
8.3 8.4 8.5 8.5 8.3 8.1 8.1 8.3 8.6 8.9 9.4 9.7 10.1 10.4 10 9.6 9.1 8.8 8.7 8.6 8.7 8.9 9.1 9.1
6.03 6.07 6.11 6.13 6.16 6.2 6.24 7.91 16.07 16.01 17.88 20.65 22.6 22.86 24.18 24.23 24.44 24.22 24.19 24.75 25.08 26.05 26.42 27

Умножаем матрицы, (XTX)
24 4459.4 1907.7 214.2 417.47
4459.4 907391.96 353017.36 40134.04 87383.93
1907.7 353017.36 152366.77 17041.58 33412.82
214.2 40134.04 17041.58 1921.32 3807
417.47 87383.93 33412.82 3807 8907.78

В матрице, (XTX) число 24, лежащее на пересечении 1-й строки и 1-го столбца, получено как сумма произведений элементов 1-й строки матрицы XT и 1-го столбца матрицы X
Умножаем матрицы, (XTY)

2743.3
557558.59
218286.47
24740.08
54488.32

Находим определитель det(XTX)T = 871494173124.25
Находим обратную матрицу (XTX)-1
67.5762 -0.0883 -0.4341 -3.3069 0.7404
-0.0883 0.0002 0.0006 0.0037 -0.0012
-0.4341 0.0006 0.0036 0.0134 -0.0047
-3.3069 0.0037 0.0134 0.2444 -0.0358
0.7404 -0.0012 -0.0047 -0.0358 0.01

Вектор оценок коэффициентов регрессии равен
s = (XTX)-1XTY =

-55.01
0.43
0.86
-1.14
0.95

Уравнение регрессии (оценка уравнения регрессии)
Y = -55.0117 + 0.4315X 1 + 0.8571X 2-1.1392X 3 + 0.9481X 4
2. Матрица парных коэффициентов корреляции.
Число наблюдений n = 24. Число независимых переменных в модели ровно 4, а число регрессоров с учетом единичного вектора равно числу неизвестных коэффициентов. С учетом признака Y, размерность матрицы становится равным 6. Матрица, независимых переменных Х имеет размерность (24 х 6). Матрица ХT Х определяется непосредственным умножением или по следующим предварительно вычисленным суммам.
Матрица составленная из Y и X

1 72.9 117.7 81.6 8.3 6.03
1 67 123.8 73.2 8.4 6.07
1 69.7 126.9 75.3 8.5 6.11
1 70 134.1 71.3 8.5 6.13
1 69.8 123.1 77.3 8.3 6.16
1 69.1 126.7 76 8.1 6.2
1 70.7 130.4 76.6 8.1 6.24
1 80.1 129.3 84.7 8.3 7.91
1 105.2 145.4 92.4 8.6 16.07
1 102.5 163.8 80.3 8.9 16.01
1 108.7 164.8 82.6 9.4 17.88
1 134.8 227.2 70.9 9.7 20.65
1 116.7 164 89.9 10.1 22.6
1 117.8 183.7 81.3 10.4 22.86
1 128.7 195.8 83.7 10 24.18
1 129.8 219.4 76.1 9.6 24.23
1 133.1 209.8 80.4 9.1 24.44
1 136.3 223.3 78.1 8.8 24.22
1 139.7 223.6 79.8 8.7 24.19
1 151 236.6 82.1 8.6 24.75
1 154.6 236.6 83.2 8.7 25.08
1 160.2 248.6 80.8 8.9 26.05
1 163.2 253.4 81.8 9.1 26.42
1 191.7 351.4 68.3 9.1 27

Транспонированная матрица.

1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
72.9 67 69.7 70 69.8 69.1 70.7 80.1 105.2 102.5 108.7 134.8 116.7 117.8 128.7 129.8 133.1 136.3 139.7 151 154.6 160.2 163.2 191.7
117.7 123.8 126.9 134.1 123.1 126.7 130.4 129.3 145.4 163.8 164.8 227.2 164 183.7 195.8 219.4 209.8 223.3 223.6 236.6 236.6 248.6 253.4 351.4
81.6 73.2 75.3 71.3 77.3 76 76.6 84.7 92.4 80.3 82.6 70.9 89.9 81.3 83.7 76.1 80.4 78.1 79.8 82.1 83.2 80.8 81.8 68.3
8.3 8.4 8.5 8.5 8.3 8.1 8.1 8.3 8.6 8.9 9.4 9.7 10.1 10.4 10 9.6 9.1 8.8 8.7 8.6 8.7 8.9 9.1 9.1
6.03 6.07 6.11 6.13 6.16 6.2 6.24 7.91 16.07 16.01 17.88 20.65 22.6 22.86 24.18 24.23 24.44 24.22 24.19 24.75 25.08 26.05 26.42 27

Матрица ATA.

24 2743.3 4459.4 1907.7 214.2 417.47
2743.3 344649.05 557558.59 218286.47 24740.08 54488.32
4459.4 557558.59 907391.96 353017.36 40134.04 87383.93
1907.7 218286.47 353017.36 152366.77 17041.58 33412.82
214.2 24740.08 40134.04 17041.58 1921.32 3807
417.47 54488.32 87383.93 33412.82 3807 8907.78

Полученная матрица имеет следующее соответствие:


Найдем парные коэффициенты корреляции.
Для y и x1
Уравнение имеет вид y = ax + b
Средние значения



Дисперсия


Среднеквадратическое отклонение


Коэффициент корреляции

Для y и x2
Уравнение имеет вид y = ax + b
Средние значения



Дисперсия


Среднеквадратическое отклонение


Коэффициент корреляции

Для y и x3
Уравнение имеет вид y = ax + b
Средние значения



Дисперсия


Среднеквадратическое отклонение


Коэффициент корреляции

Для y и x4
Уравнение имеет вид y = ax + b
Средние значения



Дисперсия


Среднеквадратическое отклонение


Коэффициент корреляции

Для x1 и x2
Уравнение имеет вид y = ax + b
Средние значения



Дисперсия


Среднеквадратическое отклонение


Коэффициент корреляции

Для x1 и x3
Уравнение имеет вид y = ax + b
Средние значения



Дисперсия


Среднеквадратическое отклонение


Коэффициент корреляции

Для x1 и x4
Уравнение имеет вид y = ax + b
Средние значения



Дисперсия


Среднеквадратическое отклонение


Коэффициент корреляции

Для x2 и x3
Уравнение имеет вид y = ax + b
Средние значения



Дисперсия


Среднеквадратическое отклонение


Коэффициент корреляции

Для x2 и x4
Уравнение имеет вид y = ax + b
Средние значения



Дисперсия


Среднеквадратическое отклонение


Коэффициент корреляции

Для x3 и x4
Уравнение имеет вид y = ax + b
Средние значения



Дисперсия


Среднеквадратическое отклонение


Коэффициент корреляции

Матрица парных коэффициентов корреляции.

- y x1 x2 x3 x4
y 1 0.97 0.05 0.47 0.95
x1 0.97 1 -0.19 0.38 0.86
x2 0.05 -0.19 1 0.18 0.21
x3 0.47 0.38 0.18 1 0.65
x4 0.95 0.86 0.21 0.65 1

Анализ первой строки этой матрицы позволяет произвести отбор факторных признаков, которые могут быть включены в модель множественной корреляционной зависимости. Факторные признаки, у которых ryxi < 0.5 исключают из модели.
Коллинеарность - зависимость между факторами. В качестве критерия мультиколлинеарности может быть принято соблюдение следующих неравенств:
r(xjy) > r(xkxj) ; r(xky) > r(xkxj).
Если одно из неравенств не соблюдается, то исключается тот параметр xk или xj, связь которого с результативным показателем Y оказывается наименее тесной.
3. Анализ параметров уравнения регрессии.
Перейдем к статистическому анализу полученного уравнения регрессии: проверке значимости уравнения и его коэффициентов, исследованию абсолютных и относительных ошибок аппроксимации
Для несмещенной оценки дисперсии проделаем следующие вычисления:
Несмещенная ошибка e = Y - X*s (абсолютная ошибка аппроксимации)

10.93
9.67
9.31
9.91
9.05
7.65
7.11
8.68
12.84
12.97
15.56
22.48
13.97
14.04
15.95
12.88
15.87
15.08
16.81
19.89
22.34
24.13
24.08
21.31

se2 = (Y - X*s)T(Y - X*s)
Несмещенная оценка дисперсии равна

Оценка среднеквадратичного отклонения равна

Найдем оценку ковариационной матрицы вектора k = σ*(XTX)-1

1183.8 -1.55 -7.6 -57.93 12.97
-1.55 0 0.01 0.06 -0.02
-7.6 0.01 0.06 0.23 -0.08
-57.93 0.06 0.23 4.28 -0.63
12.97 -0.02 -0.08 -0.63 0.17

Дисперсии параметров модели определяются соотношением S 2i = Kii, т.е. это элементы, лежащие на главной диагонали
С целью расширения возможностей содержательного анализа модели регрессии используются частные коэффициенты эластичности, которые определяются по формуле


Частные коэффициент эластичности E1 < 1. Следовательно, его влияние на результативный признак Y незначительно.

Частные коэффициент эластичности E2 < 1. Следовательно, его влияние на результативный признак Y незначительно.

Частные коэффициент эластичности E3 < 1. Следовательно, его влияние на результативный признак Y незначительно.

Частные коэффициент эластичности E4 < 1. Следовательно, его влияние на результативный признак Y незначительно.
Тесноту совместного влияния факторов на результат оценивает индекс множественной корреляции (от 0 до 1)

Связь между признаком Y факторами X сильная
Коэффициент детерминации
R 2= 0.9 2 = 0.81
т.е. в 81.2384 % случаев изменения х приводят к изменению y. Другими словами - точность подбора уравнения регрессии - высокая
Значимость коэффициента корреляции

По таблице Стьюдента находим Tтабл
Tтабл (n-m-1;a) = (19;0.05) = 1.729
Поскольку Tнабл > Tтабл , то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициента корреляции статистически - значим.

4. Оценка значения результативного признака при заданных значениях факторов.
Y(0.0,0.0,0.0,0.0,) = -55.01 + 0.4315 * 0.0 + 0.8571 * 0.0-1.1392 * 0.0 + 0.9481 * 0.0 = -55.01
Доверительные интервалы с вероятностью 0.95 для индивидуального значения результативного признака.
S2 = X0T(XTX)-1X0
где
X0T = [ 1 0.0 0.0 0.0 0.0]
(XTX)-1

67.5762 -0.0883 -0.4341 -3.3069 0.7404
-0.0883 0.0002 0.0006 0.0037 -0.0012
-0.4341 0.0006 0.0036 0.0134 -0.0047
-3.3069 0.0037 0.0134 0.2444 -0.0358
0.7404 -0.0012 -0.0047 -0.0358 0.01

X0

1
0
0
0
0

S2 = 67.58

(Y - t*SY ; Y + t*SY )
(-55.01 - 1.729*144.01 ; -55.01 + 1.729*144.01)
(-304;193.98)
Доверительные интервалы с вероятностью 0.95 для среднего значения результативного признака.

(-55.01 - 1.729*145.07 ; -55.01 + 1.729*145.07)
(-305.84;195.82)
5. Проверка гипотез относительно коэффициентов уравнения регрессии (проверка значимости параметров множественного уравнения регрессии).
1) t-статистика


Статистическая значимость коэффициента регрессии b0 не подтверждается

Статистическая значимость коэффициента регрессии b1 подтверждается

Статистическая значимость коэффициента регрессии b2 подтверждается

Статистическая значимость коэффициента регрессии b3 не подтверждается

Статистическая значимость коэффициента регрессии b4 подтверждается
Доверительный интервал для коэффициентов уравнения регрессии
Определим доверительные интервалы коэффициентов регрессии, которые с надежность 95% будут следующими:
(bi - t i S i; bi + t i S i)
b 0: (-114.5003;4.477)
b 1: (0.3419;0.521)
b 2: (0.4234;1.2908)
b 3: (-4.7171;2.4386)
b 4: (0.2255;1.6707)
2) F-статистика. Критерий Фишера


Fkp = 2.74
Поскольку F > Fkp, то коэффициент детерминации статистически значим и уравнение регрессии статистически надежно
6. Проверка на наличие гетероскедастичности методом графического анализа остатков.
В этом случае по оси абсцисс откладываются значения объясняющей переменной Xi, а по оси ординат квадраты отклонения ei2.
y y(x) e=y-y(x) e2
72.9 61.97 10.93 119.44
67 57.33 9.67 93.44
69.7 60.39 9.31 86.69
70 60.09 9.91 98.14
69.8 60.75 9.05 81.96
69.1 61.45 7.65 58.59
70.7 63.59 7.11 50.49
80.1 71.42 8.68 75.43
105.2 92.36 12.84 164.96
102.5 89.53 12.97 168.19
108.7 93.14 15.56 242.2
134.8 112.32 22.48 505.4
116.7 102.73 13.97 195.26
117.8 103.76 14.04 197.11
128.7 112.75 15.95 254.54
129.8 116.92 12.88 165.94
133.1 117.23 15.87 251.85
136.3 121.22 15.08 227.49
139.7 122.89 16.81 282.61
151 131.11 19.89 395.42
154.6 132.26 22.34 499.23
160.2 136.07 24.13 582.3
163.2 139.12 24.08 579.83
191.7 170.39 21.31 454.3
загрузка...