Опубликован: 10.09.2016 | Доступ: свободный | Студентов: 946 / 165 | Длительность: 15:27:00
Тема: Экономика
Лекция 2:

Парный регрессионный анализ

2.1. Основные понятия регрессионного анализа

Регрессионный анализ является одним из наиболее распространенных инструментов эконометрического анализа. Он позволяет проанализировать и оценить связи между зависимой (объясняемой) и независимыми (объясняющими) переменными. Зависимую переменную иногда называют результативным признаком, а объясняющие переменные - предикторами, регрессорами или факторами. Как это часто бывает, название этого метода не связано с его сутью, а имеет исторические корни. Термин "регрессия" ввел лорд Ф. Гальтон (1822-1911), исследуя связь между ростом родителей и детей. Он установил, что хотя у высоких родителей - высокие дети, а у невысоких чаще рождаются маленькие дети, рост детей имеет тенденцию к постепенному выравниванию, т.е. стремится к средним значениям. Будучи аристократом, Ф. Гальтон к такой тенденции относился негативно и потому назвал ее регрессией (упадком).

Обозначим зависимую (объясняемую) переменную как y, а независимые (объясняющие) переменные как x_{1}, x_{2}, \dots, x_{k}. Если k = 1 и есть только одна независимая переменная x_{1} (которую обозначим x), то регрессия называется простой (simple), или парной. Если k = 2, 3, \dots то регрессия называется множественной.

Теперь обратимся к вопросам, связанным с априорными предположениями, оценкой коэффициентов и доверительными интервалами для прогноза парной регрессии.

Начнем с построения простейшей модели

Y = \alpha + \beta x + \varepsilon, (2.1)

где Y - зависимая переменная, состоящая из двух слагаемых: 1) неслучайной составляющей Y_{1} = \alpha + \beta x (x - независимая переменная, \alpha и \beta - постоянные числа - параметры уравнения); 2) случайного члена \varepsilon.

Допустим, мы имеем данные, представленные в двух видах: табличном (табл. 2.1) и графическом (рис. 2.1). Предположим, что истинная зависимость между x и y - линейная, т.е. существует некая прямая Y_{1} = \alpha + \beta x, отражающая "истинную" зависимость. Задача регрессионного анализа состоит в получении оценок \alpha , \beta, а следовательно, и положения прямой. На рисунке 2.2 такое уравнение построено с помощью пакета STATISTICA.

Таблица 2.1



Рис. 2.1.

Рис. 2.2.

Существование отклонений от прямой регрессии, т.е. случайных слагаемых \varepsilon, объясняется рядом причин. К ним относятся:

  1. ошибки измерения. Например, при сборе данных об урожайности сельскохозяйственных культур, результаты работы в отчетах могут завышаться или занижаться в зависимости от экономической политики, или оцениваться "на глазок" и т.д.;
  2. невключение объясняющих переменных. Возможно, что простая зависимость Y = \alpha + \beta x является очень большим упрощением. Наверняка существуют и другие влияющие на изменение Y, факторы, которые не удалось оценить и включить в уравнение;
  3. неправильный выбор вида зависимости в уравнении. Возможно, зависимость не линейная, а более сложная. Приведем наиболее употребительные виды связей, используемые при построении парной регрессии:
Y = a + b/x; Y = ax^{b}; Y = ab^{x}; Y = a + bx + cx^{2};
Y = a + bx + cx^{2} + dx^{3};
Y = 1/(a + bx); Y = a + bx + c/x;
Y = 1/(a + bx + cx^{2}); Y = a + b x \cdot tg x;
\ln{Y} = a + bx; Y = a/(1 + be^{cx})\ и\ др.

Вид зависимости выбирают либо графически, либо проверяя качество моделей на контрольной выборке, либо используя априорные экономические соображения. Например, валовой выпуск продукции Y в зависимости от числа занятых в производстве работников x может быть описан уравнением Y = ax^{b}, где 0 < b < 1. Разделив уравнение слева и справа на x, получим зависимость производительности труда от числа работников в производстве: Y_{1} = a/x^{1 - b }= a/x^{c}, где 0 < c < 1;

  1. отражение уравнением регрессии связи между агрегированными переменными. Например, зависимость между урожайностью и количеством внесенных удобрений индивидуальна для различных полей, и любая попытка определить зависимость между совокупным урожаем и совокупным внесением удобрений является лишь приближением (аппроксимацией).

Для оценки параметров \alpha , \beta обычно применяют метод наименьших квадратов (МНК). Существуют и другие методы оценки параметров, например: метод моментов, метод наименьших модулей, метод максимального правдоподобия.

Инесса Воробьева
Инесса Воробьева

В дисциплине "Основы эконометрики" тест 6 дается по теме 7.