Национальный исследовательский университет "Высшая Школа Экономики"
Опубликован: 10.08.2007 | Доступ: свободный | Студентов: 3202 / 150 | Оценка: 4.07 / 3.76 | Длительность: 20:47:00
ISBN: 978-5-9556-0107-6
Лекция 7:

Стратегия и тактика фирмы в отношении спроса

Оценка параметров функции спроса

Для того чтобы планировать свои действия в долгосрочном периоде, фирме необходимо знать типы зависимостей, которыми характеризуется рынок, вплоть до их точной количественной интерпретации. Поэтому зачастую фирме не только приходится собирать нужную информацию относительно взаимосвязи цены и количества продаваемого на рынке товара, но и подбирать теоретическую модель, которая в наибольшей степени соответствовала бы текущей ситуации, а также оценивать параметры модели с точки зрения их достоверности. Рассмотрим, каким образом это происходит.

Первый этап заключается в том, чтобы на основе произведенных наблюдений цены и объема сбыта выбрать подходящую форму предполагаемой зависимости.

Для спроса могут быть следующие функции:

  1. Линейная
    Y = a_0  + a_1 X + e,
    где а0 > 0 ; а1 < 0 - параметры функции спроса; е - показатель случайной ошибки.

  2. Логарифмическая
    \ln Y = a_0  + a_1 \ln X + e,\text{ }a_1 < 0

  3. Полулогарифмическая
    Y = a_0  + a_1 \ln X + e,\text{ }a_1 < 0

Для анализа издержек (или функции предложения конкурентов) чаще всего используются зависимости:

  1. Линейная
    Y = a_0  + a_1 X + e,\text{ }a_1 > 0

  2. Параболическая
    Y = a_0  + a_1 X + a_2 X^2  + e,\text{ }a_1  < 0,\text{ }a_2  > 0

  3. Логарифмическая
    \ln Y = a_0  + a_1 X + e,\text{ }a_1  > 0

Мы исследуем простую форму взаимосвязи, которая дает общее представление о механизме анализа рынка, поскольку именно простая регрессионная модель является основой для более сложных построений.

Общий вид модели таков:

Y = a_0  + a_1 X_1  + a_2 X_2  + e,
где a0, a1 и а2 - параметры регрессионной функции; X1 и X2 - независимые переменные (объясняющие переменные); Y - зависимая переменная (объясняемая переменная); e - показатель случайной ошибки (прочих, неучтенных факторов, оказывающих влияние на зависимую переменную).

При определении параметров взаимосвязи задача заключается в том, чтобы минимизировать расхождения между реальными данными наблюдений и теоретической моделью. Поскольку отклонения могут быть в обе стороны: как превышение, так и недостижение теоретически вычисленного значения, - целесообразно минимизировать не абсолютные значения отклонений, а их квадраты. Поэтому данный метод получил еще название "метод наименьших квадратов". Использование метода наименьших квадратов предполагает применение обычных математических методов оптимизации, поиски минимального значения какой-либо функции: \partial Y/\partial X_{i} = 0.

Второй этап представляет собой оценку значимости параметров. Другими словами, необходимо выяснить, действительно ли (и насколько) мы можем доверять полученной теоретической модели для предсказания будущего поведения рынка.

Предварительное замечание: оценка параметров регрессии базируется на предпосылке о нормальности распределения данных; кроме того, предполагается, что и случайная ошибка имеет нормальное распределение.

Нормальное распределение, используемое для оценки степени достоверности параметров модели спроса

Рис. 6.6. Нормальное распределение, используемое для оценки степени достоверности параметров модели спроса

Методы оценки базируются на проверки двух гипотез: Н1 - гипотеза о наличии зависимости данного рода; Н2 - нулевая гипотеза об отсутствии такой зависимости, a характеризует выбранную точность исследования (вероятность ошибки), Ха является средней показателя, Х1 и Х2 характеризуют доверительный интервал, размер которого задается через выбор a, так что с помощью статистической таблицы можно определить для данного доверительного интервала значение показателя для сравнения с модельным (рис. 6.6).

Два метода: R2 и F, характеризуют регрессию в целом; другие два: стандартная ошибка и t-статистика, применимы для оценки каждого параметры в отдельности. Показатель вероятности используется для оценки как регрессии в целом, так и отдельных параметров.

  • R2

    R2 показывает, насколько данная переменная объясняется регрессией, то есть данный показатель можно охарактеризовать как R2 = изменение, объясняемое регрессией / совокупное изменение переменной. R2 измеряется в долях или в процентах. Например, R2 = 0,80 означает, что 80% изменения Y (величины спроса) объясняется изменениями в X (цене товара).

    Для простой регрессии показатель рассчитывается как

    R^2  = 1 - \left[ {S(Yi - Yi(T))^2 /S(Yi - Ya)^2 } \right],
    где Yi - реальное значение объясняемой величины; Yi(T) - ее теоретическое значение (по модели); Ya - среднее значение объясняемой величины.

    Чем ближе показатель к единице, тем в большей степени теоретическая модель подходит для наблюдаемых данных. Чем ближе показатель к нулю, тем хуже данная теоретическая модель объясняет реальную зависимость между переменными.

  • Коэффициент F

    Коэффициент F показывает, может ли статистически значимая доля совокупного изменения Y быть объяснена через независимые переменные. Рассчитывается по формуле (для простого случая)

    F = R^2 (N - K)/(1 - R^2 )(K - 1),
    где N - число переменных модели; K - число независимых переменных.

    F характеризует степень доверия к модели в случае множественной регрессии (то есть для ситуации, когда объем спроса зависит от нескольких переменных - цены данного товара, цен других товаров, дохода).

    Решение принимается на основе сопоставления расчетного (для модели) значения F (FT) с табличным значением F (F*).

    Если FT > F*, то нулевую гипотезу о том, что взаимосвязи между переменными не существует, следует отвергнуть, то есть хотя бы один из параметров объясняющих переменных действительно отличен от нуля и может объяснить существующую зависимость. Если же FT < F*, то это означает, что модель не может объяснить существующие зависимости, нулевую гипотезу отвергнуть нельзя.

  • стандартная ошибка

    Стандартная ошибка характеризует типичное отклонение реальной величины показателя от его вычисленного значения. стандартная ошибка параметра, как правило, указывается в скобках уравнения регрессии и рассчитывается в компьютерных программах одновременно со значениями параметров. Она нужна для определения доверительного интервала - интервала, где с выбранной вероятностью находятся реальные значения измеряемой величины. Действительное значение величины будет определяться как

    Yi = Yi(T) + 2s,
    где Yi - действительное значение величины; Yi(T) - теоретическое значение величины; s - стандартная ошибка.

    Здесь можно применить такое правило: если доверительный интервал (то есть интервал [Yi(T) - 2s; Yi(T) + 2s] ) содержит нуль, то параметр является статистически незначимым (он незначительно отличается от нуля). Если нуля нет, параметру можно доверять.

  • t-статистика

    t-статистика проверяет, влияет ли данная независимая переменная на зависимую переменную. Если параметр равен нулю (нулевая гипотеза верна), то при выбранной вероятности оценки t-статистика должна попасть в доверительный интервал распределения t-статисти-ки, который определяется по статистической таблице. Если t-статистика не попадает в данный интервал, то параметр отличен от нуля (нулевая гипотеза неверна). Другими словами, если абсолютное значение t-статистики модели больше t-статистики таблицы (согласно статистическому распределению), то нулевую гипотезу можно отвергнуть. И наоборот.

    Значение t-статистики для параметра определяем как

    t = b/s_b ,
    где s_b  = \sqrt {S_e^2 } /\sum {(X - Xa)^2 } - стандартное отклонение параметра b; s_e  = \sum {(Y - Ya)^2 } /(n - 2) - стандартное отклонение случайного фактора; Xa и Ya - средние значения переменных; X и Y - данные наблюдений; (n - к - 1) степеней свободы модели, n - число переменных модели; k - число независимых переменных.

    Итак, алгоритм проверки значимости параметров состоит из следующих шагов:

    • выбрать уровень значимости (вероятность оценки) исследования;
    • вычислить t-статистику (часто в компьютерных программах дается одновременно со значением параметра);
    • найти табличное значение t-статистики для данного уровня значимости с данными степенями свободы;
    • принять решение:
      • если t0 > t1 (для положительных параметров)
      • или t0 < (-t1) (для отрицательных параметров),
      то нулевую гипотезу можно отвергнуть; следовательно, параметр является достоверным; наша переменная X действительно оказывает какое-то влияние на Y ; если t0 <= t1 (для положительных параметров) или (-t1) <= t0 (для отрицательных параметров), то нулевую гипотезу нельзя отвергнуть; следовательно, достоверность параметра сомнительна ( t0 - расчетное значение для модельной переменной; t1 - табличное значение).

    В практических целях при большой выборке ( n > 30 ) часто можно брать за табличное значение t-статистики 2, то есть если |t0| > 2, то нулевую гипотезу можно отвергнуть.

  • Вероятность, при которой нулевая гипотеза неверна.

    Данная вероятность характеризует степень объяснимости модели, то есть показывает уровень значимости, при котором нулевая гипотеза верна (а параметры статистически незначимы).

    Она рассчитывается по табличным значениям

    P = \Pr \left[ {\left| {t_0 } \right| > t_1 } \right],
    где P - достигнутый уровень значимости модельных параметров; Рr - вероятность.

    Тогда новое правило принятия решения будет таким: если Р нас удовлетворяет ( Р < А, где А - минимальный уровень значимости, подходящий для модели, выбирается заранее), то нулевую гипотезу можно отвергнуть.

Дмитрий Лямин
Дмитрий Лямин
Анна Корнева
Анна Корнева

Подскажите, пожалуйста, помимо самого обучения 1 руб. и отправки диплома по почте (за пересылку), ещё нужно платить за оформление самого диплома или удостоверения?

Анатолий Федоров
Анатолий Федоров
Россия, Москва, Московский государственный университет им. М. В. Ломоносова, 1989
Александр Качанов
Александр Качанов
Япония, Токио