Новосибирский Государственный Университет
Опубликован: 06.11.2008 | Доступ: свободный | Студентов: 3338 / 1210 | Оценка: 4.24 / 3.67 | Длительность: 14:37:00
Специальности: Математик
Лекция 12:

Основные понятия последовательного анализа

< Лекция 11 || Лекция 12: 12 || Лекция 13 >

Получение случайных выборок

Каждому из нас приходится иметь дело с ненадежными прогнозами погоды, с долговременными планами и прогнозами в промышленности и политике. Так как будущее нам сегодня не известно, исследование будущего (футурология) стоит перед вопросами о том, что может быть на переднем крае в интересующей нас области. На некоторых аспектах прогностики стоит коротко остановиться.

Распространение выводов, получаемых по выборке, на всю генеральную совокупность, используемое при предварительных расчетах результатов выборов, в официальной статистике, при изучении рынка или общественного мнения и тому подобное, называется предсказанием (Hochrechnung), так как при этом частота появления признака n_i/n, определенная по выборке, умножается на число элементов в генеральной совокупности N и образует оценку N_i=\frac{n_i}{n}N. Примерно так компьютер по немногим поступившим данным предсказывает результат выборов.

Долговременные прогнозы, или, лучше сказать, предварительные оценки, например, роста населения, потребления энергии, рынка рабочей силы, образуются на основе анализа тенденции развития; реже, но с большими предубеждениями и большими ошибками – на основании аналогии (и интуииции).

Среди немногих известных источников ошибок следует указать на неучет обратного влияния правильных, разумных предсказаний. Предсказанная в 1955 году в США резкая нехватка научных кадров в 1965-1970 годах не реализовалась. Число учащихся выросло скачком (вероятно, именно вследствие этой мрачной перспективы). Этот пример отчетливо показывает возможное влияние предварительных прогнозов.

Если необходимая для прогноза информация полностью или почти отсутствует, то пользуются методом опроса компетентных специалистов, методом экспертных оценок . Способ заключается в том, что экспертам выдается тщательно продуманная анкета. Слишком субъективные и необычные мнения можно исключить, сообщая участникам остальные ответы, чтобы каждый еще раз мог продумать свое мнение с учетом остальных. После нескольких подобных операций образуется общее мнение, которое может качественно превосходить каждое отдельное мнение.

Последовательные проверки статистических гипотез

В классической теории математической статистики объем выборки считается постоянным для каждой задачи. Существенным в последовательной проверке гипотез является то, что количество наблюдений, необходимых для принятия решения, зависит от исхода самих наблюдений и является случайной величиной. Сущность такой проверки состоит в следующем.

Пусть установлено некоторое правило, в соответствии с которым на каждом этапе эксперимента принимается одно из трех решений:

  • принять гипотезу;
  • отклонить гипотезу;
  • продолжить эксперимент и провести дополнительное наблюдение.

Тогда после первого наблюдения проверка может быть закончена, если принято одно из первых решений, или производится второе наблюдение, если принято третье решение. На основе двух наблюдений опять принимается одно из трех решений и так далее, пока не будет принято первое или второе решение. Поясним это на примере выборочной проверки партии, состоящей из N однотипных изделий.

Предположим, что задано допустимое отношение числа негодных деталей N_0 к общему их количеству N, то есть

P^{\prime}=\frac{N_0}{N} ( 12.1)

В результате выборочного контроля будет получено отношение

P=\frac{m}{n} ( 12.2)

где m — число негодных изделий выборки;

nобъем выборки (число испытаний).

Если бы отношение (12.2.) полностью соответствовало отношению (12.1.), то при P\le P^{\prime} вся партия была бы принята, а при P > P^{\prime} — забракована.

Однако точное значение P остается неизвестным, и это может привести к ошибке — существенной или несущественной. Для ее оценки устанавливаются границы отношения P^{\prime}, которые обозначаются через P_0 и P_1. Ошибка считается существенной и называется ошибкой первого рода, если партия бракуется при P\le P_0, или ошибкой второго рода, если принимаются при P\ge P_1. Следовательно, сущность ошибки первого рода заключается в том, что бракуется партия при малом проценте брака, а сущность ошибки второго рода – что принимается партия при большом проценте брака.

Если задаться вероятностью \alpha совершить ошибку первого рода и вероятностью \beta совершить ошибку второго рода, то вероятность забраковать партию при P\le P_0 должна быть не больше \alpha, вероятность принять партию при P\ge P_1 не больше \beta. Отсюда вероятность забраковать партию при P=P_0 будет равна \alpha, а вероятность принять партию при P=P_0 равна \beta.

После проверки n изделий, среди которых оказалось m негодных и n-m

годных изделий, можно определить вероятность получения такого результата по следующей формуле:

P_n(P)=P^m(1-P)^{n-m},

где Pвероятность того, что изделие не удовлетворяет требованиям.

Для граничных условий получим следующие выражения:

P_n(P_0)=P^m_0(1-P_0)^{n-m},\\ P_n(P_1)=P^m_1(1-P_2)^{n-m},

где P_n(P_0)вероятность того, что P=P_0 ;

P_n(P_1)вероятность того, что P=P_1.

Очевидно, что с увеличением P_n(P_0) и уменьшением P_n(P_1) возрастают основания для принятия партии, а с уменьшением P_n(P_0) и увеличением P_n(P_1) возрастают основания забраковать партию. Поэтому в качестве критерия при последовательном анализе принимается отношение \frac{P_n(P_1)}{P_n(P_0)}, называемое коэффициентом правдоподобия.

Считается, что если \frac{P_n(P_1)}{P_n(P_0)}\ge \frac{1-\beta}{\alpha}, то партия бракуется, а если \frac{P_n(P_1)}{P_n(P_0)}\le \frac{\beta}{1-\beta},

то партия принимается. Значит, при

\frac{1-\beta}{\alpha} > \frac{P_1^m(1-P_1)^{n-m}}{P_0^m(1-P_0)^{n-m}} > \frac{\beta}{1-\alpha} ( 12.3)

число экспериментов еще недостаточно и необходимо произвести n+1 наблюдений.

После логарифмирования и преобразования неравенства (12.3.) получается следующее неравенство

\alpha +km > m > b+km ( 12.4)
,

где

\alpha=\frac{lg\frac{1-\beta}{\alpha}}{lg\frac{P_1(1-P_0)}{P_0(1-P_1)}};\text{  }\beta=\frac{lg\frac{\beta}{1-\alpha}}{lg\frac{P_1(1-P_0)}{P_0(1-P_1)}}; \\ k=\frac{lg\frac{1-P_0}{1-P_1}}{lg\frac{P_1(1-P_0)}{P_0(1-P_1)}} ( 12.5)

Следовательно, если m удовлетворяет неравенству (12.4.), необходимо провести n+1 наблюдений; при m > a+kn партия бракуется, а при m < b+kn партия принимается.

Рассмотренное правило последовательного анализа при приемочной проверке дает тем надежнее результат, чем ближе к единице вероятность принятия партии изделий при P < P^{\prime} и ее отклонения при P > P^{\prime}. Для этого следует уменьшить величины \alpha и \beta и разность P_1-P_0. Однако при этом увеличивается среднее ожидаемое число экспериментов, которое необходимо провести до получения определенного решения.

Пример.

Применение последовательного анализа при проверке целесообразности применения тактического приема (Динер И.Я. Исследование операций. Л. , ВМОЛУА, 1961).

При исследовании целесообразности использования в предполагаемых действиях некоторого тактического приема производится ряд испытаний (розыгрышей) планируемых действий с применением этого тактического приема. Хотя розыгрыши производятся в одних и тех же условиях, действия (в силу ряда случайных факторов) приводят к несовпадающим результатам. Тактический прием можно считать целесообразным, если (в данном примере) ему соответствует вероятность выполнения задачи W\ge 0,8, и нецелесообразным — при W < 0,8. Однако такое требование недостаточно для проведения последовательного анализа – необходимо определить нечувствительную зону и допускаемый риск, связанный с неправильным решением. Можно, например, потребовать, чтобы с вероятностью не больше 0,2 принималось решение о том, что тактический прием целесообразен при W < 0,7, и с вероятностью не больше 0,3 принималось решение о том, что тактический прием нецелесообразен при W > 0,9.

При этом будем иметь:

P^{\prime}=1-0,8=0,2;\\
P_0=1-0,9=0,1;\\
P_1=1-0,7=0,3;\\
\alpha=0,3;\\
\beta=0,2.

По формулам (12.5) находим для этого допуска:

\alpha=0,726; b=-0,928; k=0,186.

Графическое изображение критической области дано на рис. 12.1.


Рис. 12.1.

Последовательность выполнения и невыполнения планируемой задачи может быть изображена графически на том же рисунке, что и критическая область. Например, последовательности выполнения (+) и невыполнения (-) задачи (+,+,-,-,-,+) соответствуют значения:

m=0\text{ при }n=1;\\
m=0\text{ при }n=2;\\
m=1\text{ при }n=3;\\
m=2\text{ при }n=4;\\
m=3\text{ при }n=5;\\
m=4\text{ при }n=6;

Нанеся эти точки на график, обнаруживаем, что после первого, второго и третьего розыгрышей они лежат внутри критической области, и, следовательно, необходимо продолжать испытания предлагаемого тактического приема. Однако после четвертого розыгрыша, давшего отрицательный результат, соответствующая точка (m=2; n=4) выходит за пределы критической области, что позволяет в условиях принятого допуска прекратить дальнейшие испытания и отвергнуть предполагаемый тактический прием безотносительно к возможным результатам пятого и последующих розыгрышей. Заметим, что в условиях данного примера тактический прием был бы отвергнут после первого же розыгрыша, — он был бы принят, если бы первые пять розыгрышей подряд дали положительный результат.

< Лекция 11 || Лекция 12: 12 || Лекция 13 >
Данил Комардин
Данил Комардин

мне задали дистанционное задание на сертификат,но я не могу его найти