При проверке той или иной гипотезы всегда подразумевается наличие конкурирующей, или альтернативной гипотезы. Поэтому пространство наблюдений следует разбить на две области S0 и S1. Область S0 образует множество точек, соответствующих принятию выдвинутой гипотезы (например, о равенстве средних, дисперсий, об отсутствии сигнала в наблюденных данных и т.д.). Область S1 включает множество точек, соответствующих принятию альтернативной гипотезы (например, о неравенстве средних, дисперсий, о наличии сигнала в наблюдениях, искаженных помехами, и т.д.). Обозначим проверяемую гипотезу через Н0 (нулевая гипотеза), а альтернативную ей – через Н1 (ненулевая гипотеза). Обе гипотезы взаимно исключают друг друга и, следовательно, образуют полную группу событий. Выбор одной из гипотез называется статистическим решением. Принятие статистического решения сопровождается ошибками I и II рода.
Ошибка первого рода заключается в том, что принимается гипотеза Н1 , в то время как в действительности выполнятся гипотеза Н0. Например, принимается решение о наличии сигнала (или о неравенстве средних, или о неравенстве дисперсий), в то время как на самом деле сигнал отсутствует (или равны средние, или равны дисперсии). В задачах выделения сигнала на фоне помех эта ошибка называется ошибкой обнаружения ложного сигнала.
Ошибка второго рода заключается в том, что принимается гипотеза Н0, в том время как в действительности справедлива гипотеза Н1. такая ошибка означает, что принимается, например, решение об отсутствии сигнала (или о равенстве средних, или о равенстве дисперсий), в то время как на самом деле сигнал имеется (или не равны средние, или не равны дисперсии). В задачах выделения сигнала эта ошибка называется ошибкой пропуска сигнала.
С ошибками I и II рода связаны соответствующие вероятности. Для их определения обозначим через Р(Х/ Н0) оценку плотности распределения фиксированной выборки из элементов х1, …, хn, которая соответствует гипотезе Н0, а через Р(Х/Н1) – оценку плотности той же выборки, соответствующей гипотезе Н1. Величины Р(Х/ Н0) и Р(Х/Н1) называют также функциями правдоподобия. Тогда вероятность ошибки I рода будет
a = ∫ Р(Х/Н0) dW(Х) = Р(Х/Н0) dX (6.1)
вероятность ошибки II рода
b = ∫ Р(Х/Н1) dW(Х) = Р(Х/Н1) dX (6.2)
где W(Х) – n-мерное пространство выборки х1, …, хn; h – порог для принятия решения, в частности h – прямая, разделяющая пространство W(Х) на области S0 и S1.
Вероятности ошибок a и b определяются соответственно обозначенными областями на рисунке 6.1.
Р, % P(x/H1) P(x/H2)20
10
0
b a
Рис. 6.1 Плотность распределения признака xi
Если ввести априорные вероятности гипотез Н0 и Н1, равные соответственно р0 и р1, то величина
q = р0a + р1b (6.3)
определяет полную безусловную вероятность ошибки.
Мощность характеризует чувствительность критерия, его способность отличать альтернативу от нулевой гипотезы. Расширение для гипотезы Н0 критической области S0 влечет за собой увеличение вероятности ошибки I рода и уменьшение вероятности ошибки II рода, т.е. для заданного размера выборки невозможно сделать сколь угодно малыми вероятности ошибок I и II рода. Критерий, который обеспечивает минимальную вероятность ошибки II рода при проверке простой (нулевой) гипотезы относительно простой альтернативной, называется наиболее мощным. Наиболее мощный критерий относительно всех возможных альтернативных гипотез называется равномерно наиболее мощным.
С ошибками I и II рода неизбежно связаны потери, которые с экономической точки зрения могут быть равными, что легко показать на примере задачи обнаружения сигнала на фоне помех. С этой целью вводят цены ошибок I и II рода Сa и Сb. произведение Сaa называется риском, соответствующим гипотезе Н0. В задаче выделения сигнала это будет некоторая потеря (штраф), обусловленная принятием неправильного решения о наличии сигнала. Аналогично произведение Сbb есть риск, соответствующий гипотезе Н1.
Средний риск при принятии решения
r(h) = p0 Сaa + p1 Сbb. (6.4)
Средний риск r(h) зависит от порога h, так как от h зависят значения вероятностей a и b.
Для принятия решения естественным является выбор такого порога h, который бы минимизировал средний риск (7.4). Правило, согласно которому величина h выбирается с учетом минимизации среднего риска, называется критерием Бейеса. При этом
h = Р(Х/Н1)/ Р(Х/Н0) = p0 Сa/ p1 Сb. (6.5)
Величина
L = Р(Х/Н1)/ Р(Х/Н0) (6.6)
называется отношением, или коэффициентом правдоподобия. Чтобы применять критерий Бейеса, надо установить цены, соответствующие каждому роду ошибок, а также априорные вероятности гипотез Н0 и Н1. при этом однозначно определяется порог h = L0, выше которого (L>L0) принимается решение о выполнении гипотезы Н1, в противном случае (L<L0) – о выполнении гипотезы Н0. Достоверная оценка значений Сa и Сb обычно связана с анализом большего статистического материала, который может быть получен, например, при решении задачи выделения сигналов на фоне помех для районов с хорошей геолого-геофизической изученностью. При отсутствии подобной информации в первом приближении полагают Сa = Сb. Это соответствует равным весам, которые приписываются, например, пропуску полезного сигнала и обнаружению ложного сигнала. Тогда средний риск (7.4) определяется полной безусловной вероятностью ошибки, и выбор порога h с учетом ее минимизации приводит к критерию Котельникова (или идеального наблюдателя). Величина h по критерию Котельникова определяется отношением априорных вероятностей h = L0 = р0/р1. в практике геофизических исследований вероятности р0 и р1 также, как правило, неизвестны. Поэтому обычно считают р0 = р1 = 0,5, что отвечает максимальной неопределенности гипотез Н0 и Н1. Порог h становится равным единицы, т.е. h = L0 = 1 соответствует критерию максимального правдоподобия (частный случай критерия Котельникова).
Применение теоремы Котельникова при заданных вероятностях р0 и р1 позволяет на основе формулы Бейеса (7.5) оценить апостериорную вероятность любой из гипотез, например, для гипотезы Н1:
p(Н1/X) = (p1P(/H1))/(p1P(X/H1) + p0P(X/H2)) = Lp1p0/(Lp1/p0 + 1) (6.7)
При этом принятие решения может базироваться на критерии максимума апостериорной вероятности.
Когда задание априорных вероятностей р0 и р1 является нецелесообразным, используется правило принятия решения, соответствующее так называемому минимаксному критерию, сущность которого заключается в следующем. Поскольку средний риск (7.4) зависит от априорных вероятностей, то наименьший риск имеет максимум при некотором значении р1* = 1- р0*, не равном ни нулю, ни единице, так как при р1 ® 0 и при р0 ® 0 риск стремиться к нулю. Очевидно, если выбрать критическое значение р1* и определить порог h для коэффициента правдоподобия как L0 = p0* Сa/ p1* Сb, то действительный риск при любом, отличном от p1* значении p1, не превзойдет риска, рассчитанного для L0 = L0*. Значение вероятности p1* находится из уравнения ¶r(h)¶p1 = 0, что приводит к равенству
Сbb = Сaa (6.8)
При минимаксном критерии принимают во внимание наихудший случай, что в конечном итоге определяет весьма осторожное правило принятия решения.
При отсутствии априорных данных о потерях и вероятностях р0 и р1 используется критерий Неймана–Пирсона. Согласно этому критерию, выбирается такое правило, которое обеспечивает минимально возможное значение вероятности ошибки II рода b при условии, что вероятность ошибки I рода не будет больше заданной величины a0, т.е. при a = a0 = const находится min b.
При заданной величине a = a0 и известной функции правдоподобия P(X/H0) можно определить порог h, равный L0. С этой целью перейдем от n-мерной величины X к одномерной переменной коэффициента правдоподобия, т.е. P(X/H1)¶X = P(L/H1)¶L и P(X/H0)¶X = P(L/H0)¶L.