По обеим группам это будет выглядеть следующим образом:
(7)В матричной форме это выражение может быть записано так:
(8)где А - вектор коэффициентов дискриминантной функции;
- транспонированная матрица отклонений наблюдаемых значений исходных переменных от их средних величин в первой группе (9) - аналогичная матрица для второй группы.Объединенная ковариационная матрица
определяется так: (10)Следовательно выражение (8) дает оценку внутригрупповой вариации и его можно записать в виде:
(11)Межгрупповая вариация может быть измерена как
(12)При нахождении коэффициентов дискриминантной функции
следует исходить из того, что для рассматриваемых объектов внутригрупповая вариация должна быть минимальной, а межгрупповая вариация - максимальной. В этом случае мы достигнем наилучшего разделения двух групп, т.е. необходимо, чтобы величина Fбыла максимальной: (13)В точке, где функция Fдостигает максимума, частные производные по
будут равны нулю. Если вычислить частные производные (14)и приравнять их нулю, то после преобразований получим выражение:
(15)Из этой формулы и определяется вектор коэффициентов дискриминантной функции (А)
Полученные значения коэффициентов подставляют в формулу (1) и для каждого объекта в обеих группах (множествах) вычисляют дискриминантные функции, затем находят среднее значение для каждой группы. Таким образом, каждое i-е наблюдение, которое первоначально описывалось m переменными, будет как бы перемещено в одномерное пространство, т.е. ему будет соответствовать одно значение дискриминантной функции, следовательно, размерность признакового пространства снижается.
3. Классификация при наличии двух обучающих выборок
Перед тем как приступить непосредственно к процедуре классификации, нужно определить границу, разделяющую в частном случае две рассматриваемые группы. Такой величиной может быть значение функции, равноудаленное от
и , т.е. (16)Величина С называется константой дискриминации.
На рис.1 видно, что объекты, расположенные над прямой f(x)=
+ +…+ =C , находятся ближе к центру множества и, следовательно, могут быть отнесены к первой группе, а объекты, расположенные ниже этой прямой, ближе к центру второго множества, т.е. относятся ко второй группе. Если граница между группами выбрана так, как сказано выше, то суммарная вероятность ошибочной классификации минимальная.Рассмотрим пример использования дискриминантного анализа для проведения многомерной классификации объектов. При этом в качестве обучающих будем использовать сначала две выборки, принадлежащие двум классам, а затем обобщим алгоритм классификации на случай k классов.
Пример 1. Имеются данные по двум группам промышленных предприятий машиностроительного комплекса:
-фондоотдача основных производственных фондов, руб.; -затраты на рубль произведенной продукции, коп.; -затраты на сырье и материалов на один рубль продукции, коп.Номер | Х1 | Х2 | ХЗ | |
предприятия | ||||
1 | 0,50 | 94,0 | 8,50 | |
l-я группа | 2 | 0,67 | 75,4 | 8,79 |
3 | 0,68 | 85,2 | 9,10 | |
4 | 0,55 | 98,8 | 8,47 | |
5 | 1,52 | 81,5 | 4,95 | |
2-я группа | 6 | 1,20 | 93,8 | 6,95 |
7 | 1,46 | 86,5 | 4,70 |
Необходимо провести классификацию четырех новых предприятий, имеющих следующие значения исходных переменных:
l-е предприятие:
= 1,07, =93,5, =5,30,2-е предприятие:
= 0,99, =84,0, =4,85,3-е предприятие:
= 0,70, =76,8, =3,50,4-е предприятие:
= 1,24, =88,0, =4,95.Для удобства запишем значения исходных переменных для каждой группы предприятий в виде матриц
и : (17)Рассчитаем среднее значение каждой переменной в отдельных группах для определения положения центров этих групп:
I гр.
=0,60, =88,4, =8,72II гр.
=1,39, =87,3, =5,53.Дискриминантная функция f(x)в данном случае имеет вид:
f(х) =
+ + (18)Коэффициенты
, и вычисляются по формуле:A=
( - ), (19)где
и - векторы средних в первой и второй группах; А - вектор коэффициентов; - матрица, обратная совместной ковариационной матрице.Для определения совместной ковариационной матрицы
нужно рассчитать матрицы и . Каждый элемент этих матриц представляет собой разность между соответствующим значением исходной переменной и средним значением этой переменной в данной группе (k- номер группы):