Полная версия

Главная

  • Увеличить шрифт
  • Уменьшить шрифт


<<   СОДЕРЖАНИЕ   >>

6.3.4. Параметрический дискриминантый анализ в случае нормальных классов

Пусть 1-й класс описывается /г-мерным нормальным законом распределения с вектором математических ожиданий р(б и ковариационной матрицей 2 (общей для всех р классов, / = 1,2,..., р).

Оценки параметров распределения находятся но обучающим выборкам объемом п[.

где– значение j-го показателя для *-го наблюдения 1-й выборки; 7 = 1,2,...,*; / = 1,2,...,/г;

(6.13)

где Sj4 – оценка коэффициента ковариации между Xj и .г,-ми переменными, полученная по суммарной выборке объемом .

Тогда оценка плотности распределения /-й совокупности имеет вид

(6.14)

где– вектор-столбец текущих переменных;

несмещенная оценка ковариационной матрицы; – определитель ковариационной матрицы:– вектор средних значений переменных для /-Й обучающей выборки.

Правило классификации следующее: наблюдение xv относится к классу /0 тогда и только тогда, когдадля всех. Или можно записать в логарифмической шкале

(6.15)

Случай р = 2. Сначала рассмотрим простейший случай, когда р = 2. Пусть из рассматриваемых нормальных генеральных совокупностей X и У взяты две выборки объемом я, и я,, по данным которых получены оценки параметров распределенияи пусть значения показателя наблюдения, подлежащего классификации.

Выборочное пространство – множество возможных реализаций W случайных величин X и Y– можно разделить на две области гиперплоскостью

(6.16)

Левая часть уравнения (6.16) является дискриминантной функцией.

Дискриминантная функция может быть представлена в виде

и позволяет перейти от ^-мерного пространства к одномерному. Здесь – вектор коэффициентов дискриминантной функции.

Таким образом, две подобласти пространства можно задать неравенствами:

Если имеется элемент выборки , то его относим к X при н(г0) > с и к У при и(г0) < с.

Таким образом, задача дискриминации сводится к определению коэффициентов дискриминантной функции а,,а2,..., о.к и константы с.

Запишем алгоритм классификации. Предположим, что известны априорные вероятности /;, = я, и р22 = -щ, а также что наблюдаемый объект принадлежит к первой (X) или второй ( У) генеральной совокупности. Также известны ущербы от ошибочной классификации:

  • C(Y/X) – потери от ошибочного отнесения вектора наблюдения Z0, принадлежащего совокупности X, к совокупности У;
  • C(X/Y) – потери от ошибочного отнесения Z,, к совокупности X вместо совокупности У.

Предполагается также, что параметры генеральной совокупности |xr,ру и!г= Ъу = 2 неизвестны.

При таких условиях задача дискриминации решается с помощью так называемой обобщенной байесовской процедуры классификации.

Сначала по обучающим выборкам пЛ и п2 находят оценки параметров генеральных совокупностей X и У:

  • • векторы средних значений;
  • • оценку ковариационной матрицы

или несмещенную оценку ковариационной матрицы

где– несмещенные оценки ковариационных матриц

Тогда вектор оценок коэффициентов дискриминантной функции а = (в,, можно найти по формуле

(6.17)

а оценку дискриминантной функции – по формуле

(6.18)

Воспользовавшись оценкой дискриминантной функции, получим nt значений этой функции для первой выборки X:

(6.19)

Среднее значение составит

Из формул (6.17) и (6.18) следует, что Аналогично для второй выборки Y получим

Константа оценивается выражением

Если принять, что , то

Тогда если, тоотносится к X, а если, тоотносится к Y.

Пример 6.3

По данным годовых отчетов деятельность акционерных обществ (АО) электротехнической промышленности оценивалась по двум показателям: среднесписочной численности промышленно-производственного персонала (ППП), тыс. человек, и балансовой прибыли, млн руб. Требуется решить, можно ли к группе преуспевающих отнести АО, имеющие следующие характеристики: численность III111 – 9,592 тыс. человек и прибыль – 12,840 млн руб.

Для решения задачи были взяты две обучающие выборки (табл. 6.4). Первая выборка (X: л, = 4) представляет группу преуспевающих АО, а вторая (Y; п2 = 5) – остальные АО.

Таблица 6.4

Данные обучающих выборок для примера 6.5

Группы АО

Численность ППП

Балансовая прибыль

X

17,115

22,981

Лидирующие АО

14,904

21,481

13.627

28,669

10,545

10,199

Y

4,428

11,124

Отстающие АО

5.510

6,091

4.214

11,842

5.527

11,873

4.211

12,860

Решение

Определим векторы среднихи оценки ковариационных матрицисоответственно для групп преуспевающих и остальных АО:

где элементы матрицыопределяются по формуле

Тогда вектор () будет равен

Далее найдем несмещенную оценку суммарной ковариационной матрицы: а затем обратную матрицу

Вычислим вектор оценок коэффициентов дискриминантной функции:

Теперь найдем оценки дискриминантной функции для обучающих выборок:

Получим средние значения оценок дискриминантной функции: а затем оценку константы дискриминации:

Чтобы определить, к какой группе относится ЛО, подлежащее дискриминации, рассчитаем для него дискриминантную функцию:

Сравниваяи, получаем, что, поэтому данное АО следует отнести к преуспевающим.

Случай р > 2. Рассмотрим процедуру дискриминации для случая р > 2 нормально распределенных генеральных совокупностей с параметрами 1.1(7) и X, где / = 1, 2,р.

Согласно формуле (6.14) оценку плотности /;(х) совокупности можно представить как

где– вектор-столбец текущих переменных;

– вектор средних значений, полученных по l-й выборке; S – несмещенная оценка ковариационной матрицы 2, полученная по р выборкам:

где– оценка ковариационной матрицы, полученная по l-й выборке. Элемент матрицыопределяется но формуле (6,13).

Предположив, что , логарифм отношения правдоподобия (6.15) можно представить в виде

или с учетом формулы (6.14) можно записать

Преобразуем левую часть неравенства:

Преобразовав выражение, стоящее в квадратных скобках, получим

Окончательно после всех преобразований получим

Правило дискриминации: если для всех, где, выполняется неравенство, то наблюдение X относится к /-й совокупности (Х(б).

В случае когдадля, если для всех, где т = 1, 2 р, выполняется неравенство, то наблюдение X относится к /-й совокупности.

Приведенное правило эквивалентно следующему критерию. Наблюдение, определяемое вектором X, следует отнести к той совокупности Х(1), расстояние Махаланобиса до центра которой X минимально, т.е.

а следовательно, согласно формуле (6.19) апостериорная плотность максимальна.

 
<<   СОДЕРЖАНИЕ   >>