Выбор словаря признаков осуществляется в два этапа. Сначала дается полное описание каждого объекта каждого класса на языке всех возможных характеристик. Затем из полученного априорного словаря исключают признаки, которые не могут быть выделены техническим средствами добывания той системы обработки, для которой создается система распознавания, или не могут быть получены на основе обработки информации на предыдущих уровнях распознавания.
В ходе формализации осуществляется разбиение непрерывных признаков на градации, определение всех возможных значений дискретных и качественных признаков. В случае, когда один и тот же объект может иметь различные значения одного и того же признака, такой признак описывается вероятностными характеристиками.
Вероятностные характеристики получают путем обработки статистики в ходе наблюдения за объектом или экспертным путем. Если вероятностные характеристики получить не удалось, то классы задаются способом перечисления членов класса. В этом случае статистика проявления признаков будет заложена в эталонном описании.
В ходе формализации важно установить степень взаимозависимости признаков. Знание зависимостей дает возможность повысить достоверность распознавания, но приводит к существенному усложнению априорного описания и алгоритмов распознавания.
В окончательном виде признаки могут быть представлены в двоичном виде, в виде вероятности его проявления, параметрами закона распределения, на языке булевой алгебры или на языке формальных грамматик.
Формирование эталонного описания завершается минимизацией признаков. Целесообразность минимизации признаков определяется их различной информативностью. Признаки с низкой информативностью целесообразно исключить из процесса распознавания, сократив таки образом стоимость системы распознавания, время классификации и снизив требования к алгоритмам распознавания по оперативной памяти.
2. Выбор решающего правила.
Выбор решающего правила определяется формой представления признаковой информации, наличием зависимостей между признаками, требованиями по оперативности распознавания объектов, а также полнотой и достоверностью признаков распознаваемого объекта и эталонного описания.
При разработке систем распознавания выбираются несколько приемлемых решающих правил и оценивают их эффективность путем моделирования работы системы распознавания.
В теории распознавания известно большое количество процедур распознавания:
- вероятностные;
- детерминированные (геометрические);
- логические;
- структурные.
Метод | Признаки и эталонное описание | Процедуры | Форма представлеления результата |
Вероятност-ный | Закон распределения;таблицы распознавания | Критерии Байесса, минимакса др. | Вероятностность распознавания |
Детерминиро-ванный(гео-метрический) | Количественное, качественное; объектно-характерис-тические таблицы | Евклидово расстояние и др. | Мера близости |
Логический | «1» и «0»; булевы функции | Операции булевой алгебры | Значение результи-рующей булевой функции |
Структурный | Элементы описания и их конкатенации | Правила грамма-тического разбора | Результаты сопоставления |
В случае параметрических решающих процедур имеется возможность их адаптации к особенностям эталонного описания, обеспечивая таки образом требуемую эффективность распознавания.
3.Разработка алгоритмов управления работой системы распознавания.
Существует несколько вариантов построения систем распознавания:
-без обучения;
-с обучением;
-с самообучением.
Системы без обучения используются тогда, когда есть полная априорная информация о признаках и классах.
Обучающиеся распознающие системы.
Цель обучения состоит в повышении достоверности распознавания объектов в условиях неопределенности, которая является следствием неполной информации об объектах (классах), отсутствие настроенного алгоритма(решающего правила). Поэтому, предметом обучения являются априорная информация (оптимизация размерности признакового описания) и алгоритм распознавания (структурная и параметрическая настройка).
Необходимыми дополнительными элементами такой системы является: алгоритм оптимизации, учитель, база решающих правил.
Обучение в общем виде производится в несколько этапов:
-оптимизация априорной информации;
-структурная настройка(выбор решающего правила);
-параметрическая настройка.
Настройка алгоритма распознавания производится под управлением учителя путем предъявления эталонов для распознавания и оценки качества классификации.
Самообучающиеся системы.
Цель самообучения – формирование обучающей выборки до и в процессе решения задачи распознавания.
Содержанием самообучения является группирование заданной совокупности реализаций в классы на основе заданных правил.
Для выбора оптимального варианта системы строится имитационная модель системы распознавания, основные компоненты которой показаны на рисунке.
МЕТОДЫ РАСПОЗНАВАНИЯ ОБРАЗОВ
1. ГЕОМЕТРИЧЕСКИЕ МЕТОДЫ.
В основе геометрических методов лежит понятие меры близости объектов в n-мерном признаковом пространстве описаний. Центральной задачей при создании систем распознавания является выбор типа меры близости.
Меру близости необходимо выбирать таким образом, чтобы она, с одной стороны, отвечала представлению разработчика о близости объектов рассматриваемых классов, а с другой - позволяла бы упростить процедуры синтеза оптимальных частных алгоритмов.
Сущность меры близости применительно к рассматриваемому классу задач покажем на примере двух классов в 2-х мерном пространстве описаний.
Интерпретация рисунка приводит к естественному выводу о предпочтительности отнесения объекта Х к первому классу. В то же время классификация объекта Хi вызывает затруднения и необходимы расчеты.
Очевидно, что классификация образов с помощью функции расстояния эффективен только в тех случаях, когда классы образов обнаруживают тенденцию к кластеризации (группированию).
Поскольку близость классифицируемого образа к образам класса будет использоваться в качестве критерия для его классификации, назовем такой подход классификацией образов по критерию минимума расстояния.
Классы могут быть представлены путем перечисления членов класса (как на рисунку: точки в кластерах) или с помощью эталонных образов (например, центральными объектами z1 и z2).
Заметим также, что в рассматриваемом классе задач описания объектов являются векторными.
Рассмотрим М классов. Пусть эти классы допускают их представление с помощью эталонных образов Z1,Z2, . . .,Zm. Евклидово расстояние между произвольным вектором образа Х и i-м эталоном определяется следующим выражением:
_____________
Di = || X - Zi|| = √(X - Zi)/ (X - Zi) (1)
где || Х || - Евклидова норма;
х1х2
Х = х3 - вектор образа распознаваемого объекта;
:
хn
z1Z = : - вектор образа эталона класса;
zn
n1
|| Х || = [Σ Xj2 ]2
j=1
X/ = ( x1 ,x2 , . . .,xn) - транспонированный вектор;
X/ Z - скалярное произведение;
n
X/Z = Σ Xj/ Zj
j = 1
Классификатор, построенный по принципу минимума расстояния, вычисляет расстояние, отделяющее классифицируемый образ Х от эталона каждого класса, и зачисляет этот образ в класс,, оказавшийся ближайшим к нему. Другими словами, образ Х приписывается к классу Wi, если условие Di < Djдля всех j¹i .
Путем несложных преобразований исходно формуле (1) можно придать более удобный для вычислений вид.
di(X) = X/Zi- 1/2 Zi/Zi, i = 1,2,...,M,
где образ Х относится к классу Wi, если условие di (X) > dj (X) справедливо для всех j¹i.
Пример:
z1 . . . z5
z1/ = ( 1 2 6 3 1 ) z2/ = ( 6 4 3 2 1 )
x/ = ( 1 3 5 2 1 )
d1(x) = ( 1 3 5 2 1 ) -1/2 ( 1 2 6 3 1 ) = ( 1+6+30+6+1 ) - 1/2 ( 1+4+36+9+1 ) =
= 44 - 1/2 51 = 18.5;
d2(x) = (6+12+15+4+1) - 1/2 (36+16+9+4+1) = 38 - 1/2 66 =5
d1(x) > d2(x) , поэтому образ х принадлежит первому классу.
Меры сходства не исчерпываются расстояниями. В качестве примера можно привести не метрическую функцию сходства
zx/