5.Процедура закінчується при знаходженні максимуму КФЕ в робочій області його визначення:
де - множина радіусів концентрованих гіперсфер, центр яких визначається вершиною .Таким чином, базовий алгоритм навчання :
(2.4.3)На рис.2.4.1 наведено структурну схему базового алгоритму навчання. Тут показано такі вхідні дані: {Y[J,I,K]} - масив навчальних вибірок, J=1..NM - змінна кількості випробувань, де NM - мінімальний обсяг репрезентативної навчальної вибірки, I=1..N - змінна кількості ознак розпізнавання, K=1..M - змінна кількості класів розпізнавання; {NDK[I]}, {VDK[I]} - масиви нижніх і верхніх контрольних допусків на ознаки відповідно. Результатом реалізації алгоритму є: {DOPT[K]} - цілий масив оптимальних значень радіусів контейнерів класів розпізнавання у кодовій відстані Хеммінга; {EV[K]} - масив еталонних двійкових векторів класів розпізнавання; {EM[K]} - дійсний масив максимальних значень інформаційного КФЕ процесу навчання; {D1[K]}, {A[K]}, {B[K]}, {D2[K]} - дійсні масиви оцінок екстремальних значень точнісних характеристик процесу навчання для відповідних класів розпізнавання: перша вірогідність, помилки першого та другого роду і друга вірогідність відповідно.
Змінна D є робочою змінною кроків навчання, на яких послідовно збільшується значення радіуса контейнера. У структурній схемі алгоритму (рис. 2.4.1) блок 3 формує масив навчальних двійкових вибірок {X[J,I,K]} шляхом порівняння значень елементів масиву {Y[J,I,K]} з відповідними контрольними допусками за правилом (1) і формує масив еталонних двійкових векторів {EV[K]} шляхом статистичного усереднення стовпців масиву {X[J,I,K]} за правилом (2) при відповідному рівні селекції, який за умовчанням дорівнює
. Блок 4 здійснює розбиття множини еталонних векторів на пари “найближчих сусідів”. Блок 11 обчислює на кожному кроці навчання значенРисунок 2.4.1 - Структурна схема базового алгоритму навчання
ня інформаційного КФЕ і оцінки точнісних характеристик процесу навчання. При невиконанні умови блоку порівняння 12 блок 13 оцінює належність поточного значення критерію
робочій області визначення його функції і при позитивному рішенні блоку 13 це значення запам’ятовується блоком 14. При негативному рішенні блока порівняння 15, в якому величина дорівнює кодовій відстані між парою сусідніх еталонних векторів, блок 16 здійснює у робочій області пошук глобального максимуму КФЕ – EM[K] і визначає для нього екстремальне значення радіуса гіперсфери – DOPT[K]. Аналогічно будуються оптимальні контейнери для інших класів. Якщо параметри навчання {DOPT[K]} і {EV[K]} є вхідними даними для екзамену, то значення КФЕ та екстремальних оцінок точнісних характеристик використовуються для аналізу ефективності процесу навчання. Таким чином, основною процедурою базового алгоритму навчання за МФСВ є обчислення на кожному кроці навчання статистичного інформаційного КФЕ і організація пошуку його глобального максимуму в робочій області визначення функції критерію.Алгоритми екзамену за МФСВ можуть мати різну структуру залежно від розподілу реалізацій образу, що розпізнаються. Обов’язковою умовою їх реалізації є забезпечення однакових структурованості і параметрів формування як для навчальної, так і для екзаменаційної матриць.
Для нечіткого розбиття алгоритм екзамену за МФСВ ґрунтується на аналізі значень функції належності, яка має вигляд (2.5.1) і обчислюється для кожної реалізації, що розпізнається. Розглянемо кроки реалізації алгоритму екзамену при нечіткому розбитті:
1. Формування лічильника
класів розпізнавання.2. Формування лічильника числа реалізацій, що розпізнаються:
.3. Обчислення кодової відстані
.4. Обчислення функції належності за виразом:
(2.5.1)5. Порівняння: якщо j n , то виконується крок 2, інакще – крок 6.
6. Порівняння: якщо m M, то виконується крок 1, інакще – крок 7.
7. Визначення класу
, до якого належить екзаменаційна реалізація, наприклад, за умови , де - усереднене значення функцій належності для реалізацій класу , або видача повідомлення: «Клас не визначено», якщо . Тут с- порогове значення.Для перетворення зображення в полярних координатах [23] сформуємо матрицю яскравості
, де N, n– відповідні розміри зображення. При перетворенні зображення попередньо виконана процедура пошуку геометричного центру літери:1. За допомогою матриці яскравості знаходимо прямокутник, в який вписано рукописну літеру, наприклад, А (рис.3.1).
Рисунок 3.1 – Пошук геометричного центру літери
2. Із розмірів прямокутника знаходимо значення координат на рецепторному полі, що відповідають центру кола, в яке вписано літеру (центр кола знаходиться на перетині діагоналей прямокутника; довжину діагоналі знаходимо, використовуючи теорему Піфагора).
3. Формуємо вектор
, де R – радіус кола, описаного навколо літери. Елементи вектора дорівнюютьде
– сума значень яскравості пікселів, що потрапили в коло з радіусом , - площа кола з радіусом .На рис.3.2 наведено графік спектру зміни яскравостідля однієї з реалізацій літери А в полярних координатах.
Рисунок 3.2 – Графік спектру зміни яскравості літери А в полярних координатах
Для перетворення зображення в декартових координатах, використано ідею дискретного перетворення Гільберта (ДПГ) [24].
Якщо зображення відобразити у вигляді матриці дискретних відрізків яскравості, тоді
-й рядок зображення, що вміщує один об’єкт, можна представити наступним виразом:ДПГ такого сигналу характеризується виразом
При перетворенні зображення в декартових координатах, спочатку формуємо матрицю яскравості
, де N, n – відповідні розміри зображення. Скануємо отриману матрицю по стовпчикам та сформуємо вектор сум різниць значень яскравості , де:4. елементи
приймають додатні значення суми різниць яскравості;5. елементи
приймають від’ємні значення суми різниць яскравості;6. якщо значення суми різниць яскравості приймає нульове значення, то відповідні елементи
та також приймають нульові значення;