Рисунок 12. Годографы для дефекта прямоугольной формы с различной глубиной
Вывод: при изменении частоты меняется угол наклона годографа, а при изменении глубины дефекта меняется амплитуда
Вид годографа для прямоугольной формы дефекта, частота 25кГц, 100кГц, 200кГц, 400кГц, раскрытие дефектов (0.1, 0.3, 0.5, 0.7, 0.9 мм), глубина дефекта постоянно(0.4мм)
Рисунок 13. Годографы для дефекта прямоугольной формы с различным раскрытием
Вывод: при изменении частоты меняется угол наклона годографа, а при изменении раскрытия дефекта меняется амплитуда
Зависимость амплитуды сигнала (при различных глубинах дефекта, но при постоянном раскрытии) от местоположения дефекта.
Прямоугольная форма дефекта, частота 25кГц
Рисунок 14. Сигналы для дефекта прямоугольной формы с различной глубиной
Вывод: с увеличением глубины дефекта, амплитуда сигнала увеличивается.
Зависимость амплитуды сигнала (при различном раскрытии дефекта, но при постоянной глубине) от местоположения дефекта.
Прямоугольная форма дефекта, частота 25кГц
Рисунок 15. Сигналы для дефекта прямоугольной формы с различным раскрытием
Вывод: с увеличением раскрытия дефекта, амплитуда сигнала увеличивается
4.3 Расчет информативных признаков
Для дальнейшей работы с сигналами определим по ним следующие признаки:
· F1 – максимальная резистивная составляющая;
· F2 –фаза максимальной резистивной составляющей;
· F3 – максимальная реактивная составляющая;
· F4 - фаза максимальной реактивной составляющей;
· F5 – максимальное значение ЭДС;
· F6 – фаза, соответствующая максимальному значению ЭДС;
· F7 – начальная фаза;
· F8 – конечная фаза;
· F9 – поворот фазы относительно точки с максимальной ЭДС;
· F10 – длина до точки с максимальной реактивной составляющей/ длина от точки с максимальной реактивной составляющей;
· F11 – полный размах/величина ЭДС в точке с максимальной реактивной составляющей.
На рис. 16 приведено расположение данных признаков. [5]
Рисунок 16. Схема признаков
Для расчета информативных признаков в среде MatLabбыла написана программа, автоматически считающая признаки для всех переменных параметров дефектов. Текст программы приведен в приложение 2.
Получили базу данных, состоящую из признаков, которые в дальнейшем будут использованы для корреляционного анализа, необходимых для решения обратной задачи.
5. Решение обратной задачи НК
5.1 Корреляционный анализ информативных признаков
Корреляционный анализ произведен в среде Statistica.
Statistica - это современный пакет статистического анализа, в котором реализованы все новейшие компьютерные и математические методы анализа данных. Программа предназначена для всех отраслей промышленности (бизнес, наука, обучение). В ней реализовано все возможные функции для статистической обработки данных, плюс к этому возможность построения графиков, базы данных и т.д. В программу встроен STATISTICA Visual Basic, что добавляет еще около 10000 новых функций. Синтаксис этого Basic'а полностью совместим с Microsoft Visual Basic. STATISTICA - это система статистического анализа данных, включающая широкий набор аналитических процедур и методов: - более 100 различных типов графиков, - описательные и внутригрупповые статистики, - быстрые основные статистики и блоковые статистики, - множественная регрессия, - непараметрические статистики, - разведочный анализ данных, корреляции, - общая модель дисперсионного и ковариационного анализа, - интерактивный вероятностный калькулятор, - T-критерии (и другие критерии групповых различий), - таблицы частот, сопряженности, флагов и заголовков, - анализ многомерных откликов, - подгонка распределений и многое другое.
В табл. 2 приведены результаты корреляций, интересующих нас параметров с искомыми признаками
frequency 25 | |||||||||||
F1 | F2 | F3 | F4 | F5 | F6 | F7 | F8 | F9 | F10 | F11 | |
width | 0,49 | -0,26 | 0,65 | -0,23 | 0,63 | -0,22 | 0,03 | 0,01 | -0,04 | 0,81 | 0,63 |
depth | 0,58 | -0,69 | 0,54 | -0,85 | 0,54 | -0,84 | -0,42 | 0,33 | 0,57 | 0,34 | 0,55 |
frequency 100 | |||||||||||
F1 | F2 | F3 | F4 | F5 | F6 | F7 | F8 | F9 | F10 | F11 | |
width | 0,72 | -0,20 | 0,46 | -0,25 | 0,59 | -0,14 | 0,05 | 0,07 | 0,05 | 0,70 | 0,59 |
depth | 0,49 | -0,89 | 0,59 | -0,83 | 0,54 | -0,90 | -0,35 | 0,46 | -0,56 | 0,50 | 0,56 |
frequency 200 | |||||||||||
F1 | F2 | F3 | F4 | F5 | F6 | F7 | F8 | F9 | F10 | F11 | |
width | 0,57 | -0,13 | 0,47 | -0,10 | 0,54 | -0,13 | 0,04 | 0,08 | -0,06 | 0,63 | 0,54 |
depth | 0,57 | -0,92 | 0,43 | -0,76 | 0,54 | -0,93 | -0,33 | 0,48 | -0,70 | 0,55 | 0,56 |
frequency 400 | |||||||||||
F1 | F2 | F3 | F4 | F5 | F6 | F7 | F8 | F9 | F10 | F11 | |
width | 0,38 | -0,07 | 0,51 | -0,08 | 0,44 | -0,07 | 0,03 | 0,08 | -0,09 | 0,51 | 0,44 |
depth | 0,54 | -0,92 | 0,48 | -0,90 | 0,53 | -0,94 | -0,33 | 0,47 | 0,57 | 0,55 | 0,56 |
Из табл. 2 определяем наиболее коррелирующие признаки, на основе которых будет обучаться интеллектуальная нейронная сеть.
Классификация раскрытий дефектов будет производиться по признакам F1, F5, F10 и F11. Классификация глубин – F2, F4, F6 и F9.
5.2 Построение искусственных нейронных сетей
Нейронные сети привлекательны с интуитивной точки зрения, ибо они основаны на примитивной биологической модели нервных систем. В будущем развитие таких нейро-биологических моделей может привести к созданию действительно мыслящих компьютеров. Основными преимуществами использования нейронных сетей являются богатые возможности и простота в использовании.
Нейронные сети - исключительно мощный метод моделирования, позволяющий воспроизводить чрезвычайно сложные зависимости. В частности, нейронные сети нелинейны по своей природе. На протяжении многих лет линейное моделирование было основным методом моделирования в большинстве областей, поскольку для него хорошо разработаны процедуры оптимизации. В задачах, где линейная аппроксимация неудовлетворительна (а таких достаточно много), линейные модели работают плохо. Кроме того, нейронные сети справляются с "проклятием размерности", которое не позволяет моделировать линейные зависимости в случае большого числа переменных. В этом заключаются богатые возможности нейронных сетей.
Простота в использовании состоит в том, что нейронные сети учатся на примерах. Пользователь нейронной сети подбирает представительные данные, а затем запускает алгоритм обучения, который автоматически воспринимает структуру данных. При этом от пользователя, конечно, требуется какой-то набор эвристических знаний о том, как следует отбирать и подготавливать данные, выбирать нужную архитектуру сети и интерпретировать результаты, однако уровень знаний, необходимый для успешного применения нейронных сетей, гораздо скромнее, чем, например, при использовании традиционных методов статистики.
Основными этапами решения задачи являются:
1. Сбор данных для обучения
2. Подготовка и нормализация данных
3. Выбор топологии сети
4. Экспериментальный подбор характеристик сети
5. Экспериментальный подбор параметров обучения
6. Собственно обучение
7. Проверка адекватности обучения
8. Корректировка параметров, окончательное обучение
9. Вербализация сети с целью дальнейшего использования
На данном этапе уже решены первые два пункта. Рассмотрим подробнее остальные этапы.
Выбирать тип сети следует исходя из постановки задачи и имеющихся данных для обучения. Для обучения с учителем требуется наличие для каждого элемента выборки «экспертной» оценки. Иногда получение такой оценки для большого массива данных просто невозможно. В этих случаях естественным выбором является сеть, обучающаяся без учителя, например, самоорганизующаяся карта Кохонена или нейронная сеть Хопфилда. При решении других задач, таких как прогнозирование временных рядов, экспертная оценка уже содержится в исходных данных и может быть выделена при их обработке. В этом случае можно использовать многослойный персептрон. В нашем случае стоит задача регрессии и нам подходят несколько типов сетей: многослойный персептрон, сеть радиальных базисных функций или вероятностная нейронная сеть.
После выбора общей структуры нужно экспериментально подобрать параметры сети. Для сетей, подобных персептрону, это будет число слоев, число блоков в скрытых слоях, наличие или отсутствие обходных соединений, передаточные функции нейронов. При выборе количества слоев и нейронов в них следует исходить из того, что способности сети к обобщению тем выше, чем больше суммарное число связей между нейронами. С другой стороны, число связей ограничено сверху количеством записей в обучающих данных.
После выбора конкретной топологии, необходимо выбрать параметры обучения нейронной сети. От правильного выбора параметров зависит не только то, насколько быстро ответы сети будут сходиться к правильным ответам. Например, выбор низкой скорости обучения увеличит время схождения, однако иногда позволяет избежать паралича сети. Увеличение момента обучения может привести как к увеличению, так и к уменьшению времени сходимости, в зависимости от формы поверхности ошибки. Исходя из такого противоречивого влияния параметров, можно сделать вывод, что их значения нужно выбирать экспериментально, руководствуясь при этом критерием завершения обучения, например, минимизация ошибки или ограничение по времени обучения).