где
,
Нечеткая нейронная сеть TSK задается многослойной структурной сетью, представленной на рисунке 1. В такой сети выделяют 5 слоев.
1. Первый слой выполняет раздельную фаззификацию каждой переменной
,
, определяя для каждого
-го правила вывода значение ФП
в соответствии с функцией фаззификации. Это параметрический слой с параметрами
, которые подлежат адаптации в процессе обучения.
2. Второй слой выполняет агрегирование отдельных переменных
, определяя результирующую степень принадлежности
для вектора
условиям
-го правила. Это не параметрический слой.
3. Третий слой представляет собой генератор функции TSK, в котором рассчитывается значения
. В этом слое также происходит умножение функции
на
, сформированных на предыдущем слое. Это параметрический слой, в котором адаптации подлежат линейные параметры (веса),
для
,
, определяющие функции последствий правил.
4. Четвертый слой составляют 2 нейрона-сумматора, один из которых рассчитывает взвешенную сумму сигналов
, а второй определяет сумму весов
.
5. Пятый слой состоит из одного единственного нейрона. В нем веса подлежат нормализации и вычисляется выходной сигнал
в соответствием с выражением
Это так же не параметрический слой.
Из приведенного описания следует, что нечеткая сеть TSK содержит только 2 параметрических слоя (первый и третий), параметры которых уточняются в процессе обучения. Параметры первого слоя (
) будем называть нелинейными, а параметры третьего слоя
- линейными весами.
Общее выражение для функциональной зависимости для сети TSK задается так:
Рисунок 1. Структура ННС TSK
3.3 Алгоритм обучения
Рассмотрим гибридный алгоритм обучения. В гибридном алгоритме параметры, подлежащие адаптации, делятся на 2 группы. Первая из них состоит из линейных параметров
третьего слоя, а вторая группа – из параметров нелинейной ФП первого слоя. Уточнение параметров происходит в 2 этапа.На первом этапе при фиксации отдельных значений параметров функции принадлежности, решая систему линейных уравнений, рассчитываются линейные параметры
полинома TSK. При известных значениях ФП зависимость для выхода можно представить в виде линейной формы относительно параметра : , где , При размерности обучающей выборки
, и замене выходного сигнала сети ожидаемым значением получим систему из линейных уравнений вида где
означает уровень активации (вес) условия -го правила при предъявлении -го входного вектора . Это выражение можно записать в матричном виде Размерность матрицы
равняется . При этом количество строк обычно бывает значительно больше количества столбцов . Решение этой системы уравнений можно получить как обычными методами, так и за один шаг, используя псевдо инверсию матрицы : ,где
- псевдо инверсная матрица.На втором этапе после фиксации значения линейных параметров
рассчитываются фактические выходные сигналы , , для этого используется линейная зависимость: После этого рассчитывается вектор ошибки
и критерий Сигналы ошибок направляются через сеть в обратном порядке согласно методу BackPropagation вплоть до первого слоя, где могут быть рассчитаны компоненты
. После вычисления вектора градиента делается шаг спуска градиентным методом. Соответствующие формулы обучения (для самого простого метода быстрого спуска) принимают вид: , , ,где
- номер итерации.После уточнения нелинейных параметров снова запускается процесс адаптации линейных параметров функции TSK (первый этап) и нелинейных параметров (второй этап). Этот цикл продолжается до тех пор пока не стабилизируются все параметры процесса.
В курсовой работе использовалась обобщенная колоколообразная функция принадлежности
соответствующие формулы градиентного метода целевой функции для одной пары данных
принимают вид: , ,
Соответствующие производные
принимают следующий вид:
, , для
,