где
Нечеткая нейронная сеть TSK задается многослойной структурной сетью, представленной на рисунке 1. В такой сети выделяют 5 слоев.
1. Первый слой выполняет раздельную фаззификацию каждой переменной
2. Второй слой выполняет агрегирование отдельных переменных
3. Третий слой представляет собой генератор функции TSK, в котором рассчитывается значения
4. Четвертый слой составляют 2 нейрона-сумматора, один из которых рассчитывает взвешенную сумму сигналов
5. Пятый слой состоит из одного единственного нейрона. В нем веса подлежат нормализации и вычисляется выходной сигнал
Это так же не параметрический слой.
Из приведенного описания следует, что нечеткая сеть TSK содержит только 2 параметрических слоя (первый и третий), параметры которых уточняются в процессе обучения. Параметры первого слоя (
Общее выражение для функциональной зависимости для сети TSK задается так:
Рисунок 1. Структура ННС TSK
3.3 Алгоритм обучения
Рассмотрим гибридный алгоритм обучения. В гибридном алгоритме параметры, подлежащие адаптации, делятся на 2 группы. Первая из них состоит из линейных параметров
На первом этапе при фиксации отдельных значений параметров функции принадлежности, решая систему линейных уравнений, рассчитываются линейные параметры
При размерности обучающей выборки
где
Размерность матрицы
где
На втором этапе после фиксации значения линейных параметров
После этого рассчитывается вектор ошибки
Сигналы ошибок направляются через сеть в обратном порядке согласно методу BackPropagation вплоть до первого слоя, где могут быть рассчитаны компоненты
где
После уточнения нелинейных параметров снова запускается процесс адаптации линейных параметров функции TSK (первый этап) и нелинейных параметров (второй этап). Этот цикл продолжается до тех пор пока не стабилизируются все параметры процесса.
В курсовой работе использовалась обобщенная колоколообразная функция принадлежности
соответствующие формулы градиентного метода целевой функции для одной пары данных
Соответствующие производные
принимают следующий вид:
для