
где 
  
, 
 
Нечеткая нейронная сеть TSK задается многослойной структурной сетью, представленной на рисунке 1. В такой сети выделяют 5 слоев.
 1. Первый слой выполняет раздельную фаззификацию каждой переменной 
  
, 
 
, определяя для каждого 
 
-го правила вывода значение ФП 
 
 в соответствии с функцией фаззификации. Это параметрический слой с параметрами 
 
, которые подлежат адаптации в процессе обучения.
2. Второй слой выполняет агрегирование отдельных переменных 
  
, определяя результирующую степень принадлежности 
 
для вектора 
 
 условиям 
 
-го правила. Это не параметрический слой.
3. Третий слой представляет собой генератор функции TSK, в котором рассчитывается значения 
  
. В этом слое также происходит умножение функции 
 
 на 
 
, сформированных на предыдущем слое. Это параметрический слой, в котором адаптации подлежат линейные параметры (веса), 
 
 для 
 
, 
 
, определяющие функции последствий правил.
4. Четвертый слой составляют 2 нейрона-сумматора, один из которых рассчитывает взвешенную сумму сигналов 
  
, а второй определяет сумму весов 
 
.
5. Пятый слой состоит из одного единственного нейрона. В нем веса подлежат нормализации и вычисляется выходной сигнал 
  
 в соответствием с выражением
  
Это так же не параметрический слой.
 Из приведенного описания следует, что нечеткая сеть TSK содержит только 2 параметрических слоя (первый и третий), параметры которых уточняются в процессе обучения. Параметры первого слоя (
  
) будем называть нелинейными, а параметры третьего слоя 
 
- линейными весами.
Общее выражение для функциональной зависимости для сети TSK задается так:
   
       
Рисунок 1. Структура ННС TSK
 
3.3 Алгоритм обучения
 Рассмотрим гибридный алгоритм обучения. В гибридном алгоритме параметры, подлежащие адаптации, делятся на 2 группы. Первая из них состоит из линейных параметров 
  
 третьего слоя, а вторая группа – из параметров нелинейной ФП первого слоя. Уточнение параметров происходит в 2 этапа.На первом этапе при фиксации отдельных значений параметров функции принадлежности, решая систему линейных уравнений, рассчитываются линейные параметры 
  
 полинома TSK. При известных значениях ФП зависимость для выхода можно представить в виде линейной формы относительно параметра  
:  
, где  
,  
При размерности обучающей выборки 
  
,  
 и замене выходного сигнала сети ожидаемым значением  
 получим систему из  
 линейных уравнений вида  
где 
  
 означает уровень активации (вес) условия  
-го правила при предъявлении  
-го входного вектора  
. Это выражение можно записать в матричном виде  
Размерность матрицы 
  
 равняется  
. При этом количество строк  
 обычно бывает значительно больше количества столбцов  
. Решение этой системы уравнений можно получить как обычными методами, так и за один шаг, используя псевдо инверсию матрицы  
:  
,где 
  
 - псевдо инверсная матрица.На втором этапе после фиксации значения линейных параметров 
  
 рассчитываются фактические выходные сигналы  
,  
, для этого используется линейная зависимость:  
После этого рассчитывается вектор ошибки 
  
 и критерий  
Сигналы ошибок направляются через сеть в обратном порядке согласно методу BackPropagation вплоть до первого слоя, где могут быть рассчитаны компоненты 
  
. После вычисления вектора градиента делается шаг спуска градиентным методом. Соответствующие формулы обучения (для самого простого метода быстрого спуска) принимают вид:  
 ,  
,  
,где 
  
 - номер итерации.После уточнения нелинейных параметров снова запускается процесс адаптации линейных параметров функции TSK (первый этап) и нелинейных параметров (второй этап). Этот цикл продолжается до тех пор пока не стабилизируются все параметры процесса.
 В курсовой работе использовалась обобщенная колоколообразная функция принадлежности
   
соответствующие формулы градиентного метода целевой функции для одной пары данных 
  
 принимают вид:  
,  
,  
Соответствующие производные
   
принимают следующий вид:
   
,  
,  
для 
  
,