Главная Информатика
ИНТЕЛЛЕКТУАЛЬНЫЕ СИСТЕМЫ: НЕЧЕТКИЕ СИСТЕМЫ И СЕТИ
|
|
||||||
Архитектура TSK (Takagi, Sugeno, Kang'a)Структура нечёткой сети TSK основана на системе нечёткого вывода Такаги- Сугэно-Канга. При этом в качестве функции фаз- зификации для каждой переменной xt используется обобщённая функция Гаусса: ![]() Для агрегации условия /-го правила в системе вывода TSK используется операция алгебраического произведения: ![]() При М правилах вывода агрегирование выходного результата сети производится по формуле, которую можно представить в виде: ![]() N где yi(x) = Pio+^PijXj, агрегация импликации. Присутствую- >i щие в этом выражении веса w, интерпретируются как компоненты //'1 (.V), определённые формулой . При этом формуле можно сопоставить многослойную структуру сети, изображенную на рисунке 27. В такой сети выделяется пять слоёв: Слой 1. выполняет раздельную фаззификацию каждой переменной xjj = 1,2..., АО определяя для каждого /-го правили вывода значение коэффициента принадлежности //^(х,-) в соответствии с применяемой функцией фаззификации. Это параметрический слой с параметрами подлежащими адаптации в процессе обучения. Слой 2. выполняет агрегирование отдельных переменных х,, определяя результирующее значение коэффициента принадлежности Wj = // , (х) для векторах в соответствии с формулой . Этот слой непараметрический. Слой 3. представляет собой генератор функции TSK, рассчи- ?V тывающий значения у1 (х) = Р,п + ^ Р„х, . В этом слое также про- м исходит умножение сигналов д(х) на значения w„ сформированные в предыдущем слое. Это параметрический слой, в котором адаптации подлежат линейные веса р,: для / =1,2..., М и j =1,2..., N, определяющие функцию следствия модели TSK. Слой 4. составляют два нейрона- сумматора, один из которых рассчитывает взвешенную сумму сигналовд(х), а второй опреде- Л/ ляет сумму весов w . Это непараметрический слой. i=i Слой 5. состоит из одного выходного нейрона-это нормализующий слой, в котором веса подвергаются нормализации в соответствии с формулой . Выходной сигнал дх) определяется выражением, соответствующим зависимости: ![]() которая линейна относительно всех входных переменных системы X) для j = 1,2..., N. Веса w, являются нелинейными параметрами функции;’, которые уточняются в процессе обучения. Коэффициенты р0,рь ..., рх - эго веса, подбираемые в процессе обучения.
Это также непараметрический слой. ![]() Рис. 27- Структура нечёткой нейронной сети TSK При уточнении функциональной зависимости для сети TSK получаем: ![]() Если принять, что в конкретный момент времени параметры условия зафиксированы, то функция >>(*) является линейной относительно переменных xfj =1,2,..., N). При наличии N входных переменных каждое правило формирует N + 1 переменных pi} линейной зависимости TSK. При М правилах вывода это даёт М (N + 1) линейных параметров сети. В свою очередь каждая функция принадлежности использует три параметра, подлежащих адаптации. Так как каждая переменная х} характеризуется собственной функцией принадлежности, то мы получим 3MN нелинейных параметров. В сумме это даёт M(4N + 1) линейных и нелинейных параметров, значения которых должны подбираться в процессе обучения сети. |
<< | СОДЕРЖАНИЕ | ПОСМОТРЕТЬ ОРИГИНАЛ | >> |
---|