Повна версія

Головна arrow Інформатика arrow ІНТЕЛЕКТУАЛЬНІ СИСТЕМИ: НЕЧІТКІ СИСТЕМИ І МЕРЕЖІ

  • Увеличить шрифт
  • Уменьшить шрифт


<<   ЗМІСТ   >>

АРХІТЕКТУРА TSK (TAKAGI, SUGENO, KANG'A)

Структура нечіткої мережі TSK заснована на системі нечіткого виведення Такагі- Сугено-Канга. При цьому в якості опції фаз- зіфікаціі для кожної змінної x t використовується узагальнена функція Гаусса:

Для агрегації умови / -го правила в системі виведення TSK використовується операція алгебраїчного твору:

При М правилах виведення агрегування вихідного результату мережі здійснюється за формулою, яку можна представити у вигляді:

N

де yi (x) = Pio + ^ PijXj, агрегація імплікації. Прісутствую-> i

щие в цьому виразі ваги w, інтерпретуються як компоненти // ' 1 (.V), певні формулою. При цьому формулою можна зіставити багатошарову структуру мережі, зображену на малюнку 27. У такій мережі виділяється п'ять шарів:

Шар 1. виконує роздільну фазифікації кожної змінної xjj = 1,2 ..., АТ визначаючи для кожного / -го правили виведення значення коефіцієнта власності // ^ (х, -) відповідно до застосовуваної функцією фазифікації. Це параметричний шар з параметрами підлягають адаптації в

процесі навчання.

Шар 2. виконує агрегування окремих змінних х ,, визначаючи результуюче значення коефіцієнта приналежності Wj = //, (х) для векторах відповідно до формули. Цей шар непараметрический.

Шар 3. є генератор функції TSK, розрахо-

? V

Тива значення у 1 (х) = Р, п + ^ Р "х, . У цьому шарі також про-

м

виходить множення сигналів д (х) на значення w " сформовані в попередньому шарі. Це параметричний шар, в якому адаптації підлягають лінійні ваги р, : для / = 1,2 ..., М і j = 1,2 ..., N, що визначають функцію слідства моделі TSK.

Шар 4. складають два нейрона- суматора, один з яких розраховує зважену суму сігналовд (х), а другий визна

Л /

ляє суму ваг w. Це непараметрический шар.

i = i

Шар 5. складається з одного вихідного нейрона-це нормалізує шар, в якому ваги піддаються нормалізації відповідно до формули. Вихідний сигнал дх) визначається виразом, відповідним залежності:

яка лінійна щодо всіх вхідних змінних системи X) для j = 1,2 ..., N. Веса w, є нелінійними параметрами функції; ', які уточнюються в процесі навчання. Коефіцієнти р 0 , р ь ..., р х - его ваги, що підбираються в процесі навчання.

Це також непараметричний шар.

Структура нечіткої нейронної мережі TSK

Мал. 27- Структура нечіткої нейронної мережі TSK

При уточненні функціональної залежності для мережі TSK отримуємо:

Якщо прийняти, що в конкретний момент часу параметри умови зафіксовані, то функція >> (*) є лінійною щодо змінних xfj = 1,2, ..., N).

При наявності N вхідних змінних кожне правило формує N + 1 змінних p i} лінійної залежності TSK. При М правилах виведення це дає М (N + 1) лінійних параметрів мережі. У свою чергу кожна функція приналежності використовує три параметри, які підлягають адаптації. Так як кожна змінна х } характеризується власною функцією приналежності, то ми отримаємо 3 MN нелінійних параметрів. В сумі це дає M (4N + 1) лінійних і нелінійних параметрів, значення яких повинні підбиратися в процесі навчання мережі.

 
<<   ЗМІСТ   >>