Повна версія

Головна arrow Інформатика arrow ІНТЕЛЕКТУАЛЬНІ СИСТЕМИ: НЕЧІТКІ СИСТЕМИ І МЕРЕЖІ

  • Увеличить шрифт
  • Уменьшить шрифт


<<   ЗМІСТ   >>

НАВЧАННЯ НЕЧІТКОЇ НЕЙРОННОЇ МЕРЕЖІ

В існуючих системах з нечіткими нейронними мережами одним з найважливіших питань є розробка оптимального методу настройки нечіткої бази правил, виходячи з навчальної вибірки, для отримання конструктивної і оптимальної моделі нечіткої нейронної мережі. В основному нечіткі правила описуються експертами або операторами відповідно до їх знань і досвіду про відповідні процесах. Але в разі розробки нечіткої нейронної мережі досить важко або майже неможливо відразу отримати нечіткі правила або функції приналежності внаслідок неясності, неповноти або складності описуваної системи. У таких випадках доцільне вважається уточнення нечітких правил і функцій приналежності, використовуючи спеціальні алгоритми навчання.

Навчання нечіткої нейронної мережі ANFIS

Так як нечітка мережа ANFIS, описана раніше, представляється у вигляді багатошарової структури з прямим розповсюдженням сигналу, а значення вихідної змінної можна змінювати, коригуючи параметри елементів верств, то для навчання цієї мережі можна використовувати градієнтний алгоритм. Основною характерною рисою даного підходу є те, що настройка параметрів функцій приналежності здійснюється без модифікації бази правил [7]. Нехай задана навчальна вибірка, що складається з безлічі прикладів, xf ^ .Xj, ..., х ^ '- значення вхідних змінних х ,, х 2 , ..., х га , y {k) - еталонне значення вихідної змінної у в до- м прикладі, К- загальне число прикладів в навчальній вибірці. Відзначимо, що для нечіткої нейронної мережі ANFIS з використанням алгоритму Сугено налаштованим параметрами є параметри функцій приналежності формула, де a i} - центр функції приналежності, b tj - ширина даної функції.

На першому етапі навчання для кожного прикладу з навчальної вибірки за значеннями вхідних змінних нечітка мережа розраховує значення вихідної змінної у.

На другому етапі обчислюється функція помилки для всіх прикладів навчальної вибірки:

В даному випадку функція помилки може бути записана як функція, що залежить від таких аргументів:

На третьому етапі коригуються значення (а, г Ь 0 ) по кожному наприклад навчальної вибірки, виходячи з співвідношень

де t - номер ітерації навчання, rj е [0,1] - коефіцієнт, що характеризує швидкість навчання.

Етапи 1 - 3 ітераційно повторюються, і процедура коригування значень всіх параметрів вважається завершеною в разі, якщо значення функції помилки але кожному наприклад навчальної вибірки не перевищує деякого встановленого порога:

або оцінка середньої сумарної похибки нечіткої мережі з урахуванням всіх прикладів навчальної вибірки не перевищує деякого встановленого порога:

У цьому випадку вважається, що нечітка мережа успішно навчилася.

При навчанні за допомогою алгоритму зворотного поширення помилки забезпечується властивість єдиності подання лінгвістичних термів за рахунок пов'язаної адаптації параметрів функцій приналежності.

 
<<   ЗМІСТ   >>