Головна Інформатика
ІНТЕЛЕКТУАЛЬНІ СИСТЕМИ: НЕЧІТКІ СИСТЕМИ І МЕРЕЖІ
|
|
|||||
НАВЧАННЯ НЕЧІТКОЇ НЕЙРОННОЇ МЕРЕЖІВ існуючих системах з нечіткими нейронними мережами одним з найважливіших питань є розробка оптимального методу настройки нечіткої бази правил, виходячи з навчальної вибірки, для отримання конструктивної і оптимальної моделі нечіткої нейронної мережі. В основному нечіткі правила описуються експертами або операторами відповідно до їх знань і досвіду про відповідні процесах. Але в разі розробки нечіткої нейронної мережі досить важко або майже неможливо відразу отримати нечіткі правила або функції приналежності внаслідок неясності, неповноти або складності описуваної системи. У таких випадках доцільне вважається уточнення нечітких правил і функцій приналежності, використовуючи спеціальні алгоритми навчання. Навчання нечіткої нейронної мережі ANFISТак як нечітка мережа ANFIS, описана раніше, представляється у вигляді багатошарової структури з прямим розповсюдженням сигналу, а значення вихідної змінної можна змінювати, коригуючи параметри елементів верств, то для навчання цієї мережі можна використовувати градієнтний алгоритм. Основною характерною рисою даного підходу є те, що настройка параметрів функцій приналежності здійснюється без модифікації бази правил [7]. Нехай задана навчальна вибірка, що складається з безлічі прикладів, xf ^ .Xj, ..., х ^ '- значення вхідних змінних х ,, х 2 , ..., х га , y {k) - еталонне значення вихідної змінної у в до- м прикладі, К- загальне число прикладів в навчальній вибірці. Відзначимо, що для нечіткої нейронної мережі ANFIS з використанням алгоритму Сугено налаштованим параметрами є параметри функцій приналежності формула, де a i} - центр функції приналежності, b tj - ширина даної функції. На першому етапі навчання для кожного прикладу з навчальної вибірки за значеннями вхідних змінних нечітка мережа розраховує значення вихідної змінної у. На другому етапі обчислюється функція помилки для всіх прикладів навчальної вибірки:
В даному випадку функція помилки може бути записана як функція, що залежить від таких аргументів:
На третьому етапі коригуються значення (а, г Ь 0 ) по кожному наприклад навчальної вибірки, виходячи з співвідношень ![]() де t - номер ітерації навчання, rj е [0,1] - коефіцієнт, що характеризує швидкість навчання. Етапи 1 - 3 ітераційно повторюються, і процедура коригування значень всіх параметрів вважається завершеною в разі, якщо значення функції помилки але кожному наприклад навчальної вибірки не перевищує деякого встановленого порога: ![]() або оцінка середньої сумарної похибки нечіткої мережі з урахуванням всіх прикладів навчальної вибірки не перевищує деякого встановленого порога: ![]() У цьому випадку вважається, що нечітка мережа успішно навчилася. При навчанні за допомогою алгоритму зворотного поширення помилки забезпечується властивість єдиності подання лінгвістичних термів за рахунок пов'язаної адаптації параметрів функцій приналежності. |
<< | ЗМІСТ | >> |
---|