Повна версія

Головна arrow Інформатика arrow ІНТЕЛЕКТУАЛЬНІ СИСТЕМИ: НЕЧІТКІ СИСТЕМИ І МЕРЕЖІ

  • Увеличить шрифт
  • Уменьшить шрифт


<<   ЗМІСТ   >>

НАВЧАННЯ НЕЧІТКОЇ НЕЙРОННОЇ МЕРЕЖІ TSK

Розглянемо гібридний алгоритм навчання. Даний алгоритм служить для навчання нечіткої мережі TSK. Нечіткі правила даної моделі мають вигляд, представлений формулою:

де R k - мітка до -го правила, х = (jc 1 , ... х ") - і-мірний вектор вхідних ознак, у - вихідний ознака, А [ - нечітка множина передумови правила R k , p 0 , .. ., P N - ваги.

У гібридному алгоритмі параметри, що підлягають адаптації, діляться на 2 групи. Перша з них складається з лінійних параметрів p kJ третього шару (ваг), а друга група - з параметрів нелінійної функції приналежності першого шару - це параметри р ю . Уточнення параметрів відбувається в 2 етапи.

На першому етапі при фіксації окремих значень параметрів функції належності (в першому циклі - це значення, які отримані шляхом ініціалізації), вирішуючи систему лінійних рівнянь, розраховуються лінійні параметри p kj . При відомих значеннях функції приналежності залежність для виходу можна представити у вигляді лінійної форми щодо параметра p kj [7]:

При розмірності навчальної вибірки к =, ..., К

і заміні вихідного сигналу мережі очікуваним значенням у ' [к) отримаємо систему з До лінійних рівнянь виду

де co ' ik означає рівень активації (вага) умови до-т правила при пред'явленні / -го вхідного вектора Х (,) . Цей вислів можна записати в матричному вигляді:

Розмірність матриці А дорівнює К +) М. При цьому кількість рядків До зазвичай буває значно більше кількості стовпців (N + 1) М.

При наявності N вхідних змінних кожне правило R k формує (N + 1) змінну p ki лінійної залежності у до . При М правилах виведення маємо (N + 1) М лінійних параметрів мережі.

Вирішення цієї системи рівнянь можна отримати використовуючи псевдоінверсії матриці А:

де А * - псевдоінверсних матриця. Псевдоінверсії матриці полягає у вирішенні завдання мінімізації:

де Е - одинична матриця.

На другому етапі після фіксації значення лінійних параметрів p kj розраховуються фактичні вихідні сигнали у * до> , до =, для цього використовується лінійна залежність:

Після цього розраховується вектор помилки syy 1 і критерій

Сигнали помилок направляються через мережу в зворотному порядку відповідно до методу Back Propagation аж до першого шару, де можуть бути розраховані компоненти а, Ь. Після обчислення вектора градієнта робиться крок спуску градієнтним методом.

Після уточнення нелінійних параметрів знову запускається процес адаптації лінійних параметрів (перший етап) і нелінійних параметрів (другий етап). Цей цикл триває до тих пір, поки не стабілізуються всі параметри процесу.

При практичній реалізації гібридного методу навчання нечітких мереж домінуючим фактором їх адаптації вважається перший етап, на якому ваги p kJ підбираються з використанням псевдоінверсії за один крок. Для врівноваження його впливу другий етап багато разів повторюється в кожному циклі.

Таким чином, з проведеного аналізу видно, що з використанням алгоритму зворотного поширення помилки відбувається оптимальне уточнення функцій приналежності, що дає можливість краще підготувати нечітку нейронну мережу для вирішення конкретних завдань з меншими витратами часу. З використанням методу оптимізації (метод найменших квадратів) оцінюються коефіцієнти висновків правил, так як вони лінійно пов'язані з виходом мережі. Кожна ітерація процедури налаштування виконується в два етапи. На першому етапі на входи подається навчальна вибірка, і по невязке між бажаним і дійсним поведінкою мережі ітераційним методом найменших квадратів знаходяться оптимальні параметри вузлів четвертого шару. На другому етапі залишкова невязка передається з виходу мережі на входи, і методом зворотного поширення помилки модифікуються параметри вузлів першого шару. При цьому знайдені на першому етапі коефіцієнти висновків правил не змінюються. Ітераційна процедура настройки триває поки невязка перевищує заздалегідь встановлене значення. Щоб визначити опції приладдя крім методу зворотного поширення помилки можуть використовуватися і інші алгоритми оптимізації

 
<<   ЗМІСТ   >>