Головна Інформатика
ІНТЕЛЕКТУАЛЬНІ СИСТЕМИ: НЕЧІТКІ СИСТЕМИ І МЕРЕЖІ
|
|
|||||
АЛГОРИТМ НЕЧІТКОЇ САМООРГАНІЗАЦІЇ C-MEANSАлгоритм самоорганізації приписує вектор х до відповідної групи даних, які подаються центром з " з використанням навчання конкурентного типу подібно мереж Кохонсна. При навчанні цього типу процес самоорганізації стає можливим за умови пред'явлення вектора х. Припустимо, що в мережі існує М нечітких нейронів з центрами в точках з (/ = 1,2, ..., М). Початкові значення цих центрів можуть бути обрані випадковим чином з областей допустимих значень відповідних компонентів векторів лг (/ = 1,2, ..., /?), Використаних для навчання. Нехай функція фуззіфікаціі задана в формі узагальненої функції Гаусса, вираженої формулою. Подається на вхід мережі вектор х буде належати до різних груп, що подаються центрами з "певною мірою і," причому 0 < и-, <1, а сумарна ступінь приналежності до всіх груп, очевидно, дорівнює одиниці. Тому
для t = 1,2, ..., р. Функцію похибки, відповідну такому уявленню, можна визначити як суму приватних похибок приналежності до центрів з, з урахуванням ступеня приналежності н "Отже
де ш - це ваговий коефіцієнт, який приймає значення з інтервалу [1, оо), на практиці часто приймають гп = 2. Мета навчання з самоорганізацією полягає в такому підборі центрів з "щоб для заданої множини навчальних векторів х { ' ] забезпечити досягнення мінімуму функції при одночасному дотриманні умов обмеження. Таким чином виникає задача мінімізації нелінійної функції з р обмеженнями типу. Вирішення цього завдання можна звести до мінімізації функції Лагранжа, визначеної у вигляді [13].
де Я ( (? = 1,2, ..., /?) - це множники Лагранжа. Доведено, що рішення задачі можна представити у вигляді
де с / "- це евклідова відстань між центром с, і вектором х" d jt = | з ( - х, II. Оскільки точні значення центрів з, на початку процесу не відомі, алгоритм навчання має бути ітераційним: виконати випадкову ініціалізацію коефіцієнтів м, "вибираючи їх значення з інтервалу [0,1] таким чином, щоб за умови; визначити М центрів з, відповідно до; розрахувати значення функції похибки відповідно до. Якщо її значення нижче встановленого порогу, або якщо зменшення цієї похибки щодо попередньої ітерації дуже малий, то закінчити обчислення. Інакше, перейти до п.4; розрахувати нові значення і ,, за формулою і перейти до п.2. Багаторазове повторення итерационной процедури веде до досягнення мінімуму функції Е, який необов'язково буде глобальним. Значення функції Е істотно залежить від початкової ініціалізації значень м "і центрів з ,. Тому, попередньо слід використовувати алгоритми ініціалізації, найбільш відомими серед яких є алгоритми пікового і різницевого групування. |
<< | ЗМІСТ | >> |
---|