< Попередня  Змiст  Наступна >

Фазифікація та дефазифікація


Виокремлюють три основних типи систем нечіткого виведення: ? 1-й тип: вихідне значення обчислюють як зважене середнє результатів виконання кожного правила, дефазифікація для кожного з яких проводиться окремо; для таких систем вихідні функції приналежності мають бути монотонно-неспадаючими; ? 2-й тип: вихідне нечітке значення — це результат об’єднання нечітких виходів кожного правила; кожний нечіткий вихід зважено за допомогою ваг спрацьовування правил; чітке вихідне значення обчислюють у результаті дефазифікації об’єднаного нечіткого виходу; ? 3-й тип: система, побудована на правилах типу Сугено; вихідне значення є лінійною комбінацією вхідних значень плюс деяке постійне значення, загальний вихід є середнім зваженим усіх правил.

Загалом як значення вхідних та вихідних змінних правил можна використовувати нечіткі множини, з якими не пов’язано ніяке поняття — оскільки під час проведення нечіткого виведення нечіткі терми все одно представляються нечіткими множинами і пов’язане з нечітким термом поняття не відіграє ніякої ролі.

Фазифікація та дефазифікація

Фазифікація (fuzzification) — це визначення ступеня виконання антецедентів правил. За допомогою фазифікації чіткому значенню ставляться у відповідність ступені його приналежності до нечітких множин.

Дефазифікація (defuzzification) — процедура перетворення нечіткої множини на чітке число за ступенем приналежності.

У теорії нечітких множин процедура дефазифікації є аналогічною знаходженню характеристик перебування (математичного сподівання, моди, медіани) випадкових величин у теорії ймовір-

У системах нечіткого виведення функції консеквенту, отримані в результаті виконання правил, об’єднуються в одну функцію µ(y). Існують різні методи дефазифікації цієї об’єднаної функції приналежності.

Нехай y — нечітка змінна, Y — область визначення змінної y, y * — чітке значення нечіткої змінної y.

Методи дефазифікації можна записати у такому вигляді: ? середній з максимальних (MOM — mean of maximum): ? найменший з максимальних (SOM

— smallest of maximum): ? максимум функції приналежності: де µ Y (y) — унімодальна функція; ? центр тяжіння (COG — center of gravity, центроїд — centroid): () ? µ k iYi yy де y i — i-ий сінглтон (од — значення функції приналежності для i-го елемента нечіткої множини Y;

smallest of maximum): ? максимум функції приналежності: де µ Y (y) — унімодальна функція; ? центр тяжіння (COG — center of gravity, центроїд — centroid): () ? µ k iYi yy де y ii-ий сінглтон (од — значення функції приналежності для i-го елемента нечіткої множини Y;

yy Y µ=MAXmin * ; ()()() yy Y µ=MAXmin * ; yy Y y µ=suparg * , () yy Y y µ=suparg * , = = k i y y

1 * ; = i

1 () ? = = µ = k i iY i y y

1

1 * ; () ? = = µ = k i iY i y y

1

1 * ; ноточкова нечітка множина), () iY yµ

Прямий (висхідний) метод нечіткого виведення заснований на використанні нечіткого узагальнення правила modus ponens, який стосовно до систем нечітких продукцій реалізується тим, що окремі факти проблемної області перетворюються на конкретні значення функцій приналежності умов нечітких продукцій. Після чого за одним із методів нечіткої композиції знаходять значення функцій приналежності висновків правих частин за кожним із правил нечітких продукцій. Ці значення функцій приналежності або є шуканим результатом виведення, або можуть бути використані як додаткові умови у базі правил продукцій, що розглядається.

ностей. Найпростішим способом виконання процедури дефазифікації є вибір чіткого числа, що відповідає максимуму функції приналежності. Однак придатність цього способу обмежується лише одноекстремальними функціями приналежності.

Прямий (висхідний) метод нечіткого виведення заснований на використанні нечіткого узагальнення правила modus ponens, який стосовно до систем нечітких продукцій реалізується тим, що окремі факти проблемної області перетворюються на конкретні значення функцій приналежності умов нечітких продукцій. Після чого за одним із методів нечіткої композиції знаходять значення функцій приналежності висновків правих частин за кожним із правил нечітких продукцій. Ці значення функцій приналежності або є шуканим результатом виведення, або можуть бути використані як додаткові умови у базі правил продукцій, що розглядається.

Розглянемо найбільш уживані методи нечіткого виведення.

Метод Мамдані (E. Mamdani) використовує БЗ із правилами у Мамдані та передбачає виконання таких дій:

1) Уведення нечіткості. Знаходять ступені істинності для пе

393 ? центр площі (center of area): чітке значення вихідної змінної y * визначається з рівняння: * min max y Y

? центр площі (center of area): чітке значення вихідної змінної y * визначається з рівняння: * min max y Y

yyy j djj µµ= ? µ,min, j = 1, 2, ..., m. ? ? ? ? ? ? ? µ=µyy j j max, j = 1, 2, ..., m.

Потім знаходять «усічені» функції приналежності: ()()()() yyy j djj µµ= ? µ,min, j = 1, 2, ..., m.

3) Композиція. Здійснюється об’єднання знайдених усічених функцій з використанням операції максимум, що приводить до одержання підсумкової нечіткої підмножини для змінної виходу з функцією приналежності: ()() ? ? ? ? ? ? ? µ=µyy j j max, j = 1, 2, ..., m.

4) Приведення до чіткості — проводиться для отримання y * , наприклад центроїдним методом.

Метод Цукамото (Y. Tsukamoto): Вихідні посилки — як у попереднього методу, але тут передбачається, що функції () y j d µ є монотонними.

1) Уведення нечіткості. Знаходять ступені істинності для пе

редумов кожного правила: µ jp (i * ), i = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k j .

2) Нечітке виведення. Знаходять рівні «відтинання» для передумов кожного із правил: () * , min ijp pi j xyµ=µ, i = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k j , ня y j розв’язуванням рівнянь: jdj yy j µ=µ, j = 1, 2, ..., m. * на основі центроїдного методу.

Метод Ларсена (H. Larsen): нечітка імплікація моделюється з використанням оператора множення.

1) Уведення нечіткості. Знаходять ступені істинності для передумов кожного правила: µ jp (x i * ), i = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k j .

2) Нечітке виведення. Знаходять рівні «відтинання» для передумов кожного із правил: редумов кожного правила: µ jp (i * ), i = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k j .

2) Нечітке виведення. Знаходять рівні «відтинання» для передумов кожного із правил: p = 1, 2, ..., k j .

2) Нечітке виведення. Знаходять рівні «відтинання» для передумов кожного із правил: () * , min ijp pi j xyµ=µ, i = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k j , yy j dj µµ, j = 1, 2, ..., m.редумов кожного правила: µ jp (x i * ), i = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k j .

2) Нечітке виведення. Знаходять рівні «відтинання» для передумов кожного із правил: () () * , min ijp pi j xyµ=µ, i = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k j , а потім для кожного вихідного правила визначають чіткі значення y j розв’язуванням рівнянь: ()() jdj yy j µ=µ, j = 1, 2, ..., m.

3) Визначається чітке значення змінної y * на основі центроїдного методу.

Метод Ларсена (H. Larsen): нечітка імплікація моделюється з використанням оператора множення.

1) Уведення нечіткості. Знаходять ступені істинності для передумов кожного правила: µ jp (x i * ), i = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k j .

2) Нечітке виведення. Знаходять рівні «відтинання» для передумов кожного із правил: () () * , min ijp pi j xyµ=µ, i = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k j , а потім визначають часткові нечіткі підмножини: ()() yy j dj µµ, j = 1, 2, ..., m.

yyy j dj j µµ=µmax, j = 1, 2, ..., m.

3) Знаходять підсумкову нечітку підмножину: ()()()() yyy j dj j µµ=µmax, j = 1, 2, ..., m.

4) За необхідності здійснюється приведення до чіткості.

Спрощений метод нечіткого виведення: Вихідні правила в да

ному випадку задаються у вигляді: Якщо (x

1 = a

1 j1 ) та (x

2 = a

2 j1 ) та ... та (x n = a n j1 ), то y = d j для всіх j = 1, 2, ..., m. Тут d j — нечіткі числа.

1) Уведення нечіткості. Знаходять ступені істинності для передумов кожного правила: µ jp (x i * ), i = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k j .

2) Нечітке виведення. Знаходять числа та (x n = a n j1 ), то y = d j для всіх j = 1, 2, ..., m. Тут d j — нечіткі числа.

1) Уведення нечіткості. Знаходять ступені істинності для передумов кожного правила: µ jp (x i * ), i = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k j .

2) Нечітке виведення. Знаходять числа редумов кожного правила: µ jp (i * ), i = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k j .

2) Нечітке виведення. Знаходять числа p = 1, 2, ..., k j .

2) Нечітке виведення. Знаходять числа () * , min ijp pi j xyµ=µi = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k. ному випадку задаються у вигляді: Якщо (x

1 = a

1 j1 ) та (x

2 = a

2 j1 ) та ... та (x n = a n j1 ), то y = d j для всіх j = 1, 2, ..., m. Тут d j — нечіткі числа.

1) Уведення нечіткості. Знаходять ступені істинності для передумов кожного правила: µ jp (x i * ), i = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k j .

2) Нечітке виведення. Знаходять числа () () * , min ijp pi j xyµ=µi = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k.

3) Визначають чітке значення вихідної змінної y * для нечіткої

множини y = {µ j (y)|d j } на основі центроїдного методу.

Метод Сугено: М. Сугено (M. Sugeno) та Т. Такагі (T. Takagi) використовували набір правил у формі: Якщо (x

1 = a

1 j1 ) та (x

2 = a

2 j1 ) та ... та (x n = a n j1 ), то y = w

1 x

1 + w

2 x

2 + ...w i x i + ... + w n x n , для всіх i = 1, 2, ..., n; j = 1, 2, ..., m. Тут w i — деякі вагові коефіцієнти.

1) Уведення нечіткості. Знаходяться ступені істинності для передумов кожного правила: µ jp (x i * ), i = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k j .

2) Нечітке виведення. Знаходять рівні «відтинання» для передумов кожного із правил: використовували набір правил у формі: Якщо (x

1 = a

1 j1 ) та (x

2 = a

2 j1 ) та ... та (x n = a n j1 ), то y = w

1 x

1 + w

2 x

2 + ...w i x i + ... + w n x n , для всіх i = 1, 2, ..., n; j = 1, 2, ..., m. Тут w i — деякі вагові коефіцієнти.

1) Уведення нечіткості. Знаходяться ступені істинності для передумов кожного правила: µ jp (x i * ), i = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k j .

2) Нечітке виведення. Знаходять рівні «відтинання» для передумов кожного із правил: a

2 j1 ) та ... та (x n = a n j1 ), то y = w

1 x

1 + w

2 x

2 + ...w i x i + ... + w n x n , для всіх i = 1, 2, ..., n; j = 1, 2, ..., m. Тут w i — деякі вагові коефіцієнти.

1) Уведення нечіткості. Знаходяться ступені істинності для передумов кожного правила: µ jp (x i * ), i = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k j .

2) Нечітке виведення. Знаходять рівні «відтинання» для передумов кожного із правил: всіх i = 1, 2, ..., n; j = 1, 2, ..., m. Тут w i — деякі вагові коефіцієнти.

1) Уведення нечіткості. Знаходяться ступені істинності для передумов кожного правила: µ jp (x i * ), i = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k j .

2) Нечітке виведення. Знаходять рівні «відтинання» для передумов кожного із правил: передумов кожного правила: µ jp (i * ), i = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k j .

2) Нечітке виведення. Знаходять рівні «відтинання» для передумов кожного із правил: p = 1, 2, ..., k j .

2) Нечітке виведення. Знаходять рівні «відтинання» для передумов кожного із правил: () * , min ijp pi j xyµ=µi = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k j , а також індивідуальні виходи правил: d j = w

1 x

1 + w

2 x

2 + ...w i x i +...+ + w n x n .

3) Визначають чітке значення змінної виведення y * для нечіткої множини y = {µ j (y)|d j }на основі центроїдного методу.

Для налагодження параметрів БЗ Сугено запропоновано такі методи:

Метод налагодження параметрів нечіткої БЗ Сугено на основі фільтра Калмана передбачає знаходження таких коефіцієнтів у висновках правил, що забезпечують мінімальне відхилення між даними спостережень і результатами логічного виведення за нечіткою БЗ Сугено.

Нехай ми маємо навчаючу вибірку пар <x s , y s >, x s = {x s i }, s = 1 , 2, …, S, i = 1, 2, …, N, де x s i — значення i-ої ознаки s-го екземпля-+ w n x n .

3) Визначають чітке значення змінної виведення y * для нечіткої множини y = {µ j (y)|d j }на основі центроїдного методу.

Для налагодження параметрів БЗ Сугено запропоновано такі методи:

Метод налагодження параметрів нечіткої БЗ Сугено на основі фільтра Калмана передбачає знаходження таких коефіцієнтів у висновках правил, що забезпечують мінімальне відхилення між даними спостережень і результатами логічного виведення за нечіткою БЗ Сугено.

Нехай ми маємо навчаючу вибірку пар <x s , y s >, x s = {x s i }, s = 1 , 2, …, S, i = 1, 2, …, N, де x s i — значення i-ої ознаки s-го екземпля-кої множини y = {µ j (y)|d j }на основі центроїдного методу.

Для налагодження параметрів БЗ Сугено запропоновано такі методи:

Метод налагодження параметрів нечіткої БЗ Сугено на основі фільтра Калмана передбачає знаходження таких коефіцієнтів у висновках правил, що забезпечують мінімальне відхилення між даними спостережень і результатами логічного виведення за нечіткою БЗ Сугено.

Нехай ми маємо навчаючу вибірку пар <x s , y s >, x s = {x s i }, s = 1 , 2, …, S, i = 1, 2, …, N, де x s i — значення i-ої ознаки s-го екземпля-

Нехай ми маємо навчаючу вибірку пар <x s , y s >, x s = {x s i }, s = 1 , 2, …, S, i = 1, 2, …, N, де x s i — значення i-ої ознаки s-го екземпля-2, …, S, i = 1, 2, …, N, де x s i — значення i-ої ознаки s-го екземпля-множини y = {µ j (y)|d j } на основі центроїдного методу.

Метод Сугено: М. Сугено (M. Sugeno) та Т. Такагі (T. Takagi) використовували набір правил у формі: Якщо (x

1 = a

1 j1 ) та (x

2 = a

2 j1 ) та ... та (x n = a n j1 ), то y = w

1 x

1 + w

2 x

2 + ...w i x i + ... + w n x n , для всіх i = 1, 2, ..., n; j = 1, 2, ..., m. Тут w i — деякі вагові коефіцієнти.

1) Уведення нечіткості. Знаходяться ступені істинності для передумов кожного правила: µ jp (x i * ), i = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k j .

2) Нечітке виведення. Знаходять рівні «відтинання» для передумов кожного із правил: () () * , min ijp pi j xyµ=µi = 1, 2, ..., n; j = 1, 2, ..., m; p = 1, 2, ..., k j , а також індивідуальні виходи правил: d j = w

1 x

1 + w

2 x

2 + ...w i x i +...+ + w n x n .

3) Визначають чітке значення змінної виведення y * для нечіткої множини y = {µ j (y)|d j }на основі центроїдного методу.

Для налагодження параметрів БЗ Сугено запропоновано такі методи:

Метод налагодження параметрів нечіткої БЗ Сугено на основі фільтра Калмана передбачає знаходження таких коефіцієнтів у висновках правил, що забезпечують мінімальне відхилення між даними спостережень і результатами логічного виведення за нечіткою БЗ Сугено.

Нехай ми маємо навчаючу вибірку пар <x s , y s >, x s = {x s i }, s = 1 , 2, …, S, i = 1, 2, …, N, де x s i — значення i-ої ознаки s-го екземпля-

Необхідно знайти такі значення коефіцієнтів висновків правил

Необхідно знайти такі значення коефіцієнтів висновків правил

Позначимо:

Позначимо:

Тоді в матричній формі завдання ставиться таким чином:

Тоді в матричній формі завдання ставиться таким чином:

знайти такий вектор b, щоб: E = (y – y * ) T (y – y * ) ? min, де y * = Ab.

Мінімальне значення E досягається при y * = y, що відповідає розв’язку рівняння y = Ab. Для реальних задач кількість параметрів, що налагоджуються, менше обсягу вибірки даних m(N + 1) < S, тому рівняння y = Ab не має точного розв’язку. У цьому випадку розв’язок можна знайти, використовуючи псевдоінверсію матриці A : b = (A T A) –1 A T y. Проблеми знаходження b пов’язані з можливою сингулярністю матриці (A T A).

Для знаходження b за допомогою фільтра Калмана можна використовувати такі ітеративні формули:

Мінімальне значення E досягається при y * = y, що відповідає розв’язку рівняння y = Ab. Для реальних задач кількість параметрів, що налагоджуються, менше обсягу вибірки даних m(N + 1) < S, тому рівняння y = Ab не має точного розв’язку. У цьому випадку розв’язок можна знайти, використовуючи псевдоінверсію матриці A : b = (A T A) –1 A T y. Проблеми знаходження b пов’язані з можливою сингулярністю матриці (A T A).

Для знаходження b за допомогою фільтра Калмана можна використовувати такі ітеративні формули: розв’язку рівняння y = Ab. Для реальних задач кількість параметрів, що налагоджуються, менше обсягу вибірки даних m(N + 1) < S, тому рівняння y = Ab не має точного розв’язку. У цьому випадку розв’язок можна знайти, використовуючи псевдоінверсію матриці A : b = (A T A) –1 A T y. Проблеми знаходження b пов’язані з можливою сингулярністю матриці (A T A).

Для знаходження b за допомогою фільтра Калмана можна використовувати такі ітеративні формули: рів, що налагоджуються, менше обсягу вибірки даних m(N + 1) < S, тому рівняння y = Ab не має точного розв’язку. У цьому випадку розв’язок можна знайти, використовуючи псевдоінверсію матриці A : b = (A T A) –1 A T y. Проблеми знаходження b пов’язані з можливою сингулярністю матриці (A T A).

Для знаходження b за допомогою фільтра Калмана можна використовувати такі ітеративні формули: S, тому рівняння y = Ab не має точного розв’язку. У цьому випадку розв’язок можна знайти, використовуючи псевдоінверсію матриці A : b = (A T A) –1 A T y. Проблеми знаходження b пов’язані з можливою сингулярністю матриці (A T A).

Для знаходження b за допомогою фільтра Калмана можна використовувати такі ітеративні формули: риці A : b = (A T A) –1 A T y. Проблеми знаходження b пов’язані з можливою сингулярністю матриці (A T A).

Для знаходження b за допомогою фільтра Калмана можна використовувати такі ітеративні формули: k+1kk+1 k+1 k+1 k ()

11

1

1 ++ ++ + + ?= kk T k k T kkk kk AwA wAAw ww, k = 0, 1, …, S–1, b k+1 = b k + w k+1 A k+1 (y k+1 – (A k+1 ) T b k , ()

11

1

1 ++ ++ + + ?= kk T k k T kkk kk AwA wAAw ww, k = 0, 1, …, S–1, b k+1 = b k + w k+1 A k+1 (y k+1 – (A k+1 ) T b k , ()

11

1

1 ++ ++ + + ?= kk T k k T kkk kk AwA wAAw ww, k = 0, 1, …, S–1,

11 ++ kk k ()

11

11

1

1 ++ ++ + + ?= kk T k k kkk kk AwA wAAw ww, k = 0, 1, …, S–1, ()

11

1

1 ++ + + ?= kk T k k kkk kk AwA wAAw ww, k = 0, 1, …, S–1,

11

1

1 ++ + + ?= kk T k k kkk kk AwA wAAw ww, k = 0, 1, …, S–1, () ()

11

11

1

1 ++ ++ + + ?= kk T k k T kkk kk AwA wAAw ww, k = 0, 1, …, S–1, при початкових умовах: b

0 = 0 та w

0 = w, де w — велике позитивне число, I — одинична матриця; k — номер ітерації.знайти такий вектор b, щоб: E = (y – y * ) T (y – y * ) ? min, де y * = Ab.

Мінімальне значення E досягається при y * = y, що відповідає розв’язку рівняння y = Ab. Для реальних задач кількість параметрів, що налагоджуються, менше обсягу вибірки даних m(N + 1) < S, тому рівняння y = Ab не має точного розв’язку. У цьому випадку розв’язок можна знайти, використовуючи псевдоінверсію матриці A : b = (A T A) –1 A T y. Проблеми знаходження b пов’язані з можливою сингулярністю матриці (A T A).

Для знаходження b за допомогою фільтра Калмана можна використовувати такі ітеративні формули: b k+1 = b k + w k+1 A k+1 (y k+1 – (A k+1 ) T b k , () ()

11

11

1

1 ++ ++ + + ?= kk T k k T kkk kk AwA wAAw ww, k = 0, 1, …, S–1, при початкових умовах: b

0 = 0 та w

0 = w, де w — велике позитивне число, I — одинична матриця; k — номер ітерації.

ра, y s — значення цільової ознаки s-го екземпляра, а також правила нечіткої БЗ Сугено:

Кількість ітерацій методу ідентифікації дорівнює обсягу вибірки експериментальних даних. На першому кроці методу координати вектора b налагоджуються за першим екземпляром вибірки. На s-ій ітерації координати вектора b налагоджуються за s-им екземпляром.

Метод налагодження параметрів нечіткої БЗ Сугено на основі градієнтного методу оптимізації подамо такою послідовністю кроків.

Крок 1. Задати навчальну вибірку <x, y>, x = {x s }, s i s xx=, y = {y s }, де s — номер екземпляра вибірки, i — номер ознаки, s = 1, 2, …, S, i = 1, 2, …, N. Установити параметри методу: E max — максимально припустиму помилку та Epochs — максимальну кількість епох навчання.

Крок 2. Розрахувати для кожного екземпляра навчальної вибірy = {y s }, де s — номер екземпляра вибірки, i — номер ознаки, s = 1, 2, …, S, i = 1, 2, …, N. Установити параметри методу: E max — максимально припустиму помилку та Epochs — максимальну кількість епох навчання.

Крок 2. Розрахувати для кожного екземпляра навчальної вибірs = 1, 2, …, S, i = 1, 2, …, N. Установити параметри методу: E max — максимально припустиму помилку та Epochs — максимальну кількість епох навчання.

Крок 2. Розрахувати для кожного екземпляра навчальної вибірки відносні ступені виконання висновків правил s j ?, s = 1, 2, …, S, j = 1, 2, …, m.

Крок 3. Установити лічильник ітерацій навчання і лічильник епох навчання: s = 1, epoch = 1.

Крок 4. Установити початкові значення параметрів, що налаепох навчання: s = 1, epoch = 1.

Крок 4. Установити початкові значення параметрів, що налагоджуються: 0 , = s ij b, i = 1, 2, …, N, j = 1, 2, …, m.

Крок 1. Задати навчальну вибірку <x, y>, x = {x s }, {} s i s xx=, y = {y s }, де s — номер екземпляра вибірки, i — номер ознаки, s = 1, 2, …, S, i = 1, 2, …, N. Установити параметри методу: E max — максимально припустиму помилку та Epochs — максимальну кількість епох навчання.

Крок 2. Розрахувати для кожного екземпляра навчальної вибірки відносні ступені виконання висновків правил s j ?, s = 1, 2, …, S, j = 1, 2, …, m.

Крок 3. Установити лічильник ітерацій навчання і лічильник епох навчання: s = 1, epoch = 1.

Крок 4. Установити початкові значення параметрів, що налагоджуються: 0 , = s ij b, i = 1, 2, …, N, j = 1, 2, …, m.

Крок 5. Розрахувати значення «миттєвої помилки» для r-ої пари даних з вибірки і перерахувати значення параметрів, що налагоджуються:

, , , s ij s s ij s ij b e bb ? ? ??= + s i s ijs s ij s xbe b e , ,

2= ? ? , , , , s ij s s ij s ij b e bb ? ? ??= + s i s ijs s ij s xbe b e , ,

2= ? ? , i = 1, 2, …, N, j = 1, 2, …, m, де e s = (y sy s* ) 2 — миттєва помилка для s-го екземпляра вибірки, ? > 0 — крок, що задає швидкість навчання. При малих значеннях параметра ? навчання буде повільним. При великих значеннях цього параметра виникає небезпека перенавчання, коли на кожній ітерації методу нечітка модель буде налагоджуватися тільки на поточну пару «входи — вихід», при цьому забуваючи попередній досвід.

Крок 6. Якщо s < S, тоді збільшити лічильник ітерацій s = s + 1 і перейти до кроку 5.

Крок 7. Розрахувати значення помилки для всієї вибірки даних на епосі навчання epoch: ? > 0 — крок, що задає швидкість навчання. При малих значеннях параметра ? навчання буде повільним. При великих значеннях цього параметра виникає небезпека перенавчання, коли на кожній ітерації методу нечітка модель буде налагоджуватися тільки на поточну пару «входи — вихід», при цьому забуваючи попередній досвід.

Крок 6. Якщо s < S, тоді збільшити лічильник ітерацій s = s + 1 і перейти до кроку 5.

Крок 7. Розрахувати значення помилки для всієї вибірки даних на епосі навчання epoch:


< Попередня  Змiст  Наступна >
Iншi роздiли:
Тема 15. ПРОГРАМНІ ЗАСОБИ ДЛЯ СИНТЕЗУ НЕЧІТКИХ МОДЕЛЕЙ FUZZY LOGIC TOOLBOX
15.3. Формування бази знань нейро-нечіткої мережі
15.6. Конкурентні нейро-нечіткі системи
Тема 16. ПРОГРАМНІ ЗАСОБИ ДЛЯ СИНТЕЗУ НЕЙРО-НЕЧІТКИХ МОДЕЛЕЙ МЕРЕЖ
Нейро-нечітка модель діяльності компанії
Дисциплiни

Медичний довідник новиниКулінарний довідникАнглійська моваБанківська справаБухгалтерський облікЕкономікаМікроекономікаМакроекономікаЕтика та естетикаІнформатикаІсторіяМаркетингМенеджментПолітологіяПравоСтатистикаФілософіяФінанси

Бібліотека підручників та статтей Posibniki (2022)