Posibniki.com.ua Інформатика Прикладні системи штучного інтелекту 15.3. Формування бази знань нейро-нечіткої мережі


< Попередня  Змiст  Наступна >

15.3. Формування бази знань нейро-нечіткої мережі


системи, в яких параметризовані функції приналежності використовуються як ваги зв’язків між нейронами. Таку систему інакше можна назвати персептроном з нечіткими зв’язками або нечітким персептроном. Прикладами таких систем є NEFCON, NEFCLASS, NEFPROX.

За характером навчання виокремлюють такі типи нейронечітких мереж:

самоналагоджувані нейро-нечіткі мережі — з адаптацією структури та параметрів;

адаптивні нейро-нечіткі мережі — із жорсткою структурою та адаптацією параметрів мережі.

Адаптивні нейро-нечіткі мережі за видом методу оптимізації поділяють на такі, що використовують детерміновані методи типу градієнтного пошуку, та такі, що використовують стохастичні методи, зокрема еволюційні.

Адаптивні нейро-нечіткі мережі за типом параметрів адаптації поділяють на мережі з адаптацією параметрів функцій приналежності, мережі з адаптацією ваг правил та мережі з адаптацією параметрів оператора агрегації.

15.3. Формування бази знань нейро-нечіткої мережі

Розглянемо об’єкт вигляду y = f(x

1 , х

2 , ..., x n ), для якого зв’язок «входи х j — вихід у» можна подати у вигляді експертної матриці знань (табл. 4.1).

Цій матриці відповідає нечітка база знань: ()()() []

11

22

11 ...тата j nn jj axaхax=== (з вагою w j1 )… ()()()[] jjj jk nn jkjk axaхax===...тата

2211 (з вагою j jk w),

Якщо

11

22

11 ...тата j nn jj axaхax=== (з вагою w j1 )… ()()()[] jjj jk nn jkjk axaхax===...тата

2211 (з вагою j jk w), … jjj jk nn jkjk axaхax===...тата

2211 (з вагою j jk w), то y = d j , j = 1, 2, …, m, p = 1, 2, …, k j . де jp i a — лінгвістичний терм, що оцінює змінну x i у рядку р; p = 1, 2,…,k j ; k j — кількість рядків-кон’юнкцій, що відповідають кла-де jp i a — лінгвістичний терм, що оцінює змінну x i у рядку р; p = 1, 2,…,k j ; k j — кількість рядків-кон’юнкцій, що відповідають кла-

Розглянемо об’єкт вигляду y = f(x

1 , х

2 , ..., x n ), для якого зв’язок «входи х j — вихід у» можна подати у вигляді експертної матриці знань (табл. 4.1).

Цій матриці відповідає нечітка база знань:

Якщо ()()() []

11

22

11 ...тата j nn jj axaхax=== (з вагою w j1 )… … ()()()[] jjj jk nn jkjk axaхax===...тата

2211 (з вагою j jk w), то y = d j , j = 1, 2, …, m, p = 1, 2, …, k j . де jp i a — лінгвістичний терм, що оцінює змінну x i у рядку р; p = 1, 2,…,k j ; k j — кількість рядків-кон’юнкцій, що відповідають кла-

тільки один вхідний або вихідний нейрон. Існує два підходи до реалізації таких систем. У першому система просто апроксимує відповідність виходів входам, така система є «чорною скринею». У другому створюється система зі спеціальною архітектурою, в якій утілюються нечіткі правила;

j = 1, 2, ..., m, формуються як номери дискретних значень вихідної змінної.

Якщо вихідна змінна є дійсною, то класи d j , j = 1, 2, ..., m, формуються шляхом квантування діапазону [] yy, вихідної змінної y

43421

43421

321 d m d jj d yyyyyyyy,...,...,,

111

1 ?? ????= . су d j вихідної змінної у; w jp — число в діапазоні [0, 1], що характеризує суб’єктивну міру впевненості експерта щодо висловлення з номером p.

Якщо вихідна змінна (консеквент) є дискретною, то класи d j , j = 1, 2, ..., m, формуються як номери дискретних значень вихідної змінної.

Таблиця 5.1

ЕКСПЕРТНА МАТРИЦЯ ЗНАНЬ

Якщо (входи)

Номер правила x

1 x

2 ...x n

То (вихід)Вага правила

11

11

1 a

11

2 a...

11 n aw

11

12

12

1 a

12

2 a...

12 n aw

12 ..................

1k

1

1

1

1 k a

1

1

2 k a...

1

1k n a d

1

1

1k w ..................... m1

1

1 m aa

2 m1 ...a n m1 w m1 m2

2

1 m aa

2 m2 ...a n m2 w m2 .................. mk m m mk a

1 m mk a

2 ... m mk n a d m m mk w

Якщо вихідна змінна є дійсною, то класи d j , j = 1, 2, ..., m, формуються шляхом квантування діапазону [] yy, вихідної змінної y на m рівнів: [][][][]

43421

43421

321 m j d m d jj d yyyyyyyy,...,...,,

111

1 ?? ????= .

Основні принципи формування БЗ нейро-нечітких систем полягають у такому.

Копіювання навчальної вибірки в БЗ — для кожного екземпляра навчальної вибірки формується окреме правило. Перевагою даного методу є простота та висока швидкість роботи, недоліком

— відсутність узагальнюючих властивостей і громіздкість одержуваної мережі.

Оптимізація кількості продукційних правил — знаходження такого значення кількості продукційних правил S, за якого значення помилки E(S) є мінімальним, для чого при різних значеннях S навчають мережу і вимірюють значення помилки, після чого оптимізують функцію E(S) за параметром S. Недоліком даного методу є дуже високі вимоги до обчислювальних ресурсів, обумовлені необхідністю заново навчати мережу на кожному кроці.

Спільна оптимізація ваг мережі та кількості продукційних правил шляхом вирішення багатоекстремальної оптимізаційної задачі або автоматичне визначення числа кластерів у навчальній вибірці та встановлення центрів функцій приналежності в їхні центри на основі кластер-аналізу.

Скорочення (редукція) правил. У методах скорочення під час ініціалізації формується нечітка система, що містить свідомо надлишкове число продукційних правил. У процесі роботи методу зайві продукційні правила виключаються.

Основні принципи редукції правил:

— скорочення нечітких правил відповідно до їх логічних функцій: 1) виключення правил, для яких результативна функція приналежності менша від визначеного порога, як таких, що мало впливають на остаточний результат; 2) виключення суперечливих правил, які взаємно компенсуються; 3) виключення одного із двох правил, що збігаються, як таких, що не несуть нової інформації;

— ортогоналізація: видалення тих продукційних правил, вплив яких на точність виявляється мінімальним після оцінки індивідуального внеску кожного продукційного правила у вихідний сигнал мережі, одержуваної шляхом використання ортогонального методу найменших квадратів. Істотним недоліком методів скорочення є необхідність спочатку працювати зі свідомо надлишковою за обсягом БЗ, що обумовлює в деяких випадках повільну роботу методів.

Нарощування (конструювання) правил: формується початкова база продукційних правил (вона може бути і порожньою), котра потім послідовно поповнюється нечіткими правилами.

Виокремлюють два різновиди методів нарощування:

1) При надходженні чергової навчаючої пари <х s ,у s > визначають відстані d(x s , C v ) між центрами передумов наявних правил і точкою х s . Якщо min(d(x s , C v ))> d, v = 1, 2, …, V, де d — деякий параметр, що можливо змінюється в процесі роботи методу, то додається ще одне правило з центрами функцій приналежності у точці C V+1 = х s та висновком у s . У разі невиконання зазначеної нерівності додавання продукційного правила не відбувається.точкою х s . Якщо min(d(x s , C v ))> d, v = 1, 2, …, V, де d — деякий параметр, що можливо змінюється в процесі роботи методу, то додається ще одне правило з центрами функцій приналежності у точці C V+1 = х s та висновком у s . У разі невиконання зазначеної нерівності додавання продукційного правила не відбувається.точці C V+1 = х s та висновком у s . У разі невиконання зазначеної нерівності додавання продукційного правила не відбувається.точці C V+1 = х s та висновком у s . У разі невиконання зазначеної нерівності додавання продукційного правила не відбувається.

1) При надходженні чергової навчаючої пари <х s ,у s > визначають відстані d(x s , C v ) між центрами передумов наявних правил і точкою х s . Якщо min(d(x s , C v ))> d, v = 1, 2, …, V, де d — деякий параметр, що можливо змінюється в процесі роботи методу, то додається ще одне правило з центрами функцій приналежності у точці C V+1 = х s та висновком у s . У разі невиконання зазначеної нерівності додавання продукційного правила не відбувається.

Недоліком указаного методу є відсутність явного зв’язку між процедурою додавання продукційних правил і точністю апроксимації, що має визначатися окремо.

2) Нове правило додається за виконання нерівності |у s* – у s

| > ?, де у s* значення виходу мережі при подачі на вхід х s , розраховане за наявними продукційними правилами, ? — постійний параметр, що характеризує точність апроксимації.

Прикладом цього підходу є метод формування бази знань шляхом генерації нових продукційних правил, що не суперечать правилам з БЗ системи, виходячи з аналізу експериментальних даних про об’єкт.

Нехай ми маємо вибірку S пар значень <x s , y s >, s = 1, 2, ..., S; значення S за необхідності допускає модифікацію. Тоді метод формування БЗ може бути описаний у такий спосіб.

Крок 1. З m (m < S) довільних значень <х s , у s > складається початкова база знань моделі, відображувана матрицею U m?(N+1) з рядками <x s ,y s > = <х s

1 , х s

2 , .... х s N , у s >. Таке подання еквівалентне набору продукційних правил: s , s = 1, ...,

Нехай ми маємо вибірку S пар значень <x s , y s >, s = 1, 2, ..., S; значення S за необхідності допускає модифікацію. Тоді метод формування БЗ може бути описаний у такий спосіб.

Крок 1. З m (m < S) довільних значень <х s , у s > складається початкова база знань моделі, відображувана матрицею U m?(N+1) з рядками <x s ,y s > = <х s

1 , х s

2 , .... х s N , у s >. Таке подання еквівалентне набору продукційних правил: s , s = 1, ...,

Крок 1. З m (m < S) довільних значень <х s , у s > складається початкова база знань моделі, відображувана матрицею U m?(N+1) з рядками <x s ,y s > = <х s

1 , х s

2 , .... х s N , у s >. Таке подання еквівалентне набору продукційних правил: s , s = 1, ..., m?(N+1)дками <x s ,y s > = <х s

1 , х s

2 , .... х s N , у s >. Таке подання еквівалентне набору продукційних правил: s , s = 1, ..., дками <x s ,y s > = <х s

1 , х s

2 , .... х s N , у s >. Таке подання еквівалентне набору продукційних правил: s , s = 1, ...,

П s : якщо s Ax

11 ?х

1 та s Ax

22 ? та ... та s NN Ax?, то y = у s , s = 1, ..., m.

Крок 2. Для кожної нової експериментальної точки <х * , у * > розраховується прогнозоване значення за формулою, що відповідає центроїдному методу:

Крок 2. Для кожної нової експериментальної точки <х * , у * > розраховується прогнозоване значення за формулою, що відповідає центроїдному методу: = s

1 () ? = = ?µ = m s s s m p xx y

1 *

1 . , () ? = = ?µ = m s s s m p xx y

1 *

1 . , ? ? ? ? ? ? ? ? ???=?µ ? = N j j s j s xxxx

1 ** exp, = j

1

Крок 3. Якщо ?>? * . * p yy, де ? — задана константа, що визнарозширення матриці U (додаванням рядка <х * , у * >), у протилежному випадку — матриця U залишається без змін.

Крок 4. Перевіряється правило зупинення. У даному варіанті методу побудова моделі вважається закінченою, якщо відповідно

2) Нове правило додається за виконання нерівності |у s* – у s

| > ?, де у s* значення виходу мережі при подачі на вхід х s , розраховане за наявними продукційними правилами, ? — постійний параметр, що характеризує точність апроксимації.

Прикладом цього підходу є метод формування бази знань шляхом генерації нових продукційних правил, що не суперечать правилам з БЗ системи, виходячи з аналізу експериментальних даних про об’єкт.

Нехай ми маємо вибірку S пар значень <x s , y s >, s = 1, 2, ..., S; значення S за необхідності допускає модифікацію. Тоді метод формування БЗ може бути описаний у такий спосіб.

Крок 1. З m (m < S) довільних значень <х s , у s > складається початкова база знань моделі, відображувана матрицею U m?(N+1) з рядками <x s ,y s > = <х s

1 , х s

2 , .... х s N , у s >. Таке подання еквівалентне набору продукційних правил:

П s : якщо s Ax

11 ?х

1 та s Ax

22 ? та ... та s NN Ax?, то y = у s , s = 1, ..., m.

Крок 2. Для кожної нової експериментальної точки <х * , у * > розраховується прогнозоване значення за формулою, що відповідає центроїдному методу: () () ? ? = = ?µ ?µ = m s s s m s s m p xx xxy y

1 * *

1 . , де µ — функція дзвоникоподібної або експонентної форми: () ? ? ? ? ? ? ? ? ???=?µ ? = N j j s j s xxxx

1 ** exp, де ? — параметр функції.

Крок 3. Якщо ?>? * . * p yy, де ? — задана константа, що визначає погрішність апроксимації, тоді БЗ поповнюється шляхом розширення матриці U (додаванням рядка <х * , у * >), у протилежному випадку — матриця U залишається без змін.

Крок 4. Перевіряється правило зупинення. У даному варіанті методу побудова моделі вважається закінченою, якщо відповідно

тилежному випадку — зупинення.

У процесі реалізації методу параметри ? та ? вважаються наперед заданими. При використанні системи заданими вважаються матриця U (на етапі використання моделі вона не змінюється) та параметри ? й ?, а розрахунок * .p y здійснюється відповідно до кроку 2 наведеного методу.

Як бачимо, що описаний метод, по суті, відповідає спрощеному методу нечіткого логічного виведення, але відрізняється від останнього тим, що БЗ не залишається фіксованою, а модернізується в міру надходження експериментальних даних. Причому несуперечність нового продукційного правила щодо набору правил з БЗ гарантується процедурою її поповнення.

15.4. Елементи нейро-нечітких мереж

Вхідні сигнали x j «взаємодіють» із синаптичними вагами w j ,

Вхідні сигнали x j «взаємодіють» із синаптичними вагами w j ,

утворюючи значення рівня збудження нейрона ?(x,w) = w

1 x

1 + w

2 x

2 + w

0 , де ?(x,w) — функція постсинаптичного потенціалу (дискримінантна, вагова функція) нейрона, w

0 — поріг нейрона. Вихід нейрона y утворюється в результаті перетворення значення ?(x,w) функцією активації ?: w

2 x

2 + w

0 , де ?(x,w) — функція постсинаптичного потенціалу (дискримінантна, вагова функція) нейрона, w

0 — поріг нейрона. Вихід нейрона y утворюється в результаті перетворення значення ?(x,w) функцією активації ?: у = ?(?(x,w)) = ?(w

1 x

1 + w

2 x

2 + w

0 ). утворюючи значення рівня збудження нейрона ?(x,w) = w

1 x

1 + w

2 x

2 + w

0 , де ?(x,w) — функція постсинаптичного потенціалу (дискримінантна, вагова функція) нейрона, w

0 — поріг нейрона. Вихід нейрона y утворюється в результаті перетворення значення ?(x,w) функцією активації ?: у = ?(?(x,w)) = ?(w

1 x

1 + w

2 x

2 + w

0 ).

Розглянута однонейронна мережа, у якій використовуються операції множення, підсумовування і функція активації, є стан-

до кроків 2 та 3 перебрані всі S експериментальних точок (без урахування значень початкової БЗ). Якщо не всі експериментальні точки використані, то здійснюється перехід до кроку 2, у про

зивати нечіткою. Входи, виходи і ваги нечіткої нейронної мережі

— дійсні числа, що належать відрізку [0, 1].

У табл. 5.2 наведено опис основних елементів нечітких нейромереж. Тут використовуються такі позначення: µ T (x) — функція приналежності змінної x терму Т; d j — центр j-го класу правил, [] yyd j ,?, де y та y — нижня і верхня межі значень вихідної змінної.

Таблиця 5.2

ЕЛЕМЕНТИ НЕЧІТКИХ НЕЙРОМЕРЕЖ

Назва елементу Зображення елементу Функція елементу
Вхід uv v = u
Нечіткий терм uv T v = µ T (u)
Нечітке правило u 1 v u t … ? = = == t i ii ti uvuv 1 ,...,2,1 min
Клас правил u 1 v u t … i ti uv ,...,2,1 max = = або ? = = t i i uv 1
Дефазифікація u 1 v u t … ?? == = m j j m j jj uduv 11

Нечіткий нейрон «ТА». Сигнали x j та ваги w j у даному випад

ку поєднуються за допомогою t-конорми: p j = S(w j , x j ), j = 1, 2, а вихід утворюється з застосуванням t-норми: y = AND(p

1 , p

2 ) = T(p

1 , p

2 ) = T(S(w

1 , x

1 ), S(w

2 , x

2 )). Якщо прийняти Т = min, S = max, то нечіткий нейрон «ТА» реалізує композицію min-max: у = min(max(w

1 , x

1 ), max(w

2 , x

2 )).вихід утворюється з застосуванням t-норми: y = AND(p

1 , p

2 ) = T(p

1 , p

2 ) = T(S(w

1 , x

1 ), S(w

2 , x

2 )). Якщо прийняти Т = min, S = max, то нечіткий нейрон «ТА» реалізує композицію min-max: у = min(max(w

1 , x

1 ), max(w

2 , x

2 )).T(p

1 , p

2 ) = T(S(w

1 , x

1 ), S(w

2 , x

2 )). Якщо прийняти Т = min, S = max, то нечіткий нейрон «ТА» реалізує композицію min-max: у = min(max(w

1 , x

1 ), max(w

2 , x

2 )).то нечіткий нейрон «ТА» реалізує композицію min-max: у = min(max(w

1 , x

1 ), max(w

2 , x

2 )).ку поєднуються за допомогою t-конорми: p j = S(w j , x j ), j = 1, 2, а вихід утворюється з застосуванням t-норми: y = AND(p

1 , p

2 ) = T(p

1 , p

2 ) = T(S(w

1 , x

1 ), S(w

2 , x

2 )). Якщо прийняти Т = min, S = max, то нечіткий нейрон «ТА» реалізує композицію min-max: у = min(max(w

1 , x

1 ), max(w

2 , x

2 )).

дартною нейронною мережею. У разі застосування замість операцій множення, підсумовування та функцій активації таких операцій, як t-норма і t-конорма, дану нейронну мережу будемо на

Нечіткий нейрон «АБО». Сигнали х j і ваги w j тут поєднуються

за допомогою t-норми: p j = Т(w j , х j ), j = 1, 2, а вихід утворюється із застосуванням t-конорми: у = OR(p

1 , p

2 ) = S(p

1 , р

2 ) = S(T(w

1 , х

1 ), Т(w

2 , х

2 )). Якщо прийняти Т = min, S = max, то нечіткий нейрон «АБО» реалізує композицію max-min: у = max(min(w

1 , x

1 ), min(w

2 , x

2 )). із застосуванням t-конорми: у = OR(p

1 , p

2 ) = S(p

1 , р

2 ) = S(T(w

1 , х

1 ), Т(w

2 , х

2 )). Якщо прийняти Т = min, S = max, то нечіткий нейрон «АБО» реалізує композицію max-min: у = max(min(w

1 , x

1 ), min(w

2 , x

2 )). Т(w

2 , х

2 )). Якщо прийняти Т = min, S = max, то нечіткий нейрон «АБО» реалізує композицію max-min: у = max(min(w

1 , x

1 ), min(w

2 , x

2 )). «АБО» реалізує композицію max-min: у = max(min(w

1 , x

1 ), min(w

2 , x

2 )). за допомогою t-норми: p j = Т(w j , х j ), j = 1, 2, а вихід утворюється із застосуванням t-конорми: у = OR(p

1 , p

2 ) = S(p

1 , р

2 ) = S(T(w

1 , х

1 ), Т(w

2 , х

2 )). Якщо прийняти Т = min, S = max, то нечіткий нейрон «АБО» реалізує композицію max-min: у = max(min(w

1 , x

1 ), min(w

2 , x

2 )).

15.5. Паралельні нейро-нечіткі системи

У найпростішому випадку паралельну модель (рис. 5.4) можна розглядати як передоброблювач, де механізм навчання штучної нейронної мережі визначає функції приналежності або нечіткі правила системи нечіткого виведення за навчаючими даними. Щойно параметри системи нечіткого виведення визначено, нейронна мережа припиняє використовуватися.

Рис. 5.4. Паралельна нейро-нечітка модель

Рис. 5.4. Паралельна нейро-нечітка модель

База правил нечіткої системи зазвичай визначається на основі карт, що самоорганізуються, або методів нечіткої кластеризації. Функції приналежності зазвичай апроксимуються нейронною мережею за навчальними даними.

Найбільш відомими прикладами паралельних нейро-нечітких систем є: нечітка асоціативна пам’ять Коско (B. Kosko), виділення нечітких правил на основі карт Педрича (W. Pedrycz), що самоорганізуються, та системи Номури (H. Nomura), здатні до навчання параметрів нечітких множин.

Нейро-нечітка мережа FAM (Kosko Fuzzy Associative Memory — нечітка асоціативна пам’ять Коско) заснована на інтерпретації нечіткого правила як асоціації між антецедентом і

Асоціативний пошук еквівалентний множенню ключового фактора на цю матрицю. Ваги зберігають кореляції між ознаками ключа та інформаційною частиною. Через обмежений обсяг асоціативної пам’яті та небажаність об’єднання багатьох матриць зв’язків в одну матрицю внаслідок серйозної втрати інформації необхідно зберігати кожне нечітке правило в окремій мережі FAM. Правила з N-змінними, з’єднаними за допомогою кон’юнкцій в антецедентах, можуть бути подані за допомогою N мереж FAM, де кожна мережа зберігає одне правило. Побудова мережі FAM для всього набору правил завершується об’єднанням усіх виходів операцією максимуму і дефазифікацією результату.

Навчання може бути включене у FAM як навчання ваг, пов’язаних з виходом FAM, або шляхом створення FAM цілком за допомогою навчання. Метод навчання нейронної мережі визначає ваги правил для нечітких правил. Такі показники часто інтерпретують як вплив правил та перемножують з виходами правил.

Ваги правил можуть бути замінені еквівалентною модифікацією функцій приналежності. Однак це може привести до неправильної інтерпретації нечітких множин та того, що ідентичні лінгвістичні значення могли б бути по-різному подані в різних правилах. Барт Коско запропонував метод адаптивного квантування вектора для навчання FAM. Цей метод названий диференціальним конкурентним навчанням і подібний навчанню карт самоорганізації.

Адаптивна пам’ять Коско є паралельною нейро-нечіткою моделлю, оскільки вона використовує навчаючий метод для визначення правил і їхніх ваг. Головною незручністю FAM є зважування правил. Те, що деякі правила не мають сильного впливу, не означає, що вони є малозначущими. Отже, надійність FAM для деяких застосувань додатків є сумнівною. Однак через простоту реалізації FAM широко використовується в багатьох застосуваннях.

Виділення нечітких правил з використанням карт, що самоорганізуються (Fuzzy Rule Extraction Using Self Organizing Maps). Вітольд Педрич запропонував використання карт самоорганізації зі змагальним шаром для кластеризації навчаючих даних і розробив засоби для інтерпретації результатів навчання.

консеквентом. Якщо нечітка множина подається як точка в одиничному гіперкубі, а правила є асоціаціями, то можна використовувати нейронну асоціативну пам’ять для збереження нечітких правил. Нейронна асоціативна пам’ять може бути подана її матрицею зв’язків.

Результати навчання можуть показувати, чи є два вхідних вектори подібними один одному або чи належать вони до одного й того самого класу. Однак, у випадку багатомірних вхідних векторів, структура задачі навчання може рідко виявлятися у двомірній карті. Передбачено процедуру інтерпретації результатів навчання з використанням лінгвістичних змінних.

Після процесу навчання матриця ваг w подає вагу кожної вхідної ознаки стосовно до виходу. Така матриця визначає карту тільки для однієї ознаки. Для кожної вхідної ознаки відповідно до лінгвістичного опису B визначаються нечіткі множини (одна нечітка множина для кожної змінної). Вони застосовуються до матриці ваг w для одержання множини перетворених матриць.

Кожна комбінація лінгвістичних термів — це можливий опис підмножини або екземплярів кластера. Щоб перевірити лінгвістичний опис B на придатність, перетворені карти схрещуються і виходить матриця D, що визначає сумісність результату навчання з лінгвістичним описом B. D(B) — це нечітке відношення, яке інтерпретується як ступінь підтримки B.

Описуючи відношення D(B) його a-розтинами D a (B), одержують підмножини вихідних вузлів, ступінь приналежності яких є принаймні a, так що, доcтовірність приналежності всіх екземплярів x a до класу, описаному B, скорочується зі зменшенням a. Кожний опис B є придатним описом кластера, якщо D(B) має непорожній a-розтин D a (B).

Якщо ознаки розподілені на вхідні та вихідні, то кожний опис B подає лінгвістичне правило, і досліджуючи кожну комбінацію лінгвістичних значень, можна створити повну базу нечітких правил. Цей метод також показує, які зразки належать нечіткому правилу, оскільки вони не містяться в жодній підмножині x a .


< Попередня  Змiст  Наступна >
Iншi роздiли:
Тема 16. ПРОГРАМНІ ЗАСОБИ ДЛЯ СИНТЕЗУ НЕЙРО-НЕЧІТКИХ МОДЕЛЕЙ МЕРЕЖ
Нейро-нечітка модель діяльності компанії
Тема 17. ЕВОЛЮЦІЙНІ ІНТЕЛЕКТУАЛЬНІ СИСТЕМИ ТА МОДЕЛІ
17.7. Генетичний та еволюційний пошук
17.10. Стандартний генетичний алгоритм
Дисциплiни

Медичний довідник новиниКулінарний довідникАнглійська моваБанківська справаБухгалтерський облікЕкономікаМікроекономікаМакроекономікаЕтика та естетикаІнформатикаІсторіяМаркетингМенеджментПолітологіяПравоСтатистикаФілософіяФінанси

Бібліотека підручників та статтей Posibniki (2022)