Posibniki.com.ua Інформатика Прикладні системи штучного інтелекту 10.5. Абдуктивне логічне виведення


< Попередня  Змiст  Наступна >

10.5. Абдуктивне логічне виведення


2. Принцип єдиної подібності: якщо всі обставини явища, крім однієї, можуть бути відсутні, не знищуючи цим явища, та ця обставина є причиною даного явища. Схема принципу така: A, B, C ? D, A, B, C ? D, . . . . . . . . . . . A, B ? D, A, C ? D, . . . . . . . . . . . A ? D.

З цієї схеми випливає, що А та D пов’язані причиннонаслідковим відношенням.

3. Принцип єдиного залишку: якщо відняти з якого-небудь явища ту його частину, що є наслідком відомих причин, то залишок явища є наслідком інших причин. Розглянемо схему: A, B, C ? D, E A, B, C ? D, E . . . . . . . . . . . . . . B, C ? E.

Після того, як із прикладів А, B, C ? D, E було «відняте» причинно-наслідкове відношення A ? D, були отримані спостереження В, C ? Е, на підставі яких можна припустити, що В та С є можливими причинами явища Е. Для подальшого уточнення потрібно перевірити, чи приводить виключення В до появи Е. Якщо так, то причиною явища E слугує С, у протилежному випадку — В. Можливо також, що явище Е обумовлене одночасною наявністю В та С, тобто поява деякого елементу ситуації може визначатися не окремими факторами, а сукупністю їх.

Схеми Мілля справедливі тільки за умови, що в описі ситуації присутня повна множина фактів і явищ, що спостерігаються.

доме явище, причому ми не вводимо і не видаляємо ніякої іншої обставини, що могла б мати вплив, то зазначений фактор становить причину явища. Цей принцип можна проілюструвати схемою: A, B, C ? D, A, B, C ? D, . . . . . . . . . . . A, B, C ? D, B, C ? D, де знак «?» трактується як поява D при наявності А, B, С. За достатньої кількості експериментів принцип єдиного розходження дозволяє стверджувати, що А є причиною, a D — наслідком.

Нехай задана множина причин А ={А

1 , А

2 , ..., А р }, множина наслідків В = {В

1 , В

2 ,..., В m } і множина оцінок Q = {q

1 , q

2 , ..., q r }.

Вираз виду A i ? B j називається позитивною гіпотезою, що виражає твердження «A i є причиною B j , з оцінкою вірогідності q k ». слідків В = {В

1 , В

2 ,..., В m } і множина оцінок Q = {q

1 , q

2 , ..., q r }.

Вираз виду A i ? B j називається позитивною гіпотезою, що виражає твердження «A i є причиною B j , з оцінкою вірогідності q k ».

Нехай задана множина причин А ={А

1 , А

2 , ..., А р }, множина наслідків В = {В

1 , В

2 ,..., В m } і множина оцінок Q = {q

1 , q

2 , ..., q r }.

Вираз виду A i ? B j називається позитивною гіпотезою, що виражає твердження «A i є причиною B j , з оцінкою вірогідності q k ». гіпотези будемо позначати + kji h ,, , негативні — ? kji h ,, . гіпотези будемо позначати + kji h ,, , негативні — ? kji h ,, .

Серед значень виділимо два спеціальних, котрі можна інтерпретувати як «хибність» (0) та «істина» (1). Гіпотези з цими оцінками можна розглядати як явища, істинність або хибність яких твердо встановлено. Інші значення між 0 та 1 будемо позначати

раціональними числами k/n, де k = 1, ..., n — 1, а n характеризує число прикладів.

Узагальнений ДСМ-метод включає такі кроки.

Крок 1. На основі вихідної множини позитивних і негативних прикладів (спостережень) формується набір гіпотез, що записуються в матриці М + та М – . Гіпотези формуються на основі виявлення подібності та розходження в прикладах. Матриці мають вигляд: ся в матриці М + та М – . Гіпотези формуються на основі виявлення подібності та розходження в прикладах. Матриці мають вигляд: ++ dwrsir r hh A ,,,, ... ?? fvzmjz z hh A ,,,, ... ++ mwlkil l hh A M ,,,, ......... ... ... ; ?? ? = tvxkjx x hh A M ,,,, ......... ... ... . + = mwlkil l hh A M ,,,, ......... ... ... ; ?? ? = tvxkjx x hh A M ,,,, ......... ... ... . + = mwlkil l hh A M ,,,, ......... ... ... ; ?? ? = tvxkjx x hh A M ,,,, ......... ... ... . раціональними числами k/n, де k = 1, ..., n — 1, а n характеризує число прикладів.

Узагальнений ДСМ-метод включає такі кроки.

Крок 1. На основі вихідної множини позитивних і негативних прикладів (спостережень) формується набір гіпотез, що записуються в матриці М + та М – . Гіпотези формуються на основі виявлення подібності та розходження в прикладах. Матриці мають вигляд: ++ ++ + = dwrsir mwlkil wi r l hh hh BB A A M ,,,, ,,,, ... ......... ... ... ... ; ?? ?? ? = fvzmjz tvxkjx vj z x hh hh BB A A M ,,,, ,,,, ... ......... ... ... ... .

Крок 2. До вихідної множини прикладів додаються нові спостереження, що можуть або підтверджувати висунуті гіпотези, або спростовувати їх, при цьому оцінки гіпотез змінюються в та

кий спосіб. Якщо деяка гіпотеза h i,j,k мала оцінку q k = k/n, то з появою нового прикладу (n + 1) проводиться перевірка на підтвердження цієї гіпотези. У разі позитивної відповіді оцінка q k = (k + 1) / (n + 1), інакше q k = (k — 1) / (n + 1). У процесі нагромадження інформації оцінки висунутих гіпотез можуть наближатися до 1 або 0. Зміна оцінок може також мати коливальний характер, що, як правило, веде до виключення таких гіпотез із множин М + або М – .

Крок 3. Циклічне додавання прикладів, що супроводжується зміною оцінок вірогідності гіпотез з періодичною зміною множин М + та М – .

Крок 4. Завершення процесу індуктивного виведення при виконанні умов закінчення циклу. Як такі умови можуть викорис-явою нового прикладу (n + 1) проводиться перевірка на підтвердження цієї гіпотези. У разі позитивної відповіді оцінка q k = (k + 1) / (n + 1), інакше q k = (k — 1) / (n + 1). У процесі нагромадження інформації оцінки висунутих гіпотез можуть наближатися до 1 або 0. Зміна оцінок може також мати коливальний характер, що, як правило, веде до виключення таких гіпотез із множин М + або М – .

Крок 3. Циклічне додавання прикладів, що супроводжується зміною оцінок вірогідності гіпотез з періодичною зміною множин М + та М – .

Крок 4. Завершення процесу індуктивного виведення при виконанні умов закінчення циклу. Як такі умови можуть викорис-q k = (k + 1) / (n + 1), інакше q k = (k — 1) / (n + 1). У процесі нагромадження інформації оцінки висунутих гіпотез можуть наближатися до 1 або 0. Зміна оцінок може також мати коливальний характер, що, як правило, веде до виключення таких гіпотез із множин М + або М – .

Крок 3. Циклічне додавання прикладів, що супроводжується зміною оцінок вірогідності гіпотез з періодичною зміною множин М + та М – .

Крок 4. Завершення процесу індуктивного виведення при виконанні умов закінчення циклу. Як такі умови можуть викорис-множин М + або М – .

Крок 3. Циклічне додавання прикладів, що супроводжується зміною оцінок вірогідності гіпотез з періодичною зміною множин М + та М – .

Крок 4. Завершення процесу індуктивного виведення при виконанні умов закінчення циклу. Як такі умови можуть викорис-жин М + та М – .

Крок 4. Завершення процесу індуктивного виведення при виконанні умов закінчення циклу. Як такі умови можуть викорис-кий спосіб. Якщо деяка гіпотеза h i,j,k мала оцінку q k = k/n, то з появою нового прикладу (n + 1) проводиться перевірка на підтвердження цієї гіпотези. У разі позитивної відповіді оцінка q k = (k + 1) / (n + 1), інакше q k = (k — 1) / (n + 1). У процесі нагромадження інформації оцінки висунутих гіпотез можуть наближатися до 1 або 0. Зміна оцінок може також мати коливальний характер, що, як правило, веде до виключення таких гіпотез із множин М + або М – .

Крок 3. Циклічне додавання прикладів, що супроводжується зміною оцінок вірогідності гіпотез з періодичною зміною множин М + та М – .

Крок 4. Завершення процесу індуктивного виведення при виконанні умов закінчення циклу. Як такі умови можуть викорис-

Негативною гіпотезою називається вираз A i ? B j , що формулюється «A i не є причиною B j з оцінкою вірогідності q k ». Позитивні

У сучасних модифікаціях ДСМ-методу використовується виведення за аналогією, ураховується контекст реалізації причиннонаслідкових відношень, застосовуються нечіткі описи фактів і т. д.

10.5. Абдуктивне логічне виведення

Абдукція є необґрунтованим правилом виведення ((A ? B) ? ? B) ? A і означає, що висновок не є обов’язково істинним для кожної інтерпретації, при якій істинні передумови. Абдуктивні судження часто називають найкращим поясненням даних B.

Традиційна логіка має обмеження на використання в умовах неповної і невизначеної інформації та є монотонною.

Монотонна логіка заснована на множині аксіом, прийнятих за істинні, з яких виводяться наслідки. При цьому додавання в систему нової інформації може викликати тільки збільшення множини істинних тверджень, що приводить до проблем під час моделювання суджень, заснованих на довірі і припущеннях.

Немонотонна логіка розв’язує проблему моделювання тверджень, заснованих на довірі та припущеннях за рахунок того, що, на відміну від математичних аксіом, міри довіри і висновки можуть змінюватися в міру нагромадження інформації.

Система немонотонних суджень керує ступенем невизначеності, роблячи найбільш визначені припущення в умовах невизначеної інформації. Потім виконується виведення на основі цих припущень, прийнятих за істинні. Пізніше міра довіри може змінитися і зажадати повторного перегляду всіх висновків, виведених з її використанням.

До методів абдуктивного виведення відносять стенфордську теорію коефіцієнта впевненості, нечітку логіку, теорію Демпстера-Шафера, метод Байєса, метод Нейлора.

Стенфордська теорія коефіцієнта впевненості заснована на неформальних оцінках фактів і висновків.

Коефіцієнт упевненості (коефіцієнт довіри, вірогідності, certainty factor) — це число, що означає імовірність або ступінь упевненості, з яким можна вважати даний факт або правило достовірним або справедливим.

Для визначення коефіцієнта впевненості використовують методи математичної статистики, а також суб’єктивні оцінки експерта.

товуватися міри близькості значень q i до 0 або 1, а також додаткові умови, що можуть бути пов’язані з обмеженням часу (кількості нових прикладів) виведення тощо.

Коефіцієнти впевненості використовують у продукційних моделях.

Коефіцієнт упевненості антецедента CF(X, Y), що містить посилки Х та Y, обчислюється за формулою: () ()() ()()()()()() ()() ()(){} ()()() () ()()()()()() ()() ? ? ? ? ? ? ? ? ? ? ? ?=?=? <<++ ±? ±?? ? + >>?+ == = .1або1,1 ;0,0,

1 ,1,0, ,min1 ;0,0, ;1або1,1 , YCFXCF YCFXCFYCFXCFYCFXCF YCF XCFYCFXCF YCFXCF YCFXCF YCFXCFYCFXCFYCFXCF YCFXCF YXCF де CF(X) — коефіцієнт упевненості посилки X, CF(Y) — коефіцієнт упевненості посилки Y.

Коефіцієнт упевненості консеквента CF(C) визначається на основі коефіцієнта впевненості антецедента СF(X, Y) і коефіцієнта впевненості правила СF(R) як СF(C) = СF(X, Y)СF(R).

Коефіцієнт упевненості приймає значення в діапазоні [–1, +1]. Якщо він дорівнює +1, то це означає, що при дотриманні всіх обговорених умов укладач правила абсолютно упевнений у правильності висновку, а якщо він дорівнює –1, то виходить, що при дотриманні всіх обговорених умов існує абсолютна впевненість у помилковості цього висновку. Відмінні від +1 позитивні значення коефіцієнта вказують на ступінь упевненості в правильності висновку, а негативні значення — на ступінь упевненості в його помилковості.

Коефіцієнт упевненості є комбінованою оцінкою. Його основне призначення полягає в тому, щоб керувати ходом виконання програми при формуванні суджень, керувати процесом пошуку мети в просторі станів (якщо коефіцієнт упевненості гіпотези виявляється в діапазоні [–0,2, +0,2], то пошук блокується), ранжирувати набір гіпотез після обробки всіх ознак.

Якщо обидві гіпотези підтверджують висновок або, навпаки, обидві гіпотези його спростовують, то коефіцієнт упевненості їхньої комбінації зростає за абсолютною величиною. Якщо ж одна гіпотеза підтверджує висновок, а інша його спростовує, то наявність знаменника у відповідному виразі згладжує цей ефект. Якщо виявилося, що гіпотез декілька, то їх можна по черзі пропускати через цю формулу, причому, оскільки вона має властивість комутативності, то порядок, у якому обробляються гіпотези, значення не має.

Незважаючи на відсутність строгого теоретичного обґрунтування, коефіцієнти впевненості знаходять широке застосування в ПСШІ продукційного типу завдяки простоті сприйняття й інтерпретації одержуваних результатів, які непогано узгоджуються з реальністю.

Теорія Демпстера

—Шафера розроблена з метою узагальнення імовірнісного підходу до опису невизначеності та пов’язана зі спробою звільнитися від догмата аксіом теорії імовірностей під час опису суб’єктивної віри людей.

Розглянемо фрейм розрізнення — кінцеву множину можливостей ?, які взаємно виключають одна одну.

На множині всіх підмножин ? як на множині елементарних подій задамо базисний розподіл імовірностей m, визначений на

множині 2 ? значень з інтервалу [0, 1], такий, що: m(?) = 0 та

1= i Am= BmABel, вірністю, визначається як: Рl(А) = 1 – Веl(not(A)).

Теорія Демпстера

—Шафера заснована на двох ідеях. Перша

— одержання ступеня довіри для даної задачі із суб’єктивних свідчень про пов’язані з нею проблеми та друга — використання правила поєднання свідчень, якщо вони засновані на незалежних спостереженнях.

Правила Демпстера дозволяють обчислити нове значення функції довіри за двома її значеннями, що базуються на різних спостереженнях.

Метою правила є приписати деяку міру довіри m різним підмножинам A множини ?; m іноді називають імовірнісною функцією чутливості (probability density function) підмножини ?.

Реально свідчення підтримують не всі елементи ?. В основному підтримуються різні підмножини A множини ?. Більше того, оскільки елементи ? передбачаються як взаємовиключні, доказ на користь одного з них може впливати на довіру іншим елементам.множині 2 ? значень з інтервалу [0, 1], такий, що: m(?) = 0 та ()

1= ? ?? i A i Am, де m(A i ) — міра довіри, приписана гіпотезі А i .

Міра загальної довіри, приписана A, визначається співвідношенням: ()() ? ? = AB BmABel, де Bel(A) ? [0, 1] — функція довіри, що характеризує віру суб’єкта в істинність події A, яку називають нижньою ймовірністю.

Міра правдоподібності події A, що називається верхньою імовірністю, визначається як: Рl(А) = 1 – Веl(not(A)).

Теорія Демпстера

—Шафера заснована на двох ідеях. Перша

— одержання ступеня довіри для даної задачі із суб’єктивних свідчень про пов’язані з нею проблеми та друга — використання правила поєднання свідчень, якщо вони засновані на незалежних спостереженнях.

Правила Демпстера дозволяють обчислити нове значення функції довіри за двома її значеннями, що базуються на різних спостереженнях.

Метою правила є приписати деяку міру довіри m різним підмножинам A множини ?; m іноді називають імовірнісною функцією чутливості (probability density function) підмножини ?.

Реально свідчення підтримують не всі елементи ?. В основному підтримуються різні підмножини A множини ?. Більше того, оскільки елементи ? передбачаються як взаємовиключні, доказ на користь одного з них може впливати на довіру іншим елементам.

—Шафера ці взаємодії враховуються прямо шляхом безпосереднього маніпулювання множинами гіпотез. Величина m n (A) означає ступінь довіри, пов’язаний з підмножиною гіпотез A, а n подає число джерел свідчень.

Правило Демпстера має вигляд: X та Y поширюються на всі підмножини в ?, перетинанням яких є A. Якщо в таблиці перетинань буде виявлено порожній елемент, то виконується нормалізація: визначається значення k як сума всіх ненульових значень, присвоєних у множені ?, потім

YX ?=? ()() YmXm Am n YX n AYX n

12

1 ? ?=? ? =? ? ? =. ()() YmXm Am n YX n AYX n

12

1 ? ?=? ? =? ? ? =. () ()() ()() YmXm YmXm Am n YX n n AYX n n

12

12

1 ? ?=? ? ? =? ? ? ? ? =. установлюють m n () = 0, а значення m n для всіх інших множин гіпотез поділяються на (1 — k).

Метод виведення Байєса заснований на припущенні про наявність практично для будь-якої події апріорних імовірностей того, що дана подія є істинною. Задача полягає в зміні імовірнісних оцінок цієї події з появою інформації про настання деякої іншої події, що називаються апостеріорними імовірностями.

Апріорна імовірність події (безумовна імовірність, prior probability) — це імовірність, привласнена події за відсутності знання, що підтримує її настання, тобто це імовірність події, що передує якій-небудь основі. Апріорна імовірність позначається P(подія).

Апостеріорна імовірність події (умовна імовірність, posterior probability) — це імовірність події за деякої заданої основи. Вона позначається P(подія | основа).

Правило добутку пов’язує апостеріорні й апріорні імовірності: P(A ? B) = P(A|B)P(B) = P(B|A)P(A). установлюють m n (?) = 0, а значення m n для всіх інших множин гіпотез поділяються на (1 — k).

Метод виведення Байєса заснований на припущенні про наявність практично для будь-якої події апріорних імовірностей того, що дана подія є істинною. Задача полягає в зміні імовірнісних оцінок цієї події з появою інформації про настання деякої іншої події, що називаються апостеріорними імовірностями.

Апріорна імовірність події (безумовна імовірність, prior probability) — це імовірність, привласнена події за відсутності знання, що підтримує її настання, тобто це імовірність події, що передує якій-небудь основі. Апріорна імовірність позначається P(подія).

Апостеріорна імовірність події (умовна імовірність, posterior probability) — це імовірність події за деякої заданої основи. Вона позначається P(подія | основа).

Правило добутку пов’язує апостеріорні й апріорні імовірності: P(A ? B) = P(A|B)P(B) = P(B|A)P(A).

Правило Байєса дозволяє обчислювати невідомі імовірності з відомих умовних імовірностей, засновано на правилі добутку і має вигляд:

Теорема Байєса в загальному вигляді дозволяє визначити апостеріорну імовірність, залежить від апріорної імовірності та від інформації, що надійшла:

Теорема Байєса в загальному вигляді дозволяє визначити апостеріорну імовірність, залежить від апріорної імовірності та від інформації, що надійшла:

У системі Демпстера

= j

1 ()() ()() ? = = N j jj ii i APABP APABP BAP

1 , Ni,...,2,1=. () ()() ()() ? = = N j jj ii i APABP APABP BAP

1 , Ni,...,2,1=. льна подія (симптом), для якої P(B)> 0, N — число можливих гіпотез, Р(A i

|В) — апостеріорна імовірність гіпотези A i за наявності симптому В; Р(В|A i ) — імовірність появи симптому В за наявності гіпотези A i ; P(A i ) — апріорна імовірність гіпотези A i . Імовірності Р(В|A i ) та Р(А i ), i = 1, ..., N, задаються експертом і не змінюються в процесі розв’язання задачі.

Метод виведення Нейлора полягає в приписуванні кожному симптому ціни, що відбиває роль у процесі виведення, і задавання в першу чергу того питання, для якого ціна виявляється найбільшою.

Судження проводяться за такою послідовністю кроків.

Крок 1. Оцінити апріорні імовірності P(A i ) для всіх гіпотез.

Крок 2. Обчислити ціни симптомів.

Ціна симптому визначається за формулою: сті Р(В|A i ) та Р(А i ), i = 1, ..., N, задаються експертом і не змінюються в процесі розв’язання задачі.

Метод виведення Нейлора полягає в приписуванні кожному симптому ціни, що відбиває роль у процесі виведення, і задавання в першу чергу того питання, для якого ціна виявляється найбільшою.

Судження проводяться за такою послідовністю кроків.

Крок 1. Оцінити апріорні імовірності P(A i ) для всіх гіпотез.

Крок 2. Обчислити ціни симптомів.

Ціна симптому визначається за формулою: льна подія (симптом), для якої P(B)> 0, N — число можливих гіпотез, Р(A i

|В) — апостеріорна імовірність гіпотези A i за наявності симптому В; Р(В|A i ) — імовірність появи симптому В за наявності гіпотези A i ; P(A i ) — апріорна імовірність гіпотези A i . Імовірності Р(В|A i ) та Р(А i ), i = 1, ..., N, задаються експертом і не змінюються в процесі розв’язання задачі.

Метод виведення Нейлора полягає в приписуванні кожному симптому ціни, що відбиває роль у процесі виведення, і задавання в першу чергу того питання, для якого ціна виявляється найбільшою.

Судження проводяться за такою послідовністю кроків.

Крок 1. Оцінити апріорні імовірності P(A i ) для всіх гіпотез.

Крок 2. Обчислити ціни симптомів.

Ціна симптому визначається за формулою: = i

1 ()() iij APABP BAP=, () ()() () j iij ji BP APABP BAP ? ? =

1

1 , ?= jijjj BAPBAPBC

1 , ()() iij APABP BAP=, () ()() () j iij ji BP APABP BAP ? ? =

1

1 , () j iij ji BP APABP BAP=, () ()() () j iij ji BP APABP BAP ? ? =

1

1 , P(A i ) = P(B j

|A i )P(A i ) + P(B j

|A i )P(A i ), P(B j ) = 1 — P(B j ), () ()() ? = ?= i jijjj BAPBAPBC

1 , () ()() () j iij ji BP APABP BAP=, () ()() () j iij ji BP APABP BAP ? ? =

1

1 , P(A i ) = P(B j

|A i )P(A i ) + P(B j

|¬A i )PA i ), PB j ) = 1 — P(B j ),

Крок 3. Знайти симптом з максимальною ціною:

Крок 4. Поставити запитання користувачеві для симптому B m і одержати на нього відповідь R m , R m ? {–5, –4, –3, –2, –1, 0, 1, 2, 3, 4, 5}, де — 5 відповідає «ні», 0 — «не знаю», а 5 — «так».

Крок 4. Поставити запитання користувачеві для симптому B m і одержати на нього відповідь R m , R m ? {–5, –4, –3, –2, –1, 0, 1, 2, 3, 4, 5}, де — 5 відповідає «ні», 0 — «не знаю», а 5 — «так».

Крок 5. Обчислити апостеріорні ймовірності для актуальних гіпотез:

287 де {А i } — послідовність непересічних подій (гіпотез), B — довіN де С(B j ) — ціна симптому В j — сума максимальних змін імовірностей подій, що можуть відбутися в усіх N гіпотезах, до яких цей симптом може бути застосовним.

де {А i } — послідовність непересічних подій (гіпотез), B — довіN де С(B j ) — ціна симптому В j — сума максимальних змін імовірностей подій, що можуть відбутися в усіх N гіпотезах, до яких цей симптом може бути застосовним.

Установити: P(A i ) = P(A i

|R m ).

Крок 6. Перерахувати С(B j ) для нових значень P(A i ).

Крок 7. Для кожної гіпотези A i знайти значення поточної мінімальної імовірності гіпотези P min (A i ) і поточної максимальної імовірності гіпотези P max (A i ).

Крок 8. Знайти найбільший з можливих досяжних максимумів імовірностей для всіх гіпотез: () i Ni APPM min ,...,2,1 max = =.

Крок 9. Якщо існує такий номер k, для якого P max (A k ) > PM, то перейти до кроку 3; у протилежному випадку — вибрати гіпотези: () i Ni m APmA ,...,2,1 maxarg: = =, як найбільш імовірний результат.

Крок 10. Видати як результат гіпотези A m і завершити роботу.

Терміни та поняття до теми

1. Визначення всіх процесів дедуктивного логічного виведення.

2. Методи (модуси) індуктивних висновків.

3. Історично склалися три різних види індукції:

• перелічувальна або енумеративна індукція (повна і неповна);

• елімінативна індукція (схеми встановлення причинно-наслідкових зв’язків між явищами);

• індукція як зворотна дедукція (міркування від наслідків до підстав).

Метод ДСМ (метод Джона Стюарта Мілля) запропонований у середині XIX століття.

Питання для самоконтролю

1. Назвіть галузі застосування існуючих на сьогодні систем ПСШІ.

2. Охарактеризуйте запропоновані Д. С. Міллем методи (модуси) індуктивних висновків.

3. Визначте формування понять, стадії, етапи, необхідні для індуктивного методу.

4. Поясніть сформулювані Міллем принципи індукції.

5. Принцип логічного плюралізму.

Завдання для індивідуальної роботи, обов’язкові та додаткові практичні завдання

1. Поясніть етапи та стадії процесу формування понять ПРГ, які необхідні для індуктивного методу висновку.

2. Приведіть деякі приклади формалізації індукції як висновку.

3. Опишіть умови, за яких справедливі схеми Д. С. Мілля.

4. Як використовують у продукційних моделях коефіцієнти упевненості?

Література для поглибленого вивчення матеріалу

1. Люгер Дж. Ф. Искусственный интеллект. — М. : Вильямс, 2005.

— 864 с.

2. Інформаційні системи в економіці : монографія / под ред. Устенко С. В. — К. : КНЕУ, 2011. — 424 с.

3. Іванченко Г. Ф. Системи штучного інтелекту : навч. посіб. — К. : КНЕУ, 2011. — 382 с.


< Попередня  Змiст  Наступна >
Iншi роздiли:
Тема 12. ПРОДУКЦІЙНІ СИСТЕМИ ПСШІ
12.2. Архітектура програмних систем продукції
Мова управління застосуванням продукцій
Тема 13. ТЕХНОЛОГІЯ ПІДТРИМКИ РОЗРОБЛЕННЯ ПРОДУКЦІЙНИХ СИСТЕМ
13.2. Інформаційна СППР «Super Finance»(«SF 2»)
Дисциплiни

Медичний довідник новиниКулінарний довідникАнглійська моваБанківська справаБухгалтерський облікЕкономікаМікроекономікаМакроекономікаЕтика та естетикаІнформатикаІсторіяМаркетингМенеджментПолітологіяПравоСтатистикаФілософіяФінанси

Бібліотека підручників та статтей Posibniki (2022)