Posibniki.com.ua Статистика Статистичне моделювання та прогнозування 3.3. КЛАСТЕРНІ ПРОЦЕДУРИ КЛАСИФІКАЦІЇ


< Попередня  Змiст  Наступна >

3.3. КЛАСТЕРНІ ПРОЦЕДУРИ КЛАСИФІКАЦІЇ


Кластерний аналіз (кластеризація) — це багатовимірна статистична процедура, основне завдання якої — формування однорідних груп у сукупності об’єктів (спостережень). Такі групи називають кластерами (від англ. Сluster — гроно), або таксонами. В статистичній літературі синонімами терміна «кластеризація» є такі поняття, як таксономія, сегментація, автоматична класифікація, розпізнавання образів без учителя.

Спектр застосування кластерного аналізу дуже широкий: його використовують в археології, медицині, психології, біології, державному управлінні, регіональній економіці, маркетингу, соціології та інших дисциплінах. Кожна дисципліна висуває свої вимоги до первинних даних і правил формування груп. Очевидно, різними будуть методологічні підходи до сегментації ринку, мета якого визначити групи споживачів, схожих між собою за мотивацією і поведінкою на ринку, і до формування територіальних кластерів підприємницьких структур, які об’єднуються задля посилення своїх конкурентних переваг.

На основі кластеризації можна виявити нетипові об’єкти, які не вдається приєднати до жодного з кластерів.

3.3.1. Ієрархічні кластер-процедури

За правилами формування кластерів вирізняють ієрархічні та ітераційні процедури; ієрархічні, своєю чергою, поділяються за способом кластеризації на дивизимні (від англ. division — розділяти) та агломеративні (від англ. agglo-merate — збирати). У дивизимних процедурах первинну сукупність розглядають як один кластер і послідовно поділяють її аж до n одноелементних кластерів, в агломеративній процедурі, навпаки, первинну сукупність розглядають як n одноелементних кластерів, які поступово можна об’єднати в один кластер. Розглянемо агломеративну (об’єднувальну) процедуру кластеризації докладніше.

Принцип роботи агломеративної процедури полягає в послідовному об’єднанні в кластер спочатку двох найближчих, а потім більш віддалених один від одного об’єктів. Інформаційною базою кластерного аналізу на ознаках метричної шкали є матриця відстаней (distances matrix) розміром n ? n з нульовими діагональними елементами. Очевидно, на кожному кроці об’єднання найближчими будуть вважатися ті об’єкти, між якими відстань d(j,k) мінімальна. З кожним кроком розмірність матриці зменшується на одиницю. Повна кластеризація n одиниць відбувається за (n – 1) кроків.

Послідовність об’єднання кластерів можна подати візуально у вигляді деревовидної діаграми — дендрограми. На одній осі дендрограми представлені об’єкти, на другій — відстані, за якими відбувається об’єднання. Наприклад, на рис. 3.2 наведено вертикальну дендрограму класифікації десяти дітей за рівнем інтелектуального розвитку. Ознакова множина класифікації охоплює результати тестування (тести логічного мислення, змістової й асоціативної пам’яті, просторової візуалізації). Дендрограма ілюструє ієрархію структур: кожний кластер можна розглядати як елемент іншого кластеру, з більшим значенням відстані d(j,k). Водночас чітко виділяються два кластери: до першого потрапило троє дітей, до другого — семеро.

Очевидно, що повна агломерація не має сенсу, оскільки завдання поділу сукупності на однорідні групи залишається нерозв’язаним. На якомусь кроці процедуру об’єднання потрібно зупинити. Сигналом для такої зупинки може слу-

гувати стрімке збільшення на черговому кроці мінімальної відстані між кластерами, що об’єднуються. Іноді кластерні процедури вводять обмеження зверху на максимальну відстань між об’єктами одного класу. Таке обмеження називають порогом. Якщо при формуванні кластерів на черговому етапі мінімальна відстань між oб’єктами перевищує поріг d

0 , то ці об’єкти за певними правилами відносяться до різних кластерів. Порогове значення вибирається суб’єктивно або за певною схемою, воно може бути постійним або змінюватися, скажімо, монотонно зростаючи на кожному кроці формування кластерів.

Рис. 3.2. Дендрограма класифікації дітей за рівнем інтелектуального розвитку

Рис. 3.2. Дендрограма класифікації дітей за рівнем інтелектуального розвитку

Вісь наведеної дендрограми має розмірність метрики. За допомогою опції Scale tree to dlink/dmax*100 розмірність осі можна нормувати процентним співвідношенням.

Загальну схему агломеративної кластер-процедури на матриці відстаней можна подати як повторення трьох операцій:

1) пошук мінімальної відстані між j-м і k-м кластерами;

2) об’єднання j і k в один кластер та надання останньому спільного індексу q;

3) розрахунок відстаней від сформованого кластера q до інших одиниць сукупності d(q,s) за формулою

d(q,s) = a

1 d(j,s) + a

2 d(k,s) + a

3 d(j,k) + a

4 d(j,s) — d(k,s)]. d(q,s) = a

1 d(j,s) + a

2 d(k,s) + a

3 d(j,k) + a

4 [d(j,s) — d(k,s)].

Значення коефіцієнтів а

1 , a

2 , a

3 , a

МОДЕЛІ БАГАТОВИМІ

4 залежaть від того, за яким правилом здійснюють формування кластерів. Геометричну інтерпретацію кластер-процедури наведено на рис. 3.3. Оскільки відстань між об’єктами j і k мінімальна, їх можна об’єднати в один кластер q і розрахувати відстані об’єкта s до кластера q.

Рис. 3.3. Геометрична інтерпретація кластер-процедури

Метод ієрархічної кластеризації реалізує різні правила послідовного об’єднання кластерів. Серед них найбільш уживані:

1. Правило одиничного зв’язку (Single lincage), за яким до наявного кластера приєднується об’єкт, найближчий бодай до одного представника цього кластера:

2. Правило повного зв’язку (Complete lincage). За цим правилом на противагу одиничному зв’язку відстань між кандидатом на приєднання до наявного кластера і будь-яким об’єктом цього кластера не може перевищувати порогового рівня:

2. Правило повного зв’язку (Complete lincage). За цим правилом на противагу одиничному зв’язку відстань між кандидатом на приєднання до наявного кластера і будь-яким об’єктом цього кластера не може перевищувати порогового рівня:

3. Правило середнього зв’язку використовує середню відстань між кандидатом на включення в наявний кластер q і представниками цього кластера. Об’єкт приєднується до наявного кластера тоді, коли середня відстань не перевищує порогового рівня. Застосовують різні варіанти розрахунку середньої відстані: попарна середня арифметична відстань — незважена (unweighted pair-group average) і зважена (weighted pair-group average); середня відстань між центрами тяжіння (центроїдами) кластерів — незважена (unweighted pair-group centroid) і зважена (weighted pair-group centroid).

3. Правило середнього зв’язку використовує середню відстань між кандидатом на включення в наявний кластер q і представниками цього кластера. Об’єкт приєднується до наявного кластера тоді, коли середня відстань не перевищує порогового рівня. Застосовують різні варіанти розрахунку середньої відстані: попарна середня арифметична відстань — незважена (unweighted pair-group average) і зважена (weighted pair-group average); середня відстань між центрами тяжіння (центроїдами) кластерів — незважена (unweighted pair-group centroid) і зважена (weighted pair-group centroid).

4. Центроїдний метод. Відстань між двома кластерами визначається як Евклідова відстань між центроїдами цих кластерів.

5. Правило Уорда (Ward’s metod) спрямоване на мінімізацію внутрішньогрупової варіації об’єднаних кластерів. За цим правилом на кожному кроці об’єднуються ті кластери й об’єкти, які дають мінімальний порівняно з усіма можливими об’єднаннями приріст внутрішньогрупової варіації (суми квадратів відстаней від кожного об’єкта, що належить кластеру, до середнього рівня цього кластера).

У табл. 3.6 наведено коефіцієнти для розрахунку відстаней між кластерами, що об’єднуються.

Таблиця 3.6

КОЕФІЦІЄНТИ ДЛЯ РОЗРАХУНКУ ВІДСТАНЕЙ

МІЖ КЛАСТЕРАМИ, ЩО ОБ’ЄДНУЮТЬСЯ

Правило a 1 a 2 a 3 a 4
Одиничного зв’язку 0,5 0,5 0 –0,5
Повного зв’язку 0,5 0,500 ,5
Середнього зв’язку 0,5 0,5 0 0

Застосуємо алгоритм одиничного зв’язку до матриці відстаней (табл. 3.7). реного кластера до інших одиниць сукупності становлять:

Як бачимо, відстань будь-якої одиниці сукупності до кластера q дорівнює мінімальній з тих двох відстаней, за якими велися розрахунки. Нову матрицю подано в табл. 3.8.

Як бачимо, відстань будь-якої одиниці сукупності до кластера q дорівнює мінімальній з тих двох відстаней, за якими велися розрахунки. Нову матрицю подано в табл. 3.8.

Таблиця 3.7

МАТРИЦЯ ВІДСТАНЕЙ РОЗМІРОМ 5?5

j 12 34 5
10 0,6 2,8 3,3 2,0
20 ,601 ,7 0,9 2,5
3 2,8 1,7 0 0,7 4,2
43 ,3 0,9 0,701 ,8
5 2,0 2,5 4,2 1,8 0

Таблиця 3.8

РОЗРАХУНОК ВІДСТАНЕЙ ВІД СФОРМОВАНОГО КЛАСТЕРА q = 1?2 ДО ІНШИХ ОБ’ЄКТІВ (третій крок агломеративної кластер-процедури)

РОЗРАХУНОК ВІДСТАНЕЙ ВІД СФОРМОВАНОГО КЛАСТЕРА q = 1?2 ДО ІНШИХ ОБ’ЄКТІВ (третій крок агломеративної кластер-процедури)

jq = 1?23 4 5
q = 1?2 0 1,7 0,9 2,0
31 ,7 0 0,7 4,2
0,9 0,7 0 1,8
5 2,0 4,2 1,8 0

4

У новій матриці мінімальна відстань с

34 = 0,7, а отже, об’єднанню підлягають третя і четверта одиниці сукупності (табл. 3.9).

У новій матриці мінімальна відстань с

34 = 0,7, а отже, об’єднанню підлягають третя і четверта одиниці сукупності (табл. 3.9).

Таблиця 3.9

РОЗРАХУНОК ВІДСТАНЕЙ ВІД СФОРМОВАНОГО КЛАСТЕРА g ДО ІНШИХ ОБ’ЄКТІВ (четвертий крок агломеративної кластер-процедури)

q = 1?2 g = 3?45
q = 1?20 0,9 2,0
g = 3?4 0 1,8
50

У разі кластеризації на основі ознак номінальної шкали алгомеративна процедура послідовно об’єднує найближчі об’єкти, що мають максимальний коефіцієнт r jk .

У системі Statistica методи кластерного аналізу реалізовані в модулі Cluster Analysis, який міститься у блоці Multivariate Exploratory TechniquesБагатовимірні дослідницькі методи. У стартовому вікні модуля Clustering Method (рис. 3.6) пропонується список реалізованих у системі Statistica методів кластеризації:

Joining (tree clustering) — об’єднання (деревовидна кластеризація);

K-means clustering — метод k-середніх;

Two-way joining — двовходове об’єднання: за спостереженнями і ознаками.

Рис. 3.4. Стартове вікно кластерного методу Clustering method

Обираємо ієрархічну кластер-процедуру Joining (tree clustering). У діалоговому вікні процедури Joining (рис. 3.5) необхідно вказати:

• ознакову множину Variables;

• тип первинних даних (Input file): Raw date — дані типу «об’єкт-ознака» чи Distance Matrics — матриця відстаней;

• об’єкти кластеризації (Cluster): за стовпцями (columns) — класифікація

• ознак, за рядками (rows) — класифікація об’єктів (слід пам’ятати, що традиційно кластеризацію здійснюють на об’єктах);

• правило об’єднання (Analgamation (linkage) rule) і метрику відстаней (Distance measure); за замовчанням програма застосовує алгоритм одиничного зв`язку — Single linkage (nearest neighbor) і Евклідову відстань (Euclidean distances) .

Рис. 3.5. Настанови кластерного методу Joining (tree clustering) Інформаційна база представлена множиною показників, які характеризують рівень інвестиційної привабливості 18 регіонів: v1 — валовий регіональний продукт на особу, тис. грн; v2

— продукція промисловості на особу, тис. грн; v3 — продукція сільського господарства на 100 га сільськогосподарських угідь, тис. грн; v3 — кількість суб’єктів господарювання на 10 000 осіб наявного населення; v4 — роздрібний товарообіг на одну особу, грн; v5 — кількість зареєстрованих злочинів на 10 000 осіб. Останній показник — дестимулятор.

Тип первинних даних — Raw date, інші установки за умовчуванням: об’єднання даних за правилом одиничного зв’язку, метрика — Евклідова відстань. За командою на виконання вибраних настанов система видає меню результатів кластеризації Joining Results (рис. 3.6). У верхній частині вікна вказана інформація: кількість ознак, кількість спостережень, метод кластеризації, правило ієрархічного об’єднання, обрана метрика відстані. У нижній частині вікна на вкладці Advanced пропонуються опції: Horizontal hierarchical tree plot — горизонтальна діаграма; Vertical icicle plot — вертикальна діаграма;

1

Система Statistica не реалізує розрахунок зважених відстаней.

Amalgamation schedule — послідовність агломерації; Graph of amalgamation schedule — графік послідовності агломерації; Distance matrix — матриця відстаней; Descriptive statistics — описові статистики.

Рис. 3.6. Меню результатів кластеризації методом Joining (tree clustering)

Обираємо настанову Vertical icicle plot (вертикальна дендрограма). Візуальний аналіз об’єднання регіонів за рівнем інвестиційної привабливості (рис 3.7) засвідчує, що мінімальні міжкластерні відстані d(j,k) зростали відносно рівномірно. І все ж можна виокремити три кластери. До першого належать регіони: № 16, 8, 5, 2, 17, 13, 18, 1; до другого — № 11, 15, 14, 10; до третього — № 4, 12, 6, 3. Два регіони можна вважати поза кластерами — № 7 і 9.

Останній етап кластерного аналізу — інтерпретація результатів. Аналізуючи кластерні дерева, слід намагатися в межах кожного з виділених кластерів знайти ті характерні риси, які зумовили об’єднання об’єктів у цей кластер. Задля цього додатково можна використати описові статистики об’єктів. Скажімо, в розглянутому прикладі до першого кластера потрапили переважно індустріальні регіони зі значним промисловим потенціалом. Регіони третього кластера, навпаки, мають значний сільськогосподарський потенціал.

Що стосується другого кластера (решта регіонів), то там виділяються три підгрупи, для кожної з них характерна своя специфіка взаємодії класифікаційних ознак.

Рис. 3.7. Результати кластеризації регіонів за рівнем інвестиційної привабливості

Рис. 3.7. Результати кластеризації регіонів за рівнем інвестиційної привабливості

За процедурою Joining об’єкти ніби нанизуються один на один, і в результаті кластери подаються у вигляді довгих ланцюжків. Інформацію про зміни мінімальної відстані надає таблиця послідовності агломерації (об’єднання) — Amalgamation shedule. Перший стовпець таблиці містить значення мінімальних відстаней min d(j,k), на підставі яких відбувається об’єднання відповідних кластерів, номери цих кластерів фіксуються в рядках таблиці.

МОДЕЛІ

На графіку Graph amalgamation shedule можна візуально простежити послідовність агломерації. Якщо монотонне збільшення значень мінімальної міжкластерної відстані на певному кроці агломерації стрімко зростає, таку зміну min d(j,k) розглядають як сигнал того, що об’єднуються віддалені один від одного об’єкти. Очевидно, на цьому кроці варто зупинити процедуру об’єднання і проаналізувати отримані результати. Графік агломерації регіонів за рівнем інвестиційної привабливості (рис. 3.8) підтверджує доцільність поділу регіонів на три кластери; різка зміна min d(j,k) на 17-у кроці вказує на те, що два регіони надто віддалені від других, тож їх слід розглядати як самостійні кластери.

Рис. 3.8. Послідовність агломерації регіонів за рівнем інвестиційної привабливості

3.3.2. Метод k-середніх Ієрархічна кластер-процедура доволі проста і прийнятна для інтерпретації. Проте для великих за обсягом сукупностей вона виявляється громіздкою. У таких випадках перевагу віддають ітераційним процедурам.

На відміну від ієрархічної процедури, яка вимагає розрахунку і збереження матриці відстаней чи подібності, ітераційна процедура працює безпосередньо з первинними даними; при цьому формуються кластери одного рангу, ієрархічно не підпорядковані. Результати кластеризації за ітераційною процедурою виявляються більш стійкими порівняно з ієрархічною процедурою.

За способом поділу об’єктів за кластерами застосовують різні види ітерації, найпоширеніший серед них — метод k-середніх (K-means clustering), який реалізує ідею утворення груп за принципом найближчого центру, тобто об’єкти переміщаються в кластер з найближчим центром тяжіння. Метод k-середніх передбачає, що класифікаційні ознаки неперервні, кількість кластерів визначена а priori, а алгоритм кластеризації дозволить віднайти ці кластери так, щоб вони максимально різнилися один від одного. Перевагою методу k-середніх є можливість перевірити статистичну значимість розбіжностей між виділеними кластерами.

Базовий алгоритм кластеризації методом k-середніх досить простий і реалізується за кілька кроків. До початку процедури кластеризації орієнтовно визначають кількість кластерів m, відповідно із сукупності n об’єктів добирають стільки об’єктів, скільки визначено кластерів, кожному з них приписується тяжіння майбутніх кластерів, або еталонами.

порядковий номер (j = 1, 2, …, m). Вибрані об’єкти умовно вважають центрами порядковий номер (j = 1, 2, …, m). Вибрані об’єкти умовно вважають центрами

На першому кроці серед (n – m) об’єктів, що залишилися, вибирають один трик, найчастіше це Евклідова метрика. Об’єкт приєднується до того кластера, відстань до якого мінімальна.

h-й об’єкт з координатами (х іh = х

1h , х

2h , …, х mh ) і перевіряють, до якого еталона (центра тяжіння) він перебуває найближче. Відстань визначають за однією з меh-й об’єкт з координатами (х іh = х

1h , х

2h , …, х mh ) і перевіряють, до якого еталона (центра тяжіння) він перебуває найближче. Відстань визначають за однією з ме

На другому кроці перераховується центр тяжіння кластера, до якого приєднався новий об’єкт; на третьому кроці перераховуються відстані решти об’єктів до нового центру тяжіння. Кроки 2 і 3 повторюються доти, доки склад кластерів не стабілізується. Кінцевий розподіл об’єктів за кластерами зазвичай не збігається з початковим. Ітерації за принципом k-середніх у явному вигляді не використовують критеріїв якості класифікації, проте неявно вони мінімізують внутрішньогрупові дисперсії, забезпечуючи тим самим однорідність сформованих кластерів, і максимізують відстані між кластерами.

У стистемі Statistica алгоритм методу k-середніх реалізований у модулі Clиster Analysis. На стартовій панелі модуля (див. рис. 3.4) вибираємо K-means clustering. Діалогове вікно методу k-середніх схоже на метод ієрархічної процедури: вибір ознакової множини Variables і об’єктів кластеризації Cluster. Нагадаємо, що традиційно кластеризацію здійснюють за об’єктами (rows).

На вкладинці Advanced (рис. 3.9) необхідно вказати кількість кластерів (Number of clusters) та кількість ітерацій (Number of iterations). За умовчанням система пропонує 10 ітерацій. Група опцій Initial cluster centers

— Початкові центри кластерів дозволяє автоматично реалізувати один з трьох режимів ітеративного процесу поділу первинних даних на кластери.

1. Вибрати спостереження, які б максимізували початкові міжкластерні відстані (Choose observations to maximize initial between-cluster distances).

2. Сортувати відстані і вести спостереження через певні інтервали (Sort distances and take observations at constant intervals).

3. Вибрати перші р об’єктів (кластерів) (Choose the first m (Number of clus-ters) observations).

Обираємо другий спосіб. Якщо аналізу підлягає не вся сукупність, опція Select cases (вибрати спостереження) пропонує умови вибору: виключити певні об’єкти з дослідження (exclude cases) або, навпаки, включити (include cases).

Рис. 3.9. Режими ітеративного процесу кластеризації

За командою на виконання обраних настанов система видає результати кластеризації k-Means Clustering Results (рис. 3.10). У верхній інформаційній частині вікна подано дані: кількість ознак, кількість об’єктів (спостережень), метод кластеризації, задана кількість кластерів, а також повідомлення про кількість ітерацій. Функціональна частина діалогового вікна містить більш детальну інформацію про результати аналізу, зокрема на вкладці Advanced: Summary: Cluster means & Euclidean distances — Середні кластерів і Евклідові відстані. У таблиці наведено: середні значення ознак для кожного кластера, Евклідові відстані між кластерами (піддіагональні елементи) і квадрати Евклідових відстаней (наддіагональні елементи). Analysis of variance виводить таблицю дисперсійного аналізу. Graph of means ілюструє зміну значень середніх по кожному кластеру. Descriptive statistics for each cluster виводить електронну таблицю з описвими статистиками (середня, дисперсія тощо) для кожного класу. Members of each cluster & distances — Склад кожного кластера і відстані.

По кожному кластеру таблиця містить перелік об’єктів, що потрапили до цього кластера, і відстані від j-го об’єкта до центру кластера.

Рис. 3.10. Меню результатів кластеризації методом k-Means Сlustering

Поділ регіонів на класи за рівнем інвестиційної привабливості візуально ілюструє рис. 3.11. Аналіз графіка показує, що поділ регіонів за методом k-середніх збігається з поділом їх за ієрархічною кластер-процедурою. Очевидні міжкласові розбіжності середніх за всіма ознаками, крім Var3. Перевіримо істотність цих розбіжностей за допомогою F-критерію.

Рис. 3.11. Середні значення ознак для кожного кластера

Рис. 3.11. Середні значення ознак для кожного кластера

У табл. 3.10 подано значення міжгрупових (Between SS) і внутрішньогрупових дисперсій (Within SS) усіх ознак. Чим менше значення внутрішньогрупової дисперсії і більше значення міжгрупової дисперсії, тим краще ознака характеризує належність об’єкта до кластера і тим якісніша кластеризація. Значення F-критерію і р-level також характеризують внесок ознаки в розподіл об’єктів за кластерами. Якість кластеризації тим вища, чим більше значення F і менше р-level.

Таблиця 3.10

ДИСПЕРСІЙНИЙ АНАЛІЗ РЕЗУЛЬТАТІВ КЛАСТЕРИЗАЦІЇ РЕГІОНІВ

ЗА РІВНЕМ ІНВЕСТИЦІЙНОЇ ПРИВАБЛИВОСТІ

Результати дисперсійного аналізу підтверджують істотність міжкласових розбіжностей. Найменше значення ймовірності висновку для ознаки Var3 — кількість суб’єктів господарювання на 10 000 осіб наявного населення ниці, що свідчить про стійкість структури.

Результати дисперсійного аналізу підтверджують істотність міжкласових розбіжностей. Найменше значення ймовірності висновку для ознаки Var3 — кількість суб’єктів господарювання на 10 000 осіб наявного населення ниці, що свідчить про стійкість структури.

(1 – р = 0,9425), для інших ознак імовірність висновку наближається до оди(1 – р = 0,9425), для інших ознак імовірність висновку наближається до оди

За процедурою Two-way joining відбувається одночасна кластеризація за ознаками (Variables) і спостереженнями (Cases). Таке подвійне об’єднання може поглибити вивчення структури великих масивів інформації.

Завдяки приведенню великого обсягу різнобічної первинної інформації в упорядкований, компактний вигляд, кластерний аналіз набув практичного застосування. Поділ багатовимірного простору на кластери, які розглядаються як однорідні групи, дає змогу спростити подальшу обробку даних і прийняття рішень, застосовуючи до кожного кластера свій метод аналізу (стратегія «розділяй і володарюй»). Водночас слід зауважити, що не існує однозначно найкращого варіанта кластеризації. Будь-яку первинну сукупність об’єктів можна поділити на певну, наперед визначену кількість кластерів різними способами й отримати різні результати. Якість поділу сукупності об’єктів на кластери пов’язана з критерієм оптимальності. Таким критерієм може бути певний функціонал, що оптимізує якусь цільову функцію, наприклад мінімізує внутрішньокластерну дисперсію.


< Попередня  Змiст  Наступна >
Iншi роздiли:
Частина 2. 3.4. МОДЕЛЬ ДИСКРИМІНАНТНОГО АНАЛІЗУ
МОДЕЛЮВАННЯ ТА ПРОГНОЗУВАННЯ ТЕНДЕНЦІЙ РОЗВИТКУ
4.2. ТРАНСФОРМАЦІЇ ЧАСОВИХ РЯДІВ
4.3. ТИПИ ТРЕНДОВИХ МОДЕЛЕЙ
4.4. МОДЕЛЮВАННЯ ПРОЦЕСІВ З НАСИЧЕННЯМ
Дисциплiни

Медичний довідник новиниКулінарний довідникАнглійська моваБанківська справаБухгалтерський облікЕкономікаМікроекономікаМакроекономікаЕтика та естетикаІнформатикаІсторіяМаркетингМенеджментПолітологіяПравоСтатистикаФілософіяФінанси

Бібліотека підручників та статтей Posibniki (2022)