Лекция Дискриминационный анализ icon

Лекция Дискриминационный анализ


Смотрите также:
Лекция 20. 03. 12. Модели для исследования и оценки в pr лекция 27. 03. 12...
Лекция Регрессионный анализ 5- лекция Регрессионный анализ...
Экономический анализ Анализ объема производства и реализации продукции лекция анализ объема...
Вводный семинар, вводная лекция, занятия по целе-полаганию, лекция-беседа...
Доклад о соблюдении прав человека в Российской Федерации в 2004 году...
«бухгалтерский учет,анализ и аудит»...
Лекция I. Исторические аспекты возникновения и развития общественного мнения 5 Лекция II...
Математический анализ (лекция)...
Функциональный анализ (лекция)...
Математический анализ (лекция)...
Математический анализ (лекция)...
Экономический анализ 111 лекция...



Загрузка...
скачать

Лекция 8. Дискриминационный анализ 8-


Лекция 8. Дискриминационный анализ


Содержание

8.1. Назначение дискриминационного анализа 1

8.1.1. Цель интепретации 1

8.1.2. Цель классификации 1

8.2. Отличия дискриминационного анализа от кластерного 1

8.3. Предпосылки применения дискриминационного анализа 2

8.4. Количество дискриминантных функций 2

8.5. Последовательность решения 2

8.6. Дискриминационный анализ двух классов 3

8.6.1. Последовательность шагов 3

8.7. Дискриминационный анализ при числе групп более двух 4

8.7.1. Краткие теоретические сведения 4

8.7.1.1. Последовательность решения задачи для общего случая k классов 4

8.7.1.2. Классификация при числе групп больше двух 6

8.7.1.3. Вероятность принадлежности к классу 6

8.7.1.4. Классификация без интерпретации 6

8.7.1.5. Методы отбора переменных 7

8.8. Вид исходных данных 9

8.9. Вызов процедуры дискриминационного анализа 9

8.10. Установка параметров процедуры 10

8.10.1. Заполнение окна Discriminant Analysis 10

8.10.2. Заполнение окна Statistics 10

8.10.3. Заполнение окна Method 10

8.10.4. Заполнение окна Classify 11

8.10.5. Заполнение окна Save 12

8.9. Терминология, используемая при выводе 12



^

8.1. Назначение дискриминационного анализа



Дискриминационный (дискриминантный) анализ используется в том случае, если имеются данные, классифицированные на несколько групп, и необходимо найти одну или более функций количественных измерений, которые помогут отнести наблюдения к одной из этих групп.

В дискриминантном анализе различают две цели: интепретации и классификации.

^

8.1.1. Цель интепретации



Целью интерпретации явлеяется определение количества, значимости дискриминантных функций и их значений для объяснения различий между классами.

^

8.1.2. Цель классификации



Целью классификации является определение класса, к которому принадлежит новый объект.

8.2. Отличия дискриминационного анализа от кластерного



В дискриминационном анализе, в отличие от кластерного, имеется обучающая выборка, в которой известно к каким классам относятся объекты. По обучающей выборке необходимо получить правила, которые в дальнейшем позволят определить, к какому классу относятся новые объекты.

^

8.3. Предпосылки применения дискриминационного анализа





  1. Наблюдения принадлежат к двум или более числу классов.

  2. В каждом классе имеется как минимум два наблюдения.

  3. Число дискриминантных переменных не должно быть больше количеству наблюдений минус 2.

  4. Дискриминантные переменные измеряются в шкале интервалов или шкале отношений.

  5. Дискриминантные переменные должны быть линейно независимы.

  6. Дискриминантные переменные должны распределяться по многомерному нормальному закону распределения.

  7. Ковариантные матрицы классов приблизительно равны друг другу.



^

8.4. Количество дискриминантных функций



В качестве дискриминантной чаще всего берется линейная функция

Z = C1X1 + C2X2 + … + CmXm,

где Х12,…,Хm – значения признаков у данного объекта; С1,С2,…,Сm – дискриминантные множители.

Посредством дискриминантных множителей выполняем переход от m-мерного пространства первичных показателей к одномерному пространству.

Линейную функцию можно рассматривать как проекцию данного объекта на некоторую (одномерную) дискриминантную ось.

В процедуре дискриминантного анализа дискримиантные множители определяются таким образом, чтобы обеспечить наибольшее различие между проекциями первой и второй выборок на дискриминантной оси.

Дискриминантный анализ желательно проводить с использованием минимального количества функций. Их количество зависит от конфигурации классов в многомерном пространстве дискриминантных переменных. Чтобы определить, сколько функций необходимо используют проверку их на значимость. Для оценки значимости используют или А-статистику Уилкса или кси - квадрат.


Критериальное значение Уилкса вычисляют по формуле:



где К – количество классов,

к – число уже вычисленных дискриминационных функций.

Чем ближе значения критерия к ), тем лучше различия классов. А чем ближе к 1, тем различие хуже.


Кси –квадрат значение рассчитывают по формуле:




где р- количество членов в дискриминационной функции, исключая свободный член.

Если это значение больше критического с заданным уровнем значимости и числом степеней свободы (р-к)(К-к-1) , то значимость подтверждается.

^

8.5. Последовательность решения



Этапы решения отличаются в зависимости - ищется два или более класса.

8.6. Дискриминационный анализ двух классов




8.6.1. Последовательность шагов



Есть два класса, объекты характеризуют р переменными. Для первого класса сформирована выборка X, объемом п1, для второго—У объемом n2.

1. Рассчитывают средние значения по каждой переменной для каждой выборки (класса):



2. Определяют оценки ковариационных матриц для каждого класса Sx и Sy.



3. Рассчитывают несмещенную оценку объединенной ковариационной матрицы:



4. Находят матрицу S-1, обратную S.

5. Рассчитывают вектор оценок коэффициентов дискриминантной функции



6. Определяют оценки векторов дискриминантных функций для исходных Переменных Uх = ХА и Uх = УА.

7. Вычисляют средние значения оценок дискриминантных функций:



8. Определяют дискриминантную константу




Замечание. Обратите внимание на п. 4 и 5. В литературе рекомендуется решать задачу иногда по другому. По сути, эти два пункта описывают решение системы уравнений относительно А. Вычисление обратной матрицы, во-первых, требует в три раза больше вычислительных операций, чем решение системы уравнений; во-вторых, при плохо обусловленной исходной матрице результаты неустойчивы [12]. В связи с этим в предлагаемом алгоритме в п. 4, 5 выполняется решение системы линейных уравнений методом LU-разложения.


Для того, чтобы определить, к какому классу принадлежит какое-либо наблюдение Z (объект), необходимо сначала вычислить для него оценку дискриминантной функции: . Если это значение больше или равно константе С, то новый объект относится к классу X, если меньше — к классу Y (при ).


^

8.7. Дискриминационный анализ при числе групп более двух




8.7.1. Краткие теоретические сведения




8.7.1.1. Последовательность решения задачи для общего случая k классов



Каноническая дискриминантная функция в этом случае имеет вид:



где fki— значение канонической дискриминантной функции для i-го объекта в k-м классе;

uj — искомые коэффициенты дискриминантной функции;

Хjki значение дискриминантной переменной Хj для i-го объекта в классе k.


Функцию строят таким образом, чтобы ее средние значения для различных классов как можно больше различались. При этом совокупность функций должна образовывать ортогональное пространство, то есть функции независимы друг от друга. Из этого следует, что количество функций нe может быть больше количества классов минус 1 или числа дискриминантных переменных (в зависимости от того, какая из этих величин меньше).

Задачу решают в несколько этапов.

1. Строят матрицу Т, элементы которой определяют по формуле:



где Хjki значение дискриминантной переменной Xj для i-го объекта в классе k,

— среднее значение для переменной j по всем классам,

п — общее количество наблюдений но всем классам,

^ К — число классов.

2. Вычисляют матрицу W, которая определяет степень разброса внутри классов. Элементы этой матрицы находят по формуле:



где k средняя величина переменной j в k-м классе.

Остальные обозначения аналогичны обозначениям из предыдущей формулы.

3. Вычисляют матрицу В = Т - W, элементы определяют как bjl = tjl - Wjl.

4. Решают систему уравнений:



где — собственное значение (чем оно больше, тем больше групп будет разделять соответствующая дискриминантная функция).

Построенная на его базе каноническая корреляция



показывает степень зависимости между дискриминантной функцией и классами, а квадрат корреляции 2 показывает долю дисперсии дискриминантной функции, которая объясняется разбиением на классы.

Для получения единственного решения вводят дополнительное ограничение



5. Полученные коэффициенты нормируем по формуле:



При этом



Коэффициенты и, называют нестандартными, поскольку зависят от единиц измерения переменных, поэтому часто переходят к стандартным коэффициентам, которые показывают относительный вклад переменной, независящий от шкалы измерения. Переход к стандартным коэффициентам вычисляют по формуле:



где п — общее число наблюдений,

К — число классов (групп),

Wii — диагональный элемент матрицы оценки рассеивания


Величина стандартного коэффициента пропорциональна его вкладу в дискриминантную функцию. При этом следует иметь в виду, что если переменные коррелированы, то стандартные коэффициенты не будут отражать действительного вклада.

^

8.7.1.2. Классификация при числе групп больше двух



Рассчитанные значения канонической дискриминантной функции fki, рассматривают как точки в некотором пространстве. Для каждой группы можно рассчитать центр группирования (среднее). Поэтому в этой новой системе координат для нового объекта рассчитывают расстояние от него до каждой точки группирования. Обычно для этого используют квадрат расстояния Махаланобиса (D2(X,Gk) — расстояние от объекта X, который необходимо классифицировать, до центра класса Gk). Объект причисляют к группе, расстояние до которой D2(X,Gk) наименьшее.

^

8.7.1.3. Вероятность принадлежности к классу



В случае, когда имеет место значительное перекрытие классов и, следовательно, слабое их различение, желательно кроме расстояния рассчитывать еще и вероятность принадлежности к классу, которую вычисляют по формуле:



где fkx значение дискриминантной функции для объекта Х в k-м классе,

fmax — значение дискриминантной функции для объекта Х для класса, расстояние к которому минимальное. Если вероятность мала, то классифицировать объект при данном способе разбиения нельзя.

^

8.7.1.4. Классификация без интерпретации



При использовании дискриминантных функций, кроме задачи классификации, решают и задачу интерпретации. В некоторых случаях нет необходимости решать задачу интерпретации. В этой ситуации используют простые классифицирующие функции (в ряде работ именно их называют дискриминантными, а представленные ранее — каноническими дискриминантными функциями), основанные непосредственно на дискриминантных неременных:



где hk — значение функции для k-го класса,

хi значения дискриминантных переменных.

Значения bk определяют по формулам:



где аij — элемент матрицы, обратной W.

Для классификации используют квадрат расстояния Махаланобиса, который вычисляют следующим образом:



В. Плюта [6] рекомендует использовать скорректированную несмещенную оценку этой величины:



Объект Х причисляют к группе, расстояние до которой (D2(X,Gk)) наименьшее.

^

8.7.1.5. Методы отбора переменных


К методам отбора переменных относятся:

• F-статистика для каждой пары групп, полезная для описания расстояния между парами групп и для изучения различий между центрами групп.

• Диаграмма рассеяния двух первых канонических переменных (канонических дискриминантных функций) — как для всех групп сразу, так и для каждой из них в отдельности.

• Территориальная карта с границами, определяющая групповую принадлежность (границы наложены на двумерный график с первой и второй каноническими переменными по осям).

• Объединенная внутригрупповая корреляционная матрица для изучения структуры корреляций предикторов.

• Возможность сохранить значения канонических переменных (канонических дискриминантных функций), чтобы затем использовать их для выделения выбросов.


8.7.1.6. Критерии отбора переменных для двух и более групп


При решении многих задач целью может быть поиск полезного множества переменных. Для этой цели придумано много различных стратегий. Не существует единой процедуры выбора наилучшего множества предикторов, как нет и идеального критерия качества найденного множества. В дискриминантном анализе, как и в множественнойрегрессии, используются разные методы отбора переменных.

В SPSS имеются несколько пошаговых методов построения модели — вводящих или исключающих по одной переменной на каждом шаге. Пошаговый отбор начинается с нахождения переменной, средние которой различаются больше всего; затем продолжают шаг за шагом отбираться следующие наилучшие в этом смысле переменные. При отборе переменных используются следующие индикаторы:


  • Wilks' lambda {Лямбда Уилкса). Для каждого кандидата-предиктора вычисляется F-статистика, определяющая изменение лямбды Уилкса при включении этой переменной в модель. В модель включают переменную с наибольшим F (или наименьшим значением лямбды Уилкса). Кроме того, SPSS проверяет включенные в модель переменные; та из них, которая имеет слишком маленькое значение F исключения, исключается. F-значение для изменения в. лямбде Уилкса при включении переменной в модель, содержащую р независимых переменных, равно:



где р— общее число наблюдений,

g — число групп,

λp — лямбда Уилкса до включения переменной,

λ p +1—лямбда Уилкса после включения.


  • Mahalonobis distance (Расстояние Махалонобиса). На каждом шаге вводится переменная, максимизирующая расстояние Махалонобиса между ближайшими групповыми центрами. Расстояние между группами x и y определяется по формуле:





  • Smallest F ratio (Наименьшее F-отношение). На каждом шаге вводится переменная, максимизирующая наименьшее F-отношение для пар групп (a и b), F-статистика равна:




  • Rao's V (V Pao). Этот индикатор известен также как след Лоули-Хотеллинга (Lawley-Hotelling).Oн определяется формулой:



где р — число переменных в модели,

g число групп,

nk — объем выборки k-й группы,

Xik—среднее i-й переменной в k-й группе,

Xi—среднее i-й переменной по всем группам,

wij* — элемент матрицы, обратной к ковариационной

Чем больше различия между группами, тем больше VРао.


  • ^ Sum of unexplained variance (Сумма необъясненной дисперсии). Сумма необъясненных дисперсий для всех групп тоже может использоваться в качестве критерия отбора переменных. Включается та переменная, которая минимизирует сумму необъясненных дисперсий. Расстояние Махалонобиса и R2 пропорциональны, т.е.:



где с — константа.

Для каждой пары групп а и b необъясненная дисперсия регрессии равна 1 – Rab2 ( R2—квадрат коэффициента множественной корреляции), когда в качестве зависимой рассматривается переменная, принимающая значения 0 и 1 (в зависимости от того, в какую группу, a или b, попадает наблюдение).

^

8.8. Вид исходных данных



Особенностью исходных данных для дискриминационного анализа явлется наличие какой-то группировочной переменной (рис.8-1). Число классов может быть большим. В SPSS есть возможности выделить из них две группы для анализа или анализировать число групп блоее двух. В практической части будют решаться обе задачи.




Рис.8-1. Исходные данные для многогруппового дискриминационного анализа

^

8.9. Вызов процедуры дискриминационного анализа



Вызов процедуры дискриминационного анализа производится косандами Analyze / Classify / Discriminant (рис.8 -2).



^
Рис.8-2 Вызов процедуры дискриминационного анализа



8.10. Установка параметров процедуры




8.10.1. Заполнение окна Discriminant Analysis




В открывшемся диалоговом окне Discriminant Analysis (рис.8-3) в качестве группировочной переменной выберите переменную имеющие классы (в рассматриваемом примере – регион (Reg) с выбранной установкой диапазона изменения ( на рис.8-3 от 1 до 11).

В качестве предикатов выберите переменные из оставшихся. Ограничений на их тип нет (рис.8-3).



Рис.8-3. Установка группировочной переменной в диалоговом окне дискриминационного анализа



^

8.10.2. Заполнение окна Statistics




Нажмите кнопку Statistics.

В открывшемся диалоговом окне установите параметры в соответствии с рис.8-4 (в области Descriptives активизируйте кнопку Means; в области Function Coefficients активизируйте Fisher’s; в области Matrices активизируйте Within-groups correlation).

^

8.10.3. Заполнение окна Method



Если в окне Discriminant Analysis активизировать кнопку Использовать пошаговый выбор переменных то в этом случае будет необходимо уточнить параметры окна Method (рис.8-5).







Рис.8-5. Выбор метода расчета


Нажмите кнопку Continue, чтобы вернуться в диалоговое окно Discriminant Analysis.

^

8.10.4. Заполнение окна Classify



Нажмите кнопку Classify.

В открывшемся диалоговом окне Classification установите параметры в соответствии с рис.8-6.




Рис.8-6. Установка параметров врезки Classification

^

8.10.5. Заполнение окна Save



Нажмите кнопку Continue, чтобы вернуться в диалоговое окно Discriminant Analysis.

Нажмите кнопку Save.

В открывшемся диалоговом окне Save установите параметры в соответствии с рис.8- Нажмите кнопку Continue, чтобы вернуться в диалоговое окно Discriminant Analysis.



Рис.8-7. Установка параметров врезки Save

Нажмите кнопку OK для запуска процедуры дискриминационного анализа

^

8.9. Терминология, используемая при выводе




Ниже дана трактовка терминов, используемых программой в окне вывода и относящихся к средним значениям, X Уилкса, Р-критериям и уровням значимости.

► Mean (Средние значения) — средние значения для каждой категории (низкая, высокая) и для всех категорий (Total) переменной оценка.

► Wilks' Lambda (Лямбда Уилкса) — отношение внутригрупповой суммы квадратов к общей сумме квадратов (X). Данный коэффициент характеризует долю дисперсии оценок дискриминантиой функции, которая не обусловлена различиями между группами, принимает значение 1 в случае, если средние значения для всех групп оказываются равными, и уменьшается с ростом разностей средних значений. Уровни значимости характеризуют вероятность того, что различия между группами являются случайными.

F (f-критерий) — значения F-критерия такие же, как при однофакторном диет персионном анализе, и равны квадрату ^-критериев двух выборок.

Sig. (Значимость) — уровни значимости F-критериев, равные вероятности того, что соответствующие различия являются случайными.

На рис. 8-8 и 8-9 представлены фрагменты выводимых результатов, связанные с регрессионным анализом и составлением дискриминантного уравнения. В трех таблицах содержится статистическая информация о переменных, вошедших и не вошедших в дискриминантное уравнение, а также порядок включения и исключения переменных в процессе составления дискриминантного уравнения. В ходе составления дискриминантного уравнения в него поочередно вводятся предикторы на основе заданного критерия включения (по умолчанию критерием является Ft 3,84, в нашем случае — F> 1,125), а также исключаются из уравнения те предикторы, которые удовлетворяют критерию исключения (по умолчанию таким критерием является F <, 2,71, в нашем случае — F < 1,000). Представленные таблицы являются завершающими фрагментами очень больших таблиц, которые генерирует программа в результате выполнения семи шагов заданного пошагового метода.

Обратите внимание, что все вошедшие в уравнение переменные после шага 7 имели достаточный уровень толерантности (выше 0,1) и значения F-критерия, превышающие пороговое значение 1,25. Переменные, не попавшие в дискриминантное уравнение, также имеют достаточную толерантность, однако значение F-критерия у них оказалось меньше 1,25. Последняя таблица иллюстрирует пошаговый процесс составления дискриминантного уравнения. Как можно видеть, шаги 1-7 приводят к последовательному введению в уравнение новых предикторов. Обращает на себя внимание тот факт, что в окончательный результат не вошли некоторые переменные, различия между группами для которых статистически достоверны. Напротив, в дискриминантное уравнение были включены переменные экстраверсия и умозаключения, различия между группами по которым статистически недостоверны. Это связано с тем, что при включении переменных в дискриминантное уравнение учитывается не только дискриминативная способность каждой переменной в отдельности, но и ее уникальный вклад в совокупности с остальными переменными.

Далее дана трактовка терминов, используемых программой в окне вывода и относящихся к составлению дискриминантного уравнения и регрессионному анализу.

► F to Enter (F для ввода) — минимальное значение F, при котором предиктор включается в дискриминантное уравнение.

► F to Remove (F для вывода) — максимальное значение F, при котором предиктор исключается из дискриминантного уравнения.




^ Рис.8-8. Переменные, не включенные в модель


Tests of Equality of Group Means




Wilks' Lambda

F

df1

df2

Sig.

Debt to sup.

,930

,505

3

20

,683

Долг по взаимным платежам, млн.руб

,962

,266

3

20

,849

Внутренний долг, млн.руб

,955

,311

3

20

,817

Отложенный долг по платежам, млн.руб

,972

,189

3

20

,903

Ind.of cons.price

,880

,911

3

20

,453

RateGNP

,722

2,565

3

20

,083

Сальдо, млн.руб

,844

1,230

3

20

,325

^ Рис.8-9. Статистические показатели переменных, не включенных в модель


► Tolerance (Толерантность) — мера линейной зависимости между одним предиктором и всеми остальными. Если величина толерантности окажется меньше 0,001, SPSS воспримет такой результат как наличие значительной линейной зависимости и не включит соответствующий предиктор в дискриминантное уравнение.

► Sig. (Значимость) — мера значимости влияния данного предиктора на дисперсию зависимой переменной.


Ниже на рис. 8-10 – 8-16 приведены очередные таблицы, содержащие коэффициенты канонической дискриминантной функции, корреляции между каждым из предикторов и дискриминантной функцией, нестандартизированные коэффициенты, а также центроиды групп.




^ Рис.8-10. Корреляции между каждым из предикторов и дискриминантной функцией


Далее дана трактовка терминов, используемых программой в окне вывода и относящихся к канонической дискриминантной функции и центроидам групп.

► Canonical Discriminant function Coefficients (Коэффициенты канонической дискриминантной функции) — список нестандартизованных (Unstandardized) коэффициентов и константа (Constant) дискриминантного уравнения. Это уравнение подобно линейному уравнению множественной регрессии. Значение функции для каждого объекта подсчитывается по этому уравнению (рис.8-11).




^ Рис.8-11. Коэффициенты канонической дискриминантной функции


► Function (Функция), Test of function (Тест функции) — значение 1 в этой ячейке говорит о том, что в процессе дискриминантного анализа была получена одна дискриминантная функция. Если бы зависимая переменная имела не 2, а 3 уровня, то было бы составлено две дискриминантные функции (рис.8-12).



Рис.8-12. Количество дискриминантных функций


► Wilks' Lambda (Лямбда Уилкса) — отношение внутригрупповой суммы квадратов к общей сумме квадратов (X) (рис.8-13).



Рис.8-13. Отношение внутригрупповой суммы квадратов к общей сумме квадратов


► Chi-square (Хи-квадрат) — мера статистического отличия друг от друга двух уровней дискриминанта (х2). Чем больше данное значение, тем сильнее отличие и тем лучше дискриминантная функция соответствует своему назначению (рис.8-13).

► df (Число степеней свободы) — количество переменных, входящих в состав дискриминантного уравнения (рис.8-13).

► Sig. (Значимость) — значимость, относящаяся к хи-квадрат (рис.8-13)

► Eigenvalue (Собственное значение) — отношение межгрупповой сумы квадратов к внутригрупповой сумме квадратов. Чем больше данное значение, тем предпочтительнее для дискриминантного анализа составленная функция (рис.8-14).



Рис.8-14. Собственное значение


► % of variance (Процент дисперсии), Cumulative % (Накопленный процент дисперсии) — дискриминантная функция всегда вычисляется для равной 100 % дисперсии зависимой переменной (рис.8-14).

► Structure Matrix (Структурная матрица) — структурная матрица содержит корреляции между значениями дискриминантной функции и каждой из переменных. Переменные упорядочены по абсолютной величине корреляций (рис.8-15).

► Group centroids (Центроиды групп) — средние значения дискриминантной функции Для двух групп. Более точно, центроид представляет собой значение функции, получаемое при подстановке в дискриминантное уравнение средних значений предикторов. Обратите внимание, что центроиды равны по абсолютной величине, но имеют разные знаки. Граничным значением для двух групп является ноль (рис.8-16).




^ Рис. 8-15. Структурная матрица


Group Statistics


name



Mean

Std. Deviation

Valid N (listwise)








Unweighted

Weighted

Unweighted

Weighted

Северный

Debt to sup.

713,2000

426,34106

5

5,000






Долг по взаимным платежам, млн.руб

401,2000

141,47862

5

5,000






Внутренний долг, млн.руб

356,2000

197,75414

5

5,000






Отложенный долг по платежам, млн.руб

207,8000

93,72940

5

5,000






Ind.of cons.price

170,9200

14,39295

5

5,000






RateGNP

81,2000

6,22093

5

5,000






Сальдо, млн.руб

148,4000

144,84578

5

5,000




СевероЗападный

Debt to sup.

528,7500

550,65680

4

4,000






Долг по взаимным платежам, млн.руб

498,7500

515,59892

4

4,000






Внутренний долг, млн.руб

232,2500

213,76213

4

4,000






Отложенный долг по платежам, млн.руб

187,7500

231,83813

4

4,000






Ind.of cons.price

171,8500

11,08407

4

4,000






RateGNP

64,2500

9,81071

4

4,000






Сальдо, млн.руб

44,5000

170,73273

4

4,000




Восточная Сибирь

Debt to sup.

696,5000

805,60629

6

6,000






Долг по взаимным платежам, млн.руб

564,6667

634,30235

6

6,000






Внутренний долг, млн.руб

336,6667

397,35408

6

6,000






Отложенный долг по платежам, млн.руб

275,5000

328,65833

6

6,000






Ind.of cons.price

160,6000

10,65101

6

6,000






RateGNP

77,6667

7,39369

6

6,000






Сальдо, млн.руб

61,1667

71,90665

6

6,000




Приморье

Debt to sup.

414,0000

299,39773

9

9,000






Долг по взаимным платежам, млн.руб

381,1111

294,12389

9

9,000






Внутренний долг, млн.руб

250,4444

178,84638

9

9,000






Отложенный долг по платежам, млн.руб

204,4444

143,69248

9

9,000






Ind.of cons.price

172,3111

17,42458

9

9,000






RateGNP

71,0000

13,02881

9

9,000






Сальдо, млн.руб

46,0000

41,90465

9

9,000




Total

Debt to sup.

566,0833

511,72606

24

24,000






Долг по взаимным платежам, млн.руб

450,7917

402,40365

24

24,000






Внутренний долг, млн.руб

291,0000

246,82559

24

24,000






Отложенный долг по платежам, млн.руб

220,1250

200,78245

24

24,000






Ind.of cons.price

169,0167

14,39549

24

24,000






RateGNP

73,6667

11,17710

24

24,000






Сальдо, млн.руб

70,8750

104,30695

24

24,000




^ Рис.8-16. Статистика групп


Таблица, представленная на рис.8-17, содержит информацию о фактической и прогнозируемой группах для каждого объекта, а также значения дискриминантов. Для объектов, отмеченных двумя звездочками (**), фактическая и прогнозируемая группы не совпали. Всего таких объектов 3 из 22. Таким образом, точность классификации при данном наборе дискриминантных переменных составляет 86,53 % (19 из 22 правильных предсказаний в отношении «известных» объектов).




^ Рис.8-17. Данные о фактической и прогнозируемой группах для каждого объекта, а также значения дискриминантов


Далее дана трактовка терминов, используемых программой в окне вывода.

► Ungrouped (Несгруппированный объект) — объект, для которого заранее неизвестна принадлежность к группе.

► Actual group (Фактическая группа) — группа, которой принадлежит данный объект.

► Predicted Group (Прогнозируемая группа) — группа, вычисленная для объекта с помощью уравнения дискриминантной функции.

► Р (D>d | G=g) — вероятность принадлежности объекта к группе (G) при данной величине дискриминантной функции (D).

►P (C-g | D-d) - вероятность наблюдаемого значения дискриминантной функции (D), если задана принадлежность объекта к группе (G)."

►Highest Group (Вероятная группа) - группа, имеющая наибольшую прогнозируемую вероятность включения данного объекта.

►Second Highest Croup (Вторая вероятная группа) - группа, имеющая вторую по величине вероятность (после прогнозируемой) включения объекта Поскольку число групп в данном случае равно 2, то такая группа для каждого объекта определена «заранее».

►Discriminant Scores (Значения дискриминантной функции) - величины получаемые при подстановке значений переменных объекта в уравнение дискриминантной функции.

ЛИТЕРАТУРА

  1. Алгоритмы и программы восстановления зависимостей / Под ред. В.Н. Ванника. — М.: Наука, 1984. - 816 с.

  2. Алгоритмы обработки экспериментальных данных. - М.: Наука, 1986. - 184 с.

  3. Александров В. В., Горский В.Д. Алгоритмы и программы структурного метода обработки данных. — Л.: Наука, 1983. — 208 с.

  4. Дубров А.М., Мхитарян B.C., Трошин Л.И. Многомерные статистические методы. — М.: Финансы и статистика, 1998. — 352 с.

  5. Енюков И.С. Методы, алгоритмы, программы многомерного статистического анализа (пакет ППСА). — (Математическое обеспечение прикладной статистики). — М.: Финансы и статистика, 1986. — 232 с.

  6. Плюта В. Сравнительный многомерный анализ в эконометрическом моделировании / Пер. с нольск. — М.: Финансы и статистика, 1989. - 175 с.

  7. Прикладная статистика: Классификация и снижение размерности: Справ, изд. / С.А. Айвазян, В.М. Бухштабер, И.С. Еию-ков, Л.Д. Мешалкин. — М.: Финансы и статистика, 1989. - 607 с.

  8. Райе Дж. Матричные вычисления и математическое обеспечение: Пер. с англ. О.Б. Арушаняна / Под ред. В.В. Воеводина. - М.: Мир, 1984. - 264 с.

  9. Справочник но прикладной статистике. В 2 т. Т. 2: Пер. с англ. — М.: Финансы и статистика, 1990. — 526 с.

  10. Статистические методы для ЭВМ / Под ред. К. Эислейна, Э. Релстона, Г.С. Уилфа; Пер. с англ. / Под ред. М.Б. Малютова. — М.: Наука, 1986. - 464 с.

  11. Факторный, дискриминантный и кластерный анализ: Пер. с англ. — М.: Финансы и статистика, 1989. — 215 с.

  12. Форсайт Дж., Малькольм М., Моулер К. Машинные методы математических вычислений / Пер. с англ. Х.Д. Икрамова. — М.: Мир, 1980. - 280 с.






Скачать 265,88 Kb.
оставить комментарий
Дата05.11.2011
Размер265,88 Kb.
ТипЛекция, Образовательные материалы
Добавить документ в свой блог или на сайт

отлично
  2
Ваша оценка:
Разместите кнопку на своём сайте или блоге:
rudocs.exdat.com

Загрузка...
База данных защищена авторским правом ©exdat 2000-2017
При копировании материала укажите ссылку
обратиться к администрации
Анализ
Справочники
Сценарии
Рефераты
Курсовые работы
Авторефераты
Программы
Методички
Документы
Понятия

опубликовать
Загрузка...
Документы

Рейтинг@Mail.ru
наверх