В. С. Симанков, Е. В. Луценко
↑ | Оглавление | ||
← | Глава 5, решение задачи 2, «Адаптация и конкретизация абстрактной модели объекта управления» | Глава 5, «Обобщение интегральной модели путем учета значений выходных параметров объекта управления» | → |
Как было показано в разделе 5.1, решение задачи 3 предполагает решение следующих подзадач.
При изменении объема обучающей выборки или изменении экспертных оценок прежде всего пересчитывается матрица абсолютных частот, а затем, на ее основании и в соответствии с выражением (28), ? матрица информативностей. Таким образом, предложенная модель обеспечивает отображение динамических взаимосвязей, с одной стороны, между входными и выходными параметрами, а с другой, ? между параметрами и состояниями объекта управления. Конкретно, это отображение осуществляется в форме так называемых профилей факторов и состояний.
В профиле i-го фактора (строка матрицы информативностей) отображается, какое количество информации о переходе СОУ в каждое из возможных состояний содержится в том факте, что данный фактор действует.
В профиле j-го состояния СОУ (столбец матрицы информативностей) отображается, какое количество информации о переходе СОУ в данное состояние содержится в каждом из факторов.
Данная модель позволяет прогнозировать поведение СОУ при воздействии на него не только одного, но и целой системы факторов:
Ij = f(Iij) | (5.5) |
В теории принятия решений [451] скалярная функция Ij векторного аргумента называется интегральным критерием. Основная проблема состоит в выборе такого аналитического вида интегрального критерия, который обеспечил бы эффективное решение задачи АСУ.
Учитывая, что частные критерии (1) имеют смысл количества информации, а информация по определению является аддитивной функцией [332, 451], авторы предлагают ввести интегральный критерий, как аддитивную функцию от частных критериев:
Ij = (Iij,Li) | (5.6) |
В выражении (6) круглыми скобками обозначено скалярное произведение. Перепишем это выражение в координатной форме:
Ij = K⋅∑(Iij⋅Li) | (5.7) |
где Iij = {Iij} — профиль j-го состояния СОУ, Li = {Li} — профиль текущего состояния СОУ (массив-локатор), т.е. Li=1 или Li=0
Таким образом, интегральным критерием является суммарное количество информации, содержащейся в факторах различной природы (т.е. факторах, характеризующих состояние среды, объекта управления, управляющее воздействие, прогнозную информацию) о переходе СОУ в целевое состояние.
В многокритериальной постановке задача прогнозирования состояния СОУ, при оказании на него заданного многофакторного управляющего воздействия Ij, сводится к максимизации интегрального критерия:
j* = argmax((Iij,Li)) | (5.8) |
т.е. к выбору такого состояния СОУ, для которого интегральный критерий максимален.
Задача принятия решения о выборе наиболее эффективного управляющего воздействия является обратной задачей по отношению к задаче максимизации интегрального критерия, т.е. вместо того, чтобы по набору факторов прогнозировать состояние СОУ, необходимо, наоборот, по заданному (целевому) состоянию СОУ определить такой набор факторов, который с наибольшей эффективностью перевел бы объект управления в это состояние.
Как было показано при решении задачи 3.1, профиль состояния показывает, какое количество информации о переходе СОУ в данное состояние содержится в каждом из факторов.
Факторы могут быть разделены на две основные группы, в зависимости от того, могут ли они использоваться для управления или просто должны учитываться, но не могут быть изменены:
Однако информации об актуальном состоянии объекта управления и среды для прогнозирования их развития при различных вариантах управляющего воздействия недостаточно — для этого необходимо еще знать и предысторию, т.е. «путь», по которому они перешли в текущее (актуальное) состояние. В общем случае предыстория развития СОУ и среды влияет на вероятности их переходов в будущие состояния. В предлагаемой методологии нет необходимости решить этот вопрос на основании априорных предположений, так как система распознавания на этапе обучения сама определяет ценность тех или иных факторов (признаков), в том числе и характеризующих прошлые состояния, для решения задач идентификации и прогнозирования.
В предлагаемой методологии влияние предшествующих состояний СОУ можно учесть двумя способами:
Это различие соответствует различию между простыми и составными цепями Маркова, автоматами без памяти и с памятью.
Если задано некоторое определенное целевое состояние, то выбор управляющих воздействий для фактического применения производится из списка, в котором все возможные управляющие воздействия расположены в порядке убывания их влияния на перевод СОУ в данное целевое состояние. Такой список называется информационным портретом состояния СОУ [15].
Управляющие воздействия могут быть объединены в группы, внутри каждой из которых они альтернативны (несовместны), а между которыми — нет (совместны). В этом случае внутри каждой группы выбирают одно из доступных управляющих воздействий с максимальным влиянием.
Однако выбор многофакторного управляющего воздействия нельзя считать завершенным без прогнозирования результатов его применения. Описание СОУ в актуальном состоянии состоит из списка факторов окружающей среды, предыстории СОУ, описания его актуального (исходного) состояния, а также выбранных управляющих воздействий. Имея эту информацию по каждому из факторов в соответствии с выражением (7), нетрудно подсчитать, какое количество информации о переходе в каждое из состояний содержится суммарно во всей системе факторов.
Данный метод соответствует фундаментальной лемме Неймана-Пирсона, содержащей доказательство оптимальности метода выбора той из двух статистических гипотез, о которой в системе факторов содержится больше информации. В то же время он является обобщением леммы Неймана-Пирсона, так как, по предложению авторов, вместо информационной меры Шеннона используется обобщенная мера семантической информации Харкевича [15, 29, 30, 332, 408, 433, 451].
Предлагается еще одно обобщение этой фундаментальной леммы, основанное на косвенном учете корреляций между информативностями в профиле состояния при использовании среднего по профилю. Соответственно, вместо простой суммы количеств информации предлагается использовать ковариацию между профилями состояния и СОУ, которая количественно измеряет степень сходства формы этих профилей:
Ij = [∑(Iij - Ij)⋅(Li - L)/(σj2⋅σl2⋅A)] | (5.9) |
где
Ij = ∑Iij/A — средняя информативность по профилю класса;
L = ∑Li/A — среднее по профилю распознаваемого объекта.
σj2 = ∑(Iij - Ij)2/(A - 1) — среднеквадратичное отклонение информативностей профиля класса;
σl2 = ∑(Li - L)2/(A - 1) — среднеквадратичное отклонение по профилю распознаваемого объекта.
Выражение (9) получается непосредственно из (7) после замены координат перемножаемых векторов их стандартизированными значениями:
Iij &arr; (Iij - Ij)/σj
Li &arr; (Li - L)/σl
Результат прогнозирования поведения СОУ, описанного данной системой факторов, представляет собой список состояний, в котором они расположены в порядке убывания суммарного количества информации о переходе СОУ в каждое из них.
Результаты сравнения качества результатов распознавания, полученных в соответствии с выражениями (7) и (9), показали, что при малых выборках они практически не отличаются, но при увеличении объема выборки до 400 и более выражение (9) дает на 5% — 7% более качественные результаты, чем (7). Поэтому базовым будем считать выражение (9).
Обоснование сопоставимости частных критериев Iij
Применение этого метода корректно, если можно сравнивать суммарное количество информации о переходе СОУ в различные состояния, рассчитанное в соответствии с выражением (9), т.е. если они сопоставимы друг с другом.
Будем считать, что величины сопоставимы тогда и только тогда, когда одновременно выполняются следующие три условия:
Очевидно, для решения всех этих вопросов необходимо дать точное и полное определение самого термина «сопоставимость».
Считается, что величины сопоставимы, если существует некоторая количественная шкала для измерения этих величин (табл. 5.4).
Тип шкалы | Характеристики | Примеры | Сопоставимость |
---|---|---|---|
Номинальная | Объекты классифицированы, классам присвоены словесные наименования или условные номера — коды. То, что номер одного класса больше или меньше другого, еще ничего не говорит о свойствах объектов, относящихся к этим классам, за исключением того, что они различаются | Национальность, цвет глаз, пол, клинические диагнозы, автомобильные номера | Не обеспечивается |
Порядковая | Объекты классифицированы, а классы обозначены номерами (закодированы). Значения чисел, присваиваемых классам, качественно отражают степень выраженности определенных свойств предметов, принадлежащих этим классам, т.е. большим значениям кодов классов соответствует и большая степень выраженности измеряемого свойства, на основании чего классы можно ранжировать | Ранжирование по чертам личности, военные и гражданские ранги, должности и звания. | Частично обеспечивается |
Интервальная | Существует единица измерения, с помощью которой классы можно не только упорядочить, но и приписать им числа таким образом, чтобы равные разности чисел, присвоенных классам, отражали равные различия в количествах измеряемых свойств. Нулевая точка интервальной шкалы произвольна (условна) и не указывает на отсутствие свойства | Календарное время, шкалы температур по Фаренгейту и Цельсию | Обеспечивается |
Отношений | Числа, присвоенные классам, обладают всеми свойствами интервальной шкалы, но, помимо этого, на шкале существует абсолютный нуль или абсолютный максимум, соответствующий полному отсутствию измеряемого свойства или максимально возможному его присутствию. Отношения чисел, присвоенных классам или объектам при измерении, отражают количественные отношения измеряемого свойства | Рост, вес, время, цена, температура по Кельвину (есть абсолютный нуль), количество информации (есть абсолютный максимум) | Полностью обеспечивается |
Таблица 5.4 — Характеристика и примеры измерительных шкал
Таким образом, в нашем случае сопоставимость обеспечивается, если на шкале определены направление и единица измерения, а также есть абсолютный минимум (ноль) или максимум.
Проверим, выполняются ли эти условия для упрощенной и полной информационных моделей объектов и классов распознавания.
Рассмотрим вышеперечисленные необходимые и достаточные условия сопоставимости для упрощенной и полной информационных моделей.
В упрощенной информационной модели класса и информационной модели объекта принято, что все признаки имеют одинаковый вес, который равен 1, если признак есть у класса, и 0, если его нет.
Уже одним этим обеспечивается сопоставимость индивидуальных количеств информации в упрощенной модели.
В полной модели количество информации рассчитывается по видоизмененной авторами формуле Харкевича (36).
Таким образом, в полной информационной модели класса для каждого признака известно, какое количество информации о принадлежности к данному классу он содержит. Это количество информации может быть положительным, нулевым и отрицательным, но не может превосходить некоторой максимальной величины, определяемой количеством классов распознавания: I = Log2(W) (мера Хартли), где W — количество классов распознавания.
Следовательно, для полной информационной модели сопоставимость индивидуальных количеств информации также обеспечивается, так как для них применима шкала отношений.
Это означает, что индивидуальные количества информации можно суммировать и ввести интегральный критерий как аддитивную меру от индивидуальных количеств информации.
В упрощенной информационной модели вариант расстояния Хэмминга, в котором учитываются только совпадения 1 (т.е. существующих признаков), для кодовых слов объекта и класса равно:
Hj = ∑(Iij⋅Li) | (5.10) |
где Iij — кодовое слово (профиль, массив-локатор) j-го класса (Iij=1, если признак есть, или Iij=0, если признака нет);
Li — кодовое слово (профиль, массив-локатор) объекта (Li=1, если признак есть, или Li=0, если признака нет).
Пусть длина кодового слова (количество признаков) равна А. Длины кодовых слов объекта и классов одинаковы. Признаки могут принимать значения {0,1}. Тогда из этих условий и выражения (40) следует:
0 ≤ Hj ≤ A | (5.11) |
Но это и есть определение шкалы отношений, что означает полную сопоставимость меры сходства для упрощенной информационной модели одного объекта и многих классов.
В полной информационной модели мера сходства объекта с классом имеет вид, определяемый выражением (39).
Очевидно, величина Ij нормирована:
0 ≤ Ij ≤ 1 | (5.12) |
что и доказывает применимость шкалы отношений и полную сопоставимость меры сходства для полной информационной модели одного объекта и многих классов.
Это значит, что можно сравнивать меры сходства данного объекта с каждым из классов и ранжировать классы в порядке убывания сходства с данным объектом.
Очевидно, величина Ij, рассчитанная по формуле (39) для различных объектов и классов нормирована:
0 ≤ Ij ≤ 1 | (5.13) |
что и доказывает применимость шкалы отношений и полную сопоставимость мер сходства для полной информационной модели многих объектов и многих классов.
Это значит, что можно сравнивать меры сходства различных объектов с классами распознавания и делать выводы о том, что одни объекты распознаются лучше, а другие хуже на данном наборе классов и признаков.
Аналогичные рассуждения верны и для сравнения профилей классов друг с другом, а также профилей признаков друг с другом, что позволяет применить модели кластерно-конструктивного анализа и алгоритмы построения семантических сетей.
Рассмотрим информационные модели распознаваемого объекта и классов распознавания, т.е. модели, основанные на теории кодирования — декодирования. Эта модель является упрощенной, но достаточно адекватной для решения вопроса об аддитивности меры сходства объектов и классов.
Информационная модель распознаваемого объекта представляет собой двоичное слово, каждый разряд которого соответствует определенному признаку. Если признак есть у распознаваемого объекта, то соответствующий разряд имеет значение 1, если нет — то 0. Двоичное слово с установленными в 1 разрядами, соответствующими признакам распознаваемого объекта, называется его кодовым словом.
Упрощенная информационная модель класса распознавания есть двоичное слово, каждый разряд которого соответствует определенному признаку. Соответствие между двоичными разрядами и признаками для классов то же самое, что и для распознаваемых объектов. Если признак есть у класса, то соответствующий разряд имеет значение 1, если нет — то 0. Двоичное слово с установленными в 1 разрядами, соответствующими признакам класса, называется его кодовым словом.
Такая модель класса является упрощенной, так как в ней принято, что все признаки имеют одинаковый вес равный 1, если он есть у класса, и 0, если его нет, тогда как в полной информационной модели класса для каждого признака известно, какое количество информации о принадлежности к данному классу он содержит. Это количество информации может быть положительным, нулевым и отрицательным, но не может превосходить некоторой максимальной величины, определяемой количеством классов распознавания: I=Log2(N) (мера Хартли), где N — количество классов.
Таким образом, в упрощенной информационной модели различные классы распознавания отличаются друг от друга только наборами признаков, которые им соответствуют.
При использовании этих упрощенных моделей задача распознавания объекта сводится к задаче декодирования, т.е. кодовые слова объектов рассматриваются как искаженные зашумленным каналом связи кодовые слова классов. Распознавание состоит в том, что по кодовому слову объекта определяется наиболее близкое ему в определенном смысле кодовое слово класса. При этом естественной и наиболее простой мерой сходства между распознаваемым объектом и классом является расстояние Хэмминга между их кодовыми словами, т.е. количество разрядов, которыми они отличаются друг от друга.
Рассмотрим теперь вопрос об аддитивности количества информации как частного критерия в интегральном критерии.
Известно [332], что существует всего два варианта формирования интегрального критерия из частных критериев: аддитивный и мультипликативный, поэтому задача сводится к выбору одного из этих вариантов.
Рассмотрим эти варианты. Пусть кодовое слово объекта состоит из N разрядов. Тогда добавление еще одного разряда, отображающего имеющийся (1) или отсутствующий (0) признак, приведет к различным результатам в случаях, когда интегральный критерий есть аддитивная и мультипликативная функция индивидуальных количеств информации в признаках (табл. 5.5).
Дополнительный признак | Аддитивная функция: f(n) = f(n1,n2) = f(n1) + f(n2) |
Мультипликативная функция: f(n) = f(n1,n2) = f(n1)⋅f(n2) |
---|---|---|
Есть (1) | I + 1 = f(n1,1) = f(n1) + f(1) | I⋅1 = f(n1,1) = f(n1)⋅f(1) |
Нет (0) | I + 0 = f(n1,0) = f(n1) + f(0) | I⋅0 = f(n1,0) = f(n1)⋅f(0) |
Таблица 5.5 — Сравнение аддитивного и мультипликативного вариантов суперкритерия
Здесь предполагается, что: I=f(n), f(1)=1, f(0)=0.
Итак, если функция аддитивна — добавление еще одного разряда увеличит количество информации в кодовом слове на 1 бит, если соответствующий признак есть, и не изменит этого количества, если его нет; если же функция мультипликативна, — то это не изменит количества информации в кодовом слове, если соответствующий признак есть, и сделает его равным нулю, если его нет.
Очевидно, мультипликативный вариант интегрального критерия не соответствует классическим представлениям о природе информации, тогда как аддитивный вариант полностью им соответствует: требование аддитивности самой меры информации было впервые обосновано Хартли в 1928 году, подтверждено Шенноном в 1948 году, и в последующем развитии теории информации никогда не подвергалось сомнению.
Естественно считать, что некоторый фактор является тем более ценным, чем больше среднее количество информации, содержащееся в этом факторе о поведении СОУ [15]. Но так как в предложенной модели количество информации может быть и отрицательным (если фактор уменьшает вероятность перехода СОУ в некоторое состояние), то простое среднее арифметическое информативностей может быть близко к нулю. При этом среднее будет равно нулю и в случае, когда все информативности равны нулю, и тогда, когда они будут велики по модулю, но с разными знаками. Следовательно, более адекватной оценкой полезности фактора, по мнению авторов, является среднее модулей или, что наиболее точно, исправленное (несмещенное) среднеквадратичное отклонение информативностей по профилю признака.
Ценность фактора по сути дела определяется его полезностью для различения состояний СОУ, т.е. является его дифференцирующей способностью или селективностью.
Необходимо также отметить, что различные состояния СОУ обладают различной степенью обусловленности, т.е. в различной степени детерминированы факторами: некоторые слабо зависят от учтенных факторов, тогда как другие определяются ими практически однозначно. Количественно детерминируемость состояния СОУ авторами предложено оценивать стандартным отклонением информативностей профиля обобщенного образа данного состояния.
Предложено и реализовано несколько итерационных алгоритмов корректного удаления малозначимых факторов и слабодетерминированных состояний СОУ при заданных граничных условиях [15, 196]. Решение задачи снижения размерности модели СОУ при заданных граничных условиях позволяет снизить эксплуатационные затраты и повысить эффективность адаптивной АСУ СС.
Факторы могут сравниваться друг с другом по тому влиянию, которое они оказывают на поведение СОУ. Сами состояния могут сравниваться друг с другом по тем факторам, которые способствуют или препятствуют переходу СОУ в эти состояния. Это сравнение может содержать лишь результат, т.е. различные степени сходства/различия (в кластерном анализе), или содержать также причины этого сходства/различия (в когнитивных диаграммах).
Эти задачи играют важную роль в теории и практике адаптивных АСУ СС при необходимости замены одних управляющих воздействий другими, но аналогичными по эффекту, а также при изучении вопросов устойчивости управления (различимости состояний СОУ по детерминирующим их факторам).
Этот анализ проводится над классами распознавания и над признаками. Он включает:
Предложенная математическая модель позволяет сформировать информационные портреты обобщенных эталонных образов классов распознавания и признаков.
Портреты классов распознавания представляют собой списки признаков в порядке убывания содержащегося в них количества информации о принадлежности к этим классам.
Информационный портрет класса распознавания показывает нам, каков информационный вклад каждого признака в общий объем информации, содержащейся в обобщенном образе этого класса.
В подходе к решению задач адаптивных АСУ СС, основанном на применении методов распознавания образов, развиваемом авторами в данной работе, классам распознавания соответствуют, во-первых, исходные, а во-вторых, результирующие, в том числе целевые состояния объекта управления. Это значит, что в первом случае портреты классов используются для идентификации исходного состояния СОУ, потому что именно с ними сравнивается состояние объекта управления, а во втором — для выработки управляющего воздействия, так как его выбирают в форме суперпозиции неальтернативных факторов из информационного портрета целевого состояния, оказывающих наибольшее влияние на перевод СОУ в это состояние.
Портреты признаков представляют собой списки классов распознавания в порядке убывания количества информации о них, которое содержит данный признак. По своей сути информационный портрет признака раскрывает нам смысл данного признака, т.е. его семантическую нагрузку. В теории и практике адаптивных АСУ СС информационный портрет фактора является развернутой количественной характеристикой, содержащей информацию о силе его влияния на перевод СОУ в каждое из возможных результирующих состояний, в том числе в целевые.
Информационные портреты классов и признаков допускают наглядную графическую интерпретацию в виде 2d и 3d диаграмм.
Кластеры представляют собой такие группы классов распознавания (или признаков), внутри которых эти классы наиболее схожи друг с другом, а между которыми наиболее различны [70, 177, 218].
В теории адаптивных АСУ СС, развиваемой в предлагаемой работе, классами распознавания являются как исходные, так и результирующие, в том числе целевые состояния объекта управления, а признаками — факторы, влияющие на переход СОУ в результирующие состояния.
Исходные состояния СОУ, объединенные в кластер, характеризуются общими или сходными методами перевода в целевые состояния.
Результирующие состояния СОУ, объединенные в кластер, являются слаборазличимыми по факторам, детерминирующим перевод СОУ в эти состояния. Это означает, что одно и то же управляющее воздействие при одних и тех же предпосылках (исходном состоянии и предыстории объекта управления и среды) могут привести к переводу СОУ в одно из результирующих состояний, относящихся к одному кластеру. Поэтому кластерный анализ результирующих состояний СОУ является инструментом, позволяющим изучать вопросы устойчивости управления сложными объектами.
При выборе управляющего воздействия как суперпозиции неальтернативных факторов часто возникает вопрос о замене одних управляющих факторов другими, имеющими сходное влияние на перевод СОУ из данного текущего состояния в заданное целевое состояние. Кластерный анализ факторов как раз и позволяет решить эту задачу: при невозможности применить некоторый управляющий фактор его можно заменить другим фактором из того же кластера.
При формировании кластеров используются матрицы сходства объектов и признаков, формируемые на основе матрицы информативностей.
В соответствии с предлагаемой математической моделью могут быть сформированы кластеры для заданного диапазона кодов классов распознавания (признаков) или заданных диапазонов уровней системной организации с различными критериями включения объекта (признака) в кластер.
Эти критерии могут быть сформированы автоматически либо заданы непосредственно. В последнем уровне кластеризации, в частности при задании одного уровня, в кластеры включаются не только похожие, но и все непохожие объекты (признаки), и, таким образом, формируются конструкты классов распознавания и признаков.
В предлагаемой работе под конструктом авторы понимают систему противоположных (наиболее сильно отличающихся) кластеров, которые называются «полюсами» конструкта, а также спектр промежуточных кластеров, к которым применима количественная шкала измерения степени их сходства или различия.
Понятия «кластер» и «конструкт» тесно взаимосвязаны:
В теории адаптивных АСУ СС, развиваемой авторами в данной работе, конструктивный анализ позволяет решить такие задачи, как:
Современный интеллект имеет дуальную структуру и, по сути дела, мыслит в системе кластеров и конструктов [177, 196, 341, 367]. Поэтому инструмент автоматизированного кластерно-конструктивного анализа может быть успешно применен для интеллектуального управления сложными системами.
Необходимо отметить, что формирование кластеров затруднено из-за проблемы комбинаторного взрыва, так как требует полного перебора и проверки «из n по m», т.е. Cnm = n!/(m!⋅(n - m!)) сочетаний элементов (классов или признаков) в кластеры. Конструкты же формируются непосредственно из матрицы сходства прямой выборкой и сортировкой, что значительно проще в вычислительном отношении, так как конструктов значительно меньше, чем кластеров (всего n2). Поэтому учитывая, что при формировании конструктов само собой автоматически формируются и их полюса, т.е. кластеры, авторы реализовали в предложенной математической модели не кластерный анализ, а сразу конструктивный (как более простой в вычислительном отношении и более ценный по получаемым результатам) [196, 326, 327].
Диаграммы смыслового сходства-различия классов (признаков) соответствуют определению семантических сетей [263], т.е. представляют собой ориентированные графы, в которых признаки соединены линиями, соответствующими их смысловому сходству-различию.
В предложенной в настоящем исследовании математической модели в обобщенной постановке реализована возможность содержательного сравнения обобщенных образов классов распознавания и признаков, т.е. построения когнитивных диаграмм [196, 326, 327].
В информационных портретах классов распознавания мы видим, какое количество информации о принадлежности (или не принадлежности) к данному классу мы получаем, обнаружив у некоторого объекта признаки, содержащиеся в информационном портрете. В кластерно-конструктивном анализе мы получаем результаты сравнения классов распознавания друг с другом, т.е. мы видим, насколько они сходны и насколько отличаются.
Но мы не видим, какими признаками они похожи и какими отличаются, и какой вклад каждый признак вносит в сходство или различие некоторых двух классов.
Эту информацию мы могли бы получить, если бы проанализировали и сравнили два информационных портрета. Эту работу и осуществляет режим содержательного сравнения классов распознавания.
Аналогично, в информационных портретах признаков мы видим, какое количество информации о принадлежности (или не принадлежности) к различным классам распознавания мы получаем, обнаружив у некоторого объекта данный признак. В кластерно-конструктивном анализе мы получаем результаты сравнения признаков друг с другом, т.е. мы видим, насколько они сходны и насколько отличаются.
Но мы не видим, какими классами они похожи и какими отличаются, и какой вклад каждый класс вносит в смысловое сходство или различие некоторых двух признаков.
Эту информацию мы могли бы получить, если бы проанализировали и сравнили информационные портреты двух признаков. Эту работу и осуществляет режим содержательного (смыслового) сравнения признаков.
Обобщим математическую модель, предложенную и развиваемую в данной главе, на случай содержательного сравнения двух классов распознавания: J-го и L-го.
Признаки, которые есть по крайней мере в одном из классов, будем называть связями, так как благодаря тому, что они либо тождественны друг другу, либо между ними имеется определенное сходство или различие по смыслу, они вносят определенный вклад в отношения сходства/различия между классами.
Список выявленных связей сортируется в порядке убывания модуля силы связи, причем учитывается не более заданного количества связей.
Пусть, например:
Используем те же обозначения, что и в разделе 5.2.
На основе обучающей выборки системой рассчитывается матрица абсолютных частот встреч признаков по классам (табл. 5.6).
Признаки | Классы | Сумма | ||||
---|---|---|---|---|---|---|
... | j | ... | l | ... | ||
... | ||||||
i | Nij | Nil | Ni | |||
... | ||||||
k | Nkj | Nkl | Nk | |||
... | ||||||
Сумма | Nj | Nl | N |
Таблица 5.6 — Матрица абсолютных частот
В разделе 5.3 получено выражение (4) для расчета количества информации в i-м признаке о принадлежности некоторого конкретного объекта к j-му классу (плотность информации), которое имеет вид
Iij = K⋅Log2((Nij⋅N)/(Ni⋅Nj)) | (5.14) |
Аналогично, формула для количества информации в k-м признаке о принадлежности к L-му классу имеет вид
Ikl = K⋅Log2((Nkl⋅N)/(Nk⋅Nl)) | (5.15) |
Вклад некоторого признака i в сходство/различие двух классов j и l равен соответствующему слагаемому корреляции образов этих классов, т.е. просто произведению информативностей
Rjl = (Iij - Ij)⋅(Iil - Il) | (5.16) |
Классический коэффициент корреляции Пирсона, количественно определяющий степень сходства профилей двух классов: j и l, на основе учета вклада каждой связи, образованной i-м признаком, рассчитывается по формуле
Kjl = ∑(Iij - Ij)⋅(Iil - Il)/(A⋅Sj⋅Sl) | (5.17) |
где
Ij = ∑Iij/A — средняя информативность признаков j-го класса;
Il = ∑Iil/A — средняя информативность признаков L-го класса;
Sj = √[∑(Iij - Ij)2/(A - 1)] — среднеквадратичное отклонение информативностей признаков j-го класса;
Sl = √[∑(Iil - Il)2/(A - 1)] — среднеквадратичное отклонение информативностей признаков L-го класса.
Проанализируем, насколько классический коэффициент корреляции Пирсона (17) пригоден для решения важных задач:
Упростим анализ, считая, что средние информативности признаков по обоим классам близки к нулю, что при достаточно больших выборках (более 400 примеров в обучающей выборке) практически близко к истине.
Каждое слагаемое (16) суммы (17) отражает связь между классами, образованную одним i-м признаком. I-я связь существует в том и только в том случае, если i-й признак есть у обоих классов. Поэтому эти связи уместно называть одно-однозначными. Но это означает, что данный подход не позволяет сравнивать классы, описанные различными, т.е. непересекающимися наборами признаков. Но даже если общие признаки и есть, то невозможность учета вклада остальных признаков, по мнению авторов, является недостатком классического подхода [9, 15], так как из содержательного анализа связей неконтролируемо исключается потенциально существенная информация. Таким образом, классический подход имеет ограниченную применимость при решении задачи N1. Для решения задачи N2 подход, основанный на формуле (17), вообще не применим, так как различные уровни системной организации классов образованы различными признаками и, следовательно, между уровнями не будет ни одной одно-однозначной связи.
Основываясь на этих соображениях, авторы предлагают в общем случае учитывать вклад в сходство/различие двух классов, который вносят не только общие, но и остальные признаки. Логично предположить, что этот вклад (при прочих равных условиях) будет тем меньше, чем меньше корреляция между этими признаками. Следовательно, для обобщения выражения для силы связи (16) необходимо умножить произведение информативностей признаков на коэффициент корреляции между ними, отражающий степень сходства или различия признаков по смыслу.
Таким образом, будем считать, что любые два признака (i,k) вносят определенный вклад в сходство/различие двух классов (j,l), определяемый сходством/различием признаков и количеством информации о принадлежности к этим классам, которое содержится в данных признаках:
Rjl = Kik⋅(Iij - Ij)⋅(Iil - Il) | (5.18) |
где Kik — классический коэффициент корреляции Пирсона, количественно определяющий степень сходства по смыслу двух признаков: i и k, на основе учета вклада каждой связи, образованной содержащейся в них информацией о принадлежности к j-му классу
Kik = ∑(Iij - Ii)⋅(Ikj - Ik)/W⋅Si⋅Sk | (5.19) |
где
Ii = ∑Iij/W — средняя информативность профиля i-го признака;
Ik = ∑Ikj/W — средняя информативность профиля k-го признака;
Si = √[∑(Iij - Ii)2/(W - 1)] — среднеквадратичное отклонение информативностей профиля i-го признака;
Si = √[∑(Ikj - Ik)2/(W - 1)] — среднеквадратичное отклонение информативностей профиля k-го признака.
Коэффициент корреляции между признаками (19) рассчитывается на основе всей обучающей выборки, а не только объектов двух сравниваемых классов.
Так как коэффициент корреляции между признаками (19) практически всегда не равен нулю, то каждый признак i образует связи со всеми признаками k, где k={1,...,A}, а каждый признак k в свою очередь связан со всеми остальными признаками. Это означает, что выражение (18) является обобщением (16) на случай много-многозначных связей.
На основе этих представлений сформулируем выражение для обобщенного коэффициента корреляции Пирсона (термин авторов) между двумя классами: j и l, учитывающего вклад в их сходство/различие не только одно-однозначных, но и много-многозначных связей, образуемых коррелирующими признаками. Когнитивные диаграммы с много-многозначными связями предлагается называть обобщенными когнитивными диаграммами.
Ljl = ∑(Iij - Ii)⋅(Ikl - Il)/A⋅Sj⋅Sl | (5.20) |
Сравним классический (17) и обобщенный (20) коэффициенты корреляции Пирсона друг с другом.
Очевидно, при i=k (20) преобразуется в (17), т.е. соблюдается принцип соответствия. Отметим, что модель позволяет задавать минимальный коэффициент корреляции (порог) между признаками, образующими учитываемые связи. При пороге 100% отображаются только одно —однозначные связи, учитываемые в классическом коэффициенте корреляции (17).
Из выражений (17) и (20) видно, что
Ljl ≥ Kjl | (5.21) |
так как в обобщенном коэффициенте корреляции учитываются связи между классами, образованные за счет учета корреляций между различными признаками. Ясно, что отношение
Ljl/Kjl ≥ 1 | (5.22) |
отражает степень избыточности описания классов. В модели имеется возможность исключения из системы признаков наименее ценных из них для идентификации классов. При этом в первую очередь удаляются сильно коррелирующие друг с другом признаки. В результате степень избыточности системы признаков уменьшается, и она становится ближе к ортонормированной [15].
Рассмотрим вопрос о единицах измерения, в которых количественно выражаются связи между классами.
Сходство двух признаков Kik выражается величиной от -1 до +1.
Максимальная теоретически возможная информативность признака в Bit выражается формулой
Imax = Log2(Nobj) | (5.23) |
где Nobj — количество классов.
Таким образом, максимальная теоретически возможная сила связи Rmax равна
Rmax = Imax2 | (5.24) |
Сила связи в диаграммах выражается в процентах от максимальной теоретически возможной силы связи.
На графической диаграмме отображается 8 наиболее сильных по модулю связей, рассчитанных согласно формуле (20), причем знак связи изображается цветом (красный +, синий - ), а величина — толщиной линии. Имеется возможность выводить диаграммы только с положительными или только с отрицательными связями (для не цветных принтеров).
Диаграммы Мерлина [190, 220] представляют собой частный случай обобщенных когнитивных диаграмм (т.е. с много-многозначными связями), т.е. диаграммы Мерлина — это когнитивные диаграммы, формируемые в соответствии с предложенной моделью при следующих граничных условиях:
Диалог задания вида диаграмм предоставляет пользователю возможность задать следующие параметры:
В предлагаемой математической модели в общем виде реализована возможность содержательного сравнения обобщенных образов состояний СОУ и факторов, т.е. построения когнитивных диаграмм [190, 196, 341].
В информационном портрете состояния СОУ показано, какое количество информации о принадлежности (не принадлежности) СОУ к данному состоянию, а также о переходе (не переходе) СОУ в данное состояние содержится в том факте, что на СОУ действуют факторы, содержащиеся в данном информационном портрете.
Кластерно-конструктивный анализ дает результат сравнения состояний СОУ друг с другом, т.е. показывает, насколько эти состояния сходны друг с другом и насколько отличаются друг от друга. Но он не показывает, какими факторами эти состояния СОУ похожи и какими отличаются, и какой вклад каждый фактор вносит в сходство или различие каждых двух состояний. Чтобы получить эту информацию, необходимо проанализировать два информационных портрета, что и делается при содержательном сравнении состояний СОУ .
Смысл и значение диаграмм Мерлина применительно к проблематике АСУ состоит в том, что они наглядно представляют внутреннюю структуру детерминации состояний СОУ, т.е. показывают, каким образом связаны друг с другом предпосылки (факторы среды, прошлые состояния СОУ, исходное состояние СОУ) и управляющие воздействия, по тому влиянию, которое они оказывают на переход СОУ в заданное состояние.
Таким образом:
Предложенная методология, основанная на теории информации, обеспечивает эффективное моделирование задач принятия решений в адаптивных АСУ сложными системами.
Предложенная математическая модель позволяет осуществить содержательное сравнение информационных портретов двух признаков.
Выявляются классы, которые есть по крайней мере в одном из профилей. Такие классы называются связями, так как благодаря тому, что они либо тождественны друг другу, либо между ними имеется определенное сходство или различие, они вносят определенный вклад в отношения сходства/различия между признаками по смыслу.
Все связи между признаками сортируются в порядке убывания модуля, в соответствии с определенными ограничениями, связанными с тем, что нет необходимости учитывать очень слабые связи.
Для каждого класса известно, какое количество информации о принадлежности к нему содержит данный признак — это информативность. Здесь необходимо уточнить, что информативность признака — это не только количество информации в признаке о принадлежности к данному классу, но и количество информации в классе о том, что при нем наблюдается данный признак, т.е. это взаимная информация класса и признака.
Если бы классы были тождественны друг другу, т.е. это был бы один класс, то его вклад в сходство/различие двух признаков был бы просто равен соответствующему данному классу слагаемому корреляции этих признаков, т.е. просто произведению информативностей.
Но поскольку это в общем случае это могут быть различные классы, то, очевидно, необходимо умножить произведение информативностей на коэффициент корреляции между классами.
Таким образом, будем считать, что любые два класса (j,l) вносят определенный вклад в сходство/различие двух признаков (i,k), определяемый сходством/различием этих классов и количеством информации о принадлежности к ним, которое содержится в данных признаках
Lik = ∑∑Kjl⋅(Iij - Ii)⋅(Ikl - Ik)/W⋅Si⋅Sk | (5.25) |
Вывод формулы (25) обобщенного коэффициента корреляции Пирсона для двух признаков совершенно аналогичен выводу формулы (20), поэтому он здесь не приводится. Формулы для всех входящих в (25) величин приведены выше в предыдущем разделе.
Так же, как и в режиме содержательного сравнения классов, в данном режиме сила связи выражается в процентах от максимальной теоретически —возможной силы связи. На диаграмме (см. рис. 8.6 и 8.7) отображается 16 наиболее значимых связей, рассчитанных согласно этой формуле, причем знак связи изображается цветом (красный +, синий -), а величина — толщиной линии. Имеется возможность вывода диаграмм только с положительными или только с отрицательными связями.
Математическая модель позволяет получить обобщенные инвертированные когнитивные диаграммы для любых двух заданных признаков, для пар наиболее похожих и непохожих признаков, для всех их возможных сочетаний, а также инвертированные диаграммы Мерлина.
Необходимо отметить, что понятия «обобщенная инвертированная когнитивная диаграмма» и «инвертированная диаграмма Мерлина» не упоминаются даже в фундаментальных руководствах по когнитивной психологии [394] и впервые предложены авторами в данной работе.
Эти диаграммы представляют собой частный случай обобщенных когнитивных диаграмм признаков, формируемых в соответствии с предложенной математической моделью при следующих ограничениях:
↑ | Оглавление | ||
← | Глава 5, решение задачи 2, «Адаптация и конкретизация абстрактной модели объекта управления» | Глава 5, «Обобщение интегральной модели путем учета значений выходных параметров объекта управления» | → |
© Виктор Сафронов, 2006–2017
Пользовательское соглашение | RSS | Поддержать проект | Благодарности