На правах рекламы:
ISSN 0236-235X (P)
ISSN 2311-2735 (E)

Авторитетность издания

ВАК - К1
RSCI, ядро РИНЦ

Добавить в закладки

Следующий номер на сайте

2
Ожидается:
16 Июня 2024

Об одной модели корректировки имеющихся знаний на основе принимаемых решений

Статья опубликована в выпуске журнала № 4 за 2007 год.
Аннотация:
Abstract:
Авторы: Сикулер Д.В. (v_v_fomin@mail.ru) - Российский государственный педагогический университет им. А.И. Герцена, г. Санкт-Петербург, кандидат технических наук
Количество просмотров: 9611
Версия для печати
Выпуск в формате PDF (2.00Мб)

Размер шрифта:       Шрифт:

Данная статья посвящена актуальнейшей проблеме, возникающей при изучении и моделировании интеллектуальной деятельности, – проблеме учета принимаемых решений и корректировки на их основе имеющихся знаний с целью повышения эффективности работы интеллектуальной системы. Частично решить указанную проблему в контексте одной из ключевых задач искусственного интеллекта позволит задача распознавания.

Рассмотрим задачу распознавания группы объектов, то есть случай, когда множество распознаваемых объектов U состоит более чем из одного элемента: U={u1,…,uqu}, qu>1. Пусть эта задача решается с помощью некоторого метода распознавания M. Тогда можно предложить следующую процедуру модификации решающего правила. После распознавания каждого объекта  будем добавлять его, при условии что объект классифицирован с некоторой заданной степенью уверенности в правильности полученного результата, к обучающей выборке T и выполнять заново процедуру обучения, если таковая предусматривается алгоритмом метода. Таким образом, каждый распознанный объект, так или иначе, может изменять решающее правило. Формально это означает, что вместо одного решающего правила am(s) теперь будет использоваться последовательность решающих функций , где  – решающая функция, используемая для распознавания i-го объекта группы и полученная на обучающей выборке T(i)=TÈ{u1,…, uj}, j£(i–1), T(1)=T, uk,  – уже распознанные объекты, степень доверия к полученному результату для которых не меньше заданного порога. Эти правила неравноценны с точки зрения качества (точности) обучающих выборок, на основании которых они получены. Данное обстоятельство связано с тем, что объект может быть распознан неправильно, то есть может быть приписан к классу, к которому в действительности не относится. Наличие такого объекта в обучающей выборке, в свою очередь, может привести к новым ошибкам классификации. Поэтому точность каждого последующего решающего правила потенциально будет уменьшаться. Для того чтобы избежать ухудшения распознающей способности решающих функций, необходимо при построении решающего правила учитывать качество имеющейся на данный момент в распоряжении обучающей выборки. Для этого введем коэффициент доверия d объекту обучающей выборки, который для распознанного объекта будет характеризовать степень доверия к полученному результату. Значения коэффициента доверия на обучающей и распознаваемой выборках определим следующим образом: "tÎT d(t)=1, "uÎU d(u)£1.

Обозначим через dmin минимально допустимую величину коэффициента доверия, то есть порог, на основании которого распознаваемые объекты добавляются в обучающую выборку. Тогда процесс дополнения обучающей выборки представим следующим образом:

Далее введем в рассмотрение вектор доверия d (i): d (i)=d(T (i))=(d(t1),…,d(tn)), tjÎT (i), n£(qt+i–1), , отражающий качество всей доступной на данный момент обучающей выборки. Будем учитывать значение вектора доверия при построении решающей функции, то есть будем искать ее в следующей форме:  Тогда можно предположить, что при соответствующем выборе выражения для вычисления коэффициентов доверия, величины dmin, а также зависимости между решающей функцией и вектором доверия в ряде случаев будет наблюдаться улучшение качества распознавания, то есть уменьшение числа ошибок классификации по сравнению с немодифицированным методом распознавания. Эта гипотеза была проверена на моделях тестовых задач распознавания для ряда методов. Эксперименты показали, что в большинстве случаев метод, наделенный процедурой последовательной модификации решающего правила, дает результаты распознавания не хуже, чем соответствующий метод без процедуры модификации, а в некоторых случаях классифицирует неизвестные объекты даже лучше. Отметим, что потенциально процедура последовательной модификации решающего правила может быть использована для любого метода распознавания, в том числе и для коллективного, но с практической точки зрения ее имеет смысл применять лишь для тех методов, у которых процесс обучения не является слишком ресурсоемким по времени, объемам вычислений или другим затратам. К таким, в частности, могут быть отнесены:

·     байесовский классификатор для нормального распределения классов;

·     метод k ближайших соседей;

·     метод эталонов;

·     метод вычисления оценок.

Рассмотрим, каким образом будут выглядеть модели решающих правил для перечисленных методов с учетом предложенной процедуры модификации. Предварительно введем необходимые обозначения: Ci – множество объектов, относящихся к i-му классу, ; qc – количество классов; s – распознаваемый объект; x(s) – вектор признаков/параметров, характеризующий распознаваемый объект. Функция class, используемая при описании решающих правил, определяется следующим образом:

Модифицированный байесовский классификатор для нормального распределения классов. Зададим зависимость решающего правила от вектора доверия: введем корректирующий коэффициент bi для решающей функции каждого класса, то есть приведем решающую функцию к следующему виду (здесь и далее для простоты записи

):

где ; mi – вектор средних значений; Ki – ковариационная матрица класса, вычисленные на части обучающей выборки, соответствующей i-му классу.

Коэффициент доверия для распознанного объекта u вычислим на основании решающих функций классов от этого объекта по следующему выражению:

Модифицированный метод k ближайших соседей. Для учета качества обучающей выборки будем вычислять решающую функцию класса ai(s) на основе коэффициентов доверия объектов этого класса, то есть приведем решающую функцию к следующей форме:

где ni – мощность множества Di объектов, относящихся к i-му классу, из множества Tk k ближайших в заданной метрике к распознаваемому объекту s элементов обучающей выборки T; r(s,t) – расстояние между объектами s и t в заданной метрике. В качестве величины коэффициента доверия распознанного объекта u используем значение максимальной из решающих функций классов, то есть

Модифицированный метод эталонов. Для решающего правила метода эталонов ввиду его специфики не требуется вводить зависимость от вектора доверия. Фактически в рассматриваемом случае эта зависимость заключается в функции отбора объектов, формирующих обучающую выборку, поскольку для распознавания используются только те объекты обучающей выборки, коэффициент доверия для которых не меньше заданного порога dmin. Решающая функция имеет ту же форму, что и для немодифицированного метода, а именно:

где sij(s) – характеристическая функция, определяющая степень принадлежности и близости распознаваемого объекта s к j-му эталону i-го класса; tij – объект обучающей выборки, относящийся к i-му классу и являющийся центром j-го эталона этого класса; rij – радиус j-го эталона i-го класса, представляющий собой половину расстояния в заданной метрике до ближайшей точки отличного класса; r(s,t) – расстояние между объектами s и t в заданной метрике. В качестве величины коэффициента доверия распознанного объекта u используем значение максимальной из характеристических функций, то есть

Модифицированный метод вычисления оценок. Для учета зависимости решающего правила от вектора доверия будем вычислять функцию близости fj(t,s) между распознаваемым объектом s и элементом обучающей выборки t на основе коэффициента доверия для последнего. В этом случае решающая функция примет следующий вид:

где eij(s) – оценка распознаваемого объекта s для i-го класса по j-му опорному множеству; Mj – j-е опорное множество, включающее подмножество исходного множества признаков, по которому вычисляется степень похожести распознаваемого объекта и элемента обучающей выборки; Tij – множество объектов обучающей выборки, соответствующих i-му классу, к которым оказался близок по j-му опорному множеству распознаваемый объект; fj(t,s) – функция близости между объектами t и s, вычисляемая по j-му опорному множеству; ek – порог близости для признака xk. Коэффициент доверия для распознанного объекта u вычислим на основании решающих функций классов от этого объекта по следующей формуле:

Таким образом, рассмотренная модель может быть использована для адаптации и повышения эффективности применения существующих методов распознавания, предоставляя один из возможных путей расширения базы имеющихся знаний интеллектуальной системы. Особенностью модели является то, что она может использоваться с различными методами без существенного изменения алгоритмов, лежащих в их основе.


Постоянный адрес статьи:
http://swsys.ru/index.php?page=article&id=290&lang=
Версия для печати
Выпуск в формате PDF (2.00Мб)
Статья опубликована в выпуске журнала № 4 за 2007 год.

Назад, к списку статей