Journal influence
Bookmark
Next issue
Abstract:
Аннотация:
| Authors: () - , Uskov A.A. (prof.uskov@gmail.com) - Russian Federationn University of Cooperation, Mytishchi, Russia, Ph.D | |
| Ключевое слово: |
|
| Page views: 20582 |
Print version Full issue in PDF (2.31Mb) |
Гибридный нейросетевой алгоритм построения аппроксимационных моделей сложных систем
The article was published in issue no. № 3, 2007.
Как известно, выделяют два основных вида аппроксимационных моделей: параметрические и непараметрические (локально-параметрические). При параметрическом подходе вначале выбирается аппроксимирующая зависимость, известная с точностью до параметров, затем на основе обучающей выборки производится адаптация ее параметров (обучение). К параметрическим методам моделирования относятся: полиномиальные нейронные сети (Σ-Π нейронные сети), многослойные персептроны и др. При непараметрическом подходе вначале так же выбирается тип аппроксимирующей зависимости, но в данном случае по экспериментальным данным строится большое количество указанных зависимостей, каждая из которых действует в некоторой локальной области входных факторов и имеет свои параметры. К непараметрическим методам моделирования относятся: метод М-ближайших узлов, нейронные сети с радиальными базисными элементами и др. В статье предложена гибридная полиномиально-радиальнобазисная нейронная сеть, позволяющая в ряде случаев совместить достоинства параметрического (малая чувствительность к шуму) и непараметрического (отсутствие необходимости подбирать глобальную модель) подходов. Предположим, что исследуемый статический объект имеет n входов (векторный вход
где Функция
где
где Для функций
где
Предположим далее, что на объекте реализован эксперимент, заключающийся в регистрации N пар значений:
При этом В работах академика А.Г. Ивахненко сформулирован принцип адекватности, согласно которому объект и его система моделирования или управления для наиболее оптимального решения задачи должны обладать рядом общих черт. В соответствии с принципом адекватности для решения рассматриваемой задачи предложена гибридная полиномиально-радиальнобазисная искусственная нейронная сеть (HPRBFN, от Hybrid Polynomial Radial Basis Function Network), структурно состоящая из радиально-базисной части (РБЧ), полиномиальной части (ПЧ) и блока взвешенного суммирования. Предложенная искусственная нейронная сеть реализует следующую нелинейную зависимость:
где
Структура нейронной сети определяется числом радиальных нейронов M, числом пи-нейронов L и их параметрами Алгоритм обучения HPRBFN на основе выборки (5) состоит в последовательной реализации трех этапов: 1) обучение РБЧ (параметры Вычислительные эксперименты показали, что если исследуемая зависимость адекватно описывается соотношениями (1) и (2), предложенная гибридная полиномиально-радиальнобазисная нейронная сеть обеспечивает лучшую по точности аппроксимацию по сравнению с другими известными методами. |
| Permanent link: http://www.swsys.ru/index.php?page=article&id=346&lang=&lang=en |
Print version Full issue in PDF (2.31Mb) |
| The article was published in issue no. № 3, 2007 |
The article was published in issue no. № 3, 2007.
Perhaps, you might be interested in the following articles of similar topics:Perhaps, you might be interested in the following articles of similar topics:
- Методы планирования выполнения задач в системах реального времени
- Основные подходы к построению моделей сложных систем
- Программное обеспечение интеллектуально-механических мобильных роботов
- Программные средства автоматизации приборостроительного производства изделий радиоэлектронной аппаратуры
- Автоматизированная информационная поддержка метрологического обеспечения кораблей
Back to the list of articles
) и один выход y. Связь между
и y в n-мерной области
может быть адекватно представлена моделью:
, (1)
– функция неизвестного вида;
– аддитивная случайная помеха (отражает действие неучитываемых факторов) с нулевым математическим ожиданием и неизвестным распределением на
.
, (2)
– полиномиальная функция:
, (3)
– постоянные параметры;
– целый положительный параметр;
– целые неотрицательные параметры;
– нелинейная функция общего вида.
, (4)
– функционал, возвращающий среднеквадратичное значение функции-аргумента в области
, 
.
. (5)
; значения
, (6)
, u – весовые коэффициенты;
,
– функции, реализуемые радиальными нейронами и ПЧ сети соответственно:
, (7)
, (8)
– евклидова векторная норма;
,
,
– постоянные параметры;
– целые неотрицательные параметры.
); 2) обучение ПЧ сети (параметры
); 3) оптимальная настройка параметра u, определяющего соотношение между влиянием РБЧ и ПЧ на выход сети, по критерию наименьшей погрешности аппроксимации.