На правах рекламы:
ISSN 0236-235X (P)
ISSN 2311-2735 (E)

Авторитетность издания

ВАК - К1
RSCI, ядро РИНЦ

Добавить в закладки

Следующий номер на сайте

2
Ожидается:
16 Июня 2024

Статьи журнала №1 2021

11. Применение технологии высокоуровневого синтеза и аппаратных ускорителей вычислений на ПЛИС в задачах идентификации белков [№1 за 2021 год]
Авторы: Шмелев Г.К. (shmelevgk@cps.tver.ru) - НИИ «Центрпрограммсистем» (заведующий отделом); Лихачев М.А. (likhachevma@cps.tver.ru) - НИИ «Центрпрограммсистем» (заведующий отделом); Аржаев В.И. (arzhaeVI@cps.tver.ru) - НИИ «Центрпрограммсистем» (зав. отделением), кандидат технических наук;
Аннотация: В работе рассмотрено применение технологии высокоуровневого синтеза с использованием аппаратных ускорителей на базе программируемых логических интегральных схем в задаче идентификации белков. В настоящее время существует значительное количество аппаратных решений с высокой производительностью и пропускной способностью, предназначенных для решения различных прикладных задач. Одним из таких решений являются аппаратные ускорители вычислений, построенные на базе программируемых логических интегральных схем, которые обладают рядом преимуществ в сравнении с ускорителями, построенными на графических процессорах, а также на интегральных схемах специального назначения. Однако существует определенная сложность, препятствующая широкому применению подобных устройств, которая заключается в трудоемкости и специфичности традиционного пути разработки приложений с применением специализированных языков программирования под этот тип ускорителей. Использование технологии высокоуровневого синтеза с применением одного из популярных языков программирования открывает новые горизонты для широкого применения подобного рода ускорителей. В данной работе описывается один из вариантов построения вычислительной аппаратно-программной платформы с применением ускорителя вычислений на программируемой логике. Особое внимание уделяется основным шагам разработки архитектуры приложений, разворачиваемых на аппаратных средствах, и методологии разработки высокопроизводительного вычислительного ядра аппаратно ускоряемых программных функций. Демонстрируются результаты повышения вычислительной производительности программного приложения de novo секвенирования пептидных последовательностей, а также эффективность применяемой аппаратно-программной платформы и выбранного пути разработки в сравнении с исходным программным приложением.
Abstract: The paper considers the use of high-level synthesis technology using hardware accelerators based on FPGA in the identifying proteins problem. Currently, there are a significant number of hardware solutions with high performance and band-width designed to solve various applications. One such solution is hardware-based computation accel-erators based on field-programmable gate array (FPGA), which have a number of advantages over ac-celerators built on both graphics processing unit (GPU) and application-specific integrated circuit (ASIC). However, there is a certain complexity in the wide application of such devices, which consists in the laboriousness and specificity of the traditional way of developing applications using specialized programming languages for this type of accelerator. Using high-level synthesis technology using one of the popular programming languages opens up new horizons in the wide use of such accelerators. This paper describes one embodiment of a computational hardware and software platform using a hardware accelerator on a FPGA. Special attention is paid to considering the major steps of developing the architecture of applications deployed on hardware and the methodology for developing a high-performance computing core of hardware-accelerated software functions. The results of improving the computational performance of the de novo peptide sequence sequencing software application and the effectiveness of the used hardware platform and the chosen development path in comparison with the original software application are demonstrated.
Ключевые слова: de novo секвенирование, идентификация белков, плис, ускорители вычислений, высокоуровневый синтез
Keywords: de novo sequencing, protein identification, FPGA, hardware acceleration, high-level synthesis
Просмотров: 3115

12. Интеллектуальный подход к автоматизации технологических и производственных процессов [№1 за 2021 год]
Авторы: Рябов С.Ю. (sergey.u.ryabov@gmail.com) - Synchronoss, Inc. (ведущий бизнес-аналитик); Рябов Ю.В. (ryabov_yuri_atp@mail.ru) - Уфимский государственный авиационный технический университет (доцент), кандидат технических наук;
Аннотация: Рассматривается подход к автоматизации производства, в частности, к автоматизированному проектированию технологических процессов. Обработка данных в существующих системах сводится к набору правил, а исполняющая программа в своей реализации напоминает конечный автомат. Очевидно, что такой подход имеет свой потолок. Предлагается представлять производственный процесс как нечто целое, описываемое интеллектуальной моделью. Принятая модель автоматизации технологических и производственных процессов базируется на теории графов и графовом представлении данных и знаний. Граф рассматривается как некоторая функция времени и вычислений. Предлагается использование суперграфа как набора абстрактных и определенных заданных узлов и абстрактных и статических отношений. Таким образом, каждый сценарий реального мира, каждая производственная ситуация, рассматриваемая в каком-либо масштабе, будет смоделирована как некий подграф суперграфа. Интеллектуальной платформой для реализации вычислений может быть Akka, представляющая собой реализацию акторной вычислительной модели. Она позволяет осуществлять интеллектуальный подход к решению задачи автоматизации производственных и технологических процессов. Рассмотрен пример построения части суперграфа для механообработки типовым переходом элемента детали с помощью соответствующего инструмента и выбора режима обработки. Итогом работы такой системы будет граф с вершинами и отношениями, описывающими знания технологических операций или состояние производственного процесса. Результат может быть передан иной системе на исполнение, сохранен в БД или использован для анализа ситуации.
Abstract: The paper considers the approach to production automation, in particular, to the automated design of technological processes. Data processing in existing systems is reduced to a set of rules, and the exe-cuting program in its implementation is like a state machine. Obviously, this approach has its own ceil-ing. It is proposed to represent the production process as something whole, described by an intellectual model. The adopted model of automation of technological and production processes is based on graph theory and graph representation of data and knowledge. The graph is considered as some function of time and computation. It is proposed to use a supergraph as a set of abstract and defined given nodes and abstract and static relations. Thus, every script of the physical reality, every manufacturing situa-tion, considered at any scale, will be modeled as a subgraph of a supergraph. Akka, which is an imple-mentation of an actor computational model, can be an intelligent platform for the implementation of computations. It allows for an intelligent approach to solving the problem of automating production and technological processes. An example of constructing a part of a supergraph for machining a part element is considered by a typical transition-side, including the corresponding tool, processing modes, and a measuring tool. The result of such a system will be a graph with vertices and relations describing the knowledge of techno-logical operations or the state of the production process. The result can be transferred to another sys-tem for execution, saved in the database, or used to analyze the situation.
Ключевые слова: производственный процесс, технологический процесс, граф, суперграф, интеллектуальная платформа, статический узел, узел данных, абстрактный узел, вычислитель
Keywords: manufacturing process, technological process, graph, supergraph, intelligent platform, static node, data node, abstract node, calculator
Просмотров: 3211

13. Обработка онтологий при атрибутивном контроле доступа в киберфизических системах [№1 за 2021 год]
Авторы: Полтавцева М.А. (maria.poltavtseva@ibks.icc.spbstu.ru) - Санкт-Петербургский политехнический университет Петра Великого (доцент), кандидат технических наук;
Аннотация: Статья посвящена поддержке обработки крупномасштабных онтологий в реляционном сервере и рассматривает отдельную задачу представления и обработки онтологий при реализации атрибутивного (онтологического) доступа в киберфизических системах. Актуальность работы обусловлена ростом атак на промышленные киберфизические системы и совершенствованием методов контроля доступа. Наиболее перспективным сегодня является направление атрибутивного доступа на базе онтологий. С одной стороны, распределенные крупномасштабные промышленные киберфизические системы используют большое и все возрастающее число правил для атрибутивного контроля доступа, с другой – методы хранения и обработки таких данных с помощью специализированных технологий должны отвечать требованиям по защите информации. Это приводит к необходимости использования развитых (в том числе сертифи-цированных) средств и обусловливает применение реляционного сервера для хранения и обработки данных. Поэтому задача поиска наиболее рационального представления и обработки правил контроля доступа является высокоактуальной. В работе предложен метод представления правил онтологического вывода на основе импликаций бинарных деревьев для обеспечения поддержки онтологий в задаче атрибутивного контроля доступа киберфизических систем. Приведено представление данных, проведен анализ методов отображения информации в промышленный реляционный сервер. Экспериментальное тестирование представления правил онтологического вывода на основе импликаций бинарных деревьев осуществляется на примере поддержки правил контроля доступа. В результате аналитической работы и экспериментального тестирования наиболее рациональным решением для данной задачи представляется использование метода хранения леса деревьев на основе материализованного пути.
Abstract: The paper is devoted to supporting the processing of large-scale ontologies in a relational server and considers a separate problem of representing and processing ontologies when implementing attributive (ontological) access in cyber-physical systems. The relevance of the paper is due to the attack growth on industrial cyber-physical systems and the improvement of access control methods. The most promising direction today is attributive access based on ontologies. On the one hand, distributed large-scale industrial cyber physical systems use a large and increasing number of rules for attributive access control, on the other hand, storage techniques and processing such data using specialized technologies must meet the requirements for information pro-tection. This leads to the necessity of applying advanced (including certified) tools and necessitates the use of a relational server for storing and processing data. Therefore, the searching problem of the most rational representation and processing of access control rules is highly relevant. The paper proposes a method for representing the rules of ontological inference based on the impli-cations of binary trees to support ontologies in the problem of attributive access control of cyber phys-ical systems. There is a data representation, and analysis of methods for displaying information in an industrial relational server. An example of support for access control rules shows experimental testing of the representation of ontological inference rules based on the implications of binary trees. Because of analytical effort and experimental testing, the most rational solution for this problem is to use the storage technique for a forest of trees based on a materialized path.
Ключевые слова: информационная безопасность, киберфизическая система, субд, реляционная модель, правило вывода, крупномасштабная онтология
Keywords: infosecurity, cyber physical system, DBMS, relational model, inference rule, large-scale ontology
Просмотров: 3437

14. Разработка схем онтологий на основе преобразования электронных таблиц [№1 за 2021 год]
Авторы: Дородных Н.О. (tualatin32@mail.ru) - Институт динамики систем и теории управления СО РАН (младший научный сотрудник), кандидат технических наук; Юрин А.Ю. (iskander@irk.ru) - Институт динамики систем и теории управления СО РАН, г. Иркутск (доцент, зав. лабораторией), кандидат технических наук; Видия А.В. (vidiya_av@icc.ru) - Институт динамики систем и теории управления им. В.М. Матросова СО РАН (программист);
Аннотация: Использование онтологий является широко распространенной практикой при создании интеллектуальных систем и баз знаний, в частности, для концептуализации и формализации знаний. Большинство современных подходов и инструментальных средств обеспечивают только ручное манипулирование концептами и отношениями, что не всегда эффективно. В связи с этим для автоматизированного формирования онтологий актуально использование различных информационных источников, в том числе электронных таблиц. В данной работе описывается метод автоматизированного создания онтологических схем в формате OWL2 DL на основе анализа и преобразования данных, извлекаемых из электронных таблиц. Особенностью метода является использование для промежуточного представления электронных таблиц оригинальной канонической реляционной формы, обеспечивающей унификацию входных данных. Метод основан на принципах трансформации моделей и состоит из четырех основных этапов: преобразование исходных электронных таблиц с произвольной компоновкой в каноническую (реляционную) форму; получение фрагментов онтологической схемы; агрегация от-дельных фрагментов онтологической схемы; генерация кода онтологической схемы в формате OWL2 DL. Реализация метода осуществлена в форме двух интегрированных по данным программных средств: консольного Java-приложения TabbyXL для преобразования таблиц и модуля расширения (плагина PKBD.Onto) для системы прототипирования продукционных экспертных систем Personal Knowledge Base Designer. В качестве иллюстративного примера рассмотрено преобразование электронной таблицы с информацией о минералах, приведен результат в форме фрагмента онтологической схемы. Метод и средства используются в учебном процессе в Институте информационных технологий и анализа данных Иркутского национального исследовательского технического университета.
Abstract: Using ontologies is a widespread practice in the in creating intelligent systems and knowledge bases, in particular, for the conceptualization and formalization of knowledge. However, most modern ap-proaches and tools provide only manual manipulation of concepts and relationships, which is not al-ways effective. In this regard, using various information sources, including spreadsheets, is relevant for the automated creation of ontologies. This paper describes a method for the automated creation of ontological schemes in the OWL2 DL format based on the analysis and transformation of data extracted from spreadsheets. A feature of the method is the use of the original canonical relational form for the intermediate representation of spreadsheets, which provides the unification of input data. The method is based on the principles of model transformation and comprises four primary stages: converting the original spreadsheets with an arbitrary layout into a canonical (relational) form; obtaining fragments of the ontological scheme; ag-gregation of separate fragments of the ontological scheme; generation of the code of the ontological scheme in the OWL2 DL format. The method is implemented in the form of two software tools integrat-ed by the data: TabbyXL as the console Java application for table conversion and the PKBD.Onto plugin as the extension module for Personal Knowledge Base Designer (software for expert systems prototyping). The transformation of a spreadsheet with information about minerals is considered as an illustrative example, and the transformation result is presented in the form of a fragment of an ontolog-ical scheme. The method and tools are used in the educational process at the Institute of Information Technologies and Data Analysis of the Irkutsk National Research Technical University (INRTU).
Ключевые слова: генерация кода, трансформация моделей, owl, онтологическая схема, концептуальная модель, каноническая таблица, электронная таблица
Keywords: code generation, transformation of models, owl, ontological schema, conceptual model, canonical spreadsheet, spreadsheet
Просмотров: 3476

15. Семантический анализ научных текстов: опыт создания корпуса и построения языковых моделей [№1 за 2021 год]
Авторы: Бручес Е.П. (bruches@bk.ru) - Новосибирский государственный университет, Институт систем информатики им. А.П. Ершова СО РАН (ассистент, аспирант); Паульс А.Е. (aleksey.pauls@mail.ru) - Новосибирский государственный университет (студент); Батура Т.В. (tatiana.v.batura@gmail.com) - Институт систем информатики им. А.П. Ершова СО РАН (старший научный сотрудник), кандидат физико-математических наук; Исаченко В.В. (vv.isachenko@gmail.com) - Институт систем информатики им. А.П. Ершова СО РАН (аспирант); Щербатов Д.Р. (d.shsherbatov@g.nsu.ru) - Новосибирский государственный университет (студент);
Аннотация: Данная статья посвящена исследованию методов автоматического обнаружения сущностей (NER) и классификации семантических отношений (RC) в научных текстах из области информационных технологий. Научные публикации содержат ценную информацию о передовых научных достижениях, однако эффективная обработка непрерывно увеличивающихся объемов данных яв-ляется трудоемкой задачей. Требуется постоянное совершенствование автоматических методов обработки такой информации. Современные методы, как правило, довольно хорошо решают обозначенные задачи с помощью глубокого машинного обучения, но, чтобы добиться хорошего качества на данных из конкретных областей знаний, необходимо дообучать полученные модели на специально подготовленных корпусах. Подобные коллекции научных текстов существуют для английского языка и активно используются научным сообществом, однако в настоящее время на русском языке такие корпусы в открытом доступе не представлены. Статья содержит описание созданного корпуса текстов на русском языке. Корпус RuSERRC состоит из 1 600 неразмеченных документов и 80 размеченных сущностями и семантическими отношениями (рассмотрены 6 типов). В работе также предложены несколько модификаций методов для построения моделей, работающих с русским языком. Это особенно актуально, так как большая часть существующих исследований ориентирована на работу с данными на английском и китайском языках и найти в свобод-ном доступе качественные модели для русского языка не всегда возможно. В статью включены результаты экспериментов по сравнению словарного метода, RAKE и методов на основе нейронных сетей. Модели и корпус являются общедоступными, могут быть полезными для проведения исследований и при создании систем извлечения информации.
Abstract: This paper is devoted to the development of methods for named entity recognition (NER) and relation classification (RC) in scientific texts from the information technology domain. Scientific publications provide valuable information about cutting-edge scientific advances, but efficient processing of in-creasing amounts of data is a time-consuming problem. Continuous improvement of automatic methods of such information processing is required. Modern deep learning methods are relatively good at solv-ing these problems with the help of deep computer-aided learning, but in order to achieve outstanding quality on data from specific areas of knowledge, it is necessary to additional training the obtained models on the specially prepared dataset. Such collections of scientific texts are available in English and are actively used by the Russian scientific community, but at present such collections are not pub-licly available in Russian. The paper contains the RuSERRC dataset description, which consists of 1600 unlabeled documents and 80 labeled with entities and semantic relations (6 relation types are considered). Several modifications of the methods for building models for the Russian language are also pro-posed. This is especially important, since most of the existing research is focused on working with data in English and Chinese, and it is not always possible to find high-quality models for the Russian lan-guage in the public domain. The paper includes the results of experiments comparing the vocabulary method, RAKE, and methods based on neural networks. Models and datasets are publicly available, and we hope it can be useful for research purposes and the development of information extraction systems.
Ключевые слова: построение корпуса текстов, нейросетевые модели языка, классификация отношений, извлечение семантических отношений, распознавание сущностей
Keywords: dataset building, neural network models, relation classification, semantic relation extraction, named entity recognition
Просмотров: 2867

16. Программные среды для изучения основ нейронных сетей [№1 за 2021 год]
Авторы: Богданов П.Ю. (45bogdanov@gmail.ru) - Российский государственный гидрометеорологический университет (ст. преподаватель); Краева Е.В. (kate.smitt.by@mail.ru) - Российский государственный гидрометеорологический университет (ассистент); Веревкин С.А. (vrjovkin@rambler.ru) - Российский государственный гидрометеорологический университет (студент); Пойманова Е.Д. (e.d.poymanova@gmail.com) - Санкт-Петербургский государственный университет аэрокосмического приборостроения (старший преподаватель); Татарникова Т.М. (tm-tatarn@yandex.ru) - Санкт-Петербургский государственный университет аэрокосмического приборостроения (доцент, профессор), доктор технических наук;
Аннотация: В статье рассмотрены способы и методы изучения и построения нейронных сетей. Показано, что изучение принципов функционирования нейронных сетей, их применение для решения тех или иных задач возможны только через практику. Проведен анализ различных программных сред, которые могут быть использованы на лабораторных и практических занятиях по изучению и применению нейронных сетей. Выделен современный облачный сервис Google Colaboratory, рекомендуемый для обучения основам нейронных сетей благодаря наличию в нем предустановки библиотеки Tensorflow и библиотеки для работы на языке Python, бесплатного доступа к графическим процессорам, возможности написания и выполнения программного кода в браузере, а также отсутствию необходимости специальной настройки сервиса. Рассматриваются примеры проектирования нейронных сетей в Colaboratory, в частности, решение задач распознавания и классификации изображений, прогнозирования. Показано, что для распознавания и классификации изображений может быть использована сверточная нейронная сеть, особенностью которой является получение карты признаков изображения с последующей сверткой. Приведены фрагменты программного кода для этапов подключения необходимых библиотек, загрузки датасетов, нормализации изображений, сборки нейронной сети и ее обучения. Решение задачи прогнозирования рассмотрено на примере нейронной сети прямого распространения с алгоритмом обратного распространения ошибок в процессе обучения, суть которой в получении на выходном слое ожидаемого значения при подаче на входной слой соответствующих данных. Обратное распространение ошибок заключается в настройке весовых коэффициентов, дающих наибольшую корреляцию между входным набором данных и соответствующим ему результатом.
Abstract: The paper describes the ways and methods of studying and constructing neural networks. It is shown that the study of the functioning guidelines of neural networks, their application for solving certain problems is possible only through practice. There is the analysis of various software environments that can be used in the laboratory and prac-tical classes for the study and application of neural networks in the paper. Highlighted the modern cloud service Google Colaboratory, which is recommended for teaching the basics of neural networks due to the presence of a pre-installation of the Tensorflow library and a library for working in Python, free access to graphics processors, the ability to write and execute program code in a browser, and no need for special configuration of the service. Examples of designing neural networks in the Colaboratory are considered. In particular, solving recognition problems and image classification, predictive modeling. The authors show that a convolu-tional neural network can be used for image recognition and classification, a feature of which is obtain-ing the image features a map with subsequent convolution. There are chunks of code for the connecting phases the necessary libraries, loading data sets, normalizing images, assembling a neural network, and its training, in the paper. The solving of the forecasting problem is considered on the example of a feed-forward neural net-work with an algorithm for backpropagation of errors in the learning process, the essence of which is to obtain the expected value at the output layer when the corresponding data is fed to the input layer. Backpropagation of errors consists of adjusting the weights that give the greatest correlation between the input dataset and its corresponding result.
Ключевые слова: задача прогнозирования, задача классификации, библиотеки и языки программирования, нейронные сети для начинающих, программные среды, нейронные сети
Keywords: forecasting problem, classification problem, libraries and programming languages, learning how neural networks work for beginners, software environments, neural network
Просмотров: 3280

17. Адаптация модели нейронной сети LSTM для решения комплексной задачи распознавания образов [№1 за 2021 год]
Автор: Тормозов В.С. (007465@pnu.edu.ru) - Тихоокеанский государственный университет (ст. преподаватель);
Аннотация: В статье рассматривается адаптация модели искусственных нейронных сетей прямого распространения с блоками долгой краткосрочной памяти (LSTM) для комплексной задачи распознавания образов. Для искусственных нейронных сетей контекст может быть извлечен из вектора поступающих на вход сигналов и из значений весовых коэффициентов обученной сети. Однако при учете контекста значительного объема растут количество нейронных связей и сложность процедур обучения и работы сети. Контекст может временно храниться в специальном буфере памяти, откуда в дальнейшем извлекаться и использоваться в качестве сигнала при работе искусственных нейронных сетей (LSTM). Преимущество сетей такого типа в том, что они используют блоки памяти, ассоциированные с каждым нейроном скрытого слоя, что позволяет сохранять данные, относящиеся к контексту, при формировании шаблонов распознавания. Предлагается метод линейного переключения блоков LSTM в зависимости от значения проходящего сигнала. Проведен вычислительный эксперимент, направленный на исследование эффективности предложенного метода и ранее разработанной нейронной сети прямого распространения аналогичной структуры. Выполнено машинное обучение для каждого вида искусственных нейронных сетей на одной и той же последовательности обучающих примеров. Проведено сравнение результатов экспериментов для искусственной нейронной сети прямого распространения, рекуррентной нейронной сети аналогичной архитектуры с таким же количеством нейронов на каждом слое и сетью нейромодулирующего взаимодействия с одной задержкой по обратной связи. Критерием оптимизации в данном случае является погрешность работы нейронной сети на обучающей выборке, состоящей из примеров, не представленных в тестирующей выборке. Эффективность решения классификационной задачи оценивается по двум критериям: погрешность обучения на обучающей выборке и погрешность тестирования на тестирующей выборке.
Abstract: The paper examines the adaptation of the model of artificial neural networks of direct distribution with blocks of long short-term memory (LSTM) for the complex problem of pattern recognition. For artifi-cial neural networks (ANN), the context can be extracted from the input signal vector and from the weight values of the trained network. However, considering the context of a significant volume, the number of neural connections and the complexity of training procedures and network operation in-crease. Instead of receiving context from input values, the context can also be temporarily stored in a special memory buffer, from where it can later be extracted and used as a signal in the ANN's opera-tion. This type of memory is called LSTM. The advantage of networks of this type is that they use memory blocks associated with each neuron of the latent layer, which allows context-related data to be stored when forming recognition patterns. There is the method of linear switching of LSTM units depending on the value of the transmitted signal in the paper. A computational experiment was conducted aimed at investigating the effectiveness of the proposed method and the previously developed neural network of direct distribution of a similar structure. Machine learning was performed for each type of ANN on the same sequence of training ex-amples. The test results were compared for: an ANN of direct propagation, a recurring neural network (RNS) of a similar architecture: with the same number of neurons on each layer, and a network of neu-romodulating interaction with one feedback delay. The optimization criterion, in this case, is the error of the neural network on the training sample, consisting of examples not presented in the test. The effi-ciency of solving the classification problem is evaluated according to two criteria: learning error on the training sample and testing error on the testing sample.
Ключевые слова: искусственная нейронная сеть, искусственный интеллект, машинное обучение, распознавание образов, блок долгой краткосрочной памяти
Keywords: artificial network, artificial intelligence, machine learning, pattern recognition, long short-term memory unit
Просмотров: 3594

18. iLabit OmViSys: фотореалистичный симулятор на базе всенаправленной камеры и структурированного света [№1 за 2021 год]
Автор: Холодилин И.Ю. (kholodilin.ivan@yandex.ru ) - Южно-Уральский государственный университет (национальный исследовательский университет) (аспирант);
Аннотация: В последнее время виртуальное обучение привлекает большое внимание со стороны сообщества компьютерного зрения. Это обусловлено достижениями в области обучения нейронных сетей, которые подкрепляются спросом на обширные обучающие данные. Существует множество доступных виртуальных сред моделирования, но большинство из них базируются на стандартной камере и ограничены в плане измерительных сенсоров, расположенных на мобильном роботе. В данной работе для облегчения сбора данных в системах, которые ранее не были интегрированы в существующие виртуальные среды, предлагается фотореалистичный симулятор iLabit OmViSys, включающий в свой состав всенаправленную камеру, а также источник структурированного света. Всенаправленная камера и структурированный свет имеют отличительные преимущества по сравнению с другими системами компьютерного зрения. Камера обеспечивает широкий угол обзора за счет одного единственного снимка. Кроме того, легко обнаружить источник лазерного света и извлечь информацию из данного изображения для дальнейшей обработки. Разработанный с использованием Unity симулятор iLabit OmViSys интегрирует мобильных роботов, элементы внутренней среды, позволяет генерировать синтетические фотореалистичные наборы данных, а также поддерживает коммуникацию со сторонними программами на базе Transmission Control Protocol (TCP). Симулятор включает в свой состав три основных экрана, позволяющих генерировать данные для внутренней калибровки камеры, проводить эксперименты, а также измерения. Отличительной особенностью iLabit OmViSys также является его универсальность в плане поддержки таких операционных систем, как Windows, macOS и Linux.
Abstract: According to recent advances in neural network learning, which are supported by the demand for large training data, virtual learning has recently attracted a lot of attention from the computer vision commu-nity. Today, there are many available virtual simulation environments, but most of them are based on a standard camera and are limited to measure sensors that are on the mobile robot. To facilitate data collection in systems that were not previously integrated into existing virtual envi-ronments, this paper presents a photorealistic simulator "iLabit OmViSys", which includes an Omnidi-rectional camera, and a structured light source. An Omnidirectional camera and structured light have their own distinctive advantages compared to other computer vision systems. The Omnidirectional camera provides a wide viewing angle with a single shot. In addition, the laser light source is easy to detect and extract its information from this image for further processing. Developed using Unity, the iLabit OmViSys simulator also integrates mobile robots, elements of the internal environment, allows you to generate synthetic photorealistic datasets, and supports communi-cation with third-party programs based on the Transmission Control Protocol (TCP). iLabit OmViSys includes three primary screens that allow one to generate data for internal camera calibration, carried out experiments, and take measurements. A distinctive feature of the simulator is also its versatility, in terms of support for such operating systems as Windows, macOS, and Linux.
Ключевые слова: семантические данные, структурированный свет, всенаправленная камера, unity, симулятор
Keywords: semantic data, structured light, omnidirectional camera, unity, simulator
Просмотров: 2937

19. Адаптивное блочное тензорное разложение в визуальных вопросно-ответных системах [№1 за 2021 год]
Авторы: Фаворская М.Н. (info@sibsau.ru) - Сибирский государственный университет науки и технологий им. академика М.Ф. Решетнева (профессор), доктор технических наук; Андреев В.В. (jcjet88@gmail.com) - Сибирский государственный университет науки и технологий им. академика М.Ф. Решетнева (аспирант);
Аннотация: В статье предлагается метод снижения размерности внутреннего представления данных в глубоких нейронных сетях, используемых для реализации визуальных вопросноответных систем. Рассмотрены методы тензорного разложения, применяемые для решения этой задачи в визуальных вопросноответных системах. Цель данных систем заключается в ответе на заданный в произвольном виде текстовый вопрос о предоставленном изображении или видеопоследовательности. Техническая особенность систем заключается в необходимости объединения визуального сигнала (изображения или видеопосле-довательности) с входными данными в виде текста. Особенности входных данных делают целесообразным использование разных архитектур глубоких нейронных сетей: чаще всего сверточной нейронной сети для обработки изображения и рекуррентной нейронной сети для обработки тек-ста. При объединении данных количество параметров модели существенно увеличивается, чтобы задача нахождения наиболее оптимальных методов снижения количества параметров была актуальной даже при использовании современного оборудования и при учете прогнозируемого роста вычислительных возможностей. Помимо технических ограничений, следует также отметить, что рост количества параметров может снизить способность модели к извлечению значимых признаков из обучающей выборки, так как увеличивается вероятность подгонки параметров под несущественные особенности в данных и шум. Предлагаемый в статье метод адаптивного тензорного разложения позволяет на основе обучающей выборки оптимизировать количество параметров для блочного тензорного разложения, применяемого для билинейного объединения данных. Выполнены тестирование системы и сравнение результатов с некоторыми другими визуальными вопросноответными системами, в которых для снижения размерности применяются методы тензорного разложения.
Abstract: The paper proposes a method for dimensionality reduction of the internal data representation in deep neural networks used to implement visual question answering systems. Methods of tensor decomposi-tion used to solve this problem in visual question answering systems are reviewed. The problem of these systems is to answer an arbitrary text question about the provided image or video sequence. A technical feature of these systems is the need to combine a visual signal (image or video sequence) with input data in text form. Differences in the features of the input data make it rea-sonable to use different architectures of deep neural networks: most often, a convolutional neural net-work for image processing and a recurrent neural network for text processing. When combining data, the number of model parameters explodes enough so that the problem of finding the most optimal methods for reducing the number of parameters is relevant, even when using modern equipment and considering the predicted growth of computational capabilities. Besides the technical limitations, it should also be noted that an increase in the number of parameters can reduce the model's ability to extract meaningful features from the training set, and increases the likelihood of fitting parameters to insignificant features in the data and "noise". The method of adaptive tensor decomposition proposed in the paper allows, based on training data, optimizing the number of parameters for the block tensor decomposition used for bilinear data fusion. The system was tested and the results were compared with some other visual question-answer systems, in which tensor decomposition methods are used for dimensionality reduction.
Ключевые слова: глубокое обучение, тензорное разложение, vqa, искусственный интеллект, снижение размерности
Keywords: deep learning, tensor decomposition, vqa, artificial intelligence, dimensionality reduction
Просмотров: 3173

20. Архитектура и программная реализация исследовательского стенда корпоративной беспроводной локальной вычислительной сети [№1 за 2021 год]
Авторы: Абросимов Л.И. (AbrosimovLI@mpei.ru) - Национальный исследовательский университет «Московский энергетический институт» (профессор), доктор технических наук; Орлова М.А. (OrlovaMA@mpei.ru) - Национальный исследовательский университет «Московский энергетический институт» (ассистент); Хаю Х. (hussein.khayou@gmail.com) - Национальный исследовательский университет «Московский энергетический институт» (аспирант);
Аннотация: В статье представлены архитектура и программная реализация исследовательского стенда для получения и анализа вероятностно-временных характеристик корпоративной беспроводной локальной вычислительной сети (БЛВС). В ходе разработки данного стенда авторами были получены математические соотношения для расчета гарантированной интенсивности мультимедийного трафика. Исследовательский стенд состоит из двух независимых блоков. Блок «Стенд моделирования» содержит описание БЛВС и потоков мультимедийного трафика в дискретно-событийной системе моделирования ns-3. Блок «Анализ результатов моделирования» содержит программы для анализа файлов передаваемого трафика и результатов моделирования, а также программы расчета характеристик производительности. Блок «Анализ результатов моделирования» написан на языке Python3, анализ файлов передаваемого трафика производился с использованием библиотеки pyshark. Также в статье содержатся аналитические уравнения модели БЛВС, используемые в блоке «Анализ результатов моделирования». Приведенные уравнения позволяют для заданного времени гарантированной доставки пакетов, для беспроводных каналов связи, использующих заданный ка-нальный протокол, определить предельную интенсивность доставленных пакетов. Программная реализация исследовательского стенда дает возможность получить зависимости гарантированной интенсивности мультимедийного трафика для заданных параметров: структуры БЛВС, параметров беспроводного канала связи и канальных протоколов управления доступом. Разработанный стенд обеспечивает возможность работы в двух режимах. В режиме разработки новой БЛВС, когда известными параметрами являются паспортные данные оборудования, логические характеристики протоколов и предполагаемые характеристики трафика, используется полный набор функциональных модулей и блоков, стенд позволяет обеспечить как согласование трафика с ресурсами передачи и обработки, так и заданную производительность БЛВС. В режиме эксплуатации, когда мониторинг позволяет получить реальные характеристики трафика и протоколов, стенд дает возможность администратору БЛВС оценить производительность БЛВС и интенсивность трафика. В этом режиме используется ограниченный набор модулей, который требует гораздо меньше времени для оценки производительности БЛВС, предоставляет возможность адаптивно изменять настройки БЛВС и обеспечивать характеристики производительности БЛВС, соответствующие требованиям QoS.
Abstract: The paper presents the architecture and implementation of a research testbed for obtaining and analyz-ing the probabilistic time characteristics of a corporate Wireless Local Area Network (WLAN). To de-velop this testbed, the authors obtained mathematical relations for calculating the guaranteed intensity of multimedia traffic. The research testbed architecture includes the two independent blocks. The block "Simulation testbed" contains the corporate WLAN description and the multimedia traffic flows in the discrete-event simulation system ns-3. The block "Analyzing simulation results" contains programs for analyz-ing files of transmitted traffic and simulation results and programs for calculating performance charac-teristics. To write the block "Analyzing simulation results ", the authors used the Python3 language, the analysis of the transmitted traffic files was performed using the pyshark library. The paper also contains the analytical equations of the WLAN model used in the block " Analyzing simulation results ". The above equations allow us to determine the maximum intensity of the delivered packets for a prescribed time of guaranteed packet delivery, for wireless communication channels us-ing a prescribed channel protocol. A software implementation of the research testbed affords the op-portunity to get the dependence of intensity guaranteed multimedia traffic for the specified parameters: structure WLAN, the settings of the wireless communication channel protocols, and channel access control. The developed testbed provides the capability of operation in two modes. In the development mode of a new WLAN, when the known parameters are the equipment passport data, logical characteristics of protocols, and expected traffic characteristics, a full set of functional modules and blocks is used, which allows both traffic matching with transmission and processing resources, and the specified per-formance of the WLAN. In operation mode, when monitoring allows you to get actual characteristics of traffic and protocols, the testbed allows the WLAN administrator to test the performance of the WLAN and the traffic intensity. This mode uses a limited module set, which requires much less time to evalu-ate the performance of the WLAN, provides the ability to adaptively change the settings of the WLAN, and provides the performance characteristics of the WLAN that meet the requirements of QoS.
Ключевые слова: программы для моделирования сетей передачи данных, архитектура исследовательского стенда, беспроводные локальные сети, производительность, канальный протокол
Keywords: network simulator software, research testbed architecture, wlan, productivity, media access protocol
Просмотров: 2460

← Предыдущая | 1 | 2 | 3 | Следующая →