[go: up one dir, main page]

RU231258U1 - ON-BOARD INFORMATION AND ANALYTICAL SYSTEM - Google Patents

ON-BOARD INFORMATION AND ANALYTICAL SYSTEM Download PDF

Info

Publication number
RU231258U1
RU231258U1 RU2024126764U RU2024126764U RU231258U1 RU 231258 U1 RU231258 U1 RU 231258U1 RU 2024126764 U RU2024126764 U RU 2024126764U RU 2024126764 U RU2024126764 U RU 2024126764U RU 231258 U1 RU231258 U1 RU 231258U1
Authority
RU
Russia
Prior art keywords
module
unit
neuroaccelerator
data
processor unit
Prior art date
Application number
RU2024126764U
Other languages
Russian (ru)
Inventor
Александр Геннадьевич Жданов
Александр Олегович Лунегов
Игорь Борисович Архимандритов
Ирина Леонидовна Архимандритова
Original Assignee
Акционерное общество "КТ-БЕСПИЛОТНЫЕ СИСТЕМЫ"
Filing date
Publication date
Application filed by Акционерное общество "КТ-БЕСПИЛОТНЫЕ СИСТЕМЫ" filed Critical Акционерное общество "КТ-БЕСПИЛОТНЫЕ СИСТЕМЫ"
Application granted granted Critical
Publication of RU231258U1 publication Critical patent/RU231258U1/en

Links

Images

Abstract

Полезная модель относится к способам построения интеллектуальных систем на основе широкого спектра технологий обработки информации, включая искусственные нейронные сети, и может использоваться для повышения уровня автономности беспилотных летательных аппаратов (БПЛА) вплоть до создания полностью автономных образцов. Система включает корпус, базовую плату с источником электропитания, объединяющую процессорный блок, включающий модуль обработки видео, модуль хранения больших бинарных объектов, модуль хранения метаданных, модуль хранения временных рядов, модуль управления и шину данных, блок нейроускорителя, включающий модуль детекции и классификации, модуль семантической сегментации, модуль навигации и шину данных, интерфейсный блок и накопитель данных. Технический результат заключается в расширение функциональных возможностей, которые в совокупности за счет реализации обработки данных непосредственно на борту БПЛА позволяют повысить уровня автономности беспилотного летательного аппарата. 3 ил.

Figure 00000001
The utility model relates to methods for constructing intelligent systems based on a wide range of information processing technologies, including artificial neural networks, and can be used to increase the level of autonomy of unmanned aerial vehicles (UAVs) up to the creation of fully autonomous models. The system includes a housing, a base board with a power source, combining a processor unit including a video processing module, a large binary object storage module, a metadata storage module, a time series storage module, a control module and a data bus, a neuroaccelerator unit including a detection and classification module, a semantic segmentation module, a navigation module and a data bus, an interface unit and a data storage device. The technical result consists in expanding the functional capabilities, which together, due to the implementation of data processing directly on board the UAV, make it possible to increase the level of autonomy of the unmanned aerial vehicle. 3 fig.
Figure 00000001

Description

Полезная модель относится к способам построения интеллектуальных систем на основе широкого спектра технологий обработки информации, включая искусственные нейронные сети, и может использоваться для повышения уровня автономности беспилотных летательных аппаратов (БПЛА) вплоть до создания полностью автономных образцов.The utility model relates to methods for constructing intelligent systems based on a wide range of information processing technologies, including artificial neural networks, and can be used to increase the level of autonomy of unmanned aerial vehicles (UAVs) up to the creation of fully autonomous models.

Уровень автономности становится все более важной характеристикой для современных комплексов с БПЛА. Особенно актуальна задача повышения уровня автономности в условиях сложной сигнально-помеховой обстановки, когда выполнение полетного задания возможно только в частично или полностью в автономном режиме.The level of autonomy is becoming an increasingly important characteristic for modern UAV systems. The task of increasing the level of autonomy is especially relevant in complex signal-interference conditions, when the flight mission can only be performed partially or completely autonomously.

Можно выделить следующие ключевые функциональные возможности, влияющие на уровень автономности БПЛА:The following key functional capabilities can be identified that affect the level of autonomy of the UAV:

автоматическая детекция и классификация объектов интереса;automatic detection and classification of objects of interest;

сопровождение объектов интереса;escorting objects of interest;

формирование модели поверхности на основе семантической сегментации;formation of a surface model based on semantic segmentation;

формирование рекомендаций для бортовой информационно-управляющей системы по управлению носителем и полезными нагрузками;formation of recommendations for the on-board information and control system for managing the carrier and payloads;

навигация без использования ГНСС.navigation without GNSS.

Из уровня техники известна интеллектуальная система автоматического управления беспилотным летательным аппаратом по патенту RU 164139 (МПК В64С 13/00; В64С 19/02; G05D 1/00; G01S 19/00, опубл. 20.08.2016), которая состоит из модуля низкоуровнего управления, содержащего контроллер модуля низкоуровнего управления на базе 32-разрядного микропроцессора, нейросетвой чип, СОМ-порт, интерфейсы подключения устройств управления движением, интерфейсы подключения внешних датчиков, приемник GNSS, разъем электропитания, модуль мониторинга электропитания, четыре бароальтиметра, четыре магнитометра, четыре акселерометра, четыре гироскопа, четыре термометра, и модуля высокоуровнего управления, содержащего контроллер модуля высокоуровнего управления на базе многоядерного 32-разрядного микропроцессора, объединенного с графическим процессором, видеовход, два USB-порта, Wi-Fi-модуль и накопитель данных, причем входы нейросетвого чипа, СОМ-порта, интерфейсов подключения устройств управления движением и интерфейсов подключения внешних датчиков соединены с выходами контроллера модуля низкоуровнего управления, выходы модуля мониторинга электропитания, нейросетвого чипа, СОМ-порта, интерфейсов подключения устройств управления движением, интерфейсов подключения внешних датчиков, приемника GNSS, каждого бароальтиметра, каждого магнитометра, каждого акселерометра, каждого гироскопа, каждого термометра соединены с входами контроллера модуля низкоуровнего управления, видеовход, выходы графического процессора, каждого USB-порта, Wi-Fi-модуля и накопителя данных соединены с входами контроллера модуля высокоуровнего управления, входы графического процессора, каждого USB-порта, Wi-Fi-модуля и накопителя данных соединены с выходами контроллера модуля высокоуровнего управления, входы контроллера модуля низкоуровнего управления соединены с выходами контроллера модуля высокоуровнего управления, а выходы контроллера высокоуровнего управления соединены с входами контроллера модуля низкоуровнего управления, кроме того, питание модуля высокоуровнего управления осуществляют от модуля низкоуровнего управления. Недостатками системы являются: низкая степень автономности беспилотного летательного аппарата, отсутствие возможности подключения различных типов полезных нагрузок (ПН), отсутствие возможности выдачи рекомендации по управлению ПН, отсутствие возможности масштабирования вычислительной мощности без модификации изделия.The prior art discloses an intelligent automatic control system for an unmanned aerial vehicle according to patent RU 164139 (IPC B64C 13/00; B64C 19/02; G05D 1/00; G01S 19/00, published on 20.08.2016), which consists of a low-level control module containing a low-level control module controller based on a 32-bit microprocessor, a neural network chip, a COM port, interfaces for connecting motion control devices, interfaces for connecting external sensors, a GNSS receiver, a power connector, a power monitoring module, four baroaltimeters, four magnetometers, four accelerometers, four gyroscopes, four thermometers, and a high-level control module containing a high-level control module controller based on a multi-core 32-bit microprocessor combined with a graphics processor, a video input, two USB ports, a Wi-Fi module and a data storage device, wherein the inputs of the neural network chip, the COM port, the interfaces for connecting motion control devices and the interfaces for connecting external sensors are connected to the outputs of the low-level control module controller, the outputs of the power supply monitoring module, the neural network chip, the COM port, the interfaces for connecting motion control devices, the interfaces for connecting external sensors, the GNSS receiver, each baroaltimeter, each magnetometer, each accelerometer, each gyroscope, each thermometer are connected to the inputs of the low-level control module controller, the video input, the outputs of the graphic processor, each USB port, the Wi-Fi module and the data storage device are connected to the inputs of the high-level control module controller, the inputs of the graphic processor, each USB port, the Wi-Fi module and the data storage device are connected to the outputs of the high-level control module controller, the inputs of the low-level control module controller are connected to the outputs of the high-level control module controller, and the outputs high-level control controller are connected to the inputs of the low-level control module controller, in addition, the high-level control module is powered from the low-level control module. The disadvantages of the system are: low degree of autonomy of the unmanned aerial vehicle, lack of ability to connect different types of payloads (PL), lack of ability to issue recommendations for PN control, lack of ability to scale the computing power without modifying the product.

Техническое решение, известное из патента RU 164139, выбрано в качестве ближайшего аналога данной полезной модели.The technical solution known from patent RU 164139 was selected as the closest analogue of this utility model.

Задача, на решение которой направлена данная полезная модель, заключается в создании бортовой информационно-аналитической системы (БИАС) обработки данных в режиме реального времени непосредственно на борту БПЛА, обеспечивающей выполнение различных технологических циклов обработки видовой и параметрической информации, включая обработку с использованием нейронных сетей, формирование рекомендаций для системы автоматического управления (САУ) для управления БПЛА и ПН, обеспечивающей адаптацию к различным типам целевых алгоритмов и ПН с целью повышения уровня автономности БПЛА.The task, which this utility model is aimed at solving, is to create an on-board information and analytical system (BIAS) for data processing in real time directly on board the UAV, ensuring the execution of various technological cycles for processing species and parametric information, including processing using neural networks, the formation of recommendations for the automatic control system (ACS) for controlling the UAV and PN, ensuring adaptation to various types of target algorithms and PN in order to increase the level of autonomy of the UAV.

Технический результат заключается в расширении функциональных возможностей систем управления БПЛА, которые за счет реализации обработки данных непосредственно на борту в совокупности обеспечивает полную автономность БПЛА.The technical result consists in expanding the functional capabilities of UAV control systems, which, due to the implementation of data processing directly on board, together ensures the complete autonomy of the UAV.

Указанный технический результат достигается тем, что в БИАС, включающей процессорный блок, блок нейроускорителя, интерфейсный блок и накопитель данных, дополнительно в состав системы включены корпус и базовая плата с источником электропитания, объединяющая процессорный блок, блок нейроускорителя, интерфейсный блок и накопитель данных, причем процессорный блок включает модуль обработки видео, модуль хранения больших бинарных объектов, модуль хранения метаданных, модуль хранения временных рядов и модуль управления, объединенные шиной данных процессорного блока, с которой соединен накопитель данных, блок нейроускорителя включает модуль детекции и классификации, модуль семантической сегментации и модуль навигации, объединенные шиной данных блока нейроускорителя, с которой соединены модуль обработки видео и модуль управления, выход которого соединен с входом интерфейсного блока, интерфейсный блок соединен с модулем обработки видео и выполнен с возможностью соединения с наземным пунктом управления (НПУ), САУ и ПН БПЛА.The specified technical result is achieved in that in the BIAS, including a processor unit, a neuroaccelerator unit, an interface unit and a data storage device, the system additionally includes a housing and a base board with a power supply source, combining the processor unit, the neuroaccelerator unit, the interface unit and the data storage device, wherein the processor unit includes a video processing module, a large binary object storage module, a metadata storage module, a time series storage module and a control module, united by a data bus of the processor unit, to which the data storage device is connected, the neuroaccelerator unit includes a detection and classification module, a semantic segmentation module and a navigation module, united by a data bus of the neuroaccelerator unit, to which the video processing module and the control module are connected, the output of which is connected to the input of the interface unit, the interface unit is connected to the video processing module and is configured to be connected to the ground control station (GCS), the ACS and the UAV PN.

Технический результат достигается также тем, что процессорный блок, блок нейроускорителя, интерфейсный блок и накопитель данных подключены к базовой плате через унифицированные интерфейсы, позволяющие производить модификацию системы без необходимости полной замены всех блоков.The technical result is also achieved by the fact that the processor unit, the neuroaccelerator unit, the interface unit and the data storage device are connected to the base board via unified interfaces, which allow modification of the system without the need for a complete replacement of all units.

Сущность заявляемой полезной модели поясняется примером ее реализации и чертежами, где изображены:The essence of the claimed utility model is explained by an example of its implementation and drawings, which depict:

на фиг. 1 - структурная электрическая схема БИАС;Fig. 1 - structural electrical diagram of the BIAS;

на фиг. 2 - общий вид БИАС;Fig. 2 - general view of BIAS;

на фиг. 3 - общий вид базовой платы.Fig. 3 - general view of the base board.

На фиг. 1 приняты следующие обозначения:In Fig. 1 the following designations are used:

1 - базовая плата;1 - base board;

2 - процессорный блок;2 - processor unit;

3 - блок нейроускорителя;3 - neuroaccelerator block;

4 - интерфейсный блок;4 - interface block;

5 - накопитель данных;5 - data storage;

6 - модуль обработки видео;6 - video processing module;

7 - модуль хранения больших бинарных объектов;7 - module for storing large binary objects;

8 - модуль хранения метаданных;8 - metadata storage module;

9 - модуль хранения временных рядов;9 - time series storage module;

10 - модуль управления;10 - control module;

11 - шина данных процессорного блока;11 - processor unit data bus;

12 - модуль детекции и классификации;12 - detection and classification module;

13 - модуль семантической сегментации;13 - semantic segmentation module;

14 - модуль навигации;14 - navigation module;

15 - шина данных блока нейроускорителя. 15 - data bus of the neuroaccelerator block.

БИАС решает следующие задачи:BIAS solves the following tasks:

прием, комплексирование и интеллектуальную обработку данных (ИОД) от широкого спектра ПН, установленных на БПЛА, в целях обнаружения и классификации объектов на видеоизображении от ПН, идентификации границ линейных и площадных объектов и определения текущих координат БПЛА по результатам ИОД изображения от ПН при отсутствии спутниковых данных;reception, integration and intelligent processing of data (IDP) from a wide range of payloads installed on UAVs, for the purpose of detecting and classifying objects in the video image from the payload, identifying the boundaries of linear and area objects and determining the current coordinates of the UAV based on the results of IDP images from the payload in the absence of satellite data;

прием и обработку телеметрии от САУ из состава БПЛА, телеметрии ПН, а также результатов ИОД для использования в алгоритмах БИАС в целях автоматического планирования полета БПЛА и управления ПН, в том числе при выполнении доразведки объектов интереса;receiving and processing telemetry from the automatic control system of the UAV, payload telemetry, as well as the results of the IOD for use in BIAS algorithms for the purpose of automatic UAV flight planning and payload control, including when performing additional reconnaissance of objects of interest;

регистрацию и выдачу на НПУ (в том числе по запросам) данных от активной ПН, формуляров обнаруженных объектов и других результатов ИОД.registration and issuance to the NPU (including upon request) of data from active fire control, forms of detected objects and other results of the IOD.

БИАС состоит из корпуса и базовой платы 1 с источником электропитания, включающей процессорный блок 2, блок 3 нейроускорителя, интерфейсный блок 4 и накопитель 5 данных.The BIAS consists of a housing and a base board 1 with a power source, including a processor unit 2, a neuroaccelerator unit 3, an interface unit 4 and a data storage device 5.

Базовая плата 1 с источником электропитания представляет собой основу конструкции БИАС, обеспечивающая связь между процессорным блоком 2, блоком 3 нейроускорителя, интерфейсным блоком 4 и накопителем 5 данных посредством передачи сигналом между ними. Соединение процессорного блока 2, блока 3 нейроускорителя, интерфейсного блока 4 и накопителя 5 данных с базовой платой 1 выполнено посредством разъемов, обеспечивающим при необходимости их замену без изменения базовой платы 1.The base board 1 with the power supply is the basis of the BIAS design, providing communication between the processor unit 2, the neuroaccelerator unit 3, the interface unit 4 and the data storage device 5 by means of transmitting a signal between them. The connection of the processor unit 2, the neuroaccelerator unit 3, the interface unit 4 and the data storage device 5 with the base board 1 is made by means of connectors, providing, if necessary, their replacement without changing the base board 1.

Процессорный блок 2 включает модуль 6 обработки видео, модуль 7 хранения больших бинарных объектов, модуль 8 хранения метаданных, модуль 9 хранения временных рядов и модуль 10 управления, объединенные шиной 11 данных процессорного блока.The processor unit 2 includes a video processing module 6, a large binary object storage module 7, a metadata storage module 8, a time series storage module 9 and a control module 10, connected by a processor unit data bus 11.

Процессорный блок 2 выполнен на базе процессора RK3588J и предназначен для обработки поступающих данных, формирования управляющих команд в сопрягаемые системы, обеспечения хранения различных видов информации с организацией доступа к информации, индексированием, поиском, представлением информации в различных форматах.Processor unit 2 is based on the RK3588J processor and is designed to process incoming data, generate control commands for interfaced systems, ensure storage of various types of information with organization of access to information, indexing, searching, and presentation of information in various formats.

Модуль обработки видео 6 решает задачи декодирования видео, контроля качества входных данных (в том числе телеметрии), предварительной обработки данных (коррекция, фильтрация), транскодирования данных, передачи данных в модуль 7 хранения больших бинарных объектов, модуль 8 хранения метаданных, модуль 9 хранения временных рядов и блок 3 нейроускорителя.Video processing module 6 solves the problems of video decoding, quality control of input data (including telemetry), preliminary data processing (correction, filtering), data transcoding, data transmission to module 7 for storing large binary objects, module 8 for storing metadata, module 9 for storing time series and block 3 of the neural accelerator.

Модуль 7 хранения больших бинарных объектов предназначен для хранения данных, полученных от ПН, и отчетных документов.Module 7 for storing large binary objects is designed to store data received from the PN and reporting documents.

Модуль 8 хранения метаданных предназначен для хранения метаинформации о входных данных, результатов обработок и объектовой информации.Module 8 for storing metadata is intended for storing metainformation about input data, processing results and object information.

Модуль 9 хранения временных рядов предназначен для хранения телеметрии и системных журналов.Time series storage module 9 is designed to store telemetry and system logs.

Модуль 10 управления решает задачи получения данных с результатами обработок (формуляры, координаты кадра) из блока 3 нейроускорителя, передачи данных в модуль 7 хранения больших бинарных объектов, модуль 8 хранения метаданных и модуль 9 хранения временных рядов, передачу данных через интерфейсный блок 4 в сопряженные системы (НПУ, ПН и САУ БПЛА), формирование управляющих команд для ПН и САУ БПЛА, обработки запросов на получение информации от сопряженных систем (НПУ).Control module 10 solves the problems of receiving data with the results of processing (forms, frame coordinates) from block 3 of the neuroaccelerator, transmitting data to module 7 for storing large binary objects, module 8 for storing metadata and module 9 for storing time series, transmitting data through interface block 4 to the associated systems (NPU, PN and ACS of the UAV), generating control commands for the PN and ACS of the UAV, processing requests for receiving information from the associated systems (NPU).

Шина 11 данных для процессорного блока предназначена для передачи данных между модулями процессорного блока 2, а также накопителем 5 данных.The data bus 11 for the processor unit is intended for transmitting data between the modules of the processor unit 2, as well as the data storage device 5.

Блок 3 нейроускорителя включает модуль 12 детекции и классификации, модуль 13 семантической сегментации и модуль 14 навигации, объединенные шиной 15 данных блока нейроускорителя.Block 3 of the neuroaccelerator includes a detection and classification module 12, a semantic segmentation module 13 and a navigation module 14, connected by a data bus 15 of the neuroaccelerator block.

Блок нейроускорителя 3 выполнен на базе модуля Atlas 200 AI и предназначен для обработки видовой и параметрической информации, поступающей от модуля 6 обработки видео процессорного блока 2.The neuroaccelerator block 3 is based on the Atlas 200 AI module and is designed to process the visual and parametric information received from the video processing module 6 of the processor block 2.

Архитектура обработки данных основана на мультиагентной распределенной вычислительной системе, состоящей из процессорного блока 2 и блока 3 нейроускорителя, допускающей гибкое конфигурирование цикла обработки данных без необходимости изменения компонентов. Вычислительная система является автоматически конфигурируемой, что позволяет с максимальной эффективностью использовать существующие ресурсы. Кроме того, вычислительная система позволяет создавать множество сценариев обработки данных, состоящих из этапов, выполняемых на процессорном блоке 2 и блоке 3 нейроускорителя. Выбор сценария происходит автоматически и обусловлен текущей используемой ПН, режимом работы и совокупностью внешних условийThe data processing architecture is based on a multi-agent distributed computing system consisting of a processor unit 2 and a neuroaccelerator unit 3, allowing flexible configuration of the data processing cycle without the need to change components. The computing system is automatically configurable, which allows for the maximum efficiency of using existing resources. In addition, the computing system allows for the creation of multiple data processing scenarios consisting of stages performed on the processor unit 2 and the neuroaccelerator unit 3. The choice of scenario occurs automatically and is determined by the currently used PN, the operating mode and a set of external conditions.

В модуле 12 детекции и классификации на основе нейросетевых алгоритмов выполняет ИОД изображения, поступающего от активной ПН, в целях автоматического обнаружения, классификации, отождествления, локализации объектов на изображении, а также определение геодезических координат обнаруженных объектов. Обеспечивается детекция и классификация следующих классов объектов: автомобиль легковой, фургон, автомобиль грузовой, автобус, вертолет, самолет, объект ВТ, человек, катер. Обнаружение объектов на видеокадрах осуществляется с помощью сверточной нейронной сети архитектуры семейства YOLO, которая имеет высокие показатели точности и производительности в задачах обработки видео в реальном времени. Результатом выполнения алгоритмов обнаружения и классификации являются линейные координаты прямоугольника, описывающего объект заданного класса с соответствующим коэффициентом уверенности. Результаты выполнения алгоритмов передаются в модуль 10 управления в виде формуляров обнаруженных объектов. Для исключения повторов одного и того же объекта в результатах обработки изображений выполняются алгоритмы отождествления (реидентификация), выполняемые на основе извлечения и сравнения векторов признаков из изображений обнаруженных объектов. Определение геодезических координат обнаруженных и классифицированных объектов выполняется в глобальной системе координат (WGS-84, П3-90.11) с использованием базы данных рельефа местности (локализация объекта на местности).In the module 12 of detection and classification based on neural network algorithms, the IOD of the image received from the active PN is performed for the purpose of automatic detection, classification, identification, localization of objects in the image, as well as determination of the geodetic coordinates of the detected objects. Detection and classification of the following classes of objects is provided: passenger car, van, truck, bus, helicopter, airplane, military vehicle, person, boat. Objects are detected in video frames using a convolutional neural network of the YOLO family architecture, which has high accuracy and performance in real-time video processing tasks. The result of executing the detection and classification algorithms are the linear coordinates of the rectangle describing the object of a given class with the corresponding confidence coefficient. The results of executing the algorithms are transmitted to the control module 10 in the form of forms of detected objects. To exclude repetitions of the same object in the results of image processing, identification algorithms (reidentification) are performed based on extracting and comparing feature vectors from images of the detected objects. Determination of geodetic coordinates of detected and classified objects is performed in the global coordinate system (WGS-84, P3-90.11) using a terrain relief database (localization of the object on the ground).

В модуле 13 семантической сегментации выполняет ИОД изображения, поступающего от активной ПН, на основе нейросетевых алгоритмов в целях автоматического обнаружения линейных или площадных объектов путем формирования их границ (контура) на изображении, а также определение на основе трехмерной объектно-ориентированной модели местности геодезических координат обнаруженных объектов и типа поверхности под объектами. Обнаружение линейных или площадных объектов на видеокадрах осуществляется с помощью сверточной нейронной сети архитектуры семейства UNet, которая позволяет сформировать карту семантической сегментации. Алгоритм семантической сегментации изображения представляет собой разбиение изображения на части (сегменты) с определением класса (метки) для каждого пикселя изображения (классификация изображения на уровне пикселей, плотное прогнозирование). После выполнения семантической сегментации выполняется векторизация результатов, позволяющая определить границы линейного или площадного объекта заданного класса с соответствующим коэффициентом уверенности. Полученная карта семантической сегментации затем накладывается на модель рельефа для получения объектно-ориентированной модели местности. На основе трехмерной объектно-ориентированной модели местности выполняется определение геодезических координат точек, формирующих границы линейных и площадных объектов, а также типа подстилающей поверхности в любой заданной точке в пределах области покрытия модели. Границы линейных и площадных объектов и типы поверхности передаются в модуль 10 управления в виде формуляров обнаруженных линейных или площадных объектов.In the semantic segmentation module 13, the IOD of the image received from the active PN is performed based on neural network algorithms for the purpose of automatic detection of linear or areal objects by forming their boundaries (contours) in the image, as well as determining the geodetic coordinates of the detected objects and the type of surface under the objects based on a three-dimensional object-oriented terrain model. Detection of linear or areal objects in video frames is performed using a convolutional neural network of the UNet family architecture, which allows for the formation of a semantic segmentation map. The algorithm for semantic segmentation of an image is a division of the image into parts (segments) with the definition of a class (label) for each pixel of the image (image classification at the pixel level, dense prediction). After semantic segmentation is performed, vectorization of the results is performed, which allows for the definition of the boundaries of a linear or areal object of a given class with the corresponding confidence coefficient. The resulting semantic segmentation map is then superimposed on the relief model to obtain an object-oriented terrain model. Based on a three-dimensional object-oriented terrain model, the geodetic coordinates of points forming the boundaries of linear and area objects, as well as the type of underlying surface at any given point within the model coverage area, are determined. The boundaries of linear and area objects and surface types are transmitted to the control module 10 in the form of forms of detected linear or area objects.

В модуле 14 навигации, в условиях отсутствия сигнала спутниковых систем навигации, определяются в реальном времени геодезические координаты БПЛА на основе географических координат центра ТВ-изображения подстилающей поверхности от ПН (полученных в ходе ИОД) и текущих навигационных данных от САУ, высоты рельефа в центре изображения, углов ориентации и углов обзора ПН. Решение данной задачи в ходе ИОД выполняется на основе геопривязки ТВ-изображения от ПН к опорным геоданным путем построения карты признаков изображения (дескрипторов) и сопоставления полученных признаков с базой признаков опорных геоданных. В качестве опорных геоданных используются спутниковые растровые и векторные покрытия, а также ортофотопланы. Для определения координат БПЛА используются координаты участка местности с наилучшим коэффициентом соответствия карте признаков ТВ-изображения. Результатом работы модуля 14 навигации являются координат углов кадра, которые передаются в модуль 10 управления.In the navigation module 14, in the absence of a signal from satellite navigation systems, the geodetic coordinates of the UAV are determined in real time based on the geographic coordinates of the center of the TV image of the underlying surface from the PN (obtained during the IOD) and the current navigation data from the ACS, the height of the relief in the center of the image, the orientation angles and the viewing angles of the PN. The solution to this problem during the IOD is performed based on the georeferencing of the TV image from the PN to the reference geodata by constructing a map of image features (descriptors) and comparing the obtained features with the feature base of the reference geodata. Satellite raster and vector coverages, as well as orthophotomaps, are used as reference geodata. To determine the coordinates of the UAV, the coordinates of the terrain section with the best coefficient of conformity to the map of TV image features are used. The result of the operation of the navigation module 14 are the coordinates of the frame corners, which are transmitted to the control module 10.

Шина 15 данных блока нейроускорителя предназначена для передачи данных между модулями блока 3 нейроускорителя, а также модулем 6 обработки видео и модулем 10 управления.The data bus 15 of the neuroaccelerator block is intended for transmitting data between the modules of the neuroaccelerator block 3, as well as the video processing module 6 and the control module 10.

Интерфейсный блок 4 обеспечивает взаимодействие БИАС с НПУ, САУ БПЛА, ПН (ТВ камера, ТВ широкоугольная камера, ИК камера, мультиспекральная камера). Перечень доступных интерфейсов MIPI CSI - 3шт., 1GB Ethernet - 2 шт., USB 3.0 - 1 шт., USB 2.1 - 1 шт., UART - 2 шт., I2C - 2 шт., SPI - 2 шт., GPIO - 2 шт., PCIe 3.0 4 lane, PCIe 2.0 1 lane, eDP - 1 шт. Interface block 4 provides interaction of the BIAS with the GPU, UAV control system, payload (TV camera, wide-angle TV camera, IR camera, multispectral camera). List of available interfaces MIPI CSI - 3 pcs., 1GB Ethernet - 2 pcs., USB 3.0 - 1 pc., USB 2.1 - 1 pc., UART - 2 pcs., I2C - 2 pcs., SPI - 2 pcs., GPIO - 2 pcs., PCIe 3.0 4 lane, PCIe 2.0 1 lane, eDP - 1 pc.

От НПУ через интерфейсный блок 4 в модуль 6 обработки видео процессорного блока 2 передаются команды управления и параметры управления ИОД, команды управления и параметры управления по запросу данных. От ПН через интерфейсный блок 4 в модуль 6 обработки видео процессорного блока 2 передаются квитанции команд управления и параметров управления, текущие параметры, видеоинформация. От САУ через интерфейсный блок 4 в модуль 6 обработки видео процессорного блока 2 передаются квитанции команд управления и параметров управления, телеметрия БПЛА.From the NPU, through the interface block 4, control commands and control parameters of the IOD, control commands and control parameters on request of data are transmitted to the video processing module 6 of the processor block 2. From the PN, through the interface block 4, receipts of control commands and control parameters, current parameters, video information are transmitted to the video processing module 6 of the processor block 2. From the ACS, through the interface block 4, receipts of control commands and control parameters, UAV telemetry are transmitted to the video processing module 6 of the processor block 2.

В НПУ через интерфейсный блок 4 от модуля управления 10 процессорного блока 2 передаются квитанции команд управления и параметров управления, результаты детекции и классификации, результаты семантической сегментации, результаты глобальной локализации БПЛА. В НПУ через интерфейсный блок 4 от модуля 6 обработки видео процессорного блока 2 передаются изображение объекта и иные данные по запросу, сжатая видеоинформация от ПН, данные от ПН, телеметрия БПЛА. В ПН через интерфейсный блок 4 от модуля управления 10 процессорного блока 2 передаются команды управления и параметры управления режимами работы ПН. В САУ через интерфейсный блок 4 от модуля управления 10 процессорного блока 2 передаются команды управления и параметры управления БПЛА, результаты глобальной локализации БПЛА.Receipts of control commands and control parameters, detection and classification results, semantic segmentation results, and UAV global localization results are transmitted to the NPU via the interface block 4 from the control module 10 of the processor unit 2. An image of an object and other data on request, compressed video information from the PN, data from the PN, and UAV telemetry are transmitted to the NPU via the interface block 4 from the video processing module 6 of the processor unit 2. Control commands and control parameters for the PN operating modes are transmitted to the PN via the interface block 4 from the control module 10 of the processor unit 2. Control commands and control parameters for the UAV, and UAV global localization results are transmitted to the ACS via the interface block 4 from the control module 10 of the processor unit 2.

Накопитель 5 данных предназначен для хранения информации: данные от полезных нагрузок, отчетные документы, метаинформация о входных данных, результаты обработок, объектовая информация, телеметрия и системные журналы.Data storage 5 is designed to store information: data from payloads, reporting documents, meta-information about input data, processing results, object information, telemetry and system logs.

Корпус предназначен для размещения и защиты базовой платы 1 с источником. Конструктивное исполнение корпуса обеспечивает теплоотведение от процессорного блока 2 и блока 3 нейроускорителя на металлическое основание корпуса.The case is designed to accommodate and protect the base board 1 with the source. The design of the case ensures heat dissipation from the processor unit 2 and the neuroaccelerator unit 3 to the metal base of the case.

Заявленная полезная модель реализована в изделии АСПМ.466226.003-10 Бортовая информационно-аналитическая система минимальная БИАС-М, общие виды которого приведены на фиг. 2 и фиг. 3. Результаты предварительных испытания БИАС подтверждают повышение уровня автономности БПЛА за счет выполнения на борту БПЛА обработки видовой и параметрической информации и формирования рекомендаций для САУ БПЛА и ПН.The claimed utility model is implemented in the product ASPM.466226.003-10 On-board information and analytical system minimum BIAS-M, the general views of which are shown in Fig. 2 and Fig. 3. The results of preliminary tests of the BIAS confirm an increase in the level of autonomy of the UAV due to the processing of visual and parametric information on board the UAV and the formation of recommendations for the UAV ACS and PN.

Claims (2)

1. Бортовая информационно-аналитическая система, содержащая процессорный блок, блок нейроускорителя, интерфейсный блок и накопитель данных, отличающаяся тем, что в состав системы включены корпус и базовая плата с источником электропитания, объединяющая процессорный блок, блок нейроускорителя, интерфейсный блок и накопитель данных, причем процессорный блок включает модуль обработки видео, модуль хранения больших бинарных объектов, модуль хранения метаданных, модуль хранения временных рядов и модуль управления, объединенные шиной данных процессорного блока, с которой соединен накопитель данных, блок нейроускорителя включает модуль детекции и классификации, модуль семантической сегментации и модуль навигации, объединенные шиной данных блока нейроускорителя, с которой соединены модуль обработки видео и модуль управления, выход которого соединен с входом интерфейсного блока, интерфейсный блок соединен с модулем обработки видео и выполнен с возможностью соединения с наземным пунктом управления, системой автоматического управления и полезной нагрузкой беспилотного летательного аппарата.1. An on-board information and analytical system comprising a processor unit, a neuroaccelerator unit, an interface unit and a data storage device, characterized in that the system includes a housing and a base board with a power source that combines the processor unit, the neuroaccelerator unit, the interface unit and the data storage device, wherein the processor unit includes a video processing module, a large binary object storage module, a metadata storage module, a time series storage module and a control module, connected by a processor unit data bus to which the data storage device is connected, the neuroaccelerator unit includes a detection and classification module, a semantic segmentation module and a navigation module, connected by a neuroaccelerator unit data bus to which the video processing module and the control module are connected, the output of which is connected to the input of the interface unit, the interface unit is connected to the video processing module and is configured to be connected to a ground control station, an automatic control system and the payload of the unmanned aerial vehicle. 2. Бортовая информационно-аналитическая система по п. 1, отличающаяся тем, что процессорный блок, блок нейроускорителя, интерфейсный блок и накопитель данных подключены к базовой плате через унифицированные интерфейсы, позволяющие производить модификацию системы без необходимости полной замены всех блоков.2. An on-board information and analytical system according to paragraph 1, characterized in that the processor unit, the neuroaccelerator unit, the interface unit and the data storage device are connected to the base board via unified interfaces, allowing modification of the system without the need for a complete replacement of all units.
RU2024126764U 2024-09-10 ON-BOARD INFORMATION AND ANALYTICAL SYSTEM RU231258U1 (en)

Publications (1)

Publication Number Publication Date
RU231258U1 true RU231258U1 (en) 2025-01-21

Family

ID=

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU237068U1 (en) * 2025-06-17 2025-09-05 Общество с ограниченной ответственностью "НЕЙРО ИНЖИНИРИНГ" Device for capturing and tracking a target

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109873990A (en) * 2019-03-13 2019-06-11 武汉大学 A computer vision-based early warning method for illegal mining in mines
CN111208759A (en) * 2019-12-30 2020-05-29 中国矿业大学(北京) Digital twin intelligent monitoring system for unmanned fully mechanized coal mining face of mine
RU2742394C1 (en) * 2020-06-22 2021-02-05 Михаил Андреевич Ищенко Method of creating an intelligent system for determining areas of flight routes for an unmanned aerial vehicle in simulation complexes
RU2799078C1 (en) * 2022-03-24 2023-07-03 Акционерное общество "Лаборатория Касперского" Method for detecting and recognizing small-sized objects in images using machine learning algorithm and device for its implementation
EP4414932A1 (en) * 2023-02-08 2024-08-14 Tata Consultancy Services Limited Systems and methods for performing an autonomous aircraft visual inspection task

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109873990A (en) * 2019-03-13 2019-06-11 武汉大学 A computer vision-based early warning method for illegal mining in mines
CN111208759A (en) * 2019-12-30 2020-05-29 中国矿业大学(北京) Digital twin intelligent monitoring system for unmanned fully mechanized coal mining face of mine
RU2742394C1 (en) * 2020-06-22 2021-02-05 Михаил Андреевич Ищенко Method of creating an intelligent system for determining areas of flight routes for an unmanned aerial vehicle in simulation complexes
RU2799078C1 (en) * 2022-03-24 2023-07-03 Акционерное общество "Лаборатория Касперского" Method for detecting and recognizing small-sized objects in images using machine learning algorithm and device for its implementation
EP4414932A1 (en) * 2023-02-08 2024-08-14 Tata Consultancy Services Limited Systems and methods for performing an autonomous aircraft visual inspection task
RU2821107C1 (en) * 2023-07-21 2024-06-17 Общество с ограниченной ответственностью "Лаборатория Алисы" Method and system for determining trajectory of autonomous vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU237068U1 (en) * 2025-06-17 2025-09-05 Общество с ограниченной ответственностью "НЕЙРО ИНЖИНИРИНГ" Device for capturing and tracking a target
RU238387U1 (en) * 2025-08-01 2025-10-28 федеральное государственное автономное образовательное учреждение высшего образования "Южный федеральный университет" On-board multipurpose reconfigurable computer

Similar Documents

Publication Publication Date Title
US20200301015A1 (en) Systems and methods for localization
Yakimenko et al. Unmanned aircraft navigation for shipboard landing using infrared vision
US9177481B2 (en) Semantics based safe landing area detection for an unmanned vehicle
CN113485441A (en) Distribution network inspection method combining unmanned aerial vehicle high-precision positioning and visual tracking technology
Eynard et al. Real time UAV altitude, attitude and motion estimation from hybrid stereovision
AU2022204748A1 (en) Route planning for a ground vehicle through unfamiliar terrain
US12332663B2 (en) Light emitting device positional tracking for mobile platforms
Vetrella et al. RGB-D camera-based quadrotor navigation in GPS-denied and low light environments using known 3D markers
Conte et al. High accuracy ground target geo-location using autonomous micro aerial vehicle platforms
Suzuki et al. Vision based localization of a small UAV for generating a large mosaic image
US20230316939A1 (en) Collision detection and avoidance for unmanned aerial vehicle systems and methods
RU231258U1 (en) ON-BOARD INFORMATION AND ANALYTICAL SYSTEM
US12222422B2 (en) Post-processing of mapping data for improved accuracy and noise-reduction
CN114612559A (en) Unmanned aerial vehicle pose calculation method, electronic equipment and storage medium
Lin et al. A multi-target detection framework for multirotor UAV
RU2840814C1 (en) Aerial photography data processing system for determining optimum zones and controlling operating modes of target loads of unmanned aerial vehicle
Al-Kaff Vision-based navigation system for unmanned aerial vehicles
WO2024081060A1 (en) Obstacle avoidance for aircraft from shadow analysis
Al Baghdadi et al. Unmanned aerial vehicles and machine learning for detecting objects in real time
Sambolek et al. Determining the geolocation of a person detected in an image taken with a drone
Afifi Implementation of an UAV autonomous mission planning aimed at collecting geo-tagged images from a multispectral camera
US20250046064A1 (en) Compressing a scene into a generative neural network for uav scene analysis applications
US20250130581A1 (en) USING NeRF MODELS TO FACILITATE OPERATIONS OF A UAV DELIVERY SERVICE
US20250191478A1 (en) Uav perception validation based upon a semantic agl estimate
RU2819590C1 (en) Onboard intelligent uav search and guidance system