[go: up one dir, main page]

JP6851683B2 - Multi-layer image synthesizer - Google Patents

Multi-layer image synthesizer Download PDF

Info

Publication number
JP6851683B2
JP6851683B2 JP2016206639A JP2016206639A JP6851683B2 JP 6851683 B2 JP6851683 B2 JP 6851683B2 JP 2016206639 A JP2016206639 A JP 2016206639A JP 2016206639 A JP2016206639 A JP 2016206639A JP 6851683 B2 JP6851683 B2 JP 6851683B2
Authority
JP
Japan
Prior art keywords
image
bitmap
compositing
input
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016206639A
Other languages
Japanese (ja)
Other versions
JP2018066925A (en
Inventor
伸治 高橋
伸治 高橋
照彦 白石
照彦 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Avionics Co Ltd
Original Assignee
Nippon Avionics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Avionics Co Ltd filed Critical Nippon Avionics Co Ltd
Priority to JP2016206639A priority Critical patent/JP6851683B2/en
Publication of JP2018066925A publication Critical patent/JP2018066925A/en
Application granted granted Critical
Publication of JP6851683B2 publication Critical patent/JP6851683B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、レーダビデオや目標情報といった表現形式の異なる複数の画像を複数の画像レイヤにそれぞれ入力し、それら複数の画像レイヤの画像を合成した合成画像を作成するマルチレイヤ画像合成装置に関する。 The present invention relates to a multilayer image compositing device for inputting a plurality of images having different expression formats such as radar video and target information into a plurality of image layers and creating a composite image obtained by synthesizing the images of the plurality of image layers.

レーダビデオや目標情報といった表現形式の異なる複数の画像を複数の画像レイヤにそれぞれ入力するマルチレイヤ画像合成装置としては、特開平7-311255号公報(特許文献1)にレーダビデオ表示装置が開示されている。このレーダビデオ表示装置は、その図1に示されているように、プロット地図画像とスイープビデオとをそれぞれ別の画像レイヤに入力し、両者を合成し、合成画像をCRTに表示している。 As a multilayer image synthesizer for inputting a plurality of images having different expression formats such as radar video and target information into a plurality of image layers, a radar video display device is disclosed in Japanese Patent Application Laid-Open No. 7-31155 (Patent Document 1). ing. As shown in FIG. 1, this radar video display device inputs a plot map image and a sweep video into separate image layers, synthesizes the two, and displays the composite image on the CRT.

上記特許文献1に開示されたレーダビデオ表示装置では、偏向系(3)および輝度系(4)でもってCRTに表示するレーダ画像を合成している。特許文献1には偏向系(3)および輝度系(4)の具体的な回路構成の記載はない。複数の画像を合成する装置としては、例えば特開2003-244726号公報(特許文献2)に画像合成処理装置が開示されている。この画像合成処理装置は、右目用および左目用とういう2つの画像レイヤにそれぞれ入力した画像と仮想空間画像とを合成するマルチレイヤ画像合成装置である。この画像合成処理装置では、2つの画像レイヤにそれぞれ入力した画像と仮想空間画像との合成にはグラフィックボードを用いている。なお、グラフィックボードは、ビデオカード、ビデオボード、グラフィックカード、グラフィックスカード等とも称されるものである。 In the radar video display device disclosed in Patent Document 1, a radar image to be displayed on a CRT is synthesized by a deflection system (3) and a luminance system (4). Patent Document 1 does not describe a specific circuit configuration of the deflection system (3) and the luminance system (4). As an apparatus for synthesizing a plurality of images, for example, an image synthesizing processing apparatus is disclosed in Japanese Patent Application Laid-Open No. 2003-244726 (Patent Document 2). This image composition processing device is a multilayer image composition device that synthesizes an image input to two image layers, one for the right eye and the other for the left eye, and a virtual space image. In this image composition processing apparatus, a graphic board is used for compositing the images input to the two image layers and the virtual space image. The graphic board is also referred to as a video card, a video board, a graphic card, a graphics card, or the like.

特開平7-311255号公報Japanese Unexamined Patent Publication No. 7-31155 特開2003-244726号公報Japanese Unexamined Patent Publication No. 2003-2442726

特許文献1のようなレーダビデオ表示装置において、表示画像の生成にグラフィックボードを用いる従来のマルチレイヤ画像合成装置の構成を図4に例示する。図4のマルチレイヤ画像合成装置40はサーバSV1,SV2およびSV3並びに画像合成回路41を有する。サーバSV1はメインメモリMM1、CPU1およびグラフィックボードGB1を有してなる。サーバSV2およびSV3はサーバSV1と同様な構成である。 FIG. 4 illustrates the configuration of a conventional multilayer image compositing device that uses a graphic board to generate a display image in a radar video display device as in Patent Document 1. The multilayer image compositing device 40 of FIG. 4 has servers SV1, SV2 and SV3, and an image compositing circuit 41. The server SV1 includes a main memory MM1, a CPU1, and a graphic board GB1. The servers SV2 and SV3 have the same configuration as the server SV1.

サーバSV1におけるメインメモリMM1はCPU1で実行されるアプリケーションプログラムのコード及びデータを保持するとともに、表示器20に表示する画像イメージを保持する。CPU1は、目標情報を入力し、この目標情報をアプリケーションプログラムにより処理し、目標情報のベクタ画像を生成し、一旦メインメモリMM1にベクタ画像を保存し、所定のタイミングでメインメモリMM1から読み出して、グラフィックボードGB1へそのベクタ画像を出力する。ベクタ画像は、画像を表現したデータの一種であり、さらに詳しくは、点の座標とそれを結ぶ線や面の方程式のパラメータ、および、塗りつぶしや特殊効果などの描画情報の集合として表現したデータである。CPU1は、描画コマンドの形式で、ベクタ画像のデータをグラフィックボードGB1へ供給する。CPU1とグラフィックボードGB1との入出力インタフェースは、PCIe(Peripheral Component Interconnect Express)と称されるシリアルインタフェースである。グラフィックボードGB1は、ベクタ画像を表す描画コマンドを入力し、ベクタ画像についてラスタライズ処理を施し、ベクタ画像をビットマップ画像に変換する。このビットマップ画像は、DVI(Digital Visual Interface)と称されるインタフェースでもって画像合成回路41へ供給される。 The main memory MM1 in the server SV1 holds the code and data of the application program executed by the CPU 1, and also holds the image to be displayed on the display 20. The CPU 1 inputs target information, processes the target information by an application program, generates a vector image of the target information, temporarily stores the vector image in the main memory MM1, reads it from the main memory MM1 at a predetermined timing, and then reads the vector image. The vector image is output to the graphic board GB1. A vector image is a type of data that expresses an image, and more specifically, it is data that is expressed as a set of drawing information such as the coordinates of points, the parameters of equations of lines and planes connecting them, and drawing information such as fills and special effects. is there. The CPU 1 supplies vector image data to the graphic board GB1 in the form of a drawing command. The input / output interface between the CPU 1 and the graphic board GB1 is a serial interface called PCIe (Peripheral Component Interconnect Express). The graphic board GB1 inputs a drawing command representing a vector image, performs rasterization processing on the vector image, and converts the vector image into a bitmap image. This bitmap image is supplied to the image synthesis circuit 41 by an interface called DVI (Digital Visual Interface).

サーバSV2は、サーバSV1と同様に作動する。但し、サーバSV2ではCPU2にはレーダ信号が入力される。レーダ信号の表示方式は、平面図表示PPI(Plan Position Indication)である。この表示では、レーダ電波を反射する物標を極座標位置で表す。CPU2は、極座標画像をビットマップ画像に変換し、このビットマップ画像を一旦メインメモリMM2に保存し、所定のタイミングでメインメモリMM2から読み出して、ビットマップ画像のデータをビットマップコピーコマンドの形式でグラフィックボードGB2へ供給する。グラフィックボードGB2は、そのビットマップコピーコマンドで受けたビットマップ画像を内蔵のビットメモリにコピーし、そのまま画像合成回路41へ出力する。 The server SV2 operates in the same manner as the server SV1. However, in the server SV2, a radar signal is input to the CPU 2. The radar signal display method is a plan position display PPI (Plan Position Indication). In this display, the target that reflects the radar radio wave is represented by the polar coordinate position. The CPU 2 converts the polar coordinate image into a bitmap image, temporarily stores the bitmap image in the main memory MM2, reads it out from the main memory MM2 at a predetermined timing, and reads the bitmap image data in the form of a bitmap copy command. Supply to the graphic board GB2. The graphic board GB2 copies the bitmap image received by the bitmap copy command to the built-in bit memory and outputs it to the image synthesis circuit 41 as it is.

サーバSV3では、CPU3にはカメラ映像を入力する。カメラ映像はデータが圧縮された動画である。そこで、CPU3は、圧縮された動画データを解凍し、元の動画データを再生し、その元の動画データをビットマップ画像に変換する。CPU3は、そのビットマップ画像を一旦メインメモリMM3に保存し、所定のタイミングでメインメモリMM3から読み出して、ビットマップ画像のデータをビットマップコピーコマンドの形式でグラフィックボードGB3へ供給する。グラフィックボードGB3は、そのビットマップコピーコマンドで受けたビットマップ画像を内蔵のビットメモリにコピーし、そのまま画像合成回路41へ出力する。 In the server SV3, the camera image is input to the CPU3. The camera image is a moving image in which data is compressed. Therefore, the CPU 3 decompresses the compressed moving image data, reproduces the original moving image data, and converts the original moving image data into a bitmap image. The CPU 3 temporarily stores the bitmap image in the main memory MM3, reads it from the main memory MM3 at a predetermined timing, and supplies the bitmap image data to the graphic board GB3 in the form of a bitmap copy command. The graphic board GB3 copies the bitmap image received by the bitmap copy command to the built-in bit memory and outputs it to the image synthesis circuit 41 as it is.

画像合成回路41は、グラフィックボードGB1,GB2,GB3という3つの画像レイヤから互いに異なるビットマップ画像を入力し、1つの画像レイヤに合成し、合成画像を表示器20へ供給する。 The image composition circuit 41 inputs different bitmap images from the three image layers GB1, GB2, and GB3 of the graphic boards, synthesizes them into one image layer, and supplies the composite image to the display 20.

図5は図4のマルチレイヤ画像合成装置40におけるCPU1,CPU2およびCPU3で実行されるソフトウエア200の構成を示す図である。ソフトウエア200はアプリケーションプログラムapp、ディスプレイサーバ202、グラフィックドライバ203、動画デコーダ101を有する。但し、図5には、入力信号として、目標情報、レーダ信号およびカメラ映像が示してあるが、目標情報はソフトウエア200がCPU1で実行されるときにだけにプリケーションプログラムappに入力され、レーダ信号はソフトウエア200がCPU2で実行されるときだけにアプリケーションプログラムappに入力され、カメラ映像はソフトウエア200がCPU3で実行されるときだけに動画デコーダ101に入力される。すなわち、ソフトウエア200はメインメモリMM1,MM2およびMM3にそれぞれインストールされ、CPU1,CPU2およびCPU3で実行される。 FIG. 5 is a diagram showing a configuration of software 200 executed by CPU1, CPU2, and CPU3 in the multilayer image synthesizer 40 of FIG. The software 200 includes an application program application, a display server 202, a graphic driver 203, and a moving image decoder 101. However, although the target information, the radar signal, and the camera image are shown as input signals in FIG. 5, the target information is input to the application program application only when the software 200 is executed by the CPU 1, and the radar. The signal is input to the application program application only when the software 200 is executed by the CPU 2, and the camera image is input to the moving image decoder 101 only when the software 200 is executed by the CPU 3. That is, the software 200 is installed in the main memories MM1, MM2 and MM3, respectively, and is executed by the CPU1, CPU2 and CPU3, respectively.

図5のソフトウエア200は、図4のCPU1では次のように実行される。このとき、前述のとおり、ソフトウエア200のアプリケーションプログラムappには目標情報が入力される。目標情報は、レーダで検出し、追尾している航空機等の物標の情報を表す信号である。航空機等の物標の情報は、方位、距離、速度、高度、識別等の情報である。アプリケーションプログラムappは、これらの情報に基づき、位置および識別を示すシンボル、方位および速度を示すリーダ、高度を示すデータブロックの情報を生成する。シンボル、リーダおよびデータブロックの情報はベクタ画像で表されている。さらにXlibにより、これらシンボル、リーダおよびデータブロックの情報は文字列コマンド、ラインコマンド等のコマンドに変換される。文字列コマンド、ラインコマンド等のコマンドは描画コマンドである。描画コマンドは、XY座標を指定して、ライン、円等を描画させるコマンドである。Xlibで生成された文字列コマンド、ラインコマンド等の描画コマンドは、Xプロトコルで表され、ディスプレイサーバ202へ供給される。ディスプレイサーバ202は、文字列コマンド、ラインコマンド等の描画コマンドをそのままグラフィックドライバ203へ出力する。グラフィックドライバ203は、文字列コマンド、ラインコマンド等の描画コマンド(シンボル、リーダおよびデータブロック等を表す描画コマンド)を入力し、この描画コマンドをグラフィックボードGB1の仕様に合わせた専用の描画コマンドに変換し、グラフィックボードGB1へ供給する。 The software 200 of FIG. 5 is executed by the CPU 1 of FIG. 4 as follows. At this time, as described above, the target information is input to the application program application of the software 200. The target information is a signal that is detected by a radar and represents information on a target such as an aircraft that is being tracked. Information on targets such as aircraft is information such as direction, distance, speed, altitude, and identification. Based on this information, the application program app generates information on symbols indicating position and identification, readers indicating direction and speed, and data blocks indicating altitude. Information on symbols, readers and data blocks is represented by vector images. Further, Xlib converts the information of these symbols, readers, and data blocks into commands such as character string commands and line commands. Commands such as character string commands and line commands are drawing commands. The drawing command is a command for drawing a line, a circle, or the like by designating XY coordinates. Drawing commands such as character string commands and line commands generated by Xlib are represented by the X protocol and are supplied to the display server 202. The display server 202 outputs drawing commands such as character string commands and line commands to the graphic driver 203 as they are. The graphic driver 203 inputs drawing commands such as character string commands and line commands (drawing commands representing symbols, readers, data blocks, etc.), and converts these drawing commands into dedicated drawing commands that match the specifications of the graphic board GB1. Then, it is supplied to the graphic board GB1.

図5のソフトウエア200は、図4のCPU2では次のように実行される。このとき、前述のとおり、ソフトウエア200のアプリケーションプログラムappにはレーダ信号が入力される。レーダ信号はレーダ電波を反射する物標を極座標位置で表しているので、アプリケーションプログラムappは極座標画像をビットマップ画像に変換し、Xlibによりビットマップ画像をビットマップコピーコマンドに変換する。ビットマップコピーコマンドは、Xプロトコルでもってディスプレイサーバ202へ供給される。ディスプレイサーバ202は、入力したビットマップコピーコマンドに基づき、ビットマップ画像を生成し、記憶し、記憶していたビットマップ画像をグラフィックドライバ203へ供給する。グラフィックドライバ203は、ビットマップコピーコマンドを入力し、このビットマップコピーコマンドをグラフィックボードGB2の仕様に合わせた専用のビットマップコピーコマンドに変換し、グラフィックボードGB2へ供給する。 The software 200 of FIG. 5 is executed by the CPU 2 of FIG. 4 as follows. At this time, as described above, the radar signal is input to the application program application of the software 200. Since the radar signal represents the target reflecting the radar radio wave at the polar coordinate position, the application program app converts the polar coordinate image into a bitmap image, and Xlib converts the bitmap image into a bitmap copy command. The bitmap copy command is supplied to the display server 202 by the X protocol. The display server 202 generates, stores, and supplies the stored bitmap image to the graphic driver 203 based on the input bitmap copy command. The graphic driver 203 inputs a bitmap copy command, converts the bitmap copy command into a dedicated bitmap copy command according to the specifications of the graphic board GB2, and supplies the bitmap copy command to the graphic board GB2.

図5のソフトウエア200は、図4のCPU3では次のように実行される。このとき、前述のとおり、ソフトウエア200の動画レコーダ101にはカメラ映像が入力される。動画レコーダ101は、データ圧縮された動画であるカメラ映像をデコードし、元の動画をビットマップ画像の画像形式で再生し、このビットマップ画像をビットマップコピーコマンドに変換し、Xプロトコルのデータ形式でディスプレイサーバ202へ供給する。ディスプレイサーバ202は、入力したビットマップコピーコマンドに基づき、ビットマップ画像を生成し、記憶し、記憶していたビットマップ画像をグラフィックドライバ203へ供給する。グラフィックドライバ203は、ビットマップコピーコマンドを入力し、このビットマップコピーコマンドをグラフィックボードGB2の仕様に合わせた専用のビットマップコピーコマンドに変換し、グラフィックボードGB2へ供給する。 The software 200 of FIG. 5 is executed by the CPU 3 of FIG. 4 as follows. At this time, as described above, the camera image is input to the moving image recorder 101 of the software 200. The moving image recorder 101 decodes the camera image which is a data-compressed moving image, reproduces the original moving image in the image format of the bitmap image, converts the bitmap image into the bitmap copy command, and converts the bitmap image into the bitmap copy command, and forms the data format of the X protocol. Supply to the display server 202. The display server 202 generates, stores, and supplies the stored bitmap image to the graphic driver 203 based on the input bitmap copy command. The graphic driver 203 inputs a bitmap copy command, converts the bitmap copy command into a dedicated bitmap copy command according to the specifications of the graphic board GB2, and supplies the bitmap copy command to the graphic board GB2.

以上に図4および図5を参照して説明した従来のマルチレイヤ画像合成装置では、入力情報である目標情報、レーダ信号、カメラ映像に対応してグラフィックボードGB1,GB2,GB3を備え、これらグラフィックボードにより、入力情報を表すビットマップ画像を作成している。入力画像の画像形式としては、目標情報のようなベクタ画像、レーダ信号のような極座標画像、カメラ映像のような動画等がある。画像を合成するには、これら画像形式の異なる入力画像をそれぞれビットマップ画像に変換し、ビットマップ画像で表された画像データを重ね合せることにより、合成画像を生成する必要がある。従来、このビットマップ画像を高速に作成する手段としてグラフィックボードが多用されてきた。グラフィックボードの描画処理は、ソフトウエアに依る場合に比べ一般に高速であると従来は言われてきたからである。 The conventional multilayer image synthesizer described with reference to FIGS. 4 and 5 is provided with graphic boards GB1, GB2, GB3 corresponding to input information such as target information, radar signal, and camera image, and these graphics are provided. The board creates a bitmap image that represents the input information. The image format of the input image includes a vector image such as target information, a polar coordinate image such as a radar signal, and a moving image such as a camera image. In order to synthesize an image, it is necessary to convert each of these input images having different image formats into a bitmap image and superimpose the image data represented by the bitmap image to generate a composite image. Conventionally, a graphic board has been widely used as a means for creating this bitmap image at high speed. This is because it has been conventionally said that the drawing process of the graphic board is generally faster than the case of relying on software.

ところが、目標情報のようなベクタ画像、レーダ信号のような極座標画像、カメラ映像のような動画等を異なるレイヤに入力し、それぞれのレイヤの画像をビットマップ画像に変換し、これらのビットマップ画像を合成し、1つの画面に表示する、すなわちマルチレイヤ表示をする航空機搭載の表示装置などにおいて、グラフィックボードを使用することには次のような解決するべき課題があった。
(1)消費電力が大きい
グラフィックボードは、一般的に消費電力が大きく、航空機搭載の表示装置など、限られた消費電力しか許容されない装置では採用できないか、若しくは消費電力を下げるために性能を下げざるを得なかった。
(2)モデルの寿命が短い
グラフィックボードは、技術進歩が急速であり、1つのモデルの製造期間は2年程度というのが現状である。部品供給の安定を図るためには最新モデルのグラフィックボードに常に更新することが求められる。ところが、グラフィックボードを駆動する描画コマンドの仕様は、グラフィックボード毎に相違するので、描画コマンドを生成するグラフィックドライバ203は、グラフィックボードの更新をする都度に改めて設計し直すことが必要になる。
(3)アーキテクチャに左右される
グラフィックボードについては、供給メーカごとに独自のアーキテクチャを用いる。他方、マルチレイヤ表示を行おうとした場合、入力画像の画像形式に応じて特定のアーキテクチャのグラフィックボードを選択せざるを得ない場合が多い。そこで、グラフィックボードを用いるマルチレイヤ画像合成装置では、グラフィックドライバ等の製品設計においてグラフィックボードのアーキテクチャを考慮せざるを得ないので、製品設計の選択肢が狭められる。
(4)対応できる表示器の範囲が広がる
グラフィックボードを有するマルチレイヤ画像合成装置では、そのグラフィックボードが対応できる表示解像度を持つ表示器にしか画像を表示できない。
However, vector images such as target information, polar coordinate images such as radar signals, moving images such as camera images are input to different layers, and the images of each layer are converted into bitmap images, and these bitmap images are used. There are the following problems to be solved in using a graphic board in an aircraft-mounted display device or the like that synthesizes and displays on one screen, that is, a multi-layer display.
(1) A graphic board with high power consumption generally consumes a large amount of power and cannot be used in a device such as an aircraft-mounted display device that allows only limited power consumption, or its performance is lowered in order to reduce power consumption. I had no choice but to do it.
(2) The life of the model is short. Technological progress is rapid for graphic boards, and the current situation is that the manufacturing period of one model is about two years. In order to stabilize the supply of parts, it is necessary to constantly update to the latest model graphic board. However, since the specifications of the drawing command for driving the graphic board are different for each graphic board, the graphic driver 203 for generating the drawing command needs to be redesigned every time the graphic board is updated.
(3) Architecture-dependent For graphic boards, each supplier uses its own architecture. On the other hand, when trying to perform multi-layer display, it is often necessary to select a graphic board having a specific architecture according to the image format of the input image. Therefore, in a multilayer image synthesizer using a graphic board, the architecture of the graphic board must be considered in the product design of a graphic driver or the like, so that the options for product design are narrowed.
(4) A multi-layer image synthesizer having a graphic board that expands the range of compatible displays can display an image only on a display having a display resolution that the graphic board can support.

そこで、本発明は、かかる課題を解決するために、グラフィックボードを用いることなくマルチレイヤ画像を高速に生成できるマルチレイヤ画像合成装置の提供を目的とする。 Therefore, an object of the present invention is to provide a multilayer image compositing apparatus capable of generating a multilayer image at high speed without using a graphic board in order to solve such a problem.

前述の課題を解決するため、本発明によるマルチレイヤ画像合成装置は、主に次のような特徴的な構成を採用している。 In order to solve the above-mentioned problems, the multilayer image synthesizer according to the present invention mainly adopts the following characteristic configurations.

(1)本発明によるマルチレイヤ画像合成装置は、
入力される複数レイヤの画像を1つのレイヤに合成するマルチレイヤ画像合成装置において、
合成しようとする前記入力画像を合成対象入力画像と称するとき、前記合成対象入力画像を各レイヤごとに独立に処理し、前記合成対象入力画像の画像形式に拘らず、前記合成対象入力画像をビットマップ画像で表し、前記ビットマップ画像をメインメモリにおける互いに異なるメモリ領域にそれぞれ一時保存させ、前記互いに異なるメモリ領域にそれぞれ一時保存した前記ビットマップ画像を画像合成サーバで合成し、前記画像合成サーバで合成して得た合成ビットマップ画像を前記メインメモリにおける別のメモリ領域に保存させる画像合成手段を有することを特徴とする。
(2)本発明によるマルチレイヤ画像合成装置は、
前記合成対象入力画像の画像形式がベクタ画像であるとき、前記ベクタ画像を処理することにより、前記ベクタ画像を表す描画コマンドを生成する描画コマンド生成手段と、前記描画コマンドに基づき前記ビットマップ画像を生成し、生成した前記ビットマップ画像を前記互いに異なるメモリ領域の何れかに一時保存させる第1の仮想ディスプレイサーバと、を前記画像合成手段が有することを特徴とする前記(1)に記載のものでもよい。
(3)本発明によるマルチレイヤ画像合成装置は、
前記描画コマンド生成手段が、前記ベクタ画像がレーダにより検知した物標の方位、距離、速度、高度、識別を含む物標情報であるとき、前記物標情報に基づき、前記位置および前記識別を示すシンボル、前記方位および前記速度を示すリーダ、前記高度を示すデータブロックの情報を生成し、前記シンボル、前記リーダおよび前記データブロックの情報をベクタ画像で表し、Xlib(Xライブラリ)により、前記シンボル、前記リーダおよび前記データブロックの情報を文字列コマンドまたはラインコマンドの描画コマンドに変換し、
前記第1の仮想ディスプレイサーバが、前記描画コマンドに基づき前記ビットマップ画像を生成し、前記ビットマップ画像をビットマップコピーコマンドの形式で前記メモリ領域の1つに送り、該メモリ領域に前記ビットマップ画像をコピーし、該メモリ領域に前記ビットマップ画像を一時保存させる
ことを特徴とする前記(2)に記載のものでもよい。
(4)本発明によるマルチレイヤ画像合成装置は、
前記合成対象入力画像がレーダ電波で検知した物標を極座標位置で表すレーダ信号であるとき、前記極座標画像をビットマップ画像に変換するとともに、該ビットマップ画像をXlibによりビットマップコピーコマンドとして出力するビットマップ画像生成手段と、前記ビットマップコピーコマンドを入力し、入力した前記ビットマップコピーコマンドに基づき、前記ビットマップ画像を前記互いに異なるメモリ領域の何れかに一時保存させる第2の仮想ディスプレイサーバと、を前記画像合成手段が有することを特徴とする前記(1)ないし(3)の何れかに記載のものでもよい。
(5)本発明によるマルチレイヤ画像合成装置は、
前記合成対象入力画像がデータ圧縮された動画であるカメラ映像であるとき、前記カメラ映像をデコードして、元の動画をビットマップ画像の画像形式で再生し、該ビットマップ画像をビットマップコピーコマンドの形式で出力する動画レコーダと、前記ビットマップコピーコマンドを入力し、入力した前記ビットマップコピーコマンドに基づき、前記ビットマップ画像を前記互いに異なるメモリ領域の何れかに一時保存させる第3の仮想ディスプレイサーバと、を前記画像合成手段が有することを特徴とする前記(1)ないし(4)の何れかに記載のものでもよい。
(1) The multilayer image synthesizer according to the present invention is
In a multi-layer image synthesizer that synthesizes input multiple-layer images into one layer
When the input image to be combined is referred to as a composition target input image, the composition target input image is processed independently for each layer, and the composition target input image is bitten regardless of the image format of the composition target input image. It is represented by a map image, the bitmap images are temporarily stored in different memory areas in the main memory, the bitmap images temporarily stored in the different memory areas are synthesized by an image synthesis server, and the image synthesis server synthesizes the bitmap images. It is characterized by having an image synthesizing means for storing a composite bitmap image obtained by synthesizing in another memory area in the main memory.
(2) The multilayer image synthesizer according to the present invention is
When the image format of the input image to be synthesized is a vector image, a drawing command generating means for generating a drawing command representing the vector image by processing the vector image and the bitmap image based on the drawing command are generated. The one according to (1) above, wherein the image compositing means has a first virtual display server that is generated and temporarily stores the generated bitmap image in any of the different memory areas. But it may be.
(3) The multilayer image synthesizer according to the present invention is
When the drawing command generating means is target information including the direction, distance, speed, altitude, and identification of the target detected by the radar, the position and the identification are indicated based on the target information. Information on the symbol, the reader indicating the orientation and the speed, and the data block indicating the altitude is generated, and the information on the symbol, the reader, and the data block is represented by a vector image, and the symbol, the symbol, by Xlib (X library). The information of the reader and the data block is converted into a drawing command of a character string command or a line command, and the information is converted into a drawing command.
The first virtual display server generates the bitmap image based on the drawing command, sends the bitmap image to one of the memory areas in the form of a bitmap copy command, and the bitmap is sent to the memory area. The image may be described in (2) above, wherein the image is copied and the bitmap image is temporarily stored in the memory area.
(4) The multilayer image synthesizer according to the present invention is
When the composite target input image is a radar signal representing a target detected by radar radio waves in polar coordinate positions, the polar coordinate image is converted into a bitmap image, and the bitmap image is output as a bitmap copy command by Xlive. A bitmap image generation means and a second virtual display server that inputs the bitmap copy command and temporarily stores the bitmap image in one of the memory areas different from each other based on the input bitmap copy command. , Is described in any one of the above (1) to (3), which is characterized in that the image synthesizing means has.
(5) The multilayer image synthesizer according to the present invention is
When the input image to be synthesized is a camera image that is a data-compressed moving image, the camera image is decoded, the original moving image is reproduced in the image format of the bitmap image, and the bitmap image is copied by the bitmap copy command. A third virtual display in which a video recorder output in the format of (1) and the bitmap copy command are input, and the bitmap image is temporarily stored in any of the memory areas different from each other based on the input bitmap copy command. The server may be described in any one of (1) to (4) above, wherein the image compositing means has a server.

本発明によれば、グラフィックボードを用いることなくマルチレイヤ画像を高速に生成できるマルチレイヤ画像合成装置を提供できる。 According to the present invention, it is possible to provide a multilayer image compositing device capable of generating a multilayer image at high speed without using a graphic board.

本発明の一実施形態であるマルチレイヤ画像合成装置の構成を示す図である。It is a figure which shows the structure of the multilayer image synthesizer which is one Embodiment of this invention. 図1の実施形態におけるCPU1で実行されるソフトウエアの構成を示す図である。It is a figure which shows the structure of the software executed by the CPU 1 in the embodiment of FIG. 図1の実施形態におけるCPU2で実行されるソフトウエアの構成を示す図である。It is a figure which shows the structure of the software executed by the CPU 2 in the embodiment of FIG. 従来のマルチレイヤ画像合成装置の構成を示す図である。It is a figure which shows the structure of the conventional multilayer image composition apparatus. 図4の従来のマルチレイヤ画像合成装置におけるCPUで実行されるソフトウエアの構成を示す図である。It is a figure which shows the structure of the software executed by the CPU in the conventional multilayer image synthesizer of FIG. 互いに異なるレイヤにある複数の画像(A,B,C,D)と、これら複数の画像を一つレイヤに合成した画像(E)の例を示す図である。It is a figure which shows the example of the plurality of images (A, B, C, D) which are in different layers, and the image (E) which combined these a plurality of images into one layer.

以下、本発明によるマルチレイヤ画像合成装置の好適な実施形態について添付図を参照して説明する。なお、以下の各図面に付した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、本発明を図示の態様に限定することを意図するものではないことも言うまでもない。 Hereinafter, preferred embodiments of the multilayer image synthesizer according to the present invention will be described with reference to the accompanying drawings. It goes without saying that the drawing reference reference numerals attached to the following drawings are added to each element for convenience as an example for assisting understanding, and the present invention is not intended to be limited to the illustrated embodiment. No.

図1は、本発明の一実施形態であるマルチレイヤ画像合成装置の構成を示す図である。図1のマルチレイヤ画像合成装置10は、メインメモリMM1,MM2,MM3、CPU1,CPU2,CPU3、表示回路11、ドライバ回路12およびイーサネット(Ethernet)(登録商標)スイッチ13を有する。 FIG. 1 is a diagram showing a configuration of a multilayer image synthesizer according to an embodiment of the present invention. The multilayer image synthesizer 10 of FIG. 1 has main memories MM1, MM2, MM3, CPU1, CPU2, CPU3, a display circuit 11, a driver circuit 12, and an Ethernet (registered trademark) switch 13.

メインメモリMM1はCPU1で実行されるアプリケーションプログラムのコード及びデータを保持するとともに、表示器20に表示する画像イメージをビットマップ画像の形式で保持する。CPU1は、互いに異なるレイヤの画像として、目標情報T1、レーダ信号R1およびカメラ映像V1を入力する。目標情報T1は、レーダで検出し、追尾している航空機等の物標の情報を表す信号である。航空機等の物標の情報は、方位、距離、速度、高度、識別等の情報である。入力される目標情報では、これら方位等の情報はベクタ画像で表されている。レーダ信号は、航空機等の物標の方位、距離、受信電波の強度を極座標画像で表している。カメラ映像は動画である。CPU1は、ベクタ画像の目標情報、極座標画像のレーダ画像および動画のカメラ映像のいずれをもビットマップ画像に変換し、このビットマップ画像を表すビットマップコピーコマンドの形式でメインメモリMM1に一旦保存する。 The main memory MM1 holds the code and data of the application program executed by the CPU 1, and also holds the image to be displayed on the display 20 in the form of a bitmap image. The CPU 1 inputs the target information T1, the radar signal R1, and the camera image V1 as images of different layers. The target information T1 is a signal that is detected by a radar and represents information on a target such as an aircraft that is being tracked. Information on targets such as aircraft is information such as direction, distance, speed, altitude, and identification. In the input target information, information such as these directions is represented by a vector image. The radar signal represents the direction, distance, and intensity of received radio waves of an object such as an aircraft in polar coordinate images. The camera image is a moving image. The CPU 1 converts all of the target information of the vector image, the radar image of the polar coordinate image, and the camera image of the moving image into a bitmap image, and temporarily saves it in the main memory MM1 in the form of a bitmap copy command representing this bitmap image. ..

CPU2は、CPU1と同様に、目標情報T2、レーダ信号R2、カメラ映像V2を入力し、それらの画像データのいずれをもビットマップ画像に変換し、このビットマップ画像をメインメモリMM2に一旦保存する。CPU3は、CPU2と同様に、目標情報T3、レーダ信号R3、カメラ映像V3を入力し、それらの画像データのいずれをもビットマップ画像に変換し、このビットマップ画像をメインメモリMM3に一旦保存する。 Similar to the CPU 1, the CPU 2 inputs the target information T2, the radar signal R2, and the camera image V2, converts any of the image data into a bitmap image, and temporarily stores the bitmap image in the main memory MM2. .. Like the CPU2, the CPU3 inputs the target information T3, the radar signal R3, and the camera image V3, converts any of the image data into a bitmap image, and temporarily stores the bitmap image in the main memory MM3. ..

表示回路11は、表示器20の表示タイミングをCPU1に伝える。表示タイミングを受けたCPU1は、ビットマップ画像の目標情報T1、レーダ信号R1、カメラ映像V1を読み出すとともに、イーサネットスイッチ13経由でCPU2およびCPU3に対し、メインメモリMM2およびMM3にそれぞれ保存されているビットマップ画像を読み出す命令を送る。CPU2およびCPU3は、その命令を受け、メインメモリMM2,MM3にそれぞれ保存されているビットマップ画像の目標情報T2,T3、レーダ信号R2,R3、カメラ映像V2,V3を読み出し、イーサネットスイッチ13経由でCPU1宛てに、それらビットマップ画像を送る。 The display circuit 11 informs the CPU 1 of the display timing of the display 20. Upon receiving the display timing, the CPU 1 reads the target information T1 of the bitmap image, the radar signal R1, and the camera image V1, and the bits stored in the main memories MM2 and MM3 for the CPU2 and the CPU3 via the Ethernet switch 13, respectively. Send a command to read the map image. Upon receiving the command, the CPU 2 and the CPU 3 read the target information T2 and T3 of the bitmap image, the radar signals R2 and R3, and the camera images V2 and V3 stored in the main memories MM2 and MM3, respectively, and read them via the Ethernet switch 13. These bitmap images are sent to the CPU1.

CPU1は、メインメモリMM1,MM2,MM3から読み出したビットマップ画像の目標情報T1,T2,T3、レーダ信号R1,R2,R3、カメラ映像V1,V2,V3を合成し、表示回路11へ送る。CPU1と表示回路11との入出力インタフェースは、PCIe(Peripheral Component Interconnect Express)と称されるシリアルインタフェースである。ドライバ回路12は、表示回路11から送られたビットマップ画像を受け、表示器20の仕様に合わせた形式のビットマップ画像を生成し、表示器20へ送る。ドライバ回路12と表示器20とはDVI(Digital Visual Interface)インタフェースで接続されている。表示器20には、目標情報T1,T2,T3、レーダ信号R1,R2,R3、カメラ映像V1,V2,V3を合成したビットマップ画像が表示される。 The CPU 1 synthesizes the target information T1, T2, T3 of the bitmap image read from the main memories MM1, MM2, MM3, the radar signals R1, R2, R3, and the camera images V1, V2, V3, and sends them to the display circuit 11. The input / output interface between the CPU 1 and the display circuit 11 is a serial interface called PCIe (Peripheral Component Interconnect Express). The driver circuit 12 receives the bitmap image sent from the display circuit 11, generates a bitmap image in a format conforming to the specifications of the display 20, and sends the bitmap image to the display 20. The driver circuit 12 and the display 20 are connected by a DVI (Digital Visual Interface) interface. The display 20 displays a bitmap image obtained by synthesizing the target information T1, T2, T3, the radar signals R1, R2, R3, and the camera images V1, V2, V3.

図2は、図1の実施形態におけるCPU1で実行されるソフトウエア100の構成を示す図である。ソフトウエア100は、アプリケーションプログラムapp1,2、動画デコーダ101、仮想ディスプレイサーバVD1〜VD4、共有メモリSM1〜SM4、画像合成サーバ102、共有メモリSM5を有する。このソフトウエア100およびソフトウエア100を実行するCPUは、前述の画像合成手段に相当する。CPU1を4つのCPUコアで構成し、例えば、アプリケーションプログラムapp1、仮想ディスプレイサーバVD1、共有メモリSM1、共有メモリSM5および画像合成サーバ102を第1のCPUコアで実行し、アプリケーションプログラムapp2、仮想ディスプレイサーバVD2および共有メモリSM2を第2のCPUコアで実行し、仮想ディスプレイサーバVD3および共有メモリSM3を第3のCPUコアで実行し、動画デコーダ101、仮想ディスプレイサーバVD4および共有メモリSM4を第4のCPUコアで実行するようにしてもよい。なお、後述のように、共有メモリSM1〜SM5は、メインメモリMM1のメモリ領域を使って、実現される。 FIG. 2 is a diagram showing a configuration of software 100 executed by the CPU 1 according to the embodiment of FIG. The software 100 includes application programs apps 1 and 2, a moving image decoder 101, virtual display servers VD1 to VD4, shared memories SM1 to SM4, an image synthesis server 102, and shared memory SM5. The software 100 and the CPU that executes the software 100 correspond to the above-mentioned image synthesizing means. The CPU 1 is composed of four CPU cores, and for example, the application program appp1, the virtual display server VD1, the shared memory SM1, the shared memory SM5, and the image synthesis server 102 are executed by the first CPU core, and the application program appp2 and the virtual display server are executed. The VD2 and the shared memory SM2 are executed by the second CPU core, the virtual display server VD3 and the shared memory SM3 are executed by the third CPU core, and the video decoder 101, the virtual display server VD4 and the shared memory SM4 are executed by the fourth CPU. It may be executed in the core. As will be described later, the shared memories SM1 to SM5 are realized by using the memory area of the main memory MM1.

アプリケーションプログラムapp1は、ベクタ画像である目標情報T1を入力する。目標情報T1は、レーダで検出し、追尾している航空機等の物標の情報を表す信号であり、航空機等の物標の情報は、方位、距離、速度、高度、識別等の情報である。アプリケーションプログラムapp1は、これらの情報に基づき、位置および識別を示すシンボル、方位および速度を示すリーダ、高度を示すデータブロックの情報を生成する。シンボル、リーダおよびデータブロックの情報はベクタ画像で表されている。さらにXlib(Xライブラリ)により、これらシンボル、リーダおよびデータブロックの情報は文字列コマンド、ラインコマンド等のコマンドに変換される。文字列コマンド、ラインコマンド等のコマンドは描画コマンドである。描画コマンドは、XY座標を指定して、ライン、円等を描画させるコマンドである。Xlibで生成された文字列コマンド、ラインコマンド等の描画コマンドは、Xプロトコルで表され、仮想ディスプレイサーバVD1へ供給される。アプリケーションプログラムapp1は前述の描画コマンド生成手段に相当する。 The application program app1 inputs the target information T1 which is a vector image. The target information T1 is a signal that represents information on a target such as an aircraft that is detected and tracked by a radar, and the information on the target such as an aircraft is information such as direction, distance, speed, altitude, and identification. .. Based on this information, the application program app1 generates information on a symbol indicating position and identification, a reader indicating direction and speed, and a data block indicating altitude. Information on symbols, readers and data blocks is represented by vector images. Further, Xlib (X library) converts the information of these symbols, readers, and data blocks into commands such as character string commands and line commands. Commands such as character string commands and line commands are drawing commands. The drawing command is a command for drawing a line, a circle, or the like by designating XY coordinates. Drawing commands such as character string commands and line commands generated by Xlib are represented by the X protocol and are supplied to the virtual display server VD1. The application program application1 corresponds to the above-mentioned drawing command generation means.

仮想ディスプレイサーバVD1は、文字列コマンド、ラインコマンド等の描画コマンドを入力し、この描画コマンドに基づき、ビットマップメモリアドレスを1画素ずつ計算し、色情報をそれら各画素に書き込み、ビットマップ画像を生成する。ディスプレイサーバVD1は、そのビットマップ画像をビットマップコピーコマンドの形式で、共有メモリSM1に送り、共有メモリSM1にビットマップ画像をコピーし、保存する。仮想ディスプレイサーバVD1は前述の第1の仮想ディスプレイサーバに相当する。共有メモリSM1は、図1のハードウエア上ではメインメモリMM1内の記憶エリアとして実現される。共有メモリSM1を実現するメインメモリMM1内の記憶エリアは、前述のメインメモリにおける互いに異なるメモリ領域に相当する。 The virtual display server VD1 inputs drawing commands such as character string commands and line commands, calculates bitmap memory addresses one pixel at a time based on these drawing commands, writes color information to each pixel, and creates a bitmap image. Generate. The display server VD1 sends the bitmap image to the shared memory SM1 in the form of a bitmap copy command, copies the bitmap image to the shared memory SM1, and saves the bitmap image. The virtual display server VD1 corresponds to the above-mentioned first virtual display server. The shared memory SM1 is realized as a storage area in the main memory MM1 on the hardware of FIG. The storage areas in the main memory MM1 that realizes the shared memory SM1 correspond to different memory areas in the above-mentioned main memory.

ソフトウエア100のアプリケーションプログラムapp2にはレーダ信号R1が入力される。レーダ信号R1はレーダ電波を反射する物標を極座標位置で表しているので、アプリケーションプログラムapp2は極座標画像をビットマップ画像に変換し、Xlibによりビットマップ画像をビットマップコピーコマンドに変換する。ビットマップコピーコマンドは、Xプロトコルでもって仮想ディスプレイサーバVD2へ供給される。仮想ディスプレイサーバVD2は、入力したビットマップコピーコマンドに基づき、ビットマップ画像を生成し、ビットマップ画像を共有メモリSM2にコピーし、保存する。アプリケーションプログラムapp2は、前述のビットマップ画像生成手段に相当する。また、仮想ディスプレイサーバVD2は前述の第2の仮想ディスプレイサーバに相当する。 The radar signal R1 is input to the application program app2 of the software 100. Since the radar signal R1 represents a target that reflects radar radio waves in polar coordinate positions, the application program app2 converts the polar coordinate image into a bitmap image, and Xlib converts the bitmap image into a bitmap copy command. The bitmap copy command is supplied to the virtual display server VD2 by the X protocol. The virtual display server VD2 generates a bitmap image based on the input bitmap copy command, copies the bitmap image to the shared memory SM2, and saves the bitmap image. The application program app2 corresponds to the above-mentioned bitmap image generation means. Further, the virtual display server VD2 corresponds to the above-mentioned second virtual display server.

ソフトウエア100の動画レコーダ101にはカメラ映像V1が入力される。動画レコーダ101は、データ圧縮された動画であるカメラ映像V1をデコードし、元の動画をビットマップ画像の画像形式で再生し、このビットマップ画像をビットマップコピーコマンドに変換し、Xプロトコルのデータ形式で仮想ディスプレイサーバVD4へ供給する。仮想ディスプレイサーバVD4は、入力したビットマップコピーコマンドに基づき、ビットマップ画像を生成し、ビットマップ画像を共有メモリSM4にコピーし、保存する。仮想ディスプレイサーバVD4は前述の第3の仮想ディスプレイサーバに相当する。 The camera image V1 is input to the moving image recorder 101 of the software 100. The moving image recorder 101 decodes the camera image V1 which is a data-compressed moving image, reproduces the original moving image in the image format of the bitmap image, converts the bitmap image into the bitmap copy command, and performs the data of the X protocol. It is supplied to the virtual display server VD4 in the form. The virtual display server VD4 generates a bitmap image based on the input bitmap copy command, copies the bitmap image to the shared memory SM4, and saves the bitmap image. The virtual display server VD4 corresponds to the above-mentioned third virtual display server.

図3は、図1の実施形態におけるCPU2で実行されるソフトウエア100Aの構成を示す図である。ソフトウエア100Aは、アプリケーションプログラムapp1,2、動画デコーダ101、仮想ディスプレイサーバVD1,VD2,VD4、共有メモリSM1,SM2,SM4、画像合成サーバ102、共有メモリSM5、イーサネット転送ソフト103を有する。図3のソフトウエア100Aは、図2のソフトウエア100における仮想ディスプレイサーバVD3および共有メモリSM3を欠く一方、イーサネット転送ソフト103が追加された構成である。ソフトウエア100Aは、目標情報T2、レーダ信号R2、カメラ映像V2を入力し、これら入力を、ソフトウエア100に入力される目標情報T1、レーダ信号R1、カメラ映像V1と同様に処理し、入力に対応したビットマップ画像を生成し、共有メモリSM1,SM2,SM4にそれぞれ保存する。画像合成サーバ102は、これらビットマップ画像を合成し、合成ビットマップ画像を共有メモリSM5に一旦保存する。 FIG. 3 is a diagram showing a configuration of software 100A executed by the CPU 2 in the embodiment of FIG. The software 100A includes application programs ap1,2, a moving image decoder 101, virtual display servers VD1, VD2, VD4, shared memories SM1, SM2, SM4, an image synthesis server 102, shared memory SM5, and Ethernet transfer software 103. The software 100A of FIG. 3 lacks the virtual display server VD3 and the shared memory SM3 in the software 100 of FIG. 2, while the Ethernet transfer software 103 is added. The software 100A inputs the target information T2, the radar signal R2, and the camera image V2, processes these inputs in the same manner as the target information T1, the radar signal R1, and the camera image V1 input to the software 100, and inputs them. The corresponding bitmap image is generated and stored in the shared memories SM1, SM2, SM4, respectively. The image composition server 102 synthesizes these bitmap images and temporarily stores the composite bitmap image in the shared memory SM5.

図1の表示回路11が表示器20の表示タイミングをソフトウエア100(CPU1上で実行されている)に伝えると、その表示タイミングを受けたソフトウエア100は、イーサネットスイッチ13経由で、ソフトウエア100A(CPU2上で実行されている)に対し、共有メモリSM5に保存されているビットマップ画像を読み出す命令を送る。ソフトウエア100Aのイーサネット転送ソフト103(イーサネットスイッチ13を作動させるソフト)は、その命令を受け、共有メモリSM5に保存されているビットマップ画像形式の目標情報T2、レーダ信号R2、カメラ映像V2を読み出し、イーサネットスイッチ13経由でソフトウエア100の仮想ディスプレイサーバVD3宛てに、それらビットマップ画像のビットマップコピーコマンドを送る。仮想ディスプレイサーバVD3は、ビットマップコピーコマンドにより表されているビットマップ画像を共有メモリSM3にコピーし、保存する。 When the display circuit 11 of FIG. 1 transmits the display timing of the display 20 to the software 100 (executed on the CPU 1), the software 100 that receives the display timing transmits the software 100A via the Ethernet switch 13. A command to read a bitmap image stored in the shared memory SM5 is sent to (executed on the CPU 2). The Ethernet transfer software 103 (software that operates the Ethernet switch 13) of the software 100A receives the command and reads out the target information T2, the radar signal R2, and the camera image V2 in the bitmap image format stored in the shared memory SM5. , Sends a bitmap copy command of these bitmap images to the virtual display server VD3 of software 100 via the Ethernet switch 13. The virtual display server VD3 copies the bitmap image represented by the bitmap copy command to the shared memory SM3 and saves it.

図3に示したマルチレイヤ画像合成装置ソフトウエア100Aは、上述のとおり、図1におけるCPU2に入力された目標情報T2、レーダ信号R2、カメラ映像V2を処理し、入力に対応したビットマップ画像を生成し、ビットマップ画像を共有メモリSM1,SM2,SM4にそれぞれ保存し、画像合成サーバ102で、これらビットマップ画像を合成し、合成ビットマップ画像を共有メモリSM5に一旦保存し、保存した合成ビットマップ画像を、図2のソフトウエア100の読み出し命令に応じて、仮想ディスプレイサーバVD3に送った。同様に、図3のソフトウエア100Aにより、図1におけるCPU3に入力された目標情報T3、レーダ信号R3、カメラ映像V3を処理し、これら入力の画像を合成し、図2のソフトウエア100の読み出し命令に応じて、仮想ディスプレイサーバVD3に合成ビットマップ画像を送ることもできる。図1に示されているように、メインメモリMMおよびCPUは入力の増加に応じて任意の数まで増やすことが可能であり、増やした入力情報の数に応じてイーサネットスイッチ13に入力される合成ビットマップ画像を増加することが可能であるから、本実施の形態のマルチレイヤ画像合成装置では、合成をする画像入力の数、すなわち画像のレイヤ数には格段の制限はない。 As described above, the multilayer image synthesizer software 100A shown in FIG. 3 processes the target information T2, the radar signal R2, and the camera image V2 input to the CPU 2 in FIG. 1 to generate a bitmap image corresponding to the input. Generated and saved the bitmap image in the shared memory SM1, SM2, SM4, respectively, the image synthesis server 102 synthesizes these bitmap images, temporarily saves the composite bitmap image in the shared memory SM5, and saves the composite bit. The map image was sent to the virtual display server VD3 in response to the read command of the software 100 of FIG. Similarly, the software 100A of FIG. 3 processes the target information T3, the radar signal R3, and the camera image V3 input to the CPU 3 in FIG. 1, synthesizes the images of these inputs, and reads out the software 100 of FIG. A composite bitmap image can also be sent to the virtual display server VD3 in response to an instruction. As shown in FIG. 1, the main memory MM and the CPU can be increased to an arbitrary number as the input increases, and the composite input to the Ethernet switch 13 according to the increased number of input information. Since it is possible to increase the number of bitmap images, in the multilayer image synthesizer of the present embodiment, there is no significant limitation on the number of image inputs to be combined, that is, the number of image layers.

例えば、いま、図1のCPU2およびCPU3がいずれも図3のソフトウエア100Aを実行するものとする。このとき、目標情報T2、レーダ信号R2、カメラ映像V2の合成ビットマップ画像が共有メモリSM5(CPU2で実行されるソフトウエア100Aにおけるもの)に保存される。同時に、目標情報T3、レーダ信号R3、カメラ映像V3の合成ビットマップ画像が共有メモリSM5(CPU3で実行されるソフトウエア100Aにおけるもの)に保存される。このようなマルチレイヤ画像合成装置を構成するときは、図2おける仮想ディスプレイサーバVD3、共有メモリSM3のルートに並列に、仮想ディスプレイサーバVD5、共有メモリSM5のルートを設ける。そして、仮想ディスプレイサーバVD3、共有メモリSM3のルートで、目標情報T2、レーダ信号R2、カメラ映像V2の合成ビットマップ画像を処理し、仮想ディスプレイサーバVD5、共有メモリSM5のルートで目標情報T3、レーダ信号R3、カメラ映像V3の合成ビットマップ画像を処理すればよい。 For example, it is assumed that the CPU 2 and the CPU 3 of FIG. 1 both execute the software 100A of FIG. At this time, the composite bitmap image of the target information T2, the radar signal R2, and the camera image V2 is stored in the shared memory SM5 (in the software 100A executed by the CPU 2). At the same time, the composite bitmap image of the target information T3, the radar signal R3, and the camera image V3 is stored in the shared memory SM5 (in the software 100A executed by the CPU 3). When configuring such a multilayer image synthesizer, the routes of the virtual display server VD5 and the shared memory SM5 are provided in parallel with the routes of the virtual display server VD3 and the shared memory SM3 in FIG. Then, the synthetic bitmap image of the target information T2, the radar signal R2, and the camera image V2 is processed by the route of the virtual display server VD3 and the shared memory SM3, and the target information T3 and the radar are processed by the route of the virtual display server VD5 and the shared memory SM5. The composite bitmap image of the signal R3 and the camera image V3 may be processed.

かくして、図2、図3のマルチレイヤ画像合成装置ソフトウエア100,100Aにより、図2の共有メモリSM1〜SM4には、目標情報T1,T2,T3、レーダ信号R1,R2,R3、カメラ映像V1,V2,V3のビットマップ画像が一時保存される。図2の画像合成回路102は、共有メモリSM1〜SM4に保存されているビットマップ画像を読み出し、画像合成をし、合成ビットマップ画像をビットマップコピーコマンドの形式で共有メモリSM5に供給し、共有メモリSM5に合成ビットマップ画像をコピーする。共有メモリSM5は、画像合成回路102から供給されたビットマップコピーコマンドに基づき、ビットマップ画像をコピーし、一時保存するとともに、表示回路11から受ける表示器20の表示タイミングに、一時保存していたビットマップ画像を読み出し、表示器20へ供給する。共有メモリSM2〜5も、共有メモリSM1と同様に、メインメモリMM1内の記憶エリアにビットマップメモリとして実現されている。共有メモリSM2〜5を実現するメインメモリMM1内の記憶エリアは、共有メモリSM1と同様に、前述のメインメモリにおける互いに異なるメモリ領域に相当する。 Thus, according to the multilayer image synthesizer software 100, 100A of FIGS. 2 and 3, the shared memories SM1 to SM4 of FIG. 2 have target information T1, T2, T3, radar signals R1, R2, R3, and camera image V1. , V2, V3 bitmap images are temporarily saved. The image composition circuit 102 of FIG. 2 reads out the bitmap images stored in the shared memories SM1 to SM4, synthesizes the images, supplies the synthesized bitmap images to the shared memory SM5 in the form of a bitmap copy command, and shares the images. Copy the composite bitmap image to memory SM5. The shared memory SM5 copies and temporarily stores the bitmap image based on the bitmap copy command supplied from the image synthesis circuit 102, and temporarily stores the bitmap image at the display timing of the display 20 received from the display circuit 11. The bitmap image is read out and supplied to the display 20. Like the shared memory SM1, the shared memories SM2 to 5 are also realized as bitmap memories in the storage area in the main memory MM1. The storage area in the main memory MM1 that realizes the shared memories SM2 to 5 corresponds to different memory areas in the above-mentioned main memory, similarly to the shared memory SM1.

図6は、互いに異なるレイヤにある複数の画像(A,B,C,D)とこれら複数の画像を一つレイヤに合成した画像(E)の例を示す図である。図6(A)は半固定的に常時表示される距離円50および方向線51の画像の図、(B)はリアルタイムに示す目標情報の図、(C)は現時点までの一定時間の目標情報を示す画像の図、(D)はレーダ信号で表されるレーダビデオを示す画像の図、(E)は(A)〜(E)の平面画像を合成した合成画像を示す図である。 FIG. 6 is a diagram showing an example of a plurality of images (A, B, C, D) on different layers and an image (E) in which the plurality of images are combined into one layer. FIG. 6A is an image of a distance circle 50 and a direction line 51 that are displayed semi-fixedly and constantly, FIG. 6B is a diagram of target information shown in real time, and FIG. 6C is a target information for a certain period of time up to the present time. (D) is a diagram showing a radar video represented by a radar signal, and (E) is a diagram showing a composite image obtained by synthesizing the plane images of (A) to (E).

これら(A)から(E)に示す図は、ビットマップ画像で表してある。図6(B)では、符号52が新しい物標Nを示す。Nは、物標の検出が新しいという意味の物標に関する識別を表し、またNの表示位置はその物標の位置を表している。符号53は、リーダと称される線を示し、その線の長さが速度、線の方向が進行方向を示す。符号54は、データブロックと称される文字情報であり、航跡番号、高度などを表している。符号56は何らかの未認識物標、符号55はその未認識物標の予想進路を示す。図6(C)では、符号57が一定時間内に検知した大型の物標、符号58が一定時間内に検知した小型の物標を示す。図6(D)では、符号A1〜A6はレーダビデオを示す。 The figures shown in (A) to (E) are represented by bitmap images. In FIG. 6B, reference numeral 52 indicates a new target N. N represents the identification of the target, which means that the detection of the target is new, and the display position of N represents the position of the target. Reference numeral 53 indicates a line called a leader, the length of the line indicates the speed, and the direction of the line indicates the traveling direction. Reference numeral 54 is character information called a data block, and represents a track number, altitude, and the like. Reference numeral 56 indicates some unrecognized target, and reference numeral 55 indicates the expected course of the unrecognized target. In FIG. 6C, reference numeral 57 indicates a large target detected within a certain period of time, and reference numeral 58 indicates a small target detected within a certain time. In FIG. 6D, reference numerals A1 to A6 indicate radar video.

図6(A)に示す距離円50および方向線51の画像は、半固定的に常時表示される画像であり、図1乃至図3に示す本発明の実施の形態では、目標情報T1〜T3と同様に、ベクタ画像で入力され、実施の形態のマルチレイヤ画像合成装置10においてビットマップ画像に変換されたものである。図6(B)および(C)における符号52〜58は目標情報の画像であり、目標情報T1〜T3と同様に、ベクタ画像で入力され、実施の形態のマルチレイヤ画像合成装置10においてビットマップ画像に変換されたものである。図6(D)に符号A1〜A6で示すレーダビデオはレーダ信号に基づき生成された画像であり、レーダ信号R1〜R3と同様に、極座標画像で入力され、実施の形態のマルチレイヤ画像合成装置10においてビットマップ画像に変換されたものである。このように、本実施の形態のマルチレイヤ画像合成装置10によれば、画像形式の異なる複数のレイヤの画像を入力し、ビットマップ画像の形式に揃え、ビットマップ画像形式の合成画像を表示器20に表示することができる。 The images of the distance circle 50 and the direction line 51 shown in FIG. 6A are semi-fixed and constantly displayed images, and in the embodiment of the present invention shown in FIGS. 1 to 3, the target information T1 to T3 Similarly, it is input as a vector image and converted into a bitmap image by the multilayer image synthesizer 10 of the embodiment. Reference numerals 52 to 58 in FIGS. 6 (B) and 6 (C) are images of target information, which are input as vector images in the same manner as the target information T1 to T3, and are bitmaps in the multilayer image synthesizer 10 of the embodiment. It is converted into an image. The radar videos shown by the reference numerals A1 to A6 in FIG. 6D are images generated based on the radar signals, and are input as polar coordinate images as in the radar signals R1 to R3, and are the multilayer image synthesizer of the embodiment. It was converted into a bitmap image in 10. As described above, according to the multilayer image compositing device 10 of the present embodiment, images of a plurality of layers having different image formats are input, aligned with the bitmap image format, and the composite image of the bitmap image format is displayed. It can be displayed at 20.

以上に図面を参照して詳細に説明したように、本発明のマルチレイヤ画像合成装置によれば、グラフィックボードを用いることなく、マルチレイヤ画像をCPUで実行されるソフトウエア(画像合成手段)により高速に生成できるマルチレイヤ画像合成装置が提供できる。このように、グラフィックボードを用いず、複数レイヤの画像をCPUで実行されるソフトウエア(画像合成手段)により合成することにより、マルチレイヤ画像を生成する本発明のマルチレイヤ画像合成装置には、次のような効果がある。
(1)消費電力の大きいグラフィックボードではなく、消費電力の小さいCPUで画像合成をするので、高性能であっても消費電力が小さく、航空機に搭載できる。
(2)更新期間の短いグラフィックボードのモデル変更の都度に改めて設計し直す必要がなく、マルチレイヤ画像合成装置の維持経費が節約され、経済的である。
(3)供給メーカごとに独自のアーキテクチャが採用されるグラフィックボードを用いないので、グラフィックボードのアーキテクチャを考慮することなく、設計ができ、製品設計の選択肢が広がる。
(4)グラフィックボードを有するマルチレイヤ画像合成装置では、そのグラフィックボードが対応できる表示解像度を持つ表示器にしか画像を表示ができないが、グラフィックボードを持たない本発明のマルチレイヤ画像合成装置では、表示解像度は任意に設計できるので、任意の表示解像度を持つ表示器に画像を表示できる。
As described in detail above with reference to the drawings, according to the multilayer image compositing apparatus of the present invention, the multilayer image is executed by the software (image compositing means) executed by the CPU without using the graphic board. A multilayer image synthesizer capable of high-speed generation can be provided. As described above, the multilayer image compositing apparatus of the present invention that generates a multilayer image by compositing a plurality of layers of images by software (image compositing means) executed by a CPU without using a graphic board It has the following effects.
(1) Since image composition is performed by a CPU with low power consumption instead of a graphic board with high power consumption, the power consumption is low even with high performance, and it can be mounted on an aircraft.
(2) It is not necessary to redesign the graphic board with a short update period every time the model is changed, and the maintenance cost of the multilayer image compositing device is saved, which is economical.
(3) Since a graphic board that adopts a unique architecture for each supplier is not used, design can be performed without considering the architecture of the graphic board, and product design options are expanded.
(4) A multilayer image synthesizer having a graphic board can display an image only on a display having a display resolution compatible with the graphic board, but the multilayer image synthesizer of the present invention having no graphic board can display an image. Since the display resolution can be arbitrarily designed, the image can be displayed on a display having an arbitrary display resolution.

以上、本発明の好適な実施形態の構成を説明した。しかし、かかる実施形態は、本発明の単なる例示に過ぎず、何ら本発明を限定するものではないことに留意されたい。本発明の要旨を逸脱することなく、特定用途に応じて種々の変形変更が可能であることが、当業者には容易に理解できよう。例えば、入力情報は、図1乃至図3に例示した目標情報、レーダ信号といったレーダからの画像情報やカメラ映像に限らず、赤外線センサ等の他のセンサからの画像も1つのレイヤの画像として入力が可能であり、他の入力画像と合成して、ビットマップ画像として表示できる。 The configuration of a preferred embodiment of the present invention has been described above. However, it should be noted that such embodiments are merely exemplary of the invention and do not limit the invention in any way. Those skilled in the art can easily understand that various modifications can be made according to a specific application without departing from the gist of the present invention. For example, the input information is not limited to the target information illustrated in FIGS. 1 to 3 and the image information from the radar such as the radar signal and the camera image, but also the image from another sensor such as an infrared sensor is input as an image of one layer. Is possible, and it can be combined with other input images and displayed as a bitmap image.

10,40 マルチレイヤ画像合成装置
11 表示回路
12 ドライバ回路
13 イーサネットスイッチ
20 表示器
41 画像合成回路
100,100A,200 マルチレイヤ画像合成装置ソフトウエア
101 動画デコーダ
102 画像合成サーバ
103 イーサネット転送ソフト
202 ディスプレイサーバ
203 グラフィックドライバ
MM1〜MM3 メインメモリ
app,app1〜app3 アプリケーションプログラム
VD1〜VD4 仮想ディスプレイサーバ
SM1〜SM5 共有メモリ
T1〜T3 目標情報
R1〜R3 レーダ信号
V1〜V3 カメラ映像
GB1〜GB3 グラフィックボード
10, 40 Multi-layer image synthesizer 11 Display circuit 12 Driver circuit 13 Ethernet switch 20 Display 41 Image synthesis circuit 100, 100A, 200 Multi-layer image synthesizer software 101 Video decoder 102 Image synthesis server 103 Ethernet transfer software 202 Display server 203 Graphic driver MM1 to MM3 Main memory app, ap1 to app3 Application program VD1 to VD4 Virtual display server SM1 to SM5 Shared memory T1 to T3 Target information R1 to R3 Radar signal V1 to V3 Camera image GB1 to GB3 Graphic board

Claims (4)

入力される複数レイヤの画像を1つのレイヤに合成するマルチレイヤ画像合成装置において、
合成しようとする前記入力される複数レイヤの画像を合成対象入力画像と称するとき、前記合成対象入力画像を各レイヤごとに独立に処理し、前記合成対象入力画像の画像形式に拘らず、前記合成対象入力画像をビットマップ画像で表し、前記ビットマップ画像をメインメモリにおける互いに異なるメモリ領域にそれぞれ一時保存させ、前記互いに異なるメモリ領域にそれぞれ一時保存した前記ビットマップ画像を画像合成サーバで合成し、前記画像合成サーバで合成して得た合成ビットマップ画像を前記メインメモリにおける別のメモリ領域に保存させる画像合成手段を有することを特徴とするマルチレイヤ画像合成装置であって、
前記画像合成手段は、前記合成対象入力画像の画像形式がベクタ画像であるとき、前記ベクタ画像を処理することにより、前記ベクタ画像を表す描画コマンドを生成する描画コマンド生成手段と、前記描画コマンドに基づき前記ビットマップ画像を生成し、生成した前記ビットマップ画像を前記互いに異なるメモリ領域の何れかに一時保存させる第1の仮想ディスプレイサーバと、を有することを特徴とするマルチレイヤ画像合成装置。
In a multi-layer image synthesizer that synthesizes input multiple-layer images into one layer
When the input image of the plurality of layers to be combined is referred to as a composition target input image, the composition target input image is processed independently for each layer, and the composition is performed regardless of the image format of the composition target input image. The target input image is represented by a bitmap image, the bitmap image is temporarily stored in different memory areas in the main memory, and the bitmap image temporarily stored in each different memory area is synthesized by an image synthesis server. A multilayer image compositing apparatus characterized by having an image compositing means for storing a composite bitmap image obtained by compositing with the image compositing server in another memory area in the main memory.
When the image format of the input image to be synthesized is a vector image, the image synthesizing means includes a drawing command generating means for generating a drawing command representing the vector image by processing the vector image, and the drawing command. A multilayer image compositing apparatus comprising: a first virtual display server which generates the bitmap image based on the above and temporarily stores the generated bitmap image in any of the memory areas different from each other.
前記描画コマンド生成手段は、前記ベクタ画像がレーダにより検知した物標の方位、距離、速度、高度、識別を含む物標情報であるとき、前記物標情報に基づき、前記識別を示すシンボル、前記方位および前記速度を示すリーダ、前記高度を示すデータブロックの情報を生成し、前記シンボル、前記リーダおよび前記データブロックの情報をベクタ画像で表し、Xlib(Xライブラリ)により、前記シンボル、前記リーダおよび前記データブロックの情報を文字列コマンドまたはラインコマンドの描画コマンドに変換し、
前記第1の仮想ディスプレイサーバは、前記描画コマンドに基づき前記ビットマップ画像を生成し、前記ビットマップ画像をビットマップコピーコマンドの形式で前記メモリ領域の1つに送り、該メモリ領域に前記ビットマップ画像をコピーし、該メモリ領域に前記ビットマップ画像を一時保存させる
ことを特徴とする請求項1に記載のマルチレイヤ画像合成装置。
When the vector image is target information including the direction, distance, speed, altitude, and identification of the target detected by the radar, the drawing command generating means is a symbol indicating the identification based on the target information. The information of the reader indicating the orientation and the speed, the data block indicating the altitude is generated, the information of the symbol, the reader and the data block is represented by a vector image, and the symbol, the reader and the information are represented by Xlib (X library). Convert the information of the data block into a drawing command of a character string command or a line command, and
The first virtual display server generates the bitmap image based on the drawing command, sends the bitmap image to one of the memory areas in the form of a bitmap copy command, and the bitmap is sent to the memory area. The multilayer image compositing apparatus according to claim 1, wherein the image is copied and the bitmap image is temporarily stored in the memory area.

入力される複数レイヤの画像を1つのレイヤに合成するマルチレイヤ画像合成装置において、
合成しようとする前記入力される複数レイヤの画像を合成対象入力画像と称するとき、前記合成対象入力画像を各レイヤごとに独立に処理し、前記合成対象入力画像の画像形式に拘らず、前記合成対象入力画像をビットマップ画像で表し、前記ビットマップ画像をメインメモリにおける互いに異なるメモリ領域にそれぞれ一時保存させ、前記互いに異なるメモリ領域にそれぞれ一時保存した前記ビットマップ画像を画像合成サーバで合成し、前記画像合成サーバで合成して得た合成ビットマップ画像を前記メインメモリにおける別のメモリ領域に保存させる画像合成手段を有することを特徴とするマルチレイヤ画像合成装置であって、
前記画像合成手段は、前記合成対象入力画像がレーダ電波で検知した物標を極座標位置で表すレーダ信号であるとき、極座標画像である前記合成対象入力画像をビットマップ画像に変換するとともに、該ビットマップ画像をXlibによりビットマップコピーコマンドとして出力するビットマップ画像生成手段と、前記ビットマップコピーコマンドを入力し、入力した前記ビットマップコピーコマンドに基づき、前記ビットマップ画像を前記互いに異なるメモリ領域の何れかに一時保存させる第2の仮想ディスプレイサーバと、を有することを特徴とするマルチレイヤ画像合成装置。

In a multi-layer image synthesizer that synthesizes input multiple-layer images into one layer
When the input image of the plurality of layers to be combined is referred to as a composition target input image, the composition target input image is processed independently for each layer, and the composition is performed regardless of the image format of the composition target input image. The target input image is represented by a bitmap image, the bitmap image is temporarily stored in different memory areas in the main memory, and the bitmap image temporarily stored in each different memory area is synthesized by an image synthesis server. A multilayer image compositing apparatus characterized by having an image compositing means for storing a composite bitmap image obtained by compositing with the image compositing server in another memory area in the main memory.
When the compositing target input image is a radar signal representing a target detected by a radar radio wave at a polar coordinate position, the image compositing means converts the compositing target input image, which is a polar coordinate image , into a bitmap image and the bit. A bitmap image generation means that outputs a map image as a bitmap copy command by Xlib, and a bitmap image generation means that inputs the bitmap copy command, and based on the input bitmap copy command, outputs the bitmap image to any of the memory areas different from each other. A multilayer image compositing device characterized by having a second virtual display server for temporarily storing the image.
入力される複数レイヤの画像を1つのレイヤに合成するマルチレイヤ画像合成装置において、
合成しようとする前記入力される複数レイヤの画像を合成対象入力画像と称するとき、前記合成対象入力画像を各レイヤごとに独立に処理し、前記合成対象入力画像の画像形式に拘らず、前記合成対象入力画像をビットマップ画像で表し、前記ビットマップ画像をメインメモリにおける互いに異なるメモリ領域にそれぞれ一時保存させ、前記互いに異なるメモリ領域にそれぞれ一時保存した前記ビットマップ画像を画像合成サーバで合成し、前記画像合成サーバで合成して得た合成ビットマップ画像を前記メインメモリにおける別のメモリ領域に保存させる画像合成手段を有することを特徴とするマルチレイヤ画像合成装置であって、
前記画像合成手段は、前記合成対象入力画像がデータ圧縮された動画であるカメラ映像であるとき、前記カメラ映像をデコードして、元の動画をビットマップ画像の画像形式で再生し、該ビットマップ画像をビットマップコピーコマンドの形式で出力する動画レコーダと、前記ビットマップコピーコマンドを入力し、入力した前記ビットマップコピーコマンドに基づき、前記ビットマップ画像を前記互いに異なるメモリ領域の何れかに一時保存させる第3の仮想ディスプレイサーバと、を有することを特徴とするマルチレイヤ画像合成装置。
In a multi-layer image synthesizer that synthesizes input multiple-layer images into one layer
When the input image of the plurality of layers to be combined is referred to as a composition target input image, the composition target input image is processed independently for each layer, and the composition is performed regardless of the image format of the composition target input image. The target input image is represented by a bitmap image, the bitmap image is temporarily stored in different memory areas in the main memory, and the bitmap image temporarily stored in each different memory area is synthesized by an image synthesis server. A multilayer image compositing apparatus characterized by having an image compositing means for storing a composite bitmap image obtained by compositing with the image compositing server in another memory area in the main memory.
When the input image to be synthesized is a camera image that is a data-compressed moving image, the image synthesizing means decodes the camera image, reproduces the original moving image in the image format of the bitmap image, and performs the bitmap. A video recorder that outputs an image in the form of a bitmap copy command and the bitmap copy command are input, and the bitmap image is temporarily saved in one of the different memory areas based on the input bitmap copy command. A multilayer image compositing device comprising a third virtual display server to be used.
JP2016206639A 2016-10-21 2016-10-21 Multi-layer image synthesizer Active JP6851683B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016206639A JP6851683B2 (en) 2016-10-21 2016-10-21 Multi-layer image synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016206639A JP6851683B2 (en) 2016-10-21 2016-10-21 Multi-layer image synthesizer

Publications (2)

Publication Number Publication Date
JP2018066925A JP2018066925A (en) 2018-04-26
JP6851683B2 true JP6851683B2 (en) 2021-03-31

Family

ID=62086148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016206639A Active JP6851683B2 (en) 2016-10-21 2016-10-21 Multi-layer image synthesizer

Country Status (1)

Country Link
JP (1) JP6851683B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111223033B (en) * 2018-11-26 2023-05-02 株式会社理光 Image processing apparatus and image processing method
US11422229B2 (en) * 2019-02-01 2022-08-23 Preco Electronics, LLC Display and alarm for vehicle object detection radar

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01191572A (en) * 1988-01-27 1989-08-01 Fuji Photo Film Co Ltd Image forming device
JPH06214555A (en) * 1993-01-20 1994-08-05 Sumitomo Electric Ind Ltd Image processing device
JPH07271344A (en) * 1994-03-29 1995-10-20 Hitachi Ltd Graphic display
JP3199678B2 (en) * 1997-12-16 2001-08-20 三菱電機株式会社 Air traffic control display desk
EP0936813A1 (en) * 1998-02-16 1999-08-18 CANAL+ Société Anonyme Processing of digital picture data in a decoder
JP2001042026A (en) * 1999-07-27 2001-02-16 Japan Radio Co Ltd Navigator
US6782131B2 (en) * 1999-12-29 2004-08-24 Honeywell International Inc. System, method and apparatus for pattern recognition with application to symbol recognition and regeneration for a display
US6448922B1 (en) * 2000-08-24 2002-09-10 Rockwell Collins, Inc. Retrofit solution for the integration of ground-based weather radar images with on-board weather radar
JP4115879B2 (en) * 2003-05-09 2008-07-09 三菱電機株式会社 Image display device
JP3963865B2 (en) * 2003-06-03 2007-08-22 財団法人日本建設情報総合センター Map display system and map display method
JP2007292857A (en) * 2006-04-21 2007-11-08 Yamaha Corp Image processor and image processing method
JP2009145600A (en) * 2007-12-13 2009-07-02 Canon Inc Display control apparatus, method and program
US8638343B2 (en) * 2009-04-30 2014-01-28 Microsoft Corporation Data visualization platform performance optimization

Also Published As

Publication number Publication date
JP2018066925A (en) 2018-04-26

Similar Documents

Publication Publication Date Title
US11127110B2 (en) Data processing systems
US6816163B2 (en) Updating image frames on a screen comprising memory
US5630043A (en) Animated texture map apparatus and method for 3-D image displays
US5956046A (en) Scene synchronization of multiple computer displays
US9077970B2 (en) Independent layered content for hardware-accelerated media playback
US11562701B2 (en) Data processing systems
CN114210055B (en) An image rendering method and electronic device
US7602395B1 (en) Programming multiple chips from a command buffer for stereo image generation
US9766458B2 (en) Image generating system, image generating method, and information storage medium
CN103870674A (en) Implementing a remote gaming server on a desktop computer
US11004427B2 (en) Method of and data processing system for providing an output surface
JP6851683B2 (en) Multi-layer image synthesizer
US20190005924A1 (en) Data processing systems
US20140253573A1 (en) Graphics processing apparatus, display apparatus for an aircraft cockpit, and method for displaying graphical data
CN109978749B (en) Graphics processor, rendering system and method for operating a graphics processor
JP2010165100A (en) Image generation system, program, and information storage medium
US12033255B2 (en) Image processing apparatus and image processing method
US12322066B2 (en) Systems and methods for digital compositing
US20240257353A1 (en) Display device and wearable electronic device
US20180195873A1 (en) Information output system, control method, and control program
US11908364B2 (en) Low-power display driving circuit performing internal encoding and decoding and operating method thereof
JP7026729B2 (en) Control support equipment, control support methods and control support programs
TW201915543A (en) Head mounted display and control method thereof
JPS6362750B2 (en)
JP2023047811A (en) Image processing device, program, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210309

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210309

R150 Certificate of patent or registration of utility model

Ref document number: 6851683

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250