[go: up one dir, main page]

JP7336185B2 - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP7336185B2
JP7336185B2 JP2018220675A JP2018220675A JP7336185B2 JP 7336185 B2 JP7336185 B2 JP 7336185B2 JP 2018220675 A JP2018220675 A JP 2018220675A JP 2018220675 A JP2018220675 A JP 2018220675A JP 7336185 B2 JP7336185 B2 JP 7336185B2
Authority
JP
Japan
Prior art keywords
image
frame
encoding
camera
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018220675A
Other languages
Japanese (ja)
Other versions
JP2020088610A (en
Inventor
健司 杉原
咲 樋渡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018220675A priority Critical patent/JP7336185B2/en
Publication of JP2020088610A publication Critical patent/JP2020088610A/en
Application granted granted Critical
Publication of JP7336185B2 publication Critical patent/JP7336185B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、動画像の符号化技術に関するものである。 The present invention relates to a moving image coding technique.

近年、テレビ会議システムの普及に伴いカメラを用いた映像システムが広く導入されてきている。また、防犯目的だけでなく調査や管理を目的として施設内に監視カメラが導入されることが多くなっている。中でも、監視対象を監視カメラにより監視し、インターネットまたは無線通信等を介して映像データを送信したり、映像データを格納媒体に格納したりする用途も多くなっている。昨今では監視カメラで撮影された映像データの高画質化、高解像度化が進んでおり映像データ量が増加してきているため、データ量の低減が求められている。 2. Description of the Related Art In recent years, with the popularization of video conference systems, video systems using cameras have been widely introduced. Surveillance cameras are often introduced into facilities not only for the purpose of crime prevention but also for the purpose of investigation and management. In particular, there are many applications for monitoring objects to be monitored using surveillance cameras, transmitting video data via the Internet or wireless communication, and storing video data in storage media. Recently, image quality and resolution of image data captured by surveillance cameras are increasing, and the amount of image data is increasing, so reduction of the amount of data is required.

映像符号化技術として、対象フレームの前後のフレームから対象フレームの画素値を予測するフレーム間予測、対象フレーム内から対象フレームの画素値を予測するフレーム内予測の他、エントロピー符号化や量子化等が利用されている。これらの映像符号化技術を利用することにより映像データを効果的に圧縮することが可能になる。 As video coding technology, inter-frame prediction predicts the pixel values of the target frame from the frames before and after the target frame, intra-frame prediction predicts the pixel values of the target frame from within the target frame, entropy coding, quantization, etc. is used. By using these video encoding techniques, it becomes possible to effectively compress video data.

ところで、映像において場面の切り替わり(シーンチェンジ)が発生する場合、画質の劣化を避けるため、Iフレーム(Intra-coded Frame)として符号化することが望ましい。Iフレームは、フレーム内の符号化対象ブロックの周辺にある復号済み画素を用いて予測信号を生成したフレームであり、Pフレーム(Predicted Frame)などに比較して符号量が大きい。特許文献1では、テレビ会議システムにおいて、音声や人物の出現等のトリガとエンコーダ部側からあらかじめ通知されるフレーム情報とに基づいて、使用する範囲を変更する(シーンチェンジを行う)技術が提案されている。より具体的には、トリガの受信に応じて、Iフレームのタイミングでシーンチェンジを行うことで効率的な符号化処理を行っている。 By the way, when a scene change occurs in a video, it is desirable to encode as an I frame (Intra-coded Frame) in order to avoid deterioration of image quality. An I frame is a frame in which a prediction signal is generated using decoded pixels around an encoding target block in the frame, and has a larger code amount than a P frame (Predicted Frame) or the like. Japanese Patent Application Laid-Open No. 2002-200003 proposes a technique for changing the range of use (performing a scene change) in a video conference system based on triggers such as voice or the appearance of a person and frame information notified in advance from the encoder unit side. ing. More specifically, efficient encoding processing is performed by performing a scene change at the timing of the I frame in response to reception of a trigger.

特開2017-28375号公報JP 2017-28375 A

しかしながら、テレビ会議とは異なり、監視カメラの用途においては、不特定多数の人間が不定期のタイミングで音声を発したり出現したりする。そのため、特許文献1のように音声や人物の出現等のトリガを利用することは困難である。また、天井吊り下げ型の監視カメラにおいては、パンチルト動作によるシーンチェンジが発生しやすい。これは、違和感のない映像を出力するため、撮影方向が鉛直下向きになったタイミングで映像の上下反転(画像の180°回転)を行うことによる。その結果、反転前後のフレーム画像間で、フレーム間予測で利用される動きベクトルの情報量が大きくなる。結果、映像全体としての符号化効率が低下し符号化データサイズが増加することになる。 However, unlike video conferences, in the use of surveillance cameras, an unspecified number of people speak or appear at irregular timings. Therefore, it is difficult to use a trigger such as voice or the appearance of a person as in Patent Document 1. Also, in a ceiling-suspended surveillance camera, a scene change is likely to occur due to a pan-tilt operation. This is because the image is vertically inverted (180° rotation of the image) at the timing when the photographing direction is vertically downward in order to output a natural image. As a result, the amount of motion vector information used in inter-frame prediction increases between frame images before and after inversion. As a result, the coding efficiency of the video as a whole decreases and the coded data size increases.

本発明は、このような問題に鑑みてなされたものであり、動画像の効率的な符号化を可能とする技術を提供することを目的としている。 The present invention has been made in view of such problems, and an object of the present invention is to provide a technique that enables efficient encoding of moving images.

上述の問題点を解決するため、本発明に係る画像処理装置は以下の構成を備える。すなわち、画像処理装置は、
撮像により動画像を取得する撮像手段と、
前記動画像を構成するフレーム画像に対してトリミング処理及び拡大処理を行う画像処理手段と、
前記トリミング処理によってトリミングされるトリミング領域の位置座標に基づいて、前記動画像を構成するフレーム画像を所定の角度回転するか否かを判定する判定手段と、
フレーム内予測を用いる第1のモードとフレーム間予測を用いる第2のモードとの何れかを利用して前記動画像を構成するフレーム画像を符号化する符号化手段と、
を有し、
前記判定手段が前記動画像を構成するフレーム画像を前記所定の角度回転すると判定した場合、 前記符号化手段は前記動画像を構成するフレーム画像を前記第1のモードを利用して符号化する。
In order to solve the above problems, an image processing apparatus according to the present invention has the following configuration. That is, the image processing device
an imaging means for acquiring a moving image by imaging;
image processing means for performing trimming processing and enlarging processing on frame images constituting the moving image;
determining means for determining whether or not to rotate the frame images forming the moving image by a predetermined angle based on the position coordinates of the trimming area trimmed by the trimming process;
encoding means for encoding frame images forming the moving image using either a first mode using intra-frame prediction or a second mode using inter-frame prediction;
has
When the determining means determines that the frame images constituting the moving image are to be rotated by the predetermined angle, the encoding means encodes the frame images constituting the moving image using the first mode .

本発明によれば、動画像の効率的な符号化を可能とする技術を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the technique which enables efficient encoding of a moving image can be provided.

第1実施形態に係る画像処理装置を含む監視カメラの機能構成を示す図である。1 is a diagram showing a functional configuration of a surveillance camera including an image processing device according to a first embodiment; FIG. 映像処理部のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a video processing part. 3次元座標におけるパンチルト動作を説明する図である。It is a figure explaining pan-tilt operation|movement in a three-dimensional coordinate. パンチルト動作により取得される映像を説明する図である。FIG. 10 is a diagram for explaining an image acquired by a pan-tilt operation; 画像を180°回転した場合の探索範囲を例示的に示す図である。FIG. 10 is a diagram exemplifying a search range when an image is rotated by 180°; 符号化処理の変更制御を説明する図である。It is a figure explaining change control of an encoding process. 第1実施形態における画像処理装置の動作フローチャートである。4 is an operation flowchart of the image processing apparatus according to the first embodiment; パンチルト動作時における符号化処理の制御を示すフローチャートである。7 is a flowchart showing control of encoding processing during pan-tilt operation; 各フレームでの参照フレームを説明する図である。FIG. 4 is a diagram for explaining a reference frame in each frame; FIG. 第2実施形態における符号化処理の変更を説明する図である。It is a figure explaining the change of the encoding process in 2nd Embodiment. 第2実施形態における各フレームでの参照フレームを説明する図である。FIG. 10 is a diagram for explaining reference frames in each frame in the second embodiment; FIG. DPTZ設定情報に基づく画像処理を説明する図である。FIG. 4 is a diagram for explaining image processing based on DPTZ setting information; 矩形領域の位置座標を説明する図である。It is a figure explaining the position coordinate of a rectangular area.

以下に、図面を参照して、この発明の実施の形態の一例を詳しく説明する。なお、以下の実施の形態はあくまで例示であり、本発明の範囲を限定する趣旨のものではない。 An example of an embodiment of the present invention will be described in detail below with reference to the drawings. It should be noted that the following embodiments are merely examples and are not intended to limit the scope of the present invention.

(第1実施形態)
本発明に係る画像処理装置の第1実施形態として、天井吊り下げ型の監視カメラにより得られた映像を符号化する画像処理装置(映像処理部200)を例に挙げて以下に説明する。
(First embodiment)
As a first embodiment of an image processing apparatus according to the present invention, an image processing apparatus (image processing unit 200) that encodes an image obtained by a ceiling-suspended surveillance camera will be described below as an example.

<装置構成>
図1は、第1実施形態に係る画像処理装置を含む監視カメラの機能構成を示す図である。監視カメラは、画像処理装置である映像処理部100、カメラ300、全体制御部200を含み、PTZ設定部201から受信したPTZ設定情報に基づいて動作する。以下の説明では、PTZ設定部201は監視カメラとは別個の筐体として構成される場合を想定するが、同一の筐体に含めるよう構成してもよい。
<Device configuration>
FIG. 1 is a diagram showing the functional configuration of a surveillance camera including an image processing device according to the first embodiment. The monitoring camera includes a video processing unit 100 , which is an image processing device, a camera 300 , and an overall control unit 200 , and operates based on PTZ setting information received from a PTZ setting unit 201 . In the following description, it is assumed that the PTZ setting unit 201 is configured as a housing separate from the monitoring camera, but may be configured to be included in the same housing.

PTZ設定部201は、監視カメラにおけるパン・チルト・ズーム(PTZ)に関するPTZ設定情報(方向情報)をユーザから受け付け、例えばネットワークを介して全体制御部200に対して当該設定を送信する。なお、以下の説明では監視カメラの初期ポジションを基準にしたパン・チルト角度(φpan、φtilt)を受け付けることを想定しているが、監視カメラの現在のチルト角度に対する角度(Δφ)として受け付けるよう構成してもよい。 The PTZ setting unit 201 receives PTZ setting information (direction information) regarding pan/tilt/zoom (PTZ) in the surveillance camera from the user, and transmits the setting to the overall control unit 200 via the network, for example. In the following explanation, it is assumed that the pan/tilt angles (φpan, φtilt) based on the initial position of the surveillance camera are accepted, but it is configured to accept the angle (Δφ) relative to the current tilt angle of the surveillance camera. You may

説明を簡単にするために、以下ではチルトに関する設定に着目して説明する。なお、ユーザから設定を受け付ける代わりにPTZ設定部201自身が算出するよう構成してもよい。例えば、監視カメラによる撮影対象物を追尾するために必要な設定を撮像画像に基づいて算出する構成でもよい。 In order to simplify the explanation, the following explanation focuses on the settings related to tilt. Note that the PTZ setting unit 201 itself may be configured to calculate instead of receiving settings from the user. For example, the configuration may be such that settings necessary for tracking an object photographed by a surveillance camera are calculated based on the photographed image.

全体制御部200は、PTZ設定部201から受け付けた撮影方向の設定に基づいて、不図示のモータ等を制御しパン・チルトによる撮影方向制御を行う。ここで、パンはカメラのレンズの向き(撮影方向)を水平方向(左右方向)に動かす動作のことであり、チルトはカメラのレンズの向きを垂直方向(上下方向)に動かす動作のことを意味している。また、オプションで、カメラ100にズームに関する情報を送信しズームの制御を行う。さらに、映像処理部100にも撮影方向に関する情報を送信する。 Based on the setting of the shooting direction received from the PTZ setting unit 201, the overall control unit 200 controls a motor (not shown) and the like to control the shooting direction by panning and tilting. Here, pan refers to the movement of the camera lens orientation (shooting direction) in the horizontal direction (horizontal direction), and tilt refers to the movement of the camera lens in the vertical direction (up and down direction). are doing. In addition, as an option, information about zooming is transmitted to the camera 100 to control the zooming. Furthermore, the information about the shooting direction is also transmitted to the video processing unit 100 .

カメラ300は、映像を撮影し、撮影した映像を映像処理部100に送信する。カメラ300は、カメラ制御部301と、レンズ302と、撮像部303を有する。カメラ制御部301は、レンズ302及び撮像部303を制御し、全体制御部200から受信した情報に基づくズーム動作やフォーカス制御を行う。 Camera 300 captures an image and transmits the captured image to image processing unit 100 . The camera 300 has a camera control section 301 , a lens 302 and an imaging section 303 . A camera control unit 301 controls a lens 302 and an imaging unit 303 and performs zooming and focus control based on information received from the general control unit 200 .

映像処理部100は、カメラ300により得られた映像に対して画像処理及び圧縮符号化を行い、符号化ストリームを出力する。特に、映像処理部100は、全体制御部200から入力されるPTZ設定情報に基づいて画像処理及び圧縮符号化を行う点に特徴がある。 The video processing unit 100 performs image processing and compression encoding on the video obtained by the camera 300, and outputs an encoded stream. In particular, the video processing unit 100 is characterized in that it performs image processing and compression encoding based on PTZ setting information input from the overall control unit 200 .

画像回転判定部101は、全体制御部200からの指示に基づいて、画像処理部103における画像回転のタイミングのトリガ情報を生成する。トリガ情報とは、天井吊り下げ型の監視カメラにより得られた映像(撮像部303から出力される映像)において、チルト動作により画像が回転する(撮像画像における上下関係が反転する)タイミングを示す情報ことである。なお、以下の説明では、映像処理部100の内部で画像の回転を判定しているものとしているが、外部の装置で判定し判定結果を受け付けるよう構成してもよい。例えば、全体制御部200において、PTZ設定部201から受け付けたチルト設定があらかじめ設定された閾値を超えたか否かを判定することにより、画像が回転するタイミングを判定してもよい。 The image rotation determination unit 101 generates trigger information for image rotation timing in the image processing unit 103 based on an instruction from the overall control unit 200 . Trigger information is information that indicates the timing at which an image (image output from the imaging unit 303) obtained by a ceiling-suspended surveillance camera is rotated by a tilt operation (the vertical relationship of the captured image is reversed). That is. In the following description, it is assumed that image rotation is determined inside the video processing unit 100, but it may be determined by an external device and the result of determination may be received. For example, the overall control unit 200 may determine the timing of image rotation by determining whether or not the tilt setting received from the PTZ setting unit 201 exceeds a preset threshold value.

符号化処理制御部102は、画像回転判定部101から出力された画像回転タイミングのトリガ情報に基づいて、符号化部104においてフレーム内予測(第1のモード)とフレーム間予測(第2のモード)との何れによる符号化を実行するかを決定する。 The encoding processing control unit 102 performs intra-frame prediction (first mode) and inter-frame prediction (second mode) in the encoding unit 104 based on the trigger information of the image rotation timing output from the image rotation determination unit 101 . ) to perform the encoding.

画像処理部103は、カメラ300により得られた映像に対して画像処理を行う。映像は、一連のフレーム画像(例えば30フレーム毎秒)でカメラ300から入力される。以下の説明では、画像処理部103は、画像回転判定部101から受信したトリガ情報に基づいてフレーム画像に対する所定角度(例えば180°)の回転処理を行うものとして説明するが、他の画像処理を合わせて行うように構成してもよい。画像処理部103により回転処理がなされた(又は回転処理がされなかった)フレーム画像は符号化部104に出力される。 The image processing unit 103 performs image processing on the video obtained by the camera 300 . Video is input from camera 300 in a series of frame images (eg, 30 frames per second). In the following description, it is assumed that the image processing unit 103 rotates the frame image by a predetermined angle (for example, 180°) based on the trigger information received from the image rotation determination unit 101. However, other image processing may be performed. It may be configured to be performed together. A frame image that has been rotated (or not rotated) by the image processing unit 103 is output to the encoding unit 104 .

符号化部104は、符号化処理制御部102から受信した情報(フレーム内予測かフレーム間予測のどちらを使うか)に基づいて、画像処理部103から受信したフレーム画像に対して符号化処理を行う。 The encoding unit 104 performs encoding processing on the frame image received from the image processing unit 103 based on the information received from the encoding processing control unit 102 (whether to use intra-frame prediction or inter-frame prediction). conduct.

図2は、映像処理部100のハードウェア構成を示す図である。映像処理部100は、CPU151、ROM152、RAM153、カメラI/F154、制御I/F155、ネットワークI/F156を含む。ROM152は、CPU151が実行するプログラムや各種の設定データを記憶する。CPU151は、ROM152に記憶されたプログラムをRAM153に読み込み実行することにより、カメラI/F154を介して入力されたフレーム画像に対する画像処理や符号化処理、ネットワークI/F156を介した通信処理を実現する。カメラI/F154は、カメラ300から映像(フレーム画像)を受信する。制御I/F155は、全体制御部200からの制御信号を受信する。ネットワークI/F155は、ネットワークを介して符号化ストリームを送信する。 FIG. 2 is a diagram showing the hardware configuration of the video processing unit 100. As shown in FIG. Video processing unit 100 includes CPU 151 , ROM 152 , RAM 153 , camera I/F 154 , control I/F 155 and network I/F 156 . The ROM 152 stores programs executed by the CPU 151 and various setting data. The CPU 151 reads the program stored in the ROM 152 into the RAM 153 and executes it, thereby realizing image processing and encoding processing for frame images input via the camera I/F 154 and communication processing via the network I/F 156. . Camera I/F 154 receives video (frame images) from camera 300 . Control I/F 155 receives control signals from overall control unit 200 . Network I/F 155 transmits the encoded stream via the network.

<天井吊り下げ型の監視カメラにより取得される映像>
図3は、3次元座標におけるパンチルト動作を説明する図である。ここでは、XYZ直交座標系において、X軸の負の方向をカメラの初期ポジションとしたパン・チルト動作を示している。天井吊り下げ型の監視カメラによる撮影方向は、水平方向(XZ平面)よりも下側の方向を向くことになる。そのため、ここでは、カメラの初期ポジションの方向を基準にチルト角度(φtilt)及びパン角度(φpan)を規定している。
<Image captured by a ceiling-mounted surveillance camera>
FIG. 3 is a diagram for explaining a pan-tilt operation in three-dimensional coordinates. Here, in the XYZ orthogonal coordinate system, the pan/tilt operation is shown with the negative direction of the X axis as the initial position of the camera. The photographing direction of the ceiling-suspended surveillance camera faces downward from the horizontal direction (XZ plane). Therefore, here, the tilt angle (φtilt) and the pan angle (φpan) are defined with reference to the direction of the initial position of the camera.

図4は、パンチルト動作により取得される映像を説明する図である。図4は、図3におけるZ軸の正の方向からXY平面を観察した状態に対応する。(1)~(5)に示すカメラポジションは、それぞれ、チルト角度(φtilt)が30°、60°、90°、120°、150°に対応している。なお、説明を簡単にするためにここではパン角度(φpan)は全て0°であると想定する。 FIG. 4 is a diagram for explaining an image obtained by pan-tilt operation. FIG. 4 corresponds to a state in which the XY plane is observed from the positive direction of the Z axis in FIG. The camera positions shown in (1) to (5) correspond to tilt angles (φtilt) of 30°, 60°, 90°, 120° and 150°, respectively. For simplicity of explanation, it is assumed here that all pan angles (φpan) are 0°.

カメラポジションを(1)から(5)まで連続的に変化させた場合、鉛直下向きを撮影する(3)のポジションでフレーム画像における上下が反転することになる。図4は、西(West Gate)から東(East Gate)へ延びる直線状の通路を移動している人物を、通路の天井に設置した監視カメラのチルト動作により追尾する状況を示している。この場合、撮像部303から出力される映像として、フレーム画像F1、F2、FA、FB、FCが順に得られることになる。すなわち、映像の途中で画像の上下が反転することになり不自然な映像となる。そこで、映像として自然なものとする(上下の反転が発生しないようにする)ために、フレーム画像FA、FB、FCを180°回転する手法が用いられることがある。当該手法の結果、フレーム画像F1、F2、F3、F4、F5が順に得られることになる。 When the camera position is continuously changed from (1) to (5), the frame image is reversed upside down at the position (3) for photographing vertically downward. FIG. 4 shows a situation in which a person moving in a straight passage extending from west (West Gate) to east (East Gate) is tracked by tilting a surveillance camera installed on the ceiling of the passage. In this case, frame images F1, F2, FA, FB, and FC are obtained in order as images output from the imaging unit 303 . That is, the image is turned upside down in the middle of the image, resulting in an unnatural image. Therefore, a method of rotating the frame images FA, FB, and FC by 180° is sometimes used in order to make the images natural (preventing vertical reversal). As a result of this technique, frame images F1, F2, F3, F4, and F5 are obtained in order.

そこで、第1実施形態では、画像回転判定部101は、全体制御部200から入力されるチルト角度(φtilt)の情報が所定の角度(φtrig)を超えたか否かに基づいて、入力されたフレーム画像に対して180°回転するか否かの判定処理を行う。例えば、φtrig=90°と設定した場合に、画像回転判定部101は、φtilt=90°(図4に示す(3)のポジション)になると、フレーム画像を180°回転すると判定する。そして、180°の回転を「しない」から「する」(又はその反対)に変化したタイミングでトリガ情報を生成し、画像処理部103に出力する。なお、基準とするカメラの初期ポジション、および、トリガ情報を出力するチルト角度は、上述の形態に限定されるものではなくユーザが任意に設定可能である。 Therefore, in the first embodiment, the image rotation determination unit 101 determines whether or not the tilt angle (φtilt) information input from the general control unit 200 exceeds a predetermined angle (φtrig). A process of determining whether or not to rotate the image by 180° is performed. For example, when φtrig=90°, the image rotation determination unit 101 determines to rotate the frame image by 180° when φtilt=90° (position (3) shown in FIG. 4). Trigger information is generated and output to the image processing unit 103 at the timing when the 180° rotation changes from “do not” to “do” (or vice versa). Note that the initial position of the camera as a reference and the tilt angle for outputting the trigger information are not limited to those described above, and can be arbitrarily set by the user.

なお、第1実施形態では、画像回転判定部101は、PTZ設定部201から設定され全体制御部200経由で受信したパンチルトの角度情報から、指示がパン動作、チルト動作、それらの組み合わせの何れであるかを判断する。パン動作のみの場合は上述した映像の回転は発生しないため、画像回転判定部101は、パン動作のみの場合は画像回転のトリガ情報を生成しない。 In the first embodiment, the image rotation determination unit 101 determines whether the instruction is a pan operation, a tilt operation, or a combination thereof, based on the pan/tilt angle information set by the PTZ setting unit 201 and received via the general control unit 200. determine if there is Since the image rotation described above does not occur when there is only a panning motion, the image rotation determination unit 101 does not generate trigger information for image rotation when there is only a panning motion.

図5は、画像を180°回転した場合のフレーム間予測での探索範囲を例示的に示す図である。符号化処理部104は、フレーム間予測を用いて符号化処理を実施する場合、先行する直前のフレーム画像を参照フレームとして利用する。ただし、図4を参照して説明したように映像の途中で画像処理部103により画像の180°回転を行った場合、当該180°回転の前後で、符号化処理部104に入力される画像が180°回転することになる。そのため、180°回転直後の画像フレーム500bを符号化する場合、180°回転直後の画像フレーム500aを参照フレームとして利用することになる。 FIG. 5 is a diagram exemplifying a search range in inter-frame prediction when an image is rotated by 180°. When performing encoding processing using inter-frame prediction, the encoding processing unit 104 uses the previous frame image as a reference frame. However, when the image processing unit 103 rotates the image by 180° in the middle of the video as described with reference to FIG. It will rotate 180°. Therefore, when encoding the image frame 500b immediately after the 180° rotation, the image frame 500a immediately after the 180° rotation is used as a reference frame.

そのため、画像フレーム500bの矩形Bを符号化するための動きベクトルを算出する際に、画像フレーム500aの矩形Aの周辺を動き予測の探索範囲として設定することになる。すなわち、矩形Bに対応する矩形Cは探索範囲から外れることになる。その結果、フレーム間予測を用いて画像フレーム500bの符号化処理を行った場合、動き予測の差分が増加し、それに合わせて生成される符号量も増加することになる。 Therefore, when calculating the motion vector for encoding the rectangle B of the image frame 500b, the periphery of the rectangle A of the image frame 500a is set as the motion prediction search range. That is, rectangle C corresponding to rectangle B is out of the search range. As a result, when the image frame 500b is encoded using inter-frame prediction, the difference in motion prediction increases, and accordingly the generated code amount also increases.

そこで、第1実施形態では、符号化処理制御部102は、画像回転判定部101から入力される画像の180°回転処理を行うトリガ情報に従い、当該トリガ情報に対応するフレーム画像の符号化処理を強制的にフレーム内予測で行うよう制御する。 Therefore, in the first embodiment, the encoding processing control unit 102 follows trigger information for performing 180° rotation processing of an image input from the image rotation determination unit 101, and performs encoding processing of a frame image corresponding to the trigger information. Control to force intra-frame prediction.

<装置の動作>
図6は、符号化処理の変更制御を説明する図である。カメラポジションを(1)から(5)まで連続的に変化させた場合に得られるフレーム画像を例示的に示している。従来は、例えば所定の周期でフレーム内予測を用いた符号化を行い、それ以外は全てフレーム間予測を用いた符号化を行っている。図6では、I(0)がフレーム内予測を用いて符号化されたIフレーム(Iピクチャ)である。また、P(1)~P(n)はフレーム間予測を用いて符号化されたPフレーム(Pピクチャ)である。すなわち、従来は、撮像部303からの映像が180°回転するフレーム画像を、P(5)を参照フレームとしたフレーム間予測を用いたPフレーム(P(6))として符号化する。
<Device operation>
FIG. 6 is a diagram for explaining change control of encoding processing. Frame images obtained when the camera position is continuously changed from (1) to (5) are exemplified. Conventionally, for example, encoding using intra-frame prediction is performed at a predetermined cycle, and encoding using inter-frame prediction is performed at all other times. In FIG. 6, I(0) is an I-frame (I-picture) encoded using intra-frame prediction. P(1) to P(n) are P frames (P pictures) encoded using interframe prediction. That is, conventionally, a frame image obtained by rotating the image from the imaging unit 303 by 180° is encoded as a P frame (P(6)) using inter-frame prediction using P(5) as a reference frame.

一方、第1実施形態では、撮像部303からの映像が180°回転するフレーム画像を、フレーム内予測を用いたIフレーム(I(1))として符号化する。そして、後続のフレーム画像は、先行するフレーム画像を参照フレームとしてPフレーム(P(7)、・・・、P(n))として符号化する。 On the other hand, in the first embodiment, a frame image obtained by rotating the image from the imaging unit 303 by 180° is encoded as an I frame (I(1)) using intra-frame prediction. Then, subsequent frame images are encoded as P frames (P(7), . . . , P(n)) using the preceding frame images as reference frames.

図9は、各フレームでの参照フレームを説明する図である。各カメラポジションにおける各処理対象フレームに対応する参照フレームと180°回転トリガの関係を表にしたものである。図9で示すように、符号化処理部104は、カメラポジション(3)のタイミングで、180°回転を行うトリガ情報を受信する。そのため、符号化処理部104は、そのタイミングで符号化処理しているフレーム画像を、フレーム間予測によるP(6)ではなくフレーム内予測によるI(1)として符号化処理を行う。 FIG. 9 is a diagram for explaining reference frames in each frame. The table shows the relationship between the reference frame corresponding to each processing target frame at each camera position and the 180° rotation trigger. As shown in FIG. 9, the encoding processing unit 104 receives trigger information for 180° rotation at the timing of camera position (3). Therefore, the encoding processing unit 104 encodes the frame image being encoded at that timing as I(1) by intra-frame prediction instead of P(6) by inter-frame prediction.

図7は、第1実施形態における画像処理装置の動作フローチャートである。当該処理は、例えば、監視カメラによる監視の開始に合わせて行われる。 FIG. 7 is an operation flowchart of the image processing apparatus according to the first embodiment. The processing is performed, for example, in conjunction with the start of surveillance by a surveillance camera.

ステップS701では、PTZ設定部201は、ユーザから、監視カメラの初期設定を受け付ける。ここでの設定される情報は、監視カメラの撮影時間、パンチルトのスピード、カメラの水平方向の首ふり角度に関する閾値情報等である。PTZ設定部201は、ユーザから受け付けた設定を例えばネットワークを介して全体制御部200に通知する。 In step S701, the PTZ setting unit 201 receives the initial setting of the surveillance camera from the user. The information set here includes the shooting time of the monitoring camera, the pan/tilt speed, threshold information regarding the horizontal swing angle of the camera, and the like. The PTZ setting unit 201 notifies the overall control unit 200 of the settings received from the user via, for example, a network.

ステップS702では、全体制御部200は、カメラ300による撮影を開始する。ここでは、ポジション(1)を撮影開始時の初期ポジションとして想定するが、撮影開始時のポジションはこれに限定されるものではない。 In step S702, the overall control unit 200 starts photographing with the camera 300. FIG. Here, the position (1) is assumed as the initial position at the start of shooting, but the position at the start of shooting is not limited to this.

ステップS703では、全体制御部200は、PTZ設定部201から受信した設定にPTZ制御の設定情報が含まれているか否かを確認する。PTZ制御の設定情報が無い場合(S703でNo)は、S705に進む。PTZ制御の設定情報が有る場合(S703でYes)は、S704に進む。 In step S703, the overall control unit 200 checks whether or not the settings received from the PTZ setting unit 201 include setting information for PTZ control. If there is no PTZ control setting information (No in S703), the process proceeds to S705. If there is PTZ control setting information (Yes in S703), the process proceeds to S704.

ステップS704では、全体制御部200は、PTZ制御の設定情報に基づいて、カメラ300のパン・チルト制御をしながら撮影を実施する。また、映像処理部100は、カメラ300により生成された動画像(フレーム画像)を受信し符号化処理を実行する。 In step S704, the overall control unit 200 performs shooting while performing pan/tilt control of the camera 300 based on the setting information of the PTZ control. Also, the video processing unit 100 receives a moving image (frame image) generated by the camera 300 and performs encoding processing.

ステップS705では、全体制御部200は、撮影終了設定情報があるか否かを判定する。撮影終了の設定情報が無い場合(S705でNo)は、S704に進み、撮影終了の設定情報が有る場合(S705でYes)は、カメラ300での撮影を終了し処理を終了する。 In step S705, the overall control unit 200 determines whether or not there is shooting end setting information. If there is no shooting end setting information (No in S705), the process advances to S704, and if there is shooting end setting information (Yes in S705), shooting with the camera 300 ends and processing ends.

図8は、パンチルト動作時(S704)における符号化処理の制御を示すフローチャートである。具体的には、画像回転判定部101及び符号化処理制御部102において実行される、符号化処理の予測モードの決定手順である。当該処理は、カメラ300から入力される各フレーム画像に対して実施される。 FIG. 8 is a flow chart showing control of the encoding process during the pan/tilt operation (S704). Specifically, it is a procedure for determining a prediction mode for encoding processing, which is executed by the image rotation determination unit 101 and the encoding processing control unit 102 . This processing is performed on each frame image input from camera 300 .

ステップS801では、画像回転判定部101は、カメラ動作の角度情報からパン動作か否かを判定する。パン動作であると判定された場合(S801でNo)はS805に進み、パン動作でないと判定された場合(S801でYes)はS802に進む。 In step S<b>801 , the image rotation determination unit 101 determines whether or not panning is performed based on the angle information of the camera motion. If it is determined to be panning (No in S801), the process proceeds to S805, and if it is determined not to be panning (Yes in S801), the process proceeds to S802.

ステップS802では、画像回転判定部101は、カメラ動作の角度情報からチルト動作か否かを判定する。チルト動作でないと判定された場合(S802でNo)はS805に進み、チルト動作であると判定された場合(S802でYes)はS803に進む。 In step S802, the image rotation determination unit 101 determines whether or not it is a tilt operation from the angle information of the camera operation. If it is determined not to be a tilt operation (No in S802), the process proceeds to S805, and if it is determined to be a tilt operation (Yes in S802), the process proceeds to S803.

ステップS803では、画像回転判定部101は、カメラ動作の角度情報からカメラポジションを確定し、画像処理部103によるフレーム画像の180°回転を行うか否かを判定する。フレーム画像の180°回転を行わないと判定した場合(S803でNo)はS805に進み、180°回転を行うと判定した場合(S803でYes)はS804に進む。 In step S803, the image rotation determination unit 101 determines the camera position from the camera operation angle information, and determines whether or not the image processing unit 103 rotates the frame image by 180°. If it is determined not to rotate the frame image by 180° (No in S803), the process proceeds to S805, and if it is determined to rotate the frame image by 180° (Yes in S803), the process proceeds to S804.

ステップS804では、画像回転判定部101は、フレーム画像の180°回転を行うトリガ信号を画像処理部103に送信する。また、現在着目している符号化対象のフレーム画像をフレーム内予測で符号化処理を行う指示を符号化処理制御部102に送信する。これにより、画像処理部103は当該フレーム画像の180°回転を行い、符号化部104は当該フレーム画像をフレーム内予測で符号化する。符号化が完了すると処理を終了する。 In step S<b>804 , the image rotation determination unit 101 transmits to the image processing unit 103 a trigger signal for rotating the frame image by 180°. In addition, it transmits to the encoding process control unit 102 an instruction to perform the encoding process by intra-frame prediction on the currently focused frame image to be encoded. Accordingly, the image processing unit 103 rotates the frame image by 180°, and the encoding unit 104 encodes the frame image by intra-frame prediction. The process ends when the encoding is completed.

ステップS805では、画像処理部103は、現在着目している符号化対象のフレーム画像に対して先行するフレーム画像と同様の処理を行う。すなわち、先行するフレーム画像で回転処理を行っていなければ回転処理を行わず、回転処理を行っていれば回転処理を行う。また、符号化部104は、現在着目している符号化対象のフレーム画像を、事前に設定されたフレーム内予測またはフレーム間予測で符号化処理を行う。符号化が完了すると処理を終了する。 In step S805, the image processing unit 103 performs the same processing as the preceding frame image on the current frame image to be encoded. That is, if the preceding frame image has not been rotated, it is not rotated, and if it has been rotated, it is rotated. In addition, the encoding unit 104 performs encoding processing on the currently focused frame image to be encoded by preset intra-frame prediction or inter-frame prediction. The process ends when the encoding is completed.

以上説明したとおり第1実施形態によれば、カメラ300から入力される映像に基づいて、符号化部104における符号化処理を制御する。具体的には、カメラ300から入力される映像において回転が発生したタイミングのフレーム画像に対して、画像処理部103は画像回転を行い、符号化部104はフレーム内予測で符号化処理を行うよう制御する。なお上述の説明では180°回転の場合について説明したが、他の角度の回転であってもよい。例えばL字型通路の角の天井に設置されたカメラで人物追跡を行う場合は90°の回転となるが同様に適用可能である。 As described above, according to the first embodiment, the encoding process in the encoding unit 104 is controlled based on the video input from the camera 300 . Specifically, the image processing unit 103 performs image rotation on a frame image at the timing at which rotation occurs in the video input from the camera 300, and the encoding unit 104 performs encoding processing using intra-frame prediction. Control. In the above description, the case of 180° rotation has been described, but rotation of other angles may also be used. For example, when tracking a person with a camera installed on the ceiling at the corner of an L-shaped passage, the rotation is 90°, but the same can be applied.

これにより、天井吊り下げ型カメラのチルト動作により画像回転(シーンチェンジ)が発生する場合においても、データ増大を抑制しつつより高画質な符号化ストリームを生成することが可能となる。そのため、記録媒体の容量を節約することが可能となると共に、ネットワーク上で伝送する場合の通信負荷についても軽減することが可能となる。 As a result, even when image rotation (scene change) occurs due to the tilt operation of the ceiling-mounted camera, it is possible to generate an encoded stream with higher image quality while suppressing data increase. Therefore, it is possible to save the capacity of the recording medium and reduce the communication load in the case of transmission over the network.

(変形例)
第1実施形態においては画像回転判定部101において、カメラポジションの情報から、画像処理部103における画像の回転処理の実施の有無を判定した。これに対して、カメラのセンサ自体を回転することにより画像の回転を実現する場合は、全体制御部200は、センサの回転処理タイミングを画像回転判定部101に通知するよう構成するとよい。このとき、画像回転判定部101は、符号化処理制御部102に画像が回転されることを通知するトリガ情報を通知することで、上述の説明と同様の処理を行うことが可能となる。
(Modification)
In the first embodiment, the image rotation determination unit 101 determines whether or not to perform image rotation processing in the image processing unit 103 from the camera position information. On the other hand, in the case of rotating the sensor itself of the camera to rotate the image, the overall control unit 200 may be configured to notify the image rotation determination unit 101 of the rotation processing timing of the sensor. At this time, the image rotation determination unit 101 notifies the encoding processing control unit 102 of trigger information that notifies that the image is rotated, thereby making it possible to perform the same processing as described above.

また、上述の説明では、画像の回転トリガを生成するための角度情報(φtrig)を設定する形態について説明した。一方、角度情報(φtilt)に応じて符号化処理パラメータを予め設定することも可能である。ここでの符号化処理パラメータとは、フレーム内予測かフレーム間予測かの情報、量子化処理を行うための量子化値等を意味する。 Also, in the above description, a form of setting angle information (φtrig) for generating an image rotation trigger has been described. On the other hand, it is also possible to preset the encoding processing parameters according to the angle information (φtilt). The encoding processing parameter here means information on intra-frame prediction or inter-frame prediction, a quantization value for performing quantization processing, and the like.

また、上述の説明では、全体制御部200から入力されるカメラのチルト動作量を示す角度情報から、画像回転判定部101において画像回転処理を実施するか否かを判定し、符号化処理の制御を行った。これに対して、画像回転判定部101は、フレーム内予測で符号化処理が実施されるタイミングでトリガ情報を通知するよう構成してもよい。全体制御部200は受信したトリガ情報とカメラの角度情報(φtilt)をもとに、画像回転のトリガ情報を生成する、すなわち、フレーム画像がフレーム内予測で符号化されるタイミングに合わせて画像回転を実施することも可能である。 In the above description, the image rotation determination unit 101 determines whether or not to perform image rotation processing based on the angle information indicating the amount of tilt movement of the camera input from the overall control unit 200, and controls the encoding processing. did On the other hand, the image rotation determination unit 101 may be configured to notify trigger information at the timing when encoding processing is performed in intra-frame prediction. Based on the received trigger information and camera angle information (φtilt), the overall control unit 200 generates trigger information for image rotation. It is also possible to implement

なお、角度情報(φtrig)は特定の角度だけではなく所定の角度範囲として設定することも可能である。例えば、カメラの角度情報(φtilt)が以下の条件を満たす場合にトリガ情報を生成してもよい。αはユーザが任意に設定可能な角度幅である。
φtrig-α ≦ φtilt ≦ φtrig+α
The angle information (φtrig) can be set not only as a specific angle but also as a predetermined angle range. For example, trigger information may be generated when camera angle information (φtilt) satisfies the following conditions. α is an angular width that can be arbitrarily set by the user.
φtrig-α ≤ φtilt ≤ φtrig + α

(第2実施形態)
第2実施形態では、天井吊り下げ型のカメラが周期的なチルト動作を行うことにより撮影を行う場合の符号化制御について説明する。特に、カメラ設置時に、周期動作に応じた画像回転を行うカメラ位置情報、及び、画像回転を行うカメラ位置までチルト動作するための時間情報を設定する。そして、設定された初期情報から周期的にフレーム内予測またはフレーム間予測どちらかの符号化処理を選択する形態について説明する。なお、画像処理装置の機能構成およびハードウェア構成は第1実施形態とほぼ同様である。そのため以下では異なる部分を中心に説明を行う。
(Second embodiment)
In the second embodiment, coding control will be described in the case where a ceiling-suspended camera performs periodic tilting operations to capture images. In particular, when the camera is installed, camera position information for image rotation according to the periodic operation and time information for tilting to the camera position for image rotation are set. Then, a mode of periodically selecting either intra-frame prediction or inter-frame prediction encoding processing based on the set initial information will be described. Note that the functional configuration and hardware configuration of the image processing apparatus are substantially the same as those of the first embodiment. Therefore, the following description will focus on the different parts.

<装置の動作>
PTZ設定部201は、カメラの周期動作に応じた初期情報の設定をユーザから受け付ける。全体制御部200は、PTZ設定部201から初期情報を受け取り、当該初期情報に従った設定を画像回転判定部101に設定する。その後、画像回転判定部101は、初期情報に基づいて画像回転位置を算出し、カメラポジションが画像回転位置にきたと判断した場合、トリガ情報を符号化処理制御部102に通知する。
<Device operation>
The PTZ setting unit 201 receives from the user the setting of initial information according to the periodic operation of the camera. The overall control unit 200 receives the initial information from the PTZ setting unit 201 and sets the image rotation determination unit 101 to settings according to the initial information. After that, the image rotation determination unit 101 calculates the image rotation position based on the initial information, and notifies the encoding processing control unit 102 of trigger information when determining that the camera position has reached the image rotation position.

図10は、第2実施形態における符号化処理の変更を説明する図である。ここでは、カメラポジションが、チルト動作により図10に示す(1)から(5)の間を往復して周期的に変化する。図10の下段は、このような往復運動での各カメラポジションにおいて、フレーム画像がフレーム内予測またはフレーム間予測どちらで符号化処理されるかを示している。 FIG. 10 is a diagram for explaining changes in encoding processing in the second embodiment. Here, the camera position changes periodically by going back and forth between (1) to (5) shown in FIG. 10 by the tilting operation. The lower part of FIG. 10 shows whether a frame image is coded by intra-frame prediction or inter-frame prediction at each camera position in such reciprocating motion.

図10で示すように、カメラが周期的にチルト動作を行うなかで、カメラポジションが(3)の位置に来るたびにフレーム画像に対する画像回転の有無を変更し、そのタイミングで当該フレーム画像をフレーム内予測で符号化処理を行う。 As shown in FIG. 10, while the camera is periodically tilted, each time the camera position comes to position (3), the presence or absence of image rotation for the frame image is changed. Encoding processing is performed by inner prediction.

図11は、第2実施形態における各フレームでの参照フレームを説明する図である。図11で示すように、初期設定情報として、カメラの設置場所に合わせてカメラポジションを設定する(テーブルの3列目)。併せて、カメラポジション毎のフレーム画像をフレーム内予測又はフレーム間予測どちらを用いるかの設定情報(テーブルの1列目)と、フレーム画像を180°回転するカメラポジション(テーブルの4列目)を設定する。以下では、フレーム画像の180°回転の有無が変化してから次にフレーム画像が180°回転されるまでの期間をTとして説明する。 FIG. 11 is a diagram for explaining reference frames in each frame in the second embodiment. As shown in FIG. 11, as the initial setting information, the camera position is set according to the installation location of the camera (third column of the table). In addition, setting information indicating whether intra-frame prediction or inter-frame prediction is used for the frame image for each camera position (first column of the table), and the camera position for rotating the frame image by 180° (fourth column of the table). set. In the following description, T is the period from when the frame image is rotated by 180° to when the frame image is rotated by 180°.

画像回転判定部101は、全体制御部200から設定された図10に示すテーブル情報に基づいて、フレーム画像を回転するか否かの判定処理を行う。上述したように、テーブル情報には、各時刻(各タイミング)における撮影方向を規定した所与の制御内容が含まれている。画像回転判定部101は、撮影が開始されると同時に動作時間のカウントを開始する。動作時間をTcountとすると、カメラによる撮影を初期位置姿勢(図10の(1))から開始するとしたとき、Tcount=T/2のときに図10の(3)で示すカメラポジションとなる。このとき、画像回転判定部101は、画像回転が必要なカメラポジションであると判断し、画像を180°回転するトリガ情報を符号化処理部102に通知する。これにより、符号化処理制御部102は、画像が180°回転されるカメラポジションにおいて、フレーム内予測モードを選択し符号化処理を行うことが可能となる。このとき、画像回転判定部101は、カメラポジションが(3)であると判定されたときに、Tcountを初期値0に設定し、処理を再開する。 Based on the table information shown in FIG. 10 set by the overall control unit 200, the image rotation determination unit 101 determines whether or not to rotate the frame image. As described above, the table information includes given control details that define the shooting direction at each time (each timing). The image rotation determination unit 101 starts counting the operating time at the same time as the shooting is started. Assuming that the operation time is Tcount, and the shooting with the camera is started from the initial position and orientation ((1) in FIG. 10), the camera position shown in (3) in FIG. 10 is obtained when Tcount=T/2. At this time, the image rotation determination unit 101 determines that the camera position requires image rotation, and notifies the encoding processing unit 102 of trigger information for rotating the image by 180°. This enables the encoding processing control unit 102 to select the intra-frame prediction mode and perform encoding processing at the camera position where the image is rotated 180°. At this time, when the image rotation determining unit 101 determines that the camera position is (3), it sets Tcount to an initial value of 0, and restarts the process.

なお、上述の説明では、チルト動作開始からの時間(テーブルの5列目)をもとに画像の回転タイミングを検出した。一方で、カメラポジション毎のフレーム画像をフレーム内予測又はフレーム間予測どちらを用いるかの設定情報(テーブルの1列目)をもとに画像の回転タイミングを検出してもよい。 In the above description, the rotation timing of the image is detected based on the time from the start of the tilt operation (fifth column of the table). On the other hand, the image rotation timing may be detected based on the setting information (the first column of the table) indicating whether intra-frame prediction or inter-frame prediction is used for the frame image for each camera position.

また、上述の説明ではカメラの周期動作に合わせたテーブル情報を、カメラ設置時に作成し設定しているが、カメラの動作中にテーブル情報を更新するよう構成してもよい。これにより、運用形態が途中で変化した場合にも対応することができる。 In the above description, the table information corresponding to the periodic operation of the camera is created and set when the camera is installed, but the table information may be updated while the camera is operating. As a result, it is possible to cope with a case where the operation mode changes in the middle.

以上説明したとおり第2実施形態によれば、天井吊り下げ型の監視カメラが周期的な動作を行う場合に、カメラの動作周期に合わせたテーブル情報を利用する。当該テーブル情報を利用することにより、第1実施形態と同様の効果を得ることが可能となる。 As described above, according to the second embodiment, when a ceiling-suspended surveillance camera performs periodic operations, table information that matches the operation period of the camera is used. By using the table information, it is possible to obtain the same effect as in the first embodiment.

(第3実施形態)
第3実施形態では、デジタル・パン・チルト・ズーム(DPTZ)機能を備えた監視カメラを用いた場合の処理について説明する。ここで、DPTZ機能とは、監視カメラにより得られた映像に対してトリミング処理や回転処理といった一連の画像処理を施すことによりパン・チルト・ズームされた映像を生成する機能である。例えば、超広角の撮像光学系を利用することにより、モータやギヤなどにより構成される可動部を用いることなく、幅広い方向の撮像映像を得ることができる。
(Third embodiment)
In the third embodiment, processing when using a surveillance camera having a digital pan/tilt/zoom (DPTZ) function will be described. Here, the DPTZ function is a function of generating a panned/tilted/zoomed image by performing a series of image processing such as trimming processing and rotation processing on the image obtained by the monitoring camera. For example, by using an ultra-wide-angle imaging optical system, it is possible to obtain images captured in a wide range of directions without using a movable part configured by a motor, gears, or the like.

画像処理装置の機能構成は第1実施形態(図1)とほぼ同様であるが、物理的にカメラ300の向きを変更する代わりに、映像処理部100による画像処理により疑似的にパン・チルト・ズームを行う。具体的には、全体制御部200は、映像処理部100に対してDPTZ設定情報を提供する。DPTZ設定情報は、出力すべき画像領域を画像処理部103に指示する情報である。映像処理部100は、カメラ300から入力されたカメラ情報と、全体制御部200から入力されるDPTZ設定情報と、に基づいて符号化ストリームを出力する。 The functional configuration of the image processing apparatus is substantially the same as that of the first embodiment (FIG. 1). Zoom. Specifically, the overall control unit 200 provides DPTZ setting information to the video processing unit 100 . The DPTZ setting information is information for instructing the image processing unit 103 about the image area to be output. The video processing unit 100 outputs an encoded stream based on camera information input from the camera 300 and DPTZ setting information input from the overall control unit 200 .

より具体的には、画像処理部103は、DPTZ設定情報に基づいて、カメラ300から入力されたフレーム画像に対してトリミング処理や回転処理を行う。画像回転判定部101は、DPTZ設定情報をもとに画像回転を実施するか否かの判定を行う。そして、符号化処理制御部102は、DPTZ機能により画像処理部103で生成されたフレームの符号化部104による符号化処理を制御する。ここでは、フレーム内予測又はフレーム間予測で符号化処理を適応的に選択する。 More specifically, the image processing unit 103 performs trimming processing and rotation processing on the frame image input from the camera 300 based on the DPTZ setting information. The image rotation determination unit 101 determines whether or not to rotate the image based on the DPTZ setting information. The encoding processing control unit 102 controls the encoding processing by the encoding unit 104 of the frame generated by the image processing unit 103 using the DPTZ function. Here, encoding processing is adaptively selected by intra-frame prediction or inter-frame prediction.

<DPTZによるフレーム画像の生成>
図12は、DPTZ設定情報に基づく画像処理を説明する図である。画像1200aは撮像部303から出力されたフレーム画像を示しており、画像1200bはDPTZ設定情報をもとに画像処理部103で生成されたフレーム画像を示している。
<Generation of frame image by DPTZ>
FIG. 12 is a diagram illustrating image processing based on DPTZ setting information. An image 1200a indicates a frame image output from the imaging unit 303, and an image 1200b indicates a frame image generated by the image processing unit 103 based on DPTZ setting information.

具体的には、画像1200aに含まれる3人の人物画像の1つに対して、上半身領域をトリミング処理及び拡大処理及び180°回転処理を行った結果が画像1200bである。領域1201は、画像1200aにおいてDPTZ設定情報をもとに設定される矩形領域(トリミング領域)を示している。 Specifically, the image 1200b is the result of performing trimming processing, enlargement processing, and 180° rotation processing on one of the three person images included in the image 1200a. A region 1201 indicates a rectangular region (trimming region) set based on the DPTZ setting information in the image 1200a.

図13は、矩形領域の位置座標を説明する図である。ここでは、画像1200aにおいて、画像の左端をX軸上の座標0と設定し、画像の縦(上下)方向の中心をY軸上の座標0と設定している。領域1301は領域1201に対応する領域であり、4つの頂点A~Dにより規定される領域である。ここで、4つの頂点は、A(x1、y1)、B(x2、y1)、C(x1、y2)、D(x2、y2)として規定される。 FIG. 13 is a diagram for explaining position coordinates of a rectangular area. Here, in the image 1200a, the left end of the image is set to coordinate 0 on the X-axis, and the vertical (vertical) direction center of the image is set to coordinate 0 on the Y-axis. A region 1301 corresponds to the region 1201 and is defined by four vertices AD. Here, the four vertices are defined as A(x1, y1), B(x2, y1), C(x1, y2), D(x2, y2).

画像回転判定部101は、全体制御部200から送信されたDPTZ設定情報をもとに領域1301の位置座標情報を取得する。画像回転判定部101は取得した位置座標情報をもとに、画像処理が施された画像に対して画像を回転するか否かの判定処理を行う。 The image rotation determination unit 101 acquires position coordinate information of the area 1301 based on the DPTZ setting information transmitted from the overall control unit 200 . Based on the acquired positional coordinate information, the image rotation determination unit 101 determines whether or not to rotate the image that has undergone image processing.

例えば、領域1301の画像に対して画像回転を実施するか否かを、以下の判定式(1)を用いて判定する。 For example, whether or not to perform image rotation on the image of area 1301 is determined using the following determination formula (1).

|y1|-|y2| < 0 ・・・(1)
すなわち、数式(1)では、領域1301において、Y軸方向において正負どちらの領域をより多く含んでいるかを判定している。画像回転判定部101は、数式(1)を満たす(Y軸方向において負の領域をより多く含んでいる)場合、対象矩形を180°回転すると決定し、トリガ情報を符号化処理制御部102に通知する。一方で、画像回転判定部101は、数式(1)を満たさない(Y軸方向において正の領域をより多く含んでいる)場合、回転処理が必要無いと決定し、トリガ情報を通知しない。
|y1|-|y2| < 0 (1)
That is, in the formula (1), it is determined whether the region 1301 includes more positive or negative regions in the Y-axis direction. The image rotation determination unit 101 determines to rotate the target rectangle by 180° when formula (1) is satisfied (more negative regions are included in the Y-axis direction), and sends trigger information to the encoding processing control unit 102. Notice. On the other hand, if the formula (1) is not satisfied (more positive regions are included in the Y-axis direction), the image rotation determination unit 101 determines that rotation processing is unnecessary and does not notify the trigger information.

なお、数式(1)を用いた判定は一例であり、画像回転の判定方法についてはこれに限定されるものでは無い。 Note that the determination using expression (1) is an example, and the image rotation determination method is not limited to this.

以上説明したとおり第3実施形態によれば、DPTZ機能を有する監視カメラにおいても、画像回転の発生を判定することが可能となる。そのため、画像回転が発生するタイミングでフレーム内予測による符号化処理を選択することにより、第1実施形態と同様の効果を得ることが可能となる。 As described above, according to the third embodiment, it is possible to determine the occurrence of image rotation even in a monitoring camera having a DPTZ function. Therefore, by selecting encoding processing based on intra-frame prediction at the timing when image rotation occurs, it is possible to obtain the same effect as in the first embodiment.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

100 映像処理部; 101 画像回転判定部; 102 符号化処理制御部; 103 画像処理部; 104 符号化部; 200 全体制御部; 201 PTZ設定部; 300 カメラ; 301 カメラ制御部; 302 レンズ; 303 撮像部 100 video processing unit; 101 image rotation determination unit; 102 encoding processing control unit; 103 image processing unit; 104 encoding unit; Imaging unit

Claims (6)

撮像により動画像を取得する撮像手段と、
前記動画像を構成するフレーム画像に対してトリミング処理及び拡大処理を行う画像処理手段と、
前記トリミング処理によってトリミングされるトリミング領域の位置座標に基づいて、前記動画像を構成するフレーム画像を所定の角度回転するか否かを判定する判定手段と、
フレーム内予測を用いる第1のモードとフレーム間予測を用いる第2のモードとの何れかを利用して前記動画像を構成するフレーム画像を符号化する符号化手段と、
を有し、
前記判定手段が前記動画像を構成するフレーム画像を前記所定の角度回転すると判定した場合、 前記符号化手段は前記動画像を構成するフレーム画像を前記第1のモードを利用して符号化す
とを特徴とする画像処理装置。
an imaging means for acquiring a moving image by imaging;
image processing means for performing trimming processing and enlarging processing on frame images constituting the moving image;
determining means for determining whether or not to rotate the frame images forming the moving image by a predetermined angle based on the position coordinates of the trimming area trimmed by the trimming process;
encoding means for encoding frame images forming the moving image using either a first mode using intra-frame prediction or a second mode using inter-frame prediction;
has
When the determining means determines that the frame images constituting the moving image are to be rotated by the predetermined angle, the encoding means encodes the frame images constituting the moving image using the first mode .
An image processing apparatus characterized by :
前記所定の角度は180°である
ことを特徴とする請求項に記載の画像処理装置。
the predetermined angle is 180°
2. The image processing apparatus according to claim 1 , wherein:
前記撮像手段は、通路の天井に設置され天井吊り下げ型のカメラであ
ことを特徴とする請求項1または2に記載の画像処理装置。
The imaging means is a ceiling hanging camera installed on the ceiling of the aisle.
3. The image processing apparatus according to claim 1, wherein:
前記通路は直線状の通路であ
ことを特徴とする請求項に記載の画像処理装置。
the passage is a straight passage
4. The image processing apparatus according to claim 3 , characterized by:
画像処理装置が実行する画像処理方法であって、
撮像により動画像を取得する取得工程と、
前記動画像を構成するフレーム画像に対してトリミング処理及び拡大処理を行う画像処理工程と、
前記トリミング処理によってトリミングされるトリミング領域の位置座標に基づいて、前記動画像を構成するフレーム画像を所定の角度回転するか否かを判定する判定工程と、
フレーム内予測を用いる第1のモードとフレーム間予測を用いる第2のモードとの何れかを利用して前記動画像を構成するフレーム画像を符号化する符号化工程と、
を含み、
前記判定工程において前記動画像を構成するフレーム画像を前記所定の角度回転すると判定した場合、前記符号化工程において前記動画像を構成するフレーム画像を前記第1のモードを利用して符号化する
ことを特徴とする画像処理方法。
An image processing method executed by an image processing device,
an acquisition step of acquiring a moving image by imaging;
an image processing step of performing trimming processing and enlarging processing on frame images that constitute the moving image;
a determination step of determining whether or not to rotate the frame images constituting the moving image by a predetermined angle based on the position coordinates of the trimming area trimmed by the trimming process;
an encoding step of encoding frame images forming the moving image using either a first mode using intra-frame prediction or a second mode using inter-frame prediction;
including
When it is determined in the determining step that the frame images forming the moving image are to be rotated by the predetermined angle, the encoding step encodes the frame images forming the moving image using the first mode.
An image processing method characterized by:
コンピュータを、請求項1に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to claim 1.
JP2018220675A 2018-11-26 2018-11-26 Image processing device and image processing method Active JP7336185B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018220675A JP7336185B2 (en) 2018-11-26 2018-11-26 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018220675A JP7336185B2 (en) 2018-11-26 2018-11-26 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2020088610A JP2020088610A (en) 2020-06-04
JP7336185B2 true JP7336185B2 (en) 2023-08-31

Family

ID=70910144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018220675A Active JP7336185B2 (en) 2018-11-26 2018-11-26 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP7336185B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004180345A (en) 2004-02-17 2004-06-24 Canon Inc Captured image recording device
JP2005278073A (en) 2004-03-26 2005-10-06 Hitachi Ltd Imaging device
JP2008199389A (en) 2007-02-14 2008-08-28 Matsushita Electric Ind Co Ltd Surveillance camera and surveillance camera control method
JP2010226265A (en) 2009-03-20 2010-10-07 Sanyo Electric Co Ltd Monitoring camera
JP2012227955A (en) 2012-07-12 2012-11-15 Hitachi Kokusai Electric Inc Image encoder
US20150092851A1 (en) 2013-09-30 2015-04-02 Panasonic Intellectual Property Corporation Of America Image coding method, image decoding method, image coding apparatus, and image decoding apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017028375A (en) * 2015-07-16 2017-02-02 株式会社リコー Image processing device and program
JP6222756B2 (en) * 2016-09-20 2017-11-01 マクセルホールディングス株式会社 Decryption method
JP7299690B2 (en) * 2018-11-26 2023-06-28 キヤノン株式会社 Image processing device and its control method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004180345A (en) 2004-02-17 2004-06-24 Canon Inc Captured image recording device
JP2005278073A (en) 2004-03-26 2005-10-06 Hitachi Ltd Imaging device
JP2008199389A (en) 2007-02-14 2008-08-28 Matsushita Electric Ind Co Ltd Surveillance camera and surveillance camera control method
JP2010226265A (en) 2009-03-20 2010-10-07 Sanyo Electric Co Ltd Monitoring camera
JP2012227955A (en) 2012-07-12 2012-11-15 Hitachi Kokusai Electric Inc Image encoder
US20150092851A1 (en) 2013-09-30 2015-04-02 Panasonic Intellectual Property Corporation Of America Image coding method, image decoding method, image coding apparatus, and image decoding apparatus

Also Published As

Publication number Publication date
JP2020088610A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
JP5268743B2 (en) Image communication system
US8125521B2 (en) Multiple image processing and synthesis using background image extraction
US9544616B2 (en) Video transmission apparatus
KR100426174B1 (en) Method for controlling a camera using video compression algorithm
CN101848328B (en) Image recording device and image tilt correcting method
JP2012257198A (en) Stereoscopic image encoding apparatus, method therefor, and image pickup apparatus having stereoscopic image encoding apparatus
US9979882B2 (en) Method and device for controlling a camera capable of pan and tilt control
CN113556462B (en) Method and system for controlling pan tilt zoom camera and storage medium
EP3131295A1 (en) Video encoding method and system
JP2011023885A (en) Video encoder and video encoding method
JP7299690B2 (en) Image processing device and its control method
EP3989530A1 (en) Generating substitute image frames based on camera motion
JP2005175970A (en) Imaging system
CN116016950B (en) Method and system for transmitting video stream
JP6435029B2 (en) Video encoding apparatus and video encoding program
JP7336185B2 (en) Image processing device and image processing method
JP2014232995A (en) Camera apparatus and method for controlling the same
JP2019033315A (en) Imaging system, image data transmission method, and program
JP2001275103A (en) MONITORING SYSTEM AND MOTION DETECTION METHOD THEREOF
JP4564856B2 (en) Image encoding apparatus and imaging apparatus
JP2014171018A (en) Video processing device and video processing system
JP2025165702A (en) Image capture device and image capture device control method
JP2025165704A (en) Image capture device and image capture device control method
JP2008011079A (en) Moving picture encoding apparatus, moving picture decoding apparatus, and moving picture transmission system
Laddha et al. Bitrate and complexity optimizations for video conferencing systems

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230821

R151 Written notification of patent or utility model registration

Ref document number: 7336185

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151