[go: up one dir, main page]

JP6526051B2 - Image processing apparatus, image processing method and program - Google Patents

Image processing apparatus, image processing method and program Download PDF

Info

Publication number
JP6526051B2
JP6526051B2 JP2016563376A JP2016563376A JP6526051B2 JP 6526051 B2 JP6526051 B2 JP 6526051B2 JP 2016563376 A JP2016563376 A JP 2016563376A JP 2016563376 A JP2016563376 A JP 2016563376A JP 6526051 B2 JP6526051 B2 JP 6526051B2
Authority
JP
Japan
Prior art keywords
resolution
area
image data
information
acceleration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016563376A
Other languages
Japanese (ja)
Other versions
JPWO2016092698A1 (en
Inventor
花本 貴志
貴志 花本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JPWO2016092698A1 publication Critical patent/JPWO2016092698A1/en
Application granted granted Critical
Publication of JP6526051B2 publication Critical patent/JP6526051B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0147Head-up displays characterised by optical features comprising a device modifying the resolution of the displayed image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/36Level of detail
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/12Shadow map, environment map
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ヘッドマウントディスプレイなどに画像データを表示するための画像処理技術に関する。   The present invention relates to an image processing technique for displaying image data on a head mounted display or the like.

観察者の頭部に固定するヘッドマウントディスプレイ(以降、HMD)を用いて、観察者が画像を視聴する技術が知られている。また近年は、眼鏡型ディスプレイなども知られている。HMDに表示される画像データは、全周囲方向の映像をその都度切り出したものであり、元となるその映像は環境マップとも呼ばれる。環境マップは例えば、魚眼レンズを用いた撮影やミラーボールに反射した光をカメラで撮像する手法により取得できる。   A technique is known in which an observer views an image using a head mounted display (hereinafter, HMD) fixed to the observer's head. In recent years, glasses-type displays and the like are also known. The image data displayed on the HMD is obtained by cutting out an image in the entire circumferential direction each time, and the original image is also called an environment map. The environment map can be acquired, for example, by photographing using a fisheye lens or a method of imaging light reflected by a mirror ball with a camera.

特許文献1には、HMDに内蔵されたセンサを用いて観察者の動作を検出し、観察者の頭の動きに対応する操作に応じて表示された画像をスクロールし、表示する方法について開示している。   Patent Document 1 discloses a method of detecting the motion of the observer using a sensor incorporated in the HMD, and scrolling and displaying the displayed image according to the operation corresponding to the movement of the head of the observer. ing.

特開2013−254251号公報JP, 2013-254251, A

近年、表示画像の高解像度化が進んだ結果、表示に必要な画像データの容量も大きくなり、HMDに表示するための画像データの読み出しやデコードに時間がかかる。そのため特許文献1に開示された方法によれば、観察者が視聴したい方向に頭部を動かしても、視聴したい画像データが円滑に表示されない場合がある。   In recent years, as resolution of display images has been increased, the capacity of image data necessary for display has also increased, and it takes time to read out and decode image data for display on the HMD. Therefore, according to the method disclosed in Patent Document 1, even if the head moves in a direction desired to be viewed by the observer, image data desired to be viewed may not be displayed smoothly.

そこで本発明は、観察者の動きに応じて視聴する領域を予測することにより、観察者の動きに合わせてより自然に観察者の視線に応じた画像データを表示することを目的とする。   Therefore, the present invention aims to display image data according to the line of sight of the observer more naturally according to the movement of the observer by predicting the area to be viewed according to the movement of the observer.

上記課題を解決するため本発明は、観察者の視線方向に応じて画像データを表示するための画像処理装置であって、解像度の異なる複数の環境マップを記憶する記憶手段と、前記観察者の動きを示す情報を動き情報として取得する取得手段と、前記観察者に表示しているカレント領域の位置を示すカレント領域情報を保持する保持手段と、前記カレント領域情報と前記動き情報に基づいて、前記環境マップにおけるターゲット領域を決定するターゲット領域決定手段と、前記カレント領域から前記ターゲット領域に視線方向が変化する経路を含む領域を経路領域として決定する経路領域決定手段と、前記複数の環境マップのうち、前記経路領域および前記ターゲット領域それぞれに対応する解像度を設定する設定手段と、前記設定手段により設定された解像度の環境マップから前記経路領域および前記ターゲット領域それぞれに対応する画像データを読み出し、前記経路領域に表示するための画像データおよび前記ターゲット領域に表示するための画像データを生成する生成手段とを有し、前記動き情報には、横方向の加速度を示す情報と縦方向の加速度を示す情報からなる加速度情報を含み、 前記設定手段は、縦方向の加速度の方が横方向の加速度よりも大きい場合は第1の解像度を、横方向の加速度の方が縦方向の加速度よりも大きい場合は前記第1の解像度より低い第2の解像度を、前記経路領域に対応する解像度として設定することを特徴とする。 In order to solve the above problems, the present invention is an image processing apparatus for displaying image data in accordance with the gaze direction of the observer, which is storage means for storing a plurality of environment maps having different resolutions; Based on acquisition means for acquiring information indicating movement as movement information, holding means for holding current area information indicating the position of the current area displayed to the observer, and based on the current area information and the movement information, Target area determination means for determining a target area in the environment map, path area determination means for determining an area including a path whose line of sight direction changes from the current area to the target area as a path area, and a plurality of environment maps Among them, setting means for setting resolutions respectively corresponding to the path area and the target area, and the setting means Generating means for reading out image data corresponding to each of the path area and the target area from an environment map of a specified resolution, and generating image data for displaying on the path area and image data for displaying on the target area possess the door, the motion information includes acceleration information comprising information indicating the acceleration in a lateral direction of the information and the vertical direction showing the acceleration, the setting means, towards the longitudinal acceleration is higher than the lateral acceleration The second resolution lower than the first resolution is set as the resolution corresponding to the path area if the lateral acceleration is larger than the longitudinal acceleration if the lateral acceleration is larger than the longitudinal acceleration. It is characterized by

本発明は、観察者の動きに応じてより自然に画像データを表示することができる。   The present invention can display image data more naturally according to the movement of the observer.

画像処理装置の構成を示すブロック図。FIG. 1 is a block diagram showing the configuration of an image processing apparatus. ヘッドマウントディスプレイ(HMD)の構成を示す図。The figure which shows the structure of a head mounted display (HMD). 環境マップの構成を示す図。The figure which shows the structure of an environment map. 環境マップ表示処理のフローチャート。The flowchart of an environmental map display process. 高解像度環境マップ表示処理のフローチャート。Flow chart of high resolution environment map display processing. 先読み手法の概念図。Conceptual diagram of the prefetching method. 高解像度環境マップ先読み処理のフローチャート。Flow chart of high resolution environment map prefetching process. 先読み時の解像度選択処理のフローチャート。The flowchart of the resolution selection process at the time of prefetching. キャッシュを用いた環境マップ表示処理のフローチャート。10 is a flowchart of environment map display processing using a cache. 移動を伴う環境マップ表示処理のフローチャート。10 is a flowchart of environment map display processing involving movement. 撮像装置の概念図。FIG. 環境マップ先読み処理のフローチャート。The flowchart of environment map pre-reading processing.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下の実施例において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.

<第1実施形態>
(全体構成)
第1実施形態では、複数の解像度の環境マップを加速度情報に応じて読み出し、ヘッドマウントディスプレイ(HMD)に表示するための画像処理装置を例に説明する。なお、本発明はHMDに限らず、眼鏡型ディスプレイなど同様の装置への適用が可能である。
First Embodiment
(overall structure)
In the first embodiment, an image processing apparatus for reading out an environment map of a plurality of resolutions according to acceleration information and displaying it on a head mounted display (HMD) will be described as an example. The present invention is not limited to the HMD, but can be applied to a similar device such as a glasses-type display.

図1は、第1実施形態に適用可能な画像処理装置のハード構成を示すブロック図である。画像処理装置は、CPU101、メインメモリ102、記憶装置103、GPU104、バス106を有する。まず、CPU101は、演算処理や各種プログラムを実行する。メインメモリ102は、画像処理に必要なプログラムやデータを保持している。またメインメモリ102は、CPU101による画像処理の作業領域としても使用される。記憶装置103は、画像処理プログラムや複数の画像データを蓄積する装置であり、例えばハードディスクドライブ(HDD)が用いられる。GPU104は、画像データやGUIを表示するための外部の表示装置であるHMD105とI/F部(不図示)により接続されている。GUI104は、表示する画像データを展開し、HMD105に転送する。なおGPU104とHMD105を接続するI/Fは、例えば、赤外線通信や無線LAN等を用いたデータのやりとりを行うことができる。バス106は上述の各構成を接続するバスである。なお、システム構成については、上記以外にも、様々な構成要素が存在するが、本実施形態の主眼ではないので、その説明は省略する。   FIG. 1 is a block diagram showing a hardware configuration of an image processing apparatus applicable to the first embodiment. The image processing apparatus includes a CPU 101, a main memory 102, a storage device 103, a GPU 104, and a bus 106. First, the CPU 101 executes arithmetic processing and various programs. The main memory 102 holds programs and data necessary for image processing. The main memory 102 is also used as a work area for image processing by the CPU 101. The storage device 103 is a device for storing an image processing program and a plurality of image data, and for example, a hard disk drive (HDD) is used. The GPU 104 is connected to an HMD 105, which is an external display device for displaying image data and a GUI, by an I / F unit (not shown). The GUI 104 develops image data to be displayed and transfers the image data to the HMD 105. Note that an I / F connecting the GPU 104 and the HMD 105 can exchange data using, for example, infrared communication or a wireless LAN. A bus 106 is a bus connecting the above-described components. In addition, although there are various components other than the above regarding the system configuration, since it is not the gist of the present embodiment, the description thereof will be omitted.

図2は、HMD105の構成を模式的に説明する図である。図2(a)に示すようにHMD105は表示部201を有し、さらに表示部201は加速度センサ203、地磁気センサ204、GPSセンサ205が搭載されている。加速度センサ203、地磁気センサ204、GPSセンサ205は、HMD105を装着した観察者の動きを示す動き情報を取得するためのセンサである。加速度センサ2013は、観察者の頭部が左右に動く横方向と、上下に動く縦方向の加速度とを検知し、加速度情報として出力する。地磁気センサ204は、地磁気の向きを検知することによりHMD105の方位を算出し、観察者が視聴している方向を示す角度情報を出力する。GPS(グローバル・ポジショニング・システム)センサ205は、地球上におけるHMD105の位置を測定し、位置情報を取得する。また固定部202は、観察者の頭部に表示部201を固定するため、観察者は耳にかけることができるような構造になっている。つまり観察者の頭部の動きに連動して、表示部201に内蔵された各センサは位置や方向を検出する。   FIG. 2 is a diagram schematically illustrating the configuration of the HMD 105. As shown in FIG. As shown in FIG. 2A, the HMD 105 has a display unit 201, and the display unit 201 further includes an acceleration sensor 203, a geomagnetic sensor 204, and a GPS sensor 205. The acceleration sensor 203, the geomagnetic sensor 204, and the GPS sensor 205 are sensors for acquiring motion information indicating the motion of the observer wearing the HMD 105. The acceleration sensor 2013 detects a lateral direction in which the observer's head moves to the left and right, and a vertical acceleration moving in the vertical direction, and outputs it as acceleration information. The geomagnetic sensor 204 detects the direction of the geomagnetism to calculate the orientation of the HMD 105, and outputs angle information indicating the direction in which the observer is watching. A GPS (Global Positioning System) sensor 205 measures the position of the HMD 105 on the earth and acquires position information. In addition, since the fixing unit 202 fixes the display unit 201 to the observer's head, the fixing unit 202 is structured such that the observer can put it on his / her ear. That is, in conjunction with the movement of the head of the observer, each sensor incorporated in the display unit 201 detects the position and the direction.

図2(b)に、表示部201のさらに詳細な構成を示す。図2(b)は、図2(a)に示すHMD105を上方から見たときの表示部201の内部構成を模式的に示している。表示部201は、レンズ207を通すことで、観察者の視野全体を液晶ディスプレイ206により覆うことのできる構造となっている。液晶ディスプレイ206は画像データを表示する。液晶ディスプレイ206には、全方位方向の画像からなる環境マップの一部を切り出した画像データが表示される。これにより観察者は、環境マップの中心位置にいるかのような臨場感のある映像を視聴できる。表示する画像データは、画像処理装置400から転送される。   A more detailed configuration of the display unit 201 is shown in FIG. FIG. 2B schematically shows the internal configuration of the display unit 201 when the HMD 105 shown in FIG. 2A is viewed from above. The display unit 201 has a structure in which the entire visual field of the observer can be covered by the liquid crystal display 206 by passing the lens 207. The liquid crystal display 206 displays image data. The liquid crystal display 206 displays image data obtained by cutting out a part of an environment map consisting of images in all directions. This allows the viewer to view a realistic image as if at the center position of the environment map. Image data to be displayed is transferred from the image processing apparatus 400.

図3は、環境マップを説明する図である。図3(a)に、視点位置に対する環境マップの座標系を示す。図3(a)に示すように、観察者の視点位置301からの視線方向は、極座標(θ、φ)を用いて表すことができる。この極座標(θ、φ)を量子化し、量子化された極座標(θ、φ)毎の情報を画像データに置き換えたものが環境マップである。全方位画像や全天周画像とも呼ばれる。環境マップを構成する各画素は輝度ベクトルを保持し、輝度ベクトルの大きさが輝度値を表し、輝度ベクトルの向きは常に視点位置を向いている。すなわち、環境マップは観察者の視点位置301に入射する全周囲の輝度情報である。環境マップを保持するデータ方式としては、図3(b)に示す正距円筒マップ方式と、図3(c)に示す球状マップ方式などがある。図3(b)に示す正距円筒マップ方式は、θを横軸、φを縦軸として2次元の矩形の画像データに変換して輝度情報を保持している。また図3(c)に示す球状マップ方式は、円の中心から円弧に向けた軸を環境マップにおけるφ、円の中心からの回転方向を環境マップにおけるθとして、2次元の円状の画像データに変換して輝度情報を保持している。なお正弦円筒マップ方式および球状マップ方式はいずれも、球状の環境マップを平面に投射するため歪みを生じる。そのため、双方の方式ともHMDにおいて表示する画像データを生成する際には射影変換を行う必要がある。   FIG. 3 is a diagram for explaining an environment map. FIG. 3A shows the coordinate system of the environment map with respect to the viewpoint position. As shown in FIG. 3A, the viewing direction from the viewpoint position 301 of the observer can be expressed using polar coordinates (θ, φ). An environment map is obtained by quantizing the polar coordinates (θ, φ) and replacing information for each quantized polar coordinates (θ, φ) with image data. It is also called an omnidirectional image or an omnidirectional image. Each pixel constituting the environment map holds a brightness vector, the magnitude of the brightness vector represents a brightness value, and the direction of the brightness vector always points to the viewpoint position. That is, the environment map is luminance information of the entire periphery incident on the viewpoint position 301 of the observer. As data methods for holding the environment map, there are the equidistant cylinder map method shown in FIG. 3B, the spherical map method shown in FIG. 3C, and the like. In the equidistant cylinder map method shown in FIG. 3B, luminance information is held by converting the image data into a two-dimensional rectangular image data with θ as the horizontal axis and φ as the vertical axis. In the spherical map method shown in FIG. 3 (c), an axis from the center of the circle to the arc is φ in the environment map, and the rotation direction from the center of the circle is θ in the environment map. And the luminance information is held. Both the sine cylinder map method and the spherical map method cause distortion because a spherical environment map is projected on a plane. Therefore, in both methods, it is necessary to perform projective transformation when generating image data to be displayed in the HMD.

(画像処理装置の構成)
図4は、第1実施形態に適用可能な画像処理装置400の詳細な構成を示す。本実施形態では、各構成をソフトウェアによって実行される形態を例に説明する。
(Configuration of image processing apparatus)
FIG. 4 shows the detailed configuration of the image processing apparatus 400 applicable to the first embodiment. In the present embodiment, each configuration will be described by way of an example in which the configuration is implemented by software.

本実施形態における画像処理装置400は、記憶装置103に記憶された複数の解像度の環境マップから、HMD105の動作に応じて表示候補の画像データを切り出し、表示画像データを生成する。図5に、複数の環境マップを示す。本実施形態における環境マップは、高解像度環境マップ501、中解像度環境マップ502、低解像度環境マップ503の3つの異なる解像度の環境マップが保持されている。なお、本実施形態における環境マップは、正距円筒マップ方式であるとする。各解像度の環境マップは、ブロック画像504に分割され、それぞれ異なるファイルとして記憶装置103に保存されている。そのため画像処理装置400は、必要な解像度のブロック画像のみを読み出すことできる。   The image processing apparatus 400 according to the present embodiment cuts out the image data of the display candidate from the environment map of the plurality of resolutions stored in the storage device 103 according to the operation of the HMD 105 to generate display image data. FIG. 5 shows a plurality of environment maps. The environment maps in this embodiment hold three different resolution environment maps: a high resolution environment map 501, a medium resolution environment map 502, and a low resolution environment map 503. In addition, the environment map in this embodiment presupposes that it is an equidistant cylinder map system. The environment map of each resolution is divided into block images 504 and stored in the storage device 103 as different files. Therefore, the image processing apparatus 400 can read out only block images of the required resolution.

検出結果取得部401は、HMD105から、加速度センサ203により検出された加速度情報や地磁気センサ204により検出された角度情報などの動き情報を取得する。カレント領域決定部409は、角度情報に基づいて観察者が現在視聴している領域をカレント領域601として特定する。図6(a)にカレント領域を説明する図を示す。   The detection result acquisition unit 401 acquires, from the HMD 105, motion information such as acceleration information detected by the acceleration sensor 203 and angle information detected by the geomagnetic sensor 204. The current area determination unit 409 specifies the area currently viewed by the observer as the current area 601 based on the angle information. FIG. 6A shows a diagram for explaining the current area.

ターゲット領域決定部403は、カレント領域409からカレント領域の位置を取得する。さらにターゲット領域決定部403は、新たな加速度情報を取得すると、図6(a)に示すようにカレント領域601に対して観察者がこれから視聴しようとする方向を予測し、ターゲット領域602を決定する。   The target area determination unit 403 acquires the position of the current area from the current area 409. Further, when acquiring new acceleration information, the target area determination unit 403 predicts the direction in which the observer intends to view the current area 601 from now as shown in FIG. 6A, and determines the target area 602. .

経路領域決定部404は、ターゲット領域602が決定されると、カレント領域601およびターゲット領域602とに基づいて経路領域603を決定する。経路領域603は、観察者が視聴しようとするターゲット領域602に視線が移動するまでの間に、観察者の視野に入りこむ領域である。   When the target area 602 is determined, the path area determination unit 404 determines the path area 603 based on the current area 601 and the target area 602. The path area 603 is an area that enters the view of the observer until the line of sight moves to the target area 602 that the observer intends to view.

解像度情報取得部402は、HMD105の表示部201に表示可能な解像度を解像度情報として取得する。必要解像度設定部405は、検出結果取得部401から得られる加速度情報と解像度情報取得部402から得られる解像度情報とに基づいて、次に送信すべき表示画像データの必要解像度を算出する。具体的には解像度情報取得部402は、加速度情報が示す2つの方向への加速度に応じて、経路領域に表示すべき画像データの必要解像度を設定する。また、解像度情報に応じてターゲット領域に表示すべき画像データの必要解像度を設定する。   The resolution information acquisition unit 402 acquires a resolution that can be displayed on the display unit 201 of the HMD 105 as resolution information. The required resolution setting unit 405 calculates the required resolution of display image data to be transmitted next based on the acceleration information obtained from the detection result acquisition unit 401 and the resolution information obtained from the resolution information acquisition unit 402. Specifically, the resolution information acquisition unit 402 sets the required resolution of the image data to be displayed in the route area according to the acceleration in two directions indicated by the acceleration information. Further, the necessary resolution of the image data to be displayed in the target area is set according to the resolution information.

表示画像生成部407は、環境マップ取得部406に格納された環境マップのうち、表示する解像度の環境マップを取り出して領域を切り出し、切り出した環境マップを射影変換することにより、表示用画像データを生成する。同じサイズの領域に表示される表示用画像データであっても、より解像度の高い環境マップを切り出して生成された画像データの方が、データ量が大きく、データ転送にも時間がかかる。本実施形態における表示画像生成部407は、観察者が映像の視聴を開始すると始めに、最も低解像度の環境マップから表示用画像データを生成する。その後、表示画像生成部407は、HMD105の動きに応じて表示用画像データを生成する。HMD105に動きが検出された場合には、経路領域に表示するための表示用画像データおよびターゲット領域に表示するための表示用画像データを生成し、順に出力する。なお、表示画像生成部407は予め、接続しているHMD105の表示部201において、表示すべき画像データのサイズ(画角情報)を設定されているものとする。   The display image generation unit 407 extracts the environment map of the resolution to be displayed from the environment maps stored in the environment map acquisition unit 406, cuts out the area, and projective converts the cut environment map, thereby displaying the display image data. Generate Even if the display image data is displayed in the same size area, the image data generated by cutting out the environment map with higher resolution has a larger amount of data, and the data transfer also takes time. The display image generation unit 407 in the present embodiment first generates display image data from the environment map with the lowest resolution when the viewer starts viewing the video. Thereafter, the display image generation unit 407 generates display image data in accordance with the movement of the HMD 105. When motion is detected in the HMD 105, display image data to be displayed in the route area and display image data to be displayed in the target area are generated and sequentially output. In addition, it is assumed that the size (field angle information) of the image data to be displayed is set in advance in the display unit 201 of the HMD 105 connected to the display image generation unit 407.

送信部407は、表示部201に表示するための表示画像データをHMD105側に転送する。   The transmitting unit 407 transfers display image data to be displayed on the display unit 201 to the HMD 105 side.

(画像処理装置における処理のフロー)
図7を用いて、画像処理装置400における処理のフローを説明する。CPU100が、図7に示すフローチャートのプログラムをROM102から読み込み実行することにより、画像処理装置400として実現される。
(Flow of processing in image processing apparatus)
The flow of processing in the image processing apparatus 400 will be described using FIG. 7. The CPU 100 implements the image processing apparatus 400 by reading and executing the program of the flowchart shown in FIG. 7 from the ROM 102.

まず観察者がHMD105を装着し、視聴が開始されるとステップS701において環境マップ取得部406は、記憶装置103から低解像度環境マップ503を読み出し、メインメモリ102に展開する。   First, when the observer wears the HMD 105 and viewing is started, the environment map acquisition unit 406 reads the low resolution environment map 503 from the storage device 103 and deploys it in the main memory 102 in step S701.

ステップS702においてカレント領域決定部409は、検出結果取得部401がHMD105の地磁気センサ204から取得した角度情報(θ、φ)と、予め保持している表示部201の画角情報とに基づいて、観察者が現在観察するカレント領域を決定する。前述の通り、環境マップには予め角度ごとの輝度情報が保持されている。そこで本実施形態では、角度情報(θ、φ)と環境マップの座標系を対応づけ、画角に応じた領域を設定することにより、カレント領域601を設定する。   In step S702, the current area determination unit 409 determines, based on the angle information (θ, φ) acquired by the detection result acquisition unit 401 from the geomagnetic sensor 204 of the HMD 105 and the field angle information of the display unit 201 stored in advance. Determine the current area that the observer is currently observing. As described above, luminance information for each angle is held in advance in the environment map. Therefore, in the present embodiment, the current area 601 is set by associating the angle information (θ, φ) with the coordinate system of the environment map, and setting an area according to the angle of view.

ステップS703において表示画像生成部407は、低解像度環境マップ503を参照し、カレント領域を切り出し、切り出した領域の輝度情報をHMD105の表示部201に表示するための射影変換を実行する。表示画像生成部407により生成された低解像度表示用画像データは、送信部408を介して、HMD105に転送される。低解像度環境マップは既にメインメモリ102に展開されているため、高速に処理できる。また、低解像度環境マップはデータ容量が小さく、処理負荷も高くないために、観察者が視聴する領域の画像データを高速に表示可能となる。   In step S703, the display image generation unit 407 refers to the low resolution environment map 503, cuts out the current area, and executes projective transformation for displaying the luminance information of the cut out area on the display unit 201 of the HMD 105. The low resolution display image data generated by the display image generation unit 407 is transferred to the HMD 105 via the transmission unit 408. Since the low resolution environment map is already expanded in the main memory 102, it can be processed at high speed. In addition, since the low resolution environment map has a small data capacity and does not have a high processing load, it is possible to display image data of the area viewed by the viewer at high speed.

ステップS705において検出結果取得部401は、HMD105の加速度センサ203から新たな加速度情報(aθ、aφ)が取得されたかどうかを判定する。加速度情報が更新されない場合はステップS706に進み、新たな加速度情報が取得された場合はステップS711に進む。なお、検出結果取得部401は、所定時間毎に加速度情報(aθ、aφ)を取得し、(aθ、aφ)=(0,0)である場合はステップS706に進み、(aθ、aφ)≠(0,0)である場合はステップS711に進むようにしてもよい。   In step S705, the detection result acquisition unit 401 determines whether new acceleration information (aθ, aφ) is acquired from the acceleration sensor 203 of the HMD 105. If the acceleration information is not updated, the process proceeds to step S706, and if new acceleration information is acquired, the process proceeds to step S711. Note that the detection result acquisition unit 401 acquires acceleration information (aθ, aφ) at predetermined time intervals, and if (aθ, aφ) = (0, 0), the process proceeds to step S 706 and (aθ, aφ) φ If (0, 0), the process may proceed to step S711.

ステップS706では、カレント領域601に対する表示用画像データを送信した後に、加速度情報(aθ、aφ)が取得されない場合、観察者の頭部に動きがなく、同じカレント領域601を視聴し続けていることを意味する。そこで必要解像度算出部405は、カレント領域601に表示可能であり、新たに表示用画像データの生成が必要な解像度を算出する。必要解像度情報算出部405は、解像度情報取得402からHMD105の表示部201に表示可能な最高解像度を示す解像度情報を取得する。必要解像度算出部405は、解像度情報が示す表示可能な最高解像度以下で、環境マップのうち最も高い解像度を必要解像度として決定する。   In step S706, when acceleration information (aθ, aφ) is not acquired after transmitting display image data to the current area 601, there is no movement in the head of the observer, and the same current area 601 is continuously viewed. Means Therefore, the necessary resolution calculation unit 405 calculates a resolution that can be displayed in the current area 601 and that requires new generation of display image data. The required resolution information calculation unit 405 acquires resolution information indicating the highest resolution that can be displayed on the display unit 201 of the HMD 105 from the resolution information acquisition 402. The required resolution calculation unit 405 determines the highest resolution among the environment maps as the required resolution below the maximum displayable resolution indicated by the resolution information.

ステップS707において表示画像生成部407は、必要解像度算出部706から得られる必要解像度を参照し、低解像度環境マップより高解像度の表示用画像データを生成する必要があるかどうかを判定する。必要解像度が低解像度環境マップ503以下である場合、解像度の変更はできないので、ステップS721に進む。必要解像度が低解像度環境マップ503の解像度より高い場合は、ステップS708に進む。   In step S 707, the display image generation unit 407 refers to the required resolution obtained from the required resolution calculation unit 706, and determines whether it is necessary to generate display image data with a higher resolution than the low resolution environment map. If the required resolution is equal to or lower than the low resolution environment map 503, the resolution can not be changed, and the process advances to step S721. If the required resolution is higher than the resolution of the low resolution environment map 503, the process proceeds to step S708.

ステップS708において表示画像生成部407は、必要解像度に応じた環境マップから、カレント領域601に対応するブロック画像のみを記憶装置103から読み出し、メインメモリ102に展開する。   In step S 708, the display image generation unit 407 reads from the storage device 103 only the block image corresponding to the current area 601 from the environment map according to the required resolution, and expands the image in the main memory 102.

ステップS709において表示画像生成部407は、読み出したブロック画像からカレント領域601を切り出し、切り出した画像データを射影変換することにより、表示用画像データを生成する。   In step S709, the display image generation unit 407 cuts out the current region 601 from the read block image, and projective converts the cut out image data to generate display image data.

ステップS710において表示画像生成部407は、表示用画像データを送信部408に出力し、送信部408はHMD105により高解像度な表示用画像データを転送する。その結果、観察者がカレント領域601を視聴し続けている場合は、より高解像度な映像を視聴することができる。   In step S710, the display image generation unit 407 outputs the display image data to the transmission unit 408, and the transmission unit 408 transfers high resolution display image data by the HMD 105. As a result, when the observer continues to view the current area 601, it is possible to view a higher resolution image.

次に、観察者の頭部が動き、HMD105の加速度センサ203から新たな加速度情報(aθ、aφ)を取得(または(aθ、aφ)≠(0,0))した場合の処理について説明する。ステップS711においてターゲット領域決定部403は、加速度情報(aθ、aφ)に基づいて、ターゲット領域602を決定する。人間の視線はその構造上、図6(c)に示すように、θ方向とφ方向の可動範囲によって限定されている。そこでターゲット領域決定部403は、図6(b)に示すように予め保持している頭部の稼働範囲と加速度情報(aθ、aφ)とから、観察者の頭部の動きを予測し、ターゲット領域602を設定する。ターゲット領域は、カレント領域の中心座標(θc、φc)から一定時間Δt秒に加速度(aθ、aφ)で移動した移動量から算出する。Δt秒後のターゲット領域の中心座標(θt、φt)は、   Next, a process when the observer's head moves and new acceleration information (aθ, aφ) is acquired from the acceleration sensor 203 of the HMD 105 (or (aθ, aφ) a (0, 0)) will be described. In step S711, the target area determination unit 403 determines the target area 602 based on the acceleration information (aθ, aφ). Because of its structure, the line of sight of the human being is limited by the movable range in the θ and φ directions as shown in FIG. 6 (c). Therefore, the target area determination unit 403 predicts the movement of the observer's head from the movement range of the head held in advance and the acceleration information (aθ, aφ) as shown in FIG. An area 602 is set. The target area is calculated from the movement amount moved by the acceleration (aθ, aφ) for a given time Δt seconds from the central coordinates (θc, φc) of the current area. The central coordinates (θt, φt) of the target area after Δt seconds are

Figure 0006526051
により算出できる。この中心座標から画角に合わせた領域を設定する。Δtは、人間の頭部を稼働する平均時間として1秒を設定しておく。なお、(θt、φt)が頭部の可動範囲を超える場合は、可動範囲内にターゲット領域を再設定する。
Figure 0006526051
It can be calculated by From this center coordinate, set an area in accordance with the angle of view. Δt is set to 1 second as an average time to operate the human head. When (θt, φt) exceeds the movable range of the head, the target area is reset within the movable range.

ステップS712において経路領域算出部404は、カレント領域601とターゲット領域602とから、2つの領域をつなぐ経路領域603を設定する。経路領域はカレント領域とターゲット領域の各頂点を直線でつないだ領域を、全て覆うブロック画像群を算出して決定する。   In step S 712, the route area calculation unit 404 sets a route area 603 connecting two areas from the current area 601 and the target area 602. The path area is determined by calculating a block image group that covers all areas in which the current area and each vertex of the target area are connected by a straight line.

ステップS713において表示画像生成部407は、メインメモリ102上の低解像度環境マップ503から、ターゲット領域602および経路領域603の画像データを切り出し、それぞれ射影変換をする。   In step S713, the display image generation unit 407 cuts out the image data of the target area 602 and the route area 603 from the low resolution environment map 503 on the main memory 102, and performs projective transformation.

ステップS714において表示画像生成部602は、経路領域603の表示用画像データおよびターゲット領域602の表示用画像データを順に送信部408出力する。送信部408は角度情報に合わせて表示部201に各低解像度な表示用画像データを表示するよう制御する。   In step S714, the display image generation unit 602 sequentially outputs the display image data of the path area 603 and the display image data of the target area 602 to the transmission unit 408. The transmission unit 408 controls the display unit 201 to display low-resolution display image data in accordance with the angle information.

ステップS715において必要解像度算出部405は、必要解像度を算出する。ターゲット領域602に対する必要解像度は、ステップ706と同様の方法により決定される。ステップS715において経路領域603に対する必要解像度の算出の詳細については、後述する。   In step S715, the required resolution calculation unit 405 calculates the required resolution. The required resolution for the target area 602 is determined in the same manner as step 706. Details of the calculation of the required resolution for the route area 603 in step S715 will be described later.

ステップS716において表示画像生成部716は、ステップS707と同様に、必要解像度算出部706から得られる必要解像度を参照し、低解像度環境マップより高解像度の表示用画像データを生成する必要があるかどうかを判定する。表示用画像データの変更があると判定した場合は、ステップS717に進む。   In step S 716, as in step S 707, the display image generation unit 716 refers to the required resolution obtained from the required resolution calculation unit 706 and determines whether it is necessary to generate display image data of higher resolution than the low resolution environment map. Determine If it is determined that the display image data has been changed, the process proceeds to step S717.

ステップS717〜ステップS719における表示画像生成部407の処理は、ステップS708〜ステップS710と同様である。   The processing of the display image generation unit 407 in steps S717 to S719 is similar to that of steps S708 to S710.

ステップS720においてカレント領域決定部409は、HMD105の地磁気センサ204から所定の間隔で送信される角度情報(θ、φ)とGPSセンサ205から送信される位置情報に基づいて、カレント領域601の位置を更新する。   In step S 720, the current area determination unit 409 determines the position of the current area 601 based on the angle information (θ, φ) transmitted from the geomagnetic sensor 204 of the HMD 105 at predetermined intervals and the position information transmitted from the GPS sensor 205. Update.

ステップS721において画像処理装置400は、HMD105における視聴が終了したかどうかを判定し、終了する場合は画像処理装置400における処理を完了する。また、視聴が継続している場合は、ステップS705に戻り、観察者の頭部の動きに応じて、表示用画像データを生成する。   In step S721, the image processing apparatus 400 determines whether the viewing in the HMD 105 has ended, and in the case of ending the process, the processing in the image processing apparatus 400 is completed. If viewing is continued, the process returns to step S705, and display image data is generated according to the movement of the observer's head.

図8は、S715における必要解像度取得部402による必要解像度の算出処理のフローチャートである。ステップS801において、HMD105の表示部201の解像度が所定の閾値R以上であるかを判定する。表示部201の解像度の方が閾値R以上の場合、ステップS802に進む。表示部201の解像度が閾値R未満である場合、ステップS805に進む。   FIG. 8 is a flowchart of the calculation process of the required resolution by the required resolution acquisition unit 402 in S715. In step S801, it is determined whether the resolution of the display unit 201 of the HMD 105 is equal to or greater than a predetermined threshold R. If the resolution of the display unit 201 is equal to or greater than the threshold R, the process proceeds to step S802. If the resolution of the display unit 201 is less than the threshold R, the process proceeds to step S805.

ステップS802において、HMD105から得られる加速度情報(aθ、aφ)に基づいて、加速度の絶対値が所定の閾値A未満であるかどうかを判定する。頭部の動きが早い場合、観察者は、観察者の視線が視聴した方向に辿りつくまでの経路領域についてはあまり映像として視覚できないと推測できる。そこで、加速度の絶対値が閾値A以上である場合、ステップS805に進み、経路領域に対しては比較的低い解像度を設定する。ステップS802において加速度の絶対値が閾値A未満である場合は、ステップS803に進む。   In step S802, based on the acceleration information (aθ, aφ) obtained from the HMD 105, it is determined whether the absolute value of the acceleration is less than a predetermined threshold A. When the movement of the head is fast, the observer can infer that the path area until the observer's line of sight reaches the viewing direction can not be seen as much video. Therefore, if the absolute value of the acceleration is equal to or greater than the threshold A, the process proceeds to step S805, and a relatively low resolution is set for the route area. If it is determined in step S802 that the absolute value of the acceleration is less than the threshold A, the process proceeds to step S803.

ステップS803において、aθとaφの大きさを比較する。aφの大きさがaφの大きさ未満である場合はステップS804に進み、aθの大きさがaφの大きさ以上である場合はステップS805に進む。ステップS804において、経路領域603に対する解像度としてターゲット領域602に対応する解像度と同じ解像度を設定する。つまり、経路領域603に対する解像度は、表示部201が表示可能な解像度の環境マップのうち最も高い解像度が決定される。ステップS805においては、経路領域603に対する解像度として、ターゲット領域602に対応する解像度より、1段階解像度を低くした解像度が設定される。例えば本実施形態において、ターゲット領域602に対して高解像度環境マップ501と同じ解像度が決定されている場合、経路領域603に対する必要解像度は、中解像度環境マップ502と同じ解像度が決定される。これは、人間の頭部はθ方向の方がより可動範囲が広いため、広範囲の領域を先読みする必要が生じることを考慮している。すなわち頭部がθ方向に大きく動く場合は、生成する表示用画像データの大きさが大きくなる分、解像度を低くすることによりデータ容量を削減している。   In step S803, the magnitudes of aθ and aφ are compared. If the size of aφ is less than the size of aφ, the process proceeds to step S804. If the size of aθ is greater than or equal to the size of aφ, the process proceeds to step S805. In step S804, the same resolution as the resolution corresponding to the target area 602 is set as the resolution for the path area 603. That is, as the resolution for the route area 603, the highest resolution among the environment maps that can be displayed by the display unit 201 is determined. In step S805, as the resolution for the path area 603, a resolution in which the one-step resolution is lower than the resolution corresponding to the target area 602 is set. For example, in the present embodiment, when the same resolution as the high resolution environment map 501 is determined for the target area 602, the same resolution as the medium resolution environment map 502 is determined as the necessary resolution for the path area 603. This takes account of the need to look ahead over a wide area, as the human head has a wider range of movement in the θ direction. That is, when the head moves largely in the θ direction, the data capacity is reduced by lowering the resolution as the size of the display image data to be generated becomes large.

以上説明したように本実施形態によれば、HMD105を装着した観察者が今後観察する領域をあらかじめ予測し、表示用画像データを生成する。予測に基づいて生成された表示用画像データは、HMD105の表示部201に表示する画像の事前に生成されているため、表示部201は観察者の動きに合わせてリアルタイムに高解像度の映像を表示することができる。   As described above, according to the present embodiment, the area to be observed by the observer wearing the HMD 105 is predicted in advance to generate display image data. Since the display image data generated based on the prediction is generated in advance of the image to be displayed on the display unit 201 of the HMD 105, the display unit 201 displays a high resolution image in real time according to the movement of the observer can do.

<第2実施形態>
第1実施形態では、画像処理装置400が生成した表示用画像データを随時HMD105の表示部201に表示する形態について説明した。第2実施形態では、ターゲット領域603として先読みした画像データをキャッシュ(一時的にメインメモリ102に保持)および削除する手法について説明する。なお、第1実施形態と同一の構成については同一の符号を付し、説明を省略する。
Second Embodiment
In the first embodiment, the display image data generated by the image processing apparatus 400 is displayed on the display unit 201 of the HMD 105 as needed. In the second embodiment, a method of caching (temporarily holding in the main memory 102) and deleting the image data prefetched as the target area 603 will be described. The same components as those of the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.

図9は、人間の頭部の動き特性を説明するための図である。はじめに、頭部901が視点位置902を向いているものとする。次に図9(b)に示すように頭部901がθ方向に回転し、視点位置が視点位置903まで移動する。それ以上首が回転できないない位置まで到達すると、図9(c)に示すように、頭部901は逆回転を行い、元の視点位置902に戻ろうとする可能性が高い特性がある。本実施形態では、この動き特性を利用した画像データのキャッシュ手法を説明する。   FIG. 9 is a diagram for explaining the movement characteristic of the human head. First, it is assumed that the head 901 is facing the viewpoint position 902. Next, as shown in FIG. 9B, the head 901 rotates in the θ direction, and the viewpoint position moves to the viewpoint position 903. When the neck reaches a position where it can not be rotated any more, as shown in FIG. 9C, the head 901 is reversely rotated, and there is a characteristic that it is likely to return to the original viewpoint position 902. In the present embodiment, a method of caching image data using this motion characteristic will be described.

図10は、第2実施形態における処理の全体を示すフローチャートである。ステップS1001において画像処理装置400は、HMD105から加速度センサ203が検出した加速度情報を取得する。   FIG. 10 is a flowchart showing the entire process in the second embodiment. In step S1001, the image processing apparatus 400 acquires acceleration information detected by the acceleration sensor 203 from the HMD 105.

ステップS1002において画像処理装置400は、角度情報に応じてステップ701からステップS704までの処理を実行し、観察者が視聴しているカレント領域601に表示用画像データを生成する。また、加速度情報に応じてステップS711からステップS719までの処理を実行することにより、加速度方向に応じて、ターゲット領域602の表示用画像データと経路領域603の表示用画像データを生成し、メインメモリ102にキャッシュする。画像処理装置400は、少なくともHMD105から取得した加速度情報が示す方向が反転するまで、つまり逆方向の加速度情報が入力されるまで表示用画像データをメインメモリ102に保持させる。ステップS1003において各領域に対応する表示用画像データを順にHMD105に転送し、ステップS1004において受け取った順に表示用画像データを表示部210が表示する。この時、表示用画像データは、メインメモリ102に保持されたままである。   In step S1002, the image processing apparatus 400 executes the processing from step 701 to step S704 according to the angle information, and generates display image data in the current area 601 viewed by the observer. Also, by executing the processing from step S711 to step S719 according to the acceleration information, the display image data of the target area 602 and the display image data of the route area 603 are generated according to the acceleration direction, and the main memory Cache to 102. The image processing apparatus 400 causes the main memory 102 to hold display image data until at least the direction indicated by the acceleration information acquired from the HMD 105 is reversed, that is, until the acceleration information in the reverse direction is input. The display image data corresponding to each area is sequentially transferred to the HMD 105 in step S1003, and the display unit 210 displays the display image data in the order received in step S1004. At this time, the display image data remains held in the main memory 102.

ステップS1005においてHMD105が新たな加速度情報を取得し、画像処理装置400に転送する。ステップS1006において、HMD105から取得された加速度情報に基づいて、表示用画像データを生成する。ターゲット領域、経路領域や必要解像度を算出する工程は、第1実施形態と同様に実行する。ただし、生成したい表示用画像データがメインメモリ102にキャッシュされている場合は、新たに環境マップの切り出し、射影変換を行うことなく、メインメモリ102から表示用画像データを読み出す。生成したい表示用画像データがメインメモリ102に保存されていない場合は、第1実施形態と同様に、ターゲット領域および経路領域に対応する表示用画像データを生成する。ステップS1008において表示用画像データがHMD105の表示部201に表示される。ステップS1009において、メインメモリ102から削除する。   In step S1005, the HMD 105 acquires new acceleration information, and transfers the new acceleration information to the image processing apparatus 400. In step S1006, display image data is generated based on the acceleration information acquired from the HMD 105. The process of calculating the target area, the path area, and the required resolution is performed in the same manner as in the first embodiment. However, when the display image data to be generated is cached in the main memory 102, the display image data is read out from the main memory 102 without newly cutting out the environment map and performing projection conversion. If the display image data to be generated is not stored in the main memory 102, display image data corresponding to the target area and the route area is generated as in the first embodiment. In step S1008, display image data is displayed on the display unit 201 of the HMD 105. In step S1009, the data is deleted from the main memory 102.

以上により、人間の頭部の動き特性に合わせて、一度生成した表示用画像データが再度視聴される可能性を考慮して、先読みして生成した表示用画像データをキャッシュする。これにより、観察者の動きに合わせてよりリアルタイムかつ少ない処理負荷により高解像度の映像をリアルタイムに表示することができる。   As described above, the display image data generated by prefetching is cached in consideration of the possibility that the display image data generated once is viewed again according to the movement characteristic of the human head. As a result, it is possible to display a high resolution image in real time with less processing load in real time according to the movement of the observer.

<第3実施形態>
第2実施形態では、人間の頭部の動き特性に応じて表示用画像データを制御する方法について開示した。第3実施形態では、観察者の移動(歩行)に合わせて環境マップを切り替える処理について説明する。なお、第1実施形態と同一の構成については同一の符号を付し、説明を省略する。
Third Embodiment
In the second embodiment, the method of controlling the display image data according to the movement characteristic of the human head has been disclosed. In the third embodiment, a process of switching the environment map in accordance with the movement (walking) of the observer will be described. The same components as those of the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.

図11は、人間の歩行に合わせた環境マップの切り替え方法を説明する概要図である。観察者1101がはじめに環境マップAを観察しているものとする。観察者1101が前進した場合、観察者1101が観察する光景を変化させる必要がある。そのため、環境マップAから環境マップBに切り替える必要がある。このとき、観察者1101がある注視点1102を注視しながら、歩行する場合を考える。前述の実施形態において説明した通り、同じ視線方向の映像を視聴していると、最初は低解像度な環境マップに基づいて生成された表示用画像データが表示され、その後に高解像度な環境マップに基づいて生成された表示用画像データに切り替わる。従って観察者1101は既に高解像度の環境マップAを観察しているので、歩行した結果、位置情報と角度情報に基づいて新たに環境マップBの低解像度な表示用画像データに切り替わると、違和感を感じてしまう。そのため、この違和感を軽減する手法が必要である。   FIG. 11 is a schematic view illustrating a method of switching an environment map in accordance with human walking. It is assumed that the observer 1101 first observes the environment map A. When the observer 1101 advances, it is necessary to change the view observed by the observer 1101. Therefore, it is necessary to switch from the environment map A to the environment map B. At this time, it is assumed that the observer 1101 walks while gazing at a certain gaze point 1102. As described in the above embodiments, when viewing a video in the same viewing direction, display image data generated based on the low resolution environment map is displayed first, and then the high resolution environment map is displayed. It switches to the display image data generated based on this. Therefore, the observer 1101 already observes the high-resolution environment map A, and as a result of walking, when switching to the low-resolution display image data of the environment map B based on the position information and the angle information, the sense of discomfort is felt. I feel it. Therefore, a method for reducing this feeling of incongruity is required.

図12は、第3実施形態における処理の全体を示すフローチャートである。ステップS1201において、HMD105の表示部201は注視点1002における高解像度の環境マップAに基づいて生成された表示用画像データを表示している。ステップS1002では、加速度センサ203により加速度情報、磁気センサ204により角度情報、GPSセンサ205による位置情報を用いて観察者1101の歩行を検知し、その移動情報を動き情報として画像処理装置400に送信する。   FIG. 12 is a flowchart showing the entire process in the third embodiment. In step S 1201, the display unit 201 of the HMD 105 displays display image data generated based on the high-resolution environment map A at the gaze point 1002. In step S1002, the walking of the observer 1101 is detected using acceleration information by the acceleration sensor 203, angle information by the magnetic sensor 204, and position information by the GPS sensor 205, and the movement information is transmitted to the image processing apparatus 400 as movement information. .

ステップS1003では、移動情報(方向、距離)に応じて観察者1101が移動した後の位置に対応する環境マップBを選択する。ステップS1004において、HMD105は現在表示している注視点1002における環境マップAの解像度を画像処理装置400に送信する。ステップS1005においてHMD105は、CPU(不図示)による制御のもと、現在表示している注視点1002における環境マップAに基づいて生成された表示用画像データを、観察者1101の移動情報に合わせて射影変換し表示する。一方ステップS1006において画像処理装置400は、HMD105の表示している解像度に合わせて、読み出す環境マップBの解像度を設定する。ステップS1007において画像処理装置400は、ステップ記憶装置103からS106において設定した解像度の環境マップBの注視点1002を中心とするカレント領域のブロック画像を読み出し、メインメモリ102に展開する。ステップS1008において画像処理装置400における表示画像生成部407は、読み出したカレント領域の画像データを射影変換し表示用画像データを生成する。ステップS1009では、HMD105の表示部201は、ステップS1008において生成された表示用画像データを表示する。   In step S1003, the environment map B corresponding to the position after the observer 1101 has moved according to the movement information (direction, distance) is selected. In step S1004, the HMD 105 transmits the resolution of the environment map A at the currently displayed gaze point 1002 to the image processing apparatus 400. In step S1005, the HMD 105 matches the display image data generated based on the environment map A at the currently displayed gaze point 1002 with the movement information of the observer 1101 under the control of the CPU (not shown). Projective transformation and display. On the other hand, in step S1006, the image processing apparatus 400 sets the resolution of the environment map B to be read in accordance with the resolution displayed by the HMD 105. In step S1007, the image processing apparatus 400 reads a block image of the current area centered on the gaze point 1002 of the environment map B of the resolution set in step S106 from the step storage device 103 and develops the block image in the main memory 102. In step S1008, the display image generation unit 407 of the image processing apparatus 400 performs projection conversion on the read image data of the current area to generate display image data. In step S1009, the display unit 201 of the HMD 105 displays the display image data generated in step S1008.

以上により、観察者が移動する場合においても、観察者が解像度の変化による違和感を感じることなくリアルタイムに高解像度の映像を表示できる。また、観察者の位置が変わったことにより視点位置に対応する環境マップが変わった場合にも、効率的により高解像度な画像データを生成することができる。   As described above, even when the observer moves, it is possible to display a high-resolution image in real time without the observer feeling discomfort due to the change in resolution. Further, even when the environment map corresponding to the viewpoint position is changed due to the change of the position of the observer, it is possible to efficiently generate high resolution image data.

<その他の実施形態>
前述の実施形態では、観察者の頭部(または視線)の動きを検知するために、HMD105に搭載された加速度センサを用いて頭部の加速度を検出し、加速度情報を用いる例を説明した。しかしながら、観察者の動きを取得する方法はこれに限らない。例えば、加速度ではなく頭部が動いた時の速度を検出する方法でもよいし、頭部の動きを示す情報としては加速度情報(aθ、aφ)ではなくベクトルによって表された情報を用いてもよい。
<Other Embodiments>
In the above embodiment, in order to detect the movement of the head (or the line of sight) of the observer, an example in which the acceleration of the head is detected using an acceleration sensor mounted on the HMD 105 and the acceleration information is used is described. However, the method of acquiring the observer's movement is not limited to this. For example, it may be a method of detecting the velocity when the head moves instead of the acceleration, or information represented by a vector instead of the acceleration information (aθ, aφ) may be used as the information indicating the movement of the head. .

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。   The present invention is not limited to the above embodiment, and various changes and modifications can be made without departing from the spirit and scope of the present invention. Accordingly, the following claims are attached to disclose the scope of the present invention.

Claims (9)

観察者の視線方向に応じて画像データを表示するための画像処理装置であって、
解像度の異なる複数の環境マップを記憶する記憶手段と、
前記観察者の動きを示す情報を動き情報として取得する取得手段と、
前記観察者に表示しているカレント領域の位置を示すカレント領域情報を保持する保持手段と、
前記カレント領域情報と前記動き情報に基づいて、前記環境マップにおけるターゲット領域を決定するターゲット領域決定手段と、
前記カレント領域から前記ターゲット領域に視線方向が変化する経路を含む領域を経路領域として決定する経路領域決定手段と、
前記複数の環境マップのうち、前記経路領域および前記ターゲット領域それぞれに対応する解像度を設定する設定手段と、
前記設定手段により設定された解像度の環境マップから前記経路領域および前記ターゲット領域それぞれに対応する画像データを読み出し、前記経路領域に表示するための画像データおよび前記ターゲット領域に表示するための画像データを生成する生成手段とを有し、
前記動き情報には、横方向の加速度を示す情報と縦方向の加速度を示す情報からなる加速度情報を含み、
前記設定手段は、縦方向の加速度の方が横方向の加速度よりも大きい場合は第1の解像度を、横方向の加速度の方が縦方向の加速度よりも大きい場合は前記第1の解像度より低い第2の解像度を、前記経路領域に対応する解像度として設定する
することを特徴とする画像処理装置。
An image processing apparatus for displaying image data according to a gaze direction of an observer,
Storage means for storing a plurality of environment maps of different resolutions;
Acquisition means for acquiring information indicating the movement of the observer as movement information;
Holding means for holding current area information indicating the position of the current area displayed to the observer;
Target area determining means for determining a target area in the environment map based on the current area information and the motion information;
Route area determination means for determining an area including a path in which the sight line direction changes from the current area to the target area as a path area;
Setting means for setting resolutions respectively corresponding to the path area and the target area among the plurality of environment maps;
The image data corresponding to the path area and the target area are read out from the environment map of the resolution set by the setting means, and the image data to be displayed on the path area and the image data to be displayed on the target area It has a generating means for generating,
The motion information includes acceleration information including information indicating lateral acceleration and information indicating longitudinal acceleration.
The setting means is configured to set the first resolution when the longitudinal acceleration is larger than the lateral acceleration, and to be lower than the first resolution when the lateral acceleration is larger than the longitudinal acceleration. An image processing apparatus , wherein a second resolution is set as a resolution corresponding to the path area .
前記設定手段はさらに、前記速度情報絶対値の大きさに基づいて、前記経路領域に対応する解像度を設定することを特徴とする請求項1に記載の画像処理装置。 The setting means is further based on said magnitude of the absolute value of the acceleration information, the image processing apparatus according to claim 1, characterized in that to set the resolution corresponding to the path area. 前記設定手段は、縦方向の加速度の方が横方向の加速度よりも大きい場合は、前記ターゲット領域に対応する解像度を前記第1の解像度として設定することを特徴とする請求項1または2に記載の画像処理装置。The said setting means sets the resolution corresponding to the said target area | region as said 1st resolution, when the acceleration of the vertical direction is larger than the acceleration of the horizontal direction. Image processing device. 前記経路領域決定手段は、縦方向に狭く横方向に広い領域を経路領域として設定することを特徴とする請求項1乃至3の何れか一項に記載の画像処理装置。   The image processing apparatus according to any one of claims 1 to 3, wherein the path area determination unit sets an area narrow in the vertical direction and wide in the horizontal direction as the path area. 前記設定手段は、前記画像データを表示する表示手段が表示可能な最高解像度を予め記憶し、前記ターゲット領域に対応する解像度として最高解像度を設定することを特徴とする請求項1乃至4の何れか一項に記載の画像処理装置。   5. The setting method according to any one of claims 1 to 4, wherein the setting means stores in advance the highest resolution which can be displayed by the display means for displaying the image data, and sets the highest resolution as the resolution corresponding to the target area. The image processing apparatus according to one of the items. さらに、前記生成手段が生成した画像データを保持する保持手段を有し、
前記取得手段は、前記観察者の動く方向を示す情報を前記動き情報として取得し、
前記保持手段は、前記画像データを生成する際に取得された前記動き情報が示す方向と反転した方向の動き情報を、前記取得手段が取得するまで、前記画像データを保持することを特徴とする請求項1乃至5の何れか一項に記載の画像処理装置。
And a holding unit that holds the image data generated by the generation unit.
The acquisition means acquires information indicating the moving direction of the observer as the movement information.
The holding unit holds the image data until the acquisition unit acquires motion information in a direction opposite to the direction indicated by the motion information acquired when the image data is generated. The image processing apparatus according to any one of claims 1 to 5 .
さらに、前記取得手段は、前記動き情報として前記観察者の移動に関する情報を示す移動情報を取得し、
前記生成手段は、前記移動情報に応じて読み出す環境マップを切り替えることを特徴とする請求項1乃至6の何れか一項に記載の画像処理装置。
Furthermore, the acquisition unit acquires movement information indicating information related to the movement of the observer as the movement information;
The image processing apparatus according to any one of claims 1 to 6, wherein the generation unit switches an environment map to be read according to the movement information.
コンピュータに読み込ませ実行させることで、前記コンピュータを請求項1乃至7の何れか一項に記載された画像処理装置として機能させることを特徴とするコンピュータプログラム。   A computer program which causes a computer to function as the image processing apparatus according to any one of claims 1 to 7 by causing the computer to read and execute the program. 観察者の視線方向に応じて画像データを表示するための画像処理方法であって、
前記観察者の動きを示し、横方向の加速度を示す情報と縦方向の加速度を示す情報からなる加速度情報を動き情報として取得する取得ステップと
前記観察者に表示しているカレント領域の位置を示すカレント領域情報を保持する保持ステップと
前記カレント領域情報と前記動き情報に基づいて、前記環境マップにおけるターゲット領域を決定する決定ステップと
前記カレント領域から前記ターゲット領域に視線方向が変化する経路を含む領域を経路領域として決定する決定ステップと
記憶手段に記憶された解像度の異なる複数の環境マップのうち、前記経路領域および前記ターゲット領域それぞれに対応する解像度を設定する設定ステップと
前記設定手段により設定された解像度の環境マップから前記経路領域および前記ターゲット領域それぞれに対応する画像データを読み出し、前記経路領域に表示するための画像データおよび前記ターゲット領域に表示するための画像データを生成する生成ステップとを有し、
前記設定ステップは、縦方向の加速度の方が横方向の加速度よりも大きい場合は第1の解像度を、横方向の加速度の方が縦方向の加速度よりも大きい場合は前記第1の解像度より低い第2の解像度を、前記経路領域に対応する解像度として設定することを特徴とする画像処理方法。
An image processing method for displaying image data according to a gaze direction of an observer,
An acquisition step indicates the movement of the observer, obtained as acceleration information motion information comprising information indicating information and longitudinal acceleration indicating the acceleration in a lateral direction,
Holding the current area information indicating the position of the current area displayed to the observer;
A determining step of determining a target area in the environment map based on the current area information and the motion information;
Determining an area including a path in which the sight line direction changes from the current area to the target area as a path area;
Setting the resolution corresponding to each of the path area and the target area among a plurality of environment maps of different resolution stored in the storage means;
The image data corresponding to the path area and the target area are read out from the environment map of the resolution set by the setting means, and the image data to be displayed on the path area and the image data to be displayed on the target area And generating steps to generate
The setting step is the first resolution when the longitudinal acceleration is larger than the lateral acceleration, and is lower than the first resolution when the lateral acceleration is larger than the longitudinal acceleration. Setting the second resolution as the resolution corresponding to the path area .
JP2016563376A 2014-12-12 2014-12-12 Image processing apparatus, image processing method and program Active JP6526051B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/082982 WO2016092698A1 (en) 2014-12-12 2014-12-12 Image processing device, image processing method, and program

Publications (2)

Publication Number Publication Date
JPWO2016092698A1 JPWO2016092698A1 (en) 2017-09-21
JP6526051B2 true JP6526051B2 (en) 2019-06-05

Family

ID=56106942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016563376A Active JP6526051B2 (en) 2014-12-12 2014-12-12 Image processing apparatus, image processing method and program

Country Status (3)

Country Link
US (1) US9965830B2 (en)
JP (1) JP6526051B2 (en)
WO (1) WO2016092698A1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10235810B2 (en) 2015-09-22 2019-03-19 3D Product Imaging Inc. Augmented reality e-commerce for in-store retail
WO2017114834A1 (en) 2015-12-29 2017-07-06 Koninklijke Philips N.V. System, controller and method using virtual reality device for robotic surgery
JP2018004950A (en) * 2016-07-01 2018-01-11 フォーブ インコーポレーテッド Video display system, video display method, and video display program
US9858637B1 (en) * 2016-07-29 2018-01-02 Qualcomm Incorporated Systems and methods for reducing motion-to-photon latency and memory bandwidth in a virtual reality system
KR20180051202A (en) * 2016-11-08 2018-05-16 삼성전자주식회사 Display apparatus and control method thereof
JP6278546B1 (en) * 2017-06-02 2018-02-14 株式会社コロプラ Information processing method, apparatus, and program for causing computer to execute information processing method
GB2577024B (en) * 2017-06-09 2022-08-03 Displaylink Uk Ltd Using headset movement for compression
CN108596834B (en) * 2018-04-27 2023-11-17 腾讯科技(深圳)有限公司 Image resolution processing method, image processing device and system, storage medium
US11607287B2 (en) 2019-12-31 2023-03-21 Carl Zeiss Meditec Ag Method of operating a surgical microscope and surgical microscope
US11409091B2 (en) * 2019-12-31 2022-08-09 Carl Zeiss Meditec Ag Method of operating a surgical microscope and surgical microscope
US11864841B2 (en) 2019-12-31 2024-01-09 Carl Zeiss Meditec Ag Method of operating a surgical microscope and surgical microscope

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05324799A (en) * 1992-05-15 1993-12-07 Hitachi Ltd Virtual reality control method and apparatus
JPH09305156A (en) * 1996-05-16 1997-11-28 Nippon Telegr & Teleph Corp <Ntt> Video display method and apparatus
JPH11153987A (en) * 1997-11-19 1999-06-08 Olympus Optical Co Ltd Graphic display device
JPH11175758A (en) * 1997-12-11 1999-07-02 Mitsubishi Electric Corp Stereoscopic display method and apparatus
JP3706740B2 (en) * 1998-06-24 2005-10-19 ドリームテクノロジーズ株式会社 Apparatus and method for image display and data reading
JP3403143B2 (en) * 1999-03-26 2003-05-06 キヤノン株式会社 Image processing method, apparatus and storage medium
JP4456791B2 (en) * 1999-12-30 2010-04-28 スイスコム・モバイル・アクチエンゲゼルシヤフト Method for transmitting image data
JP2001337645A (en) * 2000-05-26 2001-12-07 Fujitsu Ltd Display system and storage medium
JP3951654B2 (en) * 2001-09-18 2007-08-01 日本電気株式会社 Server and terminal in image data acquisition system, image data acquisition method thereof, and image data acquisition program
US20030067476A1 (en) * 2001-10-04 2003-04-10 Eastman Kodak Company Method and system for displaying an image
JP2003224846A (en) 2002-01-29 2003-08-08 Matsushita Electric Ind Co Ltd Image processing device, decoding device, encoding device, image processing system, image processing method, and encoding method
JP2004072694A (en) * 2002-08-09 2004-03-04 Sony Corp Information providing system and method, information providing apparatus and method, recording medium, and program
JP3897691B2 (en) * 2002-12-17 2007-03-28 キヤノン株式会社 Scroll display method and apparatus
JP5268271B2 (en) * 2007-03-23 2013-08-21 株式会社東芝 Image display device and image display method
JP5202584B2 (en) * 2010-06-24 2013-06-05 株式会社ソニー・コンピュータエンタテインメント Image processing device, content creation support device, image processing method, content creation support method, and data structure of image file
JP5499985B2 (en) * 2010-08-09 2014-05-21 ソニー株式会社 Display assembly
US9897805B2 (en) * 2013-06-07 2018-02-20 Sony Interactive Entertainment Inc. Image rendering responsive to user actions in head mounted display
JP5829097B2 (en) * 2011-10-25 2015-12-09 オリンパス株式会社 Head-mounted display device, program, and image processing system
JP2013254251A (en) 2012-06-05 2013-12-19 Nec System Technologies Ltd Head-mounted display device, control method, and program
JP6015493B2 (en) * 2013-02-27 2016-10-26 ブラザー工業株式会社 Terminal device and program
US9256987B2 (en) * 2013-06-24 2016-02-09 Microsoft Technology Licensing, Llc Tracking head movement when wearing mobile device
CA2961175A1 (en) * 2014-09-03 2016-03-10 Nextvr Inc. Methods and apparatus for capturing, streaming and/or playing back content

Also Published As

Publication number Publication date
US9965830B2 (en) 2018-05-08
JPWO2016092698A1 (en) 2017-09-21
WO2016092698A1 (en) 2016-06-16
US20160170488A1 (en) 2016-06-16

Similar Documents

Publication Publication Date Title
JP6526051B2 (en) Image processing apparatus, image processing method and program
US10586395B2 (en) Remote object detection and local tracking using visual odometry
US11991477B2 (en) Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
JP7614268B2 (en) Information processing device, information processing method, and program
JP6228320B2 (en) Sensor-based camera motion detection for unconstrained SLAM
JP5233926B2 (en) Fisheye monitoring system
EP1501051A2 (en) Position and orientation detection method and apparatus
JP2016062486A (en) Image generation device and image generation method
EP2958080B1 (en) Maritime camera and control system
KR20170013737A (en) Head mount display apparatus and method for operating the same
WO2017169369A1 (en) Information processing device, information processing method, program
WO2005071619A1 (en) Image generation method
JP7163498B2 (en) Display control device, display control method, and program
US11443719B2 (en) Information processing apparatus and information processing method
JP2005038321A (en) Head mounted display device
KR101520049B1 (en) Improved control of an image capturing device
JP2020039052A (en) Image processing system and HMD
JP7175715B2 (en) Information processing device, information processing method and program
JP6534972B2 (en) Image display apparatus, image display method and image display program
JP2016109828A (en) Image processing device, image processing method and program
EP3547663B1 (en) Panaoramic vision system with parallax mitigation
JP7203157B2 (en) Video processing device and program
JP2019215782A (en) Data replacement apparatus, terminal, and data replacement program
KR102122506B1 (en) System including helmet and integrated processor, and operating method for the same
Aimone et al. An eyetap video-based featureless projective motion estimation assisted by gyroscopic tracking for wearable computer mediated reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190507

R151 Written notification of patent or utility model registration

Ref document number: 6526051

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151