WO2019163031A1 - 画像処理装置および画像処理方法 - Google Patents
画像処理装置および画像処理方法 Download PDFInfo
- Publication number
- WO2019163031A1 WO2019163031A1 PCT/JP2018/006283 JP2018006283W WO2019163031A1 WO 2019163031 A1 WO2019163031 A1 WO 2019163031A1 JP 2018006283 W JP2018006283 W JP 2018006283W WO 2019163031 A1 WO2019163031 A1 WO 2019163031A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- eye image
- head
- eye
- mounted display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/31—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/378—Image reproducers using viewer tracking for tracking rotational head movements around an axis perpendicular to the screen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0129—Head-up displays characterised by optical features comprising devices for correcting parallax
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
Definitions
- the present invention relates to an image processing apparatus and an image processing method for displaying a stereoscopic video.
- 3D display devices such as 3D televisions and head mounted displays that can present images in three dimensions have become widespread.
- Devices capable of stereoscopically viewing images in portable terminals such as mobile phones and portable game machines have been developed, and the opportunity for general users to view stereoscopic images is increasing.
- the 3D display device enables stereoscopic viewing by showing images with parallax between the left and right eyes of the user.
- a method using special optical glasses or a method using a parallax barrier or lenticular lens without using optical glasses has been put into practical use.
- the left-eye image and the right-eye image are individually displayed in each of the screen areas located in front of the left and right eyes.
- the present invention has been made in view of these problems, and an object of the present invention is to provide a technique capable of easily and suitably presenting a stereoscopic image on a head-mounted display.
- An aspect of the present invention relates to an image processing apparatus.
- This image processing apparatus is an image processing apparatus that presents a stereoscopic image with a head-mounted display, and represents a reference image composed of a pair of a left-eye image and a right-eye image representing an object viewed from two viewpoints separated in the horizontal direction.
- a reference image acquisition unit to acquire an inclination angle acquisition unit to acquire an inclination angle from a vertical direction in a plane parallel to the screen of the vertical axis of the head of the user wearing the head mounted display, and the left eye based on the inclination angle
- An image conversion unit that performs a conversion process that rotates the image for the right eye and the image for the right eye around a common axis in the virtual space including the object, and the data of the image for the left eye and the image for the right eye that have been subjected to the conversion process are converted into a head-mounted display.
- an output unit for outputting to the terminal is provided to the terminal.
- This image processing method is an image processing method by an image processing apparatus that presents a stereoscopic image on a head-mounted display, and is based on a pair of a left-eye image and a right-eye image representing an object viewed from two viewpoints separated in the horizontal direction.
- a step of acquiring a reference image a step of acquiring a tilt angle of a vertical axis of a head of a user wearing a head mounted display from a vertical direction in a plane parallel to the screen, and a left-eye image based on the tilt angle
- a step of performing a conversion process of rotating the image for the right eye around a common axis in a virtual space including the object and a step of outputting data of the image for the left eye and the image for the right eye subjected to the conversion process to the head mounted display It is characterized by including these.
- the present invention it is possible to easily and suitably present a stereoscopic image on a head mounted display.
- FIG. 1 It is a figure which shows the example of an external appearance of the head mounted display in this Embodiment. It is a block diagram of the image display system in this Embodiment. It is a figure for demonstrating the form of the display implement
- FIG. 1 shows an example of the appearance of a head mounted display.
- the head mounted display 100 includes a main body portion 110, a forehead contact portion 120, and a temporal contact portion 130.
- the head mounted display 100 is a display device that is worn on the user's head and enjoys still images and moving images displayed on the display, and listens to sound and music output from the headphones.
- Posture information such as the rotation angle and inclination of the head of the user wearing the head mounted display 100 can be measured by a motion sensor built in or externally attached to the head mounted display 100.
- FIG. 2 is a configuration diagram of the image display system in the present embodiment.
- the head mounted display 100 is connected to the image processing apparatus 200 through an interface 300 for connecting peripheral devices such as wireless communication or USB.
- the image processing apparatus 200 generates display image data and transmits it to the head mounted display 100.
- the content of the image generated here and the purpose of display are not particularly limited, and it may be a moving image, a still image, a captured image, or computer graphics.
- the image processing apparatus 200 generates a pair of left-eye display image and right-eye display image in which an image of the same object appears with parallax. Then, the object is stereoscopically viewed by controlling each image to be displayed in each of the screen areas corresponding to the left eye and the right eye of the user wearing the head mounted display 100.
- the basic technique for displaying such a stereoscopic image is conventionally known.
- the image processing apparatus 200 may be further connected to a server (not shown) via a network.
- the server may provide the image processing apparatus 200 with electronic content data accompanied by the display of the stereoscopic image.
- the image processing device 200 may be any of an image playback device, a content processing device, a game device, a personal computer, a portable terminal, and the like. Further, the image processing apparatus 200 and the head mounted display 100 may be configured integrally.
- FIG. 3 is a diagram for explaining a display form realized by the image display system.
- the user 54 creates a state in which the object 50 existing on the field 52 in the virtual three-dimensional space is viewed via the view screen 56.
- the view screen 56 corresponds to the field of view of the image displayed on the head mounted display 100.
- the object 50 When the user 54 tilts his / her head while looking at the object 50, the object 50 itself appears to be fixed by tilting the display image in the opposite direction, so that it appears as if it actually exists in the field 52. Can give a sense.
- the field 52 merely represents the three-dimensional coordinate system of the virtual space, and is not intended to limit the shape or the like. Further, it is not always necessary to display.
- FIG. 4 is a diagram for explaining an original image prepared for stereoscopic viewing of the object 50 in the display form shown in FIG.
- an image having an appropriate parallax representing the object 50 is prepared in advance.
- the left eye original image 58a and the right eye original image 58b are acquired by photographing the object 50 with the stereo camera 60.
- the stereo camera 60 is a general device including two cameras arranged in a horizontal direction at a predetermined interval.
- the image of the same object 50 appears to the right in the left-eye original image 58a and to the left in the right-eye original image 58b.
- the distance between the two cameras of the stereo camera 60 is substantially the same as the distance between the pupils of both eyes of the person, the images that appear in the left-eye original image 58a and the right-eye original image 58b are obtained when the object 50 is actually viewed. This is equivalent to the imaging state in the left eye and the right eye.
- the overall visual field by the left and right eyes is a region obtained by combining the left-eye original image 58a and the right-eye original image 58b, which corresponds to the view screen 56 of FIG.
- the original image is not limited to the photographed image, and may be computer graphics or a computer graphic drawn on the photographed image. Also, it may be a still image or a moving image, or an image in which an object interacts with some input information such as a user's voice or movement.
- a pair of images representing a state in which a common space is viewed from left and right viewpoints having a predetermined distance are prepared. By using this for display, it is possible to reduce the processing load caused by repeating the process of perspectively projecting the object 50 in the three-dimensional space on the view screen.
- FIG. 5 schematically shows a state in which the prepared original image is displayed on the head mounted display 100.
- the left-eye display image 64a is displayed in the left area facing the user's left eye
- the right-eye display image 64b is displayed in the right area facing the right eye.
- the appropriate parallax ⁇ x is determined by the distance between the left and right pupils and the distance to the object in the virtual space. Therefore, as described above, the original image is acquired under such a condition that each view frustum constituted by the left and right cameras of the stereo camera 60 approximately matches the left and right frustums constituted by the user's viewpoint in the virtual space. Accordingly, the left-eye original image 58a and the right-eye original image 58b can be used as the left-eye display image 64a and the right-eye display image 64b.
- a lens may be arranged between the screen 62 of the head mounted display 100 and the user's eyes so that the displayed image can be viewed with a wide field of view.
- the actual display image is subjected to reverse correction of lens distortion so that an image without distortion is viewed when viewed through the lens. Since the correction is a general technique, description thereof will be omitted hereinafter.
- the output method of the left and right display images is not limited to the illustrated one, and a parallax barrier, a lenticular lens method, or the like may be employed.
- the image processing apparatus 200 acquires the measurement value of the motion sensor provided in the head mounted display 100, converts the display image so as to correspond to the tilt of the head, and transmits the display image to the head mounted display 100. .
- FIG. 6 shows an internal circuit configuration of the image processing apparatus 200.
- the image processing apparatus 200 includes a CPU (Central Processing Unit) 222, a GPU (Graphics Processing Unit) 224, and a main memory 226. These units are connected to each other via a bus 230. An input / output interface 228 is further connected to the bus 230.
- CPU Central Processing Unit
- GPU Graphics Processing Unit
- the input / output interface 228 outputs data to a peripheral device interface such as USB or IEEE1394, a communication unit 232 including a wired or wireless LAN network interface, a storage unit 234 such as a hard disk drive or a nonvolatile memory, and the head mounted display 100.
- a peripheral device interface such as USB or IEEE1394
- a communication unit 232 including a wired or wireless LAN network interface
- a storage unit 234 such as a hard disk drive or a nonvolatile memory
- An output unit 236 for inputting data an input unit 238 for inputting data from the head mounted display 100, and a recording medium driving unit 240 for driving a removable recording medium such as a magnetic disk, an optical disk or a semiconductor memory.
- the CPU 222 controls the entire image processing apparatus 200 by executing the operating system stored in the storage unit 234.
- the CPU 222 also executes various programs read from the removable recording medium and loaded into the main memory 226 or downloaded via the communication unit 232.
- the GPU 224 has a function of a geometry engine and a function of a rendering processor, performs a drawing process according to a drawing command from the CPU 222, and stores a display image in a frame buffer (not shown). Then, the display image stored in the frame buffer is converted into a video signal and output to the output unit 236.
- the main memory 226 includes a RAM (Random Access Memory) and stores programs and data necessary for processing.
- FIG. 7 shows a functional block configuration of the image processing apparatus 200 according to the present embodiment. Note that at least a part of the functions shown in the figure may be mounted on the head mounted display 100. Alternatively, at least a part of the functions of the image processing apparatus 200 may be mounted on a server connected to the image processing apparatus 200 via a network. The image processing apparatus 200 may be a part of an information processing apparatus such as a game machine or a personal computer.
- This drawing is a block diagram mainly focusing on the function of generating a display image among the functions of the image processing apparatus 200.
- These functional blocks can be realized in terms of hardware by the configuration of the CPU, GPU, and various memories shown in FIG. 6, and in terms of software, the data input function and data retention loaded from the recording medium to the memory. It is realized by a program that exhibits various functions such as a function, an image processing function, and a communication function. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.
- the image processing apparatus 200 includes an input information acquisition unit 250 that acquires information related to a user operation, an inclination angle acquisition unit 256 that acquires an inclination angle of the user's head, and a reference image that is to be displayed in a state where the head is not inclined.
- a reference image acquisition unit 254 that generates the data of the reference image
- an image data storage unit 252 that stores various data used to generate the data of the reference image
- an image conversion unit 258 that performs conversion processing on the reference image according to the inclination of the head.
- a face information storage unit 260 that stores information related to the positional relationship of a predetermined part of the face, and an output unit 262 that outputs display image data.
- the input information acquisition unit 250 acquires information related to a user operation from the head mounted display 100 or an input device (not shown). For example, when an icon is displayed on the head mounted display 100 and selection input by moving the line of sight is realized, the input information acquisition unit 250 specifies the direction of the line of sight by acquiring acceleration and angular velocity by the motion sensor of the head mounted display 100. . In addition, the input information acquisition unit 250 may specify the content of the user operation by appropriately acquiring information from a general controller, an imaging device, a microphone, or the like.
- the reference image acquisition unit 254 acquires a reference image according to a user operation.
- the reference image is an image in which a pair of display images having a parallax in the horizontal direction are arranged side by side as illustrated in FIG. That is, the reference image acquisition unit 254 acquires a reference image composed of a pair of a left-eye image and a right-eye image that represents an object viewed from two viewpoints separated in the horizontal direction.
- the reference image is displayed as it is, so that the object can be viewed stereoscopically in its original posture.
- the image data storage unit 252 stores data used by the reference image acquisition unit 254 to acquire a reference image.
- the format and type of the image to be displayed are not limited.
- data obtained by compressing and encoding still images or moving images that have been captured or drawn in advance may be stored in the image data storage unit 252, and the reference image acquisition unit 254 may simply decode and decompress it.
- the image data storage unit 252 may store image drawing rules and basic elemental image data used therefor, and the reference image acquisition unit 254 may generate the data on the spot according to a user operation or the like. You may draw by superimposing a virtual object on each of the left and right captured images.
- the image data may be acquired from a server connected via a network as described above, or data taken on the spot by a stereo camera (not shown) may be acquired as an input information acquisition unit. 250 may be obtained.
- the tilt angle acquisition unit 256 acquires the tilt angle of the user's head based on the measurement value of the acceleration sensor included in the head mounted display 100.
- the tilt angle of the head is the angle of the vertical axis of the head with respect to the vertical direction in a plane parallel to the screen.
- the tilt angle is 0 °, and as the tilt angle increases, the line connecting the left and right pupils deviates from the horizontal, so that parallax must also be generated in the direction of the line.
- the image conversion unit 258 converts the reference image according to the tilt angle of the head. Basically, the display image for the left eye and the display image for the right eye that constitute the reference image are rotated in the direction opposite to the tilt of the head, so that the object is fixed as viewed from the user.
- the rotation axes of both display images are appropriately set. That is, the image conversion unit 258 performs conversion processing for rotating the left-eye image and the right-eye image around a common axis in the virtual space including the object, based on the tilt angle of the head. Specific examples will be described later.
- the face information storage unit 260 stores information related to the face for each user (information related to the positional relationship of the parts of the face) used for setting the rotation axis. However, when setting the rotation axis assuming an average face, the face information storage unit 260 may be omitted. When the head tilt angle is 0 °, the image conversion unit 258 does not have to perform the conversion process.
- the output unit 262 acquires display image data subjected to conversion processing according to the tilt angle of the head from the image conversion unit 258, and transmits the acquired data to the head mounted display 100. At this time, as described above, correction may be performed in consideration of lens distortion. In addition, when displaying a moving image, naturally, display image data generated at a predetermined rate is sequentially output.
- FIG. 8 schematically shows a transition when the display image is rotated at the center of the image plane in accordance with the inclination of the head of the user wearing the head mounted display 100.
- the inclination of the head of the user 54 is schematically shown from the back.
- (A) in the upper stage is a state where the user's head is upright, that is, the inclination angle is 0 °.
- the display image is the reference image itself, and the left-eye display image 64a and the right-eye display image 64b equivalent to the original image may be arranged on the left and right.
- the centers of the left-eye display image 64a and the right-eye display image 64b are the origins Oa and Ob of the respective image planes. Since the left and right display images have parallax as described above, the origin Oa of the left-eye display image 64a is positioned to the left of the object image, and the origin Ob of the right-eye display image 64b is positioned to the right of the object image.
- (B) in the middle row shows a state in which the user 54 tilts the head to the right by 45 °.
- the left-eye display image 66a and the right-eye display image 66b are rotated by 45 ° in the reverse direction about the origins Oa and Ob so as to correspond to this, the object image is visually recognized as being upright.
- the object image is displayed on the upper side
- the right-eye display image 66b the object image is displayed on the lower side.
- Deviation of ⁇ y1 occurs.
- the vertical deviation ⁇ y2 becomes further larger.
- P is the position coordinate of each pixel in the reference image before rotation
- P ′ is the position coordinate after rotation
- R ( ⁇ ) is a rotation matrix around the image origin when the inclination angle of the head is ⁇ .
- FIG. 9 schematically shows how the display screen of the head mounted display 100 rotates in accordance with the tilt of the head.
- FIGS. 7A, 7B, and 7C show the face side of the user's head, and the left and right image display area pairs 70a, 70b, and 70c on the screen of the head mounted display 100 are rectangular. It is represented by As shown in the figure, the display area pairs 70a, 70b, and 70c are positioned so as to face the user's eyes.
- the inclination angles of the head are 0 ° for (a), 45 ° for (b), and 90 ° for (c).
- the left and right image display area pairs 70a, 70b, and 70c revolve around the user's face center and the like as a common axis.
- the image represented in the display area pair 70a, 70b, 70c is rotated in the opposite direction around the corresponding axis, the object is fixed while accurately reflecting the inclination of the head.
- An image can be displayed. 8 corresponds to a state in which each of the display area pairs 70a, 70b, and 70c is rotated, and it is understood that the rotation of the actual display area is not reflected.
- P l ′ P l T l (v l ) R ( ⁇ ) T l ⁇ 1 (v l )
- P r ′ P r T r (v r ) R ( ⁇ ) T r ⁇ 1 (v r ) (Formula 2)
- P l and P r are the left eye display image and the position coordinates of each pixel of the right eye display image in the reference image before rotation
- P l ′ and P r ′ are the left eye display image after rotation, It is a position coordinate of each pixel of the display image for right eye.
- R ( ⁇ ) is a rotation matrix around the rotation axis when the head inclination angle is ⁇
- v l and v r are vectors from the pupils of the left eye and the right eye to the rotation axis, respectively, as shown
- T (V l ) and T (v r ) are translation matrices corresponding to the vectors v l and v r , respectively.
- the rotation axis of the head that determines the rotation axis of the image is not intended to accurately measure the actual rotation of the head, but may be positioned using a predetermined point near the center of the face such as the head of the nose as a reference point. Absent. Alternatively, the calculation may be simplified by approximating at the midpoint of the pupils of both eyes. In any case, since the reference position on the face has the effect of improving the appearance of the object existing ahead, it is facing the user by selecting one point on the vertical center line of the face The object can be appropriately visually recognized.
- the vectors v l and v r from the pupil to such reference points vary from person to person. Therefore, by storing data measured for each user in the initial calibration process in the face information storage unit 260 and reading out during operation to adjust Equation 2, stable display can be realized regardless of the person.
- general values may be stored in association with attributes such as age and gender, and corresponding data may be read according to the user's profile.
- the data for the average face may be set uniquely.
- FIG. 10 is a diagram for explaining the concept of rotating the reference image by a common axis according to the inclination of the head.
- This figure schematically shows the relationship between the user's eyes 74 and the view screen in the virtual space.
- the view screen is a union of the visual fields of the left-eye display image and the right-eye display image.
- the left-eye display image 64a and the right-eye display image 64b when the tilt angle is 0 ° are as described above, and these constitute the reference image.
- the point where the lines of sight of both eyes intersect with the view screen is the center of the left and right display images.
- FIG. 11 schematically shows a change when the display image is rotated by Expression 2.
- the rotation axis of the head is approximated at the midpoint of both eyes.
- Upper (a) shows the left-eye display image 64a and the right-eye display image 64b in the original reference image.
- the images Oa ′ and Ob ′ on the view screen corresponding to the midpoint of both eyes are the origins of the image planes. Is translated.
- the positions Oa ′ and Ob ′ correspond to the point 76 in FIG.
- the amount of horizontal movement of each image at this time is 1 ⁇ 2 of the parallax ⁇ x.
- the display images 78a and 78b are rotated by an angle ⁇ in the reverse direction corresponding to the tilt angle of the head, using the rotation matrix R ( ⁇ ) of Expression 2.
- ⁇ 90 °.
- the display image which has a suitable parallax will be obtained.
- the left and right display images are rotated about the common axis, so that the vertical shift as shown in FIG. 8 does not occur in the object image.
- FIG. 11 shows stepwise operations for the sake of explanation, but actually, the position coordinates after conversion can be directly derived for each pixel by Expression 2.
- (b) shows a frame that follows the frame of the image shown in (a) in order to represent the state of rotation, but in practice, the display image is trimmed as appropriate to fit within the display area of the head mounted display. Generate.
- the perpendicular foot from the center of the face to the view screen is used as the rotation axis of the image, so that the parallax of the object facing the user is once resolved and rotated Can be caught.
- the shift in the image in the vertical direction cannot be eliminated because the parallax is different.
- rotating the entire image with the object as a reference has the highest effect on recognition. can get.
- an object that is far away in the virtual space originally has a small parallax, and therefore, it is conceivable that the image after rotation is shifted due to parallel movement based on the object that is in front.
- FIG. 12 is a flowchart showing a processing procedure in which the image processing apparatus generates and outputs an appropriate stereoscopic image in accordance with the inclination of the user's head in the present embodiment.
- This flowchart is started in a state where the input information acquisition unit 250 has acquired information related to image data to be displayed, such as when electronic content is selected by a user wearing a head mounted display.
- the tilt angle acquisition unit 256 receives the measurement value of the acceleration sensor from the head mounted display and acquires the tilt angle of the head as needed.
- the reference image acquisition unit 254 acquires image data to be displayed (S10). As described above, this process includes not only the case of reading compression-encoded image data from the image data storage unit 252 but also the case of reading and processing a program accompanying image display such as a game or information processing. Moreover, you may acquire image data from a server via a network. Next, the reference image acquisition unit 254 generates an initial image using the acquired image data and outputs it to the head mounted display 100 (S12).
- the reference image acquisition unit 254 generates a reference image of the subsequent frame using the acquired image data (S14).
- the reference image includes a left-eye display image and a right-eye display image. If the display image is a still image, the process of S14 is omitted as appropriate.
- the image conversion unit 258 does not perform the rotation process, and the output unit 262 displays the generated reference image data as a head-mounted display. 100 (S20).
- the image conversion unit 258 rotates the left and right images of the reference image, respectively (S18).
- the position of each pixel is converted by Equation 2 using a vector from the pupils of both eyes to a predetermined face position such as the face center.
- the image conversion unit 258 reads necessary data from the face information storage unit 260 and then generates a conversion formula. Then, the output unit 262 outputs the rotated image data to the head mounted display 100 (S20). If it is not necessary to end the display process due to a user operation, a moving image, or the end of the game (N in S22), the processes from S14 to S20 are repeated. If it is necessary to end the display process, all the processes are ended (Y in S22).
- the tilt angle of the user's head is controlled according to the above. Specifically, the image is rotated in the reverse direction according to the angle from the vertical direction of the vertical axis of the head in a plane parallel to the screen. At this time, in consideration of the rotation axis that causes the actual inclination of the head and, consequently, the display, one rotation axis common to the left and right display images is determined. For example, in the virtual space, the axis is the point where the perpendicular from the center of the face or the midpoint of both eyes intersects the view screen.
- the display image is shifted so that the center of the display area of the left and right images on the display is at the position of the axis, rotated according to the tilt angle of the head, and restored to the original amount by the shift. , And so on are calculated.
- the image of the object can be displayed with an appropriate parallax without shifting in the vertical direction, the stereoscopic view of the object can be continued without a sense of incongruity.
- more accurate display images can be generated by taking into account the size of each user's face and the distance from the pupil to the center of the face, and reflecting the data related to each face in the conversion process.
- the rotation process can be realized by a simple calculation with respect to the image plane, the movement of the user's head can be performed with a much lighter load compared to the process of setting the position of the object in the virtual three-dimensional space and performing perspective projection on the view screen.
- An allowed stereoscopic image representation can be realized.
- 100 head mounted display 200 image processing device, 222 CPU, 224 GPU, 226 main memory, 250 input information acquisition unit, 252 image data storage unit, 254 reference image acquisition unit, 256 tilt angle acquisition unit, 258 image conversion unit, 260 Face information storage unit, 262 output unit.
- the present invention can be used for various information processing apparatuses such as a content processing apparatus, a game apparatus, an image display apparatus, an image reproduction apparatus, and a personal computer, and an information processing system including any one of them.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
画像処理装置は、表示対象の画像データを取得し(S10)、初期画像を生成してヘッドマウントディスプレイに出力する(S12)。さらに水平方向に離間した2視点から見たオブジェクトの像を表す、左目用画像および右目用画像からなる基準画像を生成する(S14)。ユーザの頭部の傾斜角が0°以外の場合(S16のY)、左目用画像および右目用画像を、ビュースクリーン上で定めた一点を共通の軸として、頭部の傾斜と逆周りに回転させる(S18)。回転の有無に関わらず画像のデータをヘッドマウントディスプレイに出力する(S20)。表示が終了するまでS14~S20の処理を繰り返す。
Description
本発明は、立体映像を表示するための画像処理装置および画像処理方法に関する。
近年、映像を立体的に提示できる3Dテレビやヘッドマウントディスプレイ等の3次元表示デバイスが普及している。携帯電話や携帯ゲーム機等の携帯端末機において映像を立体視できるデバイスも開発されており、一般のユーザが立体映像を視聴する機会が増えてきている。
3次元表示デバイスは、ユーザの左右の目に視差を有する画像を見せることで立体視を可能にする。左右の目に視差のある異なる画像を提示するため、特殊な光学メガネを利用する方式や、光学メガネを使わずにパララックスバリアやレンチキュラーレンズを用いる方式などが実用化されている。ヘッドマウントディスプレイを用いる場合は、左右の目の前に位置する画面領域のそれぞれに、左目用画像と右目用画像を個別に表示する。
歪みのない立体映像を見せるためには、左右の目の位置に基づく正確な視差画像を生成する必要がある。またヘッドマウントディスプレイを用いて仮想世界に没入した状態を演出する場合、ユーザ頭部の動きに応じて左右の画像の視野を変化させる必要もある。このため厳密には、仮想3次元空間にオブジェクトを配置し、表示画面に対応する左右のビュースクリーンを頭部の動きに合わせて動かしたうえ、オブジェクトを透視投影するといった処理が必要になる。しかしながら画像の質や精度を追求するほど、そのような処理に要する時間が増え、表示が頭部の動きに追随しにくくなる。
本発明はこうした課題に鑑みてなされたものであり、その目的は、ヘッドマウントディスプレイにおいて立体画像を容易かつ好適に提示させ続けられる技術を提供することにある。
本発明のある態様は画像処理装置に関する。この画像処理装置は、ヘッドマウントディスプレイにより立体画像を提示する画像処理装置であって、水平方向に離間した2視点から見たオブジェクトを表す、左目用画像および右目用画像の対からなる基準画像を取得する基準画像取得部と、ヘッドマウントディスプレイを装着したユーザの頭部の垂直軸の、画面に平行な平面における鉛直方向からの傾斜角を取得する傾斜角取得部と、傾斜角に基づき、左目用画像および右目用画像を、オブジェクトを含む仮想空間における共通の軸周りに回転させる変換処理を行う画像変換部と、変換処理が施された左目用画像および右目用画像のデータを、ヘッドマウントディスプレイに出力する出力部と、を備えたことを特徴とする。
本発明の別の態様は画像処理方法に関する。この画像処理方法は、ヘッドマウントディスプレイにより立体画像を提示する画像処理装置による画像処理方法であって、水平方向に離間した2視点から見たオブジェクトを表す、左目用画像および右目用画像の対からなる基準画像を取得するステップと、ヘッドマウントディスプレイを装着したユーザの頭部の垂直軸の、画面に平行な平面における鉛直方向からの傾斜角を取得するステップと、傾斜角に基づき、左目用画像および右目用画像を、オブジェクトを含む仮想空間における共通の軸周りに回転させる変換処理を行うステップと、変換処理が施された左目用画像および右目用画像のデータを、ヘッドマウントディスプレイに出力するステップと、を含むことを特徴とする。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置などの間で変換したものもまた、本発明の態様として有効である。
本発明によると、ヘッドマウントディスプレイにおいて立体画像を容易かつ好適に提示できる。
本実施の形態は、ヘッドマウントディスプレイにおいて、オブジェクトを立体視させる技術に関する。図1は、ヘッドマウントディスプレイの外観の例を示している。ヘッドマウントディスプレイ100は、本体部110、前頭部接触部120、および側頭部接触部130を含む。ヘッドマウントディスプレイ100は、ユーザの頭部に装着してディスプレイに表示される静止画や動画などを鑑賞し、ヘッドホンから出力される音声や音楽などを聴くための表示装置である。ヘッドマウントディスプレイ100に内蔵または外付けされたモーションセンサにより、ヘッドマウントディスプレイ100を装着したユーザの頭部の回転角や傾きといった姿勢情報を計測することができる。
図2は、本実施の形態における画像表示システムの構成図である。ヘッドマウントディスプレイ100は、無線通信またはUSBなどの周辺機器を接続するインタフェース300で画像処理装置200に接続される。画像処理装置200は、表示画像のデータを生成し、ヘッドマウントディスプレイ100に送信する。ここで生成される画像の内容や表示の目的は特に限定されず、動画であっても静止画であってもよいし、撮影画像であってもコンピュータグラフィクスであってもよい。
いずれにしろ画像処理装置200は、同じオブジェクトの像が視差を伴って表れている左目用表示画像と右目用表示画像の対のデータを生成する。そしてヘッドマウントディスプレイ100を装着したユーザの左目および右目に対応する画面領域のそれぞれに、各画像が表示されるように制御することにより、オブジェクトが立体視されるようにする。このような立体画像表示の基本的な技術は従来知られている。
なお画像処理装置200は、さらにネットワークを介して図示しないサーバに接続されてもよい。その場合、サーバは、立体画像の表示を伴う電子コンテンツのデータを画像処理装置200に提供してもよい。画像処理装置200は画像再生装置、コンテンツ処理装置、ゲーム装置、パーソナルコンピュータ、携帯端末などのいずれでもよい。また画像処理装置200とヘッドマウントディスプレイ100とを一体的に構成してもよい。
図3は、画像表示システムによって実現される表示の形態を説明するための図である。本実施の形態ではユーザ54が、仮想3次元空間における場52上に存在するオブジェクト50を、ビュースクリーン56を介して鑑賞する状態を作り出す。ここでビュースクリーン56は、ヘッドマウントディスプレイ100に表示される画像の視野に対応する。
ユーザ54がオブジェクト50を見ながら首をかしげるなど頭部に傾きが生じた場合、表示画像を逆方向に傾けることにより、オブジェクト50自体は固定されて見えるため、場52に実在するかのような感覚を与えることができる。なお場52は仮想空間の3次元の座標系を表象しているに過ぎず、形状などを限定する主旨ではない。また必ずしも表示させなくてよい。
図4は、図3で示した表示形態において、オブジェクト50を立体視させるために準備する原画像について説明するための図である。本実施の形態では、オブジェクト50を表す、適切な視差を有する画像をあらかじめ準備しておく。例えば図示するように、オブジェクト50をステレオカメラ60で撮影することにより、左目用原画像58a、右目用原画像58bを取得する。ステレオカメラ60は、所定の間隔で水平方向に配置された2つのカメラで構成される一般的な装置である。
両カメラの光軸が水平方向に離間していることにより、同じオブジェクト50の像が左目用原画像58aでは右寄りに、右目用原画像58bでは左寄りに表れる。例えばステレオカメラ60の両カメラの間隔を、人の両目の瞳孔の間隔と略同一とすれば、左目用原画像58aと右目用原画像58bに表れる像は、実際にオブジェクト50を見たときの、左目および右目における結像状態と同等となる。この場合、左右の目による総合的な視野は、左目用原画像58aと右目用原画像58bを合わせた領域であり、それが図3のビュースクリーン56に対応する。
なお上述のとおり原画像は撮影されたものに限らず、コンピュータグラフィックスでもよいし、撮影画像上にコンピュータグラフィックスを描画したものでもよい。また静止画でも動画でもよいし、ユーザの声や動きなど何らかの入力情報に対し、オブジェクトがインタラクションするような画像でもよい。いずれにしろ図示するように、所定距離を有する左右の視点から共通の空間を見た状態を表す一対の画像を準備する。これを表示に用いることにより、3次元空間におけるオブジェクト50をビュースクリーンに透視投影するといった処理をその場で繰り返すことによる処理の負荷を軽減できる。
図5は、準備した原画像をヘッドマウントディスプレイ100に表示させた状態を模式的に示している。ヘッドマウントディスプレイ100の画面62において、ユーザの左目に正対する左側の領域には左目用表示画像64aを、右目に正対する右側の領域には右目用表示画像64bを、それぞれ表示する。左目用表示画像64aおよび右目用表示画像64bにおけるオブジェクトの像の位置を、各画像の左端からの距離xL、xRとして表すと、両者にはxL-xR=Δxの視差が生じている。この視差Δxにより、それを両眼で見たユーザにはオブジェクトが立体的に視認される。
厳密には適正な視差Δxは、左右の瞳孔の間隔と仮想空間におけるオブジェクトまでの距離によって決定される。そのため上述のとおり、ステレオカメラ60の左右のカメラにより構成される各視錐台が、仮想空間におけるユーザの視点により構成される左右の視錐台とおよそ一致するような条件で原画像を取得することにより、左目用表示画像64a、右目用表示画像64bとして、左目用原画像58a、右目用原画像58bを用いることができる。
なおヘッドマウントディスプレイ100の画面62とユーザの目の間には、表示された画像が広い視野で視認されるようにレンズを配置してよい。この場合、実際の表示画像は、レンズを介して見た時に歪みのない画像が視認されるように、レンズ歪みの逆補正を施しておく。当該補正は一般的な技術であるため、以後、説明は省略する。また左右の表示画像の出力方式は図示するものに限らず、パララックスバリアやレンチキュラーレンズ方式などを採用してもよい。
このような表示形態において、ヘッドマウントディスプレイ100を装着したユーザが首をかしげるなどして頭部の垂直軸に傾きが生じた場合、画面のフレームは傾いても仮想世界におけるオブジェクト50の像自体は傾かないようにする必要がある。頭部を意図的に傾けずとも、無意識な微動に対し追随するように像が動いては、オブジェクトの実在感が損なわれる。そこで画像処理装置200は、ヘッドマウントディスプレイ100に設けられたモーションセンサの計測値を取得し、頭部の傾きに対応するように表示画像に変換処理を施したうえでヘッドマウントディスプレイ100に送信する。
図6は画像処理装置200の内部回路構成を示している。画像処理装置200は、CPU(Central Processing Unit)222、GPU(Graphics Processing Unit)224、メインメモリ226を含む。これらの各部は、バス230を介して相互に接続されている。バス230にはさらに入出力インタフェース228が接続されている。
入出力インタフェース228には、USBやIEEE1394などの周辺機器インタフェースや、有線又は無線LANのネットワークインタフェースからなる通信部232、ハードディスクドライブや不揮発性メモリなどの記憶部234、ヘッドマウントディスプレイ100へデータを出力する出力部236、ヘッドマウントディスプレイ100からデータを入力する入力部238、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部240が接続される。
CPU222は、記憶部234に記憶されているオペレーティングシステムを実行することにより画像処理装置200の全体を制御する。CPU222はまた、リムーバブル記録媒体から読み出されてメインメモリ226にロードされた、あるいは通信部232を介してダウンロードされた各種プログラムを実行する。GPU224は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU222からの描画命令に従って描画処理を行い、表示画像を図示しないフレームバッファに格納する。そしてフレームバッファに格納された表示画像をビデオ信号に変換して出力部236に出力する。メインメモリ226はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。
図7は、本実施の形態における画像処理装置200の機能ブロックの構成を示している。なお同図で示した機能のうち少なくとも一部を、ヘッドマウントディスプレイ100に実装してもよい。あるいは、画像処理装置200の機能のうち少なくとも一部を、ネットワークを介して画像処理装置200に接続されたサーバに実装してもよい。また画像処理装置200を、ゲーム機やパーソナルコンピュータなどの情報処理装置の一部としてもよい。
同図は画像処理装置200が有する機能のうち、主に表示画像を生成する機能に着目したブロック図を描いている。これらの機能ブロックは、ハードウェア的には、図6に示したCPU、GPU、各種メモリなどの構成で実現でき、ソフトウェア的には、記録媒体などからメモリにロードした、データ入力機能、データ保持機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
画像処理装置200は、ユーザ操作に係る情報を取得する入力情報取得部250、ユーザの頭部の傾斜角を取得する傾斜角取得部256、頭部に傾斜のない状態に表示されるべき基準画像のデータを生成する基準画像取得部254、基準画像のデータを生成するのに用いる各種データを格納する画像データ記憶部252、頭部の傾斜に応じて基準画像に変換処理を施す画像変換部258、顔面の所定の部位の位置関係に係る情報を記憶する顔面情報記憶部260、および、表示画像のデータを出力する出力部262を含む。
入力情報取得部250は、ヘッドマウントディスプレイ100あるいは図示しない入力装置から、ユーザ操作に係る情報を取得する。例えばヘッドマウントディスプレイ100にアイコンを表示させ、視線の移動による選択入力を実現する場合、入力情報取得部250はヘッドマウントディスプレイ100のモーションセンサによる加速度、角速度を取得することにより視線の方向を特定する。入力情報取得部250はそのほか、一般的なコントローラ、撮像装置、マイクロフォンなどから適宜情報を取得することにより、ユーザ操作の内容を特定してもよい。
基準画像取得部254は、ユーザ操作に従い基準画像を取得する。ここで基準画像とは図5で例示したように、水平方向に視差を有する一対の表示画像を左右に並べた画像である。すなわち基準画像取得部254は、水平方向に離間した2視点から見たオブジェクトを表す、左目用画像および右目用画像の対からなる基準画像を取得する。ユーザの頭部が直立している状態では、基準画像をそのまま表示させることにより、オブジェクトが本来の姿勢で立体的に視認される。画像データ記憶部252には、基準画像取得部254が基準画像の取得に用いるデータを格納しておく。本実施の形態では、表示する画像のフォーマットや種類は限定されない。
例えばあらかじめ撮影または描画しておいた静止画や動画を圧縮符号化したデータを画像データ記憶部252に格納しておき、基準画像取得部254はそれを復号伸張するのみでもよい。あるいは画像データ記憶部252には、画像の描画規則やそれに用いる基本的な要素画像のデータを格納しておき、ユーザ操作などに応じて基準画像取得部254がその場で生成してもよい。左右の撮影画像のそれぞれに、仮想オブジェクトを重畳させて描画してもよい。画像データは画像データ記憶部252に格納しておくほか、上述のとおりネットワークを介して接続したサーバから取得してもよいし、図示しないステレオカメラがその場で撮影したデータを、入力情報取得部250を介して取得してもよい。
傾斜角取得部256は、ヘッドマウントディスプレイ100が備える加速度センサの計測値に基づき、ユーザの頭部の傾斜角を取得する。ここで頭部の傾斜角とは、画面と平行な面における、鉛直方向に対する頭部の垂直軸の角度とする。頭部が直立した状態では傾斜角は0°であり、傾斜角が増加するほど左右の瞳孔をつないだ線が水平から乖離していくため、視差も当該線の方向に発生させる必要がある。画像変換部258は頭部の傾斜角に応じて基準画像を変換する。基本的には頭部の傾斜と反対方向に、基準画像を構成する左目用表示画像、右目用表示画像をそれぞれ回転させることにより、ユーザから見てオブジェクトが固定されているようにする。
ここで、視差を有する左目用表示画像と右目用表示画像を、頭部が傾斜した状態でも適正に立体視できるようにするため、両表示画像の回転軸を適切に設定する。すなわち画像変換部258は、頭部の傾斜角に基づき、左目用画像および右目用画像を、オブジェクトを含む仮想空間における共通の軸周りに回転させる変換処理を行う。具体例は後に述べる。顔面情報記憶部260は回転軸の設定に用いる、ユーザごとの顔に係る情報(顔面の部位の位置関係に係る情報)を格納する。ただし平均顔を想定して回転軸を設定する場合、顔面情報記憶部260は省いてよい。また頭部の傾斜角度が0°の場合、画像変換部258は変換処理を実施しなくてよい。
出力部262は、頭部の傾斜角に応じて変換処理が施された表示画像のデータを画像変換部258から取得し、ヘッドマウントディスプレイ100に送信する。この際、上述のとおりレンズ歪みを考慮した補正を実施してもよい。また動画像を表示させるときは当然、所定のレートで生成された表示画像のデータを順次、出力する。
次に本実施の形態の効果を明らかにするため、頭部の傾斜に応じて基準画像を構成する左右の表示画像を、単純に画像中心で回転させた場合の問題点を説明する。図8は、ヘッドマウントディスプレイ100を装着したユーザの頭部の傾斜に応じて、画像平面の中心で表示画像を回転させたときの変遷を模式的に示している。同図右側には、ユーザ54の頭部の傾斜を、背後からの様子で模式的に示している。
上段の(a)はユーザの頭部が直立している、すなわち傾斜角が0°の状態である。この場合、表示画像は基準画像そのものであり、原画像と同等の左目用表示画像64aと右目用表示画像64bを左右に並べればよい。ここで左目用表示画像64aと右目用表示画像64bの各中心を、それぞれの画像平面の原点Oa、Obとする。上述のとおり左右の表示画像には視差があるため、左目用表示画像64aの原点Oaはオブジェクトの像の左より、右目用表示画像64bの原点Obはオブジェクトの像の右寄りに位置する。
中段の(b)は、ユーザ54が頭部を45°右側に傾けた状態を示している。これに対応するように左目用表示画像66a、右目用表示画像66bを、原点Oa、Obを中心として逆方向に45°回転させると、オブジェクトの像は直立したままの状態として視認される。一方、このようにすると、図示するように左目用表示画像66aではオブジェクトの像が上寄りに、右目用表示画像66bではオブジェクトの像が下よりに表示される結果、ユーザから見て縦方向にΔy1のずれが生じてしまう。下段の(c)のようにさらに頭部を傾け、傾斜角が90°になったときは、縦方向のずれΔy2がさらに大きくなる。
つまり視差Δxのオブジェクトを観測するとき、図示するような画像の回転によれば、頭部の傾きθに対し、左右の表示画像におけるオブジェクトの像が縦方向にΔxsinθだけずれることになる。これは頭部に傾きを生じせしめる実際の回転軸を考慮せずに、表示画像のローカルな座標系のみを考慮して独立に回転させていることに起因する。このような操作を、画像上の各画素の位置座標の変換式として表すと次のようになる。
P’=PR(θ) (式1)
P’=PR(θ) (式1)
ここでPは回転前の基準画像における各画素の位置座標、P’は回転後の位置座標、R(θ)は頭部の傾斜角を-θとした場合の画像原点周りの回転行列である。この変換式により得られた左右の表示画像を見た場合、ユーザ54には、オブジェクトが上下にぶれた2重の像として視認される。その結果、オブジェクトの立体感が損なわれるほか、映像酔いの原因にもなり得る。そこで本実施の形態では頭部の実際の回転軸を加味し、左右の表示画像に共通の回転軸を設定する。
図9は、頭部の傾きに応じたヘッドマウントディスプレイ100の表示画面の回転の様子を模式的に示している。同図(a)、(b)、(c)はそれぞれユーザの頭部の顔面側を示しており、ヘッドマウントディスプレイ100の画面における、左右の画像の表示領域の対70a、70b、70cを矩形で表している。図示するように表示領域の対70a、70b、70cは、ユーザの両眼に正対するように位置する。図8で示したのと同様、頭部の傾斜角は、(a)が0°、(b)が45°、(c)が90°である。
図示するように左右の画像の表示領域の対70a、70b、70cは、ユーザの顔中心などを共通の軸として公転する。この特性を考慮して、表示領域の対70a、70b、70cに表す画像を、対応する軸を中心に逆方向に回転させれば、頭部の傾斜を正確に反映させつつオブジェクトが固定された画像を表示できる。なお図8で示した態様は、表示領域の対70a、70b、70cのそれぞれを自転させた状態に対応し、実際の表示領域の回転を反映していないことがわかる。
図示したような表示領域の回転に対し、基準画像を相対的に逆方向に回転させるため、次の変換式を導入する。
Pl’=PlTl(vl)R(θ)Tl -1(vl)
Pr’=PrTr(vr)R(θ)Tr -1(vr) (式2)
ここでPl、Prはそれぞれ、回転前の基準画像における左目用表示画像、右目用表示画像の各画素の位置座標、Pl’、Pr’はそれぞれ、回転後の左目用表示画像、右目用表示画像の各画素の位置座標である。またR(θ)は頭部の傾斜角を-θとした場合の回転軸周りの回転行列、vl、vrはそれぞれ、図示するように左目、右目の瞳孔から回転軸までのベクトル、T(vl)、T(vr)はそれぞれ、ベクトルvl、vrに対応する平行移動行列である。
Pl’=PlTl(vl)R(θ)Tl -1(vl)
Pr’=PrTr(vr)R(θ)Tr -1(vr) (式2)
ここでPl、Prはそれぞれ、回転前の基準画像における左目用表示画像、右目用表示画像の各画素の位置座標、Pl’、Pr’はそれぞれ、回転後の左目用表示画像、右目用表示画像の各画素の位置座標である。またR(θ)は頭部の傾斜角を-θとした場合の回転軸周りの回転行列、vl、vrはそれぞれ、図示するように左目、右目の瞳孔から回転軸までのベクトル、T(vl)、T(vr)はそれぞれ、ベクトルvl、vrに対応する平行移動行列である。
なお画像の回転軸を決定づける頭部の回転軸とは、実際の頭部の回転を厳密に測定する意図ではなく、鼻の頭など顔面の中心近傍の所定の箇所を基準点として位置決めして差し支えない。あるいは両眼の瞳孔の中点で近似することにより演算を簡略化してもよい。いずれにしろ、顔面上の基準位置によって、その先に存在するオブジェクトの見え方を良好にさせる効果があるため、顔面の垂直方向の中心線上の一点を選択することにより、ユーザと正対しているオブジェクトを適切に視認させることができる。
瞳孔からそのような基準点へのベクトルvl、vrは、厳密には人によって様々となる。したがって初期のキャリブレーション処理によりユーザごとに測定したデータを顔面情報記憶部260に格納しておき、運用時に読み出して式2を調整することにより、人によらず安定的な表示を実現できる。あるいは年代や性別などの属性に対応づけて一般的な値を格納しておき、ユーザのプロフィールに応じて対応するデータを読み出してもよい。または上述のとおり、平均的な顔におけるデータを唯一、設定しておいてもよい。
図10は、頭部の傾斜に応じて共通の軸により基準画像を回転させる概念を説明するための図である。同図は仮想空間におけるユーザの両眼74とビュースクリーンの関係を模式的に示している。図4で説明したように、ビュースクリーンは左目用表示画像と右目用表示画像の視野の和集合である。傾斜角が0°の場合の左目用表示画像64a、右目用表示画像64bはこれまで述べたとおりであり、これらが基準画像を構成する。このとき両眼の視線がビュースクリーンと交わる点は、左右の表示画像の中心である。
一方、図9で示したようにヘッドマウントディスプレイ100の左右の表示領域の回転に対応するように表示画像を回転させるには、同図太線矢印で示したように、頭部の回転軸、すなわち顔中心など顔面の所定の位置からビュースクリーンへの垂線の足の位置(同図では点76)を画像の回転軸とすればよい。各表示画像の中心から点76までのベクトルは、顔面における両眼の瞳孔から顔中心など頭部の回転軸までのベクトルvl、vrと同一である。結果として式2により適正な変換を実現できる。
図11は、式2により表示画像を回転させたときの変化を模式的に示している。なおここではわかりやすさのため、頭部の回転軸を両眼の中点で近似している。上段の(a)は、元の基準画像における左目用表示画像64a、右目用表示画像64bを示している。まず式2の移動行列Tl(vl)、Tr(vr)により、両目の中点に対応するビュースクリーン上の位置Oa’、Ob’が、各画像平面の原点となるように画像を平行移動する。位置Oa’、Ob’は図10の点76に対応する。このときの各画像の水平方向の移動量は視差Δxの1/2となる。
そのうえで式2の回転行列R(θ)により、下段の(b)に示すように、頭部の傾斜角に対応する逆方向の角度θだけ各表示画像78a、78bを回転させる。図示する例はθ=90°としている。さらに移動行列Tl(vl)、Tr(vr)の逆行列Tr
-1(vr)、Tl
-1(vl)により、(a)で平行移動させた分を元に戻せば、適切な視差を有する表示画像が得られる。また図から明らかなように、共通の軸で左右の表示画像を回転させたことにより、オブジェクトの像に図8で示したような縦方向のずれが生じない。
結果として、頭部の傾斜角によらずオブジェクトを適切に立体視させ続けることができる。なお図11は説明のために段階的な操作を表したが、実際には式2によって、画素ごとに変換後の位置座標を直接導出できる。また(b)では回転の様子を表すため、(a)に示した画像の枠を踏襲する枠を示しているが、実際には適宜トリミングしヘッドマウントディスプレイの表示領域に収まるように表示画像を生成する。
これまで述べた例は、仮想空間において顔中心からビュースクリーンへの垂線の足を画像の回転軸とすることで、ユーザと正対しているオブジェクトの視差を一旦解消したうえで回転させていると捉えることができる。一方、仮想空間において異なる距離に別のオブジェクトが存在する場合、視差が異なるため縦方向の像のずれが解消されないことが考えられる。しかしながらヘッドマウントディスプレイの場合、ユーザが注目しているオブジェクトが顔中心に正対している可能性が高いため、当該オブジェクトを基準として画像全体を回転させることにより、認識上、最も容易に高い効果が得られる。
なお場合によっては、オブジェクトごとに回転軸の位置を切り替えたり、平行移動の操作を省略したりすることも考えられる。例えば仮想空間において遠くにいるオブジェクトは、元々視差が小さいため、手前にいるオブジェクトを基準とした平行移動により却って回転後の像がずれてしまうことが考えられる。この場合、遠くにいるオブジェクトについては式1による変換を実施することも考えられる。すなわちユーザに正対しているオブジェクトとの奥行き方向の距離の差にしきい値を設け、それより大きい差を有するオブジェクトについては回転操作の変換式を切り替えてもよい。
次に、これまで述べた構成によって実現される画像処理装置200の動作を説明する。図12は、本実施の形態において、画像処理装置がユーザの頭部の傾斜に応じて適切な立体画像を生成、出力する処理手順を示すフローチャートである。このフローチャートは、ヘッドマウントディスプレイを装着したユーザによって電子コンテンツが選択されるなどし、入力情報取得部250が表示対象の画像データに係る情報を取得した状態で開始される。また傾斜角取得部256は随時、ヘッドマウントディスプレイから加速度センサの計測値を受信し、頭部の傾斜角度を取得しているとする。
この状態において基準画像取得部254は、表示対象の画像のデータを取得する(S10)。上述のとおりこの処理は、圧縮符号化された画像のデータを画像データ記憶部252から読み出す場合のほか、ゲームや情報処理など画像表示を伴うプログラムを読み出して処理する場合なども含まれる。また画像データを、ネットワークを介してサーバから取得してもよい。次に基準画像取得部254は、取得した画像データを用いて初期画像を生成し、ヘッドマウントディスプレイ100に出力する(S12)。
さらに基準画像取得部254は、取得した画像データを用いて、後続フレームの基準画像を生成する(S14)。基準画像には左目用表示画像、右目用表示画像が含まれる。なお表示画像が静止画の場合などは適宜S14の処理を省略する。傾斜角取得部256が取得する頭部の傾斜角度が0°の場合(S16のN)、画像変換部258は回転処理を行わず、出力部262は生成された基準画像のデータをヘッドマウントディスプレイ100に出力する(S20)。頭部の傾斜角度が0°以外の場合(S16のY)、画像変換部258は基準画像の左右の画像をそれぞれ回転させる(S18)。
すなわち両眼の瞳孔から顔中心など顔の所定の位置までのベクトルを用いて、式2により各画素の位置を変換する。ユーザ個人の顔の造作を反映させる場合、画像変換部258は顔面情報記憶部260から必要なデータを読み出したうえで変換式を生成する。そして出力部262は、回転後の画像のデータをヘッドマウントディスプレイ100に出力する(S20)。ユーザ操作や動画、ゲームの終了などにより表示処理を終了させる必要がなければ(S22のN)、S14からS20の処理を繰り返す。表示処理を終了させる必要が生じたら、全ての処理を終了させる(S22のY)。
以上述べた本実施の形態によれば、視差を有する左目用画像、右目用画像をヘッドマウントディスプレイの左右の画面領域に表示させることによりオブジェクトを立体視させる技術において、ユーザの頭部の傾斜角に応じて表示画像を制御する。具体的には、画面と平行な面における頭部の垂直軸の、鉛直方向からの角度に応じて、画像を逆周りに回転させる。この際、頭部、ひいてはディスプレイの実際の傾きを生じせしめる回転軸を考慮し、左右の表示画像に共通の回転軸を一つ定める。例えば仮想空間において顔の中心または両眼の中点からの垂線がビュースクリーンと交差する点を軸とする。
これを実現するため、ディスプレイにおける左右の画像の表示領域の中心が当該軸の位置になるように表示画像をずらし、頭部の傾斜角に応じて回転させたうえ、ずらした分だけ元に戻す、といった操作を計算上で実施する。これにより、オブジェクトの像が縦方向にずれることなく適切な視差で表示できるため、オブジェクトの立体視を違和感なく継続できる。また、ユーザ個々の顔の大きさや瞳孔から顔中心までの距離を加味し、それぞれの顔に係るデータを変換処理に反映させることにより、より厳密な表示画像を生成できる。
回転処理は画像平面に対する平易な演算で実現できるため、仮想3次元空間においてオブジェクトの位置を設定し、ビュースクリーンに透視投影するといった処理と比較し格段に軽い負荷で、ユーザの頭部の動きを許容した立体画像表現を実現できる。
以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
100 ヘッドマウントディスプレイ、 200 画像処理装置、 222 CPU、 224 GPU、 226 メインメモリ、 250 入力情報取得部、 252 画像データ記憶部、 254 基準画像取得部、 256 傾斜角取得部、 258 画像変換部、 260 顔面情報記憶部、 262 出力部。
以上のように本発明は、コンテンツ処理装置、ゲーム装置、画像表示装置、画像再生装置、パーソナルコンピュータなど各種情報処理装置や、それらのいずれかを含む情報処理システムなどに利用可能である。
Claims (8)
- ヘッドマウントディスプレイにより立体画像を提示する画像処理装置であって、
水平方向に離間した2視点から見たオブジェクトを表す、左目用画像および右目用画像の対からなる基準画像を取得する基準画像取得部と、
前記ヘッドマウントディスプレイを装着したユーザの頭部の垂直軸の、画面に平行な平面における鉛直方向からの傾斜角を取得する傾斜角取得部と、
前記傾斜角に基づき、前記左目用画像および右目用画像を、オブジェクトを含む仮想空間における共通の軸周りに回転させる変換処理を行う画像変換部と、
前記変換処理が施された前記左目用画像および右目用画像のデータを、前記ヘッドマウントディスプレイに出力する出力部と、
を備えたことを特徴とする画像処理装置。 - 前記画像変換部は、ユーザの顔面上の基準位置から、仮想空間において前記左目用画像および右目用画像が規定されるビュースクリーンへの垂線の足を前記共通の軸として、画像を回転させることを特徴とする請求項1に記載の画像処理装置。
- 前記画像変換部は、顔の中心または両眼の中点を前記基準位置とすることを特徴とする請求項2に記載の画像処理装置。
- 前記画像変換部は、Pl、Prをそれぞれ、回転前の前記左目用画像および右目用画像の各画素の位置座標、Pl’、Pr’をそれぞれ、回転後の前記左目用画像および右目用画像の各画素の位置座標、R(θ)を、前記傾斜角を-θとした場合の、前記共通の軸周りの回転行列、vl、vrをそれぞれ、ユーザの両眼の瞳孔から前記基準位置までのベクトル、T(vl)、T(vr)をそれぞれ、ベクトルvl、vrに対応する平行移動行列としたとき、
Pl’=PlTl(vl)R(θ)Tl -1(vl)
Pr’=PrTr(vr)R(θ)Tr -1(vr)
なる変換式により、前記変換処理を実施することを特徴とする請求項2または3に記載の画像処理装置。 - 顔面の部位の位置関係に係る情報をユーザごとに対応づけて格納する顔面情報記憶部をさらに備え、
前記画像変換部は、前記ヘッドマウントディスプレイを装着したユーザに対応する情報を前記顔面情報記憶部から読み出し、前記左目用画像および右目用画像における前記共通の軸の位置を決定することを特徴とする請求項2から4のいずれかに記載の画像処理装置。 - 前記画像変換部は、前記ビュースクリーンにおいて前記垂線の足に表されるオブジェクトと異なるオブジェクトの、仮想空間における奥行き方向の距離に応じて、当該オブジェクトの像の回転規則を切り替えることを特徴とする請求項2から5のいずれかに記載の画像処理装置。
- ヘッドマウントディスプレイにより立体画像を提示する画像処理装置による画像処理方法であって、
水平方向に離間した2視点から見たオブジェクトを表す、左目用画像および右目用画像の対からなる基準画像を取得するステップと、
前記ヘッドマウントディスプレイを装着したユーザの頭部の垂直軸の、画面に平行な平面における鉛直方向からの傾斜角を取得するステップと、
前記傾斜角に基づき、前記左目用画像および右目用画像を、オブジェクトを含む仮想空間における共通の軸周りに回転させる変換処理を行うステップと、
前記変換処理が施された前記左目用画像および右目用画像のデータを、前記ヘッドマウントディスプレイに出力するステップと、
を含むことを特徴とする画像処理方法。 - ヘッドマウントディスプレイにより立体画像を提示するコンピュータに、
水平方向に離間した2視点から見たオブジェクトを表す、左目用画像および右目用画像の対からなる基準画像を取得する機能と、
前記ヘッドマウントディスプレイを装着したユーザの頭部の垂直軸の、画面に平行な平面における鉛直方向からの傾斜角を取得する機能と、
前記傾斜角に基づき、前記左目用画像および右目用画像を、オブジェクトを含む仮想空間における共通の軸周りに回転させる変換処理を行う機能と、
前記変換処理が施された前記左目用画像および右目用画像のデータを、前記ヘッドマウントディスプレイに出力する機能と、
を実現させることを特徴とするコンピュータプログラム。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020501907A JP6975309B2 (ja) | 2018-02-21 | 2018-02-21 | 画像処理装置および画像処理方法 |
| US16/967,470 US11202059B2 (en) | 2018-02-21 | 2018-02-21 | Image processing apparatus and image processing method |
| PCT/JP2018/006283 WO2019163031A1 (ja) | 2018-02-21 | 2018-02-21 | 画像処理装置および画像処理方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2018/006283 WO2019163031A1 (ja) | 2018-02-21 | 2018-02-21 | 画像処理装置および画像処理方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2019163031A1 true WO2019163031A1 (ja) | 2019-08-29 |
Family
ID=67688218
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2018/006283 Ceased WO2019163031A1 (ja) | 2018-02-21 | 2018-02-21 | 画像処理装置および画像処理方法 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US11202059B2 (ja) |
| JP (1) | JP6975309B2 (ja) |
| WO (1) | WO2019163031A1 (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2022024412A1 (ja) * | 2020-07-28 | 2022-02-03 | 株式会社Jvcケンウッド | 情報処理装置、情報処理システム、情報処理方法、およびプログラム |
| CN114051099A (zh) * | 2022-01-13 | 2022-02-15 | 北京蔚领时代科技有限公司 | 无人机模块vr系统及通过无人机模块实现vr的方法 |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3901919B1 (en) * | 2019-04-17 | 2025-04-16 | Rakuten Group, Inc. | Display control device, display control method, program, and non-transitory computer-readable information recording medium |
| KR102868241B1 (ko) * | 2019-07-30 | 2025-10-14 | 삼성디스플레이 주식회사 | 표시 장치 및 이를 포함하는 가상 현실 표시 시스템 |
| US11899834B2 (en) * | 2019-12-27 | 2024-02-13 | Sony Group Corporation | Information processing device and method |
| WO2022212109A1 (en) * | 2021-03-31 | 2022-10-06 | Dathomir Laboratories Llc | Techniques for viewing 3d photos and 3d videos |
| US20240378820A1 (en) * | 2023-05-09 | 2024-11-14 | Samsung Electronics Co., Ltd. | Efficient depth-based viewpoint matching and head pose change compensation for video see-through (vst) extended reality (xr) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07225351A (ja) * | 1994-02-15 | 1995-08-22 | Olympus Optical Co Ltd | 頭部装着型映像表示装置 |
| JPH08191419A (ja) * | 1995-01-10 | 1996-07-23 | Yamaha Corp | 頭部装着型表示システム |
| JP2011193348A (ja) * | 2010-03-16 | 2011-09-29 | Fujifilm Corp | 立体画像表示装置の視差量決定装置およびその動作制御方法 |
| JP2017046065A (ja) * | 2015-08-24 | 2017-03-02 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012172719A1 (ja) * | 2011-06-16 | 2012-12-20 | パナソニック株式会社 | ヘッドマウントディスプレイおよびその位置ずれ調整方法 |
| GB2528699B (en) * | 2014-07-29 | 2017-05-03 | Sony Computer Entertainment Europe Ltd | Image processing |
| US10721456B2 (en) * | 2016-06-08 | 2020-07-21 | Sony Interactive Entertainment Inc. | Image generation apparatus and image generation method |
| US10607417B2 (en) * | 2016-06-08 | 2020-03-31 | Sony Interactive Entertainment Inc. | Image generating apparatus and image generating method |
| KR102697559B1 (ko) * | 2016-12-22 | 2024-08-23 | 삼성전자주식회사 | 영상 표시 방법, 저장 매체 및 전자 장치 |
| JP6980031B2 (ja) * | 2017-12-19 | 2021-12-15 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および画像生成方法 |
-
2018
- 2018-02-21 JP JP2020501907A patent/JP6975309B2/ja active Active
- 2018-02-21 US US16/967,470 patent/US11202059B2/en active Active
- 2018-02-21 WO PCT/JP2018/006283 patent/WO2019163031A1/ja not_active Ceased
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07225351A (ja) * | 1994-02-15 | 1995-08-22 | Olympus Optical Co Ltd | 頭部装着型映像表示装置 |
| JPH08191419A (ja) * | 1995-01-10 | 1996-07-23 | Yamaha Corp | 頭部装着型表示システム |
| JP2011193348A (ja) * | 2010-03-16 | 2011-09-29 | Fujifilm Corp | 立体画像表示装置の視差量決定装置およびその動作制御方法 |
| JP2017046065A (ja) * | 2015-08-24 | 2017-03-02 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2022024412A1 (ja) * | 2020-07-28 | 2022-02-03 | 株式会社Jvcケンウッド | 情報処理装置、情報処理システム、情報処理方法、およびプログラム |
| CN114051099A (zh) * | 2022-01-13 | 2022-02-15 | 北京蔚领时代科技有限公司 | 无人机模块vr系统及通过无人机模块实现vr的方法 |
| CN114051099B (zh) * | 2022-01-13 | 2022-04-29 | 北京蔚领时代科技有限公司 | 无人机模块vr系统及通过无人机模块实现vr的方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20210144359A1 (en) | 2021-05-13 |
| US11202059B2 (en) | 2021-12-14 |
| JPWO2019163031A1 (ja) | 2021-03-11 |
| JP6975309B2 (ja) | 2021-12-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6975309B2 (ja) | 画像処理装置および画像処理方法 | |
| EP2362670B1 (en) | Method and apparatus for processing three-dimensional images | |
| US8131064B2 (en) | Method and apparatus for processing three-dimensional images | |
| JP7358448B2 (ja) | 画像生成装置、ヘッドマウントディスプレイ、および画像生成方法 | |
| JP6732617B2 (ja) | 情報処理装置および画像生成方法 | |
| KR102214263B1 (ko) | 화상 생성 장치, 화상 생성 방법, 컴퓨터 프로그램, 및 기록 매체 | |
| JPWO2017212679A1 (ja) | 画像生成装置および画像生成方法 | |
| JP2005295004A (ja) | 立体画像処理方法および立体画像処理装置 | |
| JP2017204674A (ja) | 撮像装置、ヘッドマウントディスプレイ、情報処理システム、および情報処理方法 | |
| CN103026388A (zh) | 图像生成装置 | |
| JP2003284093A (ja) | 立体画像処理方法および装置 | |
| WO2017086244A1 (ja) | 画像処理装置、情報処理装置、および画像処理方法 | |
| JP6588196B2 (ja) | 画像生成装置、画像生成方法および較正方法 | |
| US9225968B2 (en) | Image producing apparatus, system and method for producing planar and stereoscopic images | |
| JP2003284095A (ja) | 立体画像処理方法および装置 | |
| EP4030752A1 (en) | Image generation system and method | |
| JP2003284094A (ja) | 立体画像処理方法および装置 | |
| JP6920440B2 (ja) | 画像生成装置および画像生成方法 | |
| CN119967152A (zh) | 用于提供图像的图像提供装置和方法 | |
| JP2022181292A (ja) | 立体映像生成装置及びそのプログラム | |
| JP2018112885A (ja) | プログラム及び画像生成システム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18907301 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2020501907 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 18907301 Country of ref document: EP Kind code of ref document: A1 |