WO2022113834A1 - システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム - Google Patents
システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム Download PDFInfo
- Publication number
- WO2022113834A1 WO2022113834A1 PCT/JP2021/042137 JP2021042137W WO2022113834A1 WO 2022113834 A1 WO2022113834 A1 WO 2022113834A1 JP 2021042137 W JP2021042137 W JP 2021042137W WO 2022113834 A1 WO2022113834 A1 WO 2022113834A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- user
- unit
- coordinate information
- image pickup
- imaging mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Definitions
- the present invention relates to a system, an image pickup device, an information processing device, an information processing method, and an information processing program.
- Patent Document 1 an operation device that is connected to an information processing device such as a computer or a game device and transmits an operation signal to the information processing device is known (see, for example, Patent Document 1).
- the controller (operation device) described in Patent Document 1 has a left side grip portion and a right side grip portion gripped by the left and right hands of the user, and a direction button and an operation button arranged on the front surface of the controller.
- an object of the present invention is to provide a system, an image pickup device, an information processing device, an information processing method, and an information processing program, which are highly convenient for the user and can perform processing accurately according to the image pickup mode. ..
- a first imaging mode comprising a first image sensor that generates a first image signal by synchronously scanning all pixels at predetermined timings, and imaging from the user's first-person perspective
- An imaging device that captures images in one of the second imaging modes that capture the user from the user's third-person perspective, recognizes the user based on the first image signal, and obtains coordinate information about the user based on the first image signal.
- the first process is performed based on the coordinate information calculated in the first imaging mode, and if it is determined to be the second imaging mode, the coordinates calculated in the second imaging mode.
- a system including a third arithmetic processing device that performs a second processing based on information is provided.
- a first imaging mode comprising a first image sensor that generates a first image signal by synchronously scanning all pixels at a predetermined timing and imaging from the user's first-person perspective.
- the image pickup unit that takes an image in any of the second image pickup modes that take an image of the user from the user's third person viewpoint, the user is recognized based on the first image signal, and the coordinate information about the user is based on the first image signal.
- An image pickup device including an arithmetic processing unit for calculating the above and an information output unit for outputting coordinate information is provided.
- a first imaging mode comprising a first image sensor that generates a first image signal by synchronously scanning all pixels at a predetermined timing and imaging from the user's first-person viewpoint.
- the user is imaged by one of the second imaging modes in which the user is imaged from the user's third person viewpoint, the user is recognized based on the first image signal, and the coordinate information about the user is calculated based on the first image signal.
- the acquisition unit that acquires the coordinate information from the image pickup device that outputs the coordinate information, and the first that determines whether the image pickup is performed in the first image pickup mode or the second image pickup mode based on the coordinate information.
- the first processing is performed based on the coordinate information calculated in the first imaging mode, and when the second imaging mode is determined, the first processing is performed.
- An information processing apparatus including a second arithmetic processing unit that performs a second process based on the coordinate information calculated in the second imaging mode is provided.
- a first imaging mode comprising a first image sensor that generates a first image signal by synchronously scanning all pixels at a predetermined timing and imaging from the user's first-person viewpoint.
- the first process is performed based on the coordinate information calculated in the first imaging mode, and if it is determined to be the second imaging mode, the second imaging mode is performed.
- An information processing method including a processing step of performing a second processing based on the coordinate information calculated in the above is provided.
- a first imaging mode comprising a first image sensor that generates a first image signal by synchronously scanning all pixels at a predetermined timing and imaging from the user's first-person viewpoint.
- the first process is performed based on the coordinate information calculated in the first imaging mode, and when it is determined to be the second imaging mode, it is calculated in the second imaging mode.
- An information processing program is provided that enables a computer to realize a function of performing a second process based on the coordinate information. According to the above configuration, the coordinate information about the user is calculated based on the image signal, and the imaging mode is determined based on the calculated coordinate information, which is highly convenient for the user and accurately corresponds to the imaging mode. Processing can be performed.
- FIG. 1A and 1B are schematic views showing the entire system 1 according to the first embodiment of the present invention
- FIG. 2 is a block diagram showing a schematic configuration of the system 1.
- the system 1 according to the present embodiment is a game system including an HMD unit 20, which is a first sensor device, an information processing device 30, a controller 40, and a display device 50.
- the information processing device 30 is connected to each of the HMD unit 20, the controller 40, and the display device 50 by a wired or wireless network.
- the information processing device 30 advances the game according to the information transmitted from the HMD unit 20 and the controller 40, and the HMD unit 20 and the display device 50 display the execution screen of the information processing device 30, for example, a game screen. Is displayed.
- the HMD unit 20 calculates the coordinate information about the user who is the player of the game and transmits it to the information processing apparatus 30.
- the coordinate information regarding the user includes at least one of the coordinate information of the feature point regarding the posture of the user, the coordinate information of the feature point regarding the shape of the user's arm, or the coordinate information of the feature point regarding the shape of the user's finger. ..
- the HMD unit 20 also functions as an operating device for accepting user operations, like the controller 40, by calculating and outputting coordinate information about the user.
- the HMD unit 20 can be used by being attached to the user's head as shown in FIG. 1A, and can also be used by being placed on a table or the like as shown in FIG. 1B. Is.
- the HMD unit 20 when the HMD unit 20 is used by being mounted on the user's head, the HMD unit 20 has a function of a display device and a function of an image pickup device that performs image pickup in the first image pickup mode for image pickup from the user's first-person viewpoint. It has and is configured to be removable from the user's head. As shown in the example of FIG.
- the HMD unit 20 is configured so that the HMD unit 20 can be attached to the user's head by the attachment portion 20A that can be attached to the user's body.
- the HMD unit 20 and the mounting portion 20A may have a band type as in the example of FIG. 1A, or may have any configuration such as a helmet type or a glasses type. Further, when mounting the HMD unit 20, for example, by displaying a tutorial or the like on the HMD unit 20 by the information processing device 30, it is preferable to guide the user to properly mount the HMD unit 20 by the mounting unit 20A.
- the HMD unit 20 when used by placing it on a table or the like as shown in FIG. 1B, the HMD unit 20 has a function of an imaging device that performs imaging in a second imaging mode in which the user is imaged from the third person viewpoint of the user. Then, the HMD unit 20 is arranged at a position where the user fits in the field of view, for example, at a distance of about 1 meter from the user in order to image the user from the user's third person viewpoint. In the example of FIG. 1B, the HMD unit 20 is arranged in the vicinity of the display device 50. The optimum placement position of the HMD unit 20 differs depending on the purpose.
- the HMD unit 20 it is desired to arrange the HMD unit 20 at a position where the object to be grasped fits in the field of view, such as the entire body, upper body, and hand of the user, depending on the content of the game to be played.
- the information processing apparatus 30 may display a tutorial or the like on the display device 50 to guide the user to arrange the HMD unit 20 at an appropriate position.
- the HMD unit 20 is mounted on the head and imaged in the first imaging mode or the HMD unit 20 is placed on a table or the like and imaged in the second imaging mode is the content of the game to be played. It depends on the purpose such as.
- FIG. 3 is a block diagram showing a schematic configuration of the HMD unit 20 in the system 1 according to the embodiment of the present invention.
- the HMD unit 20 includes an RGB camera 21 which is a first image pickup device, an IMU (Inertial Measurement Unit) 23, a calculation unit 24 which functions as a first arithmetic processing unit, an information output unit 25, and a reception unit 26. Including the display unit 27.
- the RGB camera 21 includes an image sensor 211 which is a first image sensor and a processing circuit 212 connected to the image sensor 211.
- the image sensor 211 generates the RGB image signal 213, which is the first image signal, by synchronously scanning all pixels (all pixels), for example, at a predetermined cycle or at a predetermined timing according to a user operation.
- the processing circuit 212 converts, for example, the RGB image signal 213 into a format suitable for storage and transmission. Further, the processing circuit 212 gives a time stamp to the RGB image signal 213.
- a signal capable of constructing an image based on the signal is referred to as an image signal. Therefore, the RGB image signal 213 shows an example of an image signal.
- the IMU 23 is an inertial sensor that detects the posture of the HMD unit 20 itself, more specifically, the image sensor 211.
- the IMU 23 acquires the three-dimensional attitude information of the image sensor 211 at a predetermined cycle or at a predetermined timing, and outputs the attitude information to the information output unit 25.
- the calculation unit 24 includes the coordinate calculation unit 241 and the trained model 242, and calculates the coordinate information about the user based on the RGB image signal 213 generated by the RGB camera 21.
- the coordinate calculation unit 241 of the calculation unit 24 recognizes the user by performing subject recognition based on, for example, the RGB image signal 213.
- the coordinate calculation unit 241 identifies each user.
- the coordinate calculation unit 241 calculates the coordinate information indicating the positions of the plurality of joints possessed by the user from the RGB image signal 213 based on the trained model 242 for each recognized user.
- the positions of the plurality of joints possessed by the user correspond to the feature points relating to the posture of the user, the feature points relating to the shape of the arm of the user, or the feature points relating to the shape of the finger of the user.
- the trained model 242 can be preliminarily constructed by performing supervised learning using, for example, an image of a person having a plurality of joints as input data and coordinate information indicating the positions of a plurality of joints of the person as correct answer data. can.
- supervised learning As for the specific method of machine learning, since various known techniques can be used, detailed description thereof will be omitted.
- the calculation unit 24 is provided with a relationship learning unit, and each time the RGB image signal 213 is input, the relationship between the image based on the input RGB image signal 213 and the coordinate information indicating the position of the joint is learned.
- the trained model 242 may be updated.
- the information output unit 25 outputs the coordinate information about the user calculated by the calculation unit 24 and the posture information acquired by the IMU 23 to the information processing device 30.
- the receiving unit 26 receives information indicating the display image generated by the information processing device 30 from the information processing device 30.
- the display unit 27 includes a display element such as an LCD (Liquid Crystal Display) or an organic EL, and an optical device such as a lens, and displays a display image to the user based on the information received by the reception unit 26. It is possible to present.
- the display element of the display unit 27 may be a transmissive type display element or a non-transparent type display element.
- a terminal device such as a smartphone that can be attached to and detached from the housing of the HMD unit 20 may be used as a display device.
- a wearable device such as an AR (Augmented Reality) glass or an MR (Mixed Reality) glass may be used as the HMD unit 20.
- the HMD unit 20 completes the process from the generation of the RGB image signal 213 to the calculation of the coordinate information about the user by itself, and calculates without outputting the RGB image signal 213 to the information processing apparatus 30.
- Information processing and attitude information can be output.
- the HMD unit 20 preferably has an independent power supply.
- the HMD unit 20 has a first image pickup mode in which the user is imaged from the first person viewpoint of the user and a second image pickup mode in which the user is imaged from the third person viewpoint of the user.
- the first imaging mode as shown in FIG. 4A, the user's hand mainly fits in the field of view, and the display device 50 may fit in the field of view behind (rearward) the hand when viewed from the user. ..
- the user's head does not fit in the field of view. For example, when the user raises both arms or poses with his / her fingers near the shoulders, those parts are covered. It doesn't fit in the image.
- the second imaging mode As shown in FIG. 4B, when the upper body and hand of the user mainly fit in the field of view and the user is posing with his arms or fingers, almost all of them are in the field of field. Fits in. Further, in the second imaging mode, the display device 50 does not fit in the field of view. Therefore, in the first image pickup mode and the second image pickup mode of the present embodiment, the subject included in the image data based on the generated image signal is different.
- the information processing unit 30 is implemented by a computer having, for example, a communication interface, a processor, and a memory, and a communication unit 31 and a control unit that functions as a second arithmetic processing unit and a third arithmetic processing unit.
- the control unit 32 functions as a determination unit 321, a control value calculation unit 322, and an image generation unit 323, which are realized by the processor operating according to a program stored in a memory or received via a communication interface. include.
- the functions of each part will be further described.
- the communication unit 31 receives the coordinate information about the user and the posture information output from the information output unit 25 of the HMD unit 20, and outputs a display image to be displayed on the display unit 27 of the HMD unit 20. Further, the communication unit 31 can communicate with the controller 40 and outputs a display image to be displayed on the display device 50.
- the determination unit 321 of the control unit 32 determines whether the image pickup is performed in the first image pickup mode or the second image pickup mode based on the coordinate information. For example, the determination unit 321 recognizes the coordinate information output from the HMD unit 20 based on the coordinate information of the feature points related to the posture of the user, and when the coordinate information includes the face or head of the user, the determination unit 321 recognizes the coordinate information. It can be determined that the HMD unit 20 is performing the imaging in the second imaging mode. Similarly, the determination unit 321 recognizes, for example, based on the coordinate information of the feature points related to the shape of the user's arm among the coordinate information, and the user's hand or fist is present in front of the user's arm in the coordinate information.
- Unit 321 can determine that the HMD unit 20 is performing imaging in the first imaging mode.
- the determination unit 321 is not limited to the relative positions of the arms, hands, and fists described above, and may determine the imaging mode based on the relative positions of other parts. For example, the determination unit 321 may determine the imaging mode based on the terminal portion of the user's body, more specifically, the relative positions of the legs and legs. Further, the above-mentioned determination method may be predetermined or may be set by the user. Further, the determination may be made by combining other information. For example, the posture information acquired by the IMU23 of the HMD unit 20 may be used. For example, the relative positional relationship between the user and the HMD unit 20 may be detected based on the posture information by the IMU 23, and the detected positional relationship may be used for determining the imaging mode. Further, the image pickup mode may be determined based only on the posture information acquired by the IMU 23 of the HMD unit 20.
- the display device 50 is contained in the field of view. It may be estimated and it may be determined that the HMD unit 20 is performing the imaging in the first imaging mode. Further, the HMD unit 20 may be provided with a mounting sensor for detecting the mounting state of the HMD unit 20 by the mounting unit 20A, and the determination may be made according to the mounting state detected by the mounting sensor. For example, when the attached state indicates that "the HMD unit 20 is attached to the user", it is determined that the image is being taken in the first imaging mode, and the attached state is "the HMD unit 20 is attached to the user".
- the mounting sensor can be configured by, for example, a contact sensor, a detachable sensor, a switch, or the like, depending on the configuration of the mounting portion 20A. Further, instead of or in addition to the mounting sensor, a contact sensor, an attitude sensor, or the like for detecting whether or not the HMD unit 20 is mounted on a table or the like may be provided.
- the control unit 32 displays a message such as "Please show the palms of both hands" on the display unit 27 of the HMD unit 20 and the display unit 52 of the display device 50.
- the HMD unit 20 is performing imaging in the first imaging mode, as shown in FIG. 4A, the user turns the palm toward the HMD unit 20 mounted on the head. Therefore, in the coordinate information output from the HMD unit 20, the thumbs of both hands of the user face outward.
- the HMD unit 20 is performing imaging in the second imaging mode, as shown in FIG. 4B, the user turns the palm toward the HMD unit 20 placed on a table or the like.
- the thumbs of both hands of the user face inward. In either case, a more accurate determination can be made by making a determination by combining whether the hands are facing upward or downward, whether the arms are crossed, and the like.
- poses other than the above may be adopted as long as there is a difference in the coordinate information between the first imaging mode and the second imaging mode and the poses can be identified.
- the control value calculation unit 322 calculates the control value of the feedback control to the external device including the HMD unit 20, the controller 40, and the display device 50 according to the image pickup mode determined by the determination unit 321. As described above, the HMD unit 20 and the controller 40 function as an operating device for accepting user operations. Therefore, the control value calculation unit 322 controls feedback to an external device including the HMD unit 20, the controller 40, and the display device 50 in response to a user operation performed via either the HMD unit 20 or the controller 40. Calculate the control value. The calculated control value is output to the controller 40 via the communication unit 31.
- the image generation unit 323 generates a display image showing the user's state according to the image pickup mode determined by the determination unit 321. More specifically, the image generation unit 323 generates a display image to be displayed on the display unit 27 of the HMD unit 20 and the display unit 52 of the display device 50 according to the control value calculated by the control value calculation unit 322. ..
- the generated display image is output to the HMD unit 20 and the display device 50 via the communication unit 31.
- the display image includes a so-called First Person View image that reproduces the user's viewpoint, a so-called Third Person View image that views the user from the outside, and the like. What kind of display image is used is determined according to the content of the game to be played and the purpose such as the scene. Further, the details of the calculation of the control value and the generation of the display image will be described in relation to the description of the configuration of the controller 40 and the display device 50 described later.
- the controller 40 includes a communication unit 41, an operation unit 42, a force sense presentation unit 43, a vibration unit 44, and a voice output unit 45.
- the user can perform various operations related to the game by operating the controller 40.
- the communication unit 41 receives the control value output from the communication unit 31 of the information processing device 30 and outputs it to each unit of the force sense presentation unit 43, the vibration unit 44, and the voice output unit 45. Further, the communication unit 41 outputs the information regarding the user operation received by the operation unit 42 to the information processing apparatus 30.
- the operation unit 42 includes a plurality of controls such as buttons and pads, and receives a user's operation input to the controls.
- the force sense presentation unit 43 is provided on at least a part of the operators of the operation unit 42, and presents to the user a force that opposes or interlocks with the user operation according to the control value supplied from the information processing device 30.
- the force sense presentation unit 43 can be configured by a motor, an actuator, or the like including a rotating rotor.
- As the force sense presenting device constituting the force sense presentation unit 43 a widely known one can be adopted, and therefore detailed description thereof will be omitted here.
- the vibration unit 44 generates vibration according to a control value supplied from the information processing device 30, and can be configured by, for example, a motor.
- the vibration unit 44 can notify the user that the user operation has been performed correctly and that the information processing apparatus 30 has recognized it by generating vibration when the user operation is performed.
- the voice output unit 45 outputs voice according to a control value supplied from the information processing device 30, and can be configured by, for example, a speaker. By outputting the voice when the user operation is performed, the voice output unit 45 can notify the user that the user operation is correctly performed and recognized by the information processing apparatus 30.
- the control value calculation unit 322 of the information processing apparatus 30 calculates the control value of the feedback control to the controller 40, but more specifically, according to the image pickup mode determined by the determination unit 321.
- the control value of the feedback control to the force sense presentation unit 43, the vibration unit 44, and the voice output unit 45 of the controller 40 is calculated.
- the determination unit 321 determines that the first image pickup mode is set
- the control value calculation unit 322 determines the control value of the feedback control to the controller 40 based on the coordinate information based on the image pickup in the first image pickup mode by the HMD unit 20. calculate. Therefore, the first process based on the image pickup in the first image pickup mode by the HMD unit 20 can be performed.
- the control value calculation unit 322 controls the feedback control to the controller 40 based on the coordinate information based on the imaging in the second imaging mode by the HMD unit 20. Calculate the value. Therefore, the second process based on the image pickup in the second image pickup mode by the HMD unit 20 can be performed.
- the control value calculation unit 322 calculates a control value indicating what kind of force sense is presented as feedback control according to the user operation.
- the control value calculation unit 322 calculates a control value indicating what kind of vibration is to be generated as feedback control according to the user operation.
- the control value calculation unit 322 calculates a control value indicating what kind of voice is to be output as feedback control according to the user operation.
- the control value can be calculated by the control value calculation unit 322 according to a predetermined calculation formula, table, or the like.
- the controller 40 may be configured by a pair of controllers that can be grasped by both hands, a controller that can input characters such as a keyboard, or an application such as a smartphone. Further, the controller 40 may be provided with a voice input unit, and voice recognition technology may be applied. For example, even if the controller 40 is provided with a voice input unit such as a microphone and a voice recognition unit, and information indicating a command uttered by the user or a user's call is supplied to the information processing device 30 via the communication unit 41. good.
- a voice input unit such as a microphone and a voice recognition unit
- the display device 50 includes a receiving unit 51 and a display unit 52.
- the receiving unit 51 receives information indicating a display image generated by the image generating unit 323 of the information processing device 30 via the communication unit 31.
- the display unit 52 is provided with a monitor such as an LCD or an organic EL, and can be presented to the user by displaying a display image based on the information received by the reception unit 51.
- the system 1 includes two display units, a display unit 27 of the HMD unit 20 and a display unit 52 of the display device 50.
- the display image may be displayed on both the display unit 27 of the HMD unit 20 and the display unit 52 of the display device 50, or may be displayed on only one of the display units.
- the first imaging mode it is considered that the user is wearing the HMD unit 20, and the displayed image may be displayed only on the display unit 27 of the HMD unit 20.
- the second imaging mode it is considered that the user does not wear the HMD unit 20, and the display image may be displayed only on the display unit 52 of the display device 50.
- various known configurations can be applied to the above-mentioned display device 50.
- it may be configured by the dedicated display device shown in FIGS. 1A and 1B, may be configured by a display device of a computer, or may be configured by a display device of a terminal device such as a smartphone.
- a touch panel for detecting contact may be provided on the surface of the display unit 52.
- the control value calculation unit 322 of the information processing device 30 calculates the control value of the feedback control to the display image displayed on the display unit 27 of the HMD unit 20 and the display unit 52 of the display device 50. More specifically, the control value calculation unit 322 calculates the control value of the feedback control to the display image according to the image pickup mode determined by the determination unit 321.
- the determination unit 321 determines that the first image pickup mode is set
- the control value calculation unit 322 determines the control value of the feedback control to the display image based on the coordinate information based on the image pickup in the first image pickup mode by the HMD unit 20. calculate. Therefore, the first process based on the image pickup in the first image pickup mode by the HMD unit 20 can be performed.
- the control value calculation unit 322 controls the feedback control to the display image based on the coordinate information based on the image pickup in the second image pickup mode by the HMD unit 20. Calculate the value. Therefore, the second process based on the image pickup in the second image pickup mode by the HMD unit 20 can be performed.
- the control value calculation unit 322 calculates a control value indicating how the display image is changed as feedback control according to the user operation. The control value can be calculated by the control value calculation unit 322 according to a predetermined calculation formula, table, or the like.
- the image generation unit 323 of the information processing device 30 displays on the display unit 27 of the HMD unit 20 and the display unit 52 of the display device 50 according to the control value calculated by the control value calculation unit 322. Generate an image. More specifically, the image generation unit 323 newly generates a display image to be displayed on the display unit 27 of the HMD unit 20 and the display unit 52 of the display device 50 according to the control value for changing the display image. ..
- FIG. 5 is a flowchart showing an example of processing of the HMD unit 20 according to the first embodiment.
- the image sensor 211 of the RGB camera 21 generates the RGB image signal 213 (step S101).
- the calculation unit 24 calculates the coordinate information regarding the user (step S102), and the information output unit 25 outputs the coordinate information and the posture information (step S103).
- the HMD unit 20 can continuously supply various information indicating the user's state to the information processing apparatus 30.
- step S201 acquires various information supplied from the HMD unit 20
- step S202 determines whether or not the coordinate information output from the HMD unit 20 includes the user's face or head. If this is the case (step S202NO), the process proceeds to step S204 described later, and if it is determined that the coordinate information includes the user's face or head (step S202YES), the determination unit 321 is determined to be in the second imaging mode. (Step S203).
- the determination unit 321 determines whether or not the user's hand is in front of the arm in the coordinate information output from the HMD unit 20. If it is determined in the coordinate information that the user's hand is not in front of the arm (step S204NO), the process proceeds to step S205 described later, and it is determined in the coordinate information that the user's hand is in front of the arm. If so (step S204YES), the process returns to step S203. When it is determined in the coordinate information that the user's hand is not in front of the arm (step S204NO), it is determined that the determination unit 321 is in the first imaging mode (step S205).
- the control unit 32 After determining the imaging mode in step S203 or step S205, the control unit 32 returns to step S201 again and repeats the process to continuously determine the imaging mode. If the imaging mode is not determined even after a predetermined time has elapsed, the control unit 32 may perform the following processing. In the example illustrated in FIG. 7, the control unit 32 displays a message urging the user to take a specific pose on the display unit 27 of the HMD unit 20 and the display unit 52 of the display device 50 (step S301). Here, for example, the message "Please show the palms of both hands" is displayed. Next, the communication unit 31 acquires various information supplied from the HMD unit 20 again (step S302).
- the determination unit 321 determines whether or not the user's thumb is facing outward in the coordinate information output from the HMD unit 20 (step S303), and determines in the coordinate information that the user's thumb is facing outward. If this is the case (step S303YES), the determination unit 321 determines that it is in the first imaging mode (step S304), and if it is determined in the coordinate information that the user's thumb is not facing outward (step S303NO), The determination unit 321 determines that the second imaging mode is set (step S305).
- an error message is displayed on the display unit 27 of the HMD unit 20 and the display unit 52 of the display device 50. It may be configured to notify the user. Further, as shown in FIG. 7, if the image pickup mode is not determined even if the user is urged to take a specific pose and the determination is made, the user may be notified as described above.
- the control unit 32 When the user changes the image pickup mode according to the content of the game to be played, the subject (field) to be imaged by the RGB camera 21 changes, and as a result, the content of the RGB image signal 213 changes. Change. Then, when the content of the RGB image signal 213 changes, the change is reflected in the coordinate information calculated based on the RGB image signal 213. As described above, the control unit 32 once determines the imaging mode, and then repeats the process. Therefore, in the system 1, the image pickup mode can be determined based on the coordinate information according to the change of the image pickup mode.
- the HMD unit 20 includes an image sensor 211 which is a first image sensor, a first image pickup mode for capturing images from the user's first-person viewpoint, and a user's first image sensor. Imaging is performed by one of the second imaging modes in which the user is imaged from the third person viewpoint. Then, the calculation unit 24 recognizes the user based on the RGB image signal 213 and calculates the coordinate information about the user. Then, the determination unit 321 of the information processing apparatus 30 determines which of the first imaging mode and the second imaging mode is performing imaging based on the coordinate information, and determines the first imaging mode.
- the control unit 32 performs the first process based on the coordinate information calculated in the first imaging mode, and when it is determined to be the second imaging mode, the control unit 32 calculates in the second imaging mode.
- the second process is performed based on the coordinate information. Therefore, the user can perform appropriate processing without making special settings for the first imaging mode and the second imaging mode, which is highly convenient for the user and can accurately perform processing according to the imaging mode. ..
- the HMD unit 20 of the first embodiment can accept the user operation by calculating the coordinate information about the user, the user can maintain the cursor position in order to maintain the cursor position as in the conventional pointing device type operating device. It does not cause physical fatigue. Further, the HMD unit 20 does not need to have the user wear a marker or an attachment to be recognized unlike the conventional posture detection type operation device.
- the coordinate information includes at least one of the coordinate information of the feature point regarding the posture of the user, the feature point regarding the shape of the arm of the user, or the feature point regarding the shape of the finger of the user. Therefore, it is possible to grasp the characteristic state of the user and calculate the coordinate information.
- the calculation unit 24 of the HMD unit 20 has been learned by learning the relationship between the image of a person having a plurality of joints and the coordinate information indicating the positions of the plurality of joints. Based on the model 242, the coordinate information of at least one joint of the person included in the image based on the RGB image signal 213 is calculated. Therefore, the coordinate information about the user can be calculated accurately and at high speed.
- the HMD unit 20 is provided with a mounting portion 20A that can be mounted on the user's body. Therefore, when the HMD unit 20 is mounted on the user's head by the mounting portion 20A, imaging is performed in the first imaging mode, and the mounting portion 20A places the HMD unit 20 on a table or the like without mounting it on the user's head. When placed, it is possible to perform imaging in the second imaging mode.
- FIG. 8 is a schematic diagram showing the entire system 2 according to the second embodiment of the present invention
- FIG. 9 is a block diagram showing a schematic configuration of the system 2.
- the system 2 according to the second embodiment is a game system including a camera unit 60 which is a second sensor device in addition to the system 1 of the first embodiment.
- the system 2 includes an information processing device 70 instead of the information processing device 30 of the system 1 of the first embodiment.
- the camera unit 60 calculates the coordinate information about the user who is the player of the game and transmits it to the information processing apparatus 70, similarly to the HMD unit 20. That is, the camera unit 60 functions as an operating device for accepting user operations, like the HMD unit 20 and the controller 40, by calculating and outputting coordinate information about the user.
- the camera unit 60 is an imaging device for performing imaging in the second imaging mode described in the first embodiment. The optimum arrangement of the camera unit 60 is the same as when the HMD unit 20 of the first embodiment performs imaging in the second imaging mode.
- FIG. 10 is a block diagram showing a schematic configuration of the camera unit 60.
- the camera unit 60 includes an RGB camera 61, an IMU 63, a calculation unit 64 that functions as a first arithmetic processing device, and an information output unit 65.
- Each of the RGB camera 61, IMU 63, calculation unit 64, and information output unit 65 has the same configuration as the RGB camera 21, IMU 23, calculation unit 24, and information output unit 25 of the HMD unit 20 of the first embodiment, respectively. ..
- the RGB camera 61 generates an RGB image signal 613 by the image sensor 611 and the processing circuit 612 having the same configuration as the image sensor 211 and the processing circuit 212 of the RGB camera 21 of the first embodiment.
- the calculation unit 64 is an RGB image signal generated by the RGB camera 61 by the coordinate calculation unit 241 of the calculation unit 24 of the first embodiment, the coordinate calculation unit 641 having the same configuration as the trained model 242, and the trained model 642. Coordinate information about the user is calculated based on 613.
- the information output unit 65 outputs the coordinate information about the user calculated by the calculation unit 64 and the posture information acquired by the IMU 63 to the information processing device 70.
- the camera unit 60 completes the process from the generation of the RGB image signal 613 to the calculation of the coordinate information about the user by itself, and the information processing apparatus 70 is provided with the information processing unit 60.
- the calculated coordinate information and attitude information can be output without outputting the RGB image signal 613.
- the camera unit 60 preferably has an independent power supply.
- 11A and 11B are diagrams illustrating an imaging mode according to the second embodiment.
- the HMD unit 20 performs the imaging in the first imaging mode
- the camera unit 60 performs the imaging in the second imaging mode.
- the first imaging mode imaging is performed by the HMD unit 20 mounted on the user's head.
- the second imaging mode imaging is performed by the camera unit 60 placed on a table or the like. Therefore, as in the first embodiment, the subject included in the image data based on the generated image signal is different in the first image pickup mode and the second image pickup mode of the second embodiment.
- the information processing apparatus 70 includes a communication unit 71 in place of the communication unit 31 of the information processing apparatus 30 of the first embodiment, and includes a control unit 72 in place of the control unit 32.
- the communication unit 71 includes the coordinate information about the user and the posture information output from the information output unit 65 of the camera unit 60. Is received, and a display image to be displayed on the display unit 27 of the HMD unit 20 is output.
- the coordinate information about the user output from the information output unit 25 of the HMD unit 20 is referred to as the coordinate information C 20
- the coordinate information about the user output from the information output unit 65 of the camera unit 60 is referred to as the coordinate information C 20. It is referred to as coordinate information C 60 .
- the control unit 72 includes the function of the determination unit 721 in place of the determination unit 321 of the control unit 32 of the information processing apparatus 30 of the first embodiment, and includes the function of the control value calculation unit 722 in place of the control value calculation unit 322.
- the function of the image generation unit 723 is included in place of the image generation unit 323.
- the determination unit 721 is performing imaging in either the first imaging mode or the second imaging mode based on the coordinate information C 20 output from the HMD unit 20 or the coordinate information C 60 output from the camera unit 60. To judge. The determination is performed in the same manner as in the information processing apparatus 30 of the first embodiment.
- the control value calculation unit 722 calculates the control value of the feedback control to the external device including the HMD unit 20, the controller 40, and the display device 50 according to the image pickup mode determined by the determination unit 721.
- the HMD unit 20, the controller 40, and the camera unit 60 function as operating devices for accepting user operations. Therefore, the control value calculation unit 722 is an external device including the HMD unit 20, the controller 40, and the display device 50 according to the user operation performed via any of the HMD unit 20, the controller 40, and the camera unit 60.
- the image generation unit 723 generates a display image showing the user's state according to the image pickup mode determined by the determination unit 721.
- the display image is generated in the same manner as in the information processing apparatus 30 of the first embodiment.
- the controller 40 has the same configuration and function as that of the first embodiment.
- the control value calculation unit 722 of the information processing apparatus 70 calculates the control value of the feedback control to the controller 40, but when the determination unit 721 determines that the first imaging mode is set, the control value calculation unit 722. Calculates the control value of the feedback control to the controller 40 based on the coordinate information C 20 output from the HMD unit 20. By calculating the control value using the coordinate information C 20 output from the HMD unit 20, the first process based on the first imaging mode using the HMD unit 20 as an operating device can be performed.
- the control value calculation unit 722 calculates the control value of the feedback control to the controller 40 based on the coordinate information C 60 output from the camera unit 60. .. By calculating the control value using the coordinate information C 60 output from the camera unit 60, the second process based on the second imaging mode using the camera unit 60 as an operating device can be performed.
- the display device 50 has the same configuration and function as that of the first embodiment.
- the control value calculation unit 722 of the information processing device 70 calculates the control value of the feedback control to the display image displayed on the display unit 27 of the HMD unit 20 and the display unit 52 of the display device 50.
- the determination unit 721 determines the first imaging mode
- the control value calculation unit 722 calculates the control value of the feedback control to the display image based on the coordinate information C 20 output from the HMD unit 20. By calculating the control value using the coordinate information C 20 output from the HMD unit 20, processing based on the first imaging mode using the HMD unit 20 as an operating device can be performed.
- the control value calculation unit 722 calculates the control value of the feedback control to the display image based on the coordinate information C 60 output from the camera unit 60. .. By calculating the control value using the coordinate information C 60 output from the camera unit 60, it is possible to perform processing based on the second imaging mode using the camera unit 60 as an operating device.
- FIG. 12 is a flowchart showing an example of processing of the information processing apparatus 70 according to the second embodiment.
- the communication unit 71 acquires various information supplied from each of the HMD unit 20 and the camera unit 60 (step S401).
- the determination unit 721 determines whether or not the coordinate information C 60 output from the camera unit 60 includes the user's face or head (step S402), and the coordinate information C 60 does not include the user's face or head. If it is determined (step S402NO), the process proceeds to step S405 described later, and if it is determined that the coordinate information C 60 includes the user's face or head (step S402YES), the coordinate information output from the camera unit 60 is determined. It is determined whether or not C 60 can be used (step S403).
- Whether or not the coordinate information C 60 can be used can be determined based on, for example, whether or not the control value based on the coordinate information C 60 can be calculated.
- step S403YES it is determined that the determination unit 721 is in the second imaging mode (step S404).
- step S403NO the determination unit 721 cannot determine the imaging mode, so the process returns to step S401.
- step S402NO When it is determined that the coordinate information C 60 does not include the user's face or head (step S402NO), whether the determination unit 721 has the user's hand in front of the arm in the coordinate information C 60 output from the camera unit 60. If it is determined whether or not (step S405) and it is determined in the coordinate information C 60 that the user's hand is not in front of the arm (step S405 NO), the process proceeds to step S406 described later, and the user's hand is in the coordinate information C 60 . If it is determined that the arm is in front of the arm (step S405YES), the process returns to step S403.
- the determination unit 721 determines in the coordinate information C 60 that the user's hand is not in front of the arm (step S405NO), it determines whether or not the coordinate information C 20 output from the HMD unit 20 can be used (step). S406). Whether or not the coordinate information C 20 can be used can be determined based on whether or not the control value based on the coordinate information C 20 can be calculated. When it is determined that the coordinate information C 20 can be used (step S406YES), it is determined that the determination unit 721 is in the first imaging mode (step S407). On the other hand, when it is determined that the coordinate information C 20 cannot be used (step S406NO), the determination unit 721 cannot determine the imaging mode, so the process returns to step S401.
- the control unit 72 After determining the imaging mode in step S404 or step S407, the control unit 72 returns to step S401 again and repeats the process to continuously determine the imaging mode. Further, if the image pickup mode is not determined even after a predetermined time has elapsed, as in the control unit 32 of the first embodiment, the configuration is such that the user is urged to take a specific pose and the determination is performed. Alternatively, the user may be notified by displaying an error message on the display unit 27 of the HMD unit 20 and the display unit 52 of the display device 50. Further, if the image pickup mode is not determined even if the user is urged to take a specific pose and the determination is made, the user may be notified as described above.
- the determination unit 721 outputs from the camera unit 60 whether or not the user's thumb is facing outward in the coordinate information C 20 output from the HMD unit 20.
- the image pickup mode can be determined by determining at least one of whether or not the user's thumb is facing inward in the coordinate information C60 .
- the HMD unit 20 which is the first image pickup apparatus in which the system 2 performs image pickup in the first image pickup mode and the second image pickup in which image pickup is performed in the second image pickup mode.
- the determination unit 721 includes the camera unit 60, which is an apparatus, and determines whether the image is taken by the HMD unit 20 or the camera unit 60. Then, when it is determined that the image is being taken by the HMD unit 20, the control unit 72 performs the first process based on the coordinate information C 20 output from the HMD unit 20, and the camera unit 60 takes an image. When it is determined that the above is performed, the control unit 72 performs the second processing based on the coordinate information C 60 output from the camera unit 60. Therefore, when the HMD unit 20 and the camera unit 60 are used in combination, the same effect as that of the first embodiment can be obtained.
- the camera unit 60 performs from the generation of the RGB image signal 613 to the calculation of the coordinate information regarding the user, and the coordinate information and the image sensor 611 are not output without outputting the RGB image signal 613.
- the attitude information of it is possible to reduce the problems of communication load and communication delay. Further, since it is not necessary to output the RGB image signal 613, it is also useful in terms of privacy protection.
- the system 3 according to the third embodiment includes the same information processing device 30, the controller 40, and the display device 50 as the system 1 of the first embodiment, and the HMD unit 20 of the system 1. Instead of, it is a game system including an HMD unit 80.
- FIG. 13 is a block diagram showing a schematic configuration of the HMD unit 80 in the system 3. Similar to the HMD unit 20 of the system 1 of the first embodiment, the HMD unit 80 includes an RGB camera 81, an IMU 83, a calculation unit 84 that functions as a first arithmetic processing device, an information output unit 85, and a reception unit. It includes 86, a display unit 87, and an EDS (Event Driven Sensor) 82, which is a second imaging device.
- RGB camera 81, IMU83, calculation unit 84, The information output unit 85, the reception unit 86, and the display unit 87 are the RGB camera 21, IMU 23, calculation unit 24, information output unit 25, reception unit 26, and display unit 27 of the HMD unit 20 of the first embodiment, respectively. It has the same configuration as.
- the RGB camera 81 generates an RGB image signal 813 by an image sensor 811 and a processing circuit 812 having the same configuration as the image sensor 211 and the processing circuit 212 of the RGB camera 21 of the first embodiment.
- the EDS 82 includes a sensor 821 which is a second image sensor constituting the sensor array, and a processing circuit 822 connected to the sensor 821.
- the sensor 821 includes a light receiving element, and generates an event signal 823 which is a second image signal when it detects a change in the intensity of light incident on each pixel, more specifically, a change in luminance exceeding a predetermined predetermined value. It is an event-driven vision sensor.
- the event signal 823 output via the processing circuit 822 includes the identification information of the sensor 821 (for example, the position of the pixel), the polarity (increased or decreased) of the luminance change, and the time stamp.
- the EDS 82 can generate the event signal 823 at a frequency significantly higher than the frequency of generating the RGB image signal 813 (frame rate of the RGB camera 81).
- a signal capable of constructing an image based on the signal is referred to as an image signal. Therefore, the RGB image signal 813 and the event signal 823 show an example of an image signal.
- the time stamps given to the RGB image signal 813 and the event signal 823 are synchronized. Specifically, for example, by providing the RGB camera 81 with the time information used for generating the time stamp in the EDS 82, the time stamps given to the RGB image signal 813 and the event signal 823 can be synchronized. Alternatively, when the time information for generating the time stamp is independent for the RGB camera 81 and the EDS 82, the time stamp is based on the time when a specific event (for example, a change in the subject over the entire image) occurs. By calculating the offset amount, the time stamps given to the RGB image signal 813 and the event signal 823 can be synchronized after the fact.
- a specific event for example, a change in the subject over the entire image
- the sensor 821 of the EDS 82 is associated with one or a plurality of pixels of the RGB image signal 813 by the calibration procedure of the RGB camera 81 and the EDS 82 executed in advance, and the event signal 823 is RGB. It is generated according to the change in light intensity in one or more pixels of the image signal 813. More specifically, for example, a calibration pattern common to the RGB camera 81 and the EDS 82 is imaged, and the corresponding parameters between the camera and the sensor are obtained from the internal and external parameters of the RGB camera 81 and the EDS 82, respectively. By calculation, the sensor 821 can be associated with one or more pixels of the RGB image signal 813.
- the IMU83 is an inertial sensor that detects the attitudes of the image sensor 811 and the sensor 821, and acquires three-dimensional attitude information of the image sensor 811 and the sensor 821 at a predetermined cycle or at a predetermined timing, and information the attitude information. Output to the output unit 85.
- the calculation unit 84 includes the coordinate calculation unit 841 and the trained model 842, and calculates the coordinate information about the user based on the event signal 823 generated by the EDS 82 and the RGB image signal 813 generated by the RGB camera 81. do.
- the coordinate calculation unit 841 of the calculation unit 84 detects, for example, an object existing in a continuous pixel region in which an event of the same polarity is shown to occur in the event signal 823, and determines the corresponding portion of the RGB image signal 813.
- the user is recognized by performing subject recognition based on the subject.
- the coordinate calculation unit 841 identifies each user.
- the coordinate calculation unit 841 calculates the coordinate information indicating the positions of the plurality of joints of the user from the RGB image signal 813 based on the learned model 842 for each recognized user.
- the positions of the plurality of joints possessed by the user correspond to the feature points relating to the posture of the user, the feature points relating to the shape of the arm of the user, or the feature points relating to the shape of the finger of the user. Since the trained model 842 is the same as that of the first embodiment, the description thereof will be omitted.
- the information output unit 85 outputs the coordinate information about the user calculated by the calculation unit 84 and the posture information acquired by the IMU 83 to the information processing apparatus 30.
- the receiving unit 86 and the display unit 87 have the same configuration as the receiving unit 26 and the display unit 27 of the HMD unit 20 of the first embodiment.
- the HMD unit 80 like the HMD unit 20 of the first embodiment, completes the process from the generation of the RGB image signal 813 and the event signal 823 to the calculation of the coordinate information about the user by itself, and performs information processing.
- the calculated coordinate information and attitude information can be output without outputting the RGB image signal 813 and the event signal 823 to the device 30.
- the HMD unit 80 has an independent power supply as in the HMD unit 20 of the first embodiment.
- Each part of the information processing device 30, the controller 40, and the display device 50 has the same configuration and function as that of the first embodiment.
- FIG. 14 is a flowchart showing an example of processing of the HMD unit 80 according to the third embodiment.
- the image sensor 811 of the RGB camera 81 generates the RGB image signal 813 (step S501), and the sensor 821 of the EDS 82 generates the event signal 823 (step S502).
- the calculation unit 84 calculates the coordinate information regarding the user (step S503), and the information output unit 85 outputs the coordinate information and the posture information (step S504).
- the HMD unit 80 can continuously supply various information indicating the user's state to the information processing apparatus 30.
- the HMD unit 80 calculates coordinate information about the user based on the RGB image signal 813 and the event signal 823 generated by the image sensor 811 and the sensor 821, respectively. Output to the information processing device 30. Therefore, as in the first embodiment, the user can perform appropriate processing without making any special settings regarding the first imaging mode and the second imaging mode, which is highly convenient for the user and accurately sets the imaging mode. It is possible to perform the corresponding processing. Further, by using the sensor 821 that generates the event signal 823, it is possible to perform processing accurately according to the imaging mode while suppressing the latency.
- the system 3 including the HMD unit 80 having the EDS 82 in addition to the RGB camera 81 has been described as an example.
- the configuration may include an HMD unit having an EDS in addition to the RGB camera.
- a camera unit having an EDS may be included in addition to the RGB camera. In either case, by using a sensor that generates an event signal, it is possible to perform processing accurately according to the imaging mode while suppressing latency.
- FIG. 15 is a block diagram showing a schematic configuration of the system 4 according to the fourth embodiment.
- the system 4 according to the fourth embodiment is a game system including a server 90 and a terminal device 100 in place of the information processing device 30 of the system 1 of the first embodiment.
- the server 90 is a server (for example, a cloud server) that is connected to the HMD unit 20 and the terminal device 100 via an Internet communication network or wirelessly.
- the server 90 has the same configuration as the information processing apparatus 30 of the first embodiment, and performs various processes based on the information output by the HMD unit 20.
- the terminal device 100 includes a communication unit 101, and the communication unit 101 receives the information output from the server 90.
- the communication unit 101 can communicate with the controller 40 and outputs an image to be displayed on the HMD unit 20 and the display device 50, similarly to the communication unit 31 of the information processing device 30 of the first embodiment.
- the HMD unit 20 performs from the generation of the RGB image signal 213 to the calculation of the coordinate information, and outputs only the coordinate information to the server 90, so that even in a game system using a server such as a cloud server.
- a server such as a cloud server.
- a similar effect can be obtained.
- the same effect can be obtained by applying the server to the system 2 described in the second embodiment and the system 3 described in the third embodiment in the same manner.
- a part of the processing performed by the information processing apparatus may be performed by the HMD unit and the camera unit.
- the function of the determination unit 321 in the information processing apparatus 30 of the first embodiment may be provided in the HMD unit 20.
- the function of the determination unit 721 in the information processing apparatus 70 of the second embodiment may be provided in the HMD unit 20 and the camera unit 60.
- the HMD unit 20 and the camera unit 60 may change the method of calculating the coordinate information, more specifically, the trained model, according to the determined imaging mode.
- the number of RGB cameras and EDSs of the HMD unit may be the same or different. Further, the number of RGB cameras and EDS may be one or a plurality. For example, when a plurality of RGB cameras are provided, the range of the field for generating RGB image signals can be expanded, and the state of a person can be estimated three-dimensionally from the plurality of RGB image signals. Further, for example, when a plurality of EDS 12s are provided, it is possible to expand the range of the field in which the event signal is generated, or to calculate the three-dimensional movement amount of the person based on the plurality of event signals. can. The same applies to the RGB camera and EDS of the camera unit.
- the HMD unit and the camera unit described in each of the above embodiments may be mounted in a single device or may be mounted in a plurality of devices in a distributed manner.
- at least a part of each sensor may be independently provided, and other configurations may be implemented as an HMD unit and a camera unit main body.
- image sensor 212, 612, 812, 822 ... processing circuit, 213, 613, 813 ... RGB image signal, 241, 641, 841 ... coordinate calculation unit, 242, 642, 842 ... trained model, 321, 721. ... Judgment unit, 322, 722 ... Control value calculation unit, 323, 723 ... Image generation unit, 821 ... Sensor, 823 ... Event signal.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Image Processing (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、ユーザーの三人称視点からユーザーを撮像する第2撮像モードのいずれかにより撮像を行う撮像装置と、第1画像信号に基づいてユーザーを認識し、ユーザーに関する座標情報を算出し、座標情報に基づいて第1撮像モードおよび第2撮像モードのいずれによる撮像が行われているかを判定し、第1撮像モードと判定された場合には、第1撮像モードにおいて算出された座標情報に基づいて第1の処理を行い、第2撮像モードと判定された場合には、第2撮像モードにおいて算出された座標情報に基づいて第2の処理を行う情報処理装置と、を備えるシステムが提供される。
Description
本発明は、システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラムに関する。
従来、コンピュータやゲーム装置等の情報処理装置に接続され、当該情報処理装置に操作信号を送信する操作装置が知られている(例えば、特許文献1参照)。
特許文献1に記載のコントローラ(操作装置)は、ユーザーの左右の手で把持される左側把持部及び右側把持部と、当該コントローラの正面に配設された方向ボタン及び操作ボタンとを有する。
特許文献1に記載のコントローラ(操作装置)は、ユーザーの左右の手で把持される左側把持部及び右側把持部と、当該コントローラの正面に配設された方向ボタン及び操作ボタンとを有する。
ところで、上記特許文献1に記載されたコントローラ等は、ユーザーの左右の手で把持されるものであるため、ユーザーの動きの自由度が低下するという問題がある。そこで、ユーザーの身体の動きであるジェスチャーおよび音声認識を行う操作装置を用いる技術も考えられているが、ポインティングデバイス方式の操作装置ではカーソル位置を維持するためにユーザーの肉体疲労を引き起こす場合がある。また、姿勢検出方式の操作装置では認識対象となるマーカーやアタッチメントをユーザーに装着させる必要があり、いずれの場合もユーザーの利便性には問題がある。
そこで、本発明は、ユーザーにとって利便性が高く、正確に撮像モードに応じた処理を行うことができるシステム、撮像装置、情報処理装置、情報処理方法および情報処理プログラムを提供することを目的とする。
本発明のある観点によれば、所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、ユーザーの三人称視点からユーザーを撮像する第2撮像モードのいずれかにより撮像を行う撮像装置と、第1画像信号に基づいてユーザーを認識し、第1画像信号に基づいて、ユーザーに関する座標情報を算出する第1の演算処理装置と、座標情報に基づいて、第1撮像モード、および、第2撮像モードのいずれによる撮像が行われているかを判定する第2の演算処理装置と、第1撮像モードと判定された場合には、第1撮像モードにおいて算出された座標情報に基づいて第1の処理を行い、第2撮像モードと判定された場合には、第2撮像モードにおいて算出された座標情報に基づいて第2の処理を行う第3の演算処理装置と、を備えるシステムが提供される。
本発明の別の観点によれば、所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、ユーザーの三人称視点からユーザーを撮像する第2撮像モードのいずれかにより撮像を行う撮像部と、第1画像信号に基づいてユーザーを認識し、第1画像信号に基づいて、ユーザーに関する座標情報を算出する演算処理部と、座標情報を出力する情報出力部と、を備える撮像装置が提供される。
本発明のさらに別の観点によれば、所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、ユーザーの三人称視点からユーザーを撮像する第2撮像モードのいずれかにより撮像を行い、第1画像信号に基づいてユーザーを認識し、第1画像信号に基づいてユーザーに関する座標情報を算出し、座標情報を出力する撮像装置から、座標情報を取得する取得部と、座標情報に基づいて、第1撮像モード、および、第2撮像モードのいずれによる撮像が行われているかを判定する第1の演算処理部と、第1撮像モードと判定された場合には、第1撮像モードにおいて算出された座標情報に基づいて第1の処理を行い、第2撮像モードと判定された場合には、第2撮像モードにおいて算出された座標情報に基づいて第2の処理を行う第2の演算処理部と、を備える情報処理装置が提供される。
本発明のさらに別の観点によれば、所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、ユーザーの三人称視点からユーザーを撮像する第2撮像モードのいずれかにより撮像を行う撮像装置から、第1画像信号を取得する取得ステップと、第1画像信号に基づいてユーザーを認識し、第1画像信号に基づいて、ユーザーに関する座標情報を算出する算出ステップと、座標情報に基づいて、第1撮像モード、および、第2撮像モードのいずれによる撮像が行われているかを判定する判定ステップと、第1撮像モードと判定された場合には、第1撮像モードにおいて算出された座標情報に基づいて第1の処理を行い、第2撮像モードと判定された場合には、第2撮像モードにおいて算出された座標情報に基づいて第2の処理を行う処理ステップとを含む情報処理方法が提供される。
本発明のさらに別の観点によれば、所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、ユーザーの三人称視点からユーザーを撮像する第2撮像モードのいずれかにより撮像を行う撮像装置から、第1画像信号を取得する機能と、第1画像信号に基づいてユーザーを認識し、第1画像信号に基づいて、ユーザーに関する座標情報を算出する機能と、座標情報に基づいて、第1撮像モード、および、第2撮像モードのいずれによる撮像が行われているかを判定する機能と、第1撮像モードと判定された場合には、第1撮像モードにおいて算出された座標情報に基づいて第1の処理を行い、第2撮像モードと判定された場合には、第2撮像モードにおいて算出された座標情報に基づいて第2の処理を行う機能とをコンピュータに実現させる情報処理プログラムが提供される。
上記の構成によれば、画像信号に基づいてユーザーに関する座標情報を算出し、算出した座標情報に基づいて撮像モードの判定を行うことにより、ユーザーにとって利便性が高く、正確に撮像モードに応じた処理を行うことができる。
上記の構成によれば、画像信号に基づいてユーザーに関する座標情報を算出し、算出した座標情報に基づいて撮像モードの判定を行うことにより、ユーザーにとって利便性が高く、正確に撮像モードに応じた処理を行うことができる。
以下、添付図面を参照しながら、本発明のいくつかの実施形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
<第1実施形態>
図1Aおよび図1Bは、本発明の第1実施形態に係るシステム1の全体を示す模式図であり、図2は、システム1の概略的な構成を示すブロック図である。
図1Aに示すように、本実施形態に係るシステム1は、第1センサ装置であるHMDユニット20と、情報処理装置30と、コントローラ40と、表示装置50とを含むゲームシステムである。
情報処理装置30は、図2に示すように、HMDユニット20、コントローラ40、および表示装置50のぞれぞれと有線または無線のネットワークにより接続される。
システム1では、HMDユニット20、およびコントローラ40から送信される情報に応じて情報処理装置30がゲームを進行し、HMDユニット20および表示装置50が、情報処理装置30の実行時画面、例えばゲーム画面を表示する。
図1Aおよび図1Bは、本発明の第1実施形態に係るシステム1の全体を示す模式図であり、図2は、システム1の概略的な構成を示すブロック図である。
図1Aに示すように、本実施形態に係るシステム1は、第1センサ装置であるHMDユニット20と、情報処理装置30と、コントローラ40と、表示装置50とを含むゲームシステムである。
情報処理装置30は、図2に示すように、HMDユニット20、コントローラ40、および表示装置50のぞれぞれと有線または無線のネットワークにより接続される。
システム1では、HMDユニット20、およびコントローラ40から送信される情報に応じて情報処理装置30がゲームを進行し、HMDユニット20および表示装置50が、情報処理装置30の実行時画面、例えばゲーム画面を表示する。
本実施形態において、HMDユニット20は、ゲームのプレイヤーであるユーザーに関する座標情報を算出して、情報処理装置30に送信する。ここで、ユーザーに関する座標情報とは、ユーザーの姿勢に関する特徴点の座標情報、ユーザーの腕の形状に関する特徴点の座標情報、またはユーザーの手指の形状に関する特徴点の座標情報の少なくとも1つを含む。
HMDユニット20は、ユーザーに関する座標情報を算出して出力することにより、コントローラ40と同様にユーザー操作を受け付けるための操作装置としても機能する。
HMDユニット20は、ユーザーに関する座標情報を算出して出力することにより、コントローラ40と同様にユーザー操作を受け付けるための操作装置としても機能する。
本実施形態において、HMDユニット20は、図1Aに示すように、ユーザーの頭部に装着して使用可能であるとともに、図1Bに示すように、テーブル等に載置して使用することも可能である。
図1Aに示すようにユーザーの頭部に装着して使用する場合、HMDユニット20は、表示装置の機能と、ユーザーの一人称視点で撮像する第1撮像モードによる撮像を行う撮像装置の機能とを有し、ユーザーの頭部に着脱可能に構成される。図1Aの例に示すように、HMDユニット20は、HMDユニット20をユーザーの体に装着可能な装着部20Aによりユーザーの頭部に装着可能に構成される。なお、HMDユニット20および装着部20Aは、図1Aの例のようにバンド型であってもよいし、ヘルメット型やメガネ型などどのような構成であってもよい。また、HMDユニット20の装着に際しては、例えば、情報処理装置30によってHMDユニット20にチュートリアルなどを表示することにより、ユーザーが装着部20AによりHMDユニット20を適切に装着するよう案内するとよい。
図1Aに示すようにユーザーの頭部に装着して使用する場合、HMDユニット20は、表示装置の機能と、ユーザーの一人称視点で撮像する第1撮像モードによる撮像を行う撮像装置の機能とを有し、ユーザーの頭部に着脱可能に構成される。図1Aの例に示すように、HMDユニット20は、HMDユニット20をユーザーの体に装着可能な装着部20Aによりユーザーの頭部に装着可能に構成される。なお、HMDユニット20および装着部20Aは、図1Aの例のようにバンド型であってもよいし、ヘルメット型やメガネ型などどのような構成であってもよい。また、HMDユニット20の装着に際しては、例えば、情報処理装置30によってHMDユニット20にチュートリアルなどを表示することにより、ユーザーが装着部20AによりHMDユニット20を適切に装着するよう案内するとよい。
一方、図1Bに示すようにテーブル等に載置して使用する場合、HMDユニット20は、ユーザーの三人称視点からユーザーを撮像する第2撮像モードによる撮像を行う撮像装置の機能を有する。そして、HMDユニット20は、ユーザーの三人称視点からユーザーを撮像するために、被写界にユーザーが収まる位置、例えばユーザーから1メートル程度の距離に配置される。図1Bの例では、HMDユニット20は、表示装置50の近傍に配置される。HMDユニット20の最適な配置位置は、目的に応じて異なる。例えば、プレイ対象のゲームの内容に応じて、ユーザーの体全体、上半身、手元等、把握する対象が被写界に収まる位置にHMDユニット20を配置することが望まれる。なお、HMDユニット20の配置に際しては、例えば、情報処理装置30によって表示装置50にチュートリアルなどを表示することにより、ユーザーがHMDユニット20を適切な位置に配置するよう案内するとよい。
HMDユニット20を頭部に装着して第1撮像モードによる撮像を行うか、または、HMDユニット20をテーブル等に載置して第2撮像モードによる撮像を行うかは、プレイ対象のゲームの内容等の目的に応じて異なる。
HMDユニット20を頭部に装着して第1撮像モードによる撮像を行うか、または、HMDユニット20をテーブル等に載置して第2撮像モードによる撮像を行うかは、プレイ対象のゲームの内容等の目的に応じて異なる。
以下、システム1の各構成について説明する。
図3は、本発明の一実施形態に係るシステム1におけるHMDユニット20の概略的な構成を示すブロック図である。
HMDユニット20は、第1撮像装置であるRGBカメラ21と、IMU(Inertial Measurement Unit)23と、第1の演算処理装置として機能する算出部24と、情報出力部25と、受信部26と、表示部27とを含む。
RGBカメラ21は、第1画像センサであるイメージセンサ211と、イメージセンサ211に接続される処理回路212とを含む。イメージセンサ211は、例えば所定の周期で、またはユーザー操作に応じた所定のタイミングで全ピクセル(全画素)を同期的にスキャンすることによって第1画像信号であるRGB画像信号213を生成する。処理回路212は、例えばRGB画像信号213を保存および伝送に適した形式に変換する。また、処理回路212は、RGB画像信号213にタイムスタンプを与える。
なお、本明細書では、当該信号に基づいて画像を構築可能な信号を画像信号という。したがって、RGB画像信号213は、画像信号の一例を示す。
図3は、本発明の一実施形態に係るシステム1におけるHMDユニット20の概略的な構成を示すブロック図である。
HMDユニット20は、第1撮像装置であるRGBカメラ21と、IMU(Inertial Measurement Unit)23と、第1の演算処理装置として機能する算出部24と、情報出力部25と、受信部26と、表示部27とを含む。
RGBカメラ21は、第1画像センサであるイメージセンサ211と、イメージセンサ211に接続される処理回路212とを含む。イメージセンサ211は、例えば所定の周期で、またはユーザー操作に応じた所定のタイミングで全ピクセル(全画素)を同期的にスキャンすることによって第1画像信号であるRGB画像信号213を生成する。処理回路212は、例えばRGB画像信号213を保存および伝送に適した形式に変換する。また、処理回路212は、RGB画像信号213にタイムスタンプを与える。
なお、本明細書では、当該信号に基づいて画像を構築可能な信号を画像信号という。したがって、RGB画像信号213は、画像信号の一例を示す。
IMU23は、HMDユニット20自体、より具体的には、イメージセンサ211の姿勢を検出する慣性センサである。IMU23は、所定の周期で、または、所定のタイミングでイメージセンサ211の三次元の姿勢情報を取得し、姿勢情報を情報出力部25に出力する。
算出部24は、座標算出部241、および学習済みモデル242を含み、RGBカメラ21において生成されたRGB画像信号213に基づいて、ユーザーに関する座標情報を算出する。
算出部24の座標算出部241は、例えば、RGB画像信号213に基づいて被写体認識を行うことによりユーザーを認識する。HMDユニット20の被写界に複数のユーザーが含まれる場合、座標算出部241は、それぞれのユーザーを識別する。
そして、座標算出部241は、認識したユーザーごとに、学習済みモデル242に基づいて、RGB画像信号213からユーザーが有する複数の関節の位置を示す座標情報を算出する。ユーザーが有する複数の関節の位置は、ユーザーの姿勢に関する特徴点、ユーザーの腕の形状に関する特徴点、またはユーザーの手指の形状に関する特徴点に相当する。
学習済みモデル242は、例えば、複数の関節を有する人物の画像を入力データとし、人物の複数の関節の位置を示す座標情報を正解データとした教師あり学習を実行することによって予め構築することができる。なお、機械学習の具体的な手法については、公知の各種の技術を利用可能であるため詳細な説明は省略する。また、算出部24に関係性学習部を備え、RGB画像信号213が入力される度に、入力されたRGB画像信号213に基づく画像と関節の位置を示す座標情報との関係性を学習して学習済みモデル242を更新する構成としてもよい。
情報出力部25は、算出部24により算出したユーザーに関する座標情報と、IMU23により取得した姿勢情報とを情報処理装置30に出力する。
算出部24の座標算出部241は、例えば、RGB画像信号213に基づいて被写体認識を行うことによりユーザーを認識する。HMDユニット20の被写界に複数のユーザーが含まれる場合、座標算出部241は、それぞれのユーザーを識別する。
そして、座標算出部241は、認識したユーザーごとに、学習済みモデル242に基づいて、RGB画像信号213からユーザーが有する複数の関節の位置を示す座標情報を算出する。ユーザーが有する複数の関節の位置は、ユーザーの姿勢に関する特徴点、ユーザーの腕の形状に関する特徴点、またはユーザーの手指の形状に関する特徴点に相当する。
学習済みモデル242は、例えば、複数の関節を有する人物の画像を入力データとし、人物の複数の関節の位置を示す座標情報を正解データとした教師あり学習を実行することによって予め構築することができる。なお、機械学習の具体的な手法については、公知の各種の技術を利用可能であるため詳細な説明は省略する。また、算出部24に関係性学習部を備え、RGB画像信号213が入力される度に、入力されたRGB画像信号213に基づく画像と関節の位置を示す座標情報との関係性を学習して学習済みモデル242を更新する構成としてもよい。
情報出力部25は、算出部24により算出したユーザーに関する座標情報と、IMU23により取得した姿勢情報とを情報処理装置30に出力する。
受信部26は、情報処理装置30が生成した表示画像を示す情報を、情報処理装置30から受信する。
表示部27は、例えばLCD(Liquid Crystal Display)や有機ELなどの表示素子と、レンズなどの光学装置とを備え、受信部26により受信した情報に基づき、表示画像を表示することにより、ユーザーに提示することが可能である。なお、表示部27の表示素子は、透過型の表示素子であってもよいし、非透過型の表示素子であってもよい。
また、HMDユニット20の筐体に着脱可能なスマートフォンなどの端末装置を表示装置として使用してもよい。さらに、AR(Augmented Reality)グラス、MR(Mixed Reality)グラスなどの装着型デバイスをHMDユニット20として使用してもよい。
表示部27は、例えばLCD(Liquid Crystal Display)や有機ELなどの表示素子と、レンズなどの光学装置とを備え、受信部26により受信した情報に基づき、表示画像を表示することにより、ユーザーに提示することが可能である。なお、表示部27の表示素子は、透過型の表示素子であってもよいし、非透過型の表示素子であってもよい。
また、HMDユニット20の筐体に着脱可能なスマートフォンなどの端末装置を表示装置として使用してもよい。さらに、AR(Augmented Reality)グラス、MR(Mixed Reality)グラスなどの装着型デバイスをHMDユニット20として使用してもよい。
ここまで説明したように、HMDユニット20は、RGB画像信号213の生成からユーザーに関する座標情報の算出までを単体で完結し、情報処理装置30に対してRGB画像信号213は出力せずに、算出した座標情報および姿勢情報を出力することができる。なお、HMDユニット20は、独立した電源を有することが好ましい。
図4Aおよび図4Bは、本実施形態における撮像モードについて説明する図である。HMDユニット20は、上述したように、ユーザーの一人称視点で撮像する第1撮像モードと、ユーザーの三人称視点からユーザーを撮像する第2撮像モードとを有する。
第1撮像モードでは、図4Aに示すように、主にユーザーの手元が被写界に収まり、ユーザーから見て、手元の背後(後方)において、表示装置50が被写界に収まる場合もある。また、第1撮像モードでは、ユーザーの頭部は被写界に収まらず、例えばユーザーが両腕を上げたり、肩の近傍で手指によりポーズをとったりしている場合には、それらの部分は被写界に収まらない。
一方、第2撮像モードでは、図4Bに示すように、主にユーザーの上半身および手元が被写界に収まり、ユーザーが腕や手指によりポーズをとっている場合に、その略すべてが被写界に収まる。また、第2撮像モードでは、表示装置50は被写界に収まらない。
したがって、本実施形態の第1撮像モードおよび第2撮像モードでは、生成される画像信号に基づく画像データに含まれる被写体が異なる。
第1撮像モードでは、図4Aに示すように、主にユーザーの手元が被写界に収まり、ユーザーから見て、手元の背後(後方)において、表示装置50が被写界に収まる場合もある。また、第1撮像モードでは、ユーザーの頭部は被写界に収まらず、例えばユーザーが両腕を上げたり、肩の近傍で手指によりポーズをとったりしている場合には、それらの部分は被写界に収まらない。
一方、第2撮像モードでは、図4Bに示すように、主にユーザーの上半身および手元が被写界に収まり、ユーザーが腕や手指によりポーズをとっている場合に、その略すべてが被写界に収まる。また、第2撮像モードでは、表示装置50は被写界に収まらない。
したがって、本実施形態の第1撮像モードおよび第2撮像モードでは、生成される画像信号に基づく画像データに含まれる被写体が異なる。
再び図2を参照して、情報処理装置30は、例えば通信インターフェース、プロセッサ、およびメモリを有するコンピュータによって実装され、第2の演算処理装置および第3の演算処理装置として機能する通信部31および制御部32を含む。制御部32は、プロセッサがメモリに格納された、または通信インターフェースを介して受信されたプログラムに従って動作することによって実現される判定部321、制御値算出部322、および画像生成部323の各機能を含む。以下、各部の機能についてさらに説明する。
通信部31は、HMDユニット20の情報出力部25から出力されたユーザーに関する座標情報と、姿勢情報とを受信するとともに、HMDユニット20の表示部27に表示させる表示画像を出力する。また、通信部31は、コントローラ40と相互に通信可能であるとともに、表示装置50に表示させる表示画像を出力する。
制御部32の判定部321は、座標情報に基づいて、第1撮像モードおよび第2撮像モードのいずれによる撮像が行われているかを判定する。
判定部321は、例えば、HMDユニット20から出力された座標情報のうち、ユーザーの姿勢に関する特徴点の座標情報に基づく認識を行い、座標情報にユーザーの顔または頭部が含まれる場合には、HMDユニット20により第2撮像モードで撮像が行われていると判定することができる。同様に、判定部321は、例えば、座標情報のうち、ユーザーの腕の形状に関する特徴点の座標情報に基づく認識を行い、座標情報において、ユーザーの手や拳がユーザーの腕よりも手前に存在する場合には、HMDユニット20により第2撮像モードで撮像が行われていると判定することができる。
反対に、HMDユニット20から出力された座標情報にユーザーの顔または頭部が含まれない場合、および座標情報において、ユーザーの手や拳がユーザーの腕よりも後方に存在する場合には、判定部321はHMDユニット20により第1撮像モードで撮像が行われていると判定することができる。
判定部321は、例えば、HMDユニット20から出力された座標情報のうち、ユーザーの姿勢に関する特徴点の座標情報に基づく認識を行い、座標情報にユーザーの顔または頭部が含まれる場合には、HMDユニット20により第2撮像モードで撮像が行われていると判定することができる。同様に、判定部321は、例えば、座標情報のうち、ユーザーの腕の形状に関する特徴点の座標情報に基づく認識を行い、座標情報において、ユーザーの手や拳がユーザーの腕よりも手前に存在する場合には、HMDユニット20により第2撮像モードで撮像が行われていると判定することができる。
反対に、HMDユニット20から出力された座標情報にユーザーの顔または頭部が含まれない場合、および座標情報において、ユーザーの手や拳がユーザーの腕よりも後方に存在する場合には、判定部321はHMDユニット20により第1撮像モードで撮像が行われていると判定することができる。
なお、判定部321は、上述した腕、手、および拳の相対位置に限らず、他の部位の相対位置に基づいて撮像モードの判定を行ってもよい。例えば、判定部321は、ユーザーの体の末端部分、より具体的には足および脚部の相対位置等に基づいて撮像モードの判定を行ってもよい。
また、上述した判定方法については、予め定められてもよいし、ユーザーにより設定可能としてもよい。さらに、その他の情報を組み合わせて判定を行ってもよい。例えば、HMDユニット20のIMU23により取得される姿勢情報を利用してもよい。例えば、IMU23による姿勢情報に基づいて、ユーザーとHMDユニット20との相対的な位置関係を検出し、検出した位置関係を撮像モードの判定に用いてもよい。また、HMDユニット20のIMU23により取得される姿勢情報のみに基づいて撮像モードの判定を行ってもよい。
また、上述した判定方法については、予め定められてもよいし、ユーザーにより設定可能としてもよい。さらに、その他の情報を組み合わせて判定を行ってもよい。例えば、HMDユニット20のIMU23により取得される姿勢情報を利用してもよい。例えば、IMU23による姿勢情報に基づいて、ユーザーとHMDユニット20との相対的な位置関係を検出し、検出した位置関係を撮像モードの判定に用いてもよい。また、HMDユニット20のIMU23により取得される姿勢情報のみに基づいて撮像モードの判定を行ってもよい。
また、HMDユニット20により生成されるRGB画像信号213に対する被写体解析を行い、ユーザーの背後(後方)に矩形部分の被写体が含まれる場合には、表示装置50が被写界に収められていると推定し、HMDユニット20により第1撮像モードで撮像が行われていると判定してもよい。
さらに、装着部20AによるHMDユニット20の装着状態を検出する装着センサをHMDユニット20に備え、装着センサにより検出した装着状態に応じて判定を行ってもよい。例えば、装着状態が「HMDユニット20がユーザーに装着されている」ことを示す場合には第1撮像モードで撮像が行われていると判定し、装着状態が「HMDユニット20がユーザーに装着されていない」ことを示す場合には第2撮像モードで撮像が行われていると判定してもよい。装着センサは、装着部20Aの構成に応じて、例えば、接触センサ、着脱センサ、スイッチなどにより構成することができる。また、装着センサに代えて、または加えて、HMDユニット20がテーブルなどに載置されているか否かを検出する接触センサおよび姿勢センサなどを備えてもよい。
さらに、装着部20AによるHMDユニット20の装着状態を検出する装着センサをHMDユニット20に備え、装着センサにより検出した装着状態に応じて判定を行ってもよい。例えば、装着状態が「HMDユニット20がユーザーに装着されている」ことを示す場合には第1撮像モードで撮像が行われていると判定し、装着状態が「HMDユニット20がユーザーに装着されていない」ことを示す場合には第2撮像モードで撮像が行われていると判定してもよい。装着センサは、装着部20Aの構成に応じて、例えば、接触センサ、着脱センサ、スイッチなどにより構成することができる。また、装着センサに代えて、または加えて、HMDユニット20がテーブルなどに載置されているか否かを検出する接触センサおよび姿勢センサなどを備えてもよい。
ここまで説明した各判定方法では撮像モードを判定できない場合、ユーザーに特定のポーズをとることを促して判定を行ってもよい。例えば、制御部32は、HMDユニット20の表示部27、および表示装置50の表示部52に「両手の手のひらを見せてください」等のメッセージを表示する。
HMDユニット20により第1撮像モードで撮像が行われている場合、図4Aに示すように、ユーザーは手のひらを頭部に装着したHMDユニット20の方に向ける。そのため、HMDユニット20から出力された座標情報においては、ユーザーの両手の親指が外側に向くことになる。
一方、HMDユニット20により第2撮像モードで撮像が行われている場合、図4Bに示すように、ユーザーは手のひらをテーブル等に載置したHMDユニット20の方に向ける。そのため、HMDユニット20から出力された座標情報においては、ユーザーの両手の親指が内側に向くことになる。
いずれの場合も、手が上向きであるか下向きであるか、および腕が交差しているか否か等を組み合わせて判定を行うことにより、より正確な判定を行うことができる。
HMDユニット20により第1撮像モードで撮像が行われている場合、図4Aに示すように、ユーザーは手のひらを頭部に装着したHMDユニット20の方に向ける。そのため、HMDユニット20から出力された座標情報においては、ユーザーの両手の親指が外側に向くことになる。
一方、HMDユニット20により第2撮像モードで撮像が行われている場合、図4Bに示すように、ユーザーは手のひらをテーブル等に載置したHMDユニット20の方に向ける。そのため、HMDユニット20から出力された座標情報においては、ユーザーの両手の親指が内側に向くことになる。
いずれの場合も、手が上向きであるか下向きであるか、および腕が交差しているか否か等を組み合わせて判定を行うことにより、より正確な判定を行うことができる。
以上説明したように、ユーザーに特定のポーズをとることを促し、座標情報においてそのポーズの特徴を確認することにより、撮像モードの判定を確実に行うことができる。なお、第1撮像モードおよび第2撮像モードによる座標情報において差異が発生し、識別可能なポーズであれば、上記以外のポーズを採用してもよい。
制御値算出部322は、判定部321により判定した撮像モードに応じて、HMDユニット20、コントローラ40、および表示装置50を含む外部装置へのフィードバック制御の制御値を算出する。上述したように、HMDユニット20およびコントローラ40は、ユーザー操作を受け付けるための操作装置として機能する。そこで、制御値算出部322は、HMDユニット20およびコントローラ40のいずれかを介して行われたユーザー操作に応じて、HMDユニット20、コントローラ40、および表示装置50を含む外部装置へのフィードバック制御の制御値を算出する。算出された制御値は、通信部31を介してコントローラ40に出力される。
画像生成部323は、判定部321により判定した撮像モードに応じて、ユーザーの状態を示す表示画像を生成する。より具体的には、画像生成部323は、制御値算出部322により算出した制御値に応じて、HMDユニット20の表示部27、および表示装置50の表示部52に表示する表示画像を生成する。生成された表示画像は、通信部31を介してHMDユニット20および表示装置50に出力される。なお、表示画像には、ユーザーの視点を再現したいわゆるFirst Person View画像、ユーザーを外部からみたいわゆるThird Person View画像などが含まれる。どのような表示画像を用いるかは、プレイ対象のゲームの内容や、シーン等目的に応じて定められる。
また、制御値の算出、および表示画像の生成の詳細については、後述するコントローラ40および表示装置50の構成の説明と関連して説明を行う。
また、制御値の算出、および表示画像の生成の詳細については、後述するコントローラ40および表示装置50の構成の説明と関連して説明を行う。
コントローラ40は、図2に示すように、通信部41、操作部42、力覚提示部43、振動部44、および音声出力部45を含む。ユーザーはコントローラ40を操作することによりゲームに関する各種操作を行うことができる。
通信部41は、情報処理装置30の通信部31から出力された制御値を受信して、力覚提示部43、振動部44、および音声出力部45の各部に出力する。また、通信部41は、操作部42により受け付けたユーザー操作に関する情報を、情報処理装置30に出力する。
操作部42は、ボタンおよびパッドなどの複数の操作子を備え、操作子に対するユーザーの操作入力を受け付ける。
力覚提示部43は、操作部42の少なくとも一部の操作子に設けられ、情報処理装置30から供給される制御値にしたがい、ユーザー操作に抗する、あるいは連動する力をユーザーに提示する。具体的に、力覚提示部43は、回転するロータを含むモータやアクチュエータ等で構成できる。力覚提示部43を構成する力覚提示装置については広く知られたものを採用できるので、ここでの詳しい説明を省略する。
通信部41は、情報処理装置30の通信部31から出力された制御値を受信して、力覚提示部43、振動部44、および音声出力部45の各部に出力する。また、通信部41は、操作部42により受け付けたユーザー操作に関する情報を、情報処理装置30に出力する。
操作部42は、ボタンおよびパッドなどの複数の操作子を備え、操作子に対するユーザーの操作入力を受け付ける。
力覚提示部43は、操作部42の少なくとも一部の操作子に設けられ、情報処理装置30から供給される制御値にしたがい、ユーザー操作に抗する、あるいは連動する力をユーザーに提示する。具体的に、力覚提示部43は、回転するロータを含むモータやアクチュエータ等で構成できる。力覚提示部43を構成する力覚提示装置については広く知られたものを採用できるので、ここでの詳しい説明を省略する。
振動部44は、情報処理装置30から供給される制御値にしたがい、振動を発生するものであり、例えばモータにより構成できる。振動部44は、ユーザー操作が行われた場合に振動を発生することにより、ユーザー操作が正しく行われ、情報処理装置30に認識されたことをユーザーに通知することが可能である。
音声出力部45は、情報処理装置30から供給される制御値にしたがい、音声を出力するものであり、例えばスピーカにより構成できる。音声出力部45は、ユーザー操作が行われた場合に音声を出力することにより、ユーザー操作が正しく行われ、情報処理装置30に認識されたことをユーザーに通知することが可能である。
なお、上述した力覚提示部43による力覚の提示と連動して、振動部44による振動と、音声出力部45による音声出力との少なくとも一方が行われることにより、ユーザーへのフィードバック制御の多様性を高めることが可能である。
音声出力部45は、情報処理装置30から供給される制御値にしたがい、音声を出力するものであり、例えばスピーカにより構成できる。音声出力部45は、ユーザー操作が行われた場合に音声を出力することにより、ユーザー操作が正しく行われ、情報処理装置30に認識されたことをユーザーに通知することが可能である。
なお、上述した力覚提示部43による力覚の提示と連動して、振動部44による振動と、音声出力部45による音声出力との少なくとも一方が行われることにより、ユーザーへのフィードバック制御の多様性を高めることが可能である。
情報処理装置30の制御値算出部322は、上述したように、コントローラ40へのフィードバック制御の制御値を算出するが、より具体的には、判定部321により判定された撮像モードに応じて、コントローラ40の力覚提示部43、振動部44、および音声出力部45へのフィードバック制御の制御値を算出する。
判定部321により第1撮像モードと判定された場合、制御値算出部322は、HMDユニット20による第1撮像モードでの撮像に基づく座標情報に基づいて、コントローラ40へのフィードバック制御の制御値を算出する。したがって、HMDユニット20による第1撮像モードの撮像に基づく第1の処理を行うことができる。
一方、判定部321により第2撮像モードと判定された場合、制御値算出部322は、HMDユニット20による第2撮像モードでの撮像に基づく座標情報に基づいて、コントローラ40へのフィードバック制御の制御値を算出する。したがって、HMDユニット20による第2撮像モードの撮像に基づく第2の処理を行うことができる。
判定部321により第1撮像モードと判定された場合、制御値算出部322は、HMDユニット20による第1撮像モードでの撮像に基づく座標情報に基づいて、コントローラ40へのフィードバック制御の制御値を算出する。したがって、HMDユニット20による第1撮像モードの撮像に基づく第1の処理を行うことができる。
一方、判定部321により第2撮像モードと判定された場合、制御値算出部322は、HMDユニット20による第2撮像モードでの撮像に基づく座標情報に基づいて、コントローラ40へのフィードバック制御の制御値を算出する。したがって、HMDユニット20による第2撮像モードの撮像に基づく第2の処理を行うことができる。
力覚提示部43に関して、制御値算出部322は、ユーザー操作に応じたフィードバック制御としてどのような力覚を提示させるかを示す制御値を算出する。振動部44に関して、制御値算出部322は、ユーザー操作に応じたフィードバック制御としてどのような振動を発生させるかを提示するかを示す制御値を算出する。音声出力部45に関して、制御値算出部322は、ユーザー操作に応じたフィードバック制御としてどのような音声を出力させるかを示す制御値を算出する。制御値算出部322による制御値の算出は、予め定められた計算式やテーブル等にしたがって行うことができる。
なお、ここまで説明したコントローラ40には公知の様々な構成を適用することが可能である。例えば、両手のそれぞれに把持可能な一対のコントローラにより構成されてもよいし、キーボートのような文字入力が可能なコントローラにより構成されてもよいし、スマートフォンなどのアプリケーションにより構成されてもよい。
また、コントローラ40に、音声入力部を備え、音声認識技術を適用してもよい。例えば、コントローラ40にマイクなどの音声入力部と音声認識部とを備え、ユーザーが発声するコマンドや、ユーザーの呼びかけなどを示す情報を、通信部41を介して情報処理装置30に供給してもよい。
また、コントローラ40に、音声入力部を備え、音声認識技術を適用してもよい。例えば、コントローラ40にマイクなどの音声入力部と音声認識部とを備え、ユーザーが発声するコマンドや、ユーザーの呼びかけなどを示す情報を、通信部41を介して情報処理装置30に供給してもよい。
表示装置50は、図2に示すように、受信部51、および表示部52を含む。
受信部51は、情報処理装置30の画像生成部323が生成した表示画像を示す情報を、通信部31を介して受信する。
表示部52は、例えばLCDや有機ELなどのモニタを備え、受信部51により受信した情報に基づき、表示画像を表示することにより、ユーザーに提示することが可能である。
受信部51は、情報処理装置30の画像生成部323が生成した表示画像を示す情報を、通信部31を介して受信する。
表示部52は、例えばLCDや有機ELなどのモニタを備え、受信部51により受信した情報に基づき、表示画像を表示することにより、ユーザーに提示することが可能である。
なお、システム1は、HMDユニット20の表示部27、および表示装置50の表示部52の2つの表示部を備える。表示画像は、HMDユニット20の表示部27、および表示装置50の表示部52の両方に表示されてもよいし、いずれか一方の表示部のみに表示されてもよい。例えば、第1撮像モードにおいては、ユーザーがHMDユニット20を装着していると考え、HMDユニット20の表示部27のみに表示画像を表示してもよい。また、例えば、第2撮像モードにおいては、ユーザーがHMDユニット20を装着していないと考え、表示装置50の表示部52のみに表示画像を表示してもよい。
また、上述した表示装置50には公知の様々な構成を適用することが可能である。例えば、図1Aおよび図1Bに示した専用の表示装置により構成されてもよいし、コンピュータの表示装置により構成されてもよいし、スマートフォンなどの端末装置の表示装置により構成されてもよい。また、表示部52の表面に接触を検知するタッチパネルを備えてもよい。
情報処理装置30の制御値算出部322は、上述したように、HMDユニット20の表示部27、および表示装置50の表示部52に表示する表示画像へのフィードバック制御の制御値を算出する。より具体的には、制御値算出部322は、判定部321により判定された撮像モードに応じて、表示画像へのフィードバック制御の制御値を算出する。
判定部321により第1撮像モードと判定された場合、制御値算出部322は、HMDユニット20による第1撮像モードでの撮像に基づく座標情報に基づいて、表示画像へのフィードバック制御の制御値を算出する。したがって、HMDユニット20による第1撮像モードの撮像に基づく第1の処理を行うことができる。
一方、判定部321により第2撮像モードと判定された場合、制御値算出部322は、HMDユニット20による第2撮像モードでの撮像に基づく座標情報に基づいて、表示画像へのフィードバック制御の制御値を算出する。したがって、HMDユニット20による第2撮像モードの撮像に基づく第2の処理を行うことができる。
制御値算出部322は、ユーザー操作に応じたフィードバック制御として表示画像をどのように変化させるかを示す制御値を算出する。制御値算出部322による制御値の算出は、予め定められた計算式やテーブル等にしたがって行うことができる。
判定部321により第1撮像モードと判定された場合、制御値算出部322は、HMDユニット20による第1撮像モードでの撮像に基づく座標情報に基づいて、表示画像へのフィードバック制御の制御値を算出する。したがって、HMDユニット20による第1撮像モードの撮像に基づく第1の処理を行うことができる。
一方、判定部321により第2撮像モードと判定された場合、制御値算出部322は、HMDユニット20による第2撮像モードでの撮像に基づく座標情報に基づいて、表示画像へのフィードバック制御の制御値を算出する。したがって、HMDユニット20による第2撮像モードの撮像に基づく第2の処理を行うことができる。
制御値算出部322は、ユーザー操作に応じたフィードバック制御として表示画像をどのように変化させるかを示す制御値を算出する。制御値算出部322による制御値の算出は、予め定められた計算式やテーブル等にしたがって行うことができる。
情報処理装置30の画像生成部323は、上述したように、制御値算出部322により算出した制御値に応じて、HMDユニット20の表示部27、および表示装置50の表示部52に表示する表示画像を生成する。より具体的には、画像生成部323は、表示画像を変化させるための制御値にしたがって、HMDユニット20の表示部27、および表示装置50の表示部52に表示する表示画像を新たに生成する。
図5は、第1実施形態に係るHMDユニット20の処理の例を示すフローチャートである。図示された例では、RGBカメラ21のイメージセンサ211がRGB画像信号213を生成する(ステップS101)。
そして、算出部24がユーザーに関する座標情報を算出し(ステップS102)、情報出力部25が座標情報、および姿勢情報を出力する(ステップS103)。
HMDユニット20はステップS101からステップS103の処理を繰り返すことにより、ユーザーの状態を示す各種情報を情報処理装置30に継続的に供給することが可能である。
そして、算出部24がユーザーに関する座標情報を算出し(ステップS102)、情報出力部25が座標情報、および姿勢情報を出力する(ステップS103)。
HMDユニット20はステップS101からステップS103の処理を繰り返すことにより、ユーザーの状態を示す各種情報を情報処理装置30に継続的に供給することが可能である。
図6および図7は、第1実施形態に係る情報処理装置30の処理の例を示すフローチャートである。図6に図示された例では、通信部31がHMDユニット20から供給された各種情報を取得する(ステップS201)。
そして、判定部321が、HMDユニット20から出力された座標情報にユーザーの顔または頭が含まれるか否かを判定し(ステップS202)、座標情報にユーザーの顔または頭が含まれないと判定した場合(ステップS202NO)には後述するステップS204に進み、座標情報にユーザーの顔または頭が含まれると判定した場合(ステップS202YES)には、判定部321が第2撮像モードであると判定する(ステップS203)。
そして、判定部321が、HMDユニット20から出力された座標情報にユーザーの顔または頭が含まれるか否かを判定し(ステップS202)、座標情報にユーザーの顔または頭が含まれないと判定した場合(ステップS202NO)には後述するステップS204に進み、座標情報にユーザーの顔または頭が含まれると判定した場合(ステップS202YES)には、判定部321が第2撮像モードであると判定する(ステップS203)。
座標情報にユーザーの顔または頭が含まれないと判定した場合(ステップS202NO)、判定部321が、HMDユニット20から出力された座標情報においてユーザーの手が腕より手前にあるか否かを判定し(ステップS204)、座標情報においてユーザーの手が腕より手前にないと判定した場合(ステップS204NO)には後述するステップS205に進み、座標情報においてユーザーの手が腕よりも手前にあると判定した場合(ステップS204YES)には、ステップS203に戻る。
座標情報においてユーザーの手が腕より手前にないと判定した場合(ステップS204NO)には、判定部321が第1撮像モードであると判定する(ステップS205)。
座標情報においてユーザーの手が腕より手前にないと判定した場合(ステップS204NO)には、判定部321が第1撮像モードであると判定する(ステップS205)。
なお、ステップS203またはステップS205において撮像モードを判定した後、制御部32は、再びステップS201に戻り、処理を繰り返すことにより、継続的に撮像モードの判定を行う。また、所定の時間を経過しても撮像モードの判定が行われない場合には、制御部32は、下記の処理を行ってもよい。
図7に図示された例では、制御部32は、HMDユニット20の表示部27、および表示装置50の表示部52にユーザーに特定のポーズをとることを促すメッセージを表示する(ステップS301)。ここでは例えば「両手の手のひらを見せてください」とのメッセージを表示する。
次に、通信部31がHMDユニット20から供給された各種情報を再び取得する(ステップS302)。そして、判定部321が、HMDユニット20から出力された座標情報においてユーザーの親指が外側を向いているか否かを判定し(ステップS303)、座標情報においてユーザーの親指が外側を向いていると判定した場合(ステップS303YES)には、判定部321が第1撮像モードであると判定し(ステップS304)、座標情報においてユーザーの親指が外側を向いていないと判定した場合(ステップS303NO)には、判定部321が第2撮像モードであると判定する(ステップS305)。
図7に図示された例では、制御部32は、HMDユニット20の表示部27、および表示装置50の表示部52にユーザーに特定のポーズをとることを促すメッセージを表示する(ステップS301)。ここでは例えば「両手の手のひらを見せてください」とのメッセージを表示する。
次に、通信部31がHMDユニット20から供給された各種情報を再び取得する(ステップS302)。そして、判定部321が、HMDユニット20から出力された座標情報においてユーザーの親指が外側を向いているか否かを判定し(ステップS303)、座標情報においてユーザーの親指が外側を向いていると判定した場合(ステップS303YES)には、判定部321が第1撮像モードであると判定し(ステップS304)、座標情報においてユーザーの親指が外側を向いていないと判定した場合(ステップS303NO)には、判定部321が第2撮像モードであると判定する(ステップS305)。
図7に示したように、ユーザーに特定のポーズをとることを促して判定を行う代わりに、HMDユニット20の表示部27、および表示装置50の表示部52にエラーメッセージを表示するなどしてユーザーに報知する構成としてもよい。また、図7に示したように、ユーザーに特定のポーズをとることを促して判定を行っても撮像モードの判定が行われない場合に、上述したようにユーザーに報知する構成としてもよい。
プレイ対象のゲームの内容等に応じて、ユーザーが撮像モードを変更した際には、RGBカメラ21が撮像する対象である被写体(被写界)が変化し、結果としてRGB画像信号213の内容が変化する。そして、RGB画像信号213の内容が変化すると、RGB画像信号213に基づいて算出される座標情報にその変化が反映される。上述したように、制御部32は、撮像モードを一旦判定した後、処理を繰り返す。したがって、システム1では、撮像モードの変更に追従して、座標情報に基づく撮像モードの判定を行うことができる。
以上で説明したような本発明の第1実施形態によれば、HMDユニット20は、第1画像センサであるイメージセンサ211を含み、ユーザーの一人称視点で撮像する第1撮像モード、および、ユーザーの三人称視点からユーザーを撮像する第2撮像モードのいずれかにより撮像を行う。そして、算出部24は、RGB画像信号213に基づいてユーザーを認識し、ユーザーに関する座標情報を算出する。そして、情報処理装置30の判定部321は、座標情報に基づいて、第1撮像モード、および、第2撮像モードのいずれによる撮像が行われているかを判定し、第1撮像モードと判定された場合には、制御部32は第1撮像モードにおいて算出された座標情報に基づいて第1の処理を行い、第2撮像モードと判定された場合には、制御部32は第2撮像モードにおいて算出された座標情報に基づいて第2の処理を行う。そのため、ユーザーが第1撮像モードおよび第2撮像モードに関して特別な設定等をすることなく適切な処理が可能であり、ユーザーにとって利便性が高く、正確に撮像モードに応じた処理を行うことができる。
また、第1実施形態のHMDユニット20は、ユーザーに関する座標情報を算出することによりユーザー操作を受け付けることができるため、従来のポインティングデバイス方式の操作装置のようにカーソル位置を維持するためにユーザーの肉体疲労を引き起こすこともない。また、HMDユニット20は、従来の姿勢検出方式の操作装置のように認識対象となるマーカーやアタッチメントをユーザーに装着させる必要もない。
また、第1実施形態のHMDユニット20は、ユーザーに関する座標情報を算出することによりユーザー操作を受け付けることができるため、従来のポインティングデバイス方式の操作装置のようにカーソル位置を維持するためにユーザーの肉体疲労を引き起こすこともない。また、HMDユニット20は、従来の姿勢検出方式の操作装置のように認識対象となるマーカーやアタッチメントをユーザーに装着させる必要もない。
また、第1実施形態では、座標情報は、ユーザーの姿勢に関する特徴点、ユーザーの腕の形状に関する特徴点、またはユーザーの手指の形状に関する特徴点の少なくともいずれかの座標情報を含む。したがって、特徴的なユーザーの状態を把握して座標情報を算出することができる。
また、第1実施形態では、HMDユニット20の算出部24は、複数の関節を有する人物の画像と、複数の関節の位置を示す座標情報との関係性を学習することによって構築された学習済みモデル242に基づいて、RGB画像信号213に基づく画像に含まれる人物の少なくとも1つの関節の座標情報を算出する。したがって、ユーザーに関する座標情報を的確かつ高速に算出することができる。
また、第1実施形態では、HMDユニット20をユーザーの体に装着可能な装着部20Aを備える。したがって、装着部20AによってHMDユニット20をユーザーの頭部に装着した場合には第1撮像モードによる撮像を行い、装着部20AによってHMDユニット20をユーザーの頭部に装着せずにテーブル等に載置した場合には第2撮像モードによる撮像を行うことが可能である。
<第2実施形態>
以下、図面を参照して本発明の第2実施形態について説明する。第2実施形態では、第1実施形態と異なる部分についてのみ説明し、第1実施形態と同様の部分については説明を省略する。また、第2実施形態においては、第1実施形態と実質的に同一の機能構成を有する構成要素については、同一の符号を付す。
図8は、本発明の第2実施形態に係るシステム2の全体を示す模式図であり、図9は、システム2の概略的な構成を示すブロック図である。
第2実施形態に係るシステム2は、図8に示すように、第1実施形態のシステム1に加えて、第2センサ装置であるカメラユニット60を含むゲームシステムである。また、システム2は、第1実施形態のシステム1の情報処理装置30に代えて、情報処理装置70を含む。
以下、図面を参照して本発明の第2実施形態について説明する。第2実施形態では、第1実施形態と異なる部分についてのみ説明し、第1実施形態と同様の部分については説明を省略する。また、第2実施形態においては、第1実施形態と実質的に同一の機能構成を有する構成要素については、同一の符号を付す。
図8は、本発明の第2実施形態に係るシステム2の全体を示す模式図であり、図9は、システム2の概略的な構成を示すブロック図である。
第2実施形態に係るシステム2は、図8に示すように、第1実施形態のシステム1に加えて、第2センサ装置であるカメラユニット60を含むゲームシステムである。また、システム2は、第1実施形態のシステム1の情報処理装置30に代えて、情報処理装置70を含む。
第2実施形態のシステム2において、カメラユニット60は、HMDユニット20と同様に、ゲームのプレイヤーであるユーザーに関する座標情報を算出して、情報処理装置70に送信する。つまり、カメラユニット60は、ユーザーに関する座標情報を算出して出力することにより、HMDユニット20およびコントローラ40と同様に、ユーザー操作を受け付けるための操作装置として機能する。
カメラユニット60は、第1実施形態で説明した第2撮像モードによる撮像を行うための撮像装置である。カメラユニット60の最適な配置に関しては、第1実施形態のHMDユニット20が第2撮像モードで撮像を行う場合と同様である。
カメラユニット60は、第1実施形態で説明した第2撮像モードによる撮像を行うための撮像装置である。カメラユニット60の最適な配置に関しては、第1実施形態のHMDユニット20が第2撮像モードで撮像を行う場合と同様である。
図10は、カメラユニット60の概略的な構成を示すブロック図である。
カメラユニット60は、RGBカメラ61と、IMU63と、第1の演算処理装置として機能する算出部64と、情報出力部65とを含む。RGBカメラ61、IMU63、算出部64、情報出力部65の各部は、それぞれ第1実施形態のHMDユニット20のRGBカメラ21、IMU23、算出部24、情報出力部25の各部と同様の構成を有する。
そして、RGBカメラ61は、第1実施形態のRGBカメラ21のイメージセンサ211および処理回路212と同様の構成を有するイメージセンサ611および処理回路612によって、RGB画像信号613を生成する。
算出部64は、第1実施形態の算出部24の座標算出部241および学習済みモデル242と同様の構成を有する座標算出部641および学習済みモデル642により、RGBカメラ61において生成されたRGB画像信号613に基づいて、ユーザーに関する座標情報を算出する。
情報出力部65は、算出部64により算出したユーザーに関する座標情報と、IMU63により取得した姿勢情報とを情報処理装置70に出力する。
カメラユニット60は、RGBカメラ61と、IMU63と、第1の演算処理装置として機能する算出部64と、情報出力部65とを含む。RGBカメラ61、IMU63、算出部64、情報出力部65の各部は、それぞれ第1実施形態のHMDユニット20のRGBカメラ21、IMU23、算出部24、情報出力部25の各部と同様の構成を有する。
そして、RGBカメラ61は、第1実施形態のRGBカメラ21のイメージセンサ211および処理回路212と同様の構成を有するイメージセンサ611および処理回路612によって、RGB画像信号613を生成する。
算出部64は、第1実施形態の算出部24の座標算出部241および学習済みモデル242と同様の構成を有する座標算出部641および学習済みモデル642により、RGBカメラ61において生成されたRGB画像信号613に基づいて、ユーザーに関する座標情報を算出する。
情報出力部65は、算出部64により算出したユーザーに関する座標情報と、IMU63により取得した姿勢情報とを情報処理装置70に出力する。
ここまで説明したように、カメラユニット60は、第1実施形態のHMDユニット20と同様に、RGB画像信号613の生成からユーザーに関する座標情報の算出までを単体で完結し、情報処理装置70に対してRGB画像信号613は出力せずに、算出した座標情報および姿勢情報を出力することができる。なお、カメラユニット60は、独立した電源を有することが好ましい。
カメラユニット60およびHMDユニット20のいずれを利用するかは、プレイ対象のゲームの内容等の目的に応じて異なる。
図11Aおよび図11Bは、第2実施形態における撮像モードについて説明する図である。第2実施形態のシステム2は、HMDユニット20により第1撮像モードの撮像を行い、カメラユニット60により第2撮像モードの撮像を行う。
図11Aおよび図11Bは、第2実施形態における撮像モードについて説明する図である。第2実施形態のシステム2は、HMDユニット20により第1撮像モードの撮像を行い、カメラユニット60により第2撮像モードの撮像を行う。
第1撮像モードでは、図11Aに示すように、ユーザーの頭部に装着されたHMDユニット20により撮像を行う。一方、第2撮像モードでは、図11Bに示すように、テーブル等に載置されたカメラユニット60により撮像を行う。
したがって、第1実施形態と同様に、第2実施形態の第1撮像モードおよび第2撮像モードでは、生成される画像信号に基づく画像データに含まれる被写体が異なる。
したがって、第1実施形態と同様に、第2実施形態の第1撮像モードおよび第2撮像モードでは、生成される画像信号に基づく画像データに含まれる被写体が異なる。
再び図9を参照して、情報処理装置70は、第1実施形態の情報処理装置30の通信部31に代えて通信部71を含み、制御部32に代えて制御部72を含む。
通信部71は、HMDユニット20の情報出力部25から出力されたユーザーに関する座標情報とおよび姿勢情報に加えて、カメラユニット60の情報出力部65から出力されたユーザーに関する座標情報と、姿勢情報とを受信し、HMDユニット20の表示部27に表示させる表示画像を出力する。なお、以降では区別のために、HMDユニット20の情報出力部25から出力されたユーザーに関する座標情報を座標情報C20と称し、カメラユニット60の情報出力部65から出力されたユーザーに関する座標情報を座標情報C60と称する。
通信部71は、HMDユニット20の情報出力部25から出力されたユーザーに関する座標情報とおよび姿勢情報に加えて、カメラユニット60の情報出力部65から出力されたユーザーに関する座標情報と、姿勢情報とを受信し、HMDユニット20の表示部27に表示させる表示画像を出力する。なお、以降では区別のために、HMDユニット20の情報出力部25から出力されたユーザーに関する座標情報を座標情報C20と称し、カメラユニット60の情報出力部65から出力されたユーザーに関する座標情報を座標情報C60と称する。
制御部72は、第1実施形態の情報処理装置30の制御部32の判定部321に代えて判定部721の機能を含み、制御値算出部322に代えて制御値算出部722の機能を含み、画像生成部323に代えて画像生成部723の機能を含む。
判定部721は、HMDユニット20から出力された座標情報C20またはカメラユニット60から出力された座標情報C60に基づいて、第1撮像モードおよび第2撮像モードのいずれによる撮像が行われているかを判定する。判定は第1実施形態の情報処理装置30と同様に行われる。
判定部721は、HMDユニット20から出力された座標情報C20またはカメラユニット60から出力された座標情報C60に基づいて、第1撮像モードおよび第2撮像モードのいずれによる撮像が行われているかを判定する。判定は第1実施形態の情報処理装置30と同様に行われる。
制御値算出部722は、判定部721により判定した撮像モードに応じて、HMDユニット20、コントローラ40、および表示装置50を含む外部装置へのフィードバック制御の制御値を算出する。上述したように、HMDユニット20、コントローラ40、およびカメラユニット60は、ユーザー操作を受け付けるための操作装置として機能する。そこで、制御値算出部722は、HMDユニット20、コントローラ40、およびカメラユニット60のいずれかを介して行われたユーザー操作に応じて、HMDユニット20、コントローラ40、および表示装置50を含む外部装置へのフィードバック制御の制御値を算出する。制御値の算出は第1実施形態の情報処理装置30と同様に行われる。そして、算出された制御値は、通信部71を介してコントローラ40に出力される。
画像生成部723は、判定部721により判定した撮像モードに応じて、ユーザーの状態を示す表示画像を生成する。表示画像の生成は第1実施形態の情報処理装置30と同様に行われる。
コントローラ40は、第1実施形態と同様の構成および機能を有する。
情報処理装置70の制御値算出部722は、上述したように、コントローラ40へのフィードバック制御の制御値を算出するが、判定部721により第1撮像モードと判定された場合、制御値算出部722は、HMDユニット20から出力された座標情報C20に基づいて、コントローラ40へのフィードバック制御の制御値を算出する。HMDユニット20から出力された座標情報C20を用いて制御値を算出することにより、HMDユニット20を操作装置とした第1撮像モードに基づく第1の処理を行うことができる。
一方、判定部721により第2撮像モードと判定された場合、制御値算出部722は、カメラユニット60から出力された座標情報C60に基づいて、コントローラ40へのフィードバック制御の制御値を算出する。カメラユニット60から出力された座標情報C60を用いて制御値を算出することにより、カメラユニット60を操作装置とした第2撮像モードに基づく第2の処理を行うことができる。
情報処理装置70の制御値算出部722は、上述したように、コントローラ40へのフィードバック制御の制御値を算出するが、判定部721により第1撮像モードと判定された場合、制御値算出部722は、HMDユニット20から出力された座標情報C20に基づいて、コントローラ40へのフィードバック制御の制御値を算出する。HMDユニット20から出力された座標情報C20を用いて制御値を算出することにより、HMDユニット20を操作装置とした第1撮像モードに基づく第1の処理を行うことができる。
一方、判定部721により第2撮像モードと判定された場合、制御値算出部722は、カメラユニット60から出力された座標情報C60に基づいて、コントローラ40へのフィードバック制御の制御値を算出する。カメラユニット60から出力された座標情報C60を用いて制御値を算出することにより、カメラユニット60を操作装置とした第2撮像モードに基づく第2の処理を行うことができる。
表示装置50は、第1実施形態と同様の構成および機能を有する。
情報処理装置70の制御値算出部722は、上述したように、HMDユニット20の表示部27、および表示装置50の表示部52に表示する表示画像へのフィードバック制御の制御値を算出するが、判定部721により第1撮像モードと判定された場合、制御値算出部722は、HMDユニット20から出力された座標情報C20に基づいて、表示画像へのフィードバック制御の制御値を算出する。HMDユニット20から出力された座標情報C20を用いて制御値を算出することにより、HMDユニット20を操作装置とした第1撮像モードに基づく処理を行うことができる。
一方、判定部721により第2撮像モードと判定された場合、制御値算出部722は、カメラユニット60から出力された座標情報C60に基づいて、表示画像へのフィードバック制御の制御値を算出する。カメラユニット60から出力された座標情報C60を用いて制御値を算出することにより、カメラユニット60を操作装置とした第2撮像モードに基づく処理を行うことができる。
情報処理装置70の制御値算出部722は、上述したように、HMDユニット20の表示部27、および表示装置50の表示部52に表示する表示画像へのフィードバック制御の制御値を算出するが、判定部721により第1撮像モードと判定された場合、制御値算出部722は、HMDユニット20から出力された座標情報C20に基づいて、表示画像へのフィードバック制御の制御値を算出する。HMDユニット20から出力された座標情報C20を用いて制御値を算出することにより、HMDユニット20を操作装置とした第1撮像モードに基づく処理を行うことができる。
一方、判定部721により第2撮像モードと判定された場合、制御値算出部722は、カメラユニット60から出力された座標情報C60に基づいて、表示画像へのフィードバック制御の制御値を算出する。カメラユニット60から出力された座標情報C60を用いて制御値を算出することにより、カメラユニット60を操作装置とした第2撮像モードに基づく処理を行うことができる。
図12は、第2実施形態に係る情報処理装置70の処理の例を示すフローチャートである。図示された例では、通信部71がHMDユニット20およびカメラユニット60のそれぞれから供給された各種情報を取得する(ステップS401)。
判定部721が、カメラユニット60から出力された座標情報C60にユーザーの顔または頭が含まれるか否かを判定し(ステップS402)、座標情報C60にユーザーの顔または頭が含まれないと判定した場合(ステップS402NO)には後述するステップS405に進み、座標情報C60にユーザーの顔または頭が含まれると判定した場合(ステップS402YES)には、カメラユニット60から出力された座標情報C60が使用可能か否かを判定する(ステップS403)。座標情報C60が使用可能か否かは、例えば座標情報C60に基づく制御値の算出が可能か否かに基づいて判定することができる。座標情報C60が使用可能と判定した場合(ステップS403YES)は、判定部721が第2撮像モードであると判定する(ステップS404)。一方、座標情報C60が使用可能でないと判定した場合(ステップS403NO)は、判定部721が撮像モードの判定を行うことができないため、ステップS401に戻る。
判定部721が、カメラユニット60から出力された座標情報C60にユーザーの顔または頭が含まれるか否かを判定し(ステップS402)、座標情報C60にユーザーの顔または頭が含まれないと判定した場合(ステップS402NO)には後述するステップS405に進み、座標情報C60にユーザーの顔または頭が含まれると判定した場合(ステップS402YES)には、カメラユニット60から出力された座標情報C60が使用可能か否かを判定する(ステップS403)。座標情報C60が使用可能か否かは、例えば座標情報C60に基づく制御値の算出が可能か否かに基づいて判定することができる。座標情報C60が使用可能と判定した場合(ステップS403YES)は、判定部721が第2撮像モードであると判定する(ステップS404)。一方、座標情報C60が使用可能でないと判定した場合(ステップS403NO)は、判定部721が撮像モードの判定を行うことができないため、ステップS401に戻る。
座標情報C60にユーザーの顔または頭が含まれないと判定した場合(ステップS402NO)、判定部721が、カメラユニット60から出力された座標情報C60においてユーザーの手が腕より手前にあるか否かを判定し(ステップS405)、座標情報C60においてユーザーの手が腕より手前にないと判定した場合(ステップS405NO)には後述するステップS406に進み、座標情報C60においてユーザーの手が腕よりも手前にあると判定した場合(ステップS405YES)には、ステップS403に戻る。
判定部721が、座標情報C60においてユーザーの手が腕より手前にないと判定した場合(ステップS405NO)、HMDユニット20から出力された座標情報C20が使用可能か否かを判定する(ステップS406)。座標情報C20が使用可能か否かは、座標情報C20に基づく制御値の算出が可能か否かに基づいて判定することができる。座標情報C20が使用可能と判定した場合(ステップS406YES)は、判定部721が第1撮像モードであると判定する(ステップS407)。一方、座標情報C20が使用可能でないと判定した場合(ステップS406NO)は、判定部721が撮像モードの判定を行うことができないため、ステップS401に戻る。
判定部721が、座標情報C60においてユーザーの手が腕より手前にないと判定した場合(ステップS405NO)、HMDユニット20から出力された座標情報C20が使用可能か否かを判定する(ステップS406)。座標情報C20が使用可能か否かは、座標情報C20に基づく制御値の算出が可能か否かに基づいて判定することができる。座標情報C20が使用可能と判定した場合(ステップS406YES)は、判定部721が第1撮像モードであると判定する(ステップS407)。一方、座標情報C20が使用可能でないと判定した場合(ステップS406NO)は、判定部721が撮像モードの判定を行うことができないため、ステップS401に戻る。
なお、ステップS404またはステップS407において撮像モードを判定した後、制御部72は、再びステップS401に戻り、処理を繰り返すことにより、継続的に撮像モードの判定を行う。また、所定の時間を経過しても撮像モードの判定が行われない場合には、第1実施形態の制御部32と同様に、ユーザーに特定のポーズをとることを促して判定を行う構成としてもよいし、HMDユニット20の表示部27、および表示装置50の表示部52にエラーメッセージを表示するなどしてユーザーに報知する構成としてもよい。また、ユーザーに特定のポーズをとることを促して判定を行っても撮像モードの判定が行われない場合に、上述したようにユーザーに報知する構成としてもよい。
例えば、ユーザーに「両手の手のひらを見せるポーズ」を促す場合、判定部721は、HMDユニット20から出力された座標情報C20においてユーザーの親指が外側を向いているか否かと、カメラユニット60から出力された座標情報C60においてユーザーの親指が内側を向いているか否かとの少なくとも一方を判定することにより撮像モードの判定を行うことができる。
例えば、ユーザーに「両手の手のひらを見せるポーズ」を促す場合、判定部721は、HMDユニット20から出力された座標情報C20においてユーザーの親指が外側を向いているか否かと、カメラユニット60から出力された座標情報C60においてユーザーの親指が内側を向いているか否かとの少なくとも一方を判定することにより撮像モードの判定を行うことができる。
以上で説明したような本発明の第2実施形態によれば、システム2が第1撮像モードで撮像を行う第1撮像装置であるHMDユニット20と、第2撮像モードで撮像を行う第2撮像装置であるカメラユニット60とを含み、判定部721がHMDユニット20およびカメラユニット60の何れにより撮像が行われているかを判定する。そして、HMDユニット20により撮像が行われていると判定された場合には、制御部72はHMDユニット20から出力された座標情報C20に基づいて第1の処理を行い、カメラユニット60により撮像が行われていると判定された場合には、制御部72はカメラユニット60から出力された座標情報C60に基づいて第2の処理を行う。そのため、HMDユニット20およびカメラユニット60を併用する際にも、第1実施形態と同様の効果を得ることができる。
また、第2実施形態のカメラユニット60は、RGB画像信号613の生成からユーザーに関する座標情報の算出までをカメラユニット60で行い、RGB画像信号613は出力せずに、座標情報と、イメージセンサ611の姿勢情報とを出力することにより、通信負荷や通信遅延の問題を低減することができる。さらに、RGB画像信号613を出力する必要がないため、プライバシー保護の点でも有用である。
<第3実施形態>
以下、図面を参照して本発明の第3実施形態について説明する。第3実施形態では、第1実施形態と異なる部分についてのみ説明し、第1実施形態と同様の部分については説明を省略する。また、第3実施形態においては、第1実施形態と実質的に同一の機能構成を有する構成要素については、同一の符号を付す。
第3実施形態に係るシステム3は、図示を省略するが、第1実施形態のシステム1と同様の情報処理装置30と、コントローラ40と、表示装置50とを含むとともに、システム1のHMDユニット20に代えて、HMDユニット80を含むゲームシステムである。
以下、図面を参照して本発明の第3実施形態について説明する。第3実施形態では、第1実施形態と異なる部分についてのみ説明し、第1実施形態と同様の部分については説明を省略する。また、第3実施形態においては、第1実施形態と実質的に同一の機能構成を有する構成要素については、同一の符号を付す。
第3実施形態に係るシステム3は、図示を省略するが、第1実施形態のシステム1と同様の情報処理装置30と、コントローラ40と、表示装置50とを含むとともに、システム1のHMDユニット20に代えて、HMDユニット80を含むゲームシステムである。
図13は、システム3におけるHMDユニット80の概略的な構成を示すブロック図である。
HMDユニット80は、第1実施形態のシステム1のHMDユニット20と同様に、RGBカメラ81と、IMU83と、第1の演算処理装置として機能する算出部84と、情報出力部85と、受信部86と、表示部87とを含むとともに、第2撮像装置であるEDS(Event Driven Sensor)82を含む。RGBカメラ81、IMU83、算出部84、
情報出力部85、受信部86、表示部87の各部は、それぞれ第1実施形態のHMDユニット20のRGBカメラ21、IMU23、算出部24、情報出力部25、受信部26、表示部27の各部と同様の構成を有する。
RGBカメラ81は、第1実施形態のRGBカメラ21のイメージセンサ211および処理回路212と同様の構成を有するイメージセンサ811および処理回路812によって、RGB画像信号813を生成する。
HMDユニット80は、第1実施形態のシステム1のHMDユニット20と同様に、RGBカメラ81と、IMU83と、第1の演算処理装置として機能する算出部84と、情報出力部85と、受信部86と、表示部87とを含むとともに、第2撮像装置であるEDS(Event Driven Sensor)82を含む。RGBカメラ81、IMU83、算出部84、
情報出力部85、受信部86、表示部87の各部は、それぞれ第1実施形態のHMDユニット20のRGBカメラ21、IMU23、算出部24、情報出力部25、受信部26、表示部27の各部と同様の構成を有する。
RGBカメラ81は、第1実施形態のRGBカメラ21のイメージセンサ211および処理回路212と同様の構成を有するイメージセンサ811および処理回路812によって、RGB画像信号813を生成する。
EDS82は、センサアレイを構成する第2画像センサであるセンサ821と、センサ821に接続される処理回路822とを含む。センサ821は、受光素子を含み、画素ごとに入射する光の強度変化、より具体的には予め定めた所定の値を超える輝度変化を検出したときに第2画像信号であるイベント信号823を生成するイベント駆動型のビジョンセンサである。処理回路822を経て出力されるイベント信号823は、センサ821の識別情報(例えばピクセルの位置)と、輝度変化の極性(上昇または低下)と、タイムスタンプとを含む。また、輝度変化を検出した際に、EDS82は、RGB画像信号813の生成頻度(RGBカメラ81のフレームレート)より大幅に高い頻度でイベント信号823を生成することができる。
なお、本明細書では、上述したように、当該信号に基づいて画像を構築可能な信号を画像信号という。したがって、RGB画像信号813およびイベント信号823は、画像信号の一例を示す。
なお、本明細書では、上述したように、当該信号に基づいて画像を構築可能な信号を画像信号という。したがって、RGB画像信号813およびイベント信号823は、画像信号の一例を示す。
第3実施形態において、RGB画像信号813およびイベント信号823に与えられるタイムスタンプは同期している。具体的には、例えば、EDS82でタイムスタンプを生成するために用いられる時刻情報をRGBカメラ81に提供することによって、RGB画像信号813およびイベント信号823に与えられるタイムスタンプを同期させることができる。あるいは、タイムスタンプを生成するための時刻情報がRGBカメラ81とEDS82とでそれぞれ独立している場合、特定のイベント(例えば、画像全体にわたる被写体の変化)が発生した時刻を基準にしてタイムスタンプのオフセット量を算出することによって、事後的にRGB画像信号813およびイベント信号823に与えられるタイムスタンプを同期させることができる。
また、第3実施形態では、事前に実行されるRGBカメラ81とEDS82とのキャリブレーション手順によって、EDS82のセンサ821がRGB画像信号813の1または複数のピクセルに対応付けられ、イベント信号823はRGB画像信号813の1または複数のピクセルにおける光の強度変化に応じて生成される。より具体的には、例えば、RGBカメラ81とEDS82とで共通の校正パターンを撮像し、RGBカメラ81およびEDS82のぞれぞれの内部パラメータおよび外部パラメータからカメラとセンサとの間の対応パラメータを算出することによって、RGB画像信号813の1または複数のピクセルにセンサ821を対応付けることができる。
IMU83は、イメージセンサ811およびセンサ821の姿勢を検出する慣性センサであり、所定の周期で、または、所定のタイミングでイメージセンサ811およびセンサ821の三次元の姿勢情報を取得し、姿勢情報を情報出力部85に出力する。
算出部84は、座標算出部841、および学習済みモデル842を含み、EDS82において生成されたイベント信号823と、RGBカメラ81において生成されたRGB画像信号813とに基づいて、ユーザーに関する座標情報を算出する。
算出部84の座標算出部841は、例えば、イベント信号823において同じ極性のイベントが発生していることが示される連続した画素領域に存在するオブジェクトを検出し、RGB画像信号813の対応する部分に基づいて被写体認識を行うことによりユーザーを認識する。カメラユニット60の被写界に複数のユーザーが含まれる場合、座標算出部841は、それぞれのユーザーを識別する。
そして、座標算出部841は、認識したユーザーごとに、学習済みモデル842に基づいて、RGB画像信号813からユーザーが有する複数の関節の位置を示す座標情報を算出する。ユーザーが有する複数の関節の位置は、ユーザーの姿勢に関する特徴点、ユーザーの腕の形状に関する特徴点、またはユーザーの手指の形状に関する特徴点に相当する。
学習済みモデル842については、第1実施形態と同様であるため説明を省略する。
算出部84の座標算出部841は、例えば、イベント信号823において同じ極性のイベントが発生していることが示される連続した画素領域に存在するオブジェクトを検出し、RGB画像信号813の対応する部分に基づいて被写体認識を行うことによりユーザーを認識する。カメラユニット60の被写界に複数のユーザーが含まれる場合、座標算出部841は、それぞれのユーザーを識別する。
そして、座標算出部841は、認識したユーザーごとに、学習済みモデル842に基づいて、RGB画像信号813からユーザーが有する複数の関節の位置を示す座標情報を算出する。ユーザーが有する複数の関節の位置は、ユーザーの姿勢に関する特徴点、ユーザーの腕の形状に関する特徴点、またはユーザーの手指の形状に関する特徴点に相当する。
学習済みモデル842については、第1実施形態と同様であるため説明を省略する。
情報出力部85は、算出部84により算出したユーザーに関する座標情報、およびIMU83により取得した姿勢情報を情報処理装置30に出力する。
受信部86および表示部87は、第1実施形態のHMDユニット20の受信部26および表示部27と同様の構成を有する。
受信部86および表示部87は、第1実施形態のHMDユニット20の受信部26および表示部27と同様の構成を有する。
ここまで説明したように、HMDユニット80は、第1実施形態のHMDユニット20と同様に、RGB画像信号813およびイベント信号823の生成からユーザーに関する座標情報の算出までを単体で完結し、情報処理装置30に対してRGB画像信号813およびイベント信号823は出力せずに、算出した座標情報および姿勢情報を出力することができる。なお、HMDユニット80は、第1実施形態のHMDユニット20と同様に、独立した電源を有することが好ましい。
情報処理装置30、コントローラ40、表示装置50の各部は、第1実施形態と同様の構成および機能を有する。
図14は、第3実施形態に係るHMDユニット80の処理の例を示すフローチャートである。図示された例では、RGBカメラ81のイメージセンサ811がRGB画像信号813を生成する(ステップS501)とともに、EDS82のセンサ821がイベント信号823を生成する(ステップS502)。
そして、算出部84がユーザーに関する座標情報を算出し(ステップS503)、情報出力部85が座標情報および姿勢情報を出力する(ステップS504)。
HMDユニット80はステップS501からステップS504の処理を繰り返すことにより、ユーザーの状態を示す各種情報を情報処理装置30に継続的に供給することが可能である。
そして、算出部84がユーザーに関する座標情報を算出し(ステップS503)、情報出力部85が座標情報および姿勢情報を出力する(ステップS504)。
HMDユニット80はステップS501からステップS504の処理を繰り返すことにより、ユーザーの状態を示す各種情報を情報処理装置30に継続的に供給することが可能である。
情報処理装置30における処理は、第1実施形態と同様であるため、フローチャートの図示および説明を省略する。
以上で説明したような本発明の第3実施形態では、HMDユニット80は、イメージセンサ811およびセンサ821によりそれぞれ生成したRGB画像信号813およびイベント信号823に基づいて、ユーザーに関する座標情報を算出して情報処理装置30に出力する。したがって、第1実施形態と同様に、ユーザーが第1撮像モードおよび第2撮像モードに関して特別な設定等をすることなく適切な処理が可能であり、ユーザーにとって利便性が高く、正確に撮像モードに応じた処理を行うことができる。さらに、イベント信号823を生成するセンサ821を利用することにより、レイテンシを抑えつつ、正確に撮像モードに応じた処理を行うことができる。
なお、第3実施形態では、第1実施形態のシステム1におけるHMDユニット20に代えて、RGBカメラ81に加えてEDS82を有するHMDユニット80を含むシステム3を例に挙げて説明した。しかし、第2実施形態のシステム2のHMDユニット20に代えて、RGBカメラに加えてEDSを有するHMDユニットを含む構成としてもよい。さらに、第2実施形態のシステム2のカメラユニット60に代えて、RGBカメラに加えてEDSを有するカメラユニットを含む構成としてもよい。いずれの場合も、イベント信号を生成するセンサを利用することにより、レイテンシを抑えつつ、正確に撮像モードに応じた処理を行うことができる。
<第4実施形態>
以下、図面を参照して本発明の第4実施形態について説明する。第4実施形態では、第1実施形態と異なる部分についてのみ説明し、第1実施形態と同様の部分については説明を省略する。また、第4実施形態においては、第1実施形態と実質的に同一の機能構成を有する構成要素については、同一の符号を付す。
図15は、第4実施形態に係るシステム4の概略的な構成を示すブロック図である。
第4実施形態に係るシステム4は、図15に示すように、第1実施形態のシステム1の情報処理装置30に代えて、サーバ90および端末装置100を含むゲームシステムである。
以下、図面を参照して本発明の第4実施形態について説明する。第4実施形態では、第1実施形態と異なる部分についてのみ説明し、第1実施形態と同様の部分については説明を省略する。また、第4実施形態においては、第1実施形態と実質的に同一の機能構成を有する構成要素については、同一の符号を付す。
図15は、第4実施形態に係るシステム4の概略的な構成を示すブロック図である。
第4実施形態に係るシステム4は、図15に示すように、第1実施形態のシステム1の情報処理装置30に代えて、サーバ90および端末装置100を含むゲームシステムである。
サーバ90は、HMDユニット20および端末装置100とインターネット通信網や、無線によって通信可能に接続されたサーバ(例えば、クラウドサーバ)である。サーバ90は、第1実施形態の情報処理装置30と同様の構成を有し、HMDユニット20により出力された情報に基づく各種処理を行う。また、端末装置100は、通信部101を備え、通信部101は、サーバ90から出力された情報を受信する。また、通信部101は、第1実施形態の情報処理装置30の通信部31と同様に、コントローラ40と相互に通信可能であるとともに、HMDユニット20および表示装置50に表示させる画像を出力する。
このような構成により、RGB画像信号213の生成から座標情報の算出までをHMDユニット20で行い、サーバ90には座標情報のみを出力することにより、クラウドサーバなどのサーバを用いたゲームシステムにおいても同様の効果を得ることができる。
さらに、第2実施形態で説明したシステム2および第3実施形態で説明したシステム3についても、同様にサーバを適用することにより、同様の効果を得ることができる。
このような構成により、RGB画像信号213の生成から座標情報の算出までをHMDユニット20で行い、サーバ90には座標情報のみを出力することにより、クラウドサーバなどのサーバを用いたゲームシステムにおいても同様の効果を得ることができる。
さらに、第2実施形態で説明したシステム2および第3実施形態で説明したシステム3についても、同様にサーバを適用することにより、同様の効果を得ることができる。
なお、上記の各実施形態において情報処理装置で行った処理の一部をHMDユニットおよびカメラユニットで行う構成としてもよい。例えば、第1実施形態の情報処理装置30における判定部321の機能をHMDユニット20内に備えてもよい。また、例えば、第2実施形態の情報処理装置70における判定部721の機能をHMDユニット20およびカメラユニット60内に備えてもよい。いずれの場合も、HMDユニット20およびカメラユニット60は、判定した撮像モードに応じて、座標情報の算出方法、より具体的には、学習済みモデルを変更してもよい。
また、上記の各実施形態において、HMDユニットのRGBカメラおよびEDSの数は同数であってもよいし、異なる数であってもよい。また、RGBカメラおよびEDSの数は、それぞれ1つであってもよいし、複数であってもよい。例えば、複数のRGBカメラを備える場合には、RGB画像信号を生成する被写界のレンジを拡大したり、複数のRGB画像信号から人物の状態を三次元で推定したりすることができる。また、例えば、複数のEDS12を備える場合には、イベント信号を生成する被写界のレンジを拡大したり、複数のイベント信号に基づいて、人物の三次元の移動量を算出したりすることができる。カメラユニットのRGBカメラおよびEDSについても同様である。
また、上記の各実施形態で説明されたHMDユニットおよびカメラユニットは、単一の装置内で実装されてもよいし、複数の装置に分散して実装されてもよい。例えば、各センサの少なくとも一部を独立に備え、その他の構成をHMDユニットおよびカメラユニット本体として実装してもよい。
以上、添付図面を参照しながら本発明のいくつかの実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
1・2・3・4…システム、20・80…HMDユニット、21・61・81…RGBカメラ、23・63・83…IMU、24・64・84…算出部、25・65・85…情報出力部、26・51・86…受信部、27・52・87…表示部、30・70…情報処理装置、31・41・71・101…通信部、32・72…制御部、40…コントローラ、42…操作部、43…力覚提示部、44…振動部、45…音声出力部、50…表示装置、60…カメラユニット、82…EDS、90…サーバ、100…端末装置、211・611・811…イメージセンサ、212・612・812・822…処理回路、213・613・813…RGB画像信号、241・641・841…座標算出部、242・642・842…学習済みモデル、321・721…判定部、322・722…制御値算出部、323・723…画像生成部、821…センサ、823…イベント信号。
Claims (17)
- 所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、前記ユーザーの三人称視点から前記ユーザーを撮像する第2撮像モードのいずれかにより撮像を行う撮像装置と、
前記第1画像信号に基づいて前記ユーザーを認識し、前記第1画像信号に基づいて、前記ユーザーに関する座標情報を算出する第1の演算処理装置と、
前記座標情報に基づいて、前記第1撮像モード、および、前記第2撮像モードのいずれによる撮像が行われているかを判定する第2の演算処理装置と、
前記第1撮像モードと判定された場合には、前記第1撮像モードにおいて算出された前記座標情報に基づいて第1の処理を行い、前記第2撮像モードと判定された場合には、前記第2撮像モードにおいて算出された前記座標情報に基づいて第2の処理を行う第3の演算処理装置と、を備えるシステム。 - 前記座標情報は、前記ユーザーの姿勢に関する特徴点、前記ユーザーの腕の形状に関する特徴点、または前記ユーザーの手指の形状に関する特徴点の少なくともいずれかの座標情報を含む、請求項1に記載のシステム。
- 前記第1の演算処理装置は、複数の関節を有する人物の画像と、前記複数の関節の位置を示す座標情報との関係性を学習することによって構築された学習済みモデルに基づいて、前記ユーザーの少なくとも1つの関節を前記特徴点とした前記座標情報を算出する、請求項2に記載のシステム。
- 少なくとも前記撮像装置を前記ユーザーの体に装着可能な装着部を備える、請求項1から請求項3のいずれか1項に記載のシステム。
- 前記装着部は、前記撮像装置を前記ユーザーの頭部に装着可能である、請求項4に記載のシステム。
- 前記撮像装置と、前記第1の演算処理装置と含むセンサ装置と、
前記第2の演算処理装置および前記第3の演算処理装置を含む情報処理装置と、を含むシステムであって、
前記センサ装置は、前記座標情報を前記情報処理装置に出力する、請求項4または請求項5に記載のシステム。 - 前記撮像装置は、前記第1撮像モードで撮像を行う第1撮像装置と、前記第2撮像モードで撮像を行う第2撮像装置とを含み、
前記第2の演算処理装置は、前記第1撮像装置および前記第2撮像装置のいずれにより撮像が行われているかを判定し、
前記第3の演算処理装置は、前記第1撮像装置と判定された場合には、前記第1撮像装置により生成された前記第1画像信号に基づいて算出された前記座標情報に基づいて前記第1の処理を行い、前記第2撮像装置と判定された場合には、前記第2撮像装置により生成された前記第1画像信号に基づいて算出された前記座標情報に基づいて前記第2の処理を行う、請求項1から請求項3のいずれか1項に記載のシステム。 - 少なくとも前記第1撮像装置を前記ユーザーの体に装着可能な装着部を備える、請求項7に記載のシステム。
- 前記装着部は、前記第1撮像装置を前記ユーザーの頭部に装着可能である、請求項8に記載のシステム。
- 前記第1撮像装置と、前記第1の演算処理装置と含む第1センサ装置と、
前記第2撮像装置と、前記第1の演算処理装置と含む第2センサ装置と、
前記第2の演算処理装置および前記第3の演算処理装置を含む情報処理装置と、を含むシステムであって、
前記第1センサ装置および前記第2センサ装置は、前記座標情報を前記情報処理装置に出力する、請求項7から請求項9のいずれか1項に記載のシステム。 - 前記撮像装置は、前記第1画像センサに加えて、画素ごとに入射する光の強度変化を検出したときに非同期的に第2画像信号を生成するイベント駆動型のビジョンセンサを含む第2画像センサを含み、
前記第1の演算処理装置は、前記第1画像信号および前記第2画像信号に基づいて、前記ユーザーの認識と、前記座標情報の算出との少なくとも一方を行う、請求項1から請求項10のいずれか1項に記載のシステム。 - 所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、前記ユーザーの三人称視点から前記ユーザーを撮像する第2撮像モードのいずれかにより撮像を行う撮像部と、
前記第1画像信号に基づいて前記ユーザーを認識し、前記第1画像信号に基づいて、前記ユーザーに関する座標情報を算出する演算処理部と、
前記座標情報を出力する情報出力部と、を備える撮像装置。 - 前記座標情報は、前記ユーザーの姿勢に関する特徴点、前記ユーザーの腕の形状に関する特徴点、または前記ユーザーの手指の形状に関する特徴点の少なくともいずれかの座標情報を含む、請求項12に記載の撮像装置。
- 前記演算処理部は、複数の関節を有する人物の画像と、前記複数の関節の位置を示す座標情報との関係性を学習することによって構築された学習済みモデルに基づいて、前記ユーザーの少なくとも1つの関節を前記特徴点とした前記座標情報を算出する、請求項13に記載の撮像装置。
- 所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、前記ユーザーの三人称視点から前記ユーザーを撮像する第2撮像モードのいずれかにより撮像を行い、前記第1画像信号に基づいて前記ユーザーを認識し、前記第1画像信号に基づいて前記ユーザーに関する座標情報を算出し、前記座標情報を出力する撮像装置から、前記座標情報を取得する取得部と、
前記座標情報に基づいて、前記第1撮像モード、および、前記第2撮像モードのいずれによる撮像が行われているかを判定する第1の演算処理部と、
前記第1撮像モードと判定された場合には、前記第1撮像モードにおいて算出された前記座標情報に基づいて第1の処理を行い、前記第2撮像モードと判定された場合には、前記第2撮像モードにおいて算出された前記座標情報に基づいて第2の処理を行う第2の演算処理部と、を備える情報処理装置。 - 所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、前記ユーザーの三人称視点から前記ユーザーを撮像する第2撮像モードのいずれかにより撮像を行う撮像装置から、前記第1画像信号を取得する取得ステップと、
前記第1画像信号に基づいて前記ユーザーを認識し、前記第1画像信号に基づいて、前記ユーザーに関する座標情報を算出する算出ステップと、
前記座標情報に基づいて、前記第1撮像モード、および、前記第2撮像モードのいずれによる撮像が行われているかを判定する判定ステップと、
前記第1撮像モードと判定された場合には、前記第1撮像モードにおいて算出された前記座標情報に基づいて第1の処理を行い、前記第2撮像モードと判定された場合には、前記第2撮像モードにおいて算出された前記座標情報に基づいて第2の処理を行う処理ステップと
を含む情報処理方法。 - 所定のタイミングで全画素を同期的にスキャンすることによって第1画像信号を生成する第1画像センサを含み、ユーザーの一人称視点で撮像する第1撮像モード、および、前記ユーザーの三人称視点から前記ユーザーを撮像する第2撮像モードのいずれかにより撮像を行う撮像装置から、前記第1画像信号を取得する機能と、
前記第1画像信号に基づいて前記ユーザーを認識し、前記第1画像信号に基づいて、前記ユーザーに関する座標情報を算出する機能と、
前記座標情報に基づいて、前記第1撮像モード、および、前記第2撮像モードのいずれによる撮像が行われているかを判定する機能と、
前記第1撮像モードと判定された場合には、前記第1撮像モードにおいて算出された前記座標情報に基づいて第1の処理を行い、前記第2撮像モードと判定された場合には、前記第2撮像モードにおいて算出された前記座標情報に基づいて第2の処理を行う機能と
をコンピュータに実現させる情報処理プログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP21897808.8A EP4252871A4 (en) | 2020-11-25 | 2021-11-16 | SYSTEM, IMAGING DEVICE, INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING PROGRAM |
| US18/253,070 US12401883B2 (en) | 2020-11-25 | 2021-11-16 | System, imaging apparatus, information processing apparatus, information processing method, and information processing program |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020-195149 | 2020-11-25 | ||
| JP2020195149A JP7394046B2 (ja) | 2020-11-25 | 2020-11-25 | システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2022113834A1 true WO2022113834A1 (ja) | 2022-06-02 |
Family
ID=81755960
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2021/042137 Ceased WO2022113834A1 (ja) | 2020-11-25 | 2021-11-16 | システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US12401883B2 (ja) |
| EP (1) | EP4252871A4 (ja) |
| JP (1) | JP7394046B2 (ja) |
| WO (1) | WO2022113834A1 (ja) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7434207B2 (ja) * | 2021-04-13 | 2024-02-20 | 株式会社ソニー・インタラクティブエンタテインメント | システム、情報処理方法および情報処理プログラム |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20090131171A1 (en) | 2007-11-16 | 2009-05-21 | Sony Computer Entertainment Inc. | Game System and Game Controller |
| JP2014115457A (ja) * | 2012-12-10 | 2014-06-26 | Sony Corp | 情報処理装置および記録媒体 |
| JP2014127987A (ja) * | 2012-12-27 | 2014-07-07 | Sony Corp | 情報処理装置および記録媒体 |
| US20150109528A1 (en) * | 2013-10-21 | 2015-04-23 | Postech Academy-Industry Foundation | Apparatus and method for providing motion haptic effect using video analysis |
| JP2019213764A (ja) * | 2018-06-14 | 2019-12-19 | 株式会社バンダイナムコスタジオ | シミュレーションシステム |
Family Cites Families (27)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6766036B1 (en) * | 1999-07-08 | 2004-07-20 | Timothy R. Pryor | Camera based man machine interfaces |
| KR100840023B1 (ko) * | 2007-11-13 | 2008-06-20 | (주)올라웍스 | 셀프 촬영 시 얼굴의 구도를 잡도록 도와주는 방법 및시스템 |
| US8538072B2 (en) * | 2008-08-27 | 2013-09-17 | Imprivata, Inc. | Systems and methods for operator detection |
| US20100295782A1 (en) * | 2009-05-21 | 2010-11-25 | Yehuda Binder | System and method for control based on face ore hand gesture detection |
| CN101827219B (zh) * | 2010-01-22 | 2014-07-16 | 中兴通讯股份有限公司 | 无线终端中主从模式双摄像头控制方法及装置 |
| JP5300777B2 (ja) * | 2010-03-31 | 2013-09-25 | 株式会社バンダイナムコゲームス | プログラム及び画像生成システム |
| US8350919B2 (en) * | 2010-09-09 | 2013-01-08 | Vizio, Inc. | Configuration of a device based upon orientation |
| US8643741B2 (en) * | 2012-01-17 | 2014-02-04 | Apple Inc. | Orientation detection using image processing |
| US10002297B2 (en) * | 2012-06-20 | 2018-06-19 | Imprivata, Inc. | Active presence detection with depth sensing |
| US20140184854A1 (en) * | 2012-12-28 | 2014-07-03 | Motorola Mobility Llc | Front camera face detection for rear camera zoom function |
| JP6143469B2 (ja) * | 2013-01-17 | 2017-06-07 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
| KR102020636B1 (ko) * | 2013-06-07 | 2019-09-10 | 삼성전자주식회사 | 카메라에 기반한 전자 장치의 제어 방법, 저장 매체 및 전자 장치 |
| US9630105B2 (en) * | 2013-09-30 | 2017-04-25 | Sony Interactive Entertainment Inc. | Camera based safety mechanisms for users of head mounted displays |
| US9536351B1 (en) * | 2014-02-03 | 2017-01-03 | Bentley Systems, Incorporated | Third person view augmented reality |
| US9363426B2 (en) * | 2014-05-29 | 2016-06-07 | International Business Machines Corporation | Automatic camera selection based on device orientation |
| JP6426484B2 (ja) * | 2015-01-28 | 2018-11-21 | 京セラ株式会社 | 携帯端末 |
| JP6691351B2 (ja) * | 2015-03-31 | 2020-04-28 | 株式会社バンダイナムコエンターテインメント | プログラム及びゲームシステム |
| US9860452B2 (en) * | 2015-05-13 | 2018-01-02 | Lenovo (Singapore) Pte. Ltd. | Usage of first camera to determine parameter for action associated with second camera |
| WO2017150795A1 (en) * | 2016-02-29 | 2017-09-08 | Samsung Electronics Co., Ltd. | Video display apparatus and method for reducing vr sickness |
| US9832368B1 (en) * | 2016-05-31 | 2017-11-28 | Motorola Mobility Llc | Managing unintended camera clicks |
| US10095461B2 (en) * | 2016-09-23 | 2018-10-09 | Intel IP Corporation | Outside-facing display for head-mounted displays |
| US10440261B2 (en) * | 2017-04-03 | 2019-10-08 | International Business Machines Corporation | Automatic selection of a camera based on facial detection |
| US10430966B2 (en) * | 2017-04-05 | 2019-10-01 | Intel Corporation | Estimating multi-person poses using greedy part assignment |
| US10803616B1 (en) * | 2017-04-13 | 2020-10-13 | Facebook Technologies, Llc | Hand calibration using single depth camera |
| US20180356880A1 (en) * | 2017-04-14 | 2018-12-13 | Colopl, Inc. | Information processing method and apparatus, and program for executing the information processing method on computer |
| US10688396B2 (en) * | 2017-04-28 | 2020-06-23 | Sony Interactive Entertainment Inc. | Second screen virtual window into VR environment |
| US10812731B2 (en) * | 2018-08-22 | 2020-10-20 | Qualcomm Incorporated | Adjustable receiver exposure times for active depth sensing systems |
-
2020
- 2020-11-25 JP JP2020195149A patent/JP7394046B2/ja active Active
-
2021
- 2021-11-16 WO PCT/JP2021/042137 patent/WO2022113834A1/ja not_active Ceased
- 2021-11-16 EP EP21897808.8A patent/EP4252871A4/en active Pending
- 2021-11-16 US US18/253,070 patent/US12401883B2/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20090131171A1 (en) | 2007-11-16 | 2009-05-21 | Sony Computer Entertainment Inc. | Game System and Game Controller |
| JP2014115457A (ja) * | 2012-12-10 | 2014-06-26 | Sony Corp | 情報処理装置および記録媒体 |
| JP2014127987A (ja) * | 2012-12-27 | 2014-07-07 | Sony Corp | 情報処理装置および記録媒体 |
| US20150109528A1 (en) * | 2013-10-21 | 2015-04-23 | Postech Academy-Industry Foundation | Apparatus and method for providing motion haptic effect using video analysis |
| JP2019213764A (ja) * | 2018-06-14 | 2019-12-19 | 株式会社バンダイナムコスタジオ | シミュレーションシステム |
Non-Patent Citations (1)
| Title |
|---|
| See also references of EP4252871A4 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20230353860A1 (en) | 2023-11-02 |
| EP4252871A1 (en) | 2023-10-04 |
| JP2022083680A (ja) | 2022-06-06 |
| JP7394046B2 (ja) | 2023-12-07 |
| US12401883B2 (en) | 2025-08-26 |
| EP4252871A4 (en) | 2024-09-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN114365555B (zh) | 人工现实设备之间的时间同步 | |
| US10620699B2 (en) | Head mounted display, mobile information terminal, image processing apparatus, display control program, display control method, and display system | |
| CN116348836A (zh) | 增强现实中用于交互式游戏控制的手势跟踪 | |
| CN112312979A (zh) | 电磁场上的头戴式显示器与控制器的时钟同步 | |
| US20190240573A1 (en) | Method for controlling characters in virtual space | |
| US20100128112A1 (en) | Immersive display system for interacting with three-dimensional content | |
| US20120135803A1 (en) | Game device utilizing stereoscopic display, method of providing game, recording medium storing game program, and game system | |
| JP2003337963A (ja) | 画像処理装置および画像処理方法、ならびに、画像処理プログラムおよびその記録媒体 | |
| WO2019155840A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
| KR20150040580A (ko) | 가상 공간 멀티 터치 인터랙션 장치 및 방법 | |
| US11567330B2 (en) | Display control apparatus, display control method, and display control program | |
| US10369468B2 (en) | Information processing apparatus, image generating method, and program | |
| JP7300436B2 (ja) | 情報処理装置、システム、情報処理方法および情報処理プログラム | |
| WO2022113834A1 (ja) | システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム | |
| JP7513564B2 (ja) | システム、情報処理方法および情報処理プログラム | |
| CN118747039A (zh) | 用于移动虚拟对象的方法、装置、电子设备和存储介质 | |
| JP7434207B2 (ja) | システム、情報処理方法および情報処理プログラム | |
| US20210349533A1 (en) | Information processing method, information processing device, and information processing system | |
| US20240252924A1 (en) | Information processing apparatus, information processing method, and driving data generation method | |
| EP4610785A1 (en) | Input device, control apparatus, control method, information processing apparatus, and information processing method | |
| JP2025078532A (ja) | 情報処理装置、情報処理装置のシステム、情報処理装置の制御方法、プログラム | |
| JP2020101902A (ja) | 所定のコンテンツを有する仮想空間を提供する方法 | |
| KR20250002501A (ko) | Xr 디바이스, xr 디바이스의 컨트롤러 장치, 이들을 이용한 xr 디바이스의 동작 방법 | |
| JPH09305788A (ja) | 情報処理装置 | |
| KR20250019680A (ko) | 정보 처리 장치, 컨트롤러 표시 방법 및 컴퓨터 프로그램 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21897808 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| ENP | Entry into the national phase |
Ref document number: 2021897808 Country of ref document: EP Effective date: 20230626 |
|
| WWG | Wipo information: grant in national office |
Ref document number: 18253070 Country of ref document: US |