[go: up one dir, main page]

WO2005071619A1 - 画像生成方法 - Google Patents

画像生成方法 Download PDF

Info

Publication number
WO2005071619A1
WO2005071619A1 PCT/JP2005/000582 JP2005000582W WO2005071619A1 WO 2005071619 A1 WO2005071619 A1 WO 2005071619A1 JP 2005000582 W JP2005000582 W JP 2005000582W WO 2005071619 A1 WO2005071619 A1 WO 2005071619A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
information
moving object
generation method
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2005/000582
Other languages
English (en)
French (fr)
Inventor
Fumitoshi Matsuno
Masahiko Inami
Naoji Shiroma
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Campus Create Co Ltd
Original Assignee
Campus Create Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Campus Create Co Ltd filed Critical Campus Create Co Ltd
Priority to US10/587,016 priority Critical patent/US20070165033A1/en
Priority to GB0614065A priority patent/GB2427520A/en
Publication of WO2005071619A1 publication Critical patent/WO2005071619A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control

Definitions

  • the present invention relates to an image generation method.
  • a camera has been mounted on a moving body, and the moving body has been operated while viewing an image acquired by the camera.
  • the moving object is, for example, a self-propelled robot at a remote location. If the mobile is at a remote location, the images are sent to the operator via a communication network.
  • an image obtained by a camera of a moving object often does not include much environmental information around the moving object. This is because if the angle of view is widened while maintaining the resolution, the amount of image information increases, and the load on the communication path and the information processing device increases. Manipulating a moving object properly while viewing an image with a narrow angle of view often involves considerable difficulty.
  • An object of the present invention is to provide a method for generating an image that can facilitate the operation of a moving object. Means for solving the problem
  • the image generation method according to the present invention includes the following steps:
  • the image generation method may further include the following steps:
  • the environment information is, for example, a plurality of still images, but may be moving images.
  • the parameter of the moving object itself in the step (6) is "a difference between a point in time when the virtual viewpoint is designated or in the vicinity thereof and a point in time when the generated composite image is presented". At "the time of! /.
  • the mobile object may be capable of self-running!
  • the virtual viewpoint may exist at a position where the environment around the mobile object and the environment around Z or the point desired by the operator to be seen are viewed.
  • the virtual viewpoint may exist at a position where the moving body is viewed from behind.
  • the "parameters of the spatial measurement sensor itself” in the step (2) are, for example, "position and orientation of the spatial measurement sensor itself” and Z or "data space and real space obtained by the spatial measurement sensor itself.” Data, matrices or tables that represent the relationship with [0014]
  • the "generate based on past information” in the step (5) means, for example, that "an image included in the environment information, which is shifted, is generated by the space when the environment information is acquired. Selection based on the proximity between the position of the measurement sensor itself and the virtual viewpoint ".
  • the “create based on past information” in the step (5) means, for example, “generate newly using past information”.
  • the virtual environment image is, for example, a still image.
  • the image of the moving object itself included in the composite image in the step (7) may be a transparent, translucent, or wireframe image.
  • the parameters of the moving object may include the position of the moving object.
  • the parameters of the moving object itself may further include a posture of the moving object.
  • a presentation method according to the present invention presents a composite image generated by the above-described method for generating! / ⁇ .
  • An image generation system includes a moving object, a control unit, and an information acquisition unit.
  • the moving body includes a space measurement sensor that acquires environmental information.
  • the control unit performs the following functions:
  • the image generation system may further include an information acquisition unit.
  • the information acquiring unit acquires a parameter of the moving object itself.
  • the control unit further performs the following functions:
  • the computer program according to the present invention is a computer program, comprising: Is executed by a computer.
  • the computer program according to the present invention may cause a computer to execute a function of a control unit in the system.
  • the data according to the present invention includes information representing the virtual environment image or the composite image generated by any of the generation methods described above.
  • the recording medium according to the present invention has the data recorded thereon.
  • This system includes a mobile unit 1, a control unit 2, an information acquisition unit 3, and an image presentation unit 4 as main elements.
  • the moving object 1 is, for example, a self-propelled remote control robot.
  • the moving body 1 includes a camera 11 (corresponding to the space measurement sensor in the present invention), a main body 12, an interface section 13, a camera driving section 14, a posture sensor 15, and a main body driving section 16. I have.
  • the camera 11 is attached to the main body 12, and acquires an environmental image (external image, which corresponds to environmental information in the present invention) viewed from the moving body 1.
  • the environment image acquired by the camera 11 is sent to the control unit 2 via the interface unit 13.
  • the camera 11 may acquire a moving image which is a still image.
  • the camera 11 generates time information (time stamp) when each image is obtained. This time information is also sent to the control unit 2 via the interface unit 13. The generation of the time information may be performed in a portion other than the camera 11.
  • the camera 11 may be an ordinary infrared camera, an infrared camera, an ultraviolet camera, or an ultrasonic camera.
  • Various cameras such as cameras can be used.
  • Examples of spatial measurement sensors other than cameras include a radar range finder and an optical range finder.
  • any spatial measurement sensor can be used as long as it can acquire two-dimensional or three-dimensional information of the target (external environment) (or even dimensions such as time), that is, environmental information. !,.
  • the radar range finder / optical range finder it is possible to easily obtain the three-dimensional position information of the object in the environment. Also in these cases, usually, a time stamp is generated on the space measurement sensor side and sent to the control unit 2.
  • the interface unit 13 is connected to a communication network line (not shown) such as the Internet.
  • the interface unit 13 is a unit having a function of supplying information acquired by the mobile unit 1 to the outside or receiving information (for example, a control signal) from the outside by the mobile unit 1.
  • a communication network line in addition to the Internet, an appropriate one such as a LAN and a telephone line can be used. In other words, there are no particular restrictions on the protocols, lines and nodes used in the network lines.
  • the communication method on the network line may be a circuit switching method or a packet method.
  • the camera driving unit 14 changes the position (position in space or on a plane) and attitude (the direction of the line of sight or the direction of the optical axis of the camera) of the camera 11.
  • the camera driving unit 14 changes the position and orientation of the camera 11 according to an instruction from the control unit 2.
  • Such a camera driving unit 14 can be easily manufactured by using, for example, a control motor or the like, and further description will be omitted.
  • the posture sensor 15 detects the posture of the camera 11. Information on this posture (for example, the optical axis angle, the viewing angle, and the posture information acquisition time) is sent to the control unit 2 via the interface unit 13. Since such a posture sensor 15 itself can be easily configured, further description is omitted.
  • the main body driving unit 16 causes the mobile unit 1 to run in accordance with an instruction from the control unit 2.
  • the main body drive section 16 includes, for example, wheels (including endless tracks) attached to a lower portion of the main body 12, and a drive motor (not shown) for driving the wheels.
  • the control unit 2 includes an interface unit 21, a processing unit 22, a storage unit 23, and an input unit 24.
  • the interface section 21 is, like the interface section 13, a communication network line (see FIG. (Not shown).
  • the interface unit 21 is a unit having a function of supplying information to the outside from the control unit 2 via a communication network line or having the control unit 2 receive external information. For example, the interface unit 21 acquires various kinds of information transmitted to the control unit 2 from the interface unit 13 of the mobile unit 1 or controls the interface unit 13.
  • the processing unit 22 executes the following functions (a) to (e) according to a program stored in the storage unit 23.
  • the processing unit 22 is, for example, a CPU.
  • the functions (a) to (e) below will be described in detail in the description of the image generation method described later.
  • the storage unit 23 includes a computer program ⁇ ⁇ ⁇ for operating the control unit 2 and other functional elements, three-dimensional model information of the moving body 1, and past information (for example, the position and the position of the moving body 1 or the camera 11). This is the part that stores the posture information or the information acquisition time.
  • the storage unit 23 is an arbitrary recording medium such as a semiconductor memory node disk.
  • the input unit 24 is a unit that receives an input to the operator force control unit 2 (for example, input of virtual viewpoint information).
  • the information acquisition unit 3 acquires the position and orientation (direction) of the moving body 1 itself.
  • the position and orientation of the moving body 1 in the present embodiment correspond to “parameters of the moving body itself” in the present invention.
  • parameters such as the speed, acceleration, angular velocity, and angular acceleration of the mobile unit are used in addition to the position and orientation of the mobile unit 1. Can. This is because a change in the position of the moving object can be detected using these parameters.
  • an existing three-dimensional self-position estimation method using devices such as a gyro, an accelerometer, a wheel rotation angular velocity meter, a GPS, and an ultrasonic sensor is used. be able to. Since such a method itself can use an existing method, a detailed description thereof will be omitted.
  • the information acquiring unit 3 acquires the time when the position and the posture of the moving object 1 are acquired. However, implementation that does not acquire time information is also possible.
  • the position of the camera 11 can be acquired as the position of the moving body 1 if the camera 11 is fixed to the moving body 1.
  • the position of the main body 1 is obtained by the information obtaining unit 3, and the position of the camera 11 fixed thereto is calculated from the position of the main body 1.
  • the information acquisition unit 3 may be separate from the control unit 2 and the mobile unit 1, or may be integrated with the control unit 2 and the mobile unit 1. Further, the information acquisition unit 3 and the attitude sensor 15 may exist as one integrated mechanism or device.
  • the image presentation unit 4 receives and presents an image (composite image) generated by the operation of the control unit 2.
  • the image presentation unit 4 is, for example, a display or a printer.
  • the parameters of the space measurement sensor itself in the present invention are, for example, generally the position and orientation of the S-camera with this sensor power.
  • the parameters may be data, matrices, or tables representing the relationship between the data space and the real space, in addition to or instead of the position and orientation.
  • This “data, matrix or table” is calculated by factors such as “the focal length of the camera, the coordinates of the center of the image, the scale factor in the vertical and horizontal directions on the image plane, the shear coefficient or the lens aberration” and the like.
  • the space measurement sensor is a range finder, its own parameters are, for example, its position, posture, depth, resolution, and angle of view (data acquisition range).
  • the information acquisition unit 3 may acquire these pieces of information discretely or continuously in a temporal or spatial sense.
  • the acquired information is stored in the storage unit 23 of the control unit 2.
  • this information is stored as data on an absolute coordinate system (a coordinate system that does not depend on a moving object and is also referred to as world coordinates) together with the acquisition time of the information.
  • an environmental image (see FIG. 3A) is acquired by the camera 11 attached to the moving body 1. Further, the camera 11 acquires the time (time stamp) at which the environmental image was acquired.
  • the timing of acquiring the environmental image may be set in accordance with conditions such as the moving speed of the moving object 1, the angle of view of the camera 11, the communication capacity of the communication path, and the like. For example, settings can be made such that a still image is acquired as an environmental image every three seconds.
  • the acquired image and time information are sent to the control unit 2.
  • the control unit 2 stores such information in the storage unit 23. Thereafter, each piece of information sent to the control unit 2 is stored in the storage unit 23.
  • the environment image may be a moving image which is usually a still image.
  • the information acquisition unit 3 acquires information on the position and posture of the moving object 1 at the time of acquiring the environmental image, and sends the information to the control unit 2.
  • the posture sensor 15 of the moving body 1 acquires information on the posture of the camera 11 and sends the information to the control unit 2. More specifically, the information acquisition unit 3 sends the attitude data of the camera 11 to the control unit 2 in association with each environmental image acquired at that time.
  • the position data (the position at the time of image acquisition) of the moving object 1 acquired by the information acquisition unit 3 is calculated based on the position data of the camera 11 at the time of acquiring the environmental image.
  • the position of the mobile unit 1 at the time of image acquisition may be searched using a time stamp, or may be searched using a method that associates data obtained between certain time slots.
  • the control unit 2 stores the environmental image and time information and information indicating the position and orientation of the camera 11 at the time of acquiring the environmental image and time information (in the present embodiment, these are collectively referred to as past information).
  • This information can be stored at the same time, but at different times. It may be stored.
  • the data of the environmental image and the position and orientation data of the camera 11 are stored in a table in temporal correspondence. That is, these data can be searched using time information or position information as a search key.
  • the information indicating the position and the posture need not be the position data or the posture data itself. For example, data (or a data group) that can calculate these data by calculation may be used.
  • a virtual viewpoint is specified. This designation is normally made by the operator through the input unit 24 of the control unit 2 as necessary. Further, the position of the virtual viewpoint is preferably specified on absolute coordinates, but it is also possible to specify the relative position of the current virtual viewpoint force. As for the position of the virtual viewpoint, for example, an image including the moving object 1 is viewed from behind the moving object 1. Alternatively, the position of the virtual viewpoint may be such that the operator does not include the moving object 1 and looks at the environment around the point that the operator wants to see.
  • a virtual environment image (see Fig. 3b) viewed from a virtual viewpoint is generated based on past information that has already been saved.
  • the virtual environment image can also be a moving image, which is usually a still image. An example of a method for generating a virtual environment image will be described below.
  • an image captured from near the virtual viewpoint is selected.
  • the distance to be determined to be close! May be set as appropriate. For example, this determination can be made using information such as the position and orientation (angle) or focal length when the image was taken. In short, it is preferable to set so that the operator can select an image that is easy to see and understand. As described above, the position and orientation of the camera 11 when the past image was captured are recorded.
  • the operation is performed on another image near the virtual viewpoint.
  • a more accurate virtual environment image with a wider field of view can be generated.
  • an image of the moving body 1 viewed from the virtual viewpoint is generated based on the information on the position and the posture of the moving body 1. Since the information on the position and posture of the mobile unit 1 is always tracked and acquired by the information acquisition unit 3 (see FIG. 3c), the information power can also be grasped. Since the position and orientation information is merely coordinate data, the load on the communication path is much smaller than that of image data. Based on the position and orientation information, an image of the moving object 1 viewed from a virtual viewpoint is generated in an absolute coordinate system!
  • the image of the moving object 1 generated here is usually an image of the moving object 1 at a future position, which is generated by force prediction, which is an image of the moving object 1 at the current time.
  • the image may be an image of the moving object 1 at a position at a certain point in the past.
  • a composite image including the image of the mobile object 1 and the virtual environment image can be generated (see FIG. 3d).
  • This image is presented in the image presentation unit 4 as needed by the operator.
  • the composite image data can be recorded on an appropriate recording medium (for example, FD, CD, MO, HD, etc.).
  • the information acquisition unit 3 causes the change.
  • the position and orientation data of the mobile unit 1 after the change is acquired, sent to the storage unit 23 of the control unit 2 together with the acquisition time, and the data is updated.
  • the camera 11 acquires an environmental image at the position after the movement together with time information (time stamp). After that, the operations from step 2-2 onward are repeated.
  • a virtual environment image including the moving object 1 can be generated and presented in this way. Then, the operation of the moving body can be performed while looking at the moving body 1, so that there is an advantage that the operability can be improved.
  • the camera 11 of the moving object 1 may be used.
  • the image may be switched to an appropriate image and presented to the operator.
  • FIG. 4 (a) The environment image from which the moving object 1 force is also continuously acquired is shown in, for example, FIG. 4 (a) — (This is an example.
  • the example of the virtual environment image generated from these is shown in FIG. 5 (a) — (c).
  • the image of Fig. 4 (b) is viewed with the camera 11, and the moving object 1 is presented as an image including itself, as shown in Fig. 5 (a).
  • the image of Fig. 4 (a) which is an image earlier than Fig. 4 (b)
  • the image of the moving object 1 is combined with this virtual environment image.
  • FIG. 4D is an image from the camera 11 of the moving object 1 included in the image in FIG. 5C.
  • the mobile unit 1 It can be an image that has moved itself (see Figures 6a-d). That is, this means that the virtual viewpoint is fixed and the image of the moving object 1 is changed.
  • the method of this embodiment since the position and orientation of the moving object 1 are grasped, an image of the moving object 1 corresponding to the position and orientation can be generated and combined with the virtual environment image. Therefore, the method of this embodiment has an advantage that even when the line speed is very low (for example, a radio signal from the lunar exploration robot to the earth), it is easy to operate the mobile unit 1 in real time. .
  • the image of the moving object 1 to be combined with the virtual environment image may be translucent. With this configuration, it is possible to prevent a blind spot behind the moving object 1 in an image from a virtual viewpoint, thereby making it easier to operate the moving object 1.
  • the same advantage can also be obtained by making the image of the moving object 1 transparent and alternately displaying the non-transparent image. Wear. Similar advantages can be obtained by using the wire 1 as the moving body 1 instead of the translucent body. Further, by adding the shadow of the moving object 1 in the composite image, the reality can be further increased.
  • the above-described embodiment can be easily executed by those skilled in the art using a computer.
  • the program for that can be stored in a computer-readable recording medium, such as an HD, an FD, a CD, and an MO.
  • each unit in the embodiment is not limited to the above as long as the gist of the present invention can be achieved.
  • the mobile object is a self-propelled robot.
  • the mobile object is not limited to this, and may be a mobile object (automobile, helicopter, or the like) that is remotely operated or on which an operator boards.
  • the moving body is not limited to the self-propelled type, and may be a body that can be moved by an external force. Examples of such a device include a distal end portion of an endoscope in endoscopic surgery and a distal end portion of a manipulator having a fixed root.
  • the moving object may be a human or an animal.
  • a large-scale device is required to mount a force camera on a human or animal itself and acquire an image behind the person.
  • this method can be used, for example, for sports training.
  • activities in which it is difficult to capture images behind itself for example, skiing
  • And surfing it is possible to check their own status in the environment in real time (or by storing data and on demand).
  • an ultrasonic camera When used as a space measurement sensor, it is mounted on an underwater vehicle or an endoscope to acquire environmental information in the water or inside the body, and based on this, a temporary It is possible to generate a virtual environment image.
  • the composite image having the moving object image is presented.
  • a method or system for presenting a virtual environment image without compounding a moving object image may be used. Also in this case, an image with a wide field of view can be presented using the past information, so that the operability of the moving body 1 can be improved.
  • the position of the space measurement sensor (for example, a camera) with respect to the moving body is not limited to the front end of the moving body, but may be any position such as a rear portion and a peripheral portion.
  • one moving body is used, but a plurality of moving bodies may be provided.
  • the plurality of moving objects have the structure of the moving object described above. In this way, as long as the environmental information and the parameters of the spatial measurement sensor are stored in a unified format, information can be shared between a plurality of moving objects or between the same or different types of spatial measurement sensors.
  • the presented virtual environment image or moving object image may be generated by prediction.
  • the prediction can be made based on, for example, the speed and acceleration of the moving object 1. By doing so, the future situation can be presented to the operator, and the operability of the moving body can be further improved.
  • step 2-6 of the embodiment the image of the moving object 1 viewed from the virtual viewpoint is generated based on the information on the position and the posture of the moving object 1. However, the appearance of the mobile If the power is not important, an image of the moving object 1 may be generated based on the position of the moving object 1.
  • each unit including functional blocks for realizing the above-described embodiment may be hardware (for example, a computer or a sensor), computer software, a network, a combination thereof, or any other means. it can.
  • the functional blocks may be combined into one functional block or device. Further, the function of one functional block may be realized by cooperation of a plurality of functional blocks or devices.
  • FIG. 1 is a block diagram schematically showing an image generation system according to one embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating an image generation method according to an embodiment of the present invention.
  • FIG. 3 is an explanatory diagram showing an example of an image used in the image generation method according to one embodiment of the present invention.
  • FIG. 4 is an explanatory diagram showing an example of an image used in the image generation method according to the embodiment of the present invention.
  • FIG. 5 is an explanatory diagram showing an example of an image used in the image generation method according to the embodiment of the present invention.
  • FIG. 6 is an explanatory diagram showing an example of an image used in the image generation method according to the embodiment of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

 この発明は、移動体の操作を容易としうる画像生成方法を提供するものである。  この生成方法は、次のステップを含んでいる。 (1)移動体に取り付けられた一つまたは複数の空間計測センサ(例えばカメラ)によって取得された環境情報(例えば環境画像)を受け取るステップ; (2)前記環境情報を取得した時の時刻と前記空間計測センサ自身のパラメータ(例えばカメラの位置および姿勢)とを受け取るステップ; (3)前記環境情報と前記時刻と前記パラメータとを示す過去情報を保存するステップ; (4)仮想視点の指定を受け取るステップ; (5)前記仮想視点から見た仮想環境画像を、前記保存された過去情報に基づいて生成するステップ。

Description

明 細 書
画像生成方法
技術分野
[0001] 本発明は、画像生成方法に関するものである。
背景技術
[0002] 従来から、移動体にカメラを取り付け、そのカメラで取得された画像を見ながら移動 体を操作することが行われている。移動体は、例えば、遠隔地にある自走ロボットで ある。移動体が遠隔地にある場合は、画像は、通信ネットワークを介して操作者に送 られる。
[0003] ところで、移動体のカメラで取得された画像は、移動体周辺の環境情報をあまり多く は含んでいないことが多い。これは、解像度を維持しながら画角を広くすると、画像の 情報量が増え、通信路ゃ情報処理装置への負担が増えるためである。狭い画角の 画像を見ながら移動体を適切に操作することは、多くの場合、かなりの困難を伴う。
[0004] 一方、移動体の外部に、移動体カメラとは別の外部カメラを設置し、この外部カメラ の画像によって環境画像を取得する方法も考えることができる。し力しながら、移動体 カメラの画像と外部カメラの画像の両方を用いることは、やはり、画像の情報量を増大 させてしまう。画像の情報量が増えると、一般には、画像の解像度やフレームレートを 低く設定して、通信や情報処理における時間遅れを防ぐ必要が発生する。すると、画 像品質が劣化することになつてしまう。逆に画像品質を維持しょうとすると、画像が提 示されるまでの時間遅れのために、リアルタイムでの移動体操作が難しくなつてしまう 。もちろん、通信路ゃ情報処理装置の高速化や情報量の圧縮によりこれらの問題が 軽減されることはありうるが、いずれにせよ、取得する画像の情報量が増大することは 、通信路を含めたシステムの負担を増加させる。
発明の開示
発明が解決しょうとする課題
[0005] 本発明は、前記の事情に鑑みてなされたものである。本発明の目的は、移動体の 操作を容易としうる画像の生成方法を提供することである。 課題を解決するための手段
[0006] 本発明に係る画像生成方法は、次のステップを含む:
(1)移動体に取り付けられた一つまたは複数の空間計測センサによって取得された 環境情報を受け取るステップ;
(2)前記環境情報を取得した時の時刻と前記空間計測センサ自身のパラメータとを 受け取るステップ;
(3)前記環境情報と前記時刻と前記パラメータとを示す過去情報を保存するステップ
(4)仮想視点の指定を受け取るステップ;
(5)前記仮想視点から見た仮想環境画像を、前記保存された過去情報に基づ!ヽて 生成するステップ。
[0007] この画像生成方法は、さらに以下のステップを含んでも良い:
(6)前記仮想視点から見た前記移動体自身の画像を、前記移動体自身のパラメータ に基づ 、て生成するステップ;
(7)前記仮想環境画像と前記移動体自身の画像とを用いて、前記移動体自身の画 像と前記仮想環境画像とを含む複合画像を生成するステップ。
[0008] 前記環境情報とは、例えば複数の静止画であるが、動画であってもよ 、。
[0009] 前記ステップ(6)における前記移動体自身のパラメータとは、「前記仮想視点を指 定した時点またはその近傍から、生成された前記複合画像が提示される時点までの 間における 、ずれかの時点」におけるものであってもよ!/、。
[0010] 前記移動体は自走可能であってもよ!/、。
[ooii] 前記仮想視点は、前記移動体の周辺の環境および Zまたは操作者が見たい地点 の周辺の環境を見る位置に存在して 、てもよ 、。
[0012] 前記仮想視点は、前記移動体を背後から見る位置に存在して 、てもよ 、。
[0013] 前記ステップ(2)における「空間計測センサ自身のパラメータ」とは、例えば、「空間 計測センサ自身の位置および姿勢」および Zまたは、「空間計測センサ自身により得 られたデータ空間と実空間との関係を表すデータ、行列もしくはテーブル」を含むも のである。 [0014] 前記ステップ(5)における「過去情報に基づ 、て生成する」とは、例えば、「前記環 境情報に含まれる 、ずれかの画像を、前記環境情報を取得した時の前記空間計測 センサ自身の位置と前記仮想視点との近さに基づ 、て選択する」ことである。
[0015] 前記ステップ(5)における「過去情報に基づ 、て生成する」とは、例えば、「過去情 報を用いて新たに生成する」ことである。
[0016] 前記仮想環境画像は、例えば静止画である。
[0017] 前記ステップ(7)における前記複合画像に含まれる前記移動体自身の画像は、透 明、半透明、またはワイヤフレームの画像であってもよい。
[0018] 前記移動体自身のパラメータには、前記移動体の位置を含んでいてもよい。
[0019] 前記移動体自身のパラメータには、前記移動体の姿勢をさらに含んでいてもよい。
[0020] 本発明に係る提示方法は、前記した!/ヽずれかの生成方法により生成された複合画 像を提示するものである。
[0021] 本発明に係る画像生成システムは、移動体と制御部と情報取得部とを備えて 、る。
前記移動体は、環境情報を取得する空間計測センサを備えている。前記制御部は、 次の機能を実行するものである:
(a)前記環境情報と、前記環境情報を取得した時の時刻と、前記環境情報を取得し た時の前記空間計測センサ自身のパラメータとを示す過去情報を保存する機能;
(b)指定された仮想視点の情報を受け取る機能;
(c)前記仮想視点から見た仮想環境画像を、前記保存された過去情報に基づ!ヽて 生成する機能。
[0022] 前記画像生成システムは、さらに情報取得部を備えてもよい。前記情報取得部は、 前記移動体自身のパラメータを取得するものである。この場合、前記制御部は、さら に次の機能を実行する:
(d)前記仮想視点から見た前記移動体自身の画像を、前記移動体自身のパラメータ に基づいて生成する機能;
(e)前記仮想環境画像と前記移動体自身の画像とを用いて、前記移動体の画像と前 記仮想環境画像とを含んだ複合画像を生成する機能。
[0023] 本発明に係るコンピュータプログラムは、前記した!/、ずれかの方法におけるステップ をコンピュータに実行させるものである。
[0024] 本発明に係るコンピュータプログラムは、前記システムにおける制御部の機能をコン ピュータに実行させるものであってもよい。
[0025] 本発明に係るデータは、前記したいずれかの生成方法によって生成された前記仮 想環境画像または前記複合画像を表す情報を含むものである。
本発明に係る記録媒体は、このデータが記録されたものである。
発明の効果
[0026] 本発明によれば、移動体の操作を容易としうる画像生成方法を提供することができ る。
発明を実施するための最良の形態
[0027] 本発明の一実施形態に係る画像生成方法を、添付の図面を参照しながら説明する 。まず、本実施形態の方法に用いる画像生成システムの構成を図 1に基づいて説明 する。
[0028] (システムの説明)
このシステムは、移動体 1と、制御部 2と、情報取得部 3と、画像提示部 4とを主要な 要素として備えている。
[0029] 移動体 1は、例えば、自走式の遠隔制御ロボットである。移動体 1は、カメラ 11 (本 発明における空間計測センサに対応)と、本体 12と、インタフ ース部 13と、カメラ駆 動部 14と、姿勢センサ 15と、本体駆動部 16とを備えている。
[0030] カメラ 11は、本体 12に取り付けられており、移動体 1から見た環境画像 (外部画像 であり、本発明における環境情報に相当)を取得するようになっている。カメラ 11によ り取得された環境画像は、インタフェース部 13を介して制御部 2に送られるようになつ ている。カメラ 11は、この実施形態では、静止画を取得するものとなっている力 動画 を取得するものであってもよい。さらに、この実施形態では、カメラ 11は、各画像を取 得した時の時間情報 (タイムスタンプ)を生成する。この時間情報も、インタフェース部 13を介して制御部 2へ送られる。この時間情報の生成は、カメラ 11以外の部分で行 つてもよい。
[0031] カメラ 11としては、通常の可視光力メラの他、赤外線カメラ、紫外線カメラ、超音波力 メラなどの各種のカメラを用いることができる。カメラ以外の空間計測センサとしては、 例えば、レーダレンジファインダや光学式レンジファインダである。空間計測センサと しては、要するに、対象 (外部環境)の 2次元または 3次元(さらに時間などの次元を 取得できても良 、)の情報(つまり環境情報)を取得できるものであればよ!、。レーダ レンジフアインダゃ光学式レンジフアインダによれば、環境中の対象の 3次元位置情 報を容易に取得可能である。これらの場合においても、通常は、タイムスタンプを空 間計測センサ側で生成して制御部 2に送る。
[0032] インタフェース部 13は、インターネットなどの通信ネットワーク回線(図示せず)に接 続されている。インタフェース部 13は、移動体 1で取得した情報を外部に供給し、あ るいは、外部からの情報 (例えば制御信号)を移動体 1で受け取る機能を有する部分 である。通信ネットワーク回線としては、インターネットの他、 LAN、電話回線など、適 宜のものが利用可能である。つまり、ネットワーク回線において用いられるプロトコル や回線やノードには、特に制約はない。ネットワーク回線における通信方式としては、 回線交換方式でもパケット方式でもよ ヽ。
[0033] カメラ駆動部 14は、カメラ 11の位置 (空間中または平面上の位置)および姿勢 (カメ ラにおける視線の方向ないし光軸の方向)を変化させるものである。カメラ駆動部 14 は、制御部 2からの指示によりカメラ 11の位置および姿勢を変化させるようになつてい る。このようなカメラ駆動部 14は、例えば、制御用モータなどを用いて容易に製作で きるので、これ以上の説明を省略する。
[0034] 姿勢センサ 15は、カメラ 11の姿勢を検出するものである。この姿勢の情報 (例えば 光軸角度や視野角や姿勢情報取得時刻など)は、インタフ ース部 13を介して制御 部 2へ送られる。このような姿勢センサ 15自体は容易に構成できるので、これ以上の 説明は省略する。
[0035] 本体駆動部 16は、制御部 2からの指示によって移動体 1を自走させるものである。
本体駆動部 16は、例えば、本体 12の下部に取り付けられた車輪 (無限軌道を含む) と、これを駆動する駆動用モータ(図示せず)とを備えている。
[0036] 制御部 2は、インタフェース部 21と処理部 22と記憶部 23と入力部 24とを備えてい る。インタフェース部 21は、インタフェース部 13と同様に、通信ネットワーク回線(図 示せず)に接続されている。インタフェース部 21は、通信ネットワーク回線を介して、 制御部 2から外部に情報を供給し、あるいは、外部の情報を制御部 2で受け取る機能 を有する部分である。例えばインタフェース部 21は、移動体 1のインタフェース部 13 力も制御部 2へ送られた各種の情報を取得し、あるいは、インタフェース部 13へ制御 ¾号 达る。
[0037] 処理部 22は、記憶部 23に格納されたプログラムに従って、下記 (a)— (e)の機能を 実行するものである。処理部 22は、例えば CPUである。なお、下記 (a)—(e)の機能 は、後述の画像生成方法の説明にお 、て詳しく説明する。
(a)環境画像と、この環境画像を取得した時の時刻と、環境画像を取得した時のカメ ラの位置および姿勢 (パラメータに対応)とを示す過去情報を保存する機能;
(b)指定された仮想視点の情報を受け取る機能;
(c)仮想視点から見た仮想環境画像を、保存された過去情報に基づ!/ヽて生成する機 能;
(d)仮想視点から見た移動体自身の画像を、移動体自身の位置または姿勢に基づ いて生成する機能;
(e)仮想環境画像と前記移動体自身の画像とを用いて、移動体の画像と仮想環境画 像とを含んだ複合画像を生成する機能。
[0038] 記憶部 23は、制御部 2その他の機能要素を動作させるためのコンピュータプロダラ ムゃ、移動体 1の 3次元モデル情報や、過去情報 (例えば、移動体 1またはカメラ 11 の位置および姿勢情報、あるいはそれらの情報取得時刻など)を格納しておく部分 である。記憶部 23は、例えば、半導体メモリゃノヽードディスクなどの任意の記録媒体 である。
[0039] 入力部 24は、操作者力 制御部 2への入力(例えば仮想視点情報の入力)を受け 付ける部分である。
[0040] 情報取得部 3は、移動体 1自身の位置および姿勢(向き)を取得するものである。本 実施形態における移動体 1の位置および姿勢は、本発明における「移動体自身のパ ラメータ」に対応する。なお、「移動体自身のパラメータ」としては、移動体 1の位置お よび姿勢以外にも、移動体の速度、加速度、角速度、角加速度なのパラメータを用い ることができる。これらのパラメータによっても、移動体の位置変化を検出できるからで ある。
[0041] 移動体 1の位置および姿勢を得るには、例えばジャイロ、加速度計、車輪回転角速 度計、 GPS、超音波センサなどの機器を用いた、既存の三次元自己位置推定手法 を用いることができる。このような手法自体は既存のものを利用できるので、それにつ V、ての詳し 、説明は省略する。
[0042] さらに、情報取得部 3は、移動体 1の位置および姿勢を取得した時の時刻を取得す る。ただし、時間情報を取得しない実装も可能である。
[0043] なお、カメラ 11の位置は、カメラ 11が移動体 1に固定されていれば、移動体 1の位 置として取得することができる。この実施形態では、情報取得部 3により、本体 1の位 置を取得し、本体 1の位置から、これに固定されたカメラ 11の位置を算出している。 逆に、カメラ 11の位置を取得して、移動体 1の位置を算出することも可能である。
[0044] 情報取得部 3は、制御部 2および移動体 1と別個のものでも、制御部 2または移動 体 1と一体のものでも良い。また、情報取得部 3と姿勢センサ 15とは、一体化された 一つの機構または装置として存在して ヽても良 、。
[0045] 画像提示部 4は、制御部 2の動作により生成された画像 (複合画像)を受け取って 提示するものである。画像提示部 4としては、例えばディスプレイやプリンタである。
[0046] なお、本発明における空間計測センサ自身のパラメータとは、例えば、このセンサ 力 Sカメラであれば、その位置および姿勢であることが一般である。ただし、このパラメ ータは、位置および姿勢にカ卩えて、またはこれらに代えて、データ空間と実空間との 関係を表すデータ、行列あるいはテーブルであってもよい。この「データ、行列あるい はテーブル」は、「カメラの焦点距離、画像中心の座標、画像面における縦および横 方向のスケール 'ファクタ、せん断係数またはレンズ収差」などの要素により算出され る。また、空間計測センサがレンジファインダであれば、それ自身のパラメータとは、 例えば、その位置、姿勢、奥行き、解像度および画角(データ取得範囲)である。
[0047] (画像生成方法の説明)
つぎに、本実施形態のシステムを用いた画像生成方法を説明する。まず、前提とし て、移動体 1の位置および姿勢を、情報取得部 3により常時追跡しておくものとする。 もちろん、情報取得部 3は、これらの情報を、時間的又は空間的な意味で、離散的に 取得しても、連続的に取得しても良い。取得された情報は、制御部 2の記憶部 23に 格納される。この情報は、この実施形態では、絶対座標系(移動体に依存しない座標 系であり、ワールド座標ともいう)上のデータとして、その情報の取得時刻と共に格納 されるものとする。
[0048] (ステップ 2—1)
まず、移動体 1に取り付けられたカメラ 11によって環境画像(図 3a参照)を取得する 。さらに、環境画像を取得した時刻(タイムスタンプ)も、カメラ 11で取得する。環境画 像を取得する時期は、移動体 1の移動速度、カメラ 11の画角、通信路の通信容量な どの条件に対応して設定すればよい。例えば、 3秒毎に静止画を環境画像として取 得する、というような設定ができる。取得された画像および時間情報は、制御部 2に送 られる。制御部 2は、これらの情報を記憶部 23に格納する。以降、制御部 2に送られ た各情報は、記憶部 23にー且格納される。環境画像としては、通常は静止画である 力 動画であっても良い。
[0049] (ステップ 2— 2)
さらに、情報取得部 3は、環境画像を取得した時点での、移動体 1の位置および姿 勢に関する情報を取得して制御部 2に送る。一方、移動体 1の姿勢センサ 15は、カメ ラ 11の姿勢に関する情報を取得して制御部 2に送る。より詳しくは、情報取得部 3は 、カメラ 11の姿勢データを、その時点で取得した各環境画像に対応させて、制御部 2 に送る。
[0050] この実施形態では、環境画像を取得した時点でのカメラ 11の位置データは、情報 取得部 3で取得された移動体 1の位置情報 (画像取得時点での位置)力 算出される 。画像取得時点での移動体 1の位置は、タイムスタンプを用いて検索してもよいし、あ るタイムスロット間で得られたデータどうしを対応させる方法で検索してもよい。
[0051] (ステップ 2— 3)
ついで、制御部 2は、環境画像および時間情報と、それを取得した時点でのカメラ 1 1の位置および姿勢を示す情報 (本実施形態では、これらをまとめて過去情報と称す る)を、記憶部 23に格納する。これらの情報は、同時に格納されても、異なる時期に 格納されても良い。具体的には、環境画像のデータと、カメラ 11の位置および姿勢 データとを、時間的に対応させてテーブルに格納する。つまり、これらのデータを、時 間情報または位置情報を検索キーとして検索できるようにしておく。また、ここで、位 置および姿勢を示す情報とは、位置データや姿勢データそのものでなくても良い。例 えば、計算によりこれらのデータを算出できるデータ(またはデータ群)であってもよい
[0052] (ステップ 2— 4)
ついで、仮想視点を指定する。この指定は、通常は、操作者がその必要に応じて、 制御部 2の入力部 24により行う。また、仮想視点の位置は、絶対座標上で特定される ことが好ましいが、現仮想視点力もの相対位置で指定することも可能である。仮想視 点の位置は、例えば、移動体 1の背後から、移動体 1を含む画像を見るものとする。ま たは、仮想視点の位置は、移動体 1を含まない、操作者が見たい地点の周辺の環境 を見るものであってもよい。
[0053] (ステップ 2— 5)
ついで、仮想視点から見た仮想環境画像 (図 3b参照)を、既に保存されている過去 情報に基づいて生成する。仮想環境画像は、通常は静止画である力 動画とするこ とも可能である。仮想環境画像の生成手法の例を以下説明する。
[0054] (空間的に密に画像が得られる場合)
この場合は、過去情報に含まれる画像 (環境情報)のうちで、仮想視点の近くから撮 像された画像を選択する。どの程度の距離をもって近!、と判断するかは適宜設定す ればよい。例えば、この判断は、当該画像が撮影された時の位置および姿勢 (角度) あるいは焦点距離などの情報を用いて行うことができる。要するに、操作者が見やす く判りやすい画像を選択できるように設定することが好ましい。前記の通り、過去の画 像を撮像した時のカメラ 11の位置および姿勢は記録されて 、る。
[0055] (空間的に疎に画像が得られる場合)
この場合も、実際にカメラで撮像した画像を用いることは可能である。しかしながら、 画像品質を向上させるためには、仮想視点からの画像を、実際に得られている画像 を基に新たに生成することが好ましい。このような画像生成手法には、既存のコンビュ ータビジョン技術を用いることができる。この実施形態では、実時間性を考慮して、環 境モデルを構築せずに、画像ベースでの任意視点画像を生成する手法を説明する 。この場合のアルゴリズムの一例は以下のようになる。
(a)仮想視点の近傍における複数の画像を過去情報から選択する。この「近傍」の判 断は、「空間的に密に画像が得られる場合」と同様にして行うことができる。
(b)その内の二つの画像間における対応点を求める。
(c)画像間での密な対応点が得られるように、対応点の伝搬を画像間で行う。
(d)対応点を基に、画像間のトライフォーカルテンソル (trifocal tensor)を求める。
(e)トライフォーカルテンソルを使って、二つの原画像で対応のとれた全てのピクセル を、任意視点から見た仮想環境画像へマッピングする。これにより、仮想環境画像を 生成することができる。
(f)さらに好ましくは、前記操作を、仮想視点の近傍における他の画像に対しても行う 。そのようにすれば、それらの画像も利用することで、より正確な、そして視野の広い 仮想環境画像を生成することができる。
[0056] もちろん、環境画像から 3次元環境モデルをー且生成し、そのモデルに基づ 、て、 任意視点から見える仮想環境画像を生成する手法も可能である。しかし、この場合は 、モデル構築のために、多数の環境画像を取得したり、長い計算時間を費やさなけ ればならな ヽと 、う問題がある。
[0057] (ステップ 2— 6)
ついで、仮想視点から見た移動体 1の画像を、移動体 1の位置および姿勢の情報 に基づいて生成する。移動体 1の位置および姿勢の情報は、情報取得部 3により常 に追跡されて取得されている(図 3c参照)ので、この情報力も把握することができる。 この位置および姿勢の情報は、単なる座標データなので、通信路に対する負担は、 画像データに比較してはるかに小さい。この位置および姿勢情報を基に、絶対座標 系にお!/ヽて仮想視点から見た移動体 1の画像を生成する。
[0058] ここで生成される移動体 1の画像は、通常は、現在時点にある移動体 1の画像であ る力 予測により生成した、将来の位置にある移動体 1の画像であってもよぐまた、 過去のある時点の位置における移動体 1の画像であってもよい。 [0059] (ステップ 2— 7)
このようにして生成した仮想環境画像と移動体 1の画像とを用いて、移動体 1の画 像と仮想環境画像とを含む複合画像を生成することができる(図 3d参照)。この画像 は、操作者の必要に応じて、画像提示部 4において提示される。また、複合画像デー タを適宜な記録媒体 (例えば FD、 CD、 MO、 HDなど)に記録することができる。
[0060] 移動体 1の位置または姿勢が変化すると、情報取得部 3により。変化後の移動体 1 の位置および姿勢データが取得され、取得時刻と共に制御部 2の記憶部 23に送ら れて、データの更新がされる。また、移動後の位置における環境画像を、時間情報( タイムスタンプ)とともに、カメラ 11により取得する。その後、ステップ 2— 2以降の動作 が繰り返される。
[0061] 本実施形態の方法では、このように、移動体 1を含む仮想環境画像を生成および 提示することができる。すると、移動体 1を見ながら移動体の操作をすることができる ので、操作の容易性を向上させることができるという利点がある。
[0062] また、この実施形態では、過去に取得した環境画像に基づ!/、て、仮想視点から見 た仮想環境画像を生成して ヽるので、外部に環境画像取得用のカメラを設ける必要 力 ぐ装置の小型化や低コストィ匕を図ることができるという利点がある。
[0063] また、外部に環境画像取得用のカメラを設けたり、カメラの画角を広げた場合には、 データ量が増大するために、通信路への負担が大きくなり、しばしば、フレームレート の低下などの問題を生じる。すると、実時間での操作が難しくなる。この実施形態によ れば、過去の画像を用いて仮想環境画像を生成しているので、画像情報の取得に 時間遅れがあつたとしても、実時間操作に対する支障にならないという利点がある。さ らに、過去の画像から 3次元環境モデルを生成せずに仮想環境画像を生成するアル ゴリズムを用いれば、仮想環境画像の生成時間が短くなるので、操作の実時間性は さらに向上する。
[0064] さらに、この実施形態では、過去の画像の取得における時間遅れを許容できるので 、画像解像度を高くすることができる。このため、得られる仮想環境画像の解像度を 高めることができると!/、う利点がある。
[0065] なお、仮想環境画像を用いると却って操作がしづらい場合は、移動体 1のカメラ 11 からの画像に適宜切り替えて操作者に提示すればよい。
実施例 1
[0066] 前記した生成方法についての実施例を図 4一図 6に基づいて説明する。移動体 1 力も連続的に取得される環境画像は、例えば図 4 (a)—(このようになる。これらから 生成される仮想環境画像の例を図 5 (a)—(c)に示す。実時間において図 4 (b)の画 像をカメラ 11で見て 、る移動体 1を、それ自体を含む画像として提示して 、るものが 図 5 (a)である。図 5 (a)では、図 4 (b)よりも過去の画像である図 4 (a)の画像を仮想 環境画像として選んでいる。そして、この仮想環境画像に、移動体 1の画像を複合さ せている。これにより、現在位置にある移動体 1を背後(仮想視点)から見ている画像 を生成し、提示することができる。これによつて、移動体 1自身を見ながら、移動体 1を 操作することができる。
[0067] 移動体 1の移動に伴って仮想視点も前進させると、図 5 (b)や (c)に示される画像を 得ることができる。これらの画像の生成手法は、前記と基本的に同様である。これらの 画像では、仮想視点の変化に伴い、仮想環境画像を図 4 (b)、図 4 (c)と切り替えて いる。図 4 (d)の画像は、図 5 (c)の画像に含まれている移動体 1のカメラ 11からの画 像である。
[0068] もし、通信路の状況が悪ぐフレームレートが低くて、図 5 (b)や (c)のような環境画 像を生成するための過去画像すら得られないときは、移動体 1自体を移動させた画 像とすればよい(図 6a— d参照)。つまり、これは、仮想視点を固定させて、移動体 1 の画像を変化させていることになる。この実施形態の方法では、移動体 1の位置およ び姿勢を把握して 、るため、位置および姿勢に対応した移動体 1の画像を生成して 、仮想環境画像に複合させることができる。したがって、この実施形態の方法は、回 線速度が非常に低 、場合 (例えば月探査ロボットから地球への無線信号など)でも、 実時間での移動体 1の操作が容易となるという利点がある。
[0069] なお、仮想環境画像に複合させる移動体 1の画像を半透明とすることもできる。この ようにすれば、仮想視点からの画像において、移動体 1の背後が死角になることを防 止でき、移動体 1の操作をより一層容易とすることができる。また、移動体 1の画像を 透明とし、非透明の画像と交互に表示することによつても、同様の利点を得ることがで きる。半透明に代えて、移動体 1をワイヤフレーム画像としても、これらと同様の利点 を得ることができる。さらに、複合画像内に移動体 1の影を付加することにより、よりリア リティを増すこともできる。
[0070] さらに、通常、移動体 1に搭載されたカメラ 11からの映像を直接用いる遠隔操作で は、移動体 1自身の揺れが画像の揺れに直接つながる。このように揺れている画像を 用いて移動体 1の操作を行う操作者は、自分自身が振動を直接受けて 、な 、のにも かかわらず揺れ画像を用いて移動体 1の操作を行っているため、酔ってしまうことが ある。前記した本実施形態の方法では、移動体 1が振動を受けて、カメラ 11での取得 画像自体が揺れていたとしても、操作者には、固定された環境 (仮想環境画像)のな かで移動体 1のみが揺れている複合画像を提示することができる。したがって、この 方法によれば、操作者のカメラ酔 、を防止することができる。
[0071] 前記した実施形態の実行は、当業者にはコンピュータを用いて容易に実行可能で ある。そのためのプログラムは、コンピュータで読み取り可能な記録媒体、例えば HD 、 FD、 CD、 MOなど、任意のものに格納できる。
[0072] なお、前記実施形態の記載は単なる一例に過ぎず、本発明に必須の構成を示した ものではない。実施形態における各部の構成は、本発明の趣旨を達成できるもので あれば、上記に限らない。
[0073] 例えば、前記実施形態では、移動体として自走式ロボットとしたが、これに限らず、 遠隔操作されたあるいは操作者が搭乗する移動体(自動車やヘリコプターなど)でも よい。さらには、移動体は、自走式に限らず、外部からの力で移動させられるものでも よい。そのようなものの例としては、内視鏡手術における内視鏡の先端部分や、根元 が固定されたマニピュレータの先端部が挙げられる。
[0074] さらに、移動体としては、人間や動物であってもよい。例えば、人間や動物自身に力 メラを搭載して、自身の背後力もの映像を取得するためには、相当に大がかりな装置 を必要とする。これに対して、本実施形態の方法では、人間等にカメラを搭載して複 合画像を生成することにより、自身の背後からの映像を簡単に得ることができる。この ため、この方法を、例えばスポーツのトレーニングに活用することもできる。さらには、 自身の背後力もの画像を撮影すること自体が困難なであるような活動 (例えばスキー やサーフィン)においても、環境内での自身の状態を実時間に (またはデータを蓄積 した上でオンデマンドで)確認することが可能となる。
[0075] また、空間計測センサとして超音波カメラを使った場合には、これを水中移動体や 内視鏡へ搭載することにより、水中や体内等での環境情報を取得し、これに基づく仮 想環境画像を生成することが可能となる。
[0076] さらに、前記実施形態では、移動体画像を有する複合画像を提示するものとしたが
、移動体画像を複合させずに、仮想環境画像を提示する方法ないしシステムとしても よい。この場合も、過去情報を用いて広視野の画像を提示できるので、移動体 1の操 作の容易性を向上させることができる。
[0077] また、移動体に対する空間計測センサ (例えばカメラ)の配置位置は、移動体の先 端に限らず、後部、周縁部など、どこであってもよい。
[0078] さらに、前記実施形態では、移動体を一つとしたが、移動体は複数であってもよい。
この場合、複数の移動体は、前記した移動体の構成を備えているものとする。このよう にすれば、環境情報、および、空間計測センサのパラメータを統一的なフォーマット で保存しておく限り、複数の移動体間、あるいは、同種または異種の空間計測センサ 間の情報を共有できる。
[0079] これにより、当該移動体自身では行ったことがない環境情報を利用することができ、 例えば、他の移動体が取得した画像を用いて、障害物の裏側を透視した仮想環境 画像を提示できるなどの利点がある。
[0080] なお、現時点では空間計測センサの死角に入ってしまっている障害物に関しては、 単一の移動体自身が過去に取得した環境画像を利用して、このような障害物を含ん だ仮想環境画像を提示することが可能である。
[0081] さらに、提示される仮想環境画像または移動体画像は、予測により生成されたもの であってもよい。予測は、例えば、移動体 1の速度や加速度に基づいて行うことがで きる。このよう〖こすると、将来の状況を操作者に提示できるので、移動体の操作性を 一層向上させることが可能となる。
[0082] また、前記実施形態のステップ 2— 6では、仮想視点から見た移動体 1の画像を、移 動体 1の位置および姿勢の情報に基づいて生成している。しかしながら、移動体の姿 勢が重要でない場合は、移動体 1の位置に基づいて移動体 1の画像を生成する場 合もありうる。
また、前記実施形態を実現するための各部 (機能ブロックを含む)の具体的手段は 、ハードウェア(例えばコンピュータやセンサ)、コンピュータソフトウェア、ネットワーク 、これらの組み合わせ、その他の任意の手段を用いることができる。
さらに、機能ブロックどうしが複合して一つの機能ブロックまたは装置に集約されて も良い。また、一つの機能ブロックの機能が複数の機能ブロックまたは装置の協働に より実現されても良い。
図面の簡単な説明
[0083] [図 1]本発明の一実施形態に係る画像生成システムの概略を示すブロック図である。
[図 2]本発明の一実施形態に係る画像生成方法を説明するためのフローチャートで ある。
[図 3]本発明の一実施形態に係る画像生成方法において用いられる画像の例を示す 説明図である。
[図 4]本発明の実施例に係る画像生成方法において用いられる画像の例を示す説明 図である。
[図 5]本発明の実施例に係る画像生成方法において用いられる画像の例を示す説明 図である。
[図 6]本発明の実施例に係る画像生成方法において用いられる画像の例を示す説明 図である。
符号の説明
[0084] 1 移動体
11 カメラ (空間計測センサ)
12 移動体の本体
13 インタフェース §
14 カメラ駆動部
15 姿勢センサ
16 本体駆動部 制御部 インタフエ 処理部 記憶部 入力部 情報取得部 画像提示部

Claims

請求の範囲 [1] 次のステップを含むことを特徴とする画像生成方法:
(1)移動体に取り付けられた一つまたは複数の空間計測センサによって取得された 環境情報を受け取るステップ;
(2)前記環境情報を取得した時の時刻と前記空間計測センサ自身のパラメータとを 受け取るステップ;
(3)前記環境情報と前記時刻と前記パラメータとを示す過去情報を保存するステップ
(4)仮想視点の指定を受け取るステップ;
(5)前記仮想視点から見た仮想環境画像を、前記保存された過去情報に基づ!ヽて 生成するステップ。
[2] さらに以下のステップを含むことを特徴とする請求項 1記載の画像生成方法:
(6)前記仮想視点から見た前記移動体自身の画像を、前記移動体自身のパラメータ に基づ 、て生成するステップ;
(7)前記仮想環境画像と前記移動体自身の画像とを用いて、前記移動体自身の画 像と前記仮想環境画像とを含む複合画像を生成するステップ。
[3] 前記環境情報は複数の静止画であることを特徴とする請求項 1または 2に記載の生 成方法。
[4] 前記環境情報は動画であることを特徴とする請求項 1一 3のいずれか 1項に記載の 生成方法。
[5] 前記ステップ (6)における前記移動体自身のパラメータは、「前記仮想視点を指定 した時点またはその近傍から、生成された前記複合画像が提示される時点までの間 におけるいずれかの時点」におけるものであることを特徴とする請求項 2— 4のいずれ 力 1項に記載の生成方法。
[6] 前記移動体は自走可能であることを特徴とする請求項 1一 5のいずれか 1項に記載 の生成方法。
[7] 前記仮想視点は、前記移動体の周辺の環境および Zまたは操作者が見た ヽ地点 の周辺の環境を見る位置に存在していることを特徴とする請求項 1一 6のいずれか 1 項に記載の生成方法。
[8] 前記仮想視点は、前記移動体を背後から見る位置に存在して 、ることを特徴とする 請求項 1一 7のいずれか 1項に記載の生成方法。
[9] 前記ステップ(2)における「空間計測センサ自身のパラメータ」とは、「空間計測セン サ自身の位置および姿勢」および Zまたは、「空間計測センサ自身により得られたデ ータ空間と実空間との関係を表すデータ、行列もしくはテーブル」を含むものであるこ とを特徴とする請求項 1一 8のいずれ力 1項記載の生成方法。
[10] 前記ステップ(5)における「過去情報に基づいて生成する」とは、「前記環境情報に 含まれるいずれかの画像を、前記環境情報を取得した時の前記空間計測センサ自 身の位置と前記仮想視点との近さに基づ 、て選択する」ことである請求項 1一 9の ヽ ずれか 1項に記載の生成方法。
[11] 前記ステップ(5)における「過去情報に基づいて生成する」とは、「過去情報を用い て新たに生成する」ことである請求項 1一 9のいずれか 1項に記載の生成方法。
[12] 前記仮想環境画像は静止画であることを特徴とする請求項 1一 11のいずれか 1項 に記載の生成方法。
[13] 前記ステップ(7)における前記複合画像に含まれる前記移動体自身の画像は透明
、半透明、またはワイヤフレームの画像であることを特徴とする請求項 2— 12のいず れか 1項に記載の生成方法。
[14] 前記移動体自身のパラメータには、前記移動体の位置を含むことを特徴とする請 求項 2— 13のいずれか 1項に記載の生成方法。
[15] 前記移動体自身のパラメータには、前記移動体の姿勢をさらに含むことを特徴とす る請求項 14に記載の生成方法。
[16] 請求項 2— 15のいずれか 1項の方法により生成された複合画像を提示する提示方 法。
[17] 移動体と制御部と情報取得部とを備えており、
前記移動体は、環境情報を取得する空間計測センサを備えており、
前記制御部は、次の機能を実行するものであることを特徴とする画像生成システム (a)前記環境情報と、前記環境情報を取得した時の時刻と、前記環境情報を取得し た時の前記空間計測センサ自身のパラメータとを示す過去情報を保存する機能;
(b)指定された仮想視点の情報を受け取る機能;
(c)前記仮想視点から見た仮想環境画像を、前記保存された過去情報に基づ!ヽて 生成する機能。
[18] さらに情報取得部を備え、前記情報取得部は、前記移動体自身のパラメータを取 得するものであり、前記制御部は、さらに次の機能を実行するものであることを特徴と する請求項 17記載の画像生成システム:
(d)前記仮想視点から見た前記移動体自身の画像を、前記移動体自身のパラメータ に基づいて生成する機能;
(e)前記仮想環境画像と前記移動体自身の画像とを用いて、前記移動体の画像と前 記仮想環境画像とを含んだ複合画像を生成する機能。
[19] 請求項 1一 16のいずれか 1項記載の方法におけるステップをコンピュータに実行さ せるコンピュータプログラム。
[20] 請求項 17または 18における前記制御部の機能をコンピュータに実行させるコンビ ユータプログラム。
[21] 請求項 1一 15のいずれか 1項記載の生成方法によって生成された前記仮想環境 画像または前記複合画像を表す情報を含むデータ。
[22] 請求項 21記載のデータが記録された記録媒体。
PCT/JP2005/000582 2004-01-21 2005-01-19 画像生成方法 Ceased WO2005071619A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/587,016 US20070165033A1 (en) 2004-01-21 2005-01-19 Image generating method
GB0614065A GB2427520A (en) 2004-01-21 2005-01-19 Image generation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004013689A JP4348468B2 (ja) 2004-01-21 2004-01-21 画像生成方法
JP2004-013689 2004-01-21

Publications (1)

Publication Number Publication Date
WO2005071619A1 true WO2005071619A1 (ja) 2005-08-04

Family

ID=34805392

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/000582 Ceased WO2005071619A1 (ja) 2004-01-21 2005-01-19 画像生成方法

Country Status (4)

Country Link
US (1) US20070165033A1 (ja)
JP (1) JP4348468B2 (ja)
GB (1) GB2427520A (ja)
WO (1) WO2005071619A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019054000A1 (ja) * 2017-09-15 2019-03-21 株式会社小松製作所 表示システム、表示方法、及び表示装置
JP2023041954A (ja) * 2018-11-27 2023-03-24 キヤノン株式会社 システム及び情報処理方法

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2908324B1 (fr) * 2006-11-09 2009-01-16 Parrot Sa Procede d'ajustement d'affichage pour un systeme de jeux video
FR2908322B1 (fr) * 2006-11-09 2009-03-06 Parrot Sa Procede de definition de zone de jeux pour un systeme de jeux video
JP5174636B2 (ja) * 2008-11-28 2013-04-03 ヤマハ発動機株式会社 遠隔操作システムおよび遠隔操作装置
JP5235127B2 (ja) * 2008-11-28 2013-07-10 ヤマハ発動機株式会社 遠隔操作システムおよび遠隔操作装置
US9534902B2 (en) * 2011-05-11 2017-01-03 The Boeing Company Time phased imagery for an artificial point of view
DE112013004341T5 (de) * 2013-03-15 2015-05-21 Hitachi, Ltd. Fernbetätigungssystem
JP2014212479A (ja) 2013-04-19 2014-11-13 ソニー株式会社 制御装置、制御方法及びコンピュータプログラム
FR3031192B1 (fr) * 2014-12-30 2017-02-10 Thales Sa Procede de suivi optique assiste par radar et systeme de mission pour la mise en oeuvre de procede
JP6041936B2 (ja) * 2015-06-29 2016-12-14 三菱重工業株式会社 表示装置及び表示システム
CN106023692A (zh) * 2016-05-13 2016-10-12 广东博士早教科技有限公司 一种基于娱乐交互的ar趣味学习系统及方法
WO2017197653A1 (en) * 2016-05-20 2017-11-23 Sz Dji Osmo Technology Co., Ltd. Systems and methods for digital video stabalization
JP6586109B2 (ja) * 2017-01-05 2019-10-02 Kddi株式会社 操縦装置、情報処理方法、プログラム、及び飛行システム
JP6950192B2 (ja) * 2017-02-10 2021-10-13 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
US11228737B2 (en) * 2019-07-31 2022-01-18 Ricoh Company, Ltd. Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
JP6883628B2 (ja) * 2019-09-06 2021-06-09 Kddi株式会社 操縦装置、情報処理方法、及びプログラム
JP2021064064A (ja) * 2019-10-10 2021-04-22 沖電気工業株式会社 ロボットシステム、ロボット及び操作端末
WO2022138724A1 (ja) * 2020-12-24 2022-06-30 川崎重工業株式会社 ロボットシステム及びロボット作業方法
CN113992845B (zh) * 2021-10-18 2023-11-10 咪咕视讯科技有限公司 图像拍摄控制方法、装置及计算设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61267182A (ja) * 1985-05-22 1986-11-26 Hitachi Ltd 映像合成方式
JPH0830808A (ja) * 1994-07-19 1996-02-02 Namco Ltd 画像合成装置
JPH0962861A (ja) * 1995-08-21 1997-03-07 Matsushita Electric Ind Co Ltd パノラマ映像装置
JPH11168754A (ja) * 1997-12-03 1999-06-22 Mr System Kenkyusho:Kk 画像の記録方法、画像データベースシステム、画像記録装置及びコンピュータプログラムの記憶媒体
JP2000237451A (ja) * 1999-02-16 2000-09-05 Taito Corp 課題解決型乗り物ゲーム装置
JP2002269592A (ja) * 2001-03-07 2002-09-20 Mixed Reality Systems Laboratory Inc 画像処理装置及び方法
JP2003287434A (ja) * 2002-01-25 2003-10-10 Iwane Kenkyusho:Kk 画像情報検索システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6845297B2 (en) * 2000-05-01 2005-01-18 Irobot Corporation Method and system for remote control of mobile robot
US6831643B2 (en) * 2001-04-16 2004-12-14 Lucent Technologies Inc. Method and system for reconstructing 3D interactive walkthroughs of real-world environments

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61267182A (ja) * 1985-05-22 1986-11-26 Hitachi Ltd 映像合成方式
JPH0830808A (ja) * 1994-07-19 1996-02-02 Namco Ltd 画像合成装置
JPH0962861A (ja) * 1995-08-21 1997-03-07 Matsushita Electric Ind Co Ltd パノラマ映像装置
JPH11168754A (ja) * 1997-12-03 1999-06-22 Mr System Kenkyusho:Kk 画像の記録方法、画像データベースシステム、画像記録装置及びコンピュータプログラムの記憶媒体
JP2000237451A (ja) * 1999-02-16 2000-09-05 Taito Corp 課題解決型乗り物ゲーム装置
JP2002269592A (ja) * 2001-03-07 2002-09-20 Mixed Reality Systems Laboratory Inc 画像処理装置及び方法
JP2003287434A (ja) * 2002-01-25 2003-10-10 Iwane Kenkyusho:Kk 画像情報検索システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019054000A1 (ja) * 2017-09-15 2019-03-21 株式会社小松製作所 表示システム、表示方法、及び表示装置
JP2019054465A (ja) * 2017-09-15 2019-04-04 株式会社小松製作所 表示システム、表示方法、及び表示装置
US11230825B2 (en) 2017-09-15 2022-01-25 Komatsu Ltd. Display system, display method, and display apparatus
JP2023041954A (ja) * 2018-11-27 2023-03-24 キヤノン株式会社 システム及び情報処理方法

Also Published As

Publication number Publication date
JP4348468B2 (ja) 2009-10-21
GB2427520A (en) 2006-12-27
GB0614065D0 (en) 2006-08-30
US20070165033A1 (en) 2007-07-19
JP2005208857A (ja) 2005-08-04

Similar Documents

Publication Publication Date Title
JP4348468B2 (ja) 画像生成方法
US11484790B2 (en) Reality vs virtual reality racing
JP6329343B2 (ja) 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法
JP6768156B2 (ja) 仮想的に拡張された視覚的同時位置特定及びマッピングのシステム及び方法
US11991477B2 (en) Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
US20160292924A1 (en) System and method for augmented reality and virtual reality applications
JP6526051B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2016045874A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2011004201A (ja) 周辺表示装置
CN114073074A (zh) 信息处理装置、信息处理方法和程序
US20200007751A1 (en) Control apparatus, movable apparatus, and remote-control system
WO2012096347A1 (ja) ネットワークシステム、コントロール方法、コントローラ、およびコントロールプログラム
CN108139801A (zh) 用于经由保留光场渲染来执行电子显示稳定的系统和方法
KR20150128140A (ko) 어라운드 뷰 시스템
JP6859447B2 (ja) 情報処理システムおよび対象物情報取得方法
CN112703748B (zh) 信息处理装置、信息处理方法以及程序记录介质
JP6518645B2 (ja) 情報処理装置および画像生成方法
JP2009276266A (ja) ナビゲーション装置
JP2007221179A (ja) 画像表示装置および画像表示方法
JP7761134B2 (ja) 画像処理方法、ニューラルネットワークの学習方法、三次元画像表示方法、画像処理システム、ニューラルネットワークの学習システム、及び三次元画像表示システム
US20240400201A1 (en) Image generation apparatus, image generation method, and computer-readable storage medium
JP2007088660A (ja) 画像表示装置および画像表示方法
WO2009133353A2 (en) Camera control systems

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 0614065

Country of ref document: GB

WWE Wipo information: entry into national phase

Ref document number: 2007165033

Country of ref document: US

Ref document number: 10587016

Country of ref document: US

122 Ep: pct application non-entry in european phase
WWP Wipo information: published in national office

Ref document number: 10587016

Country of ref document: US