[go: up one dir, main page]

WO2005078559A1 - 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス - Google Patents

画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス Download PDF

Info

Publication number
WO2005078559A1
WO2005078559A1 PCT/JP2005/001629 JP2005001629W WO2005078559A1 WO 2005078559 A1 WO2005078559 A1 WO 2005078559A1 JP 2005001629 W JP2005001629 W JP 2005001629W WO 2005078559 A1 WO2005078559 A1 WO 2005078559A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
author
stage
candidate
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2005/001629
Other languages
English (en)
French (fr)
Inventor
Akio Ohba
Akira Suzuki
Tomokazu Kake
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to EP05704389A priority Critical patent/EP1710663A4/en
Priority to US10/587,172 priority patent/US7999843B2/en
Publication of WO2005078559A1 publication Critical patent/WO2005078559A1/ja
Anticipated expiration legal-status Critical
Priority to US13/078,127 priority patent/US8508578B2/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Definitions

  • the present invention relates to a technique for using an image cast by a video camera or the like as an input interface for a command or the like.
  • Common inputs for computers, video game machines, etc. include a keyboard, a mouse, and a controller.
  • the author inputs a desired command by operating these positions, and causes a computer or the like to perform a process corresponding to the input command.
  • the author displays the images and sounds obtained as a result of the processing using a display device or a speaker.
  • the author can operate many buttons provided in the input device, or operate while looking at the cursor displayed on the display device.
  • Image processing method, recording medium, compilation program, semiconductor device In Z, the operator's image is taken in, and the operator's image and the object image created by the image are combined and specified The method of displaying on the display device is disclosed. Since the object image is manipulated in accordance with the image, the moving image functions as an input interface.
  • the above-described physical device that solves the above problem includes an object stage that generates an object image of an object associated with a predetermined event, and an image including the image of the operator in the object stage. And an image processing unit that displays the image on a predetermined display device, and includes a detection step for detecting the position of the image of the author included in the image. Comprising
  • the object image is displayed in the area where the image of the operator's hand reaches the position of the image of the author, the object image is not displayed at a position where the operator can operate. For this reason, it is possible to easily use a moving image as an input curtain without making any rough decisions.
  • An image may be generated by shooting a moving image.
  • an image processing device that captures an image of the author, which is shaded by a predetermined position, from the position.
  • an image can be obtained in a conventional manner.
  • the area where the image of the author's hand can reach can be, for example, the position of the author's face.
  • the stage is configured to detect the position of the author's face from the image of the author, and the stage is configured to display the object image in a region corresponding to the detected position of the face.
  • the object image and the image are configured to be combined.
  • the image representing the author indicating that the author has been detected may be combined with the image of the author detected by the five steps.
  • the image of the image of the author may be detected.
  • the stage is configured to synthesize the object image and the image so that the object image is displayed in a size corresponding to the size of the detected image of the author. Is done.
  • the object image can be displayed in a size corresponding to the size of the operator's image, and the operator's image and the object's image are not displayed in an unbalanced manner.
  • the image according to the author's image obtained by the image image It may be configured to determine the area where the object image is combined.
  • the It may be configured so as to determine a region where the image is synthesized.
  • the image processing unit is configured to detect the positions of the author candidate images for each of the plurality of author candidates.
  • the object image and the image are displayed in such a manner that the object image is displayed in a range where the images of the hands of a plurality of candidate authors reach according to the positions of the images of the number of candidate authors detected by It may be configured to synthesize.
  • the position of the author's candidate image can manipulate the object image
  • the object image is synthesized. For example, if there are two operator candidates, the object image is displayed during that time.
  • the configuration is as follows. For example, when the object image is operated, a means for selecting the image of the author candidate who has performed the object operation as the image of the author is provided. The author who created the object first becomes the operator.
  • the image is a stereo photographed simultaneously from a plurality of angles
  • the image of the author candidate displayed closest to the object image in each of the plurality of images constituting the stereo image is displayed.
  • the author has means for selecting.
  • the author candidate shown in the position closest to the object image becomes the operator.
  • the object stage is configured to generate a plurality of object images corresponding to the candidate operator, and the corresponding object image is set to the candidate candidate for the candidate image. It may be configured to combine a number of object images with the image so that the hand image is displayed in a reachable range. In this case, when one of a plurality of object image shifts is operated, the author's assistant image corresponding to the object image is selected as the image of the author. First, the person who operates the object image assigned to him becomes the operator.
  • control means controls the digital image-capturing position to capture the image of the selected candidate candidate by zooming, vaning, or.
  • the operator may be clearly displayed so that the operator is clearly displayed.
  • the method includes: an image stage that generates an image including an image including an operator's image in the portion thereof, and an object image related to an object associated with a predetermined event; and the image included in the image.
  • This program is an object stage that generates an object image of an object associated with a given event on a computer connected to a display device.
  • An image stage for synthesizing the object images to generate a synthesized image; display control means for displaying the generated image on a predetermined display; a detection stage for detecting the position of the image of the author included in the surface image; The object image and the object image are displayed so that the object image is displayed in a range where the image of the author's hand reaches according to the position of the image of the author detected by the step.
  • It is a compilation program for forming a function to synthesize the image.
  • This conductor device is an object that generates an object image for an object associated with a predetermined event by being incorporated into a device that is connected to a display device.
  • a detection stage for detecting the position of the image of the author included is formed, and the object is placed in a range where the image of the author's hand reaches the stage according to the position of the image of the author detected by the stage.
  • a function for synthesizing the object image and the image is formed so that the object image is displayed.
  • FIG. 3 is a functional block diagram included in the logical device according to the present embodiment.
  • 0 is the image when the Meni image is presented.
  • 3 is a stereo image.
  • FIG. 2 is a diagram showing an image system to which light is applied.
  • This system includes an analog or digital video camera, an image processing device 2, a display 3, and a video camera, which are examples of a photographing device.
  • the system captures the author candidates for the display 3 with a video camera, and continuously captures the resulting moving images into the image processing device 2 to generate images, as well as images of objects and objects such as menica sols.
  • the synthesized image is also a moving image), and this image is displayed on the spray 3 in real time.
  • Object and image author candidates are composed so that they are displayed in the operable range. Predetermined logic is associated with the object, and when the object image is manipulated by the author selected from the operator candidates, the corresponding event) is realized.
  • An image can be created by using the image processing device 2 to create an image captured from a video camera.However, a mirror is placed in front of the video image and the image of the operator's candidate is displayed on the video camera. You may make it generate an image by shadowing it, or you may have a function that prevents the video camera from generating a specular image. The image changes in real time according to the person's time and the image of the object image is displayed.
  • the video camera 4 for controlling the video camera performs operations such as zooming, panning, and tilting on the video camera as indicated by the image processing device 4, but the video camera or the processing device Z It may be done.
  • the physical device 2 is realized by a compi- tor that forms a required performance by a compi- cation program.
  • the compilation by this state has two buses, Maybus B bus B2, to which a plurality of conductor devices each having a capability are connected. These buses B and B 2 are connected or disconnected via the bus interface.
  • the main bus B includes a main C 0 which is a semiconductor device, a main memory configured with a RAM, and a main Mrtyntor MPG vng P tur E xprtrup decoder (MDE 3 and a frame memory 5 which is an image memory)
  • the device raphrng Unit (hereinafter GP) 4 is connected. (GP 4 generates a video signal to display the data drawn in frame memory 5 on display 3 CRC ntrr) 6 is connected.
  • the main CP 0 reads the startup program from the ROM 2 3 on the bus B 2 via the bus interface when the compilation is performed, and executes the program to operate the operating system.
  • the media drive 27 is controlled and the application program data is read from the media 28 attached to the media drive 27 and stored in the main memory.
  • the data (standard value of 3 object data poly, etc.) composed of various data read from media 28 (e.g., a number of regular polygons)) can be used to express the object's or movement, etc.
  • a value calculation process is performed, and then a display list is generated that includes the Gon (the state and position of use, the types of materials that make up the poly, and the color and texture) based on the metric process.
  • the GP 4 has the image data including the context polygon material, and has the function to read and render the necessary context according to the display list notified from the main P0 and to draw the frame memory h.
  • the frame memory 5 that is a semiconductor device can also be used as a texture memory, so that the xel image on the frame memory can be used as a texture.
  • Main A is a conductor device that performs MA control for the route connected to the main bus and performs DA control for the route connected to sub-bus B 2 according to the bus interface status.
  • MEC 3 is a semiconductor device that operates in parallel with the main P 0 and has the function of decompressing data compressed with PG (vngtur E xprtrup or nthtgraphxpertrup).
  • Sub-bus B 2 includes P 20 RAM configured with an microprocessor 2, Sub-AC 2 2, operating system R 2 3, which stores programs such as the system, and the sound data 2 Z Reads the accumulated data and outputs it as audio Audio conductor device (SP unrngnt)) 2 4, Not via external network Communication for receiving information (AM) 2 6 Media drive 2 7 and input 3 for mounting media 2 8 such as CDR and VRO are connected.
  • SP unrngnt audio Audio conductor device
  • Sub C 20 performs each operation according to the control program stored in R O 2 3.
  • the sub A C 2 2 is a conductor device that performs A transmission and the like on the path connected to the sub bus B 2 only when the bus interface is disconnected from the main bus B bus 2.
  • 3 is provided with signal 3 from operation 3 5
  • 3 2 is input from video camera 3 3 and 3 4 is input from video camera.
  • the computer configured in this way operates as the image processing device 2 by the main P0 and sub CP20P reading and executing the required compilation program from the ROM 23 media 28, etc.
  • the necessary function block that is, image 0, transfer unit 2, object data 03, object data 04, object 05, image 06, image 0 T, table 08, author 09 shown in 3, is formed.
  • the image 0 is composed of the input 3 and the CP 20 that controls the image, and the image transfer unit 02, the object data 04, the object 05, the image 07, the author 09, and the image P 0.
  • Is made up of P 4 and display 08 is made up of P 4 and CRC 6.
  • Obj 03, Main 0 is accessible, for example in main memory 0
  • the image to be applied is directly applied to the digital image.
  • the converted image is converted to a digital image by performing A conversion of the analog image.
  • the transfer unit 0 processes the image captured by the image 0, that is, processes the image to generate an image.
  • the image input to the image n 2 is not the same as when the function for generating an image is changed on the video camera. If it is already an image, the image transfer unit 2 is not required.
  • the object data 03 holds the object data for representing the meni (including submeni) cursor object image.
  • Object data 0 takes the object data from object data 03 and sends it to object 05.
  • Object 05 generates an object image based on the object data taken from object data 4.
  • Object 05 determines the state of g based on the work made by the program and the author, and the object to realize that state.
  • an image obtained by combining the image and the object image formed by the object 05 is displayed in five frame memories.
  • the object image may be displayed on the image by 25-ipos processing.
  • Image 07 the images are compared for each frame, and images of the frame images before and after are generated.
  • Image 07 comparing images frame by frame, changes in image area color between frames Is detected.
  • the author included in the image is an image representing the movement of each frame of the operator candidate). For example, two images, the image of the operator (or the operator or operator candidate before moving when the operator candidate moves) and the image of the operator (or operator candidate) after the image. This is an image. By sneaking this image, the operator (will be struck by the operator candidate each time. According to this time, it is possible to decide where to display the object image.
  • Creator 09 Detects the position and size of the face of the author's candidate for the image. For example, it detects the position and size of the face of the author's candidate using a known sensing technique. In the sensing technique, for example, support solid-state S V, boosting b ng, neural network, specific E g a n F a, etc. can be used.
  • the operator section 9 selects a human author from a number of author candidates. Determined by the author, for example, when the author candidate manipulates an object image such as a menu
  • the image generated in 08, Image 06 is converted into a video signal and output to Display 3.
  • display 08 performs zooming, panning, tilting, etc. for the author selected by operator 09.
  • Zumpanning, tilting, etc. are digital to the image drawn in the frame.
  • the video camera 4 may be used to perform zooming, banging, tilting, etc. of the video camera.
  • description 4 of the image processing method performed by the above image system is a flowchart for explaining the order of the clear processing method using the system described above.
  • Display 3 an image including two operator candidates is projected as shown in.
  • the number of candidate authors that can be displayed on the display 3 is set to 2 on the explanation, this may be a larger number or a person.
  • the author candidate is the operator.
  • An image is generated by moving a moving image taken by a video camera to the image processing apparatus 2 and rotating the image left and right by the image transfer unit 02.
  • the rotated image is displayed on the display, and an image such as is displayed.
  • the physical device 2 detects the position of the author's candidate face using the sensing technique from the image by the operator 09, and surrounds the detected position with a shape 5 Step S 0.
  • the image 5 is also a seed of the object image, and when the face position of the candidate candidate is detected from the operator 09, the image 05 is converted from the object data 03 via the object 05 and the object data 4. An object image is acquired, and this is combined with the image. 08 is displayed on the image display 3 where this image 5 is synthesized. 5
  • the maker 5 may be displayed as if it is an operator candidate abandon.
  • the operator 09 selects an operation candidate area from the image based on the key 5 (step S02). By selecting the area, the area of the Meni image like 7 can be determined. In example 7 Three
  • the area of the Meni image is determined by the area. In the area, it represents the priority at which the meni image is presented. It is the area's (chest side) priority, and the area near the area's side can be operated with priority 2 with the right hand. Near the left side of the area, it is an area that can be operated with priority 3 with left hand, and in the area of area, it is an area that can be made with either left or right hand with priority 4. Between the two zones, it is a zone that can make either author candidate with priority 5.
  • the author candidates may be set to the same size, but in 7 the operation assistant is set with a different size.
  • the left-side author candidate is displayed larger than the right-side author candidate, so the presentation area for the left-side author candidate is set larger than the right-side author candidate.
  • the size of the presentation area is changed according to the area of the candidate operator. It can be found by detecting the face size from the operator's candidate 0 g.
  • step S03, 06 selects a region where the meni image is actually presented from among these meni image regions. This can be done according to a change in the color of the area of the image, for example, for each candidate of the image in the area of the image detected by the image 07. Among the areas, select the area that is most easily operated by the candidate candidate because of the color change whenever the candidate operator is selected. This area is the area where the meni image is presented.
  • 8 is a motion image obtained by superimposing images. By using such a motion image, it is possible to identify the regions and regions where the operator candidates are not likely to be affected. In the example of 8, the area where the hand moves frequently is shown as a slanted line as the area where the hand does not move.
  • the area occupied by the same color as the face color is indicated by diagonal lines, and the candidate of the operator moved by detecting the same color as the face color outside the shaded area. Can be detected.
  • the color can be generated by detecting the color of the face and detecting from the image the same color region as the detected color.
  • the image 6 When the area of the meni image is selected, the image 6 generates an image in which the ni image is combined with the area of the image.
  • 08 indicates the image generated on display 3 (step S 04. 0 indicates the image displayed on display 3 when the image is presented. In this example, two operators are displayed. Meni images are presented near each candidate's face and in priority 2 ".
  • the size of the two meni images is the same, but a different size may be presented for each operator candidate.
  • the size of the meni image is changed according to the size of candidate candidates displayed on the display 3. Since the author is set to be larger as the author candidate is created, the presentation area selected from the presentation area is also larger for the larger author candidate. If the meni image is presented in accordance with the size of the script, it will be enlarged and the meni image can be shown larger as the author candidate.
  • the operator 9 is selected as the operator by the operator 9 Step S05.
  • the authors actually perform the work.
  • display 08 expands the selected person and displays it in the center of the screen as shown.
  • Step S 06 Also, since it is made by the menu operator, t, A pull-down image representing either t or ect is displayed.
  • the author candidate who has previously manipulated the menu image is selected as the author who actually performs the work, but the author who actually performs the work may be selected using the stereoching method as follows. . 2 Prepare two images, for example, using two video cameras. 2 3 is the image of the Meni image combined with the image of 2 respectively.
  • the two images are, for example, and stereo images.
  • 2 is and 3 is an image.
  • Author 09 compares these two images and selects the operator candidate closer to the meni image as the operator.
  • the author on the left side is actually the author because the author candidates on the left side are close to the meni image.
  • the menu image can be easily displayed in an area where the operator or the operator candidate) can easily operate, so that complicated setting in the interface using the image is not necessary.
  • people can be selected from multiple author candidates, and multiple objects can be mirrored.
  • a motion image such as 8 and a color such as 9 can be used to determine the area for displaying an object image other than the menu image.
  • the image can be a region with a lot of operator's attention, a region with few operators, or a region without movement at all. Areas with many images displayed Areas with a large amount of operator error Areas with a small difference image are areas with a low operator level, and areas with a large difference image are areas with no operator level at all. 6
  • Color maps can represent the author by changing colors. For example, by comparing the colors of the areas on the faces of both frames, the areas where the colors have changed can be found. If it changes to a completely different color, it can be determined that there was an operator's fault.
  • buttons 4 2 are displayed in addition to the operator.
  • an event such as a ringing occurs.
  • button 4 2 is clicked, an event is generated in association with the button image.
  • Bell 4 is displayed in an area where the operator is less sensitive. Since the user's degree of attention is known from the image, the image 06 is selected in accordance with this, and a composite image is generated so that 4 is displayed in that area. To do.
  • Button 4 displays the color change in the large area. Since the color change can be detected by the color, the image 6 selects a region having a large color change according to this, and generates a composite image so that the button 42 is displayed in the region.
  • the object image can be easily arranged according to the operator's work.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 動画像を入力インタフェースとして用いた場合の初期設定を容易に行うための画像処理技術を提供する。 操作者の画像をその一部に含んだ鏡面動画像と所定のイベントに関連づけされたオブジェクトについてのオブジェクト画像とを合成して合成画像を生成する画像合成部106を有し、この合成画像をディスプレイ装置に表示させる画像処理装置である。この画像処理装置は、鏡面動画像に含まれる操作者の画像の位置を検出する検出部109を備えており、画像合成部106は、検出部109により検出された操作者の画像の位置に応じて、操作者の手の画像が届く範囲にオブジェクト画像が表示されるように、オブジェクト画像と鏡面動画像とを合成するように構成されている。

Description

理装置、 画像 理方法、 記録 体、 コンピ プログラム、 半導体 バイス 術分野
本 、 ビデオカメラなどの 置により 影された 像を、 コ ンド等の入カインタフ として利用するための 術に関する。 明の
コンピ タ、 ビデオゲ ム機などによく いられる入力 として、 キ ボ ド、 ウス、 コントロ ラ等がある。 作者は、 これらの 置を操作 することにより所望のコ ンドを入力して、 入力されたコ ンドに応じた 理 をコンピ タ等に行わせる。そして 作者は、 処理 果として得られた画像、 音などを、 ディスプレイ 置やスピ カにより する。 作者 、 入力 置 に備えられる多くのボタンを操作したり、 ディスプレイ 置に表示されたカ ソルなどを見ながら操作することにより、 コ ンドの 力を行うこととなる。
、 上記のような 来からの 置を用いる方法の他に、 ビデオカメ ラ等の撮 置を用いて撮影した動画像により、 コマンドの 力を可能にした 術も開発されている。 出願人も、 2002 9 6 8 5 5
明の 理装置、 画像 理方法、 記録 体、 コンピ プログラム、 半導体 バイス ) Zおいて、 操作者の 画像を取り込んで、 操作者の 画像と 当 画像により 作されるオブジ クト 像とを合成して所定のディスプレ イ 置に表示させる 術を開示している。 画像の きに応じてオブジ クト 像が操作されるために、 動画像 体が入カインタフ として機能するこ とになる。
このように動画像を入カインタフ として いる場合、 操作者が適切な 位置に表示されるように撮影 置のアングルを調整したり、 を選択するこ とは、 正確な 作のために極めて重要である。 そのために、 初期 定が 雑、 雑になりがちである。 定が不 分であったり、 操作者が適切な位置にいな い場合には、 オブジ クト 像を操作 難な位置に 作者の 画像が表示され たり、 いは誤認識の 因となり、 正確な入力 作の げになることもある。
、 上記のよ な問題を解決するものであり、 動画像を入カインタフ として いた場合の 定を容易に行うための 術を提供す ることを課題とする。 明の
上の課題を解決する 明の 理装置は、 所定のイベントに関連づけ されたオブジ ク についてのオブジ クト 像を生成するオブジ クト 段と、 操作者の 像をその 部に含んだ 画像に前記オブジ クト 像を合成して合成 像を生成する画像 段を有し、 この 像を所定 のディスプレイ 置に表示させる画像 理装置であって、 前記 画像に含 まれる前記 作者の 像の 置を検出する検出 段を備え、 前記
は、 前記 段により検出された前記 作者の 像の 置に応じて、 前記 作者の手の画像が届く 域に前記オブジ クト 像が表示されるよ に、 前記 オブジ クト 像と前記 画像とを合成するように構成されている。
作者の 像の 置に合わせて、 操作者の手の画像が届く 域にオブジ ク ト 像が表示されるために、 操作者が操作 能な位置にオブジ クト 像が表 されることがなくなる。 そのために、 雑な 定を行わなくても、 動画 像を入カインタフ として 易にしようできるようになる。
画像は動画像を撮影する で生成するようにしてもよいが、 例えば、 明の 理装置が、 所定の 置により 影された前記 作 者の 像をその 部に含む 画像を、 この 置から取り込む
R と、 取り込んだ 画像に 理を施して前記 画像を生成する画像 転 手段と、 をさらに備えるようにすれば、 用の 置で 画像を得るこ とができるようになる。
作者の手の画像が届く 域とは、 例えば 作者の顔の位置の 分とす ることができる。 顔の位置の 分にオブジ クト 像を表示させる場合に は、 例えば、 前記 段が、 前記 作者の 像から 作者の顔の位置を 検出するよ に構成され、 前記 段が、 検出された顔の位置に応じた 域に前記オブジ クト 像が表示されるように 前記オブジ クト 像と前 記 画像とを合成するように構成される。 この 合、 前記 、 5 段により検出された前記 作者の 像の 置に、 作者が検出 されたことを示す カを表す画像を合成するよ に構成されていてもよい。
、 操作者の 像の 置の他に前記 作者の 像の きさを検 出するように構成されていてもよい。 この 合、 前記 段が、 検出さ れた前記 作者の 像の きさに応じた大きさに前記オブジ クト 像が表示 されるように、 前記オブジ クト 像と前記 画像とを合成するように構 成される。 これにより、 操作者の 像の きさに応じた大きさでオブジ クト 像を表示できるようになり、 操作者の 像とオブジ ク の 像とがアンバ ランスに表示されることはない。
画像のフレ ム間の画像の 表す 像を、 複数 ねた 画像 ップを生成する手段をさらに備える場合には、 前記 、 この き画像 ップにより得られる前記 作者の 像の きに応じて、 前記オ ブジ クト 像を合成する 域を決めるように構成されていてもよい。
また、 前記 画像のフレ ム間で各 域の色の変化を検出する手段を備 える場合には、 前記 、 この色の変化でにより得られる前記 20 者の画像の きに応じて、 前記オ ジ クト 像を合成する 域を決めるよう に構成されて てもよい。
作者になり得る複数の 作者候補の 像が前記 画像に含まれている 場合には、 前記 、 複数の 作者候補のそれぞれについて 作者 候補の 像の 置を検出するように構成され、 前記 、 前記 25 段により検出された 数の 作者候補の 像の に位置に応じて、 前 記オブジ クト 像が複数の 作者候補の手の画像が届く 囲に表示されるよ うに、 前記オブジ クト 像と前記 画像とを合成するように構成されて いてもよ 。
つまり 作者候補の 像がオブジ クト 像を操作できるような位置に、 ブジ クト 像が合成される。 えば 操作者候補が 2人の場合にはその間 オブジ クト 像が表示されるように合成される。
数の 作者候補から操作者を選ぶ 合には、 以下のよ な構成となる。 えば、 前記オブジ クト 像が操作された場合に、 オブジ クト 操作した 作者候補の 像を前記 作者の 像に選択する手段を備えるよ する。 オブジ ク を最初に 作した 作者候補が操作者になる。
他に、 前記 画像が複数の なる角度から同時に撮影されたステレオ である場合には、 ステレオ 像を構成する複数の 像のそれぞれで前記オブ クト 像に最も近 位置に表示される 作者候補の 像を前記 作者の に選択する手段を備えるようにする。 オブジ クト 像に最も近い位置に表 される 作者候補が操作者になる。
他に、 前記オブジ クト 段を、 操作者候補の に対応して複数 オブジ クト 像を生成するように構成して、 前記 、 作 候補の 像に対して、 対応するオブジ クト 像を当 作者候補の手の画 が届く 囲に表示されるように・ 数のオブジ クト 像と前記 像とを合成するように構成してもよい。 この 合、 複数のオブジ クト 像 ずれか一つが操作された場合に、 オブジ クト 像に対応する 作者 補の 像を前記 作者の 像に選択する。 初に、 自分に割り当てられたオ ジ クト 像を操作した者が操作者となる。
数の 作者候補から操作者が選ばれると、 前記 御手段は、 デジタル 前記 画像を撮影するための 置を制御して、 選択された 者候補の 像を、 ズ ム、 バン、 又は により、 画面の ん中に きく表示されるようにして、 操作者を明確にするようにしてもよい。
、 また、 以下のような画像 理方法を提供する。 この 理方法 、 操作者の 像をその 部に含んだ 画像と、 所定のイベントに関連づ されたオブジ ク についてのオブジ クト 像とを含んだ 像を生成 る画像 段と、 前記 画像に含まれる前記 作者の 像の 置を検 する検出 段とを有し、 生成された 像を所定のディスプレイ 置に表 させる画像 理装置により実行される方法であって、 前記 段が、 段により検出された前記 作者の 像の 置に応じて、 前記 作者 の手の画像が届く 囲に前記オブジ クト 像が表示されるように前記オブジ クト 像と前記 画像とを合成する。
、 また、 以下のようなコンピ プログラムを提供する。 この ンピ プログラムは、 ディスプレイ 置が接続されたコンピ に、 所 定のイベントに関連づけされたオブジ ク についてのオブジ クト 像を生 成するオブジ クト 段、 操作者の 像をその 部に含んだ 画 像に前記オブジ クト 像を合成して合成 像を生成する画像 段、 生成 された 像を所定のディスプレイ 置に表示させる表示 御手段、 前記 面 画像に含まれる前記 作者の 像の 置を検出する検出 段、 を形成させ、 前記 段に、 前記 段により検出された前記 作者の 像の 置 に応じて、 前記 作者の手の画像が届く 囲に前記オブジ クト 像が表示さ れるように、 前記オブジ クト 像と前記 画像とを合成する機能を形成 させるためのコンピ プログラムである。
、 また、 以下のような 導体 バイスを提供する。 この 導体 バ イスは、 ディスプレイ 置が接続されたコンピ に された装置に組み 込まれることにより、 前記コンピ に、 所定のイベントに関連づけされた オブジ ク につ てのオブジ クト 像を生成するオブジ クト
段、 操作者の 像をその 部に含んだ 画像に前記オブジ クト 像を合 して合成 像を生成する画像 段、 生成された 像を所定のディス プレイ 置に表示させる表示 御手段、 前記 画像に含まれる前記 作者 の 像の 置を検出する検出 段、 を形成させ、 前記 段に、 前記 段により検出された前記 作者の 像の 置に応じて、 前記 作者の手の 画像が届く 囲に前記オブジ クト 像が表示されるように、 前記オブジ ク 像と前記 画像とを合成する機能を形成させる。
上の説明から明らかなように、 明によれば、 動画像を入カインタフ として いた場合の 定を、 容易に行うことができるようになる。 面の 単な説明 、 明を適用した画像 システムの 体構成 である。
は、 本実施 態による画像 理装置の である。
、 本実施 態の 理装置が具備する機能ブロック図である。
は、 本実施 態の 順を示すフロ チヤ トである。
は、 カ 像が合成された 画像の である。
は、 帯状の カ 像が合成された 画像の である。
、 メニ 像の 域を表す である。
は、 動き画像 ップの である。
は、 カラ ップの である。
0は、 メニ 像を提示したときの 像の である。
は、 操作者を決定したときの 像の である。
2は、 ステレオ 像の 像の である。
3は、 ステレオ 像の 像の である。
4は、 操作者の きに応じてオブジ 像を表示したときの であ 。 明 実施するための 良の
、 本 明の 態を詳細に説明する。
、 明を適用した画像 システムの を示した図である。 こ システムは、 撮影 置の 例であるアナログ又はデジタルのビ デオ メラ 、 画像 理装置 2、 ディスプレイ 3、 ビデオカメラ を有して構成される。 システムは、 ディスプレイ 3 対 する 作者候補をビデオカメラ で撮影し、 これにより得られた動画像を画像 理装置 2に に連続に取り込んで 画像を生成するとともに、 の 画像と、 メニ カ ソル等のオブジ についてのオブジ 像とを合成して合成 像 れも動画像となる ) を生成し、 この 像 を スプレイ 3上にリアルタイムに表示させるものである。 オブジ 、 画像 の 作者候補が操作 能な 囲に表示されるように合 成さ る。 オ ジ クトには所定の 理が対応 けられて 、 操作者候補から選択さ れた 作者によりオブジ クト 像が操作されると、 当する イベント ) が実 されるようになっている。
画像は、 ビデオカメラ から取り込んだ 画像を画像 理装置 2で ( 像の することにより 成することができるが、 ビデ オカ ラ の前に鏡を置き、 操作者候補を映した 面の 画像をビデオカメラ で 影することによって 画像を生成するようにしてもよ 。 また、 ビ デオ メラ が鏡面 画像を生成するような機能を予防備えていてもよい。 い ずれ しても、 スプレイ 3上には、 操作者の きに応じてその 態がリアルタイムに変化する 画像とオブジ クト 像との 像が表 示さ るようにする。
な 、 ビデオカメラ を制御するためのビデオカメラ 4は、 画像 理装 4からの 示により、 ビデオカメラ にズ ム、 パン、 チルト等の動作 をさ るものであるが、 ビデオカメラ いは 理装置 Z されてい てもよ 。
理装置 2は、 コンピ プログラムにより所要の 能を形成するコ ンピ 夕により実現される。
こ 態によるコンピ は、 例えば 2にそのハ ドウエア 成を 示すように、 それぞれ 有の 能を有する複数の 導体 バイスが接続された メイ バス B バス B 2の 2本の を有している。 これらのバス B 、 B 2 、 バスインタフ ス を介して いに接続され又は切り離される よう なっている。
メ ンバス B には、 たる半導体 バイスであるメイン C 0と、 R A M 構成されるメインメモリ と メイン M r t y n t o r M P G v n g P t u r E x p r t r u p デコ ダ ( M D E 3と、 画用メモリとなるフレ ムメモリ 5を内蔵する 理 装置 r a p h r n g U n t、 以下 G P ) 4が接続される。 G P 4 は、 フレ ムメモリ 5に描画されたデータをディスプレイ 3で表 示で るようにするためのビデオ 号を生成する C R C n t r r ) 6が接続される。
メイン C P 0は、 コンピ の 動時に バス B 2上の R O M 2 3 から、 バスインタフ ス を介して起動プログラムを読み込み、 その プログラムを実行してオペレ ティングシステムを動作させる。 また、 メデ ドライブ 2 7を制御するとともに、 このメディアドライブ 2 7 着され たメディア 2 8からアプリケ ションプログラム デ タを読み出し、 これを メインメモリ に記憶させる。 さらに、 メディア 2 8から読み出した各種デ タ、 例えば 数の 本図形 ポリゴン ) で構成された 3 オブジ クトデ タ ポリ の の 標値など ) して オブジ ク の や動き等を表現するための メトリ ( 標値 算処理 を行い、 そし て、 メトリ 理による ゴン ( 用する の 状及びそ の 置、 ポリ を構成する素材の 類、 色調 質感 の ) をその 容とするディスプレイリストを生成する。
G P 4は、 コンテクスト ポリゴン 材を含む 画用のデ タ を 持しており、 メイン P 0から通知されるディスプレイリストに従って 必要な コンテクストを読み出してレンダリング ( を行 、 フレ ムメモリ h を描画する機能を有する半導体 バイスである フレ ムメモリ 5は、 これをテクスチヤメモリとしても使用できる。 そのた め フレ ムメモリ上の クセルイメ ジをテクスチヤとして、 画する
に 付けることができる。
メイン A は、 メインバス 続されている 路を対象とし て M A 御を行うとともに、 バスインタフ ス の 態に応じて、 サブバス B 2に接続されている 路を対象として D A 御を行う 導 体 バイスであり、 M E C 3 、 メイン P 0 並列に動作し、 P G ( v n g t u r E x p r t r u p あるい n t h t g r a p h x p e r t r u p で圧縮されたデ タを伸張する機能を有 する半導体 バイスである。
サブバス B 2には、 イクロプロセッサなどで構成される P 2 0 R A Mで構成される 2 、 サブ A C 2 2、 オペレ ティングシ ステムなどの プログラムが記憶されている R 2 3、 サウンドメ 2 Z 積 れた デ タを読み出してオ ディオ として出力する音声 理 用 導体 バイス ( S P u n r n g n t ) ) 2 4、 しないネッ トワ ク 介して外部 情報の 受信を行う通信 ( A M ) 2 6 C D R や V R O などのメディア 2 8を装着するためのメディア ドライブ 2 7 び入力 3 が接続されている。
サブ C 20は、 R O 2 3に記憶されている制御プログラムに従って各 種 作を う。 サブ A C 2 2は、 バスインタフ ス がメインバス B バス 2を切り離している状態においてのみ、 サブバス B 2に接続 されている 路を対象とし A 送などの 御を行う 導体 バイスで ある。 3 は、 操作 3 5からの 号が入力される 3 2 ビデオカ ラ からの 号が入力される 3 3、 ビデオカメラ からの 号が入力される 3 4を備える。
なお、 明細書では、 画像についてのみ 明を行い、 便宜上、 音声について の 省略する。
このように構成されるコンピ は、 メイン P 0、 サブ C P 2 0 P が、 R O M 2 3 メディア 2 8等の記 体から所要のコンピ プロ ラムを読み込んで実行することにより、 画像 理装置 2として動作 するうえ 必要な機能ブロッ 、 すなわち 3に示す、 画像 0 、 転部 2、 オブジ クトデ タ 03、 オブジ トデ タ 04、 オブジ 05、 画像 0 6、 画像 0 T、 表 08、 作者 09を形成する。
2 した ドウエアとの 係でほ、 画像 0 は入力 3 びその 作を制御する C P 20により 成され、 画像 転部 02 ブジ クトデ タ 04、 オブジ 05、 画像 07 作者 09 メイン P 0により 成され、 画像 0 は P 4により 成され、 表示 08は P 4と C R C 6との により 成される。 オブジ 03 、 メイン 0が セス 能な ・ えばメインメモリ に 0
れる。
0 、 ビデオカメラ により 影された 像を入力 3 3 3を介して取り込む。 力される 像がデジタル 像の 、 そのまま り込む。 力される 像がアナログ 像の 、 A 換を行ってデジタル 像に変換して取り込む。
転部 0 は、 画像 0 により取り込んだ 像を 理、 すなわち 理して 画像を生成する。 なお、 ビデオカメラ による 影を、 ビデオカメラ の前に鏡を置いて行う場合、 はビデオカメ ラ に 像を生成するような機能が わって る場合のように、 画像 n 2に入力される 像が既に 画像となっている場合には、 画像 転部 2は不要になる。
オブジ トデ タ 03は、 メニ (サブメニ を含む ) カ ソル オブジ 像を表現するためのオブジ トデ タをそ の 共に保持する。
オブジ トデ タ 0 は、 オブジ トデ タ 03から オ ジ トデ タを取り込んで、 オブジ 05 送る。 オブジ 05は、 オブジ クトデ タ 4より取 り込んだオブジ トデ タに基づいてオブジ 像を生成する。 オブジ 05は、 プログラム たほ 作者による 作に基づいて g ブ の 態を決定し、 その 態を実現するためのオブジ
像を生成する。
06は、 画像とオブジ 05により 成 れるオブジ 像とを合成した 像をフレ ムメモリ 5 画 する。 なお、 オブジ 像を合成して合成 像を生成するほかに、 25 イ ポ ズ 理により、 画像上にオブジ 像を表示するよ にし てもよい。
1 07は、 画像を フレ ム毎に比較して、 前後のフレ ム 画像 の 像を生成する。 また 画像 07 、 画像を フレ ム毎に比較して、 フレーム間で 画像の 域の色の変化 を検出する。
、 画像に含まれる 作者 は操作者候補 ) のフレ ム毎 の動きの 化 表す画像である。 えば、 2つの 画像 、 操作者 ( は操作者候補 が動いたときの、 動く前の操作者 又は操作者候補 ) の 像と いた後の操 者 (又は操作者候補 ) の 像との なる部分からなる画像であ る。 この 像を ねることで、 操作者 ( は操作者候補 の 、 その 度がね るようになる。 この 度に応じてオブジ クト 像をどの 置 に表示させる を決めることができる。
画像 域の色の変化を検出することで、 操作者 又は操作者候補 が動いたこと わかる。 えば、 服の前に手をかざすと、 画面上、 手をかざし た部分の色が服の色から手の色に変わる。 これにより、 色の変化で手が服の前 にかざされたことがわかる。
これらの 者 Xは操作者候補 ) の きの 度、 色の変化が、 オブジ ク ト 像を 画像のどの 域に合成するかを決める要因になる。
作者 09 、 画像 の 作者候補の顔の位置、 大きさ等を 検出するもの あり、 例えば、 既知の センシング 術を用いて・ 作者候補 の顔の位置、 きさ等を検出する。 センシング 術にほ、 例えば、 サポ ト ベタタ マシ S V 、 ブ スティング b n g 、 ニ ラルネットワ タ、 固有 E g a n F a などを用 ることができる。 また、 操作者 部 9は、 数の 作者候補から 人の 作者を選択するものである。 作 者の 、 えば 作者候補がメニ などのオブジ クト 像を操作した ときに決まる
08 、 画像 06で生成された 像をビデオ 号 に変換してデ スプレイ 3に出力する。 また、 表示 08は、 操作 者 09により選択された 作者に対してズ ム、 パン、 チルト等を行 ものである ズ ム パン、 チルト等は、 フレ ムメ りに描画された画像 に対してデジ ル 理により行ってもよいし、 ビデオカメラ 4により、 ビデオカメラ のズ ム、 バン、 チルト等を行わせるよ にしてもよい。
ディスプレ 3 、 この 08からのビデオ 号により、 2
上に合成 画像 を表示させる。
理 法
次に、 上 のような画像 システムにより行われる画像 理方法の を説明する 4は、 記の システムを用いた 明の 理方法の 順を説 明するため フロ チヤ トである。
ディスプ イ 3には、 に示すように、 2人の操作者候補を含む 画像が映 出されて るものとする。 なお、 説明の 上ディスプレイ 3 し出 れる 作者候補の数を 2 としたが、 これは更に多くの 数でも よく、 また 人でもよい。 人の場合には、 その 作者候補が操作者となる。
画像は、 ビデオカメラ で撮影された動画像が、 画像 理装置 2に入 力され、 画像 転部 02 より画像が左右 転されることで生成される。
転した 像がディスプレイ 置に表示されることで、 のような 像が映し される。
理装置 2は、 操作者 09により 画像から センシング 術を用い 作者候補の顔の位置を検出して、 検出した位置を 形の カ 5 で囲う ステッ S 0 。 カ 5 もオブジ 像の 種であり、 画像 06は、 操作者 09 こより 者候補の顔 位置が検出されると、 オブジ クト 05、 オブジ トデ タ 4を介してオブジ トデ タ 03から カ 5 5 2のオブジ 像を取得し、 これを 画像の 当する 置に合成する。 08は、 この カ 5 が合成された 画像 スプレイ 3に表示させる 5
なお、 ーカ 5 は、 形の他に、 6 すような 状として、 操作者候補 アバンドをしているように表示してもよい。
いで操 者 09は、 ーカ 5 に基づいて 画 像から操作 候補の 域を選択する (ステップ S 02 )。 域を選択する ことで、 7のようなメニ 像の 域が決められる。 7の例で 3
は、 メニ 像の 域が、 域の 決められるよ にな って る。 域内の 、 メニ 像が提示される優先 を表し ており、 域の (胸の辺 ) の 優先 であり、 域 の 側近傍の 、 優先 2 で右手で操作できる 域である。 域の左側近傍の 、 優先 3 で左手で操作できる 域であり、 域の 部の 、 優先 4 で左右どちらの手でも 作できる 域 である。 2つの 域の 間の 、 優先 5 でどちらの 作者候 補も 作できる 域である。
、 優先 に応じてどの 作者候補でも同じ きさに設定す るようにしてもよ が、 7では、 操作 補者 異なる大きさで設定してい る。 7では、 左側の 作者候補が右側の 作者候補よりも大きく表示されて いるので、 左側の 作者候補に対する提示 域が、 右側の 作者候補の よりも大きく設定されている。 つまり、 提示 域の きさは、 操作者候補の 域の きさに応じて変えるようにしてある。 作者候補の 、 操作者 0 g より顔の大きさを検出することで知ることがで きる。
06は、 これらのメニ 像の 域の中から実際に メニ 像を提示する 域を選択する ステップ S 03 。 域の 、 例えば、 画像 07により検出される、 画像の 部分におけ 作者候補の 度、 画像の 域の色の変化に応じて行うことが できる。 域のうち、 操作者候補の きの 度、 色の変化により 作 者候補が最も操作しやすい領域を選択する。 この 域がメニ 像を提示す る 域となる。
のように、 操作者候補の きの 像を重ねることで検出する ことができる。 8は、 像を重ねて得られる動き画像 ップの で ある。 このような動き画像 ップにより、 操作者候補の きの 度が な領域 と 領域とがわかる。 8の例では、 手の頻繁に動く 域が、 動きが な領 域とし 斜線で表されて る。
色の変化は、 9に示すようなカラ ップを用いることで知ることが 4
できる。 9のカ ー ップは、 顔の色と同じ色が占める 域を斜線で示 しており、 斜線の 域以外で、 顔の色と同じ色を検出することで、 操作者候補 が動いたことを検 できる。 カラ ップは、 例えば、 センシング 術 により 作者の顔 位置を検出する際に、 顔の色を検出しておき、 検出した の と同系統の色 領域を 画像から検出することで生成することができ る。
メニ 像の 域が選択されると、 画像 6は、 画像 の 域に ニ 像を合成した 像を生成する。 08 は、 ディスプレイ 3に生成された 像を表示させる (ステップ S 0 4 。 0は、 メ 像を提示したときの、 ディスプレイ 3に表示さ れる画像の ある。 この例でほ、 2人の操作者候補のそれぞれ顔の近 、 優先 2 " の に、 メニ 像が提示されている。
0では 2つ メニ 像の きさを同じにしているが、 操作者候補ご とに異なる大きさ 提示するよ にしてもよい。 えば、 ディスプレイ 3 に映し出される 者候補の きさに応じてメニ 像の きさを変える。 きく し出され 作者候補の ほど大きく設定されるので、 提 示 域から選 される提示 域も、 大きく し出される 作者候補ほど大 きくなる。 の きさに合わ メニ 像を提示するよ にすれば、 大きく し出され 作者候補ほどメニ 像を大きく 示することができ 。
2人の操作者候 の 方が手を動かし、 合成 上で当 作者候補の手が メニ 像に触 る、 ほ すると、 操作者 9により 作者候補が操作者 して選択される ステップ S 05 。 これにより実際に 作を行 作者が まる。
際に 作を行う 作者が決まると、 表示 08は、 示すよ に、 選択した 者を拡大して、 画面 央に表示する ステップ S 06 ) また、 メニ 操作者に 作されているので、 その t 、 t 、 e c t のいずれかを表す ルダウン 像が表示される。
このよ にして 操作者候補の メニ 像を表示することが可能に 5
なり、 操作のための 雑な 定が不要になる。 また、 複数の 作者候補か ら実際に 作を行う 作者を選択することも容易に可能になる。
2
では、 先にメニ 像を操作した 作者候補を実際に 作を行う 作者として選択しているが、 以下のようにステレオ ッチングの 法を利用 して実際 作を行う 作者を選択するようにしてもよい。 2で 、 ビ デオカメラ を 2 意するなどして、 2つの 画像を用意する。 2 3は 2 の 画像にそれぞれメニ 像を合成した 像の である。
2つの 画像は、 例えば 用及び ステレオ 像である。
2、 3 例では、 2が 、 3が 像である。 作者 09は、 これらの 2つの 像を 較して、 メニ 像により近 い方の操 者候補を操作者として選択する。 の例では、 いずれも 左側の 作者候補がメニ 像に近いために、 左側を実際に する 作者 とする。
上のように、 いずれの においてもメニ 像を操作者 又は操作 者候補 ) が操作しやす 領域に 易に表示することができるので、 画像 を用いた カインタフ スにおける複雑な 定などが不要となる。 また、 複数の 作者候補から 人を選択することができ、 複数の 物が鏡面
に表 される場合でも、 初期 定が困難になったり、 複数の 作者が同時 に入力を うことがな ようにすることができる。
また、 8のような動き画像 ップ 9のようなカラ ップを用い て、 メニ 像以外のオブジ クト 像を表示する 域を決めることもでき る。
の りこれらの ップは、 操作者の きを定量的に表すことができる。 き画像 ップは、 操作者の きが多い領域、 少ない領域、 まったく動きのな い領域を すことができる。 示される 像が多 領域が操作者の きが 多い領域 差 像が少な 領域が操作者の きが少な 領域、 差 像がま ったくな 領域が操作者の きがまったくない領域である。 6
カラ マップは、 色の変化により 作者の きを表すことができる。 えば フレ ム両 フレ ムの 面上の各 域の 、 現在のフレ ムの 面 の 域の色を比較することで、 色が変化して る 域を見つけることができ る。 まったく異なる色に変化している場合には操作者の きがあったと判断で きる。
4は、 操作者の きに応じてオブジ クト 像を表示したときの である。
4では、 操作者の他にべ 4 ボタン 4 2とが表示され ている。 作者が に触れると、 例えば が鳴る等のイベント が発生するよ になっている。 ポタン 4 2を れた場合にほ、 ポタン 像に関連づけされ イベントが発生するようになっている。
ベル 4 、 操作者の きの 度が少ない領域に表示される。 き画 像 ップにより、 操作者の きの 度がわかるので、 画像 06は、 こ れに応じて 度が少な 領域を選択して、 その 域にべ 4 が表示さ れるように合成 像を生成する。
ボタン 4 は、 色の変化が大き 領域に表示される。 カラ ッ プでは色の変化を検出できるため、 画像 6は、 これに応じて色の変 化が大きい領域を選択して、 その 域にポタン 4 2が表示されるように 合成 像を生成する。
このように、 オ ジ クト 像を操作者の 作に応じて配置することも容易 に可能になる。

Claims

7
求 の ・ 定の ベントに関連づけされたオブジ についてのオブジ 像を生成するオブジ クト 段と、 操作者の 像をその 部に含ん 画像 前記オブジ 像を合成して合成 像を生成する画像 段を有し、 の 像を所定のディスプレイ 置に表示させる画像 理装 置であって、
前記 像に含まれる前記 作者の 像の 置を検出する検出 段を備 、
前記 段により検出された前記 作者の 像の 置に応じて、 前記 作 者の手の画像 届く 域に前記オブジ クト 像が表示されるように、 前記オ ブジ 像と前記 画像とを合成するように構成されている、 画像 理装 。
2・ 定の 置により 影された前記 作者の 像をその 部に含む 画像を、 この 置から取り込む 段と、
取り込んだ 画像に 理を施して前記 画像を生成する画像 転手 段と、 をさら 備えている、
の 載の 理装置。
3・ 、 前記 作者の 像から 作者の顔の位置を検出す るよ に構成 れており、
前記 、 検出された顔の位置に応じた 域に前記オブジ 像が表示さ るように、 前記オブジ 像と前記 画像とを合成す るように構成 れている、
求の 載の 理装置。
4・ さらに前記 作者の 像の きさを検出するように構 成されており
前記 、 検出された前記 作者の 像の きさに応じた大きさ に前記オブジ クト 像が表示されるように、 前記オブジ 像と前記 8
画像とを合成するように構成されている、
請求の 載の 理装置。
5 、
記 段により検出された前記 作者の 像の 置に、 作者が検 されたことを示す カを表す画像を合成するように構成される、 請求の 載の 理装置。
6 画像のフレ ム間の画像の 表す 像を、 複数 ね た き画像 ップを生成する手段をさらに備えており、
記 、 この き画像 ップにより得られる前記 作者の の きに応じて、 前記オブジ 像を合成する 域を決めるように構成さ れ る、
請求の 載の 理装置。
7 画像のフレ ム間で各 域の色の変化を検出する手段を備え て り、
、 この色の変化でにより得られる前記 作者の 像の きに応じて、 前記オブジ 像を合成する 域を決めるように構成されて いる、
請求の 載の 理装置。
8 作者になり得る複数の 作者候補の 像が前記 画像に含まれて いる場合に、
記 、 複数の 作者候補のそれぞれについて 作者候補の 像 置を検出するように構成されており、
記 、 前記 段により検出された 数の 作者候補 の 像の に位置に応じて、 前記オブジ クト 像が複数の 作者候補の の 像が届く 囲に表示されるように、 前記オブジ 像と前記 画 像とを合成するように構成されている、
請求の 載の 理装置。
9・ オブジ 像が操作された場合に、 オブジ 像を操 作した 作者候補の 像を前記 作者の 像に選択する手段と 9
択さ た 作者候補の 像をズ ム、 パン、 又は する表示 御手段と をさらに備えている、
請求の 8 載の 理装置。
0・ 画像が複数の なる角度から同時に撮影されたステレオ 像である場合に、
ステレ 像を構成する複数の 像のそれぞれで前記オブジ 像に最 も近い位 に表示される 作者候補の 像を前記 作者の 像に選択する手段 と、
選択さ た 作者候補の 像をズ ム、 バン、 又は する表示 手段と をさらに備えて る、
請求の 8 載の 理装置。
・ オブジ 、 操作者候補の に対応して複数 のオブジ 像を生成するように構成されており、
前記 、 作者候補の 像に対して、 対応するオブジ 像を当 作者候補の手の画像が届く 囲に表示されるように、 前記 数の オブジ 像と前記 画像とを合成するように構成されている、
の 8 載の 理装置。
2・ 数のオブジ 像のいずれか つが操作された場合に、 オ ブジ ク 像に対応する 作者候補の 像を前記 作者の 像に選択する 、
選択さ た 作者候補の 像をズ ム、 パン、 又は する表示 御手段と、 をさらに備えている、
請求の 載の 理装置。
3・ 御手段は、 選択された 作者候補の 像のズ ム、 バン、 をデジタル 理により行うように構成されている、 請求の 9 、 0 または 2 載の 理装置。
4・ 御手段は、 選択された 作者候補の 像のズ ム、 バン、 を、 前記 画像を撮影するための 置を制御して行 わせるように構成されている、 20
求の 9 、 0 または 2 載の 理装置。
5・ 作者の 像をその 部に含んだ 画像と、 所定のイベントに関 連づけされたオブジ についてのオブジ 像とを含んだ 像を 生成する画像 段と、 前記 画像に含まれる前記 作者の 像の を検出する検出 段とを有し、 生成された 像を所定のディスプレイ 置 に表示させる画像 理装置により実行される方法であって、
前記 段が、
前記 段により検出された前記 作者の 像の 置に応じて、 前記 作 者の手の画像が届く 囲に前記オブジ 像が表示されるように前記オブ ジ クト 像と前記 画像とを合成する、
画像 理方法。
6・ ディスプレイ 置が接続されたコンピ に、
所定のイベントに関連づけされたオブジ についてのオブジ 像 を生成するオブジ 段、
作者の 像をその 部に含んだ 画像に前記 像を合成 して合成 像を生成する画像 段、
生成された 像を所定のディスプレイ 置に表示させる表示 御手段、 前記 画像に含まれる前記 作者の 像の 置を検出する検出 段、 を 形成させ、
段に、
前記 段により検出された前記 作者の 像の 置に応じて、 前記 作 者の手の画像が届く 囲に前記オブジ 像が表示されるように、 前記オ ブジ 像と前記 画像とを合成する機能を形成させるためのコンピ プログラム。
・ 求の 6項に記載されたコンピ プログラムを記録して なる コンピ ータ み取り可能な記録 。
8・ ディスプレイ 置が接続されたコンピ に された装置に組み 込まれることにより、 前記コンピ ー に、
所定のイベントに関連づけされたオブジ についてのオブジ 2
を生成するオブジ 段
操作者の 像をその 部に含んだ 画像に前記オブジ 像を合成 して合成 像を生成する画像 段、
生成された 像を所定のディスプレイ 置に表示させる表示 御手段、 画像に含まれる前記 作者の 像の 置を検出する検出 段、 を 成させ、
前記 、
前記 段により検出された前記 作者の 像の 置に応じて、 前記 作者 手の画像が届く 囲に前記オブジ クト 像が表示されるよ に、 前記オブジ 像と前記 画像とを合成する機能を形成させる半導体 バイス。
PCT/JP2005/001629 2004-01-30 2005-01-28 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス Ceased WO2005078559A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP05704389A EP1710663A4 (en) 2004-01-30 2005-01-28 IMAGE PROCESSING DEVICE, IMAGE PROCESSING PROCESS, RECORDING MEDIUM, COMPUTER PROGRAM, AND SEMICONDUCTOR COMPONENT
US10/587,172 US7999843B2 (en) 2004-01-30 2005-01-28 Image processor, image processing method, recording medium, computer program, and semiconductor device
US13/078,127 US8508578B2 (en) 2004-01-30 2011-04-01 Image processor, image processing method, recording medium, computer program and semiconductor device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004023013A JP3847753B2 (ja) 2004-01-30 2004-01-30 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2004-023013 2004-01-30

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US11/587,172 A-371-Of-International US7707869B2 (en) 2004-04-22 2005-04-21 FET-based gas sensor
US13/078,127 Continuation US8508578B2 (en) 2004-01-30 2011-04-01 Image processor, image processing method, recording medium, computer program and semiconductor device

Publications (1)

Publication Number Publication Date
WO2005078559A1 true WO2005078559A1 (ja) 2005-08-25

Family

ID=34857618

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/001629 Ceased WO2005078559A1 (ja) 2004-01-30 2005-01-28 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス

Country Status (4)

Country Link
US (2) US7999843B2 (ja)
EP (2) EP1710663A4 (ja)
JP (1) JP3847753B2 (ja)
WO (1) WO2005078559A1 (ja)

Families Citing this family (107)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072564A (ja) * 2005-09-05 2007-03-22 Sony Computer Entertainment Inc マルチメディア再生装置、メニュー操作受付方法およびコンピュータプログラム
JP4781181B2 (ja) * 2006-07-07 2011-09-28 株式会社ソニー・コンピュータエンタテインメント ユーザインタフェースプログラム、装置および方法、情報処理システム
JP4720738B2 (ja) * 2006-12-20 2011-07-13 日本ビクター株式会社 電子機器
US8559676B2 (en) 2006-12-29 2013-10-15 Qualcomm Incorporated Manipulation of virtual objects using enhanced interactive system
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
EP2201761B1 (en) 2007-09-24 2013-11-20 Qualcomm Incorporated Enhanced interface for voice and video communications
JP5088192B2 (ja) * 2008-03-21 2012-12-05 富士ゼロックス株式会社 描画装置及びプログラム
JP2009237630A (ja) * 2008-03-25 2009-10-15 Seiko Epson Corp 表示制御方法、表示制御装置、表示制御プログラム、及び印刷装置
JP4985531B2 (ja) * 2008-04-18 2012-07-25 パナソニック株式会社 ミラーシステム
JP2009265709A (ja) * 2008-04-22 2009-11-12 Hitachi Ltd 入力装置
JP5258399B2 (ja) * 2008-06-06 2013-08-07 キヤノン株式会社 画像投影装置及びその制御方法
US8133119B2 (en) * 2008-10-01 2012-03-13 Microsoft Corporation Adaptation for alternate gaming input devices
JP5255397B2 (ja) * 2008-10-15 2013-08-07 パナソニック株式会社 画像表示方法、および表示器
WO2010085221A1 (en) * 2009-01-21 2010-07-29 Thomson Licensing Method to control media with face detection and hot spot motion
US9652030B2 (en) 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8866821B2 (en) 2009-01-30 2014-10-21 Microsoft Corporation Depth map movement tracking via optical flow and velocity prediction
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8773355B2 (en) * 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US8988437B2 (en) * 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8638985B2 (en) 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US9498718B2 (en) * 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US9015638B2 (en) * 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US20100277470A1 (en) * 2009-05-01 2010-11-04 Microsoft Corporation Systems And Methods For Applying Model Tracking To Motion Capture
US20100295771A1 (en) * 2009-05-20 2010-11-25 Microsoft Corporation Control of display objects
US8625837B2 (en) 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US8145594B2 (en) * 2009-05-29 2012-03-27 Microsoft Corporation Localized gesture aggregation
US8803889B2 (en) 2009-05-29 2014-08-12 Microsoft Corporation Systems and methods for applying animations or motions to a character
US8856691B2 (en) * 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US9182814B2 (en) * 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8418085B2 (en) * 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US8379101B2 (en) 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US8176442B2 (en) * 2009-05-29 2012-05-08 Microsoft Corporation Living cursor control mechanics
US20100306716A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Extending standard gestures
US8320619B2 (en) * 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US20100302138A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Methods and systems for defining or modifying a visual representation
US7914344B2 (en) * 2009-06-03 2011-03-29 Microsoft Corporation Dual-barrel, connector jack and plug assemblies
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) * 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US8847984B2 (en) * 2009-07-27 2014-09-30 Disney Enterprises, Inc. System and method for forming a composite image in a portable computing device having a dual screen display
US20110025689A1 (en) * 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
US9277021B2 (en) * 2009-08-21 2016-03-01 Avaya Inc. Sending a user associated telecommunication address
US9141193B2 (en) * 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
US20110109617A1 (en) * 2009-11-12 2011-05-12 Microsoft Corporation Visualizing Depth
JP4900741B2 (ja) * 2010-01-29 2012-03-21 島根県 画像認識装置および操作判定方法並びにプログラム
JP5114795B2 (ja) * 2010-01-29 2013-01-09 島根県 画像認識装置および操作判定方法並びにプログラム
JP5659510B2 (ja) * 2010-03-10 2015-01-28 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US8515137B2 (en) 2010-05-03 2013-08-20 Microsoft Corporation Generating a combined image from multiple images
WO2012014590A1 (ja) * 2010-07-28 2012-02-02 パイオニア株式会社 映像処理装置及び方法
KR101790342B1 (ko) * 2010-09-14 2017-10-26 엘지전자 주식회사 디스플레이 장치 및 그의 제어 방법
JP2012118448A (ja) * 2010-12-03 2012-06-21 Sony Corp 画像処理方法、画像処理装置及び画像処理プログラム
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US10146423B1 (en) 2011-04-07 2018-12-04 Wells Fargo Bank, N.A. System and method for generating a position based user interface
CN102959491B (zh) * 2011-04-22 2016-03-23 松下电器(美国)知识产权公司 定位控制装置和定位控制装置的集成电路、以及定位控制方法
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US20120288251A1 (en) * 2011-05-13 2012-11-15 Cyberlink Corp. Systems and methods for utilizing object detection to adaptively adjust controls
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US20130088511A1 (en) * 2011-10-10 2013-04-11 Sanjit K. Mitra E-book reader with overlays
US9164579B2 (en) * 2011-11-15 2015-10-20 Lg Electronics Inc. Electronic device for granting authority based on context awareness information
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
JP6243112B2 (ja) 2011-12-09 2017-12-06 ソニー株式会社 情報処理装置、情報処理方法、および記録媒体
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
JP5934425B2 (ja) * 2012-03-20 2016-06-15 エー9.・コム・インコーポレーテッド 多様な環境における構造化照明ベースのコンテンツ対話
US9373025B2 (en) 2012-03-20 2016-06-21 A9.Com, Inc. Structured lighting-based content interactions in multiple environments
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
JP2013250882A (ja) 2012-06-01 2013-12-12 Sharp Corp 注目位置検出装置、注目位置検出方法、及び注目位置検出プログラム
JP5935529B2 (ja) 2012-06-13 2016-06-15 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
USD711410S1 (en) * 2012-06-13 2014-08-19 Microsoft Corporation Display screen with graphical user interface
JP6021488B2 (ja) * 2012-07-19 2016-11-09 キヤノン株式会社 制御装置、制御方法、および制御プログラム
US9087402B2 (en) * 2013-03-13 2015-07-21 Microsoft Technology Licensing, Llc Augmenting images with higher resolution data
US9672413B2 (en) 2012-11-06 2017-06-06 Sony Corporation Setting operation area for input according to face position
US20140146155A1 (en) * 2012-11-24 2014-05-29 Novarad Corporation Image Processing
JP2014127124A (ja) * 2012-12-27 2014-07-07 Sony Corp 情報処理装置、情報処理方法及びプログラム
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
TWI524213B (zh) * 2013-04-02 2016-03-01 宏達國際電子股份有限公司 控制方法及電子裝置
US9749541B2 (en) * 2013-04-16 2017-08-29 Tout Inc. Method and apparatus for displaying and recording images using multiple image capturing devices integrated into a single mobile device
JP2015056141A (ja) * 2013-09-13 2015-03-23 ソニー株式会社 情報処理装置、および情報処理方法
US10080963B2 (en) 2014-03-28 2018-09-25 Sony Interactive Entertainment Inc. Object manipulation method, object manipulation program, and information processing apparatus
JP2015191480A (ja) * 2014-03-28 2015-11-02 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、オブジェクトの操作方法、及びオブジェクトの操作プログラム
JP2015233250A (ja) * 2014-06-10 2015-12-24 キヤノン株式会社 画像処理装置及びその制御方法
KR102322034B1 (ko) * 2014-09-26 2021-11-04 삼성전자주식회사 전환 거울을 구비한 장치의 이미지 디스플레이 방법 및 그 장치
WO2016048102A1 (en) * 2014-09-26 2016-03-31 Samsung Electronics Co., Ltd. Image display method performed by device including switchable mirror and the device
US10699454B2 (en) * 2014-12-30 2020-06-30 Facebook, Inc. Systems and methods for providing textual social remarks overlaid on media content
KR102375699B1 (ko) * 2015-02-06 2022-03-17 삼성전자 주식회사 전자 장치 및 사용자 인터페이스 제공 방법
JP6448500B2 (ja) 2015-08-07 2019-01-09 キヤノン株式会社 画像処理装置、画像処理方法
JP6702746B2 (ja) * 2016-02-10 2020-06-03 キヤノン株式会社 撮像装置、その制御方法、プログラム及び記憶媒体
JP2018109813A (ja) * 2016-12-28 2018-07-12 富士ゼロックス株式会社 表示装置、画像形成装置及びプログラム
CN107493495B (zh) * 2017-08-14 2019-12-13 深圳市国华识别科技开发有限公司 交互位置确定方法、系统、存储介质和智能终端
JP7286967B2 (ja) * 2019-01-08 2023-06-06 京セラドキュメントソリューションズ株式会社 表示装置及び表示制御プログラム
CN114237779A (zh) * 2020-09-09 2022-03-25 华为技术有限公司 一种显示窗口的方法、切换窗口的方法、电子设备和系统
US12432080B2 (en) * 2022-11-14 2025-09-30 Microsoft Technology Licensing, Llc Persistent display of prioritized participants with shared content of communication sessions

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08263194A (ja) * 1995-03-22 1996-10-11 Kyushu Nippon Denki Software Kk キー入力装置
JPH11327753A (ja) * 1997-11-27 1999-11-30 Matsushita Electric Ind Co Ltd 制御方法及びプログラム記録媒体
JP2002196855A (ja) 2000-10-06 2002-07-12 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5423554A (en) * 1993-09-24 1995-06-13 Metamedia Ventures, Inc. Virtual reality game method and apparatus
CN1135823A (zh) * 1993-10-20 1996-11-13 电视会议系统公司 自适应电视会议系统
US6256046B1 (en) * 1997-04-18 2001-07-03 Compaq Computer Corporation Method and apparatus for visual sensing of humans for active public interfaces
US6188777B1 (en) * 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
DE69830295T2 (de) * 1997-11-27 2005-10-13 Matsushita Electric Industrial Co., Ltd., Kadoma Steuerungsverfahren
KR100812903B1 (ko) 1998-05-19 2008-03-11 가부시키가이샤 소니 컴퓨터 엔터테인먼트 화상 처리 장치와 방법 및 프로그램 기록 매체
JP4332649B2 (ja) * 1999-06-08 2009-09-16 独立行政法人情報通信研究機構 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
US20020126090A1 (en) * 2001-01-18 2002-09-12 International Business Machines Corporation Navigating and selecting a portion of a screen by utilizing a state of an object as viewed by a camera
US7174510B2 (en) * 2001-10-20 2007-02-06 Hal Christopher Salter Interactive game providing instruction in musical notation and in learning an instrument
WO2004063884A2 (en) * 2003-01-09 2004-07-29 Evolution Robotics, Inc. Computer and vision-based augmented interaction in the use of printed media

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08263194A (ja) * 1995-03-22 1996-10-11 Kyushu Nippon Denki Software Kk キー入力装置
JPH11327753A (ja) * 1997-11-27 1999-11-30 Matsushita Electric Ind Co Ltd 制御方法及びプログラム記録媒体
JP2002196855A (ja) 2000-10-06 2002-07-12 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1710663A4

Also Published As

Publication number Publication date
US7999843B2 (en) 2011-08-16
JP3847753B2 (ja) 2006-11-22
EP2544073A3 (en) 2013-03-27
JP2005216061A (ja) 2005-08-11
EP2544073B1 (en) 2014-12-03
US20110181621A1 (en) 2011-07-28
EP1710663A1 (en) 2006-10-11
US20070279485A1 (en) 2007-12-06
EP2544073A2 (en) 2013-01-09
EP1710663A4 (en) 2011-02-16
US8508578B2 (en) 2013-08-13

Similar Documents

Publication Publication Date Title
WO2005078559A1 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP3725460B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP6873186B2 (ja) 情報処理装置、スイッチングシステム、プログラム及び方法
US8249397B2 (en) Playback of digital images
WO2018188499A1 (zh) 图像、视频处理方法和装置、虚拟现实装置和存储介质
CN113630547B (zh) 图像显示装置、控制方法及非暂时性计算机可读存储介质
EP2255524B1 (en) Method and system for displaying an image generated by at least one camera
CN107682638A (zh) 生成、显示全景图像的方法及装置
CN119383447A (zh) 图像处理装置、图像处理方法、系统、计算机程序产品、存储介质和计算机实现的方法
JP3899241B2 (ja) 画像表示システム、画像表示方法、プログラムおよび記録媒体
US20240372971A1 (en) Information processing apparatus, information processing method, data structure, and non-transitory computer-readable medium
JP4689548B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2022012900A (ja) 情報処理装置、表示方法、及び、プログラム
CN115330936B (zh) 合成三维图像的方法、装置及电子设备
JP4544262B2 (ja) 仮想現実空間共有システムおよび方法、並びに、情報処理装置および方法
JP3530579B2 (ja) カメラ制御装置及びカメラ制御装置のウインドウ表示方法
JP4767331B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP7542023B2 (ja) 電子機器およびその制御方法およびプログラム
JP4615252B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2013003412A (ja) 自動写真作成装置、自動写真作成方法およびプログラム
KR101356482B1 (ko) 촬영 기능을 갖는 이동 단말기 및 이것의 방법
JP2024176911A (ja) 情報処理装置、撮像装置、制御方法、及びプログラム
JP2000261722A (ja) 画像合成装置および画像合成方法
CN117274057A (zh) 图像拼接方法及装置
CN120302146A (zh) 一种多视频流分析的智能画中画显示方法、装置、设备及介质

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005704389

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWP Wipo information: published in national office

Ref document number: 2005704389

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10587172

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10587172

Country of ref document: US