WO2007108100A1 - 画像情報処理装置、判定方法、及びコンピュータプログラム - Google Patents
画像情報処理装置、判定方法、及びコンピュータプログラム Download PDFInfo
- Publication number
- WO2007108100A1 WO2007108100A1 PCT/JP2006/305578 JP2006305578W WO2007108100A1 WO 2007108100 A1 WO2007108100 A1 WO 2007108100A1 JP 2006305578 W JP2006305578 W JP 2006305578W WO 2007108100 A1 WO2007108100 A1 WO 2007108100A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- marker
- detected
- signs
- sign
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Definitions
- Image information processing apparatus determination method, and computer program
- the present invention relates to an image information processing device, a determination method, and a computer program for determining the difference between signs present in each image among a plurality of images.
- a bar code reader is generally well known as an information presentation device for presenting predetermined related information to objects and / or predetermined signs (markers) in the real world.
- a device power s that presents information by using spatial information of an object and / or a predetermined marker.
- USP 6,389,182 discloses the following technique.
- the 2D code printed on the business card is read by the camera, and the ID is analyzed by the program in the computer.
- the person's face photo corresponding to this ID is displayed on the computer display as if the power is next to the 2D code on the business card.
- the present invention has been made in view of the above points, and is an image information processing apparatus, a determination method, and a combo that can determine the difference between signs present in each image among a plurality of images. Data program.
- One aspect of the image information processing apparatus of the present invention is:
- Image information input means for inputting image information
- Extraction means for extracting a sign from the image information image input by the image information input means
- one aspect of the computer program of the present invention is a computer program that causes a computer to determine the difference between signs present in each image among a plurality of images.
- FIG. 1 is a diagram showing a configuration of an image information processing apparatus according to an embodiment of the present invention.
- FIG. 2 is a diagram for explaining an example of a marker that is a marker.
- FIG. 3 is a flowchart showing the operation of the image information processing apparatus. is there.
- FIG. 4 is a flowchart for explaining the details of the marker identification process in FIG.
- FIG. 5 is a diagram showing first and second images for explaining a case where the marker force S1 photographed by the image input unit is increased from two to two.
- FIG. 6 is a diagram showing first and second images for explaining a case where the number of markers taken by the image input unit is reduced from two to one.
- FIG. 7 is a diagram showing a first screen when applied to a nerve weakness game as an example of using a plurality of the same markers.
- FIG. 8 is a diagram showing a second screen when applied to a nerve weakness game as an example of using a plurality of the same markers.
- FIG. 9 is a diagram showing a third screen when applied to a nerve weakness game as an example of using a plurality of the same markers.
- FIG. 10 is a diagram showing a fourth screen when applied to a nervous breakdown game as an example of the case where a plurality of the same markers are used.
- FIG. 11 is a diagram showing a fifth screen when applied to a nervous breakdown game as an example of the case where a plurality of the same markers are used.
- FIG. 12 is a diagram showing a sixth screen when applied to a nerve weakness game as an example of the case where a plurality of the same markers are used.
- FIG. 13 is a diagram showing a first configuration example of a marker configuration.
- FIG. 14 is a diagram showing a second configuration example of the marker configuration.
- FIG. 15 is a diagram showing a third configuration example of the marker configuration.
- FIG. 16 is a diagram showing a fourth configuration example of the marker configuration.
- An image information processing apparatus includes an image input unit 10 that is a camera, a control unit 20 that is configured by a personal computer, and a liquid crystal display in the configuration illustrated in FIG. And the like.
- image input unit 10 that is a camera
- control unit 20 that is configured by a personal computer
- liquid crystal display in the configuration illustrated in FIG. And the like.
- These image input unit 10, control unit 20 and display Of course, it may be configured as a portable device in which the unit 30 is integrated. It is also possible to configure some of the functions of the control unit 20 on a server that can be accessed via a network.
- the image input unit 10 functions as image information input means.
- the image input unit 10 photographs the marker 100 that is a sign having a predetermined pattern. Then, the image input unit 10 inputs the image information obtained by this photographing to the control unit 20.
- the above-mentioned force 100 includes a frame portion 101 having a predetermined shape (in this embodiment, a rectangle) and characters written inside the frame portion 101. It consists of symbols and designs 102.
- the control unit 20 includes a marker detection unit 21, a position and orientation detection unit 22, a marker information storage unit 23, a related information generation unit 24, a related information storage unit 25, and a superimposed image generation unit 26.
- the marker detection unit 21 functions as an extraction unit.
- the marker detection unit 21 detects the marker 100 as the marker by detecting the frame 101 from the image of the image information input by the image input unit 10.
- the marker detection unit 21 supplies the detection result to the position and orientation detection unit 22 as marker information.
- the position and orientation detection unit 22 functions as a position detection unit, a determination unit, and a similarity evaluation unit.
- the position and orientation detection unit 22 uses the marker information from the marker detection unit 21 to identify the corresponding marker from the information stored in the marker information storage unit 23.
- the position and orientation detection unit 22 detects the position and posture of the camera (image input unit 10).
- the position and orientation detection unit 22 supplies the detection result to the related information generation unit 24.
- the marker information storage unit 23 stores information related to the marker 100, such as a template image of the marker 100, position and orientation information of the marker 100, and the like.
- the related information generation unit 24 extracts the information set in advance from the related information storage unit 25 according to the position and posture of the image input unit 10 detected by the position and posture detection unit 22, and generates related information. To do. Then, the related information generation unit 24 supplies the generated related information to the superimposed image generation unit 26.
- the related information storage unit 25 stores related information such as position and orientation information, shape information, and attribute information of a model arranged in the model space.
- the superimposed image generation unit 26 includes the image input unit. The image information from 10 and the related information generated by the related information generating unit 24 are superimposed. Then, the superimposed image generation unit 26 supplies the display unit 30 with the superimposed image generated by the super
- the display unit 30 displays the superimposed image generated by the superimposed image generation unit 26.
- the image input unit 10 captures an image, and inputs the obtained image information to the marker detection unit 21 as first image information (step S10).
- the marker detection unit 21 detects the marker 100 included in the image of the input first image information (step S12).
- marker candidates are detected by detecting the frame portion 101 of the marker 100. Since the detection of the frame portion 101 is a known image processing method, its detailed description is omitted. At this time, the number of marker candidates detected is not limited to one.
- the coordinates of the detected marker candidates in the four corner images of the frame portion 101 are detected, the inside of each frame portion 101 is extracted, and affine transformation is performed for each.
- step S14 pattern matching between each image after affine transformation and a template image of a marker registered in advance in the marker information storage unit 23 (for example, a marker image having a symbol such as “50” or a design 102) is performed. Do. As a result, if there is no image that matches the template image of the marker, the marker 100 is not detected (step S14), and the process returns to the image input step of step S10.
- the marker detection unit 21 detects the maximum power 100 (step S14).
- the position and orientation detection unit 22 obtains the center coordinates of the frame portion 101 from the coordinates of the four corners of the frame portion 101 of the marker detected by the marker detection unit 21, and uses it as the position information of each marker 100. (Step S16). Then, an ID is assigned to each detected marker (step S18). Further, the ID and position information of each marker are stored in an internal memory (not shown) (step S20).
- the image input unit 10 captures an image, and inputs the obtained image information to the marker detection unit 21 as second image information (step S22).
- the marker detection unit 21 uses the marker included in the input second image information image. 100 detections are made (step S24). If the marker 100 is not detected (step S26), the process returns to the image input step of step S22.
- step S26 when the marker 100 is detected (step S26), the position and orientation detection unit 22 detects the position information of each marker 100 in the same manner as in step S16 (step S28). Further, the position and orientation detection unit 22 executes a marker identification process (step S30).
- the marker identification process in step S30 first compares the image similarity of each marker detected from the first image and each marker detected from the second image. Compare (step S301). This compares the similarity of each marker without distinguishing the marker of the first image and the marker of the second image. If there is no same (similar) marker (step S302), all the marker IDs detected and stored from the first image are cleared (step S303). Then, a new ID is assigned to all markers detected from the second image (step S304), and this marker identification process is terminated.
- step S302 if there is the same (similar) marker (step S302), the same (similar) forces are associated with each other (step S305).
- Three types of associations are possible: (1) association of only the first image marker, (2) association of only the second image marker, and (3) association including the marquees of both images. is there.
- the markers detected from the second image are associated with the markers detected from the first image in order of increasing distance from each other (step S306). This is performed for each association, but naturally it is associated only in the case of association including the markers of both images in (3) above. If the number of markers in the first image is different from the number of markers in the second image, “remainder” appears from the larger number. In the case of the association of only the first image marker in (1) and the association of only the second image marker in (2), the total marker force is “remainder”.
- step S307 the ID of the marker detected from the first image is transferred to the ID of the marker detected from the second image. This is performed for each association, and the “remainder” that was not associated in step S307 is not subject to posting.
- Step S308 all the markers for the first image that are not in the second image clear all IDs.
- IDs are newly assigned to all markers detected from the second image other than the above-mentioned IDs (step S309). In other words, a marker newly generated in the second image is assigned a new ID. And this marker identification process is complete
- markers 100C is the same marker as the marker 100A, and the marker 100B is a newly seen marker.
- markers 100A, 100B, and 100C are markers of the same design (same symbols and designs 102).
- one marker (major force 100A) is detected in the first image 41 by the processing from step S10 to step S20.
- This marker is a marker with the symbol “50” and design 102.
- the center coordinate is (80, 80) and the ID is stored as “1”. Is done.
- two markers are detected in the second image 42 by the processing in steps S22 to S28.
- one marker 100B has the symbol “50” and design 102
- the center coordinate is the marker (10, 10)
- the other marker 100C has the symbol “50” and design 102
- the center coordinate is It is detected that the marker is (90, 90).
- the current second image is detected for the marker 100A whose ID is "1" detected in the first image 41 by the processes of steps S301, S305, and S306.
- the center coordinates of the marker 100A with ID “1” are (80, 80)
- the marker 100C with the center coordinates (90, 90) is more distant than the marker 100B with the center coordinates (10, 10). Is near. Therefore, the ID of the merging force 100C of the center coordinates (90, 90) is set to “1” by the processing of steps S306 and S307.
- the marker B of the remaining central coordinates (10, 10) is determined to be the newly detected marker in the current second image 42, and the above By the process of step S309, “2” is set as the ID.
- the marker 100A having the symbol “50” and the design 102 detected in the first image 41 at the center coordinates (80, 80) is the center coordinates (90, 90) in the current second image 42.
- the current second The power 100B having the symbol “50” and the design 102 detected from the image 42 at the center coordinates (10, 10) can be recognized as a new detection marker.
- marker 100F is the same marker as marker 100E
- marker 100D is a marker that has disappeared.
- the marker in the first image 51 is obtained by the processing in steps S10 to S20.
- One marker 100D has the symbol “50” and the design 102, the center coordinates are (10, 10), and the ID is stored as “1”.
- the other marker 100E has the symbol “50” and the design 102 in the same manner, the center coordinates are (90, 90), and the ID is stored as “2”.
- a single force (marker 100F) is detected in the second image 52 by the processing in steps S22 to S28.
- the marker has the symbol “50” and the design 102, and the center coordinate is detected as a marker of (80, 80).
- the following processing is performed in steps S301, S305, and S306. That is, first, for the marker 100D whose ID is “1” detected in the first image 51, the distance from the marker 100F detected in the current second image 52 is obtained. Next, with respect to the marker 100E having the ID force S “2” detected in the first image 51, the distance from the marker 100F detected in the current second image 52 is obtained. Since the marker 100F has the center coordinates (80, 80), the marker 100E with the center coordinates (90, 90) is the shortest distance. Therefore, the processing of steps S306 and S307 above, the marker 100F ID is set to “2”. 'T set this.
- the marker 100D of the remaining central coordinates (10, 10) is determined to be a marker that can no longer be detected in the next second image 52. Then, the ID “1” is cleared by the processing in the above step S308.
- the marker 100E having 102 can be recognized as the marker 100F having the symbol “50” and the design 102 detected at the center coordinates (80, 80) in the next second image 52. Further, the marker 100D having the symbol “50” and the design 102 detected at the center coordinates (10, 10) in the first image 51 can be recognized as a marker that can no longer be detected.
- the position and orientation detection unit 22 performs the marker identification process as described above, and If an ID is assigned to each marker in the image, the ID of each marker and the position information of each marker detected in step S28 are stored in an internal memory (not shown) (step S32).
- the spatial localization information (position and posture information on which the marker is arranged) of each of the identified forces is obtained from the position and posture detection unit 22 and the marker information storage unit 23.
- the position and orientation of the camera (image input unit 10) are detected from the positions of the four corners of the frame 101 of the marker in the image (step S34).
- the method for determining the camera position and orientation from the marker is, for example, "A High Accurasy Realtime 3D Measuring Method of Marker for VR Interface by Monocular Vision” (3D Image Conference '96 Proceeding pp.167-172 , Akira Takahashi, Ikuo Ishii, Hideo Makino, Makoto Nakashizuka, 1996), and detailed description thereof is omitted.
- the related information generation unit 24 extracts information set in advance from the related information storage unit 25 according to the position and orientation of the camera (image input unit 10) detected by the position and orientation detection unit 22. To generate related information (step S36).
- the superimposed image generation unit 26 superimposes the image from the image input unit 10 and the related information generated by the related information generation unit 24 and displays the superimposed image on the display unit 30 (step S38).
- the respective markers 100 can be distinguished.
- FIG. 7 is a diagram showing a screen 31 of the display unit 30 when photographing a state where the card 200 on which the marker 100 is printed is turned over and placed.
- the screen 31 recognizes the force marker 100 that has four cards 200, and is displayed in order, so that nothing is displayed.
- FIG. 8 shows a screen 32 when photographing a state in which one card 200 is placed upside down. On the screen 32 at this time, one marker 100 having the symbol “50” printed on the reversed card 200 and the design 102 is detected.
- the character 60 in this case, “car” power, which is related information corresponding to the symbol “50” and the design 102, is displayed in the position and posture corresponding to the position and posture of the card 200 turned upside down. .
- FIG. 9 is a diagram showing a screen 33 when photographing a state where another card 200 is placed upside down.
- two markers 100 having the same “50” symbol and design 102 are detected. Therefore, the same character 60 (in this case, “car”) force corresponding to the symbol “50” and design 102 is displayed in accordance with the position and posture of each card 200.
- the display is changed from the screen 33 in FIG. 9 to the screens 34 to 36 as shown in FIGS. That is, the screen 34 in FIG. 10 changes from the position of the marker 100 having the symbol “50” and the design 102 detected on the first image to the marker 100 having the symbol “50” and the design 102 detected on the second image.
- the character 60 (in this case, “car”) moves and displays the state of movement.
- the movement of the character 60 (in this case, “car”) is completed, and the display is changed to one large character 61.
- a character 62 indicating success is displayed.
- each marker can be distinguished, so that it can be applied to various uses such as an application to a nerve weakness game. .
- the configuration of the control unit 20 is realized in the form of a power computer program that describes the case where the components are realized as hardware, and the same function is realized by executing the computer program. It ’s good even if it ’s something.
- each configuration of the control unit 20 may be in the form of a computer program, and the computer program may be stored in advance in a program memory included in the computer.
- each configuration of the control unit 20 is in the form of a computer program
- the computer program is provided by a recording medium such as a CD-ROM, and the computer program is read from the recording medium and stored in a program memory included in the computer. You can remember it.
- the marker 100 includes a frame portion 101 having a predetermined shape and a symbol or design 102 including characters written in the frame portion 101. It is composed of However, the configuration of the marker 100 is not limited to such a configuration. For example, various configurations are conceivable, including the following four configuration examples.
- the marker 100 may of course have a configuration in which the design 102 is surrounded by a circular, polygonal, or free curve frame 101 as shown in FIG. 13, for example (as shown in FIG. 13).
- the frame 101 is circular).
- the marker 100 may be configured such that the frame 101 itself becomes a part of the design 102 inside the frame 101.
- the marker 100 does not have the frame itself as shown in FIG. 15, for example.
- the marker 100 is arranged with a symbolic symbol 102A (in this example, a heart-shaped mark) around the design 102 (in this example, a human face).
- the configuration is also good.
- the pattern matching technique by the processing in the step S12 and the step S14 is not necessarily performed in order to specify the marker 100. May not be used. That is, for example, a point having an image characteristic (hereinafter referred to as a feature point) is extracted from image information obtained by the image input unit 10 force, and a marker template image registered in advance in the marker information storage unit 23 is extracted. By evaluating the similarity to each feature point, it is possible to identify the marker 100 included in the image information.
- a feature point a point having an image characteristic
- the image information is such that the markers 100 overlap each other or a part of the marker 100 is missing. Even if it exists, the marker 100 can be specified. That is, it is practically effective to use the matching method based on the feature points as described above for specifying the marker 100.
- the above-described matching method using feature points may be applied to the calculation of the position information of the marker 100 by the position and orientation detection unit 22 (step S16). That is, the position and orientation detection unit 22 may obtain the position information of the marker 100 as follows instead of obtaining the position information of the marker 100 from the coordinates of the four corners of the frame portion 101 of the marker 100. That is, the position information of the marker 100 is calculated based on the center of gravity of the pixel of the marker 100 occupying the above image information, the center of gravity of the feature point of the marker 100, or a plurality of points that are the most spread among the feature points of the marker 100.
- the “multiple points spread most among the feature points of the marker 100” may be, for example, three points, four points, or more points.
- the number of points can be changed dynamically so that all the feature points of the marker 100 can be included.
- the position information of each marker 100 obtained by the position and orientation detection unit 22 can naturally include information on the direction at the position in addition to the position in the image information of each marquee 100. is there.
- the information on the direction is, for example, the marker specified in the image information when the upward direction at the time of registering the template image of the marker 100 in the marker information storage unit 23 is a reference direction (reference axis).
- 100 upward force This information shows how much force is rotating from the reference axis.
- This rotation is a two-dimensional rotation. It ’s not limited. That is, for example, the three-dimensional posture of the marker may be calculated from the trapezoidal distortion of the marker 100. This calculation can be performed by a known technique.
- Information on the direction of the marker 100 obtained by such calculation can be attitude information in a three-dimensional space.
- the trapezoidal distortion of the marker 100 can be obtained from the square frame as shown in FIG. 2 as well as the above-described matching method using feature points by considering the relative positions of the feature points. Needless to say, you can.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Burglar Alarm Systems (AREA)
Abstract
画像入力部(10)により画像情報を入力し、マーカ検出部(21)によりその入力された画像情報の画像中においてマーカ(100)を抽出し、位置及び姿勢検出部(22)により、上記抽出されたマーカ(100)の上記画像中における位置を検出し、複数の画像において各々抽出された標識間の異同を判定する。その際、位置及び姿勢検出部(22)は、少なくとも選択的に適用される判定条件として、上記検出された当該各マーカ(100)の位置に基づく判定条件を備える。
Description
明 細 書
画像情報処理装置、判定方法、及びコンピュータプログラム
技術分野
[0001] 本発明は、複数の画像間で各画像中に存在する標識の異同を判定する画像情報 処理装置、判定方法、及びコンピュータプログラムに関する。
背景技術
[0002] 実世界中の対象物及び/又は既定の標識(マーカ)に対し、所定の関連情報を呈 示する情報呈示装置としては、バーコードリーダが一般的によく知られている。そのう ち、対象物及び/又は既定のマーカの空間情報を利用して、情報を呈示する装置 力 sある。
[0003] このような装置として、例えば、 USP6, 389, 182号公報には、以下のような技術が 開示されている。すなわち、名刺上に印刷された 2次元コードをカメラで読み込み、コ ンピュータ内のプログラムで IDを解析する。そして、この IDに相当する人物の顔写真 を、あた力も名刺上の 2次元コードの横にあるかのごとぐコンピュータ上のディスプレ ィに表示する。
[0004] し力、しながら、上記 USP6, 389, 182号公報に開示されているような技術では、同 じデザインの標識(マーカ)が複数枚の画像中に存在すると、同一のマーカと認識し てしまう。これは、それぞれのマーカの区別ができないという問題によるものである。 発明の開示
[0005] 本発明は、上記の点に鑑みてなされたもので、複数の画像間で各画像中に存在す る標識の異同を判定することが可能な画像情報処理装置、判定方法、及びコンビュ ータプログラムを提供することを目的とする。
[0006] 本発明の画像情報処理装置の一態様は、
画像情報を入力する画像情報入力手段と、
上記画像情報入力手段によって入力された画像情報の画像中において、標識を 抽出する抽出手段と、
上記抽出手段で抽出された標識の上記画像中における位置を検出する位置検出
手段と、
複数の画像において各々抽出された標識間の異同を判定する手段であり、少なく とも選択的に適用される判定条件として、上記位置検出手段によって検出された当 該各標識の位置に基づく判定条件を具備する判定手段と、
を具備することを特徴とする。
[0007] また、本発明の複数の画像間で各画像中に存在する標識の異同を判定する方法 の一態様は、
複数の画像を入力するステップと、
上記入力された各画像中において、標識を抽出するステップと、
上記抽出された標識の画像上の位置を検出するステップと、
少なくとも選択的に上記検出された上記標識の位置に基づく判定条件を適用して
、上記入力された複数の画像において各々抽出された画像標識間の異同を判定す るステップと、
を具備することを特徴とする。
[0008] また、本発明のコンピュータプログラムの一態様は、コンピュータに複数の画像間で 各画像中に存在する標識の異同を判定させるコンピュータプログラムであり、コンビュ ータに、
複数の画像を入力させ、
上記入力された各画像中において、標識を抽出させ、
上記抽出された標識の画像上の位置を検出させ、
少なくとも選択的に上記検出された上記標識の位置に基づく判定条件を適用して 、上記入力された複数の画像において各々抽出された画像標識間の異同を判定さ せる、
ことを特徴とする。
図面の簡単な説明
[0009] [図 1]図 1は、本発明の一実施例に係る画像情報処理装置の構成を示す図である。
[図 2]図 2は、標識であるマーカの例を説明するための図である。
[図 3]図 3は、画像情報処理装置の動作を説明するためのフローチャートを示す図で
ある。
[図 4]図 4は、図 3中のマーカ同定処理の詳細を説明するためのフローチャートを示 す図である。
[図 5]図 5は、画像入力部で撮影しているマーカ力 S1個から 2個に増えた場合を説明 するための第 1及び第 2の画像を示す図である。
[図 6]図 6は、画像入力部で撮影しているマーカが 2個から 1個に減った場合を説明 するための第 1及び第 2の画像を示す図である。
[図 7]図 7は、同一のマーカを複数使用する場合の一例として神経衰弱ゲームに応用 した場合における第 1の画面を示す図である。
[図 8]図 8は、同一のマーカを複数使用する場合の一例として神経衰弱ゲームに応用 した場合における第 2の画面を示す図である。
[図 9]図 9は、同一のマーカを複数使用する場合の一例として神経衰弱ゲームに応用 した場合における第 3の画面を示す図である。
[図 10]図 10は、同一のマーカを複数使用する場合の一例として神経衰弱ゲームに 応用した場合における第 4の画面を示す図である。
[図 11]図 11は、同一のマーカを複数使用する場合の一例として神経衰弱ゲームに 応用した場合における第 5の画面を示す図である。
[図 12]図 12は、同一のマーカを複数使用する場合の一例として神経衰弱ゲームに 応用した場合における第 6の画面を示す図である。
[図 13]図 13は、マーカの構成の第 1の構成例を示す図である。
[図 14]図 14は、マーカの構成の第 2の構成例を示す図である。
[図 15]図 15は、マーカの構成の第 3の構成例を示す図である。
[図 16]図 16は、マーカの構成の第 4の構成例を示す図である。
発明を実施するための最良の形態
[0010] 以下、本発明を実施するための最良の形態を図面を参照して説明する。
[0011] 本発明の一実施例に係る画像情報処理装置は、図 1に示すような構成に、カメラで ある画像入力部 10と、パーソナルコンピュータ等で構成された制御部 20と、液晶ディ スプレイ等の表示部 30とからなる。なお、これら画像入力部 10、制御部 20及び表示
部 30を一体化した携帯型の装置として構成しても良いことは勿論である。また、制御 部 20の機能の一部を、ネットワークを介してアクセス可能なサーバ上に構成すること も可能である。
[0012] 上記画像入力部 10は、画像情報入力手段として機能する。上記画像入力部 10は 、所定のパターンを持った標識であるマーカ 100を撮影する。そして、上記画像入力 部 10は、この撮影により得られた画像情報を制御部 20に入力する。ここで、上記マ 一力 100は、例えば、図 2に示すように、予め定められた形状 (本実施例では四角形 )の枠部 101と、その枠部 101の内部に記された文字を含む記号や意匠 102とから 構成される。
[0013] 上記制御部 20は、マーカ検出部 21、位置及び姿勢検出部 22、マーカ情報格納 部 23、関連情報生成部 24、関連情報格納部 25、及び重畳画像生成部 26を含む。 ここで、上記マーカ検出部 21は、抽出手段として機能する。上記マーカ検出部 21は 、上記画像入力部 10によって入力された画像情報の画像内から、上記枠部 101を 検出することで上記標識としてのマーカ 100を検出する。そして、上記マーカ検出部 21は、その検出結果をマーカ情報として位置及び姿勢検出部 22に供給する。上記 位置及び姿勢検出部 22は、位置検出手段、判定手段及び類似度評価手段として機 能する。上記位置及び姿勢検出部 22は、上記マーカ検出部 21からのマーカ情報を 用いて、マーカ情報格納部 23に格納されている情報から対応するマーカを同定する 。これにより、上記位置及び姿勢検出部 22は、カメラ(画像入力部 10)の位置及び姿 勢を検出する。そして、上記位置及び姿勢検出部 22は、この検出の結果を関連情報 生成部 24に供給する。上記マーカ情報格納部 23には、マーカ 100のテンプレート 画像やマーカ 100の配置されている位置及び姿勢情報等の、マーカ 100に関する 情報が格納されている。上記関連情報生成部 24は、上記位置及び姿勢検出部 22 で検出した上記画像入力部 10の位置及び姿勢に応じて関連情報格納部 25から予 め設定された情報を抽出して関連情報を生成する。そして、上記関連情報生成部 24 は、この生成した関連情報を重畳画像生成部 26に供給する。上記関連情報格納部 25には、モデル空間上に配置されたモデルの位置及び姿勢情報や形状情報、属性 情報等の関連情報が格納されている。上記重畳画像生成部 26は、上記画像入力部
10からの画像情報と上記関連情報生成部 24で生成した関連情報とを重畳する。そ して、上記重畳画像生成部 26は、この重畳により生成した重畳画像を、上記表示部 30に供給する。
[0014] また、上記表示部 30は、上記重畳画像生成部 26で生成された重畳画像を表示す るものである。
[0015] 以上のような構成の画像情報処理装置の動作を、図 3のフローチャートを参照して 、詳細に説明する。
[0016] まず、画像入力部 10は、画像を撮影し、得られた画像情報を第 1の画像情報として マーカ検出部 21に入力する(ステップ S10)。マーカ検出部 21は、その入力された 第 1の画像情報の画像内に含まれるマーカ 100の検出を行う(ステップ S12)。これは 、まず、マーカ 100の枠部 101を検出することで、マーカ候補を検出する。この枠部 1 01の検出は、公知の画像処理手法であるので、その詳細説明は省略する。このとき 、検出されるマーカ候補は一つに限られない。次に、その検出される各マーカ候補の 枠部 101の四隅の画像内での座標を検出し、各枠部 101の内部を抽出してそれぞ れァフィン変換を行う。そして、ァフィン変換後の各画像とマーカ情報格納部 23に予 め登録してあるマーカのテンプレート画像 (例えば、「50」等の記号や意匠 102を持 つマーカの画像)とのパターンマッチングをそれぞれ行う。その結果、マーカのテンプ レート画像と一致する画像がなければ、マーカ 100が検出されなかったとして (ステツ プ S14)、上記ステップ S10の画像入力ステップに戻る。
[0017] 一方、マーカのテンプレート画像と一致する画像があれば、マーカ検出部 21は、マ 一力 100が検出されたとする(ステップ S14)。この場合、位置及び姿勢検出部 22は 、上記マーカ検出部 21によって検出した当該マーカの枠部 101の四隅の座標から、 その枠部 101の中心座標をそれぞれ求め、各マーカ 100の位置情報とする(ステツ プ S16)。そして、検出した各マーカに IDを振る(ステップ S18)。さらに、各マーカの I Dと位置情報とを図示しない内部メモリに記憶する(ステップ S 20)。
[0018] その後、再び、画像入力部 10は、画像を撮影し、得られた画像情報を第 2の画像 情報としてマーカ検出部 21に入力する(ステップ S22)。マーカ検出部 21は、上記ス テツプ S12と同様にして、その入力された第 2の画像情報の画像内に含まれるマーカ
100の検出を行う(ステップ S24)。ここで、マーカ 100が検出されなかったならば(ス テツプ S26)、上記ステップ S22の画像入力ステップに戻る。
[0019] 一方、マーカ 100が検出された場合には (ステップ S26)、位置及び姿勢検出部 22 は、上記ステップ S16と同様にして、各マーカ 100の位置情報を検出する(ステップ S 28)。そして更に、該位置及び姿勢検出部 22は、マーカ同定処理を実行する (ステツ プ S30)。
[0020] このステップ S30のマーカ同定処理は、図 4に示すように、まず、上記第 1の画像か ら検出した各マーカ及び上記第 2の画像から検出した各マーカの、画像類似度を比 較する(ステップ S301)。これは、第 1の画像のマーカ、第 2の画像のマーカの区別な ぐ各マーカの類似度を比較するものである。ここで、同じ (類似の)マーカがなけれ ば (ステップ S302)、第 1の画像から検出し記憶しているマーカの IDを全てクリアする (ステップ S303)。そして、第 2の画像から検出したマーカ全てに対して、新たに IDを 振って(ステップ S304)、このマーカ同定処理を終了する。
[0021] これに対して、同じ (類似の)マーカがあるならば (ステップ S302)、同じ (類似の)マ 一力同士を関連付ける(ステップ S305)。この関連付けは、 (1)第 1の画像のマーカ のみの関連付け、(2)第 2の画像のマーカのみの関連付け、 (3)両方の画像のマー 力が含まれる関連付け、の 3種類が可能である。次に、各関連付けられたマーカ同士 の中で、互いの距離が近い順に、第 2の画像から検出したマーカを、第 1の画像から 検出したマーカに対応付けていく(ステップ S306)。これは各関連付け毎に行うもの であるが、当然、上記(3)の両方の画像のマーカが含まれる関連付けの場合のみ、 対応付けされる。第 1画像のマーカと第 2画像のマーカとで数が異なれば、多い方か ら「余り」がでる。また、上記(1)の第 1の画像のマーカのみの関連付け及び(2)の第 2の画像のマーカのみの関連付けの場合は、全マーカ力 「余り」となる。
[0022] 次に、各関連付けられたマーカ同士の中で、上記対応付けされた分について、第 1 の画像から検出したマーカの IDを第 2の画像から検出したマーカの IDに転記する( ステップ S307)。これは各関連付け毎に行うものであり、上記ステップ S307で対応 付けられなかった「余り」は転記対象外となる。
[0023] そして、上記転記された IDを除き、第 1の画像から検出したマーカの IDを全てクリア
する(ステップ S308)。即ち、第 2の画像には無い、第 1の画像だけのマーカは IDを 全てクリアする。また、上記 IDが転記された以外の、第 2の画像から検出したマーカ 全てに対して、新たに IDを振る (ステップ S309)。即ち、第 2の画像で新規に発生し たマーカは、 IDを新規に振る。そして、このマーカ同定処理を終了する。
[0024] ここで、このマーカ同定処理までの動作を、具体例を用いて説明する。
[0025] まず、図 5により、画像入力部 10で撮影しているマーカが 1個から 2個に増えた場合 を説明する。ここで、マーカ 100Cはマーカ 100Aと同一のマーカであり、マーカ 100 Bは新たに見えたマーカと想定する。また、これらマーカ 100A, 100B, 100Cは同 一デザイン (記号や意匠 102が同一)のマーカである。
[0026] 即ち、上記ステップ S10乃至ステップ S20の処理により、第 1の画像 41でマーカ(マ 一力 100A)が 1個検出される。このマーカは「50」の記号や意匠 102を持つマーカで あり、(例えば、画像左上を(0, 0)とする座標において)その中心座標が(80, 80) , I Dは「1」と記憶される。また、上記ステップ S22乃至ステップ S28の処理により、第 2の 画像 42で、マーカが 2個検出される。ここで、一方のマーカ 100Bは「50」の記号や 意匠 102を持ち、中心座標は(10, 10)のマーカ、他方のマーカ 100Cは同じく「50」 の記号や意匠 102を持ち、中心座標は(90, 90)のマーカであると検出される。
[0027] このような場合、同定処理においては、まず、上記ステップ S301 , S305, S306の 処理により、第 1の画像 41で検出した IDが「1」のマーカ 100Aについて、現在の第 2 の画像 42で検出したマーカ 100B、マーカ 100Cの中で一番距離が近いマーカを探 す。ここで、 ID「1」のマーカ 100Aの中心座標が(80, 80)なので、中心座標が(90, 90)のマーカ 100Cの方が中心座標が(10, 10)のマーカ 100Bに比べて距離が近 レヽ。したがって、上記ステップ S306, S307の処理により、中心座標(90, 90)のマー 力 100Cの IDを「1」にセットする。また、第 1の画像 41で検出したマーカ数は 1個なの で、残りの中心座標(10, 10)のマーカ Bは、現第 2の画像 42で新規に検出したマー 力と判断し、上記ステップ S309の処理により、 IDとして「2」をセットする。
[0028] 以上より、第 1の画像 41で中心座標(80, 80)で検出した「50」の記号や意匠 102 を持つマーカ 100Aは、現第 2の画像 42で中心座標(90, 90)で検出した「50」の記 号や意匠 102を持つマーカ 100Cであると認識することが可能となる。また、現第 2の
画像 42から中心座標(10, 10)で検出した同じく「50」の記号や意匠 102を持つマ 一力 100Bは、新規検出マーカとして認識することが可能となる。
[0029] 次に、図 6により、画像入力部 10で撮影しているマーカが 2個から 1個に減った場 合を説明する。ここで、マーカ 100Fはマーカ 100Eと同一のマーカ、マーカ 100Dは 見えなくなったマーカであると想定する。
[0030] 即ち、上記ステップ S10乃至ステップ S20の処理により、第 1の画像 51でマーカが
2個検出される。一方のマーカ 100Dは「50」の記号や意匠 102を持ち、中心座標は (10, 10)で IDは「1」のマーカであると記憶される。他方のマーカ 100Eは同じく「50 」の記号や意匠 102を持ち、中心座標は(90, 90)で IDは「2」のマーカであると記憶 される。また、上記ステップ S22乃至ステップ S28の処理により、第 2の画像 52で、マ 一力(マーカ 100F)が 1個検出される。そのマーカは「50」の記号や意匠 102を持ち 、その中心座標が(80, 80)のマーカであると検出される。
[0031] このような場合、同定処理においては、まず、上記ステップ S301 , S305, S306に て以下の処理を行う。すなわち、まず第 1の画像 51で検出した IDが「1」のマーカ 10 0Dについて、現在の第 2の画像 52で検出したマーカ 100Fとの距離を求める。次に 第 1の画像 51で検出した ID力 S「2」のマーカ 100Eについて、現在の第 2の画像 52で 検出したマーカ 100Fとの距離を求める。そして、マーカ 100Fは中心座標(80, 80) なので、中心座標(90, 90)のマーカ 100Eが一番距離が近いので、上記ステップ S 306, S307の処理 ίこより、マーカ 100Fの IDを「2」tこセットする。
[0032] また、第 1の画像 51で検出したマーカ数は 2個なので、残りの中心座標(10, 10) のマーカ 100Dは、次の第 2の画像 52で検出できなくなったマーカと判断し、上記ス テツプ S308の処理により、 ID「1」をクリアする。
[0033] 以上より、前の第 1の画像 51で中心座標(90, 90)で検出した「50」の記号や意匠
102を持つマーカ 100Eは、次の第 2の画像 52で中心座標(80, 80)で検出した「50 」の記号や意匠 102を持つマーカ 100Fであると認識することが可能となる。また、第 1の画像 51で中心座標(10, 10)で検出した「50」の記号や意匠 102を持つマーカ 1 00Dは、検出できなくなったマーカとして認識することが可能となる。
[0034] 上記位置及び姿勢検出部 22は、以上のようなマーカ同定処理を実施して、第 2の
画像における各マーカに IDを振ったならば、各マーカの IDと、上記ステップ S28で 検出した各マーカの位置情報とを図示しない内部メモリに記憶する(ステップ S32)。
[0035] そして、位置及び姿勢検出部 22、更に、マーカ情報格納部 23から同定した各マー 力の空間定位情報 (マーカの配置されている位置及び姿勢情報)を入手する。そして 、画像内での当該マーカの枠部 101の四隅の位置からカメラ(画像入力部 10)の位 置及び姿勢を検出する(ステップ S34)。なお、マーカからカメラの位置及び姿勢を求 める方法は、 列えば、 "A High Accurasy Realtime 3D Measuring Metho d of Marker for VR Interface by Monocular Vision" (3D Image Confer ence ' 96 Proceeding pp.167-172 , Akira Takahashi, Ikuo Ishii, Hideo M akino, Makoto Nakashizuka, 1996)に開示されているので、その詳細説明は 省略する。
[0036] そして、関連情報生成部 24は、上記位置及び姿勢検出部 22で検出したカメラ(画 像入力部 10)の位置及び姿勢に応じて関連情報格納部 25から予め設定された情報 を抽出して関連情報を生成する (ステップ S36)。重畳画像生成部 26は、上記画像 入力部 10からの画像とその関連情報生成部 24で生成した関連情報とを重畳して、 表示部 30に重畳画像を表示する(ステップ S38)。
[0037] 以上のようにして、同じデザイン(同じ記号や意匠 102を持つ)のマーカ 100を同時 に複数撮影した場合であっても、それぞれのマーカ 100を区別可能となる。また、複 数の画像間で各画像中に存在するマーカ 100の異同を判定することが可能となる。
[0038] [適用例]
ここで、同一(同じ記号や意匠 102を持つ)のマーカ 100を複数使用する場合の一 例として、本実施例を神経衰弱ゲームに応用した場合について説明する。
[0039] この神経衰弱ゲームは、最初に:!枚目のカードをめくり、次に 2枚目のカードをめく つたとき、 1枚目と 2枚目が同じカードであったならば、 1枚目のカードの関連情報とし て表示していたキャラクタが 2枚目のカードの位置に移動するものである。
[0040] 即ち、図 7は、マーカ 100を印刷したカード 200を裏返して置いてある状態を撮影し た時の表示部 30の画面 31を示す図である。この場合、画面 31内には、カード 200 力 4枚ある力 マーカ 100を認識してレヽなレ、為に何も表示されてレ、なレ、。
[0041] 図 8は、カード 200を 1枚裏返して置いた状態を撮影した時の画面 32を示している 。このときの画面 32では、裏返したカード 200に印刷された「50」の記号や意匠 102 を持つマーカ 100が 1個検出される。それにより、その「50」の記号や意匠 102に対 応した関連情報であるキャラクタ 60 (この場合は「車」)力 その裏返したカード 200の 位置及び姿勢に応じた位置及び姿勢で表示される。
[0042] 図 9は、もう一枚のカード 200を裏返して置いた状態を撮影した時の画面 33を示す 図である。この画面 33では、同一の「50」の記号や意匠 102を持つマーカ 100が 2個 検出される。従って、「50」の記号や意匠 102に対応した同一のキャラクタ 60 (この場 合は「車」)力 それぞれのカード 200の位置及び姿勢に応じて 2台表示される。
[0043] なお、勿論、神経衰弱ゲームであるから、他の記号や意匠 102を持つカードが 2枚 目として裏返して置かれた状態を撮影する場合も多々ある。その場合には、その 2枚 目のカードに印刷されたマーカの記号や意匠 102に対応するキャラクタ力 S、その 2枚 目のカードの位置まで姿勢に応じて表示されることになる。
[0044] そして、図 9のように、マーカの記号や意匠 102が合致した場合には、絵合わせが 成功である。従って、そのような場合には、そのことを呈示するために、図 9の画面 33 から、図 10乃至図 12に示すような画面 34乃至 36のように、表示を変遷させる。即ち 、図 10の画面 34は、 1枚目に検出した「50」の記号や意匠 102を持つマーカ 100の 位置から、 2枚目に検出した「50」の記号や意匠 102を持つマーカ 100に向かって、 キャラクタ 60 (この場合は「車」 )が移動してレ、る様子を表示してレ、る。図 11の画面 35 は、そのキャラクタ 60 (この場合は「車」)の移動が完了し、一つの大きなキャラクタ 61 に表示を変更している。そして、図 12の画面 36では、そのキャラクタ 61に代えて、成 功したことを示す文字 62を表示してレ、る。
[0045] このように、同一デザインのマーカを複数使用しても、それぞれのマーカを区別でき る為に、例えば神経衰弱ゲームへの応用をはじめとして、種々の用途に応用すること が可能となる。
[0046] 以上、一実施例に基づいて本発明を説明したが、本発明は上述した一実施例に限 定されるものではなぐ本発明の要旨の範囲内で種々の変形や応用が可能なことは 勿論である。
[0047] 例えば、上記一実施例では、制御部 20の各構成をハードウェアとして実現した場 合を説明した力 コンピュータプログラムの形態とし、それをコンピュータで実行するこ とで同様の機能を実現するものであっても良レ、。例えば、制御部 20の各構成をコン ピュータプログラムの形態とし、コンピュータが備えるプログラムメモリに予めそのコン ピュータプログラムを記憶させておいても良レ、。また、例えば制御部 20の各構成をコ ンピュータプログラムの形態とし、 CD—ROM等の記録媒体によってそのコンビユー タプログラムを提供し、該コンピュータプログラムをその記録媒体から読み込んでコン ピュータが備えるプログラムメモリに記憶させても良レ、。更には、インターネットや LA N等のネットワークを介して外部の記録媒体に記録されたものをダウンロードして、プ ログラムメモリに記憶させたものであっても構わなレ、。
[0048] また、上記実施例では、第 1の画像と第 2の画像の 2画像を使用する場合について のみ説明したが、 3画像以上を用いても良いし、動きの予測を適用することも可能で ある。
[0049] さらに、上記一実施例では図 2に示すように、上記マーカ 100は、予め定められた 形状の枠部 101と、その枠部 101の内部に記された文字を含む記号や意匠 102とか ら構成されるとした。し力 ながら、マーカ 100の構成は、このような構成に限定され なレ、。例えば以下に示すような 4つの構成例をはじめとして、種々の構成が考えられ る。
[0050] (第 1の構成例)マーカ 100を、例えば図 13に示すように、意匠 102を円形、多角形 、または自由曲線の枠部 101で囲った構成としても勿論良い(図 13に示す例では枠 部 101は円形)。
[0051] (第 2の構成例)また、マーカ 100を、例えば図 14に示すように、枠部 101自体がそ の枠部 101内部の意匠 102の一部となる構成としても勿論良い。
[0052] (第 3の構成例)、マーカ 100を、例えば図 15に示すように、枠部自体を存在させず
、意匠 102のみで、他のマーカと区別可能な構成としても勿論良い。
(第 4の構成例)マーカ 100を、例えば図 16に示すように、意匠 102 (この例では人 間の顔)の周辺に記号的なシンボル 102A (この例ではハート形状のマーク)を配置 する構成としても勿論良い。
[0053] なお、マーカ 100を、図 13乃至図 15に示すような構成とする場合には、マーカ 100 の特定の為には、必ずしも上記ステップ S12及び上記ステップ S14における処理に よるパターンマッチングの手法を用いなくても良い。すなわち、例えば画像入力部 10 力 得られる画像情報から、画像的に特徴を持った点(以降、特徴点と呼ぶ)を抽出 し、マーカ情報格納部 23に予め登録してあるマーカのテンプレート画像における各 特徴点との類似度を評価することにより、画像情報に含まれるマーカ 100を特定する ことが可能となる。
[0054] マーカ 100の特定の為に、上記のように特徴点によるマッチング手法を採用した場 合には、マーカ 100が互いに重なりあっていたり、マーカ 100の一部が欠けている画 像情報であっても、マーカ 100を特定することが可能となる。すなわち、マーカ 100の 特定の為に、上記のように特徴点によるマッチング手法を採用することは、実用上効 果的である。
[0055] さらに、上記のような特徴点によるマッチング手法を、位置及び姿勢検出部 22によ るマーカ 100の位置情報の算出(上記ステップ S16)に適用しても勿論よレ、。つまり、 位置及び姿勢検出部 22は、マーカ 100の位置情報を、当該マーカ 100の枠部 101 の四隅の座標から求めるのではなぐ以下のように求めても良い。すなわち、上記画 像情報内を占めるマーカ 100のピクセルの重心、マーカ 100の特徴点の重心、また はマーカ 100の特徴点のうち最も広がった複数の点に基づいて、マーカ 100の位置 情報を算出しても勿論よい。ここで、上記"マーカ 100の特徴点のうち最も広がった複 数の点"は、例えば、三点や四点であってもよいし、それ以上の個数の点であっても よレ、。さらには、マーカ 100の全ての特徴点を内包できるよう、動的に当該点の数を 変化させてもょレ、勿論良レ、。
[0056] さらに、上記位置及び姿勢検出部 22で求める各マーカ 100の位置情報は、各マー 力 100の上記画像情報内における位置だけでなぐ該位置における方向の情報を持 ちうることは勿論である。ここで、上記方向の情報とは、例えばマーカ情報格納部 23 へのマーカ 100のテンプレート画像の登録時における上方向を基準の方向(基準軸 )とした場合に、上記画像情報内で特定したマーカ 100の上方向力 上記基準軸か らどれだけ回転している力、を示す情報である。なお、この回転は、二次元的な回転に
限定されるものではなレ、。すなわち、例えばマーカ 100の台形歪からマーカの三次 元的な姿勢を算出しても良い。そして、この算出は、公知の技術で可能である。この ような算出により得られる、マーカ 100が持つ方向の情報は、三次元空間における姿 勢情報とすることができる。なお、マーカ 100の台形歪は、図 2に示すような四角枠か ら求められるのは勿論、上述した特徴点によるマッチング手法によっても、当該特徴 点の相対的な位置を考慮することで求めることができることは言うまでもない。
Claims
[1] 画像情報を入力する画像情報入力手段(10)と、
上記画像情報入力手段(10)によって入力された画像情報の画像中において、標 識(100)を抽出する抽出手段(21)と、
上記抽出手段(21)で抽出された標識(100)の上記画像中における位置を検出す る位置検出手段 (22)と、
複数の画像において各々抽出された標識間の異同を判定する手段であり、少なく とも選択的に適用される判定条件として、上記位置検出手段(22)によって検出され た当該各標識の位置に基づく判定条件を具備する判定手段 (22)と、
を具備することを特徴とする画像情報処理装置。
[2] 上記抽出手段 (21)で抽出された標識(100)間の類似度を評価する類似度評価手 段(22)をさらに具備し、
上記判定手段(22)は、上記類似度評価手段(22)の評価結果だけでは上記標識 (100)間の異同の判定が出来ない場合に、上記位置検出手段(22)によって検出さ れた当該各標識の位置情報に基づいてこの判定を行う、
ことを特徴とする請求項 1に記載の画像情報処理装置。
[3] 上記判定手段 (22)は、上記位置検出手段 (22)によって検出された当該各標識( 100)の位置情報力 導かれた当該各標識(100)間の距離が、最も近い標識(100) 同士を同一と判定することを特徴とする請求項 1に記載の画像情報処理装置。
[4] 複数の画像を入力するステップ(S10, S22)と、
上記入力された各画像中において、標識(100)を抽出するステップ(S 12, S24)と 上記抽出された標識(100)の画像上の位置を検出するステップ (S16, S28)と、 少なくとも選択的に上記検出された上記標識(100)の位置に基づく判定条件を適 用して、上記入力された複数の画像にぉレ、て各々抽出された画像標識間の異同を 判定するステップ(S30)と、
を具備することを特徴とする、複数の画像間で各画像中に存在する標識(100)の 異同を判定する判定方法。
[5] 上記抽出された標識(100)間の類似度を評価するステップ (S301)をさらに具備し 上記画像標識間の異同を判定するステップ (S30)は、上記類似度の評価結果だ けでは上記標識(100)間の異同の判定が出来ない場合に、上記位置を検出するス テツプ(S 16, S 28)によって検出された当該各標識(100)の位置情報に基づレ、てこ の判定を行う、
ことを特徴とする請求項 4に記載の判定方法。
[6] 上記画像標識間の異同を判定するステップ(S30)は、上記位置を検出するステツ プ(S16, S28)によって検出された当該各標識(100)の位置情報から導かれた当該 各標識間の距離が、最も近い標識同士を同一と判定することを特徴とする請求項 4 に記載の判定方法。
[7] コンピュータに複数の画像間で各画像中に存在する標識(100)の異同を判定させ るコンピュータプログラムであり、コンピュータに、
複数の画像を入力させ(S10, S22)、
上記入力された各画像中において、標識(100)を抽出させ(S12, S24)、 上記抽出された標識(100)の画像上の位置を検出させ(S14, S26)、 少なくとも選択的に上記検出された上記標識(100)の位置に基づく判定条件を適 用して、上記入力された複数の画像にぉレ、て各々抽出された画像標識間の異同を 判定させる(S30)、
ことを特徴とする、コンピュータプログラム。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP06729546A EP1998282A4 (en) | 2006-03-20 | 2006-03-20 | VIDEO IMAGE PROCESSING DEVICE, ASSESSMENT PROCEDURE AND COMPUTER PROGRAM |
| CNA2006800539364A CN101401124A (zh) | 2006-03-20 | 2006-03-20 | 图像信息处理装置、判定方法以及计算机程序 |
| PCT/JP2006/305578 WO2007108100A1 (ja) | 2006-03-20 | 2006-03-20 | 画像情報処理装置、判定方法、及びコンピュータプログラム |
| US12/233,051 US20090010496A1 (en) | 2006-03-20 | 2008-09-18 | Image information processing apparatus, judging method, and computer program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2006/305578 WO2007108100A1 (ja) | 2006-03-20 | 2006-03-20 | 画像情報処理装置、判定方法、及びコンピュータプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2007108100A1 true WO2007108100A1 (ja) | 2007-09-27 |
Family
ID=38522140
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2006/305578 Ceased WO2007108100A1 (ja) | 2006-03-20 | 2006-03-20 | 画像情報処理装置、判定方法、及びコンピュータプログラム |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US20090010496A1 (ja) |
| EP (1) | EP1998282A4 (ja) |
| CN (1) | CN101401124A (ja) |
| WO (1) | WO2007108100A1 (ja) |
Families Citing this family (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011010275A (ja) * | 2009-05-26 | 2011-01-13 | Sanyo Electric Co Ltd | 画像再生装置及び撮像装置 |
| CN103477352A (zh) * | 2011-04-11 | 2013-12-25 | 英特尔公司 | 使用深度图像的姿势识别 |
| JP6750500B2 (ja) | 2014-08-27 | 2020-09-02 | 日本電気株式会社 | 情報処理装置および認識支援方法 |
| US10250592B2 (en) | 2016-12-19 | 2019-04-02 | Ricoh Company, Ltd. | Approach for accessing third-party content collaboration services on interactive whiteboard appliances using cross-license authentication |
| US10375130B2 (en) | 2016-12-19 | 2019-08-06 | Ricoh Company, Ltd. | Approach for accessing third-party content collaboration services on interactive whiteboard appliances by an application using a wrapper application program interface |
| US10395405B2 (en) * | 2017-02-28 | 2019-08-27 | Ricoh Company, Ltd. | Removing identifying information from image data on computing devices using markers |
| US11042769B2 (en) * | 2018-04-12 | 2021-06-22 | PRO Unlimited Global Solutions, Inc. | Augmented reality badge system |
| US10846935B2 (en) * | 2018-04-12 | 2020-11-24 | PRO Unlimited Global Solutions, Inc. | Augmented reality campus assistant |
| WO2020194564A1 (ja) * | 2019-03-27 | 2020-10-01 | 日本電気株式会社 | カメラ調整装置、カメラ位置調整方法及びコンピュータ可読媒体 |
| CN116348909A (zh) * | 2020-10-05 | 2023-06-27 | 株式会社岛津制作所 | 姿势检测装置、姿势检测方法及睡相判定方法 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6389182B1 (en) | 1998-06-30 | 2002-05-14 | Sony Corporation | Image processing apparatus, image processing method and storage medium |
| JP2003308514A (ja) * | 1997-09-01 | 2003-10-31 | Canon Inc | 情報処理方法及び情報処理装置 |
| JP2005107964A (ja) * | 2003-09-30 | 2005-04-21 | Canon Inc | 指標識別方法および装置 |
| JP2006048484A (ja) * | 2004-08-06 | 2006-02-16 | Advanced Telecommunication Research Institute International | デザイン支援装置 |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6522312B2 (en) * | 1997-09-01 | 2003-02-18 | Canon Kabushiki Kaisha | Apparatus for presenting mixed reality shared among operators |
| US7483049B2 (en) * | 1998-11-20 | 2009-01-27 | Aman James A | Optimizations for live event, real-time, 3D object tracking |
| EP1521213A3 (en) * | 2003-09-30 | 2006-08-30 | Canon Kabushiki Kaisha | Index identification method and apparatus |
-
2006
- 2006-03-20 WO PCT/JP2006/305578 patent/WO2007108100A1/ja not_active Ceased
- 2006-03-20 EP EP06729546A patent/EP1998282A4/en not_active Withdrawn
- 2006-03-20 CN CNA2006800539364A patent/CN101401124A/zh active Pending
-
2008
- 2008-09-18 US US12/233,051 patent/US20090010496A1/en not_active Abandoned
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003308514A (ja) * | 1997-09-01 | 2003-10-31 | Canon Inc | 情報処理方法及び情報処理装置 |
| US6389182B1 (en) | 1998-06-30 | 2002-05-14 | Sony Corporation | Image processing apparatus, image processing method and storage medium |
| JP2005107964A (ja) * | 2003-09-30 | 2005-04-21 | Canon Inc | 指標識別方法および装置 |
| JP2006048484A (ja) * | 2004-08-06 | 2006-02-16 | Advanced Telecommunication Research Institute International | デザイン支援装置 |
Non-Patent Citations (2)
| Title |
|---|
| AKIRA TAKAHASHI ET AL.: "A High Accuracy Realtime 3D Measuring Method of Marker for VR Interface by Monocular Vision", 3D IMAGE CONFERENCE '96 PROCEEDING, 1996, pages 167 - 172 |
| See also references of EP1998282A4 |
Also Published As
| Publication number | Publication date |
|---|---|
| EP1998282A1 (en) | 2008-12-03 |
| US20090010496A1 (en) | 2009-01-08 |
| CN101401124A (zh) | 2009-04-01 |
| EP1998282A4 (en) | 2009-07-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4958497B2 (ja) | 位置姿勢測定装置及び位置姿勢測定方法、複合現実感提示システム、コンピュータプログラム及び記憶媒体 | |
| CN103189827B (zh) | 对象显示装置以及对象显示方法 | |
| US20090010496A1 (en) | Image information processing apparatus, judging method, and computer program | |
| JP6372149B2 (ja) | 表示制御装置、表示制御方法および表示制御プログラム | |
| US20160125252A1 (en) | Image recognition apparatus, processing method thereof, and program | |
| JP2017108401A5 (ja) | スマートフォンベースの方法、スマートフォン及びコンピュータ可読媒体 | |
| JP2016066360A (ja) | テキストベース3d拡張現実 | |
| JP2014522007A (ja) | 拡張現実のためのオンライン基準パッチ生成および姿勢推定 | |
| US20150170417A1 (en) | Systems and Methods for Activities Solver Development in Augmented Reality Applications | |
| CA2898668A1 (en) | Realization method and device for two-dimensional code augmented reality | |
| CN110546679B (zh) | 识别装置、识别系统,识别方法以及存储介质 | |
| CN114240981A (zh) | 标记识别方法及装置 | |
| CN109803450A (zh) | 无线设备与电脑连接方法、电子装置及存储介质 | |
| US20200167583A1 (en) | Apparatus and method for registering face pose for face recognition | |
| JP5767887B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
| JP2014219822A (ja) | コンテンツ表示装置、コンテンツ表示方法、プログラム、及び、コンテンツ表示システム | |
| US12380593B2 (en) | Automatic image cropping using a reference feature | |
| US20230410361A1 (en) | Image processing system, processing method, and non-transitory storage medium | |
| JP4455294B2 (ja) | 画像情報処理装置、判定方法、及びコンピュータプログラム | |
| Beglov | Object information based on marker recognition | |
| JP6815712B1 (ja) | 画像処理システム、画像処理方法、画像処理プログラム、画像処理サーバ、及び学習モデル | |
| KR20140061009A (ko) | 음성인식을 이용한 하이브리드 증강현실 시스템 및 그 방법 | |
| JP4380376B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
| JP2011071746A (ja) | 映像出力装置及び映像出力方法 | |
| KR20080100371A (ko) | 화상 정보 처리 장치, 판정 방법 및 기록 매체 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 06729546 Country of ref document: EP Kind code of ref document: A1 |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 2006729546 Country of ref document: EP |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 200680053936.4 Country of ref document: CN |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |