WO2019049331A1 - キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法 - Google Patents
キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法 Download PDFInfo
- Publication number
- WO2019049331A1 WO2019049331A1 PCT/JP2017/032563 JP2017032563W WO2019049331A1 WO 2019049331 A1 WO2019049331 A1 WO 2019049331A1 JP 2017032563 W JP2017032563 W JP 2017032563W WO 2019049331 A1 WO2019049331 A1 WO 2019049331A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- imaging device
- chart
- calibration
- correction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Definitions
- Patent Document 1 There is known a game in which a user's body or marker is photographed by a camera, and the image area is replaced with another image and displayed on a display (see, for example, Patent Document 1).
- the technology for acquiring the position and movement of the subject and the camera itself and recognizing the attributes of the subject by detecting and analyzing the image in the photographed image is not only the camera mounted on the game device and the information terminal but also the crime prevention It is widely introduced in systems including cameras, on-board cameras, cameras with robots, etc.
- the external parameters define the relationship between the camera coordinate system and the world coordinate system, and are used especially for the purpose of adjusting the inclination of the images captured by performing calibration simultaneously for multi-view cameras such as stereo cameras.
- a calibration technique a plane chart of a checkered pattern is photographed from a plurality of viewpoints, and the position of the feature point on the photographed image and the position of the feature point on the plane of the chart in real space have a correct correspondence relationship Zhang's method for optimizing parameters is widely known (see Non-Patent Document 1).
- the calibration device 10 stores the obtained parameters in an internal memory or outputs the parameters to an external device (not shown).
- the information processing such as the above-described electronic game may be performed using the obtained parameter, and the function may be displayed on an output device (not shown). It is also conceivable to create a surrounding environment map by mounting on a robot together with the imaging device 12 and analyzing the captured image using the parameters. In these cases, an information processing apparatus having the function of the calibration apparatus 10 can be realized.
- the size of the image is a function of the ratio of the focal distance fa to the distance Za, if the ratio is the same, the size of the image may be the same even if the distance Za is different. In other words, the position of the viewpoint and the angle of view can not be determined simultaneously from the size of the image on one captured image. Therefore, in calibration of a general imaging device, various camera parameters are obtained by capturing a chart from various directions to obtain a simultaneous equation or capturing a fixed distance to the chart.
- the CPU 122 controls the entire apparatus by executing the operating system stored in the storage unit 134.
- the CPU 122 also executes various programs read from the removable storage medium and loaded into the main memory 126 or downloaded via the communication unit 132.
- the GPU 124 has a geometry engine function and a rendering processor function, and performs image drawing in accordance with a drawing command from the CPU 122.
- the above-mentioned correction for lens distortion is eliminated Performs an inverse correction to produce a distorted image similar to the captured image.
- this image is referred to as a "pseudo image”.
- the distortion correction unit 34 efficiently generates the corrected image 64 by properly using these processes. Thereafter, the processing path for generating the chart pattern image from the distorted image as in S30 and S32 is “forward direction correction”, and the processing path for generating the distorted image from the chart pattern image as in S34 and S36 It is called “reverse direction correction”.
- the distortion due to the fisheye lens is first corrected in consideration of the difference in projection method, and the correction accuracy is improved by further correcting according to the above equation.
- a corrected image when using the temporary parameters set in S42 is drawn on the image plane prepared in S40 (S44).
- S44 a processing path of reverse direction correction for obtaining a corresponding position coordinate on the photographed image is used.
- an image close to the chart pattern corrected using the temporarily set parameters is generated.
- the left and right ends of the image of the horizontal projection pixel number Nh of the center projection when the angle of view is ⁇ are A and B, and the left and right ends of the image of the corresponding fisheye lens are A2 and B2.
- the point P (i1, j1) on the screen surface 72 of the equidistant projection and the point Q (i2, j2) on the screen surface 70 of the corresponding central projection are the respective image centers (strictly speaking, the positions of the lens centers) And the distances r1 and r2 from C).
- FIG. 12 illustrates the relationship between the screen surface of the expanded central projection and the screen surface of the fisheye lens. This figure is an overhead view of the viewpoint 74 and each screen surface as in FIG. 11. However, by setting the angle of view to 360 °, the screen surface 76 of the fisheye lens becomes an entire spherical surface whose radius is the focal distance f.
- the process in S44 of FIG. 9 is reverse correction in which the position coordinate of the photographed image is obtained from the position coordinate in order to determine the pixel value on the image plane after correction.
- the process of adjusting the setting of the posture so that the grid lines are orthogonal in S48, and the process of adjusting the correction parameter so as to eliminate the distortion in S50 are also performed on the temporarily corrected image by using the reverse correction.
- the degree of adjustment can be evaluated only for specific pixels sampled, and processing efficiency can be increased.
- the projective transformation at S34 of FIG. 8 can be easily realized by means such as using the inverse of the projective transformation matrix described for S32.
- a reverse process of the correction using the distortion correction equation by the correction coefficient is included, and ingenuity is required.
- "a distortion correction unique to a fisheye lens and a correction using a correction coefficient” are performed as a set. Also in the reverse correction, the set is used as it is so as to be substantially reverse correction.
- the approximate angle and position of the lower end of the horizontal line among the grid lines of the chart pattern can be determined.
- a line segment is defined by the angle and the position, and the two line segments formed by dividing the line segment are further moved downward in the image plane to obtain the sum of pixel values through which they pass.
- the line segment enters the black grid line of the chart pattern the sum of pixel values decreases.
- threshold determination Line segments 90a and 90b of the said state are shown in the figure.
- the angle is adjusted depending on which one arrived earlier, and the process of searching for a black grid line again is repeated. As a result, the approximate angle and position of the upper end of the horizontal line among the grid lines of the chart pattern can be determined.
- FIG. 18 is a flowchart showing a processing procedure for the pseudo image drawing unit 42 to draw a pseudo image.
- This process corresponds to S14 of FIG.
- the pseudo image drawing unit 42 first arranges the object model of the chart 200 in a virtual three-dimensional space similar to that shown in FIG. 10, and further obtains the attitude of the imaging device 12 acquired as shown in FIGS. And arrange the virtual camera at the angle of view (S100). For the position, set a temporary value. Then, the image plane of the virtual camera is prepared (S102), and the corresponding position on the chart 200 is determined starting from each pixel in the image plane. This process corresponds to the above-described forward correction.
- a grid line search as described in FIGS. 14 and 15 is also performed on the image, and a marker is detected to obtain the grid line interval and the marker position. Then, the spacing between the grid lines in the corrected image of the photographed image acquired in S52 of FIG. 9 is compared with the position of the marker. If the position of the virtual camera is different from the actual one, those parameters are different from the values obtained for the captured image. Therefore, the viewpoint adjustment unit 44 adjusts the viewpoint position of the virtual camera so as to eliminate the difference. For example, the pseudo image drawing unit 42 draws the pseudo image at the adjusted viewpoint position again and corrects it so that the grid line interval and the marker position are adjusted to match the actual one.
- FIG. 22 exemplifies the photographed image of the chart 200, where (a) shows a chart pattern consisting of a fractal bar code and (b) shows a chart pattern consisting of a lattice and markers on the display screen of the portable terminal. It shows a photographed image when it is displayed on a television receiver. Thus, even when displayed on the screen of the electronic device, the pattern of the chart can be clearly photographed.
- the fractal bar code of (b) calibration is possible even if only a partial area is shown as shown. Therefore, it is possible to easily carry out the calibration by displaying a chart on an electronic device owned by a general user at an arbitrary timing during operation.
- SLAM Simultaneous Localization and Mapping
- three-dimensional information such as the relationship between the position and the posture of the imaging device and the chart can be obtained.
- the angle of view is also three-dimensional information in the sense of defining the field of view for the viewpoint. Therefore, as shown in (b) in operation, since three-dimensional information is given to the photographed image, geometrical information in the three-dimensional space can be acquired. For example, it can be used to create an environmental map as described above. By using the result, it is possible to significantly increase the variation of the information processing. Even when displaying the results, it is possible to accurately represent more attractive image worlds such as virtual reality and augmented reality.
- the correction is repeated while adjusting the parameters until a target image is obtained.
- it is possible to efficiently reach the optimal value of the parameter by focusing on only the sampling point of the evaluation target in the target image and tracking the change due to the adjustment.
- the present embodiment is nothing more than acquiring three-dimensional information from one photographed image using a fisheye lens. Therefore, it can be used for geometric processing in a three-dimensional space, such as creation of an environmental map, also at the time of operation, and variations of processing using a photographed image can be increased.
- the position and orientation of the captured image with respect to the chart are known, it is not necessary to exactly align the chart and the imaging device in calibration.
- a fractal barcode is used as the chart pattern, the position of the imaging device can be specified even when photographing only a partial region, so the degree of freedom for photographing further increases.
- the chart can be displayed on an electronic device, allowing the user to easily carry out calibration regardless of time or place, as a base point for continuous information acquisition thereafter, and latest for aging of the device It can provide a correction environment.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Computer Graphics (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
Abstract
キャリブレーション装置10において、撮影画像取得部30はキャリブレーション用のチャートを魚眼の撮像装置12で撮影した画像のデータを取得する。歪み補正部34は、撮像装置のパラメータを仮定して、射影方式を考慮した補正を行い、元のチャートの像が得られるまでパラメータを調整する。疑似画像描画部42はチャートのモデルデータを用いて撮影画像を疑似的に描画する。視点調整部44は疑似的な画像と撮影画像を比較し、マーカーの位置やパターンの間隔の差に応じて仮想カメラの視点位置を調整することで、撮像装置12の位置を特定する。
Description
本発明は、撮像装置のキャリブレーションを実現する装置、キャリブレーションシステム、およびキャリブレーション方法に関する。
ユーザの体やマーカーをカメラで撮影し、その像の領域を別の画像で置換してディスプレイに表示するゲームが知られている(例えば、特許文献1参照)。撮影画像における像を検出し解析することにより、被写体やカメラ自体の位置や動きを取得したり被写体の属性を認識したりする技術は、ゲーム装置や情報端末に搭載されたカメラのみならず、防犯カメラ、車載カメラ、ロボット搭載カメラなどを含むシステムにおいても広く導入されている。
それらのシステムにおける処理精度を保障するため、撮像装置の内部パラメータ、歪み補正係数、外部パラメータ等、装置固有の情報を事前に取得するキャリブレーション処理が行なわれる。内部パラメータは、撮影画像における画素の位置座標と、光学中心を原点とし長さを単位とするカメラ座標系における位置座標との関係を規定する。歪み補正係数は、レンズによる樽型歪みや円周方向の歪みを補正するための係数である。
外部パラメータは、カメラ座標系とワールド座標系の関係を規定し、特にステレオカメラなど多眼カメラについて同時にキャリブレーションを行うことにより、それぞれが撮影した画像の傾きを合わせるなどの目的で用いられる。キャリブレーション技術としては、チェッカーパターンの平面チャートを複数の視点から撮影し、撮影画像上での特徴点の位置と、実空間でのチャートの平面における特徴点の位置とが正しい対応関係となるようにパラメータを最適化するZhangの手法が広く知られている(非特許文献1参照)。
Zhengyou Zhang, "A Flexible New Technique for Camera Calibration", Microsoft Research Technical Report, MSR-TR-98-71, December 2, 1998.
Zhangの手法では、いくつかの位置や姿勢で撮像装置やチャートをセッティングしたうえ、撮影を繰り返す必要があり、作業負担が大きい。また近年、魚眼レンズを用いて広角画像を撮影する技術が一般的になりつつあるが、魚眼レンズ特有の歪みを画像全体で精度よく補正するのは困難であった。
本発明はこうした課題に鑑みてなされたものであり、その目的は、魚眼カメラのキャリブレーションを、容易かつ高精度に行うことのできる技術を提供することにある。
上記課題を解決するために、本発明のある態様はキャリブレーション装置に関する。このキャリブレーション装置は、魚眼レンズを有する撮像装置から、キャリブレーション用のチャートの撮影画像のデータを取得する撮影画像取得部と、撮影画像における各画素位置への視線ベクトルと光軸のなす角度に基づきレンズによる歪みを補正するとともに、補正された画像を評価することにより撮像装置に係るパラメータの値を導出し出力する補正部と、を備えたことを特徴とする。
本発明の別の態様もキャリブレーション装置に関する。このキャリブレーション装置は、魚眼レンズを有する撮像装置から、キャリブレーション用のチャートの撮影画像のデータを取得する撮影画像取得部と、撮像装置に係るパラメータの値を取得するパラメータ取得部と、仮想カメラとチャートのオブジェクトモデルを仮想3次元空間に配置し、仮想カメラが撮影する画像として、取得したパラメータの値を用いて撮影画像を疑似的に生成する疑似画像描画部と、疑似的に生成された画像と撮影画像とを比較することにより、チャートに対する撮像装置の位置を導出する視点調整部と、を備えたことを特徴とする。
本発明のさらに別の態様はキャリブレーションシステムに関する。このキャリブレーションシステムは、魚眼レンズを有する撮像装置と、上記キャリブレーション装置と、を備えたことを特徴とする。
本発明のさらに別の態様はキャリブレーション方法に関する。このキャリブレーション方法は、魚眼レンズを有する撮像装置から、キャリブレーション用のチャートの撮影画像のデータを取得するステップと、撮影画像における各画素位置への視線ベクトルと光軸のなす角度に基づきレンズによる歪みを補正するステップと、補正された画像を評価することにより撮像装置に係るパラメータの値を導出し出力するステップと、を含むことを特徴とする。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、撮像装置のキャリブレーションを、容易かつ高精度に行うことができる。
図1は、本実施の形態を適用できるシステムの構成を例示している。このシステムは撮像装置12、キャリブレーション用のチャート200、および撮像装置12が撮影したチャート200の画像を用いてキャリブレーションを実施するキャリブレーション装置10を含む。キャリブレーション装置10は、チャート200の撮影画像を用いて撮像装置12に係る所定のパラメータを取得する。ここで所定のパラメータとは、レンズ歪み補正係数、レンズ中心の位置、接線歪み補正係数など一般的なカメラパラメータのほか、チャート200を撮影したときの撮像装置12の位置、姿勢、水平/垂直画角(以後、単に「画角」と呼ぶ)を含む。
撮像装置12は撮像光学系として魚眼レンズ、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどのイメージセンサ、およびデモザイク処理など一般的な画像処理を実施する機構を備え、被写空間を広角で撮影する。撮像装置12はレンズとイメージセンサのセットを1つのみ備えた単眼カメラでもよいし、当該セットを複数有する多眼カメラとしてもよい。撮像装置12に備えるカメラをどのような構成とするかは、撮影画像を用いて行う情報処理の内容によって決定してよい。
例えばユーザやコントローラなどの対象物の3次元空間における位置を撮影画像から取得して電子ゲームを実現する場合、左右に既知の間隔を設けた2つのカメラからなるステレオカメラで構成することが考えられる。また撮像装置12の形態は図示するものに限らない。例えばキャリブレーション装置10と一体的に実現してもよい。あるいは撮像装置12を、ロボットやヘッドマウントディスプレイに装備させてもよい。この場合、ロボットや、ヘッドマウントディスプレイを装着したユーザの視野に対応するような画像を所定のフレームレートで撮影し、ロボットの動作に反映させたり、対応する画像をヘッドマウントディスプレイに表示させたりするのに利用することが考えられる。
チャート200は所定のパターン(図柄)を表した平面状のボードや紙などの実物体である。あるいは当該図柄を表示した表示装置や、表示装置を備えた電子機器などでもよい。図示する例でチャート200のパターンは、図の下方の正面図に示すように、白い背景に所定幅の黒い水平線、垂直線を等間隔に配置してなる格子線と、当該格子線が形成する白い矩形の2次元配列のうち所定位置、例えば中心の矩形に配したマーカー202で構成されている。
ただしチャート200のパターンはこれに限らず、チャートの水平方向、垂直方向が所定の間隔で表される図柄と、チャート上の特定の位置を表す図柄の組み合わせであればよい。例えば、格子状に区切られてなる矩形領域のうち隣り合う矩形で白黒が逆転するようなチェッカーのパターンにマーカーを付加したものでもよいし、後に例示するバーコードなどでもよい。マーカー202は図示する例では黒い正方形であるが、それに限定する趣旨ではなく、格子線との区別が明らかな既知の形状や色であればよい。
キャリブレーション装置10は、チャート200を撮影した画像を入力データとして、撮像装置12に係る上述のパラメータを取得する。ここで入力データとする撮影画像は、魚眼レンズ特有の樽型歪みを補正する前の画像とする。キャリブレーション装置10は、そのレンズ歪みを利用することで、撮像装置12の姿勢や補正係数などのパラメータを1枚の撮影画像から取得する。さらに、別途準備したチャートのモデルデータを利用して疑似的に撮影画像を作り出し、マーカー202の像の位置やサイズに基づき撮像装置12の3次元空間での位置を導出する。
キャリブレーション装置10は、得られたパラメータを内部のメモリに格納したり、図示しない外部の装置に出力したりする。あるいは得られたパラメータを用いて上述の電子ゲームなどの情報処理を実施し、図示しない出力装置に表示させる機能を備えてもよい。また撮像装置12とともにロボットに実装し、撮影された画像を、当該パラメータを用いて解析することにより、周囲の環境地図を作成することも考えられる。これらの場合、キャリブレーション装置10の機能を備えた情報処理装置を実現できる。
図2は、魚眼でない一般的な撮像装置においてなされる中心射影を説明するための図である。同図は焦点距離faの撮像装置が、主点14から距離Zaにある平面を撮影する様子を俯瞰した様子を示している。この撮像装置が写す画像は、主点14から距離faだけ離れたスクリーン15へ被写体を射影した像に対応する。またセンササイズが既知のとき、焦点距離faは画角θを決定づける。この場合、被写体表面の同一サイズaを有する範囲13a、13bは、撮影画像上での位置によらず同じサイズ(fa・a/Za)の像16a、16bを形成する。
すなわち像のサイズは焦点距離faと距離Zaの比率の関数となるため、当該比率が同じであれば、距離Zaが異なっていても像のサイズは同じになり得る。換言すれば1つの撮影画像上の像のサイズから、視点の位置と画角を同時に求めることはできない。そのため一般的な撮像装置のキャリブレーションでは、チャートを様々な方向から撮影することにより連立方程式とするか、チャートまでの距離を固定して撮影することにより、各種カメラパラメータを求める。
図3は、本実施の形態における撮像装置においてなされる等距離射影を説明するための図である。同図でも焦点距離fbの撮像装置が、主点18から距離Zbにある平面を撮影する様子を示している。一方、本実施の形態の撮像装置12は、魚眼レンズにより、像が射影されるスクリーン19が球面状となる。この場合、被写体表面の同一サイズbを有する範囲17a、17bの像20a、20bは、撮影画像上で中心から離れるほど小さくなる。
そして撮影画像上での中心からの距離に対する縮小率の変化は、主点の位置によらずスクリーン19球面の曲率、すなわち焦点距離fbに依存する。本実施の形態ではこれを利用し、魚眼レンズによって生じる歪みを評価することで焦点距離、ひいては画角を特定し、像の位置やサイズを評価することで撮像装置の位置を特定する。これにより、厳密な位置合わせなしにチャート200を撮影した1枚のみの撮影画像によってキャリブレーションが可能になる。
図4は、キャリブレーション装置10の内部回路構成を示している。キャリブレーション装置10は、CPU(Central Processing Unit)122、GPU(Graphics Processing Unit)124、メインメモリ126を含む。CPU122は、オペレーティングシステムやアプリケーションなどのプログラムに基づいて、装置内部の構成要素における処理や信号伝送を制御する。GPU124は画像処理を行う。メインメモリ126はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。
これらの各部は、バス130を介して相互に接続されている。バス130にはさらに入出力インターフェース128が接続されている。入出力インターフェース128には、USBやIEEE1394などの周辺機器インターフェースや、有線又は無線LANのネットワークインターフェースからなる通信部132、ハードディスクドライブや不揮発性メモリなどの記憶部134、図示しない表示装置、プリンタなどの出力装置へデータを出力する出力部136、撮像装置12や図示しない入力装置からデータを入力する入力部138、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部140が接続される。
CPU122は、記憶部134に記憶されているオペレーティングシステムを実行することにより装置の全体を制御する。CPU122はまた、リムーバブル記録媒体から読み出されてメインメモリ126にロードされた、あるいは通信部132を介してダウンロードされた各種プログラムを実行する。GPU124は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU122からの描画命令に従って画像描画を行う。
図5はキャリブレーション装置10の機能ブロックの構成を示している。図5に示す各機能ブロックは、ハードウェア的には、図4で示したCPU122、GPU124、メインメモリ126などで実現でき、ソフトウェア的にはハードディスクや記録媒体からメインメモリにロードされたコンピュータプログラムなどで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
キャリブレーション装置10は、撮影画像のデータを取得する撮影画像取得部30、実際の撮影画像およびモデルから生成した画像を射影変換したりレンズ歪みを補正したりする歪み補正部34、補正した画像を格納する画像記憶部36、補正の際に取得したパラメータを格納するパラメータ記憶部38、チャート200のパターンのモデルデータを格納するチャート画像記憶部40、チャート200のモデルデータを用いて歪みのある画像を疑似的に生成する疑似画像描画部42、マーカーの像の位置とサイズに基づき撮像装置12の視点位置を取得する視点調整部44、および、撮像装置に関し求められたパラメータ、あるいはそれを用いて情報処理を行った結果を示すデータを生成し出力する出力データ生成部46を含む。
撮影画像取得部30は、チャート200を撮影した画像のデータを撮像装置12から取得する。撮像装置12が多眼カメラで構成される場合、各カメラが撮影した画像のデータを全て取得する。この撮影画像におけるチャートの像は、撮像装置の姿勢に応じた傾きや、魚眼レンズによる歪みを有する。以後、撮影画像におけるこのような本来のチャートからの変形を総じて「歪み」と呼ぶことがある。
歪み補正部34は撮影画像から歪みを除く補正を行う。具体的には、等距離射影方式で撮影された画像を中心射影のデータに変換し、さらに歪み補正式により詳細な補正を行う。これによりチャート200の格子線がおよそ直線になる。さらに撮像装置12の姿勢によるチャート200の像の傾きを解消するように射影変換を施す。これらの処理において、撮像装置12の画角、姿勢、レンズ歪み補正係数、レンズ中心に対応する画像上の位置(以後、「レンズ中心の位置」と呼ぶ)、接線歪み補正係数を用いている。
歪み補正部34はまず、これらのパラメータを仮定して補正を行い、その結果が本来のチャートのパターンの画像となるようにパラメータ調整を行う。これにより、各パラメータを取得できる。歪み補正部34はさらに、疑似画像描画部42が生成した、チャートのモデルデータを用いた疑似的な撮影画像についても同じ処理を実施する。これらの補正処理により得られた補正後の画像のデータは画像記憶部36に、パラメータはパラメータ記憶部38に格納する。
疑似画像描画部42は、チャート画像記憶部40に格納しておいたチャート200のモデルデータを読み出し、仮想カメラとともに仮想3次元空間に配置する。ここで仮想カメラには、実際の撮影画像から得られた撮像装置12の姿勢を与える。撮像装置12の位置は未知のため仮の値を設定する。そしてオブジェクトモデルとしてのチャート200を等距離射影することにより、実際の撮像装置12による撮影環境と同じ状態を作り出す。このとき、パラメータ記憶部38に格納された、撮像装置12に対し得られた画角、レンズ歪み補正係数、レンズ中心の位置、接線歪み補正係数を用いて、上述のレンズ歪みを解消する補正とは逆の補正を実施することにより、撮影画像と類似する歪みのある画像を生成する。以後、この画像を「疑似画像」と呼ぶ。
視点調整部44は、撮影画像の補正後の画像におけるマーカー202の位置およびサイズと、疑似画像の補正後の画像におけるマーカー202の位置およびサイズとを比較する。疑似画像描画部42が疑似画像を生成する際に設定した仮想カメラの位置が正しくなければそれらのパラメータに差が生じる。したがって、その差に基づき視点の位置を調整することで、撮像装置12の実際の位置を特定する。
出力データ生成部46は、パラメータ記憶部38に格納された各種パラメータや、視点調整部44が特定した撮影画像の位置を取得し、それを出力データとして記憶装置に格納したり外部の装置に出力したりする。あるいはそれらの情報を用いて、運用時に撮影された画像の補正に用いたり、画像解析に用いたりして所定の情報処理を実施し、表示画像などの出力データを生成、出力してもよい。例えば撮像装置12をステレオカメラとした場合、各カメラの位置と姿勢に基づき両者の主点の間隔や姿勢の差が判明する。したがってそれらのパラメータを、運用時に得られたステレオ画像の補正に用いたり、三角測量に基づく演算に利用したりすることで、対象物の位置を正確に特定できる。
次に、上記構成によって実現できるキャリブレーション装置10の動作を説明する。図6は、キャリブレーション装置10が撮像装置のパラメータを特定する処理手順を示すフローチャートである。まず撮影画像取得部30は、撮像装置12からチャート200を撮影した画像のデータを取得する(S10)。撮像装置12が多眼カメラの場合は、各カメラが撮影した画像のデータを取得する。このデータは、チャート200をおよそ正面から撮影した画像でよく、撮影時に厳密な位置合わせをする必要はない。
姿勢・歪み補正部34は、撮影画像を補正し元のチャートのパターンに近づけることで、撮像装置に係る上述したパラメータを取得する(S12)。上述のとおり撮影画像の歪みには、撮像装置12の姿勢によるものと、魚眼レンズなど撮像装置12の構造によるものとが含まれる。したがって、補正に必要なパラメータを仮定して両者を解消する補正を順に施し、得られた補正後のデータがチャートのパターンと略同一になるまでパラメータを調整していくことで、最終的な補正後の画像とパラメータの値を取得する。ただし撮像装置12の位置は歪みの補正には用いないため、この段階では判明しない。なお撮像装置12の位置を求める必要がない場合、次に述べるS14~S18の処理は省略できる。
次に疑似画像描画部42は、チャート画像記憶部40からチャート200のモデルデータを読み出し仮想空間に配置したうえ、仮想カメラがそれを撮影した画像を疑似画像として描画する(S14)。このとき仮想カメラの姿勢は、S12で取得した値とし、位置については仮の値を与えておく。また当該仮想カメラも魚眼レンズとし、撮像装置12と同じ画角、レンズ歪み補正係数、レンズ中心の位置、接線歪み補正係数を有するとする。これに従いモデル上のチャートを射影して歪みをつけることにより、S10で取得した撮影画像に類似の画像を生成できる。
次に姿勢・歪み補正部34は、S14で描画された疑似画像を、S12と同様に補正する(S16)。すなわちS12で得られたパラメータを用いて歪みを解消する補正を施す。これによりチャートのパターンに近い画像が得られるが、画像上でのチャートの位置や倍率は、疑似画像の描画時に設定した仮想カメラの位置に依存している。視点調整部44は、S12で取得した撮影画像の補正後の画像におけるマーカーの位置および格子の間隔と、S16で取得した疑似画像の補正後の画像におけるマーカーの位置および格子の間隔が略同一になるように仮想カメラの位置を調整する(S18)。
両者の差が所定のしきい値以下となったときの仮想カメラの位置を、実際の撮像装置12の位置として取得する。出力データ生成部46は、それまでの処理で得られたパラメータ自体や、それを用いて行った画像解析や情報処理の結果を表すデータを生成し出力する(S20)。上述のとおり出力先は、ゲームや表示などその他の処理を実行する装置でもよいし、記憶装置でもよい。あるいは撮像装置12自体でもよい。
次に、歪み補正部34が図6のS12において行う撮影画像の補正手法について説明する。図7は実際の撮影画像が補正される様子を例示している。撮影画像50に写るチャートは、図1で説明したように、白い背景上に所定幅を有する黒い直線を格子状に表し、さらに当該格子線で囲まれた矩形のうちの1つに黒い矩形のマーカーを表したパターンを有する。撮像装置12を魚眼レンズとすることにより、レンズの中心に対応する画像平面の略中心から離れるほど像が縮小されている。
歪み補正部34は撮影画像50を補正し、本来のチャートパターンに近い状態、すなわち黒い直線が等間隔で直交している補正後の画像52を生成する。上述のとおり画像端に向かう像の縮小度合い、ひいては直線の曲がり具合は撮像装置12の画角やレンズ中心の位置のずれなど、主に撮像装置12の内部構造に依存し、画像平面の水平方向、垂直方向に対する格子の傾斜の度合いは撮像装置12の姿勢に依存する。したがって撮影画像50から画像52に補正する過程でそれらのパラメータを導出できる。
図8は、歪み補正部34の補正による概念的な画像の変遷を示している。当該補正は上述のとおり、撮影画像60におけるレンズ歪みを解消して格子が直線状の画像62を生成し(S30)、それを射影変換することにより格子が直交する補正後の画像64を得る処理である(S32)。画像処理としては、撮影画像60上の位置座標を入力して、補正後の画像64上の位置座標を出力する処理となる。また本実施の形態では、S30の処理により格子が直線状の画像となるように撮像装置12の画角や補正係数等を模索し、S32の処理により格子が直交するように撮像装置12の元の姿勢を模索する。
すなわち、画像62、64のように目標となる画像での直線性や直交性を評価したうえ、各種パラメータを調整した場合に当該直線性や直交性がどのように改善されるかを確認する処理が含まれる。このとき評価対象の画像62、64上の位置座標を入力して、撮影画像60上の元の位置座標を出力する処理経路を準備しておくと、調整処理を効率化できる。すなわち補正後の画像64に逆の射影変換を施し(S34)、レンズ歪みをつける(S36)処理経路を準備する。
歪み補正部34は、これらの処理を適宜使い分けることにより、補正後の画像64を効率的に生成する。以後、S30、S32のように歪みのある画像からチャートパターンの画像を生成する処理経路を「順方向補正」、S34、S36のようにチャートパターンの画像から歪みのある画像を生成する処理経路を「逆方向補正」と呼ぶ。
図9は、歪み補正部34が撮影画像を補正する処理手順を示すフローチャートである。この処理は図6のS12に対応する。まず補正後の画像の平面を準備するとともに(S40)、補正に用いるパラメータを仮に設定する(S42)。具体的には撮像装置12の画角、姿勢(パン角、チルト角、ロール角)、レンズ歪み補正係数、レンズ中心の位置、接線歪み補正係数を設定する。多くの場合、レンズ歪みはレンズ歪み補正係数k2、k4、k6を用いて次式により補正される。
i' = i (1 + k2 * r2 + k4 * r4 + k6 * r6)/(1 + k2 + k4 + k6)
j' = j (1 + k2 * r2 + k4 * r4 + k6 * r6)/(1 + k2 + k4 + k6)
i' = i (1 + k2 * r2 + k4 * r4 + k6 * r6)/(1 + k2 + k4 + k6)
j' = j (1 + k2 * r2 + k4 * r4 + k6 * r6)/(1 + k2 + k4 + k6)
ここで(i,j)は歪みのある画像における位置座標、(i’,j’)はその補正後の位置座標、rは補正前の画像における位置座標(i,j)の、レンズ中心からの距離であり、レンズ中心の位置座標を(ic,jc)とすると次の式で定義される。
r = ((i - ic)2 + (j - jc)2)1/2
なお上記は6次までの補正を示しているが、補正の次数は限定されない。一方、接線歪みは接線歪み補正係数p1、p2を用いて次式により補正される。
i' = i + (2p1 * ij + p2 (r2 + 2i2))
j' = j + (p1 (r2 + 2j2) + 2p2 * ij)
すなわちこれらの式を用いると、レンズ中心からの距離のみに依存した補正がなされる。
r = ((i - ic)2 + (j - jc)2)1/2
なお上記は6次までの補正を示しているが、補正の次数は限定されない。一方、接線歪みは接線歪み補正係数p1、p2を用いて次式により補正される。
i' = i + (2p1 * ij + p2 (r2 + 2i2))
j' = j + (p1 (r2 + 2j2) + 2p2 * ij)
すなわちこれらの式を用いると、レンズ中心からの距離のみに依存した補正がなされる。
なお後述するように、本実施の形態では魚眼レンズによる歪みを、まず射影方式の違いを考慮して補正し、さらに上式により補正することで補正精度を向上させる。次に、S42で設定した仮のパラメータを用いたときの補正画像を、S40で準備した画像平面に描画する(S44)。この処理には、当該画像平面における各画素の位置座標を入力値として、撮影画像上の対応する位置座標を求める逆方向補正の処理経路を利用する。これにより、仮設定されたパラメータを用いて補正された、チャートパターンに近い画像が生成される。
次に、当該画像において、チャートパターンの格子を構成する直線を探索する(S46)。S42で設定した撮像装置12の姿勢が実際と異なっている場合、それらの直線は直交しないため、直交するまで姿勢の設定を調整していく(S48)。ただしここでは、最も外側に検出された上下左右の4直線の交点のみを監視しながら姿勢の設定を調整することにより処理効率を上げる。これにより撮像装置12の姿勢が判明する。S42で設定した姿勢以外のパラメータが実際と異なっている場合、S48で生成した画像における格子線はなお、微小量歪曲していたり傾斜していたりする。したがってそれらの歪みが解消されるまで、当該パラメータの設定を調整していく(S50)。
この場合も、格子線の幅を2分する点を所定間隔でサンプリングし、それらの近似直線に対する誤差のみを監視しながらパラメータの設定を調整することにより処理効率を上げる。これにより撮像装置12の画角、補正係数、レンズ中心の位置が判明する。S48、S50の処理により、S42で設定したパラメータが更新されるため、当該更新値を用いて再度、S44と同様の描画処理を実施することにより、最終的な補正後の画像を生成する(S52)。このとき、当該画像に対し格子線とマーカーの検出を行うことにより、格子線の間隔とマーカーのサイズも特定しておく。補正後の画像のデータは画像記憶部36に、更新されたパラメータはパラメータ記憶部38に、それぞれ格納する。
図10は、図8のS32における射影変換の処理を説明するための図である。(a)はチャート200と、撮像装置12の視点205および視線ベクトル207を含む3次元空間を示している。なおここでの視線ベクトル207は撮像装置の光軸が向く方向を規定する。図示する例では、視点205の位置座標(x,y,z)は、チャート200に平行なXZ平面とチャートの中心で垂直に交わるY軸がなす3次元空間で定義される。3次元空間の原点Oは、Y軸方向を視線ベクトルとしたときにチャートパターンが視野全体に表示されるときの視点とする。換言すれば、視点が原点Oにあり視線ベクトルがY軸と重なる(撮像装置12がチャート200に正対する)基準状態において、図8の補正後の画像64が得られる。
同図(b)には、視線ベクトル207を拡大したうえ、撮像装置12の姿勢を定義するパラメータを示している。視点205からチャート200への垂線L(Y軸方向)を基準としてパン角p、チルト角qが定義され、視線ベクトル207の回転方向にロール角rが定義される。視点205と視線ベクトル207が標準状態へ変位するときの画像上の位置座標の変化は、これらのパラメータを用いて一般的な射影変換行列により求めることができる。
始点となる視点205および視線ベクトル207が既知であれば、当該射影変換により図8の補正後の画像64が得られる。本実施の形態では視点205と視線ベクトル207が未知のため、それらを定義するパラメータを仮に設定して変換後の画像を確認し、目的とするチャートパターンの画像が得られるように設定パラメータを調整する。これにより、視点205と視線ベクトル207、ひいては撮像装置12の位置と姿勢を特定できる。
図11は、図8のS30における歪み補正の処理を説明するための図である。魚眼レンズの場合は特に、上述した補正式による一般的な歪み補正では、光軸からの距離が大きい画像端部において補正量が不足し、歪みの解消が十分でない場合がある。そこで本実施の形態では、魚眼レンズ特有の歪みを、射影方式を考慮して補正したうえで、一般的な補正式を適用する。同図は、視点74と、直線ABで表される中心射影のスクリーン面70、弧A2B2で表される魚眼レンズの等距離射影のスクリーン面72を俯瞰した状態を示している。
画角をθとしたときの中心射影の水平画素数Nhの画像における左右の端がAおよびBであり、それに対応する魚眼レンズの画像における左右の端がA2およびB2である。視点74から画像までの距離fは、画素を単位として次の式で表される。
f = Nh / ( 2 * (tan (q / 2))
等距離射影のスクリーン面72上の点P(i1,j1)と、それに対応する中心射影のスクリーン面70上の点Q(i2,j2)は、それぞれの画像中心(厳密にはレンズ中心の位置)Cからの距離r1、r2と次の関係にある。
r1 = f * atan (r2 / f)
r2 = (i2 + j2)1/2
ここでatan(r2/f)は、補正前後の点P(i1,j1)および点Q(i2,j2)への視線ベクトルと光軸がなす角度を表す。距離r2に対する距離r1の割合sは点Q(i2,j2)の位置座標を用いて次のように求められる。
s = r1 / r2 = (f * atan (r2 / f)) / r2
f = Nh / ( 2 * (tan (q / 2))
等距離射影のスクリーン面72上の点P(i1,j1)と、それに対応する中心射影のスクリーン面70上の点Q(i2,j2)は、それぞれの画像中心(厳密にはレンズ中心の位置)Cからの距離r1、r2と次の関係にある。
r1 = f * atan (r2 / f)
r2 = (i2 + j2)1/2
ここでatan(r2/f)は、補正前後の点P(i1,j1)および点Q(i2,j2)への視線ベクトルと光軸がなす角度を表す。距離r2に対する距離r1の割合sは点Q(i2,j2)の位置座標を用いて次のように求められる。
s = r1 / r2 = (f * atan (r2 / f)) / r2
中心から画像端までの長さの割合Rは
R = (2f * atan( Nh/2f )) / Nh
であるから、正規化された割合s’は次にようになる。
s' = s / R = ( Nh / 2r2) * ( atan (r2 / f) / atan ( Nh / 2f))
この演算は、画像中心からの距離に基づく一般的な補正式に対し、光軸に対する視線ベクトルの角度に基づいている。すなわち画像の平面上での情報のみならず、それと視点との関係を考慮した3次元での情報を用いて画像を補正できる。
R = (2f * atan( Nh/2f )) / Nh
であるから、正規化された割合s’は次にようになる。
s' = s / R = ( Nh / 2r2) * ( atan (r2 / f) / atan ( Nh / 2f))
この演算は、画像中心からの距離に基づく一般的な補正式に対し、光軸に対する視線ベクトルの角度に基づいている。すなわち画像の平面上での情報のみならず、それと視点との関係を考慮した3次元での情報を用いて画像を補正できる。
これにより、画像上での位置によらず正確な補正を実現できる。なお割合s’は補正後の点Q(i2,j2)を既知として求められる。これは実際の処理では、中心射影のスクリーン面70を先に準備し、当該面上の画素の位置座標に割合s’を乗算することにより、補正前の魚眼レンズの画像における参照先を特定するためである。このようにして参照先の画素値を引いてくることにより、補正後の画像を生成できる。
このように魚眼レンズによる歪みを解消してもなお、レンズの固体差や組み付け具合による歪みが残るため、上述したレンズ中心からの距離に基づく一般的な補正式を用いて補正する。ただし魚眼レンズの歪みを上述のとおり補正した場合、レンズ歪み補正式のうち2次の項を省略する。本実施の形態ではこれらの処理をセットとして歪み補正を行うことにより、画像の端まで高い精度で歪みが解消された画像を得ることができる。この補正には、撮像装置の画角、レンズ歪み補正係数、レンズ中心の位置、接線歪み補正係数が用いられるため、一旦それらのパラメータを仮定して補正を実施し、その結果として格子線が十分な精度で直線に近づくまで調整することで、最終的なパラメータの値を決定する。
図示する例では、魚眼レンズの画角θを100°程度に限定しているため、中心射影のスクリーン面70への変換が容易である。一方、魚眼レンズを用いたカメラは、視点に対し360°の画角での画像が一度に得られるという利点がある。この特性を活かすため、中心射影のスクリーン面を拡張することが考えられる。図12は、拡張された中心射影のスクリーン面と魚眼レンズのスクリーン面の関係を例示している。同図は図11と同様、視点74と各スクリーン面の俯瞰図であるが、画角を360°とすることで、魚眼レンズのスクリーン面76が、焦点距離fを半径とする球面全体となる。
この場合、画像全体を補正するため、球面のスクリーン面76に外接する立方体の6面の内壁を中心射影のスクリーン面とする(例えばスクリーン面78a、78b、78c、78d)。そして視点74を頂点とし内壁の各面を底面とする四角錐状に空間を領域分割し、球面のスクリーン面76上の対象画素がどの領域に属するかによって、変換先のスクリーン面を選択する。図ではスクリーンを俯瞰しているため、視点74周りで90°ごとの4象限に分割されている。球面のスクリーン面76のうち第I象限に属する画像はスクリーン面78a上での画像に補正する。第II、III、IV象限に属する画像はそれぞれ、スクリーン面78b、78c、78d上での画像に補正する。
各象限における補正の計算は上述したのと同様でよい。チャート200も立方体の内壁にチャートパターンを表した形態とし、その中央に撮像装置12を配置して撮影すれば、本実施の形態のその他の処理についても象限ごとに同様に行える。これにより画角の制限なしに、魚眼レンズの画像をほぼ歪みのない画像に補正できる。画角が360°の場合に限らず、それより小さい任意の画角に対し適切な枚数の平面を準備すれば、同じように補正できる。また準備する平面は立方体の面に限らず、球面のスクリーン面76に外接する多面体や、球面のスクリーン面76に外接する円筒形などでもよい。
この手法は、これまで述べたような補正係数を特定する目的以外に、運用時に撮影された画像から歪みのない画像を生成し表示させる態様にも適用できる。例えばヘッドマウントディスプレイに魚眼レンズの撮像装置を設け、撮影された画像をそのまま表示したり仮想オブジェクトを描画して表示したりする場合、一旦、中心射影のスクリーン上での画像に補正する。そして各スクリーン上で必要な加工を行ったうえ、ユーザの視線に対応するビュースクリーンに射影し直すことで、歪みのない画像を効率的に表示できる。
これまでの説明は主に、図8におけるS30、S32の順方向補正を想定した。一方、図9のS44における処理は、補正後の画像平面における画素値を決定するため、その位置座標から撮影画像の位置座標を求める逆方向補正となる。S48において格子線が直交するように姿勢の設定を調整する処理や、S50において歪みが解消されるように補正パラメータを調整する処理も、逆方向補正を用いることにより、仮に補正された画像上でサンプリングされた特定の画素のみを対象として調整具合を評価でき処理効率を上げられる。
逆方向補正のうち図8のS34における射影変換は、S32について説明した射影変換行列の逆行列を用いるなどの手段で容易に実現できる。一方、図8のS36の、レンズに起因した歪み補正の逆補正については、特に補正係数による歪み補正式を用いた補正の逆処理が含まれるため工夫を要する。本実施の形態では上述のとおり、「魚眼レンズ特有の歪み補正と補正係数を用いた補正」をセットで実施している。逆補正においても当該セットをそのまま用いて、実質的に逆の補正となるようにする。
図13は、レンズの歪み補正の逆補正の手法を説明するための図である。同図上段に示すように、この処理は、レンズ歪みのない画像82上の点Q(i2,j2)から、レンズ歪みのある画像80における対応する点P(i1,j1)を求める処理である(矢印B)。レンズ歪みを解消する順方向の補正(矢印A)は上述したとおりであり、逆補正においてもこれをそのまま利用する。
具体的には同図下段に示すように、順方向の補正を施したときの終点が点Q(i2,j2)になるような始点を次のように探索する。まず始点の初期値P0を、目標とする点Q(i2,j2)の位置に仮に定め、上述した順方向の補正を行う。これにより得た終点Q0は当然、目標とする点Q(i2,j2)からずれている。そこで例えば、当該ずれ量の所定割合を点P0の位置座標に乗算することで始点をずらす。当該始点P1に対し再び順方向の補正を施し、終点Q1を得る。
そして終点Q1と目標とする点Q(i2,j2)のずれ量の所定割合を、点P1の位置座標に乗算することで、さらに始点をずらし順方向の補正を施す。この処理を、終点の位置Qnが目標とする点Q(i2,j2)から所定範囲内に収まるまで繰り返す。収束したときの始点Pnを、歪みのある画像80における逆補正の終点P(i1,j1)とする。
図14は、歪み補正部34が図9のS46において、補正後の画像の格子線を探索する手法の例を説明するための図である。図は当該補正後の画像における中央近傍の領域を拡大して示している。当該画像領域において、例えば画像の中央84を中心とする所定長の線分を定義したうえ、当該線分の角度と位置を変化させながらそれが通る画素値の合計を取得していく。線分全体が格子線の黒い領域に入っていれば画素値は最小になるため、そのような状態の線分86を決定する。
次に、線分86を中心84で等分してなる2つの線分をそれぞれ、画像平面の下方向に移動させながらそれが通る画素値の合計を取得していく。線分がチャートパターンの白い矩形に入ると、画素値の合計が大きくなる。実際にはしきい値判定によりそのような状態を検出する。同図において当該状態の線分88a、88bを示している。ここで右の線分88bは、左の線分88aより早く白い矩形に到達している。これにより当初の線分86は、チャートパターンの格子線より右下がりになっていることが判明する。そこで線分86を所定角度右上がりにしたうえ、再度それを分割してなる線分を下方向に移動させることにより白い矩形を探索し、到達するタイミングによって元の線分の角度を調整する。
この処理を所定回数繰り返すことにより、チャートパターンの格子線のうち横線の下端のおよその角度と位置が判明する。同様に、当該角度および位置で線分を定義し、それを分割してなる2つの線分を、画像平面の下方向にさらに移動させながら、それが通る画素値の合計を取得していく。線分がチャートパターンの黒い格子線に入ると、画素値の合計が小さくなる。実際にはしきい値判定によりそのような状態を検出する。同図において当該状態の線分90a、90bを示している。この場合も、どちらが早く到達したかによって角度を調整し、再度黒い格子線を探索する処理を繰り返す。これによりチャートパターンの格子線のうち横線の上端のおよその角度と位置が判明する。
以後は、それらの直線を基点として上方向および下方向に、角度を調整しながら探索していくことで、格子線のうち横線の上端および下端の傾きおよび位置を全て特定できる。格子線のうち縦線についても同様の処理により、左端および右端の傾きおよび位置を特定できる。図9のS52において最終的な補正後の画像が生成された際も、同様の処理を実施する。この場合、さらにチャートパターンの格子線で囲まれた白い矩形領域のうち、中心が黒い領域を探索することによりマーカーの像を検出する。そしてマーカーのサイズを求めておき、格子線の間隔とともに、撮像装置12の視点位置の取得に用いる。
上記のように特定した、格子線の境界線の傾きおよび位置を、広い領域で確認することにより微調整し、精度を高めてもよい。図15は、格子線の境界線を表す線を微調整する手法を説明するための図である。同図は探索対象の画像92において検出された、最も外側の4直線を辺とする矩形96と、調整対象の線94を示している。まず線94と矩形96の交点98a、98bを取得する。
次に交点98a、98bを始点として画像の中心方向に、線94と同じ傾きで所定長さの線分100a、100bを定義する。そして図14の手法と同様の原理で、線分100a、100bを上方向または下方向に移動させながら、それが通る画素値の合計を取得していく。これにより線分100a、100bが白い矩形に入るタイミングを検出し、その位置に基づき得られる直線の傾き反映させて再度線分を定義し探索を繰り返す。この処理により画像の両端に近い離れた位置で、境界線の傾きおよび位置が検出できるため、これらを結ぶことにより線94の調整後の線とする。
図16は、歪み補正部34が図9のS48において、補正後の格子線の像が画像平面の水平および垂直方向と一致するように、撮像装置12の姿勢の設定を調整する処理手順を示すフローチャートである。まず上述のように検出された格子線の境界線のうち、図15の矩形96の各辺を構成する、最も外側の4直線について、画像平面の水平方向あるいは垂直方向からの傾き誤差を求める(S60)。続いてそれらの直線の交点の位置座標を取得し、当該4点の補正前の位置座標を撮影画像上で特定する(S62)。この処理には上述の逆方向補正を適用できる。
そしてS60で求めた誤差を解消する方向に、撮像装置12の姿勢の設定を調整し(S64)、当該姿勢を仮定して4点の位置座標を補正する(S66)。そして補正後の位置座標を頂点とする矩形の各辺について、画像平面の水平方向あるいは垂直方向からの傾き誤差を再度求める(S68)。誤差が所定のしきい値以上の場合(S70のN)、S64からS68の処理を繰り返す。誤差がしきい値より小さくなったら、設定された姿勢が正しいとして処理を終了する(S70のY)。これにより、僅か4点の補正状況を追跡することにより、撮像装置12の姿勢を正確に求めることができる。
図17は、歪み補正部34が図9のS50において、画角および歪み補正の係数を調整する処理手順を示すフローチャートである。上述したように、本実施の形態では撮影画像からレンズに起因した歪みを解消するため、魚眼レンズ特有の歪み補正と補正係数を用いた補正を実施する。これらの補正には、撮像装置の画角と補正係数を用いる。一方、図9のS44における処理では、仮に設定された値を用いているため、格子線が歪曲していたり傾いていたりすることがあり得る。そこで格子線の直線性を確認しながらそれらのパラメータを調整することで、正しいパラメータを導出する。
まず図14、15で説明したように検出された、チャートパターンの格子線の境界線の情報を利用して、当該格子線の幅を2等分する中点群を所定の間隔で抽出していく(S80)。次に抽出した中点群を最小二乗法等で直線に近似したうえ、各中点から直線までの距離の合計を誤差として取得する(S82)。さらに中点群の補正前の位置座標を、撮影画像上で特定する(S84)。この処理には上述の逆方向補正を適用できる。そしてS82で求めた誤差を解消する方向に各パラメータを調整し(S86)、それを用いて補正したときの補正後の中点群の位置座標を求める(S88)。
そしてS82と同様に近似直線からの誤差を求め(S90)、それがしきい値以上の場合(S92のN)、S86からS90の処理を繰り返す。誤差がしきい値より小さくなったら、正しいパラメータが得られたと判定して処理を終了する(S92のY)。この場合も、限定された数の点の補正状況のみを追跡することにより、撮像装置12の画角を含むパラメータを効率的に求めることができる。
図18は、疑似画像描画部42が疑似画像を描画する処理手順を示すフローチャートである。この処理は図6のS14に対応する。疑似画像描画部42はまず、図10で示したのと同様の仮想的な3次元空間にチャート200のオブジェクトモデルを配置し、さらに図16、17で示したように取得した撮像装置12の姿勢および画角で仮想カメラを配置する(S100)。位置については仮の値を設定しておく。そして仮想カメラの画像平面を準備し(S102)、当該画像平面における各画素を始点として、チャート200上の対応する位置を求める。この処理は、上述の順方向補正に対応する。
すなわち図8で説明したのと同様に、本来歪みのある画像が表されるべき仮想カメラの画像平面の各画素について(S104)、魚眼レンズ特有の歪みを補正したうえ補正係数を用いた補正を行う(S106)。補正には図17で示した撮像装置12の各パラメータの値を用いる。この時点で、レンズ歪みのない中心射影の画素配列となっているため、仮想カメラの位置と姿勢に応じた一般的な射影変換により、チャート200のパターン上の参照先の位置座標を決定する(S108)。
そして当該参照先の位置から画素値を引いてくることにより、仮想カメラの画像平面における対象画素の画素値を決定する(S110)。S104からS110の処理を、画像平面の全ての画素について実施し(S112のN)、完了したら処理を終了させる(S112のY)。このようにして生成された、撮影画像の疑似画像は歪み補正部34に供給される。歪み補正部34は当該画像に対し、図9で説明したのと同じ処理を実施する。すなわち撮影画像に対する補正処理により得られた、撮像装置に係る各種パラメータを用いて補正処理を実施し、歪みのない画像を生成する。
この際、当該画像に対しても図14、15で説明したような格子線の探索を行い、さらにマーカーを検出することで、格子線の間隔とマーカーの位置を取得する。そして図9のS52で取得した、撮影画像の補正画像における格子線の間隔とマーカーの位置とそれぞれ比較する。仮想カメラの位置が実際と異なっている場合、それらのパラメータは撮影画像に対し得られた値と異なっている。したがって視点調整部44は、その差を解消するように仮想カメラの視点位置を調整する。例えば疑似画像描画部42に、調整後の視点位置での疑似画像を再度描画させ、それを補正することで格子線の間隔とマーカーの位置が実際と合致するように調整していく。
一方、疑似画像の補正後の画像のみを用いて調整処理を効率化してもよい。すなわち格子線の間隔およびマーカーの位置の実際との差と、それを解消するのに必要な視点位置の移動量との関係をあらかじめ求めておく。当該関係を用いて、実際の差に基づき移動させた視点位置が、求めるべき撮像装置の位置となる。なお撮像装置12を多眼カメラとする場合、図6で示した処理をそれぞれの撮影画像に対し行う。これにより各カメラの位置および姿勢が得られるため、一般的なカメラの外部パラメータと同等に利用できる。すなわち運用時に、各カメラで撮影された画像から対応点を抽出する際、撮影画像の補正に用いることができる。
図19は、疑似画像描画部42が生成した実際の疑似画像を例示している。すなわち仮想空間に配置したチャートを、魚眼レンズを有する仮想カメラで撮影することを想定したときの撮影画像を示している。ただし仮想カメラの位置は、視点調整部44による調整後のものとしている。その結果、図7の撮影画像50とほぼ同一の画像が得られることがわかる。図20は、図19で示した疑似画像の補正後の画像を示している。当該画像も、図7の補正後の画像52とほぼ同一となっている。
厳密には、実際の撮影画像の補正後の画像52では、画像上の位置によって歪み特性に僅かな差があるため、格子線が微妙に歪曲している場合があるが、図20の画像ではそのような差が生じない。したがって補正処理により、格子線が直交するチャートパターンを再現できる。また実際には、疑似画像を補正して最初に得られる画像は、仮想カメラの設定位置に依存して、格子線の間隔やマーカーの位置が実際と異なっている。これが同一になるように視点の位置を調整することにより、図示するように撮影画像の補正後の画像52とほぼ同一の画像が得られる。
図21は、本実施の形態に適用できるチャート200のパターンの別の例を示している。図示するパターンは、フラクタルバーコードと呼ばれ、米国特許第7857232号明細書に開示されている。フラクタルバーコードは最小単位の2次元バーコードを2行2列に配置し、さらにそれを2行2列に配置する、というように入れ子状の階層構造の繰り返しパターンとすることにより、埋め込む情報も階層構造にできる。また各バーコードには、全体に対する位置に係る情報が含まれる。したがって撮像装置を近づけてその一部領域のみが撮影されても必要な情報を得ることができる。
そこでフラクタルバーコードを本実施の形態のチャートパターンのマーカーとして用いたり、チャート全体に複数、配置したりすることにより、チャートに対する撮像装置の位置をその撮影画像からおよそ特定できる。したがって疑似画像描画部42における仮想カメラの設定を、当初より比較的正確に行え、処理効率を向上させることができる。またチャートの一部のみを撮影しても同様の効果が得られるため、撮影時の位置合わせの必要性をさらに低くできる。例えば魚眼レンズの広い視野のうち一部にフラクタルバーコードが映り込んでいれば、キャリブレーションが可能となる。
図22は、チャート200の撮影画像を例示しており、(a)は格子とマーカーからなるチャートパターンを携帯端末の表示画面に表示させた場合、(b)はフラクタルバーコードからなるチャートパターンをテレビ受像器に表示させた場合の撮影画像を示している。このように電子機器の画面に表示させても、チャートのパターンを鮮明に撮影することができる。また(b)のフラクタルバーコードの場合、図示するように一部領域のみが写っていてもキャリブレーションが可能である。したがって一般ユーザが運用時の任意のタイミングで、自らが保有する電子機器にチャートを表示させることによりキャリブレーションを実施することも容易にできる。
例えば据え置き型のモニターやテレビ受像器にチャートを表示させ、ユーザ自らが装着したヘッドマウントディスプレイが備える撮像装置のキャリブレーションを行えば、モニターなどに対するヘッドマウントディスプレイの位置や姿勢が判明する。その状態を始点として、撮像装置が撮影し続ける画像を追跡していくことにより、ヘッドマウントディスプレイの動きを追跡できる。また視野に入った物とモニターとの関係が判明し、室内の環境地図を作成することが容易になる。画像を解析して周囲の環境地図を作成する技術としてSLAM(Simultaneous Localization and Mapping)が知られている。本実施の形態はそのような画像解析技術にも適用できる。
図23は、運用時における広角レンズを有する撮像装置を用いた一般的な処理の体系と、本実施の形態を利用した処理の体系との差を説明するための図である。(a)に示す一般的な処理では、主に画像平面上の2次元的な補正情報を利用する。図示するように撮影処理がなされたあと、平面上での補正情報が与えられ、それに応じて歪み補正等を実施することにより、画像処理を行いやすく、また表示上で違和感のない画像が得られる。そのようなことを目的とするため、キャリブレーション時にも魚眼レンズが撮影した画像を早々に、平面的な情報に変換しても構わない。
一方、本実施の形態では、キャリブレーション時に魚眼レンズの歪みを利用することで、撮像装置とチャートの位置や姿勢の関係といった3次元の情報が求められる。画角も、視点に対する視野を規定するという意味では3次元の情報である。したがって運用時には(b)に示すように、撮影画像に対し3次元の情報が与えられるため、3次元空間における幾何学的な情報を取得できる。例えば上述のような環境地図の作成に用いることができる。その結果を用いれば、情報処理のバリエーションを格段に増やすことができる。その結果を表示する場合も、仮想現実や拡張現実などより魅力的な画像世界を精度よく表現できる。
以上、述べた本実施の形態によれば、魚眼レンズを用いて所定パターンのチャートを撮影することによりキャリブレーションを行う。この際、魚眼レンズによる歪みを利用して撮像装置の画角を求める。これにより、1回の撮影では切り分けが困難であった、画角と視点位置のうち一方を既知とできる。さらに得られた姿勢を用いて、仮想カメラから見たチャートのモデル上の画像を描画し、実際の画像と比較することで、視点位置も特定できる。
結果として、チャートと撮像装置の間隔を固定としたうえで撮影したり、撮像装置の向きを変化させて複数回の撮影を繰り返したりする手間なく、補正係数など一般的なパラメータも取得できる。またレンズ歪みを補正する際は、まず魚眼レンズの等距離射影の画像を、中心射影の画像に補正したうえで、一般的な補正式を適用する。これにより従来見られた、画像の中心から離れるほど補正精度が悪化する状況を改善できる。結果として、画像全体から情報を取得することができ、キャリブレーションやそれを用いた情報処理の精度を向上させられる。
撮像装置から各種パラメータを得る際は、目標とする画像が得られるまでパラメータを調整しながら補正を繰り返す。この際、目標とする画像のうち評価対象のサンプリング点のみに着目し、調整による変化を追跡することにより、効率的にパラメータの最適値へ到達することができる。本実施の形態は、魚眼レンズを用いて1枚の撮影画像から3次元情報を取得していることに他ならない。したがって、運用時にも環境地図の作成など3次元空間での幾何的な処理に利用でき、撮影画像を用いた処理のバリエーションを増やすことができる。
多眼カメラに適用すれば、全てのカメラの相対位置や姿勢の差を取得できるため、各カメラによる撮影画像の位置合わせに利用でき、ひいてはそれを用いた被写体の位置取得も容易になる。多眼カメラによる撮影画像を接続して表示画像とするスティッチング処理においても、各カメラの相対位置や姿勢の差を考慮して3次元空間での射影変換により微調整できるため、より精密なつなぎ合わせを実現できる。
また、チャートに対する撮影画像の位置や姿勢が判明するため、キャリブレーションにおいてチャートと撮像装置を厳密に位置合わせする必要がない。チャートパターンとしてフラクタルバーコードを用いると、部分領域のみの撮影でも撮像装置の位置を特定できるため、撮影に対する自由度がさらに増える。チャートは電子機器に表示させることも可能なため、時期や場所に関わらずユーザが容易にキャリブレーションを実施でき、その後の継続的な情報取得の基点とできるほか、装置の経年変化に対し最新の補正環境を提供できる。
以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
例えば本実施の形態の歪み補正部は、パラメータを仮定してチャートの撮影画像を補正し、その像が本来のチャートパターンと同等になるまで調整することでパラメータを導出し、その過程において、射影変換の差に基づく魚眼レンズ特有の歪み補正を行った。一方、当該補正手法はキャリブレーション時に限らず、魚眼カメラで撮影されたあらゆる画像の補正にも用いることができる。
すなわち魚眼カメラで撮影された屋外や屋内の画像を、図11で示したように中心射影の画像に変換する。さらに必要に応じて補正係数を用いた一般的な補正式を適用して補正し、それを表示させたり情報処理に用いたりする。この場合も、画像全体を高精度に補正できるため、視野の広い画像では生じがちな歪みを最小限に抑えることができる。
また本実施の形態では、歪み補正部が上述のとおり画角や補正係数などのパラメータを調整し、それを用いて疑似画像描画部が仮想カメラの設定を行った。一方、それらのパラメータを別の手段で取得し、疑似画像描画部はそのデータを用いて仮想カメラを設定してもよい。例えば一般的なキャリブレーション手法により補正係数を取得し、撮像装置に内蔵させたモーションセンサにより撮像装置の姿勢を取得する。その結果を用いて疑似画像を生成し、本実施の形態と同様に仮想カメラの視点を調整することで撮像装置の位置を特定してもよい。
あるいは撮像装置の位置に加え姿勢も未知としてよい。この場合、仮想カメラの視点位置と視線ベクトルの双方を調整しながら結果として得られる疑似画像を確認し、撮影画像と一致するときの視点位置と視線ベクトルを、撮像装置の位置および姿勢として決定できる。撮影画像との比較には本実施の形態と同様、補正後の画像における格子線やマーカーを利用することにより、一致度を正確に評価できる。
また本実施の形態における歪み補正部34は、射影方式を変換する補正、補正係数を用いた一般的な補正、基準状態からの姿勢の差に基づく射影変換をセットとして行ったが、それらのうち1つまたは2つを省略してもよい。例えば射影方式を変換する補正のみで要求される精度が得られれば、補正係数を用いた補正を行わなくてよい。また撮像装置がチャートに正対していることが明らかな状況においては、射影変換を行わなくてよい。そのようにしても、本実施の形態と同様の効果が得られる。
10 キャリブレーション装置、 12 撮像装置、 30 撮影画像取得部、 34 歪み補正部、 36 画像記憶部、 38 パラメータ記憶部、 40 チャート画像記憶部、 44 視点調整部、 46 出力データ生成部、 122 CPU、 124 GPU、 126 メインメモリ、 200 チャート。
以上のように本発明は、キャリブレーション装置、撮像装置、画像処理装置、表示装置、ロボット、パーソナルコンピュータなど各種情報処理装置や、それらのいずれかを含むシステムなどに利用可能である。
Claims (14)
- 魚眼レンズを有する撮像装置から、キャリブレーション用のチャートの撮影画像のデータを取得する撮影画像取得部と、
前記撮影画像における各画素位置への視線ベクトルと光軸のなす角度に基づきレンズによる歪みを補正するとともに、補正された画像を評価することにより撮像装置に係るパラメータの値を導出し出力する補正部と、
を備えたことを特徴とするキャリブレーション装置。 - 前記補正部は、前記撮像装置の画角を仮定して前記レンズによる歪みを補正することにより得られた画像を、前記チャートのパターンと比較することにより当該画像を評価し、その結果に基づき前記画角を導出することを特徴とする請求項1に記載のキャリブレーション装置。
- 前記補正部はさらに、前記撮像装置の姿勢を仮定して、補正された画像を射影変換し、当該画像を前記チャートのパターンと比較することにより評価し、その結果に基づき前記姿勢を導出することを特徴とする請求項1または2に記載のキャリブレーション装置。
- 仮想カメラと前記チャートのオブジェクトモデルを仮想3次元空間に配置し、前記仮想カメラが撮影する画像として、前記パラメータの値を用いて前記補正部と逆の処理を実施することにより、前記撮影画像を疑似的に生成する疑似画像描画部と、
前記疑似的に生成された画像と前記撮影画像とを比較することにより、前記チャートに対する前記撮像装置の位置を導出する視点調整部と、
をさらに備えたことを特徴とする請求項1から3のいずれかに記載のキャリブレーション装置。 - 前記補正部は、前記疑似的に生成された画像に対し前記撮影画像と同じ補正を施し、
前記視点調整部は、補正された画像同士を比較することにより前記撮像装置の位置を導出することを特徴とする請求項4に記載のキャリブレーション装置。 - 前記補正部は、前記視線ベクトルと光軸のなす角度に基づく補正の後、レンズ中心に対応する位置から各画素位置までの距離に基づく補正を行うことを特徴とする請求項1から5のいずれかに記載のキャリブレーション装置。
- 前記補正部は、前記パラメータを調整しながら補正を行い、前記補正された画像のうち所定のサンプリング点について評価を繰り返すことにより、前記パラメータの値を決定することを特徴とする請求項1から6のいずれかに記載のキャリブレーション装置。
- 前記補正部は、前記撮像装置の画角の範囲によって、前記レンズによる歪みの補正を個別に行うことを特徴とする請求項1に記載のキャリブレーション装置。
- 前記撮影画像取得部は、画像平面の水平方向および垂直方向に伸張する複数の直線からなる格子線と、当該直線で囲まれた矩形領域のうち所定の位置の矩形領域に配された所定形状のマーカーと、を含むチャートの撮影画像のデータを取得することを特徴とする請求項1から8のいずれかに記載のキャリブレーション装置。
- 前記撮影画像取得部は、上層の2次元バーコードの配列内に、下層の複数の2次元バーコードの配列が包含されてなる入れ子構造のバーコード配列を含むチャートの撮影画像のデータを取得することを特徴とする請求項1から7のいずれかに記載のキャリブレーション装置。
- 魚眼レンズを有する撮像装置から、キャリブレーション用のチャートの撮影画像のデータを取得する撮影画像取得部と、
前記撮像装置に係るパラメータの値を取得するパラメータ取得部と、
仮想カメラと前記チャートのオブジェクトモデルを仮想3次元空間に配置し、前記仮想カメラが撮影する画像として、前記パラメータの値を用いて前記撮影画像を疑似的に生成する疑似画像描画部と、
前記疑似的に生成された画像と前記撮影画像とを比較することにより、前記チャートに対する前記撮像装置の位置を導出する視点調整部と、
を備えたことを特徴とするキャリブレーション装置。 - 魚眼レンズを有する撮像装置と、
請求項1から11のいずれかに記載のキャリブレーション装置と、
を備えたことを特徴とするキャリブレーションシステム。 - 魚眼レンズを有する撮像装置から、キャリブレーション用のチャートの撮影画像のデータを取得するステップと、
前記撮影画像における各画素位置への視線ベクトルと光軸のなす角度に基づきレンズによる歪みを補正するステップと、
補正された画像を評価することにより撮像装置に係るパラメータの値を導出し出力するステップと、
を含むことを特徴とする、キャリブレーション装置によるキャリブレーション方法。 - 魚眼レンズを有する撮像装置から、キャリブレーション用のチャートの撮影画像のデータを取得する機能と、
前記撮影画像における各画素位置への視線ベクトルと光軸のなす角度に基づきレンズによる歪みを補正する機能と、
補正された画像を評価することにより撮像装置に係るパラメータの値を導出し出力する機能と、
をコンピュータに実現させることを特徴とするコンピュータプログラム。
Priority Applications (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2017/032563 WO2019049331A1 (ja) | 2017-09-08 | 2017-09-08 | キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法 |
| JP2019540760A JP6859442B2 (ja) | 2017-09-08 | 2018-05-09 | キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法 |
| US16/643,678 US11232593B2 (en) | 2017-09-08 | 2018-05-09 | Calibration apparatus, calibration system, and calibration method |
| CN201880058435.8A CN111095923B (zh) | 2017-09-08 | 2018-05-09 | 校准装置、校准系统和校准方法 |
| PCT/JP2018/018015 WO2019049421A1 (ja) | 2017-09-08 | 2018-05-09 | キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2017/032563 WO2019049331A1 (ja) | 2017-09-08 | 2017-09-08 | キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2019049331A1 true WO2019049331A1 (ja) | 2019-03-14 |
Family
ID=65634755
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2017/032563 Ceased WO2019049331A1 (ja) | 2017-09-08 | 2017-09-08 | キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法 |
| PCT/JP2018/018015 Ceased WO2019049421A1 (ja) | 2017-09-08 | 2018-05-09 | キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法 |
Family Applications After (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2018/018015 Ceased WO2019049421A1 (ja) | 2017-09-08 | 2018-05-09 | キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US11232593B2 (ja) |
| JP (1) | JP6859442B2 (ja) |
| CN (1) | CN111095923B (ja) |
| WO (2) | WO2019049331A1 (ja) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111795805A (zh) * | 2020-06-29 | 2020-10-20 | 歌尔光学科技有限公司 | 测试图的绘制方法、终端设备及存储介质 |
| CN111857623A (zh) * | 2019-04-25 | 2020-10-30 | 索尼互动娱乐股份有限公司 | 校准设备、校准系统和显示设备校准方法 |
| WO2021079802A1 (ja) * | 2019-10-21 | 2021-04-29 | 株式会社アマダ | ワーク撮影画像処理装置、ワーク撮影画像処理方法、及び加工システム |
| JP2022014921A (ja) * | 2020-12-30 | 2022-01-20 | 阿波羅智聯(北京)科技有限公司 | 路側カメラの外部パラメータに基づく三次元感知情報取得方法及び路側機器 |
Families Citing this family (43)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018102990A1 (en) * | 2016-12-06 | 2018-06-14 | SZ DJI Technology Co., Ltd. | System and method for rectifying a wide-angle image |
| CN108596854B (zh) * | 2018-04-28 | 2021-02-12 | 京东方科技集团股份有限公司 | 图像畸变校正方法及装置、计算机可读介质、电子设备 |
| US11210859B1 (en) * | 2018-12-03 | 2021-12-28 | Occam Video Solutions, LLC | Computer system for forensic analysis using motion video |
| CN111435969B (zh) * | 2019-01-11 | 2021-11-09 | 佳能株式会社 | 图像处理装置及其控制方法、记录介质和信息处理系统 |
| CN111667398B (zh) * | 2019-03-07 | 2023-08-01 | 株式会社理光 | 图像处理方法、装置和计算机可读存储介质 |
| JP7192582B2 (ja) * | 2019-03-11 | 2022-12-20 | オムロン株式会社 | 物体追跡装置および物体追跡方法 |
| CN110930336B (zh) * | 2019-11-29 | 2023-11-28 | 深圳市商汤科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
| DE102020131808A1 (de) * | 2019-12-05 | 2021-06-10 | Denso Wave Incorporated | Vorrichtung zur Unterstützung von Kalibrierungsvorgängen bei Industriekameras |
| CN111210478B (zh) * | 2019-12-31 | 2023-07-21 | 重庆邮电大学 | 一种无共同视野多相机系统外参标定方法、介质及系统 |
| JP2021164095A (ja) * | 2020-04-01 | 2021-10-11 | キヤノン株式会社 | 投影装置 |
| TWI720869B (zh) * | 2020-04-15 | 2021-03-01 | 致伸科技股份有限公司 | 相機模組之對位方法 |
| CN111612720B (zh) * | 2020-05-21 | 2023-11-07 | 烟台艾睿光电科技有限公司 | 一种广角红外图像优化方法、系统及相关组件 |
| JP7474137B2 (ja) * | 2020-06-30 | 2024-04-24 | キヤノン株式会社 | 情報処理装置およびその制御方法 |
| US11644426B2 (en) * | 2020-08-11 | 2023-05-09 | Applied Materials Israel Ltd. | Methods and systems for generating calibration data for wafer analysis |
| JP7449393B2 (ja) * | 2020-08-28 | 2024-03-13 | 株式会社デンソーテン | 車載装置および車載カメラのキャリブレーション方法 |
| CN112288649B (zh) * | 2020-10-27 | 2024-07-19 | 江苏安狮智能技术有限公司 | 一种圆柱状物体透视成像失真的图像校正方法及设备 |
| CN112468716B (zh) * | 2020-11-02 | 2022-07-19 | 航天信息股份有限公司 | 摄像头视角矫正方法、装置、存储介质及电子设备 |
| KR102661114B1 (ko) | 2020-11-10 | 2024-04-25 | 삼성전자주식회사 | 카메라 모듈 검사 장치, 카메라 모듈 검사 방법 및 이미지 생성 장치 |
| US11172193B1 (en) * | 2020-12-04 | 2021-11-09 | Argo AI, LLC | Method and system to calibrate camera devices of a vehicle vision system using a programmable calibration target device |
| CN112584136B (zh) * | 2020-12-23 | 2023-02-28 | 上海艾为电子技术股份有限公司 | 位置校准模块、校准方法、电子设备、校准装置及存储介质 |
| US12462426B2 (en) * | 2020-12-25 | 2025-11-04 | Intel Corporation | Camera registration via robot |
| JP7517170B2 (ja) * | 2021-01-22 | 2024-07-17 | 株式会社明電舎 | ラインセンサカメラのキャリブレーション装置及びキャリブレーション方法 |
| JP7732208B2 (ja) * | 2021-03-24 | 2025-09-02 | 株式会社リコー | 画像形成装置の異常診断方法 |
| CN113538283B (zh) * | 2021-07-22 | 2024-04-30 | 浙江赫千电子科技有限公司 | 一种冗余鱼眼摄像头拍摄图像的畸变矫正方法 |
| CN113687627B (zh) * | 2021-08-18 | 2022-08-19 | 太仓中科信息技术研究院 | 一种基于摄像机器人的目标跟踪方法 |
| CN113822941B (zh) * | 2021-09-03 | 2023-12-19 | 大连中科创达软件有限公司 | 相机倾斜校准方法、装置、设备及存储介质 |
| FR3127063B1 (fr) * | 2021-09-10 | 2023-09-22 | Renault Sas | procédé de génération d’une image finale de l’environnement d’un véhicule automobile |
| TW202314636A (zh) * | 2021-09-17 | 2023-04-01 | 由田新技股份有限公司 | 影像校正方法、影像校正系統、內儲程式之電腦可讀取記錄媒體、以及電腦程式產品 |
| GB202117102D0 (en) * | 2021-11-26 | 2022-01-12 | Ocado Innovation Ltd | Calibrating a camera for mapping image pixels to grid points in a storage system |
| JP7633953B2 (ja) | 2022-01-20 | 2025-02-20 | キヤノン株式会社 | 情報処理装置及び情報処理方法、撮像装置、プログラム、記憶媒体 |
| JP2023169760A (ja) * | 2022-05-17 | 2023-11-30 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
| CN115100026B (zh) * | 2022-06-15 | 2023-07-14 | 佳都科技集团股份有限公司 | 基于目标对象的标签坐标转换方法、装置、设备及存储介质 |
| CN115314690B (zh) * | 2022-08-09 | 2023-09-26 | 北京淳中科技股份有限公司 | 一种图像融合带处理方法、装置、电子设备及存储介质 |
| WO2024057930A1 (ja) * | 2022-09-16 | 2024-03-21 | パナソニックIpマネジメント株式会社 | 補正方法、測定方法およびヘッドマウントディスプレイシステム |
| US12094171B2 (en) * | 2022-11-16 | 2024-09-17 | Google Llc | Calibrating camera in electronic device |
| CN118409651A (zh) * | 2023-04-25 | 2024-07-30 | 成都兆栾蕴网络科技有限公司 | 一种交互式动捕设备与虚拟摄像联动配合系统 |
| CN116518941B (zh) * | 2023-04-27 | 2025-09-02 | 国科大杭州高等研究院 | 基于星载双向摆扫成像系统的飞机目标定位方法及系统 |
| JP2025059980A (ja) * | 2023-09-29 | 2025-04-10 | ブラザー工業株式会社 | 投影システム、投影制御装置、及び投影制御プログラム |
| US20250139922A1 (en) * | 2023-10-30 | 2025-05-01 | PassiveLogic, Inc. | Stacked View Floorplan |
| US20250173899A1 (en) * | 2023-11-24 | 2025-05-29 | Htc Corporation | System and method for calibrating camera |
| CN117392241B (zh) * | 2023-12-11 | 2024-03-05 | 新石器中研(上海)科技有限公司 | 自动驾驶中的传感器标定方法、装置及电子设备 |
| WO2025182657A1 (ja) * | 2024-02-28 | 2025-09-04 | ヌヴォトンテクノロジージャパン株式会社 | 情報処理方法、情報処理装置、および、プログラム |
| CN120765762B (zh) * | 2025-09-08 | 2025-11-18 | 杭州互仲网络科技有限公司 | 基于大模型的仲裁数据智能采集管理系统及方法 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2007055336A1 (ja) * | 2005-11-11 | 2007-05-18 | Sony Corporation | 画像処理装置、画像処理方法、そのプログラム及びそのプログラムを記録した記録媒体と撮像装置 |
| JP2012085026A (ja) * | 2010-10-08 | 2012-04-26 | Toshiba Alpine Automotive Technology Corp | 画像処理装置及び画像処理方法 |
| WO2012120561A1 (ja) * | 2011-03-08 | 2012-09-13 | 三菱電機株式会社 | 移動体周辺映像補正装置 |
Family Cites Families (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| BR9906453A (pt) | 1998-05-19 | 2000-09-19 | Sony Computer Entertainment Inc | Dispositivo e método do processamento de imagem, e meio de distribuição. |
| JP2003141521A (ja) * | 2001-08-21 | 2003-05-16 | Computer Image Laboratory Co Ltd | 画像表示システム |
| JP4307934B2 (ja) * | 2003-08-13 | 2009-08-05 | 株式会社トプコン | 画像補正機能付撮影装置及び方法、並びに撮影装置及び方法 |
| CN101305595B (zh) * | 2005-11-11 | 2011-06-15 | 索尼株式会社 | 图像处理设备以及图像处理方法 |
| JP4757142B2 (ja) * | 2006-08-10 | 2011-08-24 | キヤノン株式会社 | 撮影環境校正方法及び情報処理装置 |
| US9361562B1 (en) * | 2011-10-06 | 2016-06-07 | AI Cure Technologies, Inc. | Method and apparatus for fractal multilayered medication identification, authentication and adherence monitoring |
| JP5898475B2 (ja) | 2011-11-28 | 2016-04-06 | クラリオン株式会社 | 車載カメラシステム及びその較正方法、及びその較正プログラム |
| KR102068992B1 (ko) * | 2013-06-20 | 2020-01-22 | 삼성전자 주식회사 | 렌즈 캘리브레이션 방법 및 영상 복원 방법 |
| CN107003109B (zh) * | 2014-11-13 | 2019-11-05 | 奥林巴斯株式会社 | 校准装置、校准方法、光学装置、摄影装置、投影装置、测量系统以及测量方法 |
| US9894350B2 (en) * | 2015-02-24 | 2018-02-13 | Nextvr Inc. | Methods and apparatus related to capturing and/or rendering images |
| CN104809739B (zh) * | 2015-05-15 | 2019-03-22 | 南京大学 | 一种超广角镜头相机视频实时校正的方法 |
| CN106815805A (zh) | 2017-01-17 | 2017-06-09 | 湖南优象科技有限公司 | 基于Bayer图像的快速畸变校正方法 |
-
2017
- 2017-09-08 WO PCT/JP2017/032563 patent/WO2019049331A1/ja not_active Ceased
-
2018
- 2018-05-09 CN CN201880058435.8A patent/CN111095923B/zh active Active
- 2018-05-09 WO PCT/JP2018/018015 patent/WO2019049421A1/ja not_active Ceased
- 2018-05-09 US US16/643,678 patent/US11232593B2/en active Active
- 2018-05-09 JP JP2019540760A patent/JP6859442B2/ja active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2007055336A1 (ja) * | 2005-11-11 | 2007-05-18 | Sony Corporation | 画像処理装置、画像処理方法、そのプログラム及びそのプログラムを記録した記録媒体と撮像装置 |
| JP2012085026A (ja) * | 2010-10-08 | 2012-04-26 | Toshiba Alpine Automotive Technology Corp | 画像処理装置及び画像処理方法 |
| WO2012120561A1 (ja) * | 2011-03-08 | 2012-09-13 | 三菱電機株式会社 | 移動体周辺映像補正装置 |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111857623A (zh) * | 2019-04-25 | 2020-10-30 | 索尼互动娱乐股份有限公司 | 校准设备、校准系统和显示设备校准方法 |
| WO2021079802A1 (ja) * | 2019-10-21 | 2021-04-29 | 株式会社アマダ | ワーク撮影画像処理装置、ワーク撮影画像処理方法、及び加工システム |
| JP2021065950A (ja) * | 2019-10-21 | 2021-04-30 | 株式会社アマダ | ワーク撮影画像処理装置、ワーク撮影画像処理方法、及び加工システム |
| JP7269864B2 (ja) | 2019-10-21 | 2023-05-09 | 株式会社アマダ | ワーク撮影画像処理装置及びワーク撮影画像処理方法 |
| US12094094B2 (en) | 2019-10-21 | 2024-09-17 | Amada Co., Ltd. | Workpiece photographed image processing device, workpiece photographed image processing method, and processing system |
| CN111795805A (zh) * | 2020-06-29 | 2020-10-20 | 歌尔光学科技有限公司 | 测试图的绘制方法、终端设备及存储介质 |
| JP2022014921A (ja) * | 2020-12-30 | 2022-01-20 | 阿波羅智聯(北京)科技有限公司 | 路側カメラの外部パラメータに基づく三次元感知情報取得方法及び路側機器 |
| US20220028260A1 (en) * | 2020-12-30 | 2022-01-27 | Apollo Intelligent Connectivity (Beijing) Technology Co., Ltd. | Method for acquiring three-dimensional perception information based on external parameters of roadside camera, and roadside device |
| JP7321231B2 (ja) | 2020-12-30 | 2023-08-04 | 阿波羅智聯(北京)科技有限公司 | 路側カメラの外部パラメータに基づく三次元感知情報取得方法及び路側機器 |
| US11893884B2 (en) | 2020-12-30 | 2024-02-06 | Apollo Intelligent Connectivity (Beijing) Technology Co., Ltd. | Method for acquiring three-dimensional perception information based on external parameters of roadside camera, and roadside device |
Also Published As
| Publication number | Publication date |
|---|---|
| JPWO2019049421A1 (ja) | 2020-07-27 |
| JP6859442B2 (ja) | 2021-04-14 |
| CN111095923A (zh) | 2020-05-01 |
| WO2019049421A1 (ja) | 2019-03-14 |
| CN111095923B (zh) | 2022-01-04 |
| US20200273205A1 (en) | 2020-08-27 |
| US11232593B2 (en) | 2022-01-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2019049331A1 (ja) | キャリブレーション装置、キャリブレーションシステム、およびキャリブレーション方法 | |
| JP7218435B2 (ja) | キャリブレーション装置、キャリブレーション用チャート、およびキャリブレーション方法 | |
| US11039121B2 (en) | Calibration apparatus, chart for calibration, chart pattern generation apparatus, and calibration method | |
| CN109003311B (zh) | 一种鱼眼镜头的标定方法 | |
| TWI555379B (zh) | 一種全景魚眼相機影像校正、合成與景深重建方法與其系統 | |
| JP6201476B2 (ja) | 自由視点画像撮像装置およびその方法 | |
| KR101121034B1 (ko) | 복수의 이미지들로부터 카메라 파라미터를 얻기 위한 시스템과 방법 및 이들의 컴퓨터 프로그램 제품 | |
| KR101666959B1 (ko) | 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법 | |
| KR20190021342A (ko) | 개선된 카메라 캘리브레이션 시스템, 타겟 및 프로세스 | |
| CN107809610B (zh) | 摄像头参数集算出装置、摄像头参数集算出方法以及记录介质 | |
| KR20160121798A (ko) | 직접적인 기하학적 모델링이 행해지는 hmd 보정 | |
| CN114359406B (zh) | 自动对焦双目摄像头的标定、3d视觉及深度点云计算方法 | |
| TWI820246B (zh) | 具有像差估計之設備、估計來自廣角影像的像差之方法及電腦程式產品 | |
| CN108629829B (zh) | 一种球幕相机与深度相机结合的三维建模方法和系统 | |
| JP2003179800A (ja) | 多視点画像生成装置、画像処理装置、および方法、並びにコンピュータ・プログラム | |
| WO2018052100A1 (ja) | 画像処理装置、画像処理方法、画像処理プログラム | |
| KR20200129657A (ko) | 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3d 모델 비디오 시퀀스 획득 방법 | |
| KR102146839B1 (ko) | 실시간 가상현실 구축을 위한 시스템 및 방법 | |
| JP2011146762A (ja) | 立体モデル生成装置 | |
| CN113763544B (zh) | 图像确定方法、装置、电子设备和计算机可读存储介质 | |
| US11216943B2 (en) | Method for producing a two-dimensional whole image | |
| EP4591273A1 (en) | Methods and systems for generating three-dimensional representations |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17924590 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 17924590 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |