[go: up one dir, main page]

JP7242367B2 - Packaging material data calculation device and packaging material data calculation method - Google Patents

Packaging material data calculation device and packaging material data calculation method Download PDF

Info

Publication number
JP7242367B2
JP7242367B2 JP2019055559A JP2019055559A JP7242367B2 JP 7242367 B2 JP7242367 B2 JP 7242367B2 JP 2019055559 A JP2019055559 A JP 2019055559A JP 2019055559 A JP2019055559 A JP 2019055559A JP 7242367 B2 JP7242367 B2 JP 7242367B2
Authority
JP
Japan
Prior art keywords
packaging material
data
packaged
material data
acquiring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019055559A
Other languages
Japanese (ja)
Other versions
JP2020153951A (en
Inventor
誠 大井川
聖雄 池本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019055559A priority Critical patent/JP7242367B2/en
Publication of JP2020153951A publication Critical patent/JP2020153951A/en
Application granted granted Critical
Publication of JP7242367B2 publication Critical patent/JP7242367B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、包装材データ算出装置および包装材データ算出方法に関する。 The present invention relates to a packaging material data calculation device and a packaging material data calculation method.

物品の包装時には、包装材にロゴやメッセージなどのオブジェクトが記載されたものを用いる場合がある。この場合は包装された状態でオブジェクトが所望の位置に、例えば表面中心に配置されていることが望まれる。オブジェクトを含む包装材の生成方法としては従来、被包装物の形状を選択するまたはスキャナを用いてサイズを読み取るといった形で包装材を決定し、裏面に折り方を、表面にオブジェクトを印刷する手法が提案されている(特許文献1)。 When packaging an article, there are cases where a packaging material on which an object such as a logo or message is described is used. In this case, it is desired that the object is arranged in a desired position, for example, in the center of the surface, in the wrapped state. Conventional methods for creating packaging materials that include objects include determining the packaging material by selecting the shape of the item to be packaged or reading the size using a scanner, then printing the folding method on the back side and the object on the front side. has been proposed (Patent Document 1).

特開2013-65196号公報JP 2013-65196 A

しかしながら特許文献1には、被包装物の形状が既知の形状でなければならないという課題がある。 However, Patent Literature 1 has a problem that the shape of the object to be packaged must be a known shape.

上記課題に鑑み、本発明は被包装物が既知の形状でない場合でも、包装材上のオブジェクトが所望の位置へ配置された包装材データを生成する事ができる包装材データ算出装置および包装材データ算出方法を提供することを目的とする。 In view of the above problems, the present invention provides a packaging material data calculation apparatus and packaging material data that can generate packaging material data in which objects on the packaging material are arranged at desired positions even if the package has an undefined shape. The purpose is to provide a calculation method.

上記目的を達成するために、本発明の情報処理装置は、被包装物の形状データを取得する第1の取得手段と、前記形状データをもとに前記被包装物を包装するための包装材にかかる包装材データを取得する第2の取得手段と、前記包装材データ上に配置するオブジェクトを決定するオブジェクト決定手段と、前記被包装物の形状データ、前記包装材データ及び前記オブジェクトのデータに基づいて前記オブジェクトの前記包装材データ上の位置を決定する決定手段と、を備え、前記オブジェクト決定手段は、前記形状データに含まれる距離情報をもとに前記オブジェクトを配置する位置を決定することを特徴とする。 In order to achieve the above object, an information processing apparatus of the present invention comprises: first acquisition means for acquiring shape data of an object to be packaged; packaging material for packaging the object to be packaged based on the shape data; second acquiring means for acquiring packaging material data; object determining means for determining an object to be placed on the packaging material data; shape data of the package, packaging material data, and object data determining means for determining the position of the object on the packaging material data based on the distance information included in the shape data; characterized by

本発明によれば、既知の形状でない被包装物に対しても、包装材上のオブジェクトを所望の位置へ配置することができる。 According to the present invention, it is possible to arrange an object on a packaging material at a desired position even for an article to be packaged that does not have a known shape.

第1の実施形態に係る包装材データ算出装置を示す模式図Schematic diagram showing a packaging material data calculation device according to the first embodiment 第1の実施形態に係る撮像部を示す模式図Schematic diagram showing an imaging unit according to the first embodiment 第1の実施形態に係る包装材データ算出フローを示す図A diagram showing a packaging material data calculation flow according to the first embodiment 第1の実施形態に係る被包装物と形状データを示す図A diagram showing a packaged item and shape data according to the first embodiment. 第1の実施形態に係る被包装物の形状データと包装材データを示す図A diagram showing shape data of an object to be packaged and packaging material data according to the first embodiment. 第1の実施形態に係る包装材データとオブジェクト配置面を示す図A diagram showing packaging material data and an object arrangement surface according to the first embodiment. 第2の実施形態に係る包装材データを示す図A diagram showing packaging material data according to the second embodiment 第2の実施形態に係る包装支援のUI例を示す図A diagram showing a UI example of packaging assistance according to the second embodiment. 被包装物の撮像からプリンタによる印刷までを実現する構成例を示す図A diagram showing an example of a configuration that realizes everything from imaging an object to be packaged to printing with a printer.

本発明について、実施形態、図面を用いて詳細に説明する。同じものを指す場合は同じ番号を用いた。本発明は各実施例に記載された内容に限定されない。また、各実施形態を適宜組み合わせても良い。 The present invention will be described in detail with reference to embodiments and drawings. The same number is used when referring to the same thing. The present invention is not limited to the contents described in each example. Further, each embodiment may be combined as appropriate.

(第1の実施形態)
(装置構成)
図1(a)に包装材データ算出装置100の概要を示す。形状データ取得手段であるカメラ装置101にて被包装物102の撮影を行う。カメラ101は、結像光学系103、撮像素子104、演算処理部105を備える。
(First embodiment)
(Device configuration)
FIG. 1(a) shows an overview of the packaging material data calculation device 100. As shown in FIG. The object to be packaged 102 is photographed by the camera device 101, which is shape data acquisition means. The camera 101 includes an imaging optical system 103 , an image sensor 104 and an arithmetic processing unit 105 .

撮像光学系103は、被写体の像を撮像面である撮像素子104に形成する機能を有する。撮像光学系103は複数のレンズ群、絞りから構成され、撮像素子104から所定距離離れた位置に射出瞳130を有する。なお、図1(a)中の符号140は撮像光学系103の光軸を示し、本明細書中では光軸140はz軸と平行とする。さらに、x軸とy軸は互いに垂直であり、且つ光軸と垂直な軸とする。 The imaging optical system 103 has a function of forming an image of a subject on an imaging device 104, which is an imaging surface. The imaging optical system 103 is composed of a plurality of lens groups and diaphragms, and has an exit pupil 130 at a position a predetermined distance away from the imaging device 104 . Reference numeral 140 in FIG. 1A indicates the optical axis of the imaging optical system 103, and the optical axis 140 is parallel to the z-axis in this specification. Furthermore, the x-axis and the y-axis are perpendicular to each other and perpendicular to the optical axis.

撮像素子104には複数の画素が配置され、各画素は図2(a)に示す断面図のように、マイクロレンズ201、カラーフィルタ202、光電変換部203A、203Bで構成されている。撮像素子105は画素毎にカラーフィルタ202によって検出する波長帯域に応じたRGB(Red,Green,Blue)の分光特性が与えられ、図示しない公知の配色パターンによってxy平面上に配置されている。基板204には、検出する波長帯域に感度を有する光電変換部が形成されている。また、各画素には、図示しない配線を備えている。 A plurality of pixels are arranged in the imaging device 104, and each pixel is composed of a microlens 201, a color filter 202, and photoelectric conversion units 203A and 203B as shown in the cross-sectional view of FIG. 2(a). The imaging element 105 is given RGB (Red, Green, Blue) spectral characteristics according to the wavelength band detected by the color filter 202 for each pixel, and is arranged on the xy plane according to a known coloration pattern (not shown). The substrate 204 is formed with a photoelectric conversion section that is sensitive to the wavelength band to be detected. In addition, each pixel is provided with wiring (not shown).

図2(b)は光軸140と撮像素子104の交点(中心像高)から、結像光学系103の射出瞳130を見た図である。光電変換部203Aおよび光電変換部203Bには、それぞれ射出瞳130の異なる領域である第1の瞳領域210を通過した第1の光束および第2の瞳領域220を通過した第2の光束が入射する。光電変換部203Aおよび光電変換部203Bに入射した光束をそれぞれ光電変換することで、互いに視差を有するA画像及びB画像(視差画像組)を生成する。取得されたA画像とB画像は演算手段である演算処理部105に伝送され、後述の測距演算処理により距離値を算出し、ROM111に蓄えられる。また、A画像とB画像を加算した画像は、画像情報として利用することができる。211は第1の瞳領域210の重心位置(第1の重心位置)を示し、221は第2の瞳領域220の重心位置(第2の重心位置)を示している。重心位置211と重心位置221との重心間距離が基線長222となる。A画像とB画像は、デフォーカスによって基線長方向に位置がズレる。この画像間の相対的な位置ズレ量(像ズレ量)、すなわちA画像とB画像の視差量を、相関演算による相関値より算出する。相関値の算出は、SAD(Sum of Absolute Difference)やSSD(Sum of Squared Difference)などの一般的な算出方法を用いることができる。算出した相関値を既知の内挿手法により、最も相関が高くなる移動量をサブピクセル精度で推定することで、視差量を算出することができる。算出した視差量は、既知の手法によりデフォーカス量又は被写体距離に変換することができる。視差量からデフォーカス量への換算は、基線長を用いた幾何学的関係から算出することができる。また、デフォーカス量から被写体距離への変換は、結像光学系103の結像関係を用いて行えばよい。あるいは視差量に所定の変換係数を乗算することでデフォーカス量又は被写体距離に変換してもよい。このような方法により、距離情報(視差量、デフォーカス量、被写体距離を含む)を算出することができ、各画素で上記の演算を行うことで視差量分布あるいはデフォーカス量分布あるいは被写体距離分布などの形式で示される距離画像を求めることができる。距離画像とは、画像データの各領域に対応する距離情報の値が並んだデータ配列を示し、必ずしも可視化される必要はない。本実施形態では距離画像の少なくとも1部を構成する構成要素を距離情報と呼んでいる。 FIG. 2B is a view of the exit pupil 130 of the imaging optical system 103 viewed from the intersection (center image height) of the optical axis 140 and the image sensor 104 . A first luminous flux that has passed through a first pupil region 210 and a second luminous flux that have passed through a second pupil region 220, which are different regions of the exit pupil 130, are incident on the photoelectric conversion units 203A and 203B, respectively. do. By photoelectrically converting the light beams incident on the photoelectric conversion units 203A and 203B, an A image and a B image (parallax image set) having parallax with each other are generated. The acquired A image and B image are transmitted to the arithmetic processing unit 105 which is arithmetic means, and distance values are calculated by distance measurement arithmetic processing described later and stored in the ROM 111 . Also, an image obtained by adding the A image and the B image can be used as image information. 211 indicates the barycentric position (first barycentric position) of the first pupil region 210 and 221 indicates the barycentric position (second barycentric position) of the second pupil region 220 . A base line length 222 is a center-to-center distance between the center-of-gravity position 211 and the center-of-gravity position 221 . The positions of the A image and the B image are shifted in the baseline length direction due to defocus. A relative positional shift amount (image shift amount) between the images, that is, a parallax amount between the A image and the B image is calculated from a correlation value obtained by correlation calculation. A common calculation method such as SAD (Sum of Absolute Difference) or SSD (Sum of Squared Difference) can be used to calculate the correlation value. The amount of parallax can be calculated by estimating, with sub-pixel precision, the amount of movement that maximizes the correlation between the calculated correlation values using a known interpolation method. The calculated amount of parallax can be converted into a defocus amount or an object distance by a known method. Conversion from the amount of parallax to the amount of defocus can be calculated from the geometric relationship using the baseline length. Also, the conversion from the defocus amount to the subject distance may be performed using the imaging relationship of the imaging optical system 103 . Alternatively, the amount of parallax may be converted to the amount of defocus or the subject distance by multiplying the amount of parallax by a predetermined conversion coefficient. By such a method, distance information (including parallax amount, defocus amount, and subject distance) can be calculated. It is possible to obtain a distance image shown in a format such as . A distance image indicates a data array in which values of distance information corresponding to each area of image data are arranged, and does not necessarily need to be visualized. In this embodiment, a component that constitutes at least part of a distance image is called distance information.

図2(a)ではx方向に光電変換部203A及び光電変換部203Bを2つ配置しているが、y方向でも構わないし、x方向・y方向共に配置するなどどのように配置しても良い。また3つ以上の光電変換部を有していても良い。 Although two photoelectric conversion units 203A and 203B are arranged in the x direction in FIG. 2A, they may be arranged in the y direction, and may be arranged in any way, such as arranging them in both the x direction and the y direction. . Also, it may have three or more photoelectric conversion units.

このように取得された距離画像をもとに、撮像光学系103の焦点距離など光学パラメータを用いた幾何学的な関係によって、光軸140に対して垂直な面内方向の長さも算出することができる。このように、1方向からの視点の画像を構成する各画素に対応する距離(z方向)の値と、光軸140に対して垂直な面内方向(x、y方向)の値とが関連付けられている画像を距離情報という。 Based on the distance image acquired in this way, the length in the in-plane direction perpendicular to the optical axis 140 can also be calculated based on the geometric relationship using the optical parameters such as the focal length of the imaging optical system 103. can be done. In this way, the value of the distance (z direction) corresponding to each pixel constituting the image of the viewpoint from one direction is associated with the value of the in-plane direction (x, y direction) perpendicular to the optical axis 140. This image is called distance information.

カメラ装置は、2つ以上の複数の光学系とそれに対応する撮像素子から構成された2眼ステレオカメラで構成してもよい。これは基線長の設計自由度が向上し、測距分解能が向上する観点から好適である。 The camera device may be composed of a twin-lens stereo camera composed of two or more optical systems and corresponding imaging devices. This is preferable from the viewpoint of improving the degree of freedom in designing the base line length and improving the ranging resolution.

図1(b)に演算処理部105の詳細を図示する。演算処理部105は、システム制御部110を有し、バス106を介して画像処理部107、ユーザ操作部108、表示部109、ROM111、RAM112、記録媒体114と接続されている。 FIG. 1B illustrates details of the arithmetic processing unit 105 . Arithmetic processing unit 105 has system control unit 110 and is connected to image processing unit 107 , user operation unit 108 , display unit 109 , ROM 111 , RAM 112 and recording medium 114 via bus 106 .

本実施形態では、システム制御部110は、演算処理部105だけでなく包装材データ算出装置100全体を制御するものであり、例えばCPUである。システム制御部110は演算処理部105が備える各ブロックの動作プログラムをROM111より読み出し、RAM112に展開して実行することにより演算処理部105が備える各ブロックの動作を制御する。 In this embodiment, the system control unit 110 controls not only the arithmetic processing unit 105 but also the entire packaging material data calculation apparatus 100, and is, for example, a CPU. The system control unit 110 reads the operation program of each block provided in the arithmetic processing unit 105 from the ROM 111 , develops it in the RAM 112 and executes it, thereby controlling the operation of each block provided in the arithmetic processing unit 105 .

ROM111は、書き換え可能な不揮発性メモリであり、例えばフラッシュROM等が用いられている。ROM111は、演算処理部105が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。 The ROM 111 is a rewritable non-volatile memory, such as a flash ROM. The ROM 111 stores an operation program for each block included in the arithmetic processing unit 105, as well as parameters required for the operation of each block.

RAM112は、書き換え可能な揮発性メモリであり、演算処理部105が備える各ブロックの動作において出力されたデータの1時的な記憶領域として用いられる。システム制御部110及び画像処理部107は、RAM112をワークメモリとして使用する。 A RAM 112 is a rewritable volatile memory, and is used as a temporary storage area for data output during the operation of each block provided in the arithmetic processing unit 105 . The system control unit 110 and the image processing unit 107 use the RAM 112 as work memory.

画像処理部107は、RAM112に記憶されている画像データに対して画像処理を行う。具体的には、画像処理部107は、例えば、ホワイトバランス調整、色補間、縮小/拡大等の処理や、さらに、バンドパスフィルタ処理や、デフォーカスマップの生成、着目被写体領域の抽出と補正、ぼかし処理等の様々な画像処理を行う。画像処理部107は、画像処理後の画像を記録媒体108に記録する。 The image processing unit 107 performs image processing on image data stored in the RAM 112 . Specifically, the image processing unit 107 performs, for example, processes such as white balance adjustment, color interpolation, reduction/enlargement, bandpass filter processing, generation of a defocus map, extraction and correction of a subject area of interest, Perform various image processing such as blurring. The image processing unit 107 records the processed image on the recording medium 108 .

外部I/F113は、包装材データ算出装置100外の装置と信号のやり取りを行うためのインターフェースである。システム制御部110は外部I/F113を介してPC、プリンタ等の外部装置に包装材データを出力したり、インターネットサーバ上に包装材データ等のデータをアップロードしたりすることが可能となっている。 The external I/F 113 is an interface for exchanging signals with devices outside the packaging material data calculation device 100 . The system control unit 110 can output packaging material data to an external device such as a PC or a printer via the external I/F 113, and can upload data such as packaging material data to an Internet server. .

記録媒体114は、例えば、演算処理部105に対して着脱可能なメモリカード等である。記録媒体114には、RAM112に記憶されている画像処理部107で処理された画像や撮像部104から入力されるA/D変換された画像等が、記録画像として記録される。 The recording medium 114 is, for example, a memory card or the like that is removable from the arithmetic processing unit 105 . An image processed by the image processing unit 107 stored in the RAM 112, an A/D converted image input from the imaging unit 104, and the like are recorded on the recording medium 114 as recorded images.

ユーザ操作部108は、ユーザ8からの指示を受け付ける操作部である。表示部110はLCD等の表示器上に、撮像素子102で撮像された画像や各種操作指示や状態表示のためのメニュー画面、アイコンやオブジェクトの表示を行う。また、表示部109はユーザ操作を受け付けるためのタッチパネル機能も有していて、例えば表示部をタッチすることで表示部に写っている被写体の中から着目被写体を指定することができる。 A user operation unit 108 is an operation unit that receives instructions from the user 8 . A display unit 110 displays an image captured by the imaging element 102, various operation instructions, a menu screen for displaying a state, icons, and objects on a display such as an LCD. The display unit 109 also has a touch panel function for receiving user operations. For example, by touching the display unit, a subject of interest can be designated from among the subjects displayed on the display unit.

バス108は、演算処理部105の各ブロックを接続する。各ブロックは、バス108を介して信号のやり取りを行う。 A bus 108 connects each block of the arithmetic processing unit 105 . Each block exchanges signals via the bus 108 .

(演算フロー)
演算処理部105で行う包装材データ算出に係る演算フローについて図3を用いて説明する。
(calculation flow)
A calculation flow relating to packaging material data calculation performed by the calculation processing unit 105 will be described with reference to FIG.

ステップS301「形状データ取得」では、カメラ101を用いて被包装物102の撮像を行い、被包装物102の形状データを取得する。図4(a)は被包装物102の撮影画像例である。このような撮影画像を取得する際に前述の手法にて距離画像を取得する。次にカメラ101を異なる視点に移した状態から同様に被包装物102の撮影画像を取得し、距離画像を取得する。このようにして取得した複数の距離画像を統合して、3次元的なxyzの寸法値が含まれる形状情報を取得する。具体的には、行ごとにx、y、z列の数値が並んで格納されている点群データ形式として記録される。このとき、点群データx、y、zの座標原点は任意に設定され、例えば1枚目の距離画像を取得した際のカメラ座標を原点とすることができる。距離情報同士の統合は、特徴点ベースなど、公知の手法を用いて行われる。取得した3次元的な形状情報をもとに、図4(b)に示す形状データを算出する。形状データの算出は、取得した形状情報の寸法値をもとに幾何形状をフィッティグすることで算出され、もとの形状情報に対し平滑化などの手法でスムージングを行うことも好適である。形状データは一般的な幾何形状データ形式として表現され、具体的には頂点座標vx、vy、vzと頂点法線情報vnx、vny、vnzを頂点の数だけ格納した形式で記録される。 In step S<b>301 “obtain shape data”, the camera 101 is used to image the object 102 to be packaged, and the shape data of the object 102 is acquired. FIG. 4A is an example of a photographed image of the package 102. FIG. When acquiring such a photographed image, a distance image is acquired by the method described above. Next, the camera 101 is moved to a different point of view to similarly obtain a photographed image of the item to be packaged 102 to obtain a distance image. A plurality of distance images acquired in this manner are integrated to acquire shape information including three-dimensional xyz dimension values. Specifically, it is recorded as a point cloud data format in which the numerical values of the x, y, and z columns are stored side by side for each row. At this time, the coordinate origin of the point cloud data x, y, and z can be arbitrarily set, and for example, the camera coordinates when the first range image was obtained can be set as the origin. Integration of distance information is performed using a known method such as a feature point base. Based on the obtained three-dimensional shape information, shape data shown in FIG. 4B is calculated. The shape data is calculated by fitting a geometric shape based on the dimensional values of the acquired shape information, and it is also preferable to smooth the original shape information by a technique such as smoothing. The shape data is expressed in a general geometric shape data format, and is recorded in a format in which vertex coordinates vx, vy, vz and vertex normal information vnx, vny, vnz are stored for the number of vertices.

さらに他の形状として、取得した被包装物の形状情報の外周を囲うような形状でフィッティングすることにより、図4(c)に示すような曲面を含有する形状データを取得することができる。円形状の場合は、円周を任意の分割数で頂点とした前述のデータ形式や、円という面種類、半径、法線情報を格納した形式でも良い。また、曲面形状の場合は多項式フィッティングの係数や、ファセットに分割し各頂点座標ならびに法線情報をデータとして記録しても良い。 As another shape, by fitting a shape that surrounds the outer circumference of the shape information of the packaged object, shape data containing a curved surface as shown in FIG. 4(c) can be obtained. In the case of a circular shape, the above-described data format in which the circumference is divided into vertices by an arbitrary number of divisions, or a format in which the surface type, radius, and normal information of a circle are stored may be used. In the case of a curved surface, the coefficients of polynomial fitting, or the coordinates of each vertex divided into facets and normal line information may be recorded as data.

複数視点からの距離画像を取得する際、カメラ101を移す次の撮影候補点を撮影者に提示してもよい。そのときの観点は、統合する際の特徴点が撮影画像内に存在し、より多くの距離情報未取得領域が撮影されるように選択される。 When acquiring distance images from multiple viewpoints, the photographer may be presented with the next candidate shooting point to which the camera 101 is to be moved. The point of view at that time is selected so that the feature points at the time of integration exist in the photographed image, and more distance information unacquired regions are photographed.

ひとつの視点からの距離画像をもとに、見えていない領域の形状を推測して形状データを算出することができる。取得した距離情報を光軸140に垂直な面に対して反転させ統合することや、機械学習を用いて形状データを算出する。また、取得した距離画像上でユーザが被包装物を囲うように形状を描くUI(User Interface)により形状データを算出する。 Shape data can be calculated by estimating the shape of the invisible area based on the range image from one viewpoint. Shape data is calculated by inverting and integrating the acquired distance information with respect to a plane perpendicular to the optical axis 140 or using machine learning. Further, shape data is calculated by a UI (User Interface) in which the user draws a shape so as to enclose the package on the acquired distance image.

また包装材データ算出装置100はLiDAR等の別の測距情報取得機器を用いて外部I/F113を介してカメラ101と同期して距離情報を取得することで、カメラ101から得られる撮影画像に対応した距離画像を生成することもできる。 In addition, the packaging material data calculation apparatus 100 acquires distance information in synchronization with the camera 101 via the external I/F 113 using another distance measurement information acquisition device such as LiDAR. A corresponding range image can also be generated.

このようにして、カメラ101にて被包装物102の撮影を行い、さらに対応する形状データを取得することで、被包装物が既知の形状でない場合にも被包装物の形状データを取得することができる。 In this manner, the camera 101 photographs the object 102 to be packaged and acquires the corresponding shape data, so that the shape data of the object to be packaged can be acquired even if the object to be packaged does not have a known shape. can be done.

ステップS302「包装材データ算出」では、ステップS301「形状データ取得」で取得した形状データをもとに包装材のサイズや形状データを算出する。 In step S302 "packaging material data calculation", the size and shape data of the packaging material are calculated based on the shape data acquired in step S301 "shape data acquisition".

図5(a)は取得した形状データを示す。これを図5(b)に示す展開図にし、図5(c)に示すのりしろ領域501を作成する。このようにして包装材データを算出する。包装材データは2次元データで表すことができ、各頂点の座標と識別番号、各面の面番号と面を構成する頂点の識別番号を格納したデータ形式として記録される。他にも、包み方に関し風呂敷包みやキャラメル包み、など包み方を選択し、ステップS301で取得した形状データの寸法値を適用することで、その包み方に応じた包装材のサイズや形状データが算出できる。包み方は、本体メモリ106内にデータとして複数種蓄えられ、選択はユーザがUIを通じて随時選択できる。このようにして、包装材データ算出手段である演算処理部105にて演算を行い、本体メモリ106に結果が保存される。 FIG. 5(a) shows the acquired shape data. This is developed as shown in FIG. 5(b) to create a marginal area 501 shown in FIG. 5(c). Packaging material data is calculated in this way. The packaging material data can be represented by two-dimensional data, and is recorded in a data format that stores the coordinates and identification numbers of each vertex, the surface number of each surface, and the identification numbers of the vertices forming the surface. In addition, by selecting wrapping methods such as furoshiki wrapping, caramel wrapping, etc., and applying the dimension values of the shape data acquired in step S301, the size and shape data of the wrapping material corresponding to the wrapping method can be obtained. can be calculated. A plurality of wrapping methods are stored as data in the main body memory 106, and the selection can be made at any time by the user through the UI. In this way, calculation is performed by the calculation processing unit 105 as packaging material data calculation means, and the result is stored in the main body memory 106 .

ステップS303「オブジェクト決定手段」は、包装材上に配置を行うオブジェクトを選択する。オブジェクトとは包装材に配置するメッセージなどのテキストや、店名などのロゴ、イラストやマークのデータを示す。本体メモリ106内に格納されているオブジェクト一覧データをユーザが選択し、オブジェクトとして決定する。また、ユーザが入力したテキストデータや画像データをオブジェクトに決定することができる。また、機械学習を用いて撮影した被包装物の撮影画像からシーン認識を行い、被包装物に適したオブジェクトを自動選択し、ユーザへ提案、ユーザが選択することもできる。例えば、玩具とシーン認識した場合に、「お誕生日おめでとう」のテキストを候補に提示することができる。また、テキストのフォントやイラストの色調など、各種装飾処理を行うこともできる。このようにして、演算処理部105にて演算を行い、ROM111に結果が保存される。 The step S303 "object determining means" selects an object to be arranged on the packaging material. Objects refer to texts such as messages to be placed on packaging materials, logos such as store names, and data such as illustrations and marks. The user selects the object list data stored in the main body memory 106 and determines it as an object. Also, text data or image data input by the user can be determined as an object. It is also possible to use machine learning to perform scene recognition from the photographed image of the object to be packaged, automatically select an object suitable for the object to be packaged, propose it to the user, and allow the user to select it. For example, when a scene is recognized as a toy, the text "Happy Birthday" can be presented as a candidate. In addition, various decoration processing such as text font and illustration color tone can be performed. In this way, calculation is performed by the calculation processing unit 105 and the result is stored in the ROM 111 .

ステップS304「オブジェクトの位置決定」では、ステップS303「オブジェクト決定手段」で選択したオブジェクトを包装された状態で所望の位置へ来るように、包装材上へ配置する位置、サイズを決定する。 In step S304 "determination of object position", the position and size of the object selected in step S303 "object determination means" are determined so that the wrapped object is placed on the packaging material at a desired position.

包装材データ上でオブジェクトを配置する面は、例えば被包装物から取得した形状データにおける最大の面積を持つ面に対応した包装材データの面を選定する。図6(a)は取得した形状データであり、最大の面積を持つ面601に対し、展開図から作成した包装材データ上の対応する面602をオブジェクトを配置する面として選定する。 For the surface on which the object is arranged on the packaging material data, for example, the surface of the packaging material data corresponding to the surface having the maximum area in the shape data obtained from the package is selected. FIG. 6A shows the acquired shape data. For a plane 601 having the largest area, a corresponding plane 602 on the packaging material data created from the developed view is selected as a plane for arranging the object.

選定した面602の重心位置を算出し、決定したオブジェクトの重心位置が一致するように、オブジェクトを面602上に配置する。そして、面602を構成する辺からはみ出さない大きさになるよう、オブジェクトに対し拡大縮小処理を行う。このようにして、決定手段である演算処理部105にて演算を行い、本体メモリ106に結果が保存される。 The center-of-gravity position of the selected surface 602 is calculated, and the object is placed on the surface 602 so that the determined center-of-gravity position of the object matches. Then, the object is scaled to a size that does not protrude from the sides forming the surface 602 . In this way, calculation is performed by the calculation processing unit 105 as a determining means, and the result is stored in the main body memory 106 .

このようにオブジェクトの位置を決定し配置することで、包装された状態では被包装物を囲う外形状で最大の面積を持つ面の重心にオブジェクトがくることとなる。従って、包装した状態でオブジェクトが面と面の境界にかかって視認性が悪かったり、表面にプリントされて欲しかったのに内側に隠れてしまったりすることを低減し、所望の位置に配置することができるようになる。 By determining and arranging the position of the object in this way, the object will come to the center of gravity of the surface having the largest area in the outer shape surrounding the packaged item in the packaged state. Therefore, it is possible to arrange the object in a desired position by reducing the visibility of the object being poor due to the boundary between the surfaces in the wrapped state, or the object being hidden inside although it was desired to be printed on the surface. will be able to

またオブジェクトを配置する面は、ステップS301で取得した被包装物の撮影画像のなかの1枚目の撮影画像における最近接距離に存在する面とすることもできる。ユーザがはじめに包装された状態のイメージをしながら操作を開始する場合が想定されるため、自動的にユーザが所望するオブジェクトの配置面を提案できる点で好適である。 Also, the surface on which the object is arranged can be the surface that exists at the closest distance in the first photographed image among the photographed images of the item to be packaged obtained in step S301. Since it is assumed that the user starts the operation while imagining the wrapped state, it is preferable in that the layout surface of the object desired by the user can be automatically proposed.

またオブジェクトを配置する面は、ステップS301で取得した被包装物の撮影画像のなかからユーザがUIを通じて任意に選択し、選択された面に対応する包装材データの面に決定することもできる。またオブジェクトのサイズに関しても、ユーザが任意の大きさに拡大縮小し決定することもできる。ユーザが所望のオブジェクト配置面や、オブジェクトのサイズを選択できる点で好適である。 Also, the surface on which the object is placed can be arbitrarily selected by the user through the UI from the photographed image of the object to be packaged acquired in step S301, and the surface of the packaging material data corresponding to the selected surface can be determined. The size of the object can also be determined by the user by enlarging or reducing it to an arbitrary size. This is advantageous in that the user can select a desired object placement surface and object size.

また取得した被包装物102の距離画像を用いてオブジェクトの配置面を選択することができる。具体的には距離情報(距離値)の面内変化量、つまり画素方向における微分値が略定数である領域が所定範囲以上ある場合には平面であるとして対応する面をオブジェクト配置面に選定する。同様に、距離値の2階微分値が定数である領域が所定範囲以上ある場合には凹凸の少ない曲面であるとして対応する面をオブジェクト配置面に選定する。このように選定することで包装完了後にオブジェクトが存在する位置は凹凸が少ない面とすることができるため、オブジェクトが表面の凹凸によって歪むといった現象を低減でき、包装された状態でのオブジェクトの外観を良くすることができる点で好適である。 Also, using the obtained distance image of the package 102, the surface on which the object is arranged can be selected. Specifically, if the amount of change in the distance information (distance value) within the plane, that is, the area in which the differential value in the pixel direction is approximately constant, is determined to be flat and the corresponding plane is selected as the object placement plane. . Similarly, if the area where the second order differential value of the distance value is a constant is greater than or equal to a predetermined range, the corresponding surface is determined to be a curved surface with little unevenness and is selected as the object placement surface. By selecting in this way, the position where the object exists after the packaging is completed can be a surface with less unevenness, so the phenomenon that the object is distorted due to the unevenness of the surface can be reduced, and the appearance of the object in the wrapped state can be improved. It is preferable in that it can be improved.

ステップS305「包装材データ算出」では、ステップS301からS304にて算出したオブジェクト配置済みの包装材データを、各種データ形式のフォーマットに変換し、包装材データとして算出する。演算処理部105にて演算を行い、ROM111に結果が保存される。 In step S305 "packaging material data calculation", the object-arranged packaging material data calculated in steps S301 to S304 are converted into various data formats and calculated as packaging material data. The arithmetic processing unit 105 performs arithmetic operations, and the results are stored in the ROM 111 .

このようにして包装材データを算出することで、既知の形状でない被包装物に対しても、包装材上のオブジェクトが包装完了後に所望の位置へ配置することができるようになる。 By calculating the packaging material data in this way, it becomes possible to place the object on the packaging material at a desired position after the packaging is completed, even for an item to be packaged that does not have a known shape.

(第2の実施形態)
本実施形態では元々オブジェクトが印刷されている包装材に対し、所望の配置に包装ができるよう切り出し範囲を提示する方法、ならびに包装手順を支援する方法を示す。
(Second embodiment)
This embodiment presents a method of presenting a cutout range so that the packaging material on which the object is originally printed can be wrapped in a desired arrangement, and a method of supporting the packaging procedure.

図7(a)は元々オブジェクトが印刷されている包装材701である。これをカメラ装置101で撮影することにより形状データとして取り込む。取り込んだ包装材701の形状データからオブジェクト領域を選定し、前述のフロー中のステップS303オブジェクト決定で決定するオブジェクトとして決定する。その後、同様な手法で作成した包装材データを、先の包装材701の形状データに重畳し、図7(b)に示す包装材データを算出する。 FIG. 7A shows a packaging material 701 on which objects are originally printed. By photographing this with the camera device 101, it is captured as shape data. An object area is selected from the captured shape data of the packaging material 701, and determined as an object to be determined in step S303 object determination in the flow described above. After that, the packaging material data created by a similar method is superimposed on the shape data of the previous packaging material 701 to calculate the packaging material data shown in FIG. 7(b).

オブジェクト印刷済の包装材にも適用でき、使用できる包装材の選択肢が増える点で好適である。 It can also be applied to packaging materials on which objects have already been printed, and is suitable in terms of increasing the options of packaging materials that can be used.

また、算出した包装材データと被包装物の形状データを用いることで、包装手順をユーザへ提示し包装支援を行うことができる。図8に示すように、カメラ101で被包装物および包装材を撮影しながら、包装材データと取得した撮影画像を比較し解析する。具体的には撮影画像から前述の距離情報を算出し、算出した距離情報と算出済みの形状データの一致度が高くなるよう形状データの位置、向き、縮尺を設定する。この時の一致度は一般的な手法で算出され、例えば相関値を算出することで求められる。その後、前述のように形状データと紐づけられた包装材データを撮影画像に重畳することでユーザへ表示する。されに、解析結果に基づいて次に折る箇所や方向を算出し、表示部109の背面液晶の画面を通じて矢印801のアイコン等で示すことでユーザへの包装支援を行う。カメラ装置101で被包装物102および包装材701を撮影し撮影画像を取得するのは、包装開始前でも、包装途中でもよい。また、動画モードで撮影画像を取得、表示し、包装手順が進むたびに矢印の表示位置や内容を随時更新して表示することで包装支援を行うこともできる。このようにすることで、実作業を伴いながらユーザは包装材上のオブジェクトが包装された状態で所望の位置へ配置することができるようになる点で好適である。 Further, by using the calculated packaging material data and the shape data of the object to be packaged, it is possible to present the packaging procedure to the user and provide packaging assistance. As shown in FIG. 8, the camera 101 photographs the object to be packaged and the packaging material, and compares and analyzes the packaging material data with the captured image. Specifically, the above-described distance information is calculated from the captured image, and the position, orientation, and scale of the shape data are set so that the calculated distance information and the calculated shape data have a high matching degree. The matching degree at this time is calculated by a general method, for example, by calculating a correlation value. After that, as described above, the packaging material data associated with the shape data is superimposed on the photographed image and displayed to the user. In addition, based on the analysis results, the next folding position and direction are calculated, and indicated by an icon such as an arrow 801 on the rear liquid crystal screen of the display unit 109, thereby assisting the user in wrapping. The object to be packaged 102 and the packaging material 701 may be captured by the camera device 101 before or during packaging. It is also possible to support packaging by obtaining and displaying captured images in the moving image mode, and by updating the display position and contents of the arrow as needed as the packaging procedure progresses. This is preferable in that the user can place the wrapped object on the packaging material at a desired position while performing the actual work.

(プリンタへの出力)
上述した2実施形態に共通する、包装材データ算出装置100で算出した包装材データをプリンタ901で印刷する、包装材作製装置910を図9に示す。包装材データ算出装置100とプリンタ901は外部I/F113を介して有線あるいは無線で接続される。印刷対象である包装材は、紙でも、プラスチック材でも、布でも、適宜選択され、それに応じたプリンタ901が接続される。算出した包装材データを実物として、所望な包装材を具現化することができる点で好適である。
(output to printer)
FIG. 9 shows a packaging material production apparatus 910 that prints the packaging material data calculated by the packaging material data calculation apparatus 100 with a printer 901, which is common to the two embodiments described above. The packaging material data calculation apparatus 100 and the printer 901 are connected by wire or wirelessly via the external I/F 113 . The packaging material to be printed on is appropriately selected from among paper, plastic, and cloth, and the printer 901 is connected accordingly. This is preferable in that a desired packaging material can be realized using the calculated packaging material data as an actual product.

(プログラム)
本発明は、包装材データ算出装置の他に、コンピュータプログラムをも包含する。本実施形態のコンピュータプログラムは、形状情報の算出のために、コンピュータに所定の工程を実行させるものである。本実施形態のプログラムは、形状情報取得装置またはそれを備えるデジタルカメラ等の撮像装置のコンピュータにインストールされる。インストールされたプログラムがコンピュータによって実行されることで上記の機能が実現し、所望な包装材データの算出が可能なものとすることができる。
(program)
The present invention also includes a computer program in addition to the packaging material data calculation device. A computer program according to the present embodiment causes a computer to execute predetermined steps in order to calculate shape information. The program of this embodiment is installed in the computer of the shape information acquisition device or an imaging device such as a digital camera equipped with it. By executing the installed program by the computer, the above functions are realized, and desired packaging material data can be calculated.

100 包装材データ算出装置
101 カメラ
102 被包装物
103 結像光学系
104 撮像素子
REFERENCE SIGNS LIST 100 packaging material data calculation device 101 camera 102 package object 103 imaging optical system 104 imaging device

Claims (12)

被包装物の形状データを取得する第1の取得手段と、
前記形状データをもとに前記被包装物を包装するための包装材にかかる包装材データを取得する第2の取得手段と、
前記包装材データ上に配置するオブジェクトを決定するオブジェクト決定手段と、
前記被包装物の形状データ、前記包装材データ及び前記オブジェクトのデータに基づいて前記オブジェクトの前記包装材データ上の位置を決定する決定手段と、を備え
前記オブジェクト決定手段は、前記形状データに含まれる距離情報をもとに前記オブジェクトを配置する位置を決定することを特徴とする情報処理装置。
a first acquisition means for acquiring shape data of an object to be packaged;
a second acquisition means for acquiring packaging material data related to a packaging material for packaging the object to be packaged based on the shape data;
an object determining means for determining an object to be arranged on the packaging material data;
determining means for determining the position of the object on the packaging material data based on the shape data of the object to be packaged, the packaging material data, and the data of the object ;
The information processing apparatus, wherein the object determination means determines a position where the object is arranged based on distance information included in the shape data .
前記第1の取得手段は、撮像手段が異なる位置でそれぞれ撮像した複数の視差画像組を取得することを特徴とする請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1 , wherein said first acquiring means acquires a plurality of sets of parallax images captured by said imaging means at different positions. 前記撮像手段は、撮像光学系の異なる瞳領域を通過した光束からなる視差画像組を、各位置に対して取得する手段であることを特徴とした請求項2に記載の情報処理装置。 3. An information processing apparatus according to claim 2, wherein said imaging means is means for acquiring, for each position, a set of parallax images made up of light beams that have passed through different pupil regions of the imaging optical system. 前記撮像手段が、2つの異なる光学系と撮像素子の組み合わせからなる撮像手段であることを特徴とした請求項2に記載の情報処理装置。 3. An information processing apparatus according to claim 2, wherein said imaging means is imaging means comprising a combination of two different optical systems and imaging elements. 前記オブジェクト決定手段は、前記形状データが有する面の中で面積が最大の面上でオブジェクトを配置する位置を決定することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。 5. The information processing according to any one of claims 1 to 4, wherein said object determining means determines a position where an object is to be arranged on a plane having the largest area among planes included in said shape data. Device. 前記オブジェクト決定手段は、前記形状データに含まれる距離情報の面内方向の変化量をもとに前記オブジェクトの配置する位置を決定することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。 6. The apparatus according to any one of claims 1 to 5, wherein said object determination means determines a position where said object is arranged based on an amount of change in an in-plane direction of distance information included in said shape data. The information processing device described. 撮像光学系の異なる瞳領域を通過した光束を受光する撮像手段が異なる位置でそれぞれ撮像した複数の視差画像組に基づいて生成された被包装物の形状データを取得する第1の取得手段と、a first acquiring means for acquiring shape data of an object to be packaged generated based on a plurality of sets of parallax images captured at different positions by imaging means for receiving light beams that have passed through different pupil regions of an imaging optical system;
前記形状データをもとに前記被包装物を包装するための包装材にかかる包装材データを取得する第2の取得手段と、a second acquisition means for acquiring packaging material data related to a packaging material for packaging the object to be packaged based on the shape data;
前記包装材データ上に配置するオブジェクトを決定するオブジェクト決定手段と、an object determining means for determining an object to be arranged on the packaging material data;
前記被包装物の形状データ、前記包装材データ及び前記オブジェクトのデータに基づいて前記オブジェクトの前記包装材データ上の位置を決定する決定手段と、を備えることを特徴とする情報処理装置。and determining means for determining a position of the object on the packaging material data based on the shape data of the object to be packaged, the packaging material data, and the data of the object.
前記請求項1乃7に記載の情報処理装置によって算出された包装材データと、前記被包装物の撮影画像とを用いて、包装手順をユーザへ提示する提示手段を備えたことを特徴とする包装支援装置。 A presenting means is provided for presenting a packaging procedure to a user by using the packaging material data calculated by the information processing apparatus according to any one of claims 1 to 7 and the photographed image of the object to be packaged. Packaging support equipment. 前記請求項1乃至7に記載の情報処理装置が生成した前記包装材データを用いて包装材を作製する包装材作製装置。 A packaging material production apparatus for producing packaging materials using the packaging material data generated by the information processing apparatus according to any one of claims 1 to 7. 被包装物の形状データを取得する第1の取得ステップと、
前記形状データをもとに前記被包装物を包装するための包装材にかかる包装材データを取得する第2の取得ステップと、
前記包装材データ上に配置するオブジェクトを決定するオブジェクト決定ステップと、前記被包装物の形状データ、前記包装材データ及び前記オブジェクトのデータに基づいて前記オブジェクトの前記包装材データ上の位置を決定する決定ステップと、
を備え
前記オブジェクト決定ステップでは、前記形状データに含まれる距離情報をもとに前記オブジェクトを配置する位置を決定することを特徴とする情報処理方法。
a first acquisition step of acquiring shape data of the object to be packaged;
a second acquiring step of acquiring packaging material data related to a packaging material for packaging the object to be packaged based on the shape data;
an object determination step of determining an object to be placed on the packaging material data; and determining the position of the object on the packaging material data based on the shape data of the package to be packaged, the packaging material data, and the data of the object. a decision step;
with
The information processing method , wherein in the object determination step, a position where the object is arranged is determined based on distance information included in the shape data.
撮像光学系の異なる瞳領域を通過した光束を受光する撮像手段が異なる位置でそれぞれ撮像した複数の視差画像組に基づいて生成された被包装物の形状データを取得する第1の取得ステップと、
前記形状データをもとに前記被包装物を包装するための包装材にかかる包装材データを取得する第2の取得ステップと、
前記包装材データ上に配置するオブジェクトを決定するオブジェクト決定ステップと、前記被包装物の形状データ、前記包装材データ及び前記オブジェクトのデータに基づいて前記オブジェクトの前記包装材データ上の位置を決定する決定ステップと、
を備えることを特徴とする情報処理方法。
a first acquiring step of acquiring shape data of the object to be packaged generated based on a plurality of sets of parallax images captured at different positions by imaging means for receiving light beams that have passed through different pupil regions of the imaging optical system;
a second acquiring step of acquiring packaging material data related to a packaging material for packaging the object to be packaged based on the shape data;
an object determination step of determining an object to be placed on the packaging material data; and determining the position of the object on the packaging material data based on the shape data of the package to be packaged, the packaging material data, and the data of the object. a decision step;
An information processing method comprising:
請求項10または11に記載の情報処理方法の各ステップをコンピュータに実行させるプログラム。 A program that causes a computer to execute each step of the information processing method according to claim 10 or 11 .
JP2019055559A 2019-03-22 2019-03-22 Packaging material data calculation device and packaging material data calculation method Active JP7242367B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019055559A JP7242367B2 (en) 2019-03-22 2019-03-22 Packaging material data calculation device and packaging material data calculation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019055559A JP7242367B2 (en) 2019-03-22 2019-03-22 Packaging material data calculation device and packaging material data calculation method

Publications (2)

Publication Number Publication Date
JP2020153951A JP2020153951A (en) 2020-09-24
JP7242367B2 true JP7242367B2 (en) 2023-03-20

Family

ID=72558705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019055559A Active JP7242367B2 (en) 2019-03-22 2019-03-22 Packaging material data calculation device and packaging material data calculation method

Country Status (1)

Country Link
JP (1) JP7242367B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012171633A (en) 2011-02-18 2012-09-10 Fuji Xerox Co Ltd Wrapper printing device and program
JP2013065196A (en) 2011-09-16 2013-04-11 Fuji Xerox Co Ltd Packaging support device, packaging support program, and packaging material
JP2016010872A (en) 2014-06-27 2016-01-21 京セラドキュメントソリューションズ株式会社 Image formation device
JP2018189443A (en) 2017-04-28 2018-11-29 キヤノン株式会社 Distance measuring device, distance measuring method and imaging device
JP2018204976A (en) 2017-05-30 2018-12-27 キヤノン株式会社 Distance measuring device, distance measuring method and imaging device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012171633A (en) 2011-02-18 2012-09-10 Fuji Xerox Co Ltd Wrapper printing device and program
JP2013065196A (en) 2011-09-16 2013-04-11 Fuji Xerox Co Ltd Packaging support device, packaging support program, and packaging material
JP2016010872A (en) 2014-06-27 2016-01-21 京セラドキュメントソリューションズ株式会社 Image formation device
JP2018189443A (en) 2017-04-28 2018-11-29 キヤノン株式会社 Distance measuring device, distance measuring method and imaging device
JP2018204976A (en) 2017-05-30 2018-12-27 キヤノン株式会社 Distance measuring device, distance measuring method and imaging device

Also Published As

Publication number Publication date
JP2020153951A (en) 2020-09-24

Similar Documents

Publication Publication Date Title
JP4832878B2 (en) Image composition processing apparatus and method
KR100540963B1 (en) Distance measuring method and image input device with distance measuring function
US20160063765A1 (en) Image processing apparatus and image processing method
CN110738736B (en) Image processing apparatus, image processing method, and storage medium
KR102686690B1 (en) Method and apparatus for measuring optical properties of augmented reality device
US20120230549A1 (en) Image processing device, image processing method and recording medium
JP2017027520A (en) 3D data generation apparatus and method, program, and storage medium
US20180213156A1 (en) Method for displaying on a screen at least one representation of an object, related computer program, electronic display device and apparatus
JP4193342B2 (en) 3D data generator
JP4193292B2 (en) Multi-view data input device
JP4581512B2 (en) Three-dimensional image processing apparatus, optical axis adjustment method, and optical axis adjustment support method
WO2023112971A1 (en) Three-dimensional model generation device, three-dimensional model generation method, and three-dimensional model generation program
JP7242367B2 (en) Packaging material data calculation device and packaging material data calculation method
JP2017059041A (en) Image processing apparatus, image processing method, and program
JP3924576B2 (en) Three-dimensional measurement method and apparatus by photogrammetry
KR102716744B1 (en) Method for forming an image of an object, computer program product and image forming system for carrying out the method
CN107562886A (en) A kind of method and device for generating photomap
KR102675906B1 (en) A method of measuring a head up display ghost image and an apparatus of measuring a head up display ghost image
CN111521127A (en) Measuring method, measuring apparatus, and recording medium
JP6073121B2 (en) 3D display device and 3D display system
JP5744642B2 (en) Image processing apparatus, image processing method, and program.
JP6545033B2 (en) Three-dimensional temperature distribution display
Jachimski Video Stereo Digitizer-a small digital Stereophotogrammetric Working Station for the needs of SIT and other application
CN113228617B (en) Image display system, image display device and image display method
KR101990252B1 (en) Method for producing virtual reality image, portable device in which VR photographing program for performing the same is installed, and server supplying the VR photographing program to the portable device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230308

R151 Written notification of patent or utility model registration

Ref document number: 7242367

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151