[go: up one dir, main page]

JP6794493B2 - Storage device - Google Patents

Storage device Download PDF

Info

Publication number
JP6794493B2
JP6794493B2 JP2019088995A JP2019088995A JP6794493B2 JP 6794493 B2 JP6794493 B2 JP 6794493B2 JP 2019088995 A JP2019088995 A JP 2019088995A JP 2019088995 A JP2019088995 A JP 2019088995A JP 6794493 B2 JP6794493 B2 JP 6794493B2
Authority
JP
Japan
Prior art keywords
image
camera
composite image
imaging
hinged door
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019088995A
Other languages
Japanese (ja)
Other versions
JP2019138622A (en
Inventor
賢一 下山
賢一 下山
三島 直
直 三島
井田 孝
孝 井田
琢麿 山本
琢麿 山本
三田 雄志
雄志 三田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Lifestyle Products and Services Corp
Original Assignee
Toshiba Lifestyle Products and Services Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Lifestyle Products and Services Corp filed Critical Toshiba Lifestyle Products and Services Corp
Priority to JP2019088995A priority Critical patent/JP6794493B2/en
Publication of JP2019138622A publication Critical patent/JP2019138622A/en
Application granted granted Critical
Publication of JP6794493B2 publication Critical patent/JP6794493B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Devices That Are Associated With Refrigeration Equipment (AREA)
  • Cold Air Circulating Systems And Constructional Details In Refrigerators (AREA)
  • Image Processing (AREA)

Description

本発明の実施形態は、収納装置に関する。 Embodiments of the present invention relate to storage devices.

従来、冷蔵庫等の収納装置において、ドア(開き戸)の開閉時に、当該ドアに取り付けられたカメラなどの撮像装置で収納装置の内部を撮像し、その撮像により得られた画像をユーザに提示する技術が知られている。 Conventionally, in a storage device such as a refrigerator, when a door (swing door) is opened or closed, an image pickup device such as a camera attached to the door images the inside of the storage device, and the image obtained by the imaging is presented to the user. It has been known.

特開2001−317858号公報Japanese Unexamined Patent Publication No. 2001-317858

しかしながら、従来技術では、例えば開閉時のドアの角度によっては、ユーザに提示すべき領域を含む画像を得ることができないという問題がある。 However, in the prior art, there is a problem that an image including an area to be presented to the user cannot be obtained depending on, for example, the angle of the door at the time of opening and closing.

本発明が解決しようとする課題は、ユーザに提示する収納装置内の画像の品質を向上させることが可能な収納装置を提供することである。 An object to be solved by the present invention is to provide a storage device capable of improving the quality of an image in the storage device presented to the user.

実施形態の収納装置は、物体を収納する収納室を有する本体部と、前記本体部に回動可能に設けられ収納室の前面に形成された入口を開閉する開き戸と、前記開き戸に取り付けられ、前記収納室を撮像する撮像部と、を備え、前記撮像部は、前記収納室の前面と前記開き戸とのなす角度の増加方向の変化量が閾値を超えると撮像を開始し、前記角度の増加方向の変化量が閾値以下になると撮像を停止する。 The storage device of the embodiment is attached to a main body portion having a storage chamber for storing an object, a hinged door rotatably provided in the main body portion to open and close an entrance formed on the front surface of the storage chamber, and the hinged door. The imaging unit includes an imaging unit that images the storage chamber, and the imaging unit starts imaging when the amount of change in the increasing direction of the angle formed by the front surface of the storage chamber and the hinged door exceeds a threshold value, and the angle increases. Imaging is stopped when the amount of change in direction falls below the threshold value.

実施形態の冷蔵庫の正面図。Front view of the refrigerator of the embodiment. 実施形態の冷蔵庫の平面図。Top view of the refrigerator of the embodiment. 実施形態の冷蔵庫の平面図。Top view of the refrigerator of the embodiment. 実施形態の各カメラ位置に対応する撮像画像の一例を示す図。The figure which shows an example of the captured image corresponding to each camera position of embodiment. 実施形態の画像処理装置の構成の一例を示す図。The figure which shows an example of the structure of the image processing apparatus of embodiment. 実施形態の開き戸の角度を説明するための図。The figure for demonstrating the angle of the hinged door of an embodiment. 実施形態の撮像画像に対する補正を説明するための図。The figure for demonstrating the correction with respect to the captured image of an embodiment. 実施形態の撮像画像に対する補正を説明するための図。The figure for demonstrating the correction with respect to the captured image of an embodiment. 実施形態の第1合成画像の一例を示す図。The figure which shows an example of the 1st composite image of an embodiment. 実施形態の第1合成画像と不足領域の一例を示す模式図。The schematic diagram which shows the 1st composite image of embodiment and an example of a lack area. 実施形態の第2合成画像の生成方法を示す概念図。The conceptual diagram which shows the method of generating the 2nd composite image of an embodiment. 実施形態の画像処理装置の構成の一例を示す図。The figure which shows an example of the structure of the image processing apparatus of embodiment. 実施形態の第1信頼度を説明するための模式図。The schematic diagram for demonstrating the 1st reliability of an Embodiment.

以下、添付図面を参照しながら、本発明に係る収納装置、画像処理装置、画像処理方法およびプログラムの実施形態を詳細に説明する。以下の説明では、収納装置の一例として、冷蔵庫を挙げて説明するが、これに限られるものではない。 Hereinafter, embodiments of a storage device, an image processing device, an image processing method, and a program according to the present invention will be described in detail with reference to the accompanying drawings. In the following description, a refrigerator will be described as an example of the storage device, but the present invention is not limited to this.

(第1実施形態)
図1は、本実施形態の冷蔵庫1の正面図である。図1に示すように、冷蔵庫1は、開き戸10と、本体部20とを備える。
(First Embodiment)
FIG. 1 is a front view of the refrigerator 1 of the present embodiment. As shown in FIG. 1, the refrigerator 1 includes a hinged door 10 and a main body 20.

なお、「開き戸」とは、一方の端部(扉の両側縁のうちの一方の側縁)が蝶番(ヒンジ)などで固定され、その固定された部分を軸として、他方の端部(扉の両側縁のうちの他方の側縁)が弧を描くように移動する扉(戸)を指す。 The "swing door" means that one end (one side edge of both sides of the door) is fixed by a hinge or the like, and the other end (door) is centered on the fixed part. Refers to a door (door) in which the other side edge of the two side edges of the door moves in an arc.

図1に示すように、本体部20は、物体を収納する収納室21を有する。図1では、正面視において収納室21の入口全体が完全に露出するように開き戸10の開動作が行われた後の状態を図示している。ここでは、図示を省略するが、開き戸10には、ユーザが開き戸10を開閉させるための把持部が設けられている。図1の例では、開き戸10は、1枚の扉で構成されているが、これに限らず、例えば2枚の扉で構成される両開き戸であってもよいし、例えば上下に開くタイプの扉であってもよい。また、図1の例では、開き戸10の後面(収納室21側の面)には、ペットボトルなどの容器を収納するためのドアポケット11が設けられている。 As shown in FIG. 1, the main body 20 has a storage chamber 21 for storing an object. FIG. 1 illustrates a state after the hinged door 10 is opened so that the entire entrance of the storage chamber 21 is completely exposed in the front view. Although not shown here, the hinged door 10 is provided with a grip portion for the user to open and close the hinged door 10. In the example of FIG. 1, the hinged door 10 is composed of one door, but is not limited to this, and may be, for example, a double hinged door composed of two doors, for example, a type that opens up and down. It may be a door. Further, in the example of FIG. 1, a door pocket 11 for storing a container such as a PET bottle is provided on the rear surface (the surface on the storage chamber 21 side) of the hinged door 10.

また、図1の例では、開き戸10には、開き戸10の開動作または閉動作に応じて収納室21との位置関係が変化するとともに収納室21を複数撮像する(連続的に撮像する)カメラ30が取り付けられている。本明細書において、「撮像」とは、レンズなどの光学系により結像された被写体(撮像対象)の像を、電気信号に変換することを指す。カメラ30は、動画の撮像を行う機能を有するものであればよく、例えばCCDやCMOSを用いた可視光カメラや赤外カメラなどで構成され得る。この例では、カメラ30は、請求項の「撮像部」に対応していると考えることができる。なお、この例では、カメラ30は開き戸10に外付けされているが、これに限らず、例えばカメラ30が開き戸10に内蔵される(埋め込まれる)形態であってもよい。 Further, in the example of FIG. 1, the hinged door 10 is a camera that changes the positional relationship with the storage chamber 21 according to the opening or closing operation of the hinged door 10 and images a plurality of the storage chambers 21 (continuously imaging). 30 is attached. In the present specification, "imaging" refers to converting an image of a subject (imaging object) imaged by an optical system such as a lens into an electric signal. The camera 30 may be any camera having a function of capturing a moving image, and may be composed of, for example, a visible light camera or an infrared camera using CCD or CMOS. In this example, the camera 30 can be considered to correspond to the "imaging unit" of the claim. In this example, the camera 30 is externally attached to the hinged door 10, but the present invention is not limited to this, and for example, the camera 30 may be built (embedded) in the hinged door 10.

本実施形態では、カメラ30による撮像は、開き戸10の開閉時に行われる。また、カメラ30の設置場所や設置時のカメラ30の光軸方向や画角等は、ユーザに提示する収納室21の範囲に応じて決定することが好ましい。例えば収納室21のうちの少なくとも入口全体を提示する場合、開き戸10の開閉時において、収納室21のうちの少なくとも入口全体が撮像されるよう、カメラ30の光軸方向や角度を決定することが好ましい。また、本実施形態では、カメラ30の台数が1台である場合を例に挙げて説明するが、これに限らず、例えば複数台のカメラ30を用いて、ユーザに提示する収納室21の範囲を撮像する形態であってもよい。 In the present embodiment, the image pickup by the camera 30 is performed when the hinged door 10 is opened and closed. Further, it is preferable that the installation location of the camera 30, the optical axis direction of the camera 30 at the time of installation, the angle of view, and the like are determined according to the range of the storage chamber 21 presented to the user. For example, when presenting at least the entire entrance of the storage chamber 21, the optical axis direction and angle of the camera 30 can be determined so that at least the entire entrance of the storage chamber 21 is imaged when the hinged door 10 is opened and closed. preferable. Further, in the present embodiment, the case where the number of cameras 30 is one will be described as an example, but the present invention is not limited to this, and the range of the storage chamber 21 presented to the user by using, for example, a plurality of cameras 30 is limited. It may be in the form of imaging.

図2は、冷蔵庫1を上方から俯瞰した場合の平面図である。図2においては、開き戸10の上部であって、根元(扉の回転軸に対応する部分)から、扉の上縁部の全長の2/3程度の位置に、カメラ30を設置した例を示している。図2の例では、扉面(扉の前面または後面)の法線方向に対して角度θの方向にカメラ光軸を向けてカメラ30が設置されている。 FIG. 2 is a plan view of the refrigerator 1 when viewed from above. FIG. 2 shows an example in which the camera 30 is installed at a position of about two-thirds of the total length of the upper edge of the door from the root (the part corresponding to the rotation axis of the door) at the upper part of the hinged door 10. ing. In the example of FIG. 2, the camera 30 is installed with the camera optical axis oriented in the direction of an angle θ with respect to the normal direction of the door surface (front surface or rear surface of the door).

図3は、冷蔵庫1を上方から俯瞰した場合の平面図であり、正面視において収納室21の入口全体が完全に露出するまで開き戸10の開動作が行われた場合に、カメラ30による撮像が行われる様子を示している。図3の例では、上記開動作が行われる場合、カメラ30は、位置P1→位置P2→位置P3と移動しながら撮像を行う。カメラ30は、位置P1では収納室21の入口の右側を撮像し、位置P2では収納室21の入口の中央付近を撮像し、位置P3では収納室21の左側を撮像し、開動作の開始から終了までにおいて収納室21の入口全体を撮像することになる。 FIG. 3 is a plan view of the refrigerator 1 from above, and when the hinged door 10 is opened until the entire entrance of the storage chamber 21 is completely exposed in the front view, the image taken by the camera 30 is taken. It shows how it is done. In the example of FIG. 3, when the opening operation is performed, the camera 30 takes an image while moving in the order of position P1 → position P2 → position P3. The camera 30 images the right side of the entrance of the storage chamber 21 at the position P1, images the vicinity of the center of the entrance of the storage chamber 21 at the position P2, and images the left side of the storage chamber 21 at the position P3, from the start of the opening operation. By the end, the entire entrance of the storage chamber 21 will be imaged.

図4の(a)は、上記位置P1に対応する撮像画像(位置P1でのカメラ30による撮像で得られた画像)を表す。また、図4の(b)は、上記位置P2に対応する撮像画像を表す。さらに、図4の(c)は、上記位置P3に対応する撮像画像を表す。 FIG. 4A represents an image captured image corresponding to the position P1 (an image obtained by imaging with the camera 30 at the position P1). Further, FIG. 4B represents an captured image corresponding to the position P2. Further, FIG. 4C represents an captured image corresponding to the position P3.

図5は、冷蔵庫1に搭載された画像処理装置100の構成の一例を示す図である。ここでは、画像処理装置100が冷蔵庫1に搭載される場合を例に挙げて説明するが、これに限らず、例えば画像処理装置100は、冷蔵庫1の外部に設けられる形態であってもよい。 FIG. 5 is a diagram showing an example of the configuration of the image processing device 100 mounted on the refrigerator 1. Here, the case where the image processing device 100 is mounted on the refrigerator 1 will be described as an example, but the present invention is not limited to this, and the image processing device 100 may be provided outside the refrigerator 1, for example.

図5に示すように、画像処理装置100は、カメラ制御部110と、取得部120と、生成部125と、表示制御部160とを備える。 As shown in FIG. 5, the image processing device 100 includes a camera control unit 110, an acquisition unit 120, a generation unit 125, and a display control unit 160.

カメラ制御部110は、センサ40からの信号に基づいて、カメラ30による撮像の開始または終了を制御する。この例では、センサ40は、所定の周期で、開き戸10の角度φを検出する角度センサである。センサ40を構成する角度センサとしては、公知の様々な構成を利用可能である。この例では、図6に示すように、上記角度φは、本体部20の前面と開き戸10とのなす角度を表す。角度φが「0度」であれば、開き戸10は閉じた状態であり、角度φが「90度」であれば、正面視において収納室21の入口全体が露出するように開き戸10が開いた状態であると考えることができる。本実施形態のセンサ40は、角度φを検出するたびに、その検出した角度φを示す信号(以下の説明では、「角度信号」と称する場合がある)を、カメラ制御部110および後述の取得部120へ送信する。 The camera control unit 110 controls the start or end of imaging by the camera 30 based on the signal from the sensor 40. In this example, the sensor 40 is an angle sensor that detects the angle φ of the hinged door 10 at a predetermined cycle. As the angle sensor constituting the sensor 40, various known configurations can be used. In this example, as shown in FIG. 6, the angle φ represents the angle formed by the front surface of the main body 20 and the hinged door 10. If the angle φ is “0 degrees”, the hinged door 10 is in the closed state, and if the angle φ is “90 degrees”, the hinged door 10 is opened so that the entire entrance of the storage chamber 21 is exposed in front view. It can be considered as a state. Each time the sensor 40 of the present embodiment detects an angle φ, a signal indicating the detected angle φ (may be referred to as an “angle signal” in the following description) is acquired by the camera control unit 110 and described later. It is transmitted to the unit 120.

図5に戻って、カメラ制御部110の説明を続ける。前述したように、本実施形態では、カメラ30による撮像は、開き戸10の開閉時に行われる。より具体的には以下のとおりである。例えばカメラ制御部110は、上記所定の周期でセンサ40から取得する角度信号が示す角度φが、「0度」から増加方向に変化する場合は、開動作が開始されたと判断し、カメラ30による撮像を開始する制御を行う。当該カメラ30による撮像を開始する制御を行った後、カメラ制御部110は、センサ40からの角度信号が示す角度φの増加方向の変化量が閾値以下になった場合は、開動作が完了したと判断して、カメラ30による撮像を終了する制御を行う。その後、センサ40からの角度信号が示す角度φの減少方向の変化量が閾値を超えた場合、カメラ制御部110は、閉動作が開始されたと判断し、カメラ30による撮像を開始する制御を行う。当該カメラ30による撮像を開始する制御を行った後、カメラ制御部110は、センサ40からの角度信号が示す角度φが「0度」を示す場合は、閉動作が完了したと判断して、カメラ30による撮像を終了する制御を行う。 Returning to FIG. 5, the description of the camera control unit 110 will be continued. As described above, in the present embodiment, the imaging by the camera 30 is performed when the hinged door 10 is opened and closed. More specifically, it is as follows. For example, when the angle φ indicated by the angle signal acquired from the sensor 40 in the predetermined cycle changes from “0 degree” in the increasing direction, the camera control unit 110 determines that the opening operation has started, and the camera 30 determines that the opening operation has started. Controls to start imaging. After controlling to start imaging by the camera 30, the camera control unit 110 completes the opening operation when the amount of change in the increasing direction of the angle φ indicated by the angle signal from the sensor 40 becomes equal to or less than the threshold value. It is determined that the camera 30 controls to end the imaging. After that, when the amount of change in the decreasing direction of the angle φ indicated by the angle signal from the sensor 40 exceeds the threshold value, the camera control unit 110 determines that the closing operation has started, and controls to start imaging by the camera 30. .. After controlling to start imaging by the camera 30, the camera control unit 110 determines that the closing operation is completed when the angle φ indicated by the angle signal from the sensor 40 indicates “0 degree”. Control is performed to end the imaging by the camera 30.

次に、図5に示す取得部120について説明する。取得部120は、カメラ30による撮像が行われるたびに、当該撮像により得られた撮像画像と、当該撮像が行われた時刻を示す撮像時刻とをカメラ30から取得して後述の検出部131へ供給する。また、この例では、取得部120は、上記所定の周期でセンサ40からの角度信号を取得して後述の検出部131へ供給する。 Next, the acquisition unit 120 shown in FIG. 5 will be described. Each time the image is taken by the camera 30, the acquisition unit 120 acquires the image obtained by the image pickup and the image pickup time indicating the time when the image pickup is performed from the camera 30 to the detection unit 131 described later. Supply. Further, in this example, the acquisition unit 120 acquires the angle signal from the sensor 40 at the predetermined cycle and supplies it to the detection unit 131 described later.

なお、例えば上述のカメラ制御部110が設けられずに、カメラ30による撮像が常時行われており、取得部120は、センサ40からの角度信号に基づいて、開き戸10の開動作または閉動作が行われていると判断した場合にのみ、撮像画像および撮像時刻をカメラ30から取得する形態であってもよい。 For example, the camera 30 does not provide the above-mentioned camera control unit 110, and the camera 30 constantly performs imaging, and the acquisition unit 120 opens or closes the hinged door 10 based on the angle signal from the sensor 40. The captured image and the captured time may be acquired from the camera 30 only when it is determined that the image is performed.

次に、図5に示す生成部125について説明する。生成部125は、開き戸10の開動作および閉動作のうちの少なくとも一方が行われる場合に、カメラ30による撮像で得られた複数の撮像画像を合成する。以下、具体的な内容を説明する。図5に示すように、生成部125は、第1生成部130と、記憶部140と、第2生成部150と、を含む。 Next, the generation unit 125 shown in FIG. 5 will be described. The generation unit 125 synthesizes a plurality of captured images obtained by imaging by the camera 30 when at least one of the opening operation and the closing operation of the hinged door 10 is performed. The specific contents will be described below. As shown in FIG. 5, the generation unit 125 includes a first generation unit 130, a storage unit 140, and a second generation unit 150.

第1生成部130は、開き戸10の開動作および閉動作のうちの少なくとも一方が行われる場合に、カメラ30による撮像で得られた複数の撮像画像に含まれる同一の被写体が重なるよう、複数の撮像画像を合成した第1合成画像(パノラマ画像)を生成する。以下、具体的に説明する。本実施形態では、第1生成部130は、検出部131と、補正部132と、合成部133とを含む。 When at least one of the opening operation and the closing operation of the hinged door 10 is performed, the first generation unit 130 has a plurality of so that the same subject included in the plurality of captured images obtained by the image captured by the camera 30 overlaps. A first composite image (panoramic image) is generated by synthesizing the captured images. Hereinafter, a specific description will be given. In the present embodiment, the first generation unit 130 includes a detection unit 131, a correction unit 132, and a synthesis unit 133.

検出部131は、収納室21に対するカメラ30の相対的な位置を検出する。この例では、検出部131は、請求項の「位置検出部」に対応する機能を有していると考えることができる。より具体的には以下のとおりである。この例では、検出部131は、予め定められたカメラ30の取り付け位置(この例では、開き戸10に取り付けられたカメラ30の位置)や方向等の設置情報を、カメラ30あるいは不図示のメモリ(外部装置でもよい)から取得する。また、例えば検出部131は、撮像時の明るさやシャッタースピード等の撮像環境を示す環境情報をカメラ30から取得することもできる。また、例えば検出部131は、カメラ30の解像度や画角等のカメラ30のスペックを、カメラ30あるいは不図示のメモリ(外部装置でもよい)から取得することもできる。 The detection unit 131 detects the relative position of the camera 30 with respect to the storage chamber 21. In this example, the detection unit 131 can be considered to have a function corresponding to the "position detection unit" of the claim. More specifically, it is as follows. In this example, the detection unit 131 provides installation information such as a predetermined mounting position of the camera 30 (in this example, the position of the camera 30 mounted on the hinged door 10) and a direction of the camera 30 or a memory (not shown). It may be an external device). Further, for example, the detection unit 131 can also acquire environmental information indicating the imaging environment such as the brightness at the time of imaging and the shutter speed from the camera 30. Further, for example, the detection unit 131 can acquire the specifications of the camera 30 such as the resolution and the angle of view of the camera 30 from the camera 30 or a memory (which may be an external device) (not shown).

例えば検出部131は、開き戸10の根元の位置を原点とする座標系を定義し、上述の取得部120から供給される角度信号が示す角度φと、上述の設置情報が示すカメラ30の取り付け位置とから、当該座標系におけるカメラ30の座標値を算出し、その算出した座標値を、カメラ30の位置(収納室21に対するカメラ30の相対的な位置)として検出することもできる。本実施形態では、検出部131は、取得部120から供給される情報(撮像画像、撮像時刻および角度信号)や、上述の設置情報などに基づいて、撮像時のカメラ30の位置(より具体的には、複数の撮像時刻と1対1に対応する複数のカメラ位置)を検出する。そして、検出部131は、検出した複数の位置(撮像時のカメラ30の位置)ごとに、当該位置での撮像により得られた撮像画像を対応付けた検出情報を、後述の補正部132へ供給する。 For example, the detection unit 131 defines a coordinate system with the position of the base of the hinged door 10 as the origin, the angle φ indicated by the angle signal supplied from the acquisition unit 120 described above, and the mounting position of the camera 30 indicated by the installation information described above. Therefore, the coordinate value of the camera 30 in the coordinate system can be calculated, and the calculated coordinate value can be detected as the position of the camera 30 (the position of the camera 30 relative to the storage chamber 21). In the present embodiment, the detection unit 131 determines the position of the camera 30 at the time of imaging (more specifically) based on the information (captured image, imaging time and angle signal) supplied from the acquisition unit 120, the above-mentioned installation information, and the like. Detects a plurality of imaging times and a plurality of camera positions corresponding to one-to-one). Then, the detection unit 131 supplies detection information associated with the captured image obtained by imaging at the plurality of detected positions (position of the camera 30 at the time of imaging) to the correction unit 132 described later. To do.

また、例えば検出部131は、上記所定の周期で取得部120から供給される角度信号に基づいて、開き戸10の開動作の開始と終了、または、閉動作の開始と終了を検出(判断)することもできる。例えば検出部131は、開動作が行われる場合に(開動作の開始から終了までの一連の動作が完了するたびに)、当該開動作に対応する上述の検出情報を、後述の補正部132へ供給することもできる。また、例えば検出部131は、閉動作が行われる場合に(閉動作の開始から終了までの一連の動作が完了するたびに)、当該閉動作に対応する上述の検出情報を、後述の補正部132へ供給することもできる。 Further, for example, the detection unit 131 detects (determines) the start and end of the opening operation of the hinged door 10 or the start and end of the closing operation based on the angle signal supplied from the acquisition unit 120 at the predetermined cycle. You can also do it. For example, when the opening operation is performed (every time a series of operations from the start to the end of the opening operation is completed), the detection unit 131 transfers the above-mentioned detection information corresponding to the opening operation to the correction unit 132 described later. It can also be supplied. Further, for example, when the closing operation is performed (every time a series of operations from the start to the end of the closing operation is completed), the detection unit 131 applies the above-mentioned detection information corresponding to the closing operation to the correction unit described later. It can also be supplied to 132.

なお、例えば検出部131が、上述した取得部120の機能を兼ねる形態であってもよい。つまり、取得部120が設けられない形態であってもよい。 In addition, for example, the detection unit 131 may be in a form that also has the function of the acquisition unit 120 described above. That is, the acquisition unit 120 may not be provided.

また、カメラ30の位置を検出する方法としては、上記に限られず、様々な方法が考えられる。例えばカメラ30にジャイロやGPS等を取り付け、ジャイロやGPS等により得られた情報を元にカメラ30の位置を求めることもできる。また、例えばカメラ30による撮像範囲にマーカ等を配置し、撮像画像中のマーカの位置や大きさからカメラ30の位置を求めることもできる。以上に例示した方法以外の方法で、カメラ30の位置を求めてもよい。要するに、検出部131は、カメラ30の位置(撮像を行ったときのカメラ30の位置)を検出する機能を有するものであればよい。 Further, the method of detecting the position of the camera 30 is not limited to the above, and various methods can be considered. For example, a gyro, GPS, or the like can be attached to the camera 30, and the position of the camera 30 can be obtained based on the information obtained by the gyro, GPS, or the like. Further, for example, a marker or the like can be arranged in the imaging range of the camera 30, and the position of the camera 30 can be obtained from the position and size of the marker in the captured image. The position of the camera 30 may be obtained by a method other than the method illustrated above. In short, the detection unit 131 may have a function of detecting the position of the camera 30 (the position of the camera 30 when imaging is performed).

補正部132は、開き戸10の開動作および閉動作のうちの少なくとも一方が行われた場合において経時的に変化(時間の経過とともに変化)するカメラ30の位置のうち、基準となる位置を示す基準位置以外の位置に対応する撮像画像に対して、各位置に対応する撮像画像に含まれる被写体のスケールを揃えるための補正を行う。本実施形態では、補正部132は、検出部131から供給された検出情報を参照して、当該検出情報に含まれる複数の位置のうち、基準位置以外の位置を特定し、特定した位置に対応付けられた撮像画像を補正する。以下、具体的に説明する。 The correction unit 132 is a reference indicating a reference position among the positions of the camera 30 that change with time (change with the passage of time) when at least one of the opening operation and the closing operation of the hinged door 10 is performed. For the captured image corresponding to a position other than the position, correction is performed to align the scale of the subject included in the captured image corresponding to each position. In the present embodiment, the correction unit 132 refers to the detection information supplied from the detection unit 131, specifies a position other than the reference position among the plurality of positions included in the detection information, and corresponds to the specified position. Correct the attached captured image. Hereinafter, a specific description will be given.

一例として、図3に示す開動作を想定する。この例では、一連の開動作において、カメラ30の位置は、P1→P2→P3と経時的に変化するので、当該開動作に対応する検出情報においては、位置P1と、位置P1での撮像により得られた撮像画像(以下、「撮像画像Ip1」と表記する)とが対応付けられ、位置P2と、位置P2での撮像により得られた撮像画像(以下、「撮像画像Ip2」と表記する)とが対応付けられ、位置P3と、位置P3での撮像により得られた撮像画像(以下、「撮像画像Ip3」と表記する)とが対応付けられている。なお、以下の説明では、撮像画像Ip1、撮像画像Ip2、撮像画像Ip3を互いに区別しない場合は、単に「撮像画像Ip」と称する場合がある。 As an example, the opening operation shown in FIG. 3 is assumed. In this example, in the series of opening operations, the position of the camera 30 changes with time from P1 to P2 to P3. Therefore, in the detection information corresponding to the opening operation, the images taken at the positions P1 and P1 are used. The obtained captured image (hereinafter referred to as "captured image Ip1") is associated with the captured image obtained by imaging at the position P2 and the position P2 (hereinafter referred to as "captured image Ip2"). Is associated with, and the position P3 and the captured image obtained by imaging at the position P3 (hereinafter, referred to as "captured image Ip3") are associated with each other. In the following description, when the captured image Ip1, the captured image Ip2, and the captured image Ip3 are not distinguished from each other, they may be simply referred to as "captured image Ip".

ここで、収納室21内部の同一物体を、位置P1、位置P2、位置P3で撮像した場合、当該物体までの距離は位置ごとに異なるので、各撮像画像Ipに含まれる(映り込んだ)当該物体の大きさも異なる。したがって、撮像画像Ip1と撮像画像Ip2と撮像画像Ip3とを単純に繋ぎ合わせることは困難である。そこで、本実施形態では、基準となる視点位置(基準位置)を設定し、基準位置以外の位置に対応する撮像画像を補正する。基準位置は、収納室21が観察可能な位置であれば、冷蔵庫1の裏側といった観察不可能な場所でない限り限定されない。しかしながら、後述の第1合成画像(パノラマ画像)が、ユーザに対して提示すべき風景と大きく異なるのは好ましくないので、本実施形態では、カメラ30の光軸が収納室21の入口面と直交するときのカメラ30の位置(図3に示すP2)を、基準位置として設定する。 Here, when the same object inside the storage chamber 21 is imaged at positions P1, P2, and position P3, the distance to the object differs depending on the position, so that the object is included (reflected) in each captured image Ip. The size of the object is also different. Therefore, it is difficult to simply connect the captured image Ip1, the captured image Ip2, and the captured image Ip3. Therefore, in the present embodiment, the reference viewpoint position (reference position) is set, and the captured image corresponding to the position other than the reference position is corrected. The reference position is not limited as long as the storage chamber 21 is an observable position, unless it is an unobservable place such as the back side of the refrigerator 1. However, it is not preferable that the first composite image (panoramic image) described later is significantly different from the landscape to be presented to the user. Therefore, in the present embodiment, the optical axis of the camera 30 is orthogonal to the entrance surface of the storage chamber 21. The position of the camera 30 (P2 shown in FIG. 3) is set as a reference position.

例えば位置P1に対応する撮像画像の補正としては、図7に示すように、収納室21の入口からの距離Lが位置P2と等しく、かつ、位置P1のカメラ30の光軸と収納室21の入口との交点c1でカメラ30の光軸が交わる位置P1’で撮像が行われたように補正することもできる。図8に示すように、補正は、例えばアフィン変換などの単純な幾何変換を用いることができる。なお、補正は上述の方法に限られず、各位置に対応する撮影画像に映る物体のスケールが同等になるようなものであればよい。補正部132は、以上のようにして、基準位置P2以外の位置P1および位置P3の各々に対応する撮像画像を補正する。そして、補正部132は、補正した撮像画像(以下の説明では、補正後の撮像画像を「補正画像」と称する場合がある)群と、基準位置に対応する撮像画像を示す基準画像(この例では撮像画像Ip2)とを、後述の合成部133へ供給する。 For example, as a correction of the captured image corresponding to the position P1, as shown in FIG. 7, the distance L from the entrance of the storage chamber 21 is equal to the position P2, and the optical axis of the camera 30 at the position P1 and the storage chamber 21 It is also possible to correct as if the image was taken at the position P1'where the optical axes of the camera 30 intersect at the intersection c1 with the entrance. As shown in FIG. 8, the correction can use a simple geometric transformation such as an affine transformation. The correction is not limited to the above method, and any correction may be made as long as the scales of the objects appearing in the captured image corresponding to each position are the same. As described above, the correction unit 132 corrects the captured image corresponding to each of the position P1 and the position P3 other than the reference position P2. Then, the correction unit 132 includes a group of corrected captured images (in the following description, the corrected captured image may be referred to as a “corrected image”) and a reference image (this example) showing the captured image corresponding to the reference position. Then, the captured image Ip2) is supplied to the synthesis unit 133 described later.

図5に示す合成部133は、補正部132から供給された基準画像と補正画像とを合成して第1合成画像を生成する。この例では、合成部133は、基準画像と、補正画像群に含まれる複数の補正画像(この例では位置P1に対応する補正画像と、位置P3に対応する補正画像)の各々とを比較し、同一範囲すなわち同一物体が撮像されている領域を重ね合わせる。これにより、図9に示すように、基準画像の範囲外まで画像領域が拡張された第1合成画像が生成される。このとき、基準位置に近い画像から順に合成していくと、より高画質な第1合成画像を生成しやすい。なお、本実施形態では、各画像を補正した後に合成しているが、合成しながら補正する方法も考えられる。例えば基準画像に対し、最適に重なるように各画像(基準位置以外の位置に対応する撮像画像)を変形する方法であってもよい。具体的には、様々な変形を試しながら基準画像に対して最適に重なる変形を探索し、最適に重なる変形を決定した後に合成していくといった具合である。上述の本実施形態における方法は、この最適変形を、カメラ30の位置を利用して決定する方法であると考えることができる。 The compositing unit 133 shown in FIG. 5 synthesizes the reference image and the corrected image supplied from the compensating unit 132 to generate a first composite image. In this example, the compositing unit 133 compares each of the reference image and the plurality of corrected images included in the corrected image group (in this example, the corrected image corresponding to the position P1 and the corrected image corresponding to the position P3). , The same range, that is, the area where the same object is imaged is overlapped. As a result, as shown in FIG. 9, the first composite image in which the image area is extended to the outside of the range of the reference image is generated. At this time, if the images closest to the reference position are combined in order, it is easy to generate a higher quality first composite image. In the present embodiment, each image is corrected and then combined, but a method of correcting while combining is also conceivable. For example, it may be a method of deforming each image (captured image corresponding to a position other than the reference position) so as to optimally overlap with the reference image. Specifically, while trying various deformations, the deformation that optimally overlaps with the reference image is searched, the deformation that optimally overlaps is determined, and then the composition is performed. The method in the present embodiment described above can be considered to be a method of determining this optimum deformation by utilizing the position of the camera 30.

以上に説明した第1生成部130は、開き戸10の開動作または閉動作が行われる場合に(開き戸10の開動作または閉動作が行われるたびに)、第1合成画像を生成して記憶部140に格納するとともに、当該第1合成画像および当該第1合成画像の生成に用いた検出情報を後述の第2生成部150へ供給する。記憶部140は、第1生成部130により生成された第1合成画像を時系列に記憶する。 The first generation unit 130 described above generates a first composite image when the hinged door 10 is opened or closed (every time the hinged door 10 is opened or closed) and is stored. While storing in 140, the first composite image and the detection information used for generating the first composite image are supplied to the second generation unit 150 described later. The storage unit 140 stores the first composite image generated by the first generation unit 130 in chronological order.

次に、図5に示す第2生成部150について説明する。第2生成部150は、上述の第1生成部130により生成された第1合成画像が、収納室21のうちユーザに提示すべき領域を示す対象領域の一部を含んでいない場合、過去の第1合成画像を用いて当該対象領域の一部を補完し、ユーザに提示するための第2合成画像を生成する。以下、具体的に説明する。なお、この例では、上記対象領域は、収納室21の入口全体の領域である。 Next, the second generation unit 150 shown in FIG. 5 will be described. When the first composite image generated by the first generation unit 130 described above does not include a part of the target area indicating the area to be presented to the user in the storage chamber 21, the second generation unit 150 is in the past. A part of the target area is complemented by using the first composite image, and a second composite image to be presented to the user is generated. Hereinafter, a specific description will be given. In this example, the target area is the entire entrance area of the storage chamber 21.

例えば収納室21の入口全体が完全に露出するまで開き戸10が開けられず、収納室21の入口全体を撮像することができなかった場合、この開動作(以下では、「非全開動作」と称する場合がある)に対応する第1合成画像(非全開動作が行われた場合に生成される第1合成画像)は、収納室21の入口全体の一部が含まれない(映っていない)画像となる。同様に、例えば収納室21の入口全体が完全に露出するまで開いていない開き戸10の位置を始点とした閉動作(以下では、「不足閉動作」と称する場合がある)が行われた場合も、この不足閉動作に対応する第1合成画像(不足閉動作が行われた場合に生成される第1合成画像)は、収納室21の入口全体の一部が含まれない画像となる。 For example, when the hinged door 10 cannot be opened until the entire entrance of the storage chamber 21 is completely exposed and the entire entrance of the storage chamber 21 cannot be imaged, this opening operation (hereinafter, referred to as "non-fully opening operation"). The first composite image (the first composite image generated when the non-fully open operation is performed) corresponding to (may be) does not include (not show) a part of the entire entrance of the storage chamber 21. It becomes. Similarly, for example, when a closing operation (hereinafter, may be referred to as "insufficient closing operation") is performed starting from the position of the hinged door 10 which is not opened until the entire entrance of the storage chamber 21 is completely exposed. The first composite image corresponding to this insufficient closing operation (the first composite image generated when the insufficient closing operation is performed) is an image that does not include a part of the entire entrance of the storage chamber 21.

ここでは、上述の非全開動作または不足閉動作において経時的に変化するカメラ30の位置(撮像時のカメラ30の位置)に基づき、収納室21の入口全体が完全に露出するまで開き戸10が開けられた場合に生成される第1合成画像の画像領域(以下の説明では、「全景領域」と称する場合がある)のうち、非全開動作または不足閉動作に対応する第1合成画像の範囲外の領域(以下では、「不足領域」と称する場合がある)を求めることができる。 Here, the hinged door 10 is opened until the entire entrance of the storage chamber 21 is completely exposed, based on the position of the camera 30 (the position of the camera 30 at the time of imaging) that changes with time in the above-mentioned non-fully open operation or insufficiently closed operation. Of the image area of the first composite image generated when the image is generated (in the following description, it may be referred to as a "panoramic area"), it is out of the range of the first composite image corresponding to the non-fully open operation or the insufficiently closed operation. Area (hereinafter, may be referred to as "insufficient area") can be obtained.

本実施形態では、第2生成部150は、上述の第1生成部130から、第1合成画像と検出情報とを取得した場合(取得するたびに)、当該検出情報に含まれるカメラ30の位置から、当該第1合成画像が、全景領域を有するかどうかを判断する。見方を変えれば、第2生成部150は、第1生成部130から取得した検出情報に含まれるカメラ30の位置から、第1生成部130から取得した第1合成画像に対応する開動作が非全開動作、または、当該第1合成画像に対応する閉動作が不足閉動作であるか否かを判断していると考えることもできる。 In the present embodiment, when the second generation unit 150 acquires the first composite image and the detection information from the above-mentioned first generation unit 130 (every time it is acquired), the position of the camera 30 included in the detection information. Therefore, it is determined whether or not the first composite image has a panoramic view area. From a different point of view, the second generation unit 150 does not have an open operation corresponding to the first composite image acquired from the first generation unit 130 from the position of the camera 30 included in the detection information acquired from the first generation unit 130. It can also be considered that it is determined whether or not the fully open operation or the closing operation corresponding to the first composite image is the insufficient closing operation.

第2生成部150は、第1生成部130から取得した第1合成画像(以下の説明では、「最新の第1合成画像」と称する場合がある)が、全景領域を有していないと判断した場合、当該最新の第1合成画像の生成に用いられた検出情報(第1生成部130から取得した検出情報)に含まれるカメラ30の位置から、上述の不足領域を求める。図10は、この場合の最新の第1合成画像と不足領域の一例を示す模式図である。 The second generation unit 150 determines that the first composite image (may be referred to as the "latest first composite image" in the following description) acquired from the first generation unit 130 does not have a panoramic view region. If so, the above-mentioned shortage area is obtained from the position of the camera 30 included in the detection information (detection information acquired from the first generation unit 130) used for generating the latest first composite image. FIG. 10 is a schematic diagram showing an example of the latest first composite image and the missing region in this case.

そして、第2生成部150は、記憶部140に記憶された過去の第1合成画像(最新の第1合成画像よりも前に生成された第1合成画像)の中から、全景領域を有する過去の第1合成画像(好ましくは、全景領域を有し、かつ、現在の時刻に最も近い時刻に対応する過去の第1合成画像)を選択し、その選択した過去の第1合成画像のうち上述の不足領域に対応する領域を、最新の第1合成画像に対して補完することで、最新の第1合成画像の範囲外まで画像領域を拡張した第2合成画像を生成する。図11は、この場合の第2合成画像の生成方法を示す概念図である。このようにして生成した第2合成画像が、ユーザに提示される画像となる。 Then, the second generation unit 150 has a past having a panoramic view region from the past first composite image (first composite image generated before the latest first composite image) stored in the storage unit 140. (Preferably, the first composite image in the past that has a panoramic area and corresponds to the time closest to the current time) is selected, and among the selected first composite images in the past, the above-mentioned By complementing the region corresponding to the insufficient region of the above with respect to the latest first composite image, a second composite image in which the image region is expanded to the outside of the range of the latest first composite image is generated. FIG. 11 is a conceptual diagram showing a method of generating a second composite image in this case. The second composite image generated in this way becomes an image presented to the user.

なお、第1生成部130から取得した第1合成画像が全景領域を有していても、例えば撮像時にユーザの手や収納室21から出し入れする物体がカメラ30の撮像範囲に侵入することで、収納室21の入口全体の一部が隠れてしまう場合も想定される。この場合、例えば第2生成部150は、第1生成部130から取得した検出情報に含まれる複数の位置(撮像時のカメラ30の位置)と、複数の位置と1対1に対応する複数の撮像画像とを用いて、モーションステレオ等の方法で被写体までの距離を推定し、全景領域のうち、収納室21の入口よりも手前に存在する物体が撮像された領域を示す第1補完対象領域を求めることができる。そして、第2生成部150は、記憶部140に記憶された過去の第1合成画像の中から、収納室21の入口全体が撮像された過去の第1合成画像を選択し、その選択した過去の第1合成画像のうち上述の第1補完対象領域に対応する領域を、最新の第1合成画像に対して補完することで、第2合成画像を生成することもできる。 Even if the first composite image acquired from the first generation unit 130 has a panoramic view region, for example, an object that is taken in and out of the user's hand or the storage chamber 21 at the time of imaging invades the imaging range of the camera 30. It is assumed that a part of the entire entrance of the storage room 21 is hidden. In this case, for example, the second generation unit 150 has a plurality of positions (positions of the camera 30 at the time of imaging) included in the detection information acquired from the first generation unit 130, and a plurality of positions corresponding to one-to-one. The distance to the subject is estimated by a method such as motion stereo using the captured image, and the first complement target area indicating the area in which the object existing in front of the entrance of the storage chamber 21 is imaged in the panoramic area. Can be sought. Then, the second generation unit 150 selects the past first composite image in which the entire entrance of the storage chamber 21 is captured from the past first composite image stored in the storage unit 140, and the selected past A second composite image can also be generated by complementing the region corresponding to the above-mentioned first complement target region in the first composite image of the above with respect to the latest first composite image.

また、第1生成部130から取得した第1合成画像が全景領域を有していても、開閉時のカメラ30の移動速度が大きいために、収納室21の入口全体の一部が撮像されなかった場合も想定される。この場合、例えば第2生成部150は、第1生成部130から取得した検出情報に含まれる複数の位置に基づいて、全景領域のうち、収納室21の入口全体の一部が撮像されなかった領域(フレーム落ちの領域と考えることができる)を示す第2補完対象領域を求めることができる。そして、第2生成部150は、記憶部140に記憶された過去の第1合成画像の中から、収納室21の入口全体が撮像された過去の第1合成画像を選択し、その選択した過去の第1合成画像のうち上述の第2補完対象領域に対応する領域を、最新の第1合成画像に対して補完することで、第2合成画像を生成することもできる。 Further, even if the first composite image acquired from the first generation unit 130 has a panoramic view area, a part of the entire entrance of the storage chamber 21 is not captured because the moving speed of the camera 30 at the time of opening and closing is high. It is also assumed that this is the case. In this case, for example, the second generation unit 150 did not image a part of the entire entrance of the storage chamber 21 in the panoramic area based on the plurality of positions included in the detection information acquired from the first generation unit 130. It is possible to obtain the second complement target area indicating the area (which can be considered as the area where frames are dropped). Then, the second generation unit 150 selects the past first composite image in which the entire entrance of the storage chamber 21 is captured from the past first composite image stored in the storage unit 140, and the selected past The second composite image can also be generated by complementing the region corresponding to the above-mentioned second complement target region in the first composite image of the above with respect to the latest first composite image.

要するに、第2生成部150は、上述の第1生成部130により生成された第1合成画像が、収納室21のうちユーザに提示すべき領域を示す対象領域(この例では収納室20の入口全体)の一部を含んでいない場合、過去の第1合成画像を用いて当該対象領域の一部を補完し、ユーザに提示するための第2合成画像を生成する形態であればよい。 In short, the second generation unit 150 is a target area (in this example, the entrance of the storage room 20) in which the first composite image generated by the first generation unit 130 described above indicates an area of the storage room 21 to be presented to the user. When a part of (whole) is not included, a second composite image for presenting to the user may be generated by complementing a part of the target area by using the first composite image in the past.

次に、図5に示す表示制御部160について説明する。表示制御部160は、第2生成部150により生成された第2合成画像を、画像を表示する表示部(例えば液晶型ディスプレイなどで構成され得る)50に表示する制御を行う。この例では、表示制御部160は、第2生成部150により第2合成画像が生成されるたびに、その生成された第2合成画像を表示部50に表示する制御を行い、表示部50に表示される第2合成画像は、最新の第2合成画像に更新される。また、この例では、表示部50は、開き戸10の前面に設けられているが、これに限らず、表示部50の設置場所は任意である。例えば表示部50は、冷蔵庫1の外部に設けられてもよい。例えば表示部50は、画像処理装置100と接続可能(通信可能)な外部機器(例えばTV、PC、携帯電話端末等)に搭載される形態であってもよい。 Next, the display control unit 160 shown in FIG. 5 will be described. The display control unit 160 controls the display of the second composite image generated by the second generation unit 150 on the display unit (which may be composed of, for example, a liquid crystal display) 50 that displays the image. In this example, the display control unit 160 controls the display unit 50 to display the generated second composite image each time the second composite image is generated by the second generation unit 150, and the display unit 50 displays the generated second composite image. The displayed second composite image is updated with the latest second composite image. Further, in this example, the display unit 50 is provided on the front surface of the hinged door 10, but the present invention is not limited to this, and the installation location of the display unit 50 is arbitrary. For example, the display unit 50 may be provided outside the refrigerator 1. For example, the display unit 50 may be mounted on an external device (for example, a TV, a PC, a mobile phone terminal, etc.) that can be connected (communicated) with the image processing device 100.

なお、第2合成画像を表示するタイミングは任意であり、常時表示する形態であってもよいし、ユーザからの要求に応じて表示する形態であってもよい。例えばユーザは、ボタン操作、音声、メール、リモコン等を介して、第2合成画像の表示を要求することができる。また、例えば一定時間ごとに、第2合成画像を表示する形態であってもよい。 The timing of displaying the second composite image is arbitrary, and it may be displayed at all times or in response to a request from the user. For example, the user can request the display of the second composite image via button operation, voice, mail, remote control, or the like. Further, for example, the second composite image may be displayed at regular intervals.

以上に説明した画像処理装置100は、CPU(Central Processing Unit)、ROM、RAM、および、通信I/F装置などを含んだハードウェア構成となっている。上述した各部の機能(カメラ制御部110、取得部120、第1生成部130(検出部131、補正部132、合成部133)、第2生成部150、表示制御部160)は、CPUがROMに格納されたプログラムをRAM上で展開して実行することにより実現される。また、これに限らず、上述した各部の機能のうちの少なくとも一部を専用のハードウェア回路(例えば半導体集積回路等)で実現することもできる。また、例えば上述の記憶部140は、ROMや外部記憶装置(例えばHDD)等により実現することができる。 The image processing device 100 described above has a hardware configuration including a CPU (Central Processing Unit), a ROM, a RAM, a communication I / F device, and the like. The CPU is ROM for the functions of the above-mentioned units (camera control unit 110, acquisition unit 120, first generation unit 130 (detection unit 131, correction unit 132, synthesis unit 133), second generation unit 150, display control unit 160). It is realized by expanding and executing the program stored in the RAM on the RAM. Further, the present invention is not limited to this, and at least a part of the functions of the above-mentioned parts can be realized by a dedicated hardware circuit (for example, a semiconductor integrated circuit or the like). Further, for example, the above-mentioned storage unit 140 can be realized by a ROM, an external storage device (for example, an HDD), or the like.

また、上述の画像処理装置100で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上述の画像処理装置100で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、上述の画像処理装置100で実行されるプログラムを、ROM等の不揮発性の記録媒体に予め組み込んで提供するようにしてもよい。 Further, the program executed by the image processing device 100 described above may be provided by storing it on a computer connected to a network such as the Internet and downloading it via the network. Further, the program executed by the above-mentioned image processing device 100 may be provided or distributed via a network such as the Internet. Further, the program executed by the image processing apparatus 100 described above may be provided by incorporating it into a non-volatile recording medium such as a ROM in advance.

従来技術では、例えばドアの開閉と同時にユーザの手などが撮像範囲に侵入してきた場合やドアの移動速度が大きい場合においても、ユーザに提示すべき領域を含む画像を得ることができないという問題が起こる。すなわち、従来技術では、ユーザに提示する収納装置内の画像の品質が低いという問題がある。これに対して、以上に説明したように、本実施形態では、開き戸10の開動作または閉動作が行われる場合に、カメラ30による撮像で得られた複数の撮像画像を合成することにより、対象領域(本実施形態では、収納室21の入口全体)全体を表現することができる。より具体的には、本実施形態では、開き戸10の開動作または閉動作が行われる場合に、カメラ30による撮像で得られた複数の撮像画像に含まれる同一の被写体が重なるよう、複数の撮像画像を合成した第1合成画像を生成する。そして、その生成した第1合成画像が、収納室21のうちユーザに提示すべき領域を示す対象領域の一部を含んでいない場合、過去の第1合成画像を用いて当該対象領域の一部を補完し、ユーザに提示するための第2合成画像を生成する。したがって、例えばユーザが、収納室21の入口全体が完全に露出するまで開き戸10を開けなかった場合であっても、当該ユーザに対して、収納室21の入口全体が撮像された第2合成画像を提示することができる。すなわち、本実施形態によれば、ユーザに提示する冷蔵庫1内の画像の品質を向上させることができるという有利な効果を達成できる。 In the prior art, there is a problem that an image including an area to be presented to the user cannot be obtained even when a user's hand or the like invades the imaging range at the same time as opening and closing the door or when the moving speed of the door is high. Occur. That is, the conventional technique has a problem that the quality of the image in the storage device presented to the user is low. On the other hand, as described above, in the present embodiment, when the hinged door 10 is opened or closed, a plurality of captured images obtained by imaging by the camera 30 are combined to form a target. The entire area (in the present embodiment, the entire entrance of the storage chamber 21) can be represented. More specifically, in the present embodiment, when the hinged door 10 is opened or closed, a plurality of imaging images are performed so that the same subject included in the plurality of captured images obtained by imaging by the camera 30 overlaps. A first composite image in which the images are combined is generated. Then, when the generated first composite image does not include a part of the target area indicating the area to be presented to the user in the storage chamber 21, a part of the target area is used by using the past first composite image. To complement and generate a second composite image to present to the user. Therefore, for example, even if the user does not open the hinged door 10 until the entire entrance of the storage chamber 21 is completely exposed, the second composite image in which the entire entrance of the storage chamber 21 is captured for the user. Can be presented. That is, according to the present embodiment, it is possible to achieve an advantageous effect that the quality of the image in the refrigerator 1 presented to the user can be improved.

(第2実施形態)
次に、第2実施形態について説明する。上述の第1実施形態と共通する部分については適宜に説明を省略する。
(Second Embodiment)
Next, the second embodiment will be described. The description of the parts common to the first embodiment described above will be omitted as appropriate.

図12は、第2実施形態の画像処理装置200の構成の一例を示す図である。図12に示すように、画像処理装置200は、設定部170をさらに備える。 FIG. 12 is a diagram showing an example of the configuration of the image processing device 200 of the second embodiment. As shown in FIG. 12, the image processing device 200 further includes a setting unit 170.

本実施形態では、検出部131は、上述の第1実施形態で説明した機能に加えて、収納室21に対するカメラ30の相対的な速度を検出する機能を有する。この例では、検出部131は、請求項の「速度検出部」に対応する機能を有していると考えることができる。以下の説明では、収納室21に対するカメラの相対的な速度を、「カメラ30の移動速度」あるいは「移動速度」と称する場合がある。この例では、検出部131は、撮像時のカメラ30の位置に対応する移動速度を求める。例えば検出部131は、上述の第1実施形態と同様にして検出したカメラ30の位置(複数の撮像時刻と1対1に対応する複数のカメラ位置)を利用して、撮像時のカメラ30の位置に対応する移動速度を求めることもできる。また、これに限らず、例えばカメラ30にジャイロや加速度計などを搭載し、これらの計器から出力される信号を利用して移動速度を求めることもできるし、それ以外の方法で求めても構わない。 In the present embodiment, the detection unit 131 has a function of detecting the relative speed of the camera 30 with respect to the storage chamber 21 in addition to the function described in the first embodiment described above. In this example, the detection unit 131 can be considered to have a function corresponding to the "speed detection unit" of the claim. In the following description, the relative speed of the camera with respect to the storage chamber 21 may be referred to as "moving speed of camera 30" or "moving speed". In this example, the detection unit 131 determines the moving speed corresponding to the position of the camera 30 at the time of imaging. For example, the detection unit 131 utilizes the positions of the camera 30 (a plurality of camera positions corresponding to a plurality of imaging times and one-to-one) detected in the same manner as in the first embodiment described above, and the detection unit 131 of the camera 30 at the time of imaging. It is also possible to obtain the moving speed corresponding to the position. Further, the present invention is not limited to this, and for example, the camera 30 may be equipped with a gyro, an accelerometer, or the like, and the moving speed may be obtained by using the signals output from these instruments, or may be obtained by other methods. Absent.

例えば検出部131は、開き戸10の開動作が行われる場合に、当該開動作に対応する検出情報を生成し、開き戸10の閉動作が行われる場合に、当該閉動作に対応する検出情報を生成することができる。この例における検出情報は、検出した複数の位置(撮像時のカメラ30の位置)ごとに、撮像画像と移動速度とを対応付けた情報で構成される。 For example, the detection unit 131 generates detection information corresponding to the opening operation when the hinged door 10 is opened, and generates detection information corresponding to the closing operation when the hinged door 10 is closed. can do. The detection information in this example is composed of information in which the captured image and the moving speed are associated with each of the plurality of detected positions (positions of the camera 30 at the time of imaging).

本実施形態では、第1生成部130は、開き戸10の開動作または閉動作が行われる場合に、第1合成画像を生成し、その第1合成画像の生成に用いた検出情報を、当該第1合成画像とともに設定部170へ供給する。設定部170は、第1生成部130から、第1合成画像と検出情報を取得した場合(取得するたびに)、その取得した第1合成画像と検出情報とに基づいて、当該第1合成画像内の複数の領域ごとに、当該領域に対応する撮像画像が得られたときの移動速度が大きいほど低い値を示す第1信頼度を設定する。以下、具体的に説明する。 In the present embodiment, the first generation unit 130 generates a first composite image when the hinged door 10 is opened or closed, and the detection information used for generating the first composite image is used for the first composite image. 1 Supply to the setting unit 170 together with the composite image. When the setting unit 170 acquires the first composite image and the detection information from the first generation unit 130 (every time it is acquired), the setting unit 170 obtains the first composite image and the detection information based on the acquired first composite image and the detection information. For each of the plurality of regions, the first reliability that indicates a lower value as the moving speed when the captured image corresponding to the region is obtained is set is set. Hereinafter, a specific description will be given.

以下の説明において、第1信頼度は、0以上、かつ、1以下の範囲内の値であり、「1」が最も信頼性が高く、「0」が最も信頼性が低いことを表す。また、撮像時のカメラ30の位置pにおけるカメラ30の移動速度をVpと表記する。ここで、カメラ30が静止している(Vp=0)場合の撮像画像は、対象物(被写体)に対してフォーカス(焦点)が合っていればボケのない画像となる。ボケとは、撮像により画像が得られる際の過程で生じる画像劣化の一態様であり、1点に結像(集光)すべき光線群が像面上において広がることにより生じる事象を指す。一方、カメラ30の移動速度Vpが大きくなるほど、撮像画像中に動きボケが見られるようになるので、画質は低下し、信頼性の低い画像となる。つまり、カメラ30の移動速度Vpが大きくなるほど、第1信頼度は低下する(図13参照)。第1信頼度は、例えば以下の式1で表すことができる。

Figure 0006794493
In the following description, the first reliability is a value within the range of 0 or more and 1 or less, where "1" is the most reliable and "0" is the least reliable. Further, the moving speed of the camera 30 at the position p of the camera 30 at the time of imaging is referred to as Vp. Here, the captured image when the camera 30 is stationary (Vp = 0) becomes an image without blur if the object (subject) is in focus (focus). Bokeh is an aspect of image deterioration that occurs in the process of obtaining an image by imaging, and refers to an event that occurs when a group of light rays to be imaged (concentrated) spreads on an image plane at one point. On the other hand, as the moving speed Vp of the camera 30 increases, motion blurring can be seen in the captured image, so that the image quality deteriorates and the image becomes less reliable. That is, as the moving speed Vp of the camera 30 increases, the first reliability decreases (see FIG. 13). The first reliability can be expressed by, for example, the following equation 1.
Figure 0006794493

上記式1において、Spは第1信頼度を表し、Vthは閾値となる速度を表す。これは、移動速度Vpが一定の速度Vth以下であれば、そのときの撮像画像は、信頼性の高い画像であると判断することに相当する。Vthは、カメラ30のフレームレートやシャッタースピード等によって設定すればよく、フレームレートが高い場合やシャッタースピードが速い場合は、Vthは大きい値に設定することができる。第1信頼度Spの算出方法は、上述の方法に限らず、移動速度Vpが大きくなるほど第1信頼度Spが低下するように設計することもできる。第1信頼度Spは、例えば以下の式2で表すこともできる。

Figure 0006794493
In Equation 1 above, Sp represents the first reliability and Vth represents the threshold speed. This corresponds to determining that the captured image at that time is a highly reliable image when the moving speed Vp is a constant speed Vth or less. Vth may be set according to the frame rate, shutter speed, or the like of the camera 30, and when the frame rate is high or the shutter speed is fast, Vth can be set to a large value. The method for calculating the first reliability Sp is not limited to the above method, and it can be designed so that the first reliability Sp decreases as the moving speed Vp increases. The first reliability Sp can be expressed by, for example, the following equation 2.
Figure 0006794493

以上においては、画像のボケをカメラ30の移動速度から間接的に評価したが、これに限らず、例えば画像中のボケ量を直接計測し、ボケ量が大きいほど低い値を示す信頼度を算出する形態であってもよい。見方を変えれば、この信頼度も、移動速度が大きいほど(ボケ量が大きいほど)低い値を示す第1信頼度と同義であると考えることができる。 In the above, the blur of the image is indirectly evaluated from the moving speed of the camera 30, but the present invention is not limited to this. For example, the amount of blur in the image is directly measured, and the reliability indicating a lower value is calculated as the amount of blur is larger. It may be in the form of From a different point of view, this reliability can be considered to be synonymous with the first reliability, which shows a lower value as the moving speed increases (the larger the amount of blur).

本実施形態では、設定部170は、第1生成部130から、第1合成画像と検出情報を取得した場合、その取得した検出情報を参照して、当該検出情報に含まれる複数の撮像画像ごとに、当該撮像画像に対応付けられた移動速度Vpに応じた第1信頼度Spを算出し、当該撮像画像に割り当てる。これにより、第1生成部130から取得した第1合成画像の元となる複数の撮像画像ごとに、当該撮像画像に対応付けられた移動速度Vpに応じた第1信頼度Spが割り当てられる。そして、設定部170は、第1生成部130から取得した第1合成画像のうち、当該第1合成画像の生成に用いられた検出情報(当該第1合成画像とともに第1生成部130から取得した検出情報)に含まれる複数の撮像画像と1対1に対応する複数の領域を特定し、特定した複数の領域ごとに、当該領域に対応する撮像画像に割り当てられた第1信頼度Spを設定する。 In the present embodiment, when the setting unit 170 acquires the first composite image and the detection information from the first generation unit 130, the setting unit 170 refers to the acquired detection information for each of the plurality of captured images included in the detection information. First, the first reliability Sp corresponding to the moving speed Vp associated with the captured image is calculated and assigned to the captured image. As a result, the first reliability Sp corresponding to the moving speed Vp associated with the captured image is assigned to each of the plurality of captured images that are the source of the first composite image acquired from the first generation unit 130. Then, the setting unit 170 acquires the detection information used for generating the first composite image (acquired from the first generation unit 130 together with the first composite image) among the first composite images acquired from the first generation unit 130. A plurality of regions corresponding to one-to-one with a plurality of captured images included in the detection information) are specified, and a first reliability Sp assigned to the captured image corresponding to the region is set for each of the specified regions. To do.

以上のようにして、第1生成部130から取得した第1合成画像内の複数の領域(当該第1合成画像の元となる複数の撮像画像と1対1に対応する複数の領域)ごとに、当該領域に対応する撮像画像が得られたときのカメラ30の移動速度が大きいほど低い値を示す第1信頼度Spが設定されるという具合である。 As described above, for each of a plurality of regions in the first composite image acquired from the first generation unit 130 (a plurality of regions corresponding to one-to-one with the plurality of captured images that are the source of the first composite image). The higher the moving speed of the camera 30 when the captured image corresponding to the region is obtained, the lower the first reliability Sp is set.

なお、第1生成部130から取得した第1合成画像内の、当該第1合成画像の元となる複数の撮像画像と1対1に対応する複数の領域のうち、互いに重なり合う部分に関しては、例えば互いに重なる複数の領域の各々の第1信頼度Sp1を乗算(例えば各第1信頼度Sp1に重みを付けた積でもよい)することで当該部分の第1信頼度Sp1を設定することもできるし、例えば互いに重なる複数の領域の各々の第1信頼度Sp1の平均値を算出することで当該部分の第1信頼度Sp1を設定することもできる。 In the first composite image acquired from the first generation unit 130, among the plurality of regions corresponding to one-to-one with the plurality of captured images that are the source of the first composite image, the portions that overlap each other are, for example, It is also possible to set the first reliability Sp1 of the portion by multiplying the first reliability Sp1 of each of the plurality of regions overlapping each other (for example, a product in which each first reliability Sp1 is weighted). For example, the first reliability Sp1 of the portion can be set by calculating the average value of the first reliability Sp1 of each of the plurality of regions overlapping each other.

また、例えば、カメラ30から撮像対象までの距離の概念を追加して、撮像画像内の画素毎に第1信頼度Sp1を割り当てることもできる。撮像対象までの距離はステレオカメラや距離計を用いて直接計測してもよいし、モーションステレオ等の方法で撮像画像から推定してもよい。また、撮像対象までの距離を直接利用しない場合は、カメラ30から収納室21の入口までの距離を利用する方法がある。 Further, for example, the concept of the distance from the camera 30 to the image pickup target can be added, and the first reliability Sp1 can be assigned to each pixel in the captured image. The distance to the image pickup target may be directly measured using a stereo camera or a range finder, or may be estimated from the captured image by a method such as motion stereo. Further, when the distance to the imaging target is not directly used, there is a method of using the distance from the camera 30 to the entrance of the storage chamber 21.

ここで、撮像時のカメラ30の位置pに対応する撮像画像Ip中の任意の画素aの実空間上での距離(収納室21の入口までの距離)をLaとする。Laが大きいほど撮像画像内での被写体の動きは小さくなりボケは発生しにくくなる。従って、Laが大きい領域ほど信頼度が高くなるように設計する。反対にLaが小さいほどボケが発生しやすいので、Laが小さいほど信頼度が低くなるように設計することが好ましい。画素aに対応する距離を用いた信頼度をSpL(a)とすると、この信頼度SpL(a)は、例えば以下の式3で表すことができる。

Figure 0006794493
Here, La is the distance (distance to the entrance of the storage chamber 21) of any pixel a in the captured image Ip corresponding to the position p of the camera 30 at the time of imaging in the real space. The larger the La, the smaller the movement of the subject in the captured image and the less likely it is that blurring will occur. Therefore, it is designed so that the larger the La area, the higher the reliability. On the contrary, the smaller the La, the more likely it is that blurring will occur. Therefore, it is preferable to design so that the smaller the La, the lower the reliability. Assuming that the reliability using the distance corresponding to the pixel a is SpL (a), this reliability SpL (a) can be expressed by, for example, the following equation 3.
Figure 0006794493

上記式3において、Lthは任意の正の定数で、この距離以上はボケが発生しにくい距離となっている。なお、信頼度SpL(a)は上記以外の方法で算出しても構わない。上記信頼度SpL(a)と、画素aを含む撮像画像に対応する移動速度から算出される信頼度(例えば上記式1または上記式2などで算出される信頼度)SpVとから、画素aに対応する第1信頼度Sp1(a)を算出することもできる。第1信頼度Sp1(a)は、例えば以下の式4で表すことができる。

Figure 0006794493
In the above equation 3, Lth is an arbitrary positive constant, and the distance beyond this distance is such that blurring is unlikely to occur. The reliability SpL (a) may be calculated by a method other than the above. From the reliability SpL (a) and the reliability calculated from the moving speed corresponding to the captured image including the pixel a (for example, the reliability calculated by the above formula 1 or the above formula 2) SpV, the pixel a The corresponding first reliability Sp1 (a) can also be calculated. The first reliability Sp1 (a) can be expressed by, for example, the following equation 4.
Figure 0006794493

上記式4以外にも、例えばSpL(a)とSpVとの和を求めて正規化する等の方法が考えられ、これら以外の方法でも構わない。そして、第1合成画像の元となる複数の撮像画像の各々に含まれる画素ごとに割り当てられた第1信頼度Sp1(a)を用いて、当該第1合成画像内の画素ごとの第1信頼度Sp1を求めることもできる。 In addition to the above equation 4, for example, a method of obtaining and normalizing the sum of SpL (a) and SpV can be considered, and methods other than these may be used. Then, using the first reliability Sp1 (a) assigned to each pixel included in each of the plurality of captured images that are the source of the first composite image, the first reliability for each pixel in the first composite image is used. The degree Sp1 can also be obtained.

設定部170は、第1生成部130から取得した第1合成画像内の複数の領域の各々に対する第1信頼度の設定を行った場合(行うたびに)、第1信頼度を設定した第1合成画像を記憶部140に格納するとともに、第1信頼度を設定した第1合成画像と、当該第1合成画像の生成に用いられた検出情報とを第2生成部150へ供給する。記憶部140は、第1信頼度が設定された第1合成画像を時系列に記憶する。 When the setting unit 170 sets the first reliability for each of the plurality of regions in the first composite image acquired from the first generation unit 130 (every time), the setting unit 170 sets the first reliability. The composite image is stored in the storage unit 140, and the first composite image for which the first reliability is set and the detection information used for generating the first composite image are supplied to the second generation unit 150. The storage unit 140 stores the first composite image in which the first reliability is set in chronological order.

第2生成部150は、上述の第1実施形態と同様に、設定部170から取得した第1合成画像が、収納室21の入口全体を含んでいない場合、過去の第1合成画像を用いて上述の不足領域を補完して第2合成画像を生成する。さらに、本実施形態の第2生成部150は、設定部170から取得した第1合成画像(最新の第1合成画像)、および、過去の第1合成画像の各々に設定された第1信頼度に基づいて、第2合成画像を生成する。より具体的には、第2生成部150は、最新の第1合成画像内の複数の領域のうち、第1信頼度が、過去の第1合成画像内の対応する領域の第1信頼度よりも低い値を示す領域については、過去の第1合成画像内の対応する領域に置き換える。これにより、第2合成画像の画質をさらに向上させることができるという有利な効果を達成できる。 Similar to the first embodiment described above, the second generation unit 150 uses the past first composite image when the first composite image acquired from the setting unit 170 does not include the entire entrance of the storage chamber 21. The second composite image is generated by complementing the above-mentioned shortage region. Further, the second generation unit 150 of the present embodiment has the first reliability set for each of the first composite image (latest first composite image) acquired from the setting unit 170 and the past first composite image. A second composite image is generated based on. More specifically, in the second generation unit 150, the first reliability of the plurality of regions in the latest first composite image is higher than the first reliability of the corresponding region in the past first composite image. The region showing a low value is replaced with the corresponding region in the past first composite image. Thereby, the advantageous effect that the image quality of the second composite image can be further improved can be achieved.

(第3実施形態)
次に、第3実施形態について説明する。上述の各実施形態と共通する部分については適宜に説明を省略する。なお、第3実施形態に係る画像処理装置の基本的な構成は、第2実施形態に係る画像処理装置200と同様(図12の構成と同様)であるので、詳細な図示は省略する。
(Third Embodiment)
Next, the third embodiment will be described. The description of the parts common to each of the above-described embodiments will be omitted as appropriate. Since the basic configuration of the image processing apparatus according to the third embodiment is the same as that of the image processing apparatus 200 according to the second embodiment (similar to the configuration of FIG. 12), detailed illustration is omitted.

本実施形態では、設定部170は、第1合成画像内の複数の領域ごとに、当該領域に対応する撮像画像が得られたときの時刻(撮像時刻)が現在の時刻に近いほど高い値を示す第2信頼度をさらに設定し、第2生成部150は、第1合成画像、および、過去の第1合成画像の各々に設定された第1信頼度および第2信頼度に基づいて、第2合成画像を生成する点で上述の第2実施形態と相違する。以下、第3実施形態の具体的な内容を説明する。 In the present embodiment, the setting unit 170 sets a higher value for each of a plurality of regions in the first composite image as the time (imaging time) when the captured image corresponding to the region is obtained is closer to the current time. The second reliability shown is further set, and the second generation unit 150 further sets the first reliability and the second reliability set for each of the first composite image and the first composite image in the past. 2 It differs from the above-described second embodiment in that a composite image is generated. Hereinafter, the specific contents of the third embodiment will be described.

上述の各実施形態と同様に、検出部131は、開き戸10の開動作が行われる場合に、当該開動作に対応する検出情報を生成し、開き戸10の閉動作が行われる場合に、当該閉動作に対応する検出情報を生成する。この例における検出情報は、検出した複数の位置(撮像時のカメラ30の位置)ごとに、撮像画像と移動速度と撮像時刻とを対応付けた情報で構成される。 Similar to each of the above-described embodiments, the detection unit 131 generates detection information corresponding to the opening operation when the hinged door 10 is opened, and closes the hinged door 10 when the hinged door 10 is closed. Generate detection information corresponding to the operation. The detection information in this example is composed of information in which the captured image, the moving speed, and the imaging time are associated with each of the plurality of detected positions (positions of the camera 30 at the time of imaging).

また、上述の第2実施形態と同様に、第1生成部130は、開き戸10の開動作または閉動作が行われる場合に、第1合成画像を生成し、その第1合成画像の生成に用いた検出情報を、当該第1合成画像とともに設定部170へ供給する。 Further, as in the second embodiment described above, the first generation unit 130 generates a first composite image when the hinged door 10 is opened or closed, and is used for generating the first composite image. The detected detection information is supplied to the setting unit 170 together with the first composite image.

設定部170は、第1生成部130から、第1合成画像と検出情報を取得した場合、その取得した第1合成画像と検出情報とに基づいて、当該第1合成画像内の複数の領域ごとに、当該領域に対応する撮像画像が得られたときの移動速度が大きいほど低い値を示す第1信頼度を設定するとともに、当該領域に対応する撮像画像が得られたときの撮像時刻が現在の時刻に近いほど高い値を示す第2信頼度を設定し、その設定した第1信頼度と第2信頼度とに応じて規定される第3信頼度を設定する。第1信頼度の設定方法は上述の第2実施形態と同様である。 When the setting unit 170 acquires the first composite image and the detection information from the first generation unit 130, each of a plurality of regions in the first composite image is based on the acquired first composite image and the detection information. The first reliability is set to indicate a lower value as the moving speed increases when the captured image corresponding to the region is obtained, and the imaging time when the captured image corresponding to the region is obtained is currently set. The second reliability, which indicates a higher value as the time approaches, is set, and the third reliability defined according to the set first reliability and second reliability is set. The method of setting the first reliability is the same as that of the second embodiment described above.

第2信頼度は、0以上、かつ、1以下の範囲内の値であり、「1」は、最も信頼性が高いことを表し(撮像時刻が現在の時刻に最も近いことを表し)、「0」は、最も信頼性が低いことを表す。この例では、撮像時刻と現在の時刻との差が閾値以上の場合、第2信頼度は「0」に設定される。 The second reliability is a value within the range of 0 or more and 1 or less, and "1" indicates that the reliability is the highest (indicating that the imaging time is the closest to the current time). "0" indicates the lowest reliability. In this example, when the difference between the imaging time and the current time is equal to or greater than the threshold value, the second reliability is set to "0".

本実施形態では、設定部170は、第1生成部130から、第1合成画像と検出情報を取得した場合、その取得した検出情報を参照して、当該検出情報に含まれる複数の撮像画像ごとに、当該撮像画像に対応付けられた撮像時刻と現在の時刻との差が大きいほど低い値を示す第2信頼度を算出し、当該撮像画像に割り当てる。これにより、第1生成部130から取得した第1合成画像の元となる複数の撮像画像ごとに、当該撮像画像に対応付けられた撮像時刻に応じた第2信頼度が割り当てられる。そして、設定部170は、第1生成部130から取得した第1合成画像のうち、当該第1合成画像の生成に用いられた検出情報に含まれる複数の撮像画像と1対1に対応する複数の領域を特定し、特定した複数の領域ごとに、当該領域に対応する撮像画像に割り当てられた第2信頼度を設定する。以上のようにして、第1生成部130から取得した第1合成画像内の複数の領域(当該第1合成画像の元となる複数の撮像画像と1対1に対応する複数の領域)ごとに、当該領域に対応する撮像画像が得られたときの撮像時刻が現在の時刻に近いほど低い値を示す第2信頼度が設定されるという具合である。 In the present embodiment, when the setting unit 170 acquires the first composite image and the detection information from the first generation unit 130, the setting unit 170 refers to the acquired detection information for each of the plurality of captured images included in the detection information. The second reliability, which indicates a lower value as the difference between the imaging time associated with the captured image and the current time increases, is calculated and assigned to the captured image. As a result, a second reliability corresponding to the imaging time associated with the captured image is assigned to each of the plurality of captured images that are the source of the first composite image acquired from the first generation unit 130. Then, the setting unit 170 has a one-to-one correspondence with a plurality of captured images included in the detection information used for generating the first composite image among the first composite images acquired from the first generation unit 130. The region is specified, and the second reliability assigned to the captured image corresponding to the region is set for each of the specified regions. As described above, for each of a plurality of regions in the first composite image acquired from the first generation unit 130 (a plurality of regions corresponding to one-to-one with the plurality of captured images that are the source of the first composite image). The closer the imaging time when the captured image corresponding to the region is obtained to the current time, the lower the second reliability is set.

そして、設定部170は、第1生成部130から取得した第1合成画像内の複数の領域(当該第1合成画像の元となる複数の撮像画像と1対1に対応する複数の領域)ごとに、当該領域に設定した第1信頼度と第2信頼度に応じて規定される第3信頼度を算出し、その算出した第3信頼度を当該領域に設定する。本実施形態では、設定部170は、第1信頼度と第2信頼度との乗算により、第3信頼度を求めるが、これに限らず、例えば第1信頼度および第2信頼度の各々に重みを付けた乗算により第3信頼度を求めてもよいし、例えば第1信頼度および第2信頼度の重み付きの平均値を算出して第3信頼度を求めてもよいし、例えば第1信頼度と第2信頼度の和を0〜1の範囲内の値に正規化して第3信頼度を求めてもよい。 Then, the setting unit 170 is used for each of a plurality of regions (a plurality of regions corresponding to one-to-one with the plurality of captured images that are the source of the first composite image) in the first composite image acquired from the first generation unit 130. In addition, a third reliability defined according to the first reliability and the second reliability set in the area is calculated, and the calculated third reliability is set in the area. In the present embodiment, the setting unit 170 obtains the third reliability by multiplying the first reliability and the second reliability, but the present invention is not limited to this, and for example, the first reliability and the second reliability are each determined. The third reliability may be obtained by weighted multiplication, for example, the weighted average value of the first reliability and the second reliability may be calculated to obtain the third reliability, for example, the first. The sum of the 1st reliability and the 2nd reliability may be normalized to a value in the range of 0 to 1 to obtain the 3rd reliability.

設定部170は、第1生成部130から取得した第1合成画像内の複数の領域の各々に対する第3信頼度の設定を行った場合、第3信頼度を設定した第1合成画像と、当該第1合成画像の生成に用いられた検出情報とを対応付けて記憶部140に格納するとともに、第2生成部150へ供給する。 When the setting unit 170 sets the third reliability for each of the plurality of regions in the first composite image acquired from the first generation unit 130, the setting unit 170 and the first composite image for which the third reliability is set and the corresponding The detection information used for generating the first composite image is stored in the storage unit 140 in association with the detection information, and is supplied to the second generation unit 150.

なお、この例では、記憶部140に記憶された過去の第1合成画像に対応付けられた検出情報に含まれる撮像時刻と現在の時刻との差分は、時間の経過とともに増大していくので、設定部170は、第3信頼度を設定した第1合成画像を記憶部140に格納するたびに、過去の第1合成画像に対応付けられた検出情報に含まれる撮像時刻と現在時刻との差分に応じて、過去の第1合成画像内の各領域に設定された第3信頼度を更新することもできる。なお、撮像時刻と現在時刻との差分が閾値以上の場合は、第3信頼度を「0」に設定することもできる。 In this example, the difference between the imaging time and the current time included in the detection information associated with the past first composite image stored in the storage unit 140 increases with the passage of time. Each time the setting unit 170 stores the first composite image for which the third reliability is set in the storage unit 140, the setting unit 170 is the difference between the imaging time and the current time included in the detection information associated with the past first composite image. It is also possible to update the third reliability set for each region in the past first composite image according to the above. If the difference between the imaging time and the current time is equal to or greater than the threshold value, the third reliability can be set to "0".

第2生成部150は、上述の第1実施形態と同様に、設定部170から取得した第1合成画像が、収納室21の入口全体を含んでいない場合、過去の第1合成画像を用いて上述の不足領域を補完して第2合成画像を生成する。さらに、本実施形態の第2生成部150は、設定部170から取得した第1合成画像(最新の第1合成画像)、および、過去の第1合成画像の各々に設定された第3信頼度に基づいて、第2合成画像を生成する。より具体的には、第2生成部150は、最新の第1合成画像内の複数の領域のうち、第3信頼度が、過去の第1合成画像内の対応する領域の第3信頼度よりも低い値を示す領域については、過去の第1合成画像内の対応する領域に置き換える。 Similar to the first embodiment described above, the second generation unit 150 uses the past first composite image when the first composite image acquired from the setting unit 170 does not include the entire entrance of the storage chamber 21. The second composite image is generated by complementing the above-mentioned shortage region. Further, the second generation unit 150 of the present embodiment has the third reliability set for each of the first composite image (latest first composite image) acquired from the setting unit 170 and the past first composite image. A second composite image is generated based on. More specifically, in the second generation unit 150, the third reliability of the plurality of regions in the latest first composite image is higher than the third reliability of the corresponding region in the past first composite image. The region showing a low value is replaced with the corresponding region in the past first composite image.

すなわち、本実施形態では、不足領域を補完することに加えて、画質の劣化と撮像時刻とを総合的に考慮して第2合成画像を生成することにより、第2合成画像の画質を向上させることができるという有利な効果を達成できる。 That is, in the present embodiment, in addition to complementing the insufficient region, the image quality of the second composite image is improved by generating the second composite image by comprehensively considering the deterioration of the image quality and the imaging time. The advantageous effect of being able to be achieved can be achieved.

以上、本発明の実施形態を説明したが、上述の各実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。以上の新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。以上の新規な実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiments of the present invention have been described above, the above-described embodiments are presented as examples, and are not intended to limit the scope of the invention. The above novel embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. The above novel embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

(変形例)
以下、変形例を説明する。
(Modification example)
A modified example will be described below.

(1)変形例1
上述の各実施形態では、第1生成部130は、開き戸10の開動作または閉動作が行われる場合に、第1合成画像を生成しているが、これに限らず、例えば第1生成部130は、開動作が行われる場合に第1合成画像を生成し、閉動作が行われても第1合成画像を生成しない形態であってもよい。また、例えば第1生成部130は、閉動作が行われる場合に第1合成画像を生成し、開動作が行われても第1合成画像を生成しない形態であってもよい。
(1) Modification 1
In each of the above-described embodiments, the first generation unit 130 generates the first composite image when the hinged door 10 is opened or closed, but the first composite image is not limited to this, for example, the first generation unit 130. May be in a form in which the first composite image is generated when the opening operation is performed and the first composite image is not generated even when the closing operation is performed. Further, for example, the first generation unit 130 may be in a form in which the first composite image is generated when the closing operation is performed and the first composite image is not generated even when the opening operation is performed.

また、例えば第1生成部130は、開動作および閉動作の両方が行われる場合に(開動作の開始から閉動作の終了までの一連の動作(以下の説明では、「開閉動作」と称する)が行われるたびに)、第1合成画像を生成する形態であってもよい。要するに、第1生成部130は、開き戸10の開動作および閉動作のうちの少なくとも一方が行われる場合に、第1合成画像を生成する形態であればよい。 Further, for example, the first generation unit 130 is used when both the opening operation and the closing operation are performed (a series of operations from the start of the opening operation to the end of the closing operation (referred to as "opening / closing operation" in the following description)). (Every time) is performed, the first composite image may be generated. In short, the first generation unit 130 may be in a form of generating a first composite image when at least one of the opening operation and the closing operation of the hinged door 10 is performed.

ここで、例えば上述の開閉動作が行われる場合に第1合成画像を生成する場合を想定する。この形態において、例えば開動作における撮像時のカメラ30の位置(説明の便宜上、「第1の位置」と称する)と、閉動作における撮像時のカメラ30の位置(説明の便宜上、「第2の位置」と称する)とが近い(「一致」も含む)場合、同一領域(説明の便宜上、「重複領域」と称する)が、第1の位置および第2の位置の各々で撮像されている。このような場合、第1合成画像の生成に使用される画像を、フレームもしくは領域単位で選択する必要がある。その選択方法としては、第1の位置に対応する撮像画像のうち上記重複領域が撮像されている領域と、第2の位置に対応する撮像画像のうち上記重複領域が撮像されている領域とを比較し、信頼性が高い方を選択することが好ましい。例えば、上述の第3実施形態のように、撮像時の移動速度(ボケ量)と撮像時刻に応じた信頼度(第3信頼度)を、第1の位置に対応する撮像画像および第2の位置に対応する撮像画像の各々に設定し、当該信頼度が高い方の領域を選択することもできる。 Here, for example, it is assumed that the first composite image is generated when the above-mentioned opening / closing operation is performed. In this embodiment, for example, the position of the camera 30 during imaging in the open operation (referred to as "first position" for convenience of explanation) and the position of the camera 30 during imaging in the closed operation (for convenience of explanation, "second position"). When they are close to each other (referred to as "position") (including "match"), the same region (referred to as "overlapping region" for convenience of explanation) is imaged at each of the first position and the second position. In such a case, it is necessary to select the image used for generating the first composite image in units of frames or regions. As the selection method, a region in which the overlapping region is captured in the captured image corresponding to the first position and a region in which the overlapping region is captured in the captured image corresponding to the second position are selected. It is preferable to compare and select the one with higher reliability. For example, as in the third embodiment described above, the moving speed (blurring amount) at the time of imaging and the reliability (third reliability) according to the imaging time are set to the captured image corresponding to the first position and the second. It is also possible to set each of the captured images corresponding to the position and select the region having the higher reliability.

この例では、特に、同一撮像範囲であっても撮像時刻が後の撮像画像の方が、その情報の価値は高い。具体的には、一般的な冷蔵庫1の使用方法は、(1)開き戸10を開けて、(2)収納物の出し入れを行い、(3)開き戸10を閉じる、といった流れであり、上述の(2)の前後で収納室21の様子が変化するため、(3)の時点の様子が、真にユーザが知りたい情報となる。つまり、撮像時刻が後の撮像画像の方がより価値は高く、多少画像がボケている等の画質劣化があっても、信頼度が高くなるように設計するのが好ましい。また、同一撮像範囲の推定は、カメラ30の位置から撮像範囲を計算して推定することができるし、撮像画像同士を比較して似ている領域を算出する方法や、マーカ等を利用する方法でも推定可能である。 In this example, the value of the information is particularly higher in the captured image after the imaging time even in the same imaging range. Specifically, the general usage of the refrigerator 1 is a flow of (1) opening the hinged door 10, (2) taking in and out the stored items, and (3) closing the hinged door 10. Since the state of the storage room 21 changes before and after 2), the state at the time of (3) is the information that the user really wants to know. That is, it is preferable to design the captured image after the imaging time so that the value is higher and the reliability is high even if the image quality is deteriorated such as the image is slightly blurred. Further, the estimation of the same imaging range can be estimated by calculating the imaging range from the position of the camera 30, a method of comparing captured images and calculating a similar region, or a method of using a marker or the like. But it can be estimated.

(2)変形例2
上述の各実施形態では、カメラ30は、開き戸10に設けられているが、これに限らず、例えばカメラ30が本体部20に設けられる形態であってもよい。この形態では、カメラ30は、開き戸10の開動作または閉動作に応じてドアポケット11(図1参照)との位置関係が変化するとともに当該ドアポケット11を連続的に撮像することになる。つまり、この形態では、ドアポケット11が、請求項の「収納室」に対応していると考えることができる。この形態でも、第1合成画像および第2合成画像の各々の生成に関する処理は、上述の各実施形態と同様に考えることができる。カメラ30が移動して収納室21を撮像することと、カメラ30が静止して移動する開き戸10を撮像することは、相対的な動きの観点からみれば同様であるからである。もし、移動する開き戸10上から本体部20に取り付けられたカメラ30(静止しているカメラ30)を観測した場合、カメラ30が移動しているように観測され、開き戸10上の観測者からはどちらが移動しているか区別することはできないということである。ところで、この場合の検出情報に含まれるカメラ30の位置(撮像時のカメラ30の位置)は、開き戸10の移動によって変化する座標系上の位置とする。こうすることによって、上述の各実施形態におけるカメラ30の位置と同様にして考えることが可能になる。なお、カメラ30の位置を推定する方法も、基本的には上述の各実施形態と同様である。ただし、カメラ30にジャイロやGPSなどの計器を取り付ける方法は不可能になるが、開き戸10にジャイロやGPSなどの計器を取り付けることによって、カメラ30の位置を推定することが可能となる。
(2) Modification example 2
In each of the above-described embodiments, the camera 30 is provided in the hinged door 10, but the present invention is not limited to this, and for example, the camera 30 may be provided in the main body 20. In this embodiment, the camera 30 changes the positional relationship with the door pocket 11 (see FIG. 1) according to the opening or closing operation of the hinged door 10, and continuously images the door pocket 11. That is, in this form, it can be considered that the door pocket 11 corresponds to the "storage room" of the claim. Also in this form, the processing related to the generation of the first composite image and the second composite image can be considered in the same manner as in each of the above-described embodiments. This is because the camera 30 moves to take an image of the storage chamber 21 and the camera 30 takes an image of the hinged door 10 that moves stationary, from the viewpoint of relative movement. If the camera 30 (stationary camera 30) attached to the main body 20 is observed from above the moving hinged door 10, the camera 30 is observed to be moving, and the observer on the hinged door 10 observes it. It is not possible to distinguish which is moving. By the way, the position of the camera 30 (the position of the camera 30 at the time of imaging) included in the detection information in this case is a position on the coordinate system that changes with the movement of the hinged door 10. By doing so, it becomes possible to think in the same manner as the position of the camera 30 in each of the above-described embodiments. The method of estimating the position of the camera 30 is basically the same as that of each of the above-described embodiments. However, although it is impossible to attach an instrument such as a gyro or GPS to the camera 30, it is possible to estimate the position of the camera 30 by attaching an instrument such as a gyro or GPS to the hinged door 10.

要するに、カメラ30は、開き戸10の開動作または閉動作に応じて収納室(収納室21またはドアポケット11)との位置関係が変化するとともに収納室を複数撮像する形態であればよい。また、第1生成部130は、開き戸の開動作および閉動作のうちの少なくとも一方が行われる場合に、カメラ30による撮像で得られた複数の撮像画像に含まれる同一の被写体が重なるよう、複数の撮像画像を合成した第1合成画像を生成する形態であればよい。また、第2生成部150は、第1合成画像が、収納室のうちユーザに提示すべき領域を示す対象領域の一部を含んでいない場合、過去の第1合成画像を用いて当該対象領域の一部を補完し、ユーザに提示するための第2合成画像を生成する形態であればよい。 In short, the camera 30 may be in a form in which the positional relationship with the storage chamber (storage chamber 21 or door pocket 11) changes according to the opening or closing operation of the hinged door 10 and a plurality of storage chambers are imaged. Further, a plurality of first generation units 130 are used so that the same subject included in a plurality of captured images obtained by imaging by the camera 30 overlaps when at least one of the opening operation and the closing operation of the hinged door is performed. Any form may be used as long as it is in a form of generating a first composite image obtained by synthesizing the captured images of. Further, when the first composite image does not include a part of the target area indicating the area to be presented to the user in the storage room, the second generation unit 150 uses the past first composite image to indicate the target area. Any form may be used as long as it complements a part of the above and generates a second composite image to be presented to the user.

(3)変形例3
上述の各実施形態では、請求項の「収納装置」の一例として、冷蔵庫1を挙げて説明したが、これに限られるものではない。例えば開き戸を有する食器棚、開き戸を有するキャビネット(書類を整理するための棚)、開き戸を有する冷凍機械などであってもよい。
(3) Modification 3
In each of the above-described embodiments, the refrigerator 1 has been described as an example of the "storage device" of the claim, but the present invention is not limited thereto. For example, a cupboard having a hinged door, a cabinet having a hinged door (a shelf for organizing documents), a refrigerating machine having a hinged door, and the like may be used.

なお、以上の各実施形態および各変形例は、任意に組み合わせることが可能である。 It should be noted that each of the above embodiments and modifications can be arbitrarily combined.

1 冷蔵庫
10 開き戸
11 ドアポケット
20 本体部
21 収納室
30 カメラ
40 センサ
50 表示部
100 画像処理装置
110 カメラ制御部
120 取得部
130 第1生成部
140 記憶部
150 第2生成部
160 表示制御部
170 設定部
1 Refrigerator 10 Swing door 11 Door pocket 20 Main body 21 Storage room 30 Camera 40 Sensor 50 Display 100 Image processing device 110 Camera control 120 Acquisition unit 130 First generation unit 140 Storage unit 150 Second generation unit 160 Display control unit 170 Setting Department

Claims (6)

物体を収納する収納室を有する本体部と、
前記本体部に回動可能に設けられ収納室の前面に形成された入口を開閉する開き戸と、 前記開き戸に取り付けられ、前記収納室を撮像する撮像部と、を備え、
前記撮像部は、
前記収納室の前面と前記開き戸とのなす角度の増加方向の変化量が閾値を超えると撮像を開始し、前記角度の増加方向の変化量が閾値以下になると撮像を停止する、
収納装置。
A main body with a storage room for storing objects ,
A hinged door that is rotatably provided on the main body and opens and closes an entrance formed on the front surface of the storage chamber, and an imaging unit that is attached to the hinged door and images the storage chamber are provided.
The imaging unit
Imaging is started when the amount of change in the increasing direction of the angle formed by the front surface of the storage chamber and the hinged door exceeds the threshold value, and imaging is stopped when the amount of change in the increasing direction of the angle is equal to or less than the threshold value .
Storage device.
物体を収納する収納室を有する本体部と、
前記本体部に回動可能に設けられ収納室の前面に形成された入口を開閉する開き戸と、 前記開き戸に取り付けられ、前記収納室を撮像する撮像部と、を備え、
前記撮像部は、
前記収納室の前面と前記開き戸とのなす角度の減少方向の変化量が閾値を超えると撮像を開始し、前記角度の減少方向の変化量が閾値以下になると撮像を停止する、
収納装置。
A main body with a storage room for storing objects ,
A hinged door that is rotatably provided on the main body and opens and closes an entrance formed on the front surface of the storage chamber, and an imaging unit that is attached to the hinged door and images the storage chamber are provided.
The imaging unit
The small directional change amount reduced in the angle of the housing chamber front between said hinged door starts when an imaging exceeds the threshold, stopping the imaging when the decreasing direction of the variation of said angle is less than the threshold value,
Storage device.
前記撮像部の撮像軸は前記開き戸の回転軸の方に傾斜している、
請求項1または2に記載の収納装置。
The imaging axis of the imaging unit is inclined toward the rotation axis of the hinged door.
The storage device according to claim 1 or 2 .
前記撮像部は、前記開き戸が開くほど、前記収納室のうち前記開き戸の回転軸から離れた部分を撮像する、
請求項1または3の何れか1項に記載の収納装置。
As the hinged door opens, the imaging unit captures a portion of the storage chamber that is farther from the rotation axis of the hinged door.
The storage device according to any one of claims 1 or 3 .
前記撮像部は、前記開き戸の開動作の開始から終了までに前記収納室全体を撮像するように設置される、
請求項1乃至のうちの何れか1項に記載の収納装置。
The imaging unit is installed so as to image the entire storage chamber from the start to the end of the opening operation of the hinged door.
The storage device according to any one of claims 1 to 4 .
前記撮像部による撮像で得られた複数の撮像画像を合成する生成部をさらに備える、
請求項1乃至のうちの何れか1項に記載の収納装置。
A generation unit for synthesizing a plurality of captured images obtained by imaging by the imaging unit is further provided.
The storage device according to any one of claims 1 to 5 .
JP2019088995A 2019-05-09 2019-05-09 Storage device Active JP6794493B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019088995A JP6794493B2 (en) 2019-05-09 2019-05-09 Storage device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019088995A JP6794493B2 (en) 2019-05-09 2019-05-09 Storage device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017237717A Division JP6527217B2 (en) 2017-12-12 2017-12-12 Storage device

Publications (2)

Publication Number Publication Date
JP2019138622A JP2019138622A (en) 2019-08-22
JP6794493B2 true JP6794493B2 (en) 2020-12-02

Family

ID=67695292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019088995A Active JP6794493B2 (en) 2019-05-09 2019-05-09 Storage device

Country Status (1)

Country Link
JP (1) JP6794493B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023121606A1 (en) * 2021-12-21 2023-06-29 Arcelik Anonim Sirketi A refrigerator with camera wherein the opening distance of the door is detected

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3450907B2 (en) * 1994-08-08 2003-09-29 幸次 楠野 Refrigerator with internal status display
JP2001294308A (en) * 2000-04-10 2001-10-23 Matsushita Electric Ind Co Ltd Goods storage
JP2001317858A (en) * 2000-05-09 2001-11-16 Matsushita Refrig Co Ltd Refrigerator
SE522000C2 (en) * 2000-08-18 2004-01-07 Rutger Roseen Method and apparatus for keeping track of the shelf life of goods stored in a room
JP4514971B2 (en) * 2001-02-15 2010-07-28 株式会社内田洋行 Storage furniture with stored item search function
JP2003004366A (en) * 2001-06-20 2003-01-08 Hitachi Ltd Refrigerator with internal state transfer device
JP2014038374A (en) * 2012-08-10 2014-02-27 Sharp Corp Watching system, server, container, information terminal, program, and recording medium
KR102000448B1 (en) * 2013-03-27 2019-10-01 엘지전자 주식회사 Refrigerator
JP2015014401A (en) * 2013-07-04 2015-01-22 日立アプライアンス株式会社 Refrigerator
JP6045521B2 (en) * 2014-02-13 2016-12-14 三菱電機株式会社 Storage management apparatus and method
JP6266374B2 (en) * 2014-02-14 2018-01-24 東芝ライフスタイル株式会社 Storage device, image processing device, image processing method, and program
JP6527217B2 (en) * 2017-12-12 2019-06-05 東芝ライフスタイル株式会社 Storage device

Also Published As

Publication number Publication date
JP2019138622A (en) 2019-08-22

Similar Documents

Publication Publication Date Title
JP6266374B2 (en) Storage device, image processing device, image processing method, and program
US11301677B2 (en) Deep learning for three dimensional (3D) gaze prediction
US10242454B2 (en) System for depth data filtering based on amplitude energy values
EP4113258B1 (en) Neural network training for three dimensional (3d) gaze prediction with calibration parameters
US10558895B2 (en) Deep learning for three dimensional (3D) gaze prediction
JP2021060590A (en) Pass-through display of captured imagery
JP6527217B2 (en) Storage device
JP4857196B2 (en) Head-mounted display device and control method thereof
US10805543B2 (en) Display method, system and computer-readable recording medium thereof
CN107852447B (en) Balancing exposure and gain at an electronic device based on device motion and scene distance
US9986158B2 (en) Method and apparatus for photographing a panoramic image
US10671890B2 (en) Training of a neural network for three dimensional (3D) gaze prediction
US20160048976A1 (en) Camera apparatus and method for tracking object in the camera apparatus
WO2021035524A1 (en) Image processing method and apparatus, electronic device, and computer-readable storage medium
JP6794493B2 (en) Storage device
CN107560637A (en) Wear display device calibration result verification method and wear display device
US8194147B2 (en) Image presentation angle adjustment method and camera device using the same
US12149826B2 (en) Image processing method and device, electronic device, and computer-readable storage medium
US9251559B2 (en) Image generation device, camera device, image display device, and image generation method
WO2019190561A1 (en) Deep learning for three dimensional (3d) gaze prediction
WO2024098284A1 (en) Imaging device
US20120038750A1 (en) Apparatus and method for displaying three-dimensional (3d) object
JP2015061200A (en) Image display device, image display method, and image display program
JP2016024490A (en) Image processing apparatus, image processing method, and program
CN120091218A (en) Shooting method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190509

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20190524

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20200331

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201111

R150 Certificate of patent or registration of utility model

Ref document number: 6794493

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150