JP7720535B2 - Photographing system, photographing device, and photographing control method - Google Patents
Photographing system, photographing device, and photographing control methodInfo
- Publication number
- JP7720535B2 JP7720535B2 JP2023220348A JP2023220348A JP7720535B2 JP 7720535 B2 JP7720535 B2 JP 7720535B2 JP 2023220348 A JP2023220348 A JP 2023220348A JP 2023220348 A JP2023220348 A JP 2023220348A JP 7720535 B2 JP7720535 B2 JP 7720535B2
- Authority
- JP
- Japan
- Prior art keywords
- screen
- display
- shooting
- photographing
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
Description
特許法第30条第2項適用 1.展示日:令和5年7月12日 2.展示会名、開催場所:GEMBA SOLUTION 2023、大阪 3.公開者:戸口洋太、堀木敏生、橋村桃 4.出品内容:戸口洋太、堀木敏生、及び橋村桃はGEMBA SOLUTION 2023にて、戸口洋太、堀木敏生、及び橋村桃が発明した撮影装置を公開した。Article 30, Paragraph 2 of the Patent Act applies 1. Date of exhibition: July 12, 2023 2. Exhibition name and location: GEMBA SOLUTION 2023, Osaka 3. Exhibitors: Toguchi Yota, Horiki Toshio, Hashimura Momo 4. Contents of exhibit: At GEMBA SOLUTION 2023, Toguchi Yota, Horiki Toshio, and Hashimura Momo exhibited a photographic device invented by Toguchi Yota, Horiki Toshio, and Hashimura Momo.
本発明は、計測対象場所の3次元空間情報を生成する3次元計測処理を行うために、計測対象場所を撮影する撮影装置と、その撮影装置を制御するプロセッサとを備えた撮影システム、撮影装置、および撮影制御方法に関するものである。 The present invention relates to an imaging system, imaging device, and imaging control method that includes an imaging device that captures images of a measurement target location and a processor that controls the imaging device, in order to perform 3D measurement processing that generates 3D spatial information about the measurement target location.
計測対象物を撮影した撮影画像に基づいて、3次元空間上に計測対象物を表す点群を生成する3次元計測の技術が知られている。この3次元計測では、近年、SLAM(Simultaneous Localization And Mapping)法が注目されている。SLAM法では、移動体(例えば作業者)に撮影装置を保持させて計測対象物を種々の方向から撮影した撮影画像に基づいて、自機の位置情報を取得する自己位置推定と、3次元空間上に計測対象物を表す点群を生成するマッピングとが行われる。 A 3D measurement technique is known that generates a point cloud representing a measurement target in three-dimensional space based on captured images of the target. In recent years, the SLAM (Simultaneous Localization and Mapping) method has been attracting attention for this type of 3D measurement. SLAM involves having a mobile object (e.g., a worker) hold a camera and capturing images of the target from various angles. Based on these captured images, the method performs self-localization to obtain the device's own position information, and mapping to generate a point cloud representing the target in three-dimensional space.
このようなSLAM法に関連する技術として、従来、ユーザが保持した撮影装置(センサ)の移動方向や移動速度を表す矢印の画像や、計測済み領域の方向と未計測領域の方向とを識別する画像により、撮影が不十分なエリアをユーザに提示する技術が知られている(特許文献1参照)。 A known technology related to this type of SLAM method is one that presents areas with insufficient photography to the user using an image of an arrow indicating the direction and speed of movement of the imaging device (sensor) held by the user, or an image that distinguishes between the direction of measured areas and the direction of unmeasured areas (see Patent Document 1).
従来の技術によれば、計測対象場所を撮影する撮影装置として、距離センサ及び可視カメラが搭載されたタブレットPC(計測装置本体)が用いられ、ユーザが撮影装置を両手で保持して計測対象場所内を歩くことで計測対象場所の撮影が行われる。また、撮影装置に設けられたタッチパネルディスプレイを用いて、撮影に関する指示や設定のための画面操作をユーザが行うこともできる。 According to conventional technology, a tablet PC (the measurement device itself) equipped with a distance sensor and visible camera is used as the imaging device for capturing images of the measurement location, and the user captures the measurement location by holding the imaging device with both hands and walking through the measurement location. The user can also use the touch panel display provided on the imaging device to operate the screen to give instructions and make settings related to the imaging.
しかしながら、撮影中に、撮影に関する指示や設定のための画面操作を行いたい場合がある。この場合、従来の技術のように、ユーザが撮影装置を両手で保持する構成では、撮影中の画面操作が面倒である。すなわち、画面操作のために撮影装置を保持している一方の手を撮影装置から離す必要があるため、撮影装置を安定に保持できなくなり、画面操作を容易に行うことができない。 However, there are times when a user wants to operate the screen to give instructions or make settings related to shooting while shooting. In this case, operating the screen while shooting is cumbersome when the user holds the camera with both hands, as in conventional technology. In other words, since the user needs to remove the hand holding the camera from the camera in order to operate the screen, it becomes difficult to hold the camera stably and it is difficult to operate the screen.
そこで、本発明は、撮影中でも、撮影装置を安定して保持しながら、タッチパネルディスプレイでの撮影に関する指示や設定のための画面操作を容易に行うことができる撮影システム、撮影装置、および撮影制御方法を提供することを主な目的とする。 The primary objective of the present invention is to provide a photography system, photography device, and photography control method that allows users to easily operate the screen on a touch panel display to give instructions and make settings related to photography while holding the photography device stably, even during photography.
本発明の撮影システムは、計測対象場所を撮影する撮影装置と、その撮影装置と接続され、計測対象場所の3次元計測処理を実行する制御装置とを備えた撮影システムであって、前記撮影装置は、計測対象場所を撮影するカメラを含むセンサ部と、ユーザの撮影作業を支援する撮影モードで用いる画面を表示する共にユーザによる画面操作を検出するタッチパネルディスプレイを含む第1の表示部と、ユーザが片手で把持するグリップ部を有し、前記センサ部および前記第1の表示部を支持する支持体と、を備え、前記制御装置は、前記撮影装置から取得した撮影データに基づいて計測対象場所の3次元空間情報を生成する前記3次元計測処理を行う3次元計測処理部と、前記撮影データの管理、処理に関する操作を行う非撮影モードで用いる画面を表示する第2の表示部と、前記第1の表示部および前記第2の表示部へ表示させる画面の表示情報を制御する表示制御部と、を備え、前記表示制御部は、前記非撮影モードから前記撮影モードへ移行させるユーザの操作により、前記第2の表示部へ休止画面を表示させると共に、前記第1の表示部へ少なくとも撮影の開始の指示をユーザが行う操作画面を表示させる構成とする。 The photographing system of the present invention comprises a photographing device that photographs a location to be measured, and a control device connected to the photographing device and that performs three-dimensional measurement processing of the location to be measured , wherein the photographing device comprises a sensor unit including a camera that photographs the location to be measured, a first display unit that displays a screen used in a photographing mode to assist a user in their photographing work and includes a touch panel display that detects screen operations by the user, and a support body that has a grip unit that the user holds in one hand and supports the sensor unit and the first display unit, and the control device comprises a three-dimensional measurement processing unit that performs the three-dimensional measurement processing to generate three-dimensional spatial information of the location to be measured based on the photographing data acquired from the photographing device, a second display unit that displays a screen used in a non-photographing mode for performing operations related to the management and processing of the photographing data, and a display control unit that controls the display information of the screens to be displayed on the first display unit and the second display unit, and wherein, upon a user's operation to transition from the non-photographing mode to the photographing mode, the display control unit displays a pause screen on the second display unit and an operation screen on the first display unit that allows the user to at least instruct the start of photographing .
本発明によれば、表示制御部は、非撮影モードから撮影モードへ移行させるユーザの操作が行われると、制御装置の第2の表示部へ休止画面を表示させると共に、撮影装置の第1の表示部へ少なくとも撮影の開始の指示をユーザが行う操作画面を表示させるので、撮影システムにおける撮影モードへの移行を確認でき、タッチパネルディスプレイでの撮影に関する指示や設定のための画面操作をもう一方の手で容易に行うことができる。 According to the present invention, when a user operates to transition from non-photography mode to photography mode, the display control unit displays a pause screen on the second display unit of the control device and also displays an operation screen on the first display unit of the photography device that allows the user to give at least an instruction to start photography, so that the transition to photography mode in the photography system can be confirmed and screen operations for giving instructions and setting related to photography on the touch panel display can be easily performed with the other hand.
前記課題を解決するためになされた第1の発明は、計測対象場所を撮影する撮影装置と、その撮影装置と接続され、計測対象場所の3次元計測処理を実行する制御装置とを備えた撮影システムであって、前記撮影装置は、計測対象場所を撮影するカメラを含むセンサ部と、ユーザの撮影作業を支援する撮影モードで用いる画面を表示する共にユーザによる画面操作を検出するタッチパネルディスプレイを含む第1の表示部と、ユーザが片手で把持するグリップ部を有し、前記センサ部および前記第1の表示部を支持する支持体と、を備え、前記制御装置は、前記撮影装置から取得した撮影データに基づいて計測対象場所の3次元空間情報を生成する前記3次元計測処理を行う3次元計測処理部と、前記撮影データの管理、処理に関する操作を行う非撮影モードで用いる画面を表示する第2の表示部と、前記第1の表示部および前記第2の表示部へ表示させる画面の表示情報を制御する表示制御部と、を備え、前記表示制御部は、前記非撮影モードから前記撮影モードへ移行させるユーザの操作により、前記第2の表示部へ休止画面を表示させると共に、前記第1の表示部へ少なくとも撮影の開始の指示をユーザが行う操作画面を表示させる構成とする。 A first invention made to solve the above problem is an imaging system comprising an imaging device that images a measurement target location and a control device connected to the imaging device and that performs three-dimensional measurement processing of the measurement target location , wherein the imaging device comprises a sensor unit including a camera that images the measurement target location, a first display unit including a touch panel display that displays a screen used in an imaging mode to assist a user in their imaging work and that detects screen operations by the user , and a support body that has a grip unit that the user holds in one hand and supports the sensor unit and the first display unit, and the control device comprises a three-dimensional measurement processing unit that performs the three-dimensional measurement processing to generate three-dimensional spatial information of the measurement target location based on imaging data acquired from the imaging device, a second display unit that displays a screen used in a non-imaging mode for performing operations related to managing and processing the imaging data, and a display control unit that controls the display information of the screens to be displayed on the first display unit and the second display unit, and wherein, upon a user's operation to transition from the non-imaging mode to the imaging mode, the display control unit displays a pause screen on the second display unit and an operation screen on the first display unit that at least allows the user to instruct the start of imaging .
これによると、表示制御部は、非撮影モードから撮影モードへ移行させるユーザの操作が行われると、制御装置の第2の表示部へ休止画面を表示させると共に、撮影装置の第1の表示部へ少なくとも撮影の開始の指示をユーザが行う操作画面を表示させるので、撮影システムにおける撮影モードへの移行を確認でき、タッチパネルディスプレイでの撮影に関する指示や設定のための画面操作をもう一方の手で容易に行うことができる。 According to this, when a user operates to transition from non-photography mode to photography mode, the display control unit displays a pause screen on the second display unit of the control device and also displays an operation screen on the first display unit of the photography device that allows the user to give at least an instruction to start photography, so that the transition to photography mode in the photography system can be confirmed and screen operations for giving instructions and setting related to photography on the touch panel display can be easily performed with the other hand.
また、第2の発明は、前記表示制御部は、前記操作画面として、撮影待機画面、撮影中画面、および撮影終了確認画面を、ユーザの指示に応じて順次遷移するように前記タッチパネルディスプレイに表示させる構成とする。 In addition, in a second invention, the display control unit is configured to display, as the operation screen, a shooting standby screen, a shooting in progress screen, and a shooting end confirmation screen on the touch panel display, with the screens transitioning sequentially in response to user instructions.
これによると、ユーザが、撮影前、撮影中、撮影終了時の各段階で必要な設定や確認を適切に行うことができる。 This allows users to properly make the necessary settings and check the settings at each stage: before, during, and after shooting.
また、第3の発明は、前記表示制御部は、前記カメラの制御条件が異なる複数の撮影モードのいずれかをユーザが選択する操作部を含む前記撮影待機画面を表示させる構成とする。 In a third aspect of the present invention, the display control unit displays the shooting standby screen including an operation unit for a user to select one of a plurality of shooting modes having different control conditions for the camera.
これによると、ユーザが、撮影開始前に、計測対象場所の特徴に応じて撮影モードを指定することができる。この場合、屋内撮影モードと屋外撮影モードとのいずれかが選択できるようにしてもよい。さらに、減光フィルタの有無に応じた2つの屋外撮影モードのいずれかが選択できるようにしてもよい。 This allows the user to specify the shooting mode according to the characteristics of the location to be measured before starting shooting. In this case, it may be possible to select either indoor shooting mode or outdoor shooting mode. Furthermore, it may be possible to select either of two outdoor shooting modes depending on whether a neutral density filter is used or not.
また、第4の発明は、前記表示制御部は、前記カメラによる撮影画像、および前記撮影装置が移動した経路を表す撮影経路画像のうち、いずれか一方の画像を拡大して表示する第1の画像表示枠と、いずれか他方の画像を縮小して表示する第2の画像表示枠と、前記第1の画像表示枠および前記第2の画像表示枠に表示させる画像を切り替える操作部とを含む前記撮影中画面を表示させる構成とする。 In addition, in a fourth invention, the display control unit is configured to display the shooting screen, which includes a first image display frame that enlarges and displays either the image captured by the camera or the shooting path image representing the path traveled by the shooting device, a second image display frame that reduces and displays the other image, and an operation unit that switches the images to be displayed in the first image display frame and the second image display frame.
これによると、ユーザが、必要に応じて拡大して表示させる画像と縮小して表示させる画像とを切り替えることができる。なお、第2の画像表示枠自体が操作部であってもよい。 This allows the user to switch between enlarged and reduced image display as needed. The second image display frame itself may also be the operation unit.
また、第5の発明は、前記表示制御部は、撮影終了時に、撮影データの保存および前記撮影待機画面への復帰をユーザに通知すると共に、ユーザが確認したことを入力する操作部を含む前記撮影終了確認画面を表示させる構成とする。 In addition, in a fifth invention, the display control unit is configured to notify the user that the shooting data has been saved and that the shooting standby screen has been returned to when shooting is completed, and to display the shooting completion confirmation screen that includes an operation unit for the user to input their confirmation.
これによると、ユーザが、撮影が終了したことを容易に確認することができる。 This allows the user to easily confirm that shooting has finished.
また、第6の発明は、前記表示制御部は、ユーザが前記センサ部を動かす速度を計測して、その速度が適切である否かを可視化した画像を含む前記撮影中画面を表示させる構成とする。 In addition, in a sixth invention, the display control unit is configured to measure the speed at which the user moves the sensor unit and display the shooting screen including an image that visualizes whether the speed is appropriate or not.
これによると、ユーザが、センサ部を動かす速度が適切である否かを容易に把握することができる。 This allows the user to easily determine whether the speed at which they are moving the sensor is appropriate.
また、第7の発明は、前記表示制御部は、撮影開始時に、所定の撮影可能時間を含む前記撮影中画面を表示させ、撮影中に、撮影開始からの経過時間を前記撮影可能時間から差し引いた撮影残り時間が所定値以下になったタイミングで、前記撮影残り時間を含む前記撮影中画面を表示させる構成とする。 In addition, in a seventh invention, the display control unit displays the shooting-in-progress screen including a predetermined available shooting time when shooting starts, and displays the shooting-in-progress screen including the remaining shooting time when the remaining shooting time, which is calculated by subtracting the elapsed time from the start of shooting from the available shooting time, becomes equal to or less than a predetermined value during shooting.
これによると、ユーザが、撮影開始時に撮影可能時間を把握することができ、また、撮影残り時間が少なくなったタイミングで撮影残り時間を把握することができる。 This allows users to know the remaining shooting time when they start shooting, and also to know the remaining shooting time when the shooting time is running low.
また、第8の発明は、前記表示制御部は、トラッキング処理で前記撮影装置の現在位置を見失う自己位置ロストを検知すると、その自己位置ロストの発生をユーザに通知すると共に、最終位置取得地点をユーザに提示して、最終位置取得地点に戻るようにユーザを促す画面を前記タッチパネルディスプレイに表示させる構成とする。 In addition, in an eighth invention, when the display control unit detects that the current position of the imaging device has been lost during the tracking process, it notifies the user of the occurrence of the loss of its own position, presents the user with the last position acquisition point, and displays a screen on the touch panel display urging the user to return to the last position acquisition point.
これによると、自己位置ロストが発生した場合に、ユーザが速やかに最終位置取得地点に戻って撮影をやり直すことができる。 This means that if the user loses their position, they can quickly return to the last location they obtained and start taking photos again.
また、第9の発明は、前記表示制御部は、前記カメラおよび前記タッチパネルディスプレイと前記制御装置との間の通信経路上の接続不良を検知し、その接続不良の発生をユーザに通知する画面を前記タッチパネルディスプレイに表示させる構成とする。 In addition, in a ninth invention, the display control unit is configured to detect a connection failure on the communication path between the camera and the touch panel display and the control device , and to display a screen on the touch panel display notifying the user of the occurrence of the connection failure.
これによると、ユーザが、接続不良により撮影装置が正常に動作しないことを容易に把握することができる。 This allows the user to easily understand when a poor connection is preventing the imaging device from operating normally.
以下、本発明の実施の形態を、図面を参照しながら説明する。 Embodiments of the present invention will be described below with reference to the drawings.
(第1実施形態)
図1は、第1実施形態に係る撮影システムを用いてユーザが行う撮影作業の状況を示す説明図である。図2は、標準撮影状態と高所撮影状態とを示す説明図である。
(First embodiment)
Fig. 1 is an explanatory diagram showing the state of a photographing operation performed by a user using the photographing system according to the first embodiment, Fig. 2 is an explanatory diagram showing a standard photographing state and a high-altitude photographing state.
図1に示すように、撮影システムは、撮影装置1と、制御装置2(情報処理装置)とを備えている。 As shown in Figure 1, the photography system includes a photography device 1 and a control device 2 (information processing device).
撮影装置1は、センサ部11と、表示入力パネル部12と、棒状の支持体13とを備えている。撮影装置1のセンサ部11と表示入力パネル部12とは第1のケーブル21を介して接続されている。撮影装置1の表示入力パネル部12と制御装置2は第2のケーブル22を介して接続されている。 The imaging device 1 includes a sensor unit 11, a display/input panel unit 12, and a rod-shaped support member 13. The sensor unit 11 and display/input panel unit 12 of the imaging device 1 are connected via a first cable 21. The display/input panel unit 12 of the imaging device 1 and the control device 2 are connected via a second cable 22.
制御装置2は、ユーザ(作業者)が携行可能なラップトップ型やタブレット型のPCで構成される。図1に示す例では、制御装置2が肩掛け式のバッグに収納されてユーザが携行できるが、ユーザが制御装置2を携行する態様はこれに限定されない。 The control device 2 is configured as a laptop or tablet PC that can be carried by the user (worker). In the example shown in Figure 1, the control device 2 can be stored in a shoulder bag and carried by the user, but the manner in which the user carries the control device 2 is not limited to this.
ユーザは、撮影装置1を手で保持して計測対象場所を歩きながら撮影装置1に計測対象場所の撮影を行わせる撮影作業を行う。このとき、ユーザは、撮影装置1を保持する腕を動かすことで、センサ部11の位置(高さ)を変化させることができる。 The user holds the camera device 1 in their hand and walks through the location to be measured, causing the camera device 1 to take pictures of the location. At this time, the user can change the position (height) of the sensor unit 11 by moving their arm holding the camera device 1.
例えば、図2(A)に示すように、ユーザは、撮影装置1を保持した腕を僅かに前に出すことで、センサ部11をユーザの目線の高さと概ね同じ位置に配置して撮影を行うことができる(標準撮影状態)。一方、図2(B)に示すように、ユーザは、撮影装置1を保持した腕を上げることで、センサ部11をユーザの目線より高い位置に配置して撮影を行うことができる(高所撮影状態)。 For example, as shown in Figure 2(A), by extending the arm holding the imaging device 1 slightly forward, the user can take a photograph with the sensor unit 11 positioned at approximately the same height as the user's eye level (standard imaging state). On the other hand, as shown in Figure 2(B), by raising the arm holding the imaging device 1, the user can take a photograph with the sensor unit 11 positioned at a higher level than the user's eye level (high-altitude imaging state).
次に、撮影装置1の支持体13について説明する。図3は、支持体13を示す斜視図である。図4は、支持体13の伸縮状況を示す側面図である。 Next, we will explain the support body 13 of the imaging device 1. Figure 3 is a perspective view showing the support body 13. Figure 4 is a side view showing the expansion and contraction of the support body 13.
図3に示すように、撮影装置1の支持体13は、本体部31と、伸縮ロッド部32と、センサ取付部33と、パネル取付部34と、グリップ部35とを備えている。表示入力パネル部12は、タッチパネルディスプレイ36を備えている。 As shown in FIG. 3, the support 13 of the imaging device 1 includes a main body 31, an extendable rod 32, a sensor mounting portion 33, a panel mounting portion 34, and a grip portion 35. The display/input panel 12 includes a touch panel display 36.
パネル取付部34は、本体部31に設けられている。パネル取付部34は、表示入力パネル部12と本体部31とを連結するジョイント41(ボールジョイント)を備えている。このジョイント41により、表示入力パネル部12の向き、すなわち、タッチパネルディスプレイ36の表示面の向きを変化させることができる。具体的には、ジョイント41(ボールジョイント)の中心を通る2本の軸A1,軸A2を中心にして表示入力パネル部12が回転することにより、表示入力パネル部12の向きを上下に変化させるチルト動作と、表示入力パネル部12の向きを左右に変化させるパン動作とを表示入力パネル部12に行わせることができる。また、パネル取付部34には、固定ノブ42が設けられている。ユーザが固定ノブ42を操作することで、表示入力パネル部12の向きを固定させることができる。なお、図3に示す例では、ジョイント41がボールジョイントであるため、所定の角度範囲で表示入力パネル部12の向きを任意の方向に調整することができる。 The panel mounting unit 34 is provided on the main body 31. The panel mounting unit 34 includes a joint 41 (ball joint) that connects the display/input panel unit 12 to the main body 31. This joint 41 allows the orientation of the display/input panel unit 12, i.e., the orientation of the display surface of the touch panel display 36, to be changed. Specifically, the display/input panel unit 12 rotates around two axes A1 and A2 that pass through the center of the joint 41 (ball joint), allowing the display/input panel unit 12 to perform a tilt operation that changes the orientation of the display/input panel unit 12 up and down, and a pan operation that changes the orientation of the display/input panel unit 12 left and right. The panel mounting unit 34 also includes a fixing knob 42. The user can fix the orientation of the display/input panel unit 12 by operating the fixing knob 42. In the example shown in FIG. 3, because the joint 41 is a ball joint, the orientation of the display/input panel unit 12 can be adjusted to any direction within a predetermined angle range.
このように、ユーザが適宜に表示入力パネル部12の向きを調整することができるため、タッチパネルディスプレイ36の視認性および操作性が向上する。例えば、高所撮影の場合などで、棒状の支持体13の角度を変える場合には、表示入力パネル部12の向きをチルト方向に調整すると、タッチパネルディスプレイ36の画面の閲覧や操作が容易になる。また、例えば、ユーザが撮影装置1を右手で保持した場合、タッチパネルディスプレイ36の画面が、ユーザの顔や画面操作を行う左手がある左側を向くように、表示入力パネル部12の向きをパン方向に調整すると、タッチパネルディスプレイ36の画面の閲覧や操作が容易になる。 In this way, the user can adjust the orientation of the display/input panel unit 12 as appropriate, improving the visibility and operability of the touch panel display 36. For example, when changing the angle of the rod-shaped support body 13, such as when shooting at a high altitude, adjusting the orientation of the display/input panel unit 12 in the tilt direction makes it easier to view and operate the screen of the touch panel display 36. Also, for example, when the user holds the imaging device 1 in their right hand, adjusting the orientation of the display/input panel unit 12 in the pan direction so that the screen of the touch panel display 36 faces the left side, where the user's face and left hand, which operates the screen, are located, makes it easier to view and operate the screen of the touch panel display 36.
センサ取付部33は、伸縮ロッド部32の先端に設けられている。センサ取付部33は、センサ部11と伸縮ロッド部32の先端とを連結するジョイント43(ヒンジジョイント)を備えている。このジョイント43により、センサ部11の向きを変化させることができる。具体的には、ジョイント43(ヒンジジョイント)の中心軸A3を中心にしてセンサ部11が回転することにより、センサ部11の向きを上下に変化させるチルト動作をセンサ部11に行わせることができる。センサ取付部33には、固定ノブ44が設けられている。ユーザが固定ノブ44を操作することで、センサ部11の向きを固定させることができる。 The sensor mounting section 33 is provided at the tip of the extendable rod section 32. The sensor mounting section 33 has a joint 43 (hinge joint) that connects the sensor unit 11 to the tip of the extendable rod section 32. This joint 43 allows the orientation of the sensor unit 11 to be changed. Specifically, by rotating the sensor unit 11 around the central axis A3 of the joint 43 (hinge joint), the sensor unit 11 can perform a tilting operation that changes the orientation of the sensor unit 11 up and down. A fixing knob 44 is provided on the sensor mounting section 33. The user can fix the orientation of the sensor unit 11 by operating the fixing knob 44.
なお、図3に示す例では、パネル取付部34において、ボールジョイントで構成されたジョイント41により表示入力パネル部12のチルト動作およびパン動作が可能であるが、複数のヒンジジョイントの組み合わせで表示入力パネル部12のチルト動作およびパン動作が可能になるようにしてもよい。 In the example shown in Figure 3, the display input panel unit 12 can be tilted and panned by the joint 41 made up of a ball joint in the panel mounting section 34, but the display input panel unit 12 may also be tilted and panned by combining multiple hinge joints.
また、図3に示す例では、センサ取付部33において、ヒンジジョイントで構成されたジョイント43により、センサ部11の向きを上下に変化させるチルト動作のみが可能であるが、センサ部11の向きを左右に変化させるパン動作が可能になっていてもよい。この場合、ジョイント43は、ボールジョイントで構成されたり、複数のヒンジジョイントの組み合わせで構成されたりしてもよい。 In the example shown in FIG. 3, the joint 43 in the sensor mounting section 33 is a hinge joint, which allows only tilting to change the orientation of the sensor unit 11 up and down, but it may also be possible to pan to change the orientation of the sensor unit 11 left and right. In this case, the joint 43 may be a ball joint or a combination of multiple hinge joints.
伸縮ロッド部32は、軸方向に伸縮可能に構成されている。図4に示す例では、伸縮ロッド部32が、径が次第に小さくなる複数の鞘管がスライド可能に連結された構造をなしている。 The telescopic rod section 32 is configured to be extendable and retractable in the axial direction. In the example shown in Figure 4, the telescopic rod section 32 has a structure in which multiple sheath tubes of gradually decreasing diameter are slidably connected.
ユーザは、伸縮ロッド部32を伸縮させることより、手で把持するグリップ部35に対するセンサ部11の位置を変更することができる。すなわち、図4(A)に示すように、伸縮ロッド部32が伸びた状態(伸長状態)では、センサ部11がグリップ部35から離れた状態となる。このため、高所撮影(図2(B)参照)において、センサ部11を高い位置に配置することができる。一方、図4(B)に示すように、伸縮ロッド部32が縮んで伸縮ロッド部32の大半が本体部31に収納された状態(収納状態)では、撮影装置1の全長が短くなるため、不使用時の撮影装置1の持ち運びや保管が容易になる。 By extending or retracting the extendable rod portion 32, the user can change the position of the sensor portion 11 relative to the grip portion 35, which is held by hand. That is, as shown in FIG. 4(A), when the extendable rod portion 32 is extended (extended state), the sensor portion 11 is separated from the grip portion 35. This allows the sensor portion 11 to be positioned at a higher position when photographing at high altitudes (see FIG. 2(B)). On the other hand, as shown in FIG. 4(B), when the extendable rod portion 32 is retracted and most of the extendable rod portion 32 is stored in the main body portion 31 (stored state), the overall length of the imaging device 1 is shortened, making it easier to carry and store the imaging device 1 when not in use.
このように本実施形態では、ユーザが、手でグリップ部35を把持することで、撮影装置1を片手で安定して保持することができる。このため、ユーザは、撮影中に撮影装置1を保持する腕や身体の向きを変えることで、センサ部11を任意の方向に向けて撮影を行うことができる。また、ユーザは、撮影中でも、伸縮ロッドを伸縮させてセンサ部11の位置を調整することができ、また、表示入力パネル部12の向きを調整することができる。 In this manner, in this embodiment, the user can hold the imaging device 1 stably in one hand by grasping the grip portion 35 with their hand. This allows the user to take pictures while shooting, by changing the orientation of their arm or body holding the imaging device 1 and orienting the sensor unit 11 in any direction. Furthermore, the user can adjust the position of the sensor unit 11 and the orientation of the display input panel unit 12 by extending or retracting the extendable rod, even while shooting.
なお、本実施形態では、表示入力パネル部12が本体部31に固定されているが、表示入力パネル部12が伸縮ロッド部32の途中に固定されて、グリップ部35に対する表示入力パネル部12の位置を調整できる構成でもよい。また、センサ部11が先端に固定される伸縮ロッド部32とは別の可動部材(図示せず)を介して表示入力パネル部12が本体部31に固定されてもよい。 In this embodiment, the display input panel unit 12 is fixed to the main body unit 31, but the display input panel unit 12 may be fixed midway along the extendable rod unit 32, allowing the position of the display input panel unit 12 relative to the grip unit 35 to be adjusted. Furthermore, the display input panel unit 12 may be fixed to the main body unit 31 via a movable member (not shown) separate from the extendable rod unit 32 to which the sensor unit 11 is fixed at its tip.
次に、撮影装置1のセンサ部11について説明する。図5は、センサ部11を示す斜視図である。 Next, we will explain the sensor unit 11 of the imaging device 1. Figure 5 is a perspective view showing the sensor unit 11.
センサ部11は、センサユニット51と、センサカバー52とを備えている。 The sensor section 11 includes a sensor unit 51 and a sensor cover 52.
センサユニット51は、可視カメラ53と、デプスセンサ54とを備えている。可視カメラ53(カラーカメラ)は、被写体をカラー撮影する。デプスセンサ54は、赤外線プロジェクタ55と、左右の赤外線カメラ56,57(ステレオカメラ)とを備えている。赤外線プロジェクタ55は、被写体に赤外光を照射する。左右の赤外線カメラ56,57は、被写体に照射された赤外光の反射光を検出する。なお、デプスセンサ54には、ステレオカメラ以外にLiDAR(Light Detection And Ranging)など他の方式の深度情報が取得可能なセンサを用いてもよい。 The sensor unit 51 includes a visible camera 53 and a depth sensor 54. The visible camera 53 (color camera) captures color images of the subject. The depth sensor 54 includes an infrared projector 55 and left and right infrared cameras 56 and 57 (stereo cameras). The infrared projector 55 irradiates the subject with infrared light. The left and right infrared cameras 56 and 57 detect the reflected light of the infrared light irradiated on the subject. Note that the depth sensor 54 may be a sensor that can acquire depth information using other methods, such as LiDAR (Light Detection and Ranging), in addition to a stereo camera.
センサユニット51では、可視カメラ53、左右の赤外線カメラ56,57および赤外線プロジェクタ55が横方向(略水平方向)に並べて配置される。センサユニット51の筐体は横方向に長い形状をなしている。 In the sensor unit 51, the visible camera 53, left and right infrared cameras 56 and 57, and the infrared projector 55 are arranged side by side (approximately horizontally). The housing of the sensor unit 51 is elongated in the horizontal direction.
センサカバー52は、カバー本体61と、フィルタ部材62とを有している。 The sensor cover 52 has a cover body 61 and a filter member 62.
カバー本体61は、センサユニット51を覆う。撮影中には、撮影装置1を動かしている際にセンサ部11が周囲の物体に衝突することがあり、この衝突の衝撃からセンサユニット51を保護するためにカバー本体61が設けられている。カバー本体61は、可視カメラ53、赤外線プロジェクタ55、および赤外線カメラ56,57の前面側のカバーガラスを開放する開口66を有する。 The cover body 61 covers the sensor unit 51. During photography, the sensor section 11 may collide with surrounding objects while the photography device 1 is being moved, and the cover body 61 is provided to protect the sensor unit 51 from the impact of such a collision. The cover body 61 has an opening 66 that exposes the cover glass on the front side of the visible light camera 53, infrared projector 55, and infrared cameras 56 and 57.
フィルタ部材62は、センサユニット51の長手方向、すなわち可視カメラ53、赤外線プロジェクタ55、および赤外線カメラ56,57の配列方向にスライド可能にカバー本体61に取り付けられる。フィルタ部材62は、第1のリング部63と第2のリング部64とを備えている。第1のリング部63には、ND(Neutral Density)フィルタ65(減光フィルタ)が取り付けられている。 The filter member 62 is attached to the cover body 61 so as to be slidable in the longitudinal direction of the sensor unit 51, i.e., in the direction of the arrangement of the visible light camera 53, infrared projector 55, and infrared cameras 56 and 57. The filter member 62 has a first ring portion 63 and a second ring portion 64. An ND (Neutral Density) filter 65 (neutral density filter) is attached to the first ring portion 63.
フィルタ部材62は、図5(A)に示す第1の位置と図5(B)に示す第2の位置との間でスライド可能に設けられている。ユーザはフィルタ部材62を指で把持してスライドさせることができる。図5(A)に示す第1の位置では、NDフィルタ65が可視カメラ53を覆わない状態となる。図5(B)に示す第2の位置では、NDフィルタ65が可視カメラ53を覆う状態となる。 The filter member 62 is slidable between a first position shown in FIG. 5(A) and a second position shown in FIG. 5(B). A user can grip the filter member 62 with their fingers and slide it. In the first position shown in FIG. 5(A), the ND filter 65 does not cover the visible light camera 53. In the second position shown in FIG. 5(B), the ND filter 65 covers the visible light camera 53.
ここで、図5(A)に示す第1の位置では、NDフィルタ65が取り付けられた第1のリング部63が可視カメラ53と一方の赤外線カメラ57との間の位置に配置され、第2のリング部64が一方の赤外線カメラ57のレンズを取り囲む位置に配置される。これにより、可視カメラ53、赤外線プロジェクタ55、および赤外線カメラ56,57のいずれもフィルタ部材62により覆われることがない。 Here, in the first position shown in Figure 5(A), the first ring portion 63 to which the ND filter 65 is attached is positioned between the visible camera 53 and one of the infrared cameras 57, and the second ring portion 64 is positioned to surround the lens of one of the infrared cameras 57. As a result, none of the visible camera 53, infrared projector 55, or infrared cameras 56 and 57 are covered by the filter member 62.
一方、図5(B)に示す第2の位置では、第1のリング部63が可視カメラ53に対応する位置に配置され、第2のリング部64が可視カメラ53と一方の赤外線カメラ57との間の位置に配置される。これにより、可視カメラ53のみがNDフィルタ65により覆われ、赤外線プロジェクタ55、および赤外線カメラ56,57のいずれもフィルタ部材62により覆われることがない。 On the other hand, in the second position shown in Figure 5 (B), the first ring portion 63 is positioned corresponding to the visible camera 53, and the second ring portion 64 is positioned between the visible camera 53 and one of the infrared cameras 57. As a result, only the visible camera 53 is covered by the ND filter 65, and neither the infrared projector 55 nor the infrared cameras 56 and 57 are covered by the filter member 62.
なお、第2のリング部64がカバー本体61の開口の内周部に突き当たることで、フィルタ部材62が、図5(A)に示す第1の位置に位置決めされる。また、カバー本体61の下面側に、溝(図示せず)がフィルタ部材62の移動方向に長く形成されており、この溝にフィルタ部材62に設けられた突起が嵌まり込むことで、フィルタ部材62の移動範囲が規定され、フィルタ部材62が、図5(B)に示す第2の位置に位置決めされる。 When the second ring portion 64 abuts against the inner periphery of the opening in the cover body 61, the filter member 62 is positioned at the first position shown in Figure 5(A). A groove (not shown) is formed on the underside of the cover body 61, extending in the direction of movement of the filter member 62. A protrusion on the filter member 62 fits into this groove, restricting the range of movement of the filter member 62 and positioning the filter member 62 at the second position shown in Figure 5(B).
屋外撮影の場合には、ユーザは、フィルタ部材62を、NDフィルタ65が可視カメラ53を覆う第2の位置(図5(B)参照)に調整する。一方、屋内撮影の場合には、ユーザは、フィルタ部材62を、NDフィルタ65が可視カメラ53を覆わない第1の位置(図5(A)参照)に調整する。これにより、屋外撮影の場合にカメラに入力される光量を抑えることで撮影画像全体の明るさを調整することができる。また、撮影画像全体に紫色の着色が発生する不具合を避けることができる。また、可視カメラ53(カラーカメラ)のみがNDフィルタ65で覆われるため、赤外線カメラ56,57がNDフィルタ65で覆われることで生成点群の密度が低下する不具合を避けることができる。 When photographing outdoors, the user adjusts the filter member 62 to the second position (see FIG. 5(B)) where the ND filter 65 covers the visible camera 53. On the other hand, when photographing indoors, the user adjusts the filter member 62 to the first position (see FIG. 5(A)) where the ND filter 65 does not cover the visible camera 53. This makes it possible to adjust the brightness of the entire captured image by reducing the amount of light input to the camera when photographing outdoors. It also prevents the problem of the entire captured image being tinted purple. Furthermore, because only the visible camera 53 (color camera) is covered by the ND filter 65, it is possible to avoid the problem of the density of the generated point cloud decreasing when the infrared cameras 56 and 57 are also covered by the ND filter 65.
次に、撮影装置1および制御装置2の概略構成について説明する。図6は、撮影装置1および制御装置2の概略構成を示すブロック図である。図7は、制御装置2のプロセッサ86で行われる処理の概要を示すブロック図である。 Next, the general configuration of the image capture device 1 and the control device 2 will be described. Figure 6 is a block diagram showing the general configuration of the image capture device 1 and the control device 2. Figure 7 is a block diagram showing an overview of the processing performed by the processor 86 of the control device 2.
図6に示すように、撮影装置1のセンサ部11は、可視カメラ53と、デプスセンサ54と、IMU71(慣性計測装置:Inertial Measurement Unit)と、入出力インタフェース72と、接続端子73とを備えている。 As shown in FIG. 6, the sensor unit 11 of the imaging device 1 includes a visible camera 53, a depth sensor 54, an IMU 71 (Inertial Measurement Unit), an input/output interface 72, and a connection terminal 73.
可視カメラ53(カラーカメラ)は、カラー撮影を行い、カラーの撮影画像を出力する。 The visible light camera 53 (color camera) takes color images and outputs the captured color images.
デプスセンサ54は、左右の赤外線カメラ56,57(図5参照)による撮影画像に基づいて、検出結果として深度情報(距離画像)を出力する。 The depth sensor 54 outputs depth information (distance image) as the detection result based on images captured by the left and right infrared cameras 56, 57 (see Figure 5).
IMU71は、自装置の運動状態、具体的には、3次元の角速度および加速度を検出する。IMU71の検出結果に基づいて、センサ部11の位置、姿勢、および速度を検出することができる。 The IMU 71 detects the motion state of the device itself, specifically, three-dimensional angular velocity and acceleration. Based on the detection results of the IMU 71, the position, orientation, and velocity of the sensor unit 11 can be detected.
入出力インタフェース72は、表示入力パネル部12を介した制御装置2との間でのデータの入出力を行う。具体的には、可視カメラ53、デプスセンサ54、およびIMU71の検出データが送信される。入出力インタフェース72は、USB(登録商標)の規格に基づくものであってもよい。 The input/output interface 72 exchanges data with the control device 2 via the display/input panel unit 12. Specifically, detection data from the visible camera 53, depth sensor 54, and IMU 71 is transmitted. The input/output interface 72 may be based on the USB (registered trademark) standard.
接続端子73には、センサ部11と表示入力パネル部12とを接続する第1のケーブル21が着脱可能に結合される。 A first cable 21 that connects the sensor unit 11 and the display/input panel unit 12 is detachably coupled to the connection terminal 73.
なお、可視カメラ53、デプスセンサ54、およびIMU71は、センサユニット51(図5参照)として一体化されていない構成でもよい。また、デプスセンサ54およびIMU71が省略され、可視カメラ53のみが設けられた構成でもよい。また、デプスセンサ54またはIMU71のどちらか一方と可視カメラ53が設けられた構成でもよい。 The visible camera 53, depth sensor 54, and IMU 71 may not be integrated into the sensor unit 51 (see Figure 5). Alternatively, the depth sensor 54 and IMU 71 may be omitted, with only the visible camera 53 provided. Alternatively, the visible camera 53 may be provided with either the depth sensor 54 or the IMU 71.
撮影装置1の表示入力パネル部12は、タッチパネルディスプレイ36と、中継器74と、入出力インタフェース75と、第1の接続端子76と、第2の接続端子77とを備えている。 The display/input panel unit 12 of the imaging device 1 includes a touch panel display 36, a repeater 74, an input/output interface 75, a first connection terminal 76, and a second connection terminal 77.
タッチパネルディスプレイ36は、制御装置2による制御に基づいて、ユーザの撮影作業を支援する画面などを表示する。 The touch panel display 36 displays screens and other information to assist the user in taking photographs, based on control by the control device 2.
中継器74は、制御装置2とセンサ部11との間のデータ通信を中継する。中継器74は、USB(登録商標)の規格に基づくハブであってもよい。 The repeater 74 relays data communication between the control device 2 and the sensor unit 11. The repeater 74 may be a hub based on the USB (registered trademark) standard.
入出力インタフェース75は、制御装置2との間でのデータの入出力を行う。具体的には、ユーザの撮影作業を支援する画面などの表示情報を制御装置2から受信する。入出力インタフェース75は、USB(登録商標)の規格に基づくものであってもよい。 The input/output interface 75 inputs and outputs data to and from the control device 2. Specifically, it receives display information, such as screens that assist the user in taking photographs, from the control device 2. The input/output interface 75 may be based on the USB (registered trademark) standard.
第1の接続端子76には、センサ部11と表示入力パネル部12とを接続する第1のケーブル21が着脱可能に結合される。第2の接続端子87には、表示入力パネル部12と制御装置2とを接続する第2のケーブル22が着脱可能に結合される。 A first cable 21 that connects the sensor unit 11 and the display/input panel unit 12 is detachably coupled to the first connection terminal 76. A second cable 22 that connects the display/input panel unit 12 and the control device 2 is detachably coupled to the second connection terminal 87.
ところで、第1のケーブル21は、表示入力パネル部12を介した制御装置2とセンサ部11との間のデータ通信に利用される。このデータ通信では、例えば、センサ部11から出力される撮影データ(撮影情報)が制御装置2に送信される。撮影データには、可視カメラ53の撮影画像、デプスセンサ54の検出結果(距離情報)、IMU71の検出結果、および撮影時刻などが含まれる。第2のケーブル22は、制御装置2と表示入力パネル部12との間のデータ通信と、制御装置2とセンサ部11との間のデータ通信とに利用される。制御装置2と表示入力パネル部12との間のデータ通信では、例えば、タッチパネルディスプレイ36に表示させる画面の表示情報が制御装置2から送信され、タッチパネルディスプレイ36で検出されたユーザの操作情報が制御装置2に送信される。 The first cable 21 is used for data communication between the control device 2 and the sensor unit 11 via the display input panel unit 12. In this data communication, for example, imaging data (imaging information) output from the sensor unit 11 is transmitted to the control device 2. The imaging data includes the image captured by the visible camera 53, the detection results (distance information) of the depth sensor 54, the detection results of the IMU 71, and the time of imaging. The second cable 22 is used for data communication between the control device 2 and the display input panel unit 12, and data communication between the control device 2 and the sensor unit 11. In data communication between the control device 2 and the display input panel unit 12, for example, display information for the screen to be displayed on the touch panel display 36 is transmitted from the control device 2, and user operation information detected on the touch panel display 36 is transmitted to the control device 2.
制御装置2は、入出力インタフェース81と、ディスプレイ82と、入力デバイス83と、メモリ84と、記憶デバイス85と、プロセッサ86と、接続端子87とを備えている。 The control device 2 includes an input/output interface 81, a display 82, an input device 83, a memory 84, a storage device 85, a processor 86, and a connection terminal 87.
入出力インタフェース81は、撮影装置1との間でのデータの入出力を行う。入出力インタフェース81は、USB(登録商標)の規格に基づくものであってもよい。 The input/output interface 81 inputs and outputs data to and from the imaging device 1. The input/output interface 81 may be based on the USB (registered trademark) standard.
ディスプレイ82は、過去に取得した撮影データの管理に関する画面や、撮影装置1の動作条件などの設定に関する画面などを表示する。 The display 82 displays screens for managing previously acquired imaging data and screens for setting the operating conditions of the imaging device 1.
入力デバイス83は、ユーザが入力操作を行うものである。入力デバイス83は、キーボード、マウス、タッチパッド、タッチパネルなどであってもよい。なお、制御装置2がタブレットPCで構成される場合には、入力デバイス83としてのタッチパネルとディスプレイ82としての表示パネルとが一体化されたタッチパネルディスプレイ36が設けられる。 The input device 83 is used by the user to perform input operations. The input device 83 may be a keyboard, mouse, touchpad, touch panel, etc. If the control device 2 is configured as a tablet PC, a touch panel display 36 is provided in which the touch panel as the input device 83 and the display panel as the display 82 are integrated.
接続端子87には、制御装置2と撮影装置1の表示入力パネル部12とを接続する第2のケーブル22が着脱可能に結合される。 A second cable 22 that connects the control device 2 and the display input panel unit 12 of the imaging device 1 is detachably connected to the connection terminal 87.
メモリ84は、プロセッサ86で実行されるプログラムなどを記憶する。 Memory 84 stores programs executed by processor 86, etc.
記憶デバイス85は、撮影装置1から取得した撮影データ(撮影情報)を記憶する。撮影データには、可視カメラ53の撮影画像、デプスセンサ54の検出結果(距離情報)、IMU71の検出結果、および撮影時刻などが含まれる。また、記憶デバイス85は、プロセッサ86で生成された3次元計測結果としての点群データを記憶する。 The storage device 85 stores the shooting data (shooting information) acquired from the image capture device 1. The shooting data includes the image captured by the visible camera 53, the detection results (distance information) of the depth sensor 54, the detection results of the IMU 71, and the shooting time. The storage device 85 also stores point cloud data generated by the processor 86 as the 3D measurement results.
プロセッサ86は、メモリ84に記憶されたプログラムを実行することで各種の処理を行う。本実施形態では、プロセッサ86が、3次元計測処理P1を行う。 The processor 86 performs various processes by executing programs stored in the memory 84. In this embodiment, the processor 86 performs the three-dimensional measurement process P1.
3次元計測処理P1では、プロセッサ16が、可視カメラ53による撮影画像などに基づいて、SLAM(Simultaneous Localization And Mapping)法を用いて、計測対象場所に関する3次元空間情報としての点群データ(環境地図)を生成する。また、3次元計測処理P1では、点群データの生成と併せて自己位置推定が行われ、各回の自己位置、すなわち、撮影地点の位置が取得される。 In the 3D measurement process P1, the processor 16 uses the SLAM (Simultaneous Localization and Mapping) method based on images captured by the visible camera 53, etc., to generate point cloud data (environmental map) as 3D spatial information about the location to be measured. In addition, in the 3D measurement process P1, self-position estimation is performed in addition to the generation of the point cloud data, and the self-position for each measurement, i.e., the position of the shooting point, is obtained.
図7に示すように、3次元計測処理P1には、特徴抽出処理P11、トラッキング処理P12、位置姿勢補正処理P13、および点群生成処理P14が含まれる。 As shown in Figure 7, the 3D measurement process P1 includes a feature extraction process P11, a tracking process P12, a position and orientation correction process P13, and a point cloud generation process P14.
特徴抽出処理P11では、プロセッサ86が、可視カメラ53の撮影画像(フレーム)から特徴情報(特徴点など)を抽出する。 In feature extraction processing P11, the processor 86 extracts feature information (such as feature points) from the image (frame) captured by the visible camera 53.
トラッキング処理P12では、プロセッサ86が、今回抽出された特徴点と以前抽出された特徴点とを比較して、撮影装置1の位置姿勢に関する遷移量を推定し、その遷移量に基づいて、位置姿勢軌跡データを更新する。なお、位置姿勢軌跡データは、撮影装置1の位置姿勢を追跡したものであり、各撮影画像(フレーム)の撮影時の位置姿勢の追跡結果、すなわち、撮影の各時刻における撮影装置1の位置姿勢に関する情報を含む。 In tracking process P12, processor 86 compares the currently extracted feature points with previously extracted feature points to estimate the amount of transition related to the position and orientation of the image capture device 1, and updates the position and orientation trajectory data based on this amount of transition. Note that the position and orientation trajectory data tracks the position and orientation of the image capture device 1, and includes the tracking results of the position and orientation at the time of capture of each captured image (frame), i.e., information regarding the position and orientation of the image capture device 1 at each time of capture.
位置姿勢補正処理P13では、プロセッサ86が、IMU23の検出データに基づいて、トラッキング処理P12で取得した位置姿勢軌跡データを補正する。ここでは、例えば壁や天井のように特徴が少ない箇所の計測結果を補うように位置姿勢軌跡データが補正される。 In the position and orientation correction process P13, the processor 86 corrects the position and orientation trajectory data acquired in the tracking process P12 based on the detection data of the IMU 23. Here, the position and orientation trajectory data is corrected to compensate for the measurement results of areas with few features, such as walls and ceilings.
点群生成処理P14では、プロセッサ86が、デプスセンサ54の距離情報と、トラッキング処理P12および位置姿勢補正処理P13で取得した位置姿勢軌跡データとに基づいて、点群データを生成する。また、点群生成処理P14には、3次元計測結果として取得する正規の点群データを生成する処理(標準点群生成処理)と、撮影状況(点群生成状況)をユーザが確認するための簡易な点群データを生成する処理(簡易点群生成処理)とがある。簡易点群生成処理は撮影中にリアルタイムで実施される必要があるが、標準点群生成処理は撮影後に実施されてもよい。 In the point cloud generation process P14, the processor 86 generates point cloud data based on the distance information from the depth sensor 54 and the position and orientation trajectory data acquired in the tracking process P12 and the position and orientation correction process P13. The point cloud generation process P14 also includes a process (standard point cloud generation process) that generates regular point cloud data acquired as a 3D measurement result, and a process (simplified point cloud generation process) that generates simplified point cloud data that allows the user to check the shooting conditions (point cloud generation conditions). The simplified point cloud generation process must be performed in real time during shooting, but the standard point cloud generation process may be performed after shooting.
また、図6に示すように、プロセッサ86は、図面生成処理P2、表示情報生成処理P3、および表示処理P4を行う。 Also, as shown in FIG. 6, the processor 86 performs drawing generation processing P2, display information generation processing P3, and display processing P4.
図面生成処理P2では、プロセッサ86が、3次元計測処理P1により生成した対象場所の点群データに基づいて対象場所の3次元モデルを生成し、その対象場所の3次元モデルに基づいて対象場所のレイアウト図を生成する。このとき、3次元モデルを水平面に投影することで対象場所の2次元レイアウト図(平面図)が生成される。また、3次元モデルを所定の視線方向に基づいて投影することにより対象場所の3次元レイアウト図が生成される。 In drawing generation process P2, processor 86 generates a three-dimensional model of the target location based on the point cloud data of the target location generated by three-dimensional measurement process P1, and generates a layout drawing of the target location based on the three-dimensional model of the target location. At this time, a two-dimensional layout drawing (plan view) of the target location is generated by projecting the three-dimensional model onto a horizontal plane. In addition, a three-dimensional layout drawing of the target location is generated by projecting the three-dimensional model based on a specified line of sight direction.
表示情報生成処理P3では、プロセッサ86が、制御装置2のディスプレイ82に表示させる画面の表示情報を生成する。ディスプレイ82では、撮影データの管理、撮影後の処理(点群生成処理P14、図面生成処理P2)の指示、および処理条件などに関する設定などの操作をユーザが行う画面(図8~図14参照)が表示される。また、プロセッサ86が、撮影装置1のタッチパネルディスプレイ36に表示させる画面の表示情報を生成する。タッチパネルディスプレイ36では、ユーザの撮影作業を支援する画面(図15~図19,図21から図27参照)が表示される。 In the display information generation process P3, the processor 86 generates display information for the screen to be displayed on the display 82 of the control device 2. The display 82 displays screens (see Figures 8 to 14) on which the user performs operations such as managing the imaging data, issuing instructions for post-imaging processing (point cloud generation process P14, drawing generation process P2), and setting processing conditions. The processor 86 also generates display information for the screen to be displayed on the touch panel display 36 of the imaging device 1. The touch panel display 36 displays screens (see Figures 15 to 19, 21 to 27) that support the user's imaging work.
表示処理P4では、プロセッサ86が、表示情報生成処理P3で生成された表示情報に基づいて、制御装置2のディスプレイ82に画面(図8~図14参照)を表示する。また、プロセッサ86が、撮影装置1のタッチパネルディスプレイ36に画面(図15~図19,図21から図27参照)を表示する。 In display processing P4, the processor 86 displays a screen (see Figures 8 to 14) on the display 82 of the control device 2 based on the display information generated in display information generation processing P3. The processor 86 also displays a screen (see Figures 15 to 19 and 21 to 27) on the touch panel display 36 of the imaging device 1.
ところで、本実施形態では、撮影待機画面311(図16参照)、撮影中画面331(図17参照)、および撮影終了確認画面351,361(図21参照)が、ユーザの指示に応じて順次遷移するように撮影装置1のタッチパネルディスプレイ36に表示される。これにより、ユーザは、撮影前、撮影中、撮影終了時の各段階で必要な設定や確認を適切に行うことができる。 In this embodiment, the shooting standby screen 311 (see FIG. 16), shooting in progress screen 331 (see FIG. 17), and shooting end confirmation screens 351 and 361 (see FIG. 21) are displayed on the touch panel display 36 of the shooting device 1 so as to transition sequentially in response to user instructions. This allows the user to appropriately make the necessary settings and check the screens at each stage before, during, and after shooting.
また、本実施形態では、ユーザの操作に応じて非撮影モード(第1のモード)と撮影モード(第2のモード)とが切り替えられる。 In addition, in this embodiment, switching between non-photography mode (first mode) and photography mode (second mode) is possible in response to user operation.
非撮影モードでは、制御装置2のディスプレイ82に操作可能な画面として、撮影データの管理および処理の指示などをユーザが行う画面(図8~図14参照)が表示されると共に、撮影装置1のタッチパネルディスプレイ36に操作不能な休止画面301(図15参照)が表示される。 In non-photography mode, the display 82 of the control device 2 displays operable screens that allow the user to manage and process the photographed data (see Figures 8 to 14), while the touch panel display 36 of the photographing device 1 displays an inoperable pause screen 301 (see Figure 15).
一方、撮影モードでは、撮影装置1を用いた撮影が可能になり、撮影装置1のタッチパネルディスプレイ36に操作可能な画面として、ユーザの撮影作業を支援する画面(図15~図19,図21から図27参照)、例えば撮影の開始および終了の指示を行う画面(図16,図17参照)が表示されると共に、制御装置2のディスプレイ82に操作不能な休止画面221(図13参照)が表示される。 On the other hand, in photography mode, photography becomes possible using the photography device 1, and operable screens are displayed on the touch panel display 36 of the photography device 1, such as screens to assist the user in the photography process (see Figures 15 to 19, 21 to 27), such as screens for instructing the start and end of photography (see Figures 16 and 17), while an inoperable pause screen 221 (see Figure 13) is displayed on the display 82 of the control device 2.
また、図6に示すように、プロセッサ86は、接続不良検知処理P5、速度提示処理P6、撮影時間提示処理P7、および自己位置ロスト復帰処理P8を行う。 Also, as shown in FIG. 6, the processor 86 performs a connection failure detection process P5, a speed display process P6, a shooting time display process P7, and a self-position lost recovery process P8.
接続不良検知処理P5では、プロセッサ86が、センサユニット51およびタッチパネルディスプレイ36とプロセッサ86との間の通信経路上の接続不良を検知し、その接続不良の発生をユーザに通知する。具体的には、接続不良通知画面231,241(図14参照)が制御装置2のディスプレイ82に表示される。また、接続不良通知画面411(図26参照)が撮影装置1のタッチパネルディスプレイ36に表示される。 In the connection failure detection process P5, the processor 86 detects a connection failure on the communication path between the processor 86 and the sensor unit 51 and touch panel display 36, and notifies the user of the occurrence of the connection failure. Specifically, connection failure notification screens 231, 241 (see FIG. 14) are displayed on the display 82 of the control device 2. In addition, connection failure notification screen 411 (see FIG. 26) is displayed on the touch panel display 36 of the imaging device 1.
速度提示処理P6では、プロセッサ86が、IMU71の検出データ(加速度、角速度)に基づいて、ユーザがセンサ部11を動かす速度を計測して、その速度が適切である否かを可視化してユーザに提示する。具体的には、撮影中画面331(図17参照)において速度バー334が表示される。 In the speed presentation process P6, the processor 86 measures the speed at which the user moves the sensor unit 11 based on the detection data (acceleration, angular velocity) of the IMU 71, and visualizes whether the speed is appropriate and presents it to the user. Specifically, a speed bar 334 is displayed on the shooting screen 331 (see Figure 17).
撮影時間提示処理P7では、プロセッサ86が、撮影開始時に、予め設定された撮影可能時間をユーザに提示する。また、プロセッサ86が、撮影中に、撮影開始からの経過時間を撮影可能時間から差し引いた撮影残り時間が所定時間以下になったタイミングで、撮影残り時間をユーザに提示する。具体的には、撮影中画面331(図18参照)において、撮影開始時に撮影可能時間が提示され、ついで、撮影中に撮影残り時間が提示される。 In the shooting time presentation process P7, the processor 86 presents the user with a preset available shooting time when shooting begins. Furthermore, during shooting, the processor 86 presents the user with the remaining shooting time when the remaining shooting time, calculated by subtracting the elapsed time from the shooting time, falls below a predetermined time. Specifically, the available shooting time is presented on the shooting-in-progress screen 331 (see FIG. 18) when shooting begins, and then the remaining shooting time is presented during shooting.
自己位置ロスト復帰処理P8では、プロセッサ86が、トラッキング処理P12で撮影装置1の現在位置を見失う自己位置ロスト(トラッキングロスト)を検知すると、自己位置ロストの発生をユーザに通知すると共に、最終位置取得地点をユーザに提示して、最終位置取得地点に戻るようにユーザを促す復帰案内を行う。具体的には、自己位置ロスト通知画面371(図22参照)が表示され、ついで、最終位置取得地点の撮影画像を含む復帰中画面381(図23参照)が表示される。また、プロセッサ86が、撮影装置1が最終位置取得地点に戻ったことを検知すると、通常のトラッキング処理P12が再開される。 In the self-position lost return process P8, when the processor 86 detects that the current location of the image capture device 1 has been lost (tracking lost) during the tracking process P12, the processor 86 notifies the user that the self-position lost has occurred and presents the user with the last position acquisition point to provide return guidance urging the user to return to the last position acquisition point. Specifically, a self-position lost notification screen 371 (see Figure 22) is displayed, followed by a return screen 381 (see Figure 23) containing an image captured at the last position acquisition point. Furthermore, when the processor 86 detects that the image capture device 1 has returned to the last position acquisition point, the normal tracking process P12 is resumed.
次に、制御装置2のディスプレイ82に表示される撮影データ一覧画面101について説明する。図8は、撮影データ一覧画面101を示す説明図である。 Next, we will explain the imaging data list screen 101 displayed on the display 82 of the control device 2. Figure 8 is an explanatory diagram showing the imaging data list screen 101.
制御装置2において撮影アプリケーションが起動されると、撮影データ一覧画面101がディスプレイ82に表示される。 When the photography application is launched on the control device 2, the photography data list screen 101 is displayed on the display 82.
撮影データ一覧画面101には、一覧表示部102が設けられている。一覧表示部102には、計測場所や撮影日時が異なる複数の撮影データごとに撮影画像が一覧表示される。図8に示す例では、撮影データごとの撮影画像が日付別に並べて表示される。また、一覧表示部102では、撮影画像ごとに撮影日時が表示される。また、一覧表示部102では、点群生成処理P14が実施済みである場合には、その旨を表すチェックマーク111が表示され、また、図面生成処理P2が実施済みである場合には、その旨を表すチェックマーク112が表示される。 The imaging data list screen 101 has a list display section 102. The list display section 102 displays a list of captured images for each of a plurality of imaging data sets with different measurement locations and imaging dates and times. In the example shown in FIG. 8, the captured images for each imaging data set are displayed sorted by date. The list display section 102 also displays the imaging date and time for each captured image. If the point cloud generation process P14 has been performed, the list display section 102 displays a check mark 111 indicating this, and if the drawing generation process P2 has been performed, a check mark 112 indicating this.
ユーザは、一覧表示部102に表示された撮影データごとの撮影画像のいずれかを操作することで撮影データを選択すると、選択された撮影データに関する撮影データ詳細画面121(図9参照)に遷移する。このとき、ユーザは、削除したい撮影データや、点群生成処理P14および図面生成処理P2を実行させたい撮影データを選択することができる。 When the user selects a piece of photography data by operating one of the photographed images for that piece of photography data displayed in the list display section 102, the screen transitions to the photography data details screen 121 (see Figure 9) for the selected photography data. At this time, the user can select the photography data they want to delete, or the photography data for which they want to execute the point cloud generation process P14 and drawing generation process P2.
なお、登録された撮影データがない場合には、一覧表示部102に、撮影データがない旨のメッセージ、例えば「撮影データがありません」の文字が表示される。 If there is no registered photography data, a message indicating that there is no photography data will be displayed in the list display section 102, such as the words "No photography data available."
また、撮影データ一覧画面101には、設定ボタン103が設けられている。ユーザが設定ボタン103を操作すると、設定画面181(図12(A)参照)が撮影データ一覧画面101上にポップアップ表示される。 The shooting data list screen 101 also has a settings button 103. When the user operates the settings button 103, a settings screen 181 (see Figure 12 (A)) pops up on the shooting data list screen 101.
また、撮影データ一覧画面101には、「撮影を開始する」のボタン104が設けられている。ユーザが「撮影を開始する」のボタン104を操作すると、非撮影モードから撮影モードに移行する。このとき、制御装置2のディスプレイ82では、休止画面221(図13参照)に遷移する。一方、撮影装置1のタッチパネルディスプレイ36では、休止画面301(図15参照)から撮影待機画面311(図16参照)に遷移する。 The shooting data list screen 101 also has a "Start shooting" button 104. When the user operates the "Start shooting" button 104, the mode switches from non-shooting mode to shooting mode. At this time, the display 82 of the control device 2 transitions to a pause screen 221 (see FIG. 13). Meanwhile, the touch panel display 36 of the shooting device 1 transitions from a pause screen 301 (see FIG. 15) to a shooting standby screen 311 (see FIG. 16).
次に、制御装置2のディスプレイ82に表示される撮影データ詳細画面121について説明する。図9は、撮影データ詳細画面121を示す説明図である。図10は、撮影データ詳細画面121上にポップアップ表示される画面を示す説明図である。図11は、撮影データ詳細画面121の要部の遷移状況を示す説明図である。 Next, we will explain the shooting data details screen 121 displayed on the display 82 of the control device 2. Figure 9 is an explanatory diagram showing the shooting data details screen 121. Figure 10 is an explanatory diagram showing a screen that pops up on the shooting data details screen 121. Figure 11 is an explanatory diagram showing the transition status of the main parts of the shooting data details screen 121.
撮影データ詳細画面121には、画像表示部122と、撮影日時表示部123とが設けられている。画像表示部122では、撮影データに含まれる撮影画像(キーフレーム)が順番に再生される。撮影日時表示部123には、画像表示部122に表示された撮影画像の撮影日時が表示される。なお、SLAM法では、視界に大きな変化が現れたフレームがキーフレームとして抽出され、そのキーフレームが点群に反映される。 The shooting data details screen 121 has an image display section 122 and a shooting date and time display section 123. The image display section 122 plays back the captured images (key frames) included in the shooting data in order. The shooting date and time display section 123 displays the shooting date and time of the captured image displayed in the image display section 122. In the SLAM method, frames in which a significant change in field of view appears are extracted as key frames, and these key frames are reflected in the point cloud.
また、撮影データ詳細画面121には、再生操作部124が設けられている。再生操作部124には、シークバー131と、再生停止ボタン132と、コマ送りボタン133と、コマ戻しボタン134とが設けられている。ユーザはシークバー131のスライダーを操作することで、再生開始時刻を任意に指定することができる。また、ユーザは再生停止ボタン132を操作することで、撮影データの再生および停止を指示することができる。また、ユーザはコマ送りボタン133およびコマ戻しボタン134を操作することで、撮影データのコマ送りおよびコマ戻しを指示することができる。 The shooting data details screen 121 also has a playback operation section 124. The playback operation section 124 has a seek bar 131, a playback stop button 132, a frame advance button 133, and a frame rewind button 134. The user can specify the desired playback start time by operating the slider on the seek bar 131. The user can also instruct the shooting data to be played or stopped by operating the playback stop button 132. The user can also instruct the shooting data to be played or rewinded frame by operating the frame advance button 133 and frame rewind button 134.
また、撮影データ詳細画面121には、指示操作部125が設けられている。指示操作部125には、「点群生成」のボタン141と、「点群表示」のボタン142と、「図面生成」のボタン143と、「図面表示」のボタン144とが設けられている。 The shooting data details screen 121 also has an instruction operation section 125. The instruction operation section 125 has a "Generate point cloud" button 141, a "Display point cloud" button 142, a "Generate drawing" button 143, and a "Display drawing" button 144.
ユーザが「点群生成」のボタン141を操作すると、点群生成処理P14(標準点群生成処理)が開始され、図10(A)に示す点群生成中画面151が撮影データ詳細画面121上にポップアップ表示される。点群生成中画面151には、点群生成処理P14が実行中である旨のメッセージが表示される。また、点群生成中画面151には、プログレスバー152が設けられている。プログレスバー152では、点群生成処理P14の進捗状況が可視化される。また、点群生成中画面151には、「点群生成を中止する」のボタン153が設けられている。ユーザが「点群生成を中止する」のボタン153を操作すると、点群生成処理P14が中止されて、撮影データ詳細画面121(図9参照)に戻る。また、点群生成処理P14が終了すると、撮影データ詳細画面121に戻る。 When the user operates the "Generate point cloud" button 141, the point cloud generation process P14 (standard point cloud generation process) begins, and the point cloud generation in progress screen 151 shown in FIG. 10(A) pops up on the shooting data details screen 121. The point cloud generation in progress screen 151 displays a message indicating that the point cloud generation process P14 is being executed. The point cloud generation in progress screen 151 also includes a progress bar 152. The progress bar 152 visualizes the progress of the point cloud generation process P14. The point cloud generation in progress screen 151 also includes a "Cancel point cloud generation" button 153. When the user operates the "Cancel point cloud generation" button 153, the point cloud generation process P14 is canceled and the screen returns to the shooting data details screen 121 (see FIG. 9). When the point cloud generation process P14 is completed, the screen returns to the shooting data details screen 121.
また、図9に示す撮影データ詳細画面121において、ユーザが「点群表示」のボタン142を操作すると、点群表示アプリケーションが起動し、点群生成処理P14で生成された点群データが表示される。 Furthermore, when the user operates the "Point Cloud Display" button 142 on the shooting data details screen 121 shown in Figure 9, the point cloud display application is launched and the point cloud data generated in the point cloud generation process P14 is displayed.
また、ユーザが「図面生成」のボタン143を操作すると、図10(B)に示す図面生成中画面161が撮影データ詳細画面121上にポップアップ表示される。図面生成中画面161には、図面生成処理P2が実行中である旨のメッセージが表示される。また、図面生成中画面161には、「図面生成を中止する」のボタン162が設けられている。ユーザが「図面生成を中止する」のボタン162を操作すると、図面生成処理P2が中止されて、撮影データ詳細画面121(図9参照)に戻る。また、図面生成処理P2が終了すると、撮影データ詳細画面121に戻る。なお、図面生成中画面161に、図面生成処理P2が実行中であることを表すアニメーションが表示されてもよい。 When the user operates the "Drawing Generation" button 143, the drawing generation in progress screen 161 shown in FIG. 10 (B) pops up on the photographic data details screen 121. The drawing generation in progress screen 161 displays a message indicating that the drawing generation process P2 is currently being executed. The drawing generation in progress screen 161 also has a "Cancel drawing generation" button 162. When the user operates the "Cancel drawing generation" button 162, the drawing generation process P2 is canceled and the screen returns to the photographic data details screen 121 (see FIG. 9). When the drawing generation process P2 is completed, the screen returns to the photographic data details screen 121. The drawing generation in progress screen 161 may also display an animation indicating that the drawing generation process P2 is currently being executed.
また、図9に示す撮影データ詳細画面121において、ユーザが「図面表示」のボタン144を操作すると、図面表示アプリケーションが起動し、図面生成処理P2で生成された図面が表示される。 Furthermore, when the user operates the "Drawing display" button 144 on the shooting data details screen 121 shown in Figure 9, the drawing display application is launched and the drawing generated in the drawing generation process P2 is displayed.
また、撮影データ詳細画面121には、「削除」のボタン145が設けられている。ユーザが「削除」のボタン145を操作すると、図10(C)に示す削除確認画面171が撮影データ詳細画面121上にポップアップ表示される。削除確認画面171には、撮影データの削除をユーザに確認させるメッセージが表示される。また、削除確認画面171には、「削除する」のボタン172と、「キャンセル」のボタン173とが設けられている。ユーザが「削除する」のボタン172を操作すると、撮影データが削除されて、撮影データ一覧画面101(図8参照)に戻る。また、ユーザが「キャンセル」のボタン173を操作すると、撮影データ詳細画面121(図9参照)に戻る。 The shooting data details screen 121 also has a "Delete" button 145. When the user operates the "Delete" button 145, a deletion confirmation screen 171 shown in FIG. 10 (C) pops up on the shooting data details screen 121. The deletion confirmation screen 171 displays a message prompting the user to confirm the deletion of the shooting data. The deletion confirmation screen 171 also has a "Delete" button 172 and a "Cancel" button 173. When the user operates the "Delete" button 172, the shooting data is deleted and the screen returns to the shooting data list screen 101 (see FIG. 8). When the user operates the "Cancel" button 173, the screen returns to the shooting data details screen 121 (see FIG. 9).
ここで、図11に示すように、指示操作部125では、「点群生成」のボタン141、「点群表示」のボタン142、「図面生成」のボタン143、および「図面表示」のボタン144の状態が、点群生成処理P14および図面生成処理P2の前後で変化する。 Here, as shown in FIG. 11, in the instruction operation unit 125, the states of the "Generate point cloud" button 141, "Display point cloud" button 142, "Generate drawing" button 143, and "Display drawing" button 144 change before and after the point cloud generation process P14 and the drawing generation process P2.
まず、図11(A)に示すように、点群生成処理P14の実行前では、「点群生成」のボタン141のみが操作可能で、「点群表示」のボタン142、「図面生成」のボタン143、および「図面表示」のボタン144は操作不能である。点群生成処理P14が終了すると、図11(B)に示すように、点群生成処理P14が実行済みであることを表すチェックマーク146が表示される。また、この状態では、「点群表示」のボタン142、および「図面生成」のボタン143が操作可能で、「図面表示」のボタン144は操作不能である。図面生成処理P2が終了すると、図11(C)に示すように、図面生成処理P2が実行済みであることを表すチェックマーク147が表示される。また、この状態では、「図面表示」のボタン144が操作可能である。 First, as shown in Figure 11 (A), before the point cloud generation process P14 is executed, only the "Generate Point Cloud" button 141 is operable, while the "Display Point Cloud" button 142, "Generate Drawing" button 143, and "Display Drawing" button 144 are inoperable. When the point cloud generation process P14 is completed, as shown in Figure 11 (B), a check mark 146 is displayed indicating that the point cloud generation process P14 has been executed. Also, in this state, the "Display Point Cloud" button 142 and the "Generate Drawing" button 143 are operable, while the "Display Drawing" button 144 is inoperable. When the drawing generation process P2 is completed, as shown in Figure 11 (C), a check mark 147 is displayed indicating that the drawing generation process P2 has been executed. Also, in this state, the "Display Drawing" button 144 is operable.
また、図9に示すように、撮影データ詳細画面121には、「一覧へ戻る」のボタン126が設けられている。ユーザが「一覧へ戻る」のボタン126を操作すると、撮影データ一覧画面101(図8参照)に戻る。 Also, as shown in FIG. 9, the imaging data details screen 121 has a "Return to list" button 126. When the user operates the "Return to list" button 126, the screen returns to the imaging data list screen 101 (see FIG. 8).
次に、制御装置2のディスプレイ82に表示される設定画面181について説明する。図12は、設定画面181を示す説明図である。 Next, we will explain the settings screen 181 displayed on the display 82 of the control device 2. Figure 12 is an explanatory diagram showing the settings screen 181.
撮影データ一覧画面101(図8参照)において、ユーザが設定ボタン103を操作すると、図12(A)に示す設定画面181が撮影データ一覧画面101上にポップアップ表示される。 When the user operates the settings button 103 on the shooting data list screen 101 (see Figure 8), the settings screen 181 shown in Figure 12 (A) pops up on the shooting data list screen 101.
設定画面181には、保存フォルダ設定部182が設けられている。保存フォルダ設定部182では、設定情報が格納された設定ファイルが保存される場所を表すフォルダパスが表示される。また、保存フォルダ設定部182には、「変更」のボタン191が設けられている。ユーザが「変更」のボタン191を操作すると、フォルダを指定する画面(図示せず)がポップアップ表示され、ここで、ユーザが設定ファイルを保存するフォルダを指定することができる。 The settings screen 181 has a save folder setting section 182. The save folder setting section 182 displays a folder path indicating the location where the settings file containing the settings information will be saved. The save folder setting section 182 also has a "Change" button 191. When the user operates the "Change" button 191, a screen (not shown) for specifying a folder pops up, allowing the user to specify the folder in which to save the settings file.
また、設定画面181には、カメラ設定部183が設けられている。カメラ設定部183には、可視カメラ53の解像度、デプスセンサ54の解像度、および可視カメラ53のフレームレートの各項目に関する入力部192,193,194が設けられている。ユーザが入力部192,193,194の各々を操作すると、プルダウンメニュー(図示せず)が表示される。ユーザは、プルダウンメニューにおいて、可視カメラ53の解像度、デプスセンサ54の解像度、および可視カメラ53のフレームレートを選択することができる。 The settings screen 181 also has a camera settings section 183. The camera settings section 183 has input sections 192, 193, and 194 for the resolution of the visible camera 53, the resolution of the depth sensor 54, and the frame rate of the visible camera 53. When the user operates each of the input sections 192, 193, and 194, a pull-down menu (not shown) is displayed. The user can select the resolution of the visible camera 53, the resolution of the depth sensor 54, and the frame rate of the visible camera 53 from the pull-down menu.
また、設定画面181には、デバイス情報表示部184が設けられている。デバイス情報表示部184では、センサユニット51に関する情報として、センサユニット51の名称(カメラ名)、シリアルナンバー、およびファームウェアバージョンの各項目に関する登録情報と、前回の較正処理が実施された日時とが表示される。また、デバイス情報表示部184には、「強制再起動」のボタン195が設けられている。ユーザが「強制再起動」のボタン195を操作すると、センサユニット51が強制的に再起動される。また、デバイス情報表示部184には、「実行」のボタン196が設けられている。ユーザが「実行」のボタン196を操作すると、図12(B)に示すデバイス較正画面201が設定画面181上にポップアップ表示される。 The settings screen 181 also has a device information display section 184. The device information display section 184 displays information about the sensor unit 51, such as the name (camera name), serial number, and firmware version of the sensor unit 51, as well as the date and time the previous calibration process was performed. The device information display section 184 also has a "Forced Restart" button 195. When the user operates the "Forced Restart" button 195, the sensor unit 51 is forcibly restarted. The device information display section 184 also has an "Execute" button 196. When the user operates the "Execute" button 196, a device calibration screen 201 shown in FIG. 12(B) pops up on the settings screen 181.
また、設定画面181には、「完了」のボタン185が設けられている。ユーザが「完了」のボタン185を操作すると、設定画面181の入力内容で設定処理が実行されて、撮影データ一覧画面101(図8参照)に戻る。 The settings screen 181 also has a "Done" button 185. When the user operates the "Done" button 185, the settings process is executed using the input details on the settings screen 181, and the screen returns to the shooting data list screen 101 (see Figure 8).
図12(B)に示すように、デバイス較正画面201には、較正処理のために撮影装置1を安定した場所に所定時間静止させておくように促すメッセージと、残り時間とが表示される。また、デバイス較正画面201には、較正処理の進捗状況を表す進捗バー202が表示される。また、デバイス較正画面201には、「中止」のボタン203が設けられている。ユーザが「中止」のボタン203を操作すると、較正処理が中止されて、設定画面181(図12(A)参照)に戻る。また、較正処理が終了すると、設定画面181に戻る。 As shown in FIG. 12(B), the device calibration screen 201 displays a message urging the user to keep the image capture device 1 stationary in a stable location for a predetermined time for the calibration process, as well as the remaining time. The device calibration screen 201 also displays a progress bar 202 indicating the progress of the calibration process. The device calibration screen 201 also has a "Cancel" button 203. When the user operates the "Cancel" button 203, the calibration process is canceled and the screen returns to the settings screen 181 (see FIG. 12(A)). When the calibration process is completed, the screen returns to the settings screen 181.
次に、制御装置2のディスプレイ82に表示される休止画面221および接続不良通知画面231,241について説明する。図13は、休止画面221を示す説明図である。図14は、接続不良通知画面231,241を示す説明図である。 Next, we will explain the pause screen 221 and poor connection notification screens 231 and 241 displayed on the display 82 of the control device 2. Figure 13 is an explanatory diagram showing the pause screen 221. Figure 14 is an explanatory diagram showing the poor connection notification screens 231 and 241.
撮影データ一覧画面101(図8参照)において、ユーザが「撮影を開始する」のボタン104を操作すると、非撮影モードから撮影モードに移行する。 When the user operates the "Start shooting" button 104 on the shooting data list screen 101 (see Figure 8), the mode switches from non-shooting mode to shooting mode.
ここで、撮影モードへの移行が成功すると、図13に示す休止画面221に遷移する。休止画面221には、撮影モードに移行した旨のメッセージと、撮影装置1のタッチパネルディスプレイ36に表示された画面で撮影モードを終了させる操作を行うことで制御装置2のディスプレイ82での画面の表示および操作が可能になる旨のメッセージとが表示される。 If the transition to photography mode is successful, the screen will transition to the pause screen 221 shown in Figure 13. The pause screen 221 displays a message indicating that photography mode has been entered, and a message indicating that by performing an operation to end photography mode on the screen displayed on the touch panel display 36 of the photography device 1, it will become possible to display and operate the screen on the display 82 of the control device 2.
一方、撮影モードへの移行が失敗すると、失敗の原因に応じて、図14に示す接続不良通知画面231,241(エラー画面)が撮影データ一覧画面101上にポップアップ表示される。ここで、撮影装置1の表示入力パネル部12と制御装置2とを接続する第2のケーブル22に関する接続不良が発生している場合には、図14(A)に示す接続不良通知画面231が表示される。一方、撮影装置1の表示入力パネル部12とセンサ部11とを接続する第1のケーブル21に関する接続不良が発生している場合には、図14(B)に示す接続不良通知画面241が表示される。 On the other hand, if the transition to photography mode fails, a poor connection notification screen 231, 241 (error screen) shown in FIG. 14 will pop up on the photography data list screen 101 depending on the cause of the failure. Here, if a poor connection has occurred with the second cable 22 connecting the display input panel unit 12 of the photography device 1 and the control device 2, the poor connection notification screen 231 shown in FIG. 14(A) will be displayed. On the other hand, if a poor connection has occurred with the first cable 21 connecting the display input panel unit 12 of the photography device 1 and the sensor unit 11, the poor connection notification screen 241 shown in FIG. 14(B) will be displayed.
図14(A)に示す接続不良通知画面231には、撮影装置1の表示入力パネル部12と制御装置2との間の接続不良のために撮影モードに移行できない旨のメッセージと、接続不良箇所の確認をユーザに促すメッセージとが表示される。また、接続不良通知画面231には、「再試行」のボタン232と「キャンセル」のボタン233とが設けられている。ユーザは、第2のケーブル22の接続不良を解消する作業を行った上で、「再試行」のボタン232を操作する。これにより、撮影モードに移行する処理が再度実行される。一方、ユーザが「キャンセル」のボタン233を操作すると、撮影データ一覧画面101(図8参照)に戻る。 The poor connection notification screen 231 shown in FIG. 14(A) displays a message stating that the camera cannot transition to shooting mode due to a poor connection between the display/input panel unit 12 of the camera 1 and the control device 2, and a message urging the user to check the location of the poor connection. The poor connection notification screen 231 also has a "retry" button 232 and a "cancel" button 233. The user operates the "retry" button 232 after taking steps to resolve the poor connection of the second cable 22. This causes the process of transitioning to shooting mode to be executed again. On the other hand, if the user operates the "cancel" button 233, the screen returns to the shooting data list screen 101 (see FIG. 8).
図14(B)に示す接続不良通知画面241には、撮影装置1の表示入力パネル部12とセンサ部11との間の接続不良のために撮影モードに移行できない旨のメッセージと、接続不良箇所の確認をユーザに促すメッセージとが表示される。また、接続不良通知画面241には、「再試行」のボタン242と「キャンセル」のボタン243とが設けられている。ユーザは、撮影装置1の表示入力パネル部12とセンサ部11とを接続する第1のケーブル21の接続不良を解消する作業を行った上で、「再試行」のボタン242を操作する。これにより、撮影モードに移行する処理が再度実行される。一方、ユーザが「キャンセル」のボタン243を操作すると、撮影データ一覧画面101(図8参照)に戻る。 The poor connection notification screen 241 shown in FIG. 14(B) displays a message stating that the transition to photography mode is not possible due to a poor connection between the display/input panel unit 12 and the sensor unit 11 of the photography device 1, and a message urging the user to check the location of the poor connection. The poor connection notification screen 241 also has a "retry" button 242 and a "cancel" button 243. The user operates the "retry" button 242 after taking steps to resolve the poor connection of the first cable 21 connecting the display/input panel unit 12 and the sensor unit 11 of the photography device 1. This causes the process of transitioning to photography mode to be executed again. On the other hand, if the user operates the "cancel" button 243, the screen returns to the photography data list screen 101 (see FIG. 8).
次に、撮影装置1のタッチパネルディスプレイ36に表示される休止画面301について説明する。図15は、休止画面301を示す説明図である。 Next, we will explain the pause screen 301 displayed on the touch panel display 36 of the imaging device 1. Figure 15 is an explanatory diagram showing the pause screen 301.
非撮影モード、すなわち、制御装置2においてユーザがディスプレイ82に撮影データ一覧画面101(図8参照)、撮影データ詳細画面121(図9参照)、および設定画面181(図12参照)などを表示させて画面操作を行っている最中には、撮影装置1のタッチパネルディスプレイ36に休止画面301が表示される。 In non-photography mode, that is, while the user is operating the screens on the display 82 of the control device 2, such as the photography data list screen 101 (see Figure 8), the photography data details screen 121 (see Figure 9), and the settings screen 181 (see Figure 12), the pause screen 301 is displayed on the touch panel display 36 of the photography device 1.
休止画面301には、非撮影モード、すなわち、制御装置2のディスプレイ82において撮影データ一覧画面101(図8参照)などの表示および操作の最中である旨のメッセージが表示される。また、休止画面301には、制御装置2のディスプレイ82に表示された画面で撮影を開始させる操作を行うことで撮影モードに移行する旨のメッセージが表示される。 The pause screen 301 displays a message indicating that the device is in non-photography mode, i.e., that the display 82 of the control device 2 is currently displaying and operating the photography data list screen 101 (see Figure 8). The pause screen 301 also displays a message indicating that the device will transition to photography mode by performing an operation to start photography on the screen displayed on the display 82 of the control device 2.
次に、撮影装置1のタッチパネルディスプレイ36に表示される撮影待機画面311について説明する。図16は、撮影待機画面311を示す説明図である。 Next, we will explain the shooting standby screen 311 displayed on the touch panel display 36 of the photographing device 1. Figure 16 is an explanatory diagram showing the shooting standby screen 311.
図16(A)に示すように、撮影待機画面311には、画像表示部312が設けられている。画像表示部312には、可視カメラ53によるリアルタイムの撮影画像が表示される。 As shown in Figure 16 (A), the shooting standby screen 311 has an image display section 312. The image display section 312 displays images captured in real time by the visible camera 53.
また、撮影待機画面311には、撮影モード指定部313が設けられている。ユーザが撮影モード指定部313を操作すると、図16(B)に示すように、プルダウンメニュー314が表示される。プルダウンメニュー314では、可視カメラ53の制御条件(画像信号処理の処理条件)が異なる複数の撮影モードをユーザが選択することができる。図16(B)に示す例では、撮影モードとして、「屋内」(屋内撮影モード)、「屋外」(第1の屋外撮影モード)、「屋外+NDフィルタ」(第2の屋外撮影モード)のいずれかをユーザが選択することができる。なお、各撮影モードでは、例えば画像信号処理(画像補正処理)で用いられる明るさの補正テーブルが異なる。 The shooting standby screen 311 also has a shooting mode selection section 313. When the user operates the shooting mode selection section 313, a pull-down menu 314 is displayed, as shown in FIG. 16(B). The pull-down menu 314 allows the user to select from multiple shooting modes with different control conditions (image signal processing conditions) for the visible camera 53. In the example shown in FIG. 16(B), the user can select from "indoor" (indoor shooting mode), "outdoor" (first outdoor shooting mode), or "outdoor + ND filter" (second outdoor shooting mode) as the shooting mode. Note that each shooting mode uses a different brightness correction table, for example, used in image signal processing (image correction processing).
また、撮影待機画面311には、明るさ調整バー315が設けられている。ユーザは、明るさ調整バー315のスライダーを操作することで、撮影画像の明るさを調整することができる。明るさの調整は撮影モード別に行うことができる。 The shooting standby screen 311 also has a brightness adjustment bar 315. The user can adjust the brightness of the captured image by operating the slider on the brightness adjustment bar 315. Brightness adjustment can be performed separately for each shooting mode.
また、撮影待機画面311には、撮影開始ボタン316が設けられている。ユーザが撮影開始ボタン316を操作すると、撮影が開始されると共に、撮影中画面331(図17参照)に遷移する。 The shooting standby screen 311 also has a start shooting button 316. When the user operates the start shooting button 316, shooting begins and the screen transitions to the shooting in progress screen 331 (see Figure 17).
また、撮影待機画面311には、「撮影を終了する」のボタン317が設けられている。ユーザが「撮影を終了する」のボタン317を操作すると、撮影モードが終了されて非撮影モードに移行して、休止画面301(図15参照)に遷移する。 The shooting standby screen 311 also has an "End shooting" button 317. When the user operates the "End shooting" button 317, the shooting mode ends, the camera switches to non-shooting mode, and the screen transitions to the pause screen 301 (see Figure 15).
次に、撮影装置1のタッチパネルディスプレイ36に表示される撮影中画面331について説明する。図17は、撮影中画面331を示す説明図である。図18は、撮影中画面331における撮影時間案内部336の遷移状況を示す説明図である。図19は、メッセージウィンドウ337された状態の撮影中画面331を示す説明図である。図20は、メッセージウィンドウ337されるメッセージの内容および表示タイミングを示す説明図である。 Next, the shooting screen 331 displayed on the touch panel display 36 of the photographing device 1 will be described. Figure 17 is an explanatory diagram showing the shooting screen 331. Figure 18 is an explanatory diagram showing the transition status of the shooting time guide section 336 on the shooting screen 331. Figure 19 is an explanatory diagram showing the shooting screen 331 with a message window 337 displayed. Figure 20 is an explanatory diagram showing the content and display timing of the message displayed in the message window 337.
図17(A),(B)に示すように、撮影中画面331には、メインウィンドウ332(第1の画像表示枠)と、サブウィンドウ333(第2の画像表示枠)とが設けられている。メインウィンドウ332とサブウィンドウ333とでは表示倍率が異なり、メインウィンドウ332では画像が拡大して表示され、サブウィンドウ333では画像が縮小して表示される。 As shown in Figures 17(A) and (B), the shooting screen 331 has a main window 332 (first image display frame) and a sub-window 333 (second image display frame). The main window 332 and the sub-window 333 have different display magnifications, with the main window 332 displaying an enlarged image and the sub-window 333 displaying a reduced image.
また、メインウィンドウ332およびサブウィンドウ333には、可視カメラ53によるリアルタイムの撮影画像341と、計測対象場所における撮影経路を表す撮影経路画像342とのいずれかが表示される。撮影経路画像342は、計測対象場所を表す点群画像343上に撮影経路を表すライン344を重畳したものである。点群画像は、生成された点群データの各点を所定の視点から見た状態で画像化(レンダリング)したものである。 The main window 332 and sub-window 333 also display either a real-time image 341 captured by the visible camera 53 or a photography path image 342 representing the photography path at the measurement target location. The photography path image 342 is obtained by superimposing a line 344 representing the photography path on a point cloud image 343 representing the measurement target location. The point cloud image is an image (rendering) of each point of the generated point cloud data as viewed from a specified viewpoint.
図17(A)に示す例は、標準状態の場合である。この場合、メインウィンドウ332に撮影画像341が拡大して表示され、サブウィンドウ333に撮影経路画像342が縮小して表示される。一方、図17(B)に示す例は、撮影経路拡大状態の場合である。この場合、メインウィンドウ332に撮影経路画像342が拡大して表示され、サブウィンドウ333に撮影画像341が縮小して表示される。 The example shown in Figure 17 (A) is in the standard state. In this case, the photographed image 341 is displayed enlarged in the main window 332, and the photographed path image 342 is displayed reduced in the sub-window 333. On the other hand, the example shown in Figure 17 (B) is in the expanded photographed path state. In this case, the photographed path image 342 is displayed enlarged in the main window 332, and the photographed image 341 is displayed reduced in the sub-window 333.
また、図17(A)に示す標準状態と、図17(B)に示す撮影経路拡大状態との切り替えは、ユーザがサブウィンドウ333を操作することで行うことができる。すなわち、図17(A)に示す標準状態において、サブウィンドウ333を操作すると、図17(B)に示す撮影経路拡大状態に遷移し、撮影経路画像342がメインウィンドウ332で拡大表示される。また、図17(B)に示す撮影経路拡大状態において、サブウィンドウ333を操作すると、図17(A)に示す標準状態に遷移し、撮影画像341がメインウィンドウ332で拡大表示される。 The user can switch between the standard state shown in FIG. 17(A) and the expanded shooting path state shown in FIG. 17(B) by operating the sub-window 333. That is, when the sub-window 333 is operated in the standard state shown in FIG. 17(A), the state transitions to the expanded shooting path state shown in FIG. 17(B), and the shooting path image 342 is enlarged and displayed in the main window 332. When the sub-window 333 is operated in the expanded shooting path state shown in FIG. 17(B), the state transitions to the standard state shown in FIG. 17(A), and the captured image 341 is enlarged and displayed in the main window 332.
なお、撮影画像341には、点群生成範囲にメッシュ画像が重畳されてもよい。メッシュ画像は、生成された点群データをメッシュデータに変換して、そのメッシュデータに対して撮影画像341と同一の画角で画像化する処理を行うことで得ることができる。 A mesh image may be superimposed on the captured image 341 within the point cloud generation range. The mesh image can be obtained by converting the generated point cloud data into mesh data and then processing the mesh data to image it with the same angle of view as the captured image 341.
また、撮影中画面331には、速度バー334が設けられている。速度バー334では、ユーザがセンサ部11を動かす速度が可視化して表示される。具体的には、速度が色で表現される。例えば、速度バー334が、緑色からオレンジ色までのグラデーションで描画され、速度が速くなるのに応じてオレンジ色の割合が大きくなる。このため、ユーザが、センサ部11を動かす速度が適切である否か、具体的には、センサ部11を動かす速度が速すぎないか否かを容易に確認することができる。これにより、ユーザがセンサ部11を動かす速度が速すぎるためにブラー(ボケ)が発生して3次元計測の精度が低下することを避けることができる。 The shooting screen 331 also has a speed bar 334. The speed bar 334 visualizes and displays the speed at which the user moves the sensor unit 11. Specifically, the speed is represented by color. For example, the speed bar 334 is drawn with a gradation from green to orange, with the proportion of orange increasing as the speed increases. This allows the user to easily check whether the speed at which the sensor unit 11 is moved is appropriate, and more specifically, whether the speed at which the sensor unit 11 is moved is not too fast. This makes it possible to avoid a situation where the user moves the sensor unit 11 too fast, resulting in blurring and a decrease in the accuracy of the 3D measurement.
また、撮影中画面331には、経過時間表示部335が設けられている。経過時間表示部335には、撮影が開始されてから現在までの経過時間が表示される。 The shooting screen 331 also has an elapsed time display section 335. The elapsed time display section 335 displays the time that has elapsed since shooting began.
また、図18に示すように、撮影中画面331では、撮影時間案内部336が表示される。経過時間表示部335は常時表示されるのに対して、撮影時間案内部336は所定のタイミングで所定時間だけ表示される。なお、撮影時間案内部336は、所定タイミングだけの表示に限らず、ユーザの操作により、常時表示されるように設定することができる。 Also, as shown in FIG. 18, the shooting-in-progress screen 331 displays a shooting time indicator 336. While the elapsed time display 335 is always displayed, the shooting time indicator 336 is only displayed at a predetermined timing for a predetermined period of time. Note that the shooting time indicator 336 is not limited to being displayed only at predetermined timings, but can also be set to be always displayed by user operation.
まず、図18(A)に示すように、撮影が開始された際に、撮影開始時点から所定時間(例えば5秒間)だけ撮影時間案内部336が表示される。この場合、撮影時間案内部336には撮影可能時間(例えば15分間)が表示される。 First, as shown in FIG. 18(A), when shooting starts, the shooting time guide 336 is displayed for a predetermined time (e.g., 5 seconds) from the start of shooting. In this case, the shooting time guide 336 displays the remaining shooting time (e.g., 15 minutes).
次に、図18(B)に示すように、撮影残り時間(撮影開始からの経過時間を撮影可能時間から差し引いた時間)が所定時間以下になったタイミングで所定時間(例えば5秒間)だけ撮影時間案内部336が表示される。この場合、撮影時間案内部336には撮影残り時間が表示される。また、撮影時間案内部336を表示させるタイミングは1回に限らない。例えば、撮影残り時間が3分になったタイミング、および撮影残り時間が2分になったタイミングで、撮影時間案内部336が表示されてもよい。 Next, as shown in FIG. 18(B), the shooting time indicator 336 is displayed for a predetermined time (e.g., 5 seconds) when the remaining shooting time (the time elapsed since shooting began minus the available shooting time) falls below a predetermined time. In this case, the remaining shooting time is displayed in the shooting time indicator 336. The timing at which the shooting time indicator 336 is displayed is not limited to once. For example, the shooting time indicator 336 may be displayed when the remaining shooting time is 3 minutes and when the remaining shooting time is 2 minutes.
次に、図18(C)に示すように、撮影残り時間がわずか(例えば1分)になったタイミングで撮影残り時間がなくなるまで撮影時間案内部336が継続して表示される。この場合、撮影時間案内部336には撮影残り時間が表示される。また、図18(A),(B)に示す状態とは異なる態様で撮影時間案内部336が表示される。例えば、撮影時間案内部336の背景および枠の色が変化することで、撮影時間案内部336が強調表示される。 Next, as shown in FIG. 18(C), when the remaining shooting time becomes very short (for example, one minute), the shooting time indicator 336 continues to be displayed until the remaining shooting time runs out. In this case, the remaining shooting time is displayed in the shooting time indicator 336. Furthermore, the shooting time indicator 336 is displayed in a manner different from that shown in FIGS. 18(A) and (B). For example, the background and frame of the shooting time indicator 336 change color, thereby highlighting the shooting time indicator 336.
また、撮影中画面331には、図19に示すように、メッセージウィンドウ337が表示される。メッセージウィンドウ337には、ユーザに通知するメッセージが表示される。具体的には、撮影作業の案内や各種の警告などに関するメッセージが表示される。 In addition, as shown in FIG. 19, a message window 337 is displayed on the shooting screen 331. Messages to notify the user are displayed in the message window 337. Specifically, messages regarding shooting instructions and various warnings are displayed.
図19(A)に示す例は、情報メッセージの場合である。情報メッセージは、ユーザの撮影作業の参考となる情報や注意を喚起する情報をユーザに提供するものである。図19(B)に示す例は、警告メッセージの場合である。警告メッセージは、早急に改善する必要がある撮影作業の状態を改善するための動作をユーザに促すものである。 The example shown in Figure 19 (A) is an information message. Information messages provide users with information that will be helpful for their photography work or information to draw their attention. The example shown in Figure 19 (B) is a warning message. Warning messages prompt users to take action to improve the status of photography work that requires immediate improvement.
なお、メッセージウィンドウ337は、メッセージの種類(情報提供、警告など)に応じて、撮影中画面331における表示位置が異なるようにしてもよい。例えば、図19(B)に示す例では、警告メッセージの場合のメッセージウィンドウ337が、図19(A)に示す情報メッセージの場合と同様に、撮影中画面331の下部に表示されるが、警告メッセージをユーザが即座に確認できるように、撮影中画面331の中心部に表示されてもよい。 The message window 337 may be displayed in a different position on the shooting screen 331 depending on the type of message (information, warning, etc.). For example, in the example shown in FIG. 19(B), the message window 337 for a warning message is displayed at the bottom of the shooting screen 331, similar to the information message shown in FIG. 19(A). However, the warning message may also be displayed in the center of the shooting screen 331 so that the user can immediately check it.
図20に、メッセージウィンドウ337に表示される情報メッセージおよび警告メッセージの一例を示す。情報メッセージには、自己位置ロストからの復帰が成功した旨のメッセージや、ループクロージング(周回移動)が検知された際の位置補正処理が完了した旨のメッセージや、ループクロージングが検知された際の位置補正処理のために撮影装置1を静止させるようにユーザを促すメッセージなどがある。警告メッセージには、ループクロージングが検知されて位置補正処理が実行されている最中にユーザが撮影装置1を動かした場合に撮影装置1を静止させるようにユーザを促すメッセージや、ユーザが撮影装置1を動かす速度が速すぎる場合に撮影装置1をゆっくり動かすようにユーザを促すメッセージや、撮影画像から抽出される特徴点が少ない場合に撮影対象を変えるようにユーザを促すメッセージや、被写体に近づきすぎた場合には被写体と適切な距離を保つようにユーザを促すメッセージなどがある。 Figure 20 shows examples of information messages and warning messages displayed in the message window 337. Information messages include a message indicating successful recovery from self-position loss, a message indicating completion of position correction processing when loop closing (circular movement) is detected, and a message urging the user to stop the image capture device 1 so that position correction processing can be performed when loop closing is detected. Warning messages include a message urging the user to stop the image capture device 1 if the user moves the image capture device 1 while loop closing is detected and position correction processing is being performed, a message urging the user to move the image capture device 1 more slowly if the user is moving the image capture device 1 too quickly, a message urging the user to change the subject being captured if few feature points are extracted from the captured image, and a message urging the user to maintain an appropriate distance from the subject if they have gotten too close.
次に、撮影装置1のタッチパネルディスプレイ36に表示される撮影終了確認画面351,361について説明する。図21は、撮影終了確認画面351,361を示す説明図である。 Next, we will explain the end-of-shooting confirmation screens 351 and 361 displayed on the touch panel display 36 of the imaging device 1. Figure 21 is an explanatory diagram showing the end-of-shooting confirmation screens 351 and 361.
図17に示したように、撮影中画面331には、撮影終了ボタン339が設けられている。ユーザが撮影終了ボタン339を操作すると、撮影を終了して撮影データを保存する処理が実行されて、図21(A)に示すように、撮影終了確認画面351が撮影中画面331上にポップアップ表示される。 As shown in FIG. 17, the shooting-in-progress screen 331 has an end shooting button 339. When the user operates the end shooting button 339, a process is executed to end shooting and save the captured data, and a shooting end confirmation screen 351 pops up on the shooting-in-progress screen 331, as shown in FIG. 21 (A).
撮影終了確認画面351には、撮影が終了して撮影データの保存が完了した旨のメッセージと、撮影待機画面311(図16参照)に戻る旨のメッセージとが表示される。また、撮影終了確認画面351には、「OK」のボタン352が設けられている。ユーザが「OK」のボタン352を操作すると、撮影待機画面311に遷移する。 The end-of-shooting confirmation screen 351 displays a message indicating that shooting has ended and that the shooting data has been saved, and a message indicating that the screen will return to the shooting standby screen 311 (see FIG. 16). The end-of-shooting confirmation screen 351 also has an "OK" button 352. When the user operates the "OK" button 352, the screen transitions to the shooting standby screen 311.
また、本実施形態では、撮影時間(撮影開始からの経過時間)が所定の撮影可能時間を超過すると、強制的に撮影が終了されて、撮影データを保存する処理が実行される。この場合、図21(B)に示すように、撮影時間超過による撮影終了確認画面361が撮影中画面331上にポップアップ表示される。 In addition, in this embodiment, if the shooting time (the time elapsed since the start of shooting) exceeds a predetermined available shooting time, shooting is forcibly ended and processing to save the captured data is executed. In this case, as shown in FIG. 21(B), a confirmation screen 361 for ending shooting due to shooting time exceeding is displayed as a pop-up on the shooting in progress screen 331.
撮影終了確認画面361には、時間超過により強制的に撮影が終了して撮影データの保存が完了した旨のメッセージと、撮影待機画面311(図16参照)に戻る旨のメッセージとが表示される。また、撮影終了確認画面361には、「OK」のボタン362が設けられている。ユーザが「OK」のボタン362を操作すると、撮影待機画面311に遷移する。 The shooting end confirmation screen 361 displays a message indicating that shooting has been forcibly terminated due to the time limit being exceeded and that the shooting data has been saved, and a message indicating that the screen will return to the shooting standby screen 311 (see FIG. 16). The shooting end confirmation screen 361 also has an "OK" button 362. When the user operates the "OK" button 362, the screen transitions to the shooting standby screen 311.
なお、本実施形態では、撮影時間が所定の撮影可能時間を超過すると強制的に撮影を終了されるが、このような強制終了が実施されないようにしてもよく、また、強制終了が実施されるモードと強制終了が実施されないモードとをユーザが選択できるようにしてもよい。 In this embodiment, shooting is forcibly terminated when the shooting time exceeds a specified shooting time, but such forced termination may not be performed, or the user may be able to select a mode in which forced termination is performed or a mode in which forced termination is not performed.
次に、自己位置ロストが発生した際に撮影装置1のタッチパネルディスプレイ36に表示される画面について説明する。図22は、自己位置ロスト通知画面371を示す説明図である。図23は、復帰中画面381を示す説明図である。図24は、最終位置取得地点拡大画面391を示す説明図である。図25は、復帰失敗通知画面401を示す説明図である。 Next, we will explain the screens displayed on the touch panel display 36 of the image capture device 1 when the self-position is lost. Figure 22 is an explanatory diagram showing the self-position lost notification screen 371. Figure 23 is an explanatory diagram showing the recovery screen 381. Figure 24 is an explanatory diagram showing the last position acquisition point enlargement screen 391. Figure 25 is an explanatory diagram showing the recovery failure notification screen 401.
撮影中に、トラッキング処理P12(自己位置推定処理)において自己位置を見失う自己位置ロスト(トラッキングロスト)が発生することがある。この場合、最終位置取得地点、すなわち、正常な自己位置を推定できた最後の地点に戻ってトラッキング処理P12をやり直す必要がある。そこで、まず、自己位置ロストが発生したことをユーザに通知した後、最終位置取得地点に戻るようにユーザを支援し、最終位置取得地点に戻ったことが検知されると、トラッキング処理P12をやり直すようにする。 During shooting, a self-position loss (tracking loss) may occur during tracking processing P12 (self-position estimation processing), where the self-position is lost. In this case, it is necessary to return to the last position acquisition point, i.e., the last point where the self-position was correctly estimated, and restart tracking processing P12. Therefore, first the user is notified that a self-position loss has occurred, and then the user is assisted in returning to the last position acquisition point. When it is detected that the user has returned to the last position acquisition point, tracking processing P12 is restarted.
本実施形態では、自己位置ロストが検知されると、撮影装置1のタッチパネルディスプレイ36において、図22に示すように、自己位置ロスト通知画面371が撮影中画面331上にポップアップ表示される。 In this embodiment, when self-location loss is detected, a self-location loss notification screen 371 is displayed as a pop-up on the shooting screen 331 on the touch panel display 36 of the image capturing device 1, as shown in FIG. 22 .
自己位置ロスト通知画面371では、自己位置ロストが発生したことをユーザに通知すると共に最終位置取得地点まで戻るようにユーザを促すメッセージが表示される。また、自己位置ロスト通知画面371には、「OK」のボタン372が設けられている。ユーザが「OK」のボタン372を操作すると、図23に示す復帰中画面381に遷移する。このとき、制御装置2のプロセッサ86では、撮影装置1が最終位置取得地点に戻ったことを検知する処理が開始される。 The self-location lost notification screen 371 notifies the user that their self-location has been lost and displays a message urging the user to return to the last location acquisition point. The self-location lost notification screen 371 also has an "OK" button 372. When the user operates the "OK" button 372, the screen transitions to the returning screen 381 shown in FIG. 23. At this time, the processor 86 of the control device 2 starts processing to detect that the image capture device 1 has returned to the last location acquisition point.
ここで、図23(A)に示す例は、図17(A)に示す例と同様に、標準状態の場合であり、メインウィンドウ332(第1の画像表示枠)に可視カメラ53による撮影画像341が拡大して表示され、サブウィンドウ333(第2の画像表示枠)に撮影経路画像342が縮小して表示される。また、図23(B)に示す例は、図17(B)に示す例と同様に、撮影経路拡大状態の場合であり、メインウィンドウ332に撮影経路画像342が拡大して表示され、サブウィンドウ333に撮影画像341が縮小して表示される。 The example shown in Figure 23(A) is the standard state, similar to the example shown in Figure 17(A), in which an enlarged image 341 captured by the visible camera 53 is displayed in the main window 332 (first image display frame), and a reduced image of the shooting path 342 is displayed in the sub-window 333 (second image display frame). The example shown in Figure 23(B) is the enlarged state of the shooting path, similar to the example shown in Figure 17(B), in which an enlarged image of the shooting path 342 is displayed in the main window 332, and a reduced image of the shooting image 341 is displayed in the sub-window 333.
また、復帰中画面381には、撮影画像341や撮影経路画像342が縮小して表示されるサブウィンドウ333(第2の画像表示枠)とは別に、もう一つのサブウィンドウ382(第3の画像表示枠)が設けられている。サブウィンドウ382には、最終位置取得地点の撮影画像が表示される。これにより、ユーザが最終位置取得地点を容易に把握することができる。 In addition to the sub-window 333 (second image display frame) in which the captured image 341 and the captured path image 342 are displayed in reduced size, the return screen 381 also has another sub-window 382 (third image display frame). The captured image of the last location acquisition point is displayed in the sub-window 382. This allows the user to easily grasp the last location acquisition point.
また、復帰中画面381では、メッセージウィンドウ383が表示される。メッセージウィンドウ383には、自己位置ロスト通知画面371(図22参照)と同様に、自己位置ロストが発生したことを通知すると共に最終位置取得地点まで戻るように促すメッセージが表示される。 In addition, a message window 383 is displayed on the recovery screen 381. Similar to the self-location lost notification screen 371 (see Figure 22), the message window 383 displays a message notifying the user that their own location has been lost and urging them to return to the last location acquisition point.
最終位置取得地点の撮影画像が表示されたサブウィンドウ382を操作すると、図24に示すように、最終位置取得地点拡大画面391が復帰中画面381上にポップアップ表示される。最終位置取得地点拡大画面391では、最終位置取得地点の撮影画像が拡大して表示される。また、最終位置取得地点拡大画面391には「×」のボタン392が表示される。ユーザが「×」のボタン392を操作すると、最終位置取得地点拡大画面391が閉じられて復帰中画面381に戻る。 When the sub-window 382 displaying the captured image of the last location acquisition point is operated, a last location acquisition point enlarged screen 391 pops up on the returning screen 381, as shown in FIG. 24. The last location acquisition point enlarged screen 391 displays an enlarged image of the last location acquisition point. An "x" button 392 is also displayed on the last location acquisition point enlarged screen 391. When the user operates the "x" button 392, the last location acquisition point enlarged screen 391 closes and the screen returns to the returning screen 381.
ここで、自己位置ロストからの復帰、すなわち、最終位置取得地点まで戻ることに成功すると、撮影中画面331(図17参照)に遷移する。なお、最終位置取得地点に戻ったことが検知されたタイミングで、復帰中画面381に、最終位置取得地点に戻ったことを通知するメッセージが表示された後に、撮影中画面331に遷移するようにしてもよい。 Here, if the device recovers from losing its own position, i.e., if it has successfully returned to the last location acquisition point, the screen will transition to the shooting screen 331 (see FIG. 17). Note that, upon detecting that the device has returned to the last location acquisition point, the returning screen 381 may display a message informing the user that the device has returned to the last location acquisition point, and then the screen may transition to the shooting screen 331.
一方、所定時間が経過しても自己位置ロストからの復帰ができない場合には、図25に示すように、復帰失敗通知画面401が復帰中画面381上にポップアップ表示される。復帰失敗通知画面401には、自己位置ロストからの復帰が失敗した旨のメッセージ(「トラッキング復帰が失敗しました。」)が表示される。また、復帰失敗通知画面401には、「OK」のボタン402が設けられている。ユーザが「OK」のボタン402を操作すると、撮影が強制終了されて、撮影待機画面311(図16参照)に遷移する。 On the other hand, if the device is unable to recover from a state where its own position has been lost even after a predetermined time has elapsed, a recovery failure notification screen 401 will pop up on the recovery in progress screen 381, as shown in FIG. 25. The recovery failure notification screen 401 displays a message indicating that recovery from a state where its own position has been lost has failed ("Tracking recovery has failed."). The recovery failure notification screen 401 also has an "OK" button 402. When the user operates the "OK" button 402, shooting is forcibly terminated and the screen transitions to the shooting standby screen 311 (see FIG. 16).
次に、撮影装置1のタッチパネルディスプレイ36に表示される接続不良通知画面411について説明する。図26は、接続不良通知画面411を示す説明図である。 Next, we will explain the poor connection notification screen 411 displayed on the touch panel display 36 of the imaging device 1. Figure 26 is an explanatory diagram showing the poor connection notification screen 411.
撮影中に、表示入力パネル部12とセンサ部11とを接続する第1のケーブル21が外れる場合がある。この場合、図26に示す接続不良通知画面411(エラー画面)が撮影中画面331上にポップアップ表示される。 During shooting, the first cable 21 connecting the display/input panel unit 12 and the sensor unit 11 may become disconnected. In this case, a poor connection notification screen 411 (error screen) shown in FIG. 26 pops up on the shooting screen 331.
接続不良通知画面411には、可視カメラ53などを含むセンサ部11が検知できない旨のメッセージと、センサ部11や、表示入力パネル部12とセンサ部11とを接続するケーブルの状態を確認するようにユーザに促すメッセージとが表示される。 The poor connection notification screen 411 displays a message stating that the sensor unit 11, including the visible camera 53, cannot be detected, and a message urging the user to check the condition of the sensor unit 11 and the cable connecting the display/input panel unit 12 to the sensor unit 11.
また、接続不良通知画面411には、「再試行」のボタン412と、「キャンセル」のボタン413とが設けられている。ユーザは、撮影装置1の表示入力パネル部12とセンサ部11とを接続するケーブルの接続不良を解消する作業を行った上で、「再試行」のボタン412を操作する。ここで接続不良が解消されると、撮影待機画面311(図16参照)に遷移する。また、ユーザが「キャンセル」のボタン413を操作すると、撮影モードから一覧モードに移行する。このとき、撮影装置1のタッチパネルディスプレイ36では、休止画面301(図15参照)に遷移する。一方、制御装置2のディスプレイ82では、休止画面221(図13参照)から撮影データ一覧画面101(図8参照)に遷移する。 The poor connection notification screen 411 also has a "Retry" button 412 and a "Cancel" button 413. The user operates the "Retry" button 412 after resolving the poor connection in the cable connecting the display/input panel unit 12 and sensor unit 11 of the image capture device 1. When the poor connection is resolved, the screen transitions to the image capture standby screen 311 (see FIG. 16). When the user operates the "Cancel" button 413, the screen transitions from image capture mode to list mode. At this time, the touch panel display 36 of the image capture device 1 transitions to the pause screen 301 (see FIG. 15). Meanwhile, the display 82 of the control device 2 transitions from the pause screen 221 (see FIG. 13) to the image capture data list screen 101 (see FIG. 8).
なお、撮影装置1の表示入力パネル部12と制御装置2とを接続する第2のケーブル22が外れる場合がある。この場合、撮影装置1のタッチパネルディスプレイ36では画面が表示されなくなる。一方、制御装置2のディスプレイ82には、接続不良をユーザに通知する画面(図示せず)が休止画面221(図13参照)上にポップアップ表示される。接続不良をユーザに通知する画面には「OK」のボタンが設けられている。ユーザが「OK」のボタンを操作すると、撮影データ一覧画面101(図8参照)に遷移する。 Note that the second cable 22 connecting the display input panel unit 12 of the image capture device 1 and the control device 2 may become disconnected. In this case, the screen will no longer be displayed on the touch panel display 36 of the image capture device 1. Meanwhile, on the display 82 of the control device 2, a screen (not shown) notifying the user of the poor connection pops up on the pause screen 221 (see Figure 13). The screen notifying the user of the poor connection has an "OK" button. When the user operates the "OK" button, the screen transitions to the image capture data list screen 101 (see Figure 8).
次に、撮影装置1のタッチパネルディスプレイ36に表示される撮影モード終了確認画面421について説明する。図27は、撮影モード終了確認画面421を示す説明図である。 Next, we will explain the shooting mode termination confirmation screen 421 displayed on the touch panel display 36 of the photographing device 1. Figure 27 is an explanatory diagram showing the shooting mode termination confirmation screen 421.
図16に示す撮影待機画面311において、ユーザが「撮影を終了する」のボタン317を操作すると、図27に示す撮影モード終了確認画面421が撮影待機画面311上にポップアップ表示される。 When the user operates the "End shooting" button 317 on the shooting standby screen 311 shown in Figure 16, a shooting mode end confirmation screen 421 shown in Figure 27 pops up on the shooting standby screen 311.
撮影モード終了確認画面421には、撮影モードを終了して一覧モードに戻ることの可否をユーザに問い合わせるメッセージが表示される。また、撮影モード終了確認画面421には、「OK」のボタン422と「キャンセル」のボタン423とが設けられている。ユーザが「キャンセル」のボタン423を操作すると、撮影待機画面311(図16参照)に戻る。また、ユーザが「OK」のボタン422を操作すると、撮影モードが終了されて一覧モードに戻る。このとき、撮影装置1のタッチパネルディスプレイ36では、休止画面301(図15参照)に遷移する。一方、制御装置2のディスプレイ82では、休止画面221(図13参照)から撮影データ一覧画面101(図8参照)に遷移する。 The shooting mode termination confirmation screen 421 displays a message asking the user whether or not to terminate shooting mode and return to list mode. The shooting mode termination confirmation screen 421 also has an "OK" button 422 and a "Cancel" button 423. When the user operates the "Cancel" button 423, the screen returns to the shooting standby screen 311 (see FIG. 16). When the user operates the "OK" button 422, the shooting mode is terminated and the screen returns to list mode. At this time, the touch panel display 36 of the shooting device 1 transitions to the pause screen 301 (see FIG. 15). Meanwhile, the display 82 of the control device 2 transitions from the pause screen 221 (see FIG. 13) to the shooting data list screen 101 (see FIG. 8).
(第2実施形態)
次に、第2実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図28は、第2実施形態に係る撮影装置1および制御装置2の概略構成を示すブロック図である。
Second Embodiment
Next, a second embodiment will be described. It should be noted that the points not specifically mentioned here are the same as those of the previous embodiment. Fig. 28 is a block diagram showing the schematic configuration of an image capture device 1 and a control device 2 according to the second embodiment.
第1実施形態では、撮影装置1と制御装置2とが有線接続されているが、本実施形態では、撮影装置1と制御装置2とが無線接続されている。具体的には、撮影装置1は、無線通信部78を備えている。また、制御装置2(情報処理装置)は、無線通信部88を備えている。撮影装置1の無線通信部78と制御装置2の無線通信部88とは、無線LANなどの適宜な無線通信方式で無線通信を行う。なお、図28に示す例では、第1実施形態と同様の構成のセンサ部11との間でデータの入出力を行うために入出力インタフェース79が設けられている。 In the first embodiment, the image capture device 1 and the control device 2 are connected by wire, but in this embodiment, the image capture device 1 and the control device 2 are connected wirelessly. Specifically, the image capture device 1 is equipped with a wireless communication unit 78. Furthermore, the control device 2 (information processing device) is equipped with a wireless communication unit 88. The wireless communication unit 78 of the image capture device 1 and the wireless communication unit 88 of the control device 2 communicate wirelessly using an appropriate wireless communication method such as wireless LAN. In the example shown in Figure 28, an input/output interface 79 is provided for inputting and outputting data to and from a sensor unit 11 configured in the same way as in the first embodiment.
このように撮影装置1と制御装置2とが無線接続されていると、撮影中に制御装置2は適宜な場所、例えば計測対象場所やその近傍に静置しておけばよく、ユーザは制御装置2を携行する面倒がなくなる。 When the imaging device 1 and control device 2 are wirelessly connected in this way, the control device 2 can be left stationary in an appropriate location, such as the location to be measured or nearby, during imaging, eliminating the need for the user to carry the control device 2 around with them.
ところで、第1実施形態および第2実施形態では、撮影システムが、ユーザが手で保持する撮影装置1と、ユーザが携行する制御装置2とで構成されるが、撮影装置1の表示入力パネル部12に制御装置2の機能の全部または一部が含まれる構成であってもよい。この場合、撮影状況(点群生成状況)をユーザが確認するための簡易な点群データを生成する処理(簡易点群生成処理)は、負荷が比較的小さく且つ撮影中にリアルタイムで実施される必要があるため、撮影装置1で実施されてもよい。また、3次元計測結果として取得する正規の点群データを生成する処理(標準点群生成処理)は、負荷が比較的大きく且つ撮影後に実施されればよいため、別に設けられた処理能力の高いサーバ装置で実施されてもよい。 In the first and second embodiments, the imaging system is composed of an imaging device 1 held by the user and a control device 2 carried by the user, but the display input panel 12 of the imaging device 1 may also include all or part of the functions of the control device 2. In this case, the process of generating simple point cloud data (simplified point cloud generation process) for the user to check the imaging situation (point cloud generation situation) requires a relatively small load and needs to be performed in real time during imaging, so it may be performed by the imaging device 1. Furthermore, the process of generating regular point cloud data obtained as a 3D measurement result (standard point cloud generation process) requires a relatively large load and only needs to be performed after imaging, so it may be performed by a separately provided server device with high processing capabilities.
また、第2実施形態のように撮影装置1と制御装置2とが無線接続されている構成では、制御装置2がオンプレミスで構成される他にクラウドで構成されてもよい。また、制御装置2の機能の一部を有する撮影装置1とサーバ装置とが無線接続されている構成でも、サーバ装置がオンプレミスで構成されてもよく、またクラウドで構成されてもよい。 Furthermore, in a configuration in which the image capture device 1 and the control device 2 are wirelessly connected as in the second embodiment, the control device 2 may be configured on-premise or in the cloud. Furthermore, in a configuration in which the image capture device 1, which has some of the functions of the control device 2, is wirelessly connected to a server device, the server device may be configured on-premise or in the cloud.
以上のように、本出願において開示する技術の例示として、実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施形態にも適用できる。また、上記の実施形態で説明した各構成要素を組み合わせて、新たな実施形態とすることも可能である。 As mentioned above, the embodiments have been described as examples of the technology disclosed in this application. However, the technology in this disclosure is not limited to these, and can also be applied to embodiments in which modifications, substitutions, additions, omissions, etc. are made. Furthermore, it is possible to combine the components described in the above embodiments to create new embodiments.
本発明に係る撮影システム、撮影装置、および撮影制御方法は、撮影中でも、撮影装置を安定して保持しながら、タッチパネルディスプレイでの撮影に関する指示や設定のための画面操作を容易に行うことができる効果を有し、計測対象場所の3次元空間情報を生成する3次元計測処理を行うために、計測対象場所を撮影する撮影装置と、その撮影装置を制御するプロセッサとを備えた撮影システム、撮影装置、および撮影制御方法などとして有用である。 The imaging system, imaging device, and imaging control method of the present invention have the advantage that the imaging device can be held stably, even while imaging, and screen operations for issuing instructions and making settings related to imaging on the touch panel display can be easily performed. They are useful as imaging systems, imaging devices, and imaging control methods that include an imaging device that images a measurement target location and a processor that controls the imaging device in order to perform three-dimensional measurement processing that generates three-dimensional spatial information about the measurement target location.
1:撮影装置
2:制御装置(情報処理装置)
11:センサ部
12:表示入力パネル部
13:支持体
21:第1のケーブル
22:第2のケーブル
31:本体部
32:伸縮ロッド部
33:センサ取付部
34:パネル取付部
35:グリップ部
36:タッチパネルディスプレイ
41:ジョイント
42:固定ノブ
43:ジョイント
44:固定ノブ
51:センサユニット
52:センサカバー
53:可視カメラ
54:デプスセンサ
61:カバー本体
62:フィルタ部材
65:NDフィルタ
101:撮影データ一覧画面
121:撮影データ詳細画面
231:接続不良通知画面
241:接続不良通知画面
311:撮影待機画面
331:撮影中画面
335:経過時間表示部
336:撮影時間案内部
351:撮影終了確認画面
361:撮影終了確認画面
371:自己位置ロスト通知画面
381:復帰中画面
411:接続不良通知画面
421:撮影モード終了確認画面
1: Photographing device 2: Control device (information processing device)
11: Sensor unit 12: Display input panel unit 13: Support 21: First cable 22: Second cable 31: Main body 32: Telescopic rod unit 33: Sensor mounting unit 34: Panel mounting unit 35: Grip unit 36: Touch panel display 41: Joint 42: Fixing knob 43: Joint 44: Fixing knob 51: Sensor unit 52: Sensor cover 53: Visible camera 54: Depth sensor 61: Cover main body 62: Filter member 65: ND filter 101: Shooting data list screen 121: Shooting data details screen 231: Connection failure notification screen 241: Connection failure notification screen 311: Shooting standby screen 331: Shooting in progress screen 335: Elapsed time display unit 336: Shooting time guide unit 351: Shooting end confirmation screen 361: Shooting end confirmation screen 371: Self-position lost notification screen 381: Recovery in progress screen 411: Connection failure notification screen 421: Shooting mode end confirmation screen
Claims (9)
前記撮影装置は、
計測対象場所を撮影するカメラを含むセンサ部と、
ユーザの撮影作業を支援する撮影モードで用いる画面を表示する共にユーザによる画面操作を検出するタッチパネルディスプレイを含む第1の表示部と、
ユーザが片手で把持するグリップ部を有し、前記センサ部および前記第1の表示部を支持する支持体と、を備え、
前記制御装置は、
前記撮影装置から取得した撮影データに基づいて計測対象場所の3次元空間情報を生成する前記3次元計測処理を行う3次元計測処理部と、
前記撮影データの管理、処理に関する操作を行う非撮影モードで用いる画面を表示する第2の表示部と、
前記第1の表示部および前記第2の表示部へ表示させる画面の表示情報を制御する表示制御部と、を備え、
前記表示制御部は、前記非撮影モードから前記撮影モードへ移行させるユーザの操作により、前記第2の表示部へ休止画面を表示させると共に、前記第1の表示部へ少なくとも撮影の開始の指示をユーザが行う操作画面を表示させることを特徴とする撮影システム。 An imaging system including an imaging device that images a measurement target location, and a control device that is connected to the imaging device and executes three-dimensional measurement processing of the measurement target location ,
The imaging device is
a sensor unit including a camera for capturing an image of a measurement target location;
a first display unit including a touch panel display that displays a screen used in a photography mode that supports a user's photography operation and detects screen operations by the user;
a support body having a grip portion that is held by a user with one hand and that supports the sensor portion and the first display portion;
The control device
a three-dimensional measurement processing unit that performs the three-dimensional measurement processing to generate three-dimensional spatial information of a measurement target location based on the photographing data acquired from the photographing device;
a second display unit that displays a screen used in a non-photographing mode for performing operations related to management and processing of the photographed data;
a display control unit that controls display information of a screen to be displayed on the first display unit and the second display unit,
The display control unit, in response to a user's operation to transition from the non-photography mode to the photography mode, displays a pause screen on the second display unit and an operation screen on the first display unit through which the user can at least instruct the start of photography .
前記操作画面として、撮影待機画面、撮影中画面、および撮影終了確認画面を、ユーザの指示に応じて順次遷移するように前記タッチパネルディスプレイに表示させることを特徴とする請求項1に記載の撮影システム。 The display control unit
2. The photographing system according to claim 1, wherein the operation screens displayed on the touch panel display include a photographing standby screen, a photographing in progress screen, and a photographing end confirmation screen, which are sequentially displayed in response to a user's instruction.
前記カメラの制御条件が異なる複数の撮影モードのいずれかをユーザが選択する操作部を含む前記撮影待機画面を表示させることを特徴とする請求項2に記載の撮影システム。 The display control unit
3. The photographing system according to claim 2, wherein the photographing standby screen includes an operation section for allowing a user to select one of a plurality of photographing modes having different control conditions for the camera.
前記カメラによる撮影画像、および前記撮影装置が移動した経路を表す撮影経路画像のうち、いずれか一方の画像を拡大して表示する第1の画像表示枠と、いずれか他方の画像を縮小して表示する第2の画像表示枠と、前記第1の画像表示枠および前記第2の画像表示枠に表示させる画像を切り替える操作部とを含む前記撮影中画面を表示させることを特徴とする請求項2に記載の撮影システム。 The display control unit
The photographing system according to claim 2, characterized in that the photographing-in-progress screen includes a first image display frame that enlarges and displays either the image photographed by the camera or a photographing path image representing the path traveled by the photographing device, a second image display frame that reduces and displays the other image, and an operation unit that switches the images displayed in the first image display frame and the second image display frame.
撮影終了時に、撮影データの保存および前記撮影待機画面への復帰をユーザに通知すると共に、ユーザが確認したことを入力する操作部を含む前記撮影終了確認画面を表示させることを特徴とする請求項2に記載の撮影システム。 The display control unit
The photography system according to claim 2, characterized in that, when photography is completed , the user is notified that the photography data has been saved and that the photography standby screen has been returned to, and the photography completion confirmation screen is displayed, which includes an operation unit for the user to input confirmation.
ユーザが前記センサ部を動かす速度を計測して、その速度が適切である否かを可視化した画像を含む前記撮影中画面を表示させることを特徴とする請求項2に記載の撮影システム。 The display control unit
3. The photographing system according to claim 2, wherein the speed at which the user moves the sensor unit is measured and the screen during photographing is displayed including an image that visualizes whether the speed is appropriate.
撮影開始時に、所定の撮影可能時間を含む前記撮影中画面を表示させ、
撮影中に、撮影開始からの経過時間を前記撮影可能時間から差し引いた撮影残り時間が所定値以下になったタイミングで、前記撮影残り時間を含む前記撮影中画面を表示させることを特徴とする請求項2に記載の撮影システム。 The display control unit
When starting shooting, the shooting screen including a predetermined available shooting time is displayed;
3. The photographing system according to claim 2, wherein the photographing-in-progress screen including the remaining photographing time is displayed when the remaining photographing time, which is calculated by subtracting the elapsed time from the start of photographing from the available photographing time, becomes equal to or less than a predetermined value during photographing.
トラッキング処理で前記撮影装置の現在位置を見失う自己位置ロストを検知すると、その自己位置ロストの発生をユーザに通知すると共に、最終位置取得地点をユーザに提示して、最終位置取得地点に戻るようにユーザを促す画面を前記タッチパネルディスプレイに表示させることを特徴とする請求項1に記載の撮影システム。 The display control unit
The photographing system according to claim 1, characterized in that when a self-position loss is detected during tracking processing, in which the photographing device loses track of its current position, the system notifies the user of the occurrence of the self-position loss, presents the user with the last position acquisition point, and displays a screen on the touch panel display prompting the user to return to the last position acquisition point.
前記カメラおよび前記タッチパネルディスプレイと前記制御装置との間の通信経路上の接続不良を検知し、その接続不良の発生をユーザに通知する画面を前記タッチパネルディスプレイに表示させることを特徴とする請求項1に記載の撮影システム。 The display control unit
The photographing system according to claim 1, characterized in that a connection failure on the communication path between the camera and the touch panel display and the control device is detected, and a screen notifying the user of the occurrence of the connection failure is displayed on the touch panel display.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023220348A JP7720535B2 (en) | 2023-12-27 | 2023-12-27 | Photographing system, photographing device, and photographing control method |
| PCT/JP2024/045865 WO2025143003A1 (en) | 2023-12-27 | 2024-12-25 | Imaging system, imaging device, and imaging control method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023220348A JP7720535B2 (en) | 2023-12-27 | 2023-12-27 | Photographing system, photographing device, and photographing control method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2025103174A JP2025103174A (en) | 2025-07-09 |
| JP7720535B2 true JP7720535B2 (en) | 2025-08-08 |
Family
ID=96306020
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023220348A Active JP7720535B2 (en) | 2023-12-27 | 2023-12-27 | Photographing system, photographing device, and photographing control method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7720535B2 (en) |
Citations (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013145291A (en) | 2012-01-13 | 2013-07-25 | Nikon Corp | Imaging apparatus |
| US20160005229A1 (en) | 2014-07-01 | 2016-01-07 | Samsung Electronics Co., Ltd. | Electronic device for providing map information |
| WO2017122278A1 (en) | 2016-01-12 | 2017-07-20 | 楽天株式会社 | Information providing system, information providing method, and program |
| JP2017151026A (en) | 2016-02-26 | 2017-08-31 | 東急建設株式会社 | Three-dimensional information acquisition apparatus, three-dimensional information acquisition method, and program |
| JP2018136205A (en) | 2017-02-22 | 2018-08-30 | 株式会社トプコン | Control device, optical device, control method, unmanned aircraft tracking system, and program |
| WO2018185972A1 (en) | 2017-04-03 | 2018-10-11 | 三菱電機株式会社 | Map data generation device and method |
| JP2018191135A (en) | 2017-05-02 | 2018-11-29 | キヤノン株式会社 | Imaging apparatus, control method therefor, and program |
| JP2019016089A (en) | 2017-07-05 | 2019-01-31 | カシオ計算機株式会社 | Autonomous moving device, autonomous moving method, and program |
| JP2019174227A (en) | 2018-03-28 | 2019-10-10 | 株式会社トプコン | Surveying instrument remote operation system |
| WO2020225979A1 (en) | 2019-05-09 | 2020-11-12 | ソニー株式会社 | Information processing device, information processing method, program, and information processing system |
| JP2021150784A (en) | 2020-03-18 | 2021-09-27 | キヤノン株式会社 | Electronic device and control method of the same |
| JP2022027295A (en) | 2020-07-31 | 2022-02-10 | 株式会社Zmp | Map data creation system |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002074347A (en) * | 2000-08-31 | 2002-03-15 | Minolta Co Ltd | Information aquiring system |
-
2023
- 2023-12-27 JP JP2023220348A patent/JP7720535B2/en active Active
Patent Citations (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013145291A (en) | 2012-01-13 | 2013-07-25 | Nikon Corp | Imaging apparatus |
| US20160005229A1 (en) | 2014-07-01 | 2016-01-07 | Samsung Electronics Co., Ltd. | Electronic device for providing map information |
| WO2017122278A1 (en) | 2016-01-12 | 2017-07-20 | 楽天株式会社 | Information providing system, information providing method, and program |
| JP2017151026A (en) | 2016-02-26 | 2017-08-31 | 東急建設株式会社 | Three-dimensional information acquisition apparatus, three-dimensional information acquisition method, and program |
| JP2018136205A (en) | 2017-02-22 | 2018-08-30 | 株式会社トプコン | Control device, optical device, control method, unmanned aircraft tracking system, and program |
| WO2018185972A1 (en) | 2017-04-03 | 2018-10-11 | 三菱電機株式会社 | Map data generation device and method |
| JP2018191135A (en) | 2017-05-02 | 2018-11-29 | キヤノン株式会社 | Imaging apparatus, control method therefor, and program |
| JP2019016089A (en) | 2017-07-05 | 2019-01-31 | カシオ計算機株式会社 | Autonomous moving device, autonomous moving method, and program |
| JP2019174227A (en) | 2018-03-28 | 2019-10-10 | 株式会社トプコン | Surveying instrument remote operation system |
| WO2020225979A1 (en) | 2019-05-09 | 2020-11-12 | ソニー株式会社 | Information processing device, information processing method, program, and information processing system |
| JP2021150784A (en) | 2020-03-18 | 2021-09-27 | キヤノン株式会社 | Electronic device and control method of the same |
| JP2022027295A (en) | 2020-07-31 | 2022-02-10 | 株式会社Zmp | Map data creation system |
Non-Patent Citations (2)
| Title |
|---|
| POP 3D SCANNER ユーザーマニュアル V3.0,中国,Revopoint,2022年10月,第1-22ページ,https://www.revopoint3d.com/ |
| 取扱説明書(基本編)デジタルハイビジョンビデオカメラ HC-W570M,日本,パナソニック株式会社,2015年01月23日,p.29,https://panasonic.jp/dvc/c-db/products/HC-W570M.html |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2025103174A (en) | 2025-07-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5659304B2 (en) | Image generating apparatus and image generating method | |
| JP5659305B2 (en) | Image generating apparatus and image generating method | |
| JP5769813B2 (en) | Image generating apparatus and image generating method | |
| JP5865388B2 (en) | Image generating apparatus and image generating method | |
| JP6366395B2 (en) | Zoom control device, imaging device, control method for zoom control device, control program for subject detection device, and storage medium | |
| US20170111574A1 (en) | Imaging apparatus and imaging method | |
| WO2017015959A1 (en) | Method, control device and control system for controlling mobile device to photograph | |
| CN110786005A (en) | Control method and control device for time-lapse photography, imaging system and storage medium | |
| WO2018191969A1 (en) | Camera mount control method and device | |
| US20220116543A1 (en) | Following shoot method, gimbal control method, photographing apparatus, handheld gimbal and photographing system | |
| JP7720535B2 (en) | Photographing system, photographing device, and photographing control method | |
| KR101600699B1 (en) | Flight recording system and operating method thereof | |
| JP2003348385A (en) | Camera system for calligraphic works and paintings and presentation method using the same | |
| US20220091487A1 (en) | Shooting control method and shooting control device | |
| WO2023035165A1 (en) | Photographing method, photographing system, and storage medium | |
| WO2025143003A1 (en) | Imaging system, imaging device, and imaging control method | |
| JP2025103172A (en) | Imaging equipment | |
| WO2022041013A1 (en) | Control method, handheld gimbal, system, and computer readable storage medium | |
| JP5316083B2 (en) | camera | |
| JP2020119335A (en) | Program, camera work data generation method, and electronic device | |
| KR101263881B1 (en) | System for controlling unmanned broadcasting | |
| JP2019129463A (en) | Imaging device | |
| JP2017227608A (en) | Solid data creation device and imaging device | |
| JP7138472B2 (en) | IMAGING SYSTEM AND CONTROL METHOD THEREOF, IMAGING DEVICE, PROGRAM, STORAGE MEDIUM | |
| JP6836306B2 (en) | Imaging control device, its control method, program and recording medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20231228 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240917 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250204 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20250402 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250530 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250617 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250714 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7720535 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |