JP7722751B2 - Real-time communication support system and method, mobile terminal, server, and program - Google Patents
Real-time communication support system and method, mobile terminal, server, and programInfo
- Publication number
- JP7722751B2 JP7722751B2 JP2024511807A JP2024511807A JP7722751B2 JP 7722751 B2 JP7722751 B2 JP 7722751B2 JP 2024511807 A JP2024511807 A JP 2024511807A JP 2024511807 A JP2024511807 A JP 2024511807A JP 7722751 B2 JP7722751 B2 JP 7722751B2
- Authority
- JP
- Japan
- Prior art keywords
- point cloud
- cloud data
- mesh screen
- data
- mesh
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Description
本開示は、リアルタイムコミュニケーション支援システム、リアルタイムコミュニケーション支援方法、携帯端末、サーバ及びプログラムに関する。 The present disclosure relates to a real-time communication support system, a real-time communication support method, a mobile terminal, a server, and a program .
近年、LiDAR(Light Detection And Ranging)及びToF(Time of Flight)カメラ等の3Dセンサ(三次元センサ)を活用したインフラ及び設備の点検、監視、保守、及び運用システムが提案されている。3Dセンサで取得した3D点群データ(三次元点群データ)は疎な点の集合であり、それだけを見てもどの3D点群がどの構造物(建物及び設備)に相当するのか分かりにくい。また、構造型データである3D点群データは、通常の画像データと異なりデータ容量が大きいためリアルタイムでその3D点群データで表現する現場等の状況を共有することが困難である。In recent years, systems have been proposed for inspecting, monitoring, maintaining, and operating infrastructure and equipment that utilize 3D sensors such as LiDAR (Light Detection and Ranging) and ToF (Time of Flight) cameras. The 3D point cloud data acquired by 3D sensors is a sparse collection of points, and simply looking at it makes it difficult to determine which 3D point cloud corresponds to which structure (building or equipment). Furthermore, unlike regular image data, 3D point cloud data is structural data, so its large data volume makes it difficult to share the situation at a site, etc., represented by the 3D point cloud data, in real time.
特許文献1では、距離センサにより対象物を含む所定領域内の各点までの距離計測を行うことが開示されている。特許文献1は、三次元物体認識手段により、これら各点の計測データをメッシュデータ化し、このメッシュデータのグルーピングを行って複数のメッシュグループとすることが開示されている。また、特許文献1は、各メッシュグループの法線ベクトルに垂直な投影平面を作成し、各メッシュグループを対応する投影平面に投影した投影データを求めることが開示されている。さらに、特許文献1は、投影データの輪郭データを抽出して、輪郭データと対象物の二次元形状データと比較して、対象物の位置及び姿勢を認識することが開示されている。 Patent Document 1 discloses using a distance sensor to measure the distance to each point within a predetermined area that includes an object. Patent Document 1 also discloses using a three-dimensional object recognition means to convert the measurement data for each point into mesh data, and grouping this mesh data into multiple mesh groups. Patent Document 1 also discloses creating a projection plane perpendicular to the normal vector of each mesh group, and obtaining projection data by projecting each mesh group onto the corresponding projection plane. Patent Document 1 also discloses extracting contour data from the projection data and comparing the contour data with two-dimensional shape data of the object to recognize the position and orientation of the object.
3D点群データをメッシュ化、CAD(Computer Aided Design)データ化、またはポリゴン化等すると、構造物はオブジェクトとして表現されデータ容量も小さくなり、描画及びインタラクションにかかる処理速度を高速にできる。しかしながら、メッシュ化されたオブジェクトは、3D点群そのものよりも精度が落ちてしまうため、対象の詳細を高精度で測定する用途に適していない。 When 3D point cloud data is meshed, converted into CAD (Computer Aided Design) data, or polygonized, the structure is represented as an object, the data volume is reduced, and processing speeds for drawing and interaction can be increased. However, meshed objects have lower accuracy than the 3D point cloud itself, making them unsuitable for measuring the details of an object with high precision.
そこで、本開示の目的は、詳細な3D点群データと容量の小さいメッシュデータを同時に表示するリアルタイムコミュニケーション支援システム、リアルタイムコミュニケーション支援方法、携帯端末、サーバ及びプログラムを提供することである。 Therefore, an object of the present disclosure is to provide a real-time communication support system, a real-time communication support method, a mobile terminal, a server, and a program that simultaneously display detailed 3D point cloud data and small-capacity mesh data.
本開示のリアルタイムコミュニケーション支援システムは、
対象を撮影する手段と、
撮影された前記対象から3D点群データを取得する手段と、
対象以外をメッシュ化した風景のメッシュ画面を取得する手段と、
前記対象の前記3D点群データと前記風景の前記メッシュ画面とを保存する手段と、
前記対象の前記3D点群データと前記風景の前記メッシュ画面とを同時に表示する手段と、を備えるリアルタイムコミュニケーション支援システムである。
The real-time communication support system of the present disclosure includes:
a means for photographing the subject;
means for acquiring 3D point cloud data from the photographed object;
A means for obtaining a mesh screen of a landscape in which everything other than the target is meshed;
means for storing the 3D point cloud data of the object and the mesh view of the scene;
and means for simultaneously displaying the 3D point cloud data of the object and the mesh screen of the scenery.
また、本開示のリアルタイムコミュニケーション支援システムは、
対象を含めた風景を撮影する手段と、
撮影された前記風景から前記対象を決定する手段と、
撮影された前記風景から3D点群データを取得する手段と、
決定した対象以外の前記3D点群データをメッシュ化して前記風景のメッシュ画面を作成する手段と、
前記対象の前記3D点群データと前記風景の前記メッシュ画面とを保存する手段と、
前記対象の前記3D点群データと前記風景の前記メッシュ画面とを同時に表示する手段と、を備えるリアルタイムコミュニケーション支援システムである。
In addition, the real-time communication support system of the present disclosure includes:
A means of photographing the landscape, including the subject,
means for determining the object from the photographed scene;
means for acquiring 3D point cloud data from the photographed scene;
a means for generating a mesh screen of the scenery by meshing the 3D point cloud data other than the determined object;
means for storing the 3D point cloud data of the object and the mesh view of the scene;
and means for simultaneously displaying the 3D point cloud data of the object and the mesh screen of the scenery.
また、本開示の携帯端末は、
対象を撮影する手段と、前記対象の3D点群データと対象以外をメッシュ化した風景のメッシュ画面とを同時に表示する手段と、を備える携帯端末である。
In addition, the mobile terminal of the present disclosure includes:
The mobile terminal includes a means for photographing an object and a means for simultaneously displaying 3D point cloud data of the object and a mesh screen of a landscape in which everything other than the object has been meshed.
また、本開示のサーバは、
撮影された対象から3D点群データを取得する手段と、対象以外をメッシュ化した風景のメッシュ画面を取得する手段と、前記対象の前記3D点群データと前記風景の前記メッシュ画面とを保存する手段と、を備えるサーバである。
In addition, the server of the present disclosure
The server comprises a means for acquiring 3D point cloud data from a photographed object, a means for acquiring a mesh screen of a landscape in which everything other than the object has been meshed, and a means for saving the 3D point cloud data of the object and the mesh screen of the landscape.
また、本開示のリアルタイムコミュニケーション支援方法は、
対象を撮影するステップと、
撮影された前記対象から3D点群データを取得するステップと、
対象以外をメッシュ化した風景のメッシュ画面を取得するステップと、
前記対象の前記3D点群データと前記風景の前記メッシュ画面とを保存するステップと、
前記対象の前記3D点群データと前記風景の前記メッシュ画面とを同時に表示するステップと、を備えるリアルタイムコミュニケーション支援方法である。
Further, the real-time communication support method of the present disclosure includes:
photographing an object;
acquiring 3D point cloud data from the photographed object;
A step of obtaining a mesh screen of a landscape in which everything other than the target is meshed;
saving the 3D point cloud data of the object and the mesh view of the scene;
and simultaneously displaying the 3D point cloud data of the object and the mesh screen of the scenery.
また、本開示のプログラムは、
対象を撮影するステップと、前記対象の3D点群データと対象以外をメッシュ化した風景のメッシュ画面とを同時に表示するステップと、を携帯端末に実行させるプログラムである。
In addition, the program of the present disclosure
The program causes a mobile terminal to execute the steps of photographing an object and simultaneously displaying 3D point cloud data of the object and a mesh screen of a landscape in which everything other than the object has been meshed.
本開示により、詳細な3D点群データと容量の小さいメッシュデータを同時に表示するリアルタイムコミュニケーション支援システムを提供することができる。 This disclosure makes it possible to provide a real-time communication support system that simultaneously displays detailed 3D point cloud data and small-volume mesh data.
実施の形態
以下、図面を参照して本発明の実施の形態について説明する。しかしながら、請求の範囲にかかる発明を以下の実施の形態に限定するものではない。また、実施の形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
Embodiments Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the invention according to the claims is not limited to the following embodiments. Furthermore, not all of the configurations described in the embodiments are necessarily essential as means for solving the problems. For clarity of explanation, the following description and drawings have been omitted and simplified as appropriate. In each drawing, the same elements are given the same reference numerals, and repeated explanations are omitted as necessary.
(本実施の形態の概要とメッシュ化の手法)
図1は、実施の形態にかかるインフラ点検等における離隔計測を示す図である。図1を参照しながら、本実施の形態の概要を電力会社及び通信会社におけるインフラ設備の保守、運用、管理、点検及び監視を例に説明する。
(Outline of the present embodiment and meshing method)
Fig. 1 is a diagram showing remote measurement in infrastructure inspection etc. according to an embodiment. With reference to Fig. 1, an outline of this embodiment will be described using as an example the maintenance, operation, management, inspection and monitoring of infrastructure facilities in electric power companies and telecommunications companies.
図1に示すように、3Dセンサで電柱の大きさ、電線の長さ、または電柱及び電線と建物間の離隔距離を計測する際、3D点群データは高所の作業員が持つタブレット等の計測機器でのみ確認できる。そのため、例えば遠方の事業所等、現場の測定個所ではない場所にいる監督者は3D点群データを確認できない。3D点群データはデータ容量が大きく処理負荷が高いため、3D点群データを他の作業員の端末に転送し、リアルタイムで表示及び共有することが困難である。また、他の作業員は、表示が全て3D点群データであると現場の状況を理解しにくい。As shown in Figure 1, when a 3D sensor is used to measure the size of utility poles, the length of power lines, or the distance between utility poles and power lines and buildings, the 3D point cloud data can only be viewed on measuring devices such as tablets held by workers at high altitudes. As a result, supervisors who are not at the on-site measurement location, such as at a remote business office, cannot view the 3D point cloud data. Because 3D point cloud data has a large data volume and requires a high processing load, it is difficult to transfer the 3D point cloud data to other workers' devices and display and share it in real time. Furthermore, it is difficult for other workers to understand the situation on-site if the display is entirely 3D point cloud data.
そこで、対象以外をメッシュ化し負荷を低減させると、計測結果及びそれに対するコメントをリアルタイムに共有でき、現場の状況が理解しやすくなる。図2は、実施の形態にかかる第1のメッシュ化の手法を示す図である。図2に示すように、対象以外の建物メッシュを予め用意しておいたものを取得し、このメッシュと撮影した3D点群を重ねて表示できる。予め用意する建物メッシュは、PLATEAUといった都市データのような外部データを利用してもよい。Therefore, by meshing non-target areas to reduce the load, measurement results and comments on them can be shared in real time, making it easier to understand the situation on site. Figure 2 is a diagram showing the first meshing method according to an embodiment. As shown in Figure 2, a pre-prepared mesh of buildings other than the target area can be obtained, and this mesh can be overlaid on the captured 3D point cloud for display. The pre-prepared building mesh may use external data, such as city data from PLATEAU.
図3は、実施の形態にかかる第2のメッシュ化の手法を示す図である。図3に示すように、対象を含めた風景の3D点群を撮影し、対象以外の風景をメッシュ化してメッシュと3D点群を重ねて表示する。このようにすることで、結果をデジタル情報で記録する及びその場で情報を付加するといった加工及び応用が容易になる。 Figure 3 is a diagram showing a second meshing technique according to an embodiment. As shown in Figure 3, a 3D point cloud of a landscape including a target is photographed, and the landscape other than the target is meshed, and the mesh and the 3D point cloud are displayed superimposed. This makes it easy to process and apply the results, such as recording them as digital information and adding information on the spot.
(実施の形態にかかるシステムの構成)
図4は、実施の形態にかかるシステムの構成を示す図である。図4を参照しながら、本実施の形態にかかるシステムの構成を説明する。システムは、サーバ(クラウド)100と、複数の携帯端末200と、を備える。
(Configuration of the system according to the embodiment)
Fig. 4 is a diagram showing the configuration of a system according to an embodiment. The configuration of the system according to the embodiment will be described with reference to Fig. 4. The system includes a server (cloud) 100 and a plurality of mobile terminals 200.
サーバ(クラウド)100は、コンピュータサーバまたはクラウドなどである。サーバ(クラウド)100は、複数の携帯端末200と、有線LAN(Local Area Network)、無線LAN、インターネット回線、または携帯電話回線などを介して接続する。 The server (cloud) 100 is a computer server or a cloud, etc. The server (cloud) 100 is connected to multiple mobile terminals 200 via a wired LAN (Local Area Network), a wireless LAN, an Internet line, a mobile phone line, etc.
携帯端末200は、パーソナルコンピュータ、タブレットまたはスマートフォンである。また、携帯端末200は、VR(Virtual Reality)(仮想現実)、AR(Augmented Reality)(拡張現実)、またはMR(Mixed Reality)(複合現実)を実現する眼鏡型のデバイスであってもよい。また、携帯端末200は、3Dディスプレイであってもよい。携帯端末200は、利用者が携帯してもよい。また、携帯端末200は、現場に存在し、利用者との情報をやりとりするシステムでもよい。例えば携帯端末200は、プロジェクタで情報を利用者に提示し、センサまたは音声で利用者から情報を取得するシステムである。携帯端末200は、3Dセンサで撮影データ300を取得し、サーバ(クラウド)100を通して他の携帯端末200とリアルタイムにデータを送受信する。携帯端末200は、監督者の端末のように、3Dセンサを用いて撮影データ300を取得せず、サーバ(クラウド)100からデータ取得のみしてもよい。 The mobile terminal 200 is a personal computer, tablet, or smartphone. The mobile terminal 200 may also be a glasses-type device that realizes VR (Virtual Reality), AR (Augmented Reality), or MR (Mixed Reality). The mobile terminal 200 may also be a 3D display. The mobile terminal 200 may be carried by a user. The mobile terminal 200 may also be a system that exists on-site and exchanges information with the user. For example, the mobile terminal 200 is a system that presents information to the user using a projector and acquires information from the user using a sensor or voice. The mobile terminal 200 acquires image data 300 using a 3D sensor and transmits and receives data in real time with other mobile terminals 200 via the server (cloud) 100. The mobile terminal 200 may only acquire data from the server (cloud) 100, like a supervisor's terminal, without acquiring image data 300 using a 3D sensor.
(実施の形態にかかる携帯端末の説明)
図5は、実施の形態にかかる携帯端末の構成を示す図である。図5を参照しながら、実施の形態にかかる携帯端末の構成を説明する。携帯端末200は、データ収集部210と、情報表示部211と、情報付与部212と、データ送信部213と、を備える。
(Description of a mobile terminal according to an embodiment)
5 is a diagram illustrating a configuration of a mobile terminal according to an embodiment. The configuration of the mobile terminal according to the embodiment will be described with reference to FIG. 5. The mobile terminal 200 includes a data collection unit 210, an information display unit 211, an information assignment unit 212, and a data transmission unit 213.
データ収集部210は、LiDAR、ToFカメラもしくはステレオセンサなどの3Dセンサ、RGBカメラ、またはその他センサなどで取得した撮影データ300及びサーバ(クラウド)100に保存されたデータを取得する機能を有する部分である。3Dセンサは、撮影者が移動しながら、または3Dセンサを動かしながら撮影してもよい。また、3Dセンサは、複数利用してもよい。 The data collection unit 210 is a part that has the function of acquiring shooting data 300 acquired by 3D sensors such as LiDAR, ToF cameras, or stereo sensors, RGB cameras, or other sensors, as well as data stored on the server (cloud) 100. The 3D sensor may capture images while the photographer is moving or while the 3D sensor is moving. Multiple 3D sensors may also be used.
情報表示部211は、例えば液晶表示装置及び有機EL(Electro Luminescence)表示装置などの表示装置である。情報表示部211は、データ収集部に接続され、データ収集部210で取得した情報を表示する機能を有する部分である。情報表示部211は、3D点群データとメッシュ化されたメッシュ画面データを表示する。情報表示部211は、仮想空間で表現してもよく、利用者のアバタでわかりやすく表示してもよいが表現方法はこれらに限られない。また、情報表示部211は、3D点群データとメッシュ化されたメッシュ画面データを表示するだけでなく、それらを重畳(オーバレイ)して見やすくしてもよい。また、情報表示部211は、3D点群データとメッシュ化されたメッシュ画面データを切り替えてもよく、重なり具合を調整してもよい。また、情報表示部211は、3D点群データとメッシュ化されたデータの表示の取捨選択を行ってもよい。 The information display unit 211 is a display device such as a liquid crystal display device or an organic EL (Electro Luminescence) display device. The information display unit 211 is connected to the data collection unit and has the function of displaying information acquired by the data collection unit 210. The information display unit 211 displays 3D point cloud data and meshed mesh screen data. The information display unit 211 may be expressed in a virtual space or may be displayed in an easy-to-understand manner using a user's avatar, but the expression method is not limited to these. Furthermore, the information display unit 211 may not only display the 3D point cloud data and meshed mesh screen data, but may also overlay them to make them easier to see. Furthermore, the information display unit 211 may switch between the 3D point cloud data and the meshed mesh screen data and adjust the degree of overlap. Furthermore, the information display unit 211 may select whether to display the 3D point cloud data or the meshed data.
情報付与部212は、情報表示部211に接続され、情報表示部211に表示されたデータに情報を付与する機能を有する部分である。情報付与部212は、データ収集部210で取得したデータの更新及び編集をしてもよい。また、情報付与部212は、携帯端末200の他の機能(カメラ及びGPS(Global Positioning System)など)からの情報生成及び利用者による独自の情報生成を行う。具体的に、情報付与部212は、撮影された場所の緯度、経度などの位置情報、撮影された方向、3D点群表示の対象となる物体を識別する情報などの情報を付与する。また、情報付与部212は、対象に関するコメントなどの情報も付与する。例えば情報付与部212は、情報表示部211に設置されたタッチセンサ、タッチペンなどと協働する。 The information assigning unit 212 is connected to the information display unit 211 and has the function of assigning information to data displayed on the information display unit 211. The information assigning unit 212 may update and edit data acquired by the data collection unit 210. The information assigning unit 212 also generates information from other functions of the mobile terminal 200 (such as the camera and GPS (Global Positioning System)) and generates original information by the user. Specifically, the information assigning unit 212 assigns information such as location information such as the latitude and longitude of the location where the image was taken, the direction in which the image was taken, and information identifying the object to be displayed as a 3D point cloud. The information assigning unit 212 also assigns information such as comments about the object. For example, the information assigning unit 212 works in conjunction with a touch sensor, a touch pen, or the like installed on the information display unit 211.
データ送信部213は、情報付与部212に接続され、情報付与部212で与えられた情報をサーバ(クラウド)100に送信する機能を有する部分である。上述のように、データ送信部213は、無線LAN、有線LAN、インターネット回線、または携帯電話回線などと接続する。 The data transmission unit 213 is connected to the information providing unit 212 and has the function of transmitting the information provided by the information providing unit 212 to the server (cloud) 100. As described above, the data transmission unit 213 is connected to a wireless LAN, a wired LAN, an Internet line, a mobile phone line, or the like.
(実施の形態にかかるサーバ(クラウド)の説明)
図6は、実施の形態にかかるサーバ(クラウド)の構成を示す図である。図6を参照しながら、実施の形態にかかるサーバ(クラウド)の構成を説明する。サーバ(クラウド)100は、位置情報取得部110と、データ収集部111と、情報管理部112と、データ送信部115と、を備える。情報管理部112は、メッシュ処理部113と、情報保有部114と、を備える。
(Description of Server (Cloud) According to the Embodiment)
Fig. 6 is a diagram illustrating a configuration of a server (cloud) according to an embodiment. The configuration of the server (cloud) according to the embodiment will be described with reference to Fig. 6. The server (cloud) 100 includes a location information acquisition unit 110, a data collection unit 111, an information management unit 112, and a data transmission unit 115. The information management unit 112 includes a mesh processing unit 113 and an information storage unit 114.
位置情報取得部110は、端末利用者及び撮影対象等の位置情報を取得する機能を有する部分である。データ収集部111は、携帯端末200のデータ送信部213に接続され、携帯端末200から送信されたデータを収集する機能を有する部分である。位置情報取得部110は、データ収集部111に接続され、携帯端末200から端末利用者及び撮影対象等の位置情報を取得する。データ収集部111は、外部システムからメッシュデータを取得する、または携帯端末200から3D点群データを取得する。 The location information acquisition unit 110 is a part that has the function of acquiring location information of the terminal user, the subject to be photographed, etc. The data collection unit 111 is a part that is connected to the data transmission unit 213 of the mobile terminal 200 and has the function of collecting data transmitted from the mobile terminal 200. The location information acquisition unit 110 is connected to the data collection unit 111 and acquires location information of the terminal user, the subject to be photographed, etc. from the mobile terminal 200. The data collection unit 111 acquires mesh data from an external system or acquires 3D point cloud data from the mobile terminal 200.
情報管理部112は、データ収集部111に接続され、メッシュデータまたは3D点群データを受信する。情報管理部112のメッシュ処理部113は、メッシュデータを変換する、または対象以外の点群をメッシュ化する機能を有する部分である。メッシュ処理部は外部から取得したメッシュデータを本システムに適用できるように処理する。またはメッシュ処理部113は、3D点群のメッシュ化、ポリゴン化、またはCADデータへの変換を行う。メッシュ処理部113は、外部システムと連携し、メッシュ化処理を行ってもよい。ここで外部システムは、CADシステム、出来型図管理システム、図面管理システム、GIS(Geographic Information System)などである。メッシュ化処理は、対象及び対象以外の区別によるメッシュ化の対象は限定しない。また、メッシュ化処理は、処理能力、点群数、密度、精度及び誤差などによりメッシュ化の有無及びメッシュ化の粒度を決めてもよい。メッシュ化の粒度とは、ポリゴン数及び演算数の精度を指す。また、メッシュ化処理は、人からの指示または外部データとの連携によりメッシュ化の対象及びメッシュ化の粒度を決めてもよい。The information management unit 112 is connected to the data collection unit 111 and receives mesh data or 3D point cloud data. The mesh processing unit 113 of the information management unit 112 has the function of converting mesh data or meshing point clouds other than the target. The mesh processing unit processes mesh data acquired from an external source so that it can be applied to this system. Alternatively, the mesh processing unit 113 meshes 3D point clouds, converts them into polygons, or converts them into CAD data. The mesh processing unit 113 may also perform meshing processing in conjunction with an external system. Here, external systems include CAD systems, as-built drawing management systems, drawing management systems, and GIS (Geographic Information Systems). The meshing process does not limit the objects to be meshed by distinguishing between targets and non-targets. Furthermore, the meshing process may determine whether to mesh and the granularity of the meshing based on processing power, number of point clouds, density, accuracy, error, etc. The granularity of the meshing refers to the number of polygons and the accuracy of the number of operations. In addition, the meshing process may determine the target to be meshed and the granularity of the meshing based on instructions from a person or in cooperation with external data.
情報管理部112の情報保有部114は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)である。また、情報管理部112の情報保有部114は、CD-R、CD-R/Wである。また、情報管理部112の情報保有部114は、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))である。情報管理部112の情報保有部114は、対象の3D点群データ及びメッシュ処理部113でメッシュ化された対象以外の風景のデータを保存する機能を有する部分である。情報保有部114は、当該データの時間的な履歴を保持し、履歴及び時間変化分に基づき、メッシュ化処理を行ってもよい。また、情報保有部114は、メッシュ化されたデータ及びメッシュ化対象外となったデータを保持しておき、メッシュ化対象の有無の判断に用いてもよい。また、情報保有部114は、当該データを保持しておき、物体検知(対象の検索及びマッチング等)、対象の追跡(トラッキング)に用いてもよい。これらの処理により点群処理を軽量化・簡略化できる。また、携帯端末200が、メッシュ処理部113を備えてもよい。携帯端末200がサーバ(クラウド)100へ3D点群データもしくはメッシュまたはその両方を送信してもよい。 The information storage unit 114 of the information management unit 112 is a magnetic recording medium (e.g., a flexible disk, magnetic tape, or hard disk drive), a magneto-optical recording medium (e.g., a magneto-optical disk), or a CD-ROM (Read Only Memory). The information storage unit 114 of the information management unit 112 is also a CD-R or CD-R/W. The information storage unit 114 of the information management unit 112 is also a semiconductor memory (e.g., a mask ROM, a PROM (Programmable ROM), an EPROM (Erasable PROM), a flash ROM, or a RAM (Random Access Memory)). The information storage unit 114 of the information management unit 112 is a part that has the function of storing 3D point cloud data of the target and data of scenery other than the target that has been meshed by the mesh processing unit 113. The information storage unit 114 may store a temporal history of the data and perform meshing processing based on the history and changes over time. The information storage unit 114 may also store meshed data and data that is not subject to meshing and use the data to determine whether or not a data item is subject to meshing. The information storage unit 114 may also store the data and use the data for object detection (searching and matching for objects, etc.) and object tracking. These processes can reduce the weight and simplify the point cloud processing. The mobile terminal 200 may also include a mesh processing unit 113. The mobile terminal 200 may transmit 3D point cloud data, a mesh, or both to the server (cloud) 100.
データ送信部115は、情報管理部112に接続され及び携帯端末200に接続される。データ送信部115は、情報管理部112に保存された対象の3D点群データ及びメッシュ処理部113でメッシュ化された対象以外の風景のデータを各端末から受けた要求に応じて各携帯端末200に送信する機能を有する部分である。データ送信部115は、無線LAN、有線LAN、インターネット回線、及び携帯電話回線などと接続する。 The data transmission unit 115 is connected to the information management unit 112 and the mobile terminal 200. The data transmission unit 115 has the function of transmitting 3D point cloud data of the object stored in the information management unit 112 and data of scenery other than the object meshed by the mesh processing unit 113 to each mobile terminal 200 in response to a request received from each terminal. The data transmission unit 115 is connected to a wireless LAN, a wired LAN, an Internet line, a mobile phone line, etc.
(実施の形態にかかる携帯端末のフローチャートの説明)
図7は、実施の形態にかかる携帯端末の処理のフローチャートである。図7を参照しながら、本実施の形態にかかる携帯端末のフローチャートを説明する。
(Explanation of Flowchart of Mobile Terminal According to the Embodiment)
7 is a flowchart of the process of the mobile terminal according to the embodiment, which will be described with reference to FIG.
まず、携帯端末200は、3Dセンサ等で対象または対象及び風景を撮影する(ステップA1)。ここで風景とは撮影された全体から対象を切り抜いて除いた部分であり、具体的に、工場または倉庫であり、動物園または牧場であり、工事現場であり、インフラ設備が設置された場所である。また、対象とは、荷物であり、動物であり、工事現場の確認したい部分または建機の操作したい部分であり、電柱及び電線などのインフラ設備である。次に携帯端末200は、データ収集部210で位置情報、撮影場所などのデータを取得する(ステップA2)。次に、携帯端末200は、情報表示部211で情報を表示する(ステップA3)。3Dセンサで取得したデータではなく、サーバ(クラウド)100に保存したデータを表示する場合は、ステップA1はなくてもよい。データ収集部210は、点群処理、メッシュ化処理、または点群処理及びメッシュ化処理ための前処理を行ってもよい。次に携帯端末200は、情報付与部212で必要に応じて撮影された風景から対象を決定し、コメントを付与するなど、情報を付与する(ステップA4)。最後に携帯端末200は、データをサーバ(クラウド)100に送信する(ステップA5)。First, the mobile device 200 captures an image of an object or an object and a landscape using a 3D sensor or the like (Step A1). Here, a landscape refers to the portion of the image captured by cutting out the object, specifically a factory or warehouse, a zoo or ranch, a construction site, or a location where infrastructure is installed. Furthermore, an object refers to luggage, an animal, a portion of a construction site that the user wishes to check or operate construction machinery on, or infrastructure such as utility poles and power lines. Next, the mobile device 200 acquires data such as location information and the location of the image capture using the data collection unit 210 (Step A2). Next, the mobile device 200 displays the information using the information display unit 211 (Step A3). If data stored on the server (cloud) 100 is displayed instead of data acquired using a 3D sensor, Step A1 may be omitted. The data collection unit 210 may perform point cloud processing, meshing, or preprocessing for point cloud processing and meshing. Next, the mobile terminal 200 determines an object from the photographed scenery as needed by the information providing unit 212, and provides information such as providing a comment (step A4). Finally, the mobile terminal 200 transmits the data to the server (cloud) 100 (step A5).
(実施の形態にかかるサーバのフローチャートの説明)
図8は、実施の形態にかかるサーバの処理のフローチャートである。図8を参照しながら、本実施の形態のサーバの処理のフローチャートを説明する。
(Description of Flowchart of Server According to Embodiment)
8 is a flowchart of the processing of the server according to the embodiment, which will be described with reference to FIG.
まず、サーバ(クラウド)100は、位置情報取得部110で端末及び撮影データの位置情報(撮影位置、撮影方向、撮影の設定及び状況及び付加情報)を取得する(ステップB1)。次に、サーバ(クラウド)100は、データ収集部111で、撮影された対象または対象と風景の3D点群データ取得を行う(ステップB2)。このステップB2で撮影したセンサの点群データの結合及び複数センサの合成(レジストレーション)等が行われてもよい。位置情報及び外部データ等を用いた点群データの位置合わせがこのステップB2で行われてもよいし、メッシュ化後に行われてもよい。 First, the server (cloud) 100 acquires location information of the terminal and the shooting data (shooting location, shooting direction, shooting settings and conditions, and additional information) using the location information acquisition unit 110 (step B1). Next, the server (cloud) 100 acquires 3D point cloud data of the photographed object or the object and scenery using the data collection unit 111 (step B2). In this step B2, point cloud data from the sensors photographed may be combined, and multiple sensors may be synthesized (registered). Alignment of the point cloud data using location information and external data may be performed in this step B2, or may be performed after meshing.
次に、サーバ(クラウド)100は、メッシュ処理部113でメッシュ画面を取得する、または決定した対象以外の風景の3D点群データをメッシュ化してメッシュ画面を作成する(ステップB3)。メッシュ化は、サーバ(クラウド)100ではなく現場の携帯端末200上で行ってもよい。3Dメッシュは、3Dセンサで対象を撮影し3D点群データを取得する前に作成されても、3D点群データを撮影した後に作成されてもよい。また作成したメッシュ画面は、外部もしくは情報保有部114で保持しているメッシュ(ポリゴン、CAD情報、モデル等)とマッチングさせ、位置合わせして同定させてもよい。それらを本ステップでは、「メッシュ化する」として扱う。点群処理及びメッシュ化処理は、例えばノイズ除去及び補正などの前処理及び後処理を行ってもよい。Next, the server (cloud) 100 acquires a mesh screen using the mesh processing unit 113, or creates a mesh screen by meshing the 3D point cloud data of the scenery other than the determined target (step B3). Meshing may be performed on the mobile terminal 200 at the site, rather than on the server (cloud) 100. The 3D mesh may be created before capturing an image of the target with a 3D sensor and acquiring the 3D point cloud data, or after capturing the 3D point cloud data. The created mesh screen may also be matched with a mesh (polygon, CAD information, model, etc.) stored externally or in the information storage unit 114, and aligned and identified. In this step, this is treated as "meshing." The point cloud processing and meshing processes may involve pre-processing and post-processing, such as noise removal and correction.
次に、サーバ(クラウド)100は、情報保有部114で必要なまたは全ての処理データを保存する(ステップB4)。例えば、サーバ(クラウド)100は、対象の3D点群データと風景のメッシュ画面とを保存する。必要なまたは全てのデータ更新を行うことで(ステップB5)、リアルタイムな情報が表示される。人からの指示、外部システムとの連携、内部での処理のリアルタイム性及びリソースの担保等を判断して、メッシュの粒度及び精度を調整しリアルタイムな情報が表示される。 Next, the server (cloud) 100 stores all or any necessary processing data in the information storage unit 114 (step B4). For example, the server (cloud) 100 stores the target 3D point cloud data and a mesh screen of the landscape. By updating all or any necessary data (step B5), real-time information is displayed. The mesh granularity and accuracy are adjusted based on human instructions, collaboration with external systems, the real-time nature of internal processing, and resource availability, and real-time information is displayed.
次に、サーバ(クラウド)100は、ステップA4で携帯端末200を用いて付加された情報など、必要に応じて付加情報を付与する(ステップB6)。最後に、サーバは各携帯端末200に対象の3D点群データと風景のメッシュ画面等のデータを送信する(ステップB7)。各携帯端末200に送られた対象の3D点群データと風景のメッシュ画面を同時に情報表示部211が表示する。Next, the server (cloud) 100 adds additional information as needed, such as the information added using the mobile terminal 200 in step A4 (step B6). Finally, the server transmits the target 3D point cloud data and data such as a mesh screen of the landscape to each mobile terminal 200 (step B7). The information display unit 211 simultaneously displays the target 3D point cloud data and mesh screen of the landscape sent to each mobile terminal 200.
本実施の形態により、電柱及び電線の距離を測るために3Dセンサで点群を取得するような場合に、対象以外をメッシュ化し、対象のみを点群にして画像を表示できる。このため、操作画面がわかりやすくなり、データ容量が小さくなり処理負荷を低減させ、画像をリアルタイムに表示でき、他端末と共有できる。 With this embodiment, when acquiring a point cloud using a 3D sensor to measure the distance to utility poles and power lines, the image can be displayed by meshing everything except the target and showing only the target as a point cloud. This makes the operation screen easier to understand, reduces data volume and processing load, and allows images to be displayed in real time and shared with other devices.
(本実施の形態のメッシュ化処理をシミュレーションに適用することの説明)
図9は、実施の形態にかかるメッシュ化処理をシミュレーションに適用することを示す図である。図9を参照しながら、本実施の形態にかかるメッシュ化処理をシミュレーションに適用すること説明する。
(Description of application of meshing processing of this embodiment to simulation)
9 is a diagram showing the application of the meshing process according to the embodiment to a simulation. With reference to FIG. 9, the application of the meshing process according to the embodiment to a simulation will be described.
図9に示すように、点群データをクラスタリング(セグメント分割)した、またはメッシュ化してモデルにしたオブジェクトをシミュレーションに利用する。例えば、電力線または通信線の離隔計測において、撮影した3Dデータが離隔違反している場合、既存の電線の3D点群またはモデルを移動させてみることができる。このようにすることで、離隔違反が解消できる場所を探すことができる。また、離隔違反が解消できる場所を自動で探す機能を提供してもよい。 As shown in Figure 9, point cloud data is clustered (segmented) or meshed into a model object, which is then used in the simulation. For example, when measuring the distance between power lines or communication lines, if the captured 3D data shows a distance violation, the 3D point cloud or model of the existing power lines can be moved. In this way, it is possible to find a location where the distance violation can be resolved. A function can also be provided to automatically find a location where the distance violation can be resolved.
(本実施の形態のメッシュ化処理を物流に適用することの説明)
図10は、実施の形態にかかるメッシュ化処理を物流に適用することを示す図である。図10を参照しながら、本実施の形態にかかるメッシュ化処理を物流に適用することを説明する。
(Description of application of meshing processing of this embodiment to logistics)
10 is a diagram showing the application of the meshing process according to the embodiment to physical distribution. With reference to FIG. 10, the application of the meshing process according to the embodiment to physical distribution will be described.
図10に示すように、本実施の形態にかかるメッシュ化処理は、物流及び倉庫の運用管理に適用できる。例えば、本実施の形態にかかるメッシュ化処理は、工場または倉庫内のベルトコンベアで荷物の大きさを計測するまたは異常をチェックするような場面で用いる。工場または倉庫内の荷物を3Dセンサですべての3D点群データを取得して計測するとデータ容量が大きく処理負荷が高いうえに荷物が動くためリアルタイムで表示できない。ここで、荷物等の対象以外をメッシュ化処理することでデータの容量が小さくなり工場または倉庫内の荷物をリアルタイムに表示し、データを共有できる。例えば、イベントカメラを併用して、動いているものを3D点群で表示し、静止しているものをメッシュで表示してよい。 As shown in Figure 10, the meshing process according to this embodiment can be applied to logistics and warehouse operations management. For example, the meshing process according to this embodiment can be used in situations such as measuring the size of packages on a conveyor belt in a factory or warehouse or checking for abnormalities. If a 3D sensor were used to acquire and measure all 3D point cloud data for packages in a factory or warehouse, the data volume would be large, the processing load would be high, and because the packages move, it would not be possible to display them in real time. However, by meshing objects other than packages, the data volume is reduced, allowing packages in a factory or warehouse to be displayed in real time and the data to be shared. For example, an event camera can be used in combination to display moving objects as a 3D point cloud and stationary objects as a mesh.
(本実施の形態にかかるメッシュ化処理を動物飼育に適用することの説明)
図11は、実施の形態にかかるメッシュ化処理を動物飼育に適用することを示す図である。図11を参照しながら、本実施の形態にかかるメッシュ化処理を動物飼育に適用することを説明する。
(Description of application of meshing processing according to this embodiment to animal breeding)
11 is a diagram showing the application of the meshing process according to the embodiment to animal breeding. With reference to FIG. 11, the application of the meshing process according to the embodiment to animal breeding will be described.
図11に示すように、本実施の形態に係るメッシュ化処理は、動物を飼育し管理または監視する場面に適用できる。動物園または牧場の動物の大きさを計測するために3Dセンサを用いて3D点群データを取得するとデータ容量が大きく、処理負荷が高いうえに動物が動いて動物をリアルタイムに表示できない。ここで、動物等の対象以外である動物園及び牧場をメッシュ化処理することでデータ容量が小さくなり動物園または牧場の動物をリアルタイムに表示し、データを共有できる。例えば、イベントカメラを併用して、動いているものを3点群で表示し、静止しているものをメッシュで表示してもよい。 As shown in Figure 11, the meshing process according to this embodiment can be applied to situations where animals are kept, managed, or monitored. Using a 3D sensor to acquire 3D point cloud data to measure the size of animals at a zoo or farm results in a large data volume, a high processing load, and the animals move, making it impossible to display them in real time. However, by meshing the zoo and farm, which are not the subject of animals, the data volume is reduced, allowing the animals at the zoo or farm to be displayed in real time and the data to be shared. For example, an event camera can be used in combination to display moving objects as a 3-point cloud and stationary objects as a mesh.
(本実施の形態にかかるメッシュ化処理を建機の遠隔操作に適用することの説明)
図12は、実施の形態にかかるメッシュ化処理を建機の遠隔操作に適用することを示す図である。図12を参照しながら、本実施の形態にかかるメッシュ化処理を建機の遠隔操作に適用することを説明する。
(Description of application of meshing processing according to this embodiment to remote operation of construction machinery)
12 is a diagram illustrating the application of the meshing process according to the embodiment to the remote control of a construction machine. The application of the meshing process according to the embodiment to the remote control of a construction machine will be described with reference to FIG.
図12に示すように、本実施の形態にかかるメッシュ化処理を工事現場の建機を遠隔操作する場面に適用できる。遠隔で建機を操作する際に、広大な現場全体を3D点群で表示しようとすると処理負荷が高くなってしまう。ここで工事現場の確認したい部分または建機の操作したい部分のみを3D点群で表示し、その他をメッシュで表示することで全体が把握しやすく、操作したい部分を高精度にリアルタイムで表示ができ、データを共有できる。 As shown in Figure 12, the meshing process of this embodiment can be applied to situations where construction machinery is remotely operated at a construction site. When operating construction machinery remotely, attempting to display the entire vast site as a 3D point cloud results in a high processing load. Here, by displaying only the parts of the construction site that the user wants to check or the parts of the construction machinery that the user wants to operate as a 3D point cloud, and displaying the rest as a mesh, the overall picture is easier to grasp, the parts that the user wants to operate can be displayed with high accuracy in real time, and the data can be shared.
また、上述したサーバ(クラウド)100、携帯端末200における処理の一部又は全部は、コンピュータプログラムとして実現可能である。このようなプログラムは、様々なタイプの非一時的なコンピュータ可読媒体を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 Furthermore, some or all of the processing in the above-mentioned server (cloud) 100 and mobile terminal 200 can be implemented as a computer program. Such programs can be stored and supplied to a computer using various types of non-transitory computer-readable media. Non-transitory computer-readable media include various types of tangible recording media. Examples of non-transitory computer-readable media include magnetic recording media (e.g., flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (e.g., magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R/Ws, and semiconductor memories (e.g., mask ROMs, PROMs (Programmable ROMs), EPROMs (Erasable PROMs), flash ROMs, and RAMs (Random Access Memory)). Furthermore, the programs may be supplied to a computer by various types of temporary computer-readable media. Examples of the temporary computer-readable medium include an electric signal, an optical signal, and an electromagnetic wave. The temporary computer-readable medium can provide the program to the computer via a wired communication path such as an electric wire or an optical fiber, or via a wireless communication path.
図13は、実施の形態にかかるリアルタイムコミュニケーション支援システムのブロック図である。図13を参照して本実施の形態にかかるリアルタイムコミュニケーション支援システムの説明をする。
本実施の形態にかかるリアルタイムコミュニケーション支援システム10は、対象を撮影する手段11と、撮影された対象から3D点群データを取得する手段12と、対象以外をメッシュ化した風景のメッシュ画面を取得する手段13と、対象の3D点群データと風景のメッシュ画面とを保存する手段14と、対象の3D点群データと風景のメッシュ画面とを同時に表示する手段15と、を備える。
13 is a block diagram of a real-time communication support system according to an embodiment of the present invention, which will be described with reference to FIG.
The real-time communication support system 10 according to this embodiment comprises a means 11 for photographing an object, a means 12 for acquiring 3D point cloud data from the photographed object, a means 13 for acquiring a mesh screen of the scenery in which everything other than the object has been meshed, a means 14 for saving the 3D point cloud data of the object and the mesh screen of the scenery, and a means 15 for simultaneously displaying the 3D point cloud data of the object and the mesh screen of the scenery.
本実施の形態により、詳細な3D点群データと容量の小さいメッシュデータを同時に表示するリアルタイムコミュニケーション支援システムを提供することができる。 This embodiment makes it possible to provide a real-time communication support system that simultaneously displays detailed 3D point cloud data and small-volume mesh data.
以上、本発明の実施の形態を説明したが、本発明はその目的と利点を損なうことのない適宜の変形を含み、更に、上記の実施の形態による限定は受けない。 The above describes an embodiment of the present invention, but the present invention includes appropriate modifications that do not impair its objects and advantages, and is not limited to the above embodiment.
上記の実施の形態の一部又は全部は、以下の付記のように記載されうるが、以下には限られない。
(付記1)
対象を撮影する手段と、
撮影された前記対象から3D点群データを取得する手段と、
対象以外をメッシュ化した風景のメッシュ画面を取得する手段と、
前記対象の前記3D点群データと前記風景の前記メッシュ画面とを保存する手段と、
前記対象の前記3D点群データと前記風景の前記メッシュ画面とを同時に表示する手段と、を備えるリアルタイムコミュニケーション支援システム。
(付記2)
前記対象を撮影する手段と、前記対象の前記3D点群データと前記風景の前記メッシュ画面とを同時に表示する手段と、を備える携帯端末と、
前記撮影された前記対象から3D点群データを取得する手段と、前記対象以外をメッシュ化した前記風景の前記メッシュ画面を取得する手段と、前記対象の前記3D点群データと前記風景の前記メッシュ画面とを保存する手段と、を備えるサーバと、を備える、付記1に記載のリアルタイムコミュニケーション支援システム。
(付記3)
対象を含めた風景を撮影する手段と、
撮影された前記風景から前記対象を決定する手段と、
撮影された前記風景から3D点群データを取得する手段と、
決定した対象以外の前記3D点群データをメッシュ化して前記風景のメッシュ画面を作成する手段と、
前記対象の前記3D点群データと前記風景の前記メッシュ画面とを保存する手段と、
前記対象の前記3D点群データと前記風景の前記メッシュ画面とを同時に表示する手段と、を備えるリアルタイムコミュニケーション支援システム。
(付記4)
前記対象を含めた風景を撮影する手段と、前記撮影された前記風景から前記対象を決定する手段と、前記対象の前記3D点群データと前記風景の前記メッシュ画面とを同時に表示する手段と、を備える携帯端末と、
前記撮影された前記風景から3D点群データを取得する手段と、前記決定した対象以外の前記3D点群データをメッシュ化して前記風景の前記メッシュ画面を作成する手段と、前記対象の前記3D点群データと前記風景の前記メッシュ画面とを保存する手段と、を備えるサーバと、を備える、付記3に記載のリアルタイムコミュニケーション支援システム。
(付記5)
前記対象の前記3D点群データを前記風景の前記メッシュ画面に対して移動させるシミュレーションをする手段を備える、付記1乃至4のいずれか1項に記載のリアルタイムコミュニケーション支援システム。
(付記6)
前記風景は工場または倉庫であり、前記対象は荷物である、または、
前記風景は動物園または牧場であり、前記対象は動物である、または、
前記風景は工事現場であり、前記対象は、工事現場の確認したい部分または建機の操作したい部分である、または、
前記風景はインフラ設備が設置された場所であり、前記対象はインフラ設備である、付記1乃至5のいずれか1項に記載のリアルタイムコミュニケーション支援システム。
(付記7)
対象を撮影する手段と、前記対象の3D点群データと対象以外をメッシュ化した風景のメッシュ画面とを同時に表示する手段と、を備える携帯端末。
(付記8)
撮影された対象から3D点群データを取得する手段と、対象以外をメッシュ化した風景のメッシュ画面を取得する手段と、前記対象の前記3D点群データと前記風景の前記メッシュ画面とを保存する手段と、を備えるサーバ。
(付記9)
対象を撮影するステップと、
撮影された前記対象から3D点群データを取得するステップと、
対象以外をメッシュ化した風景のメッシュ画面を取得するステップと、
前記対象の前記3D点群データと前記風景の前記メッシュ画面とを保存するステップと、
前記対象の前記3D点群データと前記風景の前記メッシュ画面とを同時に表示するステップと、を備えるリアルタイムコミュニケーション支援方法。
(付記10)
対象を撮影するステップと、前記対象の3D点群データと対象以外をメッシュ化した風景のメッシュ画面とを同時に表示するステップと、を携帯端末に実行させるプログラムを記録する非一時的なコンピュータ可読媒体。
(付記11)
撮影された対象から3D点群データを取得するステップと、対象以外をメッシュ化した風景のメッシュ画面を取得するステップと、前記対象の前記3D点群データと前記風景の前記メッシュ画面とを保存するステップと、サーバに実行させるプログラムを記録する非一時的なコンピュータ可読媒体。
(付記12)
対象を含めた風景を撮影する手段と、撮影された前記風景から前記対象を決定する手段と、前記対象の3D点群データと前記風景の対象以外のメッシュ画面とを同時に表示する手段と、を備える携帯端末。
(付記13)
撮影された対象を含めた風景から3D点群データを取得する手段と、前記風景の前記3D点群データから対象以外の前記3D点群データをメッシュ化して前記風景のメッシュ画面を作成する手段と、前記対象の前記3D点群データと前記風景の前記メッシュ画面とを保存する手段と、を備えるサーバ。
(付記14)
対象を含めた風景を撮影するステップと、
撮影された前記風景から前記対象を決定するステップと、
撮影された前記風景から3D点群データを取得するステップと、
決定した対象以外の前記3D点群データをメッシュ化して風景のメッシュ画面を作成するステップと、
前記対象の前記3D点群データと前記風景の前記メッシュ画面とを保存するステップと、
前記対象の前記3D点群データと前記風景の前記メッシュ画面とを同時に表示するステップと、を備えるリアルタイムコミュニケーション支援方法。
(付記15)
前記対象の前記3D点群データと前記風景の前記メッシュ画面とを保存するステップの時間的な履歴を保持し、前記履歴の時間変化分に基づき、前記決定した対象以外の前記3D点群データをメッシュ化して風景のメッシュ画面を作成するステップを行う、付記14に記載のリアルタイムコミュニケーション支援方法。
(付記16)
対象を含めた風景を撮影するステップと、撮影された前記風景から前記対象を決定するステップと、前記対象の3D点群データと対象以外の前記風景のメッシュ画面とを同時に表示するステップと、を携帯端末に実行させるプログラムを記録する非一時的なコンピュータ可読媒体。
(付記17)
撮影された対象を含めた風景から3D点群データを取得するステップと、前記風景の前記3D点群データから対象以外の前記3D点群データをメッシュ化して前記風景のメッシュ画面を作成するステップと、前記対象の前記3D点群データと前記風景の前記メッシュ画面とを保存するステップと、をサーバに実行させるプログラムを記録する非一時的なコンピュータ可読媒体。
A part or all of the above-described embodiments can be described as, but not limited to, the following supplementary notes.
(Appendix 1)
a means for photographing the subject;
means for acquiring 3D point cloud data from the photographed object;
A means for obtaining a mesh screen of a landscape in which everything other than the target is meshed;
means for storing the 3D point cloud data of the object and the mesh view of the scene;
and means for simultaneously displaying the 3D point cloud data of the object and the mesh screen of the scenery.
(Appendix 2)
a mobile terminal including a means for photographing the object and a means for simultaneously displaying the 3D point cloud data of the object and the mesh screen of the scenery;
A real-time communication support system as described in Appendix 1, comprising: a server having: means for acquiring 3D point cloud data from the photographed object; means for acquiring a mesh screen of the scenery in which everything other than the object has been meshed; and means for saving the 3D point cloud data of the object and the mesh screen of the scenery.
(Appendix 3)
A means of photographing the landscape, including the subject,
means for determining the object from the photographed scene;
means for acquiring 3D point cloud data from the photographed scene;
a means for generating a mesh screen of the scenery by meshing the 3D point cloud data other than the determined object;
means for storing the 3D point cloud data of the object and the mesh view of the scene;
and means for simultaneously displaying the 3D point cloud data of the object and the mesh screen of the scenery.
(Appendix 4)
a mobile terminal including: a means for photographing a landscape including the object; a means for determining the object from the photographed landscape; and a means for simultaneously displaying the 3D point cloud data of the object and the mesh screen of the landscape;
A real-time communication support system as described in Appendix 3, comprising a server having: means for acquiring 3D point cloud data from the photographed scenery; means for meshing the 3D point cloud data other than the determined object to create the mesh screen of the scenery; and means for saving the 3D point cloud data of the object and the mesh screen of the scenery.
(Appendix 5)
A real-time communication support system according to any one of appendices 1 to 4, comprising means for simulating the movement of the 3D point cloud data of the object relative to the mesh screen of the scenery.
(Appendix 6)
The scene is a factory or warehouse and the object is a package, or
the scene is a zoo or farm and the objects are animals, or
The scene is a construction site, and the object is a part of the construction site that the user wants to check or a part of the construction site that the user wants to operate construction equipment on, or
A real-time communication support system according to any one of appendices 1 to 5, wherein the scenery is a location where infrastructure equipment is installed, and the target is the infrastructure equipment.
(Appendix 7)
A mobile terminal comprising: a means for photographing an object; and a means for simultaneously displaying 3D point cloud data of the object and a mesh screen of a landscape in which everything other than the object has been meshed.
(Appendix 8)
A server comprising: a means for acquiring 3D point cloud data from a photographed object; a means for acquiring a mesh screen of a landscape in which everything other than the object has been meshed; and a means for saving the 3D point cloud data of the object and the mesh screen of the landscape.
(Appendix 9)
photographing an object;
acquiring 3D point cloud data from the photographed object;
A step of obtaining a mesh screen of a landscape in which everything other than the target is meshed;
saving the 3D point cloud data of the object and the mesh view of the scene;
and simultaneously displaying the 3D point cloud data of the object and the mesh screen of the scenery.
(Appendix 10)
A non-transitory computer-readable medium that records a program that causes a mobile terminal to execute the steps of photographing an object and simultaneously displaying 3D point cloud data of the object and a mesh screen of a landscape in which everything other than the object has been meshed.
(Appendix 11)
A non-transitory computer-readable medium that records a program to be executed by a server, including steps of acquiring 3D point cloud data from a photographed object, acquiring a mesh screen of a landscape in which everything other than the object has been meshed, saving the 3D point cloud data of the object and the mesh screen of the landscape.
(Appendix 12)
A mobile terminal comprising: a means for photographing a landscape including an object; a means for determining the object from the photographed landscape; and a means for simultaneously displaying 3D point cloud data of the object and a mesh screen of the landscape other than the object.
(Appendix 13)
A server comprising: a means for acquiring 3D point cloud data from a landscape including a photographed object; a means for meshing the 3D point cloud data of the landscape other than the object to create a mesh screen of the landscape; and a means for saving the 3D point cloud data of the object and the mesh screen of the landscape.
(Appendix 14)
Photographing a landscape including a subject;
determining the object from the captured scene;
acquiring 3D point cloud data from the captured scene;
a step of meshing the 3D point cloud data other than the determined object to create a mesh screen of the scenery;
saving the 3D point cloud data of the object and the mesh view of the scene;
and simultaneously displaying the 3D point cloud data of the object and the mesh screen of the scenery.
(Appendix 15)
A real-time communication support method as described in Appendix 14, which maintains a temporal history of the step of saving the 3D point cloud data of the object and the mesh screen of the scenery, and performs a step of meshing the 3D point cloud data other than the determined object based on the change in the history over time to create a mesh screen of the scenery.
(Appendix 16)
A non-transitory computer-readable medium that records a program that causes a mobile terminal to execute the following steps: photographing a landscape including an object; determining the object from the photographed landscape; and simultaneously displaying 3D point cloud data of the object and a mesh screen of the landscape other than the object.
(Appendix 17)
A non-transitory computer-readable medium that records a program that causes a server to execute the following steps: acquiring 3D point cloud data from a landscape including a photographed object; meshing the 3D point cloud data of the landscape other than the object to create a mesh screen of the landscape; and saving the 3D point cloud data of the object and the mesh screen of the landscape.
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 The present invention has been described above with reference to the embodiments, but the present invention is not limited to the above. Various modifications that would be understood by a person skilled in the art can be made to the configuration and details of the present invention within the scope of the invention.
この出願は、2022年3月28日に出願された日本出願特願2022-051437を基礎とする優先権を主張し、その開示の全てをここに取り込む。 This application claims priority based on Japanese Patent Application No. 2022-051437, filed March 28, 2022, the entire disclosure of which is incorporated herein by reference.
10 リアルタイムコミュニケーション支援システム
11 対象を撮影する手段
12 3D点群データを取得する手段
13 メッシュ画面を取得する手段
14 3D点群データとメッシュ画面とを保存する手段
15 3D点群データとメッシュ画面とを同時に表示する手段
100 サーバ(クラウド)
110 位置情報取得部
111 データ収集部
112 情報管理部
113 メッシュ処理部
114 情報保有部
115 データ送信部
200 携帯端末
210 データ収集部
211 情報表示部
212 情報付与部
213 データ送信部
10 Real-time communication support system 11 Means for photographing an object 12 Means for acquiring 3D point cloud data 13 Means for acquiring a mesh screen 14 Means for saving 3D point cloud data and a mesh screen 15 Means for simultaneously displaying 3D point cloud data and a mesh screen 100 Server (cloud)
110 Position information acquisition unit 111 Data collection unit 112 Information management unit 113 Mesh processing unit 114 Information storage unit 115 Data transmission unit 200 Portable terminal 210 Data collection unit 211 Information display unit 212 Information assignment unit 213 Data transmission unit
Claims (9)
撮影された前記対象から3D点群データを取得する手段と、
対象以外をメッシュ化した風景のメッシュ画面を取得する手段と、
前記対象の前記3D点群データと前記風景の前記メッシュ画面とを保存する手段と、
前記対象の前記3D点群データと前記風景の前記メッシュ画面とを同時に表示する手段と、
前記対象の前記3D点群データを前記風景の前記メッシュ画面に対して移動させるシミュレーションをする手段と、を備えるリアルタイムコミュニケーション支援システム。 a means for photographing the subject;
means for acquiring 3D point cloud data from the photographed object;
A means for obtaining a mesh screen of a landscape in which everything other than the target is meshed;
means for storing the 3D point cloud data of the object and the mesh view of the scene;
means for simultaneously displaying the 3D point cloud data of the object and the mesh image of the scenery;
and means for simulating the movement of the 3D point cloud data of the object relative to the mesh screen of the scenery .
前記撮影された前記対象から3D点群データを取得する手段と、前記対象以外をメッシュ化した前記風景の前記メッシュ画面を取得する手段と、前記対象の前記3D点群データと前記風景の前記メッシュ画面とを保存する手段と、を備えるサーバと、を備える、請求項1に記載のリアルタイムコミュニケーション支援システム。 a mobile terminal including a means for photographing the object and a means for simultaneously displaying the 3D point cloud data of the object and the mesh screen of the scenery;
The real-time communication support system of claim 1, comprising a server having: means for acquiring 3D point cloud data from the photographed object; means for acquiring a mesh screen of the scenery in which everything other than the object has been meshed; and means for saving the 3D point cloud data of the object and the mesh screen of the scenery.
撮影された前記風景から前記対象を決定する手段と、
撮影された前記風景から3D点群データを取得する手段と、
決定した対象以外の前記3D点群データをメッシュ化して前記風景のメッシュ画面を作成する手段と、
前記対象の前記3D点群データと前記風景の前記メッシュ画面とを保存する手段と、
前記対象の前記3D点群データと前記風景の前記メッシュ画面とを同時に表示する手段と、
前記対象の前記3D点群データを前記風景の前記メッシュ画面に対して移動させるシミュレーションをする手段と、を備えるリアルタイムコミュニケーション支援システム。 A means of photographing the landscape, including the subject,
means for determining the object from the photographed scene;
means for acquiring 3D point cloud data from the photographed scene;
a means for generating a mesh screen of the scenery by meshing the 3D point cloud data other than the determined object;
means for storing the 3D point cloud data of the object and the mesh view of the scene;
means for simultaneously displaying the 3D point cloud data of the object and the mesh image of the scenery;
and means for simulating the movement of the 3D point cloud data of the object relative to the mesh screen of the scenery .
前記撮影された前記風景から3D点群データを取得する手段と、前記決定した対象以外の前記3D点群データをメッシュ化して前記風景の前記メッシュ画面を作成する手段と、前記対象の前記3D点群データと前記風景の前記メッシュ画面とを保存する手段と、を備えるサーバと、を備える、請求項3に記載のリアルタイムコミュニケーション支援システム。 a mobile terminal including: a means for photographing a landscape including the object; a means for determining the object from the photographed landscape; and a means for simultaneously displaying the 3D point cloud data of the object and the mesh screen of the landscape;
The real-time communication support system of claim 3, comprising a server having: means for acquiring 3D point cloud data from the photographed scenery; means for meshing the 3D point cloud data other than the determined object to create the mesh screen of the scenery; and means for saving the 3D point cloud data of the object and the mesh screen of the scenery.
前記風景は動物園または牧場であり、前記対象は動物である、または、
前記風景は工事現場であり、前記対象は、工事現場の確認したい部分または建機の操作したい部分である、または、
前記風景はインフラ設備が設置された場所であり、前記対象はインフラ設備である、請求項1乃至4のいずれか1項に記載のリアルタイムコミュニケーション支援システム。 The scene is a factory or warehouse and the object is a package, or
the scene is a zoo or farm and the objects are animals, or
The scene is a construction site, and the object is a part of the construction site that the user wants to check or a part of the construction site that the user wants to operate construction equipment on, or
The real-time communication support system according to claim 1 , wherein the scenery is a location where infrastructure facilities are installed, and the object is the infrastructure facilities.
前記対象の前記3D点群データを前記風景の前記メッシュ画面に対して移動させるシミュレーションをする手段と、を備える携帯端末。 a means for photographing an object, and a means for simultaneously displaying 3D point cloud data of the object and a mesh screen of a landscape in which everything other than the object is meshed;
and means for simulating the movement of the 3D point cloud data of the object relative to the mesh screen of the scene .
前記対象の前記3D点群データを前記風景の前記メッシュ画面に対して移動させるシミュレーションをする手段と、を備えるサーバ。 A means for acquiring 3D point cloud data from a photographed object, a means for acquiring a mesh screen of a landscape in which everything other than the object is meshed, and a means for saving the 3D point cloud data of the object and the mesh screen of the landscape;
and means for simulating the movement of the 3D point cloud data of the object relative to the mesh view of the scene .
撮影された前記対象から3D点群データを取得するステップと、
対象以外をメッシュ化した風景のメッシュ画面を取得するステップと、
前記対象の前記3D点群データと前記風景の前記メッシュ画面とを保存するステップと、
前記対象の前記3D点群データと前記風景の前記メッシュ画面とを同時に表示するステップと、
前記対象の前記3D点群データを前記風景の前記メッシュ画面に対して移動させるシミュレーションをするステップと、を備えるリアルタイムコミュニケーション支援方法。 photographing an object;
acquiring 3D point cloud data from the photographed object;
A step of obtaining a mesh screen of a landscape in which everything other than the target is meshed;
saving the 3D point cloud data of the object and the mesh view of the scene;
simultaneously displaying the 3D point cloud data of the object and the mesh view of the scene;
and simulating the movement of the 3D point cloud data of the object relative to the mesh screen of the scenery .
前記対象の前記3D点群データを前記風景の前記メッシュ画面に対して移動させるシミュレーションをするステップと、を携帯端末に実行させるプログラム。 a step of photographing an object; and a step of simultaneously displaying 3D point cloud data of the object and a mesh screen of a landscape other than the object, the mesh screen being a mesh of the landscape;
and a step of simulating the movement of the 3D point cloud data of the object relative to the mesh screen of the scenery .
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022051437 | 2022-03-28 | ||
| JP2022051437 | 2022-03-28 | ||
| PCT/JP2023/010480 WO2023189690A1 (en) | 2022-03-28 | 2023-03-16 | Real-time communication assistance system and method therefor, mobile terminal, server, and computer-readable medium |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JPWO2023189690A1 JPWO2023189690A1 (en) | 2023-10-05 |
| JPWO2023189690A5 JPWO2023189690A5 (en) | 2024-10-23 |
| JP7722751B2 true JP7722751B2 (en) | 2025-08-13 |
Family
ID=88201685
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2024511807A Active JP7722751B2 (en) | 2022-03-28 | 2023-03-16 | Real-time communication support system and method, mobile terminal, server, and program |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP7722751B2 (en) |
| WO (1) | WO2023189690A1 (en) |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002074323A (en) | 2000-09-01 | 2002-03-15 | Kokusai Kogyo Co Ltd | Method and system for generating three-dimensional urban area space model |
| JP2016194779A (en) | 2015-03-31 | 2016-11-17 | セコム株式会社 | Object detection device |
| US20170214899A1 (en) | 2014-07-23 | 2017-07-27 | Metaio Gmbh | Method and system for presenting at least part of an image of a real object in a view of a real environment, and method and system for selecting a subset of a plurality of images |
| WO2019039282A1 (en) | 2017-08-22 | 2019-02-28 | ソニー株式会社 | Image processing device and image processing method |
| JP2019054488A (en) | 2017-09-19 | 2019-04-04 | キヤノン株式会社 | Providing device, providing method, and program |
| WO2020110164A1 (en) | 2018-11-26 | 2020-06-04 | 三菱電機株式会社 | Display data generation device, display data generation method, and display data generation program |
| JP2020201863A (en) | 2019-06-13 | 2020-12-17 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
| US20210287439A1 (en) | 2020-03-16 | 2021-09-16 | Snap Inc. | 3d cutout image modification |
| JP2022043539A (en) | 2020-09-04 | 2022-03-16 | キヤノン株式会社 | Image processing equipment, image processing system, image processing method, and program |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3288575B2 (en) * | 1996-03-27 | 2002-06-04 | 三菱電機株式会社 | Monitoring apparatus using captured image, model creation method thereof, and imaging apparatus control method |
-
2023
- 2023-03-16 WO PCT/JP2023/010480 patent/WO2023189690A1/en not_active Ceased
- 2023-03-16 JP JP2024511807A patent/JP7722751B2/en active Active
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002074323A (en) | 2000-09-01 | 2002-03-15 | Kokusai Kogyo Co Ltd | Method and system for generating three-dimensional urban area space model |
| US20170214899A1 (en) | 2014-07-23 | 2017-07-27 | Metaio Gmbh | Method and system for presenting at least part of an image of a real object in a view of a real environment, and method and system for selecting a subset of a plurality of images |
| JP2016194779A (en) | 2015-03-31 | 2016-11-17 | セコム株式会社 | Object detection device |
| WO2019039282A1 (en) | 2017-08-22 | 2019-02-28 | ソニー株式会社 | Image processing device and image processing method |
| JP2019054488A (en) | 2017-09-19 | 2019-04-04 | キヤノン株式会社 | Providing device, providing method, and program |
| WO2020110164A1 (en) | 2018-11-26 | 2020-06-04 | 三菱電機株式会社 | Display data generation device, display data generation method, and display data generation program |
| JP2020201863A (en) | 2019-06-13 | 2020-12-17 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
| US20210287439A1 (en) | 2020-03-16 | 2021-09-16 | Snap Inc. | 3d cutout image modification |
| JP2022043539A (en) | 2020-09-04 | 2022-03-16 | キヤノン株式会社 | Image processing equipment, image processing system, image processing method, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2023189690A1 (en) | 2023-10-05 |
| JPWO2023189690A1 (en) | 2023-10-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12033289B2 (en) | Method and system for visualizing overlays in virtual environments | |
| US10354144B2 (en) | Video camera scene translation | |
| US20150130840A1 (en) | System and method for reporting events | |
| CN110287519A (en) | A BIM-integrated construction progress monitoring method and system | |
| WO2019233445A1 (en) | Data collection and model generation method for house | |
| CN114140528A (en) | Data annotation method and device, computer equipment and storage medium | |
| KR102823654B1 (en) | Smart Quality Control System of Construction Sites using Augmented Reality | |
| CN106294724A (en) | A kind of night watching track acquisition methods and device | |
| JP7588977B2 (en) | On-site video management system and on-site video management method | |
| JP6725736B1 (en) | Image specifying system and image specifying method | |
| WO2019187772A1 (en) | Building management system, learning device, position determining device, and position determining method | |
| CN116129064A (en) | Electronic map generation method, device, equipment and storage medium | |
| JP7467206B2 (en) | Video management support system and video management support method | |
| JP7722751B2 (en) | Real-time communication support system and method, mobile terminal, server, and program | |
| JP7179583B2 (en) | Image processing device and image processing method | |
| EP4437445A1 (en) | A system, a method and a computer program for construction progress monitoring | |
| CN119540847A (en) | A GIS-based urban security video monitoring method and system | |
| JP2024177053A (en) | Information processing system and information processing method | |
| WO2020186856A1 (en) | Three-dimensional indoor navigation system and implementation method thereof | |
| CN116311732A (en) | A method, device and equipment for cross-boundary warning | |
| KR101674033B1 (en) | Image mapping system of a closed circuit television based on the three dimensional map | |
| KR20230076243A (en) | Method and device for preventing industrial accident | |
| WO2024070602A1 (en) | Information display system, information display method, and program | |
| CN116233390B (en) | A coal pile unmanned automated operation system and method based on multi-eye stereo vision | |
| JP7553159B2 (en) | Information sharing support device, system, method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240814 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240814 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250430 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250605 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250701 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250724 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7722751 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |