[go: up one dir, main page]

JP7779039B2 - Support system, support device, support method, and program - Google Patents

Support system, support device, support method, and program

Info

Publication number
JP7779039B2
JP7779039B2 JP2021126900A JP2021126900A JP7779039B2 JP 7779039 B2 JP7779039 B2 JP 7779039B2 JP 2021126900 A JP2021126900 A JP 2021126900A JP 2021126900 A JP2021126900 A JP 2021126900A JP 7779039 B2 JP7779039 B2 JP 7779039B2
Authority
JP
Japan
Prior art keywords
image
unit
support
side device
work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021126900A
Other languages
Japanese (ja)
Other versions
JP2023021806A (en
Inventor
武志 城戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP2021126900A priority Critical patent/JP7779039B2/en
Publication of JP2023021806A publication Critical patent/JP2023021806A/en
Application granted granted Critical
Publication of JP7779039B2 publication Critical patent/JP7779039B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、支援システム、支援側装置、支援方法、およびプログラムに関する。 The present invention relates to a support system, a support device, a support method, and a program.

作業者が観察している映像を遠隔地にいる支援者へ伝送するとともに、支援者が、この映像を観察しながら、スライタスを用いて作業者に指示を与える支援システムが知られている(例えば、特許文献1参照)。また、関連する技術として特許文献2がある。
特許文献1 特開2006-209664号公報
特許文献2 特開2012-18605号公報
A support system is known in which a video image observed by a worker is transmitted to a supporter in a remote location, and the supporter gives instructions to the worker using a slider while observing the video image (see, for example, Patent Document 1). Another related technology is Patent Document 2.
Patent Document 1: JP 2006-209664 A Patent Document 2: JP 2012-18605 A

支援システムにおいては、設備の操作を伴う作業内容を伝えることができることが望ましい。スライタスを支援者側と作業者側とで共有するだけでは、設備の操作を伴う作業内容を伝えることが難しい。 In a support system, it is desirable to be able to communicate the details of work that involves operating equipment. Simply sharing a slideshow between the supporter and the worker makes it difficult to communicate the details of work that involves operating equipment.

上記課題を解決するために、本発明の第1の態様においては、支援側装置と作業側装置を備える支援システムを提供する。支援側装置は、支援側表示部を備えてよい。支援側表示部は、設備を模した仮想モデルを表示してよい。支援側装置は、検出部を備えてよい。検出部は、仮想モデルに対する支援者の身体動作を検出してよい。支援側装置は、送信部を備えてよい。送信部は、仮想モデルに対する身体動作の情報を送信してよい。作業側装置は、作業側表示部を備えてよい。作業側装置は、受信した身体動作の情報に基づいて身体動作を示す仮想化された画像を表示してよい。 To solve the above problem, a first aspect of the present invention provides a support system including a support-side device and a work-side device. The support-side device may include a support-side display unit. The support-side display unit may display a virtual model that resembles equipment. The support-side device may include a detection unit. The detection unit may detect the body movement of the supporter relative to the virtual model. The support-side device may include a transmission unit. The transmission unit may transmit information about the body movement relative to the virtual model. The work-side device may include a work-side display unit. The work-side device may display a virtual image showing the body movement based on the received body movement information.

検出部によって検出される身体動作は、三次元空間における支援者の身体の少なくとも一部についての位置情報を含んでよい。 The body movement detected by the detection unit may include position information about at least a portion of the supporter's body in three-dimensional space.

設備において予め定められた位置に基準点マーカーが設けられてよい。仮想モデルは、基準点マーカーに対応する位置に設けられた基準点と、基準点に基づく三次元座標である基準座標とに対応づけられてよい。検出部によって検出される身体動作は、基準座標における、支援者の身体の少なくとも一部についての位置情報を含んでよい。作業側装置は、マーカー検出部を備えてよい。マーカー検出部は、設備における基準点マーカーを検出してよい。作業側装置は、調整部を備えてよい。調整部は、設備の画像に対して仮想化された画像を合成する位置を、基準点マーカーの検出結果と、受信した身体動作の情報に含まれる位置情報とに基づいて調整してよい。 A reference point marker may be provided at a predetermined position on the equipment. The virtual model may be associated with a reference point provided at a position corresponding to the reference point marker and with reference coordinates, which are three-dimensional coordinates based on the reference point. The body movement detected by the detection unit may include position information for at least a part of the supporter's body in the reference coordinates. The work-side device may include a marker detection unit. The marker detection unit may detect reference point markers on the equipment. The work-side device may include an adjustment unit. The adjustment unit may adjust the position at which the virtualized image is superimposed on the image of the equipment based on the detection result of the reference point marker and the position information included in the received body movement information.

支援側装置は、選択部を更に備えてよい。選択部は、複数の仮想モデルの中から設備に対応する仮想モデルを選択してよい。 The support side device may further include a selection unit. The selection unit may select a virtual model corresponding to the facility from among multiple virtual models.

選択部は、支援者の指示に基づいて複数の仮想モデルの中から設備に対応した仮想モデルを選択してよい。 The selection unit may select a virtual model corresponding to the facility from among multiple virtual models based on instructions from the supporter.

設備には、設備を識別するための識別画像が表示されていてよい。作業側装置は、読取部を備えてよい。読取部は、識別画像を読み取ってよい。作業側装置は、識別情報送信部をさらに備えてよい。識別情報送信部は、読取部によって識別画像を読み取って得られた識別情報を支援側装置に送信してよい。選択部は、作業側装置から受信した識別情報によって複数の仮想モデルの中から設備に対応する仮想モデルを選択してよい。 An identification image for identifying the equipment may be displayed on the equipment. The work-side device may include a reading unit. The reading unit may read the identification image. The work-side device may further include an identification information transmission unit. The identification information transmission unit may transmit identification information obtained by reading the identification image with the reading unit to the support-side device. The selection unit may select a virtual model corresponding to the equipment from among the multiple virtual models based on the identification information received from the work-side device.

作業側装置は、撮像部をさらに備えてよい。撮像部は、設備を撮像して設備画像を得てよい。作業側装置は、設備画像送信部をさらに備えてよい。設備画像送信部は、設備画像を支援側装置に送信してよい。支援側装置は、モデル生成部を備えてよい。モデル生成部は、作業側装置から受信した設備画像に基づいて仮想モデルを生成してよい。 The work-side device may further include an imaging unit. The imaging unit may capture an image of the equipment to obtain an equipment image. The work-side device may further include an equipment image transmission unit. The equipment image transmission unit may transmit the equipment image to the support-side device. The support-side device may include a model generation unit. The model generation unit may generate a virtual model based on the equipment image received from the work-side device.

作業側装置は、撮像部をさらに備えてよい。撮像部は、設備を撮像して設備画像を得てよい。作業側装置は、補正用情報生成部をさらに備えてよい。補正用情報生成部は、設備画像に基づいて補正用情報を生成してよい。作業側装置は、補正用情報送信部をさらに備えてよい。補正用情報送信部は、補正用情報を支援側装置に送信してよい。支援側装置は、モデル補正部を備えてよい。モデル補正部は、作業側装置から受信した補正用情報に基づいて仮想モデルを補正してよい。補正用情報生成部は、支援側装置から受信した仮想モデルと設備画像とを比較して補正用情報を生成してよい。 The work-side device may further include an imaging unit. The imaging unit may capture an image of the equipment to obtain an equipment image. The work-side device may further include a correction information generation unit. The correction information generation unit may generate correction information based on the equipment image. The work-side device may further include a correction information transmission unit. The correction information transmission unit may transmit the correction information to the support-side device. The support-side device may include a model correction unit. The model correction unit may correct the virtual model based on the correction information received from the work-side device. The correction information generation unit may generate correction information by comparing the virtual model received from the support-side device with the equipment image.

本発明の第2の態様においては、支援側装置と、支援側装置と通信可能な作業側装置とにより作業を支援する支援方法を提供する。支援方法は、支援側装置において、設備を模した仮想モデルを表示する段階を備えてよい。支援方法は、支援側装置において、仮想モデルに応じた支援者の身体動作を検出する段階を備えてよい。支援方法は、支援側装置において、仮想モデルに対する支援者の身体動作の情報を送信する段階を備えてよい。支援方法は、身体動作の情報を作業側装置が受信する段階を備えてよい。支援方法は、作業側装置において、受信した身体動作の情報に基づいて身体動作を示す仮想化された画像を表示する段階を備えてよい。 A second aspect of the present invention provides a support method for supporting work using a support-side device and a work-side device capable of communicating with the support-side device. The support method may include a step of displaying a virtual model that simulates equipment in the support-side device. The support method may include a step of detecting, in the support-side device, physical movements of a supporter corresponding to the virtual model. The support method may include a step of transmitting, in the support-side device, information about the physical movements of the supporter relative to the virtual model. The support method may include a step of receiving, by the work-side device, information about the physical movements. The support method may include a step of displaying, in the work-side device, a virtual image that represents the physical movements based on the received information about the physical movements.

本発明の第3の態様においては、支援側装置を提供する。支援側装置は、設備が設けられた作業現場における作業側装置との間でネットワークを介して通信可能に接続されてよい。支援側装置は、支援側表示部を備えてよい。支援側表示部は、設備を模した仮想モデルを表示してよい。支援側装置は、検出部を備えてよい。検出部は、仮想モデルに応じた支援者の身体動作を検出してよい。支援側装置は、送信部を備えてよい。送信部は、仮想モデルに対する支援者の身体動作の情報を作業側装置に送信してよい。 A third aspect of the present invention provides a support-side device. The support-side device may be communicably connected via a network to a working-side device at a work site where equipment is installed. The support-side device may include a support-side display unit. The support-side display unit may display a virtual model that resembles the equipment. The support-side device may include a detection unit. The detection unit may detect the body movements of a supporter in accordance with the virtual model. The support-side device may include a transmission unit. The transmission unit may transmit information about the body movements of the supporter relative to the virtual model to the working-side device.

本発明の第4の態様においては、コンピュータを上記の支援側装置として機能させるためのプログラムを提供する。 A fourth aspect of the present invention provides a program for causing a computer to function as the above-mentioned support device.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 Note that the above summary of the invention does not list all of the necessary features of the present invention. Subcombinations of these features may also constitute inventions.

本発明の第1実施形態における遠隔支援システム1の概要を示す図である。1 is a diagram showing an overview of a remote support system 1 according to a first embodiment of the present invention. 本発明の第1実施形態における遠隔支援システム1の一例を示す図である。1 is a diagram illustrating an example of a remote support system 1 according to a first embodiment of the present invention. 支援側装置における仮想モデル7の一例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a virtual model 7 in a support side device. 作業側装置における合成画像10の一例を示す模式図である。10 is a schematic diagram showing an example of a composite image 10 in a work-side apparatus. FIG. 支援者の動作を表現する姿勢データの一例を示す図である。FIG. 10 is a diagram showing an example of posture data representing the motion of a supporter. 支援者の動作を表現する点群データの一例を示す図である。FIG. 10 is a diagram showing an example of point cloud data representing the actions of a supporter. 第1実施形態の遠隔支援方法における支援側装置の処理内容の一例を示すフローチャートである。10 is a flowchart showing an example of processing content of a support-side device in the remote support method according to the first embodiment; 図7のステップS50における処理内容の一例を示すフローチャートである。8 is a flowchart showing an example of the processing content in step S50 of FIG. 7. 第1実施形態の遠隔支援方法における作業側装置の処理内容の一例を示すフローチャートである。10 is a flowchart showing an example of processing content of a work-side apparatus in the remote assistance method according to the first embodiment; 図9のステップS80における処理内容の一例を示すフローチャートである。10 is a flowchart showing an example of processing content in step S80 of FIG. 9. 本発明の第1実施形態における遠隔支援システム1の他の例を示す図である。FIG. 2 is a diagram illustrating another example of the remote support system 1 according to the first embodiment of the present invention. 本発明の第2実施形態における支援側装置における仮想モデル7の一例を示す模式図である。FIG. 10 is a schematic diagram showing an example of a virtual model 7 in a support side device according to a second embodiment of the present invention. 本発明の第2実施形態における作業側装置における合成画像80の一例を示す模式図である。FIG. 10 is a schematic diagram showing an example of a composite image 80 in a work-side apparatus according to a second embodiment of the present invention. 本発明の第2実施形態における遠隔支援システム1の一例を示す図である。FIG. 10 is a diagram illustrating an example of a remote support system 1 according to a second embodiment of the present invention. 本発明の第2実施形態における遠隔支援システム1の他の例を示す図である。FIG. 10 is a diagram illustrating another example of the remote support system 1 according to the second embodiment of the present invention. 第2実施形態の遠隔支援方法における支援側装置の処理内容の一例を示すフローチャートである。10 is a flowchart illustrating an example of processing content of a support-side device in a remote support method according to a second embodiment. 図16のステップS160における処理内容の一例を示すフローチャートである。17 is a flowchart showing an example of the processing content in step S160 of FIG. 16. 第2実施形態の遠隔支援方法における作業側装置の処理内容の一例を示すフローチャートである。10 is a flowchart showing an example of processing content of a work-side apparatus in a remote support method according to a second embodiment; 図18のステップS310における処理内容の一例を示すフローチャートである。20 is a flowchart showing an example of the processing content in step S310 of FIG. 18. 本発明の第3実施形態における作業側装置における合成画像90の一例を示す模式図である。FIG. 11 is a schematic diagram showing an example of a composite image 90 in a work-side apparatus according to a third embodiment of the present invention. 本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ2200の例を示す。22 illustrates an example computer 2200 in which aspects of the present invention may be embodied, in whole or in part.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 The present invention will be described below through embodiments of the invention, but the following embodiments do not limit the scope of the invention as claimed. Furthermore, not all of the combinations of features described in the embodiments are necessarily essential to the solution of the invention.

図1は、本発明の第1実施形態における遠隔支援システム1の概要を示す図である。遠隔支援システム1は、支援側装置2および作業側装置3を備える。支援側装置2および作業側装置3は通信ネットワーク4を介して互いに通信可能に接続されている。一例において、支援側装置2は、ヘッドマウントディスプレイ(HMD)方式の仮想現実ウェアラブルコンピュータ端末である。支援側装置2は、設備5を模した仮想モデル7を支援者に表示する。仮想モデル7は、3Dホログラム画像であってよい。 Figure 1 is a diagram showing an overview of a remote support system 1 according to a first embodiment of the present invention. The remote support system 1 includes a support-side device 2 and a work-side device 3. The support-side device 2 and the work-side device 3 are communicatively connected to each other via a communication network 4. In one example, the support-side device 2 is a head-mounted display (HMD) type virtual reality wearable computer terminal. The support-side device 2 displays a virtual model 7 simulating equipment 5 to the supporter. The virtual model 7 may be a 3D hologram image.

支援者は、仮想モデル7を見ながら、実際に指および手等を動作させて仮想空間において操作して、作業者に対して手本を見せる。支援側装置2は、モーションキャプチャ技術によって、仮想モデル7に対する支援者の身体動作を検出する。そして、支援側装置2は、通信ネットワーク4を介して、仮想モデル7に対する身体動作の情報を作業側装置3に送信する。 While looking at the virtual model 7, the supporter actually moves their fingers, hands, etc. to operate it in the virtual space, demonstrating an example to the worker. The support-side device 2 uses motion capture technology to detect the supporter's physical movements relative to the virtual model 7. The support-side device 2 then transmits information about the physical movements relative to the virtual model 7 to the work-side device 3 via the communication network 4.

作業側装置3は、受信した身体動作の情報に基づいて身体動作を示す仮想化された画像である身体動作画像を表示する。身体動作画像は、支援者の指や手等の動きを仮想化して再現した動画であってよい。一例において、作業側装置3は、ヘッドマウントディスプレイ(HMD)方式の拡張現実ウェアラブルコンピュータ端末である。作業者は、作業側装置3に表示された画像等によって支援をうけて、設備5に対する操作を実行する。 The work-side device 3 displays a body movement image, which is a virtualized image showing the body movement based on the received body movement information. The body movement image may be a video that virtually reproduces the movements of the supporter's fingers, hands, etc. In one example, the work-side device 3 is an augmented reality wearable computer terminal that uses a head-mounted display (HMD). The worker receives support from the images displayed on the work-side device 3 and performs operations on the equipment 5.

設備5において予め定められた位置PM0に基準点マーカー6が設けられてよい。基準点マーカー6の位置PM0に基づいて、マーカー座標(X、Y、Z)が設定されていてよい。仮想モデル7には、基準点マーカー6の位置PM0に対応する位置Pに基準点8が設けられてよい。また、仮想モデル7において、基準点Pにおける三次元座標である基準座標(X、Y、Z)が設けられてよい。検出される身体動作は、基準座標(X、Y、Z)に対する、支援者の身体の少なくとも一部についての位置情報を含んでよい。本例では、支援側装置2の座標において、支援者から仮想モデル7に向かう方向をZ軸方向とし、Z軸方向に対して垂直な面をXY平面とする。XY平面内において、X軸方向とY軸方向とは互いに直交する方向とする。同様に、作業側装置3の座標において、作業者から設備に向かう方向をZ軸方向とし、Z軸方向に対して垂直な面をXY平面とする。XY平面内において、X軸方向とY軸方向とは互いに直交する方向とする。 A reference point marker 6 may be provided at a predetermined position P M0 in the equipment 5. Marker coordinates (X M , Y M , Z M ) may be set based on the position P M0 of the reference point marker 6. A reference point 8 may be provided on the virtual model 7 at a position P 0 corresponding to the position P M0 of the reference point marker 6. Furthermore, reference coordinates (X 0 , Y 0 , Z 0 ) that are three-dimensional coordinates at the reference point P 0 may be provided on the virtual model 7. The detected body movement may include position information about at least a part of the supporter's body relative to the reference coordinates (X 0 , Y 0 , Z 0 ). In this example, in the coordinates of the support-side device 2, the direction from the supporter toward the virtual model 7 is defined as the Z-axis direction, and a plane perpendicular to the Z-axis direction is defined as the XY plane. In the XY plane, the X-axis direction and the Y-axis direction are defined as directions that are orthogonal to each other. Similarly, in the coordinate system of the work-side device 3, the direction from the worker toward the equipment is defined as the Z-axis direction, and the plane perpendicular to the Z-axis direction is defined as the XY plane. Within the XY plane, the X-axis direction and the Y-axis direction are perpendicular to each other.

図2は、本発明の第1実施形態における遠隔支援システム1の一例を示す図である。本例の支援側装置2は、通信制御部101、検出部102、および支援側表示部103を備える。支援側表示部103は、設備5を模した仮想モデル7を表示する。支援側表示部103は、ホログラフィックレンズディスプレイを有してよい。検出部102は、仮想モデル7に対する支援者の身体動作を検出する。検出部102は、モーションキャプチャデバイス106から支援者の動作を示すモーションキャプチャデータを取り込む。通信制御部101は、仮想モデル7(設備モデル)に対する身体動作の情報を送信する送信部として機能する。この結果、支援側装置2は、仮想空間内において、設備5を模した仮想モデル7に対する支援者の相対的な動きを検出して、作業側装置3に送ることができる。 Figure 2 is a diagram showing an example of a remote support system 1 in the first embodiment of the present invention. The support-side device 2 in this example includes a communication control unit 101, a detection unit 102, and a support-side display unit 103. The support-side display unit 103 displays a virtual model 7 that resembles equipment 5. The support-side display unit 103 may have a holographic lens display. The detection unit 102 detects the body movements of the supporter relative to the virtual model 7. The detection unit 102 imports motion capture data indicating the supporter's movements from a motion capture device 106. The communication control unit 101 functions as a transmission unit that transmits information about the body movements relative to the virtual model 7 (equipment model). As a result, the support-side device 2 can detect the supporter's relative movements relative to the virtual model 7 that resembles equipment 5 in virtual space and send the information to the work-side device 3.

本例の支援側装置2は、仮想モデル格納部104、選択部105、画面制御部110、センサ112、マイク114、スピーカ116、および音声制御部118を備えてよい。仮想モデル格納部104は、仮想モデル7の情報について予め格納しているデータベースである。仮想モデル格納部104には、複数種類の設備5に応じて複数種類の仮想モデル7が格納されてよい。但し、仮想モデル格納部104は、支援側装置2に含まれていなくてもよい。この場合、外部から仮想モデル7がダウンロードされる。選択部105は、複数の仮想モデルの中から設備5に対応する仮想モデル7を選択する。選択部105は、支援者の指示に基づいて複数の仮想モデルの中から設備5に対応する仮想モデル7を選択してもよい。これに代えて、選択部105は、作業側装置3から受信した識別情報によって複数の仮想モデルの中から設備5に対応する仮想モデル7を選択してもよい。 The support-side device 2 in this example may include a virtual model storage unit 104, a selection unit 105, a screen control unit 110, a sensor 112, a microphone 114, a speaker 116, and an audio control unit 118. The virtual model storage unit 104 is a database that pre-stores information about virtual models 7. The virtual model storage unit 104 may store multiple types of virtual models 7 corresponding to multiple types of equipment 5. However, the virtual model storage unit 104 does not have to be included in the support-side device 2. In this case, the virtual model 7 is downloaded from an external device. The selection unit 105 selects a virtual model 7 corresponding to the equipment 5 from among the multiple virtual models. The selection unit 105 may select a virtual model 7 corresponding to the equipment 5 from among the multiple virtual models based on instructions from the supporter. Alternatively, the selection unit 105 may select a virtual model 7 corresponding to the equipment 5 from among the multiple virtual models based on identification information received from the work-side device 3.

画面制御部110は、3Dホログラム画である仮想モデル7とモーションキャプチャデータとを統合することによって、仮想現実を実現してよい。画面制御部110は、ホログラム画像と、撮像部およびトラッキング用可視光カメラによって認識された物理環境とを結合させてよい。画面制御部110は、センサ112から慣性計測情報を受け取り、環境を認識する撮像部およびトラッキング用可視光カメラからのデータと組み合わせて、透明レンズであるホログラフィックレンズディスプレイである支援側表示部103にホログラム画像を表示してよい。マイク114、スピーカ116、および音声制御部118は、作業側装置3との間において、支援者と作業者との会話を可能とする。 The screen control unit 110 may realize virtual reality by integrating the virtual model 7, which is a 3D hologram image, with motion capture data. The screen control unit 110 may combine the hologram image with the physical environment recognized by the imaging unit and the visible light tracking camera. The screen control unit 110 may receive inertial measurement information from the sensor 112, combine it with data from the imaging unit and the visible light tracking camera that recognize the environment, and display a hologram image on the support-side display unit 103, which is a holographic lens display with a transparent lens. The microphone 114, speaker 116, and audio control unit 118 enable conversation between the supporter and the worker via the working-side device 3.

センサ112は、深度センサ(距離センサ)、撮像部(カメラ)、および慣性計測部、複数のトラッキング用可視光カメラ、および環境認識部を備えてよい。トラッキング用可視光カメラは、頭の動きを感知する。視線計測(アイ トラッキング)用の2台の赤外光カメラは、眼球の動きを感知する。深度センサは、光源から物体にレーザを照射し、その反射光を計測することで、物体までの距離や形状等を算出する。慣性計測部は、加速度計、ジャイロスコープ、および磁力計を備えてよい。慣性計測部は、3次元の慣性運動(直行3軸方向の並進運動および回転運動)を検出する。加速度計により並進運動を検出し、ジャイロスコープにより回転運動を検出してよい。 The sensor 112 may include a depth sensor (distance sensor), an imaging unit (camera), an inertial measurement unit, multiple visible light cameras for tracking, and an environmental recognition unit. The visible light camera for tracking detects head movement. Two infrared cameras for eye tracking detect eye movement. The depth sensor calculates the distance to the object, its shape, etc. by emitting a laser from a light source to an object and measuring the reflected light. The inertial measurement unit may include an accelerometer, a gyroscope, and a magnetometer. The inertial measurement unit detects three-dimensional inertial motion (translational and rotational motion in three orthogonal axes). The accelerometer may detect translational motion, and the gyroscope may detect rotational motion.

作業側装置3は、通信制御部201および作業側表示部202を備える、作業側装置3は、撮像部204、画面制御部210、センサ212、マイク214、スピーカ216、および音声制御部218を備えてよい。 The work-side device 3 includes a communication control unit 201 and a work-side display unit 202. The work-side device 3 may also include an imaging unit 204, a screen control unit 210, a sensor 212, a microphone 214, a speaker 216, and an audio control unit 218.

通信制御部201は、支援側装置2から身体動作の情報を受信する受信部として機能する。作業側表示部202は、受信した身体動作の情報に基づいて身体動作を示す仮想化された画像(身体動作画像)を表示する。特に、作業側表示部202は、身体動作画像を、設備5を撮影して得られた設備画像に重畳して表示してよい。撮像部204は、カメラであってよい。撮像部204は、設備5を撮像することによって設備画像を生成してよい。設備画像には、設備5のみならず、設備5の周辺環境の背景画像を含んでいてもよい。 The communication control unit 201 functions as a receiving unit that receives physical movement information from the support-side device 2. The working-side display unit 202 displays a virtualized image (physical movement image) showing the physical movement based on the received physical movement information. In particular, the working-side display unit 202 may display the physical movement image superimposed on an equipment image obtained by photographing the equipment 5. The imaging unit 204 may be a camera. The imaging unit 204 may generate the equipment image by photographing the equipment 5. The equipment image may include not only the equipment 5 but also a background image of the surrounding environment of the equipment 5.

センサ212は、上述したセンサ112と同様であってよい。センサ212は、深度センサ(距離センサ)、慣性計測部、複数のトラッキング用可視光カメラ、および環境認識部を備えてよい。トラッキング用可視光カメラは、頭の動きを感知する。視線計測(アイ トラッキング)用の2台の赤外光カメラは、眼球の動きを感知する。深度センサは、光源から物体にレーザを照射し、その反射光を計測することで、物体までの距離や形状等を算出する。慣性計測部は、加速度計、ジャイロスコープ、および磁力計を備えてよい。慣性計測部は、3次元の慣性運動(直行3軸方向の並進運動および回転運動)を検出する。加速度計により並進運動を検出し、ジャイロスコープにより回転運動を検出してよい。 Sensor 212 may be similar to sensor 112 described above. Sensor 212 may include a depth sensor (distance sensor), an inertial measurement unit, multiple visible light cameras for tracking, and an environmental recognition unit. The visible light camera for tracking detects head movement. Two infrared cameras for eye tracking detect eye movement. The depth sensor calculates the distance to the object, its shape, etc. by emitting a laser from a light source to an object and measuring the reflected light. The inertial measurement unit may include an accelerometer, a gyroscope, and a magnetometer. The inertial measurement unit detects three-dimensional inertial motion (translational motion and rotational motion in three orthogonal axes). The accelerometer may detect translational motion, and the gyroscope may detect rotational motion.

マイク214、スピーカ216、および音声制御部218は、支援側装置2との間において、支援者と作業者との会話を可能とする。画面制御部210は、マーカー検出部241、調整部242、読取部243等の各機能を有する。これらの機能については後述する。 The microphone 214, speaker 216, and audio control unit 218 enable conversation between the supporter and the worker via the support-side device 2. The screen control unit 210 has various functions, such as a marker detection unit 241, an adjustment unit 242, and a reading unit 243. These functions will be described later.

図3は、支援側装置2における仮想モデル7の一例を示す模式図である。図4は、作業側装置3における合成画像10の一例を示す模式図である。なお、図3および図4には、説明のための各座標が表示されている。実際の仮想モデル7および合成画像10には、座標は表示されなくてよい。 Figure 3 is a schematic diagram showing an example of a virtual model 7 in the support-side device 2. Figure 4 is a schematic diagram showing an example of a composite image 10 in the work-side device 3. Note that coordinates are displayed in Figures 3 and 4 for explanatory purposes. Coordinates do not need to be displayed on the actual virtual model 7 and composite image 10.

図4における合成画像10は、撮像部204によって設備5を撮像して得られた設備画像11と、身体動作を示す仮想化された画像である身体動作画像12とを重ねあわして合成した画像であってよい。図4に示されているとおり、設備5においては、予め定められた位置PM0に基準点マーカー6が設けられている。基準点マーカー6は、設備5を識別するための識別画像9を有してよい。識別画像9は、一例において、バーコード画像であってよい。図4の場合と異なり、基準点マーカー6と識別画像9とは別々に設けられてよい。図4に示される例では、身体動作画像12は、支援者の手および指の動きを仮想化した画像である。 The composite image 10 in Fig. 4 may be an image obtained by superimposing an equipment image 11 obtained by capturing an image of the equipment 5 using the imaging unit 204 and a body movement image 12, which is a virtualized image showing body movement. As shown in Fig. 4, a reference point marker 6 is provided in the equipment 5 at a predetermined position PMO . The reference point marker 6 may have an identification image 9 for identifying the equipment 5. In one example, the identification image 9 may be a barcode image. Unlike the case in Fig. 4, the reference point marker 6 and the identification image 9 may be provided separately. In the example shown in Fig. 4, the body movement image 12 is a virtualized image of the movement of the supporter's hands and fingers.

図2に示される画面制御部210は、設備5における基準点マーカー6を検出するマーカー検出部241として機能してよい。また、画面制御部210は、調整部242として機能してよい。調整部242は、設備画像11に対して身体動作画像12を合成する位置を、基準点マーカー6の検出結果と、受信した身体動作の情報に含まれる位置情報とに基づいて調整してよい。画面制御部210は、識別画像9を読み取る読取部243として機能してもよい。この場合、通信制御部201は、読取部243によって識別画像9を読み取って得られた識別情報を支援側装置2に送信する識別情報送信部としても機能する。支援側装置2における選択部105は、作業側装置3から受信した識別情報によって複数の仮想モデルの中から設備5に対応する仮想モデル7を選択する。 The screen control unit 210 shown in FIG. 2 may function as a marker detection unit 241 that detects reference point markers 6 on the equipment 5. The screen control unit 210 may also function as an adjustment unit 242. The adjustment unit 242 may adjust the position at which the body movement image 12 is superimposed on the equipment image 11 based on the detection result of the reference point markers 6 and the position information included in the received body movement information. The screen control unit 210 may also function as a reading unit 243 that reads the identification image 9. In this case, the communication control unit 201 also functions as an identification information transmission unit that transmits the identification information obtained by reading the identification image 9 with the reading unit 243 to the support-side device 2. The selection unit 105 in the support-side device 2 selects a virtual model 7 corresponding to the equipment 5 from among multiple virtual models based on the identification information received from the work-side device 3.

検出部102によって検出される身体動作の情報は、三次元空間における支援者の身体の少なくとも一部についての位置情報を含んでよい。位置情報には、図3に示される身体動作点座標値(XRi、YRi、ZRi)を含んでよい。身体動作点座標値(XRi、YRi、ZRi)は、基準座標(X、Y、Z)において、基準点(X、Y、Z)を基準としたときの身体における各身体動作点24の座標(X、Y、Z)を意味する。なお、図3および図4においては、紙面に垂直な方向がZ軸方向である。身体動作座標値(XRi、YRi、ZRi)は、XRi=X―X、YRi=Yi―Y、ZRi=Zi―Zで表される。 The information on the body movements detected by the detection unit 102 may include position information on at least a part of the supporter's body in three-dimensional space. The position information may include body movement point coordinate values ( XRi , YRi , ZRi ) shown in Fig. 3. The body movement point coordinate values ( XRi , YRi , ZRi ) refer to the coordinates (Xi, Yi, Zi) of each body movement point 24 on the body when the reference point ( X0 , Y0 , Z0 ) is used as the reference in the reference coordinates (X, Y , Z ) . Note that in Figs. 3 and 4, the direction perpendicular to the paper surface is the Z-axis direction. The body motion coordinate values (X Ri , Y Ri , Z Ri ) are expressed as X Ri =X i −X 0 , Y Ri =Y i −Y 0 , and Z Ri =Z i −Z 0 .

画面制御部210は、設備画像11に対して身体動作画像12を合成する位置を、基準点マーカー6の検出結果(マーカー座標X、Y、Z)と、受信した身体動作の情報に含まれる身体動作点24の座標値(XRi、YRi、ZRi)とに基づいて、身体動作画像12を合成する位置(X+XRi、Y+YRi、Z+ZRi)を調整してよい。 The screen control unit 210 may adjust the position (XM + XRi , YM + YRi , ZM + ZRi ) at which the body movement image 12 is superimposed on the equipment image 11 based on the detection result of the reference point marker 6 (marker coordinates XM , YM , ZM ) and the coordinate values ( XRi , YRi , ZRi ) of the body movement point 24 included in the received body movement information .

図5は、支援者の動作を表現する姿勢データの一例を示す図である。図6は、支援者の動作を表現する点群データの一例を示す図である。モーションキャプチャ技術によって、作業者の動作を読み取って得られたモーションキャプチャデータは、図5に示されるように姿勢データであってもよく、図6に示されるような点群データであってもよい。 Figure 5 is a diagram showing an example of posture data representing the movements of a support worker. Figure 6 is a diagram showing an example of point cloud data representing the movements of a support worker. Motion capture data obtained by reading the movements of a worker using motion capture technology may be posture data as shown in Figure 5, or point cloud data as shown in Figure 6.

姿勢データは、手の指の関節など動作の基本要素となる部分(図中、黒丸で表示)の位置の認識結果に基づいて動作を表現する。姿勢データは、基本要素となる複数の部分の各位置の3次元座標によって表現されてよい。動作の基本要素となる点を身体動作点24と呼ぶ。位置情報は、身体動作点24(n個)の各位置の身体動作座標値(XRi、YRi、ZRi)(i=1、2、3・・・n)で表されてよい。 The posture data expresses a movement based on the recognition results of the positions of parts (shown as black circles in the figure) that are basic elements of the movement, such as the joints of the fingers. The posture data may be expressed by the three-dimensional coordinates of each position of multiple parts that are basic elements. Points that are basic elements of the movement are called body motion points 24. The position information may be expressed by body motion coordinate values ( XRi , YRi , ZRi ) (i = 1, 2, 3, ... n) of each position of the (n) body motion points 24.

図6に示されるような点群データは、複数の抽出点(図中の点で表示)の挙動を示す。したがって、各抽出点を身体動作点24としてよい。点群データは、抽出点の身体動作座標値(XRi、YRi、ZRi)(i=1、2、3・・・N)で位置情報が表現されてよい。 6 indicates the behavior of a plurality of extracted points (shown as dots in the figure). Therefore, each extracted point may be regarded as a body motion point 24. The point cloud data may express position information as body motion coordinate values ( XRi , YRi , ZRi ) (i=1, 2, 3, . . . N) of the extracted points.

図7は、第1実施形態の遠隔支援方法における支援側装置2の処理内容の一例を示すフローチャートである。遠隔支援方法は、支援側装置2と作業側装置3とにより作業を支援する。選択部105は、支援者の指示に基づいて現場作業者を選択する(ステップS10)。支援者は、ポインティングデバイス等により現場作業者を指示することができる。音声制御部118は、選択された現場作業者と支援者との間で音声通話を開始する(ステップS20)。選択部105は、仮想モデル格納部104に格納されている複数の仮想モデルの中から、支援対象の設備5に対応する仮想モデル7を選択する(ステップS30)。 Figure 7 is a flowchart showing an example of the processing content of the support-side device 2 in the remote support method of the first embodiment. The remote support method supports work using the support-side device 2 and the work-side device 3. The selection unit 105 selects a field worker based on instructions from the supporter (step S10). The supporter can instruct the field worker using a pointing device or the like. The voice control unit 118 initiates a voice call between the selected field worker and the supporter (step S20). The selection unit 105 selects a virtual model 7 corresponding to the facility 5 to be supported from among multiple virtual models stored in the virtual model storage unit 104 (step S30).

選択部105は、支援者の指示に基づいて仮想モデルを選択してもよい。選択部105は、ポインティングデバイス等からの信号に基づいて仮想モデルを指示することができる。選択部105は、作業側装置3から受信した識別情報によって複数の仮想モデルの中から設備に対応する仮想モデル7を選択してもよい。 The selection unit 105 may select a virtual model based on instructions from a support person. The selection unit 105 may specify a virtual model based on a signal from a pointing device or the like. The selection unit 105 may select a virtual model 7 corresponding to the equipment from among multiple virtual models based on identification information received from the work-side device 3.

支援側表示部103は、設備5を模した仮想モデル7を表示する(ステップS40)。支援者は表示された仮想モデル7を用いて仮想空間において操作する。検出部102は、仮想モデル7に対する支援者の身体動作を検出し、検出された身体動作の情報を作業側装置3に送信する(ステップS50)。音声制御部118は、音声通話を終了する(ステップS60)。なお、音声通話によって設備の識別情報が作業者から支援者に伝えられてもよい。但し、音声通話の処理(ステップS20およびステップS60)および現場作業者の選択処理(ステップS10)は省略されてもよい。 The support-side display unit 103 displays a virtual model 7 that resembles the equipment 5 (step S40). The supporter operates the displayed virtual model 7 in the virtual space. The detection unit 102 detects the supporter's physical movements relative to the virtual model 7 and transmits information about the detected physical movements to the work-side device 3 (step S50). The voice control unit 118 ends the voice call (step S60). Note that the worker may communicate equipment identification information to the supporter via voice call. However, the voice call processing (steps S20 and S60) and the on-site worker selection processing (step S10) may be omitted.

図8は、図7のステップS50における処理内容の一例を示すフローチャートである。通信制御部101は、開始コードを送信する(ステップS51)。開始コードは、処理の開始を示す情報である。操作が終了するまでの間(ステップS52:NO)、送信周期に到達するごとに(ステップS53:YES)、身体動作点24の総数(n)を取得する(ステップS54)。初期値として、i=nとする。次に、i=0でない限り(ステップS55:NO)、検出部102は、モーションキャプチャデータを用いて一つの身体動作点24(X、Y、Z)における身体動作座標(XRi=X―X、YRi=Yi―Y、ZRi=Zi―Z)を取得する(ステップS56)。検出部102は、i=i-1とする(ステップS57)。iは初期値nから、n-1にデクリメントされる。i=0となるまでの間(ステップS55:NO)、検出部102は、ステップS55からステップS57の処理を繰り返す。 FIG. 8 is a flowchart showing an example of the processing content in step S50 of FIG. 7. The communication control unit 101 transmits a start code (step S51). The start code is information indicating the start of processing. Until the operation ends (step S52: NO), the total number (n) of body motion points 24 is acquired each time a transmission period is reached (step S53: YES) (step S54). The initial value i = n. Next, unless i = 0 (step S55: NO), the detection unit 102 acquires body motion coordinates ( XRi = Xi - X0 , YRi = Yi - Y0 , ZRi = Zi - Z0 ) for one body motion point 24 (Xi, Yi , Zi) using motion capture data (step S56). The detection unit 102 sets i = i - 1 (step S57). i is decremented from the initial value n to n - 1. Until i=0 (step S55: NO), the detection unit 102 repeats the processes from step S55 to step S57.

ステップS54から57の結果、検出部102は、i=1、2、・・・nの身体動作点24のそれぞれについて、モーションキャプチャデータに基づいて身体動作座標(XRi=X―X、YRi=Yi―Y、ZRi=Zi―Z)を取得することができる。i=0となると(ステップS55:YES)、身体動作点の数(n個)のすべてについて、身体動作座標を取得し終わる。通信制御部101は、身体動作点24の総数(n個)の情報と、身体動作座標(XRi=X―X、YRi=Yi―Y、ZRi=Zi―Z)の情報を、位置情報として送信する(ステップS58)。 As a result of steps S54 to S57, the detection unit 102 can acquire body motion coordinates ( XRi = Xi - X0 , YRi = Yi - Y0 , ZRi = Zi - Z0 ) based on the motion capture data for each of the body motion points 24 where i = 1 , 2 , ..., n. When i = 0 (step S55: YES), acquisition of body motion coordinates for all (n) body motion points has been completed. The communication control unit 101 transmits information on the total number (n) of body motion points 24 and information on the body motion coordinates ( XRi = Xi - X0 , YRi = Yi - Y0 , ZRi = Zi - Z0 ) as position information (step S58).

操作終了の指示がされると(ステップS52:YES)、通信制御部101は、作業側装置3に対して終了コードを送信する(ステップS59)。そして、処理はリターンする。 When an instruction to end the operation is given (step S52: YES), the communication control unit 101 sends an end code to the work-side device 3 (step S59). The process then returns.

図9は、第1実施形態の遠隔支援方法における作業側装置3の処理内容の一例を示すフローチャートである。音声制御部218は、支援者と作業者との間で音声通話を開始する(ステップS70)。通信制御部201は、支援側装置2から身体動作の情報を受信し、作業側表示部202は、受信した身体動作の情報に基づいて身体動作を示す仮想化された画像である身体動作画像を表示する(ステップS80)。支援処理が完了すると、音声制御部218は、音声通話を終了する(ステップS90)。 Figure 9 is a flowchart showing an example of the processing content of the working-side device 3 in the remote support method of the first embodiment. The voice control unit 218 initiates a voice call between the supporter and the worker (step S70). The communication control unit 201 receives body movement information from the support-side device 2, and the working-side display unit 202 displays a body movement image, which is a virtualized image showing the body movement based on the received body movement information (step S80). When the support processing is completed, the voice control unit 218 ends the voice call (step S90).

図10は、図9のステップS80における処理内容の一例を示すフローチャートである。通信制御部201は、支援側装置2から各種の情報を受信する受信部として機能する。通信制御部201は、支援側装置2から開始コードを受信すると(ステップS101:YES)、撮像部204を起動する(ステップS102)。撮像部204は、設備5を含む周辺環境の画像を撮影して画像データを生成する。画面制御部210は、生成された画像データを設備画像11として取得する。 Figure 10 is a flowchart showing an example of the processing content in step S80 of Figure 9. The communication control unit 201 functions as a receiving unit that receives various information from the support side device 2. When the communication control unit 201 receives a start code from the support side device 2 (step S101: YES), it activates the imaging unit 204 (step S102). The imaging unit 204 takes an image of the surrounding environment including the equipment 5 and generates image data. The screen control unit 210 acquires the generated image data as the equipment image 11.

通信制御部201が終了コードを受信した場合(ステップS103:Yes)、支援処理が終了したものとして、撮像部204を停止する(ステップS104)。そして、処理がリターンする。通信制御部201が終了コードを受信するまでの間は(ステップS103:NO)、通信制御部201が身体動作の情報を受信すると(ステップ105:YES)、画面制御部210は、身体動作点24の総数(n)および身体動作点24(i=1、2、・・・n)ごとの身体動作座標(XRi=X―X、YRi=Yi―Y、ZRi=Zi―Z)を取得する(ステップS106)。初期値としてi=nとしてよい。 If the communication control unit 201 receives an end code (step S103: Yes), it assumes that the assistance process has ended and stops the image capture unit 204 (step S104). Then, the process returns. Until the communication control unit 201 receives an end code (step S103: No), when the communication control unit 201 receives body movement information (step S105: Yes), the screen control unit 210 acquires the total number (n) of body movement points 24 and the body movement coordinates ( XRi = Xi - X0 , YRi = Yi - Y0 , ZRi = Zi - Z0 ) for each body movement point 24 (i = 1, 2, ... n ) (step S106). The initial value i = n may be used.

そして、画面制御部210は、基準点マーカー6を検出するマーカー検出部241としても機能する。画面制御部210は、基準点マーカー6の検出結果として、基準点マーカー6の位置を示すマーカー座標(X、Y、Z)を取得する(ステップS107)。次に、i=0でない限り(ステップS108:NO)、画面制御部210は、身体動作の情報に基づいて身体動作画像12を描画する。画面制御部210は、設備画像11と身体動作画像12を重ね合わせて合成した合成画像10を生成する。作業側表示部202は、合成画像12を表示する(ステップS109)。画面制御部210は、基準点マーカーの検出結果であるマーカー座標(X、Y、Z)と、受信された位置情報に含まれる身体動作座標(XRi=X―X、YRi=Yi―Y、ZRi=Zi―Z)とによって、設備画像11に対して身体動作画像12を合成する位置を(X+XRi、Y+YRi、Z+ZRi)に調整する。 The screen control unit 210 also functions as a marker detection unit 241 that detects the reference point marker 6. The screen control unit 210 acquires marker coordinates ( XM , YM , ZM ) indicating the position of the reference point marker 6 as the detection result of the reference point marker 6 (step S107). Next, unless i=0 (step S108: NO), the screen control unit 210 draws a body movement image 12 based on the body movement information. The screen control unit 210 generates a composite image 10 by superimposing the equipment image 11 and the body movement image 12. The work-side display unit 202 displays the composite image 12 (step S109). The screen control unit 210 adjusts the position at which the body movement image 12 is superimposed on the equipment image 11 to (XM + XRi , YM + YRi , ZM + ZRi ) based on the marker coordinates ( XM , YM , ZM ) that are the detection results of the reference point marker and the body movement coordinates ( XRi = Xi -X0 , YRi = Yi -Y0 , ZRi = Zi -Z0 ) included in the received position information .

次いで、画面制御部210は、i=i-1とする(ステップS110)。iは初期値nから、n-1にデクリメントされる。i=0となるまでの間(ステップS108:NO)、検出部102は、ステップS109およびS110の処理を繰り返す。この結果、画面制御部210は、i=1、2、・・・nの身体動作点24のそれぞれについて、仮想化された身体動作画像12を設備画像11に対して重ねわせて表示することができる。 Next, the screen control unit 210 sets i = i - 1 (step S110). i is decremented from the initial value n to n - 1. Until i = 0 (step S108: NO), the detection unit 102 repeats the processing of steps S109 and S110. As a result, the screen control unit 210 can display a virtualized body movement image 12 superimposed on the equipment image 11 for each body movement point 24 where i = 1, 2, ... n.

図11は、本発明の第1実施形態における遠隔支援システム1の他の例を示す図である図11における遠隔支援システム1において、作業側装置3は、補正用情報生成部220を備える。また、作業側装置3において、通信制御部201は、設備を撮像して得られた設備画像11を支援側装置2に送信する設備画像送信部として機能してよい。また、これに代えて、通信制御部201は、補正用情報生成部220によって生成された補正用情報を支援側装置2に送信する補正用情報送信部として機能してよい。補正用情報生成部220は、設備画像11に基づいて補正用情報を生成してよい。一例において、作業側装置3は、通信制御部201を通じて、支援側装置2から仮想モデル7を受信する。補正用情報生成部220が仮想モデル7と設備画像11とを比較して、補正用情報を作成してもよい。また、補正用情報は、解像度を低くしてデータ量を削減した設備画像11であってもよい。 FIG. 11 is a diagram showing another example of the remote support system 1 according to the first embodiment of the present invention. In the remote support system 1 in FIG. 11, the working-side device 3 includes a correction information generation unit 220. Furthermore, in the working-side device 3, the communication control unit 201 may function as an equipment image transmission unit that transmits an equipment image 11 obtained by capturing an image of the equipment to the support-side device 2. Alternatively, the communication control unit 201 may function as a correction information transmission unit that transmits correction information generated by the correction information generation unit 220 to the support-side device 2. The correction information generation unit 220 may generate correction information based on the equipment image 11. In one example, the working-side device 3 receives a virtual model 7 from the support-side device 2 via the communication control unit 201. The correction information generation unit 220 may compare the virtual model 7 with the equipment image 11 to create correction information. Furthermore, the correction information may be an equipment image 11 with a reduced resolution to reduce the amount of data.

支援側装置2は、モデル生成部120を備えてよい。モデル生成部120は、作業側装置3から受信した設備画像11に基づいて仮想モデル7を生成する。モデル生成部120は、作業側装置3において撮影された画像に基づいて設備5の動的な状態を検出することができる。モデル生成部120は、設備5の動的な状態に応じて、設備を模した仮想モデルを生成することができる。 The support-side device 2 may include a model generation unit 120. The model generation unit 120 generates a virtual model 7 based on an equipment image 11 received from the work-side device 3. The model generation unit 120 can detect the dynamic state of the equipment 5 based on images captured by the work-side device 3. The model generation unit 120 can generate a virtual model that imitates the equipment 5 according to the dynamic state of the equipment 5.

支援側装置2は、モデル補正部122を備えてよい。モデル補正部122は、作業側装置3から受信した補正用情報に基づいて仮想モデル7を補正してよい。一例において、補正用情報は、設備5についての画質の粗い二次元画像であってよい。一例において、仮想モデル7には、各部分の取り得る状態が設定されている。モデル生成部120は、補正用情報に基づいて、設備5の各部分の状態を検出し、検出結果に基づいて、各部分の状態を変化させることに仮想モデル7を補正してよい。 The support-side device 2 may include a model correction unit 122. The model correction unit 122 may correct the virtual model 7 based on correction information received from the work-side device 3. In one example, the correction information may be a two-dimensional image of the equipment 5 with a low image quality. In one example, the virtual model 7 includes settings for the possible states of each part. The model generation unit 120 may detect the state of each part of the equipment 5 based on the correction information, and correct the virtual model 7 by changing the state of each part based on the detection results.

本発明の第1実施形態の遠隔支援システム1によれば、スライタス等を仮想化して利用する場合に比べて、支援者の身体動作を仮想化して利用するので、直感的に操作内容を伝えることが可能となる。したがって、現場の作業者および作業の支援者の作業効率を向上することができる。また、単なるクロマキー合成に比べて、支援者を特定色の背景に立たせて動作させる必要もない。 The remote support system 1 of the first embodiment of the present invention uses virtualized body movements of the supporter, which makes it possible to intuitively convey the operation details, compared to when virtualized sliders or the like are used. This improves the work efficiency of on-site workers and supporters. Furthermore, unlike simple chromakey compositing, there is no need to have the supporter stand and operate against a background of a specific color.

図12は、本発明の第2実施形態における支援側装置2における仮想モデル7の一例を示す模式図である。図13は、本発明の第2実施形態における作業側装置3における合成画像80の一例を示す模式図である。 Figure 12 is a schematic diagram showing an example of a virtual model 7 in the support-side apparatus 2 in the second embodiment of the present invention. Figure 13 is a schematic diagram showing an example of a composite image 80 in the work-side apparatus 3 in the second embodiment of the present invention.

図12に示されるとおり、本実施形態において仮想モデル7は、取っ手25が設けられた扉を含んでよい。仮想モデル7は、複数の操作部位、すなわち、操作部位21および操作部位22を含んでいる。支援者は、仮想空間において、操作部位22を指定することによって、操作部位22の状態を変化させる。図12の例では、操作部位22は扉であり、支援者は、仮想空間内で特定の回転位置まで操作部位22を回動させるという支援操作を実行することができる。設備5の操作部位22における支援操作の内容を示す操作情報が支援側装置2から作業側装置3へ送信される。操作情報には、操作部位22の位置23(X、Y、Z)に関する情報と、操作部位回転角(R、R、R)が含まれていてよい。操作部位22の位置23(X、Y、Z)に関する情報は、基準点Pを基準とした操作部位22の位置23の操作部位相対座標(X、Y、Z)であってよい。操作部位相対座標(X、Y、Z)は、X=X―X、Y=Y―Y、Z=Z―Zで表される。 As shown in Fig. 12 , in this embodiment, the virtual model 7 may include a door provided with a handle 25. The virtual model 7 includes a plurality of operation parts, namely, an operation part 21 and an operation part 22. The assistant changes the state of the operation part 22 by specifying the operation part 22 in the virtual space. In the example of Fig. 12 , the operation part 22 is a door, and the assistant can perform an assisting operation of rotating the operation part 22 to a specific rotation position in the virtual space. Operation information indicating the content of the assisting operation at the operation part 22 of the equipment 5 is transmitted from the support-side apparatus 2 to the work-side apparatus 3. The operation information may include information on the position 23 ( X1 , Y1 , Z1 ) of the operation part 22 and the operation part rotation angle ( Rx , Ry , Rz ). The information regarding the position 23 ( X1 , Y1 , Z1 ) of the operation part 22 may be the relative operation part coordinates ( XR , YR , ZR ) of the position 23 of the operation part 22 based on the reference point P0 . The relative operation part coordinates ( XR , YR , ZR ) are expressed as XR = X1 - X0 , YR = Y1 - Y0 , ZR = Z1 - Z0 .

作業側装置3は、図13に示されるように、撮像部204によって設備5を撮像して得られた設備画像11と、支援操作後の設備5の状態を示す操作状態画像30とを合成した合成画像80を表示する作業側表示部202を有する。本例では、合成画像80は、取っ手33を含む扉の画像を含んでよい。作業側装置3は、操作情報として、操作部位22の座標(X、Y、Z)に関する情報と、操作部位回転角(R、R、R)とを受信する。作業側装置3は、操作情報に基づいて、操作状態画像30を生成する。そして、作業側表示部202は、設備画像11に対して、操作状態画像30を重ねて生成された合成画像80を表示する。操作状態画像30は、複数の操作部位の画像31、32を含んでいる。操作部位の画像32は、複数の状態を取り得る。本例では、操作部位の画像32は、扉の開閉具合の状態を示す。作業側表示部202は、操作状態画像30とともに、支援操作の内容に関するメッセージ35および記号36を表示してもよい。これにより作業者に対して操作状態がより伝わりやすくなる。 As shown in FIG. 13 , the work-side apparatus 3 has a work-side display unit 202 that displays a composite image 80 obtained by combining an equipment image 11 obtained by capturing an image of the equipment 5 using the imaging unit 204 with an operation status image 30 that indicates the state of the equipment 5 after the assist operation. In this example, the composite image 80 may include an image of a door including a handle 33. The work-side apparatus 3 receives, as operation information, information on the coordinates ( X1 , Y1 , Z1 ) of the operation portion 22 and the operation portion rotation angle ( Rx , Ry , Rz ). The work-side apparatus 3 generates the operation status image 30 based on the operation information. Then, the work-side display unit 202 displays the composite image 80 generated by overlaying the operation status image 30 on the equipment image 11. The operation status image 30 includes multiple operation portion images 31 and 32. The operation portion image 32 can be in multiple states. In this example, the operation portion image 32 indicates the state of the door being opened or closed. The worker-side display unit 202 may display a message 35 and a symbol 36 relating to the content of the assist operation together with the operation status image 30. This makes it easier for the worker to understand the operation status.

図14は、本発明の第2実施形態における遠隔支援システム1の一例を示す図である。遠隔支援システム1は、支援側装置2と作業側装置3を備える。支援側装置2と作業側装置3は通信ネットワーク4を通じて通信可能に接続されてよい。支援側装置2は、ヘッドマウントディスプレイ(HMD)方式の仮想現実ウェアラブルコンピュータ端末であってよい。 Figure 14 is a diagram showing an example of a remote support system 1 according to the second embodiment of the present invention. The remote support system 1 includes a support side device 2 and a work side device 3. The support side device 2 and the work side device 3 may be communicably connected via a communication network 4. The support side device 2 may be a head-mounted display (HMD) type virtual reality wearable computer terminal.

本例の支援側装置2は、通信制御部131、操作部位検出部130および支援側表示部103を備える。本例では、支援側表示部103は、図12に示されるように仮想モデル7を表示する。支援側表示部103は、ホログラフィックレンズディスプレイを有してよい。操作部位検出部130は、設備5の操作部位における支援操作の内容を検出する。図12に示された例では、操作部位検出部130は、設備5の操作部位22における扉を操作部位回転角まで回転するという支援操作の内容を検出する。 The support-side device 2 in this example includes a communication control unit 131, an operation part detection unit 130, and a support-side display unit 103. In this example, the support-side display unit 103 displays the virtual model 7 as shown in FIG. 12. The support-side display unit 103 may have a holographic lens display. The operation part detection unit 130 detects the content of the support operation at the operation part of the equipment 5. In the example shown in FIG. 12, the operation part detection unit 130 detects the content of the support operation, which is to rotate the door at the operation part 22 of the equipment 5 to the operation part rotation angle.

操作部位検出部130は、モーションキャプチャデバイス106から、支援操作の内容を示すモーションキャプチャデータを取り込む。操作部位検出部130は、仮想モデル7と支援者の身体に対応する身体領域との衝突判定、または仮想モデル7と支援者の操作する指示画像(たとえば、スライタス、ポインタ等)との衝突判定により、支援者が指定する操作部位を特定してよい。操作部位検出部130は、第1実施形態における検出部102と同様に仮想モデル7に対する支援者の身体動作を検出してもよい。この場合、操作部位検出部130は、第1実施形態における身体動作の検出技術を利用して身体動作を検出することによって、支援操作の内容を検出してよい。 The operating part detection unit 130 imports motion capture data indicating the content of the assisting operation from the motion capture device 106. The operating part detection unit 130 may identify the operating part designated by the assistant by determining whether there is a collision between the virtual model 7 and a body region corresponding to the assistant's body, or between the virtual model 7 and an instruction image (e.g., a slider, pointer, etc.) operated by the assistant. The operating part detection unit 130 may detect the assistant's body movements relative to the virtual model 7, similar to the detection unit 102 in the first embodiment. In this case, the operating part detection unit 130 may detect the content of the assisting operation by detecting body movements using the body movement detection technology in the first embodiment.

通信制御部131は、支援操作の内容を示す操作情報を送信する操作情報送信部として機能する。この結果、支援側装置2は、設備5を模した仮想モデル7の操作部位における操作内容を検出して作業側装置3に送ることができる。通信制御部131は、操作情報として、操作部位22の座標(X、Y、Z)に関する情報と、操作部位回転角(R、R、R)とを作業側装置3に送信することができる。 The communication control unit 131 functions as an operation information transmitting unit that transmits operation information indicating the content of the assisting operation. As a result, the support-side device 2 can detect the operation content at the operation part of the virtual model 7 that simulates the equipment 5 and send it to the working-side device 3. The communication control unit 131 can transmit information related to the coordinates ( X1 , Y1 , Z1 ) of the operation part 22 and the operation part rotation angle ( Rx , Ry , Rz ) to the working-side device 3 as operation information.

本例の支援側装置2は、仮想モデル格納部104、選択部105、画面制御部110、センサ112、マイク114、スピーカ116、および音声制御部118を備えてよい。これらの構成は、図2に示される構成と同様であってよい。したがって、繰り返しの説明を省略する。 The support side device 2 in this example may include a virtual model storage unit 104, a selection unit 105, a screen control unit 110, a sensor 112, a microphone 114, a speaker 116, and an audio control unit 118. These components may be similar to those shown in FIG. 2. Therefore, repeated explanations will be omitted.

作業側装置3は、通信制御部231および作業側表示部202を備える。作業側装置3は、撮像部204、画面制御部210、センサ212、マイク214、スピーカ216、および音声制御部218を備えてよい。通信制御部231は、操作情報を受信する受信部として機能する。画面制御部210は、支援操作後の設備5の状態を示す操作状態画像30を設備画像11に重ねて合成する。作業側表示部202は、支援操作後の設備5の状態を示す操作状態画像30を設備5の画像に重ねて表示する。具体的には、作業側表示部202は、合成画像80を表示する。作業側表示部202は、操作状態画像30とともに、支援操作の内容に関するメッセージ35および記号36を表示してもよい。 The work-side device 3 includes a communication control unit 231 and a work-side display unit 202. The work-side device 3 may include an imaging unit 204, a screen control unit 210, a sensor 212, a microphone 214, a speaker 216, and an audio control unit 218. The communication control unit 231 functions as a receiving unit that receives operation information. The screen control unit 210 superimposes an operation status image 30 indicating the state of the equipment 5 after the assisting operation onto the equipment image 11 to create a composite image. The work-side display unit 202 displays the operation status image 30 indicating the state of the equipment 5 after the assisting operation, superimposed onto the image of the equipment 5. Specifically, the work-side display unit 202 displays a composite image 80. The work-side display unit 202 may display a message 35 and a symbol 36 regarding the content of the assisting operation together with the operation status image 30.

作業側装置3は、画像生成部230および作業側仮想モデル格納部232を備えてよい。作業側仮想モデル格納部232は、設備5を模した作業側仮想モデルを格納する。画像生成部230は、操作部位21、22ごとに指定された支援内容に応じて、支援操作後の設備の状態を示す操作状態画像30を生成する。画像生成部230は、操作情報に基づいて作業側仮想モデルを変形する変形部として機能してよい。作業側表示部202は、変形された作業側仮想モデルを操作状態画像30として表示してもよい。作業側表示部202は、身体領域または指示画像が仮想モデル7に接触する部位の表示を変化させて表示してもよい。図13に示される例では、支援動作がされている操作部位の画像32を点線で表示している。 The work-side device 3 may include an image generation unit 230 and a work-side virtual model storage unit 232. The work-side virtual model storage unit 232 stores a work-side virtual model that simulates the equipment 5. The image generation unit 230 generates an operation status image 30 that shows the state of the equipment after an assist operation, according to the assistance content specified for each operation portion 21, 22. The image generation unit 230 may function as a deformation unit that deforms the work-side virtual model based on the operation information. The work-side display unit 202 may display the deformed work-side virtual model as the operation status image 30. The work-side display unit 202 may change the display of the body region or the portion where the instruction image comes into contact with the virtual model 7. In the example shown in FIG. 13 , the image 32 of the operation portion where the assistance operation is being performed is displayed with a dotted line.

これらの点を除いて、撮像部204、画面制御部210、センサ212、マイク214、スピーカ216、および音声制御部218については、図2に示される構成と同様である。したがって、繰り返しの説明を省略する。 Apart from these points, the imaging unit 204, screen control unit 210, sensor 212, microphone 214, speaker 216, and audio control unit 218 have the same configuration as shown in Figure 2. Therefore, repeated explanations will be omitted.

図15は、本発明の第2実施形態における遠隔支援システム1の他の例を示す図である。図14に示される場合には、操作部位検出部130は、仮想モデル7に対する支援者の身体動作を検出する。但し、本実施形態の遠隔支援システム1は、この場合に限られない。 Figure 15 is a diagram showing another example of the remote support system 1 in the second embodiment of the present invention. In the case shown in Figure 14, the operation part detection unit 130 detects the body movement of the supporter relative to the virtual model 7. However, the remote support system 1 of this embodiment is not limited to this case.

図15に示される例では、センサ112が省略されている。支援側装置2は、ポインティングデバイス132を備える。ポインティングデバイス132は、たとえばマウスであってよい。支援者は、ポインティングデバイス132を操作する。操作部位検出部130は、ポインティングデバイス132からの信号に基づいて操作部位を検出する。具体的には、操作部位検出部130は、ポインティングデバイス132のカーソル画像と仮想モデル7との衝突判定により、操作部位を検出してよい。他の構造は、図14に示された構造と同様であるので、繰り返しの説明を省略する。 In the example shown in FIG. 15, the sensor 112 is omitted. The support side device 2 includes a pointing device 132. The pointing device 132 may be, for example, a mouse. The supporter operates the pointing device 132. The operation part detection unit 130 detects the operation part based on a signal from the pointing device 132. Specifically, the operation part detection unit 130 may detect the operation part by determining whether the cursor image of the pointing device 132 has collided with the virtual model 7. The other structure is the same as the structure shown in FIG. 14, so repeated explanation will be omitted.

図16は、第2実施形態の遠隔支援方法における支援側装置の処理内容の一例を示すフローチャートである。遠隔支援方法は、支援側装置2と作業側装置3とにより作業を支援する。選択部105は、支援者の指示に基づいて現場作業者を選択する(ステップS120)。支援者は、ポインティングデバイス等により現場作業者を指示することができる。音声制御部118は、選択された現場作業者と支援者との間で音声通話を開始する(ステップS130)。選択部105は、仮想モデル格納部104に格納されている複数の仮想モデルの中から、支援対象の設備5に対応する仮想モデル7を選択する(ステップS140)。選択部105は、設備5の識別情報を作業側装置3から受信し、識別情報に基づいて仮想モデル7を選択してよい。但し、選択部105は、支援者の指示に基づいて仮想モデルを選択してもよい。支援者は、ポインティングデバイス等により仮想モデル7を指示することができる。 Figure 16 is a flowchart showing an example of processing details of the support-side device in the remote support method of the second embodiment. In the remote support method, work is supported using the support-side device 2 and the work-side device 3. The selection unit 105 selects a field worker based on instructions from the supporter (step S120). The supporter can instruct the field worker using a pointing device or the like. The voice control unit 118 initiates a voice call between the selected field worker and the supporter (step S130). The selection unit 105 selects a virtual model 7 corresponding to the facility 5 to be supported from among multiple virtual models stored in the virtual model storage unit 104 (step S140). The selection unit 105 may receive identification information for the facility 5 from the work-side device 3 and select the virtual model 7 based on the identification information. However, the selection unit 105 may also select a virtual model based on instructions from the supporter. The supporter can point to the virtual model 7 using a pointing device or the like.

支援側表示部103は、設備5を模した仮想モデル7を表示する(ステップS150)。仮想モデル7は、仮想モデル格納部104に格納されていてもよく、ダウンロードしてもよい。支援者は表示された仮想モデル7を用いて仮想空間において操作する。操作部位検出部130は、設備の操作部位22における支援操作の内容を検出する。支援操作の内容を示す操作情報を作業側装置3に送信する(ステップS160)音声制御部118は、音声通話を終了する(ステップS170)。なお、音声通話によって設備の識別情報が作業者から支援者に伝えられてもよい。但し、音声通話の処理(ステップS130およびステップS170)および現場作業者の選択処理(ステップS120)は省略されてもよい。 The support-side display unit 103 displays a virtual model 7 that resembles the equipment 5 (step S150). The virtual model 7 may be stored in the virtual model storage unit 104 or may be downloaded. The supporter operates the displayed virtual model 7 in virtual space. The operation part detection unit 130 detects the content of the support operation at the operation part 22 of the equipment. Operation information indicating the content of the support operation is sent to the work-side device 3 (step S160). The voice control unit 118 then ends the voice call (step S170). Note that the worker may communicate equipment identification information to the supporter via voice call. However, the voice call processing (steps S130 and S170) and the on-site worker selection processing (step S120) may be omitted.

図17は、図16のステップS160における処理内容の一例を示すフローチャートである。通信制御部101は、開始コードおよび設備IDを送信する(ステップS200)。開始コードは、処理の開始を示す情報である。設備IDは、設備を特定するための識別情報である。操作が終了するまでの間(ステップS201:NO)、送信周期に到達するごとに(ステップS202:YES)、操作部位検出部130は、衝突判定を実行する(ステップS203)。 Figure 17 is a flowchart showing an example of the processing content in step S160 of Figure 16. The communication control unit 101 transmits a start code and a facility ID (step S200). The start code is information indicating the start of processing. The facility ID is identification information for identifying the facility. Until the operation is completed (step S201: NO), the operation part detection unit 130 performs a collision determination (step S203) each time the transmission period is reached (step S202: YES).

本実施形態において仮想モデル7は、設備5を模してしる。仮想モデル7は、複数の操作部位、すなわち、操作部位21および操作部位22を備える。身体動作により操作部位21および操作部位22を特定する場合には、操作部位検出部130は、モーションキャプチャデバイス106からのデータに基づいて、支援者の身体に対応する身体領域画像を取得する。身体領域画像は、身体動作点24の座標に基づいて生成されてよい。一例において、身体領域画像は、図5に示される姿勢データまたは図6に示される点群データであってよい。 In this embodiment, the virtual model 7 is modeled after the equipment 5. The virtual model 7 has multiple operating parts, namely, operating parts 21 and 22. When the operating parts 21 and 22 are identified by body movements, the operating part detection unit 130 acquires a body area image corresponding to the supporter's body based on data from the motion capture device 106. The body area image may be generated based on the coordinates of the body movement point 24. In one example, the body area image may be the posture data shown in FIG. 5 or the point cloud data shown in FIG. 6.

操作部位検出部130は、仮想モデル7と支援者の身体に対応する身体領域画像との衝突判定を実行する(ステップS203)。複数の操作部位21および22の中で、支援者の身体領域画像と衝突する場合、衝突している操作部位22が選択される。ポインティングデバイス132によって操作部位21が選択される場合には、操作部位検出部130は、ポインティングデバイス132のカーソル画像と仮想モデル7との衝突判定により、操作部位を検出してよい。衝突判定(ステップS203)は、送信周期(ステップS202:YES)ごとに実行されてよい。 The operation part detection unit 130 performs a collision determination between the virtual model 7 and the body area image corresponding to the supporter's body (step S203). If one of the multiple operation parts 21 and 22 collides with the supporter's body area image, the colliding operation part 22 is selected. If the operation part 21 is selected by the pointing device 132, the operation part detection unit 130 may detect the operation part by performing a collision determination between the cursor image of the pointing device 132 and the virtual model 7. The collision determination (step S203) may be performed for each transmission cycle (step S202: YES).

操作部位がある場合(ステップS203:YES)、操作部位検出部130は操作部位22の識別情報(ID)を取得する(ステップS204)。そして、操作部位検出部130は、基準点P(X、Y、Z)を基準とした操作部位22の位置23(X、Y、Z)の相対座標である操作部位相対座標(X、Y、Z)(但し、X=X―X、Y=Y―Y、Z=Z―Z)を取得してよい。さらに、操作部位検出部130は、操作部位22の姿勢を示す操作部位回転角(R、R、R)を取得する(ステップS206)。操作部位回転角(R、R、R)は、X軸、Y軸およびZ軸の回転角を意味する。 If an operation part is found (step S203: YES), the operation part detection unit 130 acquires identification information (ID) of the operation part 22 (step S204). Then, the operation part detection unit 130 may acquire operation part relative coordinates ( XR , YR , ZR ) (where XR = X1 - X0, YR = Y1 - Y0 , ZR = Z1 - Z0 ) which are relative coordinates of the position 23 ( X1 , Y1 , Z1 ) of the operation part 22 with reference to the reference point P0 (X0, Y0 , Z0 ) . Furthermore, the operation part detection unit 130 acquires operation part rotation angles ( Rx , Ry , Rz ) which indicate the orientation of the operation part 22 ( step S206). The operation part rotation angles ( Rx , Ry , Rz ) refer to the rotation angles of the X-axis, Y-axis, and Z-axis.

通信制御部131は、操作情報を作業側装置3に対して送信する。操作情報には、操作部位の識別情報(ID)、操作部位相対座標(X、Y、Z)、および操作部位回転角(R、R、R)が含まれてよい。 The communication control unit 131 transmits the operation information to the work-side apparatus 3. The operation information may include identification information (ID) of the operation part, relative coordinates of the operation part ( XR , YR , ZR ), and rotation angles of the operation part ( Rx , Ry , Rz ).

操作終了の指示がされると(ステップS201:NO)、通信制御部131は、作業側装置3に対して終了コードを送信する(ステップS208)。そして、処理はリターンする。 When an instruction to end the operation is given (step S201: NO), the communication control unit 131 sends an end code to the work-side device 3 (step S208). The process then returns.

図18は、第2実施形態の遠隔支援方法における作業側装置3の処理内容の一例を示すフローチャートである。音声制御部218は、支援者と作業者との間で音声通話を開始する(ステップS300)。通信制御部201は、支援側装置2から、操作情報を受信する。作業側表示部202は、受信した操作情報に基づいて、支援操作後の設備の状態を示す操作状態画像30を設備画像11に重ねて表示する(ステップS310)。支援処理が完了すると、音声制御部218は、音声通話を終了する(ステップS320)。 Figure 18 is a flowchart showing an example of the processing details of the working-side device 3 in the remote support method of the second embodiment. The voice control unit 218 initiates a voice call between the supporter and the worker (step S300). The communication control unit 201 receives operation information from the support-side device 2. Based on the received operation information, the working-side display unit 202 displays an operation status image 30 indicating the state of the equipment after the support operation, superimposed on the equipment image 11 (step S310). When the support processing is completed, the voice control unit 218 terminates the voice call (step S320).

図19は、図18のステップS310における処理内容の一例を示すフローチャートである。通信制御部201は、支援側装置2から各種の情報を受信する受信部として機能する。通信制御部201は、支援側装置2から開始コードを受信すると(ステップS401:YES)、仮想モデル7を取得する(ステップS402)。仮想モデル7は、外部からダウンロードしてもよく、支援側装置2から受信してもよく、作業側装置3内の作業側仮想モデル格納部232から取得してもよい。 Figure 19 is a flowchart showing an example of the processing content in step S310 of Figure 18. The communication control unit 201 functions as a receiving unit that receives various information from the support-side device 2. When the communication control unit 201 receives a start code from the support-side device 2 (step S401: YES), it acquires the virtual model 7 (step S402). The virtual model 7 may be downloaded from an external device, received from the support-side device 2, or acquired from the working-side virtual model storage unit 232 in the working-side device 3.

次いで、通信制御部201は、支援側装置2から開始コードを受信すると、撮像部204を起動する(ステップS403)。撮像部204は、設備5を含む周辺環境の画像を撮影して画像データを生成する。画面制御部210は、生成された画像データを設備画像11として取得する。 Next, when the communication control unit 201 receives the start code from the support side device 2, it activates the imaging unit 204 (step S403). The imaging unit 204 captures an image of the surrounding environment including the equipment 5 and generates image data. The screen control unit 210 acquires the generated image data as the equipment image 11.

画面制御部210は、基準点マーカー6を検出するマーカー検出部241としても機能する。画面制御部210は、基準点マーカー6の検出結果として、基準点マーカー6の位置を示すマーカー座標(X、Y、Z)を取得する(ステップS404)。画面制御部210は、設備5を含む周辺環境の画像を撮影して得られた設備画像11に対して、仮想モデル7を合成して、作業側表示部202に表示させてよい(ステップS405)。 The screen control unit 210 also functions as a marker detection unit 241 that detects the reference point marker 6. The screen control unit 210 acquires marker coordinates ( XM , YM , ZM ) indicating the position of the reference point marker 6 as the detection result of the reference point marker 6 (step S404). The screen control unit 210 may combine the virtual model 7 with an equipment image 11 obtained by capturing an image of the surrounding environment including the equipment 5, and display the combined image on the work-side display unit 202 (step S405).

通信制御部201が終了コードを受信するまでの間は(ステップS406:NO)、通信制御部201が操作情報(操作部位情報)を受信すると(ステップS407:YES)、画像生成部230は、操作部位22の識別情報(ID)、操作部位相対座標(X、Y、Z)、および操作部位回転角(R、R、R)を取得する(ステップS408)。 Until the communication control unit 201 receives an end code (step S406: NO), when the communication control unit 201 receives operation information (operation part information) (step S407: YES), the image generation unit 230 acquires the identification information (ID) of the operation part 22, the operation part relative coordinates ( XR , YR , ZR ), and the operation part rotation angle ( Rx , Ry , Rz ) (step S408).

画像生成部230は、操作部位22の識別情報(ID)、操作部位相対座標(X、Y、Z)、および操作部位回転角(R、R、R)に基づいて、支援操作後の設備5の状態を示す操作状態画像30を描画する。換言すれば、画像生成部230は、ステップS405で合成した仮想モデル7を変形して操作状態画像30を描画(再描画)してよい。 The image generation unit 230 draws an operation state image 30 indicating the state of the equipment 5 after the assist operation, based on the identification information (ID), the operation portion relative coordinates ( XR , YR , ZR ), and the operation portion rotation angles ( Rx , Ry , Rz ) of the operation portion 22. In other words, the image generation unit 230 may draw (redraw) the operation state image 30 by deforming the virtual model 7 synthesized in step S405.

画面制御部210は、設備画像11に対して、操作状態画像30を重ねて合成することによって合成画像80を生成する。作業側表示部202は、合成画像80を表示する(ステップS409)。時刻ごとに操作部位回転角(R、R、R)が変化すると、それに応じて、操作状態画像30も変化して表示されてよい。設備画像11、操作状態画像30、および合成画像80は三次元画像であってよい。 The screen control unit 210 generates a composite image 80 by overlaying and combining the operation status image 30 on the equipment image 11. The work-side display unit 202 displays the composite image 80 (step S409). When the operation part rotation angle ( Rx , Ry , Rz ) changes over time, the operation status image 30 may also change and be displayed accordingly. The equipment image 11, operation status image 30, and composite image 80 may be three-dimensional images.

通信制御部201が終了コードを受信した場合(ステップS406:Yes)、支援処理が終了したものとして、撮像部204を停止する(ステップS410)。そして、処理がリターンする。 If the communications control unit 201 receives an end code (step S406: Yes), it assumes that the assistance process has ended and stops the imaging unit 204 (step S410). Then, the process returns.

本発明の第2実施形態の遠隔支援システム1によれば、仮想物体を動的に変化させて提示することができるので、直感的に操作内容を伝えることが可能となる。したがって、現場の作業者および作業の支援者の作業効率を向上することができる。特に、支援者の身体動作および設備の動作を伴うような複雑な作業内容を的確に作業者に伝えることが可能になる。具体的には、設備の状態および設備の動きを作業者に適確に伝えることが可能になる。設備状態画像を、設備画像を含む背景に重ねて表示することができるので、どの部分の設備状態なのかを的確に伝えることが容易になる。 The remote support system 1 of the second embodiment of the present invention can dynamically change and present virtual objects, making it possible to intuitively communicate operation details. This can improve the work efficiency of on-site workers and work assistants. In particular, it becomes possible to accurately communicate to workers complex work details that involve the physical movements of the assistant and the operation of the equipment. Specifically, it becomes possible to accurately communicate the status and movement of the equipment to workers. Since an equipment status image can be displayed superimposed on a background that also includes the equipment image, it becomes easy to accurately communicate the status of which parts of the equipment.

また、単なるクロマキー合成に比べて、支援者を特定色の背景に立たせて動作させる必要もない。 Also, unlike simple chromakey compositing, there is no need for the supporter to stand and move against a background of a specific color.

図20は、本発明の第3実施形態における作業側装置3における合成画像90の一例を示す模式図である。図20に示されるとおり、第1実施形態の内容と第2実施形態の内容を統合して、作業側装置3において合成画像90を表示することができる。具体的には、作業側表示部202は、第1実施形態における身体動作画像12と、第2実施形態における操作状態画像30とを共に表示してよい。この場合、遠隔支援システム1は、図2および図11に示される構成と、図14および図15に示される構成とを有してよい。繰り返しの説明を省略する。 Figure 20 is a schematic diagram showing an example of a composite image 90 on the work-side apparatus 3 in the third embodiment of the present invention. As shown in Figure 20, the content of the first embodiment and the content of the second embodiment can be integrated to display the composite image 90 on the work-side apparatus 3. Specifically, the work-side display unit 202 may display both the body movement image 12 in the first embodiment and the operation status image 30 in the second embodiment. In this case, the remote support system 1 may have the configurations shown in Figures 2 and 11 and the configurations shown in Figures 14 and 15. Repetitive explanations will be omitted.

図21は、本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ2200の例を示す。コンピュータ2200にインストールされたプログラムは、コンピュータ2200に、本発明の実施形態に係る装置に関連付けられる操作または当該装置の1または複数のセクションとして機能させることができ、または当該操作または当該1または複数のセクションを実行させることができ、および/またはコンピュータ2200に、本発明の実施形態に係る方法または当該方法の段階を実行させることができる。そのようなプログラムは、コンピュータ2200に、本明細書に記載のフローチャートおよびブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定の操作を実行させるべく、CPU2212によって実行されてよい。 Figure 21 shows an example of a computer 2200 in which aspects of the present invention may be embodied, in whole or in part. Programs installed on the computer 2200 may cause the computer 2200 to function as or perform operations associated with an apparatus or one or more sections of the apparatus according to embodiments of the present invention, and/or to perform methods or steps of methods according to embodiments of the present invention. Such programs may be executed by the CPU 2212 to cause the computer 2200 to perform specific operations associated with some or all of the blocks in the flowcharts and block diagrams described herein.

本実施形態によるコンピュータ2200は、CPU2212、RAM2214、グラフィックコントローラ2216、およびディスプレイデバイス2218を含み、それらはホストコントローラ2210によって相互に接続されている。コンピュータ2200はまた、通信インタフェース2222、ハードディスクドライブ2224、DVD-ROMドライブ2226、およびICカードドライブのような入/出力ユニットを含み、それらは入/出力コントローラ2220を介してホストコントローラ2210に接続されている。コンピュータはまた、ROM2230およびキーボード2242のようなレガシの入/出力ユニットを含み、それらは入/出力チップ2240を介して入/出力コントローラ2220に接続されている。 The computer 2200 according to this embodiment includes a CPU 2212, RAM 2214, a graphics controller 2216, and a display device 2218, which are interconnected by a host controller 2210. The computer 2200 also includes input/output units such as a communications interface 2222, a hard disk drive 2224, a DVD-ROM drive 2226, and an IC card drive, which are connected to the host controller 2210 via an input/output controller 2220. The computer also includes legacy input/output units such as a ROM 2230 and a keyboard 2242, which are connected to the input/output controller 2220 via an input/output chip 2240.

CPU2212は、ROM2230およびRAM2214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ2216は、RAM2214内に提供されるフレームバッファ等またはそれ自体の中にCPU2212によって生成されたイメージデータを取得し、イメージデータがディスプレイデバイス2218上に表示されるようにする。 The CPU 2212 operates according to programs stored in the ROM 2230 and RAM 2214, thereby controlling each unit. The graphics controller 2216 retrieves image data generated by the CPU 2212 into a frame buffer or the like provided in the RAM 2214 or into the graphics controller itself, and causes the image data to be displayed on the display device 2218.

通信インタフェース2222は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブ2224は、コンピュータ2200内のCPU2212によって使用されるプログラムおよびデータを格納する。DVD-ROMドライブ2226は、プログラムまたはデータをDVD-ROM2201から読み取り、ハードディスクドライブ2224にRAM2214を介してプログラムまたはデータを提供する。ICカードドライブは、プログラムおよびデータをICカードから読み取り、および/またはプログラムおよびデータをICカードに書き込む。 The communication interface 2222 communicates with other electronic devices via a network. The hard disk drive 2224 stores programs and data used by the CPU 2212 in the computer 2200. The DVD-ROM drive 2226 reads programs or data from the DVD-ROM 2201 and provides the programs or data to the hard disk drive 2224 via the RAM 2214. The IC card drive reads programs and data from an IC card and/or writes programs and data to an IC card.

ROM2230はその中に、アクティブ化時にコンピュータ2200によって実行されるブートプログラム等、および/またはコンピュータ2200のハードウェアに依存するプログラムを格納する。入/出力チップ2240はまた、様々な入/出力ユニットをパラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入/出力コントローラ2220に接続してよい。 ROM 2230 stores therein boot programs and the like that are executed by computer 2200 upon activation, and/or programs that depend on the hardware of computer 2200. I/O chip 2240 may also connect various I/O units to I/O controller 2220 via parallel ports, serial ports, keyboard ports, mouse ports, etc.

プログラムが、DVD-ROM2201またはICカードのようなコンピュータ可読媒体によって提供される。プログラムは、コンピュータ可読媒体から読み取られ、コンピュータ可読媒体の例でもあるハードディスクドライブ2224、RAM2214、またはROM2230にインストールされ、CPU2212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ2200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置または方法が、コンピュータ2200の使用に従い情報の操作または処理を実現することによって構成されてよい。 The programs are provided on a computer-readable medium such as a DVD-ROM 2201 or an IC card. The programs are read from the computer-readable medium, installed on the hard disk drive 2224, RAM 2214, or ROM 2230, which are also examples of computer-readable media, and executed by the CPU 2212. The information processing described in these programs is read by the computer 2200, resulting in cooperation between the programs and the various types of hardware resources described above. An apparatus or method may be configured by implementing information manipulation or processing in accordance with the use of the computer 2200.

例えば、通信がコンピュータ2200および外部デバイス間で実行される場合、CPU2212は、RAM2214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース2222に対し、通信処理を命令してよい。通信インタフェース2222は、CPU2212の制御下、RAM2214、ハードディスクドライブ2224、DVD-ROM2201、またはICカードのような記録媒体内に提供される送信バッファ処理領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信された受信データを記録媒体上に提供される受信バッファ処理領域等に書き込む。 For example, when communication is performed between computer 2200 and an external device, CPU 2212 may execute a communication program loaded into RAM 2214 and instruct communication interface 2222 to perform communication processing based on the processing described in the communication program. Under the control of CPU 2212, communication interface 2222 reads transmission data stored in a transmission buffer processing area provided in RAM 2214, hard disk drive 2224, DVD-ROM 2201, or a recording medium such as an IC card, and transmits the read transmission data to the network, or writes received data received from the network to a reception buffer processing area, etc., provided on the recording medium.

また、CPU2212は、ハードディスクドライブ2224、DVD-ROMドライブ2226(DVD-ROM2201)、ICカード等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM2214に読み取られるようにし、RAM2214上のデータに対し様々なタイプの処理を実行してよい。CPU2212は次に、処理されたデータを外部記録媒体にライトバックする。 The CPU 2212 may also cause all or necessary portions of a file or database stored on an external recording medium such as the hard disk drive 2224, DVD-ROM drive 2226 (DVD-ROM 2201), IC card, etc. to be read into the RAM 2214, and perform various types of processing on the data on the RAM 2214. The CPU 2212 then writes the processed data back to the external recording medium.

様々なタイプのプログラム、データ、テーブル、およびデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU2212は、RAM2214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプの操作、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM2214に対しライトバックする。また、CPU2212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU2212は、第1の属性の属性値が指定される、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。 Various types of information, such as various types of programs, data, tables, and databases, may be stored on the recording medium and may undergo information processing. CPU 2212 may perform various types of processing on data read from RAM 2214, including various types of operations, information processing, conditional judgment, conditional branching, unconditional branching, information search/replacement, etc., as described throughout this disclosure and specified by the program's instruction sequence, and write the results back to RAM 2214. CPU 2212 may also search for information in files, databases, etc. on the recording medium. For example, if multiple entries, each having an attribute value of a first attribute associated with an attribute value of a second attribute, are stored on the recording medium, CPU 2212 may search for an entry that matches a condition specified by the attribute value of the first attribute from among the multiple entries, read the attribute value of the second attribute stored in the entry, and thereby obtain the attribute value of the second attribute associated with the first attribute that satisfies a predetermined condition.

上で説明したプログラムまたはソフトウェアモジュールは、コンピュータ2200上またはコンピュータ2200近傍のコンピュータ可読媒体に格納されてよい。また、専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ2200に提供する。 The programs or software modules described above may be stored on computer-readable media on or near computer 2200. Recording media such as a hard disk or RAM provided within a server system connected to a dedicated communications network or the Internet can also be used as computer-readable media, thereby providing the programs to computer 2200 via the network.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 The present invention has been described above using embodiments, but the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be clear to those skilled in the art that various modifications and improvements can be made to the above embodiments. It is clear from the claims that such modifications and improvements can also be included within the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順序で実施することが必須であることを意味するものではない。 The order of execution of each process, such as operations, procedures, steps, and stages, in the devices, systems, programs, and methods shown in the claims, specifications, and drawings is not specifically stated as "before," "prior to," or the like, and it should be noted that processes can be performed in any order, unless the output of a previous process is used in a subsequent process. Even if the operational flow in the claims, specifications, and drawings is described using "first," "next," etc. for convenience, this does not mean that it is necessary to perform the processes in this order.

1・・・遠隔支援システム、2・・・支援側装置、3・・・作業側装置、4・・・通信ネットワーク、5・・・設備、6・・・基準点マーカー、7・・・仮想モデル、8・・・基準点、9・・・識別画像、10・・・合成画像、11・・・設備画像、12・・・身体動作画像、21・・・操作部位、22・・・操作部位、23・・・位置、24・・・身体動作点、25・・・取っ手、30・・・操作状態画像、31・・・画像、32・・・画像、33・・・取っ手、35・・・メッセージ、36・・・記号、80・・・合成画像、90・・・合成画像、101・・・通信制御部、102・・・検出部、103・・・支援側表示部、104・・・仮想モデル格納部、105・・・選択部、106・・・モーションキャプチャデバイス、110・・・画面制御部、112・・・センサ、114・・・マイク、116・・・スピーカ、118・・・音声制御部、120・・・モデル生成部、122・・・モデル補正部、130・・・操作部位検出部、131・・・通信制御部、132・・・ポインティングデバイス、201・・・通信制御部、202・・・作業側表示部、204・・・撮像部、210・・・画面制御部、212・・・センサ、214・・・マイク、216・・・スピーカ、218・・・音声制御部、220・・・補正用情報生成部、230・・・画像生成部、231・・・通信制御部、232・・・作業側仮想モデル格納部、241・・・マーカー検出部、242・・・調整部、243・・・読取部、2200・・・コンピュータ、2201・・・DVD-ROM、2210・・・ホストコントローラ、2212・・・CPU、2214・・・RAM、2216・・・グラフィックコントローラ、2218・・・ディスプレイデバイス、2220・・・入/出力コントローラ、2222・・・通信インタフェース、2224・・・ハードディスクドライブ、2226・・・DVD-ROMドライブ、2230・・・ROM、2240・・・入/出力チップ、2242・・・キーボード 1...Remote support system, 2...Support side device, 3...Work side device, 4...Communication network, 5...Equipment, 6...Reference point marker, 7...Virtual model, 8...Reference point, 9...Identification image, 10...Synthetic image, 11...Equipment image, 12...Body movement image, 21...Operation part, 22...Operation part, 23...Position, 24...Body movement point, 25...Handle, 30...Operation state image, 31...Image, 32...Image, 33...Handle, 35... Message, 36... Symbol, 80... Composite image, 90... Composite image, 101... Communication control unit, 102... Detection unit, 103... Support side display unit, 104... Virtual model storage unit, 105... Selection unit, 106... Motion capture device, 110... Screen control unit, 112... Sensor, 114... Microphone, 116... Speaker, 118... Audio control unit, 120... Model generation unit, 122... Model correction unit, 130... Operation part detection unit, 13 1...Communication control unit, 132...Pointing device, 201...Communication control unit, 202...Work side display unit, 204...Imaging unit, 210...Screen control unit, 212...Sensor, 214...Microphone, 216...Speaker, 218...Audio control unit, 220...Correction information generation unit, 230...Image generation unit, 231...Communication control unit, 232...Work side virtual model storage unit, 241...Marker detection unit, 242...Adjustment unit, 243...Reading unit, 2200 ...Computer, 2201...DVD-ROM, 2210...Host controller, 2212...CPU, 2214...RAM, 2216...Graphics controller, 2218...Display device, 2220...I/O controller, 2222...Communication interface, 2224...Hard disk drive, 2226...DVD-ROM drive, 2230...ROM, 2240...I/O chip, 2242...Keyboard

Claims (8)

設備を模した仮想モデルを表示する支援側表示部と、前記仮想モデルに対する支援者の身体動作を検出する検出部と、前記仮想モデルに対する前記身体動作の情報を送信する送信部と、を有する支援側装置と、
受信した前記身体動作の情報に基づいて前記身体動作を示す仮想化された画像を表示する作業側表示部を備える作業側装置と、を備え、
前記検出部は、前記仮想モデルに対する前記支援者の身体の少なくとも一部についての位置情報を含む、前記身体動作を検出し、
前記送信部は、前記位置情報を含む前記身体動作の情報を送信し、
前記作業側表示部は、前記設備の画像に対して、前記位置情報に応じた位置に前記仮想化された画像を重ね合わせた合成画像を表示し、
前記設備において予め定められた位置に基準点マーカーが設けられており、
前記仮想モデルは、前記基準点マーカーに対応する位置に設けられた基準点と、前記基準点に基づく三次元座標である基準座標とが設けられており、
前記検出部によって検出される前記身体動作は、前記基準座標における、前記支援者の身体の少なくとも一部についての前記位置情報を含んでおり、
前記作業側装置は、
前記設備における基準点マーカーを検出するマーカー検出部と、
前記設備の画像に対して前記仮想化された画像を合成する位置を、前記基準点マーカーの検出結果と、受信した前記身体動作の情報に含まれる前記位置情報とに基づいて調整する調整部と、を備える、
援システム。
a support-side device including a support-side display unit that displays a virtual model that imitates a facility, a detection unit that detects a body movement of a supporter relative to the virtual model, and a transmission unit that transmits information about the body movement relative to the virtual model;
a work-side device including a work-side display unit that displays a virtual image representing the body movement based on the received information about the body movement,
the detection unit detects the body motion, the body motion including position information about at least a part of the body of the support person relative to the virtual model;
the transmitting unit transmits the information about the body movement including the position information;
the work-side display unit displays a composite image in which the virtualized image is superimposed on the image of the equipment at a position corresponding to the position information ,
a reference point marker is provided at a predetermined position on the equipment;
the virtual model is provided with a reference point provided at a position corresponding to the reference point marker and a reference coordinate that is a three-dimensional coordinate based on the reference point;
the body motion detected by the detection unit includes the position information of at least a part of the body of the supporter in the reference coordinate system;
The work-side device is
a marker detection unit that detects a reference point marker in the facility;
and an adjustment unit that adjusts a position at which the virtualized image is to be combined with the image of the equipment based on a detection result of the reference point marker and the position information included in the received information on the body movement.
Support system.
前記検出部によって検出される前記身体動作は、三次元空間における前記支援者の身体の少なくとも一部についての前記位置情報を含む、
請求項1に記載の支援システム。
the body motion detected by the detection unit includes the position information of at least a part of the body of the supporter in a three-dimensional space;
The assistance system according to claim 1 .
前記支援側装置は、複数の仮想モデルの中から前記設備に対応する前記仮想モデルを選択する選択部をさらに備える
請求項1または2に記載の支援システム。
The support system according to claim 1 , wherein the support-side device further comprises a selection unit that selects the virtual model corresponding to the facility from a plurality of virtual models.
前記選択部は、前記支援者の指示に基づいて前記複数の仮想モデルの中から前記設備に対応する前記仮想モデルを選択する、
請求項に記載の支援システム。
the selection unit selects the virtual model corresponding to the facility from the plurality of virtual models based on an instruction from the supporter.
The assistance system according to claim 3 .
前記設備には、設備を識別するための識別画像が表示されており、
前記作業側装置は、前記識別画像を読み取る読取部と、
前記読取部によって前記識別画像を読み取って得られた識別情報を前記支援側装置に送信する識別情報送信部と、をさらに備えており、
前記選択部は、前記作業側装置から受信した前記識別情報によって複数の仮想モデルの中から前記設備に対応する仮想モデルを選択する、
請求項に記載の支援システム。
An identification image for identifying the equipment is displayed on the equipment,
The work-side device includes a reading unit that reads the identification image;
an identification information transmitting unit that transmits identification information obtained by reading the identification image with the reading unit to the support-side device,
the selection unit selects a virtual model corresponding to the equipment from among a plurality of virtual models based on the identification information received from the work-side device.
The assistance system according to claim 3 .
設備を模した仮想モデルを表示する支援側表示部と、前記仮想モデルに対する支援者の身体動作を検出する検出部と、前記仮想モデルに対する前記身体動作の情報を送信する送信部と、を有する支援側装置と、
受信した前記身体動作の情報に基づいて前記身体動作を示す仮想化された画像を表示する作業側表示部を備える作業側装置と、を備え、
前記検出部は、前記仮想モデルに対する前記支援者の身体の少なくとも一部についての位置情報を含む、前記身体動作を検出し、
前記送信部は、前記位置情報を含む前記身体動作の情報を送信し、
前記作業側表示部は、前記設備の画像に対して、前記位置情報に応じた位置に前記仮想化された画像を重ね合わせた合成画像を表示し、
前記作業側装置は、前記設備を撮像して設備画像を得る撮像部と、
前記設備画像を前記支援側装置に送信する設備画像送信部と、をさらに備えており、
前記支援側装置は、前記作業側装置から受信した前記設備画像に基づいて前記仮想モデルを生成するモデル生成部をさらに備える、
援システム。
a support-side device including a support-side display unit that displays a virtual model that imitates a facility, a detection unit that detects a body movement of a supporter relative to the virtual model, and a transmission unit that transmits information about the body movement relative to the virtual model;
a work-side device including a work-side display unit that displays a virtual image representing the body movement based on the received information about the body movement,
the detection unit detects the body motion, the body motion including position information about at least a part of the body of the support person relative to the virtual model;
the transmitting unit transmits the information about the body movement including the position information;
the work-side display unit displays a composite image in which the virtualized image is superimposed on the image of the equipment at a position corresponding to the position information,
The work-side device includes an imaging unit that captures an image of the facility and obtains a facility image;
an equipment image transmission unit that transmits the equipment image to the support-side device,
the support-side device further includes a model generation unit that generates the virtual model based on the equipment image received from the work-side device.
Support system.
設備を模した仮想モデルを表示する支援側表示部と、前記仮想モデルに対する支援者の身体動作を検出する検出部と、前記仮想モデルに対する前記身体動作の情報を送信する送信部と、を有する支援側装置と、
受信した前記身体動作の情報に基づいて前記身体動作を示す仮想化された画像を表示する作業側表示部を備える作業側装置と、を備え、
前記検出部は、前記仮想モデルに対する前記支援者の身体の少なくとも一部についての位置情報を含む、前記身体動作を検出し、
前記送信部は、前記位置情報を含む前記身体動作の情報を送信し、
前記作業側表示部は、前記設備の画像に対して、前記位置情報に応じた位置に前記仮想化された画像を重ね合わせた合成画像を表示し、
前記作業側装置は、前記設備を撮像して設備画像を得る撮像部と、
前記設備画像に基づいて補正用情報を生成する補正用情報生成部と、
前記補正用情報を前記支援側装置に送信する補正用情報送信部と、をさらに備えており、
前記支援側装置は、前記作業側装置から受信した前記補正用情報に基づいて前記仮想モデルを補正するモデル補正部をさらに備える、
援システム。
a support-side device including a support-side display unit that displays a virtual model that imitates a facility, a detection unit that detects a body movement of a supporter relative to the virtual model, and a transmission unit that transmits information about the body movement relative to the virtual model;
a work-side device including a work-side display unit that displays a virtual image representing the body movement based on the received information about the body movement,
the detection unit detects the body motion, the body motion including position information about at least a part of the body of the support person relative to the virtual model;
the transmitting unit transmits the information about the body movement including the position information;
the work-side display unit displays a composite image in which the virtualized image is superimposed on the image of the equipment at a position corresponding to the position information,
The work-side device includes an imaging unit that captures an image of the facility and obtains a facility image;
a correction information generation unit that generates correction information based on the equipment image;
a correction information transmitting unit that transmits the correction information to the support-side device,
the support-side device further includes a model correction unit that corrects the virtual model based on the correction information received from the work-side device.
Support system.
前記補正用情報生成部は、前記支援側装置から受信した仮想モデルと前記設備画像とを比較して前記補正用情報を生成する、
請求項に記載の支援システム。
the correction information generation unit compares the virtual model received from the support-side device with the facility image to generate the correction information.
The assistance system according to claim 7 .
JP2021126900A 2021-08-02 2021-08-02 Support system, support device, support method, and program Active JP7779039B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021126900A JP7779039B2 (en) 2021-08-02 2021-08-02 Support system, support device, support method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021126900A JP7779039B2 (en) 2021-08-02 2021-08-02 Support system, support device, support method, and program

Publications (2)

Publication Number Publication Date
JP2023021806A JP2023021806A (en) 2023-02-14
JP7779039B2 true JP7779039B2 (en) 2025-12-03

Family

ID=85201467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021126900A Active JP7779039B2 (en) 2021-08-02 2021-08-02 Support system, support device, support method, and program

Country Status (1)

Country Link
JP (1) JP7779039B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209664A (en) 2005-01-31 2006-08-10 Canon Inc System, image processing apparatus, and information processing method
JP2016167688A (en) 2015-03-09 2016-09-15 富士通株式会社 Image generation method, system, apparatus, and terminal
JP2019121136A (en) 2017-12-29 2019-07-22 富士通株式会社 Information processing apparatus, information processing system and information processing method
US20200043354A1 (en) 2018-08-03 2020-02-06 VIRNECT inc. Tabletop system for intuitive guidance in augmented reality remote video communication environment
US20200160607A1 (en) 2018-11-21 2020-05-21 Eon Reality, Inc. Systems and methods for attaching synchronized information between physical and virtual environments

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209664A (en) 2005-01-31 2006-08-10 Canon Inc System, image processing apparatus, and information processing method
JP2016167688A (en) 2015-03-09 2016-09-15 富士通株式会社 Image generation method, system, apparatus, and terminal
JP2019121136A (en) 2017-12-29 2019-07-22 富士通株式会社 Information processing apparatus, information processing system and information processing method
US20200043354A1 (en) 2018-08-03 2020-02-06 VIRNECT inc. Tabletop system for intuitive guidance in augmented reality remote video communication environment
US20200160607A1 (en) 2018-11-21 2020-05-21 Eon Reality, Inc. Systems and methods for attaching synchronized information between physical and virtual environments

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
玉木 秀和,MR空間における準同期的な実物体共有による遠隔作業支援,日本バーチャルリアリティ学会論文誌,日本,特定非営利活動法人日本バーチャルリアリティ学会,2007年12月31日,第12巻第4号,第529~536頁,[ISSN]1344-011X

Also Published As

Publication number Publication date
JP2023021806A (en) 2023-02-14

Similar Documents

Publication Publication Date Title
US9495068B2 (en) Three-dimensional user interface apparatus and three-dimensional operation method
US10754496B2 (en) Virtual reality input
US9541997B2 (en) Three-dimensional user interface apparatus and three-dimensional operation method
CN112578911B (en) Apparatus and method for tracking head and eye movements
WO2021242451A1 (en) Hand gesture-based emojis
JP5709440B2 (en) Information processing apparatus and information processing method
CN108352085A (en) virtual space providing method and program
TW201322178A (en) System and method for augmented reality
JP5565331B2 (en) Display system, display processing apparatus, display method, and display program
JP6394107B2 (en) Calibration apparatus, calibration method, display control apparatus, and display control method
JP6061334B2 (en) AR system using optical see-through HMD
EP3582068A1 (en) Information processing device, information processing method, and program
JP7779039B2 (en) Support system, support device, support method, and program
JP7760855B2 (en) Support system, support device, support method, and program
US20240393877A1 (en) Information processing system and information processing method
WO2019055260A1 (en) Systems and methods for calibrating imaging and spatial orientation sensors
EP4207090A1 (en) A method of learning a target object using a virtual viewpoint camera and a method of augmenting a virtual model on a real object that implements the target object using the same
US11960660B2 (en) Terminal device, virtual object manipulation method, and virtual object manipulation program
CN114723826A (en) Parameter calibration method, device, storage medium and display device
EP4411659B1 (en) Display device, method for controlling display device, and program
JP2025171613A (en) Information processing device
CN118349109A (en) A data interactive display method and system based on mixed reality
JP2025041209A (en) Information processing device
JP2015184391A (en) Image display method, device, and program
HK1205311B (en) Three-dimensional user-interface device, and three-dimensional operation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250617

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20250708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20251001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20251021

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20251103

R150 Certificate of patent or registration of utility model

Ref document number: 7779039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150