WO2024218977A1 - Aerial image display system, display control device, method, and program - Google Patents
Aerial image display system, display control device, method, and program Download PDFInfo
- Publication number
- WO2024218977A1 WO2024218977A1 PCT/JP2023/015983 JP2023015983W WO2024218977A1 WO 2024218977 A1 WO2024218977 A1 WO 2024218977A1 JP 2023015983 W JP2023015983 W JP 2023015983W WO 2024218977 A1 WO2024218977 A1 WO 2024218977A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- display
- aerial image
- image
- fingertip
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/08—Cursor circuits
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
Definitions
- Non-Patent Document 1 describes a technology related to AIRR, which displays an image displayed on a display as an aerial image using an aerial image optical system that uses a retroreflective material.
- Non-Patent Document 2 describes a technology that uses a retrotransparent material (MMAP) in the aerial image optical system. All of these technologies display an aerial image by forming the image displayed on a display, which acts as a light source, as a real image in real space.
- MMAP retrotransparent material
- a pointing technology has been proposed that allows a user to select an object displayed as an aerial image as described above, thereby executing a specific process associated with the object.
- a user can perform a desired operation without directly touching an operation panel, for example.
- the aerial image formed in space has a blurred image from the display, which acts as a light source, and so the contours become unclear.
- the accommodation function which is one aspect of human depth perception
- the user places his or her fingertip over the aerial image to perform a pointing operation if the finger is positioned deeper than the aerial image, an occlusion contradiction arises in the overlapping relationship between the aerial image and the finger.
- the inhibition of accommodation and the influence of the occlusion contradiction reduce the user's depth perception, and pointing accuracy decreases, particularly when pointing by placing the fingertip over the aerial image, including the depth position.
- This invention was made with the above in mind, and aims to provide a technology that enables high pointing accuracy when pointing to an aerial image where depth perception is reduced.
- one aspect of the aerial image display system includes a display control device that displays a display image on a display device, an aerial image optical system that displays an optical image based on the display image displayed on the display device as an aerial image in a display space, and a position sensor that detects position information that represents the position of the user's fingertip in the display space when the user performs a pointing operation on the aerial image.
- the display control device then performs a first process of generating auxiliary information that represents the positional relationship between the user's fingertip and the aerial image based on the position information detected by the position sensor and display position information of the aerial image in the display space, and a second processing unit that generates a display image with auxiliary information by superimposing the auxiliary information on the display image and displays the generated display image with auxiliary information on the display device.
- auxiliary information is generated that represents the positional relationship between the user's fingertip and the aerial image when performing a pointing operation on the aerial image, and this auxiliary information is displayed in the display space in a state where it is associated with the aerial image.
- the user can refer to the auxiliary information to grasp the depth position of the aerial image without being affected by occlusion from the fingers, thereby reducing the effects of reduced depth perception due to occlusion inconsistencies and enabling highly accurate pointing operations.
- the user can refer to the displayed auxiliary information to correct misalignment of his or her fingertip relative to the aerial image, thereby particularly reducing the effects of reduced depth perception and enabling highly accurate pointing operations.
- one aspect of the present invention provides a technology that enables high pointing accuracy to be achieved when performing a pointing operation on an aerial image where depth perception is reduced.
- FIG. 1 is a schematic diagram of an aerial image display system according to an embodiment of the present invention.
- FIG. 2 is a diagram showing an example of the configuration of an aerial image optical system in the aerial image display system shown in FIG.
- FIG. 3 is a block diagram showing an example of a hardware configuration of a display control device in the aerial image display system shown in FIG.
- FIG. 4 is a block diagram showing an example of a software configuration of the display control device in the aerial image display system shown in FIG.
- FIG. 5 is a flowchart showing an example of a processing procedure and processing content of the aerial image display control executed by the display control device shown in FIG.
- FIG. 6 is a diagram showing a first example of a display operation of auxiliary information that assists a user in perceiving depth.
- FIG. 7 is a diagram showing a second example of the display operation of auxiliary information for assisting depth perception.
- the aerial image optical system DU comprises a display DP as a light source, a beam splitter HM, and a retroreflective member RM.
- the retroreflective member RM is positioned so that its reflective surface is perpendicular or nearly perpendicular to the display surface of the display DP.
- the beam splitter HM is positioned between the user's viewpoint and the retroreflective member RM, with its active surface at a predetermined angle, for example 45 degrees or nearly so, to the user's viewpoint.
- the beam splitter RM has the optical property of transmitting part of the incident light and reflecting part of it, and is composed of, for example, a half mirror.
- the display control device CU is, for example, a personal computer, and has a control unit 1 that uses a hardware processor such as a central processing unit (CPU).
- a storage unit having a program storage unit 2 and a data storage unit 3, and an input/output interface (hereinafter the interface will be abbreviated as I/F) unit 4 are connected to this control unit 1 via a bus 5.
- I/F input/output interface
- the display DP and three-dimensional position sensor SU are connected to the input/output I/F unit 4.
- the display DP is a flat display device using, for example, liquid crystal or organic electroluminescence. Note that other input devices such as a keyboard and external storage media may also be connected to the input/output I/F unit 4.
- the input/output I/F unit 4 may also be provided with a communication interface that employs a low-power data wireless communication standard such as Bluetooth (registered trademark) or Wi-Fi (registered trademark).
- the program storage unit 2 is configured by combining, for example, a non-volatile memory such as a solid state drive (SSD) as a storage medium that can be written to and read from at any time, and a non-volatile memory such as a read only memory (ROM), and stores application programs necessary for control according to one embodiment of the present invention, in addition to middleware such as an operating system (OS).
- OS operating system
- the OS and each application program will be collectively referred to as the program.
- the data storage unit 3 is, for example, a combination of a non-volatile memory such as an SSD, which can be written to and read from at any time, and a volatile memory such as a RAM (Random Access Memory), as a storage medium, and in the storage area, an auxiliary pattern storage unit 31 and a display content storage unit 32 are provided as storage units used in one embodiment of the present invention.
- a non-volatile memory such as an SSD
- a volatile memory such as a RAM (Random Access Memory)
- auxiliary pattern storage unit 31 and a display content storage unit 32 are provided as storage units used in one embodiment of the present invention.
- the display content storage unit 32 is used to store the video data of the display content that is the basis for the aerial image.
- the display content may be an operation panel or a display image of various switches, but other display images of context information such as pictures, charts, news, etc. may also be used.
- the auxiliary pattern storage unit 31 stores an auxiliary pattern that represents the positional relationship in the depth direction between the user's fingertip and the aerial image.
- An example of the auxiliary pattern is shown in the operation example.
- the control unit 1 includes, as processing functions necessary to implement one embodiment of the present invention, a fingertip position information acquisition processing unit 11, an auxiliary information generation processing unit 12, an aerial image display processing unit 13, and a display content acquisition processing unit 14. All of these processing units 11 to 14 are realized by causing the hardware processor of the control unit 1 to execute application programs stored in the program storage unit 2.
- processing units 11 to 14 may be realized using hardware such as an LSI (Large Scale Integration) or an ASIC (Application Specific Integrated Circuit).
- LSI Large Scale Integration
- ASIC Application Specific Integrated Circuit
- the display content acquisition processing unit 14 acquires display content, for example, from a website, and stores the acquired display content in the display content storage unit 32.
- the display content may be arbitrarily created by a system administrator or the user himself, and the type of data may be, for example, any of photographs, diagrams, CG data, and text data.
- the fingertip position information acquisition processing unit 11 acquires coordinate data representing the three-dimensional position of the user's fingertip from the three-dimensional position sensor SU via the input/output I/F unit 4 at a constant period set in advance.
- the auxiliary information generation processing unit 12 calculates the distance in the depth direction between the aerial image and the user's fingertip from the display position coordinates in the display space of the aerial image displayed by the aerial image display processing unit 13 (described later) and the three-dimensional position coordinates of the user's fingertip acquired by the fingertip position information acquisition processing unit 11. The auxiliary information generation processing unit 12 then generates auxiliary information by reflecting the distance in the auxiliary pattern read out from the auxiliary pattern storage unit 31, and provides the generated auxiliary information to the aerial image display processing unit 13.
- the aerial image display processing unit 13 generates display video data by superimposing the auxiliary information on the video data of the display content read from the display content storage unit 32, and outputs the generated display video data from the input/output I/F unit 4 to the display DP for display.
- FIG. 5 is a flowchart showing an example of the processing procedure and processing content of the aerial image display control executed by the control unit 1 of the display control device CU.
- step S11 the control unit 1 of the display control device CU first acquires display content, for example, from a website via the input/output I/F unit 4 under the control of the display content acquisition processing unit 14, and stores the acquired display content in the display content storage unit 32.
- the display content may be created by a system administrator or a user, as described above.
- the display content may also be stored in advance in the display content storage unit 32.
- step S12 the control unit 1 of the display control device CU, under the control of the aerial image display processing unit 13, reads the video data of the display content from the display content storage unit 32, and outputs the read video data of the display content from the input/output I/F unit 4 to the display DP.
- the video data of the display content is displayed on the display screen of the display DP.
- the optical image of the displayed content is then reflected by the beam splitter HM, then retroreflected by the retroreflecting member RM, and then transmitted through the beam splitter HM to be displayed as an aerial image RI consisting of a real image in the display space.
- step S13 the control unit 1 of the display control device CU, under the control of the fingertip position information acquisition processing unit 11, acquires information representing the three-dimensional position coordinates of the fingertip detected by the three-dimensional position sensor SU at regular time intervals via the input/output I/F unit 4. Then, the acquired three-dimensional position coordinate information of the fingertip is passed to the auxiliary information generation processing unit 12. In other words, the fingertip position information acquisition processing unit 11 obtains position information indicating changes in the three-dimensional position of the user's fingertip in the display space.
- the fingertip position information acquisition processing unit 11 may calculate the three-dimensional position coordinates of the fingertip based on the image data of the fingertip output from the depth camera.
- various other methods can be used to acquire the three-dimensional position information of the fingertip.
- step S14 the auxiliary information generation processing unit 12 calculates the distance in the depth direction between the aerial image RI and the user's fingertip based on the three-dimensional position coordinate information of the fingertip and the three-dimensional position coordinate information in the display space of the aerial image RI output from the aerial image display processing unit 13.
- step S15 the auxiliary information generation processing unit 12 compares the calculated distance in the depth direction with a preset threshold value to determine whether the calculated distance is shorter than the threshold value. If the result of this determination is that the distance is equal to or greater than the threshold value, in step S16, auxiliary information including the auxiliary pattern and its display position coordinates is generated, and the generated auxiliary information is output to the aerial image display processing unit 13.
- step S17 the aerial image display processing unit 13 superimposes the auxiliary backturn output from the auxiliary information generation processing unit 12 onto the image of the display content based on its display position coordinates, and outputs it from the input/output I/F unit 4 to the display DP for display.
- FIG. 6 is a diagram showing a first display example of auxiliary information.
- the auxiliary information generation processing unit 12 reads out an auxiliary pattern AI1 represented by an arrow as shown in Fig. 6 from the auxiliary pattern storage unit 31.
- the auxiliary pattern AI1 has an arrow shape in order to point to the aerial image that is the pointing target.
- the auxiliary information generation processing unit 12 sets display position coordinates to display the read arrow-shaped auxiliary pattern AI1 at the same depth position as the target TG that is the object of operation of the aerial image, on a plane perpendicular to the depth direction, at a position a preset distance Lb1 away from the center of the target TG. Then, auxiliary information including the auxiliary pattern and the display position coordinates is generated and passed to the aerial image display processing unit 13.
- La1 indicates the distance in the depth direction between the center of the target TG of the aerial image RI and the user's fingertip.
- the aerial image display processing unit 13 superimposes the auxiliary pattern AI1 contained in the auxiliary information on the video information of the display content so as to display the pattern at the position specified by the display position coordinates.
- the generated display video with the auxiliary pattern is then output from the input/output I/F unit 4 to the display DP.
- an arrow-shaped auxiliary pattern AI1 is displayed at a position spaced a distance Lb1 from the center of the target TG along with the aerial image target TG.
- the display position of the auxiliary pattern AI1 may be variably set so that the closer the distance La1 between the target TG and the fingertip, the closer the tip of the arrow is to the target TG. In this way, the user can smoothly bring his/her finger closer to the target TG depending on the display position of the auxiliary pattern AI1 relative to the target TG.
- the aerial image display processing unit 13 determines the user's assumed viewpoint and takes into consideration the positional relationship between the determined assumed viewpoint and the position of the hand HD. For example, if the user's assumed viewpoint is above the hand HD, the display position of the auxiliary pattern AI1 is set above the display position of the target TG to prevent the hand HD from overlapping with the auxiliary pattern AI1.
- the user can refer to the auxiliary pattern AI1 and clearly grasp the depth position of the target TG without being affected by occlusion by the finger.
- the user's expected viewpoint can be determined, for example, by capturing an image of the user from the side using a camera and recognizing the relative positions of the head and hands from the captured image.
- FIG. 7 is a diagram showing a second display example of auxiliary information. 7 from the auxiliary pattern storage unit 31. Then, the auxiliary information generation processing unit 12 sets display position coordinates so as to display the read-out ring-shaped auxiliary pattern AI2 at a position concentric with the target TG of the aerial image and at a position where the radius Lb2 is proportional to the distance La2 between the center of the target TG and the fingertip. Then, auxiliary information including the auxiliary pattern AI2 and the display position coordinates is generated and output to the aerial image display processing unit 13.
- the aerial image display processing unit 13 superimposes the auxiliary pattern AI2 of the auxiliary information on the video information of the display content based on the display position coordinates. Then, the display video on which the auxiliary pattern AI2 is superimposed is output from the input/output I/F unit 4 to the display DP.
- a ring-shaped auxiliary pattern AI2 having a radius Lb2 reflecting the distance La2 between the center of the target TG and the fingertip is displayed in the display space together with the target TG of the aerial image at a position surrounding the target TG.
- the radius Lb2 of this auxiliary pattern AI2 is set to become smaller, for example, as the user moves the fingertip closer to the target TG.
- the user can visually recognize the position of the target TG, which is the object of operation, on the display plane through the auxiliary pattern AI2, and can also accurately recognize the depth position of the fingertip relative to the target TG through the radius Lb2 of the auxiliary pattern AI2, i.e., the size of the ring, which allows the user to accurately and smoothly correct any misalignment of the user's finger.
- step S15 the control unit 1 of the display control device CU determines that the user has performed a pointing operation on the target TG, and proceeds to step S19. Then, the control unit 1 of the display control device CU performs a process associated with the target TG of the aerial image RI that has been pointing-operated, such as turning a switch on and off or running an application.
- the control unit 1 of the display control device CU monitors input of a display end request in step S18. If a display end request is not input, the control unit 1 returns to step S11 and executes the display control of the aerial image again in steps S11 to S18. Thereafter, the control of the aerial image display with auxiliary information in steps S11 to S18 is repeatedly executed in the same manner until a display end request is input.
- the three-dimensional position coordinates of the user's fingertip are acquired from the three-dimensional position sensor SU, and the distance in the depth direction between the acquired three-dimensional position coordinates of the fingertip and the target TG of the aerial image is calculated. Then, when the calculated distance is greater than or equal to a threshold value, auxiliary information is generated based on the auxiliary pattern and the distance, in which the distance is reflected in the display position of the auxiliary pattern, and the generated auxiliary information is displayed in the display space while being superimposed on the aerial image.
- the auxiliary information enables the user to perform an accurate and smooth pointing operation on the target in the aerial image.
- the user can refer to the auxiliary pattern to grasp the depth position of the target TG without being affected by finger occlusion, and the impact of reduced depth perception due to inconsistencies in occlusion can be reduced.
- the user can correct the positional deviation of his or her fingertip in the depth direction by referring to the displayed auxiliary pattern, thereby reducing the effects of reduced depth perception due to a lack of accommodation.
- the display position of the auxiliary pattern with respect to the target TG of the aerial image or the radius of the auxiliary pattern is variably set according to the distance between the aerial image and the user's fingertip.
- the present invention is not limited to this.
- a numerical value representing the distance between the aerial image and the user's fingertip or a bar representing the distance may be displayed instead of the auxiliary pattern or in addition to the auxiliary pattern.
- an arrow pattern or a ring-shaped pattern is used as an auxiliary pattern.
- a pointing pattern or a rectangular frame pattern may also be used.
- the shape, color, size, etc. of the auxiliary pattern can also be set as appropriate.
- a personal computer having the functions of the display control device CU is placed near the aerial image optical system DU.
- the functions of the display control device CU may be provided in a server computer placed on the web or in the cloud, for example, and this server computer may be configured to be able to communicate with the display DP and the three-dimensional position sensor SU via a network.
- the functions of the display control device CU may be distributed among multiple server computers or personal computers.
- the aerial image optical system may be configured, for example, using a retro-transparent material (MMAP), and the type and configuration of the aerial image that is the subject of the pointing operation, the type and configuration of the three-dimensional position sensor, and the processing procedures and processing contents of each processing unit of the display control device may be modified in various ways without departing from the spirit and scope of this invention.
- MMAP retro-transparent material
- this invention is not limited to the above-described embodiment as it is, and in the implementation stage, the components can be modified and embodied without departing from the gist of the invention.
- various inventions can be formed by appropriately combining multiple components disclosed in the above-described embodiment. For example, some components may be deleted from all of the components shown in the embodiment. Furthermore, components from different embodiments may be appropriately combined.
- Aerial image optical system DP Display SU: Three-dimensional position sensor CU: Display control device 1: Control unit 2: Program storage unit 3: Data storage unit 4: Input/output I/F unit 5: Bus 11: Fingertip position information acquisition processing unit 12: Auxiliary information generation processing unit 13: Aerial image display processing unit 14: Display content acquisition processing unit 31: Auxiliary pattern storage unit 32: Display content storage unit
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
この発明の一態様は、例えばディスプレイの表示映像を空間に表示するための空中像表示システムと、このシステムで使用される表示制御装置、方法およびプログラムに関する。 One aspect of the present invention relates to an aerial image display system for displaying, for example, an image displayed on a display in space, and a display control device, method, and program used in the system.
従来、空中にあたかも映像が浮いているように知覚させる空中像表示技術が種々提案されている。例えば非特許文献1には、ディスプレイの表示映像を、再帰反射部材を用いた空中像光学系により空中像として表示するAIRRに関する技術が記載されている。また、非特許文献2には、空中像光学系に再帰透過性素材(MMAP)を用いる技術が記載されている。これらの技術は、いずれも光源としてのディスプレイの表示映像を、実空間に実像として結像することで、空中像を表示するものである。
Various aerial image display technologies have been proposed in the past that give the perception that an image is floating in the air. For example, Non-Patent Document 1 describes a technology related to AIRR, which displays an image displayed on a display as an aerial image using an aerial image optical system that uses a retroreflective material. Non-Patent
また、最近では上記のように空中像として表示される対象物に対しユーザが選択操作することで、上記対象物に関連付けられた所定の処理を実行するポインティング技術が提案されている。この技術を用いれば、ユーザは例えば操作パネル等に直接手を触れることなく所望の操作を行うことが可能となる。 Moreover, recently, a pointing technology has been proposed that allows a user to select an object displayed as an aerial image as described above, thereby executing a specific process associated with the object. Using this technology, a user can perform a desired operation without directly touching an operation panel, for example.
ところが、空間に結像した空中像は光源であるディスプレイの映像にボケが加わったものとなるため、輪郭が曖昧となる。このため、ユーザが空中像に対しポインティング操作を行う際に、人の奥行知覚の一つである調節作用が働きにくくなる。さらに、ユーザがポインティング操作のために指先を空中像に重ねた際に、指が空中像よりも奥に位置する場合は空中像と指との重なりの関係にオクルージョンの矛盾が生じる。これらの理由により、特に奥行位置も含めて空中像に指先を重ねることでポインティング操作を行う場合に、調節作用の阻害とオクルージョンの矛盾の影響によりユーザの奥行知覚が低下し、ポインティング精度の低下が生じる。 However, the aerial image formed in space has a blurred image from the display, which acts as a light source, and so the contours become unclear. This makes it difficult for the accommodation function, which is one aspect of human depth perception, to function when the user points to the aerial image. Furthermore, when the user places his or her fingertip over the aerial image to perform a pointing operation, if the finger is positioned deeper than the aerial image, an occlusion contradiction arises in the overlapping relationship between the aerial image and the finger. For these reasons, the inhibition of accommodation and the influence of the occlusion contradiction reduce the user's depth perception, and pointing accuracy decreases, particularly when pointing by placing the fingertip over the aerial image, including the depth position.
この発明は上記事情に着目してなされたもので、奥行知覚が低下する空中像に対しポインティング操作を行う場合に、高いポインティング精度が得られるようにする技術を提供しようとするものである。 This invention was made with the above in mind, and aims to provide a technology that enables high pointing accuracy when pointing to an aerial image where depth perception is reduced.
上記課題を解決するためにこの発明に係る空中像表示システムの一態様は、表示映像を表示デバイスに表示させる表示制御装置と、前記表示デバイスに表示された前記表示映像による光学像を表示空間に空中像として表示する空中像光学系と、ユーザが前記空中像に対しポインティング操作を行うときの指先の前記表示空間における位置を表す位置情報を検出する位置センサとを具備する。そして、前記表示制御装置により、前記位置センサにより検出された前記位置情報と前記表示空間における前記空中像の表示位置情報とに基づいて、前記ユーザの指先と前記空中像との位置関係を表す補助情報を生成する第1の処理と、前記補助情報を前記表示映像に重畳した補助情報付き表示映像を生成し、生成した前記補助情報付き表示映像を前記表示デバイスに表示させる第2の処理部とを行うようにしたものである。 In order to solve the above problems, one aspect of the aerial image display system according to the present invention includes a display control device that displays a display image on a display device, an aerial image optical system that displays an optical image based on the display image displayed on the display device as an aerial image in a display space, and a position sensor that detects position information that represents the position of the user's fingertip in the display space when the user performs a pointing operation on the aerial image. The display control device then performs a first process of generating auxiliary information that represents the positional relationship between the user's fingertip and the aerial image based on the position information detected by the position sensor and display position information of the aerial image in the display space, and a second processing unit that generates a display image with auxiliary information by superimposing the auxiliary information on the display image and displays the generated display image with auxiliary information on the display device.
この発明の一態様によれば、空中像に対しポインティング操作を行うときのユーザの指先と空中像との位置関係を表す補助情報が生成され、この補助情報が上記空中像に対応付けられる状態で表示空間に表示される。 According to one aspect of the present invention, auxiliary information is generated that represents the positional relationship between the user's fingertip and the aerial image when performing a pointing operation on the aerial image, and this auxiliary information is displayed in the display space in a state where it is associated with the aerial image.
この結果、ユーザは補助情報を参考に空中像の奥行位置を指の遮蔽の影響を受けずに把握することが可能となり、これによりオクルージョンの矛盾による奥行知覚の低下の影響を軽減して、精度の高いポインティング操作を行うことが可能となる。また、ユーザは表示された補助情報を参考に空中像に対する自身の指先の位置ずれを補正することが可能となり、これにより特に奥行知覚の低下の影響を軽減して、精度の高いポインティング操作を行うことが可能となる。 As a result, the user can refer to the auxiliary information to grasp the depth position of the aerial image without being affected by occlusion from the fingers, thereby reducing the effects of reduced depth perception due to occlusion inconsistencies and enabling highly accurate pointing operations. In addition, the user can refer to the displayed auxiliary information to correct misalignment of his or her fingertip relative to the aerial image, thereby particularly reducing the effects of reduced depth perception and enabling highly accurate pointing operations.
すなわちこの発明の一態様によれば、奥行知覚が低下する空中像に対しポインティング操作を行う場合に、高いポインティング精度が得られるようにする技術を提供することができる。 In other words, one aspect of the present invention provides a technology that enables high pointing accuracy to be achieved when performing a pointing operation on an aerial image where depth perception is reduced.
以下、図面を参照してこの発明に係わる実施形態を説明する。 Below, an embodiment of the present invention will be described with reference to the drawings.
[一実施形態]
(構成例)
(1)空中像表示システム
図1は、この発明の一実施形態に係る空中像表示システムの概略構成図である。
[One embodiment]
(Configuration example)
(1) Aerial Image Display System FIG. 1 is a schematic diagram of an aerial image display system according to an embodiment of the present invention.
一実施形態の空中像表示システムは、空中像を表示する空中像光学系DUと、三次元位置センサSUと、表示制御装置CUとを備えている。なお、図中のHDはユーザの手を示すもので、ユーザは手HDの指を用いて空中像に対するポインティング操作を行う。 The aerial image display system of one embodiment includes an aerial image optical system DU that displays an aerial image, a three-dimensional position sensor SU, and a display control device CU. Note that HD in the figure indicates the user's hand, and the user performs a pointing operation on the aerial image using the fingers of the hand HD.
空中像光学系DUは、例えば図2に示すように、光源としてのディスプレイDPと、ビームスプリッタHMと、再帰反射部材RMとを備える。再帰反射部材RMは、ディスプレイDPの表示面に対し反射面が直交またはそれに近い状態となるように配置される。ビームスプリッタHMは、ユーザの視点位置と上記再帰反射部材RMとの間に、その作用面がユーザの視点方向に対し所定の角度、例えば45度またはそれに近い角度で斜めに配置される。ビームスプリッタRMは、入射光の一部を透過し一部を反射する光学特性を有するもので、例えばハーフミラーにより構成される。 The aerial image optical system DU, as shown in FIG. 2, for example, comprises a display DP as a light source, a beam splitter HM, and a retroreflective member RM. The retroreflective member RM is positioned so that its reflective surface is perpendicular or nearly perpendicular to the display surface of the display DP. The beam splitter HM is positioned between the user's viewpoint and the retroreflective member RM, with its active surface at a predetermined angle, for example 45 degrees or nearly so, to the user's viewpoint. The beam splitter RM has the optical property of transmitting part of the incident light and reflecting part of it, and is composed of, for example, a half mirror.
三次元位置センサSUは、ポインティング操作を行うユーザの指先の空間における三次元位置座標を検出するもので、例えばKinect(登録商標)カメラ等のモーションカメラにより構成される。なお、三次元位置センサSUとしては、指先の三次元位置座標を検出可能なデバイスであればどのようなセンサデバイスが用いられてもよい。 The three-dimensional position sensor SU detects the three-dimensional position coordinates in space of the fingertip of the user performing a pointing operation, and is configured, for example, with a motion camera such as a Kinect (registered trademark) camera. Note that any sensor device capable of detecting the three-dimensional position coordinates of the fingertip may be used as the three-dimensional position sensor SU.
(2)表示制御装置CU
図2および図3は、それぞれ、この発明の一実施形態に係る空中像表示システムで使用される表示制御装置CUのハードウェアおよびソフトウェアの構成の一例を示すブロック図である。
(2) Display control unit CU
2 and 3 are block diagrams showing examples of hardware and software configurations of a display control unit CU used in an aerial image display system according to an embodiment of the present invention.
表示制御装置CUは、例えばパーソナルコンピュータからなり、中央処理ユニット(Central Processing Unit:CPU)等のハードウェアプロセッサを使用した制御部1を備える。そして、この制御部1に対し、プログラム記憶部2およびデータ記憶部3を有する記憶ユニットと、入出力インタフェース(以後インタフェースをI/Fと略称する)部4とを、バス5を介して接続したものとなっている。
The display control device CU is, for example, a personal computer, and has a control unit 1 that uses a hardware processor such as a central processing unit (CPU). A storage unit having a
入出力I/F部4には、ディスプレイDPおよび三次元位置センサSUが接続される。ディスプレイDPは、例えば液晶または有機ELを使用した平面型の表示デバイスからなる。なお、入出力I/F部4には、他にキーボード等の入力装置や外部記憶媒体等が接続されていてもよい。また、入出力I/F部4には、例えばBluetooth(登録商標)またはWi-Fi(登録商標)等の小電力データ無線通信規格を採用した通信インタフェースが備えられていてもよい。無線インタフェースを使用して上記ディスプレイDPおよび三次元位置センサSUと表示制御装置CUとの間を接続することで、表示制御装置CUの配置位置の自由度を高めることができる。
The display DP and three-dimensional position sensor SU are connected to the input/output I/
プログラム記憶部2は、例えば、記憶媒体としてSSD(Solid State Drive)等の随時書込みおよび読出しが可能な不揮発性メモリと、ROM(Read Only Memory)等の不揮発性メモリとを組み合わせて構成したもので、OS(Operating System)等のミドルウェアに加えて、この発明の一実施形態に係る制御に必要なアプリケーション・プログラムを格納する。なお、以後OSと各アプリケーション・プログラムをまとめてプログラムと称する。
The
データ記憶部3は、例えば、記憶媒体として、SSD等の随時書込みおよび読出しが可能な不揮発性メモリと、RAM(Random Access Memory)等の揮発性メモリと組み合わせたもので、その記憶領域には、この発明の一実施形態で使用する記憶部として、補助パターン記憶部31と、表示コンテンツ記憶部32とが設けられている。
The
表示コンテンツ記憶部32は、空中像の元になる表示コンテンツの映像データを記憶するために使用される。表示コンテンツとしては、例えば操作パネルや各種スイッチの表示映像が用いられるが、その他にも絵や図表、ニュース等のコンテキスト情報の表示映像が用いられてもよい。
The display
補助パターン記憶部31は、ユーザの指先と空中像との間の奥行き方向の位置関係を表す補助パターンを記憶する。補助パターンについては動作例でその一例を示す。
The auxiliary
制御部1は、この発明の一実施形態を実施するために必要な処理機能として、指先位置情報取得処理部11と、補助情報生成処理部12と、空中像表示処理部13と、表示コンテンツ取得処理部14とを備えている。これらの処理部11~14は、何れもプログラム記憶部2に格納されたアプリケーション・プログラムを制御部1のハードウェアプロセッサに実行させることにより実現される。
The control unit 1 includes, as processing functions necessary to implement one embodiment of the present invention, a fingertip position information
なお、上記処理部11~14の一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアを用いて実現されてもよい。
In addition, some or all of the
表示コンテンツ取得処理部14は、例えばWebサイトから表示コンテンツを取得し、取得した表示コンテンツを表示コンテンツ記憶部32に記憶する。なお、表示コンテンツは、システム管理者またはユーザ自身が任意に作成したものであってもよく、データの種類は例えば写真、図表、CGデータ、テキストデータのいずれであってもよい。
The display content
指先位置情報取得処理部11は、三次元位置センサSUからユーザの指先の三次元位置を表す座標データを、入出力I/F部4を介して予め設定された一定の周期で取得する。
The fingertip position information
補助情報生成処理部12は、後述する空中像表示処理部13により表示される空中像の表示空間における表示位置座標と、上記指先位置情報取得処理部11により取得された上記ユーザの指先の三次元位置座標とから、空中像とユーザの指先との間の奥行き方向の距離を算出する。そして、補助情報生成処理部12は、補助パターン記憶部31から読み出した補助パターンに上記距離を反映することにより補助情報を生成し、生成した補助情報を空中像表示処理部13に与える。
The auxiliary information
空中像表示処理部13は、上記表示コンテンツ記憶部32から読み出した表示コンテンツの映像データに上記補助情報を重畳した表示映像データを生成し、生成した上記表示映像データを入出力I/F部4からディスプレイDPへ出力し表示させる。
The aerial image
(動作例)
次に、以上のように構成された空中像表示システムによる空中像表示動作の一例を説明する。
(Example of operation)
Next, an example of an aerial image display operation by the aerial image display system configured as above will be described.
図5は、表示制御装置CUの制御部1が実行する空中像表示制御の処理手順と処理内容の一例を示すフローチャートである。 FIG. 5 is a flowchart showing an example of the processing procedure and processing content of the aerial image display control executed by the control unit 1 of the display control device CU.
(1)空中像の表示
例えば、ユーザ端末から、ユーザの操作に応じて空中像表示開始要求が入力され、この空中像表示開始要求の入力を表示制御装置CUの制御部1がステップS10で検知したとする。
(1) Display of Aerial Image For example, assume that an aerial image display start request is input from the user terminal in response to a user operation, and the control unit 1 of the display control device CU detects this input of the aerial image display start request in step S10.
そうすると、表示制御装置CUの制御部1は、先ずステップS11において、表示コンテンツ取得処理部14の制御の下、例えばWebサイトから入出力I/F部4を介して表示コンテンツを取得し、取得した表示コンテンツを表示コンテンツ記憶部32に記憶する。なお、表示コンテンツは、先に述べたようにシステム管理者またはユーザが作成したものであってもよい。また表示コンテンツは、表示コンテンツ記憶部32に事前に記憶されていてもよい。
Then, in step S11, the control unit 1 of the display control device CU first acquires display content, for example, from a website via the input/output I/
表示制御装置CUの制御部1は、次にステップS12において、空中像表示処理部13の制御の下、上記表示コンテンツ記憶部32から表示コンテンツの映像データを読み出し、読み出した上記表示コンテンツの映像データを入出力I/F部4からディスプレイDPへ出力する。
Next, in step S12, the control unit 1 of the display control device CU, under the control of the aerial image
この結果、ディスプレイDPの表示画面には、上記表示コンテンツの映像データが表示される。そして、表示された上記表示コンテンツの光学像は、ビームスプリッタHMで反射されたのち再帰反射部材RMにおいて再帰反射され、しかるのち上記ビームスプリッタHMを透過することで、表示空間に実像からなる空中像RIとして表示される。 As a result, the video data of the display content is displayed on the display screen of the display DP. The optical image of the displayed content is then reflected by the beam splitter HM, then retroreflected by the retroreflecting member RM, and then transmitted through the beam splitter HM to be displayed as an aerial image RI consisting of a real image in the display space.
(2)ユーザの指先位置座標の取得
上記表示コンテンツの空中像RIが表示された状態で、ユーザが上記空中像RIをポインティング操作するために指先を近づけたとする。この場合、上記ユーザの指先の表示空間における三次元位置座標が三次元位置センサSUにより検出される。
(2) Acquisition of User's Fingertip Position Coordinates When the aerial image RI of the display content is displayed, it is assumed that the user brings his/her finger close to the aerial image RI in order to perform a pointing operation on the aerial image RI. In this case, the three-dimensional position coordinates of the user's fingertip in the display space are detected by the three-dimensional position sensor SU.
これに対し、表示制御装置CUの制御部1は、ステップS13において、指先位置情報取得処理部11の制御の下、上記三次元位置センサSUにより検出された指先の三次元位置座標を表す情報を、入出力I/F部4を介して一定の時間間隔で取得する。そして、取得した上記指先の三次元位置座標情報を補助情報生成処理部12に渡す。すなわち、指先位置情報取得処理部11により、ユーザの指先の表示空間における三次元位置の変化を示す位置情報が得られる。
In response to this, in step S13, the control unit 1 of the display control device CU, under the control of the fingertip position information
なお、上記三次元位置センサSUとして例えばデプスカメラを用いる場合には、このデプスカメラから出力される指先の映像データをもとに、指先位置情報取得処理部11が上記指先の三次元位置座標を算出するようにしてもよい。その他、指先の三次元位置情報の取得手法としては種々の手法が使用可能である。
If, for example, a depth camera is used as the three-dimensional position sensor SU, the fingertip position information
(3)補助情報の生成および表示
表示制御装置CUの制御部1は、上記指先位置情報取得処理部11により指先の三次元位置座標情報が取得されると、補助情報生成処理部12の制御の下、以下のように補助情報を生成する。
(3) Generation and display of auxiliary information When the three-dimensional position coordinate information of the fingertip is acquired by the fingertip position information
すなわち、補助情報生成処理部12は、先ずステップS14において、上記指先の三次元位置座標情報と、空中像表示処理部13から出力される空中像RIの表示空間における三次元位置座標情報とに基づいて、空中像RIとユーザの指先との間の奥行き方向の距離を算出する。
In other words, first, in step S14, the auxiliary information
補助情報生成処理部12は、次にステップS15において、算出した上記奥行き方向の距離を予め設定されたしきい値と比較して、算出した上記距離がしきい値より短いか否かを判定する。そして、この判定の結果、上記距離がしきい値以上であれば、ステップS16において補助パターンとその表示位置座標とを含む補助情報を生成し、生成した補助情報を空中像表示処理部13へ出力する。
Then, in step S15, the auxiliary information
空中像表示処理部13は、ステップS17において、上記補助情報生成処理部12から出力された補助バムターンをその表示位置座標をもとに表示コンテンツの映像に重畳し、入出力I/F部4からディスプレイDPへ出力して表示させる。
In step S17, the aerial image
(3-1)補助情報の第1の表示例
図6は、補助情報の第1の表示例を示す図である。
補助情報生成処理部12は、図6に示すような矢印で表される補助パターンAI1を補助パターン記憶部31から読み出す。この補助パターンAI1の形状が矢印型となっているのは、ポインティング対象となる空中像を指し示すためである。
(3-1) First Display Example of Auxiliary Information FIG. 6 is a diagram showing a first display example of auxiliary information.
The auxiliary information
補助情報生成処理部12は、続いて、読み出した上記矢印型の補助パターンAI1を、空中像の操作対象となるターゲットTGと同一の奥行位置でかつ奥行方向と直行する平面上に、ターゲットTGの中心から予め設定された距離Lb1離れた位置に表示するべく、表示位置座標を設定する。そして、上記補助パターンと上記表示位置座標とを含む補助情報を生成し、空中像表示処理部13に渡す。なお、La1は空中像RIのターゲットTGの中心とユーザの指先との間の奥行き方向の距離を示す。
The auxiliary information
空中像表示処理部13は、上記補助情報に含まれる補助パターンAI1をその表示位置座標により指定される位置に表示するべく、表示コンテンツの映像情報に重畳する。そして、生成した上記補助パターン付きの表示映像を、入出力I/F部4からディスプレイDPへ出力する。
The aerial image
この結果、表示空間には、図6に示したように、空中像のターゲットTGと共に、当該ターゲットTGの中心から距離Lb1だけ離間する位置に、矢印型の補助パターンAI1が表示される。 As a result, in the display space, as shown in FIG. 6, an arrow-shaped auxiliary pattern AI1 is displayed at a position spaced a distance Lb1 from the center of the target TG along with the aerial image target TG.
なお、上記補助パターンAI1の表示位置を、上記ターゲットTGと指先との間の距離La1が近くなるほど矢印の先端位置がターゲットTGに近づくように可変設定するようにしてもよい。このようにすると、ユーザはターゲットTGに対する補助パターンAI1の表示位置により、ターゲットTGに対し指をスムーズに近づけることが可能となる。 The display position of the auxiliary pattern AI1 may be variably set so that the closer the distance La1 between the target TG and the fingertip, the closer the tip of the arrow is to the target TG. In this way, the user can smoothly bring his/her finger closer to the target TG depending on the display position of the auxiliary pattern AI1 relative to the target TG.
また空中像表示処理部13は、上記補助パターンAI1の表示位置を設定する際に、ユーザの想定視点を判定し、判定した想定視点と手HDの位置との位置関係を考慮する。例えば、ユーザの想定視点が手HDよりも上方にある場合には、手HDと補助パターンAI1とが重ならないようにするため、補助パターンAI1の表示位置をターゲットTGの表示位置の上方位置に設定する。
When setting the display position of the auxiliary pattern AI1, the aerial image
このように補助バムターンAI1の表示位置を設定することで、例えば空中像のターゲットTGと指先とが完全に重なるような場合でも、ユーザは上記補助パターンAI1を参考にして、指による遮蔽の影響を受けることなく、ターゲットTGの奥行位置を明確に把握することが可能となる。 By setting the display position of the auxiliary pattern AI1 in this way, even if the target TG in the aerial image completely overlaps with the fingertip, the user can refer to the auxiliary pattern AI1 and clearly grasp the depth position of the target TG without being affected by occlusion by the finger.
なお、ユーザの想定視点は、例えばカメラによりユーザを側面から撮像してその撮像画像から頭部と手の位置関係を認識することにより判定可能である。 The user's expected viewpoint can be determined, for example, by capturing an image of the user from the side using a camera and recognizing the relative positions of the head and hands from the captured image.
(3-2)補助情報の第2の表示例
図7は、補助情報の第2の表示例を示す図である。
補助情報生成処理部12は、図7に示すようなリング状をなす補助パターンAI2を補助パターン記憶部31から読み出す。そして、読み出した上記リング状をなす補助パターンAI2を、空中像のターゲットTGと同心となる位置で、かつ半径Lb2がターゲットTGの中心と指先との間の距離La2に比例する位置に表示するべく、表示位置座標を設定する。そして、上記補助パターンAI2と上記表示位置座標とを含む補助情報を生成して、空中像表示処理部13へ出力する。
(3-2) Second Display Example of Auxiliary Information FIG. 7 is a diagram showing a second display example of auxiliary information.
7 from the auxiliary
空中像表示処理部13は、上記補助情報の補助パターンAI2を、その表示位置座標をもとに表示コンテンツの映像情報に重畳する。そして、上記補助パターンAI2が重畳された表示映像を、入出力I/F部4からディスプレイDPへ出力する。
The aerial image
この結果、表示空間には、図7に示したように、空中像のターゲットTGと共に、当該ターゲットTGを囲む位置に、ターゲットTGの中心と指先との間の距離La2が反映された半径Lb2を有するリング状の補助パターンAI2が表示される。この補助パターンAI2の半径Lb2は、例えばユーザが指先をターゲットTGに近づけるに従い小さくなるように設定される。 As a result, as shown in FIG. 7, a ring-shaped auxiliary pattern AI2 having a radius Lb2 reflecting the distance La2 between the center of the target TG and the fingertip is displayed in the display space together with the target TG of the aerial image at a position surrounding the target TG. The radius Lb2 of this auxiliary pattern AI2 is set to become smaller, for example, as the user moves the fingertip closer to the target TG.
以上のような補助パターンAI2を表示することで、ユーザは、補助パターンAI2により操作対象であるターゲットTGの表示平面における位置を視認することができ、しかも補助パターンAI2の半径Lb2、つまりリングの大きさにより、ターゲットTGに対する指先の奥行位置を正確に認識することができ、これにより自身の指の位置ずれを正確にかつスムーズに補正することが可能となる。 By displaying the auxiliary pattern AI2 as described above, the user can visually recognize the position of the target TG, which is the object of operation, on the display plane through the auxiliary pattern AI2, and can also accurately recognize the depth position of the fingertip relative to the target TG through the radius Lb2 of the auxiliary pattern AI2, i.e., the size of the ring, which allows the user to accurately and smoothly correct any misalignment of the user's finger.
(4)ポインティング対応処理
一方、上記ステップS15による判定の結果、空中像RIとユーザの指先との距離La2がしきい値以上だったとする。この場合、表示制御装置CUの制御部1は、ユーザがターゲットTGに対しポインティング操作を行ったと判断し、ステップS19に移行する。そして、表示制御装置CUの制御部1は、ポインティング操作された空中像RIのターゲットTGに対応付けられた処理、例えばスイッチのオンオフやアプリケーションの実行等を行う。
(4) Pointing-Related Processing Meanwhile, suppose that the result of the determination in step S15 above is that the distance La2 between the aerial image RI and the user's fingertip is equal to or greater than a threshold value. In this case, the control unit 1 of the display control device CU determines that the user has performed a pointing operation on the target TG, and proceeds to step S19. Then, the control unit 1 of the display control device CU performs a process associated with the target TG of the aerial image RI that has been pointing-operated, such as turning a switch on and off or running an application.
なお、表示制御装置CUの制御部1は、ステップS18において表示終了要求の入力を監視する。そして、表示終了要求が入力されなければ、ステップS11に戻ってステップS11~S18による空中像の表示制御を再度実行する。以後同様に、表示終了要求が入力されるまではステップS11~S18による補助情報付きの空中像表示制御を繰り返し実行する。 The control unit 1 of the display control device CU monitors input of a display end request in step S18. If a display end request is not input, the control unit 1 returns to step S11 and executes the display control of the aerial image again in steps S11 to S18. Thereafter, the control of the aerial image display with auxiliary information in steps S11 to S18 is repeatedly executed in the same manner until a display end request is input.
(作用・効果)
以上述べたように一実施形態では、表示空間に空中像を表示している状態で、ユーザの指先の三次元位置座標を三次元位置センサSUから取得し、取得した上記指先の三次元位置座標と上記空中像のターゲットTGとの間の奥行き方向の距離を計算する。そして、計算した上記距離がしきい値以上長い場合に、補助パターンと上記距離とに基づいて、当該距離を補助パターンの表示位置に反映させた補助情報を生成し、生成した上記補助情報を上記空中像に重畳した状態で表示空間に表示するようにしている。
(Action and Effects)
As described above, in one embodiment, while an aerial image is displayed in the display space, the three-dimensional position coordinates of the user's fingertip are acquired from the three-dimensional position sensor SU, and the distance in the depth direction between the acquired three-dimensional position coordinates of the fingertip and the target TG of the aerial image is calculated. Then, when the calculated distance is greater than or equal to a threshold value, auxiliary information is generated based on the auxiliary pattern and the distance, in which the distance is reflected in the display position of the auxiliary pattern, and the generated auxiliary information is displayed in the display space while being superimposed on the aerial image.
従って、一実施形態によれば、ユーザは自身の指先と空中像との間の奥行き方向の位置関係を知覚しにくい場合でも、上記補助情報により空中像のターゲットに対し正確にかつスムーズにポインティング操作することが可能となる。 Therefore, according to one embodiment, even if the user has difficulty perceiving the positional relationship in the depth direction between his/her fingertip and the aerial image, the auxiliary information enables the user to perform an accurate and smooth pointing operation on the target in the aerial image.
特に、図6に示した表示例のように、補助パターンの表示位置をユーザの手の位置と想定視点との関係を考慮して設定することで、ユーザは補助パターンを参考にターゲットTGの奥行位置を指の遮蔽の影響を受けずに把握することができ、オクルージョンの矛盾による奥行知覚の低下の影響を軽減することができる。 In particular, by setting the display position of the auxiliary pattern taking into consideration the relationship between the user's hand position and the assumed viewpoint, as in the display example shown in Figure 6, the user can refer to the auxiliary pattern to grasp the depth position of the target TG without being affected by finger occlusion, and the impact of reduced depth perception due to inconsistencies in occlusion can be reduced.
また、図7に示した表示例のように、ユーザの指先と操作対象の空中像のターゲットTGとの間の距離を補助パターンの表示位置に反映させることで、ユーザは表示された補助パターンを参考に自身の指先の奥行方向の位置ずれを補正することができ、これにより調節作用の欠如による奥行知覚の低下の影響を軽減することができる。 In addition, as in the display example shown in Figure 7, by reflecting the distance between the user's fingertip and the target TG of the aerial image of the object to be operated in the display position of the auxiliary pattern, the user can correct the positional deviation of his or her fingertip in the depth direction by referring to the displayed auxiliary pattern, thereby reducing the effects of reduced depth perception due to a lack of accommodation.
[その他の実施形態]
(1)一実施形態では、空中像とユーザの指先との距離に応じて、空中像のターゲットTGに対する補助パターンの表示位置または補助パターンの半径を可変設定する場合を例にとって説明した。しかし、それに限らず、例えば上記補助パターンの代わり或いは補助パターンに付加する形態で、空中像とユーザの指先との距離を表す数値または距離を表すバーを表示するようにしてもよい。
[Other embodiments]
(1) In the embodiment, the display position of the auxiliary pattern with respect to the target TG of the aerial image or the radius of the auxiliary pattern is variably set according to the distance between the aerial image and the user's fingertip. However, the present invention is not limited to this. For example, a numerical value representing the distance between the aerial image and the user's fingertip or a bar representing the distance may be displayed instead of the auxiliary pattern or in addition to the auxiliary pattern.
(2)一実施形態では、補助パターンとして矢印を表すパターンやリング状のパターンを用いた場合を例にとって説明したが、その他に指差パターンや矩形状の枠パターン等を使用してもよい。また、補助パターンの形状や色サイズ等についても、適宜設定することができる。 (2) In one embodiment, an arrow pattern or a ring-shaped pattern is used as an auxiliary pattern. However, a pointing pattern or a rectangular frame pattern may also be used. The shape, color, size, etc. of the auxiliary pattern can also be set as appropriate.
(3)一実施形態では、表示制御装置CUの機能を備えたパーソナルコンピュータを空中像光学系DUの近傍に配置した場合を例にとって説明した。しかし、それに限らず、表示制御装置CUの機能を例えばWeb上またはクラウド上に配置されたサーバコンピュータに設け、このサーバコンピュータとディスプレイDPおよび三次元位置センサSUとの間をネットワークを介して通信可能な状態に構成してもよい。その他、表示制御装置CUの機能を複数のサーバコンピュータまたはパーソナルコンピュータに分散配置するようにしてもよい。 (3) In one embodiment, a personal computer having the functions of the display control device CU is placed near the aerial image optical system DU. However, this is not limiting, and the functions of the display control device CU may be provided in a server computer placed on the web or in the cloud, for example, and this server computer may be configured to be able to communicate with the display DP and the three-dimensional position sensor SU via a network. In addition, the functions of the display control device CU may be distributed among multiple server computers or personal computers.
(4)空中像光学系は、例えば再帰透過性素材(MMAP)を用いた構成であってもよく、その他ポインティング操作の対象となる空中像の種類や構成、三次元位置センサの種類や構成、表示制御装置が備える各処理部の処理手順と処理内容については、この発明の要旨を逸脱しない範囲で種々変形して実施可能である。 (4) The aerial image optical system may be configured, for example, using a retro-transparent material (MMAP), and the type and configuration of the aerial image that is the subject of the pointing operation, the type and configuration of the three-dimensional position sensor, and the processing procedures and processing contents of each processing unit of the display control device may be modified in various ways without departing from the spirit and scope of this invention.
以上、この発明の実施形態を詳細に説明してきたが、前述までの説明はあらゆる点においてこの発明の例示に過ぎない。この発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、この発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。 Although the embodiments of the present invention have been described in detail above, the above description is merely an example of the present invention in every respect. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention. In other words, when implementing the present invention, specific configurations according to the embodiments may be appropriately adopted.
要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。 In short, this invention is not limited to the above-described embodiment as it is, and in the implementation stage, the components can be modified and embodied without departing from the gist of the invention. Furthermore, various inventions can be formed by appropriately combining multiple components disclosed in the above-described embodiment. For example, some components may be deleted from all of the components shown in the embodiment. Furthermore, components from different embodiments may be appropriately combined.
DU…空中像光学系
DP…ディスプレイ
SU…三次元位置センサ
CU…表示制御装置
1…制御部
2…プログラム記憶部
3…データ記憶部
4…入出力I/F部
5…バス
11…指先位置情報取得処理部
12…補助情報生成処理部
13…空中像表示処理部
14…表示コンテンツ取得処理部
31…補助パターン記憶部
32…表示コンテンツ記憶部
DU: Aerial image optical system DP: Display SU: Three-dimensional position sensor CU: Display control device 1: Control unit 2: Program storage unit 3: Data storage unit 4: Input/output I/F unit 5: Bus 11: Fingertip position information acquisition processing unit 12: Auxiliary information generation processing unit 13: Aerial image display processing unit 14: Display content acquisition processing unit 31: Auxiliary pattern storage unit 32: Display content storage unit
Claims (8)
前記表示デバイスに表示された前記表示映像による光学像を表示空間に空中像として表示する空中像光学系と、
ユーザが前記空中像に対しポインティング操作を行うときの指先の前記表示空間における位置を表す位置情報を検出する位置センサと
を具備し、
前記表示制御装置は、
前記位置センサにより検出された前記位置情報と、前記表示空間における前記空中像の表示位置情報とに基づいて、前記ユーザの指先と前記空中像との位置関係を表す補助情報を生成する第1の処理部と、
前記補助情報を前記表示映像に重畳した補助情報付き表示映像を生成し、生成した前記補助情報付き表示映像を前記表示デバイスに表示させる第2の処理部と
を備える空中像表示システム。 a display control device that displays a display image on a display device;
an aerial image optical system that displays an optical image based on the display video displayed on the display device as an aerial image in a display space;
a position sensor that detects position information representing a position of a fingertip in the display space when a user performs a pointing operation on the aerial image,
The display control device includes:
a first processing unit that generates auxiliary information representing a positional relationship between the user's fingertip and the aerial image based on the position information detected by the position sensor and display position information of the aerial image in the display space;
a second processing unit that generates a display image with auxiliary information by superimposing the auxiliary information on the display image, and displays the generated display image with auxiliary information on the display device.
前記位置センサにより検出された前記位置情報と、前記表示空間における前記空中像の表示位置情報とに基づいて、前記ユーザの指先と前記空中像との第1の位置関係を表す補助情報を生成する第1の処理部と、
前記補助情報を前記表示映像に重畳した補助情報付き表示映像を生成し、生成した前記補助情報付き表示映像を前記表示デバイスに表示させる第2の処理部と
を備える表示制御装置。 A display control device used in an aerial image display system including an aerial image optical system that displays an optical image based on a display video displayed on a display device as an aerial image in a display space, and a position sensor that detects position information representing a position of a fingertip in the display space when a user performs a pointing operation on the aerial image,
a first processing unit that generates auxiliary information representing a first positional relationship between the user's fingertip and the aerial image based on the position information detected by the position sensor and display position information of the aerial image in the display space;
a second processing unit that generates a display image with auxiliary information by superimposing the auxiliary information on the display image, and displays the generated display image with auxiliary information on the display device.
前記位置センサにより検出された前記位置情報と、前記表示空間における前記空中像の表示位置情報とに基づいて、前記ユーザの指先と前記空中像との位置関係を表す補助情報を生成する過程と、
前記補助情報を前記表示映像に重畳した補助情報付き表示映像を生成し、生成した前記補助情報付き表示映像を前記表示デバイスに表示させる過程と
を備える表示制御方法。 A display control method executed by a control device used in an aerial image display system including an aerial image optical system that displays an optical image based on a display video displayed on a display device as an aerial image in a display space, and a position sensor that detects position information representing a position of a fingertip in the display space when a user performs a pointing operation on the aerial image, comprising:
generating auxiliary information representing a positional relationship between the user's fingertip and the aerial image based on the position information detected by the position sensor and display position information of the aerial image in the display space;
generating a display image with auxiliary information by superimposing the auxiliary information on the display image, and displaying the generated display image with auxiliary information on the display device.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2023/015983 WO2024218977A1 (en) | 2023-04-21 | 2023-04-21 | Aerial image display system, display control device, method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2023/015983 WO2024218977A1 (en) | 2023-04-21 | 2023-04-21 | Aerial image display system, display control device, method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2024218977A1 true WO2024218977A1 (en) | 2024-10-24 |
Family
ID=93152295
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2023/015983 Pending WO2024218977A1 (en) | 2023-04-21 | 2023-04-21 | Aerial image display system, display control device, method, and program |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2024218977A1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014170337A (en) * | 2013-03-04 | 2014-09-18 | Mitsubishi Electric Corp | Information display control device, information display device, and information display control method |
| WO2016047173A1 (en) * | 2014-09-24 | 2016-03-31 | オリンパス株式会社 | Medical system |
| JP2018147054A (en) * | 2017-03-01 | 2018-09-20 | 学校法人東邦大学 | Contactless remote pointer control device |
| JP2019129378A (en) * | 2018-01-23 | 2019-08-01 | 富士ゼロックス株式会社 | Information processing device, information processing system and program |
| JP2023050579A (en) * | 2021-09-30 | 2023-04-11 | 三菱電機エンジニアリング株式会社 | Aerial video display device |
-
2023
- 2023-04-21 WO PCT/JP2023/015983 patent/WO2024218977A1/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014170337A (en) * | 2013-03-04 | 2014-09-18 | Mitsubishi Electric Corp | Information display control device, information display device, and information display control method |
| WO2016047173A1 (en) * | 2014-09-24 | 2016-03-31 | オリンパス株式会社 | Medical system |
| JP2018147054A (en) * | 2017-03-01 | 2018-09-20 | 学校法人東邦大学 | Contactless remote pointer control device |
| JP2019129378A (en) * | 2018-01-23 | 2019-08-01 | 富士ゼロックス株式会社 | Information processing device, information processing system and program |
| JP2023050579A (en) * | 2021-09-30 | 2023-04-11 | 三菱電機エンジニアリング株式会社 | Aerial video display device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9367951B1 (en) | Creating realistic three-dimensional effects | |
| US10037614B2 (en) | Minimizing variations in camera height to estimate distance to objects | |
| US20140168261A1 (en) | Direct interaction system mixed reality environments | |
| US9792730B2 (en) | Display control method, system and medium | |
| US10209797B2 (en) | Large-size touch apparatus having depth camera device | |
| CN104166509A (en) | Non-contact screen interaction method and system | |
| CN110728756B (en) | Remote guidance method and device based on augmented reality | |
| CN111078018A (en) | Display touch control method, terminal device and storage medium | |
| US20200042777A1 (en) | Method, apparatus and device for determining an object, and storage medium for the same | |
| JP6381361B2 (en) | DATA PROCESSING DEVICE, DATA PROCESSING SYSTEM, DATA PROCESSING DEVICE CONTROL METHOD, AND PROGRAM | |
| JP6746419B2 (en) | Information processing apparatus, control method thereof, and computer program | |
| WO2018010440A1 (en) | Projection picture adjusting method and apparatus, and projection terminal | |
| JP6686319B2 (en) | Image projection device and image display system | |
| US20210089199A1 (en) | Interactive stereoscopic display and interactive sensing method for the same | |
| WO2024218977A1 (en) | Aerial image display system, display control device, method, and program | |
| US12353614B2 (en) | Wearable terminal apparatus, program, display method, and virtual image distribution system | |
| JP2025116192A (en) | Object attitude control program and information processing device | |
| US10403002B2 (en) | Method and system for transforming between physical images and virtual images | |
| JP2010015127A (en) | Information display apparatus | |
| CN110855887B (en) | Mirror-based image processing method, terminal and computer-readable storage medium | |
| JP6124862B2 (en) | Method for performing action according to pointing gesture, conference support system, and computer program | |
| JP2014235561A (en) | Image processing program, image processor and image processing system | |
| JP5724688B2 (en) | Information processing apparatus, input device movement ratio setting method, input device movement ratio setting program | |
| CN116954387A (en) | Terminal keyboard input interaction method, device, terminal and medium | |
| US12401883B2 (en) | System, imaging apparatus, information processing apparatus, information processing method, and information processing program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23934119 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2025515024 Country of ref document: JP Kind code of ref document: A |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 2025515024 Country of ref document: JP |