KR20160099981A - Virtual reality device based on two-way recognition including a three-dimensional marker with a patten for multiple users - Google Patents
Virtual reality device based on two-way recognition including a three-dimensional marker with a patten for multiple users Download PDFInfo
- Publication number
- KR20160099981A KR20160099981A KR1020150022374A KR20150022374A KR20160099981A KR 20160099981 A KR20160099981 A KR 20160099981A KR 1020150022374 A KR1020150022374 A KR 1020150022374A KR 20150022374 A KR20150022374 A KR 20150022374A KR 20160099981 A KR20160099981 A KR 20160099981A
- Authority
- KR
- South Korea
- Prior art keywords
- virtual reality
- user
- wearable
- marker
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K17/00—Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 상기한 종래의 문제점을 해결하기 위해서, 착용형 가상현실 구현장치와 가상현실 영상처리장치 및 입체표식기를 통해서 사용자의 상호 위치, 방향에 대한 정보를 제공하고, 사용자의 동작 인식에 따른 동작 맞춤형 가상현실 영상을 제공하는데 그 목적이 있다.
이를 위하여 본 발명에 의한 복수 사용자의 상호 협력 방법은 카메라, 적외선 카메라 또는 각종 근거리 및 장거리 측정이 가능한 센서를 구비한 착용형 가상현실 구현장치를 착용한 사용자와 입체표식기의 마커를 인지하여 사용자의 위치, 방향을 추정하는 단계; 상기 착용형 가상현실 구현장치를 복수의 사용자가 상호 인지하여 절대위치, 방향을 추정하는 단계; 상기 각 사용자의 동작을 인지하고, 가상현실구현장치의 가상현실 영상과 대조 후, 각 사용자에 해당 영상을 상영하는 단계를 포함하여 이루어진다.In order to solve the above-described problems, the present invention provides information on mutual position and direction of users through a wearable virtual reality apparatus, a virtual reality image processing apparatus, and a stereoscopic marker, And to provide a customized virtual reality image.
To this end, the multi-user cooperation method according to the present invention recognizes the user wearing the wearable virtual reality realization device equipped with the camera, the infrared camera or the various short-range and long-distance measurable sensors and the marker of the stereoscopic markers, , Estimating a direction; Estimating an absolute position and a direction of the wearable virtual reality apparatus by mutually recognizing the plurality of users; Recognizing the operation of each user, verifying the virtual reality image of the virtual reality realization device, and displaying the corresponding image to each user.
Description
본 발명은 패턴을 가지는 입체표식기에 기반한 복수 사용자를 포함하는 쌍방향 인식이 가능한 착용형 가상현실 구현장치 및 관련 시스템과 그 방법에 관한 것으로, 가상현실 영상장치, HMD(Head Mount Display) 등에 구비된 복수 센서와 입체표식기와의 상호 인식 기반의 위치 및 방향 검출 방법에 기반한 단수 또는 복수 사용자에게 가상현실 영상 및 공간을 제공하는데 그 목적이 있다.
The present invention relates to a wearable virtual reality realization device and a related system and a method thereof capable of bidirectional recognition including a plurality of users based on a stereoscopic marker having a pattern, The object of the present invention is to provide a virtual reality image and a space to a single or plural users based on a mutual recognition based position and direction detection method of a sensor and a stereoscopic marker.
일반적으로 디스플레이를 통해서 표시되는 화면 영상은 실사를 직접적으로 전달하는 현실영상 전달방법과 컴퓨터를 통해서 만들어진 현실 모사 또는 현실세계에 존재하지 않는 가상 영상을 전달하는 가상현실영상 전달 방법이 있다. In general, a screen image displayed through a display is a real image delivery method that directly transmits real images, and a virtual reality image delivery method that delivers virtual images created through a computer or virtual images that do not exist in the real world.
최근 영상처리 및 정보통신 기술의 발달로 실시간으로 단수 또는 복수 사용자의 위치 및 방향 검출과 동시에 각각의 사용자의 시점에 해당하는 영상을 제공할 수 있는 가상현실 환경을 구비할 수 있게 되었다. With the recent development of image processing and information communication technology, it is possible to provide a virtual reality environment capable of detecting the position and direction of a single or a plurality of users in real time and simultaneously providing images corresponding to respective user's viewpoints.
일반적으로 상기 가상현실 환경에서는 사용자의 위치 또는 방향 검출 방법으로는 고정 환경에서 구비된 고정센서가 사용자가 구비한 단수 또는 복수개의 마커를 인지하는 방법과 사용자가 구비한 복수개의 센서와 상호 인지하는 방법이 있다. 상기 고정 환경에서 고정센서와 단수 또는 복수개의 마커를 인지하고, 마커 상에 해당 가상현실 또는 증강현실을 구현하는 방식은 제한적인 공간에서 구현되는 문제점이 존재한다. 또한 사용자가 구비한 단수 또는 복수개의 센서와 상호 인지하는 마커리스 방법은 고정 환경을 미리 촬영한 실사를 이용하는 경우 이외에 상호 인식성의 불안정으로 인해서 개방 환경에서 사용할 수 없는 문제점이 있다. Generally, in the virtual reality environment, a method of detecting a user's position or direction includes a method of recognizing a single or a plurality of markers provided by a fixed sensor provided in a fixed environment, a method of recognizing a plurality of sensors provided by a user . There is a problem that the fixed sensor and the singular or plural markers are recognized in the fixed environment and the virtual reality or augmented reality is implemented on the marker in a limited space. Also, there is a problem that the markerless method of recognizing a single or a plurality of sensors provided by a user can not be used in an open environment due to instability of mutual recognition in addition to the case of using a real image photographed in advance of a fixed environment.
종래의 발명에서는 사용자의 동작 및 걸음걸이의 패턴 인식을 통한 보행자의 방향만을 추정하는 방법이 제안되었다.(특허문헌 0001) 그러나 종래의 방법으로는 사용자의 위치 및 복수 사용자의 상호 위치를 추종하기 불가능하다. 또한 모션 인식 기반의 보행자 위치를 추정하는 방법이 제안되었으나(특허문헌 0002), 상기 발명에서도 복수 사용자의 상호 위치는 추종하기 불가능하다. In the conventional method, a method of estimating only a direction of a pedestrian through pattern recognition of a user's action and a walking gesture has been proposed. However, in the conventional method, it is impossible to follow the position of a user and the mutual position of a plurality of users Do. In addition, although a method of estimating the position of a pedestrian based on motion recognition has been proposed (Patent Document 0002), it is impossible to follow the mutual position of a plurality of users even in the above invention.
그리고 종래의 발명에서 단수 또는 복수의 사용자의 상호 위치를 추종하기 위해 복수개의 센서를 이용한 증강현실 장치 방향 트레킹 시스템을 제안했다.(특허 문헌 0003) 상기 발명에서는 사용자가 구비한 복수개의 센서와 고정 환경에 대한 정보를 보유하고 있는 장치와 복수개의 센서를 통해서, 단수 또는 복수의 사용자의 방향 및 위치를 추종하나, 환경 정보가 불확실한 개방 환경 또는 임의의 환경에서는 복수 사용자간 상호 위치 추종이 불가능하다. In the conventional invention, a directional trekking system for augmented reality apparatuses using a plurality of sensors has been proposed in order to follow the mutual position of a single user or a plurality of users. It is impossible to follow the mutual position among a plurality of users in an open environment or an arbitrary environment in which environmental information is uncertain, although the direction and position of a single or plural users are tracked through a device and a plurality of sensors.
상기 마커 또는 마커리스 방법의 가상현실은 다양한 분야에서 사용될 수 있으나, 복수의 사용자간 협업과 같은 사용자의 시선에 따라 가상현실을 구현하는 서비스를 제공하기에는, 실시간 렌더링(Rendering), 구현환경의 제약, 장비 운용비용 등 다양한 문제점이 존재한다.
The virtual reality of the marker or markerless method can be used in various fields. However, in order to provide a service that realizes a virtual reality according to a user's eyes such as a collaboration among a plurality of users, real-time rendering, And equipment operation cost.
본 발명에서는 상기와 같은 문제점을 해결하기 위한 것으로서, 단수 또는 복수의 센서를 구비한 가상현실 영상처리장치 및 착용형 영상구현 장치와, 사용자의 위치 및 사용자간 위치 검출을 위한 입체표식기를 구비하여, 개방 환경에서 단수 또는 복수의 사용자의 위치, 방향을 상호 인지하고, 사용자간 협업이 가능한 가상현실환경 영상 및 공간을 제공하는데 그 목적이 있다.
The present invention has been made to solve the above problems, and it is an object of the present invention to provide a virtual reality image processing apparatus and a wearable image realizing apparatus having a single sensor or a plurality of sensors and a stereoscopic marker for detecting a position of a user and a position between users, It is an object of the present invention to provide a virtual reality environment image and space capable of recognizing the position and direction of a single user or a plurality of users in an open environment and enabling collaboration among users.
단수 또는 복수의 센서를 구비한 착용형 가상현실 구현장치 및 마커가 기록된 입체표식기와 가상현실 영상처리 장치로 구성된 가상현실 구현 플랫폼을 구성하고, 상기 단수 또는 복수의 마커가 기록된 입체표식기의 마커를 인지하는 착용형 가상현실 구현장치를 통해 사용자의 위치 및 방향을 추정할 수 있는 시스템 및 상기 복수의 착용형 가상현실 구현 장치를 운용함으로써 각각의 사용자 상대적인 위치를 추정할 수 있는 시스템을 통해, 상기 착용형 가상현실 구현 장치로 가상현실 영상을 송출하고, 이를 시각화하는 시스템과 이를 구현하는 장치 및 방법을 제공하는 것이다.
A virtual reality realization platform constituted by a stereoscopic marker and a virtual reality image processing device in which a marker is recorded and a wearable virtual reality realization device having a single or a plurality of sensors is constituted, and a marker of the stereoscopic markers A system capable of estimating a position and a direction of a user through a wearable virtual reality realizing device recognizing a wearable virtual reality realizing device and a system capable of estimating respective user relative positions by operating the plurality of wearable virtual reality realizing devices, The present invention provides a system for transmitting a virtual reality image to a wearable virtual reality apparatus and visualizing the virtual reality image, and an apparatus and method for implementing the system.
본 발명에 따르면, 종래에 고정 환경 또는 사전 정보가 존재하는 환경에서 사용자에게 전달하는 제한된 가상현실 또는 증강현실을 제공하였으나, 단수 또는 복수개의 센서를 구비한 착용형 가상현실 구현장치의 상호 인지와 입체표식기의 마커 인식을 통해 개방 환경 또는 사전 정보가 부족한 환경에서도 상호 협력이 가능한 시스템을 구현할 수 있으며, 상호 인지를 통한 프레임최적화를 통해서 가상현실 구현 환경 최적화를 제공할 수 있다.
According to the present invention, there is provided a limited virtual reality or augmented reality which is conventionally transmitted to a user in a fixed environment or an environment in which prior information exists. However, It is possible to implement a system that can cooperate with each other even in an open environment or an environment lacking advance information through marker recognition of markers, and it is possible to provide a virtual reality implementation environment optimization through frame optimization through mutual recognition.
도 1은 본 발명의 바람직한 실시예에 따른 복수의 착용형 가상현실 구현장치와 입체표식기간 위치, 방향 검출에 대한 개념도
도 2는 본 발명의 바람직한 실시예에 따른 착용형 가상현실 구현장치를 착용한 복수 사용자간 위치, 방향 검출과 해당 가상현실영상 구현 방법 블록도
도 3은 본 발명의 바람직한 실시예에 따른 착용형 가상현실 구현장치와 가상현실 영상처리장치의 시스템 블록도
도 4는 사용자의 가속도 센싱을 통한 가상현실 영상처리장치의 프레임 최적화 블록도이다.BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is a conceptual diagram of a plurality of wearable virtual reality devices and stereoscopic marker period position and orientation detection according to a preferred embodiment of the present invention; Fig.
FIG. 2 is a block diagram of a position, direction detection and corresponding virtual reality image implementation method between a plurality of users wearing a wearable virtual reality apparatus according to a preferred embodiment of the present invention
3 is a system block diagram of a wearable virtual reality apparatus and a virtual reality image processing apparatus according to a preferred embodiment of the present invention
4 is a frame optimization block diagram of a virtual reality image processing apparatus through acceleration sensing of a user.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, the preferred embodiments of the present invention will be described below, but it is needless to say that the technical idea of the present invention is not limited thereto and can be variously modified by those skilled in the art.
도 1은 복수의 착용형 가상현실 구현장치와 입체표식기간 위치, 방향 검출에 대한 개념도이다.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a conceptual diagram of a plurality of wearable virtual reality devices and stereoscopic marker period position and direction detection. FIG.
본 발명에서는 개방 환경 및 공간 정보가 부족한 환경에서 단수 또는 복수의 착용형 가상현실 구현장치와 입체표식기를 이용하여 사용자간 상대적이면서, 절대 좌표를 추출할 수 있는 시스템을 제공할 수 있다. The present invention can provide a system capable of extracting relative coordinates and absolute coordinates between users by using one or more wearable virtual reality realization devices and stereoscopic markers in an environment where open environment and space information are insufficient.
도 1은 일실시예에 따른 것으로서 제 1사용자의 착용형 가상현실 구현장치(110)와 제 2사용자의 착용형 가상현실 구현장치(120)간 블루투스, Wifi, 카메라 등 단수 또는 복수의 센서를 이용하여 상호 인지를 수행하여, 상대적으로 어떤 위치에 존재하는지 확인할 수 있다. 1 is a block diagram of a wearable
상기 착용형 가상현실 구현장치(110, 120)는 단수 또는 복수의 카메라, 적외선 카메라, 센서 등을 구비(111)하여 넓은 화각(112)으로 인지할 수 있는 공간(110a)을 구비할 수 있으며, 카메라를 통해 획득된 영상들을 조합하여, 서라운드 영상을 사용자에게 제공할 수 있다. The wearable
상기 제 1사용자의 착용형 가상현실 구현장치(110)와 제 2사용자의 착용형 가상현실 구현장치(120)는 입체표식기(130)를 주시하면, 각각의 장치를 통해 입체표식기(130)에 기록된 마커를 인지(130a)할 수 있다.When the wearable
상기 입체표식기(130)는 정방형의 3차원 입체 형태이고, 각 면에 단수 또는 복수의 마커가 기록될 수 있으며, 각각의 마커에 위치, 방향을 추출할 수 있도록 단수 또는 복수의 보조 마커가 구비될 수 있다. The
상기 착용형 가상현실 장치(110, 120)가 인지한 마커는 좌측 마커(131)와 우측 마커(132)의 연장선을 비교하여 수평기울기를 측정하고, 좌측 마커(131)와 상측 마커(133)의 연장성을 비교하여 수직기울기를 측정한다. 또한 우측 마커(132)와 상측마커(133)의 재비교를 통해서, 수평, 수직 기울기를 보정하여 방향을 추정할 수 있다. 또한 상기 착용형 가상현실 장치(110, 120)가 인지한 마커 평면이미지(130a)의 픽셀단위와 착용형 가상현실 장치(110, 120)의 해상도를 비교하여, 사용자와 입체표식기(130)간 절대 깊이(depth)에 대한 위치를 추정할 수 있다. A marker recognized by the wearable
상기 착용형 가상현실 장치(110, 120)의 위치, 방향 정보는 유무선 통신망을 통해 실시간으로 전달될 수 있으며, 이를 바탕으로 각 사용자의 착용형 가상현실 장치(110, 120)를 통해서 가상현실 영상을 제공할 수 있다. The location and direction information of the wearable
도 2는 본 발명의 바람직한 실시예에 따른 착용형 가상현실 구현장치를 착용한 복수 사용자간 위치, 방향 검출과 해당 가상현실영상 구현 방법 블록도이다.FIG. 2 is a block diagram of location and direction detection of a plurality of users wearing a wearable virtual reality apparatus according to a preferred embodiment of the present invention, and a corresponding virtual reality image realization method.
본 발명에서는 제 1사용자와 제 2사용자의 착용형 영상 구현 장치 간 블루투스, 카메라, 각종 센서를 통한 상호 연동(210)을 통한 복수 사용자를 인지한다.In the present invention, a plurality of users are recognized through the
제 1사용자의 착용형 영상 구현 장치의 입체 표식 장치의 입체표식기의 표식확인 또는 촬영(220)을 수행한다. 상기 획득한 표식 영상을 가상현실 영상처리장치로 전송(230)한 후, 제 1사용자의 방향, 위치를 검출(240)한다. (220) of the stereoscopic markers of the stereoscopic marking apparatus of the wearable image implementing apparatus of the first user. After the obtained landmark image is transmitted 230 to the virtual reality image processing apparatus, the direction and position of the first user are detected 240.
제 1사용자의 착용형 영상 구현 장치를 통해 제 2사용자의 촬영 및 동작인지(250)와 제 2사용자의 착용형 영상 구현 장치를 통해 제 1사용자 촬영 및 동작인지(260)를 인지한다. Recognizes the first user's photographing and operation recognition (260) through the photographing and operation recognition (250) of the second user and the wearable image realizing device of the second user through the wearable image implementing apparatus of the first user.
상기 각 사용자로부터 얻은 제 1사용자, 제 2사용자의 영상을 가상현실 영상처리장치로 전송(270)하고, 각 사용자간 상호 위치, 방향 검출(280)한다.The images of the first user and the second user obtained from the respective users are transmitted to the virtual reality image processing apparatus (270), and mutual positions and directions of the users are detected (280).
상기 가상현실 영상처리장치를 통해 제 1사용자, 제 2사용자에게 가상현실 영상을 착용형 가상현실 영상구현장치로 전송 및 구현(290)을 수행한다. And transmits and implements 290 a virtual reality image to the wearable virtual reality image realizing device through the virtual reality image processing device to the first user and the second user.
본 발명에서 제안하는 가상현실 구현 방법에 참여하는 복수의 사용자는 제 1, 2 사용자에 한정 짓지 아니하고, 상기 과정 중 상호 위치, 방향을 검출 과정(240)이 후, 상기 과정을 실시간으로 반복적으로 수행하고 고품질 영상을 복수의 사용자에게 상영하는 것을 특징으로 한다. The plurality of users participating in the virtual reality realization method proposed by the present invention are not limited to the first and second users, and after the mutual position and direction are detected during the
도 3는 본 발명의 바람직한 실시예에 따른 착용형 가상현실 구현장치와 가상현실 영상처리장치의 시스템 블록도이다.3 is a system block diagram of a wearable virtual reality apparatus and a virtual reality image processing apparatus according to a preferred embodiment of the present invention.
본 발명에서 도시한 시스템 개념도를 참조하면, 상기 착용형 영상 구현장치(310), 가상현실 영상처리장치(320), 가상현실 영상저장부(330), 통신부(340), 입체표식기(350), 중앙제어부(360)로 구비될 수 있다. The virtual reality
본 발명에서는 사용자가 착용할 수 있는 착용형 영상 구현장치(310)는 임의의 위치에 존재하는 입체표식기(350)와 가상현실 영상처리장치(320) 간 상호 위치, 방향을 추종할 수 있고, 가상현실 영상처리장치(320)로부터 전송된 상호 위치, 방향 및 영상정보를 구현할 수 있다. In the present invention, the wearable
착용형 영상 구현장치(310)는 입체표식기로부터 마커 이미지를 얻을 수 있는 마커 이미지 입력부(311), 마커 이미지를 가상현실 영상처리장치(320)로 전송하는 마커 이미지 송신수(312), 가상현실 영상처리장치로부터 영상을 수신하고, 사용자에게 출력하는 가상현실영상 수신부(313), 가상현실영상 출력부(314)로 구성될 수 있다. 상기 장치에 단수 또는 복수의 센서, 카메라 등을 구비할 수 있다. The wearable
본 발명에서 가상현실 영상처리장치(320)는 착용형 영상 구현장치로부터 획득한 마커 이미지를 수신 및 검출하는 마커 이미지 수신부(321), 마커 이미지를 검출하는 마커이미지 인식부(322)로 구성되어 있다. 상기 획득한 마커 이미지로부터 사용자의 위치, 방향을 연산하는 위치, 방향 연산부(323), 해당 정보를 전달하는 위치, 방향 송신부(324)가 구비되어 있다. 또한 상기 가상현실 영상처리장치로 송신될 가상현실 영상을 연산하는 가상현실 연산부(325), 상기 정보를 송신하는 가상현실 송신부(326)로 구비될 수 있다. In the present invention, the virtual reality
상기 가상현실 영상을 저장하고 있는 가상현실 영상저장부(330)는 가상현실 영상정보를 저장하고 있는 가상현실 DB(331)과 해당 영상을 가상현실 영상처리장치로 송출하는 가상현실 송신부(332)로 구성되어 있다. 상기 장치는 비휘발성 메모리로 구성되어 있고, 가상현실 영상정보뿐만 아니라 관련 응용프로그램도 구비될 수 있다. 또한 착용형 영상 구현장치로의 단수 또는 복수의 센서로부터 획득된 영상을 저장할 수 있도록 저장장치로 구비될 수 있다. The virtual reality
상기 통신부(340)는 착용형 영상 구현장치(310)와 가상현실 영상처리장치(320) 간 통신을 위한 통신부(340)는 유무선 통신망을 사용하는 통신모듈을 포함하며, 상기 통신망을 통해서 통신망 사업자와 네트워크가 가능하여, 다른 공간에 있는 단수 또는 복수의 사용자에 서비스를 제공할 수 있다. The
상기 착용형 영상 구현장치(310)를 통해서 인식할 수 있도록 정방형 입체표식기(350)를 구비할 수 있다. 상기 입체표식기(350)는 정방형 입체형에 각 면에 독립적인 마커가 기록되어 있어, 어떤 방향 주시하더라도 마커의 형태가 다르게 보일 수 있다. And a square
상기 착용형 영상 구현장치(310) 이하 각 시스템의 통합 전원관리, 환경 관리를 수행하는 중앙제어부(360)는 시스템 온/오프, 시스템 초기화, 환경저장 등을 통합 시스템 관리 프로그램을 구비할 수 있다. The
도 4는 사용자의 가속도 센싱을 통한 가상현실 영상처리장치의 프레임 최적화블록도이다. 4 is a frame optimization block diagram of a virtual reality image processing apparatus through acceleration sensing of a user.
착용형 영상 구현장치(310)의 단수 또는 복수개의 센서를 통해서 상호 인지와 가상현실 영상처리장치(320)의 실시간 영상처리는 물리적인 많은 신호처리가 소요된다. 따라서 사용자가 상호 인지율 및 동작 인지율의 최적화를 통한 획득 정보 및 가상현실 영상처리의 프레임을 최적화를 수행할 수 있다. Real-time image processing of the mutual recognition and virtual reality
상기 착용형 영상 구현장치(310)를 통해서 복수 사용자의 동작 및 움직임을 감지(410)하고, 복수의 사용자 동작 패턴을 결정(420)한다. 착용형 영상 구현장치(310)에 구비된 가속도 센서 및 각종 센서를 통해 복수 사용자의 움직임에 따른 가속도 연산(430)을 수행하고, 획득해야할 동작 인식률에 따른 프레임 연산 및 동작 대조를 수행(440)한다. Through the wearable
상기 과정을 통해서 프레임에 따른 연산 속도와 촬영 속도를 연동(450)한 사용자 동작 인식률을 설정할 수 있다. 일실시예를 들어, 복수의 사용자가 정지 상태 또는 이에 준하는 정적인 상태일 때, 동작의 변화가 상대적으로 적음을 감지 후, 획득되어야할 동작 인식률을 연산하여, 최소 획득 프레임을 최적화함으로서 전반적인 시스템 부하를 최소화할 수 있다. Through the above process, the user operation recognition rate can be set to the
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are intended to illustrate and not to limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and accompanying drawings. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
100 : 복수의 착용형 가상현실 구현장치와 입체표식기 시스템
200 : 착용형 가상현실 구현장치를 착용한 복수 사용자간 위치, 방향 검출과 해당 가상현실영상 구현 방법 블록도
300 : 착용형 가상현실 구현장치와 가상현실 영상처리장치의 시스템
400 : 사용자의 가속도 센싱을 통한 가상현실 영상처리장치의 프레임 최적화 블록도100: Multiple wearable virtual reality devices and three-dimensional marker system
200: Location and direction detection between multiple users wearing a wearable virtual reality device and a block diagram of a corresponding virtual reality image implementation method
300: Wearable Virtual Reality Implementation System and System of Virtual Reality Image Processing System
400: Block optimization block diagram of virtual reality image processing device through acceleration sensing
Claims (9)
상기 마커가 기록된 입체표식기의 마커를 인지할 수 있는 착용형 가상현실 구현장치를 통해 사용자의 위치 및 방향을 추정할 수 있는 시스템;
상기 착용형 가상현실 구현 장치를 복수개를 운용함으로써 각각의 사용자 상대적인 위치를 추정할 수 있는 시스템;
상기 단수 또는 복수개의 착용형 가상현실 구현 장치로 가상현실 영상을 송출하고, 이를 시각화하는 플랫폼과 그 구현 방법
A virtual reality realization platform composed of a wearable virtual reality realization device having a single sensor or a plurality of sensors, a stereoscopic markers recorded with markers, and a virtual reality image processing device;
A system capable of estimating a position and a direction of a user through a wearable virtual reality realization device capable of recognizing a marker of a stereoscopic marker on which the marker is recorded;
A system capable of estimating respective user-relative positions by operating a plurality of wearable virtual reality devices;
A platform for transmitting a virtual reality image to the one or more wearable virtual reality devices and visualizing the virtual reality image and an implementation method thereof
각 면에 단수 또는 복수개의 표식이 기록된 다각형 입체표식기와 표식을 인지하는 것을 특징으로 하는 착용형 가상현실 구현장치를 이용한 사용자의 위치, 방향 추정 시스템
The method according to claim 1,
A position and direction estimation system of a user using a wearable virtual reality realization device characterized by recognizing a polygonal stereoscopic marker and markers in which a single or a plurality of markers are recorded on each face
단수 또는 복수개의 센서를 구비한 착용형 가상현실 구현장치를 착용한 복수의 사용자간 센서를 통한 상호 인지 및 동작을 인지하는 것을 특징으로 하는 시스템
The method according to claim 1,
Recognizes mutual recognition and operation through a plurality of user-to-user sensors wearing a wearable virtual reality apparatus equipped with a single or a plurality of sensors.
상기 단계에서 복수 사용자간 상호 인지와 입체표식기와의 인지를 통한 각 사용자의 절대 위치를 얻을 수 있는 것을 특징으로 하는 시스템
The method of claim 3,
Wherein the absolute position of each user can be obtained through mutual recognition between the plural users and recognition of the stereoscopic markers in the above step
상기 각 사용자의 동작 정보와 가상현실 데이터베이스와 상호 대조 후, 각 사용자의 착용형 가상현실 구현장치를 통해서 해당 동작에 맞는 영상을 송출하는 것을 특징으로 하는 시스템
5. The method of claim 4,
And transmits the video corresponding to the operation through the wearable virtual reality realization device of each user after collating the operation information of each user with the virtual reality database
착용형 가상현실 구현장치의 복수개의 센서의 화면을 조합 후, 사용자에게 넓은 화각 화면을 상영할 수 있는 것을 특징으로 하는 시스템
The method of claim 3,
Wherein a wide angle-of-view screen can be displayed to a user after combining screens of a plurality of sensors of a wearable virtual reality apparatus
상기 상호 인지 및 동작 대조를 통해, 각 사용자 위치, 방향 정보를 제공하고 이를 이용한 상호 협력 가상현실 영상 및 공간을 제공하는 것을 특징으로 하는 시스템
The method of claim 3,
And provides mutual cooperation virtual reality images and spaces using the mutual recognition and operation contrast by providing respective user position and direction information.
상기 상호 인지 및 동작 인식을 통해, 착용형 가상현실 구현장치가 인지하지 못한 부분을 가상 덮어씌우기를 수행하여 상영하는 것을 특징으로 하는 시스템
6. The method of claim 5,
Characterized in that, through mutual recognition and motion recognition, the virtual virtual reality realizing device performs a virtual overlay on a part which is not recognized by the wearable virtual reality realizing device
(b) 상기 착용형 가상현실 구현장치를 복수의 사용자가 상호 인지하여 절대위치, 방향을 추정하는 단계;
(c) 상기 각 사용자의 동작을 인지하고, 가상현실구현장치의 가상현실 영상과 대조하는 단계;
(d) 상기 각 사용자의 동작에 해당 영상을 각각의 착용형 가상현실 구현장치로 전달하는 단계;
(e) 상기 전달된 영상을 가상 덮어씌우기를 통해, 각각의 착용형 가상현실 구현장치로 상영하는 단계와 이를 구현할 수 있는 것을 특징으로 하는 시스템(a) estimating a position and a direction of a user by recognizing a marker of a user wearing a wearable virtual reality apparatus equipped with the camera, an infrared camera, or a sensor capable of measuring various near and long distances, and a marker of the stereoscopic markers;
(b) estimating an absolute position and a direction of the wearable virtual reality apparatus by mutually recognizing the plurality of users;
(c) recognizing the operation of each user and checking the virtual reality images of the virtual reality realizing device;
(d) transferring a corresponding image to each wearable virtual reality realizing device in operation of each user;
(e) displaying the delivered image on each wearing virtual reality realizing device through virtual overwriting, and implementing the same
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020150022374A KR20160099981A (en) | 2015-02-13 | 2015-02-13 | Virtual reality device based on two-way recognition including a three-dimensional marker with a patten for multiple users |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020150022374A KR20160099981A (en) | 2015-02-13 | 2015-02-13 | Virtual reality device based on two-way recognition including a three-dimensional marker with a patten for multiple users |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20160099981A true KR20160099981A (en) | 2016-08-23 |
Family
ID=56875384
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020150022374A Withdrawn KR20160099981A (en) | 2015-02-13 | 2015-02-13 | Virtual reality device based on two-way recognition including a three-dimensional marker with a patten for multiple users |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR20160099981A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018070895A1 (en) * | 2016-10-12 | 2018-04-19 | Общество С Ограниченной Ответственностью "Машина Различий" | System for positioning an object in space for virtual reality |
| CN109685175A (en) * | 2018-12-27 | 2019-04-26 | 国网河北省电力有限公司电力科学研究院 | A kind of electric energy meter mistake assets position finding and detection method, device and terminal device |
| US11054644B2 (en) | 2017-01-25 | 2021-07-06 | Samsung Electronics Co., Ltd | Electronic device and method for controlling electronic device |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101285913B1 (en) | 2011-12-16 | 2013-07-12 | 주식회사 엘지실트론 | Wafer drying apparatus and method for it |
| KR101473653B1 (en) | 2012-09-21 | 2014-12-18 | 한국과학기술연구원 | Pedestrian Dead-Reckoning apparatus based on pedestrian motion recognition and method thereof |
| KR101472960B1 (en) | 2013-08-06 | 2014-12-26 | 한국과학기술연구원 | Apparatus and method for esimating orientation using pattern recogniion |
-
2015
- 2015-02-13 KR KR1020150022374A patent/KR20160099981A/en not_active Withdrawn
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101285913B1 (en) | 2011-12-16 | 2013-07-12 | 주식회사 엘지실트론 | Wafer drying apparatus and method for it |
| KR101473653B1 (en) | 2012-09-21 | 2014-12-18 | 한국과학기술연구원 | Pedestrian Dead-Reckoning apparatus based on pedestrian motion recognition and method thereof |
| KR101472960B1 (en) | 2013-08-06 | 2014-12-26 | 한국과학기술연구원 | Apparatus and method for esimating orientation using pattern recogniion |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018070895A1 (en) * | 2016-10-12 | 2018-04-19 | Общество С Ограниченной Ответственностью "Машина Различий" | System for positioning an object in space for virtual reality |
| US11054644B2 (en) | 2017-01-25 | 2021-07-06 | Samsung Electronics Co., Ltd | Electronic device and method for controlling electronic device |
| CN109685175A (en) * | 2018-12-27 | 2019-04-26 | 国网河北省电力有限公司电力科学研究院 | A kind of electric energy meter mistake assets position finding and detection method, device and terminal device |
| CN109685175B (en) * | 2018-12-27 | 2021-11-16 | 国网河北省电力有限公司电力科学研究院 | Electric energy meter error asset positioning detection method and device and terminal equipment |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP3973444B1 (en) | Image-based localization | |
| EP1437645B1 (en) | Position/orientation measurement method, and position/orientation measurement apparatus | |
| JP5843340B2 (en) | 3D environment sharing system and 3D environment sharing method | |
| US20170132806A1 (en) | System and method for augmented reality and virtual reality applications | |
| US8780178B2 (en) | Device and method for displaying three-dimensional images using head tracking | |
| CN112258574B (en) | Method and device for labeling pose information and computer readable storage medium | |
| JP6364952B2 (en) | Information processing apparatus, information processing system, and information processing method | |
| CN106643699A (en) | Space positioning device and positioning method in VR (virtual reality) system | |
| JP5656514B2 (en) | Information processing apparatus and method | |
| JP7406875B2 (en) | Information processing equipment and programs | |
| WO2020195875A1 (en) | Information processing device, information processing method, and program | |
| US20210142576A1 (en) | Management system and management method using eyewear device | |
| KR20110136038A (en) | Augmented reality device direction tracking system using multiple sensors | |
| JP6950390B2 (en) | Display control programs, devices, and methods | |
| US20180020203A1 (en) | Information processing apparatus, method for panoramic image display, and non-transitory computer-readable storage medium | |
| KR20160099981A (en) | Virtual reality device based on two-way recognition including a three-dimensional marker with a patten for multiple users | |
| US10885319B2 (en) | Posture control system | |
| KR102199772B1 (en) | Method for providing 3D modeling data | |
| CN108981690A (en) | Optical-inertia fusion positioning method, device and system | |
| JP2019066196A (en) | Tilt measuring device and tilt measuring method | |
| CN115862124A (en) | Sight estimation method and device, readable storage medium and electronic equipment | |
| CN103260008A (en) | Projection converting method from image position to actual position | |
| JP6467039B2 (en) | Information processing device | |
| US10587862B2 (en) | Head-mounted device | |
| EP3971683A1 (en) | Human body portion tracking method and human body portion tracking system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20150213 |
|
| PG1501 | Laying open of application | ||
| PC1203 | Withdrawal of no request for examination |