[go: up one dir, main page]

KR20160099981A - Virtual reality device based on two-way recognition including a three-dimensional marker with a patten for multiple users - Google Patents

Virtual reality device based on two-way recognition including a three-dimensional marker with a patten for multiple users Download PDF

Info

Publication number
KR20160099981A
KR20160099981A KR1020150022374A KR20150022374A KR20160099981A KR 20160099981 A KR20160099981 A KR 20160099981A KR 1020150022374 A KR1020150022374 A KR 1020150022374A KR 20150022374 A KR20150022374 A KR 20150022374A KR 20160099981 A KR20160099981 A KR 20160099981A
Authority
KR
South Korea
Prior art keywords
virtual reality
user
wearable
marker
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
KR1020150022374A
Other languages
Korean (ko)
Inventor
양인범
허경
황윤형
추용주
이유식
Original Assignee
자동차부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 자동차부품연구원 filed Critical 자동차부품연구원
Priority to KR1020150022374A priority Critical patent/KR20160099981A/en
Publication of KR20160099981A publication Critical patent/KR20160099981A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K17/00Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 상기한 종래의 문제점을 해결하기 위해서, 착용형 가상현실 구현장치와 가상현실 영상처리장치 및 입체표식기를 통해서 사용자의 상호 위치, 방향에 대한 정보를 제공하고, 사용자의 동작 인식에 따른 동작 맞춤형 가상현실 영상을 제공하는데 그 목적이 있다.
이를 위하여 본 발명에 의한 복수 사용자의 상호 협력 방법은 카메라, 적외선 카메라 또는 각종 근거리 및 장거리 측정이 가능한 센서를 구비한 착용형 가상현실 구현장치를 착용한 사용자와 입체표식기의 마커를 인지하여 사용자의 위치, 방향을 추정하는 단계; 상기 착용형 가상현실 구현장치를 복수의 사용자가 상호 인지하여 절대위치, 방향을 추정하는 단계; 상기 각 사용자의 동작을 인지하고, 가상현실구현장치의 가상현실 영상과 대조 후, 각 사용자에 해당 영상을 상영하는 단계를 포함하여 이루어진다.
In order to solve the above-described problems, the present invention provides information on mutual position and direction of users through a wearable virtual reality apparatus, a virtual reality image processing apparatus, and a stereoscopic marker, And to provide a customized virtual reality image.
To this end, the multi-user cooperation method according to the present invention recognizes the user wearing the wearable virtual reality realization device equipped with the camera, the infrared camera or the various short-range and long-distance measurable sensors and the marker of the stereoscopic markers, , Estimating a direction; Estimating an absolute position and a direction of the wearable virtual reality apparatus by mutually recognizing the plurality of users; Recognizing the operation of each user, verifying the virtual reality image of the virtual reality realization device, and displaying the corresponding image to each user.

Description

패턴을 가지는 입체표식기를 이용한 복수 사용자를 포함하는 쌍방향 인식이 가능한 가상현실 장치 {VIRTUAL REALITY DEVICE BASED ON TWO-WAY RECOGNITION INCLUDING A THREE-DIMENSIONAL MARKER WITH A PATTEN FOR MULTIPLE USERS}TECHNICAL FIELD [0001] The present invention relates to a virtual reality apparatus capable of bi-directional recognition including a plurality of users using stereoscopic markers having a pattern,

본 발명은 패턴을 가지는 입체표식기에 기반한 복수 사용자를 포함하는 쌍방향 인식이 가능한 착용형 가상현실 구현장치 및 관련 시스템과 그 방법에 관한 것으로, 가상현실 영상장치, HMD(Head Mount Display) 등에 구비된 복수 센서와 입체표식기와의 상호 인식 기반의 위치 및 방향 검출 방법에 기반한 단수 또는 복수 사용자에게 가상현실 영상 및 공간을 제공하는데 그 목적이 있다.
The present invention relates to a wearable virtual reality realization device and a related system and a method thereof capable of bidirectional recognition including a plurality of users based on a stereoscopic marker having a pattern, The object of the present invention is to provide a virtual reality image and a space to a single or plural users based on a mutual recognition based position and direction detection method of a sensor and a stereoscopic marker.

일반적으로 디스플레이를 통해서 표시되는 화면 영상은 실사를 직접적으로 전달하는 현실영상 전달방법과 컴퓨터를 통해서 만들어진 현실 모사 또는 현실세계에 존재하지 않는 가상 영상을 전달하는 가상현실영상 전달 방법이 있다. In general, a screen image displayed through a display is a real image delivery method that directly transmits real images, and a virtual reality image delivery method that delivers virtual images created through a computer or virtual images that do not exist in the real world.

최근 영상처리 및 정보통신 기술의 발달로 실시간으로 단수 또는 복수 사용자의 위치 및 방향 검출과 동시에 각각의 사용자의 시점에 해당하는 영상을 제공할 수 있는 가상현실 환경을 구비할 수 있게 되었다. With the recent development of image processing and information communication technology, it is possible to provide a virtual reality environment capable of detecting the position and direction of a single or a plurality of users in real time and simultaneously providing images corresponding to respective user's viewpoints.

일반적으로 상기 가상현실 환경에서는 사용자의 위치 또는 방향 검출 방법으로는 고정 환경에서 구비된 고정센서가 사용자가 구비한 단수 또는 복수개의 마커를 인지하는 방법과 사용자가 구비한 복수개의 센서와 상호 인지하는 방법이 있다. 상기 고정 환경에서 고정센서와 단수 또는 복수개의 마커를 인지하고, 마커 상에 해당 가상현실 또는 증강현실을 구현하는 방식은 제한적인 공간에서 구현되는 문제점이 존재한다. 또한 사용자가 구비한 단수 또는 복수개의 센서와 상호 인지하는 마커리스 방법은 고정 환경을 미리 촬영한 실사를 이용하는 경우 이외에 상호 인식성의 불안정으로 인해서 개방 환경에서 사용할 수 없는 문제점이 있다. Generally, in the virtual reality environment, a method of detecting a user's position or direction includes a method of recognizing a single or a plurality of markers provided by a fixed sensor provided in a fixed environment, a method of recognizing a plurality of sensors provided by a user . There is a problem that the fixed sensor and the singular or plural markers are recognized in the fixed environment and the virtual reality or augmented reality is implemented on the marker in a limited space. Also, there is a problem that the markerless method of recognizing a single or a plurality of sensors provided by a user can not be used in an open environment due to instability of mutual recognition in addition to the case of using a real image photographed in advance of a fixed environment.

종래의 발명에서는 사용자의 동작 및 걸음걸이의 패턴 인식을 통한 보행자의 방향만을 추정하는 방법이 제안되었다.(특허문헌 0001) 그러나 종래의 방법으로는 사용자의 위치 및 복수 사용자의 상호 위치를 추종하기 불가능하다. 또한 모션 인식 기반의 보행자 위치를 추정하는 방법이 제안되었으나(특허문헌 0002), 상기 발명에서도 복수 사용자의 상호 위치는 추종하기 불가능하다. In the conventional method, a method of estimating only a direction of a pedestrian through pattern recognition of a user's action and a walking gesture has been proposed. However, in the conventional method, it is impossible to follow the position of a user and the mutual position of a plurality of users Do. In addition, although a method of estimating the position of a pedestrian based on motion recognition has been proposed (Patent Document 0002), it is impossible to follow the mutual position of a plurality of users even in the above invention.

그리고 종래의 발명에서 단수 또는 복수의 사용자의 상호 위치를 추종하기 위해 복수개의 센서를 이용한 증강현실 장치 방향 트레킹 시스템을 제안했다.(특허 문헌 0003) 상기 발명에서는 사용자가 구비한 복수개의 센서와 고정 환경에 대한 정보를 보유하고 있는 장치와 복수개의 센서를 통해서, 단수 또는 복수의 사용자의 방향 및 위치를 추종하나, 환경 정보가 불확실한 개방 환경 또는 임의의 환경에서는 복수 사용자간 상호 위치 추종이 불가능하다. In the conventional invention, a directional trekking system for augmented reality apparatuses using a plurality of sensors has been proposed in order to follow the mutual position of a single user or a plurality of users. It is impossible to follow the mutual position among a plurality of users in an open environment or an arbitrary environment in which environmental information is uncertain, although the direction and position of a single or plural users are tracked through a device and a plurality of sensors.

상기 마커 또는 마커리스 방법의 가상현실은 다양한 분야에서 사용될 수 있으나, 복수의 사용자간 협업과 같은 사용자의 시선에 따라 가상현실을 구현하는 서비스를 제공하기에는, 실시간 렌더링(Rendering), 구현환경의 제약, 장비 운용비용 등 다양한 문제점이 존재한다.
The virtual reality of the marker or markerless method can be used in various fields. However, in order to provide a service that realizes a virtual reality according to a user's eyes such as a collaboration among a plurality of users, real-time rendering, And equipment operation cost.

KRKR 10-147296010-1472960 B1B1 KRKR 10-147365310-1473653 B1B1 KRKR 10-128591310-1285913 B1B1

본 발명에서는 상기와 같은 문제점을 해결하기 위한 것으로서, 단수 또는 복수의 센서를 구비한 가상현실 영상처리장치 및 착용형 영상구현 장치와, 사용자의 위치 및 사용자간 위치 검출을 위한 입체표식기를 구비하여, 개방 환경에서 단수 또는 복수의 사용자의 위치, 방향을 상호 인지하고, 사용자간 협업이 가능한 가상현실환경 영상 및 공간을 제공하는데 그 목적이 있다.
The present invention has been made to solve the above problems, and it is an object of the present invention to provide a virtual reality image processing apparatus and a wearable image realizing apparatus having a single sensor or a plurality of sensors and a stereoscopic marker for detecting a position of a user and a position between users, It is an object of the present invention to provide a virtual reality environment image and space capable of recognizing the position and direction of a single user or a plurality of users in an open environment and enabling collaboration among users.

단수 또는 복수의 센서를 구비한 착용형 가상현실 구현장치 및 마커가 기록된 입체표식기와 가상현실 영상처리 장치로 구성된 가상현실 구현 플랫폼을 구성하고, 상기 단수 또는 복수의 마커가 기록된 입체표식기의 마커를 인지하는 착용형 가상현실 구현장치를 통해 사용자의 위치 및 방향을 추정할 수 있는 시스템 및 상기 복수의 착용형 가상현실 구현 장치를 운용함으로써 각각의 사용자 상대적인 위치를 추정할 수 있는 시스템을 통해, 상기 착용형 가상현실 구현 장치로 가상현실 영상을 송출하고, 이를 시각화하는 시스템과 이를 구현하는 장치 및 방법을 제공하는 것이다.
A virtual reality realization platform constituted by a stereoscopic marker and a virtual reality image processing device in which a marker is recorded and a wearable virtual reality realization device having a single or a plurality of sensors is constituted, and a marker of the stereoscopic markers A system capable of estimating a position and a direction of a user through a wearable virtual reality realizing device recognizing a wearable virtual reality realizing device and a system capable of estimating respective user relative positions by operating the plurality of wearable virtual reality realizing devices, The present invention provides a system for transmitting a virtual reality image to a wearable virtual reality apparatus and visualizing the virtual reality image, and an apparatus and method for implementing the system.

본 발명에 따르면, 종래에 고정 환경 또는 사전 정보가 존재하는 환경에서 사용자에게 전달하는 제한된 가상현실 또는 증강현실을 제공하였으나, 단수 또는 복수개의 센서를 구비한 착용형 가상현실 구현장치의 상호 인지와 입체표식기의 마커 인식을 통해 개방 환경 또는 사전 정보가 부족한 환경에서도 상호 협력이 가능한 시스템을 구현할 수 있으며, 상호 인지를 통한 프레임최적화를 통해서 가상현실 구현 환경 최적화를 제공할 수 있다.
According to the present invention, there is provided a limited virtual reality or augmented reality which is conventionally transmitted to a user in a fixed environment or an environment in which prior information exists. However, It is possible to implement a system that can cooperate with each other even in an open environment or an environment lacking advance information through marker recognition of markers, and it is possible to provide a virtual reality implementation environment optimization through frame optimization through mutual recognition.

도 1은 본 발명의 바람직한 실시예에 따른 복수의 착용형 가상현실 구현장치와 입체표식기간 위치, 방향 검출에 대한 개념도
도 2는 본 발명의 바람직한 실시예에 따른 착용형 가상현실 구현장치를 착용한 복수 사용자간 위치, 방향 검출과 해당 가상현실영상 구현 방법 블록도
도 3은 본 발명의 바람직한 실시예에 따른 착용형 가상현실 구현장치와 가상현실 영상처리장치의 시스템 블록도
도 4는 사용자의 가속도 센싱을 통한 가상현실 영상처리장치의 프레임 최적화 블록도이다.
BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is a conceptual diagram of a plurality of wearable virtual reality devices and stereoscopic marker period position and orientation detection according to a preferred embodiment of the present invention; Fig.
FIG. 2 is a block diagram of a position, direction detection and corresponding virtual reality image implementation method between a plurality of users wearing a wearable virtual reality apparatus according to a preferred embodiment of the present invention
3 is a system block diagram of a wearable virtual reality apparatus and a virtual reality image processing apparatus according to a preferred embodiment of the present invention
4 is a frame optimization block diagram of a virtual reality image processing apparatus through acceleration sensing of a user.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, the preferred embodiments of the present invention will be described below, but it is needless to say that the technical idea of the present invention is not limited thereto and can be variously modified by those skilled in the art.

도 1은 복수의 착용형 가상현실 구현장치와 입체표식기간 위치, 방향 검출에 대한 개념도이다.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a conceptual diagram of a plurality of wearable virtual reality devices and stereoscopic marker period position and direction detection. FIG.

본 발명에서는 개방 환경 및 공간 정보가 부족한 환경에서 단수 또는 복수의 착용형 가상현실 구현장치와 입체표식기를 이용하여 사용자간 상대적이면서, 절대 좌표를 추출할 수 있는 시스템을 제공할 수 있다. The present invention can provide a system capable of extracting relative coordinates and absolute coordinates between users by using one or more wearable virtual reality realization devices and stereoscopic markers in an environment where open environment and space information are insufficient.

도 1은 일실시예에 따른 것으로서 제 1사용자의 착용형 가상현실 구현장치(110)와 제 2사용자의 착용형 가상현실 구현장치(120)간 블루투스, Wifi, 카메라 등 단수 또는 복수의 센서를 이용하여 상호 인지를 수행하여, 상대적으로 어떤 위치에 존재하는지 확인할 수 있다. 1 is a block diagram of a wearable virtual reality apparatus 120 of a first user and a wearable virtual reality apparatus 120 of a first user according to an embodiment of the present invention. So that it is possible to confirm the relative position of the user.

상기 착용형 가상현실 구현장치(110, 120)는 단수 또는 복수의 카메라, 적외선 카메라, 센서 등을 구비(111)하여 넓은 화각(112)으로 인지할 수 있는 공간(110a)을 구비할 수 있으며, 카메라를 통해 획득된 영상들을 조합하여, 서라운드 영상을 사용자에게 제공할 수 있다. The wearable virtual reality apparatuses 110 and 120 may include a space 110a recognizable by a wide angle of view 112 by having a camera 111, a plurality of cameras, an infrared camera, a sensor, The surround images can be provided to the user by combining the images obtained through the camera.

상기 제 1사용자의 착용형 가상현실 구현장치(110)와 제 2사용자의 착용형 가상현실 구현장치(120)는 입체표식기(130)를 주시하면, 각각의 장치를 통해 입체표식기(130)에 기록된 마커를 인지(130a)할 수 있다.When the wearable virtual reality apparatus 110 of the first user and the wearable virtual reality apparatus 120 of the second user view the stereoscopic marker 130, the stereoscopic marker 130 is recorded The recognized marker can be recognized (130a).

상기 입체표식기(130)는 정방형의 3차원 입체 형태이고, 각 면에 단수 또는 복수의 마커가 기록될 수 있으며, 각각의 마커에 위치, 방향을 추출할 수 있도록 단수 또는 복수의 보조 마커가 구비될 수 있다. The stereoscopic markers 130 may have a square three-dimensional shape, and may have a single or a plurality of markers on each side thereof, and may include a single or a plurality of auxiliary markers for extracting positions and directions of the respective markers .

상기 착용형 가상현실 장치(110, 120)가 인지한 마커는 좌측 마커(131)와 우측 마커(132)의 연장선을 비교하여 수평기울기를 측정하고, 좌측 마커(131)와 상측 마커(133)의 연장성을 비교하여 수직기울기를 측정한다. 또한 우측 마커(132)와 상측마커(133)의 재비교를 통해서, 수평, 수직 기울기를 보정하여 방향을 추정할 수 있다. 또한 상기 착용형 가상현실 장치(110, 120)가 인지한 마커 평면이미지(130a)의 픽셀단위와 착용형 가상현실 장치(110, 120)의 해상도를 비교하여, 사용자와 입체표식기(130)간 절대 깊이(depth)에 대한 위치를 추정할 수 있다. A marker recognized by the wearable virtual reality apparatuses 110 and 120 is measured by comparing the extended line of the left marker 131 and the right marker 132 to measure the horizontal inclination of the left marker 131 and the upper marker 133 The vertical gradient is measured by comparing the extensibility. Also, by re-comparing the right marker 132 and the upper marker 133, the direction can be estimated by correcting the horizontal and vertical inclination. In addition, by comparing the pixel units of the marker plane image 130a recognized by the wearable virtual reality apparatuses 110 and 120 with the resolutions of the wearable virtual reality apparatuses 110 and 120, It is possible to estimate the position with respect to the depth.

상기 착용형 가상현실 장치(110, 120)의 위치, 방향 정보는 유무선 통신망을 통해 실시간으로 전달될 수 있으며, 이를 바탕으로 각 사용자의 착용형 가상현실 장치(110, 120)를 통해서 가상현실 영상을 제공할 수 있다. The location and direction information of the wearable virtual reality apparatuses 110 and 120 can be transmitted in real time via the wired / wireless communication network and the virtual reality images can be transmitted through the wearable virtual reality apparatuses 110 and 120 of each user, .

도 2는 본 발명의 바람직한 실시예에 따른 착용형 가상현실 구현장치를 착용한 복수 사용자간 위치, 방향 검출과 해당 가상현실영상 구현 방법 블록도이다.FIG. 2 is a block diagram of location and direction detection of a plurality of users wearing a wearable virtual reality apparatus according to a preferred embodiment of the present invention, and a corresponding virtual reality image realization method.

본 발명에서는 제 1사용자와 제 2사용자의 착용형 영상 구현 장치 간 블루투스, 카메라, 각종 센서를 통한 상호 연동(210)을 통한 복수 사용자를 인지한다.In the present invention, a plurality of users are recognized through the interworking 210 between the first user and the second user through the wearable image implementing device through the Bluetooth, the camera and various sensors.

제 1사용자의 착용형 영상 구현 장치의 입체 표식 장치의 입체표식기의 표식확인 또는 촬영(220)을 수행한다. 상기 획득한 표식 영상을 가상현실 영상처리장치로 전송(230)한 후, 제 1사용자의 방향, 위치를 검출(240)한다. (220) of the stereoscopic markers of the stereoscopic marking apparatus of the wearable image implementing apparatus of the first user. After the obtained landmark image is transmitted 230 to the virtual reality image processing apparatus, the direction and position of the first user are detected 240.

제 1사용자의 착용형 영상 구현 장치를 통해 제 2사용자의 촬영 및 동작인지(250)와 제 2사용자의 착용형 영상 구현 장치를 통해 제 1사용자 촬영 및 동작인지(260)를 인지한다. Recognizes the first user's photographing and operation recognition (260) through the photographing and operation recognition (250) of the second user and the wearable image realizing device of the second user through the wearable image implementing apparatus of the first user.

상기 각 사용자로부터 얻은 제 1사용자, 제 2사용자의 영상을 가상현실 영상처리장치로 전송(270)하고, 각 사용자간 상호 위치, 방향 검출(280)한다.The images of the first user and the second user obtained from the respective users are transmitted to the virtual reality image processing apparatus (270), and mutual positions and directions of the users are detected (280).

상기 가상현실 영상처리장치를 통해 제 1사용자, 제 2사용자에게 가상현실 영상을 착용형 가상현실 영상구현장치로 전송 및 구현(290)을 수행한다. And transmits and implements 290 a virtual reality image to the wearable virtual reality image realizing device through the virtual reality image processing device to the first user and the second user.

본 발명에서 제안하는 가상현실 구현 방법에 참여하는 복수의 사용자는 제 1, 2 사용자에 한정 짓지 아니하고, 상기 과정 중 상호 위치, 방향을 검출 과정(240)이 후, 상기 과정을 실시간으로 반복적으로 수행하고 고품질 영상을 복수의 사용자에게 상영하는 것을 특징으로 한다. The plurality of users participating in the virtual reality realization method proposed by the present invention are not limited to the first and second users, and after the mutual position and direction are detected during the process 240, the process is repeatedly performed in real time And high-quality images are displayed to a plurality of users.

도 3는 본 발명의 바람직한 실시예에 따른 착용형 가상현실 구현장치와 가상현실 영상처리장치의 시스템 블록도이다.3 is a system block diagram of a wearable virtual reality apparatus and a virtual reality image processing apparatus according to a preferred embodiment of the present invention.

본 발명에서 도시한 시스템 개념도를 참조하면, 상기 착용형 영상 구현장치(310), 가상현실 영상처리장치(320), 가상현실 영상저장부(330), 통신부(340), 입체표식기(350), 중앙제어부(360)로 구비될 수 있다. The virtual reality image processing apparatus 320, the virtual reality image storage unit 330, the communication unit 340, the stereoscopic marker 350, the stereoscopic image display unit 350, And a central control unit 360.

본 발명에서는 사용자가 착용할 수 있는 착용형 영상 구현장치(310)는 임의의 위치에 존재하는 입체표식기(350)와 가상현실 영상처리장치(320) 간 상호 위치, 방향을 추종할 수 있고, 가상현실 영상처리장치(320)로부터 전송된 상호 위치, 방향 및 영상정보를 구현할 수 있다. In the present invention, the wearable image implementing apparatus 310 that can be worn by the user can follow the mutual positions and directions between the stereoscopic markers 350 and the virtual reality image processing apparatuses 320 located at arbitrary positions, Direction, and image information transmitted from the real-time image processing apparatus 320. [

착용형 영상 구현장치(310)는 입체표식기로부터 마커 이미지를 얻을 수 있는 마커 이미지 입력부(311), 마커 이미지를 가상현실 영상처리장치(320)로 전송하는 마커 이미지 송신수(312), 가상현실 영상처리장치로부터 영상을 수신하고, 사용자에게 출력하는 가상현실영상 수신부(313), 가상현실영상 출력부(314)로 구성될 수 있다. 상기 장치에 단수 또는 복수의 센서, 카메라 등을 구비할 수 있다. The wearable image implementing apparatus 310 includes a marker image input unit 311 for obtaining a marker image from the stereoscopic markers, a marker image transmission number 312 for transmitting a marker image to the virtual reality image processing apparatus 320, A virtual reality image receiving unit 313 for receiving an image from the processing apparatus and outputting the image to a user, and a virtual reality image output unit 314. [ The apparatus may include a single sensor or a plurality of sensors, a camera, and the like.

본 발명에서 가상현실 영상처리장치(320)는 착용형 영상 구현장치로부터 획득한 마커 이미지를 수신 및 검출하는 마커 이미지 수신부(321), 마커 이미지를 검출하는 마커이미지 인식부(322)로 구성되어 있다. 상기 획득한 마커 이미지로부터 사용자의 위치, 방향을 연산하는 위치, 방향 연산부(323), 해당 정보를 전달하는 위치, 방향 송신부(324)가 구비되어 있다. 또한 상기 가상현실 영상처리장치로 송신될 가상현실 영상을 연산하는 가상현실 연산부(325), 상기 정보를 송신하는 가상현실 송신부(326)로 구비될 수 있다. In the present invention, the virtual reality image processing apparatus 320 includes a marker image receiving unit 321 for receiving and detecting a marker image acquired from the wearable image implementing apparatus, and a marker image recognizing unit 322 for detecting a marker image . A position calculating unit 323 for calculating the position and direction of the user from the obtained marker image, a position for transmitting the information, and a direction transmitting unit 324. A virtual reality computing unit 325 for computing a virtual reality image to be transmitted to the virtual reality image processing apparatus, and a virtual reality transmitting unit 326 for transmitting the information.

상기 가상현실 영상을 저장하고 있는 가상현실 영상저장부(330)는 가상현실 영상정보를 저장하고 있는 가상현실 DB(331)과 해당 영상을 가상현실 영상처리장치로 송출하는 가상현실 송신부(332)로 구성되어 있다. 상기 장치는 비휘발성 메모리로 구성되어 있고, 가상현실 영상정보뿐만 아니라 관련 응용프로그램도 구비될 수 있다. 또한 착용형 영상 구현장치로의 단수 또는 복수의 센서로부터 획득된 영상을 저장할 수 있도록 저장장치로 구비될 수 있다. The virtual reality image storing unit 330 storing the virtual reality image includes a virtual reality DB 331 storing virtual reality image information and a virtual reality transmitting unit 332 transmitting the image to the virtual reality image processing apparatus Consists of. The apparatus is constituted by a nonvolatile memory, and not only virtual reality image information but also related application programs can be provided. And may be provided as a storage device so as to store images obtained from a single sensor or a plurality of sensors to a wearable image implementing apparatus.

상기 통신부(340)는 착용형 영상 구현장치(310)와 가상현실 영상처리장치(320) 간 통신을 위한 통신부(340)는 유무선 통신망을 사용하는 통신모듈을 포함하며, 상기 통신망을 통해서 통신망 사업자와 네트워크가 가능하여, 다른 공간에 있는 단수 또는 복수의 사용자에 서비스를 제공할 수 있다. The communication unit 340 includes a communication module that uses a wired / wireless communication network for communication between the wearable image implementing apparatus 310 and the virtual reality image processing apparatus 320, The network is capable of providing service to a single user or a plurality of users in another space.

상기 착용형 영상 구현장치(310)를 통해서 인식할 수 있도록 정방형 입체표식기(350)를 구비할 수 있다. 상기 입체표식기(350)는 정방형 입체형에 각 면에 독립적인 마커가 기록되어 있어, 어떤 방향 주시하더라도 마커의 형태가 다르게 보일 수 있다. And a square stereoscopic marker 350 may be provided so that the stereoscopic marker 350 can be recognized through the wearable image implementing apparatus 310. The stereoscopic markers 350 have a square stereoscopic shape and independent markers are recorded on each surface, so that the shape of the markers can be seen differently in any direction.

상기 착용형 영상 구현장치(310) 이하 각 시스템의 통합 전원관리, 환경 관리를 수행하는 중앙제어부(360)는 시스템 온/오프, 시스템 초기화, 환경저장 등을 통합 시스템 관리 프로그램을 구비할 수 있다. The centralized control unit 360 for performing the integrated power management and environmental management of each system below can include an integrated system management program for system on / off, system initialization, environment saving, and the like.

도 4는 사용자의 가속도 센싱을 통한 가상현실 영상처리장치의 프레임 최적화블록도이다. 4 is a frame optimization block diagram of a virtual reality image processing apparatus through acceleration sensing of a user.

착용형 영상 구현장치(310)의 단수 또는 복수개의 센서를 통해서 상호 인지와 가상현실 영상처리장치(320)의 실시간 영상처리는 물리적인 많은 신호처리가 소요된다. 따라서 사용자가 상호 인지율 및 동작 인지율의 최적화를 통한 획득 정보 및 가상현실 영상처리의 프레임을 최적화를 수행할 수 있다. Real-time image processing of the mutual recognition and virtual reality image processing apparatus 320 through a single sensor or a plurality of sensors of the wearable image implementing apparatus 310 requires much physical signal processing. Therefore, the user can optimize the frame of the acquisition information and the virtual reality image processing through optimization of the mutual recognition rate and the motion recognition rate.

상기 착용형 영상 구현장치(310)를 통해서 복수 사용자의 동작 및 움직임을 감지(410)하고, 복수의 사용자 동작 패턴을 결정(420)한다. 착용형 영상 구현장치(310)에 구비된 가속도 센서 및 각종 센서를 통해 복수 사용자의 움직임에 따른 가속도 연산(430)을 수행하고, 획득해야할 동작 인식률에 따른 프레임 연산 및 동작 대조를 수행(440)한다. Through the wearable image implementing apparatus 310, motion and motion of a plurality of users are detected 410 and a plurality of user motion patterns are determined 420. An acceleration calculation 430 according to motion of a plurality of users is performed through an acceleration sensor and various sensors provided in the wearable image implementing apparatus 310 and a frame operation and an operation check according to an operation recognition rate to be obtained are performed 440 .

상기 과정을 통해서 프레임에 따른 연산 속도와 촬영 속도를 연동(450)한 사용자 동작 인식률을 설정할 수 있다. 일실시예를 들어, 복수의 사용자가 정지 상태 또는 이에 준하는 정적인 상태일 때, 동작의 변화가 상대적으로 적음을 감지 후, 획득되어야할 동작 인식률을 연산하여, 최소 획득 프레임을 최적화함으로서 전반적인 시스템 부하를 최소화할 수 있다. Through the above process, the user operation recognition rate can be set to the operation speed 450 and the photographing speed according to the frame 450. For example, when a plurality of users are in a static state or a static state corresponding to the plurality of users, it is detected that the change in operation is relatively small, and then the operation recognition rate to be obtained is calculated. By optimizing the minimum acquisition frame, Can be minimized.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are intended to illustrate and not to limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and accompanying drawings. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

100 : 복수의 착용형 가상현실 구현장치와 입체표식기 시스템
200 : 착용형 가상현실 구현장치를 착용한 복수 사용자간 위치, 방향 검출과 해당 가상현실영상 구현 방법 블록도
300 : 착용형 가상현실 구현장치와 가상현실 영상처리장치의 시스템
400 : 사용자의 가속도 센싱을 통한 가상현실 영상처리장치의 프레임 최적화 블록도
100: Multiple wearable virtual reality devices and three-dimensional marker system
200: Location and direction detection between multiple users wearing a wearable virtual reality device and a block diagram of a corresponding virtual reality image implementation method
300: Wearable Virtual Reality Implementation System and System of Virtual Reality Image Processing System
400: Block optimization block diagram of virtual reality image processing device through acceleration sensing

Claims (9)

단수 또는 복수의 센서를 구비한 착용형 가상현실 구현장치 및 마커가 기록된 입체표식기와 가상현실 영상처리 장치로 구성된 가상현실 구현 플랫폼;
상기 마커가 기록된 입체표식기의 마커를 인지할 수 있는 착용형 가상현실 구현장치를 통해 사용자의 위치 및 방향을 추정할 수 있는 시스템;
상기 착용형 가상현실 구현 장치를 복수개를 운용함으로써 각각의 사용자 상대적인 위치를 추정할 수 있는 시스템;
상기 단수 또는 복수개의 착용형 가상현실 구현 장치로 가상현실 영상을 송출하고, 이를 시각화하는 플랫폼과 그 구현 방법
A virtual reality realization platform composed of a wearable virtual reality realization device having a single sensor or a plurality of sensors, a stereoscopic markers recorded with markers, and a virtual reality image processing device;
A system capable of estimating a position and a direction of a user through a wearable virtual reality realization device capable of recognizing a marker of a stereoscopic marker on which the marker is recorded;
A system capable of estimating respective user-relative positions by operating a plurality of wearable virtual reality devices;
A platform for transmitting a virtual reality image to the one or more wearable virtual reality devices and visualizing the virtual reality image and an implementation method thereof
제 1항에 있어서,
각 면에 단수 또는 복수개의 표식이 기록된 다각형 입체표식기와 표식을 인지하는 것을 특징으로 하는 착용형 가상현실 구현장치를 이용한 사용자의 위치, 방향 추정 시스템
The method according to claim 1,
A position and direction estimation system of a user using a wearable virtual reality realization device characterized by recognizing a polygonal stereoscopic marker and markers in which a single or a plurality of markers are recorded on each face
제 1항에 있어서,
단수 또는 복수개의 센서를 구비한 착용형 가상현실 구현장치를 착용한 복수의 사용자간 센서를 통한 상호 인지 및 동작을 인지하는 것을 특징으로 하는 시스템
The method according to claim 1,
Recognizes mutual recognition and operation through a plurality of user-to-user sensors wearing a wearable virtual reality apparatus equipped with a single or a plurality of sensors.
제 3항에 있어서,
상기 단계에서 복수 사용자간 상호 인지와 입체표식기와의 인지를 통한 각 사용자의 절대 위치를 얻을 수 있는 것을 특징으로 하는 시스템
The method of claim 3,
Wherein the absolute position of each user can be obtained through mutual recognition between the plural users and recognition of the stereoscopic markers in the above step
제 4항에 있어서,
상기 각 사용자의 동작 정보와 가상현실 데이터베이스와 상호 대조 후, 각 사용자의 착용형 가상현실 구현장치를 통해서 해당 동작에 맞는 영상을 송출하는 것을 특징으로 하는 시스템
5. The method of claim 4,
And transmits the video corresponding to the operation through the wearable virtual reality realization device of each user after collating the operation information of each user with the virtual reality database
제 3항에 있어서,
착용형 가상현실 구현장치의 복수개의 센서의 화면을 조합 후, 사용자에게 넓은 화각 화면을 상영할 수 있는 것을 특징으로 하는 시스템
The method of claim 3,
Wherein a wide angle-of-view screen can be displayed to a user after combining screens of a plurality of sensors of a wearable virtual reality apparatus
제 3항에 있어서,
상기 상호 인지 및 동작 대조를 통해, 각 사용자 위치, 방향 정보를 제공하고 이를 이용한 상호 협력 가상현실 영상 및 공간을 제공하는 것을 특징으로 하는 시스템
The method of claim 3,
And provides mutual cooperation virtual reality images and spaces using the mutual recognition and operation contrast by providing respective user position and direction information.
제 5항에 있어서,
상기 상호 인지 및 동작 인식을 통해, 착용형 가상현실 구현장치가 인지하지 못한 부분을 가상 덮어씌우기를 수행하여 상영하는 것을 특징으로 하는 시스템
6. The method of claim 5,
Characterized in that, through mutual recognition and motion recognition, the virtual virtual reality realizing device performs a virtual overlay on a part which is not recognized by the wearable virtual reality realizing device
(a) 상기 카메라, 적외선 카메라 또는 각종 근거리 및 장거리 측정이 가능한 센서를 구비한 착용형 가상현실 구현장치를 착용한 사용자와 입체표식기의 마커를 인지하여 사용자의 위치, 방향을 추정하는 단계;
(b) 상기 착용형 가상현실 구현장치를 복수의 사용자가 상호 인지하여 절대위치, 방향을 추정하는 단계;
(c) 상기 각 사용자의 동작을 인지하고, 가상현실구현장치의 가상현실 영상과 대조하는 단계;
(d) 상기 각 사용자의 동작에 해당 영상을 각각의 착용형 가상현실 구현장치로 전달하는 단계;
(e) 상기 전달된 영상을 가상 덮어씌우기를 통해, 각각의 착용형 가상현실 구현장치로 상영하는 단계와 이를 구현할 수 있는 것을 특징으로 하는 시스템
(a) estimating a position and a direction of a user by recognizing a marker of a user wearing a wearable virtual reality apparatus equipped with the camera, an infrared camera, or a sensor capable of measuring various near and long distances, and a marker of the stereoscopic markers;
(b) estimating an absolute position and a direction of the wearable virtual reality apparatus by mutually recognizing the plurality of users;
(c) recognizing the operation of each user and checking the virtual reality images of the virtual reality realizing device;
(d) transferring a corresponding image to each wearable virtual reality realizing device in operation of each user;
(e) displaying the delivered image on each wearing virtual reality realizing device through virtual overwriting, and implementing the same
KR1020150022374A 2015-02-13 2015-02-13 Virtual reality device based on two-way recognition including a three-dimensional marker with a patten for multiple users Withdrawn KR20160099981A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150022374A KR20160099981A (en) 2015-02-13 2015-02-13 Virtual reality device based on two-way recognition including a three-dimensional marker with a patten for multiple users

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150022374A KR20160099981A (en) 2015-02-13 2015-02-13 Virtual reality device based on two-way recognition including a three-dimensional marker with a patten for multiple users

Publications (1)

Publication Number Publication Date
KR20160099981A true KR20160099981A (en) 2016-08-23

Family

ID=56875384

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150022374A Withdrawn KR20160099981A (en) 2015-02-13 2015-02-13 Virtual reality device based on two-way recognition including a three-dimensional marker with a patten for multiple users

Country Status (1)

Country Link
KR (1) KR20160099981A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018070895A1 (en) * 2016-10-12 2018-04-19 Общество С Ограниченной Ответственностью "Машина Различий" System for positioning an object in space for virtual reality
CN109685175A (en) * 2018-12-27 2019-04-26 国网河北省电力有限公司电力科学研究院 A kind of electric energy meter mistake assets position finding and detection method, device and terminal device
US11054644B2 (en) 2017-01-25 2021-07-06 Samsung Electronics Co., Ltd Electronic device and method for controlling electronic device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101285913B1 (en) 2011-12-16 2013-07-12 주식회사 엘지실트론 Wafer drying apparatus and method for it
KR101473653B1 (en) 2012-09-21 2014-12-18 한국과학기술연구원 Pedestrian Dead-Reckoning apparatus based on pedestrian motion recognition and method thereof
KR101472960B1 (en) 2013-08-06 2014-12-26 한국과학기술연구원 Apparatus and method for esimating orientation using pattern recogniion

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101285913B1 (en) 2011-12-16 2013-07-12 주식회사 엘지실트론 Wafer drying apparatus and method for it
KR101473653B1 (en) 2012-09-21 2014-12-18 한국과학기술연구원 Pedestrian Dead-Reckoning apparatus based on pedestrian motion recognition and method thereof
KR101472960B1 (en) 2013-08-06 2014-12-26 한국과학기술연구원 Apparatus and method for esimating orientation using pattern recogniion

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018070895A1 (en) * 2016-10-12 2018-04-19 Общество С Ограниченной Ответственностью "Машина Различий" System for positioning an object in space for virtual reality
US11054644B2 (en) 2017-01-25 2021-07-06 Samsung Electronics Co., Ltd Electronic device and method for controlling electronic device
CN109685175A (en) * 2018-12-27 2019-04-26 国网河北省电力有限公司电力科学研究院 A kind of electric energy meter mistake assets position finding and detection method, device and terminal device
CN109685175B (en) * 2018-12-27 2021-11-16 国网河北省电力有限公司电力科学研究院 Electric energy meter error asset positioning detection method and device and terminal equipment

Similar Documents

Publication Publication Date Title
EP3973444B1 (en) Image-based localization
EP1437645B1 (en) Position/orientation measurement method, and position/orientation measurement apparatus
JP5843340B2 (en) 3D environment sharing system and 3D environment sharing method
US20170132806A1 (en) System and method for augmented reality and virtual reality applications
US8780178B2 (en) Device and method for displaying three-dimensional images using head tracking
CN112258574B (en) Method and device for labeling pose information and computer readable storage medium
JP6364952B2 (en) Information processing apparatus, information processing system, and information processing method
CN106643699A (en) Space positioning device and positioning method in VR (virtual reality) system
JP5656514B2 (en) Information processing apparatus and method
JP7406875B2 (en) Information processing equipment and programs
WO2020195875A1 (en) Information processing device, information processing method, and program
US20210142576A1 (en) Management system and management method using eyewear device
KR20110136038A (en) Augmented reality device direction tracking system using multiple sensors
JP6950390B2 (en) Display control programs, devices, and methods
US20180020203A1 (en) Information processing apparatus, method for panoramic image display, and non-transitory computer-readable storage medium
KR20160099981A (en) Virtual reality device based on two-way recognition including a three-dimensional marker with a patten for multiple users
US10885319B2 (en) Posture control system
KR102199772B1 (en) Method for providing 3D modeling data
CN108981690A (en) Optical-inertia fusion positioning method, device and system
JP2019066196A (en) Tilt measuring device and tilt measuring method
CN115862124A (en) Sight estimation method and device, readable storage medium and electronic equipment
CN103260008A (en) Projection converting method from image position to actual position
JP6467039B2 (en) Information processing device
US10587862B2 (en) Head-mounted device
EP3971683A1 (en) Human body portion tracking method and human body portion tracking system

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20150213

PG1501 Laying open of application
PC1203 Withdrawal of no request for examination