[go: up one dir, main page]

KR20140009913A - Method and appratus for processing virtual world - Google Patents

Method and appratus for processing virtual world Download PDF

Info

Publication number
KR20140009913A
KR20140009913A KR1020130017404A KR20130017404A KR20140009913A KR 20140009913 A KR20140009913 A KR 20140009913A KR 1020130017404 A KR1020130017404 A KR 1020130017404A KR 20130017404 A KR20130017404 A KR 20130017404A KR 20140009913 A KR20140009913 A KR 20140009913A
Authority
KR
South Korea
Prior art keywords
sensor
virtual world
image sensor
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020130017404A
Other languages
Korean (ko)
Other versions
KR102024863B1 (en
Inventor
한승주
안민수
한재준
김도균
이영범
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US13/934,605 priority Critical patent/US20140015931A1/en
Publication of KR20140009913A publication Critical patent/KR20140009913A/en
Application granted granted Critical
Publication of KR102024863B1 publication Critical patent/KR102024863B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • H04N21/4725End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content using interactive regions of the image, e.g. hot spots
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Marketing (AREA)
  • Ecology (AREA)
  • Emergency Management (AREA)
  • Environmental & Geological Engineering (AREA)
  • Environmental Sciences (AREA)
  • Remote Sensing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)

Abstract

A virtual world processing apparatus and a method thereof are disclosed. According to embodiments, an interaction between a real world and a virtual world can be realized by delivering sensed information on the photographed image of the real world to the virtual world by using the characteristics of an image sensor which is information about the characteristics of the image sensor. [Reference numerals] (321) Reception unit; (322) Processing unit; (323) Transmission unit

Description

가상 세계 처리 장치 및 방법{METHOD AND APPRATUS FOR PROCESSING VIRTUAL WORLD}METHOD AND APPRATUS FOR PROCESSING VIRTUAL WORLD}

아래 실시예들은 가상 세계 처리 장치 및 방법에 관한 것으로서, 보다 구체적으로는 이미지 센서가 측정한 감지 정보를 가상 세계에 적용하는 장치 및 방법에 관한 것이다.
The following embodiments relate to an apparatus and a method for processing a virtual world, and more particularly, to an apparatus and a method for applying sensing information measured by an image sensor to a virtual world.

최근 들어 체감형 게임에 대한 관심이 증대 되고 있다. Microsoft社는 "E3 2009" Press Conference에서 그들의 게임 콘솔인 Xbox360에 Depth/Color 카메라와 마이크 어레이로 구성된 별도의 센서 디바이스를 결합하여 사용자의 전신 모션 캡처링, 얼굴 인식, 음성 인식 기술을 제공하여 별도의 컨트롤러 없이 가상세계와 상호 작용 할 수 있도록 해 주는 "Project Natal"을 발표 했다. 또한, Sony社는 자사 게임 콘솔인 Play Station3에 컬러 카메라와 마커, 초음파 센서를 결합한 위치/방향 센싱 기술을 적용하여 컨트롤러의 모션 궤적을 입력으로 가상세계와 상호 작용 할 수 있는 체감형 게임 모션 컨트롤러 "Wand"를 발표했다.Recently, interest in immersive games has increased. At the "E3 2009" Press Conference, Microsoft combined its sensor console, Xbox360, with a separate sensor device consisting of a Depth / Color camera and microphone array, providing users' full-body motion capturing, facial recognition, and speech recognition technologies. Introduced "Project Natal", which allows users to interact with virtual worlds without a controller. In addition, Sony applied position / direction sensing technology that combined color camera, marker, and ultrasonic sensor to Play Station3, its game console, so that the user can interact with the virtual world by inputting the motion trajectory of the controller. Wand "was released.

현실 세계와 가상 세계의 상호 작용은 두 가지 방향을 가진다. 첫째는 현실 세계의 센서로부터 얻어진 데이터 정보를 가상 세계에 반영하는 방향이고, 둘째는 가상 세계로부터 얻어진 데이터 정보를 엑추에이터(actuator)를 통해 현실 세계에 반영하는 방향이다. The interaction between the real world and the virtual world has two directions. The first is to reflect the data information obtained from the sensor of the real world to the virtual world, and the second is to reflect the data information obtained from the virtual world to the real world through an actuator.

본 명세서에서는 환경 센서를 이용하여 현실 세계로부터 센싱한 정보를 가상 세계에 적용하는 장치 및 방법에 대한 새로운 방안이 제시된다.
In the present specification, a new method for an apparatus and method for applying information sensed from a real world using an environmental sensor to a virtual world is presented.

일 측에 따른 가상 세계 처리 장치는 이미지 센서로부터 촬영 영상에 대한 감지 정보 및 상기 이미지 센서의 특성에 대한 센서 특성을 수신하는 수신부; 상기 감지 정보 및 상기 센서 특성에 기초하여, 가상 세계의 객체를 제어하는 제어 정보를 생성하는 처리부; 및 상기 제어 정보를 상기 가상 세계로 전송하는 전송부를 포함한다.According to one or more exemplary embodiments, an apparatus for processing a virtual world may include: a receiver configured to receive sensing information of a captured image and sensor characteristics of characteristics of the image sensor from an image sensor; A processor configured to generate control information for controlling an object of a virtual world based on the sensing information and the sensor characteristic; And a transmission unit transmitting the control information to the virtual world.

다른 일 측에 따른 가상 세계 처리 방법은 이미지 센서로부터 촬영 영상에 대한 감지 정보 및 상기 이미지 센서의 특성에 대한 센서 특성을 수신하는 단계; 상기 감지 정보 및 상기 센서 특성에 기초하여, 가상 세계의 객체를 제어하는 제어 정보를 생성하는 단계; 및 상기 제어 정보를 상기 가상 세계로 전송하는 단계를 포함한다.
According to another aspect of the present invention, there is provided a method of processing a virtual world, the method comprising: receiving sensor information on a characteristic of the image sensor and sensing information about a captured image from an image sensor; Generating control information for controlling an object of a virtual world based on the sensing information and the sensor characteristic; And transmitting the control information to the virtual world.

도 1은 일 실시예에 따른 현실 세계와 가상 세계 사이의 정보 교환을 제어하는 가상 세계 처리 시스템을 나타내는 도면이다.
도 2는 일 실시예에 따른 증강 현실 시스템을 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 가상 세계 처리 장치의 구성을 나타내는 도면이다.
도 4는 일 실시예에 따른 가상 세계 처리 방법을 나타내는 동작 흐름도이다.
1 is a diagram illustrating a virtual world processing system that controls information exchange between a real world and a virtual world, according to an exemplary embodiment.
2 is a diagram for describing an augmented reality system, according to an exemplary embodiment.
3 is a diagram illustrating a configuration of a virtual world processing apparatus according to an exemplary embodiment.
4 is a flowchart illustrating a virtual world processing method according to an exemplary embodiment.

이하에서, 본 발명에 따른 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. Like reference symbols in the drawings denote like elements.

도 1은 일 실시예에 따른 현실 세계와 가상 세계 사이의 정보 교환을 제어하는 가상 세계 처리 시스템을 나타내는 도면이다.1 is a diagram illustrating a virtual world processing system that controls information exchange between a real world and a virtual world, according to an exemplary embodiment.

도 1을 참조하면, 본 발명의 일실시예에 따른 가상 세계 처리 시스템은 현실 세계(110), 가상 세계 처리 장치 및 가상 세계(140)를 포함할 수 있다.Referring to FIG. 1, a virtual world processing system according to an embodiment of the present invention may include a real world 110, a virtual world processing apparatus, and a virtual world 140.

현실 세계(110)는 현실 세계(110)에 대한 정보를 감지하는 센서(Sensor) 또는 가상 세계(140)에 대한 정보를 현실 세계(110)에서 구현하는 실감 장치를 나타낼 수 있다.The real world 110 may represent a sensor that senses information about the real world 110 or a sensory device that implements information about the virtual world 140 in the real world 110.

또한, 가상 세계(140)는 프로그램에 의해서 구현되는 가상 세계(140) 그 자체 또는 현실 세계(110)에서 구현될 수 있는 실감 효과 정보를 포함하는 컨텐츠를 재생하는 실감 미디어 재생 장치를 나타낼 수 있다.In addition, the virtual world 140 may represent a sensory media playback device that plays content including sensory effect information that may be implemented in the virtual world 140 itself or in the real world 110 implemented by a program.

일실시예에 따른 센서(Sensor)는 현실 세계(110)의 사용자의 동작, 상태, 의도, 형태 등에 관한 정보를 감지(Sensing)하여 가상 세계 처리 장치로 전송할 수 있다.According to an embodiment, a sensor may sense and transmit information on a user's motion, state, intention, shape, etc. of the real world 110 to the virtual world processing device.

실시예에 따라서는, 센서는 센서 특성(Sensor Capability)(101), 센서 적응 선호(Sensor Adaptation Preference)(102) 및 감지 정보(Sensed Information)(103)를 가상 세계 처리 장치로 전송할 수 있다.According to an embodiment, the sensor may transmit a sensor capability 101, a sensor adaptation preference 102, and a sensed information 103 to the virtual world processing device.

센서 특성(101)은 센서의 특성에 대한 정보이다. 센서 적응 선호(102)는 센서의 사용자가 센서의 특성에 대해서 선호하는 정도를 나타내는 정보이다. 감지 정보(103)는 센서가 현실 세계(110)를 감지한 정보이다.The sensor characteristic 101 is information about the characteristic of the sensor. Sensor adaptation preference 102 is information indicative of the degree to which a user of a sensor prefers to the characteristics of the sensor. The sensing information 103 is information obtained by the sensor detecting the real world 110.

일실시예에 따른 가상 세계 처리 장치는 적응 RV(Adaptation Real World to Virtual World)(120), VWI(Virtual World Information, 가상 세계 정보)(104) 및 적응 RV/VR(Adaptation Real World to Virtual World/Virtual World to Real World)(130)를 포함할 수 있다.The virtual world processing apparatus according to an embodiment may include an adaptation adaptation real world to virtual world (120), a virtual world information (VWI) 104, and an adaptation adaptation real world to virtual world / Virtual World to Real World) 130.

적응 RV(120)는 센서 특성(101) 및 센서 적응 선호(102)에 기초하여 센서가 현실 세계(110)에 대해서 감지한 감지 정보(103)를 가상 세계(140)에 적용할 수 있는 정보로 변환할 수 있다. 실시예에 따라, 적응 RV(120)는 RV 엔진(real world to virtual world engine, RV engine)으로 구현될 수 있다.The adaptive RV 120 is information that can apply the sensing information 103 detected by the sensor to the virtual world 140 based on the sensor characteristic 101 and the sensor adaptation preference 102 to the virtual world 140. I can convert it. According to an embodiment, the adaptive RV 120 may be implemented as a real world to virtual world engine (RV engine).

일실시예에 따른 적응 RV(120)는 변환된 감지 정보(103)를 이용하여 VWI(Virtual World Information, 가상 세계 정보)(104)를 변환할 수 있다. According to an embodiment, the adaptive RV 120 may convert the virtual world information (VWI) 104 using the converted sense information 103.

VWI(104)는 가상 세계(140)의 가상 객체(Virtual Object)에 대한 정보이다.The VWI 104 is information about a virtual object of the virtual world 140.

적응 RV/VR(130)은 변환된 VWI(104)를 인코딩하여 가상 세계(140)에 적용되는 효과에 대한 메타데이터인 VWEM(Virtual World Effect Metadata, 가상 세계 효과 메타데이터)(107)을 생성할 수 있다. 실시예에 따라서는, 적응 RV/VR(130)은 VWC(Virtual World Capabilities, 가상 세계 특성)(105) 및 VWP(Virtual World Preferences, 가상 세계 선호)(106)에 기초하여 VWEM(107)을 생성할 수 있다.The adaptive RV / VR 130 encodes the transformed VWI 104 to generate a Virtual World Effect Metadata (VWEM) 107 that is metadata about the effect applied to the virtual world 140. Can be. According to an embodiment, adaptive RV / VR 130 generates VWEM 107 based on Virtual World Capabilities (VWC) 105 and Virtual World Preferences (VWP) 106. can do.

VWC(105)는 가상 세계(140)의 특성에 대한 정보이다. 또한, VWP(106)는 가상 세계(140)의 특성에 대한 사용자의 선호 정도를 나타내는 정보이다.The VWC 105 is information about the characteristics of the virtual world 140. In addition, the VWP 106 is information indicating the degree of preference of the user for the characteristics of the virtual world 140.

또한, 적응 RV/VR(130)은 VWEM(107)을 가상 세계(140)로 전송할 수 있다. 이 때, VWEM(107)은 가상 세계(140)이 적용되어, 감지 정보(103)에 대응하는 효과가 가상 세계(140)에서 구현될 수 있다.In addition, adaptive RV / VR 130 may send VWEM 107 to virtual world 140. At this time, the virtual world 140 is applied to the VWEM 107, so that an effect corresponding to the sensing information 103 may be implemented in the virtual world 140.

본 발명의 일측에 따르면, 가상 세계(140)에서 발생한 효과 이벤트가 현실 세계(110)에서 엑츄에이터(Actuator)인 실감 장치에 의해서 구동될 수 있다. According to one side of the present invention, the effect event occurring in the virtual world 140 may be driven by the sensor device which is an actuator in the real world 110.

가상 세계(140)는 가상 세계(140)에서 발생한 효과 이벤트에 대한 정보인 실감 효과 정보(Sensory Effect Information)를 인코딩하여 SEM(Sensory Effect Metadata, 실감 효과 메타데이터)(111)을 생성할 수 있다. 실시예에 따라서는, 가상 세계(140)는 실감 효과 정보를 포함하는 컨텐츠를 재생하는 실감 미디어 재생 장치를 포함할 수 있다.The virtual world 140 may generate sensory effect metadata (SEM) 111 by encoding sensory effect information, which is information about an effect event occurring in the virtual world 140. According to an embodiment, the virtual world 140 may include a sensory media playback device for playing content including sensory effect information.

적응 RV/VR(130)는 SEM(111)에 기초하여 실감 정보(Sensory Information)(112)를 생성할 수 있다. 실감 정보(112)는 현실 세계(110)의 실감 장치에서 구현되는 효과 이벤트에 대한 정보이다.The adaptive RV / VR 130 may generate sensory information 112 based on the SEM 111. Sensory information 112 is information about an effect event implemented in the sensory device of the real world 110.

적응 VR(150)는 현실 세계(110)의 실감 장치의 동작을 제어하는 SDCmd(Sensory Device Command, 실감 장치 명령)(115)에 대한 정보를 생성할 수 있다. 실시예에 따라서는, 적응 VR(150)은 SDCap(Sensory Device Capabilities, 실감 장치 특성)(113)에 대한 정보 및 USP(User Sensory Preference, 사용자 실감 선호)(114)에 대한 정보에 기초하여 SDCmd(115)에 대한 정보를 생성할 수 있다.The adaptive VR 150 may generate information about a sensory device command (SDCmd) 115 that controls the operation of the sensory device of the real world 110. According to an embodiment, adaptive VR 150 may use SDCmd () based on information on Sensory Device Capabilities (SDCap) 113 and information on User Sensory Preference (USP) 114. Information may be generated.

SDCap(113)은 실감 장치의 특성에 대한 정보이다. 또한, USP(114)는 실감 장치에서 구현되는 효과에 대한 사용자의 선호 정도를 나타내는 정보이다.
The SDCap 113 is information on characteristics of the sensory device. In addition, the USP 114 is information indicating the degree of preference of the user for the effect implemented in the sensory device.

도 2는 일 실시예에 따른 증강 현실 시스템을 설명하기 위한 도면이다.2 is a diagram for describing an augmented reality system, according to an exemplary embodiment.

도 2를 참조하면, 일 실시예에 따른 증강 현실 시스템은 미디어 저장 장치(210) 또는 실시간 미디어 획득 장치(220)를 이용하여 실세계를 표현하는 영상을 획득할 수 있다. 또한, 증강 현실 시스템은 각종 센서(230)를 이용하여 실세계를 표현하는 센서 정보를 획득할 수 있다.Referring to FIG. 2, the augmented reality system according to an exemplary embodiment may acquire an image representing the real world by using the media storage device 210 or the real-time media acquisition device 220. Also, the augmented reality system may acquire sensor information representing the real world using various sensors 230.

여기서, 일 실시예에 따른 증강 현실 카메라(AR camera)는 실시간 미디어 획득 장치(220)와 각종 센서(230)를 포함할 수 있다. 증강 현실 카메라는 실세계 정보와 가상 객체간 혼합을 위하여 실세계를 표현하는 영상 또는 센서 정보를 획득할 수 있다.Here, the AR camera according to an embodiment may include a real-time media acquisition device 220 and various sensors 230. The augmented reality camera may acquire image or sensor information representing the real world for mixing between the real world information and the virtual object.

증강 현실 컨테이너(AR Container, 240)는 실세계 정보뿐 아니라, 실세계와 가상 객체간 혼합 방식에 대한 정보를 가지는 장치이다. 예를 들어, 증강 현실 컨테이너(240)는 어떤 가상 객체를 어느 시점에 실세계 정보 중 어느 것과 혼합할 것인지 여부에 관한 정보를 포함할 수 있다.The AR container 240 is a device having not only real-world information but also information on a mixing method between the real world and a virtual object. For example, the augmented reality container 240 may include information about which virtual object to mix with which of the real world information at any point in time.

증강 현실 컨테이너(240)는 실세계와 가상 객체간 혼합 방식에 대한 정보에 기초하여 증강 현실 콘텐트(AR Content, 250)에 가상 객체 정보를 요청할 수 있다. 여기서, 증강 현실 콘텐트(250)는 가상 객체 정보를 포함하는 장치이다.The augmented reality container 240 may request virtual object information from the AR content 250 based on information about a mixing method between the real world and the virtual object. Here, the augmented reality content 250 is a device that includes virtual object information.

증강 현실 콘텐트(250)는 증강 현실 컨테이너(240)의 요청에 부합하는 가상 객체 정보를 반환할 수 있다. 이 때, 가상 객체 정보는 가상 객체를 나타내는 3차원 그래픽, 오디오, 비디오, 또는 텍스트 중 적어도 하나에 기초하여 표현될 수 있다. 나아가, 가상 객체 정보는 복수의 가상 객체들 사이의 상호 작용도 포함할 수 있다.The augmented reality content 250 may return virtual object information corresponding to a request of the augmented reality container 240. In this case, the virtual object information may be expressed based on at least one of three-dimensional graphics, audio, video, or text representing the virtual object. In addition, the virtual object information may also include an interaction between a plurality of virtual objects.

가시화부(260)는 증강 현실 컨테이너(240)에 포함된 실세계 정보와 증강 현실 콘텐트(250)에 포함된 가상 객체 정보를 동시에 가시화할 수 있다. 이 경우, 상호 작용부(270)는 가시화된 정보를 통해 이용자가 가상 객체와 상호 작용을 할 수 있는 인터페이스를 제공할 수 있다. 또한, 상호 작용부(270)는 이용자와 가상 객체 사이의 상호 작용에 의하여 가상 객체를 업데이트 하거나, 실세계와 가상 객체간 혼합 방식을 업데이트 할 수 있다.The visualization unit 260 may simultaneously visualize real-world information included in the augmented reality container 240 and virtual object information included in the augmented reality content 250. In this case, the interaction unit 270 may provide an interface through which the user can interact with the virtual object through the visualized information. In addition, the interaction unit 270 may update the virtual object by the interaction between the user and the virtual object, or may update the mixing method between the real world and the virtual object.

이하, 도 3을 참조하여 일 실시예에 따른 가상 세계 처리 장치의 구성에 대하여 상세히 설명한다.
Hereinafter, a configuration of a virtual world processing apparatus according to an embodiment will be described in detail with reference to FIG. 3.

도 3은 일 실시예에 따른 가상 세계 처리 장치의 구성을 나타내는 도면이다.3 is a diagram illustrating a configuration of a virtual world processing apparatus according to an exemplary embodiment.

도 3을 참조하면, 일 실시예에 따른 가상 세계 처리 장치(320)는 수신부(321), 처리부(322) 및 전송부(323)를 포함한다.Referring to FIG. 3, the virtual world processing apparatus 320 according to an embodiment includes a receiver 321, a processor 322, and a transmitter 323.

수신부(321)는 이미지 센서(311)로부터 촬영 영상(315)에 대한 감지 정보 및 이미지 센서(311)의 특성에 대한 센서 특성을 수신할 수 있다. 여기서, 이미지 센서(311)는 정지 영상을 촬영할 수 있고, 동영상을 촬영할 수 있다. 예를 들어, 이미지 센서(311)는 사진 촬영 센서 및 동영상 센서 중 적어도 하나를 포함할 수 있다.The receiver 321 may receive the sensor information about the characteristic of the image sensor 311 and the sensing information for the captured image 315 from the image sensor 311. Here, the image sensor 311 may capture a still image, and may capture a video. For example, the image sensor 311 may include at least one of a photographing sensor and a video sensor.

처리부(322)는 감지 정보 및 센서 특성에 기초하여, 가상 세계의 객체를 제어하는 제어 정보를 생성한다. 예를 들어, 처리부(332)는 감지 정보에 포함된 특정 요소와 관련된 값이 센서 특성에서 규정하는 허용 범위 이내인 경우, 제어 정보를 생성할 수 있다.The processor 322 generates control information for controlling an object of the virtual world based on the sensing information and the sensor characteristic. For example, the processor 332 may generate control information when a value related to a specific element included in the sensing information is within an allowable range defined by the sensor characteristic.

전송부(323)는 제어 정보를 가상 세계로 전송한다.The transmitter 323 transmits control information to the virtual world.

이 때, 가상 세계의 동작은 전송 받은 제어 정보에 기초하여 제어될 수 있다.At this time, the operation of the virtual world may be controlled based on the received control information.

예를 들어, 이미지 센서(311)가 증강 현실 카메라인 경우를 가정하자. 이미지 센서(311)는 실세계(310)를 촬영함으로써 촬영 영상(315)을 획득할 수 있다. 이미지 센서(311)는 촬영 영상(315)을 분석함으로써 촬영 영상(315)에 포함된 복수의 피쳐 포인트들(316)을 추출할 수 있다. For example, assume that the image sensor 311 is an augmented reality camera. The image sensor 311 may acquire the captured image 315 by photographing the real world 310. The image sensor 311 may extract the plurality of feature points 316 included in the captured image 315 by analyzing the captured image 315.

여기서, 피쳐 포인트는 촬영 영상(315)에 포함된 경계면들에서 주로 추출될 수 있고, 3차원 좌표로 표현될 수 있다. Here, the feature point may be mainly extracted from the boundary surfaces included in the captured image 315, and may be expressed in three-dimensional coordinates.

경우에 따라, 이미지 센서(311)는 촬영 영상(315)에 포함된 경계면들 중 가장 가까운 객체의 경계면이나 가장 크기가 큰 객체의 경계면과 관련된 피쳐 포인트들(316)을 우선적으로 추출할 수 있다.In some cases, the image sensor 311 may first extract feature points 316 related to the boundary of the closest object or the boundary of the largest object among the boundary surfaces included in the captured image 315.

이미지 센서(311)는 추출된 복수의 피쳐 포인트들을 포함한 감지 정보를 가상 세계 처리 장치(320)로 전송할 수 있다.The image sensor 311 may transmit the sensing information including the extracted plurality of feature points to the virtual world processing apparatus 320.

가상 세계 처리 장치(320)는 이미지 센서(311)로부터 전송 받은 감지 정보로부터 피쳐 포인트를 추출하고, 추출된 피쳐 포인트를 포함하는 제어 정보를 생성할 수 있다. The virtual world processing apparatus 320 may extract a feature point from the sensing information transmitted from the image sensor 311, and generate control information including the extracted feature point.

따라서, 일 실시예에 따른 가상 세계 처리 장치(320)는 적은 정보(예를 들어, 피쳐 포인트)만을 이용하여 실세계(310)에 대응되는 가상 씬(Virtual Scene, 330)을 위한 제어 신호를 생성할 수 있다.Therefore, the virtual world processing apparatus 320 according to an embodiment may generate a control signal for the virtual scene 330 corresponding to the real world 310 using only a small amount of information (for example, a feature point). Can be.

이 경우, 가상 세계는 제어 정보에 포함된 복수의 피쳐 포인트들에 기초하여 가상 객체를 제어할 수 있다. In this case, the virtual world may control the virtual object based on the plurality of feature points included in the control information.

보다 구체적으로, 가상 세계는 복수의 피쳐 포인트들에 기초하여 실세계(310)에 대응되는 가상 씬(330)을 표현할 수 있다. 이 경우, 가상 씬(330)은 삼차원 공간으로 표현될 수 있다. 가상 세계는 피쳐 포인트에 기초하여 가상 씬(330)을 위한 면(plane)을 표현할 수 있다.More specifically, the virtual world may represent the virtual scene 330 corresponding to the real world 310 based on the plurality of feature points. In this case, the virtual scene 330 may be represented in three-dimensional space. The virtual world may represent a plane for the virtual scene 330 based on the feature points.

뿐만 아니라, 가상 세계는 실세계(310)에 대응되는 가상 씬(330)과 가상 객체들(331)을 동시에 표시할 수 있다.
In addition, the virtual world may simultaneously display the virtual scene 330 and the virtual objects 331 corresponding to the real world 310.

일 실시예에 따르면, 이미지 센서(311)로부터 수신되는 감지 정보 및 센서 특성은 도 1의 SI(103)과 SC(101)에 각각 대응될 수 있다.According to an embodiment, the sensing information and sensor characteristics received from the image sensor 311 may correspond to the SI 103 and the SC 101 of FIG. 1, respectively.

예를 들어, 이미지 센서(311)로부터 수신되는 감지 정보는 표 1과 같이 정의될 수 있다.For example, the sensing information received from the image sensor 311 may be defined as shown in Table 1.

Sensed Information (SI, 103)

- Camera sensor type

- AR Camera type
Sensed Information (SI, 103)

-Camera sensor type

-AR Camera type

여기서, 증강 현실 카메라 타입(AR Camera type)은 기본적으로 카메라 센서 타입(Camera sensor type)을 포함할 수 있다. 카메라 센서 타입은 리소스 요소, 카메라 로케이션 요소 및 카메라 오리엔테이션 요소의 요소(element)와 초점거리 속성, 조리개 속성, 셔터 스피드 속성 및 필터 속성의 속성(attribute)으로 구성될 수 있다.Here, the AR camera type may basically include a camera sensor type. The camera sensor type may include an element of a resource element, a camera location element, and a camera orientation element, and an attribute of a focal length attribute, an aperture attribute, a shutter speed attribute, and a filter attribute.

이 때, 리소스 요소는 이미지 센서에 의해 촬영된 이미지로의 링크를 포함하고, 카메라 로케이션 요소는 글로벌 포지션 시스템(GPS) 센서를 이용하여 측정된 이미지 센서의 위치와 관련된 정보를 포함하며, 카메라 오리엔테이션 요소는 이미지 센서의 자세와 관련된 정보를 포함할 수 있다.At this time, the resource element includes a link to the image captured by the image sensor, the camera location element includes information related to the position of the image sensor measured using the Global Position System (GPS) sensor, and the camera orientation element May include information related to the attitude of the image sensor.

초점거리 속성은 이미지 센서의 초점거리와 관련된 정보를 포함하고, 조리개 속성은 이미지 센서의 조리개와 관련된 정보를 포함하며, 셔터 스피드 속성은 이미지 센서의 셔터 스피드와 관련된 정보를 포함하고, 필터 속성은 이미지 센서의 필터 신호처리와 관련된 정보를 포함할 수 있다. 여기서, 필터 타입은 UV 필터(UltraViolet filter), 편광 필터(Polarizing light filter), ND 필터(Neutral Density filter), 확산 필터(Diffusion filter), Star 필터(Star filter) 등을 포함할 수 있다.The focal length attribute includes information related to the focal length of the image sensor, the aperture attribute includes information related to the aperture of the image sensor, the shutter speed attribute includes information related to the shutter speed of the image sensor, and the filter attribute includes the image It may include information related to the filter signal processing of the sensor. Here, the filter type may include a UV filter, a polarizing light filter, a neutral density filter, a diffusion filter, a star filter, and the like.

또한, 증강 현실 카메라 타입은 피쳐 요소 및 카메라 포지션 요소를 더 포함할 수 있다.In addition, the augmented reality camera type may further include a feature element and a camera position element.

이 때, 피쳐 요소는 촬영 영상 내 경계면과 관련된 피쳐 포인트를 포함하고, 카메라 포지션 요소는 GPS 센서와 구별되는 위치 센서를 이용하여 측정된 이미지 센서의 위치와 관련된 정보를 포함할 수 있다.In this case, the feature element may include a feature point related to the boundary surface in the captured image, and the camera position element may include information related to the position of the image sensor measured using a position sensor that is distinguished from the GPS sensor.

전술한 바와 같이, 피쳐 포인트는 이미지 센서에 의해 촬영된 영상 내 경계면들에 주로 생성되는 포인트로, 증강 현실 환경에서 가상 객체를 표현하기 위하여 활용될 수 있다. 보다 구체적으로, 적어도 하나의 피쳐 포인트를 포함하는 피쳐 요소는 씬 디스크립터(Scene descriptor)에 의하여 면을 표현하는 요소로 활용될 수 있다. 씬 디스크립션의 동작과 관련된 보다 상세한 사항은 후술한다.As described above, the feature point is a point mainly generated at boundary surfaces in the image photographed by the image sensor, and may be used to represent a virtual object in an augmented reality environment. More specifically, a feature element including at least one feature point may be used as an element representing a face by a scene descriptor. More details related to the operation of the scene description will be described later.

카메라 포지션 요소는 GPS 센서를 이용하여 위치를 측정하기 어려운 실내 또는 터널 등에서 이미지 센서의 위치를 측정하기 위하여 활용될 수 있다.The camera position element may be utilized to measure the position of the image sensor in a room or a tunnel where it is difficult to measure the position using the GPS sensor.

한편, 이미지 센서(311)로부터 수신되는 센서 특성은 표 2와 같이 정의될 수 있다.On the other hand, the sensor characteristics received from the image sensor 311 may be defined as shown in Table 2.

Sensor Capability (SC, 101)

- Camera sensor capability type

- AR Camera capability type
Sensor Capability (SC, 101)

-Camera sensor capability type

AR Camera capability type

여기서, 증강 현실 카메라 특성 타입(AR Camera capability type)은 기본적으로 카메라 센서 특성 타입(Camera sensor capability type)을 포함할 수 있다. 카메라 센서 특성 타입은 지원 해상도 리스트(Supported Resolution List) 요소, 초점거리 범위 요소, 조리개 범위 요소 및 셔터 스피드 범위 요소로 구성될 수 있다.Here, the AR camera capability type may basically include a camera sensor capability type. The camera sensor characteristic type may consist of a Supported Resolution List element, a focal length range element, an aperture range element and a shutter speed range element.

이 때, 지원 해상도 리스트 요소는 이미지 센서가 지원하는 해상도들의 리스트를 포함하고, 초점거리 범위 요소는 이미지 센서가 지원하는 초점거리의 범위를 포함하며, 조리개 범위 요소는 이미지 센서가 지원하는 조리개의 범위를 포함하고, 셔터 스피드 범위 요소는 이미지 센서가 지원하는 셔터 스피드의 범위를 포함할 수 있다.In this case, the supported resolution list element includes a list of resolutions supported by the image sensor, the focal length range element includes a range of focal lengths supported by the image sensor, and the aperture range element is an aperture range supported by the image sensor The shutter speed range element may include a range of shutter speeds supported by the image sensor.

또한, 증강 현실 카메라 특성 타입은 최대 피쳐 포인트 요소 및 카메라 포지션 범위 요소를 더 포함할 수 있다.In addition, the augmented reality camera characteristic type may further include a maximum feature point element and a camera position range element.

이 때, 최대 피쳐 포인트 요소는 이미지 센서에 의해 검출될 수 있는 최대 피쳐 포인트들의 수를 포함하고, 카메라 포지션 범위 요소는 위치 센서에 의해 측정될 수 있는 위치의 범위를 포함할 수 있다.
At this time, the maximum feature point element may include the maximum number of feature points that may be detected by the image sensor, and the camera position range element may include a range of positions that may be measured by the position sensor.

표 3은 일 실시예에 따른 카메라 센서 타입에 대한 XML 신택스(eXtensible Markup Language Syntax)를 나타낸다.Table 3 shows an XML syntax (eXtensible Markup Language Syntax) for a camera sensor type according to an embodiment.

<!-- ################################################ -->
<!-- Camera Sensor Type -->
<!-- ################################################ -->
<complexType name="CameraSensorType">
<complexContent>
<extension base="iidl:SensedInfoBaseType">
<sequence>
<element name="Resource" type="anyURI"/>
<element name="CameraOrientation" type="siv:OrientationSensorType" minOccurs="0"/>
<element name="CameraLocation" type="siv:GlobalPositionSensorType" minOccurs="0"/>
</sequence>
<attribute name="focalLength" type="float" use="optional"/>
<attribute name="aperture" type="float" use="optional"/>
<attribute name="shutterSpeed" type="float" use="optional"/>
<attribute name="filter" type="mpeg7:termReferenceType" use="optional"/>
</extension>
</complexContent>
</complexType>
<! - ##################################################### ## ->
<!-Camera Sensor Type->
<! - ##################################################### ## ->
<complexType name = "CameraSensorType">
<complexContent>
<extension base = "iidl: SensedInfoBaseType">
<sequence>
<element name = "Resource" type = "anyURI"/>
<element name = "CameraOrientation" type = "siv: OrientationSensorType" minOccurs = "0"/>
<element name = "CameraLocation" type = "siv: GlobalPositionSensorType" minOccurs = "0"/>
</ sequence>
<attribute name = "focalLength" type = "float" use = "optional"/>
<attribute name = "aperture" type = "float" use = "optional"/>
<attribute name = "shutterSpeed" type = "float" use = "optional"/>
<attribute name = "filter" type = "mpeg7: termReferenceType" use = "optional"/>
</ extension>
</ complexContent>
</ complexType>

표 4는 일 실시예에 따른 카메라 센서 타입에 대한 시멘틱(Semantics)을 나타낸다.Table 4 shows semantics for a camera sensor type according to one embodiment.

NameName DefinitionDefinition CameraSensorTypeCameraSensorType Tool for describing sensed information with respect to a camera sensor.Tool for describing sensed information with respect to a camera sensor. ResourceResource Describes the element that contains a link to image or video files.Describes the element that contains a link to image or video files. CameraLocationCameraLocation Describes the location of a camera using the structure defined by GlobalPositionSensorType.Describes the location of a camera using the structure defined by GlobalPositionSensorType. CameraOrientationCameraOrientation Describes the orientation of a camera using the structure defined by OrientationSensorType.Describes the orientation of a camera using the structure defined by OrientationSensorType. focalLengthfocalLength Describes the distance between the lens and the image sensor when the subject is in focus, in terms of millimeters (mm).Describes the distance between the lens and the image sensor when the subject is in focus, in terms of millimeters (mm). apertureaperture Describes the diameter of the lens opening. It is expressed as F-stop, e.g. F2.8. It may also be expressed as f-number notation such as f/2.8.Describes the diameter of the lens opening. It is expressed as F-stop, e.g. F2.8. It may also be expressed as f-number notation such as f / 2.8. shutterSpeedshutterSpeed Describes the time that the shutter remains open when taking a photograph in terms of seconds (sec).Describes the time that the shutter remains open when taking a photograph in terms of seconds (sec). filterfilter Describes kinds of camera filters as a reference to a classification scheme term that shall be using the mpeg7:termReferenceType defined in 7.6 of ISO/IEC 15938-5:2003. The CS that may be used for this purpose is the CameraFilterTypeCS defined in A.x.x.Describes kinds of camera filters as a reference to a classification scheme term that shall be using the mpeg7: termReferenceType defined in 7.6 of ISO / IEC 15938-5: 2003. The CS that may be used for this purpose is the CameraFilterTypeCS defined in A.x.x.

표 5는 일 실시예에 따른 카메라 센서 특성 타입에 대한 XML 신택스를 나타낸다.Table 5 shows XML syntax for a camera sensor characteristic type according to one embodiment.

<!-- ################################################ -->
<!-- Camera Sensor capability type -->
<!-- ################################################ -->
<complexType name="CameraSensorCapabilityType">
<complexContent>
<extension base="cidl:SensorCapabilityBaseType">
<sequence>
<element name="SupportedResolutions" type="scdv:ResolutionListType" minOccurs="0"/>
<element name="FocalLengthRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="ApertureRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="ShutterSpeedRange" type="scdv:ValueRangeType" minOccurs="0"/>
</sequence>
</extension>
</complexContent>
</complexType>

<complexType name="ResolutionListType">
<sequence>
<element name="Resolution" type="scdv:ResolutionType" maxOccurs="unbounded"/>
</sequence>
</complexType>

<complexType name="ResolutionType">
<sequence>
<element name="Width" type="nonNegativeInteger"/>
<element name="Height" type="nonNegativeInteger"/>
</sequence>
</complexType>

<complexType name="ValueRangeType">
<sequence>
<element name="MaxValue" type="float"/>
<element name="MinValue" type="float"/>
</sequence>
</complexType>
<! - ##################################################### ## ->
<!-Camera Sensor capability type->
<! - ##################################################### ## ->
<complexType name = "CameraSensorCapabilityType">
<complexContent>
<extension base = "cidl: SensorCapabilityBaseType">
<sequence>
<element name = "SupportedResolutions" type = "scdv: ResolutionListType" minOccurs = "0"/>
<element name = "FocalLengthRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "ApertureRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "ShutterSpeedRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
</ sequence>
</ extension>
</ complexContent>
</ complexType>

<complexType name = "ResolutionListType">
<sequence>
<element name = "Resolution" type = "scdv: ResolutionType" maxOccurs = "unbounded"/>
</ sequence>
</ complexType>

<complexType name = "ResolutionType">
<sequence>
<element name = "Width" type = "nonNegativeInteger"/>
<element name = "Height" type = "nonNegativeInteger"/>
</ sequence>
</ complexType>

<complexType name = "ValueRangeType">
<sequence>
<element name = "MaxValue" type = "float"/>
<element name = "MinValue" type = "float"/>
</ sequence>
</ complexType>

표 6은 일 실시예에 따른 카메라 센서 특성 타입에 대한 시멘틱을 나타낸다.Table 6 shows the semantics for the camera sensor characteristic type according to one embodiment.

NameName DefinitionDefinition CameraSensorCapabilityTypeCameraSensorCapabilityType Tool for describing a camera sensor capability.Tool for describing a camera sensor capability. SupportedResolutionsSupportedResolutions Describes a list of resolution that the camera can support.Describes a list of resolution that the camera can support. ResolutionListTypeResolutionListType Describes a type of the resolution list which is composed of ResolutionType element.Describes a type of the resolution list which is composed of ResolutionType element. ResolutionTypeResolutionType Describes a type of resolution which is composed of Width element and Height element.Describes a type of resolution which is composed of Width element and Height element. WidthWidth Describes a width of resolution that the camera can perceive.Describes a width of resolution that the camera can perceive. HeightHeight Describes a height of resolution that the camera can perceiveDescribes a height of resolution that the camera can perceive FocalLengthRangeFocallengrange Describes the range of the focal length that the camera sensor can perceive in terms of ValueRangeType. Its default unit is millimeters (mm).
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describes the range of the focal length that the camera sensor can perceive in terms of ValueRangeType. Its default unit is millimeters (mm).
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
ValueRangeTypeValueRangeType Defines the range of the value that the sensor can perceive.Defines the range of the value that the sensor can perceive. MaxValueMaxValue Describes the maximum value that the sensor can perceive.Describes the maximum value that the sensor can perceive. MinValueMinValue Describes the minimum value that the sensor can perceive.Describes the minimum value that the sensor can perceive. ApertureRangeApertureRange Describes the range of the aperture that the camera sensor can perceive in terms of valueRangeType.
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describes the range of the aperture that the camera sensor can perceive in terms of valueRangeType.
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
ShutterSpeedRangeShutterSpeedRange Describes the range of the shutter speed that the camera sensor can perceive in terms of valueRangeType. Its default unit is seconds (sec).
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describes the range of the shutter speed that the camera sensor can perceive in terms of valueRangeType. Its default unit is seconds (sec).
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.

표 7은 일 실시예에 따른 증강 현실 카메라 타입에 대한 XML 신택스를 나타낸다.Table 7 shows XML syntax for an augmented reality camera type according to one embodiment.

<!-- ################################################ -->
<!-- AR Camera Type -->
<!-- ################################################ -->
<complexType name="ARCameraType">
<complexContent>
<extension base="siv:CameraSensorType">
<sequence>
<element name="Feature" type="siv:FeaturePointType" minOccurs="0" maxOccurs="unbounded"/>
<element name="CameraPosition" type="siv:PositionSensorType" minOccurs="0"/>
</sequence>
</extension>
</complexContent>
</complexType>

<complexType name="FeaturePointType">
<sequence>
<element name="Position" type="mpegvct:Float3DVectorType"/>
</sequence>
<attribute name="featureID" type="ID" use="optional"/>
</complexType>
<! - ##################################################### ## ->
<!-AR Camera Type->
<! - ##################################################### ## ->
<complexType name = "ARCameraType">
<complexContent>
<extension base = "siv: CameraSensorType">
<sequence>
<element name = "Feature" type = "siv: FeaturePointType" minOccurs = "0" maxOccurs = "unbounded"/>
<element name = "CameraPosition" type = "siv: PositionSensorType" minOccurs = "0"/>
</ sequence>
</ extension>
</ complexContent>
</ complexType>

<complexType name = "FeaturePointType">
<sequence>
<element name = "Position" type = "mpegvct: Float3DVectorType"/>
</ sequence>
<attribute name = "featureID" type = "ID" use = "optional"/>
</ complexType>

표 8은 일 실시예에 따른 증강 현실 카메라 타입에 대한 시멘틱을 나타낸다.Table 8 shows semantics for the augmented reality camera type according to one embodiment.

NameName DefinitionDefinition ARCameraTypeARCameraType Tool for describing sensed information with respect to an AR camera.Tool for describing sensed information with respect to an AR camera. FeatureFeature Describes the feature detected by a camera using the structure defined by FeaturePointType.Describes the feature detected by a camera using the structure defined by FeaturePointType. FeaturePointTypeFeaturePointType Tool for describing Feature commands for each feature point.Tool for describing Feature commands for each feature point. PositionPosition Describes the 3D position of each of the feature points.Describes the 3D position of each of the feature points. featureIDfeatureID To be used to identify each feature.To be used to identify each feature. CameraPositionCameraPosition Describes the location of a camera using the structure defined by PositionSensorType.Describes the location of a camera using the structure defined by PositionSensorType.

표 9는 일 실시예에 따른 증강 현실 카메라 특성 타입에 대한 XML 신택스를 나타낸다.Table 9 shows XML syntax for an augmented reality camera characteristic type according to one embodiment.

<!-- ################################################ -->
<!-- AR Camera capability type -->
<!-- ################################################ -->
<complexType name="ARCameraCapabilityType">
<complexContent>
<extension base="siv:CameraSensorCapabilityType">
<sequence>
<element name="MaxFeaturePoint" type="nonNegativeInteger" minOccurs="0"/>
<element name="CameraPositionRange" type="scdv:RangeType" minOccurs="0"/>
</sequence>
</extension>
</complexContent>
</complexType>
<! - ##################################################### ## ->
<!-AR Camera capability type->
<! - ##################################################### ## ->
<complexType name = "ARCameraCapabilityType">
<complexContent>
<extension base = "siv: CameraSensorCapabilityType">
<sequence>
<element name = "MaxFeaturePoint" type = "nonNegativeInteger" minOccurs = "0"/>
<element name = "CameraPositionRange" type = "scdv: RangeType" minOccurs = "0"/>
</ sequence>
</ extension>
</ complexContent>
</ complexType>

표 10은 일 실시예에 따른 증강 현실 카메라 특성 타입에 대한 시멘틱을 나타낸다.Table 10 shows semantics for the augmented reality camera characteristic type according to one embodiment.

NameName DefinitionDefinition ARCameraCapabilityTypeARCameraCapabilityType Tool for describing an AR camera capability.Tool for describing an AR camera capability. MaxFeaturePointMaxFeaturePoint Describes the maximum number of feature points that the camera can detect.Describes the maximum number of feature points that the camera can detect. CameraPositionRangeCameraPositionRange Describes the range that the position sensor can perceive in terms of RangeType in its global coordinate system.
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
Describes the range that the position sensor can perceive in terms of RangeType in its global coordinate system.
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.

표 11은 일 실시예에 따른 씬 디스크립터 타입에 대한 XML 신택스를 나타낸다.Table 11 shows XML syntax for a scene descriptor type according to an embodiment.

<!-- ########################################################### -->
<!-- Scene Descriptor Type -->
<!-- ########################################################### -->
<complexType name="SceneDescriptorType">
<sequence>
<element name="image" type="anyURI"/>
</sequence>
<complexType name="plan">
<sequence>
<element name="ID" type="int32"/>
<element name="X" type="float"/>
<element name="Y" type="float"/>
<element name="Z" type="float"/>
<element name="Scalar" type="float"/>
</sequence>
</complexType>
<complexType name="feature">
<sequence>
<element name="ID" type="int32"/>
<element name="X" type="float"/>
<element name="Y" type="float"/>
<element name="N" type="float"/>
</sequence>
<complexType>
</complexType>
<!-############################################## #############->
<!-Scene Descriptor Type->
<!-############################################## #############->
<complexType name = "SceneDescriptorType">
<sequence>
<element name = "image" type = "anyURI"/>
</ sequence>
<complexType name = "plan">
<sequence>
<element name = "ID" type = "int32"/>
<element name = "X" type = "float"/>
<element name = "Y" type = "float"/>
<element name = "Z" type = "float"/>
<element name = "Scalar" type = "float"/>
</ sequence>
</ complexType>
<complexType name = "feature">
<sequence>
<element name = "ID" type = "int32"/>
<element name = "X" type = "float"/>
<element name = "Y" type = "float"/>
<element name = "N" type = "float"/>
</ sequence>
<complexType>
</ complexType>

여기서, 씬 디스크립터 타입에 포함된 이미지(image) 요소는 복수의 픽셀들을 포함할 수 있다. 복수의 픽셀들은 플랜(plan)의 아이디(ID) 또는 피쳐(feature)의 아이디를 묘사할 수 있다.Here, the image element included in the scene descriptor type may include a plurality of pixels. The plurality of pixels may depict an ID of a plan or an ID of a feature.

이 때, 플랜은 Xplan, Yplan, Zplan 및 Scalar를 포함할 수 있고, 수학식 1을 참조하면, 씬 디스크립터는 Xplan, Yplan, Zplan을 포함하는 면 방정식을 이용하여 면을 표현할 수 있다.Where the plan is X plan , Y plan , Z plan And Scalar, and referring to Equation 1, the scene descriptor may represent a face using a face equation including X plan , Y plan , and Z plan .

Figure pat00001
Figure pat00001

또한, 피쳐는 감지 정보에 포함된 피쳐 요소에 대응되는 타입으로, 피쳐는 Xfeature, Yfeature 및 Zfeature를 포함할 수 있다. 이 때, 피쳐는 3차원 포인트 (Xfeature, Yfeature, Zfeature)를 나타낼 수 있고, 씬 디스크립터는 (Xfeature, Yfeature, Zfeature)에 위치하는 3차원 포인트를 이용하여 면을 표현할 수 있다.
In addition, the feature is a type corresponding to a feature element included in the sensing information, and the feature may include an X feature , a Y feature, and a Z feature . In this case, the feature may represent three-dimensional points (X feature , Y feature , Z feature ), and the scene descriptor may represent a face using three-dimensional points located at (X feature , Y feature , Z feature ). .

도 4는 일 실시예에 따른 가상 세계 처리 방법을 나타내는 동작 흐름도이다.4 is a flowchart illustrating a virtual world processing method according to an exemplary embodiment.

도 4를 참조하면, 일 실시예에 따른 가상 세계 처리 방법은 이미지 센서로부터 촬영 영상에 대한 감지 정보 및 이미지 센서의 특성에 대한 센서 특성을 수신한다(410).Referring to FIG. 4, the virtual world processing method according to an exemplary embodiment receives sensing information on a captured image and sensor characteristics on characteristics of an image sensor from an image sensor (410).

가상 세계 처리 방법은 감지 정보 및 센서 특성에 기초하여, 가상 세계의 객체를 제어하는 제어 정보를 생성한다(420).The virtual world processing method generates control information for controlling an object of the virtual world based on the sensing information and the sensor characteristic (420).

가상 세계 처리 방법은 제어 정보를 가상 세계로 전송한다(430).The virtual world processing method transmits control information to the virtual world (430).

이 때, 가상 세계의 동작은 전송 받은 제어 정보에 기초하여 제어될 수 있다. 도 4에 도시된 각 단계들에는 도 1 내지 도 3을 통하여 기술된 사항들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.
At this time, the operation of the virtual world may be controlled based on the received control information. Since the details described with reference to FIGS. 1 through 3 may be applied to each step illustrated in FIG. 4, a detailed description thereof will be omitted.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI &gt; or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (10)

이미지 센서로부터 촬영 영상에 대한 감지 정보 및 상기 이미지 센서의 특성에 대한 센서 특성을 수신하는 수신부;
상기 감지 정보 및 상기 센서 특성에 기초하여, 가상 세계의 객체를 제어하는 제어 정보를 생성하는 처리부; 및
상기 제어 정보를 상기 가상 세계로 전송하는 전송부
를 포함하는 가상 세계 처리 장치.
A receiver configured to receive sensing information of a captured image and sensor characteristics of the characteristics of the image sensor from an image sensor;
A processor configured to generate control information for controlling an object of a virtual world based on the sensing information and the sensor characteristic; And
Transmission unit for transmitting the control information to the virtual world
Virtual world processing device comprising a.
제1항에 있어서,
상기 이미지 센서는
사진 촬영 센서 및 동영상 촬영 센서 중 적어도 하나를 포함하는 가상 세계 처리 장치.
The method of claim 1,
The image sensor
And at least one of a photographing sensor and a video photographing sensor.
제1항에 있어서,
상기 감지 정보는
상기 이미지 센서에 의해 촬영된 이미지로의 링크를 포함하는 리소스 요소;
글로벌 포지션 시스템(GPS) 센서를 이용하여 측정된 상기 이미지 센서의 위치와 관련된 정보를 포함하는 카메라 로케이션 요소; 및
상기 이미지 센서의 자세와 관련된 정보를 포함하는 카메라 오리엔테이션 요소
를 포함하는 가상 세계 처리 장치.
The method of claim 1,
The detection information is
A resource element comprising a link to an image captured by the image sensor;
A camera location element containing information related to the position of the image sensor measured using a Global Position System (GPS) sensor; And
Camera orientation element containing information related to the pose of the image sensor
Virtual world processing device comprising a.
제1항에 있어서,
상기 감지 정보는
상기 이미지 센서의 초점거리와 관련된 정보를 포함하는 초점거리 속성;
상기 이미지 센서의 조리개와 관련된 정보를 포함하는 조리개 속성;
상기 이미지 센서의 셔터 스피드와 관련된 정보를 포함하는 셔터 스피드 속성; 및
상기 이미지 센서의 필터 신호처리와 관련된 정보를 포함하는 필터 속성
을 포함하는 가상 세계 처리 장치.
The method of claim 1,
The detection information is
A focal length attribute including information related to a focal length of the image sensor;
An aperture property including information related to an aperture of the image sensor;
A shutter speed attribute including information related to a shutter speed of the image sensor; And
Filter attributes including information related to filter signal processing of the image sensor
Virtual world processing device comprising a.
제3항에 있어서,
상기 감지 정보는
상기 촬영 영상 내 경계면과 관련된 피쳐 포인트를 포함하는 피쳐 요소; 및
상기 GPS 센서와 구별되는 위치 센서를 이용하여 측정된 상기 이미지 센서의 위치와 관련된 정보를 포함하는 카메라 포지션 요소
를 더 포함하는 가상 세계 처리 장치.
The method of claim 3,
The detection information is
A feature element comprising a feature point associated with an interface in the captured image; And
A camera position element comprising information relating to the position of the image sensor measured using a position sensor distinct from the GPS sensor
The virtual world processing device further comprising.
제1항에 있어서,
상기 센서 특성은
상기 이미지 센서가 지원하는 해상도들의 리스트를 포함하는 지원 해상도 리스트(Supported Resolution List) 요소;
상기 이미지 센서가 지원하는 초점거리의 범위를 포함하는 초점거리 범위 요소;
상기 이미지 센서가 지원하는 조리개의 범위를 포함하는 조리개 범위 요소; 및
상기 이미지 센서가 지원하는 셔터 스피드의 범위를 포함하는 셔터 스피드 범위 요소
를 포함하는 가상 세계 처리 장치.
The method of claim 1,
The sensor characteristics
A Supported Resolution List element containing a list of resolutions supported by the image sensor;
A focal length range element including a range of focal lengths supported by the image sensor;
An aperture range element including an aperture range supported by the image sensor; And
Shutter speed range element including a range of shutter speeds supported by the image sensor
Virtual world processing device comprising a.
제6항에 있어서,
상기 센서 특성은
상기 이미지 센서에 의해 검출될 수 있는 최대 피쳐 포인트들의 수를 포함하는 최대 피쳐 포인트 요소; 및
위치 센서에 의해 측정될 수 있는 위치의 범위를 포함하는 카메라 포지션 범위 요소
를 더 포함하는 가상 세계 처리 장치.
The method according to claim 6,
The sensor characteristics
A maximum feature point element comprising a maximum number of feature points that can be detected by the image sensor; And
Camera position range element containing the range of positions that can be measured by the position sensor
The virtual world processing device further comprising.
제1항에 있어서,
상기 처리부는 상기 감지 정보로부터 상기 촬영 영상에 포함된 적어도 하나의 피쳐 포인트를 추출하고,
상기 전송부는 상기 적어도 하나의 피쳐 포인트를 상기 가상 세계로 전송하며,
상기 가상 세계는 상기 적어도 하나의 피쳐 포인트에 기초하여 상기 가상 세계에 포함된 적어도 하나의 면(plane)을 표현하는 가상 세계 처리 장치.
The method of claim 1,
The processor extracts at least one feature point included in the captured image from the sensing information,
The transmission unit transmits the at least one feature point to the virtual world.
And the virtual world represents at least one plane included in the virtual world based on the at least one feature point.
이미지 센서로부터 촬영 영상에 대한 감지 정보 및 상기 이미지 센서의 특성에 대한 센서 특성을 수신하는 단계;
상기 감지 정보 및 상기 센서 특성에 기초하여, 가상 세계의 객체를 제어하는 제어 정보를 생성하는 단계; 및
상기 제어 정보를 상기 가상 세계로 전송하는 단계
를 포함하는 가상 세계 처리 방법.
Receiving sensor information on a characteristic of the image sensor and sensing information about a captured image from an image sensor;
Generating control information for controlling an object of a virtual world based on the sensing information and the sensor characteristic; And
Transmitting the control information to the virtual world
Virtual world processing method comprising a.
제9항의 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.
A computer-readable recording medium having recorded thereon a program for executing the method of claim 9.
KR1020130017404A 2012-07-12 2013-02-19 Method and appratus for processing virtual world Active KR102024863B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/934,605 US20140015931A1 (en) 2012-07-12 2013-07-03 Method and apparatus for processing virtual world

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261670825P 2012-07-12 2012-07-12
US61/670,825 2012-07-12

Publications (2)

Publication Number Publication Date
KR20140009913A true KR20140009913A (en) 2014-01-23
KR102024863B1 KR102024863B1 (en) 2019-09-24

Family

ID=50142901

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130017404A Active KR102024863B1 (en) 2012-07-12 2013-02-19 Method and appratus for processing virtual world

Country Status (1)

Country Link
KR (1) KR102024863B1 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001075726A (en) * 1999-08-02 2001-03-23 Lucent Technol Inc Computer input device with six degrees of freedom for controlling movement of three-dimensional object
US6778171B1 (en) * 2000-04-05 2004-08-17 Eagle New Media Investments, Llc Real world/virtual world correlation system using 3D graphics pipeline
KR20050054729A (en) * 2003-12-05 2005-06-10 한국전자통신연구원 Virtual hdr camera for creating hdri for virtual environment
JP2007195091A (en) * 2006-01-23 2007-08-02 Sharp Corp Composite video generation system
KR20080052338A (en) * 2006-12-05 2008-06-11 한국전자통신연구원 Personal Multimedia Studio Platform Device and Method for 3D Content Authoring
US20090221374A1 (en) * 2007-11-28 2009-09-03 Ailive Inc. Method and system for controlling movements of objects in a videogame
KR20110028333A (en) * 2008-06-03 2011-03-17 소니 컴퓨터 엔터테인먼트 인코포레이티드 Hint-based streaming of auxiliary content assets for interactive environments
WO2012032996A1 (en) * 2010-09-09 2012-03-15 ソニー株式会社 Information processing device, method of processing information, and program
JP2012094100A (en) * 2010-06-02 2012-05-17 Nintendo Co Ltd Image display system, image display device and image display method
US20120242866A1 (en) * 2011-03-22 2012-09-27 Kyocera Corporation Device, control method, and storage medium storing program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001075726A (en) * 1999-08-02 2001-03-23 Lucent Technol Inc Computer input device with six degrees of freedom for controlling movement of three-dimensional object
US6778171B1 (en) * 2000-04-05 2004-08-17 Eagle New Media Investments, Llc Real world/virtual world correlation system using 3D graphics pipeline
KR20050054729A (en) * 2003-12-05 2005-06-10 한국전자통신연구원 Virtual hdr camera for creating hdri for virtual environment
JP2007195091A (en) * 2006-01-23 2007-08-02 Sharp Corp Composite video generation system
KR20080052338A (en) * 2006-12-05 2008-06-11 한국전자통신연구원 Personal Multimedia Studio Platform Device and Method for 3D Content Authoring
US20090221374A1 (en) * 2007-11-28 2009-09-03 Ailive Inc. Method and system for controlling movements of objects in a videogame
KR20110028333A (en) * 2008-06-03 2011-03-17 소니 컴퓨터 엔터테인먼트 인코포레이티드 Hint-based streaming of auxiliary content assets for interactive environments
JP2012094100A (en) * 2010-06-02 2012-05-17 Nintendo Co Ltd Image display system, image display device and image display method
WO2012032996A1 (en) * 2010-09-09 2012-03-15 ソニー株式会社 Information processing device, method of processing information, and program
US20120242866A1 (en) * 2011-03-22 2012-09-27 Kyocera Corporation Device, control method, and storage medium storing program

Also Published As

Publication number Publication date
KR102024863B1 (en) 2019-09-24

Similar Documents

Publication Publication Date Title
US10810798B2 (en) Systems and methods for generating 360 degree mixed reality environments
JP6321150B2 (en) 3D gameplay sharing
US9728011B2 (en) System and method for implementing augmented reality via three-dimensional painting
US20200279407A1 (en) Provision of Virtual Reality Content
US9392248B2 (en) Dynamic POV composite 3D video system
US20130120365A1 (en) Content playback apparatus and method for providing interactive augmented space
US20210038975A1 (en) Calibration to be used in an augmented reality method and system
US10706634B1 (en) System for generating augmented reality content from a perspective view of an unmanned aerial vehicle
KR20140082610A (en) Method and apaaratus for augmented exhibition contents in portable terminal
CN112689854A (en) Moving picture composition device, moving picture composition method, and recording medium
KR102197615B1 (en) Method of providing augmented reality service and server for the providing augmented reality service
US11430178B2 (en) Three-dimensional video processing
KR20110104676A (en) Augmented reality system and method for implementing the interaction between virtual objects using a plurality of markers
CN112740284A (en) Animation synthesizing device, animation synthesizing method, and recording medium
US20130040737A1 (en) Input device, system and method
US20210195300A1 (en) Selection of animated viewing angle in an immersive virtual environment
US20140015931A1 (en) Method and apparatus for processing virtual world
WO2019034804A2 (en) Three-dimensional video processing
US9942540B2 (en) Method and a device for creating images
EP3542877A1 (en) Optimized content sharing interaction using a mixed reality environment
KR102024863B1 (en) Method and appratus for processing virtual world
KR20130118761A (en) Method and system for generating augmented reality scene
JP7354186B2 (en) Display control device, display control method, and display control program
KR101860215B1 (en) Content Display System and Method based on Projector Position
EP4554229A1 (en) Production platform

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

A201 Request for examination
PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 4

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 5

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 6

PR1001 Payment of annual fee

St.27 status event code: A-4-4-U10-U11-oth-PR1001

Fee payment year number: 7