KR20140009913A - Method and appratus for processing virtual world - Google Patents
Method and appratus for processing virtual world Download PDFInfo
- Publication number
- KR20140009913A KR20140009913A KR1020130017404A KR20130017404A KR20140009913A KR 20140009913 A KR20140009913 A KR 20140009913A KR 1020130017404 A KR1020130017404 A KR 1020130017404A KR 20130017404 A KR20130017404 A KR 20130017404A KR 20140009913 A KR20140009913 A KR 20140009913A
- Authority
- KR
- South Korea
- Prior art keywords
- sensor
- virtual world
- image sensor
- information
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42202—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
- H04N21/4316—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4722—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
- H04N21/4725—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content using interactive regions of the image, e.g. hot spots
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Biodiversity & Conservation Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Marketing (AREA)
- Ecology (AREA)
- Emergency Management (AREA)
- Environmental & Geological Engineering (AREA)
- Environmental Sciences (AREA)
- Remote Sensing (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
Abstract
Description
아래 실시예들은 가상 세계 처리 장치 및 방법에 관한 것으로서, 보다 구체적으로는 이미지 센서가 측정한 감지 정보를 가상 세계에 적용하는 장치 및 방법에 관한 것이다.
The following embodiments relate to an apparatus and a method for processing a virtual world, and more particularly, to an apparatus and a method for applying sensing information measured by an image sensor to a virtual world.
최근 들어 체감형 게임에 대한 관심이 증대 되고 있다. Microsoft社는 "E3 2009" Press Conference에서 그들의 게임 콘솔인 Xbox360에 Depth/Color 카메라와 마이크 어레이로 구성된 별도의 센서 디바이스를 결합하여 사용자의 전신 모션 캡처링, 얼굴 인식, 음성 인식 기술을 제공하여 별도의 컨트롤러 없이 가상세계와 상호 작용 할 수 있도록 해 주는 "Project Natal"을 발표 했다. 또한, Sony社는 자사 게임 콘솔인 Play Station3에 컬러 카메라와 마커, 초음파 센서를 결합한 위치/방향 센싱 기술을 적용하여 컨트롤러의 모션 궤적을 입력으로 가상세계와 상호 작용 할 수 있는 체감형 게임 모션 컨트롤러 "Wand"를 발표했다.Recently, interest in immersive games has increased. At the "E3 2009" Press Conference, Microsoft combined its sensor console, Xbox360, with a separate sensor device consisting of a Depth / Color camera and microphone array, providing users' full-body motion capturing, facial recognition, and speech recognition technologies. Introduced "Project Natal", which allows users to interact with virtual worlds without a controller. In addition, Sony applied position / direction sensing technology that combined color camera, marker, and ultrasonic sensor to Play Station3, its game console, so that the user can interact with the virtual world by inputting the motion trajectory of the controller. Wand "was released.
현실 세계와 가상 세계의 상호 작용은 두 가지 방향을 가진다. 첫째는 현실 세계의 센서로부터 얻어진 데이터 정보를 가상 세계에 반영하는 방향이고, 둘째는 가상 세계로부터 얻어진 데이터 정보를 엑추에이터(actuator)를 통해 현실 세계에 반영하는 방향이다. The interaction between the real world and the virtual world has two directions. The first is to reflect the data information obtained from the sensor of the real world to the virtual world, and the second is to reflect the data information obtained from the virtual world to the real world through an actuator.
본 명세서에서는 환경 센서를 이용하여 현실 세계로부터 센싱한 정보를 가상 세계에 적용하는 장치 및 방법에 대한 새로운 방안이 제시된다.
In the present specification, a new method for an apparatus and method for applying information sensed from a real world using an environmental sensor to a virtual world is presented.
일 측에 따른 가상 세계 처리 장치는 이미지 센서로부터 촬영 영상에 대한 감지 정보 및 상기 이미지 센서의 특성에 대한 센서 특성을 수신하는 수신부; 상기 감지 정보 및 상기 센서 특성에 기초하여, 가상 세계의 객체를 제어하는 제어 정보를 생성하는 처리부; 및 상기 제어 정보를 상기 가상 세계로 전송하는 전송부를 포함한다.According to one or more exemplary embodiments, an apparatus for processing a virtual world may include: a receiver configured to receive sensing information of a captured image and sensor characteristics of characteristics of the image sensor from an image sensor; A processor configured to generate control information for controlling an object of a virtual world based on the sensing information and the sensor characteristic; And a transmission unit transmitting the control information to the virtual world.
다른 일 측에 따른 가상 세계 처리 방법은 이미지 센서로부터 촬영 영상에 대한 감지 정보 및 상기 이미지 센서의 특성에 대한 센서 특성을 수신하는 단계; 상기 감지 정보 및 상기 센서 특성에 기초하여, 가상 세계의 객체를 제어하는 제어 정보를 생성하는 단계; 및 상기 제어 정보를 상기 가상 세계로 전송하는 단계를 포함한다.
According to another aspect of the present invention, there is provided a method of processing a virtual world, the method comprising: receiving sensor information on a characteristic of the image sensor and sensing information about a captured image from an image sensor; Generating control information for controlling an object of a virtual world based on the sensing information and the sensor characteristic; And transmitting the control information to the virtual world.
도 1은 일 실시예에 따른 현실 세계와 가상 세계 사이의 정보 교환을 제어하는 가상 세계 처리 시스템을 나타내는 도면이다.
도 2는 일 실시예에 따른 증강 현실 시스템을 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 가상 세계 처리 장치의 구성을 나타내는 도면이다.
도 4는 일 실시예에 따른 가상 세계 처리 방법을 나타내는 동작 흐름도이다.1 is a diagram illustrating a virtual world processing system that controls information exchange between a real world and a virtual world, according to an exemplary embodiment.
2 is a diagram for describing an augmented reality system, according to an exemplary embodiment.
3 is a diagram illustrating a configuration of a virtual world processing apparatus according to an exemplary embodiment.
4 is a flowchart illustrating a virtual world processing method according to an exemplary embodiment.
이하에서, 본 발명에 따른 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. Like reference symbols in the drawings denote like elements.
도 1은 일 실시예에 따른 현실 세계와 가상 세계 사이의 정보 교환을 제어하는 가상 세계 처리 시스템을 나타내는 도면이다.1 is a diagram illustrating a virtual world processing system that controls information exchange between a real world and a virtual world, according to an exemplary embodiment.
도 1을 참조하면, 본 발명의 일실시예에 따른 가상 세계 처리 시스템은 현실 세계(110), 가상 세계 처리 장치 및 가상 세계(140)를 포함할 수 있다.Referring to FIG. 1, a virtual world processing system according to an embodiment of the present invention may include a
현실 세계(110)는 현실 세계(110)에 대한 정보를 감지하는 센서(Sensor) 또는 가상 세계(140)에 대한 정보를 현실 세계(110)에서 구현하는 실감 장치를 나타낼 수 있다.The
또한, 가상 세계(140)는 프로그램에 의해서 구현되는 가상 세계(140) 그 자체 또는 현실 세계(110)에서 구현될 수 있는 실감 효과 정보를 포함하는 컨텐츠를 재생하는 실감 미디어 재생 장치를 나타낼 수 있다.In addition, the
일실시예에 따른 센서(Sensor)는 현실 세계(110)의 사용자의 동작, 상태, 의도, 형태 등에 관한 정보를 감지(Sensing)하여 가상 세계 처리 장치로 전송할 수 있다.According to an embodiment, a sensor may sense and transmit information on a user's motion, state, intention, shape, etc. of the
실시예에 따라서는, 센서는 센서 특성(Sensor Capability)(101), 센서 적응 선호(Sensor Adaptation Preference)(102) 및 감지 정보(Sensed Information)(103)를 가상 세계 처리 장치로 전송할 수 있다.According to an embodiment, the sensor may transmit a
센서 특성(101)은 센서의 특성에 대한 정보이다. 센서 적응 선호(102)는 센서의 사용자가 센서의 특성에 대해서 선호하는 정도를 나타내는 정보이다. 감지 정보(103)는 센서가 현실 세계(110)를 감지한 정보이다.The
일실시예에 따른 가상 세계 처리 장치는 적응 RV(Adaptation Real World to Virtual World)(120), VWI(Virtual World Information, 가상 세계 정보)(104) 및 적응 RV/VR(Adaptation Real World to Virtual World/Virtual World to Real World)(130)를 포함할 수 있다.The virtual world processing apparatus according to an embodiment may include an adaptation adaptation real world to virtual world (120), a virtual world information (VWI) 104, and an adaptation adaptation real world to virtual world / Virtual World to Real World) 130.
적응 RV(120)는 센서 특성(101) 및 센서 적응 선호(102)에 기초하여 센서가 현실 세계(110)에 대해서 감지한 감지 정보(103)를 가상 세계(140)에 적용할 수 있는 정보로 변환할 수 있다. 실시예에 따라, 적응 RV(120)는 RV 엔진(real world to virtual world engine, RV engine)으로 구현될 수 있다.The
일실시예에 따른 적응 RV(120)는 변환된 감지 정보(103)를 이용하여 VWI(Virtual World Information, 가상 세계 정보)(104)를 변환할 수 있다. According to an embodiment, the
VWI(104)는 가상 세계(140)의 가상 객체(Virtual Object)에 대한 정보이다.The VWI 104 is information about a virtual object of the
적응 RV/VR(130)은 변환된 VWI(104)를 인코딩하여 가상 세계(140)에 적용되는 효과에 대한 메타데이터인 VWEM(Virtual World Effect Metadata, 가상 세계 효과 메타데이터)(107)을 생성할 수 있다. 실시예에 따라서는, 적응 RV/VR(130)은 VWC(Virtual World Capabilities, 가상 세계 특성)(105) 및 VWP(Virtual World Preferences, 가상 세계 선호)(106)에 기초하여 VWEM(107)을 생성할 수 있다.The adaptive RV / VR 130 encodes the transformed VWI 104 to generate a Virtual World Effect Metadata (VWEM) 107 that is metadata about the effect applied to the
VWC(105)는 가상 세계(140)의 특성에 대한 정보이다. 또한, VWP(106)는 가상 세계(140)의 특성에 대한 사용자의 선호 정도를 나타내는 정보이다.The VWC 105 is information about the characteristics of the
또한, 적응 RV/VR(130)은 VWEM(107)을 가상 세계(140)로 전송할 수 있다. 이 때, VWEM(107)은 가상 세계(140)이 적용되어, 감지 정보(103)에 대응하는 효과가 가상 세계(140)에서 구현될 수 있다.In addition, adaptive RV / VR 130 may send VWEM 107 to
본 발명의 일측에 따르면, 가상 세계(140)에서 발생한 효과 이벤트가 현실 세계(110)에서 엑츄에이터(Actuator)인 실감 장치에 의해서 구동될 수 있다. According to one side of the present invention, the effect event occurring in the
가상 세계(140)는 가상 세계(140)에서 발생한 효과 이벤트에 대한 정보인 실감 효과 정보(Sensory Effect Information)를 인코딩하여 SEM(Sensory Effect Metadata, 실감 효과 메타데이터)(111)을 생성할 수 있다. 실시예에 따라서는, 가상 세계(140)는 실감 효과 정보를 포함하는 컨텐츠를 재생하는 실감 미디어 재생 장치를 포함할 수 있다.The
적응 RV/VR(130)는 SEM(111)에 기초하여 실감 정보(Sensory Information)(112)를 생성할 수 있다. 실감 정보(112)는 현실 세계(110)의 실감 장치에서 구현되는 효과 이벤트에 대한 정보이다.The adaptive RV /
적응 VR(150)는 현실 세계(110)의 실감 장치의 동작을 제어하는 SDCmd(Sensory Device Command, 실감 장치 명령)(115)에 대한 정보를 생성할 수 있다. 실시예에 따라서는, 적응 VR(150)은 SDCap(Sensory Device Capabilities, 실감 장치 특성)(113)에 대한 정보 및 USP(User Sensory Preference, 사용자 실감 선호)(114)에 대한 정보에 기초하여 SDCmd(115)에 대한 정보를 생성할 수 있다.The
SDCap(113)은 실감 장치의 특성에 대한 정보이다. 또한, USP(114)는 실감 장치에서 구현되는 효과에 대한 사용자의 선호 정도를 나타내는 정보이다.
The SDCap 113 is information on characteristics of the sensory device. In addition, the
도 2는 일 실시예에 따른 증강 현실 시스템을 설명하기 위한 도면이다.2 is a diagram for describing an augmented reality system, according to an exemplary embodiment.
도 2를 참조하면, 일 실시예에 따른 증강 현실 시스템은 미디어 저장 장치(210) 또는 실시간 미디어 획득 장치(220)를 이용하여 실세계를 표현하는 영상을 획득할 수 있다. 또한, 증강 현실 시스템은 각종 센서(230)를 이용하여 실세계를 표현하는 센서 정보를 획득할 수 있다.Referring to FIG. 2, the augmented reality system according to an exemplary embodiment may acquire an image representing the real world by using the
여기서, 일 실시예에 따른 증강 현실 카메라(AR camera)는 실시간 미디어 획득 장치(220)와 각종 센서(230)를 포함할 수 있다. 증강 현실 카메라는 실세계 정보와 가상 객체간 혼합을 위하여 실세계를 표현하는 영상 또는 센서 정보를 획득할 수 있다.Here, the AR camera according to an embodiment may include a real-time media acquisition device 220 and
증강 현실 컨테이너(AR Container, 240)는 실세계 정보뿐 아니라, 실세계와 가상 객체간 혼합 방식에 대한 정보를 가지는 장치이다. 예를 들어, 증강 현실 컨테이너(240)는 어떤 가상 객체를 어느 시점에 실세계 정보 중 어느 것과 혼합할 것인지 여부에 관한 정보를 포함할 수 있다.The
증강 현실 컨테이너(240)는 실세계와 가상 객체간 혼합 방식에 대한 정보에 기초하여 증강 현실 콘텐트(AR Content, 250)에 가상 객체 정보를 요청할 수 있다. 여기서, 증강 현실 콘텐트(250)는 가상 객체 정보를 포함하는 장치이다.The augmented
증강 현실 콘텐트(250)는 증강 현실 컨테이너(240)의 요청에 부합하는 가상 객체 정보를 반환할 수 있다. 이 때, 가상 객체 정보는 가상 객체를 나타내는 3차원 그래픽, 오디오, 비디오, 또는 텍스트 중 적어도 하나에 기초하여 표현될 수 있다. 나아가, 가상 객체 정보는 복수의 가상 객체들 사이의 상호 작용도 포함할 수 있다.The augmented
가시화부(260)는 증강 현실 컨테이너(240)에 포함된 실세계 정보와 증강 현실 콘텐트(250)에 포함된 가상 객체 정보를 동시에 가시화할 수 있다. 이 경우, 상호 작용부(270)는 가시화된 정보를 통해 이용자가 가상 객체와 상호 작용을 할 수 있는 인터페이스를 제공할 수 있다. 또한, 상호 작용부(270)는 이용자와 가상 객체 사이의 상호 작용에 의하여 가상 객체를 업데이트 하거나, 실세계와 가상 객체간 혼합 방식을 업데이트 할 수 있다.The
이하, 도 3을 참조하여 일 실시예에 따른 가상 세계 처리 장치의 구성에 대하여 상세히 설명한다.
Hereinafter, a configuration of a virtual world processing apparatus according to an embodiment will be described in detail with reference to FIG. 3.
도 3은 일 실시예에 따른 가상 세계 처리 장치의 구성을 나타내는 도면이다.3 is a diagram illustrating a configuration of a virtual world processing apparatus according to an exemplary embodiment.
도 3을 참조하면, 일 실시예에 따른 가상 세계 처리 장치(320)는 수신부(321), 처리부(322) 및 전송부(323)를 포함한다.Referring to FIG. 3, the virtual
수신부(321)는 이미지 센서(311)로부터 촬영 영상(315)에 대한 감지 정보 및 이미지 센서(311)의 특성에 대한 센서 특성을 수신할 수 있다. 여기서, 이미지 센서(311)는 정지 영상을 촬영할 수 있고, 동영상을 촬영할 수 있다. 예를 들어, 이미지 센서(311)는 사진 촬영 센서 및 동영상 센서 중 적어도 하나를 포함할 수 있다.The
처리부(322)는 감지 정보 및 센서 특성에 기초하여, 가상 세계의 객체를 제어하는 제어 정보를 생성한다. 예를 들어, 처리부(332)는 감지 정보에 포함된 특정 요소와 관련된 값이 센서 특성에서 규정하는 허용 범위 이내인 경우, 제어 정보를 생성할 수 있다.The
전송부(323)는 제어 정보를 가상 세계로 전송한다.The
이 때, 가상 세계의 동작은 전송 받은 제어 정보에 기초하여 제어될 수 있다.At this time, the operation of the virtual world may be controlled based on the received control information.
예를 들어, 이미지 센서(311)가 증강 현실 카메라인 경우를 가정하자. 이미지 센서(311)는 실세계(310)를 촬영함으로써 촬영 영상(315)을 획득할 수 있다. 이미지 센서(311)는 촬영 영상(315)을 분석함으로써 촬영 영상(315)에 포함된 복수의 피쳐 포인트들(316)을 추출할 수 있다. For example, assume that the
여기서, 피쳐 포인트는 촬영 영상(315)에 포함된 경계면들에서 주로 추출될 수 있고, 3차원 좌표로 표현될 수 있다. Here, the feature point may be mainly extracted from the boundary surfaces included in the captured
경우에 따라, 이미지 센서(311)는 촬영 영상(315)에 포함된 경계면들 중 가장 가까운 객체의 경계면이나 가장 크기가 큰 객체의 경계면과 관련된 피쳐 포인트들(316)을 우선적으로 추출할 수 있다.In some cases, the
이미지 센서(311)는 추출된 복수의 피쳐 포인트들을 포함한 감지 정보를 가상 세계 처리 장치(320)로 전송할 수 있다.The
가상 세계 처리 장치(320)는 이미지 센서(311)로부터 전송 받은 감지 정보로부터 피쳐 포인트를 추출하고, 추출된 피쳐 포인트를 포함하는 제어 정보를 생성할 수 있다. The virtual
따라서, 일 실시예에 따른 가상 세계 처리 장치(320)는 적은 정보(예를 들어, 피쳐 포인트)만을 이용하여 실세계(310)에 대응되는 가상 씬(Virtual Scene, 330)을 위한 제어 신호를 생성할 수 있다.Therefore, the virtual
이 경우, 가상 세계는 제어 정보에 포함된 복수의 피쳐 포인트들에 기초하여 가상 객체를 제어할 수 있다. In this case, the virtual world may control the virtual object based on the plurality of feature points included in the control information.
보다 구체적으로, 가상 세계는 복수의 피쳐 포인트들에 기초하여 실세계(310)에 대응되는 가상 씬(330)을 표현할 수 있다. 이 경우, 가상 씬(330)은 삼차원 공간으로 표현될 수 있다. 가상 세계는 피쳐 포인트에 기초하여 가상 씬(330)을 위한 면(plane)을 표현할 수 있다.More specifically, the virtual world may represent the
뿐만 아니라, 가상 세계는 실세계(310)에 대응되는 가상 씬(330)과 가상 객체들(331)을 동시에 표시할 수 있다.
In addition, the virtual world may simultaneously display the
일 실시예에 따르면, 이미지 센서(311)로부터 수신되는 감지 정보 및 센서 특성은 도 1의 SI(103)과 SC(101)에 각각 대응될 수 있다.According to an embodiment, the sensing information and sensor characteristics received from the
예를 들어, 이미지 센서(311)로부터 수신되는 감지 정보는 표 1과 같이 정의될 수 있다.For example, the sensing information received from the
- Camera sensor type
- AR Camera typeSensed Information (SI, 103)
-Camera sensor type
-AR Camera type
여기서, 증강 현실 카메라 타입(AR Camera type)은 기본적으로 카메라 센서 타입(Camera sensor type)을 포함할 수 있다. 카메라 센서 타입은 리소스 요소, 카메라 로케이션 요소 및 카메라 오리엔테이션 요소의 요소(element)와 초점거리 속성, 조리개 속성, 셔터 스피드 속성 및 필터 속성의 속성(attribute)으로 구성될 수 있다.Here, the AR camera type may basically include a camera sensor type. The camera sensor type may include an element of a resource element, a camera location element, and a camera orientation element, and an attribute of a focal length attribute, an aperture attribute, a shutter speed attribute, and a filter attribute.
이 때, 리소스 요소는 이미지 센서에 의해 촬영된 이미지로의 링크를 포함하고, 카메라 로케이션 요소는 글로벌 포지션 시스템(GPS) 센서를 이용하여 측정된 이미지 센서의 위치와 관련된 정보를 포함하며, 카메라 오리엔테이션 요소는 이미지 센서의 자세와 관련된 정보를 포함할 수 있다.At this time, the resource element includes a link to the image captured by the image sensor, the camera location element includes information related to the position of the image sensor measured using the Global Position System (GPS) sensor, and the camera orientation element May include information related to the attitude of the image sensor.
초점거리 속성은 이미지 센서의 초점거리와 관련된 정보를 포함하고, 조리개 속성은 이미지 센서의 조리개와 관련된 정보를 포함하며, 셔터 스피드 속성은 이미지 센서의 셔터 스피드와 관련된 정보를 포함하고, 필터 속성은 이미지 센서의 필터 신호처리와 관련된 정보를 포함할 수 있다. 여기서, 필터 타입은 UV 필터(UltraViolet filter), 편광 필터(Polarizing light filter), ND 필터(Neutral Density filter), 확산 필터(Diffusion filter), Star 필터(Star filter) 등을 포함할 수 있다.The focal length attribute includes information related to the focal length of the image sensor, the aperture attribute includes information related to the aperture of the image sensor, the shutter speed attribute includes information related to the shutter speed of the image sensor, and the filter attribute includes the image It may include information related to the filter signal processing of the sensor. Here, the filter type may include a UV filter, a polarizing light filter, a neutral density filter, a diffusion filter, a star filter, and the like.
또한, 증강 현실 카메라 타입은 피쳐 요소 및 카메라 포지션 요소를 더 포함할 수 있다.In addition, the augmented reality camera type may further include a feature element and a camera position element.
이 때, 피쳐 요소는 촬영 영상 내 경계면과 관련된 피쳐 포인트를 포함하고, 카메라 포지션 요소는 GPS 센서와 구별되는 위치 센서를 이용하여 측정된 이미지 센서의 위치와 관련된 정보를 포함할 수 있다.In this case, the feature element may include a feature point related to the boundary surface in the captured image, and the camera position element may include information related to the position of the image sensor measured using a position sensor that is distinguished from the GPS sensor.
전술한 바와 같이, 피쳐 포인트는 이미지 센서에 의해 촬영된 영상 내 경계면들에 주로 생성되는 포인트로, 증강 현실 환경에서 가상 객체를 표현하기 위하여 활용될 수 있다. 보다 구체적으로, 적어도 하나의 피쳐 포인트를 포함하는 피쳐 요소는 씬 디스크립터(Scene descriptor)에 의하여 면을 표현하는 요소로 활용될 수 있다. 씬 디스크립션의 동작과 관련된 보다 상세한 사항은 후술한다.As described above, the feature point is a point mainly generated at boundary surfaces in the image photographed by the image sensor, and may be used to represent a virtual object in an augmented reality environment. More specifically, a feature element including at least one feature point may be used as an element representing a face by a scene descriptor. More details related to the operation of the scene description will be described later.
카메라 포지션 요소는 GPS 센서를 이용하여 위치를 측정하기 어려운 실내 또는 터널 등에서 이미지 센서의 위치를 측정하기 위하여 활용될 수 있다.The camera position element may be utilized to measure the position of the image sensor in a room or a tunnel where it is difficult to measure the position using the GPS sensor.
한편, 이미지 센서(311)로부터 수신되는 센서 특성은 표 2와 같이 정의될 수 있다.On the other hand, the sensor characteristics received from the
- Camera sensor capability type
- AR Camera capability typeSensor Capability (SC, 101)
-Camera sensor capability type
AR Camera capability type
여기서, 증강 현실 카메라 특성 타입(AR Camera capability type)은 기본적으로 카메라 센서 특성 타입(Camera sensor capability type)을 포함할 수 있다. 카메라 센서 특성 타입은 지원 해상도 리스트(Supported Resolution List) 요소, 초점거리 범위 요소, 조리개 범위 요소 및 셔터 스피드 범위 요소로 구성될 수 있다.Here, the AR camera capability type may basically include a camera sensor capability type. The camera sensor characteristic type may consist of a Supported Resolution List element, a focal length range element, an aperture range element and a shutter speed range element.
이 때, 지원 해상도 리스트 요소는 이미지 센서가 지원하는 해상도들의 리스트를 포함하고, 초점거리 범위 요소는 이미지 센서가 지원하는 초점거리의 범위를 포함하며, 조리개 범위 요소는 이미지 센서가 지원하는 조리개의 범위를 포함하고, 셔터 스피드 범위 요소는 이미지 센서가 지원하는 셔터 스피드의 범위를 포함할 수 있다.In this case, the supported resolution list element includes a list of resolutions supported by the image sensor, the focal length range element includes a range of focal lengths supported by the image sensor, and the aperture range element is an aperture range supported by the image sensor The shutter speed range element may include a range of shutter speeds supported by the image sensor.
또한, 증강 현실 카메라 특성 타입은 최대 피쳐 포인트 요소 및 카메라 포지션 범위 요소를 더 포함할 수 있다.In addition, the augmented reality camera characteristic type may further include a maximum feature point element and a camera position range element.
이 때, 최대 피쳐 포인트 요소는 이미지 센서에 의해 검출될 수 있는 최대 피쳐 포인트들의 수를 포함하고, 카메라 포지션 범위 요소는 위치 센서에 의해 측정될 수 있는 위치의 범위를 포함할 수 있다.
At this time, the maximum feature point element may include the maximum number of feature points that may be detected by the image sensor, and the camera position range element may include a range of positions that may be measured by the position sensor.
표 3은 일 실시예에 따른 카메라 센서 타입에 대한 XML 신택스(eXtensible Markup Language Syntax)를 나타낸다.Table 3 shows an XML syntax (eXtensible Markup Language Syntax) for a camera sensor type according to an embodiment.
<!-- Camera Sensor Type -->
<!-- ################################################ -->
<complexType name="CameraSensorType">
<complexContent>
<extension base="iidl:SensedInfoBaseType">
<sequence>
<element name="Resource" type="anyURI"/>
<element name="CameraOrientation" type="siv:OrientationSensorType" minOccurs="0"/>
<element name="CameraLocation" type="siv:GlobalPositionSensorType" minOccurs="0"/>
</sequence>
<attribute name="focalLength" type="float" use="optional"/>
<attribute name="aperture" type="float" use="optional"/>
<attribute name="shutterSpeed" type="float" use="optional"/>
<attribute name="filter" type="mpeg7:termReferenceType" use="optional"/>
</extension>
</complexContent>
</complexType><! - ##################################################### ## ->
<!-Camera Sensor Type->
<! - ##################################################### ## ->
<complexType name = "CameraSensorType">
<complexContent>
<extension base = "iidl: SensedInfoBaseType">
<sequence>
<element name = "Resource" type = "anyURI"/>
<element name = "CameraOrientation" type = "siv: OrientationSensorType" minOccurs = "0"/>
<element name = "CameraLocation" type = "siv: GlobalPositionSensorType" minOccurs = "0"/>
</ sequence>
<attribute name = "focalLength" type = "float" use = "optional"/>
<attribute name = "aperture" type = "float" use = "optional"/>
<attribute name = "shutterSpeed" type = "float" use = "optional"/>
<attribute name = "filter" type = "mpeg7: termReferenceType" use = "optional"/>
</ extension>
</ complexContent>
</ complexType>
표 4는 일 실시예에 따른 카메라 센서 타입에 대한 시멘틱(Semantics)을 나타낸다.Table 4 shows semantics for a camera sensor type according to one embodiment.
표 5는 일 실시예에 따른 카메라 센서 특성 타입에 대한 XML 신택스를 나타낸다.Table 5 shows XML syntax for a camera sensor characteristic type according to one embodiment.
<!-- Camera Sensor capability type -->
<!-- ################################################ -->
<complexType name="CameraSensorCapabilityType">
<complexContent>
<extension base="cidl:SensorCapabilityBaseType">
<sequence>
<element name="SupportedResolutions" type="scdv:ResolutionListType" minOccurs="0"/>
<element name="FocalLengthRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="ApertureRange" type="scdv:ValueRangeType" minOccurs="0"/>
<element name="ShutterSpeedRange" type="scdv:ValueRangeType" minOccurs="0"/>
</sequence>
</extension>
</complexContent>
</complexType>
<complexType name="ResolutionListType">
<sequence>
<element name="Resolution" type="scdv:ResolutionType" maxOccurs="unbounded"/>
</sequence>
</complexType>
<complexType name="ResolutionType">
<sequence>
<element name="Width" type="nonNegativeInteger"/>
<element name="Height" type="nonNegativeInteger"/>
</sequence>
</complexType>
<complexType name="ValueRangeType">
<sequence>
<element name="MaxValue" type="float"/>
<element name="MinValue" type="float"/>
</sequence>
</complexType><! - ##################################################### ## ->
<!-Camera Sensor capability type->
<! - ##################################################### ## ->
<complexType name = "CameraSensorCapabilityType">
<complexContent>
<extension base = "cidl: SensorCapabilityBaseType">
<sequence>
<element name = "SupportedResolutions" type = "scdv: ResolutionListType" minOccurs = "0"/>
<element name = "FocalLengthRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "ApertureRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
<element name = "ShutterSpeedRange" type = "scdv: ValueRangeType" minOccurs = "0"/>
</ sequence>
</ extension>
</ complexContent>
</ complexType>
<complexType name = "ResolutionListType">
<sequence>
<element name = "Resolution" type = "scdv: ResolutionType" maxOccurs = "unbounded"/>
</ sequence>
</ complexType>
<complexType name = "ResolutionType">
<sequence>
<element name = "Width" type = "nonNegativeInteger"/>
<element name = "Height" type = "nonNegativeInteger"/>
</ sequence>
</ complexType>
<complexType name = "ValueRangeType">
<sequence>
<element name = "MaxValue" type = "float"/>
<element name = "MinValue" type = "float"/>
</ sequence>
</ complexType>
표 6은 일 실시예에 따른 카메라 센서 특성 타입에 대한 시멘틱을 나타낸다.Table 6 shows the semantics for the camera sensor characteristic type according to one embodiment.
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.Describes the range of the focal length that the camera sensor can perceive in terms of ValueRangeType. Its default unit is millimeters (mm).
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.Describes the range of the aperture that the camera sensor can perceive in terms of valueRangeType.
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.Describes the range of the shutter speed that the camera sensor can perceive in terms of valueRangeType. Its default unit is seconds (sec).
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
표 7은 일 실시예에 따른 증강 현실 카메라 타입에 대한 XML 신택스를 나타낸다.Table 7 shows XML syntax for an augmented reality camera type according to one embodiment.
<!-- AR Camera Type -->
<!-- ################################################ -->
<complexType name="ARCameraType">
<complexContent>
<extension base="siv:CameraSensorType">
<sequence>
<element name="Feature" type="siv:FeaturePointType" minOccurs="0" maxOccurs="unbounded"/>
<element name="CameraPosition" type="siv:PositionSensorType" minOccurs="0"/>
</sequence>
</extension>
</complexContent>
</complexType>
<complexType name="FeaturePointType">
<sequence>
<element name="Position" type="mpegvct:Float3DVectorType"/>
</sequence>
<attribute name="featureID" type="ID" use="optional"/>
</complexType><! - ##################################################### ## ->
<!-AR Camera Type->
<! - ##################################################### ## ->
<complexType name = "ARCameraType">
<complexContent>
<extension base = "siv: CameraSensorType">
<sequence>
<element name = "Feature" type = "siv: FeaturePointType" minOccurs = "0" maxOccurs = "unbounded"/>
<element name = "CameraPosition" type = "siv: PositionSensorType" minOccurs = "0"/>
</ sequence>
</ extension>
</ complexContent>
</ complexType>
<complexType name = "FeaturePointType">
<sequence>
<element name = "Position" type = "mpegvct: Float3DVectorType"/>
</ sequence>
<attribute name = "featureID" type = "ID" use = "optional"/>
</ complexType>
표 8은 일 실시예에 따른 증강 현실 카메라 타입에 대한 시멘틱을 나타낸다.Table 8 shows semantics for the augmented reality camera type according to one embodiment.
표 9는 일 실시예에 따른 증강 현실 카메라 특성 타입에 대한 XML 신택스를 나타낸다.Table 9 shows XML syntax for an augmented reality camera characteristic type according to one embodiment.
<!-- AR Camera capability type -->
<!-- ################################################ -->
<complexType name="ARCameraCapabilityType">
<complexContent>
<extension base="siv:CameraSensorCapabilityType">
<sequence>
<element name="MaxFeaturePoint" type="nonNegativeInteger" minOccurs="0"/>
<element name="CameraPositionRange" type="scdv:RangeType" minOccurs="0"/>
</sequence>
</extension>
</complexContent>
</complexType><! - ##################################################### ## ->
<!-AR Camera capability type->
<! - ##################################################### ## ->
<complexType name = "ARCameraCapabilityType">
<complexContent>
<extension base = "siv: CameraSensorCapabilityType">
<sequence>
<element name = "MaxFeaturePoint" type = "nonNegativeInteger" minOccurs = "0"/>
<element name = "CameraPositionRange" type = "scdv: RangeType" minOccurs = "0"/>
</ sequence>
</ extension>
</ complexContent>
</ complexType>
표 10은 일 실시예에 따른 증강 현실 카메라 특성 타입에 대한 시멘틱을 나타낸다.Table 10 shows semantics for the augmented reality camera characteristic type according to one embodiment.
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.Describes the range that the position sensor can perceive in terms of RangeType in its global coordinate system.
NOTE The minValue and the maxValue in the SensorCapabilityBaseType are not used for this sensor.
표 11은 일 실시예에 따른 씬 디스크립터 타입에 대한 XML 신택스를 나타낸다.Table 11 shows XML syntax for a scene descriptor type according to an embodiment.
<!-- Scene Descriptor Type -->
<!-- ########################################################### -->
<complexType name="SceneDescriptorType">
<sequence>
<element name="image" type="anyURI"/>
</sequence>
<complexType name="plan">
<sequence>
<element name="ID" type="int32"/>
<element name="X" type="float"/>
<element name="Y" type="float"/>
<element name="Z" type="float"/>
<element name="Scalar" type="float"/>
</sequence>
</complexType>
<complexType name="feature">
<sequence>
<element name="ID" type="int32"/>
<element name="X" type="float"/>
<element name="Y" type="float"/>
<element name="N" type="float"/>
</sequence>
<complexType>
</complexType><!-############################################## #############->
<!-Scene Descriptor Type->
<!-############################################## #############->
<complexType name = "SceneDescriptorType">
<sequence>
<element name = "image" type = "anyURI"/>
</ sequence>
<complexType name = "plan">
<sequence>
<element name = "ID" type = "int32"/>
<element name = "X" type = "float"/>
<element name = "Y" type = "float"/>
<element name = "Z" type = "float"/>
<element name = "Scalar" type = "float"/>
</ sequence>
</ complexType>
<complexType name = "feature">
<sequence>
<element name = "ID" type = "int32"/>
<element name = "X" type = "float"/>
<element name = "Y" type = "float"/>
<element name = "N" type = "float"/>
</ sequence>
<complexType>
</ complexType>
여기서, 씬 디스크립터 타입에 포함된 이미지(image) 요소는 복수의 픽셀들을 포함할 수 있다. 복수의 픽셀들은 플랜(plan)의 아이디(ID) 또는 피쳐(feature)의 아이디를 묘사할 수 있다.Here, the image element included in the scene descriptor type may include a plurality of pixels. The plurality of pixels may depict an ID of a plan or an ID of a feature.
이 때, 플랜은 Xplan, Yplan, Zplan 및 Scalar를 포함할 수 있고, 수학식 1을 참조하면, 씬 디스크립터는 Xplan, Yplan, Zplan을 포함하는 면 방정식을 이용하여 면을 표현할 수 있다.Where the plan is X plan , Y plan , Z plan And Scalar, and referring to Equation 1, the scene descriptor may represent a face using a face equation including X plan , Y plan , and Z plan .
또한, 피쳐는 감지 정보에 포함된 피쳐 요소에 대응되는 타입으로, 피쳐는 Xfeature, Yfeature 및 Zfeature를 포함할 수 있다. 이 때, 피쳐는 3차원 포인트 (Xfeature, Yfeature, Zfeature)를 나타낼 수 있고, 씬 디스크립터는 (Xfeature, Yfeature, Zfeature)에 위치하는 3차원 포인트를 이용하여 면을 표현할 수 있다.
In addition, the feature is a type corresponding to a feature element included in the sensing information, and the feature may include an X feature , a Y feature, and a Z feature . In this case, the feature may represent three-dimensional points (X feature , Y feature , Z feature ), and the scene descriptor may represent a face using three-dimensional points located at (X feature , Y feature , Z feature ). .
도 4는 일 실시예에 따른 가상 세계 처리 방법을 나타내는 동작 흐름도이다.4 is a flowchart illustrating a virtual world processing method according to an exemplary embodiment.
도 4를 참조하면, 일 실시예에 따른 가상 세계 처리 방법은 이미지 센서로부터 촬영 영상에 대한 감지 정보 및 이미지 센서의 특성에 대한 센서 특성을 수신한다(410).Referring to FIG. 4, the virtual world processing method according to an exemplary embodiment receives sensing information on a captured image and sensor characteristics on characteristics of an image sensor from an image sensor (410).
가상 세계 처리 방법은 감지 정보 및 센서 특성에 기초하여, 가상 세계의 객체를 제어하는 제어 정보를 생성한다(420).The virtual world processing method generates control information for controlling an object of the virtual world based on the sensing information and the sensor characteristic (420).
가상 세계 처리 방법은 제어 정보를 가상 세계로 전송한다(430).The virtual world processing method transmits control information to the virtual world (430).
이 때, 가상 세계의 동작은 전송 받은 제어 정보에 기초하여 제어될 수 있다. 도 4에 도시된 각 단계들에는 도 1 내지 도 3을 통하여 기술된 사항들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.
At this time, the operation of the virtual world may be controlled based on the received control information. Since the details described with reference to FIGS. 1 through 3 may be applied to each step illustrated in FIG. 4, a detailed description thereof will be omitted.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
Claims (10)
상기 감지 정보 및 상기 센서 특성에 기초하여, 가상 세계의 객체를 제어하는 제어 정보를 생성하는 처리부; 및
상기 제어 정보를 상기 가상 세계로 전송하는 전송부
를 포함하는 가상 세계 처리 장치.A receiver configured to receive sensing information of a captured image and sensor characteristics of the characteristics of the image sensor from an image sensor;
A processor configured to generate control information for controlling an object of a virtual world based on the sensing information and the sensor characteristic; And
Transmission unit for transmitting the control information to the virtual world
Virtual world processing device comprising a.
상기 이미지 센서는
사진 촬영 센서 및 동영상 촬영 센서 중 적어도 하나를 포함하는 가상 세계 처리 장치.The method of claim 1,
The image sensor
And at least one of a photographing sensor and a video photographing sensor.
상기 감지 정보는
상기 이미지 센서에 의해 촬영된 이미지로의 링크를 포함하는 리소스 요소;
글로벌 포지션 시스템(GPS) 센서를 이용하여 측정된 상기 이미지 센서의 위치와 관련된 정보를 포함하는 카메라 로케이션 요소; 및
상기 이미지 센서의 자세와 관련된 정보를 포함하는 카메라 오리엔테이션 요소
를 포함하는 가상 세계 처리 장치.The method of claim 1,
The detection information is
A resource element comprising a link to an image captured by the image sensor;
A camera location element containing information related to the position of the image sensor measured using a Global Position System (GPS) sensor; And
Camera orientation element containing information related to the pose of the image sensor
Virtual world processing device comprising a.
상기 감지 정보는
상기 이미지 센서의 초점거리와 관련된 정보를 포함하는 초점거리 속성;
상기 이미지 센서의 조리개와 관련된 정보를 포함하는 조리개 속성;
상기 이미지 센서의 셔터 스피드와 관련된 정보를 포함하는 셔터 스피드 속성; 및
상기 이미지 센서의 필터 신호처리와 관련된 정보를 포함하는 필터 속성
을 포함하는 가상 세계 처리 장치.The method of claim 1,
The detection information is
A focal length attribute including information related to a focal length of the image sensor;
An aperture property including information related to an aperture of the image sensor;
A shutter speed attribute including information related to a shutter speed of the image sensor; And
Filter attributes including information related to filter signal processing of the image sensor
Virtual world processing device comprising a.
상기 감지 정보는
상기 촬영 영상 내 경계면과 관련된 피쳐 포인트를 포함하는 피쳐 요소; 및
상기 GPS 센서와 구별되는 위치 센서를 이용하여 측정된 상기 이미지 센서의 위치와 관련된 정보를 포함하는 카메라 포지션 요소
를 더 포함하는 가상 세계 처리 장치.The method of claim 3,
The detection information is
A feature element comprising a feature point associated with an interface in the captured image; And
A camera position element comprising information relating to the position of the image sensor measured using a position sensor distinct from the GPS sensor
The virtual world processing device further comprising.
상기 센서 특성은
상기 이미지 센서가 지원하는 해상도들의 리스트를 포함하는 지원 해상도 리스트(Supported Resolution List) 요소;
상기 이미지 센서가 지원하는 초점거리의 범위를 포함하는 초점거리 범위 요소;
상기 이미지 센서가 지원하는 조리개의 범위를 포함하는 조리개 범위 요소; 및
상기 이미지 센서가 지원하는 셔터 스피드의 범위를 포함하는 셔터 스피드 범위 요소
를 포함하는 가상 세계 처리 장치.The method of claim 1,
The sensor characteristics
A Supported Resolution List element containing a list of resolutions supported by the image sensor;
A focal length range element including a range of focal lengths supported by the image sensor;
An aperture range element including an aperture range supported by the image sensor; And
Shutter speed range element including a range of shutter speeds supported by the image sensor
Virtual world processing device comprising a.
상기 센서 특성은
상기 이미지 센서에 의해 검출될 수 있는 최대 피쳐 포인트들의 수를 포함하는 최대 피쳐 포인트 요소; 및
위치 센서에 의해 측정될 수 있는 위치의 범위를 포함하는 카메라 포지션 범위 요소
를 더 포함하는 가상 세계 처리 장치.The method according to claim 6,
The sensor characteristics
A maximum feature point element comprising a maximum number of feature points that can be detected by the image sensor; And
Camera position range element containing the range of positions that can be measured by the position sensor
The virtual world processing device further comprising.
상기 처리부는 상기 감지 정보로부터 상기 촬영 영상에 포함된 적어도 하나의 피쳐 포인트를 추출하고,
상기 전송부는 상기 적어도 하나의 피쳐 포인트를 상기 가상 세계로 전송하며,
상기 가상 세계는 상기 적어도 하나의 피쳐 포인트에 기초하여 상기 가상 세계에 포함된 적어도 하나의 면(plane)을 표현하는 가상 세계 처리 장치.The method of claim 1,
The processor extracts at least one feature point included in the captured image from the sensing information,
The transmission unit transmits the at least one feature point to the virtual world.
And the virtual world represents at least one plane included in the virtual world based on the at least one feature point.
상기 감지 정보 및 상기 센서 특성에 기초하여, 가상 세계의 객체를 제어하는 제어 정보를 생성하는 단계; 및
상기 제어 정보를 상기 가상 세계로 전송하는 단계
를 포함하는 가상 세계 처리 방법.Receiving sensor information on a characteristic of the image sensor and sensing information about a captured image from an image sensor;
Generating control information for controlling an object of a virtual world based on the sensing information and the sensor characteristic; And
Transmitting the control information to the virtual world
Virtual world processing method comprising a.
A computer-readable recording medium having recorded thereon a program for executing the method of claim 9.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US13/934,605 US20140015931A1 (en) | 2012-07-12 | 2013-07-03 | Method and apparatus for processing virtual world |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201261670825P | 2012-07-12 | 2012-07-12 | |
| US61/670,825 | 2012-07-12 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20140009913A true KR20140009913A (en) | 2014-01-23 |
| KR102024863B1 KR102024863B1 (en) | 2019-09-24 |
Family
ID=50142901
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020130017404A Active KR102024863B1 (en) | 2012-07-12 | 2013-02-19 | Method and appratus for processing virtual world |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102024863B1 (en) |
Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001075726A (en) * | 1999-08-02 | 2001-03-23 | Lucent Technol Inc | Computer input device with six degrees of freedom for controlling movement of three-dimensional object |
| US6778171B1 (en) * | 2000-04-05 | 2004-08-17 | Eagle New Media Investments, Llc | Real world/virtual world correlation system using 3D graphics pipeline |
| KR20050054729A (en) * | 2003-12-05 | 2005-06-10 | 한국전자통신연구원 | Virtual hdr camera for creating hdri for virtual environment |
| JP2007195091A (en) * | 2006-01-23 | 2007-08-02 | Sharp Corp | Composite video generation system |
| KR20080052338A (en) * | 2006-12-05 | 2008-06-11 | 한국전자통신연구원 | Personal Multimedia Studio Platform Device and Method for 3D Content Authoring |
| US20090221374A1 (en) * | 2007-11-28 | 2009-09-03 | Ailive Inc. | Method and system for controlling movements of objects in a videogame |
| KR20110028333A (en) * | 2008-06-03 | 2011-03-17 | 소니 컴퓨터 엔터테인먼트 인코포레이티드 | Hint-based streaming of auxiliary content assets for interactive environments |
| WO2012032996A1 (en) * | 2010-09-09 | 2012-03-15 | ソニー株式会社 | Information processing device, method of processing information, and program |
| JP2012094100A (en) * | 2010-06-02 | 2012-05-17 | Nintendo Co Ltd | Image display system, image display device and image display method |
| US20120242866A1 (en) * | 2011-03-22 | 2012-09-27 | Kyocera Corporation | Device, control method, and storage medium storing program |
-
2013
- 2013-02-19 KR KR1020130017404A patent/KR102024863B1/en active Active
Patent Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001075726A (en) * | 1999-08-02 | 2001-03-23 | Lucent Technol Inc | Computer input device with six degrees of freedom for controlling movement of three-dimensional object |
| US6778171B1 (en) * | 2000-04-05 | 2004-08-17 | Eagle New Media Investments, Llc | Real world/virtual world correlation system using 3D graphics pipeline |
| KR20050054729A (en) * | 2003-12-05 | 2005-06-10 | 한국전자통신연구원 | Virtual hdr camera for creating hdri for virtual environment |
| JP2007195091A (en) * | 2006-01-23 | 2007-08-02 | Sharp Corp | Composite video generation system |
| KR20080052338A (en) * | 2006-12-05 | 2008-06-11 | 한국전자통신연구원 | Personal Multimedia Studio Platform Device and Method for 3D Content Authoring |
| US20090221374A1 (en) * | 2007-11-28 | 2009-09-03 | Ailive Inc. | Method and system for controlling movements of objects in a videogame |
| KR20110028333A (en) * | 2008-06-03 | 2011-03-17 | 소니 컴퓨터 엔터테인먼트 인코포레이티드 | Hint-based streaming of auxiliary content assets for interactive environments |
| JP2012094100A (en) * | 2010-06-02 | 2012-05-17 | Nintendo Co Ltd | Image display system, image display device and image display method |
| WO2012032996A1 (en) * | 2010-09-09 | 2012-03-15 | ソニー株式会社 | Information processing device, method of processing information, and program |
| US20120242866A1 (en) * | 2011-03-22 | 2012-09-27 | Kyocera Corporation | Device, control method, and storage medium storing program |
Also Published As
| Publication number | Publication date |
|---|---|
| KR102024863B1 (en) | 2019-09-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10810798B2 (en) | Systems and methods for generating 360 degree mixed reality environments | |
| JP6321150B2 (en) | 3D gameplay sharing | |
| US9728011B2 (en) | System and method for implementing augmented reality via three-dimensional painting | |
| US20200279407A1 (en) | Provision of Virtual Reality Content | |
| US9392248B2 (en) | Dynamic POV composite 3D video system | |
| US20130120365A1 (en) | Content playback apparatus and method for providing interactive augmented space | |
| US20210038975A1 (en) | Calibration to be used in an augmented reality method and system | |
| US10706634B1 (en) | System for generating augmented reality content from a perspective view of an unmanned aerial vehicle | |
| KR20140082610A (en) | Method and apaaratus for augmented exhibition contents in portable terminal | |
| CN112689854A (en) | Moving picture composition device, moving picture composition method, and recording medium | |
| KR102197615B1 (en) | Method of providing augmented reality service and server for the providing augmented reality service | |
| US11430178B2 (en) | Three-dimensional video processing | |
| KR20110104676A (en) | Augmented reality system and method for implementing the interaction between virtual objects using a plurality of markers | |
| CN112740284A (en) | Animation synthesizing device, animation synthesizing method, and recording medium | |
| US20130040737A1 (en) | Input device, system and method | |
| US20210195300A1 (en) | Selection of animated viewing angle in an immersive virtual environment | |
| US20140015931A1 (en) | Method and apparatus for processing virtual world | |
| WO2019034804A2 (en) | Three-dimensional video processing | |
| US9942540B2 (en) | Method and a device for creating images | |
| EP3542877A1 (en) | Optimized content sharing interaction using a mixed reality environment | |
| KR102024863B1 (en) | Method and appratus for processing virtual world | |
| KR20130118761A (en) | Method and system for generating augmented reality scene | |
| JP7354186B2 (en) | Display control device, display control method, and display control program | |
| KR101860215B1 (en) | Content Display System and Method based on Projector Position | |
| EP4554229A1 (en) | Production platform |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| A201 | Request for examination | ||
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 5 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 6 |
|
| PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 7 |