[go: up one dir, main page]

KR20160035846A - 사용자 기반 센서 정보 획득 방법 및 그 전자 장치 - Google Patents

사용자 기반 센서 정보 획득 방법 및 그 전자 장치 Download PDF

Info

Publication number
KR20160035846A
KR20160035846A KR1020140127666A KR20140127666A KR20160035846A KR 20160035846 A KR20160035846 A KR 20160035846A KR 1020140127666 A KR1020140127666 A KR 1020140127666A KR 20140127666 A KR20140127666 A KR 20140127666A KR 20160035846 A KR20160035846 A KR 20160035846A
Authority
KR
South Korea
Prior art keywords
electronic device
sensor
center point
center
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020140127666A
Other languages
English (en)
Other versions
KR102194787B1 (ko
Inventor
이정은
윤용상
조치현
최종철
허창룡
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140127666A priority Critical patent/KR102194787B1/ko
Priority to EP15186482.4A priority patent/EP3001148B1/en
Priority to US14/862,270 priority patent/US10408616B2/en
Priority to CN201580044970.4A priority patent/CN106574847B/zh
Priority to PCT/KR2015/010050 priority patent/WO2016048050A1/en
Publication of KR20160035846A publication Critical patent/KR20160035846A/ko
Application granted granted Critical
Publication of KR102194787B1 publication Critical patent/KR102194787B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Manufacturing & Machinery (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명에 따른 착용 가능한 단말을 위한 방법은, 사용자의 신체 정보를 획득하는 동작과, 상기 수집한 신체 정보를 통해 단말이 착용된 신체 부위의 중심점을 계산하는 동작과, 계산된 상기 신체 부위의 중심점을 기준점으로 설정하여 센싱(sensing)을 수행하는 과정을 포함하는 것을 특징으로 한다.

Description

사용자 기반 센서 정보 획득 방법 및 그 전자 장치{APPARATUS AND METHOD FOR USER BASED SENSOR DATA ACQUIRING}
본 발명의 다양한 실시예들은, 은 착용 가능한 전자 장치의 제어를 위한 장치 및 방법에 관한 것이다.
이동 (mobile) 단말에서는 자이로(gyro) 센서(sensor), 지자기센서, 가속도센서, GPS, 기울기 센서 등 다양한 센서가 활용된다. 상기 자이로 센서의 경우 상기 이동 단말의 회전하는 위치 측정과 방향 설정 등에 활용되고, 상기 지자기 센서의 경우 상기 이동 단말이 방위를 측정하는데 활용되며, 상기 가속도 센서의 경우 상기 이동 단말의 흔들림 또는 움직임을 측정하는데 활용되고, 상기 GPS는 상기 이동 단말의 위치를 측정하는데 활용되며, 상기 기울기 센서는 상기 이동 단말을 돌리거나 눕힐 경우의 기울기를 측정하는데 활용된다.
센서는 단말에서 정중앙에 위치하지 않으므로, 정확한 센서 값을 도출하기 위해서 보정(calibration)이 필요하다.
기존의 방법은 단말을 중심으로 센서의 센싱 기준점을 위치시켰다. 신체에 착용할 수 있는 형태의 단말은 대부분 단말 기준으로 정보를 수집하여, 사용자에게 편의를 제공한다. 상기 단말의 중심을 기준으로 정보를 수집할 경우, 단말의 중심이 실제 사용자의 움직임과의 차이로 인하여 오류가 발생할 수 있다.
본 발명의 다양한 실시 예는 착용 가능한 단말의 센싱 기준점을 보정하여, 신체를 중심으로 한 센서의 동작으로 정확한 사용자 중심의 동작을 측정할 수 있는 장치 및 방법을 제공할 수 있다.
다양한 실시예에 따르면, 전자 장치의 동작 방법은, 장착된 부위의 중심점을 결정하는 동작과, 상기 장착된 부위의 중심점을 기준으로 센서로부터 정보를 획득하는 동작을 포함하는 것을 특징으로 한다.
다양한 실시예에 따르면 전자 장치는, 환경을 감지하는 센서(sensor)와, 장착된 부위의 중심점을 결정하고, 상기 장착된 부위의 중심점을 기준으로 상기 센서로부터 정보를 획득하는 프로세서(processor)를 포함하는 것을 특징으로 한다.
본 발명의 다양한 실시예에 따르면 사용자 중심의 센서 중심점 보정 기술은 착용 방법에 따라 센서의 중심을 다르게 보정하여 사용자에게 더 나은 사용감을 제공할 수 있다.
도 1은 다양한 실시 예에 따른 단말의 센서 보정의 실시 예를 도시한다.
도 2는 다양한 실시 예에 따른 머리 장착형 전자 장치의 예를 도시한다.
도 3은 다양한 실시 예에 따른 단독 사용과 함께 착용 가능한 형태의 장치를 도시한다.
도 4는 다양한 실시예에 따른, 전자 장치를 포함하는 네트워크 환경을 도시한다.
도 5는 본 발명의 다양한 실시 예에 따른, 전자 장치의 보정 모듈의 블록도를 도시한다.
도 6은 본 발명의 다양한 실시 예에 따른 HMT(head-mounted theater)의 예를 도시한다.
도 7은 본 발명의 다양한 실시 예에 따른 착용 가능한 기기에서 센서의 센싱(sensing) 기준점의 변화를 도시한다.
도 8은 본 발명의 다양한 실시 예에 따르는 HMT에서 사용자 중심의 센싱 기준점 보정 과정을 도시한다.
도 9는 본 발명의 다양한 실시 예에 따른 단말 중심의 센싱 기준점과, 사용자 중심의 센싱 기준점에 따른 화면 차이를 도시한다.
도 10은 본 발명의 다양한 실시 예에 따른 사용자 중심 기반 센싱 방법을 도시한다.
도 11은 본 발명의 다양한 실시 예에 따른 일반 모드와 HMM 모드(head-mounted mode)의 화면 표시의 예를 도시한다.
도 12는 본 발명의 다양한 실시 예에 따른 see-through 모드의 예를 도시한다.
도 13은 본 발명의 다양한 실시 예에 따른 착용 가능한 장치 간의 연동의 예를 도시한다.
도 14는 본 발명의 다양한 실시 예에 따른 착용 가능한 장치의 활용 예를 도시한다.
도 15는 본 발명의 다양한 실시 예에 따른 전자 장치의 블록도를 도시한다.
도 16은 본 발명의 다양한 실시 예에 따른 복수의 전자 장치들 사이의 통신 프로토콜을 도시한다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면과 연관되어 기재된다. 본 발명의 다양한 실시 예는 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 발명의 다양한 실시 예를 특정한 실시 형태에 대해 한정 하려는 것이 아니며, 본 발명의 다양한 실시 예의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
본 발명의 다양한 실시 예에서 사용될 수 있는“포함한다” 또는 “포함할 수 있다” 등의 표현은 개시(disclosure)된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 발명의 다양한 실시 예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명의 다양한 실시 예에서 “또는” 또는 “ A 또는/및 B 중 적어도 하나” 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, “A 또는 B” 또는 “ A 또는/및 B 중 적어도 하나” 각각은, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 발명의 다양한 실시 예에서 사용된 “제 1,”“제2,”“첫째,”또는“둘째,”등의 표현들은 다양한 실시 예들의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제 2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 발명의 다양한 실시 예의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 발명의 다양한 실시 예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명의 다양한 실시 예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명의 다양한 실시 예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 다양한 실시 예에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 표시 기능이 포함된 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 와치(smart watch))중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자 장치는 표시 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSync™, 애플TV™, 또는 구글 TV™), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller’s machine) 또는 상점의 POS(point of sales) 중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자 장치는 표시 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
이하, 첨부된 도면을 참조하여 다양한 실시 예에 따른 전자 장치에 대해서 살펴본다. 다양한 실시 예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 다양한 실시 예에 따른 단말의 센서 보정의 실시 예를 도시한다.
예를 들어, 도 1과 같이 센서의 중심이 단말의 중심에서 벗어나 있을 경우, 상기 단말은, 단말을 중심으로 센서의 센싱(sensing) 기준점을 보정 한다. 최근의 단말은 신체에 착용할 수 있는 형태(Wearable device)로 제공되고 있다. 예를 들어 머리에 장착 가능한 Head-mounted display 또는 Head-mounted Glass, 손목에 착용하는 형태인 Watch 또는 wristband, 콘텍트 렌즈 형, 반지 형, 신발 형, 의복 형 등 인체 및 의복에 탈부착 가능한 다양한 형태로 제공되고 있다. 이처럼 전자장치를 옷이나 안경처럼 착용할 수 있게 함으로써 전자장치를 들고 다니는 불편을 해결하고, 기존 대비 사용에 대한 접근성(Accessibility)을 높여줄 수 있다.
상기 기준점을 보정하는 과정은, 상기 전자 장치가 사용자 중심점을 확인하고, 현재의 중심점과 사용자 중심점의 차이를 계산한 후, 상기 차이만큼 변경함에 따라 수행된다.
도 2는 다양한 실시 예에 따른 머리 장착형 전자 장치의 예를 도시한다.
최근에는 머리 장착형 전자장치 (이하 HMD(Head-mounted display)라 한다.)에 대한 제품들이 많이 출시되고 있으며, 증강 현실(Augmented reality, AR)을 제공하는 See-through 형태와 가상 현실(Virtual reality, VR)을 제공하는 See-closed 형태로 크게 구분할 수 있다.
상기 도 2의 a는 see-through 형태의 HMD의 예를 나타낸다. 상기 See-through 형태는 반투과성 렌즈의 특성을 이용해 현실 세계의 기반 위에 가상의 대상 또는 사물을 합성 및 결합하여 현실 세계만으로 얻기 어려운 부가적인 정보들을 보강해 제공할 수 있다.
상기 도 2의 b는 see-closed 형태의 HMD의 예를 나타낸다. 상기 See-closed 형태는 두 개의 디스플레이가 눈 앞에 놓여진 형태의 전자장치로 외부 입력을 통해 제공되는 컨텐츠(contents) (게임(game), 영화, 스트리밍(streaming), 방송 등)를 독립된 화면에서 홀로 감상할 수 있다.
도 3은 다양한 실시 예에 따른 단독 사용과 함께 착용 가능한 형태의 장치를 도시한다.
상기 도 3의 a는 측면에서 본 사용자 320의 단말 310 착용 모습의 예를 도시한 것이고, 상기 도 3의 b는 도 3의 a를 위에서 본 모습을 간략하게 도시한 예이다. 상기 단말 310은 HMD(head-mounted display)를 포함한 신체에 착용 가능한 장치를 포함할 수 있다. 상기 사용자 320는 상기 단말 310을 착용함으로써, 증강 현실 또는 가상 현실 서비스를 제공받을 수 있다.
도 4는 다양한 실시예에 따른, 전자 장치를 포함하는 네트워크 환경을 도시한다. 상기 도 4를 참조하면, 상기 네트워크 환경 400은 상기 전자 장치 401, 버스(bus) 410, 프로세서(processor) 420, 메모리(memory) 430, 입출력 인터페이스 440, 디스플레이(display) 450, 통신 인터페이스 460 및 보정 모듈 480을 포함할 수 있다.
상기 버스 410는 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신(예: 제어 메시지)을 전달하는 회로일 수 있다.
상기 프로세서 420는, 예를 들면, 상기 버스 410를 통해 전술한 다른 구성요소들(예: 상기 메모리 430, 상기 입출력 인터페이스 440, 상기 디스플레이 450, 상기 통신 인터페이스 460, 또는 상기 보정 모듈 480 등)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다.
상기 메모리 430는, 상기 프로세서 420 또는 다른 구성요소들(예: 상기 입출력 인터페이스 440, 상기 디스플레이 450, 상기 통신 인터페이스 460, 또는 상기 보정 모듈 480 등)로부터 수신되거나 상기 프로세서 420 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 상기 메모리 430는, 예를 들면, 커널 431, 미들웨어 432, 어플리케이션 프로그래밍 인터페이스(API: application programming interface) 433 또는 어플리케이션 434 등의 프로그래밍 모듈들을 포함할 수 있다. 전술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
상기 커널 431은 나머지 다른 프로그래밍 모듈들, 예를 들면, 상기 미들웨어 432, 상기 API 433 또는 상기 어플리케이션 434에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 상기 버스 410, 상기 프로세서 420 또는 상기 메모리 430 등)을 제어 또는 관리할 수 있다. 또한, 상기 커널 431은 상기 미들웨어 432, 상기 API 433 또는 상기 어플리케이션 434에서 상기 전자 장치 401의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
상기 미들웨어 432는 상기 API 433 또는 상기 어플리케이션 434이 상기 커널 431과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 상기 미들웨어 432는 상기 어플리케이션 434로부터 수신된 작업 요청들과 관련하여, 예를 들면, 상기 어플리케이션 434 중 적어도 하나의 어플리케이션에 상기 전자 장치 401의 시스템 리소스(예: 상기 버스 410, 상기 프로세서 420 또는 상기 메모리 430 등)를 사용할 수 있는 우선 순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 제어(예: 스케쥴링 또는 로드 밸런싱)을 수행할 수 있다.
상기 API 433는 상기 어플리케이션 434이 상기 커널 431 또는 상기 미들웨어 432에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
다양한 실시 예에 따르면, 상기 어플리케이션 434는 SMS/MMS 어플리케이션, 이메일 어플리케이션, 달력 어플리케이션, 알람 어플리케이션, 건강 관리(health care) 어플리케이션(예: 운동량 또는 혈당 등을 측정하는 어플리케이션) 또는 환경 정보 어플리케이션(예: 기압, 습도 또는 온도 정보 등을 제공하는 어플리케이션) 등을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 어플리케이션 434은 상기 전자 장치 401와 외부 전자 장치 470(예: HMT(head-mounted theater) 프레임) 사이의 정보 교환과 관련된 어플리케이션일 수 있다. 상기 정보 교환과 관련된 어플리케이션은, 예를 들어, 상기 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 어플리케이션, 또는 상기 외부 전자 장치를 관리하기 위한 장치 관리(device management) 어플리케이션을 포함할 수 있다.
예를 들면, 상기 알림 전달 어플리케이션은 상기 전자 장치 401 의 다른 어플리케이션(예: SMS/MMS 어플리케이션, 이메일 어플리케이션, 건강 관리 어플리케이션 또는 환경 정보 어플리케이션 등)에서 발생한 알림 정보를 외부 전자 장치 470(예: HMT 프레임)로 전달하는 기능을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 알림 전달 어플리케이션은, 예를 들면, 외부 전자 장치 470(예: HMT 프레임)로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 상기 장치 관리 어플리케이션은, 예를 들면, 상기 전자 장치 401와 통신하는 외부 전자 장치 470(예: HMT 프레임)의 적어도 일부에 대한 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴온/턴오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 상기 외부 전자 장치에서 동작하는 어플리케이션 또는 상기 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스)를 관리(예: 설치, 삭제 또는 업데이트)할 수 있다.
다양한 실시 예에 따르면, 상기 어플리케이션 434은 상기 외부 전자 장치 470 (예: HMT 프레임)의 속성(예: 전자 장치의 종류)에 따라 지정된 어플리케이션을 포함할 수 있다. 예를 들어, 외부 전자 장치가 MP3 플레이어인 경우, 상기 어플리케이션 434은 음악 재생과 관련된 어플리케이션을 포함할 수 있다. 유사하게, 외부 전자 장치가 모바일 의료기기인 경우, 상기 어플리케이션 434은 건강 관리와 관련된 어플리케이션을 포함할 수 있다. 한 실시 예에 따르면, 상기 어플리케이션 434은 전자 장치 401에 지정된 어플리케이션 또는 외부 전자 장치 470 (예: 서버 406 또는 HMT 프레임)로부터 수신된 어플리케이션 중 적어도 하나를 포함할 수 있다.
상기 입출력 인터페이스 440은, 입출력 장치(예: 센서, 키보드 또는 터치 스크린)를 통하여 사용자로부터 입력된 명령 또는 데이터를, 예를 들면, 상기 버스 410를 통해 상기 프로세서 420, 상기 메모리 430, 상기 통신 인터페이스 460, 또는 상기 보정 모듈 480에 전달할 수 있다. 예를 들면, 상기 입출력 인터페이스 440은 터치 스크린을 통하여 입력된 사용자의 터치에 대한 데이터를 상기 프로세서 420로 제공할 수 있다. 또한, 상기 입출력 인터페이스 440은, 예를 들면, 상기 버스 410을 통해 상기 프로세서 420, 상기 메모리 430, 상기 통신 인터페이스 460, 또는 상기 보정 모듈 480로부터 수신된 명령 또는 데이터를 상기 입출력 장치(예: 스피커 또는 디스플레이)를 통하여 출력할 수 있다. 예를 들면, 상기 입출력 인터페이스 440은 상기 프로세서 420를 통하여 처리된 음성 데이터를 스피커를 통하여 사용자에게 출력할 수 있다.
상기 디스플레이 450은 사용자에게 각종 정보(예: 멀티미디어 데이터 또는 텍스트 데이터 등)을 표시할 수 있다.
상기 통신 인터페이스 460은 상기 전자 장치 401와 외부 장치(예: HMT 프레임) 470 간의 통신을 연결할 수 있다. 예를 들면, 상기 통신 인터페이스 460은 상기 외부 장치와 통신할 수 있다. 상기 무선 통신은, 예를 들어, Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication), GPS(global positioning system) 또는 cellular 통신(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등) 중 적어도 하나를 포함할 수 있다. 상기 유선 통신은, 예를 들어, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard 232) 또는 POTS(plain old telephone service) 중 적어도 하나를 포함할 수 있다.
상기 외부 장치 470은 상기 전자 장치 401와 연동하여 HMT의 기능을 수행할 수 있다. 상기 외부 장치 470의 통신부는 상기 전자 장치 401의 상기 통신 인터페이스 460을 통하여 전기적으로 연결될 수 있다. 상기 외부 장치 470에서 수집하는 데이터는 통신 모듈을 통하여 상기 전자 장치 401에 전송될 수 있으며, 상기 전자 장치 401에서 상기 통신 모듈을 통하여 상기 외부 장치 470으로 전달될 수 있다. 상기 외부 장치 470은 상기 전자 장치 401과 인터페이스를 송수신할 수 있으며, 상기 외부 장치 470과 상기 전자 장치 401이 결합할 경우, 상기 외부 장치 470의 렌즈부는 상기 전자 장치 401의 상기 디스플레이 405의 앞에 위치되어, 상기 디스플레이 405에서 제공하는 영상을 사용자에게 제공할 수 있다.
상기 보정 모듈 480은, 다른 구성요소들(예: 상기 프로세서 420, 상기 메모리 430, 상기 입출력 인터페이스 440, 또는 상기 통신 인터페이스 460 등)로부터 획득된 정보 중 적어도 일부를 처리하고, 이를 다양한 방법으로 사용자에게 제공 할 수 있다. 예를 들면, 상기 보정 모듈 480은 상기 프로세서 420를 통해 수집한 센서 정보나 상기 외부 장치 470에서 수집한 센서 정보를 처리할 수 있다. 상기 보정 모듈은 상기 외부 장치 470에 포함될 수 있고, 상기 전자 장치 401에 포함될 수 있다. 후술하는 도 5를 통하여 상기 보정 모듈 480에 대한 추가적인 정보가 제공된다.
도 5는 본 발명의 다양한 실시 예에 따른, 전자 장치의 보정 모듈의 블록도를 도시한다. 상기 도 5를 참조하면, 상기 보정 모듈 500은 착용 감지 모듈 510, 중심 위치 결정 모듈 520, 센서 정보 관리 모듈 530, 연동 제어 모듈 540을 포함할 수 있다.
상기 착용 감지 모듈 510은 센서 정보 중 일부를 사용자가 전자 장치를 착용함을 판단하는데 사용할 수 있다. 예를 들어, 특정 위치의 근접 센서 입력값을 통하여 사용자의 착용 여부를 판별할 수 있다.
상기 중심 위치 결정 모듈 520은 장착한 위치의 중심을 계산하는 역할을 수행할 수 있다. 예를 들어, 사용자가 전자 장치를 머리에 착용할 경우, HMT(head-mounted theater) 프레임의 센서 값을 결합하여, 머리 둘레 등을 계산하고, 이를 통하여 사용자가 착용한 부위인 머리의 중심위치를 판별할 수 있다.
상기 센서 정보 관리 모듈 530은 전자기기나 HMT 프레임의 센서로부터 수집하는 데이터와 착용한 부위의 중심 위치 등의 정보를 수신하고 관리하는 모듈이다. 예를 들어, 센서 정보 관리 모듈 530은 착용한 중심 위치에 따라 별도의 센서 중심 기준값을 변경하거나, 기준값을 보정하는 역할을 수행할 수 있다. 또 다른 예로, 착용 중심위치와 별도로 측정한 센서 기준값의 정보를 수집하고, 다른 모듈에서 요청할 경우 수집된 값을 제공할 수 있다.
상기 연동 제어 모듈 540은 상기 센서 정보 관리 모듈 530에서 수집한 내용으로 센서 값의 보정이 필요한 경우, 수집시 반영할 수 있도록 제어하는 역할을 수행할 수 있다.
본 발명에서는 착용 가능한 전자 장치를 착용한 사용자의 신체의 일부를 중심으로하여 센서의 정보를 획득하는 방법 및 장치를 설명한다.
도 6은 본 발명의 다양한 실시 예에 따른 HMT(head-mounted theater)의 예를 나타낸다.
상기 도 6을 참고하면, 상기 HMT 600는 단말 610과 프레임 620을 결합한 형태일 수 있다.
최근에는 상기 도 6과 같이 상기 단말 610을 독립적으로 사용함과 동시에 착용가능한 형태의 단말을 제공한다. 일 실시 예로, 상기 단말 610을 프레임 620에 거치하므로 상기 프레임에 연결된 단말의 디스플레이를 이용하여 HMD(head-mounted device)와 같은 효과를 낼 수 있다. 상기 HMT는 머리에 착용하는 단말의 예이지만, 이와 유사한 방법으로 머리뿐만 아니라, 손목, 반지, 신발 등에도 다른 형태로도 착용이 가능하다.
상기 도 6을 참고하면, 상기 프레임 660의 측면에 상기 HMT 600를 제어하기 위한 제어 장치 630을 포함할 수 있다. 상기 제어 장치 630은 터치 패널, 버튼, 휠 키 또는 터치패드 중 적어도 하나를 포함할 수 있다.
상기 터치 패널은 사용자의 터치 입력을 수신할 수 있다. 상기 터치 입력은 사용자에 의한 직접 터치 및 호버링(hovering) 입력을 포함할 수 있다. 상기 단말 610과 프레임 620은 USB 등의 인터페이스를 이용하여 연결되어 있고, 상기 단말 610은 상기 터치 패널이 수신한 터치 입력을 수신할 수 있다. 상기 단말 610은 상기 터치 패널에서 수신한 터치 입력에 응답하여 상기 터치 입력에 대응하는 기능을 제어할 수 있다. 본 발명의 실시 예에 따르면, 상기 단말은 수신한 상기 터치 입력에 대응하여 음량을 조절하거나 영상을 재생할 수 있다.
도 7은 본 발명의 다양한 실시 예에 따른 착용 가능한 기기에서 센서의 센싱(sensing) 기준점의 변화를 나타낸다.
상기 도 7의 a를 참고하면, 단말을 착용한 사용자에게 동작이 발생하였을 경우, 예를 들어, 사용자가 상기 HMT를 착용한 상태에서, 710의 방향에서 720 방향으로 회전할 경우, 실제 단말의 움직임 또한 710에서 720으로 이동한다. 그렇지만, 종래의 기술에 따를 경우 실제 움직임과, 단말의 중심을 기준으로 한 움직임에 차이가 존재하게 된다.
상기 도 7의 b는 상기 단말 710의 중심을 기준으로 한 움직임을 나타낸다. 상기 단말 710의 중심을 기준으로 움직임을 측정할 경우, 사용자가 710에서 720으로 회전할 경우, 실제 단말 710의 움직임은 710에서 720으로 이동하지만, 상기 단말 710은 각도의 변화만을 인식하게 되어, 상기 단말은 710에서 730으로 회전하게 되고 위치의 변화는 고려하지 않게 된다. 따라서 상기 단말을 중심으로 센서의 기준점을 보정할 경우, 단말은 730 지점에서의 방향을 통해 화면을 인식하게 된다. 그렇지만 상술한 바와 같이 사용자의 움직임에 따라 실제 단말의 위치는 720으로 변경되므로, 상기 730과 720의 화면에서 차이가 존재하게 된다.
이에 따라 사용자는 720 지점에서 인식해야 할 시야를 730 지점에서 인식한 것과 같은 결과가 발생한다. 따라서 본 발명에서는 상기 센서의 중심을 단말이 아닌 착용 가능한 장치를 착용한 사용자의 중심을 기준으로 하기 위한 센서의 중심점 보정을 실시한다. 이에 따라, 본 발명에서는 상기 단말 중심의 기준점(740)을 사용자 중심의 기준점(750)으로 위치시키는 과정을 수행한다.
도 8은 본 발명의 다양한 실시 예에 따르는 단말과 프레임을 결합한 전자 장치의 동작 과정을 나타낸다.
상기 도 8을 참고하면, 810 단계에서, 상기 전자 장치는 착용을 감지한다. 예를 들어, 상기 전자 장치는 근접 센서 등을 통해 사용자에게 착용 되었음을 감지할 수 있다. 만일, 상기 전자 장치가 착용을 감지했을 경우 830 단계로 진행하여 중심점 보정 과정 단계가 진행되고, 만일, 상기 전자 장치가 착용을 감지하지 못했을 경우 820 단계로 진행하여, 상기 전자 장치는 단말을 중심으로 센서의 기준점을 보정한다.
830 단계에서, 상기 전자 장치는 신체 정보를 수집한다. 상기 전자 장치는 예를 들어, 상기 사용자의 신체와 상기 전자 장치를 연결하는 연결 부위를 통해 신체의 둘레를 측정하거나, 미리 저장된 사용자 정보를 통해 사용자의 신체 정보를 확인할 수 있다.
840 단계에서, 상기 전자 장치는 신체의 중심점을 계산한다. 상기 전자 장치는 수집된 신체 정보의 평균값, 중앙값 등을 통해 신체의 중심점을 계산할 수 있다. 또는, 상기 전자 장치는 미리 저장된 사용자의 정보를 통해 사용자의 중심점 값을 확인할 수 있다.
850 단계에서, 상기 전자 장치는 상기 계산된 사용자의 중심점으로 기준점을 변경하고, 860 단계에서, 상기 전자 장치는 변경된 기준점을 중심으로 화면을 표시한다. 상기 사용자를 중심으로 한 기준점은, 단말을 중심으로 한 기준점과 기준 위치가 달라지게 됨에 따라, 상기 단말이 표시하는 화면에 차이가 발생하게 된다.
상술한 과정들은 만일, 전자 장치의 착용이 해제될 경우 사용자의 중심의 센싱 기준점을 다시 단말의 중심의 센싱 기준점으로 보정하는 과정이 포함될 수 있다.
도 9는 본 발명의 다양한 실시 예에 따른 단말 중심의 센싱 기준점과, 사용자 중심의 센싱 기준점에 따른 화면 차이를 나타낸다.
도 9의 a는 단말을 중심으로 한 보정에 따른 실제 보여지는 화면 예를 나타낸다. 도 9의 a에 의하면, 초기에 상기 단말이 910 지점에 위치한다고 가정하고, 임의의 각만큼 회전하고, z축 및 x축 방향으로 (1,1)만큼 이동한다고 가정한다. 상기 단말을 중심으로 회전할 경우, 상기 단말은 회전에 의해 920과 같이 방향이 전환되지만, 위치는 변경되지 않는다. 방향이 변경된 상태에서 단말의 위치가 (1,1)만큼 변경되면, 상기 단말은 930 지점에 위치하게 된다. 이 경우 상기 단말을 통해 보여지는 화면은 940과 같다.
도 9의 b는 사용자를 중심으로 한 보정에 따른 실제 보여지는 화면 예를 나타낸다. 도 9의 a에 의하면, 초기 단말의 위치가 950에 있다고 가정하고, 임의의 각만큼 회전하고, z축 및 x축 방향으로 (1,1)만큼 이동한다고 가정한다. 사용자를 중심으로 임의의 각만큼 회전할 경우, 상기 단말은 방향이 전환될 뿐만 아니라 960 지점과 같이 위치도 변경된다. 이 때, 상기 단말이 z축 및 x축 방향으로 (1,1)만큼 이동할 경우, 상기 단말은 970 지점에 위치하게 된다. 이 경우 상기 단말을 통해 보여지는 화면은 980과 같다.
상기 도 9의 a와 도 9의 b는 회전 각도와 방향, 그리고 이동 거리가 동일하지만, 사용자를 중심으로 할 경우 회전시 단말의 방향뿐만 아니라 단말의 위치 또한 변경되므로, 도 9의 a와 도 9의 b에서 단말의 최종 위치가 달라지게 된다. 따라서, 도 9의 a와 도 9의 b의 실제 보여지는 화면에서 차이가 존재하게 된다.
도 10은 본 발명의 다양한 실시 예에 따른 사용자 중심 기반 센싱 방법을 도시한다.
상기 도 10을 참고하면, 1010 단계에서, 장착된 부위의 중심점을 결정한다. 상기 단말은 장착된 부위의 둘레를 측정하고, 측정된 둘레의 평균값, 중앙값 등을 이용하여 장착된 부위의 중심점을 계산할 수 있다. 또는, 상기 전자 장치는 미리 저장된 정보를 통해 사용자의 중심점 값을 확인할 수 있다. 상기 장착된 부위는 사람의 신체 뿐만이 아니라, 특정 기구물에 장착된 곳의 부위를 포함할 수 있다.
1020 단계에서, 상기 전자 장치는 장착된 부위의 중심점을 기준으로 센서로부터 정보를 획득한다. 상기 전자 장치는, 상기 전자 장치는 사용자의 중심점으로 기준점을 변경하고, 변경된 기준점을 중심으로 제어를 수행한다. 상기 사용자를 중심으로 한 기준점은, 전자 장치를 중심으로 한 기준점과 기준 위치가 달라지게 됨에 따라, 상기 전자 장치 제어에 차이가 발생하게 된다.
상기 기준점을 보정하는 과정은, 상기 전자 장치가 사용자 중심점을 확인하고, 현재의 중심점과 사용자 중심점의 차이를 계산한 후, 상기 차이만큼 변경함에 따라 수행된다. 상기 전자 장치는 변경된 센서의 기준점으로, 상기 기준점으로 센싱을 수행할 수 있고, 센싱 후 결과 값을 상기 기준점에 대응하여 보정할 수도 있다. 구체적으로, 상기 전자 장치는 사용자를 중심으로 한 기준점을 새로운 센싱의 기준점으로 설정하고, 설정된 센싱의 기준점을 중심으로 센싱을 수행하여 정보를 획득할 수 있다. 또한, 상기 전자 장치는 센싱을 수행한 후, 사용자를 중심으로 한 기준점과 센서의 중심점의 차이만큼을 센싱을 수행한 결과 값에 적용하여 센서 정보를 획득할 수 있다.
상술한 과정들은 만일, 상기 전자 장치의 착용이 해제될 경우 사용자의 중심의 센싱 기준점을 다시 전자 장치 중심점의 센싱 기준점으로 보정하는 과정이 포함될 수 있다.
도 11은 본 발명의 다양한 실시 예에 따른 일반 모드와 HMM 모드(head-mounted mode)의 화면 표시의 예를 도시한다.
상기 도 11의 a는 일반 모드 (normal mode)에서의 단말의 화면 표시를 나타내고, 상기 도 11의 b는 HMM 모드 또는 VR(Virtual Reality) 모드에서의 화면 표시를 나타낸다.
HMM 또는 VR 모드는, 예를 들면, 단말이 HMT(head-mounted theater)의 프레임에 장착되어 동작할 경우 일반 모드에서 상기 HMM 또는 VR모드로 전환될 수 있다. 상기 HMM 또는 VR모드는 하나의 영상이 두 개의 영상으로 분리되어 표현될 수 있다. 일 실시 예에 따르면 HMM 또는 VR모드는 프레임에 포함된 렌즈에 의해 영상이 왜곡되는 현상이 발생할 수 있기 때문에, 상기 단말은 왜곡되지 않은 영상을 사용자에게 제공하기 위하여 평면의 이미지를 렌즈의 특성에 따라 역 왜곡을 할 수 있다.
본 발명의 실시 예에 따른 사용자 중심을 기준으로 한 센싱은 상기 HMM 또는 VR 모드를 제공하는 단말에 적용되어 사용자에게 서비스를 제공할 수 있다. 이에 따라 상기 단말은 이미지를 표시할 경우 상기 사용자 중심을 기준으로 한 센싱 기준점을 중심으로 이미지를 표시할 수 있다.
도 12는 본 발명의 다양한 실시 예에 따른 see-through 모드의 예를 도시한다.
다양한 실시 예에 따르면 상기 HMT는 단말의 후면 카메라를 이용하여 see-through 모드를 제공할 수 있다. 상기 see-through 모드는 상기 단말의 후면 카메라를 통해 전면의 화면을 표시하는 모드를 의미한다.
한 실시 예로 See-through 모드를 제공하는 방법은 VR 모드에서 See-through 모드 전환 버튼을 누르면 단말의 후면 카메라가 실행될 수 있다. 이때, 후면 카메라의 Preview 화면을 기존 VR 화면의 일부 영역에 PIP (Picture-in-Picture) 형태로 보여줄 수도 있고, VR 화면을 Background로 전환하고 카메라 Preview 화면을 전체 영역으로 확장하여 보여줄 수도 있다. 이를 통해 사용자는 외부 가상 환경을 체험하는 동시에 필요에 따라 주변 환경을 카메라 영상을 통해 확인할 수 있다.
본 발명의 실시 예에 따른 사용자 중심을 기준으로 한 센싱은 상기 see-through 모드 또는 PIP 모드를 제공하는 단말에 적용되어 사용자에게 서비스를 제공할 수 있다. 이에 따라 상기 단말은 이미지를 표시할 경우 상기 사용자 중심을 기준으로 한 센싱 기준점을 중심으로 이미지를 표시할 수 있다.
도 13은 본 발명의 다양한 실시 예에 따른 착용 가능한 장치 간의 연동의 예를 도시한다.
본 발명의 실시 예에 따르면, 사용자를 중심으로 센싱을 수행하는 복수의 착용 가능한 장치 간의 연동 제어를 할 수 있다. 상기 도 13은 HMT(1310)가 목에 착용 가능한 단말(1320)과 연동하는 경우의 예를 나타낸다. 본 발명의 실시 예에 따라, 상기 HMT(1310)와 상기 목에 착용 가능한 단말(1320) 모두 사용자의 신체를 중심을 기준으로 센싱이 이루어질 경우, 상기 HMT(1310)는 머리의 중심, 상기 단말(1320)은 목의 중심에 센싱의 기준점이 위치하게 된다. 상기 HMT와 상기 단말 각각의 중심을 기준으로 센싱하는 경우와, 상기 머리의 중심, 상기 목의 중심을 기준으로 센싱하는 경우를 비교할 경우, 신체를 중심으로 센싱하는 경우가 실제 사용자의 움직임에 근접한 결과 값을 얻을 수 있다. 본 발명의 실시 예에서는 두 개의 착용 가능한 장치의 연동의 예를 들었지만, 상기 착용 가능한 장치는 두 개 이상일 수 있다.
도 14는 본 발명의 다양한 실시 예에 따른 착용 가능한 장치의 활용 예를 도시한다.
상기 도 14를 참고하면, 신체를 중심으로 센싱하는 장치 1420는 러닝머신형 장치 1410와 연동 제어를 수행할 수 있다. 상기 신체를 중심으로 센싱하는 장치 1420는 상기 러닝머신형 장치 1410로부터 이동 정보를 획득하여 사용자에게 정보를 제공할 수 있다. 예를 들어, 사용자가 제자리에서 움직일 경우, 실제 사용자의 위치에는 변화는 없지만, 신체를 중심으로 센싱하는 장치 1420는 상기 러닝머신의 동작(예를 들어 러닝 머신의 속도 등) 정보를 이용하여 사용자의 움직임을 확인하고 사용자에게 정보를 제공할 수 있다.
도 15는 본 발명의 다양한 실시 예에 따른 전자 장치 1501의 블록도 1500을 도시한다. 상기 전자 장치 1501은, 예를 들면, 도 4에 도시된 전자 장치 401의 전체 또는 일부를 구성할 수 있다.
도 15를 참조하면, 상기 전자 장치 1501은 하나 이상의 어플리케이션 프로세서(AP: application processor) 1510, 통신 모듈 1520, SIM(subscriber identification module) 카드 1524, 메모리 1530, 센서 모듈 1540, 입력 장치 1550, 디스플레이 1560, 인터페이스 1570, 오디오 모듈 1580, 카메라 모듈 1591, 전력 관리 모듈 1595, 배터리 1596, 인디케이터 1597 및 모터 1598을 포함할 수 있다.
상기 AP 1510는 운영체제 또는 응용 프로그램을 구동하여 상기 AP 1510에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. 상기 AP 1510은, 예를 들면, SoC(system on chip)로 구현될 수 있다. 한 실시예에 따르면, 상기 AP 1510는 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
상기 통신 모듈 1520은 상기 전자 장치 1501(예: 상기 전자 장치 401)과 네트워크를 통해 연결된 다른 전자 장치들(예: 전자 장치 404 또는 서버 406) 간의 통신에서 데이터 송수신을 수행할 수 있다. 한 실시예에 따르면, 상기 통신 모듈 1520은 셀룰러 모듈 1521, Wifi 모듈 1523, BT 모듈 1525, GPS 모듈 1527, NFC 모듈 1528 및 RF(radio frequency) 모듈 1529를 포함할 수 있다.
상기 셀룰러 모듈 1521은 통신망(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등)을 통해서 음성 통화, 영상 통화, 문자 서비스 또는 인터넷 서비스 등을 제공할 수 있다. 또한, 상기 셀룰러 모듈 1521은, 예를 들면, 가입자 식별 모듈(예: SIM 카드 1524)을 이용하여 통신 네트워크 내에서 전자 장치의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 상기 셀룰러 모듈 1521은 상기 AP 1510가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 예를 들면, 상기 셀룰러 모듈 1521은 멀티 미디어 제어 기능의 적어도 일부를 수행할 수 있다.
한 실시예에 따르면, 상기 셀룰러 모듈 1521은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다. 또한, 상기 셀룰러 모듈 1521은, 예를 들면, SoC로 구현될 수 있다. 도 15에서는 상기 셀룰러 모듈 1521(예: 커뮤니케이션 프로세서), 상기 메모리 1530 또는 상기 전력 관리 모듈 1595 등의 구성요소들이 상기 AP 1510와 별개의 구성요소로 도시되어 있으나, 한 실시예에 따르면, 상기 AP 1510가 전술한 구성요소들의 적어도 일부(예: 셀룰러 모듈 1521)를 포함하도록 구현될 수 있다.
한 실시예에 따르면, 상기 AP 1510 또는 상기 셀룰러 모듈 1521(예: 커뮤니케이션 프로세서)은 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 상기 AP 1510 또는 상기 셀룰러 모듈 1521은 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
상기 Wifi 모듈 1523, 상기 BT 모듈 1525, 상기 GPS 모듈 1527 또는 상기 NFC 모듈 1528 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 도 15에서는 셀룰러 모듈 1521, Wifi 모듈 1523, BT 모듈 1525, GPS 모듈 1527 또는 NFC 모듈 1528이 각각 별개의 블록으로 도시되었으나, 한 실시예에 따르면, 셀룰러 모듈 1521, Wifi 모듈 1523, BT 모듈 1525, GPS 모듈 1527 또는 NFC 모듈 1528 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. 예를 들면, 셀룰러 모듈 1521, Wifi 모듈 1523, BT 모듈 1525, GPS 모듈 1527 또는 NFC 모듈 1528 각각에 대응하는 프로세서들 중 적어도 일부(예: 셀룰러 모듈 1521에 대응하는 커뮤니케이션 프로세서 및 Wifi 모듈 1523에 대응하는 Wifi 프로세서)는 하나의 SoC로 구현될 수 있다.
상기 RF 모듈 1529는 데이터의 송수신, 예를 들면, RF 신호의 송수신을 할 수 있다. 상기 RF 모듈 1529은, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, 상기 RF 모듈 1529는 무선 통신에서 자유 공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다. 도 15에서는 셀룰러 모듈 1521, Wifi 모듈 1523, BT 모듈 1525, GPS 모듈 1527 및 NFC 모듈 1528이 하나의 RF 모듈 1529을 서로 공유하는 것으로 도시되어 있으나, 한 실시예에 따르면, 셀룰러 모듈 1521, Wifi 모듈 1523, BT 모듈 1525, GPS 모듈 1527 또는 NFC 모듈 1528 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호의 송수신을 수행할 수 있다.
상기 SIM 카드 1524는 가입자 식별 모듈을 포함하는 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. 상기 SIM 카드 1524는 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
상기 메모리 1530(예: 상기 메모리 130)은 내장 메모리 1532 또는 외장 메모리 1534를 포함할 수 있다. 상기 내장 메모리 1532는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다.
한 실시예에 따르면, 상기 내장 메모리 1532는 Solid State Drive (SSD)일 수 있다. 상기 외장 메모리 1534는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다. 상기 외장 메모리 1534는 다양한 인터페이스를 통하여 상기 전자 장치 1501과 기능적으로 연결될 수 있다. 한 실시예에 따르면, 상기 전자 장치 1501는 하드 드라이브와 같은 저장 장치(또는 저장 매체)를 더 포함할 수 있다.
상기 센서 모듈 1540은 물리량을 계측하거나 전자 장치 1501의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 상기 센서 모듈 1540은, 예를 들면, 제스처 센서 1540A, 자이로 센서 1540B, 기압 센서 1540C, 마그네틱 센서 1540D, 가속도 센서 1540E, 그립 센서 1540F, 근접 센서 1540G, color 센서 1540H(예: RGB(red, green, blue) 센서), 생체 센서 1540I, 온/습도 센서 1540J, 조도 센서 1540K 또는 UV(ultra violet) 센서 1540M 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 센서 모듈 1540은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), IR(infra red) 센서(미도시), 홍채 센서(미도시) 또는 지문 센서(미도시) 등을 포함할 수 있다. 상기 센서 모듈 1540은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 입력 장치 1550은 터치 패널(touch panel) 1552, (디지털) 펜 센서(pen sensor) 1554, 키(key) 1556 또는 초음파(ultrasonic) 입력 장치 1558을 포함할 수 있다. 상기 터치 패널 1552는, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 또한, 상기 터치 패널 1552는 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 인식이 가능하다. 상기 터치 패널 1552은 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 상기 터치 패널 1552는 사용자에게 촉각 반응을 제공할 수 있다.
상기 (디지털) 펜 센서 1554는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 상기 키 1556는, 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 상기 초음파(ultrasonic) 입력 장치 1558는 초음파 신호를 발생하는 입력 도구를 통해, 전자 장치 1501에서 마이크(예: 마이크 1588)로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 한 실시예에 따르면, 상기 전자 장치 1501는 상기 통신 모듈 1520를 이용하여 이와 연결된 외부 장치(예: 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
상기 디스플레이 1560은 패널 1562, 홀로그램 장치 1564 또는 프로젝터 1566을 포함할 수 있다. 상기 패널 1562은, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 상기 패널 1562은, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 상기 패널 1562은 상기 터치 패널 1552과 하나의 모듈로 구성될 수도 있다. 상기 홀로그램 장치 1564는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 상기 프로젝터 1566은 스크린에 빛을 투사하여 영상을 표시할 수 있다. 상기 스크린은, 예를 들면, 상기 전자 장치 1501의 내부 또는 외부에 위치할 수 있다. 한 실시예에 따르면, 상기 디스플레이 1560은 상기 패널 1562, 상기 홀로그램 장치 1564, 또는 프로젝터 1566를 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 인터페이스 1570는, 예를 들면, HDMI(high-definition multimedia interface) 1572, USB(universal serial bus) 1574, 광 인터페이스(optical interface) 1576 또는 D-sub(D-subminiature) 1578를 포함할 수 있다. 상기 인터페이스 1570는, 예를 들면, 도 1에 도시된 통신 인터페이스 160에 포함될 수 있다. 추가적으로 또는 대체적으로, 상기 인터페이스 1570는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure Digital) 카드/MMC(multi-media card) 인터페이스 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
상기 오디오 모듈 1580은 소리(sound)와 전기신호를 쌍방향으로 변환시킬 수 있다. 상기 오디오 모듈 1580은, 예를 들면, 스피커 1582, 리시버 1584, 이어폰 1586 또는 마이크 1588 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
상기 카메라 모듈 1591은 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈(미도시), ISP(image signal processor, 미도시) 또는 플래쉬 (flash, 미도시)(예: LED 또는 xenon lamp)를 포함할 수 있다.
상기 전력 관리 모듈 1595은 상기 전자 장치 1501의 전력을 관리할 수 있다. 도시하지는 않았으나, 상기 전력 관리 모듈 1595은, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 또는 배터리 게이지(battery or fuel gauge)를 포함할 수 있다. 상기 PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다.
충전 방식은 유선과 무선으로 구분될 수 있다. 상기 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시예에 따르면, 상기 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로 또는 정류기 등의 회로가 추가될 수 있다.
상기 배터리 게이지는, 예를 들면, 상기 배터리 1596의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 상기 배터리 1596는 전기를 저장 또는 생성할 수 있고, 그 저장 또는 생성된 전기를 이용하여 상기 전자 장치 1501에 전원을 공급할 수 있다. 상기 배터리 1596는, 예를 들면, 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다.
상기 인디케이터 1597는 상기 전자 장치 1501 혹은 그 일부(예: 상기 AP 1510)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 상기 모터 1598는 전기적 신호를 기계적 진동으로 변환할 수 있다. 도시되지는 않았으나, 상기 전자 장치 1501는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 상기 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
도 16은 본 발명의 다양한 실시 예에 따른 복수의 전자 장치들 사이의 통신 프로토콜을 도시한다.
도 16을 참조하면, 예를 들어, 상기 통신 프로토콜 1600은, 장치 발견 프로토콜(device discovery protocol) 1651, 기능 교환 프로토콜(capability exchange protocol) 1653, 네트워크 프로토콜(network protocol) 1655 및 어플리케이션 프로토콜(application protocol) 1657 등을 포함할 수 있다.
한 실시 예에 따르면, 상기 장치 발견 프로토콜 1651은 전자 장치들(예: 전자 장치 1610 또는 전자 장치 1630)이 자신과 통신 가능한 외부 전자 장치를 감지하거나 감지된 외부 전자 장치와 연결하기 위한 프로토콜일 수 있다. 예를 들어, 전자 장치 1610(예: 전자 장치 401)은, 상기 장치 발견 프로토콜 1651을 이용하여, 상기 전자 장치 1610에서 사용 가능한 통신 방법(예: Wifi, BT 또는 USB 등)을 통해, 상기 전자 장치 1610와 통신 가능한 기기(device)로, 전자 장치 1630(예: 전자 장치 104)를 감지할 수 있다. 상기 전자 장치 1610는, 상기 전자 장치 1630과의 통신 연결을 위해, 상기 장치 발견 프로토콜 1651을 이용하여, 감지된 전자 장치 1630에 대한 식별 정보를 획득하여 저장할 수 있다. 상기 전자 장치 1610는, 예를 들면, 적어도 상기 식별 정보에 기반하여, 상기 전자 장치 1630와의 통신 연결을 개설할 수 있다.
어떤 실시 예에 따르면, 상기 장치 발견 프로토콜 1651은 복수의 전자 장치들 사이에서 상호 인증을 하기 위한 프로토콜일 수 있다. 예를 들어, 전자 장치 1610는 적어도 전자 장치 1630와 연결을 위한 통신 정보(예: MAC(media access control) address, UUID(universally unique identifier), SSID(subsystem identification), IP(internet protocol) address)에 기반하여, 상기 전자 장치 1610와 상기 전자 장치 1630 간의 인증을 수행할 수 있다.
한 실시 예에 따르면, 상기 기능 교환 프로토콜 1653은 전자 장치 1610 또는 전자 장치 1630 중 적어도 하나에서 지원 가능한 서비스의 기능과 관련된 정보를 교환하기 위한 프로토콜일 수 있다. 예를 들어, 전자 장치 1610 및 전자 장치 1630은 상기 기능 교환 프로토콜 1653을 통하여, 각각이 현재 제공하고 있는 서비스의 기능과 관련된 정보를 서로 교환할 수 있다. 교환 가능한 정보는 전자 장치 1610 및 전자 장치 1630에서 지원 가능한 복수의 서비스들 중에서 특정 서비스를 가리키는 식별 정보를 포함할 수 있다. 예를 들어, 전자 장치 1610는 상기 기능 교환 프로토콜 1653을 통해 전자 장치 1630로부터 상기 전자 장치 1630가 제공하는 특정 서비스의 식별 정보를 수신할 수 있다. 이 경우, 전자 장치 1610는 상기 수신된 식별 정보에 기반하여, 상기 전자 장치 1610이 상기 특정 서비스를 지원할 수 있는지 여부를 판단할 수 있다.
한 실시 예에 따르면, 상기 네트워크 프로토콜 1655은 통신이 가능하도록 연결된 전자 장치들(예: 전자 장치 1610, 전자 장치 1630) 간에, 예컨대, 서비스를 연동하여 제공하기 위하여 송수신 되는, 데이터 흐름을 제어하기 위한 프로토콜일 수 있다. 예를 들어, 전자 장치 1610 또는 전자 장치 1630 중 적어도 하나는 상기 네트워크 프로토콜 1655을 이용하여, 오류 제어, 또는 데이터 품질 제어 등을 수행할 수 있다. 추가적으로 또는 대체적으로, 상기 네트워크 프로토콜 1655은 전자 장치 1610와 전자 장치 1630 사이에서 송수신되는 데이터의 전송 포맷을 결정할 수 있다. 또한, 전자 장치 1610 또는 전자 장치 1630 중 적어도 하나는 상기 네트워크 프로토콜 1655를 이용하여 상호간의 데이터 교환을 위한 적어도 세션(session)을 관리(예: 세션 연결 또는 세션 종료)할 수 있다.
한 실시 예에 따르면, 상기 어플리케이션 프로토콜 1657은 외부 전자 장치로 제공되는 서비스와 관련된 데이터를 교환하기 위한, 절차 또는 정보를 제공하기 위한 프로토콜일 수 있다. 예를 들어, 전자 장치 1610(예: 전자 장치 501)은 상기 어플리케이션 프로토콜 1657을 통해 전자 장치 1630(예: 전자 장치 504 또는 서버 506)로 서비스를 제공할 수 있다.
한 실시 예에 따르면, 상기 통신 프로토콜 1600은 표준 통신 프로토콜, 개인 또는 단체에서 지정한 통신 프로토콜(예: 통신 장치 제조 업체 또는 네트워크 공급 업체 등에서 자체적으로 지정한 통신 프로토콜) 또는 이들의 조합을 포함할 수 있다.
본 발명의 다양한 실시 예에 사용된 용어 “모듈”은, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. “모듈”은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. “모듈”은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. “모듈”은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. “모듈”은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 발명의 다양한 실시 예에 따른 “모듈”은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시 예에 따르면, 본 발명의 다양한 실시 예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그래밍 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어는, 하나 이상의 프로세서 (예: 상기 프로세서 522)에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 상기 메모리 430가 될 수 있다. 상기 프로그래밍 모듈의 적어도 일부는, 예를 들면, 상기 버스 410에 의해 구현(implement)(예: 실행)될 수 있다. 상기 프로그래밍 모듈 의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트 (sets of instructions) 또는 프로세스 등을 포함할 수 있다.
상기 컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM(Compact Disc Read Only Memory), DVD(Digital Versatile Disc)와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 그리고 ROM(Read Only Memory), RAM(Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령(예: 프로그래밍 모듈)을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 다양한 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
본 발명의 다양한 실시 예에 따른 모듈 또는 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 발명의 다양한 실시 예에 따른 모듈, 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.

Claims (28)

  1. 전자 장치의 동작 방법에 있어서,
    장착된 부위의 중심점을 결정하는 동작; 및,
    상기 장착된 부위의 중심점을 기준으로 센서로부터 정보를 획득하는 동작을 포함하는 방법.
  2. 제1항에 있어서,
    상기 장착된 부위의 중심점은,
    상기 전자 장치의 외부에 위치하는 방법.
  3. 제1항에 있어서,
    상기 전자 장치는,
    신체의 일부에 착용 가능한 방법.
  4. 제1항에 있어서,
    상기 장착된 부위의 중심점을 결정하는 동작은,
    사용자의 전자 장치 착용 여부를 판단하는 동작을 더 포함하는 방법.
  5. 제1항에 있어서,
    상기 장착된 부위의 중심점을 결정하는 동작은,
    상기 전자 장치가 장착된 부위의 둘레를 측정하는 동작을 포함하는 방법.
  6. 제1항에 있어서,
    상기 장착된 부위의 중심점을 결정하는 동작은,
    상기 장착된 부위의 정중앙, 또는 회전축을 기준으로 판단하는 동작을 포함하는 방법.
  7. 제1항에 있어서,
    상기 장착된 부위의 중심점을 결정하는 동작은,
    상기 장착된 부위 둘레의 평균값, 중앙값 중 적어도 하나를 이용하여 중심점을 계산하는 동작을 포함하는 방법.
  8. 제1항에 있어서,
    상기 센서로부터 정보를 획득하는 동작은,
    회전, 이동, 위치, 속도, 가속도, 자이로(gyro), 기울기 중 적어도 하나를 센싱(sensing)하는 동작을 포함하는 방법.
  9. 제1항에 있어서,
    상기 센서로부터 정보를 획득하는 동작은,
    센서의 기준점을 상기 장착된 부위의 중심점으로 지정한 후, 센싱을 수행하는 동작을 포함하는 방법.
  10. 제1항에 있어서,
    상기 센서로부터 정보를 획득하는 동작은,
    센싱을 수행한 후, 수집된 정보를 상기 장착된 부위의 중심점을 기준으로 재가공하는 동작을 포함하는 방법.
  11. 제1항에 있어서,
    상기 전자 장치는,
    머리에 장착 가능한 HMT(head-mounted theater) 장치를 포함하는 방법.
  12. 제11항에 있어서,
    상기 HMT는,
    상기 장착된 부위의 중심점을 기준으로 센싱을 수행하여 화면을 디스플레이(display)하는 방법.
  13. 제1항에 있어서,
    상기 전자 장치는,
    적어도 하나의 다른 전자 장치와 통신을 수행하는 동작을 더 포함하는 방법.
  14. 제1항에 있어서,
    상기 전자 장치의 장착이 해제되면 상기 전자 장치의 중심점을 기준으로 센서로부터 정보를 획득하는 동작을 더 포함하는 방법.
  15. 전자 장치에 있어서,
    환경을 감지하는 센서(sensor); 및
    장착된 부위의 중심점을 결정하고, 상기 장착된 부위의 중심점을 기준으로 상기 센서로부터 정보를 획득하는 프로세서(processor)를 포함하는 장치.
  16. 제15항에 있어서,
    상기 장착된 부위의 중심점은,
    상기 전자 장치의 외부에 위치하는 장치.
  17. 제15항에 있어서,
    상기 전자 장치는,
    신체의 일부에 착용 가능한 장치.
  18. 제15항에 있어서,
    상기 센서는,
    상기 전자 장치 장착 여부를 판단하는 동작을 수행하는 장치.
  19. 제15항에 있어서,
    상기 프로세서는,
    상기 전자 장치가 장착된 부위의 둘레를 측정하는 장치.
  20. 제15항에 있어서,
    상기 기준점은,
    상기 장착된 부위의 정중앙, 또는 회전축을 포함하는 장치.
  21. 제15항에 있어서,
    상기 프로세서는,
    상기 장착된 부위 둘레의 평균값, 중앙값 중 적어도 하나를 이용하여 중심점을 계산하는 장치.
  22. 제15항에 있어서,
    상기 센서는,
    회전, 이동, 위치, 속도, 가속도, 자이로(gyro), 기울기 중 적어도 하나를 센싱(sensing)하는 장치.
  23. 제15항에 있어서,
    상기 프로세서는,
    센서의 기준점을 상기 장착된 부위의 중심점으로 지정한 후, 센싱을 수행하는 장치.
  24. 제15항에 있어서,
    상기 프로세서는,
    센싱을 수행한 후, 수집된 정보를 상기 장착된 부위의 중심점을 기준으로 재가공하는 장치.
  25. 제15항에 있어서,
    상기 전자 장치는,
    머리에 장착 가능한 HMT(head-mounted theater) 장치를 포함하는 장치.
  26. 제25항에 있어서,
    상기 HMT는,
    상기 장착된 부위의 중심점을 기준으로 센싱을 수행하여 화면을 디스플레이(display)하는 장치.
  27. 제15항에 있어서,
    상기 프로세서는,
    적어도 하나의 다른 전자 장치와 통신을 수행하는 장치.
  28. 제15항에 있어서,
    상기 전자 장치는,
    장착이 해제되면 상기 전자 장치의 중심점을 기준으로 센서로부터 정보를 획득하는 동작을 수행하는 장치.
KR1020140127666A 2014-09-24 2014-09-24 사용자 기반 센서 정보 획득 방법 및 그 전자 장치 Active KR102194787B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020140127666A KR102194787B1 (ko) 2014-09-24 2014-09-24 사용자 기반 센서 정보 획득 방법 및 그 전자 장치
EP15186482.4A EP3001148B1 (en) 2014-09-24 2015-09-23 Method for acquiring sensor data and electronic device thereof
US14/862,270 US10408616B2 (en) 2014-09-24 2015-09-23 Method for acquiring sensor data and electronic device thereof
CN201580044970.4A CN106574847B (zh) 2014-09-24 2015-09-24 用于获取传感器数据的方法及其电子设备
PCT/KR2015/010050 WO2016048050A1 (en) 2014-09-24 2015-09-24 Method for acquiring sensor data and electronic device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140127666A KR102194787B1 (ko) 2014-09-24 2014-09-24 사용자 기반 센서 정보 획득 방법 및 그 전자 장치

Publications (2)

Publication Number Publication Date
KR20160035846A true KR20160035846A (ko) 2016-04-01
KR102194787B1 KR102194787B1 (ko) 2020-12-24

Family

ID=54196890

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140127666A Active KR102194787B1 (ko) 2014-09-24 2014-09-24 사용자 기반 센서 정보 획득 방법 및 그 전자 장치

Country Status (5)

Country Link
US (1) US10408616B2 (ko)
EP (1) EP3001148B1 (ko)
KR (1) KR102194787B1 (ko)
CN (1) CN106574847B (ko)
WO (1) WO2016048050A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9420075B2 (en) 2014-07-16 2016-08-16 DODOcase, Inc. Virtual reality viewer and input mechanism
CN108235143B (zh) * 2016-12-15 2020-07-07 广州市动景计算机科技有限公司 视频播放模式转换方法、装置及移动终端
US20180329481A1 (en) * 2017-05-11 2018-11-15 Interactive Recreation LLC Controller Device and System for Virtual and Augmented Reality Systems
DE102018105917A1 (de) 2018-03-14 2019-09-19 tooz technologies GmbH Verfahren zur benutzerindividuellen Kalibrierung einer auf den Kopf eines Benutzers aufsetzbaren Anzeigevorrichtung für eine augmentierte Darstellung
JP7070484B2 (ja) 2019-03-20 2022-05-18 カシオ計算機株式会社 ウェアラブル機器、電子時計、磁気センサのキャリブレーション方法及びプログラム
JP2024046234A (ja) * 2022-09-22 2024-04-03 カシオ計算機株式会社 電子機器、キャリブレーション方法及びプログラム
US20240427159A1 (en) * 2023-06-21 2024-12-26 Meta Platforms Technologies, Llc Head size measurement based on non-contact sensor(s)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100079356A1 (en) * 2008-09-30 2010-04-01 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
KR20140090549A (ko) * 2013-12-10 2014-07-17 엘지전자 주식회사 시선 캘리브레이션을 제공하는 헤드 마운트 디스플레이 디바이스 및 그 제어 방법

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100406945B1 (ko) * 2001-02-19 2003-11-28 삼성전자주식회사 착용형 디스플레이 장치
JP5222856B2 (ja) * 2007-11-20 2013-06-26 パナソニック株式会社 画像表示装置、その表示方法、プログラム、集積回路、眼鏡型ヘッドマウントディスプレイ、自動車、双眼鏡、及び卓上型ディスプレイ
US8976086B2 (en) * 2010-12-03 2015-03-10 Esight Corp. Apparatus and method for a bioptic real time video system
JP5927559B2 (ja) * 2011-04-27 2016-06-01 パナソニックIpマネジメント株式会社 表示装置
WO2012172719A1 (ja) 2011-06-16 2012-12-20 パナソニック株式会社 ヘッドマウントディスプレイおよびその位置ずれ調整方法
US8970452B2 (en) * 2011-11-02 2015-03-03 Google Inc. Imaging method
US9311883B2 (en) 2011-11-11 2016-04-12 Microsoft Technology Licensing, Llc Recalibration of a flexible mixed reality device
US8611015B2 (en) 2011-11-22 2013-12-17 Google Inc. User interface
US20130241805A1 (en) 2012-03-15 2013-09-19 Google Inc. Using Convergence Angle to Select Among Different UI Elements
KR101546654B1 (ko) 2012-06-26 2015-08-25 한국과학기술원 웨어러블 증강현실 환경에서 증강현실 서비스 제공 방법 및 장치
KR101958778B1 (ko) 2012-08-31 2019-03-15 엘지전자 주식회사 헤드 마운트 디스플레이 및 이를 이용한 디지털 디바이스 제어 방법
WO2014035118A1 (en) 2012-08-31 2014-03-06 Lg Electronics Inc. Head mounted display and method of controlling digital device using the same
US20140160170A1 (en) * 2012-12-06 2014-06-12 Nokia Corporation Provision of an Image Element on a Display Worn by a User
US20140191927A1 (en) * 2013-01-09 2014-07-10 Lg Electronics Inc. Head mount display device providing eye gaze calibration and control method thereof
US9395543B2 (en) 2013-01-12 2016-07-19 Microsoft Technology Licensing, Llc Wearable behavior-based vision system
US9245388B2 (en) * 2013-05-13 2016-01-26 Microsoft Technology Licensing, Llc Interactions of virtual objects with surfaces
KR102191867B1 (ko) * 2013-07-10 2020-12-16 엘지전자 주식회사 복수의 유저 인터페이스 포맷을 포함하는 헤드 마운티드 디스플레이 디바이스 및 그 제어 방법
US9575721B2 (en) * 2013-07-25 2017-02-21 Lg Electronics Inc. Head mounted display and method of controlling therefor
KR101878144B1 (ko) 2013-11-06 2018-07-13 엘지전자 주식회사 헤드 마운트 디스플레이를 위한 사용자 인터페이스 제공 장치 및 방법
US9767609B2 (en) * 2014-02-12 2017-09-19 Microsoft Technology Licensing, Llc Motion modeling in visual tracking
KR20150119636A (ko) * 2014-04-16 2015-10-26 엘지전자 주식회사 노티피케이션을 제공하는 hmd 디바이스 및 그 제어 방법
KR102217561B1 (ko) * 2014-06-23 2021-02-19 엘지전자 주식회사 헤드 마운티드 디스플레이 및 그것의 제어방법
US20160349511A1 (en) * 2015-05-31 2016-12-01 Fieldbit Ltd. See-through binocular head mounted device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100079356A1 (en) * 2008-09-30 2010-04-01 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
KR20140090549A (ko) * 2013-12-10 2014-07-17 엘지전자 주식회사 시선 캘리브레이션을 제공하는 헤드 마운트 디스플레이 디바이스 및 그 제어 방법

Also Published As

Publication number Publication date
EP3001148A1 (en) 2016-03-30
KR102194787B1 (ko) 2020-12-24
EP3001148B1 (en) 2020-09-02
CN106574847A (zh) 2017-04-19
US20160084647A1 (en) 2016-03-24
WO2016048050A1 (en) 2016-03-31
CN106574847B (zh) 2020-06-19
US10408616B2 (en) 2019-09-10

Similar Documents

Publication Publication Date Title
KR102114178B1 (ko) 근거리에 위치한 전자 장치들을 제어하는 방법 및 장치
KR102294945B1 (ko) 기능 제어 방법 및 그 전자 장치
KR102271833B1 (ko) 전자 장치, 그 제어 방법 및 기록 매체
KR102262086B1 (ko) 이미지 처리 방법 및 장치
KR102194787B1 (ko) 사용자 기반 센서 정보 획득 방법 및 그 전자 장치
KR20160046426A (ko) 전자 장치
KR20150105802A (ko) 전자 장치의 비콘신호 제어방법 및 그 전자 장치
KR20150127989A (ko) 사용자 인터페이스 제공 방법 및 장치
KR102144588B1 (ko) 센서 모듈 및 이를 구비한 장치
KR20150135837A (ko) 디스플레이 운용 전자장치 및 방법
KR20150117962A (ko) 안테나 방사 전력 제어 방법 및 이를 지원하는 전자 장치
KR20150091839A (ko) 전자 장치 및 이의 정보 제공 방법
KR20150124128A (ko) 전자 장치 및 이의 작업 연계 방법
KR20150064354A (ko) 입력 처리 방법 및 그 전자 장치
KR20150135911A (ko) Ui 효과 디스플레이 방법 및 전자 장치
KR20150125464A (ko) 메시지 표시 방법 및 전자 장치
KR20150132963A (ko) 디스플레이를 이용한 입력 처리 방법 및 장치
KR20160001438A (ko) 이어 잭 오작동을 방지하는 전자 장치 및 방법
KR20160001076A (ko) 데이터 관리 방법 및 그 방법을 처리하는 전자 장치
KR20150051070A (ko) 데이터 처리 방법 및 그 전자 장치
KR20150086150A (ko) 사용자 인터페이스 제어 방법 및 장치
KR20160050983A (ko) 사용자 입력에 따라 하나 이상의 아이템들을 선택하는 방법 및 이를 위한 전자 장치
KR102332468B1 (ko) 기능 제어 방법 및 그 전자 장치
US20210072541A1 (en) Electronic device and method for controlling electronic device
KR102220766B1 (ko) 메시지를 구성하는 전자 장치와 방법 및 메시지를 수신하여 실행하는 웨어러블 전자 장치와 방법

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20140924

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20190527

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20140924

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20200301

Patent event code: PE09021S01D

E90F Notification of reason for final refusal
PE0902 Notice of grounds for rejection

Comment text: Final Notice of Reason for Refusal

Patent event date: 20200730

Patent event code: PE09021S02D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20201006

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20201217

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20201218

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20231129

Start annual number: 4

End annual number: 4