[go: up one dir, main page]

KR20130078486A - 전자 장치 및 그의 제어 방법 - Google Patents

전자 장치 및 그의 제어 방법 Download PDF

Info

Publication number
KR20130078486A
KR20130078486A KR1020110147454A KR20110147454A KR20130078486A KR 20130078486 A KR20130078486 A KR 20130078486A KR 1020110147454 A KR1020110147454 A KR 1020110147454A KR 20110147454 A KR20110147454 A KR 20110147454A KR 20130078486 A KR20130078486 A KR 20130078486A
Authority
KR
South Korea
Prior art keywords
voice
motion
item
user
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020110147454A
Other languages
English (en)
Inventor
한상진
권용환
김정근
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020110147454A priority Critical patent/KR20130078486A/ko
Priority to US13/687,704 priority patent/US20130169524A1/en
Priority to EP12198503.0A priority patent/EP2610863B1/en
Priority to CN201210574942.1A priority patent/CN103187054B/zh
Priority to JP2012284267A priority patent/JP2013140359A/ja
Publication of KR20130078486A publication Critical patent/KR20130078486A/ko
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)

Abstract

전자 장치 및 이의 제어 방법이 제공된다. 본 전자 장치의 제어 방법은 음성 입력부를 통해 음성 개시 명령이 입력되면, 전자 장치의 모드를 사용자 음성에 의해 제어되는 음성 태스크 모드로 전환하고, 전자 장치에서 음성 태스크 모드를 수행하기 위한 복수의 음성 아이템을 포함하는 음성 가이드 정보를 디스플레이하며, 사용자 입력에 따라, 복수의 음성 아이템 중 적어도 하나를 다른 음성 아이템으로 변경한다. 이에 의해, 사용자는 더욱 편리하고 효율적으로 전자기기를 제어할 수 있게 된다.

Description

전자 장치 및 그의 제어 방법{Electronic apparatus and Method for controlling electronic apparatus thereof}
본 발명은 전자 장치 및 그의 제어 방법에 관한 것으로, 더욱 상세하게는 사용자 음성 또는 사용자 모션에 따라 제어되는 전자 장치 및 그의 제어 방법에 관한 것이다.
전자 기술의 발달에 힘입어 다양한 종류의 전자 장치가 개발되어 보급되고 있다. 특히, 최근에는 TV를 비롯한 다양한 유형의 전자 장치들이 일반 가정에서 사용되고 있다. 이들 전자 장치들은 사용자의 요구에 따라 점차 다양한 기능을 구비하게 되었다. 특히, TV의 경우, 최근에는 인터넷과 연결되어 인터넷 서비스까지 지원하고 있다. 또한, 사용자는 TV를 통해 많은 수의 디지털 방송 채널까지 시청할 수 있게 되었다.
이에 따라, 전자 장치의 다양한 기능들을 효율적으로 사용하기 위한 다양한 입력 방법이 요구되고 있다. 예를 들어, 리모컨을 이용한 입력 방법, 마우스를 이용한 입력 방법 및 터치 패드를 이용한 입력 방법 등이 전자 장치에 적용되고 있다.
하지만, 이러한 단순한 입력 방법만으로는, 전자 장치의 다양한 기능을 효과적으로 사용하기에는 어려움이 있었다. 가령, 전자 장치의 모든 기능들을 리모컨만으로 제어하도록 구현하게 되면, 리모컨의 버튼 수를 늘리는 것이 불가피하였다. 이 경우, 일반 사용자가 리모컨의 사용법을 익히는 것은 결코 용이하지 않은 일이었다. 또한, 다양한 메뉴들을 화면상에 표시하여 사용자가 해당 메뉴를 찾아서 선택하도록 하는 방법의 경우, 사용자가 복잡한 메뉴 트리를 일일이 확인하여, 자신이 원하는 메뉴를 선택하여야 한다는 번거로움이 있었다.
따라서, 근래에는 전자 장치를 조금 더 편리하고 직관적으로 제어하기 위하여 음성 인식 및 모션 인식을 이용한 기술이 개발되고 있다. 특히, 사용자가 음성 인식 또는 모션 인식을 이용하여 더욱 효율적으로 전자 장치를 제어하기 위해, 전자 장치는 음성 인식 또는 모션 인식을 안내하는 UI가 필요하게 된다.
그러나, 기존의 음성 인식 및 모션 인식을 안내하는 UI는 실행되는 어플리케이션 및 사용자의 선호와 상관없이 동일한 형태로 제공되고 있다. 예를 들어, 전자 장치가 방송 수신 기능을 수행하든, 전자 장치가 어플리케이션을 실행하든 동일한 형태의 UI가 제공되는 문제점이 존재하였다.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 전자 장치에서 실행되는 어플리케이션 및 사용자 선호에 따라 음성 가이드 정보에 포함된 음성 아이템 또는 모션 가이드 정보에 포함된 모션 아이템을 변경할 수 있는 전자 장치 및 그의 제어 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 전자 장치의 제어 방법은, 음성 입력부를 통해 음성 개시 명령을 입력받는 단계; 상기 음성 개시 명령이 입력되면, 상기 전자 장치의 모드를 사용자 음성에 의해 제어되는 음성 태스크 모드로 전환하고, 상기 전자 장치에서 음성 태스크 모드를 수행하기 위한 복수의 음성 아이템을 포함하는 음성 가이드 정보를 디스플레이하는 단계; 및 사용자 입력에 따라, 상기 복수의 음성 아이템 중 적어도 하나를 다른 음성 아이템으로 변경하는 단계;를 포함한다.
그리고, 상기 음성 가이드 정보는, 음성 아이템이 고정적으로 디스플레이되는 고정 아이템 영역 및 음성 아이템이 가변적으로 변경되는 변경 아이템 영역을 포함할 수 있다.
또한, 상기 고정 아이템 영역에는 상기 전자 장치의 전원 끄기를 수행하기 위한 음성 아이템이 포함될 수 있다.
그리고, 상기 변경하는 단계는, 어플리케이션을 실행하기 위한 사용자 명령이 입력되면, 상기 어플리케이션을 실행하는 단계; 및 상기 어플리케이션이 실행되면, 상기 복수의 음성 아이템 중 적어도 하나를 상기 실행된 어플리케이션에 대응되는 음성 아이템으로 변경하는 단계;를 포함할 수 있다.
또한, 상기 변경하는 단계는, 상기 사용자 선호 음성 아이템을 디스플레이하기 위한 사용자 명령을 입력받는 단계; 및 상기 사용자 명령이 입력되면, 상기 복수의 음성 아이템 중 적어도 하나를 사용자에 의해 설정된 사용자 선호 음성 아이템으로 변경하는 단계;를 포함할 수 있다.
그리고, 상기 변경된 음성 가이드 정보에는 변경 전 음성 가이드 정보로 전환을 수행하기 위한 음성 아이템이 포함될 수 있다.
한편, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 전자 장치는, 사용자 음성을 입력받는 음성 입력부; 디스플레이부; 및 상기 음성 입력부를 통해 음성 개시 명령이 입력되면, 상기 전자 장치의 모드를 사용자 음성에 의해 제어되는 음성 태스크 모드로 전환하고, 상기 전자 장치에서 음성 태스크 모드를 수행하기 위한 복수의 음성 아이템을 포함하는 음성 가이드 정보를 상기 디스플레이부에 디스플레이하며, 사용자 입력에 따라, 상기 복수의 음성 아이템 중 적어도 하나를 다른 음성 아이템으로 변경하는 제어부;를 포함한다.
그리고, 상기 음성 가이드 정보는, 음성 아이템이 고정적으로 디스플레이되는 고정 아이템 영역 및 음성 아이템이 가변적으로 변경되는 변경 아이템 영역을 포함할 수 있다.
또한, 상기 고정 아이템 영역에는 상기 전자 장치의 전원 끄기를 수행하기 위한 음성 아이템이 포함될 수 있다.
그리고, 상기 제어부는, 어플리케이션을 실행하기 위한 사용자 명령이 입력되면, 상기 어플리케이션을 실행하고, 상기 복수의 음성 아이템 중 적어도 하나를 상기 실행된 어플리케이션에 대응되는 음성 아이템으로 변경할 수 있다.
또한, 상기 제어부는, 상기 사용자 선호 음성 아이템을 디스플레이하기 위한 사용자 명령이 입력되면, 상기 복수의 음성 아이템 중 적어도 하나를 사용자에 의해 설정된 사용자 선호 음성 아이템으로 변경할 수 있다.
그리고, 상기 변경된 음성 가이드 정보에는 변경 전 음성 가이드 정보로 전환을 수행하기 위한 음성 아이템이 포함될 수 있다.
한편, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 전자 장치의 제어 방법은, 모션 입력부를 통해 모션 개시 명령을 입력받는 단계; 상기 모션 개시 명령이 입력되면, 상기 전자 장치의 모드를 사용자 모션에 의해 제어되는 모션 태스크 모드로 전환하고, 상기 전자 장치에서 모션 태스크 모드를 수행하기 위한 복수의 모션 아이템을 포함하는 모션 가이드 정보를 디스플레이하는 단계; 및 어플리케이션 실행 명령이 입력되면, 상기 복수의 모션 아이템 중 적어도 하나를 상기 실행되는 어플리케이션에 대응되는 모션 아이템으로 변경하는 단계;를 포함한다.
한편, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 전자 장치는, 사용자 모션을 입력받는 모션 입력부; 디스플레이부; 및 상기 모션 입력부를 통해 모션 개시 명령이 입력되면, 상기 전자 장치의 모드를 사용자 모션에 의해 제어되는 모션 태스크 모드로 전환하고, 상기 전자 장치에서 모션 태스크 모드를 수행하기 위한 복수의 모션 아이템을 포함하는 모션 가이드 정보를 상기 디스플레이부에 디스플레이하며, 어플리케이션 실행 명령이 입력되면, 상기 복수의 모션 아이템 중 적어도 하나를 상기 실행되는 어플리케이션에 대응되는 모션 아이템으로 변경하는 제어부;를 포함한다.
상술한 바와 같은 본 발명의 다양한 실시예에 의하면, 전자 장치에서 실행되는 어플리케이션 및 사용자 선호에 따라 상이한 음성 가이드 정보 또는 모션 가이드 정보를 제공함으로써, 사용자는 더욱 편리하고 효율적으로 전자기기를 제어할 수 있게 된다.
도 1 내지 3은 본 발명의 다양한 실시 예에 따른, 전자 장치의 구성을 설명하기 위한 블럭도,
도 4 및 도 5는 본 발명의 일 실시예에 따른, 음성 태스크 모드에서 일반적인 음성 가이드 정보를 설명하기 위한 도면,
도 6은 본 발명의 일 실시예에 따른, 음성 태스크 모드에서 어플리케이션에 특화된 음성 가이드 정보를 도시한 도면,
도 7은 본 발명의 일 실시예에 따른, 음성 태스크 모드에서 사용자 선호 음성 아이템이 포함된 음성 가이드 정보를 도시한 도면,
도 8은 본 발명의 일 실시예에 따른, 어플리케이션의 일부 음성 아이템을 변경하기 위한 전자 장치의 제어 방법을 설명하기 위한 흐름도, 그리고,
도 9는 본 발명의 또 다른 실시 예에 따른, 전자 장치의 구성을 설명하기 위한 블럭도이다.
도 1은 본 발명의 실시 예에 따른 전자 장치를 나타내는 개략적인 블럭도이다.
도 1을 참조하면, 전자 장치(100)는 음성 입력부(110), 모션 입력부(120), 저장부(130), 제어부(140) 및 디스플레이부(193)를 포함한다. 전자 장치(100)는 외부의 네트워크와 연결될 수 있는 스마트 TV, 셋탑박스, PC로, 또는 디지털 TV, 휴대폰 등으로 구현될 수 있으나, 이에 한정되는 것은 아니다.
음성 입력부(110)는 사용자가 발화(utterance)한 음성을 입력받는다. 음성 입력부(110)는 입력된 음성 신호를 전기 신호로 변환하여 제어부(140)로 출력한다. 예를 들어, 음성 입력부(110)는 마이크로폰으로 구현될 수 있다. 또한, 음성 입력부(110)는 전자 장치(100)와 일체형(all-in-one)뿐만 아니라 분리된 형태로 구현될 수 있다. 분리된 음성 입력부(110)는 전자 장치(100)와 유선 또는 무선 네트워크를 통하여 연결될 수 있다.
저장부(130)는 전자 장치(100)를 구동하고 제어하기 위한 다양한 데이터 및 프로그램을 저장한다. 저장부(130)는 음성 입력부(110)를 통해 입력된 음성을 인식하기 위한 음성 인식 모듈 및 모션 입력부를 통해 입력된 모션을 인식하기 위한 모션 인식 모듈을 저장한다.
저장부(130)는 음성 데이터베이스 및 모션 데이터베이스를 포함할 수 있다. 음성 데이터베이스는 기 설정된 음성 및 기 설정된 음성에 매칭되는 음성 태스크가 기록된 데이터베이스를 의미한다. 모션 데이터베이스는 기 설정된 모션 및 기 설정된 모션에 매칭되는 모션 태스크가 기록된 데이터베이스를 의미한다.
디스플레이부(193)는 방송 수신부를 통해 수신된 방송 신호에 대응되는 영상을 표시한다. 디스플레이부(193)는 외부 단자 입력부를 통해 입력되는 영상 데이터(예를 들어, 동영상)를 표시할 수 있다. 디스플레이부(193)는 제어부(140)의 제어에 의해 음성 태스크를 수행하기 위한 음성 가이드 정보 및 모션 태스크를 수행하기 위한 모션 가이드 정보를 표시할 수 있다.
제어부(140)는 음성 입력부(110), 저장부(130) 및 디스플레이부(193)를 제어한다. 제어부(140)는 CPU(central processing unit) 및 전자 장치(100)를 제어하기 위한 모듈 및 데이터를 저장하는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다.
음성 입력부(110)를 통해 음성이 입력되는 경우, 제어부(140)는 음성 인식 모듈 및 음성 데이터베이스를 이용하여 음성을 인식한다. 음성 인식(voice recognition)은 입력되는 음성의 형태에 따라, 각각의 단어를 구분하여 발화한 음성을 인식하는 고립단어 인식(isolated word recognition), 연속단어, 연속문장 및 대화체 음성을 인식하는 연속 음성 인식(continuous speech recognition) 및 고립단어 인식과 연속음성 인식의 중간형태로, 미리 정해진 핵심어를 검출하여 인식하는 핵심어 검출(keyword spotting)으로 구분될 수 있다.
사용자 음성이 입력되는 경우, 제어부(140)는 입력된 음성 신호 내에서 사용자가 발화한 음성의 시작과 끝을 검출하여 음성 구간을 판단한다. 제어부(140)는 입력된 음성 신호의 에너지를 계산하고, 계산된 에너지에 따라 음성 신호의 에너지 레벨을 분류하여, 동적 프로그래밍을 통해 음성 구간을 검출할 수 있다. 제어부(140)는 검출된 음성 구간 내의 음성 신호에서 음향 모델(Acoustic Model)을 기초로 음성의 최소 단위인 음소를 검출하여 음소 데이터를 생성한다. 제어부(140)는 생성된 음소 데이터에 HMM(Hidden Markov Model) 확률 모델을 적용하여 텍스트 정보를 생성한다. 그러나, 상술한 바와 같이, 사용자의 음성을 인식하는 방법은 일 실시예에 불과할 뿐, 다른 방법을 이용하여 사용자 음성을 인식할 수 있다. 이에 따라, 제어부(140)는 음성 신호 중에 포함된 사용자의 음성을 인식할 수 있다.
제어부(140)는 상술한 바와 같이, 인식된 음성을 이용하여, 전자 장치(100)의 태스크(task)를 수행한다. 전자 장치(100)의 태스크는 채널 변경, 볼륨 조절, 컨텐츠(예를 들어, 동영상, 음악, 사진 등)의 재생 또는 인터넷 브라우징 등과 같이, 전자 장치(100)에 의해 수행될 수 있는 기능 중 적어도 하나를 포함한다.
제어부(140)는 음성 태스크 모드를 진입하기 위한 음성 개시 명령이 입력되었는지 여부를 판단한다.
음성 개시 명령이 입력되면, 제어부(140)는 전자 장치(100)의 모드를 음성 태스크 모드로 전환한다. 이때, 음성 태스크 모드라 함은, 음성 입력부(110)에 의해 입력된 사용자 음성에 의해 전자 장치가 제어되는 모드이다.
음성 태스크 모드로 전환되면, 제어부(150)는 디스플레이 화면에 음성 가이드 정보를 디스플레이한다. 이때, 음성 가이드 정보는 전자 장치(100)에서 음성 태스크 모드를 수행하기 위하여, 사용자 음성을 안내하는 복수의 음성 아이템을 포함한다.
그리고, 사용자의 특정 명령이 입력되면, 제어부(140)는 음성 가이드 정보에 포함된 복수의 음성 아이템 중 적어도 하나를 다른 음성 아이템으로 변경한다. 이때, 사용자의 특정 명령이 함은, 특정 어플리케이션을 실행시키기 위한 사용자 명령이거나 사용자 선호 음성 아이템을 실행시키기 위한 사용자 명령일 수 있다.
특히, 음성 가이드 정보는 복수의 음성 아이템 중 일부의 음성 아이템(예를 들어, "전원 끄기" 음성 아이템)이 고정적으로 디스플레이되는 고정 아이템 영역 및 음성 아이템이 가변적으로 변경되는 변경 아이템 영역을 포함한다. 따라서, 사용자의 특정 명령이 입력되면, 제어부(140)는 음성 가이드 정보 중 변경 아이템 영역에 포함된 음성 아이템을 다른 아이템으로 변경할 수 있다.
본 발명의 일 실시예로, 특정 어플리케이션을 실행시키기 위한 사용자 명령이 입력되면, 제어부(140)는 사용자 명령에 대응되는 어플리케이션을 실행한다. 그리고, 제어부(140)는 음성 가이드 정보에 포함된 복수의 음성 아이템 중 적어도 하나의 아이템을 실행되는 어플리케이션에 필요한 음성 아이템으로 변경할 수 있다.
이때, 어플리케이션에 필요한 음성 아이템은 어플리케이션 설치 시에 전자 장치(100)의 저장부(130)에 저장된다. 그리고, 어플리케이션의 실행 명령이 입력되면, 제어부(140)는 저장부(130)에 저장된 어플리케이션에 필요한 음성 아이템을 독출하여 디스플레이부(193)에 디스플레이할 수 있다.
본 발명의 또 다른 실시예로, 사용자 선호 음성 아이템을 디스플레이하기 위한 사용자 명령이 입력되면, 제어부(140)는 음성 가이드 정보에 포함된 복수의 음성 아이템 중 적어도 하나의 아이템을 사용자 선호 음성 아이템으로 변경할 수 있다. 이때, 사용자 선호 음성 아이템은 음성 아이템 설정 메뉴를 이용하여 사용자에 의해 기 등록된 음성 아이템일 수 있다.
변경된 음성 가이드 정보에는 변경 전 음성 가이드 정보로 전환하기 위한 음성 아이템이 포함될 수 있다. 예를 들어, 변경 전 음성 가이드 정보로 전환하기 위한 음성 아이템으로 "종료" 음성 아이템이 포함될 수 있다.
따라서, 사용자는 어플리케이션 별, 사용자 선호 별로 사용자에게 최적화 음성 가이드 정보를 이용하여 음성 태스크 모드를 수행할 수 있다. 본 발명의 구체적인 실시예에 대해서는 도 4 내지 도 7을 참조하여 추후에 더욱 상세히 설명하기로 한다.
도 2는 본 발명의 또 다른 실시 예에 따른, 전자 장치(100)의 구성을 나타내는 블럭도를 도시한 도면이다. 도 2를 참조하면, 전자 장치(100)는 음성 입력부(110), 모션 입력부(120), 저장부(130), 제어부(140), 방송 수신부(150), 외부단자 입력부(160), 리모컨 신호 수신부(170), 네트워크 인터페이스부(180) 및 영상 출력부(190)를 포함한다. 도 2에 도시된 전자 장치(100)는 셋탑박스(set-top box)로 구현될 수 있다.
한편, 도 2에 도시된 음성 입력부(110), 저장부(130) 및 제어부(140)에 대한 설명은 도 1에서 설명한 음성 입력부(110), 저장부(130) 및 제어부(140)에 대한 설명과 같으므로, 자세한 설명은 생략한다.
모션 입력부(120)는 사용자의 모션을 촬상한 영상 신호(예를 들어, 연속되는 프레임)를 입력받아 제어부(140)로 제공한다. 예를 들어, 모션 입력부(120)는 렌즈 및 이미지센서로 구성되는 모션 입력부(120) 유닛으로 구현될 수 있다. 또한, 모션 입력부(120)는 전자 장치(100)와 일체형뿐만 아니라 분리된 형태로 구현될 수 있다. 분리된 모션 입력부(120)는 전자 장치(100)와 유선 또는 무선 네트워크를 통하여 연결될 수 있다.
방송 수신부(150)는 유, 무선으로 외부로부터 방송 신호를 수신한다. 방송 신호는 영상(video), 오디오(audio) 및 부가 데이터(예를 들어, EPG)를 포함한다. 방송 수신부(150)는 지상파 방송, 케이블 방송, 위성 방송, 인터넷 방송 등과 같이 다양한 소스로부터 방송 신호를 수신할 수 있다.
외부단자 입력부(160)는 전자 장치(100)의 외부로부터 영상 데이터(예를 들어, 동영상 사진 등), 오디오 데이터(예를 들어, 음악 등) 등을 수신한다. 외부 단자 입력부(160)는 HDMI입력 단자(High-Definition Multimedia Interface input), 컴포넌트 입력 단자, PC 입력 단자, 또는 USB 입력 단자 중 적어도 하나를 포함할 수 있다. 리모컨 신호 수신부(170)는 외부의 리모컨으로부터 입력되는 리모컨 신호를 수신한다. 리모컨 신호 수신부(170)는 전자 장치(100)가 음성 태스크 모드이거나 모션 태스크 모드에서도 리모컨 신호를 수신할 수 있다.
네트워크 인터페이스부(180)는 제어부(140)의 제어에 의해 전자 장치(100)와 외부 장치(예를 들어, 서버)를 연결할 수 있다. 제어부(140)는 네트워크 인터페이스부(180)를 통해 연결된 외부 장치로부터 어플리케이션을 다운로드 하거나 웹 브라우징을 할 수 있다. 네트워크 인터페이스부(180)는 이더넷(Ethernet), 무선랜(182) 및 블루투스(bluetooth) 중 적어도 하나를 제공할 수 있다.
영상 출력부(190)는 방송 수신부(150)를 통해 수신되는 외부의 방송 신호, 또는 외부단자 입력부(160)에서 입력되는 영상 데이터, 또는 저장부(130)에 저장된 영상 데이터를 외부의 전자 장치(예를 들어, 모니터, TV)로 출력한다.
제어부(140)는 모션 입력부(120)를 통해 모션이 입력되는 경우, 모션 감지 모듈 및 모션 데이터베이스를 이용하여 모션을 인식한다. 모션 인식(motion recognition)은 모션 입력부(120)를 통해 입력되는 사용자의 모션에 대응되는 영상(예를 들어, 연속되는 프레임)을 모션 인식 모듈을 이용하여 주위 배경과 손(예를 들어, 손가락을 펴거나 손가락을 오므려 주먹을 쥐는) 영역으로 분리하고, 연속되는 손의 움직임을 인식할 수 있다. 사용자 모션이 입력되는 경우, 제어부(140)는 수신된 영상을 프레임 단위로 저장하고, 저장된 프레임을 이용하여 사용자 모션의 대상인 오브젝트(예를 들어, 사용자의 손)를 감지한다. 제어부(140)는 프레임에 포함된 오브젝트의 형태, 색깔, 움직임 중 적어도 하나를 감지하여 오브젝트를 검출한다. 제어부(140)는 복수 개의 프레임에 포함된 각각의 오브젝트의 위치를 이용하여 검출된 오브젝트의 움직임을 추적할 수 있다.
제어부(140)는 추적된 오브젝트의 형태 및 움직임에 따라 모션을 판단한다. 예를 들어, 제어부(140)는 오브젝트의 형태의 변화, 속도, 위치, 방향 중 적어도 하나를 이용하여 사용자의 모션을 판단한다. 사용자의 모션은 손을 쥐는 모션인 그랩(grab), 표시된 커서를 손으로 이동시키는 모션인 포인팅 이동(pointing move), 손을 일정 속도 이상으로 한쪽 방향으로 움직이는 모션인 슬랩(slap), 손을 좌/우 또는 상/하로 흔드는 모션인 쉐이크(shake) 및 손을 회전하는 모션인 회전을 포함한다. 상술한 실시 예에 이외의 다른 모션에도 본 발명의 기술적 사상이 적용될 수 있다. 예를 들어, 쥐어진 손을 펴는 스프레드(spread) 모션 등이 더 포함될 수 있다.
제어부(140)는 사용자의 모션이 포인팅 이동인지, 슬랩인지 여부를 판단하기 위해, 오브젝트가 결정된 시간(예를 들어, 800ms) 내에 결정된 영역(예를 들어, 40cm x 40cm의 사각형)을 벗어났는지를 판단한다. 오브젝트가 결정된 시간 내에 결정된 영역을 벗어나지 않는 경우, 제어부(140)는 사용자의 모션을 포인팅 이동으로 판단할 수 있다. 오브젝트가 결정된 시간 내에 결정된 영역을 벗어난 경우, 제어부(140)는 사용자의 모션을 슬랩으로 판단할 수 있다. 다른 일 예로, 오브젝트의 속도가 기설정된 속도(예를 들어, 30 cm/s) 이하인 것으로 판단된 경우, 제어부(140)는 사용자의 모션을 포인팅 이동으로 판단한다. 오브젝트의 속도가 기설정된 속도 초과인 것으로 판단되는 경우, 제어부(140)는 사용자의 모션을 슬랩으로 판단한다.
도 3은 본 발명의 또 다른 실시 예에 따른, 전자 장치(100)의 블럭도를 도시한 도면이다. 도 3에 도시된 바와 같이, 전자 장치(100)는 음성 입력부(110), 모션 입력부(120), 저장부(130), 제어부(140), 방송 수신부(150), 외부단자 입력부(160), 리모컨 신호 수신부(170), 네트워크 인터페이스부(180), 디스플레이부(193) 및 오디오 출력부(196)를 포함한다. 이때, 전자 장치(100)는 디지털 TV일 수 있으나, 이에 한정되는 것은 아니다.
한편, 도 3에서 음성 입력부(110), 모션 입력부(120), 저장부(130), 제어부(140), 방송 수신부(150), 외부단자 입력부(160), 리모컨신호 수신부(170), 네트워크 인터페이스부(180) 및 디스플레이부(193)에 대한 설명은 도 1 및 도 2에서 동일한 참조번호를 가지는 구성에 대한 설명과 같으므로, 자세한 설명은 생략한다.
오디오 출력부(196)는 제어부(140)의 제어에 의해 방송 신호에 대응되는 음성을 출력한다. 오디오 출력부(196)는 스피커(196a), 헤드폰 출력 단자(196b) 또는 S/PDIF 출력 단자(163c) 중 적어도 하나를 포함할 수 있다.
한편, 저장부(130)는 도 3에 도시된 바와 같이, 전원 제어 모듈(130a), 채널 제어 모듈(130b), 볼륨 제어 모듈(130c), 외부입력 제어 모듈(130d), 화면 제어 모듈(130e), 오디오 제어 모듈(130f), 인터넷 제어 모듈(130g), 어플리케이션 모듈(130h), 검색 제어 모듈(130i), UI 처리 모듈(130j), 음성 인식 모듈(130k), 모션 인식 모듈(130l), 음성 데이터베이스(130m) 및 모션 데이터베이스(130n)를 포함한다. 이들 모듈들(130a 내지 130n)은 각각 전원 제어 기능, 채널 제어 기능, 볼륨 제어 기능, 외부 입력 제어 기능, 화면 제어 기능, 오디오 제어 기능, 인터넷 제어 기능, 어플리케이션 실행 기능, 검색 제어 기능, UI 처리 기능을 수행하기 위하여 소프트웨어로 구현될 수 있다. 제어부(140)는 저장부(130)에 저장된 이들 소프트웨어를 실행시켜 해당 기능을 수행할 수 있다.
이하에서는 도 4 내지 도 7을 참조하여, 본 발명의 다양한 실시 예에 대해 설명하기로 한다.
본 발명의 일 실시예로, 제어부(140)는 방송 수신부(150)를 통해 외부의 방송국으로부터 송출되는 방송 신호를 수신하고, 수신된 방송 신호에 대한 신호처리를 수행한다. 그리고, 도 4에 도시된 바와 같이,제어부(140)는 신호처리된 방송 영상을 디스플레이부(193)에 디스플레이한다.
그리고, 음성 입력부(110)를 통해 "지니"라는 음성 개시 명령이 입력되면, 제어부(140)는 음성 개시 명령을 인식하여 음성 태스크 모드로 전환한다. 이때, 음성 개시 명령은 음성 태스크 모드로 전환되기 위한 사용자 명령이며, 음성 태스크 모드는 전자 장치(100)가 음성 입력부(110)에 입력된 사용자 음성에 의해서 제어되는 모드이다.
그리고, 음성 태스크 모드로 전환되면, 제어부(140)는 도 5에 도시된 바와 같이, 음성 태스크 모드를 수행하기 위한 제1 음성 가이드 정보(500)를 디스플레이한다. 이때, 제1 음성 가이드 정보(500)는 방송 영상이 디스플레이되는 화면 하단에 디스플레이된다.
또한, 제1 음성 가이드 정보(500)는 현재 디스플레이 장치의 모드가 음성 태스크 모드임을 알리는 아이콘(510) 및 사용자의 음성을 안내하는 복수의 음성 아이템(521 내지 526, 530)이 포함된다. 복수의 음성 아이템에는 전원끄기 음성 아이템(521), 외부입력 음성 아이템(522), 채널 바로가기 음성 아이템(523), 채널 올려/내려(UP/DOWN) 음성 아이템(524), 볼륨 올려/내려(UP/DOWN) 음성 아이템(525), 소리끄기 음성 아이템(526) 및 MORE 음성 아이템(530)이 포함된다. MORE 음성 아이템(530)은 디스플레이된 음성 아이템 이외의 음성 아이템을 더 보기 위한 아이템이다. 이때, 전원끄기 음성 아이템(521) 및 MORE 음성 아이템(530)은 고정적으로 디스플레이 되는 고정 아이템 영역에 위치하며, 외부입력 음성 아이템(522), 채널 바로가기 음성 아이템(523), 채널 올려/내려(UP/DOWN) 음성 아이템(524), 볼륨 올려/내려(UP/DOWN) 음성 아이템(525), 소리끄기 음성 아이템(526)은 가변적으로 변경될 수 있는 변경 아이템 영역에 위치할 수 있다.
그리고, 지도 어플리케이션 실행 명령이 입력되면, 제어부(140)는 도 6에 도시된 바와 같이, 지도 어플리케이션을 실행시키고, 제1 음성 가이드 정보(500)를 지도 어플리케이션에 대응되는 제2 음성 가이드 정보(600)로 변경한다.
구체적으로, 지도 어플리케이션이 실행되면, 제어부(140)는 저장부(130)에 저장된 지도 어플리케이션에 대응되는 음성 아이템을 독출한다. 그리고, 제어부(140)는 변경 아이템 영역에 디스플레이되어 있는 음성 아이템을 독출된 음성 아이템으로 변경한다.
예를 들어, 도 6에 도시된 바와 같이, 제어부(140)는 고정 아이템 영역에 디스플레이되어 있는 전원끄기 음성 아이템(621) 및 MORE 음성 아이템(630)을 그대로 디스플레이한다. 그리고, 제어부(140)는 변경 아이템 영역에 디스플레이되어 있는 외부입력 음성 아이템(522), 채널 바로가기 음성 아이템(523), 채널 올려/내려(UP/DOWN) 음성 아이템(524), 볼륨 올려/내려(UP/DOWN) 음성 아이템(525), 소리끄기 음성 아이템(526)을 외부 입력 음성 아이템(622), 장소찾기 음성 아이템(623), 길찾기 음성 아이템(624) 및 종료 음성 아이템(625)으로 변경할 수 있다. 이때, 종료 음성 아이템(625)은 변경 전 음성 가이드 정보로 복귀하기 위한 사용자 음성을 안내하는 음성 아이템이다. 이때, 종료 음성 아이템(625)이 실행되면, 제어부(140)는 해당 어플리케이션 역시 함께 종료할 수 있다.
따라서, 사용자는 지도 어플리케이션을 이용하여 사용할 수 있는 기능을 음성 가이드 정보를 통해 쉽게 확인할 수 있게 된다.
본 발명의 또 다른 실시예로, 도 5에 도시된 바와 같이 제1 음성 가이드 정보가 디스플레이된 상태에서 사용자 선호 음성 아이템을 실행하기 위한 사용자 명령(예를 들어, "Favorite"이라는 사용자 음성)이 입력되면, 제어부(140)는 도 7에 도시된 바와 같이, 음성 가이드 정보(500)를 사용자 선호 음성 아이템이 포함된 제3 음성 가이드 정보(700)로 변경한다.
구체적으로, 사용자 선호 음성 아이템을 실행하기 위한 사용자 명령이 입력되면, 제어부(140)는 저장부(130)에 저장된 사용자 선호 음성 아이템을 독출한다. 그리고, 제어부(140)는 변경 아이템 영역에 디스플레이되어 있는 음성 아이템을 독출된 음성 아이템으로 변경한다.
예를 들어, 도 7에 도시된 바와 같이, 제어부(140)는 고정 아이템 영역에 디스플레이되어 있는 전원끄기 음성 아이템(721) 및 MORE 음성 아이템(730)을 그대로 디스플레이한다. 그리고, 제어부(140)는 변경 아이템 영역에 디스플레이되어 있는 외부입력 음성 아이템(522), 채널 바로가기 음성 아이템(523), 채널 올려/내려(UP/DOWN) 음성 아이템(524), 볼륨 올려/내려(UP/DOWN) 음성 아이템(525), 소리끄기 음성 아이템(526)을 사용자 선호 음성 아이템인 인터넷 음성 아이템(722), 3D 음성 아이템(723), 편성표 음성 아이템(724) 및 종료 음성 아이템(725)으로 변경할 수 있다. 이때, 종료 음성 아이템(725)은 변경 전 제1 음성 가이드 정보로 복귀하기 위한 사용자 음성을 안내하는 음성 아이템이다.
따라서, 사용자는 자신이 선호하는 음성 아이템을 이용하여 전자 장치(100)를 제어할 수 있게 된다.
이하에서는 도 8을 참조하여, 음성 가이드 정보에서 음성 아이템을 변경하기 위한 방법에 대해 더욱 상세히 설명하기로 한다.
우선, 전자 장치(100)는 음성 개시 명령이 입력되었는지 여부를 판단한다(S810). 이때, 음성 개시 명령이라 함은 전자 장치(100)의 모드를 음성 태스크 모드로 전환하기 위한 사용자 명령이다.
음성 개시 명령이 입력되면(S810-Y), 전자 장치(100)는 전자 장치(100)의 모드를 음성 태스크 모드로 전환한다(S820). 이때, 음성 태스크 모드는 전자 장치(100)가 음성 입력부(110)를 통해 입력된 사용자 음성에 의해 제어되는 모드이다.
음성 태스크 모드로 전환되면, 전자 장치(100)는 음성 가이드 정보를 디스플레이한다(S830). 이때, 전자 장치(100)가 방송 수신 기능을 하는 경우, 음성 가이드 정보는 방송 수신 기능을 제어하기 위한 음성 아이템이 포함된다.
그리고, 전자 장치(100)는 음성 아이템 변경을 위한 사용자 명령이 입력되었는지 여부를 판단한다(S840). 예를 들어, 전자 장치(100)는 특정 어플리케이션(예를 들어, 지도 어플리케이션)의 실행을 위한 사용자 명령이 입력되었는지 여부 및 사용자 선호 음성 아이템의 디스플레이를 위한 사용자 명령이 입력되었는지 여부를 판단한다.
음성 아이템 변경을 위한 사용자 명령이 입력되었다고 판단되면(S840-Y). 전자 장치(100)는 음성 가이드 정보에 포함된 음성 아이템 중 적어도 하나를 변경한다(S850). 이때, 변경되는 적어도 하나의 음성 아이템은 음성 가이드 정보에 포함된 음성 아이템 중 변경 아이템 영역에 디스플레이된 음성 아이템일 수 있다.
예를 들어, 음성 아이템 변경을 위한 사용자 명령이 특정 어플리케이션의 실행을 위한 사용자 명령인 경우, 전자 장치(100)는 음성 가이드 정보에 포함된 음성 아이템 중 변경 아이템 영역에 디스플레이된 음성 아이템을 특정 어플리케이션에 대응되는 음성 아이템으로 변경할 수 있다. 또는 음성 아이템 변경을 위한 사용자 명령이 사용자 선호 음성 아이템의 디스플레이를 위한 사용자 명령인 경우, 전자 장치(100)는 음성 가이드 정보에 포함된 아이템 중 변경 아이템 영역에 디스플레이된 음성 아이템을 사용자 선호 음성 아이템으로 변경할 수 있다.
그리고, 전자 장치(100)는 변경된 음성 가이드 정보를 이용하여 음성 태스크를 수행한다(S860).
상술한 바와 같이 전자 장치에서 실행되는 어플리케이션 및 사용자 선호에 따라 상이한 음성 가이드 정보를 제공함으로써, 사용자는 더욱 편리하고 효율적으로 전자기기를 제어할 수 있게 된다.
한편, 도 1 내지 도 8에서는 음성 가이드 정보가 변경되는 것을 설명하였으나, 이는 일 실시예에 불과할 뿐, 모션 태스크 모드를 수행하기 위한 모션 가이드 정보에 포함된 모션 아이템이 변경되는 실시예 역시 본 발명의 기술적 사상에 포함될 수 있다.
모션 아이템이 변경되는 실시예에 대해서는 도 9를 참조하여 설명하기로 한다. 도 9에 도시된 바와 같이, 본 발명의 일 다른 실시예에 따른, 전자 장치(900)는 모션 입력부(120), 저장부(130), 제어부(140) 및 디스플레이부(193)를 포함한다. 한편, 도 9에 도시된 모션 입력부(120), 저장부(130), 제어부(140) 및 디스플레이(193)에 대한 설명은 도 1 내지 도 3에서 설명한 바와 같다.
구체적으로, 모션 입력부(120)를 통해 모션 개시 명령이 입력되면, 제어부(140)는 전자 장치의 모드를 사용자 모션에 의해 제어되는 모션 태스크 모드로 전환한다. 그리고, 제어부(140)는 전자 장치(100)에서 모션 태스크 모드를 수행하기 위한 복수의 모션 아이템을 포함하는 모션 가이드 정보를 디스플레이한다.
모션 가이드 정보가 디스플레이된 상태에서 어플리케이션 실행 명령이 입력되면, 제어부(140)는 복수의 모션 아이템 중 적어도 하나를 상기 실행되는 어플리케이션에 대응되는 모션 아이템으로 변경할 수 있다.
상술한 바와 같이 전자 장치에서 실행되는 어플리케이션에 따라 음성 아이템을 변경하여 제공함으로써, 사용자는 더욱 편리하고 효율적으로 전자기기를 제어할 수 있게 된다.
이상과 같은 다양한 실시 예에 따른 제어 방법을 수행하기 위한 프로그램 코드는 다양한 유형의 기록 매체에 저장될 수 있다. 구체적으로는, RAM(Random Access Memory), 플레시메모리, ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electronically Erasable and Programmable ROM), 레지스터, 하드디스크, 리무버블 디스크, 메모리 카드, USB 메모리, CD-ROM 등과 같이, 단말기에서 판독 가능한 다양한 유형의 기록 매체에 저장되어 있을 수 있다.
이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
110: 음성 입력부 120: 모션 입력부
130: 저장부 140: 제어부
150: 방송 수신부 160: 외부단자 입력부
170: 리모컨 신호 수신부 180: 네트워크 인터페이스부
190: 영상 출력부 193: 디스플레이부
196: 오디오 출력부

Claims (14)

  1. 전자 장치의 제어 방법에 있어서,
    음성 입력부를 통해 음성 개시 명령을 입력받는 단계;
    상기 음성 개시 명령이 입력되면, 상기 전자 장치의 모드를 사용자 음성에 의해 제어되는 음성 태스크 모드로 전환하고, 상기 전자 장치에서 음성 태스크 모드를 수행하기 위한 복수의 음성 아이템을 포함하는 음성 가이드 정보를 디스플레이하는 단계; 및
    사용자 입력에 따라, 상기 복수의 음성 아이템 중 적어도 하나를 다른 음성 아이템으로 변경하는 단계;를 포함하는 제어 방법.
  2. 제1항에 있어서,
    상기 음성 가이드 정보는,
    음성 아이템이 고정적으로 디스플레이되는 고정 아이템 영역 및 음성 아이템이 가변적으로 변경되는 변경 아이템 영역을 포함하는 것을 특징으로 하는 제어 방법.
  3. 제2항에 있어서,
    상기 고정 아이템 영역에는 상기 전자 장치의 전원 끄기를 수행하기 위한 음성 아이템이 포함된 것을 특징으로 하는 제어 방법.
  4. 제1항에 있어서,
    상기 변경하는 단계는,
    어플리케이션을 실행하기 위한 사용자 명령이 입력되면, 상기 어플리케이션을 실행하는 단계;
    상기 어플리케이션이 실행되면, 상기 복수의 음성 아이템 중 적어도 하나를 상기 실행된 어플리케이션에 대응되는 음성 아이템으로 변경하는 단계;를 포함하는 제어 방법.
  5. 제1항에 있어서,
    상기 변경하는 단계는,
    상기 사용자 선호 음성 아이템을 디스플레이하기 위한 사용자 명령을 입력받는 단계;
    상기 사용자 명령이 입력되면, 상기 복수의 음성 아이템 중 적어도 하나를 사용자에 의해 설정된 사용자 선호 음성 아이템으로 변경하는 단계;를 포함하는 제어 방법.
  6. 제1항에 있어서,
    상기 변경된 음성 가이드 정보에는 변경 전 음성 가이드 정보로 전환을 수행하기 위한 음성 아이템이 포함된 것을 특징으로 하는 제어 방법.
  7. 전자 장치에 있어서,
    사용자 음성을 입력받는 음성 입력부;
    디스플레이부; 및
    상기 음성 입력부를 통해 음성 개시 명령이 입력되면, 상기 전자 장치의 모드를 사용자 음성에 의해 제어되는 음성 태스크 모드로 전환하고, 상기 전자 장치에서 음성 태스크 모드를 수행하기 위한 복수의 음성 아이템을 포함하는 음성 가이드 정보를 상기 디스플레이부에 디스플레이하며, 사용자 입력에 따라, 상기 복수의 음성 아이템 중 적어도 하나를 다른 음성 아이템으로 변경하는 제어부;를 포함하는 전자 장치.
  8. 제7항에 있어서,
    상기 음성 가이드 정보는,
    음성 아이템이 고정적으로 디스플레이되는 고정 아이템 영역 및 음성 아이템이 가변적으로 변경되는 변경 아이템 영역을 포함하는 것을 특징으로 하는 전자 장치.
  9. 제8항에 있어서,
    상기 고정 아이템 영역에는 상기 전자 장치의 전원 끄기를 수행하기 위한 음성 아이템이 포함된 것을 특징으로 하는 전자 장치.
  10. 제7항에 있어서,
    상기 제어부는,
    어플리케이션을 실행하기 위한 사용자 명령이 입력되면, 상기 어플리케이션을 실행하고, 상기 복수의 음성 아이템 중 적어도 하나를 상기 실행된 어플리케이션에 대응되는 음성 아이템으로 변경하는 것을 특징으로 하는 전자 장치.
  11. 제7항에 있어서,
    상기 제어부는,
    상기 사용자 선호 음성 아이템을 디스플레이하기 위한 사용자 명령이 입력되면, 상기 복수의 음성 아이템 중 적어도 하나를 사용자에 의해 설정된 사용자 선호 음성 아이템으로 변경하는 것을 특징으로 하는 전자 장치.
  12. 제7항에 있어서,
    상기 변경된 음성 가이드 정보에는 변경 전 음성 가이드 정보로 전환을 수행하기 위한 음성 아이템이 포함된 것을 특징으로 하는 전자 장치.
  13. 전자 장치의 제어 방법에 있어서,
    모션 입력부를 통해 모션 개시 명령을 입력받는 단계;
    상기 모션 개시 명령이 입력되면, 상기 전자 장치의 모드를 사용자 모션에 의해 제어되는 모션 태스크 모드로 전환하고, 상기 전자 장치에서 모션 태스크 모드를 수행하기 위한 복수의 모션 아이템을 포함하는 모션 가이드 정보를 디스플레이하는 단계; 및
    어플리케이션 실행 명령이 입력되면, 상기 복수의 모션 아이템 중 적어도 하나를 상기 실행되는 어플리케이션에 대응되는 모션 아이템으로 변경하는 단계;를 포함하는 제어 방법.
  14. 전자 장치에 있어서,
    사용자 모션을 입력받는 모션 입력부;
    디스플레이부; 및
    상기 모션 입력부를 통해 모션 개시 명령이 입력되면, 상기 전자 장치의 모드를 사용자 모션에 의해 제어되는 모션 태스크 모드로 전환하고, 상기 전자 장치에서 모션 태스크 모드를 수행하기 위한 복수의 모션 아이템을 포함하는 모션 가이드 정보를 상기 디스플레이부에 디스플레이하며, 어플리케이션 실행 명령이 입력되면, 상기 복수의 모션 아이템 중 적어도 하나를 상기 실행되는 어플리케이션에 대응되는 모션 아이템으로 변경하는 제어부;를 포함하는 전자 장치.
KR1020110147454A 2011-12-30 2011-12-30 전자 장치 및 그의 제어 방법 Ceased KR20130078486A (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020110147454A KR20130078486A (ko) 2011-12-30 2011-12-30 전자 장치 및 그의 제어 방법
US13/687,704 US20130169524A1 (en) 2011-12-30 2012-11-28 Electronic apparatus and method for controlling the same
EP12198503.0A EP2610863B1 (en) 2011-12-30 2012-12-20 Electronic apparatus and method for controlling the same by voice input
CN201210574942.1A CN103187054B (zh) 2011-12-30 2012-12-26 电子装置和控制电子装置的方法
JP2012284267A JP2013140359A (ja) 2011-12-30 2012-12-27 電子装置及びその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110147454A KR20130078486A (ko) 2011-12-30 2011-12-30 전자 장치 및 그의 제어 방법

Publications (1)

Publication Number Publication Date
KR20130078486A true KR20130078486A (ko) 2013-07-10

Family

ID=47720238

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110147454A Ceased KR20130078486A (ko) 2011-12-30 2011-12-30 전자 장치 및 그의 제어 방법

Country Status (5)

Country Link
US (1) US20130169524A1 (ko)
EP (1) EP2610863B1 (ko)
JP (1) JP2013140359A (ko)
KR (1) KR20130078486A (ko)
CN (1) CN103187054B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11984121B2 (en) 2019-02-01 2024-05-14 Sony Group Corporation Information processing device to stop the turn off of power based on voice input for voice operation

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140089861A (ko) 2013-01-07 2014-07-16 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
US9431008B2 (en) 2013-05-29 2016-08-30 Nuance Communications, Inc. Multiple parallel dialogs in smart phone applications
KR20150010872A (ko) * 2013-07-19 2015-01-29 삼성전자주식회사 디스플레이 장치 및 이의 ui 제공 방법
USRE49284E1 (en) 2013-10-17 2022-11-08 Panasonic Intellectual Property Corporation Of America Method for controlling cordless telephone device, handset of cordless telephone device, and cordless telephone device
JP6309382B2 (ja) * 2013-10-17 2018-04-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America コードレス電話機器の制御方法、コードレス電話機器の子機及びコードレス電話機器
KR102209519B1 (ko) * 2014-01-27 2021-01-29 삼성전자주식회사 음성 제어를 수행하는 디스플레이 장치 및 그 음성 제어 방법
WO2015144621A1 (en) * 2014-03-26 2015-10-01 Sony Corporation Electronic device and method for controlling the electronic device
CN104978958A (zh) * 2014-04-14 2015-10-14 美的集团股份有限公司 语音控制方法和系统
WO2015187048A1 (en) 2014-06-06 2015-12-10 Obschestvo S Ogranichennoy Otvetstvennostiyu "Speactoit" Proactive environment-based chat information system
KR102245747B1 (ko) * 2014-11-20 2021-04-28 삼성전자주식회사 사용자 명령어 등록을 위한 디스플레이 장치 및 방법
CN106302972A (zh) * 2015-06-05 2017-01-04 中兴通讯股份有限公司 语音使用的提示方法以及终端设备
CN106488286A (zh) * 2015-08-28 2017-03-08 上海欢众信息科技有限公司 云端信息收集系统
CN107025046A (zh) * 2016-01-29 2017-08-08 阿里巴巴集团控股有限公司 终端应用语音操作方法及系统
US10547729B2 (en) 2017-03-27 2020-01-28 Samsung Electronics Co., Ltd. Electronic device and method of executing function of electronic device
KR102343084B1 (ko) * 2017-03-27 2021-12-27 삼성전자주식회사 전자 장치 및 전자 장치의 기능 실행 방법
TWI653550B (zh) * 2017-07-06 2019-03-11 鴻海精密工業股份有限公司 電子裝置及電子裝置的顯示控制方法
CN107452382A (zh) * 2017-07-19 2017-12-08 珠海市魅族科技有限公司 语音操作方法及装置、计算机装置和计算机可读存储介质
KR102489914B1 (ko) 2017-09-15 2023-01-20 삼성전자주식회사 전자 장치 및 이의 제어 방법
WO2019054827A1 (ko) 2017-09-15 2019-03-21 삼성전자주식회사 전자 장치 및 이의 제어 방법
CN107833574B (zh) * 2017-11-16 2021-08-24 百度在线网络技术(北京)有限公司 用于提供语音服务的方法和装置
US20200209934A1 (en) * 2018-12-28 2020-07-02 Dongguan Evn Electronics Co., Ltd. Internet-of-things-based computer on/off control expansion device and computer on/off control system
CN110459218A (zh) * 2019-08-23 2019-11-15 珠海格力电器股份有限公司 一种应用于烹饪家电的语音交互控制方法及系统

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS596209U (ja) * 1982-07-02 1984-01-14 株式会社日立製作所 プラント監視装置の音声入力装置
US4827520A (en) * 1987-01-16 1989-05-02 Prince Corporation Voice actuated control system for use in a vehicle
JPH10222337A (ja) * 1997-02-13 1998-08-21 Meidensha Corp コンピュータシステム
FR2783625B1 (fr) * 1998-09-21 2000-10-13 Thomson Multimedia Sa Systeme comprenant un appareil telecommande et un dispositif de telecommande vocale de l'appareil
JP4314680B2 (ja) * 1999-07-27 2009-08-19 ソニー株式会社 音声認識制御システム及び音声認識制御方法
US6591239B1 (en) * 1999-12-09 2003-07-08 Steris Inc. Voice controlled surgical suite
JP2001197379A (ja) * 2000-01-05 2001-07-19 Matsushita Electric Ind Co Ltd 機器設定装置、機器設定システムおよび機器設定処理プログラムを記録した記録媒体
CN1125431C (zh) * 2000-12-28 2003-10-22 广东科龙电器股份有限公司 家庭综合服务器
US7546548B2 (en) * 2002-06-28 2009-06-09 Microsoft Corporation Method and system for presenting menu commands for selection
DE10360655A1 (de) * 2003-12-23 2005-07-21 Daimlerchrysler Ag Bediensystem für ein Fahrzeug
US8279171B2 (en) * 2006-07-06 2012-10-02 Panasonic Corporation Voice input device
JP2008118346A (ja) * 2006-11-02 2008-05-22 Softbank Mobile Corp 移動通信端末および管理サーバ
TW201009650A (en) * 2008-08-28 2010-03-01 Acer Inc Gesture guide system and method for controlling computer system by gesture
DE102009018590B4 (de) * 2009-04-23 2022-11-17 Volkswagen Ag Kraftfahrzeug mit einer Bedienvorrichtung und dazugehöriges Verfahren
GB0911353D0 (en) * 2009-06-30 2009-08-12 Haq Saad U Discrete voice command navigator
US8428368B2 (en) * 2009-07-31 2013-04-23 Echostar Technologies L.L.C. Systems and methods for hand gesture control of an electronic device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11984121B2 (en) 2019-02-01 2024-05-14 Sony Group Corporation Information processing device to stop the turn off of power based on voice input for voice operation

Also Published As

Publication number Publication date
CN103187054B (zh) 2017-07-28
JP2013140359A (ja) 2013-07-18
CN103187054A (zh) 2013-07-03
EP2610863A3 (en) 2013-07-24
US20130169524A1 (en) 2013-07-04
EP2610863B1 (en) 2016-11-30
EP2610863A2 (en) 2013-07-03

Similar Documents

Publication Publication Date Title
KR20130078486A (ko) 전자 장치 및 그의 제어 방법
KR102003267B1 (ko) 전자 장치 및 그의 제어 방법
JP5535298B2 (ja) 電子装置及びその制御方法
CN104620593A (zh) 显示装置及用于控制该显示装置的方法
KR101237472B1 (ko) 전자 장치 및 그의 제어 방법
KR101324232B1 (ko) 전자 장치 및 그의 제어 방법
KR20140085055A (ko) 전자 장치 및 그의 제어 방법
KR20130080380A (ko) 전자 장치 및 그의 제어 방법
KR20130078483A (ko) 전자 장치 및 그의 제어 방법
KR20130078490A (ko) 전자 장치 및 그의 제어 방법
KR102066564B1 (ko) 전자 장치 및 그의 제어 방법
JP2015535971A (ja) ディスプレイ装置及びその制御方法
KR20130078489A (ko) 전자 장치 및 이의 화각 설정 방법

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20111230

PG1501 Laying open of application
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20161215

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20111230

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20170918

Patent event code: PE09021S01D

E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20171120

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20170918

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I