KR102758246B1 - Electronic device for controlling function associated to stylus pen by air gesture, method for operating thereof and storage medium - Google Patents
Electronic device for controlling function associated to stylus pen by air gesture, method for operating thereof and storage medium Download PDFInfo
- Publication number
- KR102758246B1 KR102758246B1 KR1020200033863A KR20200033863A KR102758246B1 KR 102758246 B1 KR102758246 B1 KR 102758246B1 KR 1020200033863 A KR1020200033863 A KR 1020200033863A KR 20200033863 A KR20200033863 A KR 20200033863A KR 102758246 B1 KR102758246 B1 KR 102758246B1
- Authority
- KR
- South Korea
- Prior art keywords
- stylus pen
- electronic device
- air gesture
- detected
- input signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
전자 장치는, 센싱 패널을 포함하는 표시 장치, 적어도 하나의 센서, 상기 표시 장치 및 상기 적어도 하나의 센서와 작동적으로 연결된 적어도 하나의 프로세서 및 상기 적어도 하나의 프로세서와 작동적으로 연결된 메모리를 포함하며, 상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가, 상기 적어도 하나의 센서에 의해 상기 전자 장치의 근접 영역에서 에어 제스처에 대응하는 제1 입력 신호가 검출되고, 상기 센싱 패널을 통해 상기 스타일러스 펜에 의한 입력에 대응하는 제2 입력 신호가 검출되지 않으면, 상기 제1 입력 신호에 대응하여 화면 표시와 관련된 제1 기능을 제어하고, 상기 제2 입력 신호가 검출된 상태에서 상기 제1 입력 신호가 검출되면, 상기 제1 입력 신호에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어하도록 구성된 인스트럭션들을 저장할 수 있다. 다른 실시 예가 가능하다.An electronic device includes a display device including a sensing panel, at least one sensor, at least one processor operatively connected with the display device and the at least one sensor, and a memory operatively connected with the at least one processor, wherein the memory may store instructions configured to, when executed, cause the at least one processor to, when a first input signal corresponding to an air gesture is detected in a proximity area of the electronic device by the at least one sensor and a second input signal corresponding to an input by the stylus pen is not detected through the sensing panel, control a first function related to a screen display in response to the first input signal, and when the first input signal is detected in a state where the second input signal is detected, control a second function related to the stylus pen in response to the first input signal. Other embodiments are possible.
Description
다양한 실시 예는 에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 전자 장치, 그 동작 방법 및 저장 매체에 관한 것이다.Various embodiments relate to an electronic device, a method of operating the same, and a storage medium for controlling functions associated with a stylus pen by air gestures.
전자 장치는, 전자 장치와 무선 통신을 통하여 연결된 특정한(specified) 입력 장치(예: 스타일러스 펜)를 통하여 사용자로부터 다양한 입력을 받을 수 있도록 개발되고 있다. 전자 장치는, 펜 기능을 가지는 입력 장치(이하, 설명의 편의를 위하여 "스타일러스 펜"이라는 용어로 언급될 수 있다)에 의하여 지정된 전자 장치 상의 위치를 확인할 수 있으며, 이에 대응하는 기능을 수행할 수 있다.Electronic devices are being developed to receive various inputs from users through a specified input device (e.g., a stylus pen) connected to the electronic device via wireless communication. The electronic device can identify a location on the electronic device specified by an input device having a pen function (hereinafter, for convenience of explanation, may be referred to as a “stylus pen”) and perform a corresponding function.
전자 장치는, 전자기 유도(Electro magnetic resonance, 이하 EMR이라 함)방식을 이용하여 스타일러스 펜으로부터 발생하는 자기장을 검출할 수 있다. 전자 장치는, 채널 별로 자기장에 의하여 발생되는 유도 기전력에 기반하여 스타일러스 펜의 위치를 확인할 수 있다.The electronic device can detect a magnetic field generated from a stylus pen using an electromagnetic resonance (EMR) method. The electronic device can identify the position of the stylus pen based on the induced electromotive force generated by the magnetic field for each channel.
스타일러스 펜은, 전자 장치와 근거리 통신(예: 블루투스 저 에너지(BLE))을 통하여 연결될 수 있다. 스타일러스 펜은, 예를 들어 스타일러스 펜의 하우징 상에 배치되는 버튼의 눌림 상태에 대한 정보를 근거리 통신을 통하여 전자 장치로 송신할 수 있으며, 전자 장치는 수신한 정보에 기반하여 지정된 동작을 수행할 수 있다.The stylus pen can be connected to an electronic device via short-range communication (e.g., Bluetooth low energy (BLE)). The stylus pen can transmit information about the pressed state of a button disposed on the housing of the stylus pen to the electronic device via short-range communication, and the electronic device can perform a designated action based on the received information.
스타일러스 펜을 이용함으로써 사용자는 전자 장치의 화면 위에서 노트에 필기하는 것과 같이 손글씨를 입력하거나 그림을 그릴 수 있다. 또한, 노트 어플리케이션을 통해 사용자는 그림을 그릴 수 있을 뿐만 아니라 펜의 굵기, 브러쉬, 색과 같은 펜 드로잉 옵션들을 다양하게 변경하여 드로잉 표시를 출력할 수 있다. 이와 같이 사용자는 스타일러스 펜을 이용하여 편리하고 직관적으로 전자 장치에 입력을 제공할 수 있다. By using the stylus pen, the user can input handwriting or draw pictures on the screen of the electronic device as if writing a note. In addition, the note application allows the user to not only draw pictures, but also output the drawing marks by changing various pen drawing options such as the thickness of the pen, brush, and color. In this way, the user can conveniently and intuitively provide input to the electronic device using the stylus pen.
하지만, 스타일러스 펜에 기반한 다양한 기능을 지원하는 어플리케이션의 경우 상기 다양한 기능을 사용자가 일일이 선택 및 설정해야 하므로, 효과적인 제어가 어려울 수 있다. 예를 들어, 노트 어플리케이션이 실행된 상태에서 사용자가 펜 드로잉 옵션들을 설정하기 위해서는 팔레트(pallet)를 먼저 선택한 후 브러쉬를 선택하고 이어 굵기를 선택하는 순서와 같이 순차적 경로를 통해서만 하위 경로에 접근이 가능할 수 있다. 게다가 터치 오동작 방지를 위해 팜 리젝(palm reject) 기능이 적용되고 있기 때문에, 멀티 터치 인터랙션 적용이 어려울 수 있다. However, in the case of applications that support various functions based on a stylus pen, effective control may be difficult because the user must select and set the various functions one by one. For example, when a note application is running, in order for the user to set pen drawing options, the user may only be able to access the lower paths through a sequential path, such as first selecting a palette, then selecting a brush, and then selecting a thickness. In addition, since a palm reject function is applied to prevent touch malfunction, it may be difficult to apply multi-touch interaction.
아울러, 특정 동작의 반복을 위하여, 사용자는 스타일러스 펜을 이용한 조작을 반복하여야 할 수 있다. 예를 들어, 사용자가 펜 드로잉 옵션을 설정하고 세부 설정값을 조정하는 동작을 빈번하게 반복적으로 수행해야 하므로 사용자 입장에서는 번거로움을 유발할 수 있다. 따라서 스타일러스 펜에 기반한 다양한 기능을 끊김 없이 빠르고 쉽게 제어할 수 있는 방법이 요구될 수 있다.In addition, in order to repeat a specific action, the user may have to repeat the operation using the stylus pen. For example, the user may have to frequently and repeatedly perform the action of setting the pen drawing option and adjusting the detailed setting value, which may cause inconvenience to the user. Therefore, a method may be required that can control various functions based on the stylus pen quickly and easily without interruption.
일 실시 예에 따르면, 전자 장치는, 센싱 패널을 포함하는 표시 장치, 적어도 하나의 센서, 상기 표시 장치 및 상기 적어도 하나의 센서와 작동적으로 연결된 적어도 하나의 프로세서 및 상기 적어도 하나의 프로세서와 작동적으로 연결된 메모리를 포함하며, 상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가, 상기 적어도 하나의 센서에 의해 상기 전자 장치의 근접 영역에서 에어 제스처에 대응하는 제1 입력 신호가 검출되고, 상기 센싱 패널을 통해 상기 스타일러스 펜에 의한 입력에 대응하는 제2 입력 신호가 검출되지 않으면, 상기 제1 입력 신호에 대응하여 화면 표시와 관련된 제1 기능을 제어하고, 상기 제2 입력 신호가 검출된 상태에서 상기 제1 입력 신호가 검출되면, 상기 제1 입력 신호에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어하도록 구성된 인스트럭션들을 저장할 수 있다. According to one embodiment, an electronic device includes a display device including a sensing panel, at least one sensor, at least one processor operatively connected with the display device and the at least one sensor, and a memory operatively connected with the at least one processor, wherein the memory stores instructions configured to, when executed, cause the at least one processor to: if a first input signal corresponding to an air gesture is detected in a proximity area of the electronic device by the at least one sensor and a second input signal corresponding to an input by the stylus pen is not detected through the sensing panel, control a first function related to a screen display in response to the first input signal; and if the first input signal is detected in a state where the second input signal is detected, control a second function related to the stylus pen in response to the first input signal.
일 실시 예에 따르면, 전자 장치에서 에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 방법은, 적어도 하나의 센서에 의해 상기 전자 장치의 근접 영역에서 에어 제스처에 대응하는 제1 입력 신호 및 스타일러스 펜에 의한 입력에 대응하는 제2 입력 신호 중 적어도 하나가 검출되는지를 식별하는 동작, 상기 제2 입력 신호가 검출되지 않는 상태에서 상기 제1 입력 신호의 검출에 대응하여, 화면 표시와 관련된 제1 기능을 제어하는 동작, 및 상기 제2 입력 신호가 검출되는 상태에서 상기 제1 입력 신호의 검출에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어하는 동작을 포함할 수 있다. According to one embodiment, a method for controlling a function associated with a stylus pen by an air gesture in an electronic device may include an operation of identifying whether at least one of a first input signal corresponding to the air gesture and a second input signal corresponding to an input by the stylus pen is detected in a proximity area of the electronic device by at least one sensor, an operation of controlling a first function associated with a screen display in response to detection of the first input signal in a state in which the second input signal is not detected, and an operation of controlling a second function associated with the stylus pen in response to detection of the first input signal in a state in which the second input signal is detected.
일 실시 예에 따르면, 명령들을 저장하고 있는 저장 매체에 있어서, 상기 명령들은 적어도 하나의 프로세서에 의하여 실행될 때에 상기 적어도 하나의 프로세서로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 적어도 하나의 센서에 의해 상기 전자 장치의 근접 영역에서 에어 제스처에 대응하는 제1 입력 신호 및 스타일러스 펜에 의한 입력에 대응하는 제2 입력 신호 중 적어도 하나가 검출되는지를 식별하는 동작, 상기 제2 입력 신호가 검출되지 않는 상태에서 상기 제1 입력 신호의 검출에 대응하여, 화면 표시와 관련된 제1 기능을 제어하는 동작, 및 상기 제2 입력 신호가 검출되는 상태에서 상기 제1 입력 신호의 검출에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어하는 동작을 포함할 수 있다.According to one embodiment, a storage medium storing commands may include: a processor configured to cause the processor to perform at least one operation when the commands are executed by at least one processor, wherein the at least one operation may include: an operation of identifying whether at least one of a first input signal corresponding to an air gesture and a second input signal corresponding to an input by a stylus pen is detected in a proximity area of the electronic device by at least one sensor; an operation of controlling a first function related to a screen display in response to detection of the first input signal in a state in which the second input signal is not detected; and an operation of controlling a second function related to the stylus pen in response to detection of the first input signal in a state in which the second input signal is detected.
일 실시 예에 따르면, 스타일러스 펜에 기반한 다양한 기능을 지원하는 어플리케이션이 실행된 상태에서 에어 제스처를 통해 스타일러스 펜과 연관된 기능을 편리하고 직관적으로 이용할 수 있다. According to one embodiment, when an application supporting various functions based on a stylus pen is running, functions associated with the stylus pen can be conveniently and intuitively used through air gestures.
일 실시 예에 따르면, 스타일러스 펜을 쥔 반대쪽 손의 에어 제스처를 통해 스타일러스 펜과 연관된 기능을 손쉽게 제어할 수 있어 양손 조작을 통한 작업 효율성이 증대될 수 있다. According to one embodiment, functions associated with a stylus pen can be easily controlled through air gestures of the hand opposite to the hand holding the stylus pen, thereby increasing work efficiency through two-handed operation.
일 실시 예에 따르면, 스타일러스 펜을 이용한 드로잉 시에는 실행 화면이 아닌 전자 장치)의 근접 영역에서 에어 제스처를 이용함으로써 스타일러스 펜을 쥔 손의 끊김 없는 드로잉이 가능할 뿐만 아니라 드로잉 집중도도 향상될 수 있다. According to one embodiment, when drawing using a stylus pen, by using air gestures in a proximity area of an electronic device rather than an execution screen, not only is uninterrupted drawing possible with a hand holding the stylus pen, but drawing concentration can also be improved.
일 실시 예에 따르면, 고정된 팝업창 예컨대, 고정된 팔레트 패널이 아닌 에어 제스처에 대응하여 어플리케이션 실행 화면의 제어 또는 스타일러스 펜과 관련된 속성 변경이 가능하기 때문에 사용자 입장에서는 즉각적인 피드백을 얻을 수 있을 뿐만 아니라 실행 화면의 적어도 일부를 가리지 않아 공간 활용에 있어 효율적일 수 있다.According to one embodiment, since the control of the application execution screen or the change of properties related to the stylus pen can be performed in response to air gestures rather than a fixed pop-up window, for example, a fixed palette panel, not only can the user obtain immediate feedback, but also can be efficient in terms of space utilization by not covering at least a part of the execution screen.
도 1은 다양한 실시 예에 따른 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2는 일 실시 예에 따른 스타일러스 펜을 포함하는 전자 장치의 사시도이다.
도 3a는 일 실시 예에 따른 스타일러스 펜을 도시하는 블록도이다.
도 3b는 일 실시 예에 따른 스타일러스 펜의 분리 사시도이다.
도 4는 일 실시 예에 따른 스타일러스 펜과 연관된 에어 제스처를 처리하기 위한 전자 장치의 내부 블록 구성도이다.
도 5는 일 실시 예에 따른 에어 제스처를 이용한 어플리케이션 실행 화면의 제어를 설명하기 위한 화면 예시도이다.
도 6은 일 실시 예에 따른 에어 제스처를 이용한 호버링 시의 스타일러스 펜 속성 변경을 설명하기 위한 화면 예시도이다.
도 7은 일 실시 예에 따른 스타일러스 펜과 연관된 에어 제스처를 처리하기 위한 전자 장치의 동작 흐름도이다.
도 8은 일 실시 예에 따른 에어 제스처의 종류를 예시한 테이블이다.
도 9a는 일 실시 예에 따른 에어 제스처 모드 활성화 전 어플리케이션 실행 화면 예시도이다.
도 9b는 일 실시 예에 따른 에어 제스처 모드 활성화 시 툴 패널의 변화를 설명하기 위한 화면 예시도이다.
도 9c는 일 실시 예에 따른 에어 제스처 모드의 활성화 완료 시 툴 패널의 변화를 설명하기 위한 화면 예시도이다.
도 9d는 일 실시 예에 따른 에어 제스처 모드 활성화 완료 시 툴 패널의 숨김 상태를 설명하기 위한 화면 예시도이다.
도 10a는 일 실시 예에 따른 에어 제스처 모드 진입에 따른 상태 정보를 제공하는 화면 예시도이다.
도 10b는 일 실시 예에 따른 에어 제스처 입력에 따른 상태 정보를 제공하는 화면 예시도이다.
도 10c는 일 실시 예예 따른 에어 제스처 미검출에 따른 상태 정보를 제공하는 화면 예시도이다.
도 11a는 일 실시 예에 따른 에어 제스처에 기반한 펜 속성 변경 동작을 설명하기 위한 화면 예시도이다.
도 11b는 일 실시 예에 따른 펜 속성 변경에 따른 아이콘 패널을 제공하는 화면 예시도이다.
도 11c는 일 실시 예에 따른 펜 속성 변경에 따른 아이콘 패널의 숨김 상태를 나타내는 화면 예시도이다.
도 12는 일 실시 예에 따른 호버링에 따른 아이콘 패널의 표시 동작을 설명하기 위한 화면 예시도이다.
도 13a는 일 실시 예에 따른 오른손 모드용 화면 예시도이다.
도 13b는 일 실시 에에 따른 왼손 모드용 화면 예시도이다.
도 14는 일 실시 예에 따른 스타일러스 펜 탈거 시 에어 제스처를 이용한 동작을 설명하기 위한 화면 예시도이다.
도 15는 일 실시 예에 따른 에어 제스처를 이용한 번역기 동작을 설명하기 위한 화면 예시도이다.FIG. 1 is a block diagram of an electronic device within a network environment according to various embodiments.
FIG. 2 is a perspective view of an electronic device including a stylus pen according to one embodiment.
FIG. 3a is a block diagram illustrating a stylus pen according to one embodiment.
FIG. 3b is an exploded perspective view of a stylus pen according to one embodiment.
FIG. 4 is an internal block diagram of an electronic device for processing air gestures associated with a stylus pen according to one embodiment.
FIG. 5 is an example screen diagram for explaining control of an application execution screen using air gestures according to one embodiment.
FIG. 6 is an example screen diagram for explaining changes in stylus pen properties when hovering using air gestures according to one embodiment.
FIG. 7 is a flowchart illustrating an operation of an electronic device for processing air gestures associated with a stylus pen according to one embodiment.
Figure 8 is a table illustrating types of air gestures according to one embodiment.
FIG. 9a is an example of an application execution screen before activating air gesture mode according to one embodiment.
FIG. 9b is an example screen diagram for explaining changes in the tool panel when the air gesture mode is activated according to one embodiment.
FIG. 9c is an example screen diagram for explaining changes in the tool panel when activation of the air gesture mode according to one embodiment is completed.
FIG. 9d is an example screen diagram for explaining the hidden state of the tool panel when activation of the air gesture mode is completed according to one embodiment.
FIG. 10A is an example screen diagram providing status information upon entry into air gesture mode according to one embodiment.
FIG. 10b is an example screen diagram providing status information according to an air gesture input according to one embodiment.
FIG. 10c is an example screen diagram providing status information according to non-detection of an air gesture according to one embodiment.
FIG. 11A is an example screen diagram for explaining a pen property change operation based on an air gesture according to one embodiment.
FIG. 11b is an example screen diagram providing an icon panel according to a change in pen properties according to one embodiment.
FIG. 11c is an example screen diagram showing a hidden state of an icon panel according to a change in pen properties according to one embodiment.
FIG. 12 is an example screen diagram for explaining the display operation of an icon panel according to hovering according to one embodiment.
Figure 13a is an example screen diagram for right-hand mode according to one embodiment.
Figure 13b is an example screen for left-hand mode according to one embodiment.
FIG. 14 is an example screen diagram for explaining an operation using an air gesture when removing a stylus pen according to one embodiment.
FIG. 15 is an example screen diagram for explaining the operation of a translator using air gestures according to one embodiment.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명의 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의된 용어들은 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미를 가지는 것으로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 발명의 실시 예들을 배제하도록 해석될 수 없다.The terms used in this document are only used to describe specific embodiments and may not be intended to limit the scope of other embodiments. The singular expression may include the plural expression unless the context clearly indicates otherwise. All terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person having ordinary skill in the art of the present invention. Terms defined in commonly used dictionaries may be interpreted as having the same or similar meaning in the context of the related art, and shall not be interpreted in an ideal or excessively formal meaning unless explicitly defined in this document. In some cases, even if a term is defined in this document, it cannot be interpreted to exclude embodiments of the present invention.
도 1은, 다양한 실시 예에 따른, 네트워크 환경(100a) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100a)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시 예에서는, 이 구성 요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다FIG. 1 is a block diagram of an electronic device (101) in a network environment (100a) according to various embodiments. Referring to FIG. 1, in the network environment (100a), the electronic device (101) may communicate with the electronic device (102) through a first network (198) (e.g., a short-range wireless communication network), or may communicate with the electronic device (104) or the server (108) through a second network (199) (e.g., a long-range wireless communication network). According to one embodiment, the electronic device (101) may communicate with the electronic device (104) through the server (108). According to one embodiment, the electronic device (101) may include a processor (120), a memory (130), an input device (150), an audio output device (155), a display device (160), an audio module (170), a sensor module (176), an interface (177), a haptic module (179), a camera module (180), a power management module (188), a battery (189), a communication module (190), a subscriber identification module (196), or an antenna module (197). In some embodiments, the electronic device (101) may omit at least one of these components (e.g., the display device (160) or the camera module (180)), or may include one or more other components. In some embodiments, some of these components may be implemented as a single integrated circuit. For example, a sensor module (176) (e.g., a fingerprint sensor, an iris sensor, or a light sensor) may be implemented embedded in a display device (160) (e.g., a display).
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)은 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor (120) may control at least one other component (e.g., a hardware or software component) of the electronic device (101) connected to the processor (120) by executing, for example, software (e.g., a program (140)), and may perform various data processing or calculations. According to one embodiment, as at least a part of the data processing or calculation, the processor (120) may load a command or data received from another component (e.g., a sensor module (176) or a communication module (190)) into a volatile memory (132), process the command or data stored in the volatile memory (132), and store result data in a non-volatile memory (134). According to one embodiment, the processor (120) may include a main processor (121) (e.g., a central processing unit or an application processor), and a secondary processor (123) (e.g., a graphic processing unit, an image signal processor, a sensor hub processor, or a communication processor) that may operate independently or together therewith. Additionally or alternatively, the auxiliary processor (123) may be configured to use less power than the main processor (121), or to be specialized for a given function. The auxiliary processor (123) may be implemented separately from the main processor (121), or as a part thereof.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. The auxiliary processor (123) may control at least a portion of functions or states associated with at least one of the components of the electronic device (101) (e.g., the display device (160), the sensor module (176), or the communication module (190)), for example, on behalf of the main processor (121) while the main processor (121) is in an inactive (e.g., sleep) state, or together with the main processor (121) while the main processor (121) is in an active (e.g., application execution) state. According to one embodiment, the auxiliary processor (123) (e.g., an image signal processor or a communication processor) may be implemented as a part of another functionally related component (e.g., a camera module (180) or a communication module (190)).
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성 요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The memory (130) can store various data used by at least one component (e.g., processor (120) or sensor module (176)) of the electronic device (101). The data can include, for example, software (e.g., program (140)) and input data or output data for commands related thereto. The memory (130) can include volatile memory (132) or nonvolatile memory (134).
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program (140) may be stored as software in memory (130) and may include, for example, an operating system (142), middleware (144), or an application (146).
입력 장치(150)는, 전자 장치(101)의 구성 요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)는, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input device (150) can receive commands or data to be used in a component of the electronic device (101) (e.g., a processor (120)) from an external source (e.g., a user) of the electronic device (101). The input device (150) can include, for example, a microphone, a mouse, a keyboard, or a digital pen (e.g., a stylus pen).
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The audio output device (155) can output an audio signal to the outside of the electronic device (101). The audio output device (155) can include, for example, a speaker or a receiver. The speaker can be used for general purposes such as multimedia playback or recording playback, and the receiver can be used to receive an incoming call. According to one embodiment, the receiver can be implemented separately from the speaker or as a part thereof.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)는, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다. The display device (160) can visually provide information to an external party (e.g., a user) of the electronic device (101). The display device (160) can include, for example, a display, a holographic device, or a projector and a control circuit for controlling the device. According to one embodiment, the display device (160) can include touch circuitry configured to detect a touch, or a sensor circuitry configured to measure a strength of a force generated by the touch (e.g., a pressure sensor).
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.The audio module (170) can convert sound into an electric signal, or vice versa, convert an electric signal into sound. According to one embodiment, the audio module (170) can obtain sound through an input device (150), or output sound through an audio output device (155), or an external electronic device (e.g., an electronic device (102) (e.g., a speaker or headphone)) directly or wirelessly connected to the electronic device (101).
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module (176) can detect an operating state (e.g., power or temperature) of the electronic device (101) or an external environmental state (e.g., user state) and generate an electric signal or data value corresponding to the detected state. According to one embodiment, the sensor module (176) can include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, a humidity sensor, or an illuminance sensor.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface (177) may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device (101) with an external electronic device (e.g., the electronic device (102)). According to one embodiment, the interface (177) may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시 예에 따르면, 연결 단자(178)은, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal (178) may include a connector through which the electronic device (101) may be physically connected to an external electronic device (e.g., the electronic device (102)). According to one embodiment, the connection terminal (178) may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (e.g., a headphone connector).
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module (179) can convert an electrical signal into a mechanical stimulus (e.g., vibration or movement) or an electrical stimulus that a user can perceive through a tactile or kinesthetic sense. According to one embodiment, the haptic module (179) can include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module (180) can capture still images and moving images. According to one embodiment, the camera module (180) can include one or more lenses, image sensors, image signal processors, or flashes.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module (188) can manage power supplied to the electronic device (101). According to one embodiment, the power management module (188) can be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery (189) can power at least one component of the electronic device (101). In one embodiment, the battery (189) can include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다. The communication module (190) may support establishment of a direct (e.g., wired) communication channel or a wireless communication channel between the electronic device (101) and an external electronic device (e.g., the electronic device (102), the electronic device (104), or the server (108)), and performance of communication through the established communication channel. The communication module (190) may operate independently from the processor (120) (e.g., the application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication. According to one embodiment, the communication module (190) may include a wireless communication module (192) (e.g., a cellular communication module, a short-range wireless communication module, or a GNSS (global navigation satellite system) communication module) or a wired communication module (194) (e.g., a local area network (LAN) communication module, or a power line communication module). A corresponding communication module among these communication modules can communicate with an external electronic device via a first network (198) (e.g., a short-range communication network such as Bluetooth, WiFi direct, or infrared data association (IrDA)) or a second network (199) (e.g., a long-range communication network such as a cellular network, the Internet, or a computer network (e.g., a LAN or WAN)). These various types of communication modules can be integrated into a single component (e.g., a single chip) or implemented as multiple separate components (e.g., multiple chips). The wireless communication module (192) can identify and authenticate the electronic device (101) within a communication network such as the first network (198) or the second network (199) by using subscriber information (e.g., an international mobile subscriber identity (IMSI)) stored in the subscriber identification module (196).
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시 예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.The antenna module (197) can transmit or receive signals or power to or from an external device (e.g., an external electronic device). According to one embodiment, the antenna module can include one antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (e.g., a PCB). According to one embodiment, the antenna module (197) can include a plurality of antennas. In this case, at least one antenna suitable for a communication method used in a communication network, such as the first network (198) or the second network (199), can be selected from the plurality of antennas by, for example, the communication module (190). A signal or power can be transmitted or received between the communication module (190) and the external electronic device via the selected at least one antenna. According to some embodiments, in addition to the radiator, another component (e.g., an RFIC) can be additionally formed as a part of the antenna module (197).
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the above components may be connected to each other and exchange signals (e.g., commands or data) with each other via a communication method between peripheral devices (e.g., a bus, a general purpose input and output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)).
일 실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, or 108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.According to one embodiment, a command or data may be transmitted or received between the electronic device (101) and an external electronic device (104) via a server (108) connected to a second network (199). Each of the electronic devices (102, 104) may be the same or a different type of device as the electronic device (101). According to one embodiment, all or part of the operations executed in the electronic device (101) may be executed in one or more of the external electronic devices (102, 104, or 108). For example, when the electronic device (101) is to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device (101) may, instead of or in addition to executing the function or service by itself, request one or more external electronic devices to perform at least a part of the function or service. One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device (101). The electronic device (101) may process the result as is or additionally and provide it as at least a part of a response to the request. For this purpose, for example, cloud computing, distributed computing, or client-server computing technology may be used.
도 2는, 일 실시 예에 따른, 스타일러스 펜(201)(예: 도 1의 전자 장치(102))을 포함하는 전자 장치(101)의 사시도이다. 일 실시 예에 따르면, 스타일러스 펜(201)은 도 1의 전자 장치(102)가 아닌 도 1의 입력 장치(150)에 대응될 수도 있다.FIG. 2 is a perspective view of an electronic device (101) including a stylus pen (201) (e.g., the electronic device (102) of FIG. 1) according to one embodiment. According to one embodiment, the stylus pen (201) may correspond to the input device (150) of FIG. 1 rather than the electronic device (102) of FIG. 1.
도 2를 참조하면, 일 실시 예의 전자 장치(101)는, 도 1에 도시된 구성을 포함할 수 있으며, 스타일러스 펜(201)이 삽입될 수 있는 구조를 포함할 수 있다. 전자 장치(101)는 하우징(210)을 포함하며, 상기 하우징(210)의 일 부분, 예를 들면, 측면(210a)의 일 부분에는 홀(211)을 포함할 수 있다. 전자 장치(101)는, 상기 홀(211)과 연결된 수납 공간인 제1 내부 공간(212)을 포함할 수 있으며, 스타일러스 펜(201)은 제1 내부 공간(212) 내에 삽입될 수 있다. 도시된 실시예에 따르면, 스타일러스 펜(201)은, 스타일러스 펜(201)을 전자 장치(101)의 제1 내부 공간(212)으로부터 꺼내기 용이하도록, 일 단부에 눌림 가능한 제1 버튼(201a)을 포함할 수 있다. 상기 제1 버튼(201a)이 눌리면, 제1 버튼(201a)과 연계 구성된 반발 메커니즘(예를 들어, 적어도 하나의 탄성 부재(예: 스프링)에 의한 반발 메커니즘)이 작동하여, 제1 내부 공간(212)으로부터 스타일러스 펜(201)이 이탈될 수 있다.Referring to FIG. 2, an electronic device (101) of one embodiment may include the configuration illustrated in FIG. 1, and may include a structure into which a stylus pen (201) may be inserted. The electronic device (101) includes a housing (210), and a portion of the housing (210), for example, a portion of a side surface (210a), may include a hole (211). The electronic device (101) may include a first internal space (212), which is a storage space connected to the hole (211), and the stylus pen (201) may be inserted into the first internal space (212). According to the illustrated embodiment, the stylus pen (201) may include a first button (201a) that can be pressed at one end to facilitate taking the stylus pen (201) out of the first internal space (212) of the electronic device (101). When the first button (201a) is pressed, a rebound mechanism (e.g., a rebound mechanism by at least one elastic member (e.g., a spring)) connected to the first button (201a) is operated, so that the stylus pen (201) can be detached from the first internal space (212).
도 3a는, 일 실시 예에 따른, 스타일러스 펜(예: 도 2의 스타일러스 펜(201))을 도시하는 블록도이다.FIG. 3a is a block diagram illustrating a stylus pen (e.g., the stylus pen (201) of FIG. 2) according to one embodiment.
도 3a를 참조하면, 일 실시예에 따른 스타일러스 펜(201)은, 프로세서(220), 메모리(230), 공진 회로(287), 충전 회로(288), 배터리(289), 통신 회로(290), 안테나(297), 트리거 회로(298) 및/또는 센서(299)를 포함할 수 있다. 어떤 실시예들에서는, 상기 스타일러스 펜(201)의 프로세서(220), 공진 회로(287)의 적어도 일부 및/또는 통신 회로(290)의 적어도 일부는 인쇄회로기판 상에 또는 칩 형태로 구성될 수 있다. 상기 프로세서(220), 공진 회로(287) 및/또는 통신 회로(290)는 메모리(230), 충전 회로(288), 배터리(289), 안테나(297), 트리거 회로(298) 및/또는 센서(299)와 전기적으로 연결될 수 있다.Referring to FIG. 3A, a stylus pen (201) according to one embodiment may include a processor (220), a memory (230), a resonant circuit (287), a charging circuit (288), a battery (289), a communication circuit (290), an antenna (297), a trigger circuit (298), and/or a sensor (299). In some embodiments, the processor (220), at least a portion of the resonant circuit (287), and/or at least a portion of the communication circuit (290) of the stylus pen (201) may be configured on a printed circuit board or in the form of a chip. The processor (220), the resonant circuit (287), and/or the communication circuit (290) may be electrically connected to the memory (230), the charging circuit (288), the battery (289), the antenna (297), the trigger circuit (298), and/or the sensor (299).
일 실시 예에 따른 프로세서(220)는, 커스터마이즈드(customized) 하드웨어 모듈 또는 소프트웨어(예를 들어, 어플리케이션 프로그램)를 실행하도록 구성된 제너릭(generic) 프로세서를 포함할 수 있다. 상기 프로세서(220)는, 스타일러스 펜(201)에 구비된 다양한 센서들, 데이터 측정 모듈, 입출력 인터페이스, 스타일러스 펜(201)의 상태 또는 환경을 관리하는 모듈 또는 통신 모듈 중 적어도 하나를 포함하는 하드웨어적인 구성 요소(기능) 또는 소프트웨어적인 요소(프로그램)를 포함할 수 있다. 상기 프로세서(220)는 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함할 수 있다. 일 실시 예에 따르면, 프로세서(220)는 버튼(예: 버튼(337))의 눌림 상태를 나타내는 정보, 센서(299)에 의하여 획득된 센싱 정보, 및/또는 센싱 정보에 기반하여 계산된 정보(예: 스타일러스 펜(201)의 위치와 연관된 정보)를, 통신 회로(290)를 통하여 전자 장치(101)로 송신하도록 설정될 수 있다.A processor (220) according to an embodiment may include a generic processor configured to execute a customized hardware module or software (e.g., an application program). The processor (220) may include a hardware component (function) or a software element (program) including at least one of various sensors provided in the stylus pen (201), a data measurement module, an input/output interface, a module for managing the status or environment of the stylus pen (201), or a communication module. The processor (220) may include, for example, one or a combination of two or more of hardware, software, or firmware. According to one embodiment, the processor (220) may be configured to transmit information indicating a pressed state of a button (e.g., button (337)), sensing information acquired by a sensor (299), and/or information calculated based on the sensing information (e.g., information associated with a position of a stylus pen (201)) to the electronic device (101) via the communication circuit (290).
일 실시 예에 따른 공진 회로(287)는, 전자 장치(101)의 디지타이저(예: 표시 장치(160))로부터 발생되는 전자기장 신호에 기반하여 공진될 수 있으며, 공진에 의하여 전자기 공명 방식(electro-magnetic resonance, EMR) 입력 신호(또는, 자기장 및)를 방사할 수 있다. 전자 장치(101)는, 전자기 공명 방식 입력 신호를 이용하여, 전자 장치(101) 상의 스타일러스 펜(201)의 위치를 확인할 수 있다. 예를 들어, 전자 장치(101)는, 디지타이저 내의 복수 개의 채널들(예: 복수 개의 루프 코일들) 각각에서, 전자기 공명 방식 입력 신호에 의하여 발생되는 유도 기전력(예: 출력 전류)의 크기에 기반하여, 스타일러스 펜(201)의 위치를 확인할 수 있다. 한편, 상술한 바에서는, 전자 장치(101) 및 스타일러스 펜(201)이 EMR 방식에 기반하여 동작하는 것과 같이 설명되었지만, 이는 단순히 예시적인 것으로, 전자 장치(101)는 ECR(electrically coupled resonance) 방식에 기반하여 전기장에 기반한 신호를 발생시킬 수도 있다. 스타일러스 펜(201)의 공진 회로는, 전기장에 의하여 공진될 수 있다. 전자 장치(101)는, 스타일러스 펜(201)에서의 공진에 의한 복수 개의 채널들(예: 전극들)에서의 전위를 확인할 수 있으며, 전위에 기반하여 스타일러스 펜(201)의 위치를 확인할 수도 있다. 스타일러스 펜(201)은, AES(active electrostatic) 방식으로 구현될 수도 있으며, 그 구현 종류에는 제한이 없음을 당업자는 이해할 것이다. 아울러, 전자 장치(101)는 터치 패널의 적어도 하나의 전극과 연관된 커패시턴스(셀프 커패시턴스 또는 뮤추얼 커패시턴스)의 변경에 기반하여 스타일러스 펜(201)을 검출할 수도 있다. 이 경우, 스타일러스 펜(201)에는 공진 회로가 포함되지 않을 수도 있다. 본 개시에서 "패널", 또는 "센싱 패널"은, 디지타이저 및 TSP(touch screen panel)를 포괄하는 용어로 이용될 수 있다.A resonant circuit (287) according to an embodiment of the present invention may resonate based on an electromagnetic field signal generated from a digitizer (e.g., a display device (160)) of an electronic device (101) and may radiate an electro-magnetic resonance (EMR) input signal (or a magnetic field) by resonance. The electronic device (101) may identify a position of a stylus pen (201) on the electronic device (101) using the electromagnetic resonance input signal. For example, the electronic device (101) may identify the position of the stylus pen (201) based on the magnitude of an induced electromotive force (e.g., an output current) generated by the electromagnetic resonance input signal in each of a plurality of channels (e.g., a plurality of loop coils) in the digitizer. Meanwhile, in the above, the electronic device (101) and the stylus pen (201) have been described as operating based on the EMR method, but this is merely an example, and the electronic device (101) may also generate a signal based on an electric field based on an ECR (electrically coupled resonance) method. The resonance circuit of the stylus pen (201) may be resonated by an electric field. The electronic device (101) may check the potential in a plurality of channels (e.g., electrodes) due to resonance in the stylus pen (201), and may also check the position of the stylus pen (201) based on the potential. The stylus pen (201) may be implemented using an AES (active electrostatic) method, and those skilled in the art will understand that there is no limitation on the type of implementation. Additionally, the electronic device (101) may detect the stylus pen (201) based on a change in capacitance (self capacitance or mutual capacitance) associated with at least one electrode of the touch panel. In this case, the stylus pen (201) may not include a resonant circuit. In the present disclosure, the “panel” or “sensing panel” may be used as a term encompassing a digitizer and a TSP (touch screen panel).
일 실시 예에 따른 메모리(230)는, 스타일러스 펜(201)의 동작에 관련된 정보를 저장할 수 있다. 예를 들어, 상기 정보는 상기 전자 장치(101)와의 통신을 위한 정보 및 스타일러스 펜(201)의 입력 동작에 관련된 주파수 정보를 포함할 수 있다. 아울러, 메모리(230)는, 센서(299)의 센싱 데이터로부터 스타일러스 펜(201)의 위치에 대한 정보(예: 좌표 정보, 및/또는 변위 정보)를 계산하기 위한 프로그램(또는, 어플리케이션, 알고리즘, 또는 처리 루프)을 저장할 수도 있다. 메모리(230)는, 통신 회로(290)의 통신 스택을 저장할 수도 있다. 구현에 따라, 통신 회로(290) 및/또는 프로세서(220)는 전용 메모리를 포함할 수도 있다.The memory (230) according to one embodiment may store information related to the operation of the stylus pen (201). For example, the information may include information for communication with the electronic device (101) and frequency information related to the input operation of the stylus pen (201). In addition, the memory (230) may store a program (or an application, an algorithm, or a processing loop) for calculating information (e.g., coordinate information and/or displacement information) about the position of the stylus pen (201) from the sensing data of the sensor (299). The memory (230) may also store a communication stack of the communication circuit (290). Depending on the implementation, the communication circuit (290) and/or the processor (220) may include a dedicated memory.
일 실시 예에 따른 공진 회로(287)는, 코일(coil)(또는, 인덕터(inductor)) 및/또는 캐패시터(capacitor)를 포함할 수 있다. 상기 공진 회로(287)는, 입력되는 전기장 및/또는 자기장(예: 전자 장치(101)의 디지타이저로부터 발생되는 전기장 및/또는 자기장)에 기반하여 공진할 수 있다. 스타일러스 펜(201)이 EMR 방식에 의하여 신호를 전송하는 경우, 스타일러스 펜(201)은 전자 장치(101)의 유도성 패널(inductive panel)로부터 발생되는 전자기장(electromagnetic field)에 기반하여, 공진 주파수를 포함하는 신호를 생성할 수 있다. 스타일러스 펜(201)이 AES 방식에 의하여 신호를 전송하는 경우, 스타일러스 펜(201)은 전자 장치(101)와 용량 결합(capacity coupling)을 이용하여 신호를 생성할 수 있다. 스타일러스 펜(201)이 ECR 방식에 의하여 신호를 전송하는 경우, 스타일러스 펜(201)은 전자 장치의 용량성(capacitive) 장치로부터 발생되는 전기장(electric field)에 기반하여, 공진 주파수를 포함하는 신호를 생성할 수 있다. 일 실시 예에 따르면, 상기 공진 회로(287)는 사용자의 조작 상태에 따라 전자기장의 세기 또는 주파수를 변경시키는데 이용될 수 있다. 예를 들어, 상기 공진 회로(287)는, 호버링 입력, 드로잉 입력, 버튼 입력 또는 이레이징 입력을 인식하기 위한 다양한 주파수를 제공할 수 있다. 예를 들어, 공진 회로(287)는, 복수 개의 커패시터의 연결 조합에 따라 다양한 공진 주파수를 제공할 수 있거나, 또는 가변 인덕터, 및/또는 가변 커패시터에 기반하여 다양한 공진 주파수를 제공할 수도 있다.A resonant circuit (287) according to an embodiment may include a coil (or an inductor) and/or a capacitor. The resonant circuit (287) may resonate based on an input electric field and/or magnetic field (e.g., an electric field and/or a magnetic field generated from a digitizer of the electronic device (101). When the stylus pen (201) transmits a signal by the EMR method, the stylus pen (201) may generate a signal including a resonant frequency based on an electromagnetic field generated from an inductive panel of the electronic device (101). When the stylus pen (201) transmits a signal by the AES method, the stylus pen (201) may generate a signal by using capacitive coupling with the electronic device (101). When the stylus pen (201) transmits a signal by the ECR method, the stylus pen (201) can generate a signal including a resonant frequency based on an electric field generated from a capacitive device of an electronic device. According to one embodiment, the resonant circuit (287) can be used to change the intensity or frequency of an electromagnetic field according to a user's manipulation state. For example, the resonant circuit (287) can provide various frequencies for recognizing a hovering input, a drawing input, a button input, or an erasing input. For example, the resonant circuit (287) can provide various resonant frequencies according to a connection combination of a plurality of capacitors, or can provide various resonant frequencies based on a variable inductor and/or a variable capacitor.
일 실시 예에 따른 충전 회로(288)는 스위칭 회로에 기반하여 공진 회로(287)와 연결된 경우, 공진 회로(287)에서 발생되는 공진 신호를 직류 신호로 정류하여 배터리(289)에 제공할 수 있다. 일 실시 예에 따르면, 스타일러스 펜(201)은 충전 회로(288)에서 감지되는 직류 신호의 전압 레벨을 이용하여, 상기 전자 장치(101)에 스타일러스 펜(201)이 삽입되었는지 여부를 확인할 수 있다. 또는, 스타일러스 펜(201)은 충전 회로(288)에서 확인되는 신호에 대응하는 패턴을 확인하여, 스타일러스 펜(201)이 삽입되었는지 여부를 확인할 수도 있다.According to one embodiment, the charging circuit (288) may, when connected to the resonant circuit (287) based on the switching circuit, rectify the resonant signal generated from the resonant circuit (287) into a DC signal and provide it to the battery (289). According to one embodiment, the stylus pen (201) may use the voltage level of the DC signal detected by the charging circuit (288) to determine whether the stylus pen (201) is inserted into the electronic device (101). Alternatively, the stylus pen (201) may check a pattern corresponding to a signal detected by the charging circuit (288) to determine whether the stylus pen (201) is inserted.
일 실시 예에 따른 배터리(289)는 스타일러스 펜(201)의 동작에 요구되는 전력을 저장하도록 구성될 수 있다. 상기 배터리(289)는, 예를 들어, 리튬-이온 배터리, 또는 캐패시터를 포함할 수 있으며, 충전식 또는 교환식일 수 있다. 일 실시 예에 따르면, 배터리(289)는 충전 회로(288)로부터 제공받은 전력(예를 들어, 직류 신호(직류 전력))을 이용하여 충전될 수 있다. A battery (289) according to one embodiment may be configured to store power required for the operation of the stylus pen (201). The battery (289) may include, for example, a lithium-ion battery or a capacitor, and may be rechargeable or replaceable. According to one embodiment, the battery (289) may be charged using power (for example, a direct current signal (direct current power)) provided from a charging circuit (288).
일 실시 예에 따른 통신 회로(290)는, 스타일러스 펜(201)과 전자 장치(101)의 통신 모듈(190) 간의 무선 통신 기능을 수행하도록 구성될 수 있다. 일 실시 예에 따르면, 통신 회로(290)는 근거리 통신 방식을 이용하여 스타일러스 펜(201)의 상태 정보, 입력 정보, 및/또는 위치와 연관된 정보를 전자 장치(101)로 전송할 수 있다. 예를 들어, 통신 회로(290)는 트리거 회로(298)를 통해 획득한 스타일러스 펜(201)의 방향 정보(예: 모션 센서 데이터), 마이크로 폰을 통해 입력된 음성 정보 또는 배터리(289)의 잔량 정보를 전자 장치(101)로 전송할 수 있다. 예를 들어, 통신 회로(290)는, 센서(299)로부터 획득된 센싱 데이터, 및/또는 센싱 데이터에 기반하여 확인된 스타일러스 펜(201)의 위치와 연관된 정보를 전자 장치(101)로 송신할 수 있다. 예를 들어, 통신 회로(290)는, 스타일러스 펜(201)에 구비된 버튼(예: 버튼(337))의 상태에 대한 정보를 전자 장치(101)로 송신할 수 있다. 일 예로, 근거리 통신 방식은 블루투스, BLE(bluetooth low energy), NFC, Wi-Fi direct 중 적어도 하나를 포함할 수 있으나, 그 종류에는 제한이 없다.A communication circuit (290) according to an embodiment may be configured to perform a wireless communication function between a stylus pen (201) and a communication module (190) of an electronic device (101). According to an embodiment, the communication circuit (290) may transmit information related to status information, input information, and/or location of the stylus pen (201) to the electronic device (101) using a short-range communication method. For example, the communication circuit (290) may transmit direction information (e.g., motion sensor data) of the stylus pen (201) obtained through a trigger circuit (298), voice information input through a microphone, or remaining amount information of a battery (289) to the electronic device (101). For example, the communication circuit (290) may transmit sensing data obtained from a sensor (299) and/or information related to a location of the stylus pen (201) confirmed based on the sensing data to the electronic device (101). For example, the communication circuit (290) can transmit information about the state of a button (e.g., button (337)) provided in the stylus pen (201) to the electronic device (101). As an example, the short-range communication method may include at least one of Bluetooth, BLE (Bluetooth low energy), NFC, and Wi-Fi direct, but there is no limitation on the type.
일 실시 예에 따른 안테나(297)는 신호 또는 전력을 외부(예를 들어, 상기 전자 장치(101))로 송신하거나 외부로부터 수신하는데 이용될 수 있다. 일 실시 예에 따르면, 스타일러스 펜(201)은, 복수의 안테나(297)들을 포함할 수 있고, 이들 중에, 통신 방식에 적합한 적어도 하나의 안테나(297)를 선택할 수 있다. 상기 선택된 적어도 하나의 안테나(297)를 통하여, 통신 회로(290)는 신호 또는 전력을 외부 전자 장치와 교환할 수 있다.An antenna (297) according to an embodiment may be used to transmit a signal or power to an external device (e.g., the electronic device (101)) or receive a signal or power from an external device. According to an embodiment, the stylus pen (201) may include a plurality of antennas (297), and among them, at least one antenna (297) suitable for a communication method may be selected. Through the selected at least one antenna (297), the communication circuit (290) may exchange a signal or power with an external electronic device.
일 실시 예에 따른 트리거 회로(298)는 적어도 하나의 버튼 또는 센서 회로를 포함할 수 있다. 일 실시 예에 따르면, 프로세서(220)는 스타일러스 펜(201)의 버튼의 입력 방식(예를 들어, 터치 또는 눌림) 또는 종류(예를 들어, EMR 버튼 또는 BLE 버튼)를 확인할 수 있다. 일 실시 예에 따르면, 트리거 회로(298)는 버튼의 입력 신호 또는 센서(299)를 통한 신호를 이용하여 전자 장치(101)로 트리거 신호를 전송할 수 있다.A trigger circuit (298) according to an embodiment may include at least one button or sensor circuit. According to an embodiment, the processor (220) may check an input method (e.g., touch or press) or a type (e.g., EMR button or BLE button) of a button of the stylus pen (201). According to an embodiment, the trigger circuit (298) may transmit a trigger signal to the electronic device (101) using an input signal of the button or a signal through the sensor (299).
일 실시 예에 따른 센서(299)는, 가속도 센서(accelerometer), 자이로 센서(gyro sensor), 및/또는 지자계 센서(geomagnetic sensor)를 포함할 수 있다. 가속도 센서는, 스타일러스 펜(201)의 리니어한 움직임 및/또는 스타일러스 펜(201)의 3축에 대한 가속도에 대한 정보를 센싱할 수 있다. 자이로 센서는, 스타일러스 펜(201)의 회전과 관련된 정보를 센싱할 수 있다. 지자계 센서는, 스타일러스 펜(201)의 절대 좌표계 내에서의 향하는 방향에 대한 정보를 센싱할 수 있다. 일 실시 예에 따르면, 센서(299)는, 움직임을 측정하기 위한 센서뿐만 아니라, 스타일러스 펜(201)의 내부의 작동 상태 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있는 센서, 예를 들어, 배터리 잔량 감지 센서, 압력 센서, 광 센서, 온도 센서, 생체 센서 중 적어도 하나를 포함할 수 있다. 다양한 실시예에 따라서, 프로세서(220)는, 센서(299)로부터 획득한 정보를, 통신 회로(290)를 통하여 전자 장치(101)로 송신할 수 있다. 또는, 프로세서(220)는, 센서(299)로부터 획득한 정보에 기반하여, 스타일러스 펜(201)의 위치와 연관된 정보(예: 스타일러스 펜(201)의 좌표 및/또는 스타일러스 펜(201)의 변위)를, 통신 회로(290)를 통하여 전자 장치(101)로 송신할 수도 있다.The sensor (299) according to one embodiment may include an accelerometer, a gyro sensor, and/or a geomagnetic sensor. The acceleration sensor may sense information about the linear movement of the stylus pen (201) and/or acceleration of the stylus pen (201) about three axes. The gyro sensor may sense information related to the rotation of the stylus pen (201). The geomagnetic sensor may sense information about the direction in which the stylus pen (201) is facing within the absolute coordinate system. According to one embodiment, the sensor (299) may include at least one of a sensor for measuring movement, as well as a sensor for generating an electric signal or data value corresponding to an internal operating state or an external environmental state of the stylus pen (201), for example, a battery level detection sensor, a pressure sensor, a light sensor, a temperature sensor, and a biometric sensor. According to various embodiments, the processor (220) may transmit information acquired from the sensor (299) to the electronic device (101) through the communication circuit (290). Alternatively, the processor (220) may transmit information related to the position of the stylus pen (201) (e.g., coordinates of the stylus pen (201) and/or displacement of the stylus pen (201)) to the electronic device (101) through the communication circuit (290) based on the information acquired from the sensor (299).
도 3b는, 일 실시 예에 따른, 스타일러스 펜(예: 도 2의 스타일러스 펜(201))의 분리 사시도이다.FIG. 3b is an exploded perspective view of a stylus pen (e.g., the stylus pen (201) of FIG. 2) according to one embodiment.
도 3b를 참조하면, 스타일러스 펜(201)은 스타일러스 펜(201)의 외형을 구성하는 펜 하우징(300)과 펜 하우징(300) 내부의 내부 조립체(inner assembly)를 포함할 수 있다. 도시된 실시예에서, 상기 내부 조립체는, 스타일러스 펜(201) 내부에 실장되는 여러 부품들이 함께 결합된 상태에서, 펜 하우징(300) 내부에 1 회의 조립 동작으로 삽입될 수 있다.Referring to FIG. 3b, the stylus pen (201) may include a pen housing (300) that constitutes the outer shape of the stylus pen (201) and an inner assembly inside the pen housing (300). In the illustrated embodiment, the inner assembly may be inserted into the pen housing (300) in a single assembly operation while several components mounted inside the stylus pen (201) are combined together.
펜 하우징(300)은, 제1 단부(300a) 및 제2 단부(300b) 사이에 길게 연장된 모양을 가지며, 내부에 제2 내부 공간(301)을 포함할 수 있다. 상기 펜 하우징(300)은 단면이 장축과 단축으로 이루어진 타원형일 수 있으며, 전체적으로는 타원 기둥 형태로 형성될 수 있다. 도 2에서 전술한, 전자 장치(101)의 제1 내부 공간(212) 또한 펜 하우징(300)의 형상에 대응하여 단면이 타원형으로 형성될 수 있다. 일 실시 예에 따르면, 펜 하우징(300)은, 적어도 일부분이 합성 수지(예: 플라스틱) 및/또는 금속성 재질(예: 알루미늄)을 포함할 수 있다. 일 실시 예에 따르면, 펜 하우징(300)의 제1 단부(300a)는 합성 수지 재질로 구성될 수 있다. 펜 하우징(300)의 재질에 대해서는 이 밖에 다양한 실시예들이 적용될 수 있다. The pen housing (300) may have a shape that is elongated between the first end (300a) and the second end (300b), and may include a second internal space (301) therein. The pen housing (300) may have an elliptical cross-section formed by a long axis and a short axis, and may be formed in an elliptical column shape overall. The first internal space (212) of the electronic device (101) described above in FIG. 2 may also have an elliptical cross-section formed corresponding to the shape of the pen housing (300). According to one embodiment, the pen housing (300) may include at least a portion of a synthetic resin (e.g., plastic) and/or a metallic material (e.g., aluminum). According to one embodiment, the first end (300a) of the pen housing (300) may be composed of a synthetic resin material. Various other embodiments may be applied to the material of the pen housing (300).
상기 내부 조립체(inner assembly)는, 펜 하우징(300)의 형상에 대응하여 길게 연장된 형상을 가질 수 있다. 상기 내부 조립체는 길이 방향을 따라 크게 3가지의 구성으로 구분될 수 있다. 예를 들면, 상기 내부 조립체는, 펜 하우징(300)의 제1 단부(300a)에 대응하는 위치에 배치되는 코일부(310), 펜 하우징(300)의 제2 단부(300b)에 대응하는 위치에 배치되는 이젝션 부재(ejection member, 320) 및 펜 하우징(300)의 몸통에 대응하는 위치에 배치되는 회로기판부(330)를 포함할 수 있다.The inner assembly may have an elongated shape corresponding to the shape of the pen housing (300). The inner assembly may be largely divided into three configurations along the length direction. For example, the inner assembly may include a coil portion (310) positioned corresponding to the first end (300a) of the pen housing (300), an ejection member (320) positioned corresponding to the second end (300b) of the pen housing (300), and a circuit board portion (330) positioned corresponding to the body of the pen housing (300).
상기 코일부(310)는, 상기 내부 조립체가 상기 펜 하우징(300)에 완전히 삽입되면 제1 단부(300a)의 외부로 노출되는 펜 팁(311), 패킹 링(312), 복수 회 권선된 코일(313) 및/또는 펜 팁(311)의 가압에 따른 압력의 변화를 획득하기 위한 필압 감지부(314)를 포함할 수 있다. 패킹 링(312)은 에폭시(epoxy), 고무, 우레탄 또는 실리콘을 포함할 수 있다. 패킹 링(312)은 방수 및 방진의 목적으로 구비될 수 있으며, 코일부(310) 및 회로기판부(330)를 침수 또는 먼지로부터 보호할 수 있다. 일실시예에 따르면, 코일(313)은 설정된 주파수 대역(예: 500kHz)에서 공진 주파수를 형성할 수 있으며, 적어도 하나의 소자(예: 용량성 소자(capacitor))와 조합되어 일정 정도의 범위에서 코일(313)이 형성하는 공진 주파수를 조절할 수 있다.The coil portion (310) may include a pen tip (311) exposed to the outside of the first end (300a) when the internal assembly is fully inserted into the pen housing (300), a packing ring (312), a coil (313) wound multiple times, and/or a pressure sensing portion (314) for obtaining a change in pressure according to the pressurization of the pen tip (311). The packing ring (312) may include epoxy, rubber, urethane, or silicone. The packing ring (312) may be provided for the purpose of waterproofing and dustproofing, and may protect the coil portion (310) and the circuit board portion (330) from submersion or dust. According to one embodiment, the coil (313) can form a resonant frequency in a set frequency band (e.g., 500 kHz), and can be combined with at least one element (e.g., a capacitive element) to adjust the resonant frequency formed by the coil (313) within a certain range.
상기 이젝션 부재(320)는, 전자 장치(예: 도 2의 101)의 제1 내부 공간(212)으로부터 스타일러스 펜(201)을 빼내기 위한 구성을 포함할 수 있다. 일실시예에 따르면, 이젝션 부재(320)는 샤프트(321)와 상기 샤프트(321)의 둘레에 배치되며, 이젝션 부재(320)의 전체적인 외형을 이루는 이젝션 몸체(322) 및 버튼부(323)(예: 도 2의 제1 버튼(201a))를 포함할 수 있다. 상기 내부 조립체가 상기 펜 하우징(300)에 완전히 삽입되면, 상기 샤프트(321) 및 이젝션 몸체(322)를 포함한 부분은 상기 펜 하우징(300)의 제2 단부(300b)에 의해 둘러싸이고, 버튼부(323)의 적어도 일부분은 제2 단부(300b)의 외부로 노출될 수 있다. 이젝션 몸체(322) 내에는 도시되지 않은 복수의 부품들, 예를 들면, 캠 부재들 또는 탄성 부재들이 배치되어 푸시-풀(push-pull) 구조를 형성할 수 있다. 한 실시예에서 버튼부(323)는 실질적으로 샤프트(321)와 결합하여 이젝션 몸체(322)에 대하여 직선 왕복 운동을 할 수 있다. 다양한 실시예에 따르면, 버튼부(323)는 사용자가 손톱을 이용해 스타일러스 펜(201)을 빼낼 수 있도록 걸림 구조가 형성된 버튼을 포함할 수 있다. 일실시예에 따르면, 스타일러스 펜(201)은 샤프트(321)의 직선 왕복 운동을 검출하는 센서를 포함함으로써, 또 다른 입력 방식을 제공할 수도 있다.The ejection member (320) may include a configuration for ejecting the stylus pen (201) from the first internal space (212) of the electronic device (e.g., 101 of FIG. 2). According to one embodiment, the ejection member (320) may include a shaft (321) and an ejection body (322) and a button portion (323) (e.g., the first button (201a) of FIG. 2) that are arranged around the shaft (321) and form the overall outer shape of the ejection member (320). When the internal assembly is completely inserted into the pen housing (300), a portion including the shaft (321) and the ejection body (322) is surrounded by the second end (300b) of the pen housing (300), and at least a portion of the button portion (323) may be exposed to the outside of the second end (300b). A plurality of unillustrated components, for example, cam members or elastic members, may be arranged within the ejection body (322) to form a push-pull structure. In one embodiment, the button portion (323) may be substantially coupled with the shaft (321) to perform a linear reciprocating motion with respect to the ejection body (322). According to various embodiments, the button portion (323) may include a button having a catch structure formed so that a user can pull out the stylus pen (201) using a fingernail. According to one embodiment, the stylus pen (201) may include a sensor that detects the linear reciprocating motion of the shaft (321), thereby providing another input method.
상기 회로기판부(330)는, 인쇄회로기판(332), 상기 인쇄회로기판(332)의 적어도 일면을 둘러싸는 베이스(331) 및 안테나를 포함할 수 있다. 일실시예에 따르면, 베이스(331)의 상면에는 인쇄회로기판(332)이 배치되는 기판안착부(333)가 형성되고, 인쇄회로기판(332)은 기판안착부(333)에 안착된 상태로 고정될 수 있다. 일실시예에 따르면, 인쇄회로기판(332)은 제1 면과 제2 면을 포함할 수 있으며, 제1 면에는 코일(313)과 연결되는 가변용량 커패시터 또는 스위치(334)가 배치될 수 있으며, 제2 면에는 충전 회로, 배터리(336) 또는 통신 회로가 배치될 수 있다. 여기서 인쇄회로기판(332)의 제1 면과 제2 면은 일실시예에 따르면, 위/아래로 적층된 구조에서 서로 다른 적층면을 의미할 수 있으며, 다른 실시예에 따르면, 인쇄회로기판(332)의 길이 방향을 따라 배치된 인쇄회로기판의 서로 다른 부분을 의미할 수 있다. 배터리(336)는 EDLC(electric double layered capacitor)를 포함할 수 있다. 충전 회로는 코일(313) 및 배터리 사이에 위치하며, 전압 검출 회로(voltage detector circuitry) 및 정류기(rectifier)를 포함할 수 있다. 여기서, 배터리(336)는 반드시 인쇄회로기판(332)의 제2 면에 배치되지 않을 수 있다. 배터리(336)의 위치는 회로기판(330)의 다양한 실장 구조에 따라 다양하게 설정될 수 있으며, 도면에 도시된 것과 다른 위치에 배치될 수 있다.The circuit board portion (330) may include a printed circuit board (332), a base (331) surrounding at least one surface of the printed circuit board (332), and an antenna. According to one embodiment, a substrate mounting portion (333) on which the printed circuit board (332) is placed is formed on an upper surface of the base (331), and the printed circuit board (332) may be fixed in a state of being mounted on the substrate mounting portion (333). According to one embodiment, the printed circuit board (332) may include a first surface and a second surface, and a variable capacity capacitor or switch (334) connected to a coil (313) may be placed on the first surface, and a charging circuit, a battery (336), or a communication circuit may be placed on the second surface. Here, the first side and the second side of the printed circuit board (332) may mean different laminated sides in a structure laminated above and below, according to one embodiment, and may mean different parts of the printed circuit board arranged along the length direction of the printed circuit board (332) according to another embodiment. The battery (336) may include an EDLC (electric double layered capacitor). The charging circuit is located between the coil (313) and the battery, and may include a voltage detector circuitry and a rectifier. Here, the battery (336) may not necessarily be arranged on the second side of the printed circuit board (332). The location of the battery (336) may be set in various ways according to various mounting structures of the circuit board (330), and may be arranged in a different location than that illustrated in the drawing.
상기 안테나는, 도 3b에 도시된 예와 같은 안테나 구조물(339) 및/또는 인쇄회로기판(332)에 임베디드(embedded)되는 안테나를 포함할 수 있다. 다양한 실시예들에 따르면, 인쇄회로기판(332) 상에는 스위치(334)가 구비될 수 있다. 스타일러스 펜(201)에 구비되는 제2 버튼(337)은 스위치(334)를 누르는데 이용되고 펜 하우징(300)의 측면 개구부(302)를 통해 외부로 노출될 수 있다. 상기 제2 버튼(337)은 지지부재(338)에 의해 지지되면서, 제2 버튼(337)에 작용하는 외력이 없으면, 지지부재(338)가 탄성 복원력을 제공하여 제2 버튼(337)을 일정 위치에 배치된 상태로 복원 또는 유지할 수 있다. 한편, 제2 버튼(337)은, 물리 키, 터치 키, 모션 키, 압력 키, 키 리스(key less)의 방식 중 어느 하나로 구현될 수 있으며, 버튼의 구현 형태에는 제한이 없다.The antenna may include an antenna structure (339) such as the example illustrated in FIG. 3B and/or an antenna embedded in a printed circuit board (332). According to various embodiments, a switch (334) may be provided on the printed circuit board (332). A second button (337) provided on the stylus pen (201) is used to press the switch (334) and may be exposed to the outside through a side opening (302) of the pen housing (300). The second button (337) is supported by a support member (338), and when there is no external force acting on the second button (337), the support member (338) provides an elastic restoring force to restore or maintain the second button (337) in a state where it is placed at a certain position. Meanwhile, the second button (337) can be implemented in any one of a physical key, a touch key, a motion key, a pressure key, and a key less method, and there is no limitation on the implementation form of the button.
상기 회로기판부(330)는 예를 들면, 오-링(O-ring)과 같은 패킹 링을 포함할 수 있다. 일실시예에 따르면, 상기 베이스(331)의 양단에 탄성체로 제작된 오-링이 배치되어 상기 베이스(331)와 상기 펜 하우징(300) 사이에 밀봉 구조가 형성될 수 있다. 어떤 실시예에서, 상기 지지부재(338)는 부분적으로 상기 측면 개구부(302)의 주위에서 상기 펜 하우징(300)의 내벽에 밀착하여 밀봉 구조를 형성할 수 있다. 예컨대, 상기 회로기판부(330)도 적어도 일 부분에 상기 코일부(310)의 패킹 링(312)과 유사한 방수, 방진 구조를 포함할 수 있다.The circuit board portion (330) may include, for example, a packing ring such as an O-ring. According to one embodiment, an O-ring made of an elastic body may be placed at both ends of the base (331) to form a sealing structure between the base (331) and the pen housing (300). In some embodiments, the support member (338) may partially form a sealing structure by closely contacting the inner wall of the pen housing (300) around the side opening (302). For example, the circuit board portion (330) may also include a waterproof and dustproof structure similar to the packing ring (312) of the coil portion (310) at least in one portion.
스타일러스 펜(201)은, 베이스(331)의 상면에 배터리(336)가 배치되는 배터리 안착부(333a)를 포함할 수 있다. 배터리 안착부(333a)에 탑재될 수 있는 배터리(336)는, 예를 들어, 실린더형(cylinder type) 배터리를 포함할 수 있다. The stylus pen (201) may include a battery mounting portion (333a) in which a battery (336) is placed on the upper surface of the base (331). The battery (336) that may be mounted on the battery mounting portion (333a) may include, for example, a cylinder type battery.
스타일러스 펜(201)은, 마이크로 폰(미도시) 및/또는 스피커를 포함할 수 있다. 마이크로 폰 및/또는 스피커는 인쇄회로기판(332)에 직접 연결되거나, 인쇄회로기판(332)과 연결된 별도의 FPCB(flexible printed circuit board)(미도시)에 연결될 수 있다. 다양한 실시예에 따르면, 마이크로 폰 및/또는 스피커는 스타일러스 펜(301)의 긴 방향으로 제2 버튼(337)과 평행한 위치에 배치될 수 있다.The stylus pen (201) may include a microphone (not shown) and/or a speaker. The microphone and/or speaker may be directly connected to the printed circuit board (332) or may be connected to a separate flexible printed circuit board (FPCB) (not shown) connected to the printed circuit board (332). According to various embodiments, the microphone and/or speaker may be positioned parallel to the second button (337) in the longitudinal direction of the stylus pen (301).
도 4는 일 실시 예에 따른 스타일러스 펜과 연관된 에어 제스처를 처리하기 위한 전자 장치의 내부 블록 구성도(400)이다. FIG. 4 is an internal block diagram (400) of an electronic device for processing air gestures associated with a stylus pen according to one embodiment.
도 4를 참조하면, 스타일러스 펜(201)(예: 도 2의 스타일러스 펜(201))의 입력을 감지하는 표시 장치(460)(예: 도 1의 표시 장치(160))가 전자 장치(101)(예: 도 1의 전자 장치(101))에 제공될 수 있다. 표시 장치(460)는 데이터의 입/출력 기능을 동시에 지원할 뿐만 아니라 터치를 감지할 수 있다. Referring to FIG. 4, a display device (460) (e.g., the display device (160) of FIG. 1) that detects an input of a stylus pen (201) (e.g., the stylus pen (201) of FIG. 2) may be provided to an electronic device (101) (e.g., the electronic device (101) of FIG. 1). The display device (460) may not only support input/output functions of data simultaneously, but may also detect a touch.
일 실시 예에 따르면, 표시 장치(460)는 센싱 패널(461), 디스플레이 패널(462) 및 디스플레이 제어부(463)를 포함할 수 있다. 도 4에서는 센싱 패널(461)이 표시 장치(460)에 포함되는 것으로 설명하지만, 디스플레이 패널(462)과 레이어 구조를 이루어 표시 장치(160)와는 다른 입력 패널로 동작할 수도 있다. According to one embodiment, the display device (460) may include a sensing panel (461), a display panel (462), and a display control unit (463). In FIG. 4, the sensing panel (461) is described as being included in the display device (460), but it may also form a layer structure with the display panel (462) and operate as an input panel different from the display device (160).
센싱 패널(461)은 스타일러스 펜(201)의 터치 입력의 위치를 검출할 수 있고, 디스플레이 패널(462)은 이미지를 출력할 수 있다. 디스플레이 제어부(463)는 디스플레이 패널(462)을 통해 이미지를 출력하기 위해 디스플레이 패널(462)을 제어하는 구동회로일 수 있다. The sensing panel (461) can detect the position of the touch input of the stylus pen (201), and the display panel (462) can output an image. The display control unit (463) can be a driving circuit that controls the display panel (462) to output an image through the display panel (462).
센싱 패널(461)은 스타일러스 펜(201)이 EMR(electro-magnetic resonance) 방식을 지원하는 경우, 전자기 센서를 이용하는 EMR 방식 또는 EMI(electro-magnetic interface) 방식의 입력 패드로 구성될 수 있으며, 이는 단순히 예시적인 것으로, ECR(electrically coupled resonance) 방식의 입력 패드로도 구성될 수도 있다. The sensing panel (461) may be configured as an input pad of the EMR method or the EMI (electro-magnetic interface) method using an electromagnetic sensor when the stylus pen (201) supports the EMR (electro-magnetic resonance) method. This is merely an example, and may also be configured as an input pad of the ECR (electrically coupled resonance) method.
센싱 패널(461)은 스타일러스 펜(201)으로부터 자기장을 인가받고 이로부터 스타일러스 펜(201)의 위치를 검출할 수 있다. 센싱 패널(461)은 복수의 센서를 이용하여 입력을 감지하기 위하여 상호 레이어 구조를 이루는 하나 이상의 패널로 구성될 수 있다. The sensing panel (461) can receive a magnetic field from the stylus pen (201) and detect the position of the stylus pen (201) therefrom. The sensing panel (461) can be composed of one or more panels forming a mutual layer structure to detect input using a plurality of sensors.
또한, 센싱 패널(461)은 터치 스크린 패널(TSP)(touch screen panel)로 구현될 수 있으며, 만일 터치 스크린 패널로 구현되는 경우에는 전극으로부터의 출력 신호에 기반하여 스타일러스 펜(200)의 위치를 확인할 수도 있다. 스타일러스 펜(201)은, AES(active electrostatic) 방식으로 구현될 수도 있으며, 그 구현 종류에는 제한이 없음을 당업자는 이해할 것이다.In addition, the sensing panel (461) may be implemented as a touch screen panel (TSP), and if implemented as a touch screen panel, the position of the stylus pen (200) may be identified based on an output signal from an electrode. The stylus pen (201) may be implemented in an AES (active electrostatic) manner, and those skilled in the art will understand that there is no limitation on the type of implementation.
또한, 센싱 패널(461)은 스타일러스 펜(201) 또는 사용자의 손가락이 접촉 또는 근접하는 것을 감지할 수 있다. 예를 들어, 센싱 패널(461)은 스타일러스 펜(201)에 의한 호버링 입력을 감지할 수 있다. 센싱 패널(461)은 호버링 입력에 대응하는 입력 신호를 생성하고, 이를 프로세서(120)로 전달할 수 있다. 센싱 패널(461)은 호버링 입력의 발생 위치, 스타일러스 펜(201), 스타일러스 펜(201)에 구비되는 버튼에 의한 조작 상태를 기반으로, 호버링 입력의 정보를 포함하는 입력 신호를 생성할 수 있다. In addition, the sensing panel (461) can detect the contact or proximity of the stylus pen (201) or the user's finger. For example, the sensing panel (461) can detect a hovering input by the stylus pen (201). The sensing panel (461) can generate an input signal corresponding to the hovering input and transmit the same to the processor (120). The sensing panel (461) can generate an input signal including information on the hovering input based on the location where the hovering input occurs, the stylus pen (201), and the operating state by the button provided on the stylus pen (201).
이와 같이 스타일러스 펜으로부터의 신호를 센싱할 수 있는 EMR 방식 또는 터치 스크린 패널로 구현된 하드웨어를 센싱 패널(461)이라고 칭할 수 있다. 이러한 센싱 패널(461)은 인체에 의한 터치 입력을 감지하거나 스타일러스 펜(201)에 의한 입력을 감지할 수 있다. 도 4에 도시된 표시 장치(460)의 구성은 일 예에 불과하며, 표시 장치(460)를 구성하는 패널의 종류 및 개수, 패널의 상하층 위치는 전자 장치(101)의 제조 기술에 따라 다양하게 변화될 수 있다. In this way, hardware implemented as an EMR method or a touch screen panel capable of sensing a signal from a stylus pen may be referred to as a sensing panel (461). This sensing panel (461) may detect a touch input by a human body or an input by a stylus pen (201). The configuration of the display device (460) illustrated in FIG. 4 is only an example, and the type and number of panels constituting the display device (460) and the upper and lower positions of the panels may vary depending on the manufacturing technology of the electronic device (101).
표시 장치(460)는 예를 들어, 어플리케이션의 실행에 따라 스타일러스 펜 속성과 관련된 항목들을 위한 팝업창을 표시할 수 있다. 사용자는 팝업창을 통해서만 스타일러스 펜 속성을 변경해야 하므로, 팝업창에 의해 매번 어플리케이션 실행 화면의 상당 부분이 가려질 수 있다. 게다가 표시 장치(460)에서는 터치 오동작 방지를 위해 팜 리젝(palm reject) 기능이 적용되고 있기 때문에, 스타일러스 펜(201)을 이용하면서 기존의 터치 입력 방식이 아닌 새로운 입력 방식이 필요할 수 있다. The display device (460) may, for example, display a pop-up window for items related to stylus pen properties according to the execution of an application. Since the user must change the stylus pen properties only through the pop-up window, a significant portion of the application execution screen may be covered by the pop-up window each time. In addition, since the display device (460) applies a palm reject function to prevent touch malfunction, a new input method other than the existing touch input method may be required when using the stylus pen (201).
이를 위해 일 실시 예에 따르면, 스타일러스 펜(201)을 이용하는 중에 새로운 입력 방식으로 스타일러스 펜(201)을 쥔 손이 아닌 반대쪽 손을 이용한 에어 제스처를 이용할 수 있다. 일 실시 예에 따르면, 반대쪽 손에 의한 에어 제스처를 이용함으로써 어플리케이션 실행 시 스타일러스 펜(201)에 의한 어플리케이션 실행 화면의 제어 또는 스타일러스 펜과 관련된 속성 변경이 가능하기 때문에, 사용자 입장에서는 빈번하고 반복적인 태스크 예컨대, 옵션 선택 및 세부 설정값 조정과 같은 스타일러스 펜(201) 이용 시의 관련 설정을 손쉽게 변경할 수 있어 사용자 접근성을 높일 수 있다. To this end, according to one embodiment, while using a stylus pen (201), an air gesture using the opposite hand rather than the hand holding the stylus pen (201) can be used as a new input method. According to one embodiment, by using an air gesture using the opposite hand, it is possible to control an application execution screen using the stylus pen (201) or change properties related to the stylus pen when executing an application. Therefore, from the user's perspective, frequent and repetitive tasks such as selecting options and adjusting detailed settings can be easily changed when using the stylus pen (201), thereby improving user accessibility.
또한 스타일러스 펜(201)을 이용한 드로잉 시에는 실행 화면이 아닌 전자 장치(101)의 근접 영역에서 에어 제스처를 이용함으로써 스타일러스 펜(201)을 쥔 손의 끊김 없는 드로잉이 가능할 뿐만 아니라 드로잉 집중도도 향상될 수 있으며, 양손 조작을 활용한 생산성 증대 효과를 기대할 수 있다. 게다가 고정된 팝업창 예컨대, 고정된 팔레트 패널이 아닌 에어 제스처에 대응하여 어플리케이션 실행 화면의 제어 또는 스타일러스 펜과 관련된 속성 변경이 가능하기 때문에 사용자 입장에서는 즉각적인 피드백을 얻을 수 있을 뿐만 아니라 실행 화면의 적어도 일부를 가리지 않아 공간 활용에 있어 효율적일 수 있다. In addition, when drawing using a stylus pen (201), by using air gestures in the vicinity of the electronic device (101) rather than the execution screen, not only is uninterrupted drawing possible with the hand holding the stylus pen (201) but also the concentration on drawing can be improved, and the productivity increase effect utilizing two-hand operation can be expected. In addition, since it is possible to control the application execution screen or change properties related to the stylus pen in response to air gestures rather than a fixed pop-up window, for example, a fixed palette panel, not only can the user obtain immediate feedback, but at least a part of the execution screen is not covered, so it can be efficient in space utilization.
일 실시 예에 따르면, 센서(476)(예: 도 1의 센서 모듈(176))는 사용자의 손에 의한 에어 제스처를 센싱할 수 있다. 에어 제스처 동작은 전자 장치(101)로부터 일정 거리만큼 이격되어 사용자가 터치 스크린을 터치하지 않고 손 또는 손가락을 움직이는 동작일 수 있다. 일 실시 예에 따라, 스타일러스 펜과 연관된 에어 제스처란 전자 장치(101) 상에서 스타일러스 펜(201)에 의한 관련 기능을 제어하기 위한 움직임을 의미할 수 있다. According to one embodiment, the sensor (476) (e.g., the sensor module (176) of FIG. 1) may sense an air gesture by a user's hand. The air gesture operation may be an operation in which the user moves a hand or finger without touching the touch screen at a predetermined distance from the electronic device (101). According to one embodiment, an air gesture associated with a stylus pen may mean a movement for controlling a related function by the stylus pen (201) on the electronic device (101).
예를 들어, 센서(476)는 스타일러스 펜(201)을 쥔 손이 아닌 반대쪽 손에 의한 에어 제스처를 센싱하기 위한 적어도 하나의 센서를 포함할 수 있다. 이러한 센서(476)를 이용한다면 전자 장치(101)의 후면이 바닥에 닿도록 놓여진 상태에서 전자 장치(101)의 전면 중심축을 기준으로 좌우 방향 중 어느 방향에서 사용자 손에 의한 에어 제스처가 검출되는지를 식별할 수 있다. 또한 센서(476)는 사용자가 스타일러스 펜(201)을 잡고 있을 때 잡고 있는 손의 포즈를 검출할 수 있기 때문에 스타일러스 펜(201)을 잡고 있는 손이 오른손인지 왼손인지를 구별할 수 있다.For example, the sensor (476) may include at least one sensor for sensing an air gesture by a hand other than the hand holding the stylus pen (201). If such a sensor (476) is used, it is possible to identify in which direction among the left and right directions with respect to the front center axis of the electronic device (101) an air gesture by the user's hand is detected when the rear side of the electronic device (101) is placed on the floor. In addition, since the sensor (476) can detect the pose of the hand holding the stylus pen (201) when the user is holding it, it is possible to distinguish whether the hand holding the stylus pen (201) is the right or left hand.
상기한 바와 같이 센서(476)에 의한 센싱 데이터를 기반으로, 스타일러스 펜(201)을 잡고 있는 손과, 스타일러스 펜(201)을 잡고 있지 않은 손을 구별할 수 있다. 예를 들어, 사용자가 자신의 오른손으로 스타일러스 펜(201)을 잡고 사용하고 있다면 왼손에 의한 에어 제스처에 대응하여 오른손용 그래픽 UI가 표시 장치(460) 상에 표시될 수 있다. 예를 들어, 스타일러스 펜(201)의 동작 상태에 대응되는 툴들로 이루어진 툴 셋을 나열한 그래픽 UI를 표시 장치(460) 상에서 오른쪽으로 옮겨 오른손을 사용하는 사용자가 보다 쉽게 이용할 수 있도록 표시할 수 있다. 이와 반대로 왼손으로 스타일러스 펜(201)을 잡고 사용하고 있다면 오른손에 의한 에어 제스처에 대응하여 왼손용 그래픽 UI가 표시 장치(460) 상에 표시될 수 있다. 다르게는 예를 들어, 사용자가 왼손으로 스타일러스 펜(201)을 잡고 사용하고 있다면, 전자 장치의 화면의 왼쪽 공간을 사용자가 더 넓게 활용할 수 있도록 그래픽 UI의 구성 요소들을 오른쪽으로 배치시키거나 오른쪽에 표시되었다가 사라지도록 구현될 수 있다. As described above, based on the sensing data by the sensor (476), the hand holding the stylus pen (201) and the hand not holding the stylus pen (201) can be distinguished. For example, if the user is holding and using the stylus pen (201) with his or her right hand, a right-hand graphic UI can be displayed on the display device (460) in response to an air gesture made by the left hand. For example, a graphic UI listing a tool set consisting of tools corresponding to the operation state of the stylus pen (201) can be moved to the right on the display device (460) so that a right-handed user can use it more easily. Conversely, if the user is holding and using the stylus pen (201) with his or her left hand, a left-hand graphic UI can be displayed on the display device (460) in response to an air gesture made by the right hand. Alternatively, for example, if a user is holding and using a stylus pen (201) with his/her left hand, the components of the graphic UI may be placed to the right or displayed and then disappeared on the right so that the user can utilize more space on the left side of the screen of the electronic device.
상기한 바와 같은 에어 제스처를 검출하기 위한 센서의 일 예로, 일 실시 예에 따르면, 센서(476)는 RF 스펙트럼 방식의 센서일 수 있다. 센서(476)는 60Ghz의 WiFi 무선 안테나의 주파수를 이용할 수 있다. 예를 들어, 대상 물체를 향해 RF 신호를 보내고 반사되어 되돌아온 전파 신호를 수신하여, 방사된 RF 신호가 대상 물체에 반사된 후 되돌아오는 RF 신호의 패턴을 분석할 수 있다. RF 신호의 패턴을 기반으로 사용자의 손 제스처를 식별할 수 있다. 예를 들어, RF 신호에 기초한 에어 제스처 인식은 5Ghz to 60Ghz의 주파수 도메인을 사용하며, 160 ~ 180도의 시야각(field of view: FOV)을 가질 수 있다. 이러한 RF 신호를 사용한 에어 제스처의 경우 스타일러스 펜(201)에 의한 관련 기능에 대한 미세 제어가 가능할 수 있다. As an example of a sensor for detecting the air gesture as described above, according to an embodiment, the sensor (476) may be an RF spectrum type sensor. The sensor (476) may use the frequency of a 60 GHz WiFi wireless antenna. For example, the sensor may transmit an RF signal toward a target object, receive a reflected radio wave signal, and analyze the pattern of the RF signal that returns after the radiated RF signal is reflected by the target object. The user's hand gesture may be identified based on the pattern of the RF signal. For example, air gesture recognition based on an RF signal may use a frequency domain of 5 GHz to 60 GHz and have a field of view (FOV) of 160 to 180 degrees. In the case of an air gesture using such an RF signal, fine control of a related function by a stylus pen (201) may be possible.
일 실시 예에 따르면, 센서(476)는 적외선(Infrared) 센서, 초음파 센서, 모션 센서, 3D 센서, 비전 센서 중 어느 하나가 될 수 있으며, 센서의 종류는 이에 한정되는 것은 아니다. 이러한 센서들 중 적어도 두 개의 센서에서 센싱되는 정보들을 조합하여 사용자 손에 의한 에어 제스처 검출에 활용할 수도 있다. 예를 들어, 초음파 센서 및 카메라로부터의 출력에 기초하여 사용자 손에 의한 에어 제스처를 검출할 수도 있다. According to one embodiment, the sensor (476) may be any one of an infrared sensor, an ultrasonic sensor, a motion sensor, a 3D sensor, and a vision sensor, and the type of the sensor is not limited thereto. Information sensed from at least two of these sensors may be combined and utilized to detect an air gesture made by a user's hand. For example, an air gesture made by a user's hand may be detected based on outputs from an ultrasonic sensor and a camera.
센서(476)로부터의 센싱 데이터는 프로세서(420)로 전달될 수 있으며, 프로세서(420)에 의해 센싱 데이터가 처리될 수도 있다. Sensing data from the sensor (476) may be transmitted to the processor (420), and the sensing data may be processed by the processor (420).
일 실시 예에 따르면, 프로세서(420)는 센서(476)의 센싱 데이터에 기반하여 에어 제스처(예: 에어 제스처 타입)를 확인할 수 있으며, 에어 제스처에 대응하는 동작을 수행할 수 있다. 일 실시 예에 따르면, 프로세서(420)는 센서(476)에 의한 센싱 데이터를 기반으로 사용자의 양 손 중 스타일러스 펜(201)을 쥔 손 및 반대쪽 손을 구별할 수 있다. 일 실시 예에 따르면, 프로세서(420)는 에어 제스처가 스타일러스 펜(201)을 쥔 반대쪽 손, 반대쪽 손의 1개의 손가락을 이용한 제스처, 반대쪽 손의 2개의 손가락을 이용한 제스처, 멀티 손가락을 이용한 제스처, 주먹 쥔 손 제스처, 손바닥을 편 제스처 중 어느 하나에 해당하는지를 인식할 수 있다. According to one embodiment, the processor (420) can identify an air gesture (e.g., an air gesture type) based on sensing data of the sensor (476), and perform an operation corresponding to the air gesture. According to one embodiment, the processor (420) can distinguish between the hand holding the stylus pen (201) and the other hand among the user's two hands based on sensing data by the sensor (476). According to one embodiment, the processor (420) can recognize whether the air gesture corresponds to any one of the other hand holding the stylus pen (201), a gesture using one finger of the other hand, a gesture using two fingers of the other hand, a gesture using multiple fingers, a fist gesture, and a palm-out gesture.
에어 제스처는 스타일러스 펜(201)의 사용을 방해하는 일 없이 사용자의 양 손 중 어느 한 손으로 스타일러스 펜(201)을 잡고 있는 상태에서 다른 한 손에 의해 스타일러스 펜(201)과 관련된 메뉴를 호출하거나 현재 실행 화면을 제어하기 위해 사용될 수 있다. 일 실시 예에 따르면, 스타일러스 펜(201)을 잡고 있는 상태에서 반대쪽 손에 의한 에어 제스처가 입력되면, 프로세서(420)는 에어 제스처에 매핑된 기능을 어플리케이션에 전달할 수 있다. Air gestures can be used to call up a menu related to the stylus pen (201) or control a current execution screen with one hand while holding the stylus pen (201) with the other hand without interfering with the use of the stylus pen (201). According to one embodiment, when an air gesture is input by the other hand while holding the stylus pen (201), the processor (420) can transmit a function mapped to the air gesture to the application.
예를 들어, 프로세서(420)는 에어 제스처에 기반하여, 펜 속성(예: 두께, 및/또는 색상)과 관련된 적어도 하나의 아이콘 패널(예: 펜 기능을 변경할 수 있는 아이콘으로 구성됨)을 제공하거나 펜 속성(예: 두께, 및/또는 색상)을 변경할 수 있다. 또는 프로세서(420)는 에어 제스처에 기반하여, 현재 실행 중인 어플리케이션 화면에 대한 제어 동작을 수행할 수 있다. 여기서, 적어도 하나의 아이콘 패널은 스타일러스 펜(201)을 이용한 작업에 활용하는 툴 셋을 나열한 그래픽 UI로, 어플리케이션 실행 화면 상에 일시적으로 표시되었다가 사라지도록 구현될 수 있다. 예를 들어, 툴 셋은 스타일러스 펜(201)을 이용하여 실행 중인 어플리케이션에서 사용 가능한 툴을 포함할 수 있다. 상기한 바 이외에 적어도 하나의 아이콘 패널은 스타일러스 펜(201)과 관련한 다양한 펜 기능 예컨대, 번역기, 스마트 셀렉트와 같은 기능을 포함할 수 있다. For example, the processor (420) may provide at least one icon panel (e.g., composed of icons that can change pen functions) related to pen properties (e.g., thickness and/or color) or change pen properties (e.g., thickness and/or color) based on an air gesture. Or, the processor (420) may perform a control operation on a currently running application screen based on an air gesture. Here, at least one icon panel is a graphic UI that lists a tool set utilized for a task using the stylus pen (201), and may be implemented to be temporarily displayed on the application execution screen and then disappear. For example, the tool set may include tools that can be used in an application that is running using the stylus pen (201). In addition to the above, at least one icon panel may include various pen functions related to the stylus pen (201), such as a translator and a smart select.
일 실시 예에 따르면, 프로세서(420)는 에어 제스처에 대응하는 스타일러스 펜(201)과 관련한 기능을 매핑시킬 수 있으며, 매핑된 기능을 확인하여 수행할 수 있다. According to one embodiment, the processor (420) can map a function related to a stylus pen (201) corresponding to an air gesture, and can check and perform the mapped function.
일 실시 예에 따르면, 프로세서(420)는 센서(476)의 센싱 데이터에 기반하여 전자 장치(101)의 근접 영역 예컨대, 에어 제스처를 인식하는 공간적 범위 내에서 사용자의 양 손을 인식할 수 있으나, 순차적으로 또는 동시에 스타일러스 펜(201)을 쥔 손과 아닌 손을 인식할 수 있다. 또는 스타일러스 펜(201)을 쥐고 있지 않은 손을 먼저 인식한 후, 스타일러스 펜(201)을 쥔 손을 인식할 수도 있다. 다르게는 스타일러스 펜(201)을 쥔 손이 어느 손인지를 먼저 인식한 후, 프로세서(420)는 인식된 손의 반대되는 방향에서 에어 제스처를 검출하기 위한 센싱 동작을 수행할 수 있다. According to one embodiment, the processor (420) may recognize the user's two hands within a proximity area of the electronic device (101), for example, a spatial range for recognizing an air gesture, based on the sensing data of the sensor (476), but may recognize the hand holding the stylus pen (201) and the other hand sequentially or simultaneously. Alternatively, the hand not holding the stylus pen (201) may be recognized first, and then the hand holding the stylus pen (201) may be recognized. Alternatively, after first recognizing which hand is holding the stylus pen (201), the processor (420) may perform a sensing operation to detect an air gesture in the opposite direction of the recognized hand.
일 실시 예에 따르면, 에어 제스처를 검출하기 위해 프로세서(420)는 스타일러스 펜(201)이 전자 장치(101)의 수납 공간으로부터 탈거되거나, 스타일러스 펜(201)에 의한 호버링 검출 시, 스타일러스 펜(201)의 버튼이 눌릴 경우 에어 제스처 인식을 위한 센싱 기능을 활성화시킬 수 있다. 이에 따라 일 실시 예에 따르면, 프로세서(420)는 예컨대, 스타일러스 펜(201)이 전자 장치(101)의 수납 공간으로부터 탈거 시 센서(476)의 센싱 데이터에 기반하여 양 손 중 입력 인터페이스로 사용할 손을 식별할 수 있다. According to one embodiment, in order to detect an air gesture, the processor (420) may activate a sensing function for recognizing an air gesture when the stylus pen (201) is removed from the storage space of the electronic device (101) or when a button of the stylus pen (201) is pressed upon detecting hovering by the stylus pen (201). Accordingly, according to one embodiment, the processor (420) may identify which hand among the two hands is to be used as an input interface based on sensing data of the sensor (476), for example, when the stylus pen (201) is removed from the storage space of the electronic device (101).
일 실시 예에 따르면, 프로세스(420)는 스타일러스 펜(201)에 의한 호버링 검출 시 에어 제스처를 인식할 수도 있으나, 호버링 상태가 아닌 경우에도 예를 들어, 사용자가 화면 상에 표시되는 에어 제스처 모드 활성화를 위한 아이콘을 선택한 상태에서 스타일러스 펜(201)이 준비되어 있다면 즉, 호버링이 없더라도 스타일러스 펜(201)을 이용하려고 화면 상에서 준비 중일 경우에는 에어 제스처를 인식할 수 있다. 이외에도 사용자가 에어 제스처 모드를 활성화하기 위한 미리 정해진 터치 입력이 입력된 경우에도 스타일러스 펜(201)이 준비되어 있는 상태에서는 에어 제스처의 동작을 인식할 수 있다.According to one embodiment, the process (420) may recognize an air gesture when detecting hovering by the stylus pen (201), but even when not in a hovering state, for example, when the stylus pen (201) is prepared while the user selects an icon for activating the air gesture mode displayed on the screen, that is, when the stylus pen (201) is prepared on the screen to be used even when there is no hovering, the air gesture may be recognized. In addition, when a user inputs a predetermined touch input for activating the air gesture mode, the operation of the air gesture may be recognized while the stylus pen (201) is prepared.
일 실시 예에 따르면, 프로세스(420)는 인식된 손에 해당하는 방향을 식별하여, 식별된 방향에 대해서만 에어 제스처를 검출하여 어플리케이션 실행 도중에 입력 인터페이스가 변경되는 것을 방지할 수 있다. 예를 들어, 스타일러스 펜(201)을 쥔 손에 의한 에어 제스처가 인식되는 것을 방지할 수 있다. According to one embodiment, the process (420) can identify a direction corresponding to a recognized hand and detect air gestures only for the identified direction, thereby preventing the input interface from changing during application execution. For example, an air gesture by a hand holding a stylus pen (201) can be prevented from being recognized.
일 실시 예에 따르면, 메모리(430)는 스타일러스 펜(201)의 동작에 관련된 정보를 저장할 수 있다. 일 실시 예에 따르면, 메모리(430)는 에어 제스처에 대응하는 동작을 수행하기 위한 프로그램(또는, 어플리케이션, 알고리즘, 또는 처리 루프)을 저장할 수도 있다. 메모리(430)는 전자 장치(101) 또는 스타일러스 펜(201)이 에어 제스처에 대응하여 특정 동작을 수행하도록 하는 인스트럭션을 저장할 수 있다. According to one embodiment, the memory (430) may store information related to the operation of the stylus pen (201). According to one embodiment, the memory (430) may also store a program (or an application, an algorithm, or a processing loop) for performing an operation corresponding to an air gesture. The memory (430) may store instructions for causing the electronic device (101) or the stylus pen (201) to perform a specific operation corresponding to an air gesture.
일 실시 예에 따르면, 전자 장치(101)는 센싱 패널(461)을 포함하는 표시 장치(460), 적어도 하나의 센서(476), 상기 표시 장치 및 상기 적어도 하나의 센서(476)와 작동적으로 연결된 적어도 하나의 프로세서(420) 및 상기 적어도 하나의 프로세서(420)와 작동적으로 연결된 메모리(430)를 포함하며, 상기 메모리(430)는, 실행 시에, 상기 적어도 하나의 프로세서(420)가, 상기 적어도 하나의 센서(476)에 의해 상기 전자 장치(101)의 근접 영역에서 에어 제스처에 대응하는 제1 입력 신호가 검출되고, 상기 센싱 패널을 통해 상기 스타일러스 펜에 의한 입력에 대응하는 제2 입력 신호가 검출되지 않으면, 상기 제1 입력 신호에 대응하여 화면 표시와 관련된 제1 기능을 제어하고, 상기 제2 입력 신호가 검출된 상태에서 상기 제1 입력 신호가 검출되면, 상기 제1 입력 신호에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어하도록 구성된 인스트럭션들을 저장할 수 있다. 일 실시 예에 따르면, 상기 상기 화면 표시와 관련된 제1 기능은, 실행 중인 어플리케이션 화면에 대한 제어 기능이며, 상기 스타일러스 펜과 관련된 제2 기능은, 상기 스타일러스 펜 속성과 관련된 기능일 수 있다. 예를 들어, 사용자가 스타일러스 펜을 쥔 상태에서 다른 손으로 에어 제스처를 취할 경우 제2 입력 신호는 검출되고 있지 않지만 제1 입력 신호는 검출될 수 있는데, 이러한 경우 상기 에어 제스처에 대응하여 현재 화면에 대한 표시가 조절될 수 있다. 예를 들어, 에어 제스처에 대응하여 화면 확대, 축소, 상측 스크롤, 하측 스크롤, 화면 회전과 같은 제어를 수행할 수 있으며, 화면 제어와 관련하여 매핑 가능한 기능은 이에 한정되지 않을 수 있다. According to one embodiment, an electronic device (101) includes a display device (460) including a sensing panel (461), at least one sensor (476), at least one processor (420) operatively connected with the display device and the at least one sensor (476), and a memory (430) operatively connected with the at least one processor (420), wherein the memory (430) may store instructions configured to, when executed, cause the at least one processor (420) to, when a first input signal corresponding to an air gesture is detected in a proximity area of the electronic device (101) by the at least one sensor (476) and a second input signal corresponding to an input by the stylus pen is not detected through the sensing panel, control a first function related to a screen display in response to the first input signal, and when the first input signal is detected in a state where the second input signal is detected, control a second function related to the stylus pen in response to the first input signal. According to one embodiment, the first function related to the screen display may be a control function for a running application screen, and the second function related to the stylus pen may be a function related to a property of the stylus pen. For example, when a user makes an air gesture with the other hand while holding the stylus pen, the second input signal may not be detected but the first input signal may be detected, in which case the display of the current screen may be adjusted in response to the air gesture. For example, in response to the air gesture, controls such as screen zoom-in, screen zoom-out, upward scroll, downward scroll, and screen rotation may be performed, and functions that can be mapped in relation to screen control may not be limited thereto.
예를 들어, 사용자가 화면 가까이에서 스타일러스 펜을 쥔 상태에서 또는 호버링 상태에서는 제2 입력 신호가 검출될 수 있으며, 상기 제2 입력 신호가 검출되는 동안에 에어 제스처에 해당하는 제1입력 신호도 동시에 검출될 수 있다. 이러한 경우 에어 제스처에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어할 수 있다. 예를 들어, 에어 제스처에 대응하여 상기 스타일러스 펜 속성을 변경할 수 있다. For example, when a user holds a stylus pen close to a screen or in a hovering state, a second input signal may be detected, and a first input signal corresponding to an air gesture may be detected simultaneously while the second input signal is being detected. In this case, a second function related to the stylus pen may be controlled in response to the air gesture. For example, a property of the stylus pen may be changed in response to the air gesture.
일 실시 예에 따르면, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서(420)가, 상기 전자 장치로부터 상기 스타일러스 펜의 탈거가 감지된 이후에, 상기 제1 입력 신호 및 상기 제2 입력 신호 중 적어도 하나가 검출되는지를 식별하도록 구성될 수 있다. According to one embodiment, the instructions may be configured to cause the at least one processor (420) to identify whether at least one of the first input signal and the second input signal is detected after removal of the stylus pen from the electronic device is detected.
일 실시 예에 따르면, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서(420)가, 상기 제2 입력 신호가 검출된 상태에서 상기 제1 입력 신호가 검출되면, 상기 제1 입력 신호에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 변경하도록 제어하며, 상기 변경된 제2 기능에 대한 정보를 지정된 시간 동안 상기 표시 장치 상에 표시한 후 제거되도록 구성될 수 있다. 또한, 예를 들어, 상기 제2 입력 신호가 감지된 이후 미리 정해진 시간 이내에 상기 제2 입력 신호가 다시 감지되면, 현재 변경된 스타일러스 펜 속성과 관련된 항목을 지정된 시간 동안 상기 표시 장치(460) 상에 표시한 후 제거되도록 구성될 수 있다. According to one embodiment, the instructions may be configured to control the at least one processor (420) to change a second function related to the stylus pen in response to the first input signal when the first input signal is detected in a state in which the second input signal is detected, and to display information about the changed second function on the display device for a specified period of time and then be removed. In addition, for example, if the second input signal is detected again within a predetermined period of time after the second input signal is detected, an item related to the currently changed stylus pen attribute may be displayed on the display device (460) for a specified period of time and then removed.
일 실시 예에 따르면, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서(420)가, 상기 전자 장치(101)로부터 상기 스타일러스 펜(201)의 탈거가 감지되면, 상기 스타일러스 펜(201)과 관련된 실행 가능한 복수의 어플리케이션들을 표시하고, 상기 복수의 어플리케이션들 중 상기 제1 입력 신호에 대응하여 어느 하나의 어플리케이션의 기능을 변경하도록 구성될 수 있다.According to one embodiment, the instructions may be configured to cause the at least one processor (420) to, when removal of the stylus pen (201) from the electronic device (101) is detected, display a plurality of executable applications related to the stylus pen (201), and change a function of one of the plurality of applications in response to the first input signal.
일 실시 예에 따르면, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서(420)가, 상기 스타일러스 펜(420)의 버튼(예: 버튼(337))이 눌러진 상태임을 나타내는 제3 입력 신호가 감지된 상태에서 상기 제1 입력 신호가 검출되면, 상기 제1 입력 신호에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 변경하도록 구성될 수 있다.According to one embodiment, the instructions may be configured to cause the at least one processor (420) to change a second function associated with the stylus pen in response to the first input signal when the first input signal is detected in a state in which a third input signal indicating that a button (e.g., button (337)) of the stylus pen (420) is pressed is detected.
일 실시 예에 따르면, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서(420)가, 상기 스타일러스 펜의 버튼이 눌러진 상태임을 나타내는 제3 입력 신호가 감지된 이후, 상기 스타일러스 펜의 상기 버튼이 릴리즈된 상태임을 나타내는 제4 입력 신호가 감지되기 전까지 상기 제1 입력 신호에 기반하여 상기 스타일러스 펜과 관련된 제2 기능을 실시간으로 변경하도록 구성될 수 있다.In one embodiment, the instructions may be configured to cause the at least one processor (420) to change a second function associated with the stylus pen in real time based on the first input signal after a third input signal indicating that the button of the stylus pen is pressed is detected and before a fourth input signal indicating that the button of the stylus pen is released is detected.
일 실시 예에 따르면, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서(420)가, 상기 전자 장치로부터 상기 스타일러스 펜의 탈거가 감지된 이후에, 상기 제1 입력 신호가 검출되면, 상기 표시 장치(460)에 표시되는 어플리케이션 실행 화면 상에 상기 에어 제스처 활성화 상태를 나타내는 아이콘을 표시하도록 구성될 수 있다.According to one embodiment, the instructions may be configured to cause the at least one processor (420) to display an icon indicating an air gesture activation state on an application execution screen displayed on the display device (460) when the first input signal is detected after removal of the stylus pen from the electronic device is detected.
일 실시 예에 따르면, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서(420)가, 상기 에어 제스처 활성화 상태를 나타내는 아이콘을 표시한 후, 상기 제1 입력 신호가 일정 시간 동안 검출되지 않으면, 상기 에어 제스처의 비활성화 상태를 나타내는 아이콘을 상기 표시 장치(460)에 표시되는 어플리케이션 실행 화면 상에 표시하도록 구성될 수 있다.According to one embodiment, the instructions may be configured to cause the at least one processor (420) to display an icon indicating an activated state of the air gesture, and then, if the first input signal is not detected for a predetermined period of time, display an icon indicating a deactivated state of the air gesture on an application execution screen displayed on the display device (460).
일 실시 예에 따르면, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서(420)가, 상기 제1 입력 신호를 상기 전자 장치(101)의 왼쪽 방향에 해당하는 영역에서 검출하면, 상기 스타일러스 펜과 관련된 제2 기능에 대한 적어도 하나의 항목을 오른손 모드에 대응되도록 상기 전자 장치(101)의 표시 장치(460) 상에 재배열하며, 상기 제1 입력 신호를 상기 전자 장치(101)의 오른쪽 방향에 해당하는 영역에서 검출하면, 상기 스타일러스 펜과 관련된 제2 기능에 대한 적어도 하나의 항목을 왼손 모드에 대응되도록 상기 전자 장치(101)의 표시 장치(460) 상에 재배열하도록 구성될 수 있다.According to one embodiment, the instructions may be configured such that, when the at least one processor (420) detects the first input signal in an area corresponding to a left direction of the electronic device (101), rearrange at least one item for the second function related to the stylus pen on the display device (460) of the electronic device (101) to correspond to a right-hand mode, and when the at least one processor (420) detects the first input signal in an area corresponding to a right direction of the electronic device (101), rearrange at least one item for the second function related to the stylus pen on the display device (460) of the electronic device (101) to correspond to a left-hand mode.
일 실시 예에 따르면, 상기 적어도 하나의 센서(476)는, 상기 전자 장치(101)의 근접 영역에서 상기 에어 제스처에 대응하는 제1 입력 신호를 검출할 수 있는 RF 스펙트럼 방식의 센서, 적외선(Infrared) 센서, 초음파 센서, 모션 센서, 3D 센서, 비전 센서 중 적어도 하나를 포함할 수 있다.According to one embodiment, the at least one sensor (476) may include at least one of an RF spectrum type sensor, an infrared sensor, an ultrasonic sensor, a motion sensor, a 3D sensor, and a vision sensor capable of detecting a first input signal corresponding to the air gesture in a proximity area of the electronic device (101).
도 5는 일 실시 예에 따른 에어 제스처를 이용한 어플리케이션 실행 화면의 제어를 설명하기 위한 화면 예시도(500a, 500b)이다.FIG. 5 is an example screen diagram (500a, 500b) for explaining control of an application execution screen using air gestures according to one embodiment.
도 5의 500a에 도시된 바와 같이, 전자 장치(101)의 에어 제스처를 인식하는 공간적 범위 내에서 예컨대, 제1 방향(예: 전자 장치(101)의 좌측)의 근접 영역(515) 또는 제2 방향(예: 전자 장치(101)의 우측)의 근접 영역(520) 중 어느 방향의 근접 영역에서 에어 제스처가 검출되는지에 따라, 전자 장치(101)는 에어 제스처에 해당하는 입력 인터페이스로 사용할 손이 오른손인지 왼손인지를 결정할 수 있다. 예를 들어, 도 5의 500a에 도시된 바와 같이, 제1 방향(예: 전자 장치(101)의 좌측)의 근접 영역(515)에서 에어 제스처가 검출되는 경우 입력 인터페이스로 사용할 손이 왼손(510)이라고 인식할 수 있다.As illustrated in 500a of FIG. 5, depending on which direction the air gesture is detected in, for example, in the proximity area (515) in the first direction (e.g., the left side of the electronic device (101)) or in the proximity area (520) in the second direction (e.g., the right side of the electronic device (101)), within the spatial range for recognizing the air gesture of the electronic device (101), the electronic device (101) can determine whether the hand to be used as the input interface corresponding to the air gesture is the right hand or the left hand. For example, as illustrated in 500a of FIG. 5, if the air gesture is detected in the proximity area (515) in the first direction (e.g., the left side of the electronic device (101)), it can be recognized that the hand to be used as the input interface is the left hand (510).
다양한 실시 예에 따르면, 전자 장치(101)는 사용자의 왼손 또는 오른손을 식별한 후, 식별된 왼손 또는 오른손에 대응하도록 UI 배치를 실시간으로 변경할 수 있다. 예를 들어, 전자 장치(101)는 사용자 편의를 높이기 위해 에어 제스처에 해당하는 입력 인터페이스로 사용할 손이 왼손이라고 인식 시 UI를 스타일러스 펜(201)을 이용하는 오른손에 최적으로 배치할 수 있다. 이와 반대로 전자 장치(101)는 오른손 인식 시 UI를 스타일러스 펜(201)을 이용하는 왼손에 최적으로 배치할 수 있다. 일 실시 예에 따르면, 상기 UI는 스타일러스 펜 기능과 관련한 아이콘들을 포함할 수 있다. 전자 장치(101)는 스타일러스 펜 기능과 관련한 UI 구성 요소들의 배치를 왼손 또는 오른손 모드에 미리 매치하여 설정하고 저장할 수 있다.According to various embodiments, the electronic device (101) may change the UI layout in real time to correspond to the identified left or right hand after identifying the user's left or right hand. For example, if the electronic device (101) recognizes that the hand to be used as the input interface corresponding to the air gesture is the left hand in order to increase user convenience, the electronic device (101) may optimally arrange the UI for the right hand using the stylus pen (201). Conversely, if the electronic device (101) recognizes the right hand, the UI may optimally arrange the UI for the left hand using the stylus pen (201). According to one embodiment, the UI may include icons related to the stylus pen function. The electronic device (101) may set and store the layout of UI components related to the stylus pen function by matching them to the left or right-hand mode in advance.
한편, 사용자가 에어 제스처를 위해 입력 인터페이스로 사용할 손이 왼손(510)임을 인식한 상태에서, 도 5의 500b에 도시된 바와 같이, 사용자가 오른손으로 스타일러스 펜(201)을 이용하여 그림을 그리다가 잠시 화면(525)으로부터 뗀 상태에서, 전자 장치(101)의 화면을 터치하는 일 없이 인식된 왼손(510)의 엄지 손가락과 검지 손가락을 모았다가 벌리는 핀치 아웃(pinch out) 제스처를 취하는 경우, 핀치 아웃 제스처에 대응하여 화면(530)이 확대 표시될 수 있다. 이와 같이 사용자는 어플리케이션이 실행된 상태에서 팜 리젝 기능이 적용되는 화면을 터치하지 않고도 손 동작을 취하는 것만으로도 상기 어플리케이션 실행 화면에 대한 제어를 할 수 있다. Meanwhile, if the user recognizes that the hand to be used as an input interface for an air gesture is the left hand (510), as shown in 500b of FIG. 5, when the user draws a picture using a stylus pen (201) with the right hand and then momentarily lifts the hand from the screen (525), and makes a pinch out gesture of bringing the thumb and index finger of the recognized left hand (510) together and then spreading them apart without touching the screen of the electronic device (101), the screen (530) can be enlarged and displayed in response to the pinch out gesture. In this way, the user can control the application execution screen by making a hand gesture without touching the screen to which the palm rejection function is applied while the application is running.
도 6은 일 실시 예에 따른 에어 제스처를 이용한 호버링 시의 스타일러스 펜 속성 변경을 설명하기 위한 화면 예시도(600a, 600b)이다. FIG. 6 is an example screen diagram (600a, 600b) for explaining a change in stylus pen properties when hovering using an air gesture according to one embodiment.
도 6의 600a에서는, 전자 장치(101)의 에어 제스처를 인식하는 공간적 범위 내에서 예컨대, 제1 방향(예: 전자 장치(101)의 좌측)의 근접 영역(620)에서 에어 제스처가 검출되는 경우를 예시하고 있다. 일 실시 예에서, 전자 장치(101)는, 호버링을 나타내는 신호가 입력되는 상태에서 에어 제스처가 확인되는 경우, 호버링이 없는 상태에서의 에어 제스처가 확인되는 경우와는 상이한 동작을 수행할 수 있다. In 600a of FIG. 6, it is exemplified that an air gesture is detected in a proximity area (620) in a first direction (e.g., the left side of the electronic device (101)) within a spatial range for recognizing an air gesture of the electronic device (101). In one embodiment, when an air gesture is detected in a state where a signal indicating hovering is input, the electronic device (101) may perform a different operation from a case where an air gesture is detected in a state without hovering.
일 실시 예에 따르면, 스타일러스 펜(201)에 의한 호버링(640)을 나타내는 신호가 입력되는 상태에서 에어 제스처가 검출되는 경우, 검출되는 에어 제스처에 매핑되는 동작이 달라질 수 있다. 예를 들어, 호버링(640)을 나타내는 신호가 입력되고 있다는 것은 사용자가 스타일러스 펜(201)을 이용하려고 화면 상에서 준비 중이라는 것을 의미하므로, 전자 장치(101)는 에어 제스처에 기반하여, 스타일러스 펜(201)과 관련된 적어도 하나의 툴 UI를 제공하거나 펜 속성을 변경할 수 있다. According to one embodiment, when an air gesture is detected while a signal indicating hovering (640) by a stylus pen (201) is input, an action mapped to the detected air gesture may change. For example, since the signal indicating hovering (640) being input means that the user is preparing to use the stylus pen (201) on the screen, the electronic device (101) may provide at least one tool UI related to the stylus pen (201) or change pen properties based on the air gesture.
예를 들어, 제1 방향(예: 전자 장치(101)의 좌측)의 근접 영역(620)에서 검출되는 센싱 데이터를 기반으로 사용자가 에어 제스처를 위해 입력 인터페이스로 사용할 손이 왼손(610)임을 인식한 상태에서, 도 6의 600b에 도시된 바와 같이, 사용자가 오른손으로 스타일러스 펜(201)을 이용하여 그림을 그리다가 화면(625) 상에 호버링(640)이 유지되는 상태에서, 전자 장치(101)의 화면(635)을 터치하는 일 없이 인식된 왼손(610)의 엄지 손가락과 검지 손가락을 모았다가 벌리는 핀치 아웃(pinch out) 제스처를 취하는 경우, 핀치 아웃 제스처에 대응하여 스타일러스 펜(201) 속성이 변경될 수 있다. 전술한 바에서는 호버링(640)이 유지되는 상태에서 에어 제스처를 인식하는 경우를 예로 들어 설명하였으나, 호버링 상태가 아닌 경우에도 예를 들어, 사용자가 스타일러스 펜(201)으로 사용할 준비가 되어 있는 상태 또는 스타일러스 펜(201)을 이용한 터치 입력이 있는 경우 즉, 호버링이 없더라도 스타일러스 펜(201)을 이용하려고 화면 상에서 준비 중일 경우에는 에어 제스처를 인식할 수 있다. For example, based on sensing data detected in a proximity area (620) in a first direction (e.g., the left side of the electronic device (101)), if it is recognized that the hand to be used as an input interface for an air gesture is the left hand (610), as illustrated in 600b of FIG. 6, if the user draws a picture using a stylus pen (201) with the right hand and then hovers (640) over the screen (625), and then makes a pinch out gesture of bringing the thumb and index finger of the recognized left hand (610) together and then spreading them apart without touching the screen (635) of the electronic device (101), the stylus pen (201) property may be changed in response to the pinch out gesture. In the above, the case where an air gesture is recognized while hovering (640) is maintained was described as an example, but even when not in a hovering state, for example, when the user is ready to use a stylus pen (201) or there is a touch input using the stylus pen (201), that is, when the stylus pen (201) is being prepared on the screen to be used even when there is no hovering, an air gesture can be recognized.
예를 들어, 스타일러스 펜(201)에 의한 입력이 감지되지는 않지만 준비 중인 상태에서 에어 제스처의 동작을 실시간으로 인식함에 따라 상기 에어 제스처의 동작에 대응하여 어플리케이션 실행 화면을 제어할 수 있다. 반면, 스타일러스 펜(201)에 의한 호버링 입력 또는 터치 입력에 따라 스타일러스 펜(201)에 의한 입력이 감지되는 상태에서 에어 제스처의 동작을 실시간으로 인식함에 따라 스타일러스 펜(201)과 관련한 속성 또는 기능들이 즉각적으로 변경될 수 있다.For example, when an input by a stylus pen (201) is not detected but is in a state of preparation, the operation of an air gesture is recognized in real time, and thus the application execution screen can be controlled in response to the operation of the air gesture. On the other hand, when an input by a stylus pen (201) is detected according to a hovering input or a touch input by the stylus pen (201), the properties or functions related to the stylus pen (201) can be immediately changed by recognizing the operation of an air gesture in real time.
예를 들어, 스타일러스 펜(201)의 굵기, 불투명함(opacity)과 같은 속성이 핀치 아웃 제스처에 대응하여 변경될 수 있다. 이때, 사용자가 변경된 스타일러스 펜 속성이 어떠한 것인지를 한 눈에 알 수 있도록 어플리케이션 실행 화면(635) 상의 적어도 일부에는 스타일러스 펜 속성에 관련한 툴 UI(630)가 일시적으로 표시되었다가 사라질 수 있다. For example, properties such as thickness and opacity of the stylus pen (201) may be changed in response to a pinch-out gesture. At this time, a tool UI (630) related to the stylus pen properties may be temporarily displayed and then disappear on at least a portion of the application execution screen (635) so that the user can see at a glance what the changed stylus pen properties are.
일 실시 예에 따르면, 핀치 아웃 제스처의 경우 엄지 손가락과 검지 손가락이 벌어지는 정도에 대응하여 점차적으로 변경되는 스타일러스 펜 속성을 나타내는 툴 UI(630)가 어플리케이션 실행 화면(635) 상에 표시될 수도 있다. 예를 들어, 핀치 아웃 제스처에 의해 제어되는 펜 속성이 펜 굵기와 불투명값이라고 할 경우, 두 손가락을 벌리거나 오므리는 핀치 아웃 제스처는 펜 굵기와 불투명값을 조절하는 동작에 해당할 수 있다. 이와 같이 에어 제스처의 동작들은 스타일러스 펜과 관련한 속성을 조절하거나 변경하는 것에 대응되도록 구현될 수 있다. 이에 따라 사용자는 스타일러스 펜과 관련한 속성을 변경하기 위해 관련 항목들을 일일이 터치하지 않고도 전자 장치(101)와 근접한 영역에서 손 동작을 취하는 것만으로도 스타일러스 펜(201)을 이용한 전자 장치(101)의 실행 화면을 제어하거나 스타일러스 펜(201)과 관련한 속성을 변경할 수 있다. According to one embodiment, in the case of a pinch-out gesture, a tool UI (630) indicating stylus pen properties that gradually change in response to the degree to which the thumb and index fingers are spread apart may be displayed on the application execution screen (635). For example, if the pen properties controlled by the pinch-out gesture are pen thickness and opacity, a pinch-out gesture of spreading or closing two fingers apart may correspond to an action of adjusting the pen thickness and opacity. In this way, the actions of the air gesture may be implemented to correspond to adjusting or changing properties related to the stylus pen. Accordingly, the user may control the execution screen of the electronic device (101) using the stylus pen (201) or change properties related to the stylus pen (201) simply by making a hand motion in an area close to the electronic device (101) without touching each related item to change properties related to the stylus pen.
도 7은 일 실시 예에 따른 스타일러스 펜과 연관된 에어 제스처를 처리하기 위한 전자 장치의 동작 흐름도(700)이다. FIG. 7 is a flowchart (700) of operations of an electronic device for processing air gestures associated with a stylus pen according to one embodiment.
도 7을 참조하면, 동작 방법은 705 동작 내지 720동작들을 포함할 수 있다. 도 7의 동작 방법의 각 단계/동작은, 전자 장치(예: 도 1의 전자 장치(101), 전자 장치의 적어도 하나의 프로세서(예: 도 1의 프로세서(120) 및 도 4의 프로세서(420)) 중 적어도 하나에 의해 수행될 수 있다. 한 실시 예에서, 705 동작 내지 720 동작들 중 적어도 하나가 생략되거나, 일부 동작들의 순서가 바뀌거나, 다른 동작이 추가될 수 있다. Referring to FIG. 7, the operating method may include
이하, 스타일러스 펜(201)과 관련한 어플리케이션이 구동되고 있는 경우 에어 제스처를 이용하여 스타일러스 펜(201)과 관련한 기능을 제어하는 경우를 설명하기로 한다. Below, a case will be described where an application related to a stylus pen (201) is being run and a function related to the stylus pen (201) is controlled using air gestures.
여기서, 스타일러스 펜(201)과 관련한 어플리케이션이 구동되고 있다는 것은, 전자 장치(101)로부터 스타일러스 펜(201)이 탈거된 상태이며, 탈거된 상태에서 에어 제스처에 따라 스타일러스 펜(201)과 관련한 다양한 기능을 제어할 수 있는 상태라는 것을 의미할 수 있다. Here, the fact that an application related to the stylus pen (201) is running may mean that the stylus pen (201) is detached from the electronic device (101), and that various functions related to the stylus pen (201) can be controlled according to air gestures in the detached state.
일 실시 예에 따라서, 전자 장치(101)는, 에어 제스처 개시 이벤트를 확인할 수 있다. 예를 들어, 스타일러스 펜(201)은 전자 장치(101)의 수납 공간으로부터 탈거될 수 있으며, 탈거 시 에어 제스처 개시 이벤트를 확인할 수 있다. 즉, 탈거 시 에어 제스처를 검출하기 위한 동작을 수행할 수 있다. According to one embodiment, the electronic device (101) can detect an air gesture initiation event. For example, the stylus pen (201) can be removed from the storage space of the electronic device (101), and the air gesture initiation event can be detected upon removal. That is, an operation for detecting an air gesture can be performed upon removal.
다르게는 예를 들어, 전자 장치(101)는, 스타일러스 펜(201)으로부터 통신 신호에 포함된 정보에 기반하여, 에어 제스처 개시 이벤트를 확인할 수 있다. 에어 제스처 개시 이벤트는, 예를 들어 스타일러스 펜(201)에 구비된 버튼(예: 버튼(337))의 눌린 상태 검출일 수 있다. 버튼은, 물리 키, 터치 키, 모션 키, 압력 키, 키 리스(key less)의 방식 중 어느 하나로 구현될 수 있으며, 구현 형태에는 제한이 없다. 스타일러스 펜(201)은, 버튼의 눌린 상태를 확인 후, 버튼의 눌린 상태를 나타내는 정보를 포함하는 통신 신호를 전자 장치(101)로 송신할 수 있다. Alternatively, for example, the electronic device (101) may identify an air gesture initiation event based on information included in a communication signal from the stylus pen (201). The air gesture initiation event may be, for example, detection of a pressed state of a button (e.g., button (337)) provided on the stylus pen (201). The button may be implemented in any one of a physical key, a touch key, a motion key, a pressure key, and a key less manner, and there is no limitation on the implementation form. After identifying the pressed state of the button, the stylus pen (201) may transmit a communication signal including information indicating the pressed state of the button to the electronic device (101).
705 동작에서 전자 장치(101)는 전자 장치(101)의 근접 영역에서 에어 제스처에 대응하는 제1 입력 신호가 검출되는지를 식별할 수 있다. 만일 전자 장치(101)의 근접 영역에서 에어 제스처에 대응하는 제1 입력 신호가 검출되는 경우, 제1 입력 신호를 확인할 수 있다. 예를 들어, 제1 입력 신호에 해당하는 에어 제스처의 형태를 식별할 수 있는데, 전자 장치(101)는 에어 제스처가 스타일러스 펜(201)을 쥔 반대쪽 손, 반대쪽 손의 1개의 손가락을 이용한 제스처, 반대쪽 손의 2개의 손가락을 이용한 제스처, 멀티 손가락을 이용한 제스처, 주먹 쥔 손 제스처, 손바닥을 편 제스처와 같이 복수의 에어 제스처 중 어느 하나에 해당하는지를 인식할 수 있다.In
710 동작에서 스타일러스 펜(201)에 의한 입력에 대응하는 제2 입력 신호가 검출되는지를 식별할 수 있다. 일 실시 예에 따르면, 스타일러스 펜(201)에 의한 입력은, 호버링 입력을 포함할 수 있다. It can be identified whether a second input signal corresponding to an input by a stylus pen (201) is detected in the 710 operation. According to one embodiment, the input by the stylus pen (201) may include a hovering input.
만일 상기 스타일러스 펜(201)에 의한 입력에 대응하는 제2 입력 신호가 검출되지 않는 경우 즉, 상기 에어 제스처에 대응하는 제1 입력 신호만 검출된 경우, 720 동작에서 전자 장치(101)는 상기 제2 입력 신호가 검출되지 않는 상태에서 상기 제1 입력 신호의 검출에 대응하여 어플리케이션 실행 화면을 제어할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 상기 제1입력 신호에 대응하는 에어 제스처에 따라, 어플리케이션 실행 화면을 조절할 수 있다. 예를 들어, 회전 제스처에 따라 회전 제스처에 대응하는 방향으로 어플리케이션 실행 화면을 회전시킬 수 있다.If the second input signal corresponding to the input by the stylus pen (201) is not detected, that is, if only the first input signal corresponding to the air gesture is detected, in
반면, 상기 스타일러스 펜(201)에 의한 호버링 입력에 대응하는 제2 입력 신호가 검출되는 경우 즉, 상기 스타일러스 펜(201)에 의한 호버링 입력에 대응하는 제2 입력 신호가 검출된 상태에서 상기 제1 입력 신호가 검출되는 경우 715 동작에서 전자 장치(101)는 상기 호버링 입력에 대응하는 제2 입력 신호가 감지된 상태에서의 상기 제1 입력 신호에 대응하여 상기 스타일러스 펜 속성을 변경할 수 있다. 상기한 바와 같이 전자 장치(101)는 에어 제스처가 입력되면 호버링 입력이 있는지 판단하여, 판단 결과에 따라 대응되는 기능을 제어할 수 있다. 또한 전술한 바에서는 에어 제스처가 입력된 상태에서 호버링 입력이 있는지를 판단하는 경우를 예시하나, 호버링 입력 이외에 실제 사용자가 스타일러스 펜(201)을 사용하는 터치 입력이 있는지를 판단할 수도 있다. 이에 따라 호버링 시 또는 터치 입력 시 에어 제스처에 기반한 화면 제어 동작이 이루어질 수 있다. On the other hand, when a second input signal corresponding to the hovering input by the stylus pen (201) is detected, that is, when the first input signal is detected in a state in which the second input signal corresponding to the hovering input by the stylus pen (201) is detected, the electronic device (101) can change the stylus pen property in response to the first input signal in a state in which the second input signal corresponding to the hovering input is detected in
일 실시 예에 따르면, 스타일러스 펜(201)에 의한 호버링을 나타내는 신호가 입력되는 상태에서 에어 제스처가 검출되는 경우, 호버링이 없는 상태에서 검출되는 에어 제스처와 비교했을 때 에어 제스처에 매핑되는 동작이 달라질 수 있다. 예를 들어, 호버링을 나타내는 신호가 입력되고 있다는 것은 사용자가 스타일러스 펜(201)을 이용하려고 화면 상에서 준비 중이라는 것을 의미하므로, 전자 장치(101)는 에어 제스처에 기반하여, 스타일러스 펜(201)과 관련된 적어도 하나의 툴(예: 펜 굵기, 투명도, 브러쉬, 컬러 및/또는 색상을 변경할 수 있는 아이콘으로 구성됨) UI를 제공하거나 펜 속성(예: 펜 굵기, 투명도, 브러쉬, 컬러 및/또는 색상)을 변경할 수 있다. According to one embodiment, when an air gesture is detected in a state where a signal indicating hovering by the stylus pen (201) is input, an action mapped to the air gesture may be different compared to an air gesture detected in a state where there is no hovering. For example, since the fact that a signal indicating hovering is input means that the user is preparing to use the stylus pen (201) on the screen, the electronic device (101) may provide a UI for at least one tool (e.g., composed of an icon that can change pen thickness, transparency, brush, color, and/or color) related to the stylus pen (201) based on the air gesture, or change pen properties (e.g., pen thickness, transparency, brush, color, and/or color).
일 실시 예에 따르면, 전자 장치(예: 도 1의 전자 장치(101))에서 에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 방법은, 적어도 하나의 센서에 의해 상기 전자 장치의 근접 영역에서 에어 제스처에 대응하는 제1 입력 신호 및 스타일러스 펜에 의한 입력에 대응하는 제2 입력 신호 중 적어도 하나가 검출되는지를 식별하는 동작, 상기 제2 입력 신호가 검출되지 않는 상태에서 상기 제1 입력 신호의 검출에 대응하여, 화면 표시와 관련된 제1 기능을 제어하는 동작, 및 상기 제2 입력 신호가 검출되는 상태에서 상기 제1 입력 신호의 검출에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어하는 동작을 포함할 수 있다. According to one embodiment, a method for controlling a function associated with a stylus pen by an air gesture in an electronic device (e.g., the electronic device (101) of FIG. 1) may include an operation of identifying whether at least one of a first input signal corresponding to the air gesture and a second input signal corresponding to an input by the stylus pen is detected in a proximity area of the electronic device by at least one sensor, an operation of controlling a first function associated with a screen display in response to detection of the first input signal in a state in which the second input signal is not detected, and an operation of controlling a second function associated with the stylus pen in response to detection of the first input signal in a state in which the second input signal is detected.
일 실시 예에 따르면, 상기 제1 입력 신호 및 상기 제2 입력 신호 중 적어도 하나가 검출되는지를 식별하는 동작은, 상기 전자 장치로부터 상기 스타일러스 펜의 탈거가 감지된 이후에, 상기 제1 입력 신호 및 상기 제2 입력 신호 중 적어도 하나가 검출되는지를 식별하는 동작을 포함할 수 있다.In one embodiment, the act of identifying whether at least one of the first input signal and the second input signal is detected may include an act of identifying whether at least one of the first input signal and the second input signal is detected after removal of the stylus pen from the electronic device is detected.
일 실시 예에 따르면, 상기 제2 입력 신호가 검출되는 상태에서 상기 제1 입력 신호의 검출에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어하는 동작은, 상기 제2 입력 신호가 검출되는 동안 상기 제1 입력 신호에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 변경하도록 제어하는 동작 및 상기 변경된 제2 기능에 대한 정보를 지정된 시간 동안 표시한 후 제거하는 동작을 포함할 수 있다. According to one embodiment, the operation of controlling the second function associated with the stylus pen in response to detection of the first input signal while the second input signal is detected may include the operation of controlling the second function associated with the stylus pen to be changed in response to the first input signal while the second input signal is detected, and the operation of displaying information about the changed second function for a specified period of time and then removing it.
일 실시 예에 따르면, 상기 방법은, 상기 전자 장치로부터 상기 스타일러스 펜의 탈거가 감지되면, 상기 스타일러스 펜과 관련된 실행 가능한 복수의 어플리케이션들을 표시하는 동작 및 상기 복수의 어플리케이션들 중 상기 제1 입력 신호에 대응하여 어느 하나의 어플리케이션의 기능을 변경하는 동작을 더 포함할 수 있다. According to one embodiment, the method may further include, when removal of the stylus pen from the electronic device is detected, displaying a plurality of executable applications related to the stylus pen and changing a function of one of the plurality of applications in response to the first input signal.
일 실시 예에 따르면, 상기 방법은, 상기 스타일러스 펜의 버튼이 눌러진 상태임을 나타내는 제3 입력 신호가 검출된 상태에서 상기 제1 입력 신호가 검출되면, 상기 제1 입력 신호에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 변경하는 동작을 더 포함할 수 있다.According to one embodiment, the method may further include an operation of changing a second function associated with the stylus pen in response to the first input signal when the first input signal is detected in a state in which a third input signal indicating that a button of the stylus pen is pressed is detected.
일 실시 예에 따르면, 상기 방법은, 상기 스타일러스 펜의 버튼이 눌러진 상태임을 나타내는 제3 입력 신호가 검출된 이후, 상기 스타일러스 펜의 상기 버튼이 릴리즈된 상태임을 나타내는 제4 입력 신호가 감지되기 전까지 상기 제1 입력 신호에 기반하여 상기 스타일러스 펜과 관련된 제2 기능을 실시간으로 변경하는 동작을 더 포함할 수 있다.According to one embodiment, the method may further include an operation of changing a second function associated with the stylus pen in real time based on the first input signal after a third input signal indicating that the button of the stylus pen is pressed is detected and before a fourth input signal indicating that the button of the stylus pen is released is detected.
일 실시 예에 따르면, 상기 방법은, 상기 전자 장치로부터 상기 스타일러스 펜의 탈거가 감지된 이후에, 상기 제1 입력 신호가 검출되면, 상기 어플리케이션 실행 화면 상에 상기 에어 제스처 활성화 상태를 나타내는 아이콘을 표시하는 동작 및 상기 에어 제스처 활성화 상태를 나타내는 아이콘을 표시한 후, 상기 제1 입력 신호가 일정 시간 동안 검출되지 않으면, 상기 에어 제스처의 비활성화 상태를 나타내는 아이콘을 표시하는 동작을 더 포함할 수 있다.According to one embodiment, the method may further include an operation of displaying an icon indicating an activated state of the air gesture on the application execution screen when the first input signal is detected after removal of the stylus pen from the electronic device is detected, and an operation of displaying an icon indicating an inactivated state of the air gesture after displaying the icon indicating the activated state of the air gesture and then, if the first input signal is not detected for a predetermined period of time.
일 실시 예에 따르면, 상기 방법은, 상기 제1 입력 신호가 상기 전자 장치의 왼쪽 방향에 해당하는 영역에서 검출되면, 상기 스타일러스 펜과 관련된 제2 기능에 대한 적어도 하나의 항목을 오른손 모드에 대응되도록 재배열하여 표시하는 동작 및 상기 제1 입력 신호가 상기 전자 장치의 오른쪽 방향에 해당하는 영역에서 검출되면, 상기 스타일러스 펜과 관련된 제2 기능에 대한 적어도 하나의 항목을 왼손 모드에 대응되도록 재배열하여 표시하는 동작을 더 포함할 수 있다.According to one embodiment, the method may further include, if the first input signal is detected in an area corresponding to a left direction of the electronic device, displaying at least one item for a second function related to the stylus pen by rearranging it to correspond to a right-hand mode, and if the first input signal is detected in an area corresponding to a right direction of the electronic device, displaying at least one item for a second function related to the stylus pen by rearranging it to correspond to a left-hand mode.
도 8은 일 실시 예에 따른 에어 제스처의 종류를 예시한 테이블(800)이다. FIG. 8 is a table (800) illustrating types of air gestures according to one embodiment.
도 8에 도시된 바와 같이, 에어 제스처의 종류를 예시한 테이블(800)은 에어 제스처의 모양(810), 에어 제스처에 대한 설명(820), 에어 제스처에 의한 동작(830), 호버링 시의 에어 제스처에 의한 동작(840), 스타일러스 펜 관련 항목에 대한 UI(850)를 포함할 수 있다. As illustrated in FIG. 8, a table (800) exemplifying the types of air gestures may include the shape of air gestures (810), a description of air gestures (820), an action by air gestures (830), an action by air gestures during hovering (840), and a UI for stylus pen-related items (850).
핀치 인/아웃 제스처는 엄지 손가락과 검지 손가락을 모았다가 벌리거나 다시 모으는 동작을 나타내고, 호버링이 없는 상태에서는 캔버스의 확대/축소 즉, 어플리케이션 실행 화면을 확대/축소시킬 수 있다. 반면, 호버링이 있는 상태에서 즉, 스타일러스 펜(201)을 화면 가까이에 가져간 상태에서 핀치 인/아웃 제스처를 취하면 핀치 인/아웃 제스처에 대응하여 스타일러스 펜 속성이 변경될 수 있다. 예를 들어, 스타일러스 펜 속성으로 펜 굵기, 펜 투명도와 같은 값들이 조절될 수 있으며, 사용자가 변경 상태를 식별할 수 있도록 펜 굵기, 펜 투명도가 조절되는 UI(851)가 어플리케이션 실행 화면 상의 적어도 일부에 표시될 수 있다. The pinch in/out gesture represents a motion of bringing the thumb and index finger together and then spreading them apart or bringing them together again, and in a non-hovering state, it can zoom in/out the canvas, that is, zoom in/out the application execution screen. On the other hand, if the pinch in/out gesture is made in a hovering state, that is, when the stylus pen (201) is brought close to the screen, the stylus pen properties can be changed in response to the pinch in/out gesture. For example, values such as pen thickness and pen transparency can be adjusted as stylus pen properties, and a UI (851) in which the pen thickness and pen transparency are adjusted can be displayed on at least a part of the application execution screen so that the user can identify the changed state.
회전 제스처는 엄지 손가락과 검지 손가락을 왼쪽 또는 오른쪽으로 돌리는 동작을 나타내고, 호버링이 없는 상태에서는 캔버스의 회전 즉, 어플리케이션 실행 화면을 회전시킬 수 있다. 반면, 호버링이 있는 상태에서의 회전 제스처에 대응하여 스타일러스 펜 속성으로 브러쉬의 종류가 변경될 수 있다. 예를 들어, 사용자가 변경되는 브러쉬의 종류를 식별할 수 있도록 회전 방향 및 회전 정도에 대응하여 브러쉬의 종류가 나열된 UI(852) 내에서 순차적으로 브러쉬가 변경될 수 있다. 예를 들어, 사용자가 오른쪽으로 회전 동작을 나타내는 회전 제스처를 취하는 경우, 오른쪽 방향으로 순차적으로 브러쉬가 변경될 수 있으며, 회전 제스처를 멈출 경우 선택된 브러쉬에 대응하는 브로쉬의 종류로 정해질 수 있다. A rotation gesture indicates a motion of turning a thumb and an index finger to the left or right, and in a state without hovering, it can rotate a canvas, that is, rotate an application execution screen. On the other hand, in a state with hovering, a type of brush can be changed as a stylus pen property in response to a rotation gesture. For example, brushes can be sequentially changed in a UI (852) in which types of brushes are listed in response to a rotation direction and degree of rotation so that a user can identify the type of brush being changed. For example, when a user makes a rotation gesture indicating a rotation motion to the right, brushes can be sequentially changed in the right direction, and when the rotation gesture is stopped, the type of brush corresponding to the selected brush can be determined.
업다운 제스처는 검지 손가락을 상하 또는 좌우로 움직이는 동작을 나타내고, 호버링이 없는 상태에서는 어플리케이션 실행 화면에서 상하로 스크롤하거나 좌우로 움직일 수 있다. 반면, 호버링이 있는 상태에서의 업다운 제스처에 대응하여 스타일러스 펜 속성으로 컬러 또는 채도가 조절될 수 있다. 예를 들어, 업다운 제스처의 정도 또는 좌우로 움직이는 제스처의 정도에 대응하여 컬러 또는 채도값이 조절될 수 있으며, 이에 대응하여 컬러 또는 채도값이 조절되는 UI(853)가 표시될 수 있다. The up-down gesture represents a motion of moving the index finger up and down or left and right, and in a state without hovering, it can scroll up and down or move left and right on the application execution screen. On the other hand, in a state with hovering, the color or saturation can be adjusted as a stylus pen property in response to the up-down gesture. For example, the color or saturation value can be adjusted in response to the degree of the up-down gesture or the degree of the left and right movement gesture, and a UI (853) in which the color or saturation value is adjusted in response thereto can be displayed.
더블 탭 제스처는 사용자가 한 손가락으로 두 번 두들기는 동작을 나타내고, 호버링이 없는 상태에서는 어플리케이션 실행 화면에서 캔버스를 예컨대, 고정 비율로 확대/축소시킬 수 있다. 반면, 호버링이 있는 상태에서의 더블 탭 제스처에 대응하여 컬러 피커(picker)의 호출/종료가 실행될 수 있다. 예를 들어, 호버링이 있는 상태에서의 더블 탭 제스처에 대응하여 컬러 피커가 호출되거나 스타일러스 펜 속성으로 사용자에 의해 지정된 컬러로 컬러가 변경될 수도 있다. 예를 들어, 더블 탭 제스처에 대응하여 변경된 컬러가 선택된 UI(854)가 표시될 수 있다. A double tap gesture indicates a user's action of tapping twice with one finger, and in a non-hovering state, a canvas can be enlarged/reduced, for example, at a fixed ratio, on an application execution screen. On the other hand, a color picker may be called/terminated in response to a double tap gesture in a hovering state. For example, a color picker may be called in response to a double tap gesture in a hovering state, or a color may be changed to a color specified by the user as a stylus pen property. For example, a UI (854) in which a color changed in response to a double tap gesture is selected may be displayed.
팜 스와이프 제스처는 사용자가 손바닥을 좌우로 문지르는 동작을 나타내고, 어플리케이션 실행 화면에서 실행된 내용을 언두(Undo)/리두(Redo)할 수 있다. 예를 들어, 사용자가 손바닥을 왼쪽으로 문지를 경우 언두가 수행될 수 있으며, 손바닥을 오른쪽으로 문지를 경우 리두가 수행될 수 있다. 예를 들어, 팜 스와이프 제스처에 대응하여 실행되는 동작을 나타내는 UI(855)가 표시될 수 있다. The palm swipe gesture represents an action of the user rubbing the palm left and right, and can undo/redo the content executed on the application execution screen. For example, if the user rubs the palm left, undo can be performed, and if the user rubs the palm right, redo can be performed. For example, UI (855) representing an action executed in response to the palm swipe gesture can be displayed.
클렌치 제스처는 사용자가 주먹을 쥐는 동작을 나타내고, 어플리케이션 실행 화면에서 표시되고 있는 내용에 대한 전체 지우기를 수행할 수 있다. 예를 들어, 사용자가 어플리케이션 실행 화면이 표시되고 있는 상태에서 클렌치 제스처를 취하는 경우 모든 드로잉이 삭제됨을 알리는 UI(856)이 표시될 수 있다. The clench gesture represents a user making a fist and can perform a full erase of the content displayed on the application launch screen. For example, if the user makes a clench gesture while the application launch screen is displayed, a UI (856) may be displayed indicating that all drawings will be deleted.
일 실시 예에 따르면, 스타일러스 펜 관련 항목에 대한 UI(850)는 어플리케이션 실행 화면을 최대한 가리지 않도록 어플리케이션 실행 화면 상의 적어도 일부에 일정 시간 동안만 표시된 후 사라지도록 구현될 수 있다. According to one embodiment, the UI (850) for the stylus pen related item may be implemented to be displayed on at least a portion of the application execution screen for a certain period of time and then disappear so as not to cover the application execution screen as much as possible.
일 실시 예에 따르면, 스타일러스 펜 관련 항목에 대한 UI(850)는 스타일러스 펜(201)이 호버링된 상태에서는 호버링된 위치와 가까이에 표시될 수 있다. 다르게는 상기 UI(851)는 호버링 시에는 어플리케이션 실행 화면 상단에 일시적으로 표시되었다가 숨김 상태로 될 수도 있다. According to one embodiment, the UI (850) for the stylus pen related item may be displayed close to the hovering position of the stylus pen (201) when hovering. Alternatively, the UI (851) may be temporarily displayed at the top of the application execution screen when hovering and then hidden.
상기한 바에서는 에어 제스처의 종류와 그에 맵핑되는 기능을 설명하고 있으나, 다양한 에어 제스처가 어플리케이션 실행 화면의 제어 및 스타일러스 펜 속성의 변경을 위해 대응될 수 있다. 예를 들어, 팜 스와이프 제스처 대신 평면 위를 손가락으로 문지르는 동작을 나타내는 이레이저(eraser) 제스처를 이용하여 어플리케이션 실행 화면 상의 일부 또는 전체 내용을 지우는 동작을 수행할 수도 있다. 상기한 바 이외에도 물건을 집는 제스처를 화면의 객체를 선택하는 동작으로 적용하는 것과 같이 실생활에서 사용하는 동작들을 그대로 에어 제스처로 적용할 수 있으며, 에어 제스처에 대응하여 스타일러스 펜과 관련된 매핑 가능한 동작들은 이에 한정되지 않을 수 있다.The above describes the types of air gestures and the functions mapped to them, but various air gestures can be corresponded to control the application execution screen and change the properties of the stylus pen. For example, instead of the palm swipe gesture, an eraser gesture representing a motion of rubbing a flat surface with a finger can be used to perform an action of erasing part or all of the contents on the application execution screen. In addition to the above, motions used in real life, such as applying a gesture of picking up an object to a motion of selecting an object on the screen, can be applied as air gestures as they are, and the mappable motions related to the stylus pen in response to air gestures may not be limited thereto.
도 9a는 일 실시 예에 따른 에어 제스처 모드 활성화 전 어플리케이션 실행 화면 예시도이다. 도 9a에서는 어플리케이션 실행 화면의 상단에 상시 노출되는 패널(900)이 표시되며, 스타일러스 펜(201)과 관련한 속성을 변경하기 위한 패널(905)이 표시되는 경우를 예시하고 있다. 여기서, 어플리케이션은 스타일러스 펜(201)을 이용한 글씨 또는 그림을 그릴 수 있는 어플리케이션으로, 일명 노트 어플리케이션, 메모 어플리케이션, 그림판 어플리케이션이라고 칭할 수 있다. 이러한 어플리케이션에서 펜 굵기, 색과 같은 속성을 변경할 수 있는 툴 패널들(900, 905)을 제공하는데, 이러한 툴 패널들(900, 905)은 어플리케이션 실행 화면의 일부를 항시 또는 속성 변경 시마다 가릴 수 있다. 일 실시 예에 따르면, 에어 제스처 모드의 활성화 시에는 도 9b 내지 도 9d에 도시된 바와 같이 패널이 최소화된 크기로 조절될 수 있다. 도 9b 내지 도 9d는 에어 제스처 모드의 활성화 시 순차적으로 패널의 크기가 변화하는 과정을 예시하고 있다. FIG. 9A is an example of an application execution screen before activating the air gesture mode according to one embodiment. FIG. 9A illustrates a case where a panel (900) that is always exposed at the top of the application execution screen is displayed, and a panel (905) for changing properties related to a stylus pen (201) is displayed. Here, the application is an application that can draw letters or pictures using a stylus pen (201), and may be called a note application, a memo application, or a drawing board application. Such an application provides tool panels (900, 905) that can change properties such as pen thickness and color, and such tool panels (900, 905) may cover a part of the application execution screen at all times or whenever the properties are changed. According to one embodiment, when the air gesture mode is activated, the panel may be adjusted to a minimized size as illustrated in FIGS. 9B to 9D. Figures 9b to 9d illustrate the process of sequentially changing the size of the panel when the air gesture mode is activated.
도 9b는 일 실시 예에 따른 에어 제스처 모드 활성화 시 툴 패널의 변화를 설명하기 위한 화면 예시도이다. FIG. 9b is an example screen diagram for explaining changes in the tool panel when the air gesture mode is activated according to one embodiment.
도 9b에 도시된 바와 같이 전자 장치(101)의 근접 영역에서 에어 제스처(910)가 감지되면 에어 제스처 모드가 활성화될 수 있으며, 에어 제스처 모드의 활성화 시 사용자의 작업을 방해하지 않도록 인터랙티브한 시각적 효과를 제공할 수 있다. 예를 들어, 스타일러스 펜(201)의 속성과 관련된 적어도 하나의 툴 패널(예: 펜 굵기, 투명도, 브러쉬, 컬러 및/또는 색상을 변경할 수 있는 아이콘으로 구성됨)(915)이 제1 방향(920)으로 사라지는 비주얼 인터랙션(visul interaction)을 제공할 수 있다. As illustrated in FIG. 9b, when an air gesture (910) is detected in a proximity area of the electronic device (101), the air gesture mode may be activated, and an interactive visual effect may be provided so as not to interfere with a user's work when the air gesture mode is activated. For example, a visual interaction may be provided in which at least one tool panel (e.g., composed of pen thickness, transparency, brush, color, and/or an icon that can change color) (915) related to a property of the stylus pen (201) disappears in a first direction (920).
도 9c는 일 실시 예에 따른 에어 제스처 모드의 활성화 완료 시 툴 패널의 변화를 설명하기 위한 화면 예시도이다. 도 9c에 도시된 바와 같이 툴 패널(925)의 표시가 제1 방향(930)으로 사라지기 전에 일시적으로 멈출 수 있는데, 이에 따라 사용자는 스타일러스 펜(2010과 관련한 현재 선택된 펜 속성을 인지할 수 있다.FIG. 9C is an example screen diagram for explaining changes in the tool panel upon completion of activation of the air gesture mode according to one embodiment. As shown in FIG. 9C, the display of the tool panel (925) may temporarily stop before disappearing in the first direction (930), thereby allowing the user to recognize the currently selected pen property related to the stylus pen (2010).
도 9d는 일 실시 예에 따른 에어 제스처 모드 활성화 완료 시 툴 패널의 숨김 상태를 설명하기 위한 화면 예시도이다. 도 9d에서는 도 9c의 툴 패널(925)이 숨김 상태가 된 경우를 예시하고 있다. FIG. 9d is an example screen diagram for explaining the hidden state of the tool panel when the air gesture mode activation is completed according to one embodiment. FIG. 9d exemplifies a case where the tool panel (925) of FIG. 9c is in a hidden state.
도 9b 내지 도 9d에 도시된 바와 같이 에어 제스처 모드가 활성화됨에 따라 순차적으로 툴 패널의 표시가 최소화되는 크기로 변경될 수 있다. 또한 도 9b 내지 도 9d에 도시된 바와 같이, 에어 제스처 모드의 활성화가 완료된 경우 즉, 에어 제스처를 이용한 스타일러스 펜과 관련한 기능의 제어가 가능한 상태가 된 경우, 화면 상에서 스타일러스 펜(201)에 의한 호버링을 나타내는 그래픽 객체(예: 포인터, 인디케이터)(945)의 색, 밝기, 투명도, 형태, 채도, 색상 효과(예: 그라데이션 효과, 점멸 효과)를 변경할 수 있다. 예를 들어, 상기 그래픽 객체에 대한 색을 다른색으로 변경하거나 상기 그래픽 객체의 형태 예를 들어, 포인터의 모양을 변경함으로써 에어 제스처 모드가 활성화된 상태임을 나타낼 수 있다. 또한, 화면 상에 에어 제스처의 활성화 여부를 나타내는 상태 아이콘(940)을 제공하여 사용자가 에어 제스처 모드의 활성화를 직관적으로 알 수 있도록 할 수 있다. As illustrated in FIGS. 9b to 9d, when the air gesture mode is activated, the tool panel display may be sequentially changed to a size that minimizes the display. In addition, as illustrated in FIGS. 9b to 9d, when the activation of the air gesture mode is completed, that is, when the control of a function related to the stylus pen using the air gesture is possible, the color, brightness, transparency, shape, saturation, and color effect (e.g., gradient effect, blinking effect) of a graphic object (e.g., pointer, indicator) (945) indicating hovering by the stylus pen (201) on the screen may be changed. For example, the air gesture mode may be indicated to be activated by changing the color of the graphic object to a different color or changing the shape of the graphic object, e.g., the shape of the pointer. In addition, a status icon (940) indicating whether the air gesture is activated may be provided on the screen so that the user can intuitively recognize the activation of the air gesture mode.
상기한 바와 같이 에어 제스처 활성화 시 에어 제스처 모드의 진입 및 진입 완료에 따라 화면 상에 그래픽 객체를 다르게 출력함으로써 사용자 입장에서는 에어 제스처 모드의 활성화 상태를 손쉽게 인지할 수 있다. As described above, when air gestures are activated, graphic objects are displayed differently on the screen depending on whether air gesture mode is entered or completed, so that the user can easily recognize the activation status of air gesture mode.
도 10a는 일 실시 예에 따른 에어 제스처 모드 진입에 따른 상태 정보를 제공하는 화면 예시도이다. 도 10a에서는 전자 장치(101)의 근접 영역에서 사용자 손(1010)에 의한 에어 제스처 검출 시, 에어 제스처 모드로의 진입 상태를 나타내는 경우를 예시하고 있다. 도 9d와 유사하게 도 10a에서는 어플리케이션 실행 화면 상에 스타일러스 펜(201)에 의한 포인터(1015)와 에어 제스처의 활성화 여부를 나타내는 아이콘(1005)이 제공될 수 있다. FIG. 10A is an example screen diagram providing status information according to an embodiment of the present invention when entering the air gesture mode. FIG. 10A illustrates an example of indicating an entry status into the air gesture mode when an air gesture is detected by a user's hand (1010) in a proximity area of an electronic device (101). Similar to FIG. 9D, FIG. 10A may provide a pointer (1015) by a stylus pen (201) and an icon (1005) indicating whether the air gesture is activated on an application execution screen.
도 10b는 일 실시 예에 따른 에어 제스처 입력에 따른 상태 정보를 제공하는 화면 예시도이다. 도 10b에서는 에어 제스처 모드가 활성화된 상태에서, 사용자 손에 의한 에어 제스처(1010)가 검출되는 경우, 에어 제스처를 확인하여, 확인된 에어 제스처에 대응하는 스타일러스 펜(201)과 관련한 속성을 변경하기 위한 UI(1025)가 표시되는 경우를 예시하고 있다. 이때, 도 10b에 도시된 바와 같이 에어 제스처 모드가 활성화된 상태에서, 사용자 손에 의한 에어 제스처(1010)가 검출되는 경우 에어 제스처의 활성화 여부를 나타내는 아이콘(1005)의 색이 변경될 수 있다. 예를 들어, 에어 제스처의 활성화 여부를 나타내는 아이콘(1005)의 색은 에어 제스처가 입력되는 중에는 미리 정해진 색 예컨대, 다른 색으로 전환되어 표시될 수 있다. 또한 아이콘(1005)의 색 이외에 밝기, 투명도, 형태, 채도, 색상 효과(예: 그라데이션 효과, 점멸 효과)를 변경함으로써 에어 제스처의 활성화 여부를 나타낼 수 있다. 또한 일 실시 예에 따르면, 확인된 에어 제스처가 회전 제스처일 경우 회전 제스처에 대응하여 브러쉬의 종류 중 어느 하나가 순차적으로 선택되어 표시되는 UI(1025)가 일시적으로 표시되었다가 사라질 수도 있다. FIG. 10b is an example screen diagram providing status information according to an air gesture input according to an embodiment. FIG. 10b illustrates a case where, when an air gesture (1010) by a user's hand is detected while the air gesture mode is activated, a UI (1025) is displayed for confirming the air gesture and changing the property related to the stylus pen (201) corresponding to the confirmed air gesture. At this time, as illustrated in FIG. 10b, when an air gesture (1010) by a user's hand is detected while the air gesture mode is activated, the color of an icon (1005) indicating whether the air gesture is activated may be changed. For example, the color of the icon (1005) indicating whether the air gesture is activated may be displayed by switching to a preset color, such as a different color, while the air gesture is input. In addition, by changing the brightness, transparency, shape, saturation, and color effect (e.g., gradient effect, blinking effect) in addition to the color of the icon (1005), whether the air gesture is activated may be indicated. Additionally, according to one embodiment, if the confirmed air gesture is a rotation gesture, a UI (1025) may be temporarily displayed and then disappear, sequentially selecting one of the types of brushes in response to the rotation gesture.
도 10c는 일 실시 예예 따른 에어 제스처 미검출에 따른 상태 정보를 제공하는 화면 예시도이다. 도 10c에서는 에어 제스처 모드의 활성화 상태이나 근접 영역 내에 손이 검출되지 않는 경우의 화면을 예시하고 있다. 도 10c에 도시된 바와 같이 에어 제스처를 나타내는 손이 근접 영역 안에 일정 시간 동안 부재 시에는 즉, 지정된 시간 이후에도 손(1010)이 검출되지 않는 경우에는 에어 제스처 모드는 자동으로 종료될 수 있으며, 이에 따라 에어 제스처의 활성화 여부를 나타내는 아이콘(1030)의 색은 비활성화 상태를 나타내기 위한 색 예컨대, 연회색으로 변경되어 표시될 수 있다. FIG. 10C is an example screen diagram providing status information according to non-detection of an air gesture according to an embodiment. FIG. 10C illustrates a screen when the air gesture mode is activated but a hand is not detected within a proximity area. As illustrated in FIG. 10C, when a hand indicating an air gesture is absent within a proximity area for a certain period of time, that is, when a hand (1010) is not detected even after a specified period of time, the air gesture mode may be automatically terminated, and accordingly, the color of an icon (1030) indicating whether the air gesture is activated may be changed to a color, for example, light gray, to indicate a deactivated state.
도 10a 내지 도 10c에서와 같이 에어 제스처를 수행하는 손이 전자 장치(101)의 근접 영역에서 검출되는지 여부에 따라 어플리케이션 실행 화면 상에 에어 제스처 활성화 여부를 나타내는 아이콘(또는 인디케이터들)의 표시 상태가 달라질 수 있다.As shown in FIGS. 10A to 10C, the display status of icons (or indicators) indicating whether air gestures are activated on the application execution screen may vary depending on whether a hand performing an air gesture is detected in a proximity area of the electronic device (101).
도 11a는 일 실시 예에 따른 에어 제스처에 기반한 펜 속성 변경 동작을 설명하기 위한 화면 예시도이다. 도 11a에 도시된 바와 같이 에어 제스처 활성화 여부를 나타내는 아이콘(1105)에 의해 에어 제스처 모드가 활성화된 상태임을 나타내는 경우, 사용자는 한 손(1110)을 이용하여 원하는 에어 제스처를 취할 수 있으며, 상기 에어 제스처에 대응하여 스타일러스 펜(201)의 포인터 위치에 오버레이 형태로 변경 가능한 펜 속성을 포함하는 아이콘 패널(1100)이 표시될 수 있다. 예를 들어, 에어 제스처의 정도 예를 들어, 회전 제스처의 회전 방향 및 회전 정도에 대응하여 브러쉬의 종류들 간에 실시간 이동(1100)이 가능할 수 있다. 이러한 UI(1100)는 에어 제스처에 대응하여 브러쉬 종류가 선택되면 예를 들어, N초 후 사라질 수 있다. FIG. 11A is an example screen diagram for explaining a pen property change operation based on an air gesture according to an embodiment. As illustrated in FIG. 11A, when the air gesture mode is activated by an icon (1105) indicating whether the air gesture is activated, a user can make a desired air gesture using one hand (1110), and an icon panel (1100) including a pen property that can be changed in an overlay form can be displayed on the pointer position of the stylus pen (201) in response to the air gesture. For example, real-time movement (1100) between types of brushes can be possible in response to the degree of the air gesture, for example, the rotation direction and degree of the rotation gesture. This UI (1100) can disappear, for example, after N seconds, when a brush type is selected in response to the air gesture.
도 11b는 일 실시 예에 따른 펜 속성 변경에 따른 아이콘 패널을 제공하는 화면 예시도이다. 도 11b에 도시된 바와 같이 에어 제스처에 대응하여 브러쉬 종류가 선택되면 선택된 브러쉬를 나타내는 아이콘 패널(1115)을 일정 시간 동안(예: N초)만 팝업시킬 수 있다. 이때, 에어 제스처를 이용한 브러쉬 선택이 완료된 상태이기 때문에 화면 상에는 에어 제스처 활성화 여부를 나타내는 아이콘(1120)의 색이 변경될 수 있다. 예컨대, 브러쉬 종류, 현재 컬러와 같은 선택된 브러쉬 정보를 일시적으로 보여준 후 도 11c에 도시된 바와 같이 사라지도록 할 수 있다. 여기서, 도 11c는 일 실시 예에 따른 펜 속성 변경에 따른 아이콘 패널의 숨김 상태를 나타내는 화면 예시도이다. 도 11c에 도시된 바와 같이 전자 장치(101)는 화면의 일측면에 아이콘 패널(1125)을 숨김 상태로 표시할 수 있으며, 에어 제스처 활성화 여부를 나타내는 아이콘(1120)의 색을 유지시킬 수 있다. FIG. 11B is an example screen diagram providing an icon panel according to a change in pen properties according to an embodiment. As illustrated in FIG. 11B, when a brush type is selected in response to an air gesture, an icon panel (1115) indicating the selected brush may be popped up for a certain period of time (e.g., N seconds). At this time, since the brush selection using the air gesture is complete, the color of an icon (1120) indicating whether the air gesture is activated may be changed on the screen. For example, information on the selected brush, such as the brush type and the current color, may be temporarily shown and then made to disappear as illustrated in FIG. 11C. Here, FIG. 11C is an example screen diagram showing a hidden state of an icon panel according to a change in pen properties according to an embodiment. As illustrated in FIG. 11C, the electronic device (101) may display the icon panel (1125) in a hidden state on one side of the screen, and may maintain the color of the icon (1120) indicating whether the air gesture is activated.
상기한 도 11a 내지 도 11c에 도시된 바와 같이 에어 제스처 입력 시 일시적으로 표시되는 아이콘 패널을 제공함으로써 사용자에게 현재 설정된 펜 속성을 알려줌과 동시에 사용자 입장에서는 드로잉을 끊김 없이 이어서 할 수 있다. 상기한 바 이외에 도 12에 도시된 바와 같이 호버링 상태에 따라 일시적으로 표시되는 아이콘 패널을 제공할 수도 있다. As shown in the above-described FIGS. 11a to 11c, by providing an icon panel that is temporarily displayed when an air gesture is input, the user is informed of the currently set pen properties, and at the same time, the user can continue drawing without interruption. In addition to the above, as shown in FIG. 12, an icon panel that is temporarily displayed depending on the hovering state may also be provided.
도 12는 일 실시 예에 따른 호버링에 따른 아이콘 패널의 표시 동작을 설명하기 위한 화면 예시도이다. 도 12에서는 호버링 중, N초 동안 호버링이 없을 경우, 다시 호버링이 입력되는 경우에 따라 아이콘 패널의 표시가 달라지는 경우를 예시하고 있다. 예를 들어, 사용자가 스타일러스 펜(201)을 이용하여 글씨 또는 그림을 그리다가 일시적으로 화면에서 스타일러스 펜(201)을 떼었지만 다시 글씨를 쓰거나 그림을 그리는 경우가 있을 수 있다. 이러한 경우, 전자 장치(101)는 스타일러스 펜(201)을 떼기 직전까지 사용하던 스타일러스 펜(201)의 속성이 무엇인지 알 수 있도록 아이콘 패널을 일시적으로 표시할 수 있다. FIG. 12 is a screen example diagram for explaining the display operation of the icon panel according to hovering according to one embodiment. FIG. 12 illustrates a case where the display of the icon panel changes depending on whether hovering is not performed for N seconds during hovering and whether hovering is input again. For example, a user may draw letters or pictures using a stylus pen (201) and then temporarily remove the stylus pen (201) from the screen, but may then start writing or drawing again. In this case, the electronic device (101) may temporarily display an icon panel so that the user can know the properties of the stylus pen (201) that was being used just before removing the stylus pen (201).
일 실시 예에 따르면, 도 12에 도시된 바와 같이 전자 장치(101)는 호버링 중에는 아이콘 패널(1205)을 숨김 상태로 표시할 수 있으며, 호버링이 해제되어 N초 동안 호버링 없을 시 화면의 적어도 일부 예컨대, 화면 왼쪽 상단에 현재 펜 속성을 나타내는 아이콘 패널(1210)을 표시한 후, 다시 호버링이 있으면 아이콘 패널(1215)을 숨김 상태로 표시할 수 있다. 상기한 바와 같이 스타일러스 펜(201)을 사용하기 직전에 현재 펜 속성을 알려줌으로써 사용자 입장에서는 현재 어떠한 펜을 사용 중이었는지를 알 수 있다. According to one embodiment, as illustrated in FIG. 12, the electronic device (101) may display the icon panel (1205) in a hidden state during hovering, and when the hovering is released and there is no hovering for N seconds, display an icon panel (1210) indicating the current pen properties on at least a part of the screen, for example, on the upper left of the screen, and then display the icon panel (1215) in a hidden state when there is hovering again. As described above, by informing the user of the current pen properties right before using the stylus pen (201), the user can know which pen is currently being used.
도 13a는 일 실시 예에 따른 오른손 모드용 화면 예시도이다. Figure 13a is an example screen diagram for right-hand mode according to one embodiment.
도 13a에 도시된 바와 같이, 전자 장치(101)의 왼쪽 방향에 해당하는 영역에서 사용자 왼손에 의한 에어 제스처(1310a)가 검출되면, 상기 스타일러스 펜 속성과 관련된 항목을 상기 스타일러스 펜(201)을 사용하는 오른손 모드에 대응되도록 재배열하여 표시할 수 있다. 예를 들어, 아이콘 패널 상의 일부 툴(1305, 1315)이 오른손 모드에 대응되도록 위치가 재배치될 수 있으며, 옵션 순서를 좌/우를 플립(flip)할 수도 있다. 이에 따라 왼손에 의한 에어 제스처 검출 시에는 제1 화면(1320)에서와 같이 가장 자주 사용하는 툴(1325)이 왼쪽에 배치된 아이콘 패널이 표시될 수 있다. 또한, 제2 화면(1330)에서와 같이 숨김 상태의 아이콘 패널(1335)도 왼쪽에 위치하도록 배치될 수 있다. As illustrated in FIG. 13a, when an air gesture (1310a) by the user's left hand is detected in an area corresponding to the left side of the electronic device (101), items related to the stylus pen properties may be rearranged and displayed to correspond to the right-hand mode using the stylus pen (201). For example, some tools (1305, 1315) on the icon panel may be rearranged to correspond to the right-hand mode, and the order of options may be flipped left/right. Accordingly, when an air gesture by the left hand is detected, an icon panel may be displayed in which the most frequently used tools (1325) are arranged on the left side, as in the first screen (1320). In addition, a hidden icon panel (1335) may also be arranged to be located on the left side, as in the second screen (1330).
도 13b는 일 실시 에에 따른 왼손 모드용 화면 예시도이다. 도 13b에 도시된 바와 같이, 전자 장치(101)의 오른쪽 방향에 해당하는 영역에서 사용자 오른손에 의한 에어 제스처(1310b)가 검출되면, 상기 스타일러스 펜 속성과 관련된 항목을 상기 스타일러스 펜(201)을 사용하는 왼손 모드에 대응되도록 재배열하여 표시할 수 있다. 예를 들어, 아이콘 패널(1340)은 오른쪽 방향으로 숨겨질 수 있으며, 제1 화면(1350)에서와 같이 왼손 모드에 대응되도록 아이콘 패널(1355)의 위치가 재배치될 수 있으며, 제2 화면(1360)에서와 같이 숨김 상태의 아이콘 패널(1365)도 오른쪽에 위치하도록 배치될 수 있다. 이러한 오른손 또는 왼손 모드용 화면 전환은 사용자의 조작이 용이하게 하기 위한 것으로, 호버링이 없는 경우에 오른손으로 직접적인 화면 인터페이스 조작에 용이할 수 있다. FIG. 13b is an example of a screen for a left-hand mode according to one embodiment. As illustrated in FIG. 13b, when an air gesture (1310b) by a user's right hand is detected in an area corresponding to the right direction of the electronic device (101), items related to the stylus pen properties may be rearranged and displayed to correspond to the left-hand mode using the stylus pen (201). For example, the icon panel (1340) may be hidden to the right, and the location of the icon panel (1355) may be rearranged to correspond to the left-hand mode as in the first screen (1350), and the hidden icon panel (1365) may also be positioned to the right as in the second screen (1360). This switching of screens for the right-hand or left-hand mode is intended to facilitate the user's operation, and may facilitate direct screen interface operation with the right hand in the absence of hovering.
상기한 바와 같이 전자 장치(101)는 에어 제스처가 상기 전자 장치의 왼쪽 방향에 해당하는 영역에서 검출되면, 상기 스타일러스 펜(201) 속성과 관련된 항목을 오른손 모드에 대응되도록 재배열하여 표시할 수 있다. 이와 반대로 에어 제스처가 상기 전자 장치의 오른쪽 방향에 해당하는 영역에서 검출되면, 전자 장치(101)는 상기 스타일러스 펜(201) 속성과 관련된 항목을 왼손 모드에 대응되도록 재배열하여 표시할 수 있다. As described above, if an air gesture is detected in an area corresponding to the left direction of the electronic device, the electronic device (101) can rearrange and display items related to the stylus pen (201) properties to correspond to the right-hand mode. Conversely, if an air gesture is detected in an area corresponding to the right direction of the electronic device, the electronic device (101) can rearrange and display items related to the stylus pen (201) properties to correspond to the left-hand mode.
도 14는 일 실시 예에 따른 스타일러스 펜 탈거 시 에어 제스처를 이용한 동작을 설명하기 위한 화면 예시도이다. FIG. 14 is an example screen diagram for explaining an operation using an air gesture when removing a stylus pen according to one embodiment.
도 14의 1400a에 도시된 바와 같이 스타일러스 펜(201)은 전자 장치(101)의 수납 공간으로부터 탈거(1405)될 수 있다. 예를 들어, 사용자는 전자 장치(101)의 수납 공간으로부터 스타일러스 펜(201)을 꺼낼 수 있다. 일 실시 예에 따르면, 전자 장치(101)는, 스타일러스 펜(201)의 탈거를 감지할 수 있다. 예를 들어, 전자 장치(101)는, 스타일러스 펜(201)으로부터의 신호 미수신에 기반하여 스타일러스 펜(201)의 탈거를 감지할 수 있으나, 탈거 감지 방법에는 제한이 없다. 반면, 스타일러스 펜(201)도, 스타일러스 펜(201)의 탈거를 감지할 수 있다. 예를 들어, 스타일러스 펜(201)은, 전자 장치(101)로부터의 신호 미수신에 기반하여 스타일러스 펜(201)의 탈거를 감지할 수 있으나, 탈거 감지 방법에는 제한이 없다.As illustrated in 1400a of FIG. 14, the stylus pen (201) can be removed (1405) from the storage space of the electronic device (101). For example, the user can take the stylus pen (201) out from the storage space of the electronic device (101). According to one embodiment, the electronic device (101) can detect the removal of the stylus pen (201). For example, the electronic device (101) can detect the removal of the stylus pen (201) based on a failure to receive a signal from the stylus pen (201), but there is no limitation on the method of detecting the removal. On the other hand, the stylus pen (201) can also detect the removal of the stylus pen (201). For example, the stylus pen (201) can detect removal of the stylus pen (201) based on non-reception of a signal from the electronic device (101), but there is no limitation on the method of detecting removal.
만일 탈거가 감지된 경우, 도 14의 1400b에 도시된 바와 같이 화면(1420) 상에는 스타일러스 펜(201)과 관련하여 실행 가능한 복수의 어플리케이션들이 표시될 수 있다. 또는 스타일러스 펜(201)과 관련하여 자주 사용하는 어플리케이션들에 해당하는 아이콘들이 화면 상에 표시될 수도 있다. 일 실시 예에 따르면, 스타일러스 펜(201)과 관련하여 실행 가능한 복수의 어플리케이션들에는 새노트 작성, 모든 노트 보기, 스마트 셀렉트, 캡처 후 쓰기, 라이브 메시지, 번역기와 같은 다양한 기능들이 해당될 수 있다. 예를 들어, 스마트 셀렉트 기능의 경우 사용자는 스타일러스 펜(201) 대신 에어 제스처를 이용하여 원하는 영역을 선택하여 저장하거나 공유할 수 있다. 예를 들어, 캡처하고 싶은 콘텐츠가 있는 경우 스마트 셀렉트 기능을 선택한 후, 에어 제스처를 이용하여 캡처할 영역의 모양을 선택한 후 드래그하여 영역을 선택할 수 있다. If a removal is detected, a plurality of applications executable in relation to the stylus pen (201) may be displayed on the screen (1420) as illustrated in 1400b of FIG. 14. Alternatively, icons corresponding to frequently used applications in relation to the stylus pen (201) may be displayed on the screen. According to one embodiment, the plurality of applications executable in relation to the stylus pen (201) may include various functions such as creating a new note, viewing all notes, smart select, writing after capture, live message, and translator. For example, in the case of the smart select function, the user may select a desired area using an air gesture instead of the stylus pen (201) and save or share it. For example, if there is content to be captured, the user may select the smart select function, select the shape of the area to be captured using an air gesture, and then select the area by dragging.
도 14의 1400b에 도시된 바와 같이, 전자 장치(101)는 복수의 어플리케이션들 중 스마트 셀렉트 기능을 선택하는 사용자에 의한 에어 제스처(1410)를 인식하면, 스마트 셀렉트 기능(1425)이 선택되었음을 표시할 수 있다. 이어, 스마트 셀렉트 기능(1425)의 선택에 대응하여 스마트 셀렉트 기능을 실행한 후, 예를 들어, 캡처할 영역을 드래그하는 동작을 나타내는 에어 제스처에 대응하여 영역을 선택할 수 있으며, 상기 에어 제스처와는 다른 에어 제스처가 추가로 입력되는 경우 선택된 영역에 대해 추가로 입력된 에어 제스처에 맵핑된 동작을 수행할 수 있다. 이러한 각 에어 제스처에 맵핑되는 동작은 스타일러스 펜(201)에 의한 호버링 상태인 경우와 호버링 상태가 아닌 경우에 따라 달라질 수 있다. 예를 들어, 호버링 상태에서 에어 제스처가 입력되는 경우에는, 에어 제스처를 식별하여, 식별된 에어 제스처를 기반으로 영역을 선택할 수 있다. 즉, 선택된 영역의 모양이 에어 제스처의 형태에 의해 달라질 수 있다. 예를 들어, 호버링이 없는 상태에서 에어 제스처가 입력되는 경우에는 입력된 에어 제스처에 맵핑된 예컨대, 선택한 영역을 공유하거나 갤러리에 저장하는 기능과 같이 스마트 셀렉트 기능의 하위 기능들 중 어느 하나가 수행될 수 있다. As illustrated in 1400b of FIG. 14, when the electronic device (101) recognizes an air gesture (1410) by a user who selects a smart select function among a plurality of applications, the electronic device (101) may indicate that the smart select function (1425) has been selected. Then, in response to the selection of the smart select function (1425), the smart select function is executed, and then, for example, an area may be selected in response to an air gesture indicating an action of dragging an area to be captured, and when an air gesture different from the air gesture is additionally input, an action mapped to the additionally input air gesture may be performed for the selected area. The action mapped to each of these air gestures may vary depending on whether the stylus pen (201) is in a hovering state or not. For example, when an air gesture is input in a hovering state, the air gesture may be identified and an area may be selected based on the identified air gesture. That is, the shape of the selected area may vary depending on the form of the air gesture. For example, if an air gesture is input without hovering, one of the sub-functions of the smart select function, such as sharing the selected area or saving it to the gallery, may be performed, as mapped to the input air gesture.
도 15는 일 실시 예에 따른 에어 제스처를 이용한 번역기 동작을 설명하기 위한 화면 예시도이다.FIG. 15 is an example screen diagram for explaining the operation of a translator using air gestures according to one embodiment.
도 15를 참조하면, 전자 장치(101)는 복수의 어플리케이션들 중 번역기 기능이 실행된 상태에서 에어 제스처가 수신되면, 에어 제스처를 확인하여 에어 제스처에 대응하여 번역기 기능에 맵핑된 동작을 수행할 수 있다. 예를 들어, 에어 제스처(1510)를 이용하여 번역기의 언어(1515)를 변경하거나 번역할 부분을 선택(1520)한 후 번역을 실행하도록 제어할 수 있다. 예를 들어, 전자 장치(101)는 번역이 필요한 단어 위에 스타일러스 펜(201)을 가까이 가져간 상태에서 에어 제스처가 수신되는 경우, 번역 결과를 표시할 수 있다. Referring to FIG. 15, if an air gesture is received while a translation function is running among multiple applications, the electronic device (101) can confirm the air gesture and perform an operation mapped to the translation function in response to the air gesture. For example, the language (1515) of the translation device can be changed using the air gesture (1510) or a portion to be translated can be selected (1520) and then the translation can be controlled to be executed. For example, if an air gesture is received while the stylus pen (201) is brought close to a word requiring translation, the electronic device (101) can display the translation result.
또한, 예를 들어, 번역하고 싶은 단어나 문장이 있는 경우 전자 장치(101)로부터 스타일러스 펜(201)이 탈거된 상태에서 에어 제스처를 이용하여 번역기 기능을 실행시킬 수 있으며, 번역기 기능이 실행된 상태에서 다른 에어 제스처가 입력되는 경우 상기 다른 에어 제스처에 대응하여 화면 상단에 표시되는 창에서 사용할 언어가 자동으로 변경될 수도 있다. 이때, 번역 텍스트 선택 단위를 단어 또는 문장으로 변경할 수 있는데, 이러한 변경도 에어 제스처에 의해 설정될 수 있다. 다만, 이는 예시적인 것으로, 다양한 실시 예에 따른 전자 장치(101)는 에어 제스처에 매핑 가능한 스타일러스 펜(201)과 관련한 다양한 기능들은 이에 한정되지 않을 수 있다. 즉, 상술한 에어 제스처에 따른 동작은 단순히 예시적인 것으로, 에어 제스처에 매핑 가능한 스타일러스 펜 관련한 동작들은 이에 한정되지 않는다.In addition, for example, if there is a word or sentence to be translated, the translation function can be executed using an air gesture while the stylus pen (201) is removed from the electronic device (101), and if another air gesture is input while the translation function is executed, the language to be used in the window displayed at the top of the screen may be automatically changed in response to the other air gesture. At this time, the translation text selection unit can be changed to a word or a sentence, and such change can also be set by an air gesture. However, this is exemplary, and various functions related to the stylus pen (201) that can be mapped to an air gesture in the electronic device (101) according to various embodiments may not be limited thereto. That is, the operation according to the air gesture described above is merely exemplary, and the operations related to the stylus pen that can be mapped to an air gesture are not limited thereto.
본 문서에 개시된 다양한 실시 예에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to various embodiments disclosed in this document may be devices of various forms. The electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliance devices. Electronic devices according to embodiments of this document are not limited to the above-described devices.
본 문서의 다양한 실시 예 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.It should be understood that the various embodiments of this document and the terminology used herein are not intended to limit the technical features described in this document to specific embodiments, but rather to include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, similar reference numerals may be used for similar or related components. The singular form of a noun corresponding to an item may include one or more of the items, unless the context clearly indicates otherwise. In this document, each of the phrases "A or B", "at least one of A and B", "at least one of A or B", "A, B, or C", "at least one of A, B, and C", and "at least one of A, B, or C" can include any one of the items listed together in the corresponding phrase among the phrases, or all possible combinations thereof. Terms such as "first", "second", or "first" or "second" may be used merely to distinguish one component from another, and do not limit the components in any other respect (e.g., importance or order). When a component (e.g., a first) is referred to as "coupled" or "connected" to another (e.g., a second) component, with or without the terms "functionally" or "communicatively," it means that the component can be connected to the other component directly (e.g., wired), wirelessly, or through a third component.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시 예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term "module" as used in this document may include a unit implemented in hardware, software or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit. A module may be an integrally configured component or a minimum unit of the component or a part thereof that performs one or more functions. For example, according to one embodiment, a module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시 예는 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document may be implemented as software (e.g., a program (140)) including one or more commands stored in a storage medium (e.g., an internal memory (136) or an external memory (138)) readable by a machine (e.g., an electronic device (101)). For example, a processor (e.g., a processor (120)) of the machine (e.g., an electronic device (101)) may call at least one command among the one or more commands stored from the storage medium and execute it. This enables the machine to operate to perform at least one function according to the at least one command called. The one or more commands may include code generated by a compiler or code executable by an interpreter. The machine-readable storage medium may be provided in the form of a non-transitory storage medium. Here, ‘non-transitory’ simply means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and the term does not distinguish between cases where data is stored semi-permanently or temporarily on the storage medium.
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to the various embodiments disclosed in the present document may be provided as included in a computer program product. The computer program product may be traded between a seller and a buyer as a commodity. The computer program product may be distributed in the form of a machine-readable storage medium (e.g., a compact disc read only memory (CD-ROM)), or may be distributed online (e.g., downloaded or uploaded) via an application store (e.g., Play Store TM ) or directly between two user devices (e.g., smartphones). In the case of online distribution, at least a part of the computer program product may be at least temporarily stored or temporarily generated in a machine-readable storage medium, such as a memory of a manufacturer's server, a server of an application store, or an intermediary server.
다양한 실시 예에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시 예에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each of the components (e.g., modules or programs) described above may include a single or multiple entities. According to various embodiments, one or more of the components or operations of the aforementioned components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (e.g., modules or programs) may be integrated into a single component. In such a case, the integrated component may perform one or more functions of each of the components of the plurality of components identically or similarly to those performed by the corresponding component of the plurality of components prior to the integration. According to various embodiments, the operations performed by the modules, programs or other components may be executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations may be executed in a different order, omitted, or one or more other operations may be added.
명령들을 저장하고 있는 저장 매체에 있어서, 상기 명령들은 적어도 하나의 프로세서에 의하여 실행될 때에 상기 적어도 하나의 프로세서로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 상기 적어도 하나의 동작은, 적어도 하나의 센서에 의해 상기 전자 장치의 근접 영역에서 에어 제스처에 대응하는 제1 입력 신호 및 스타일러스 펜에 의한 입력에 대응하는 제2 입력 신호 중 적어도 하나가 검출되는지를 식별하는 동작, 상기 제2 입력 신호가 검출되지 않는 상태에서 상기 제1 입력 신호의 검출에 대응하여, 화면 표시와 관련된 제1 기능을 제어하는 동작, 및 상기 제2 입력 신호가 검출되는 상태에서 상기 제1 입력 신호의 검출에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어하는 동작을 포함할 수 있다.In a storage medium storing commands, the commands are configured to cause the at least one processor to perform at least one operation when executed by the at least one processor, wherein the at least one operation may include: identifying whether at least one of a first input signal corresponding to an air gesture and a second input signal corresponding to an input by a stylus pen is detected in a proximity area of the electronic device by at least one sensor; controlling a first function related to a screen display in response to detection of the first input signal in a state where the second input signal is not detected; and controlling a second function related to the stylus pen in response to detection of the first input signal in a state where the second input signal is detected.
그리고 본 명세서와 도면에 발명된 본 발명의 실시 예들은 본 발명의 실시 예에 따른 기술 내용을 쉽게 설명하고 본 발명의 실시 예의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 실시 예의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 다양한 실시 예의 범위는 여기에 발명된 실시 예들 이외에도 본 발명의 다양한 실시 예의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 다양한 실시 예의 범위에 포함되는 것으로 해석되어야 한다.And the embodiments of the present invention disclosed in this specification and drawings are merely specific examples presented to easily explain the technical contents according to the embodiments of the present invention and to help understand the embodiments of the present invention, and are not intended to limit the scope of the embodiments of the present invention. Therefore, the scope of the various embodiments of the present invention should be interpreted as including all changes or modified forms derived based on the technical ideas of the various embodiments of the present invention in addition to the embodiments invented herein.
101: 전자 장치, 120: 프로세서, 130: 메모리, 150: 입력 장치, 160: 표시 장치, 190: 통신 모듈101: electronic device, 120: processor, 130: memory, 150: input device, 160: display device, 190: communication module
Claims (20)
센싱 패널을 포함하는 표시 장치;
상기 전자 장치의 근접 영역에서 에어 제스처를 검출할 수 있는 적어도 하나의 센서;
상기 표시 장치 및 상기 적어도 하나의 센서와 작동적으로 연결된 적어도 하나의 프로세서; 및
상기 적어도 하나의 프로세서와 작동적으로 연결된 메모리를 포함하며,
상기 메모리는, 실행 시에, 상기 전자 장치가,
상기 적어도 하나의 센서에 의해 스타일러스 펜을 쥔 사용자의 손 및 상기 사용자의 반대쪽 손을 구별하고,
상기 반대쪽 손에 해당하는 방향을 식별하여, 상기 식별된 방향에 대해서 에어 제스처를 검출하고,
상기 적어도 하나의 센서에 의해 상기 전자 장치의 근접 영역에서 에어 제스처가 검출되고, 상기 센싱 패널을 통해 상기 스타일러스 펜에 의한 입력에 대응하는 입력 신호가 검출되지 않으면, 상기 에어 제스처에 대응하여 화면 표시와 관련된 제1 기능을 제어하고,
상기 입력 신호가 검출된 상태에서 상기 에어 제스처가 검출되면, 상기 입력 신호에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어하고, 상기 에어 제스처에 대응하여 상기 제2 기능에 대한 적어도 하나의 항목이 배치된 아이콘 패널을 상기 표시 장치 상에 배열하고, 상기 반대쪽 손이 왼손이면 상기 배열된 아이콘 패널을 상기 표시 장치 상에서 좌측으로 이동시켜 재배열하며, 상기 반대쪽 손이 오른손이면 상기 배열된 아이콘 패널을 상기 표시 장치 상에서 우측으로 이동시켜 재배열하도록 구성된 인스트럭션들을 저장하는, 전자 장치.In electronic devices,
A display device including a sensing panel;
At least one sensor capable of detecting an air gesture in a proximity area of said electronic device;
At least one processor operatively connected to said display device and said at least one sensor; and
comprising a memory operatively connected to at least one processor;
The above memory, when executed, causes the electronic device to:
Distinguishing between a user's hand holding the stylus pen and the user's other hand by at least one sensor,
By identifying the direction corresponding to the opposite hand, an air gesture is detected for the identified direction,
When an air gesture is detected in a proximity area of the electronic device by at least one sensor, and an input signal corresponding to an input by the stylus pen is not detected through the sensing panel, a first function related to a screen display is controlled in response to the air gesture,
An electronic device storing instructions configured to control a second function related to the stylus pen in response to the input signal when the air gesture is detected in a state where the input signal is detected, arrange an icon panel on the display device in response to the air gesture, and rearrange the arranged icon panel by moving it to the left on the display device when the opposite hand is the left hand, and to rearrange the arranged icon panel by moving it to the right on the display device when the opposite hand is the right hand.
상기 전자 장치로부터 상기 스타일러스 펜의 탈거가 감지된 이후에, 상기 에어 제스처 및 상기 입력 신호 중 적어도 하나가 검출되는지를 식별하고,
상기 입력 신호가 검출된 상태에서 상기 에어 제스처가 검출되면, 상기 에어 제스처에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 변경하도록 제어하며,
상기 변경된 제2 기능에 대한 정보를 지정된 시간 동안 상기 표시 장치 상에 표시한 후 제거되도록 구성된, 전자 장치.In the first paragraph, the instructions cause the electronic device to:
After the removal of the stylus pen from the electronic device is detected, identifying whether at least one of the air gesture and the input signal is detected;
When the air gesture is detected while the input signal is detected, the second function related to the stylus pen is controlled to be changed in response to the air gesture.
An electronic device configured to display information about the changed second function on the display device for a specified period of time and then remove it.
상기 전자 장치로부터 상기 스타일러스 펜의 탈거가 감지되면, 상기 스타일러스 펜과 관련된 실행 가능한 복수의 어플리케이션들을 표시하고, 상기 복수의 어플리케이션들 중 상기 에어 제스처에 대응하여 어느 하나의 어플리케이션의 기능을 변경하도록 구성된, 전자 장치.In the first paragraph, the instructions cause the electronic device to:
An electronic device configured to, when removal of the stylus pen from the electronic device is detected, display a plurality of executable applications related to the stylus pen, and change the function of one of the plurality of applications in response to the air gesture.
상기 스타일러스 펜의 버튼이 눌러진 상태임을 나타내는 제2 입력 신호가 감지된 상태에서 상기 에어 제스처가 검출되면, 상기 에어 제스처에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 변경하고,
상기 스타일러스 펜의 버튼이 눌러진 상태임을 나타내는 제2 입력 신호가 감지된 이후, 상기 스타일러스 펜의 상기 버튼이 릴리즈된 상태임을 나타내는 제3 입력 신호가 감지되기 전까지 상기 에어 제스처에 기반하여 상기 스타일러스 펜과 관련된 제2 기능을 실시간으로 변경하도록 구성된, 전자 장치.In the first paragraph, the instructions cause the electronic device to:
When the air gesture is detected while a second input signal indicating that the button of the stylus pen is pressed is detected, the second function related to the stylus pen is changed in response to the air gesture.
An electronic device configured to change a second function associated with the stylus pen in real time based on the air gesture after a second input signal indicating that the button of the stylus pen is pressed is detected and before a third input signal indicating that the button of the stylus pen is released is detected.
실행 중인 어플리케이션 화면에 대한 제어 기능이며, 상기 스타일러스 펜과 관련된 제2 기능은, 상기 스타일러스 펜 속성과 관련된 기능인, 전자 장치.In the first paragraph, the first function related to the screen display is,
An electronic device having a control function for a running application screen, wherein the second function related to the stylus pen is a function related to the properties of the stylus pen.
상기 전자 장치로부터 상기 스타일러스 펜의 탈거가 감지된 이후에, 상기 에어 제스처가 검출되면, 상기 표시 장치에 표시되는 어플리케이션 실행 화면 상에 상기 에어 제스처의 활성화 상태를 나타내는 아이콘을 표시하고,
상기 에어 제스처의 활성화 상태를 나타내는 아이콘을 표시한 후, 상기 에어 제스처가 일정 시간 동안 검출되지 않으면, 상기 에어 제스처의 비활성화 상태를 나타내는 아이콘을 상기 표시 장치에 표시되는 어플리케이션 실행 화면 상에 표시하도록 구성된, 전자 장치.In the first paragraph, the instructions cause the electronic device to:
After the removal of the stylus pen from the electronic device is detected, if the air gesture is detected, an icon indicating the activation status of the air gesture is displayed on the application execution screen displayed on the display device,
An electronic device configured to display an icon indicating an activated state of the air gesture on an application execution screen displayed on the display device, if the air gesture is not detected for a certain period of time after displaying an icon indicating an activated state of the air gesture.
상기 전자 장치의 근접 영역에서 에어 제스처를 검출할 수 있는 RF 스펙트럼 방식의 센서, 적외선(Infrared) 센서, 초음파 센서, 모션 센서, 3D 센서, 비전 센서 중 적어도 하나를 포함하는, 전자 장치.In the first paragraph, at least one sensor,
An electronic device comprising at least one of an RF spectrum type sensor, an infrared sensor, an ultrasonic sensor, a motion sensor, a 3D sensor, and a vision sensor capable of detecting an air gesture in a proximity area of the electronic device.
적어도 하나의 센서에 의해 상기 스타일러스 펜을 쥔 사용자의 손 및 상기 사용자의 반대쪽 손을 구별하는 동작;
상기 반대쪽 손에 해당하는 방향을 식별하여, 상기 식별된 방향에 대해서 에어 제스처를 검출하되, 상기 적어도 하나의 센서에 의해 상기 전자 장치의 근접 영역에서의 에어 제스처 및 상기 스타일러스 펜에 의한 입력에 대응하는 입력 신호 중 적어도 하나가 검출되는지를 식별하는 동작;
상기 입력 신호가 검출되지 않는 상태에서 상기 에어 제스처의 검출에 대응하여, 화면 표시와 관련된 제1 기능을 제어하는 동작; 및
상기 입력 신호가 검출되는 상태에서 상기 에어 제스처의 검출에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어하고, 상기 에어 제스처에 대응하여 상기 제2 기능에 대한 적어도 하나의 항목이 배치된 아이콘 패널을 표시 장치 상에 배열하고, 상기 반대쪽 손이 왼손이면 상기 배열된 아이콘 패널을 상기 표시 장치 상에서 좌측으로 이동시켜 재배열하며, 상기 반대쪽 손이 오른손이면 상기 배열된 아이콘 패널을 상기 표시 장치 상에서 우측으로 이동시켜 재배열하는 동작을 포함하는, 에어 제스처에 의한 스타일러스 펜과 연관된 기능을 제어하기 위한 방법.A method for controlling a function associated with a stylus pen by air gesture in an electronic device,
An action of distinguishing between a user's hand holding the stylus pen and the user's other hand by at least one sensor;
An operation of identifying a direction corresponding to the opposite hand, detecting an air gesture for the identified direction, and identifying whether at least one of an air gesture in a proximity area of the electronic device and an input signal corresponding to an input by the stylus pen is detected by the at least one sensor;
An operation for controlling a first function related to screen display in response to detection of the air gesture in a state where the input signal is not detected; and
A method for controlling a function associated with a stylus pen by an air gesture, comprising: controlling a second function associated with the stylus pen in response to detection of the air gesture in a state where the input signal is detected; arranging an icon panel on a display device, in which at least one item for the second function is arranged in response to the air gesture; and moving the arranged icon panel to the left on the display device and rearranging it if the opposite hand is a left hand, and moving the arranged icon panel to the right on the display device and rearranging it if the opposite hand is a right hand.
적어도 하나의 센서에 의해 스타일러스 펜을 쥔 사용자의 손 및 상기 사용자의 반대쪽 손을 구별하는 동작;
상기 반대쪽 손에 해당하는 방향을 식별하여, 상기 식별된 방향에 대해서 에어 제스처를 검출하되, 상기 적어도 하나의 센서에 의해 전자 장치의 근접 영역에서의 에어 제스처 및 상기 스타일러스 펜에 의한 입력에 대응하는 입력 신호 중 적어도 하나가 검출되는지를 식별하는 동작;
상기 입력 신호가 검출되지 않는 상태에서 상기 에어 제스처의 검출에 대응하여, 화면 표시와 관련된 제1 기능을 제어하는 동작; 및
상기 입력 신호가 검출되는 상태에서 상기 에어 제스처의 검출에 대응하여 상기 스타일러스 펜과 관련된 제2 기능을 제어하고, 상기 에어 제스처에 대응하여 상기 제2 기능에 대한 적어도 하나의 항목이 배치된 아이콘 패널을 표시 장치 상에 배열하고, 상기 반대쪽 손이 왼손이면 상기 배열된 아이콘 패널을 상기 표시 장치 상에서 좌측으로 이동시켜 재배열하며, 상기 반대쪽 손이 오른손이면 상기 배열된 아이콘 패널을 상기 표시 장치 상에서 우측으로 이동시켜 재배열하는 동작을 포함하는, 저장 매체.In a storage medium storing commands, the commands are configured to cause the electronic device to perform at least one operation when executed by at least one processor of the electronic device, the at least one operation comprising:
An action of distinguishing between a user's hand holding a stylus pen and the user's other hand by at least one sensor;
An operation of identifying a direction corresponding to the opposite hand, detecting an air gesture for the identified direction, and identifying whether at least one of an air gesture in a proximity area of the electronic device and an input signal corresponding to an input by the stylus pen is detected by the at least one sensor;
An operation for controlling a first function related to screen display in response to detection of the air gesture in a state where the input signal is not detected; and
A storage medium comprising an operation of controlling a second function related to the stylus pen in response to detection of the air gesture in a state where the input signal is detected, arranging an icon panel on a display device in which at least one item for the second function is arranged in response to the air gesture, and moving the arranged icon panel to the left on the display device and rearranging it when the opposite hand is a left hand, and moving the arranged icon panel to the right on the display device and rearranging it when the opposite hand is a right hand.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020200033863A KR102758246B1 (en) | 2020-03-19 | 2020-03-19 | Electronic device for controlling function associated to stylus pen by air gesture, method for operating thereof and storage medium |
| PCT/KR2021/003405 WO2021187935A1 (en) | 2020-03-19 | 2021-03-19 | Electronic device for controlling function associated with stylus pen by air gesture, and operation method thereof |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020200033863A KR102758246B1 (en) | 2020-03-19 | 2020-03-19 | Electronic device for controlling function associated to stylus pen by air gesture, method for operating thereof and storage medium |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20210117540A KR20210117540A (en) | 2021-09-29 |
| KR102758246B1 true KR102758246B1 (en) | 2025-01-23 |
Family
ID=77771508
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020200033863A Active KR102758246B1 (en) | 2020-03-19 | 2020-03-19 | Electronic device for controlling function associated to stylus pen by air gesture, method for operating thereof and storage medium |
Country Status (2)
| Country | Link |
|---|---|
| KR (1) | KR102758246B1 (en) |
| WO (1) | WO2021187935A1 (en) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114816086B (en) * | 2022-03-28 | 2025-07-11 | 华为技术有限公司 | Interaction method, stylus pen and electronic device |
| CN114816087A (en) * | 2022-03-28 | 2022-07-29 | 联想(北京)有限公司 | Information processing method, apparatus, equipment and storage medium |
| WO2025192819A1 (en) * | 2024-03-11 | 2025-09-18 | 삼성전자 주식회사 | Portable electronic device for drawing |
Family Cites Families (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101967632B1 (en) * | 2012-02-13 | 2019-04-11 | 삼성전자주식회사 | Tablet having user interface |
| KR102063952B1 (en) * | 2012-10-10 | 2020-01-08 | 삼성전자주식회사 | Multi display apparatus and multi display method |
| KR20140076261A (en) * | 2012-12-12 | 2014-06-20 | 삼성전자주식회사 | Terminal and method for providing user interface using pen |
| KR20150014083A (en) * | 2013-07-29 | 2015-02-06 | 삼성전자주식회사 | Method For Sensing Inputs of Electrical Device And Electrical Device Thereof |
| KR20160102811A (en) * | 2015-02-23 | 2016-08-31 | 엘지전자 주식회사 | Mobile terminal that can control handwriting relevant function through gesture of the hand which is worn a wrist wearable device and method for controlling the same |
| US10216405B2 (en) * | 2015-10-24 | 2019-02-26 | Microsoft Technology Licensing, Llc | Presenting control interface based on multi-input command |
| KR20180020696A (en) * | 2016-08-19 | 2018-02-28 | 주식회사 리딩유아이 | Touch system, touch sensing controller and stylus pen adapted thereto |
-
2020
- 2020-03-19 KR KR1020200033863A patent/KR102758246B1/en active Active
-
2021
- 2021-03-19 WO PCT/KR2021/003405 patent/WO2021187935A1/en not_active Ceased
Also Published As
| Publication number | Publication date |
|---|---|
| WO2021187935A1 (en) | 2021-09-23 |
| KR20210117540A (en) | 2021-09-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11659271B2 (en) | Electronic device to control screen property based on distance between pen input device and electronic device and method of controlling same | |
| KR102781964B1 (en) | Electronic device for identifying gesture by stylus pen and method for operating thereof | |
| KR102719416B1 (en) | Electronic device and method for mapping function of electronic device and action of stylus pen | |
| KR102710384B1 (en) | Electronic device and method for allocating function to button input | |
| KR20150003626A (en) | Method for controlling digitizer mode | |
| AU2019318996B2 (en) | Electronic device including button and method for operation in electronic device | |
| KR102500309B1 (en) | Electronic device including pen input device and operating method thereof | |
| KR102758246B1 (en) | Electronic device for controlling function associated to stylus pen by air gesture, method for operating thereof and storage medium | |
| KR102476127B1 (en) | Apparatus for outputting information regarding stylus pen connected with electronic device and method thereof | |
| KR102732884B1 (en) | Electronic device for recognizing stylus pen and method for operating thereof | |
| KR102591686B1 (en) | Electronic device for generating augmented reality emoji and method thereof | |
| EP3819748B1 (en) | Method for processing input made with stylus pen and electronic device therefor | |
| US11301061B2 (en) | Electronic device identifying gesture with stylus pen and method for operating the same | |
| CN114207565B (en) | Electronic device including display and sensor | |
| KR102824359B1 (en) | An electronic device and method for operating functions of the electronic device using uncontact gesture | |
| KR102810584B1 (en) | Electronic device for providing editing function by air gesture, method for operating thereof and storage medium | |
| CN112307879B (en) | Electronic device using stylus to recognize gestures and method for operating the same |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20200319 |
|
| PG1501 | Laying open of application | ||
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20240718 Patent event code: PE09021S01D |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20241219 |
|
| PG1601 | Publication of registration |