[go: up one dir, main page]

KR20130114764A - 시간적으로 분리된 터치 입력 - Google Patents

시간적으로 분리된 터치 입력 Download PDF

Info

Publication number
KR20130114764A
KR20130114764A KR1020117005542A KR20117005542A KR20130114764A KR 20130114764 A KR20130114764 A KR 20130114764A KR 1020117005542 A KR1020117005542 A KR 1020117005542A KR 20117005542 A KR20117005542 A KR 20117005542A KR 20130114764 A KR20130114764 A KR 20130114764A
Authority
KR
South Korea
Prior art keywords
touch input
display
image
anchor
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
KR1020117005542A
Other languages
English (en)
Inventor
제프리 퐁
Original Assignee
마이크로소프트 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 코포레이션 filed Critical 마이크로소프트 코포레이션
Publication of KR20130114764A publication Critical patent/KR20130114764A/ko
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Ticket-Dispensing Machines (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

터치 입력을 처리하는 방법은, 제1 터치 입력이 인식되고, 그 다음 제1 터치 입력의 마무리(conclusion) 후에, 그 제1 터치 입력으로부터 시간적으로 분리된 제2 터치 입력을 인식하는 것을 포함한다. 그 다음, 제1 터치 입력과 제2 터치 입력의 시간적으로 분리된 조합은 멀티 터치 컨트롤로 번역된다.

Description

시간적으로 분리된 터치 입력{TEMPORALLY SEPARATE TOUCH INPUT}
컴퓨팅 장치들은 다양한 서로 다른 폼 팩터들(form factors)을 가지고서 설계될 수 있다. 상이한 폼 팩터들은 키보드, 마우스, 트랙 패드, 터치 스크린 등과 같은 상이한 입력 메커니즘들을 이용할 수 있다. 사용자가 장치를 이용할 때 경험하는 즐거움, 및 사용자가 장치의 능력을 완전하게 불러일으킬 수 있는 범위는, 적어도 부분적으로는 사용자가 장치로 하여금 원하는 기능들을 수행하게 할 수 있는 것의 용이함에 의해 영향을 받는 것으로 생각된다. 따라서, 사용하기 쉽고 완전한 기능을 갖는(full featured) 입력 메커니즘은 호의적인 사용자 경험에 기여할 것으로 생각된다.
본 개요는 이하의 상세한 설명에서 더 설명되는 개념들 중 선택된 것들을 단순한 형태로 소개하기 위해 제공된 것이다. 본 개요는 청구되는 발명의 주제의 핵심적인 특징 또는 본질적인 특징을 식별하도록 의도된 것이 아니며, 청구되는 발명의 주제의 범위를 제한하기 위해 사용되도록 의도된 것도 아니다. 또한, 청구되는 발명의 주제는 본 개시물의 임의의 부분에서 언급된 단점들 중 일부 또는 전부를 해결하는 구현들로만 한정되지 않는다.
터치 입력들의 처리가 개시된다. 제1 터치 입력이 인식되고, 그 다음 제1 터치 입력의 마무리(conclusion) 후에, 그 제1 터치 입력으로부터 시간적으로 분리된 제2 터치 입력이 인식된다. 제1 터치 입력과 제2 터치 입력의 시간적으로 분리된 조합은 멀티 터치 컨트롤로 번역된다(translated).
도 1은 본 개시물의 실시예에 따라 시간적으로 분리된 터치 입력들을 처리하도록 구성된 컴퓨팅 장치를 도시한 것이다.
도 2는 본 개시물의 실시예에 따라 단일 터치 입력을 멀티 터치 컨트롤로 번역하는 방법의 프로세스 흐름이다.
도 3은 시간적으로 분리된 터치 입력들이, 컴퓨팅 장치의 디스플레이에 의해 표시되는 이미지의 스케일을 증가시키는 멀티 터치 스케일 컨트롤로 번역되는 것을 도시한 도면이다.
도 4는 시간적으로 분리된 터치 입력들이, 컴퓨팅 장치의 디스플레이에 의해 표시되는 이미지의 스케일을 감소시키는 멀티 터치 스케일 컨트롤로 번역되는 것을 도시한 도면이다.
도 5는 시간적으로 분리된 터치 입력들이, 컴퓨팅 장치의 디스플레이에 의해 표시되는 이미지를 회전시키는 멀티 터치 회전 컨트롤로 번역되는 것을 도시한 도면이다.
본 개시물은 시간적으로 분리된 터치 입력들을 멀티 터치 컨트롤로 번역하는 방법에 관한 것이다. 이하에 설명되는 방법들은 임의의 주어진 시간에 단 하나의 터치 입력만을 분석할 수 있는 장치가, 이전에는 둘 이상의 시간적으로 중첩하는(overlapping) 터치 입력을 분석하도록 특수하게 구성된 장치들에게만 이용가능했던 전체 범위의 멀티 터치 컨트롤들을 처리하는 것을 허용한다.
이하에 설명되는 방법들은 추가적으로 또는 대안적으로, 둘 이상의 시간적으로 중첩하는 터치 입력을 분석하도록 구성된 장치 상에서 멀티 터치 컨트롤들을 발행하는 대안적인 방법으로서 이용될 수 있다. 이것은, 사용자가 왼손으로 컴퓨팅 장치를 들고 있으면서 시간적으로 중첩하는 터치 입력들을 수행하기 위해 오른손 엄지 및 오른손 검지를 사용하는 것과 달리, 한 손만을 이용하여 멀티 터치 컨트롤을 발행하는 것, 예를 들어 오른손으로 컴퓨팅 장치를 들고 있으면서 오른손 엄지를 이용하여 시간적으로 분리된 터치 입력들을 수행하는 것을 허용할 수 있다.
도 1은 시간적으로 분리된 터치 입력들을 멀티 터치 컨트롤로 해석하도록 구성된 컴퓨팅 장치(10)의 비제한적인 예를 다소 개략적으로 도시한 것이다. 컴퓨팅 장치(10)는 이미지를 시각적으로 표시하도록 구성된 디스플레이(12)를 포함한다. 디스플레이(12)는 액정 디스플레이, 발광 다이오드 디스플레이, 플라즈마 디스플레이, 음극선관 디스플레이, 후방 투영 디스플레이, 또는 거의 모든 다른 적절한 디스플레이를 포함할 수 있다.
컴퓨팅 장치(10)는 디스플레이 상의 터치 입력을 인식하도록 구성된 터치 입력 서브시스템(14)도 포함한다. 터치 입력 서브시스템은 선택적으로, 멀티 터치 입력을 인식하도록 구성될 수 있다. 터치 입력 서브시스템은 특정한 실시예에서 이용되는 유형의 디스플레이와 협력하도록 선택될 수 있는 다양한 서로 다른 터치 감지 기술들을 이용할 수 있다. 터치 입력 서브시스템은 디스플레이 근처의 전기장의 변화, 디스플레이 상의 압력 변화, 및/또는 디스플레이 상의 또는 근처의 다른 변화를 검출하도록 구성될 수 있다. 그러한 변화들은 디스플레이 상의 특정 위치에서 또는 그러한 위치 근처에서 발생하는 터치 입력에 의해 유발될 수 있으며, 따라서 그러한 변화들은 그러한 위치들에서의 터치 입력들에 상관될 수 있다. 일부 실시예들에서, 디스플레이 및 터치 입력 서브시스템은 정전용량성 터치 스크린 패널 또는 저항성 터치 스크린 패널과 같은, 적어도 일부 컴포넌트들을 공유할 수 있다.
컴퓨팅 장치(10)는 단일의 터치 입력을 멀티 터치 컨트롤로 번역하도록 구성된 컨트롤 서브시스템(16)도 포함할 수 있다. 예로서, 컨트롤 서브시스템은 둘 이상의 시간적으로 분리된 터치 입력의 집합적인 해석(collective interpretation)에 기초하여 디스플레이 상의 이미지를 조작하도록 구성될 수 있다. 컨트롤 서브시스템은 로직 서브시스템(18) 및 메모리(20)를 포함할 수 있다. 컨트롤 서브시스템, 로직 서브시스템 및 메모리는 도 1에서 점선으로 된 사각형으로서 개략적으로 도시되어 있다.
로직 서브시스템(18)은 하나 이상의 명령어를 실행하도록 구성된 하나 이상의 물리적 장치를 포함할 수 있다. 예를 들어, 로직 서브시스템은 하나 이상의 프로그램, 루틴, 개체, 컴포넌트, 데이터 구조 또는 다른 논리적 구성들의 일부인 하나 이상의 명령어를 실행하도록 구성될 수 있다. 그러한 명령어들은 태스크를 수행하거나, 데이터 타입을 구현하거나, 하나 이상의 장치(예를 들어, 디스플레이(12))의 상태를 변경하거나, 또는 다르게 원하는 결과에 도달하기 위해 구현될 수 있다. 로직 서브시스템은 소프트웨어 명령어들을 실행하도록 구성된 하나 이상의 프로세서를 포함할 수 있다. 추가적으로 또는 대안적으로, 로직 서브시스템은 하드웨어 또는 펌웨어 명령어를 실행하도록 구성된 하나 이상의 하드웨어 또는 펌웨어 로직 머신을 포함할 수 있다. 로직 서브시스템은 일부 실시예들에서 떨어져서 위치될 수 있는 둘 이상의 장치에 걸쳐 분산되는 개별 컴포넌트들을 선택적으로 포함할 수 있다.
메모리(20)는 로직 서브시스템에 의해 실행될 때 로직 서브시스템이 여기에 설명된 방법들 및 프로세스들을 구현하게 하는 데이터 및/또는 명령어들을 유지하도록 구성된 하나 이상의 물리적 장치를 포함할 수 있다. 메모리(20)는 이동가능한 매체 및/또는 내장형 장치들을 포함할 수 있다. 메모리(20)는 다른 것들 중에서도, 광학적 메모리 장치, 반도체 메모리 장치 및/또는 자기 메모리 장치를 포함할 수 있다. 메모리(20)는 다음의 특성들: 휘발성, 비휘발성, 동적, 정적, 판독/기입, 판독 전용, 랜덤 액세스, 순차적 액세스, 위치 어드레스가능형, 파일 어드레스가능형 및 컨텐츠 어드레스가능형 중 하나 이상을 갖는 부분들을 포함할 수 있다. 일부 실시예들에서, 로직 서브시스템(18) 및 메모리(20)는 하나 이상의 공통 장치 및/또는 컴퓨팅 시스템(예를 들어, ASIC(application-specific integrated circuit) 또는 칩 상의 시스템)에 통합될 수 있다.
컴퓨팅 장치(10)는 핸드핼드형 컴퓨팅 장치(예를 들어, PDA(personal data assistant), 개인용 게이밍 장치, 개인용 미디어 플레이어, 모바일 통신 장치 등), 랩탑 컴퓨팅 장치, 고정형 컴퓨팅 시스템, 또는 터치 입력을 인식할 수 있는 거의 모든 다른 컴퓨팅 장치일 수 있다. 일부 실시예들에서, 디스플레이는 컨트롤 서브시스템과 함께 공통의 하우징에 통합될 수 있으며, 다른 실시예들에서, 장치는 유선 또는 무선 데이터 접속을 통해 컨트롤 서브시스템에 접속될 수 있다. 어느 경우에서든, 디스플레이는 본 개시물의 목적을 위해 컴퓨팅 장치의 일부로서 고려된다.
도 2는 단일 터치 입력을 멀티 터치 컨트롤로 번역하는 방법(22)의 프로세스 흐름을 도시한 것이다. 단계(24)에서, 방법(22)은 디스플레이 상에 이미지를 표시하는 것을 포함한다. 예를 들어, 도 3은 참조번호(26)에서 디스플레이(12) 상에 이미지(28)를 표시하는 컴퓨팅 장치(10)를 도시하고 있다. 이미지(28)는 도 3에서 개략적으로 백색의 직사각형으로서 표현되어 있다. 그러나, 이미지는 다양한 서로 다른 그래픽 사용자 인터페이스 요소들을 포함하지만 그에 제한되지는 않는 다양한 서로 다른 형태들을 취할 수 있음을 이해하여야 한다. 제한적이지 않은 예로서, 그러한 이미지는 사진, 비디오, 웹페이지, 게임, 문서, 인터랙티브 사용자 인터페이스, 또는 디스플레이(12)에 의해 디스플레이될 수 있는 거의 모든 다른 컨텐츠일 수 있다. 이미지는 디스플레이에 의해 표시되는 것의 일부분만을 구성할 수 있고, 또는 이미지는 디스플레이에 의해 표시되는 것의 전체를 구성할 수 있다.
도 2의 방법(22)는, 단계(30)에서 디스플레이 상의 제1 위치에서 제1 터치 입력을 인식하는 것을 포함한다. 예를 들어, 도 3은 참조번호(26)에서, 사용자(32)가 제1 위치(34)에서 디스플레이(12)를 터치하는 것을 개략적으로 도시하고 있다. 컴퓨팅 장치는 터치 입력을 검출하고, 디스플레이 상의 어디에서 터치 입력이 발생했는지를 결정하기 위해 터치 입력 서브시스템을 이용할 수 있다. 위에서 설명된 바와 같이, 본 개시물의 범위를 벗어나지 않고서, 거의 모든 터치 감지 기술이 이용될 수 있다.
도 2로 되돌아가면, 방법(22)은 단계(36)에서, 제1 위치에서 앵커(anchor)를 설정하는 것을 포함한다. 앵커는 제1 터치 입력이 발생한 장소의 위치를 기억하여, 후속의 터치 입력들이 이 위치에 비교될 수 있도록 하기 위해 이용될 수 있다. 일부 실시예들에서, 제1 터치 입력이 발생한 장소에서 앵커 표시기가 디스플레이 되어, 사용자에게 후속의 터치 입력들을 위한 시각적 기준을 제공할 수 있다. 예를 들어, 도 3은 참조번호(38)에서, 제1 위치(34)에 디스플레이된 앵커 표시기(40)를 도시하고 있다. 앵커 표시기는 선택적으로는 제1 터치 입력의 마무리 전에 초기에 디스플레이될 수 있긴 하지만, 제1 터치 입력의 마무리 후에 디스플레이된 채로 남아있다는 점에 유의해야 한다.
컴퓨팅 장치는 특정 유형의 입력에 응답하여 앵커를 설정하도록 구성될 수 있다. 일부 실시예들에서, 컴퓨팅 장치는 터치 입력이 미리 정해진 기간 동안 주어진 위치에 유지되는 경우에 그 주어진 위치에 앵커를 설정하도록 구성될 수 있다. 그러한 실시예들에서, 터치 입력이 미리 정해진 기간 동안 유지되지 않는 경우, 앵커는 설정되지 않을 것이다. 일부 실시예들에서, 앵커는 주어진 위치를 더블 탭핑(tapping) 또는 트리플 탭핑함으로써 설정될 수 있다. 다른 실시예들에서, 앵커는 비-터치 입력(예를 들어, 버튼을 누르는 것)과 함께 수행되는 터치 입력에 응답하여 설정될 수 있다. 소정 유형의 입력들에만 응답하여 앵커 포인트를 설정하는 것이 이로울 수 있지만, 본 개시물은 앵커를 설정하기 위한 어떠한 특정한 유형의 입력에도 제한되지 않음을 이해해야 한다.
도 2의 단계(42)에서, 방법(22)은 제1 터치 입력의 마무리 후에 디스플레이 상의 제2 터치 입력을 인식하는 것을 포함한다. 즉, 제1 터치 입력 및 제2 터치 입력은 시간적으로 분리된다. 제1 터치 입력 및 제2 터치 입력은 시간상 중첩되지 않는다. 도 3은 참조번호(44)에서, 사용자가 시작 위치(46)에서 디스플레이(12)를 터치함으로써 제2 터치 입력을 시작하는 것을 도시하고 있다.
도 2로 되돌아가면, 방법(22)은 단계(48)에서 제1 터치 입력 및 제2 터치 입력의 시간적으로 분리된 조합을 멀티 터치 컨트롤로 번역하는 것을 포함한다. 시간적으로 분리된 터치 입력들은 본 개시물의 범위를 벗어나지 않고서 다양한 서로 다른 유형의 컨트롤로 번역될 수 있다. 예를 들어, 시간적으로 분리된 터치 입력들은 애플리케이션을 열거나 닫고, 애플리케이션 내에서 커맨드를 발행하고, 바로가기(shortcut)를 수행하는 것 등을 위한 컨트롤들로 번역될 수 있다. 일부 번역된 컨트롤들은 디스플레이 상에서 이미지를 조작하기 위한 컨트롤들(예를 들어, 줌 컨트롤, 회전 컨트롤 등)일 수 있다.
단계(50)에 나타난 바와 같이, 방법(22)은 선택적으로 제1 터치 입력에 의해 설정된 앵커에 대한 제2 터치 입력의 경로에 기초하여, 디스플레이 상의 이미지의 특성을 변경하는 것을 선택적으로 포함할 수 있다. 예를 들어, 도 3은 참조번호(52)에서, 사용자가 앵커 표시기(40)에 의해 나타난 것과 같은 제1 터치 입력에 의해 설정된 앵커로부터 멀어지는 방향의 경로(54)를 갖는 터치 입력을 수행하는 것을 도시하고 있다. 즉, 앵커와 제2 터치 입력 간의 거리가 증가하고 있다. 도 3은 또한 경로(54)가 제1 터치 입력에 의해 설정된 앵커로부터 멀어지는 방향을 향하는 경우에 이미지(28)의 스케일이 증가하는 것을 도시하고 있다. 일부 실시예들에서, 스케일링의 양은 제2 터치 입력이 앵커로부터 멀어져가는 속도 및/또는 제2 터치 입력이 앵커로부터 멀어져가는 각도에 의해 조정될 수 있다.
다른 예로서, 도 4는 사용자(32)가 제1 터치 입력에 의해 설정된 앵커를 향하는 방향의 경로(56)를 갖는 터치 입력을 수행하는 것을 도시하고 있다. 즉, 앵커와 제2 터치 입력 간의 거리가 감소하고 있다. 도 4는 또한 경로(56)가 제1 터치 입력에 의해 설정된 앵커를 향하는 방향인 경우에 이미지(28)의 스케일이 감소하는 것을 도시하고 있다. 일부 실시예들에서, 스케일링의 양은 제2 터치 입력이 앵커를 향해가는 속도 및/또는 제2 터치 입력이 앵커를 향해가는 각도에 의해 조정될 수 있다.
또 다른 예로서, 도 5는 사용자(32)가 제1 터치 입력에 의해 설정된 앵커 주위를 향하는 경로(58)를 갖는 터치 입력을 수행하는 것을 도시하고 있다. 도 5는 또한, 제2 터치 입력의 경로가 제1 터치 입력에 의해 설정된 앵커 주위를 향하는 경우에 이미지(28)가 회전되는 것을 도시하고 있다. 일부 실시예들에서, 회전의 양은 제2 터치 입력이 앵커 주위를 이동하는 속도 및/또는 제2 터치 입력이 앵커 주위를 이동하는 거리에 의해 조정될 수 있다.
위에서 설명된 멀티 터치 타입 컨트롤들은 시간적으로 분리된 터치 입력들로부터 번역될 수 있는 다양한 서로 다른 컨트롤들의 비제한적인 예들이다. 일부 실시예들에서, 시간적으로 분리된 터치 입력들의 단일 집합으로부터, 둘 이상의 상이한 컨트롤들이 종합될 수 있다(예를 들어, 앵커로부터 멀어지면서 그 주위에서 이동하는 터치 입력에 응답하는 스케일 및 회전).
일단 설정되고 나면, 앵커는 수개의 상이한 이벤트들 및/또는 시나리오들에 응답하여 해제될 수 있다. 예를 들어, 앵커가 설정된 후, 그 앵커는 호환가능한 제2 터치 입력이 임계 시간 제한 내에 수행되지 않는 경우에 해제될 수 있다. 다른 예로서, 앵커는 제2 터치 입력이 완료된 후에 및/또는 이미지의 특성이 변경된 후에 해제될 수 있다. 앵커를 해제함으로써, 컴퓨팅 장치는 시간적으로 분리된 터치 입력 및/또는 상이한 앵커를 설정하기 위한 터치 입력으로 생각될 필요가 없는 터치 입력을 처리할 준비가 될 수 있다.
여기에 설명된 구성들 및/또는 접근방식들은 사실상 예시적인 것이며, 다수의 변형들이 가능하므로, 이러한 구체적인 실시예들 또는 예시들은 제한적인 의미로 고려되어서는 안 된다는 점을 이해해야 한다. 여기에 설명된 구체적인 루틴들 또는 방법들은 임의의 개수의 처리 전략 중 하나 이상을 표현할 수 있다. 그러한 것으로서, 설명된 다양한 액트들은 설명된 시퀀스로, 다른 시퀀스로, 병렬로 수행될 수 있으며, 또는 일부 경우들에서는 생략될 수 있다. 마찬가지로, 위에 설명된 프로세스들의 순서는 변경될 수 있다.
본 개시물의 주제는 모두, 여기에 개시된 다양한 프로세스들, 시스템들 및 구성들과, 다른 특징들, 기능들, 액트들 및/또는 특성들은 물론, 그들의 균등물들 중 임의의 것 및 전부의 신규하고 자명하지 않은 조합 및 부분조합(subcombination)을 포함한다.

Claims (15)

  1. 디스플레이(12) 상의 이미지(28)를 조작하는 방법(22)으로서,
    상기 디스플레이 상에 이미지를 표시하는 단계(24);
    상기 디스플레이 상의 제1 위치(34)에서 제1 터치 입력을 인식하는 단계(30);
    상기 제1 위치에서 앵커(anchor)를 설정하는 단계(36);
    상기 제1 터치 입력의 마무리(conclusion) 후에, 상기 디스플레이 상에서 제2 터치 입력을 인식하는 단계(42); 및
    상기 제1 터치 입력에 의해 설정된 앵커에 대한 상기 제2 터치 입력의 경로(54)에 기초하여 상기 디스플레이 상의 상기 이미지의 특성(characteristic)을 변경하는 단계(50)
    를 포함하는 이미지 조작 방법.
  2. 제1항에 있어서,
    상기 디스플레이 상의 상기 이미지의 특성을 변경하는 단계는 상기 제2 터치 입력의 경로가 상기 제1 터치 입력에 의해 설정된 앵커로부터 멀어지는 방향인 경우에는 상기 이미지의 스케일을 증가시키는 단계를 포함하는 이미지 조작 방법.
  3. 제1항에 있어서,
    상기 디스플레이 상의 상기 이미지의 특성을 변경하는 단계는 상기 제2 터치 입력의 경로가 상기 제1 터치 입력에 의해 설정된 앵커를 향하는 방향인 경우에는 상기 이미지의 스케일을 감소시키는 단계를 포함하는 이미지 조작 방법.
  4. 제1항에 있어서,
    상기 디스플레이 상의 상기 이미지의 특성을 변경하는 단계는 상기 제2 터치 입력의 경로가 상기 제1 터치 입력에 의해 설정된 앵커 주위를 향하는 방향인 경우에는 상기 이미지를 회전시키는 단계를 포함하는 이미지 조작 방법.
  5. 제1항에 있어서,
    상기 제1 터치 입력의 마무리 후에, 상기 제1 위치에서 앵커 표시기를 디스플레이하는 단계를 더 포함하는 이미지 조작 방법.
  6. 제1항에 있어서,
    터치 입력이 마무리되기 전에 상기 터치 입력이 미리 정해진 기간 동안 주어진 위치에 유지되는 경우에만 앵커가 설정되는 이미지 조작 방법.
  7. 제1항에 있어서,
    상기 이미지의 특성이 변경된 후에 상기 앵커를 해제(releasing)하는 단계를 더 포함하는 이미지 조작 방법.
  8. 제1항에 있어서,
    상기 디스플레이 상에서 제1 터치 입력을 인식하는 단계는 상기 디스플레이 근처의 전기장의 변화를 검출하는 단계를 포함하는 이미지 조작 방법.
  9. 제1항에 있어서,
    상기 디스플레이 상에서 제1 터치 입력을 인식하는 단계는 상기 디스플레이 상의 압력의 변화를 검출하는 단계를 포함하는 이미지 조작 방법.
  10. 컴퓨팅 장치(10)로서,
    이미지(28)를 시각적으로 표시하도록 구성된 디스플레이(12);
    상기 디스플레이 상의 터치 입력을 인식하도록 구성된 터치 입력 서브시스템(14); 및
    컨트롤 서브시스템(16)
    을 포함하고, 상기 컨트롤 서브시스템은
    상기 터치 입력 서브시스템에 의해 제1 위치(34)에서 인식되는 제1 터치 입력에 응답하여 제1 위치에서 앵커를 설정하고,
    상기 제1 터치 입력의 마무리 후에 인식되는 제2 터치 입력에 응답하여 상기 디스플레이 상의 상기 이미지의 특성을 변경하도록 구성되며, 상기 컨트롤 서브시스템은 상기 앵커에 대한 상기 제2 터치 입력의 경로(54)에 기초하여 상기 이미지의 특성을 변경하도록 구성되는 컴퓨팅 장치.
  11. 제10항에 있어서,
    상기 컨트롤 서브시스템은 상기 제2 터치 입력의 경로가 상기 제1 터치 입력에 의해 설정된 앵커로부터 멀어지는 방향인 경우에는 상기 디스플레이 상의 상기 이미지의 스케일을 증가시키도록 구성되는 컴퓨팅 장치.
  12. 제10항에 있어서,
    상기 컨트롤 서브시스템은 상기 제2 터치 입력의 경로가 상기 제1 터치 입력에 의해 설정된 앵커를 향하는 방향인 경우에는 상기 디스플레이 상의 상기 이미지의 스케일을 감소시키도록 구성되는 컴퓨팅 장치.
  13. 제10항에 있어서,
    상기 컨트롤 서브시스템은 상기 제2 터치 입력의 경로가 상기 제1 터치 입력에 의해 설정된 앵커 주위를 향하는 방향인 경우에는 상기 이미지를 회전시키도록 구성되는 컴퓨팅 장치.
  14. 제10항에 있어서,
    상기 컨트롤 서브시스템은, 상기 디스플레이로 하여금 상기 제1 터치 입력에 응답하여 상기 제1 위치에서 앵커 표시기를 디스플레이하게 하도록 구성되는 컴퓨팅 장치.
  15. 제10항에 있어서,
    상기 컨트롤 서브시스템은, 터치 입력이 마무리되기 전에 상기 터치 입력이 미리 정해진 기간 동안 주어진 위치에 유지되는 경우에만 앵커를 설정하도록 구성되는 컴퓨팅 장치.
KR1020117005542A 2008-09-09 2009-09-10 시간적으로 분리된 터치 입력 Withdrawn KR20130114764A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/206,763 US20100060588A1 (en) 2008-09-09 2008-09-09 Temporally separate touch input
PCT/US2009/056494 WO2010030765A2 (en) 2008-09-09 2009-09-10 Temporally separate touch input

Publications (1)

Publication Number Publication Date
KR20130114764A true KR20130114764A (ko) 2013-10-21

Family

ID=41798842

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117005542A Withdrawn KR20130114764A (ko) 2008-09-09 2009-09-10 시간적으로 분리된 터치 입력

Country Status (7)

Country Link
US (1) US20100060588A1 (ko)
EP (1) EP2329347A4 (ko)
JP (1) JP2013504794A (ko)
KR (1) KR20130114764A (ko)
CN (1) CN102150122A (ko)
RU (1) RU2011108311A (ko)
WO (1) WO2010030765A2 (ko)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8816967B2 (en) * 2008-09-25 2014-08-26 Apple Inc. Capacitive sensor having electrodes arranged on the substrate and the flex circuit
US20100149114A1 (en) * 2008-12-16 2010-06-17 Motorola, Inc. Simulating a multi-touch screen on a single-touch screen
KR101610109B1 (ko) 2009-05-19 2016-04-11 삼성전자주식회사 전기장 통신을 이용한 입력 위치 추적 장치
KR20110026066A (ko) * 2009-09-07 2011-03-15 삼성전자주식회사 휴대용 단말기에서 화면 상태를 전환시키기 위한 장치 및 방법
US8797364B2 (en) * 2009-10-23 2014-08-05 Kyocera Document Solutions Inc. Display device and display control method
CN102906682B (zh) 2010-04-23 2016-10-26 谷歌技术控股有限责任公司 使用触摸检测表面的电子设备和方法
US8537128B2 (en) * 2010-06-21 2013-09-17 Apple Inc. Portable multi-touch input device
JP5269851B2 (ja) * 2010-09-27 2013-08-21 富士フイルム株式会社 画像編集装置及びその画像編集方法並びにそのプログラム
JP2012194915A (ja) * 2011-03-17 2012-10-11 Seiko Epson Corp 画像表示システム
US9851889B2 (en) * 2011-09-16 2017-12-26 Kt Corporation Apparatus and method for rotating a displayed image by using multi-point touch inputs
KR101951480B1 (ko) * 2012-01-09 2019-02-22 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
KR20130094044A (ko) * 2012-02-15 2013-08-23 삼성전자주식회사 영상 표시 장치에서 자막 속성을 변경하기 위한 장치 및 방법
US9977876B2 (en) 2012-02-24 2018-05-22 Perkinelmer Informatics, Inc. Systems, methods, and apparatus for drawing chemical structures using touch and gestures
JP5656919B2 (ja) * 2012-05-31 2015-01-21 京セラドキュメントソリューションズ株式会社 送信装置
JP2014010777A (ja) * 2012-07-02 2014-01-20 Fujitsu Ltd 表示プログラム、表示方法、及び情報処理装置
US10222975B2 (en) 2012-08-27 2019-03-05 Apple Inc. Single contact scaling gesture
JP2014112335A (ja) * 2012-12-05 2014-06-19 Fuji Xerox Co Ltd 情報処理装置及びプログラム
US20140160054A1 (en) * 2012-12-06 2014-06-12 Qualcomm Incorporated Anchor-drag touch symbol recognition
JP6210911B2 (ja) * 2013-03-26 2017-10-11 株式会社Nttドコモ 情報端末、表示制御方法、及び表示制御プログラム
US9417791B2 (en) * 2013-03-29 2016-08-16 Deere & Company Active feedback interface for touch screen display
US20160088060A1 (en) * 2014-09-24 2016-03-24 Microsoft Technology Licensing, Llc Gesture navigation for secondary user interface
US10448111B2 (en) 2014-09-24 2019-10-15 Microsoft Technology Licensing, Llc Content projection
US10025684B2 (en) 2014-09-24 2018-07-17 Microsoft Technology Licensing, Llc Lending target device resources to host device computing environment
US9769227B2 (en) 2014-09-24 2017-09-19 Microsoft Technology Licensing, Llc Presentation of computing environment on multiple devices
US10635296B2 (en) 2014-09-24 2020-04-28 Microsoft Technology Licensing, Llc Partitioned application presentation across devices
JP6269537B2 (ja) * 2015-03-06 2018-01-31 京セラドキュメントソリューションズ株式会社 表示入力装置、それを備えた画像形成装置、表示入力装置の制御方法およびプログラム
US10739968B2 (en) * 2015-11-23 2020-08-11 Samsung Electronics Co., Ltd. Apparatus and method for rotating 3D objects on a mobile device screen
US10785441B2 (en) 2016-03-07 2020-09-22 Sony Corporation Running touch screen applications on display device not having touch capability using remote controller having at least a touch sensitive surface
JP6245334B2 (ja) * 2016-10-26 2017-12-13 富士通株式会社 表示プログラム
US10572545B2 (en) 2017-03-03 2020-02-25 Perkinelmer Informatics, Inc Systems and methods for searching and indexing documents comprising chemical information
EP3502858B1 (en) * 2017-12-22 2023-08-16 Dassault Systèmes Gesture-based manipulator for rotation

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8725033D0 (en) * 1987-10-26 1987-12-02 Crosfield Electronics Ltd Interactive image display
US5428721A (en) * 1990-02-07 1995-06-27 Kabushiki Kaisha Toshiba Data processing apparatus for editing image by using image conversion
JP2625600B2 (ja) * 1991-10-31 1997-07-02 インターナショナル・ビジネス・マシーンズ・コーポレイション 図形移動変形方法及び装置
JPH06167966A (ja) * 1992-06-15 1994-06-14 Seiko Epson Corp 表示回路
US5396590A (en) * 1992-09-17 1995-03-07 Apple Computer, Inc. Non-modal method and apparatus for manipulating graphical objects
JP3862336B2 (ja) * 1996-12-26 2006-12-27 キヤノン株式会社 画像編集方法及び装置
US6920619B1 (en) * 1997-08-28 2005-07-19 Slavoljub Milekic User interface for removing an object from a display
KR100595917B1 (ko) * 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
US7760187B2 (en) * 2004-07-30 2010-07-20 Apple Inc. Visual expander
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
JPH11288460A (ja) * 1998-04-02 1999-10-19 Sony Corp 表示画面の移動制御装置及びこれを備えた電子機器
US7254775B2 (en) * 2001-10-03 2007-08-07 3M Innovative Properties Company Touch panel system and method for distinguishing multiple touch inputs
US7814419B2 (en) * 2003-11-26 2010-10-12 Nokia Corporation Changing an orientation of a user interface via a course of motion
US7366995B2 (en) * 2004-02-03 2008-04-29 Roland Wescott Montague Combination tool that zooms in, zooms out, pans, rotates, draws, or manipulates during a drag
US20050249435A1 (en) * 2004-05-06 2005-11-10 Rai Barinder S Apparatuses and methods for rotating an image
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
JP2006139615A (ja) * 2004-11-12 2006-06-01 Access Co Ltd 表示装置、メニュー表示プログラムおよびタブ表示プログラム
AU2006218381B8 (en) * 2005-03-04 2012-02-16 Apple Inc. Multi-functional hand-held device
US7605804B2 (en) * 2005-04-29 2009-10-20 Microsoft Corporation System and method for fine cursor positioning using a low resolution imaging touch screen
TWI309800B (en) * 2006-04-12 2009-05-11 High Tech Comp Corp Electronic device having a fuction for magnifying/reducing images in-situ adn the method of the same
US8077153B2 (en) * 2006-04-19 2011-12-13 Microsoft Corporation Precise selection techniques for multi-touch screens
US20070257891A1 (en) * 2006-05-03 2007-11-08 Esenther Alan W Method and system for emulating a mouse on a multi-touch sensitive surface
US20080006454A1 (en) * 2006-07-10 2008-01-10 Apple Computer, Inc. Mutual capacitance touch sensing device
US7864163B2 (en) * 2006-09-06 2011-01-04 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
KR100891099B1 (ko) * 2007-01-25 2009-03-31 삼성전자주식회사 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법
US8130211B2 (en) * 2007-09-24 2012-03-06 Microsoft Corporation One-touch rotation of virtual objects in virtual workspace
JP2010067178A (ja) * 2008-09-12 2010-03-25 Leading Edge Design:Kk 複数点入力可能な入力装置及び複数点入力による入力方法
JP2011053770A (ja) * 2009-08-31 2011-03-17 Nifty Corp 情報処理装置及び入力処理方法

Also Published As

Publication number Publication date
US20100060588A1 (en) 2010-03-11
EP2329347A2 (en) 2011-06-08
CN102150122A (zh) 2011-08-10
JP2013504794A (ja) 2013-02-07
WO2010030765A2 (en) 2010-03-18
RU2011108311A (ru) 2012-09-10
WO2010030765A3 (en) 2010-05-14
EP2329347A4 (en) 2013-04-10

Similar Documents

Publication Publication Date Title
KR20130114764A (ko) 시간적으로 분리된 터치 입력
US9658766B2 (en) Edge gesture
EP2715491B1 (en) Edge gesture
US10416777B2 (en) Device manipulation using hover
US20120304131A1 (en) Edge gesture
US20120304132A1 (en) Switching back to a previously-interacted-with application
CN102866850B (zh) 用于在触摸屏上输入字符的装置和方法
US9323431B2 (en) User interface for drawing with electronic devices
CN107037968A (zh) 用于增强触摸屏上的捏拉缩放手势的定心手势
KR20150100081A (ko) 측면 터치 입력이 가능한 휴대 전자 기기 및 그 제어 방법
HK1193662B (zh) 邊緣手勢
HK1193662A (en) Edge gesture
HK1193660B (en) Edge gesture
JP2014232466A (ja) 画面制御装置
HK1193659A (en) Edge gesture

Legal Events

Date Code Title Description
PA0105 International application

Patent event date: 20110309

Patent event code: PA01051R01D

Comment text: International Patent Application

PG1501 Laying open of application
PC1203 Withdrawal of no request for examination
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid