[go: up one dir, main page]

CN103384862B - 信息处理终端及其控制方法 - Google Patents

信息处理终端及其控制方法 Download PDF

Info

Publication number
CN103384862B
CN103384862B CN201180067743.5A CN201180067743A CN103384862B CN 103384862 B CN103384862 B CN 103384862B CN 201180067743 A CN201180067743 A CN 201180067743A CN 103384862 B CN103384862 B CN 103384862B
Authority
CN
China
Prior art keywords
detection information
detection
information item
contact
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201180067743.5A
Other languages
English (en)
Other versions
CN103384862A (zh
Inventor
岛是
岛是一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of CN103384862A publication Critical patent/CN103384862A/zh
Application granted granted Critical
Publication of CN103384862B publication Critical patent/CN103384862B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明提供具有在多个触摸面板显示器之间的间隙附近的改进的操作性的信息处理终端。该信息处理终端具有第一组合显示与检测器、第二组合显示与检测器、检测器以及处理单元。第一组合显示与检测器显示图像并检测接触,并且在检测到接触物进行接触时输出第一检测信息项。第二组合显示与检测器显示图像并检测接触,并且在检测到接触物进行接触时输出第二检测信息项。检测器检测接触并且在检测到接触物进行接触时输出第三检测信息项。检测器配置在第一组合显示与检测器和第二组合显示与检测器之间的间隙中。处理单元基于第一检测信息项、第二检测信息项以及第三检测信息项的一个或多个或全部来执行处理序列。

Description

信息处理终端及其控制方法
技术领域
本发明涉及具有多个触摸面板显示器的信息处理终端。
背景技术
近年来,越来越多的诸如移动电话终端、智能电话、平板终端、个人计算机等的信息处理终端具有触摸面板显示器。这些信息处理终端中的一些具有两个以上的触摸面板显示器以用作虚拟大屏幕(参见专利文献1)。
由于诸如移动电话终端和智能电话的移动装置特别是需要具有确保便携性的尺寸,所以这种装置能够配备有大屏幕然而通过将触摸面板显示器与相应的壳体结合可以有效地减小装置尺寸,其中面板显示器和壳体彼此可折叠地连结。移动装置也能够设置有大屏幕然而通过将触摸面板显示器与相应的壳体结合可以有效地减小装置尺寸,其中面板显示器和壳体彼此可拆卸地连结。
由于智能电话的使用已经变得普遍,在多种场合中用户操作触摸面板显示器更加频繁。特别是在寒冷气候下,智能电话的用户期望戴手套。随着智能电话的应用范围变得更广泛,可能要求用手套来操作智能电话。因此,要求当用户戴手套时可操作智能电话的触摸面板显示器。
当手指移动接近触摸面板而没有直接触摸触摸面板的表面时,高灵敏度模式静电电容触摸面板能够检测手指进行的动作。当这种高灵敏度模式静电电容触摸面板被结合在触摸面板显示器中时,用户可能在戴手套时操作触摸面板显示器。
一些高灵敏度静电电容触摸面板能够区分是手指触摸了触摸面板表面还是接近了触摸面板表面。这种高灵敏度静电电容触摸面板可用来制作信息处理终端,相比结合了仅仅当手指接触触摸面板表面时才检测的触摸面板显示器的信息处理终端,该信息处理终端能够执行更多的操作。
现有技术文献
专利文献:
专利文献1:JP2010-176332A。
发明内容
具有多个触摸面板显示器的信息处理终端在诸如触摸面板显示器的壳体之间的铰链的接合处具有触摸面板显示器之间的间隙。当用户触摸两个触摸面板显示器之间的间隙附近的信息处理终端时,信息处理终端可能发现难以判定是用户同时触摸了两个触摸面板显示器,还是用户在两个触摸面板显示器的中间进行了单触摸动作。
如果两个触摸面板显示器被用来虚拟地提供单个大屏幕,那么当用户滑动手指跨过两个触摸面板显示器时,在间隙处它们未被触摸。因此,在软件处理中的事件中断,使得信息处理终端难以判断用户是进行在大屏幕上以大笔划滑动手指的单个动作还是分别触摸两个触摸面板显示器的两个动作。
在专利文献1中公开的技术与在两个触摸面板显示器之间的间隙附近的特殊处理序列有关。根据在专利文献1中公开的技术,当用户接近触摸面板显示器之一的边沿滑动手指来移动对象时,基于对象的重心位置将对象移动至触摸面板显示器两者之一。因此,对象能够从触摸面板显示器之一移动至另一个触摸面板显示器。
然而,由于在专利文献1中公开的技术基于其重心位置自动地移动对象,虽然其有效地将对象从触摸面板显示器之一移动至另一个触摸面板显示器,但是不适合于在两个触摸面板显示器之间连续地滑动对象。如果用户想要在对象被移动到的触摸面板显示器上再次移动该对象,用户需要再次触摸该对象所移动到的触摸面板显示器,然后滑动他/她的手指。
高灵敏度静电电容触摸面板在手指变得与其接近时具有宽的检测面积。如果有手指接近多个高灵敏度静电电容触摸面板显示器之间的间隙,那么两个触摸面板显示器检测手指的指向,导致两个事件的发生。当在两个触摸面板显示器之间的间隙的附近由大的手指进行单触摸动作时,手指趋向于同时接触两个触摸面板显示器,引起两个事件的发生。这难以准确地识别手指是进行了单触摸动作还是多触摸动作、或者手指是直接触摸了触摸面板显示器的表面还是仅仅接近触摸面板显示器的表面。因此,难以准确地识别用户意图做出的动作。
如上所述,基于在触摸面板显示器之间的间隙附近的直观操作,利用具有多个触摸面板显示器的信息处理终端难以准确地识别用户的意图并且将该意图结合至处理序列。
本发明的目的在于提供具有在多个触摸面板显示器之间的间隙附近的改进的操作性的信息处理终端。
为了实现以上目的,依照本发明,提供一种信息处理终端,包括:
第一组合显示与检测器,在其第一显示检测面上显示图像并检测接触,并且在检测到接触物与第一显示检测面接触时输出第一检测信息项;
第二组合显示与检测器,在其第二显示检测面上显示图像并检测接触,并且在检测到接触物与第二显示检测面接触时输出第二检测信息项;
检测器,检测接触并且在检测到接触物进行接触时输出第三检测信息项,检测器被配置在第一组合显示与检测器的第一显示检测面和第二组合显示与检测器的第二显示检测面之间的间隙中;以及
处理单元,基于来自第一检测信息项、第二检测信息项以及第三检测信息项之中的一个信息项或多个或全部信息项来执行处理序列。
根据本发明,还提供一种控制信息处理终端方法,所述信息处理终端包括:第一和第二组合显示与检测器,在其第一和第二显示检测面上显示图像并检测接触,并且检测与第一和第二显示检测面的接触;以及检测接触的检测器,该检测器被配置在第一组合显示与检测器的第一显示检测面和第二组合显示与检测器的第二显示检测面之间的间隙中,所述方法包括:
当第一组合显示与检测器检测到接触时输出第一检测信息项;
当第二组合显示与检测器检测到接触时输出第一检测信息项;
当检测器检测到接触时输出第三检测信息项;以及
基于来自第一检测信息项、第二检测信息项以及第三检测信息项之中的一个信息项或多个或全部信息项来执行处理序列。
根据本发明,能够改进在组合显示与检测器之间的间隙附近的操作性。
附图说明
图1为根据本发明的示范实施例的信息处理终端的正面视图;
图2为示出根据示范实施例的信息处理终端的功能构成的框图;
图3为示出根据第一示例的信息处理终端10的构成的框图;
图4(A)、图4(B)为示出根据第一示例的信息处理终端的外观的透视图;
图5为根据第一示例的信息处理终端的动作序列的流程图;
图6为示出根据第二示例的进行画出横跨两个触摸面板显示器的轨迹的动作方式的视图;
图7为根据第二示例的信息处理终端的动作序列的流程图;
图8为根据第三示例的信息处理终端的动作序列的流程图;
图9为根据第四示例的信息处理终端的正面视图;以及
图10为根据第四示例的信息处理终端的动作序列的流程图。
具体实施方式
下面将参考附图详细地描述本发明的示范实施例。
图1为根据本发明的示范实施例的信息处理终端的正面视图。信息处理终端10为具有例如通过铰链机构的连结部16可打开和可闭合地互相连结的两个壳体14、15的结构。图1示出处于打开状态的信息处理终端10。
壳体14将组合显示与检测器11容纳在其中,以及壳体15将组合显示与检测器12容纳在其中。组合显示与检测器14、12的每个包含触摸面板显示器,该触摸面板显示器具有在用于显示和检测的显示和检测面上显示图像的功能,以及检测诸如手指的接触物与显示和检测面接触的功能。
检测器13安装在连结部16上,连结部16位于组合显示与检测器11的显示和检测面与组合显示与检测器12的显示和检测面之间的间隙中。与组合显示与检测器11、12不同,检测器13包含具有检测接触物的功能、但不具有显示功能的触摸面板。
图2为示出根据示范实施例的信息处理终端的功能构成的框图。如图2所示,信息处理终端10包括组合显示与检测器11、12、检测器13以及处理单元17。处理单元17例如包含当处理器执行程序时实现的处理单元。基于来自组合显示与检测器11、12以及检测器13的检测信息,处理单元17执行包括在组合显示与检测器11、12上绘制图像的多种处理序列。
根据本示范实施例,组合显示与检测器11显示图像并检测接触,并且当其检测到诸如手指的接触物进行接触时输出第一检测信息项。类似地,组合显示与检测器12显示图像并检测接触,并且当其检测到诸如手指的接触物进行接触时输出第二检测信息项。
检测器13配置在组合显示与检测器11和组合显示与检测器12之间的间隙中的连结部16上。检测器13检测接触,并且当其检测到诸如手指的接触物进行接触时输出第三检测信息项。
第一至第三检测信息被输入至处理单元17。处理单元17基于来自第一检测信息项、第二检测信息项以及第三检测信息项之中的一个信息项、或基于来自多个或全部信息项的一个信息项来执行多种处理序列。根据检测器13的检测,处理单元17可基于来自第一至第三信息项之中的一个或两个或三个信息项来执行处理序列。
处理单元17基于在第一和第二检测信息项与第三检测信息项之间的关系,判断进行的触摸动作是触摸一个地方的单触摸动作还是触摸组合显示与检测器11以及组合显示与检测器12的多触摸动作。例如,单触摸动作为使用单个手指的轻敲动作、点击动作或滑动动作。例如,多触摸动作为使用多个手指的轻敲动作、点击动作或滑动动作。
根据本示范实施例,能够改进在组合显示与检测器11、12之间的间隙附近的操作性。
组合显示与检测器11、12可输出接触坐标作为检测信息,并且检测器13可输出检测到的接触作为检测信息。
当对处理单元17同时提供有第一检测信息项、第二检测信息项以及第三检测信息项时,处理单元17可识别在由第一检测信息项表示的接触坐标和由第二检测信息项表示的接触坐标之间的中点上进行的单触摸动作。
当对处理单元17提供有表示由接触坐标跟随的轨迹的第一检测信息项,然后提供有由接触坐标跟随的轨迹的第二检测信息项时,如果对处理单元17在第一检测信息项和第三检测信息项之间提供有第三检测信息项,那么处理单元17可连接由第一检测信息项表示的轨迹和由第二检测信息项表示的轨迹,并且执行基于所连接轨迹的处理序列。
组合显示与检测器11、12可包括诸如静电电容触摸传感器、压力触摸传感器等的多种触摸面板作为检测器。组合显示与检测器11、12还可包括具有能够区分是否手指触摸了触摸面板表面或接近了触摸面板表面的高灵敏度模式的静电电容触摸传感器。例如,当组合显示与检测器11、12检测到手指移动得更接近于触摸面板表面的动作时,处理单元可判断用户戴着手套,并且可自动地改变检测触摸动作的动作模式的逻辑和在屏幕上对象的显示尺寸等。检测器13还可包括多种触摸面板和传感器。检测器13还可包括具有能够区分手指是触摸了检测器13还是移动接近了检测器13的高灵敏度模式的静电电容触摸传感器。除静电电容触摸面板和压力触摸面板之外,如果检测器13仅仅需要检测有或没有接触而不需要检测坐标,则检测器13可包括金属型接触传感器。
例如,组合显示与检测器11、12可输出能够区分与触摸面板表面接触和接近触摸面板表面的第一和第二检测信息项,而检测器13可输出能够区分与触摸面板表面接触和接近触摸面板表面的第三检测信息项。在这种情况下,当同时提供有表示接近的第一检测信息项、表示接近的第二检测信息项以及表示接近的第三项检测信息时,处理单元17可确定接近。
当同时提供有表示接近的第一检测信息项、表示接近的第二检测信息项以及表示接触的第三项检测信息时,处理单元17可确定接触。
检测器13不一定是独立的,而是可与组合显示与检测器11、12的其中之一或两者整体组合。典型地,透明触摸面板可叠加在包括诸如用于显示图像的液晶显示器的显示器的组合显示与检测器11、12上。透明触摸面板在尺寸上可以比显示器的显示面更大,并且延伸到显示器之外的透明触摸面板的一部分可用作检测器13。利用该布置,信息处理终端10具有在组合显示与检测器11、12之间的间隙附近的改进的操作性,而无需使检测器13与组合显示与检测器11、12分离。
根据本示范实施例,检测器13安装在使两个壳体14、15互相连接的铰链机构的连结部16上。然而,本发明不限于这种结构。检测器13可配置在组合显示与检测器11、12两者之间的间隙中,而未必在连结部上。根据另一个示例,本发明还适用于滑动型信息处理终端,其中在使用时两个叠加的壳体可滑动地使其两个显示面进入并列布局状态。如果信息处理终端具有利用垂直于接近壳体的角落的显示面而延伸的回转轴使两个壳体14、15相对彼此可旋转地互相连接的连接机构,那么当把两个显示面并列时,在组合显示与检测器11、12两者之间的间隙中没有连结部。在这种情况下,检测器13可配置在间隙中,而不是在连结部上。
下面将描述具体示例。
(第一示例)
图3为示出根据第一示例的信息处理终端10的构成的框图。根据第一示例的信息处理终端包括作为输入装置的触摸面板21、22,作为输出装置的显示器26、27,用于控制显示器26、27和触摸面板21、22的触摸面板显示器控制器28、29,配置在触摸面板21、22之间的间隙中的接触传感器23,用于控制接触传感器23的接触传感器控制器30,用于存储各种信息项的存储器31,以及用于通过运行程序来执行多种处理序列的处理单元32。显示器26物理地位于触摸面板21之下。同样地,显示器27物理地位于触摸面板22之下。显示器26和触摸面板21容纳在壳体24中,而显示器27和触摸面板22容纳在壳体25中。
图4(A)和图4(B)为示出根据第一示例的信息处理终端的外观的透视图。壳体24和壳体25通过铰链33互相连结。壳体24和壳体25能够绕着铰链33关闭,如图4(A)中所示,并且能够绕着铰链33打开,如图4(B)中所示。当壳体24、25被打开时,触摸面板21呈现在壳体24上并且触摸面板22呈现在壳体25上。接触传感器23配置在触摸面板21、22之间。接触传感器23检测诸如手指等的接触物进行接触。
在图3中,触摸面板21、22检测接触物进行接触,检测其上的接触位置,并且输出信号。触摸面板显示器控制器28、29将来自触摸面板21、22的信号转换成待处理的信号,并且将转换的信号发送至处理单元32。
接触传感器23检测接触物进行接触,并且输出信号。接触传感器控制器30将来自接触传感器23的信号转换成待处理的信号,并且将转换的信号发送至处理单元32。
处理单元32为用于基于存储在存储器31中的程序和数据来执行处理序列的处理单元。处理单元32基于作为来自触摸面板显示器控制器28、29以及接触传感器控制器30的信号而输入的信息来执行处理序列。处理单元32在显示器26、28上显示对象、图像、信息文本等以响应例如手指进行的触摸动作的处理的结果。
图5为根据第一示例的信息处理终端的动作序列的流程图。
处理单元32判断是否从触摸面板21输入了接触坐标的信息(步骤101)。如果从触摸面板21输入了接触坐标的信息,那么处理单元32判断是否从触摸面板22输入了接触坐标的信息(步骤102)。如果接触坐标的信息没有从触摸面板22输入,那么处理单元32判断为在触摸面板21上的单触摸(步骤103),并且执行处理序列(步骤104)。
如果在步骤102中从触摸面板22输入了接触坐标的信息,那么处理单元32判断是否输入了指示与接触传感器23的接触的信息(步骤105)。如果输入了指示与接触传感器23的接触的信息,那么处理单元32判断为在触摸面板21和触摸面板22的中间的单触摸(步骤106),并且执行处理序列(步骤104)。
如果指示与接触传感器23的接触的信息在步骤105没有输入,那么处理单元32判断为在触摸面板21和触摸面板22上的多触摸动作(步骤107),并且执行处理序列(步骤104)。
如果接触坐标的信息没有从触摸面板21输入,那么处理单元32判断是否从触摸面板22输入了接触坐标的信息(步骤108)。如果从触摸面板22输入了接触坐标的信息,那么处理单元32判断为在触摸面板22上的单触摸(步骤109),并且执行处理序列(步骤104)。如果接触坐标的信息没有从触摸面板22输入,那么处理单元32判断为没有触摸动作进行(步骤110),并且不执行处理序列。
根据本示例,诸如当接触物大且触摸面板21、22为高灵敏度时、或诸如当接触物的每一个分别地接触了触摸面板21和触摸面板22时(多触摸),配置在触摸面板21和触摸面板22之间的接触传感器23被用来识别是否单个接触物接触了触摸面板21和触摸面板22两者(单触摸)。
(第二示例)
根据第二示例,能进行利用诸如手指等的接触物画出横跨两个触摸面板的轨迹的动作。
根据第二示例的信息处理终端具有与在图3和图4(A)、图4(B)中示出的第一示例相同的基本构成。图6为示出根据第二示例的进行横跨两个触摸面板显示器画出轨迹的动作方式的视图。图7为根据第二示例的信息处理终端的动作序列的流程图。
当两个显示器26、27被用作单个大屏幕时,可进行横跨触摸面板21和触摸面板22画出轨迹的动作。假定如图6中所示,用户进行从触摸面板21滑动他/她的手指至触摸面板22的动作,按时间顺序连续地横跨两个触摸面板21、22画出轨迹。动作可用来在轨迹的起点选择在显示器26上显示的对象,从显示器26移动对象至显示器27,然后在轨迹的终点完成运动。备选地,该动作可用来横跨触摸面板21和触摸面板22画出轨迹,作为执行用于水平地滚动屏幕的手势指令的动作。
如图7中所示,当进行在一个触摸面板(这里为触摸面板21)上画出轨迹的动作时,当在触摸面板21上画出轨迹之后,处理单元32判断是否接触物接触了接触传感器23(步骤201)。
如果接触物接触了接触传感器23,那么处理单元32判断是否下一条轨迹的起点存在于另一触摸面板(这里为触摸面板22)上(步骤202)。如果下一条轨迹的起点存在于触摸面板22上,那么处理单元32连接在触摸面板21、22上的轨迹(步骤203),并且执行处理序列(步骤204)。
如果在步骤201接触物没有接触接触传感器23或在步骤202中如果下一条轨迹的起点不存在于触摸面板22上,那么处理单元32判断动作为在一个触摸面板上的轻敲或滑动动作(步骤205),并且执行处理序列(步骤204)。
根据本示范实施例,信息处理终端10能够正确地识别表示轻敲动作等的轨迹是横跨触摸面板21、22的轨迹还是分别在触摸面板21、22上的单独的轨迹,并且因此执行处理序列。
(第三示例)
根据第三示例,信息处理终端具有能够区分接触物是接触了触摸面板还是接近了触摸面板的两个高灵敏度触摸面板,并且输出接触物接触了触摸面板或接近了触摸面板的坐标的信息。当诸如手指等的接触物接近于触摸面板时,其不与触摸面板接触,而是在预定的距离内接近触摸面板。
根据第三示例的信息处理终端具有与在图3和图4(A)、图4(B)中示出的第一示例相同的基本构成。
图8为根据第三示例的信息处理终端的动作序列的流程图。
处理单元32判断是否接触了或接近了触摸面板21的接触物的坐标的信息已从触摸面板21输入(步骤301)。如果从触摸面板21输入了接触或接近坐标的信息,那么处理单元32判断是否接近了触摸面板22的接触物的坐标的信息已从触摸面板22输入(步骤302)。
如果从触摸面板22输入了接近坐标的信息,那么处理单元32判断是否从接触传感器23输入了指示接触的信息(步骤303)。如果输入了指示与接触传感器23的接触的信息,那么处理单元32判断为在触摸面板21和触摸面板22中间的单触摸(步骤304),并且执行处理序列(步骤305)。
如果在步骤303中输入了指示与接触传感器23的接触的信息,那么处理单元32根据来自步骤S301的判断的结果,判断通过在触摸面板21上的单触摸的接触或接近(步骤306或步骤307),并且执行处理序列(步骤305)。
如果接近坐标的信息在步骤302中没有从触摸面板22输入,那么处理单元32判断是否从接触传感器23输入了指示接触的信息(步骤308)。如果指示与接触传感器23的接触的信息没有被输入,那么处理单元32根据从步骤S301判断的结果,判断通过在触摸面板21上的单触摸的接触或接近(步骤306或步骤307),并且执行处理序列(步骤305)。如果在步骤308中输入了指示与接触传感器23的接触的信息,那么处理单元32判断在触摸面板21上的单触摸的接触(步骤306),并且执行处理序列(步骤305)。
如果接触和接近坐标的信息在步骤301中没有从触摸面板21输入,那么处理单元32判断是否从触摸面板22输入了接近坐标的信息(步骤309)。如果从触摸面板22输入了接近坐标的信息,那么处理单元32判断是否输入了指示与接触传感器23的接触的信息(步骤310)。
如果输入了指示与接触传感器23的接触的信息,那么处理单元32判断为在触摸面板22上的单触摸(步骤311),并且执行处理序列(步骤305)。如果指示与接触传感器23的接触的信息没有输入,那么处理单元32判断为接近触摸面板22(步骤307)。
如果在步骤309中从触摸面板22输入了接近坐标的信息,那么处理单元32判断触摸动作没有进行(步骤301),并且不执行处理序列。
根据本示范实施例,当接触物没有接触触摸面板21、22的任何一个,而仅仅接触传感器23时,信息处理终端判断接触并且执行处理序列。因此,信息处理终端能够正确地识别在触摸面板21、22之间的间隙上的触摸动作。
(第四示例)
图9为根据第四示例的信息处理终端的正面视图。根据第四示例,触摸面板21、22以及对应于接触传感器23的部分彼此整体组合。
由于诸如液晶显示装置的显示装置具有厚度和外围框,即使壳体24和壳体25配置在彼此附近,也难以保持显示器26和显示器27的显示器区域彼此接近。然而,如果壳体24和壳体25配置在彼此附近,则可使触摸面板21和触摸面板22之间的距离小于显示器26和显示器27之间的距离。
根据本示例,如图9中所示,触摸面板21、22具有大于显示器26、27的尺寸,并且具有配置在显示器26、27之间的能够检测触摸面板21、22上的触摸动作而不显示图像的部分。这部分被用作接触传感器23。根据本示例,其结果是,在触摸面板21和触摸面板22之间基本上没有间隙。
图10为根据第四示例的信息处理终端的动作序列的流程图。
处理单元32判断是否输入了在触摸面板21的等于显示器26的范围之内的接触坐标的信息(步骤401)。如果输入了触摸面板21的等于显示器26的范围之内的接触坐标的信息,那么处理单元32判断是否输入了在触摸面板22的等于显示器27的范围之内的接触坐标的信息(步骤402)。如果在触摸面板22的等于显示器27的范围之内的接触坐标的信息没有被输入,那么处理单元32判断为在触摸面板21上的单触摸(步骤403),并且执行处理序列(步骤404)。
如果在步骤402中输入了在触摸面板22的等于显示器27的范围之内的接触坐标的信息,那么处理单元32判断是否输入了在触摸面板21、22的等于显示器26、27的范围之外的接触坐标的信息(步骤405)。如果输入了指示与接触传感器23的接触的信息,那么处理单元32判断为在触摸面板21和触摸面板22中间的单触摸(步骤406),并且执行处理序列(步骤404)。
如果指示与接触传感器23的接触的信息在步骤405没有被输入,那么处理单元32判断为在触摸面板21和触摸面板22上的多触摸动作(步骤407),并且执行处理序列(步骤404)。
如果在步骤401中没有输入在触摸面板21的等于显示器26的范围之内的接触坐标的信息,那么处理单元32判断是否输入了在触摸面板22的等于显示器27的范围之内的接触坐标的信息(步骤408)。如果在触摸面板22的等于显示器27的范围之内的接触坐标的信息没有被输入,那么处理单元32判断没有进行触摸动作(步骤410),并且不执行处理序列。
根据本示例,信息处理终端提供了与第一示例相同的优点,即使其缺乏物理上独立的接触传感器23。
根据以上示例,由于配置在显示器26、27之间的间隙中的接触传感器23不需要输出接触坐标,其可典型地包含金属板。然而,本发明不限于金属板。根据另一个示例,接触传感器23可包括压力传感器或静电电容触摸传感器。如果用户戴着手套时操作信息处理终端,则优选压力传感器,而如果用户他/她光着手操作信息处理终端,则优选金属接触传感器。
接触传感器23可包括能够输出接触坐标的传感器,并且处理单元32可基于来自触摸面板21、22的坐标的信息和来自接触传感器23的坐标的信息来执行处理序列。
上面关于示范实施例以及其示例描述了本发明。然而,本发明不限于以上示范实施例和示例。可组合示范实施例和示例,并且在本发明的技术范围之内可对其一些布置进行改变和修改。
本申请基于2011年2月16日提交的日本专利申请No. 2011-030970并要求其优先权益,通过引用将其完整公开内容结合于此。
附图标记说明
10 信息处理终端
11 组合显示与检测器
12 组合显示与检测器
13 检测器
14、15 壳体
16 连结部
17 处理单元
21、22 触摸面板
23 接触传感器
24、25 壳体
26、27显示器
28 触摸面板显示器控制器
30 接触传感器控制器
32 处理单元
33 铰链。

Claims (9)

1.一种信息处理终端,包括:
第一组合显示与检测器,在其第一显示检测面上显示图像并检测接触,并且在检测到接触物与所述第一显示检测面接触时输出第一检测信息项;
第二组合显示与检测器,在其第二显示检测面上显示图像并检测接触,并且在检测到接触物与所述第二显示检测面接触时输出第二检测信息项;
检测器,检测接触并且在检测到接触物进行接触时输出第三检测信息项,所述检测器被配置在所述第一组合显示与检测器的所述第一显示检测面和所述第二组合显示与检测器的所述第二显示检测面之间的间隙中;以及
处理单元,基于所述第一检测信息项、所述第二检测信息项以及所述第三检测信息项的一个或多个或全部来执行处理序列,
其中,所述第一组合显示与检测器输出在所述第一显示检测面上的接触坐标作为所述第一检测信息项,所述第二组合显示与检测器输出在所述第二显示检测面上的接触坐标作为所述第二检测信息项,以及所述检测器输出检测到的接触作为所述第三检测信息项,
并且其中,当对所述处理单元同时提供有所述第一检测信息项、所述第二检测信息项以及所述第三检测信息项时,所述处理单元识别出在由所述第一检测信息项表示的接触坐标与由所述第二检测信息项表示的接触坐标之间的中点上的单触摸动作。
2.根据权利要求1所述的信息处理终端,其中,基于在所述第一和第二检测信息项与所述第三检测信息项之间的关系,所述处理单元判断在所述信息处理终端上进行的动作是单触摸动作还是多触摸动作。
3.根据权利要求1所述的信息处理终端,其中,当对所述处理单元提供有表示由接触坐标跟随的轨迹的所述第一检测信息项,然后提供有所述第三检测信息,并且还提供有表示由接触坐标跟随的轨迹的所述第二检测信息项时,所述处理单元连接由所述第一检测信息项表示的轨迹和由所述第二检测信息项表示的轨迹。
4.根据权利要求1所述的信息处理终端,其中,所述第一组合显示与检测器输出能够区分所述接触物与所述第一显示检测面接触和所述接触物接近所述第一显示检测面的所述第一检测信息项;
所述第二组合显示与检测器输出能够区分所述接触物与所述第二显示检测面接触和所述接触物接近所述第二显示检测面的所述第二检测信息项;
所述检测器输出能够区分所述接触物进行接触和所述接触物接近的所述第三检测信息项;以及
当同时提供有表示接近的所述第一检测信息项、表示接近的所述第二检测信息项以及表示接近的所述第三检测信息项时,所述处理单元判断为接近,并且当同时提供有表示接近的所述第一检测信息项、表示接近的所述第二检测信息项以及表示接触的所述第三检测信息项时判断为接触。
5.根据权利要求1至权利要求4的任何一项所述的信息处理终端,其中,所述第一组合显示与检测器的至少一个为具有显示器和叠加在其上的透明触摸面板的结构,所述透明触摸面板在尺寸上比所述显示器的显示面更大,并且所述透明触摸面板具有延伸到所述显示器以外并用作所述检测器的部分。
6.一种控制信息处理终端的方法,所述信息处理终端包括:第一和第二组合显示与检测器,在其第一和第二显示检测面上显示图像并检测接触,并且检测与所述第一和第二显示检测面的接触;以及检测接触的检测器,所述检测器被配置在所述第一组合显示与检测器的所述第一显示检测面和所述第二组合显示与检测器的所述第二显示检测面之间的间隙中,所述方法包括:
当所述第一组合显示与检测器检测到接触时输出第一检测信息项;
当所述第二组合显示与检测器检测到接触时输出第二检测信息项;
当所述检测器检测到接触时输出第三检测信息项;以及
基于来自所述第一检测信息项、所述第二检测信息项以及所述第三检测信息项之中的一个信息项或多个或全部信息项来执行处理序列,
其中,所述第一组合显示与检测器输出在所述第一显示检测面上的接触坐标作为所述第一检测信息项,所述第二组合显示与检测器输出在所述第二显示检测面上的接触坐标作为所述第二检测信息项以及所述检测器输出检测到的接触作为所述第三检测信息项;
所述方法还包括,当所述第一检测信息项、所述第二检测信息项以及所述第三检测信息项同时输出时,识别出在由所述第一检测信息项表示的接触坐标与由所述第二检测信息项表示的接触坐标之间的中点上的单触摸动作。
7.根据权利要求6所述的控制信息处理终端的方法,包括:
基于在所述第一和第二检测信息项与所述第三检测信息项之间的关系,判断在信息处理终端上所进行的动作是单触摸动作还是多触摸动作。
8.根据权利要求6所述的控制信息处理终端的方法,其中,
所述第一组合显示与检测器输出在所述第一显示检测面上的接触坐标作为所述第一检测信息项,所述第二组合显示与检测器输出在所述第二显示检测面上的接触坐标作为所述第二检测信息项以及所述检测器输出检测到的接触作为所述第三检测信息项;
所述方法还包括,当输出表示由接触坐标跟随的轨迹的所述第一检测信息项然后输出表示由接触坐标跟随的轨迹的所述第二检测项信息时,如果在所述第一检测信息项和所述第二检测信息项之间输出所述第三检测信息项,则连接由所述第一检测信息项表示的轨迹和由所述第二检测信息项表示的轨迹。
9.根据权利要求6所述的控制信息处理终端的方法,其中,
所述第一组合显示与检测器输出能够区分所述接触物与所述第一显示检测面接触和所述接触物接近所述第一显示检测面的所述第一检测信息项,所述第二组合显示与检测器输出能够区分所述接触物与所述第二显示检测面接触和所述接触物接近所述第二显示检测面的所述第二检测信息项,并且所述检测器输出能够区分所述接触物进行接触和所述接触物接近的所述第三检测信息项;
所述方法还包括:
当表示接近的所述第一检测信息项、表示接近的所述第二检测信息项以及表示接近的所述第三检测信息项同时输出时判断为接近;以及
当表示接近的所述第一检测信息项、表示接近的所述第二检测信息项以及表示接触的所述第三检测信息项同时输出时判断为接触。
CN201180067743.5A 2011-02-16 2011-12-15 信息处理终端及其控制方法 Active CN103384862B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011030970 2011-02-16
JP2011-030970 2011-02-16
PCT/JP2011/079007 WO2012111230A1 (ja) 2011-02-16 2011-12-15 情報処理端末およびその制御方法

Publications (2)

Publication Number Publication Date
CN103384862A CN103384862A (zh) 2013-11-06
CN103384862B true CN103384862B (zh) 2017-04-12

Family

ID=46672179

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201180067743.5A Active CN103384862B (zh) 2011-02-16 2011-12-15 信息处理终端及其控制方法

Country Status (5)

Country Link
US (1) US9122337B2 (zh)
EP (1) EP2677403A4 (zh)
JP (1) JP5846129B2 (zh)
CN (1) CN103384862B (zh)
WO (1) WO2012111230A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN205139862U (zh) 2013-05-08 2016-04-06 阿尔卑斯电气株式会社 输入装置
JP6236308B2 (ja) * 2013-12-09 2017-11-22 シャープ株式会社 情報表示制御装置、情報表示制御方法、プログラム及び情報表示システム
US20150185839A1 (en) * 2013-12-28 2015-07-02 Aleksander Magi Multi-screen wearable electronic device for wireless communication
JP2015194983A (ja) * 2014-03-25 2015-11-05 パナソニックIpマネジメント株式会社 入力装置および表示装置
KR102408828B1 (ko) * 2015-09-03 2022-06-15 삼성디스플레이 주식회사 전자장치 및 그 구동방법
KR102510395B1 (ko) * 2015-12-01 2023-03-16 삼성디스플레이 주식회사 표시 장치 시스템
JP6396567B2 (ja) * 2017-10-30 2018-09-26 シャープ株式会社 情報表示制御装置、情報表示制御方法及びプログラム
USD891427S1 (en) * 2017-11-13 2020-07-28 Samsung Display Co., Ltd. Display device
JP6973025B2 (ja) * 2017-12-20 2021-11-24 コニカミノルタ株式会社 表示装置、画像処理装置及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0926832A (ja) * 1995-07-07 1997-01-28 Seiko Epson Corp 情報処理装置および処理方法
US5644469A (en) * 1991-03-06 1997-07-01 Canon Kabushiki Kaisha Information processing apparatus support system with support arms which are capable of closing toward a keyboard unit or away from a keyboard unit
CN101866238A (zh) * 2009-04-14 2010-10-20 索尼公司 信息处理设备、信息处理方法和程序

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090322689A1 (en) * 2008-06-30 2009-12-31 Wah Yiu Kwong Touch input across touch-sensitive display devices
JP2010176332A (ja) 2009-01-28 2010-08-12 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP5229083B2 (ja) 2009-04-14 2013-07-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5644469A (en) * 1991-03-06 1997-07-01 Canon Kabushiki Kaisha Information processing apparatus support system with support arms which are capable of closing toward a keyboard unit or away from a keyboard unit
JPH0926832A (ja) * 1995-07-07 1997-01-28 Seiko Epson Corp 情報処理装置および処理方法
CN101866238A (zh) * 2009-04-14 2010-10-20 索尼公司 信息处理设备、信息处理方法和程序

Also Published As

Publication number Publication date
WO2012111230A1 (ja) 2012-08-23
CN103384862A (zh) 2013-11-06
US20130335359A1 (en) 2013-12-19
JPWO2012111230A1 (ja) 2014-07-03
JP5846129B2 (ja) 2016-01-20
EP2677403A4 (en) 2014-10-01
US9122337B2 (en) 2015-09-01
EP2677403A1 (en) 2013-12-25

Similar Documents

Publication Publication Date Title
CN103384862B (zh) 信息处理终端及其控制方法
US8810533B2 (en) Systems and methods for receiving gesture inputs spanning multiple input devices
EP2241963B1 (en) Information processing apparatus, information processing method and program
JP5610644B2 (ja) 入力装置、入力支援方法及びプログラム
CN103345312B (zh) 以智能终端同时作为主机、鼠标和触摸板的系统及方法
JP6319298B2 (ja) 情報端末、表示制御方法及びそのプログラム
US20120249463A1 (en) Interactive input system and method
US20140055386A1 (en) Touch and non touch based interaction of a user with a device
CN110647244A (zh) 终端和基于空间交互控制所述终端的方法
US20140055385A1 (en) Scaling of gesture based input
CN106325726A (zh) 触控互动方法
JP6304232B2 (ja) 携帯電子機器、その制御方法及びプログラム
US20150309601A1 (en) Touch input system and input control method
JP5515951B2 (ja) 情報処理装置、入力制御方法、プログラム及び記録媒体
US20150062056A1 (en) 3d gesture recognition for operating an electronic personal display
US20200042049A1 (en) Secondary Gesture Input Mechanism for Touchscreen Devices
TWI478017B (zh) 觸控裝置及其觸控方法
KR20160000534U (ko) 터치패드를 구비한 스마트폰
KR101165388B1 (ko) 이종의 입력 장치를 이용하여 화면을 제어하는 방법 및 그 단말장치
CN103376999A (zh) 手持式电子装置及其数位资讯的画面控制方法
KR20090050985A (ko) 휴대용 개인 컴퓨터
JP2013020344A (ja) 入力装置及び入力検出方法
CA2855064A1 (en) Touch input system and input control method
KR20120134426A (ko) 움직임 감지장치를 이용한 거래 정보 제공 방법 및 장치
KR20120134476A (ko) 움직임 감지장치를 이용한 e-mail 내용 표시 방법 및 장치

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: NEC CORP.

Free format text: FORMER OWNER: NEC MOBILE COMMUNICATION, LTD.

Effective date: 20150730

C41 Transfer of patent application or patent right or utility model
C53 Correction of patent of invention or patent application
CB02 Change of applicant information

Address after: Kawasaki, Kanagawa, Japan

Applicant after: NEC Mobile Communications Ltd.

Address before: Kawasaki, Kanagawa, Japan

Applicant before: NEC CASIO Mobile Communications, Ltd.

COR Change of bibliographic data

Free format text: CORRECT: APPLICANT; FROM: NEC CASIO MOBILE COMMUNICATIONS, LTD. TO: NEC MOBILE COMMUNICATION, LTD.

Free format text: CORRECT: ADDRESS; FROM:

TA01 Transfer of patent application right

Effective date of registration: 20150730

Address after: Tokyo, Japan

Applicant after: NEC Corp.

Address before: Kawasaki, Kanagawa, Japan

Applicant before: NEC Mobile Communications Ltd.

GR01 Patent grant
GR01 Patent grant