[go: up one dir, main page]

WO2011048840A1 - 入力動作解析方法および情報処理装置 - Google Patents

入力動作解析方法および情報処理装置 Download PDF

Info

Publication number
WO2011048840A1
WO2011048840A1 PCT/JP2010/059269 JP2010059269W WO2011048840A1 WO 2011048840 A1 WO2011048840 A1 WO 2011048840A1 JP 2010059269 W JP2010059269 W JP 2010059269W WO 2011048840 A1 WO2011048840 A1 WO 2011048840A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
finger
tool
area
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2010/059269
Other languages
English (en)
French (fr)
Inventor
収 西田
輝夫 北條
進吾 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to US13/502,585 priority Critical patent/US20120212440A1/en
Publication of WO2011048840A1 publication Critical patent/WO2011048840A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0382Plural input, i.e. interface arrangements in which a plurality of input device of the same type are in communication with a PC
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger

Definitions

  • the present invention relates to an information processing apparatus capable of performing handwriting input on an information display screen using at least one of an input tool such as a pen and a finger, and more specifically, input to the information processing apparatus using a pen or a finger.
  • the present invention relates to an input motion analysis method for analyzing motion and performing information processing according to the input motion, and an information processing apparatus for executing the input motion analysis method.
  • an input device for detecting a position where an input tool such as a pen or a finger contacts the information display screen and transmitting the operator's intention to the information processing apparatus or information processing system provided with the information display screen
  • a touch panel touch sensor
  • a display device in which such a touch panel is integrally incorporated in an information display screen for example, a touch panel integrated liquid crystal display device is widely used.
  • a capacitive coupling method As a detection method of an input position on a touch panel, a capacitive coupling method, a resistive film method, an infrared method, an ultrasonic method, an electromagnetic induction / coupling method, and the like are known.
  • Patent Document 1 listed below discloses an input device that divides an area for input using a pen and an area for input using a finger.
  • FIG. 11 is an explanatory diagram showing an example in which various icons for the operator to make various inputs are displayed on the operation panel 20 in which a transparent touch panel is arranged on the display panel.
  • a “keyboard” icon 61 simulating a keyboard represents a keyboard corresponding to the range of the selected part (instrument), and by touching this keyboard, the sounding range of that keyboard is selected. You can play with the tone of the part you have.
  • the icons 62 and 63 are for shifting the range of the keyboard indicated by the “keyboard” icon 61 in octave units.
  • the various icons 64 to 66 have a role of calling a screen for changing the setting of a musical tone parameter for controlling a tone color or a pronunciation method, and the icon 67 has a role of increasing or decreasing a numerical value of the musical tone parameter.
  • the first input area operated mainly with a pen or the like having a small pressing area and the second input area operated mainly with a finger or the like having a large pressing area are separated, and the “keyboard” is divided into the first input area.
  • the icon 61 and the icons 62 and 63 are arranged, the icons 64 to 67 are arranged in the second input area, and the position determination method for the pressing operation is preferably made different depending on the input area. Patent Document 1 explains this.
  • Japanese Patent Publication Japanese Patent Laid-Open No. 2005-99871 (published on April 14, 2005)” Japanese Patent Publication “JP 2007-58552 A (published on March 8, 2007)”
  • the operation panel 20 corresponds to a multi-point input method in which a pen and a finger are simultaneously brought into contact with one input area and more advanced input processing is performed by changing the position of at least one of the pen and the finger. I can't.
  • Patent Document 2 listed above discloses an example of the multipoint input method.
  • the input processing with a display image of a certain shape and size being displayed, the user's two fingers touch the left and right edges of the display image, and the touch position changes, Display processing for changing the display size of a display image is introduced.
  • the present invention has been made in view of the above-mentioned problems, and its main purpose is an input motion analysis method capable of accurately performing multi-point input using different types of input means simultaneously as intended by the operator. And providing an information processing apparatus.
  • the information processing apparatus of the present invention provides (1) In an information processing apparatus that can simultaneously accept an input operation using a finger and an input tool that is thinner than a finger for the same input area in the display screen, and performs information processing according to the input operation, (2) an input identification unit for identifying whether the input tool is in contact with or close to the input area, or whether a finger is in contact with or close to the input area; (3) An input tool discriminating criterion for discriminating an input motion using the input tool and a finger discriminating criterion for discriminating an input motion using a finger, and a finger having a lower resolution of discrimination than the input tool discriminating criterion.
  • a storage unit storing a discrimination criterion; (4) A first input operation in which the input identifying unit checks at least one finger contact or proximity to the input area and moves the input tool or the finger along the surface of the input area. And an analysis unit that calls the finger discrimination criterion from the storage unit and analyzes the first input operation by the input tool or the finger using the finger discrimination criterion.
  • the input operation using the input tool or the finger includes an operation of bringing the input tool or the finger into contact with or close to the input area, and a first operation of moving the input tool or the finger along the surface of the input area. All of the input operation and the operation of moving the input tool or the finger away from the input area are included. That is, the first input operation is a form of input operation.
  • the discrimination criteria are different between an input operation using an input tool thinner than a finger and an input operation using a finger. This is because the input area of the finger is larger than the input area of the input tool when the input area when the input tool and the finger are brought into contact with or in close proximity to the input area is larger than the input area of the input tool. This is because the variation of the output coordinates is larger than that of the input tool.
  • the input tool discrimination criterion corresponds to a higher degree of analysis with respect to the entire input operation so that it can correspond to the discrimination of the first input operation finer than the finger discrimination criterion.
  • the analysis unit uses the finger determination criterion to perform the first input operation without using the input tool determination criterion. Is analyzed.
  • the input area may be a part of the display screen or the entire display area.
  • the input operation analysis method of the present invention can simultaneously accept an input operation using a finger and an input tool thinner than the finger for the same input area in the display screen.
  • An input motion analysis method executed by an information processing apparatus that performs information processing according to a motion, wherein an operator of the information processing apparatus has at least a finger in contact with or close to the input area.
  • the information processing apparatus does not use the input tool determination criterion for determining the input operation using the input tool but the finger. Analyzing the first input action by the input tool or the finger using a finger discrimination standard for discriminating the used input action and having a discrimination analysis level lower than the input tool discrimination standard With features That.
  • the operator makes at least a finger touch or approach the same input area in the display screen, and the input area is on the surface of the input area.
  • the information processing apparatus performs the input operation using the finger, not the input tool determination criterion for determining the input operation using the input tool.
  • the first input operation by the input tool or the finger is analyzed using a finger discrimination criterion for discrimination.
  • FIG. 1 is a block diagram schematically showing an overall configuration of an information processing apparatus according to the present invention. It is a block diagram which shows the more concrete structure for performing gesture input and handwriting input. It is a block diagram which shows the structure engaged in the discrimination
  • FIG. 1 is an explanatory diagram for explaining an input operation in which an input pen and a finger are used simultaneously.
  • the information processing apparatus according to the present invention can simultaneously accept an input operation using a finger 2 and a pen 3 as an input tool thinner than the finger 2 for the same input area 1 in the display screen. Thus, information processing according to the input operation can be performed.
  • a finger discrimination criterion for discriminating the input operation using the finger 2 is used instead of the input tool discrimination criterion for discriminating the input operation using the pen 3.
  • a threshold relating to the movement distance of the pen 3 along the surface of the input area 1 can be used as the input tool determination reference, and the finger along the surface of the input area 1 can be used as the finger determination reference.
  • a threshold of 2 travel distances can be used.
  • the threshold value may be called a parameter set in advance for analyzing the first input operation.
  • the input tool discrimination standard and the finger discrimination standard are set to be different from each other. More specifically, the analysis degree of discrimination using the finger discrimination standard uses the input tool discrimination standard. It is set lower than the analysis level of the discrimination. For example, as illustrated in FIG. 1, the threshold value L ⁇ b> 1 related to the movement distance of the finger 2 is set to be larger than the threshold value L ⁇ b> 2 related to the movement distance of the pen 3.
  • the contact area when the finger 2 and the pen 3 are brought into contact with the input area 1 or the area of the shadow projected on the surface of the input area 1 when approached is collectively referred to as the input area.
  • the area of the shadow is the area of the main shadow where the input can be detected, and the area of the penumbra formed around the main shadow is normally excluded by the threshold value of the sensitivity for detecting the input.
  • threshold value L2 of the pen 3 is set smaller than the threshold value L1 of the finger 2 as described above is that the input area of the finger 2 is larger than the input area of the pen 3, and therefore the finger 2 outputs more than the pen 3 This is because the variation of the coordinates to be performed is large.
  • the input tool discrimination criterion corresponds to a higher degree of analysis with respect to the entire input operation so that it can correspond to the discrimination of the first input operation finer than the finger discrimination criterion.
  • the first input operation using the finger 2 is determined in light of the input tool determination criterion, it is determined that the shake of the finger 2 that the operator does not intend to move is the first input operation. This may cause a malfunction that is not intended by the operator.
  • the input area actually increases or decreases, or the coordinates of a representative point (described later) indicating the position of the finger 2 sway.
  • the movement of the pen 3 and the shaking of the finger 2 are also the first input operation. It will be misjudged.
  • the first input operation is performed using the finger determination criterion without using the input tool determination criterion.
  • the first input operation may be performed using a finger different from the finger 2 instead of the pen 3 at the other position.
  • the shake of the finger 2 that the operator does not intend to move is not erroneously determined as the first input operation, so that multipoint input using different types of input means at the same time can be performed exactly as intended by the operator. It can be carried out.
  • the threshold value L1 of the finger 2 By comparing the movement distance of the midpoint M with the threshold value L1 of the finger 2, even if the finger 2 is shaken to some extent, if the shake is within the range of the threshold value L1, it is determined that the midpoint M has not moved. . On the other hand, if the movement distance of the midpoint M and the threshold value L2 of the pen 3 are compared, the threshold value L2 is much smaller than the threshold value L1, so that the midpoint M moves even if the finger 2 is slightly shaken. Therefore, there is a risk of malfunction that is not intended by the operator.
  • the threshold L1 of the finger 2 is always set. Since it is used as a criterion for input operation, the above malfunction can be prevented.
  • FIG. 2 is a block diagram schematically showing the overall configuration of the information processing apparatus 10 according to the present invention.
  • the information processing apparatus 10 is a PDA (Personal Digital Assistant) or a PC (Personal Computer) provided with a touch panel, and a touch panel 12 is integrally provided on a liquid crystal display (LCD) 11.
  • PDA Personal Digital Assistant
  • PC Personal Computer
  • liquid crystal display 11 As the liquid crystal display (hereinafter abbreviated as LCD) 11 and the touch panel 12, a liquid crystal display device in which an optical sensor element is incorporated for each pixel can be used. Such a liquid crystal display device with a built-in optical sensor can be made thinner than a configuration including the LCD 11 and the touch panel 12 as separate elements.
  • the liquid crystal display device with a built-in optical sensor can detect an image of an object in contact with or close to the display screen in addition to displaying information. Therefore, in addition to detecting the input position of the finger 2 or the pen 3, an image such as a printed matter can be read (scanned) by detecting the image.
  • the device used for display is not limited to a liquid crystal display, and may be an organic EL (Electro Luminescence) panel or the like.
  • the information processing apparatus 10 includes a CPU board 13, an LCD control board 14, and a touch panel control board 15 as a configuration for controlling operations of the LCD 11 and the touch panel 12.
  • the LCD control board 14 is connected between the LCD 11 and the CPU board 13 and converts a video signal output from the CPU board 13 into a drive signal.
  • the LCD 11 is driven by a drive signal and displays information corresponding to the video signal.
  • the touch panel control board 15 is connected between the touch panel 12 and the CPU board 13 and converts data output from the touch panel 12 into gesture data.
  • a gesture means a trajectory when the finger 2 or the pen 3 is moved along the display screen in the input area 1 which is the whole or a specific part of the display screen of the information processing apparatus 10.
  • Each of various trajectories for drawing a figure is associated with a command for instructing specific information processing.
  • gestures can be broadly divided into MOVE (movement), PINCH (enlargement / reduction), and ROTATE (rotation).
  • MOVE includes multi-touch gestures J3, J4, J5, etc. in addition to single-touch gestures J1, J2.
  • PINCH is an input operation that widens or narrows the interval between two input positions on the input area 1, for example, as shown as gestures J6 and J7.
  • Rotate is an input operation that moves, for example, two input positions clockwise or counterclockwise as shown as gesture J8.
  • a touchdown operation (DOWN) for bringing the finger 2 or the pen 3 into contact with or close to the input area 1 and the finger 2 or the pen 3 that has been in contact with or close to the input area 1 are separated from the input area 1.
  • the touch-up action (UP) to be included may be included in the gesture.
  • the gesture data is sent to the CPU board 13, and the CPU 16 provided on the CPU board 13 recognizes the command associated with the gesture data and executes information processing corresponding to the command.
  • the CPU board 13 is provided with a memory 17 constituted by a ROM (Read Only Memory) storing various programs for controlling the operation of the CPU 16, or a RAM (Random Access Memory) temporarily storing data being processed. It has been.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the data output from the touch panel 12 is voltage data when the touch panel system is, for example, a resistive film system, and is electrostatic capacity data when the touch panel system is a capacitive coupling system. In this case, it is optical sensor data.
  • the touch panel control board 15 includes a coordinate generation unit 151, a gesture determination unit 152, a handwritten character recognition unit 153, and a memory 154.
  • the memory 154 includes a storage unit 154A that stores a gesture command table and a storage unit 154B that stores a handwritten character table.
  • the CPU 16 is provided with a trajectory drawing unit 161 and a display information editing unit 162 in terms of functions to be executed.
  • the memory 17 includes a bitmap memory 171 and a display information memory 172 from the viewpoint of the type of data to be stored.
  • the coordinate generation unit 151 generates the coordinate data of the position where the finger 2 or the pen 3 is in contact with or close to the input area 1 of the LCD 11 and the touch panel 12, and further sequentially generates the change of the position as the locus coordinate data. To do.
  • the gesture determination unit 152 compares the trajectory coordinate data generated by the coordinate generation unit 151 with the basic stroke data of the command stored in the gesture command table, and is the closest to the line drawing drawn by the trajectory coordinates. Identify the command corresponding to the stroke.
  • the gesture determination unit 152 recognizes the command after recognizing the command.
  • the command and the position information of the character, character string, or figure to be edited recognized based on the locus coordinates are given to the display information editing unit 162.
  • the trajectory drawing unit 161 generates a trajectory image connecting the trajectory coordinates from the trajectory coordinate data generated by the coordinate generation unit 151.
  • the locus image is supplied to the bitmap memory 171, where it is combined with the image displayed on the LCD 11 and sent to the LCD 11.
  • the display information editing unit 162 performs a command on the character, character string, or figure corresponding to the position information supplied from the gesture determination unit 152 among the character, character string, or figure data stored in the display information memory 172. Edit processing corresponding to.
  • the display information editing unit 162 can accept not only the gesture command from the gesture determination unit 152 but also the command input from the keyboard 18 and can perform editing processing by key operation.
  • the display information memory 172 is a memory for storing information displayed on the LCD 11 and is provided in the RAM together with the bitmap memory 171. Various types of information stored in the display information memory 172 are combined with an image in the bitmap memory 171 and displayed on the LCD 11 via the LCD control board 14.
  • the handwritten character recognition unit 153 compares the trajectory coordinates extracted by the coordinate generation unit 151 with a plurality of basic character strokes stored in the handwritten character table, and the basic character that most closely approximates the line drawing drawn by the trajectory coordinates.
  • the character code corresponding to the stroke is recognized and output to the display information editing unit 162.
  • FIG. 4 is a block diagram showing the configuration involved in the discrimination process between the input operation by the finger 2 and the input operation by the pen 3 in the configuration of the touch panel control board 15.
  • the memory 154 of the touch panel control board 15 includes a storage unit 154C storing pen recognition pattern data in addition to the storage unit storing the gesture command table 154A and the handwritten character table 154B, A storage unit 154D that stores finger recognition pattern data, a storage unit 154E that stores pen parameters, a storage unit 154F that stores finger parameters, and a storage unit 154G that stores pen / finger common parameters. Yes.
  • the finger 2 and the pen 3 both specify an area having an input area of a certain size.
  • the coordinate generation unit 151 detects the representative point of this area, the coordinate generation unit 151 can generate coordinate data (x, y) indicating the input position of the finger 2 or the pen 3.
  • the finger recognition pattern data for the finger 2 is prepared, For 3, the pattern data for pen recognition is prepared. That is, the coordinate generation unit 151 converts the data (panel raw data) output from the touch panel 12 when the finger 2 or the pen 3 is in contact with or close to the input area 1 with the finger recognition pattern data and the pen recognition. Attribute data for identifying whether the finger 2 is in contact with or in close proximity, or the pen 3 is in contact with or in close proximity, and coordinate data (x1, y1) of the input position by the finger 2, or pen The coordinate data (x2, y2) of the input position by 3 can be generated.
  • the coordinate generation unit 151 corresponds to the input identification unit of the present invention that identifies whether the input tool is in contact with or close to the input area, or whether the finger is in contact with or close to the input area.
  • the finger parameter is a finger discrimination criterion that has already been described, and is used to detect a relatively coarse change in position due to the finger 2.
  • the finger parameter is prepared as the threshold L1 related to the movement distance of the finger 2. Yes.
  • the pen parameter is an input tool discrimination criterion that has already been described, and is used to detect a relatively small change in position by the pen 3.
  • the pen parameter is prepared as the threshold L2 relating to the movement distance of the pen 3. ing.
  • the pen / finger common parameter is a parameter that does not require identification of the attribute of the finger 2 or the pen 3.
  • the gesture determination unit 152 uses the finger parameters for the input operation of the finger 2, uses the pen parameters for the input operation of the pen 3, and further uses the pen / finger common parameters, thereby determining the gesture. Do.
  • the coordinate generation unit 151 generates attribute data for identifying the finger 2 and the pen 3 and uses the coordinate data (x, y) of the input position as a representative point.
  • a configuration example for generating by specification will be described below.
  • FIG. 5 is a cross-sectional view schematically showing a cross section of the liquid crystal display panel 301 with a built-in optical sensor.
  • the photosensor built-in type liquid crystal display panel 301 described here is an example, and a display panel having an arbitrary structure can be used as long as the display surface and the reading surface are shared.
  • the photosensor built-in type liquid crystal display panel 301 includes an active matrix substrate 51A disposed on the back side and a counter substrate 51B disposed on the front side, and a liquid crystal layer 52 is sandwiched between these substrates. It has a structure.
  • the active matrix substrate 51A is provided with a pixel electrode 56, a photodiode 6, an optical sensor circuit (not shown), an alignment film 58, a polarizing plate 59, and the like.
  • the counter substrate 51B is provided with color filters 53r (red), 53g (green), 53b (blue), a light shielding film 54, a counter electrode 55, an alignment film 58, a polarizing plate 59, and the like.
  • a backlight 307 is provided on the back surface of the liquid crystal display panel 301 with a built-in optical sensor.
  • FIG. 6A is a schematic diagram showing how the input position is detected by detecting a reflected image.
  • the optical sensor circuit including the photodiode 6 detects the light 400 reflected by an object such as the finger 2. Thereby, the reflected image of a target object can be detected.
  • the liquid crystal display panel 301 with a built-in optical sensor can detect the input position by detecting the reflected image.
  • FIG. 6B is a schematic diagram showing how the input position is detected by detecting a shadow image.
  • the optical sensor circuit including the photodiode 6 detects the external light 401 transmitted through the counter substrate 51B and the like.
  • the incident of the external light 401 is hindered, so that the amount of light detected by the optical sensor circuit is reduced. Thereby, the image of the object can be detected.
  • the liquid crystal display panel 301 with a built-in optical sensor can also detect the input position by detecting a shadow image.
  • the photodiode 6 may detect a reflected image of reflected light of the light emitted from the backlight 307 or a shadow image of external light. Moreover, it is also possible to detect both a shadow image and a reflected image at the same time by using the above two types of detection methods in combination.
  • the image data shown in FIG. 7A is obtained by scanning the entire photosensor built-in liquid crystal display panel 301 or the entire input area 1 when the object is not placed on the photosensor built-in liquid crystal display panel 301. The resulting image data.
  • the image data shown in FIG. 7B is obtained when the operator touches or brings the finger in contact with or close to the optical sensor built-in liquid crystal display panel 301 or the input area 1 described above. This is image data obtained as a result of scanning the whole.
  • the photosensor circuit When the operator touches or brings a finger to the liquid crystal display panel 301 with a built-in optical sensor or the input area 1, the amount of light received by the photosensor circuit in the vicinity of the input position changes, so that the photosensor circuit outputs As a result, the brightness of the pixel value in the vicinity of the input position in the generated image data changes.
  • the coordinate generation unit 151 may specify the minimum rectangular area (area PP) that includes all the pixel values whose brightness has changed more than a predetermined threshold in the image data shown in FIG. 7B. it can.
  • the image data included in this area PP is “partial image data”.
  • image data shown in FIG. 7A is image data corresponding to the entire area AP, that is, “whole image data”.
  • the center point or the center of gravity of the partial image data (region PP) can be specified as the above-described representative point, that is, the input position.
  • the coordinate data Z of the representative point can be represented by coordinate data (Xa, Ya) having, for example, the upper left corner of the entire area AP as the origin of the orthogonal coordinate system. Further, coordinate data (Xp, Yp) having the upper left corner of the region PP as the origin may be acquired together.
  • the finger recognition pattern data and the pen recognition pattern data shown in FIG. 4 are data for collating with the area PP and determining whether the input means is the finger 2 or the pen 3.
  • finger recognition pattern data and pen recognition pattern data may be prepared as a rectangular graphic pattern similar to the region PP, and the finger 2 or the pen 3 may be identified by pattern matching.
  • the area value of the region PP may be obtained, and the area value range corresponding to the finger 2 and the area value range corresponding to the pen 3 may be used as finger recognition pattern data and pen recognition pattern data, respectively.
  • the brightness threshold for detecting the region PP is the same between the finger 2 and the pen 3, the brightness areas exceeding the threshold are naturally different. That is, the area PP of the finger 2 is larger than the area PP of the pen 3. Therefore, the graphic pattern or area value range corresponding to the finger 2 is set larger than the graphic pattern or area value range corresponding to the pen 3.
  • FIG. 9 is a flowchart showing the procedure of the input operation determination process.
  • the gesture determination unit 152 first determines whether or not the score of the input position by the finger 2 or the pen 3 has increased (step 1; hereinafter abbreviated as S1). If the score has not increased in S1, the gesture determination unit 152 determines whether the score has decreased (S2). If the score has not decreased in S2, the process proceeds to S3 to determine whether there is a score at the input position. If it is determined in S3 that there is no input position, the process returns to S1, and the processes of S1 to S3 are periodically repeated until there is a change in the score of the input position.
  • the gesture determination unit 152 stores, in the memory 154, the score, the attribute of each input position (whether it is a finger or a pen), and coordinate data for the current input position by the finger 2 or the pen 3 Position information including is stored. Therefore, the gesture determination unit 152 can perform the determination of S1 and S2 according to the process of increasing or decreasing the stored score of the position information. If no position information is stored in the memory 154, it can be determined that the score is 0 in S3.
  • the gesture determination unit 152 receives the coordinate data and attribute data of the input position from the coordinate generation unit 151, and adds new position information to the memory 154. Is stored and the number of points is increased, it is determined in S4 whether or not the attribute of the increased input position is a pen.
  • the gesture determination unit 152 can perform the attribute determination process of S4 based on the attribute data received from the coordinate generation unit 151.
  • the gesture determination unit 152 calls a pen parameter from the storage unit 154E.
  • the pen parameter is, for example, the threshold value L2 described with reference to FIG. If the movement of the pen 3 is equal to or less than the threshold value L2, the gesture determination unit 152 can determine that the pen 3 is stationary without moving on the input area 1. Therefore, the increase in the input position by the pen 3 is determined as DOWN. It can be determined (S5).
  • the threshold value T2 regarding the time when the pen 3 is in contact with or close to the input area 1 as the pen parameter.
  • the threshold value T2 is set when the finger 2 or the pen 3 is in contact with or close to the input area 1 and the voltage representing the correct input position immediately or the digital value as a result of image processing by the logic circuit is set. This is because it is not output, so it is generally necessary to allow for a slight time lag.
  • this time lag increases as the contact area or the proximity area increases, and it takes time to determine the input position. Further, when the finger 2 is in contact with or close to the input area 1, chattering in which the input position is detected or disappears is more likely to occur than in the pen 2. Therefore, when the threshold value T2 of the pen 3 is set to 2t as described above, the threshold value T2 of the finger 2 is preferably set to 3t that is greater than 2t, for example.
  • FIG. 8 is an explanatory diagram showing the difference in threshold value T2 between the finger 2 and the pen 3.
  • FIG. 8A in the case of the pen 3, the gesture determining unit 152 performs the DOWN input operation if it is in contact with or close to the input area 1 for two unit times (2 t) or more. Is determined to have been performed.
  • the gesture determination unit 152 determines that the DOWN of the DOWN area 1 is in contact with or close to the input area 1 for 3 unit times (3 t) or more. It is determined that an input operation has been performed.
  • the gesture determination unit 152 determines the DOWN of the pen 3 using both the threshold value L2 and the threshold value T2, that is, the movement distance of the pen 3 is equal to or less than the threshold value L2, and the contact or proximity time of the pen 3 DOWN can be determined more accurately by determining whether or not the condition that is equal to or greater than the threshold value T2 is satisfied.
  • the gesture determination unit 152 calls a finger parameter from the storage unit 154F.
  • This finger parameter is, for example, the threshold value L1 described with reference to FIG. Since the gesture determination unit 152 can determine that the finger 2 is stationary without moving on the input area 1 if the movement of the finger 2 is equal to or less than the threshold L1, the increase in the input position by the finger 2 is determined as DOWN. It can be determined (S6).
  • the gesture determination unit 152 determines whether the attribute of the reduced input position is a pen. If the determination result in S7 is a pen, the process proceeds to S8. If the determination result in S7 is not a pen, the process proceeds to S9.
  • the gesture determination unit 152 calls the pen parameter from the storage unit 154E. If the movement of the pen 3 is equal to or less than the threshold value L2, the pen 3 does not move on the input area 1 and is input. Since it can be determined that the user has moved away from the region 1, the decrease in the input position by the pen 3 can be determined as UP.
  • the gesture determination unit 152 calls the finger parameters from the storage unit 154F, and if the movement of the finger 2 is equal to or less than the threshold L1, the finger 2 does not move on the input area 1. Since it can be determined that the user is away from the input area 1, the decrease in the input position by the finger 2 can be determined as UP.
  • FIG. 10 is a flowchart illustrating a procedure of processing for determining the first input operation when the coordinate data output from the coordinate generation unit 151 has changed.
  • the gesture determination unit 152 determines whether the coordinate data output from the coordinate generation unit 151 has changed for a certain input position.
  • the process in which the gesture determination unit 152 recognizes changes in coordinate data is performed, for example, as follows.
  • the memory 154 stores the latest coordinate data and the coordinate data immediately before the latest coordinate data among the coordinate data periodically output by the coordinate generation unit 151 for a certain input position.
  • the gesture determination unit 152 compares the old and new two coordinate data stored in the memory 154 for each of the stored input positions, and determines whether the old and new two coordinate data match. For example, the gesture determination unit 152 calculates the difference between the old and new coordinate data, and determines that there is no change in the coordinate data if the difference is equal to or less than the threshold L1 or L2, and the difference exceeds the threshold L1 or L2. For example, it is determined that the coordinate data has changed.
  • the gesture determination unit 152 refers to the position information stored in the memory 154 to check the attributes of all the input positions, and determines whether there is at least one input position whose attribute is a finger. . If it is determined in S11 that there is at least one input position whose attribute is a finger, the process proceeds to S12.
  • the gesture determination unit 152 calls the finger parameter from the storage unit 154F regardless of the attribute of the input position determined that the coordinate data has changed, and the movement distance of the input position sets the threshold value L1. It is determined whether the input position has been exceeded, that is, the input operation (MOVE) in which the input position moves linearly on the input area 1. That is, even if the attribute of the input position determined to have changed in the coordinate data is a pen, there is at least one input position whose attribute is a finger. To the threshold value L1.
  • MOVE input operation
  • the movement distance of the input position itself may be compared with the threshold value L1, but as described with reference to FIG. 1, the input position of the finger 2 and the input position of the pen 3 are You may determine the magnitude
  • the midpoint M when performing a move gesture with two fingers, the midpoint M may be used to determine the direction of movement. In the case of a ROTATE gesture, the midpoint M may be used as the center of rotation. Similarly, in the case of a PINCH gesture, the midpoint M may be used as the center position for enlargement / reduction.
  • the movement of the midpoint M between the positions of the two adjacent points indicates the relative movement of the positions of the two adjacent points. Therefore, by adding a relative motion analysis to the motion analysis of the position of each point, a more advanced input motion analysis can be performed.
  • the movement of each input position or the movement of the midpoint between adjacent input positions is determined based on the finger discrimination criterion. Even if there is a certain amount of blur, if the blur is within the range of the threshold value L1, it is determined to be still. Thereby, an input operation that is not intended by the operator is detected, and a problem that erroneous information processing is performed is prevented.
  • the analysis unit individually calls the input tool discrimination standard for the input tool, the finger discrimination standard for the finger from the storage unit, and performs the second input operation from the storage unit. It is characterized by analyzing.
  • the second input operation is an input operation generally called pointing that designates a certain point in the input area.
  • pointing In order to distinguish the second input operation from the first input operation in which the finger or the input tool is moved along the surface of the input region, it is preferable to use different discrimination criteria depending on the degree of the tendency of the coordinate change to appear. .
  • the second input action can be accurately analyzed by using the finger discrimination standard for the finger and the input tool discrimination standard for the input tool.
  • the input tool determination criterion is a threshold relating to a moving distance of the input tool along the surface of the input area
  • the finger determination criterion is the threshold along the surface of the input area. It is a threshold value relating to the movement distance of the finger.
  • the degree of analysis for the first input operation using the input tool can be made higher than in the case of the finger.
  • the input tool determination criterion is to contact the input tool with respect to the input area.
  • the method further includes a threshold value related to a time period for approaching, and the finger discrimination criterion further includes a threshold value related to a time period for causing the finger to contact or approach the input area.
  • This time lag increases as the contact area or proximity area increases, and it takes time to determine the input position. Further, when the finger touches or approaches the input area, chattering in which the input position is detected or disappears is more likely to occur than in the input tool.
  • the second input operation for bringing the finger into contact with or close to the input area is surely performed. Can be determined.
  • the analysis accuracy as to whether or not the second input operation has been performed can be further improved by combining the above-described time threshold value with the above-described movement distance threshold value.
  • the input identification unit identifies two or more points of contact or proximity of the input tool or the finger to the input region, and the analysis unit analyzes the first input operation.
  • the analysis unit uses the input tool discrimination criterion or the finger discrimination criterion as a comparison target. Or it adds as a comparison object, It is characterized by the above-mentioned.
  • the movement of the midpoint position between the two adjacent points indicates the relative movement of the two adjacent positions. Therefore, a more advanced input motion analysis can be performed by adding a relative motion analysis to the motion analysis of the position of each point.
  • a combination of a configuration described in a certain claim and a configuration described in another claim is limited to a combination of the configuration described in the claim cited in the claim.
  • combinations with configurations described in the claims not cited in the focused claims are possible.
  • the present invention can be suitably used for any information processing apparatus that can input a command related to information processing on a display screen using an input tool such as an operator's finger and pen.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 種類の異なる入力手段を同時に用いた多点入力を、操作者の意図どおりに正確に行うことができる入力動作解析方法および情報処理装置を提供する。本発明に係る情報処理装置は、表示画面内の同一の入力領域(1)に対し、指(2)および指(2)より細いペン(3)を用いた入力動作を同時に受け付け可能である。操作者が、上記入力領域(1)に対して、少なくとも指(2)を接触または近接させた状態で、上記入力領域(1)の面に沿って指(2)またはペン(3)を動かす第1の入力動作を行ったとき、上記情報処理装置は、ペン(3)による入力動作を判別する入力具判別基準ではなく、指(2)による入力動作を判別する指判別基準であって、上記入力具判別基準よりも判別の解析度が低い指判別基準を用いて、指(2)またはペン(3)による上記第1の入力動作を解析する。

Description

入力動作解析方法および情報処理装置
 本発明は、ペンのような入力具および指の少なくとも一方を用いて、情報表示画面に手書き入力を行うことができる情報処理装置に関し、より詳細には、ペンまたは指による情報処理装置への入力動作を解析し、その入力動作に応じた情報処理を行うための入力動作解析方法と、その入力動作解析方法を実行する情報処理装置とに関するものである。
 従来、情報表示画面にペンのような入力具または指などが接触した位置を検出し、上記情報表示画面を備えた情報処理装置または情報処理システムに、操作者の意図を伝達するための入力装置として、タッチパネル(タッチセンサ)が開発されている。そのようなタッチパネルを情報表示画面に一体的に組み込んだ表示装置として、例えばタッチパネル一体型の液晶表示装置が普及している。
 タッチパネルにおける入力位置の検出方式としては、静電容量結合方式、抵抗膜方式、赤外線方式、超音波方式及び電磁誘導/結合方式などが知られている。
 下掲の特許文献1には、ペンを用いた入力を行う領域と、指を用いた入力を行う領域とを分けた入力装置が開示されている。
 図11は、表示パネル上に透明なタッチパネルを配置した操作パネル20に、操作者が様々な入力を行うための各種アイコンを表示した例を示す説明図である。
 例えば、鍵盤を模した「鍵盤」アイコン61は、選択されているパート(楽器)の音域に対応した鍵盤を表しており、この鍵盤をタッチすることにより、その鍵盤の発音域を、選択されているパートの音色で演奏することができる。
 アイコン62,63は、「鍵盤」アイコン61で示される鍵盤の発音域をオクターブ単位でシフトするためのものである。
 また、各種アイコン64~66は、音色または発音の仕方を制御する楽音パラメータの設定を変更する画面を呼び出す役割を持ち、アイコン67は、楽音パラメータの数値を増減させる役割を持っている。
 ここで、操作者が、上記操作パネル20を通じて快適な演奏を行えるようにするには、「鍵盤」アイコン61およびアイコン62,63については、入力判定および入力に対する応答に要する時間は短い方が良いのに対し、アイコン64~67のように、現在の各種設定を変更するためのアイコンについては、入力判定および入力に対する応答に要する時間はむしろ長い方が、誤入力を防止する上で都合が良い。
 ところで、タッチパネルが押圧されていない状態から押圧された場合、直ちには正しい押圧位置を表す電圧が出力されないため、一般には若干のタイムラグを見込んでおく必要がある。また、このタイムラグは、押圧面積の大きなもの(たとえば、指)で押圧するほど大きくなり、押圧に対する位置判定に時間を要する。
 したがって、主として、押圧面積の小さいペン等で操作する第1の入力領域と、主として、押圧面積の大きな指等で操作する第2の入力領域とを分け、上記第1の入力領域に上記「鍵盤」アイコン61およびアイコン62,63を配置し、上記第2の入力領域に上記アイコン64~67を配置するとともに、押圧操作に対する位置判定の方法をも入力領域に応じて異ならせることが望ましいと、特許文献1では説明されている。
日本国公開特許公報「特開2005-99871号公報(2005年4月14日公開)」 日本国公開特許公報「特開2007-58552号公報(2007年3月8日公開)」
 しかしながら、上記特許文献1の操作パネル20では、ペン等で操作する第1の入力領域と指等で操作する第2の入力領域とを分けておき、その分け方を固定する構成なので、操作者が、入力領域に対して、ペンまたは指の使い易い方を自由に選択して入力を行うことができないという問題を有している。
 また、上記操作パネル20では、1つの入力領域に対してペンと指とを同時に接触させ、ペンと指の少なくとも一方の位置変化によって、より高度な入力処理を行う多点入力方式に対応することができない。
 例えば上掲の特許文献2には、上記多点入力方式の例が開示されている。入力処理の具体例としては、ある形状およびサイズの表示画像を表示させた状態で、ユーザの2つの指で、その表示画像の左右の縁に触れた状態とし、その触れた位置の変化で、表示画像の表示サイズを変化させる表示処理が紹介されている。
 しかしながら、ペンと指のような種類の異なる入力手段を同時に用いた多点入力を行おうとすると、特許文献1で説明されているように、ペンの位置判定方法と、指の位置判定方法とを異ならせる必要があるが、この点が、特許文献2では全く考慮されていない。このため、本発明の実施の形態の欄で後述するように、種類の異なる入力手段を同時に用いた多点入力では、操作者が期待するような反応が得られず、操作者にとって誤動作になってしまうことがある。
 本発明は上記問題点に鑑みてなされたものであり、その主たる目的は、種類の異なる入力手段を同時に用いた多点入力を、操作者の意図どおりに正確に行うことができる入力動作解析方法および情報処理装置を提供することにある。
 本発明の情報処理装置は、上記の課題を解決するために、
(1)表示画面内の同一の入力領域に対し、指および指より細い入力具を用いた入力動作を同時に受け付け可能であり、当該入力動作に応じた情報処理を行う情報処理装置において、
(2)上記入力領域に対して上記入力具が接触または近接したのか、指が接触または近接したのかを識別する入力識別部と、
(3)上記入力具を用いた入力動作を判別する入力具判別基準と、指を用いた入力動作を判別する指判別基準であって、上記入力具判別基準よりも判別の解析度が低い指判別基準とを格納した記憶部と、
(4)上記入力識別部が、上記入力領域に対して、少なくとも指の接触または近接を1点検出し、かつ、上記入力領域の面に沿って上記入力具または指を動かした第1の入力動作があったとき、上記記憶部から上記指判別基準を呼び出し、上記指判別基準を用いて上記入力具または指による上記第1の入力動作を解析する解析部と
を備えたことを特徴とする。
 上記の構成において、入力具または指を用いた入力動作には、入力領域に対して、入力具または指を接触または近接させる動作、入力領域の面に沿って入力具または指を動かす第1の入力動作、入力具または指を入力領域から離間させる動作の全てが含まれている。すなわち、第1の入力動作は、入力動作の1形態である。
 上記構成によれば、指より細い入力具を用いた入力動作と、指を用いた入力動作とで、判別基準を異ならせている。これは、入力領域に対して入力具と指とをそれぞれ接触または近接させたときの各入力面積を考えると、指の入力面積の方が、入力具の入力面積より大きいため、指の方が入力具よりも出力される座標の変動が大きいためである。
 一般的に、指より細い入力具を用いた上記第1の入力動作としては、指で描くよりも細かい動き、例えば細かい文字を描く、あるいは文章を描くなどが考えられる。したがって、入力具判別基準は、指判別基準より細かい第1の入力動作の判別に対応できるように、入力動作全般に対して、より高い解析度に対応している。
 このため、例えば、指を用いた第1の入力動作を入力具判別基準に照らして判別すると、操作者が動かしたつもりのない指のぶれが、上記第1の入力動作であると判別され、操作者が意図しない誤動作を招くおそれがある。
 そこで、上記入力識別部が、上記入力領域における少なくとも1点の位置において、指の接触または近接を検出した場合には、たとえ、入力具の接触または近接を他の位置において併せて検出したとしても、入力具による第1の入力動作および指による第1の入力動作のどちらに対しても、上記解析部が、入力具判別基準を用いずに、上記指判別基準を用いて第1の入力動作を解析する。
 これにより、操作者が動かしたつもりのない指のぶれは、第1の入力動作と誤判定されなくなるので、種類の異なる入力手段を同時に用いた多点入力を、操作者の意図どおりに正確に行うことができる。
 なお、上記入力領域は、上記表示画面の一部でもよいし、全部でもよい。
 本発明の入力動作解析方法は、上記の課題を解決するために、表示画面内の同一の入力領域に対し、指および指より細い入力具を用いた入力動作を同時に受け付け可能であり、当該入力動作に応じた情報処理を行う情報処理装置が実行する入力動作解析方法であって、上記情報処理装置の操作者が、上記入力領域に対して、少なくとも指を接触または近接させた状態で、上記入力領域の面に沿って上記入力具または指を動かす第1の入力動作を行ったとき、上記情報処理装置は、上記入力具を用いた入力動作を判別する入力具判別基準ではなく、指を用いた入力動作を判別する指判別基準であって、上記入力具判別基準よりも判別の解析度が低い指判別基準を用いて、上記入力具または指による上記第1の入力動作を解析することを特徴とする。
 これにより、既に説明したとおり、操作者が動かしたつもりのない指のぶれは第1の入力動作と誤判定されなくなるので、種類の異なる入力手段を同時に用いた多点入力を、操作者の意図どおりに正確に行うことができる。
 本発明の情報処理装置および入力動作解析方法は、以上のように、表示画面内の同一の入力領域に対して、操作者が、少なくとも指を接触または近接させ、かつ、上記入力領域の面に沿って上記入力具または指を動かす第1の入力動作を行ったとき、上記情報処理装置は、上記入力具を用いた入力動作を判別する入力具判別基準ではなく、指を用いた入力動作を判別する指判別基準を用いて、上記入力具または指による上記第1の入力動作を解析する構成である。
 それゆえ、操作者が動かしたつもりのない指のぶれは第1の入力動作と誤判定されなくなるので、種類の異なる入力手段を同時に用いた多点入力を、操作者の意図どおりに正確に行うことができるという効果を奏する。
入力用のペンと指とを同時に用いた本発明の入力動作について説明するための説明図である。 本発明に係る情報処理装置の全体構成を概略的に示すブロック図である。 ジェスチャー入力および手書き入力を実行するためのより具体的な構成を示すブロック図である。 タッチパネル制御基板の構成のうち、指による入力動作と、ペンによる入力動作との判別処理に携わる構成を示すブロック図である。 光センサ内蔵型液晶表示パネルの断面を模式的に示す断面図である。 タッチパネルに対する入力位置の検出を、対象物の像を検知することにより行う様子を示す模式図である。 光センサ内蔵型液晶表示パネルが出力する画像データを示す図である。 指とペンとにおける、接触時間に関する閾値T2の違いを示した説明図である。 第2の入力動作に関する入力動作判定処理の手順を示すフローチャートである。 第1の入力動作に関する入力動作判定処理の手順を示すフローチャートである。 表示パネル上に透明なタッチパネルを配置した操作パネルに、操作者が様々な入力を行うための各種アイコンを表示した従来例を示す説明図である。
 以下、本発明の実施の形態について、詳細に説明する。
 〔実施の形態1〕
 本発明の一実施形態について、図1~図10に基づいて説明すれば以下の通りである。
 (入力動作解析方法)
 まず、本発明の入力動作解析方法について、具体的に説明する。図1は、入力用のペンと指とを同時に用いた入力動作について説明するための説明図である。図1に示すように、本発明に係る情報処理装置は、表示画面内の同一の入力領域1に対し、指2および指2より細い入力具としてのペン3を用いた入力動作を同時に受け付け可能であり、当該入力動作に応じた情報処理を行うことができる。
 上記情報処理装置の操作者が、上記入力領域1に対して、少なくとも指2を接触または近接させた状態で、入力領域1の面に沿って指2またはペン3を動かす入力動作を第1の入力動作と呼ぶ。
 上記情報処理装置が、この第1の入力動作を解析するときには、ペン3を用いた入力動作を判別する入力具判別基準ではなく、指2を用いた入力動作を判別する指判別基準を用いる。
 より具体的には、上記入力具判別基準として、入力領域1の面に沿ったペン3の移動距離に関する閾値を用いることができ、上記指判別基準として、入力領域1の面に沿った上記指2の移動距離に関する閾値を用いることができる。なお、上記閾値のことを、第1の入力動作を解析するために予め設定されたパラメータと呼んでもよい。
 本発明および本実施形態では、入力具判別基準と指判別基準とは、互いに異なるように設定され、より具体的には、指判別基準を用いた判別の解析度は、入力具判別基準を用いた判別の解析度より低く設定されている。例えば、図1に示すように、指2の移動距離に関する閾値L1は、ペン3の移動距離に関する閾値L2より大きく設定されている。
 ここで、入力領域1に対して指2とペン3とを接触させたときの接触面積、または近接させたときに入力領域1の面に投影される影の面積を入力面積と総称する。なお、影の面積は、入力が検知され得る本影の面積であり、本影の周囲などに形成される半影の面積は、入力を検知する感度の閾値により通常は除外される。
 上記のようにペン3の閾値L2を指2の閾値L1より小さく設定する理由は、指2の入力面積の方が、ペン3の入力面積より大きいため、指2の方がペン3よりも出力される座標の変動が大きいからである。
 一般的に、指2より細いペン3を用いた上記第1の入力動作としては、指2で描くよりも細かい動き、例えば細かい文字を描く、あるいは文章を描くなどが考えられる。したがって、入力具判別基準は、指判別基準より細かい第1の入力動作の判別に対応できるように、入力動作全般に対して、より高い解析度に対応している。
 このため、例えば、指2を用いた第1の入力動作を入力具判別基準に照らして判別すると、操作者が動かしたつもりのない指2のぶれが、上記第1の入力動作であると判別され、操作者が意図しない誤動作を招くおそれがある。
 その一例として、指2を入力領域1のある位置に接触させたまま動かさず、入力領域1の他の位置でペン3によって第1の入力動作(ジェスチャー、または文字を描くなど)をした場合を想定する。この場合、操作者は指2の位置を固定しているつもりでも、実際には、入力面積が大きくなったり小さくなったり、指2の位置を示す代表点(後述)の座標が揺れ動いたりする。このため、指2を固定しながらペン3を動かすような多点入力を入力具判別基準に照らして判別すると、ペン3の動きに加えて、指2のぶれも第1の入力動作であると誤判定されてしまう。
 そこで、操作者が、入力領域1における少なくとも1点の位置において、指2を接触または近接させた状態が検出された場合には、たとえ、ペン3の接触または近接を他の位置において併せて検出したとしても、ペン3による第1の入力動作および指2による第1の入力動作のどちらに対しても、入力具判別基準を用いずに、上記指判別基準を用いて第1の入力動作を解析する。なお、上記他の位置において、ペン3の代わりに上記指2とは違う指を用いて第1の入力動作を行ってもよい。
 これにより、操作者が動かしたつもりのない指2のぶれは第1の入力動作と誤判定されなくなるので、種類の異なる入力手段を同時に用いた多点入力を、操作者の意図どおりに正確に行うことができる。
 なお、図1には、入力領域1に対して、指2の接触または近接が検出された点と、ペン3の接触または近接が検出された点との中点Mの移動距離と、指2の閾値L1との大小を判定する例が示されている。
 中点Mの移動距離と指2の閾値L1とを比較することにより、指2がある程度ぶれても、閾値L1の範囲内のぶれであれば、中点Mは移動していないと判定される。これに対し、仮に、中点Mの移動距離とペン3の閾値L2とを比較するとすれば、閾値L2は閾値L1よりはるかに小さいため、指2がわずかにぶれても、中点Mが移動したと判定され、操作者が意図しない誤動作が起きるおそれがある。
 本発明の入力動作解析方法は、指2とペン3とを同時に用いた第1の入力動作が行われる場合に、指2による入力動作が検出された場合には、必ず指2の閾値L1を入力動作の判定基準として用いるので、上記の誤動作を防止することができる。
 以下、上記入力動作解析方法を実施するための情報処理装置について説明する。
 (情報処理装置の全体構成)
 図2は、本発明に係る情報処理装置10の全体構成を概略的に示すブロック図である。
 情報処理装置10は、タッチパネルを備えたPDA(Personal Digital Assistants)またはPC(Personal Computer)であり、液晶ディスプレイ(LCD;Liquid Crystal Display)11上にタッチパネル12が一体的に設けられている。
 なお、液晶ディスプレイ(以下、LCDと略記する)11およびタッチパネル12として、画素ごとに光センサ素子を内蔵した液晶表示装置を用いることができる。このような光センサ内蔵型液晶表示装置は、LCD11およびタッチパネル12を別々の要素として備える構成よりも薄型化を実現できる。
 また、光センサ内蔵型液晶表示装置は、情報の表示に加え、表示画面に接触または近接した対象物の画像を検出することができる。したがって、画像の検出により、指2またはペン3の入力位置の検出以外に、印刷物等の画像の読み取り(スキャン)を行うこともできる。なお、表示に用いるデバイスは、液晶ディスプレイに限定されるものではなく、有機EL(Electro Luminescence)パネルなどであってもよい。
 さらに、情報処理装置10は、LCD11およびタッチパネル12の動作を制御する構成として、CPU基板13、LCD制御基板14およびタッチパネル制御基板15を備えている。
 LCD制御基板14は、LCD11とCPU基板13との間に接続され、CPU基板13から出力される映像信号を駆動信号に変換する。LCD11は、駆動信号によって駆動され、上記映像信号に対応する情報を表示する。
 タッチパネル制御基板15は、タッチパネル12とCPU基板13との間に接続され、タッチパネル12から出力されるデータをジェスチャーデータに変換する。ジェスチャーとは、情報処理装置10の表示画面の全部または特定の一部である前記入力領域1において、表示画面に沿って、指2またはペン3を移動させたときの軌跡を意味し、様々な図形を描く各種軌跡のそれぞれが、特定の情報処理を指令するコマンドと対応付けられている。
 なお、ジェスチャーの種類は、MOVE(移動)、PINCH(拡大縮小)、ROTATE(回転)に大きく分けることができる。
 後述する図3のジェスチャーコマンドテーブルに例示しているように、MOVEには、シングルタッチのジェスチャーJ1,J2などのほかに、マルチタッチのジェスチャーJ3,J4,J5などが含まれる。
 PINCHは、ジェスチャーJ6,J7として示すように、例えば、入力領域1上の2点の入力位置の間隔を広げたり、狭めたりする入力動作である。
 ROTATEは、ジェスチャーJ8として示すように、例えば2点の入力位置を互いに時計回り、または反時計回りに動かす入力動作である。
 また、入力領域1に対して、指2またはペン3を接触または近接させるタッチダウンの動作(DOWN)、および入力領域1に接触または近接させていた指2またはペン3を、入力領域1から離間させるタッチアップの動作(UP)をジェスチャーに含めることもある。
 上記ジェスチャーデータは、CPU基板13に送られ、CPU基板13に設けられたCPU16によって、ジェスチャーデータに対応付けられたコマンドが認識され、コマンドに対応する情報処理が実行される。
 CPU基板13には、CPU16の動作を制御する各種プログラムを格納したROM(Read Only Memory)、あるいは処理中のデータを一時的に格納するRAM(Random Access Memory)などによって構成されたメモリ17が設けられている。
 なお、タッチパネル12から出力されるデータは、タッチパネルの方式が、例えば、抵抗膜方式の場合には電圧データであり、静電容量結合方式の場合には、静電容量データであり、光センサ方式の場合には、光センサデータである。
 (ジェスチャー入力等を実行する具体的な構成)
 次に、ジェスチャー入力および手書き入力を実行するためのタッチパネル制御基板15、CPU16およびメモリ17のより具体的な構成について、図3に基づいて説明する。
 タッチパネル制御基板15には、座標生成部151、ジェスチャー判定部152、手書文字認識部153、およびメモリ154が備えられている。メモリ154は、ジェスチャーコマンドテーブルを記憶した記憶部154Aと、手書文字テーブルを記憶した記憶部154Bとを備えている。
 また、CPU16には、実行する機能の観点において、軌跡描画部161および表示情報編集部162が備えられている。
 上記メモリ17は、格納するデータの種類の観点において、ビットマップメモリ171および表示情報メモリ172を備えている。
 上記座標生成部151は、LCD11およびタッチパネル12の入力領域1に対して、指2またはペン3が接触または近接した位置の座標データを生成し、さらに、上記位置の変化を軌跡座標データとして順次生成する。
 上記ジェスチャー判定部152は、座標生成部151によって生成された軌跡座標データを、上記ジェスチャーコマンドテーブルに格納されているコマンドの基本ストロークのデータと照合して、軌跡座標が描く線画に最も近似する基本ストロークに対応するコマンドを特定する。
 続いて、ジェスチャー判定部152は、入力領域1に対して行われたジェスチャーが、例えばLCD11に表示されている文章または図形の編集を指令するジェスチャーである場合、上記コマンドを認識した後、認識したコマンドと、軌跡座標に基づいて認識した編集の対象となる文字、文字列または図形の位置情報とを表示情報編集部162に与える。
 上記軌跡描画部161は、座標生成部151により生成された軌跡座標データから、軌跡座標をつなげた軌跡イメージを生成する。その軌跡イメージは、ビットマップメモリ171に供給され、ビットマップメモリ171において、LCD11に表示されているイメージと合成され、LCD11に送出される。
 表示情報編集部162は、表示情報メモリ172内に格納された文字、文字列または図形のデータのうち、ジェスチャー判定部152から供給された位置情報に相当する文字、文字列または図形に対し、コマンドに対応する編集処理を行う。
 なお、表示情報編集部162は、ジェスチャー判定部152からのジェスチャーコマンドを受け付けるだけでなく、キーボード18から入力されたコマンドも受け付けて、キー操作による編集処理を行うこともできる。
 表示情報メモリ172は、LCD11に表示される情報を格納するメモリであり、ビットマップメモリ171と共に、RAM内に設けられている。表示情報メモリ172に格納された各種情報は、ビットマップメモリ171内のイメージと合成され、上記LCD制御基板14を介してLCD11に表示される。
 手書文字認識部153は、座標生成部151により抽出された軌跡座標と、上記手書文字テーブルに格納された複数の基本文字ストロークとを照合し、軌跡座標が描く線画に最も近似する基本文字ストロークに対応する文字コードを認識して表示情報編集部162に出力する。
 (入力手段の判別を実行する具体的な構成)
 次に、図4を参照して、上記入力領域1に対して、指2による入力動作と、ペン3による入力動作とを判別する具体的な構成について説明する。
 図4は、タッチパネル制御基板15の構成のうち、指2による入力動作と、ペン3による入力動作との判別処理に携わる構成を示すブロック図である。図4に示すように、タッチパネル制御基板15の上記メモリ154は、上記ジェスチャーコマンドテーブル154Aおよび手書文字テーブル154Bを格納した記憶部のほかに、ペン認識用パターンデータを記憶した記憶部154Cと、指認識用パターンデータを記憶した記憶部154Dと、ペン用パラメータを記憶した記憶部154Eと、指用パラメータを記憶した記憶部154Fと、ペン・指共通パラメータを記憶した記憶部154Gとを備えている。
 上記入力領域1に、指2またはペン3が接触または近接すると、前述したように、指2もペン3も、ある大きさの入力面積を持った領域を特定することになる。この領域の代表点を座標生成部151が検出することによって、座標生成部151は、指2またはペン3の入力位置を示す座標データ(x,y)を生成することができる。
 上記入力領域1に、指2が接触または近接したのか、それともペン3が接触または近接したのかを座標生成部151が判定するために、指2については上記指認識用パターンデータが用意され、ペン3については上記ペン認識用パターンデータが用意されている。すなわち、座標生成部151は、上記入力領域1に、指2またはペン3が接触または近接したときに、タッチパネル12から出力されたデータ(パネル生データ)を、上記指認識用パターンデータおよびペン認識用パターンデータと照合することによって、指2が接触または近接したのか、あるいはペン3が接触または近接したのかを識別する属性データと、指2による入力位置の座標データ(x1,y1)、あるいはペン3による入力位置の座標データ(x2,y2)を生成することができる。
 したがって、座標生成部151は、入力領域に対して入力具が接触または近接したのか、指が接触または近接したのかを識別する本発明の入力識別部に相当している。
 一方、上記指用パラメータは、既に説明した指判別基準のことであり、指2による比較的粗い位置変化を検出するのに用いられ、例えば、指2の移動距離に関する前記閾値L1として用意されている。
 また、上記ペン用パラメータは、既に説明した入力具判別基準のことであり、ペン3による比較的細かい位置変化を検出するのに用いられ、例えば、ペン3の移動距離に関する前記閾値L2として用意されている。
 さらに、ペン・指共通パラメータは、指2またはペン3の属性の識別を必要としないパラメータである。その一例として、複数の指による多点入力、または少なくとも1本の指2とペン3とによる多点入力の点の数を、最大何点まで認識するかという上限値を示すようなパラメータを挙げることができる。
 上記ジェスチャー判定部152は、指2の入力動作に対して指用パラメータを用い、ペン3の入力動作に対してペン用パラメータを用い、さらにペン・指共通パラメータも用いることによって、ジェスチャーの判定を行う。
 (光センサ内蔵型液晶表示パネルによる代表点の検出)
 (1)光センサ内蔵型液晶表示パネルの概略構成
 上記座標生成部151が、指2とペン3とを識別する属性データを生成すると共に、入力位置の座標データ(x,y)を代表点の特定によって生成するための構成例を以下に説明する。
 図5は、光センサ内蔵型液晶表示パネル301の断面を模式的に示す断面図である。なお、ここで説明する光センサ内蔵型液晶表示パネル301は一例であり、表示面と読取面とが共用されているものであれば、任意の構造の表示パネルを利用できる。
 図示のとおり、光センサ内蔵型液晶表示パネル301は、背面側に配置されるアクティブマトリクス基板51Aと、表面側に配置される対向基板51Bとを備え、これら基板の間に液晶層52を挟持した構造を有している。アクティブマトリクス基板51Aには、画素電極56、フォトダイオード6および光センサ回路(図示せず)、配向膜58、偏光板59などが設けられている。対向基板51Bには、カラーフィルタ53r(赤)、53g(緑)、53b(青)、遮光膜54、対向電極55、配向膜58、偏光板59などが設けられている。また、光センサ内蔵型液晶表示パネル301の背面には、バックライト307が設けられている。
 (2)入力位置の検出方法
 次に、図6の(a)および(b)を参照しながら、操作者が、指2またはペン3を光センサ内蔵型液晶表示パネル301に接触または近接させた入力位置を検出する2種類の方法について説明する。
 図6の(a)は、反射像を検知することにより、上記入力位置を検出する様子を示す模式図である。バックライト307から光400が出射されると、フォトダイオード6を含む光センサ回路は、指2などの対象物により反射された光400を検知する。これにより、対象物の反射像を検知することができる。このように、光センサ内蔵型液晶表示パネル301は、反射像を検知することにより、入力位置を検出することができる。
 また、図6の(b)は、影像を検知することにより、上記入力位置を検出する様子を示す模式図である。図6の(b)に示すように、フォトダイオード6を含む光センサ回路は、対向基板51Bなどを透過した外光401を検知する。しかしながら、ペン3などの対象物がある場合は、外光401の入射が妨げられるので、光センサ回路が検知する光量が減る。これにより、対象物の影像を検知することができる。このように、光センサ内蔵型液晶表示パネル301は、影像を検知することにより、入力位置を検出することもできる。
 上述のように、フォトダイオード6は、バックライト307より出射された光の反射光による反射像を検知してもよいし、外光による影像を検知してもよい。また、上記2種類の検知方法を併用して、影像と反射像との両方を同時に検知するようにしてもよい。
 (3)全体画像データ/部分画像データ/座標データ
 次に、図7を参照しながら、全体画像データ、部分画像データ、および座標データについて、例を挙げて説明する。
 図7の(a)に示す画像データは、対象物が光センサ内蔵型液晶表示パネル301上に置かれていないときに、光センサ内蔵型液晶表示パネル301全体または上記入力領域1全体をスキャンした結果として得られる画像データである。
 また、図7の(b)に示す画像データは、操作者が指を光センサ内蔵型液晶表示パネル301に接触または近接させたときに、光センサ内蔵型液晶表示パネル301全体または上記入力領域1全体をスキャンした結果として得られる画像データである。
 操作者が指を光センサ内蔵型液晶表示パネル301または上記入力領域1に接触または近接させたとき、上記入力位置の近傍の光センサ回路が受光する光量が変化するため、当該光センサ回路が出力する電圧に変化が生じ、その結果として、生成される画像データのうち、入力位置の近傍の画素値の明度に変化が生じることとなる。
 図7の(b)に示す画像データでは、図7の(a)に示す画像データと比べると、操作者の指に該当する部分の画素値の明度が高くなっている。したがって、上記座標生成部151は、図7の(b)に示す画像データにおいて、明度が所定の閾値より大きく変化している画素値を全て含む最小の矩形領域(領域PP)を特定することができる。この領域PPに含まれる画像データが、“部分画像データ”である。
 なお、図7の(a)に示す画像データは、全体領域APに対応する画像データ、すなわち“全体画像データ”である。
 また、部分画像データ(領域PP)の中心点または重心を、前述した代表点、すなわち入力位置として特定することができる。代表点の座標データZは、全体領域APの例えば左上隅を直交座標系の原点とする座標データ(Xa,Ya)で表すことができる。また、領域PPの左上隅を原点とする座標データ(Xp,Yp)を併せて取得してもよい。
 図4に示す前記指認識用パターンデータおよびペン認識用パターンデータは、上記領域PPと照合され、入力手段が指2なのかペン3なのかを判定するためのデータである。例えば、上記領域PPと同様の矩形形状の図形パターンとして、指認識用パターンデータおよびペン認識用パターンデータを用意し、パターンマッチングによって指2またはペン3を識別するようにしてもよい。あるいは、上記領域PPの面積値を求め、指2に対応する面積値の範囲、およびペン3に対応する面積値の範囲を、それぞれ指認識用パターンデータおよびペン認識用パターンデータとしてもよい。
 指2とペン3とでは、上記領域PPを検出するための明度の閾値が同じ場合、その閾値を超える明度の面積が、当然ながら異なる。つまり、指2の領域PPの方が、ペン3の領域PPより大きくなる。したがって、指2に対応する図形パターンまたは面積値の範囲をペン3に対応する図形パターンまたは面積値の範囲より大きく設定することになる。
 (DOWNおよびUPの入力動作判定処理)
 以上の構成において、指2またはペン3を入力領域1に対して接触または近接させる入力動作(DOWN)、および入力領域1に対して接触または近接させていた指2またはペン3を入力領域1から遠ざける入力動作(UP)を情報処理装置10が判定する入力動作判定処理について、以下具体的に説明する。
 なお、DOWNおよびUPの入力動作は、本発明における第2の入力動作に相当する。
 図9は、上記入力動作判定処理の手順を示すフローチャートである。図4および図9に示すように、ジェスチャー判定部152は、まず、指2またはペン3による入力位置の点数が増加したかどうかを判定する(ステップ1;以下、S1と略記する)。S1で、点数が増加していない場合、ジェスチャー判定部152は、点数が減少したかどうかを判定する(S2)。S2で、点数が減少していない場合、S3に処理が進み、入力位置の点数が有るか無いかを判定する。S3で、入力位置が無いと判定されると、処理はS1に戻り、入力位置の点数に変化が有るまで、S1~S3の処理が周期的に繰り返される。
 上記S1~S3の処理を実行するために、ジェスチャー判定部152は、メモリ154に、指2またはペン3による現在の入力位置について、点数、各入力位置の属性(指かペンか)および座標データを含む位置情報を記憶させている。したがって、ジェスチャー判定部152は、上記位置情報の記憶された点数を増加させるか、減少させるかの処理に応じて、S1およびS2の判定を行うことができる。また、メモリ154に位置情報が何も記憶されていなければ、S3において、点数は0であると判定することができる。
 次に、S1で、点数が増加したと判定された場合、言い換えると、ジェスチャー判定部152が、座標生成部151から、入力位置の座標データと属性データとを受け取り、メモリ154に新たな位置情報を記憶させ、上記点数を増加させた場合、S4において、増加した入力位置の属性がペンかどうかを判定する。ジェスチャー判定部152は、座標生成部151から受け取った属性データによって、S4の属性判定処理を行うことができる。
 続いて、S4で、増加した入力位置の属性がペンであると判定された場合、ジェスチャー判定部152は、記憶部154Eからペン用パラメータを呼び出す。このペン用パラメータは、例えば、図1を参照して説明した閾値L2である。ジェスチャー判定部152は、ペン3の動きが閾値L2以下であれば、ペン3は入力領域1上を移動することなく、静止していると判定できるので、ペン3による入力位置の増加をDOWNと判定することができる(S5)。
 なお、DOWNの判定について、ペン3の移動距離に関する閾値L2に加えて、ペン3が入力領域1に接触または近接する時間に関する閾値T2を、ペン用パラメータとして用いることが好ましい。閾値T2は、例えば、入力位置を検出するために、図7に示す全体領域APをスキャンするときのスキャン周期tの2回分、すなわち、T2=2tとして設定される。
 上記閾値T2を設定するのは、入力領域1に対して指2またはペン3が接触または近接した場合、直ちには正しい入力位置をあらわす電圧、あるいは、論理回路による画像処理の結果としてのデジタル値が出力されないので、一般には若干のタイムラグを見込んでおく必要があるからである。
 また、このタイムラグは、接触面積または近接面積の大きなものほど大きくなり、入力位置の判定に時間を要する。さらに、入力領域1に対して指2が接触または近接する場合、入力位置が検出されたり、消滅したりするチャタリングが、ペン2よりも発生し易い。したがって、ペン3の閾値T2を上記のように2tとする場合には、指2の閾値T2を、例えば2tより大きい3tとするとよい。
 図8は、指2とペン3とにおける閾値T2の違いを示した説明図である。図8の(a)に示すように、ペン3の場合には、入力領域1に対して2単位時間(2t)以上、接触または近接していれば、ジェスチャー判定部152は、DOWNの入力動作が行われたと判定する。
 一方、図8の(b)に示すように、指2の場合には、入力領域1に対して3単位時間(3t)以上、接触または近接していれば、ジェスチャー判定部152は、DOWNの入力動作が行われたと判定する。
 こうして、ジェスチャー判定部152は、閾値L2と閾値T2との両方を用いてペン3のDOWNを判定することにより、すなわち、ペン3の移動距離が閾値L2以下、かつ、ペン3の接触または近接時間が閾値T2以上という条件の充足を判定することにより、DOWNの判定を一層正確に行うことができる。
 一方、S4において、増加した入力位置の属性がペンではないと判定された場合、ジェスチャー判定部152は、記憶部154Fから指用パラメータを呼び出す。この指用パラメータは、例えば、図1を参照して説明した閾値L1である。ジェスチャー判定部152は、指2の動きが閾値L1以下であれば、指2は入力領域1上を移動することなく、静止していると判定できるので、指2による入力位置の増加をDOWNと判定することができる(S6)。
 なお、指2のDOWNの判定の場合にも、閾値L1に加えて、上記閾値T1を用いることにより、すなわち、指2の移動距離が閾値L1以下、かつ、指2の接触または近接時間が閾値T1以上という条件の充足を判定することにより、DOWNの判定を一層正確に行うことができる。
 次に、前記S2において、ジェスチャー判定部152が、点数が減少したことを認識した場合、つまり、ある入力位置について、座標生成部151から座標データが出力されなくなったため、メモリ154から、対応する位置情報を消去した場合、S7に処理が進む。
 S7では、ジェスチャー判定部152は、減少した入力位置の属性がペンかどうかを判定する。S7の判定結果がペンであれば、S8に処理が進み、S7の判定結果がペンではなければ、S9に処理が進む。
 S8では、ジェスチャー判定部152は、S5と同様に、記憶部154Eからペン用パラメータを呼び出し、ペン3の動きが閾値L2以下であれば、ペン3は入力領域1上を移動することなく、入力領域1から離れたと判定できるので、ペン3による入力位置の減少をUPと判定することができる。
 また、S9では、ジェスチャー判定部152は、S6と同様に、記憶部154Fから指用パラメータを呼び出し、指2の動きが閾値L1以下であれば、指2は入力領域1上を移動することなく、入力領域1から離れたと判定できるので、指2による入力位置の減少をUPと判定することができる。
 以上のS3,S5,S6,S8およびS9の処理後は、いずれも、次のS10に処理が進む。
 図10は、座標生成部151が出力する座標データが変化した場合、すなわち前記第1の入力動作を判定する処理の手順を示すフローチャートである。
 S10では、ジェスチャー判定部152が、ある入力位置について、座標生成部151から出力される座標データに変化があったかどうかを判定する。ジェスチャー判定部152が、座標データの変化を認識する処理は、例えば、以下のように行われる。
 上記メモリ154には、ある入力位置について、座標生成部151が周期的に出力した座標データのうち、最新の座標データと、最新の座標データの1つ前の座標データとが記憶されている。
 そこで、ジェスチャー判定部152は、記憶された入力位置の全てについてそれぞれ、メモリ154に記憶された新旧2つの座標データを比較し、新旧2つの座標データが一致するか否かを判定する。例えば、ジェスチャー判定部152は、新旧2つの座標データの差分を演算し、差分が上記閾値L1またはL2以下であれば、座標データに変化はないと判定し、差分が上記閾値L1またはL2を上回れば、座標データに変化があったと判定する。
 S10で、ジェスチャー判定部152が、ある入力位置について、座標データに変化があったと判定すると、S11に処理が進む。S10の判定結果が「否(No)」の場合、S1に処理が戻る。
 S11では、ジェスチャー判定部152は、メモリ154に記憶された位置情報を参照することによって、全ての入力位置の属性を確認し、属性が指である入力位置が少なくとも1つ有るかどうかを判定する。S11で、属性が指である入力位置が少なくとも1つ有ると判定されると、S12へ処理が進む。
 S12およびS13では、座標データに変化があったと判定された入力位置の属性によらず、ジェスチャー判定部152は、記憶部154Fから指用パラメータを呼び出し、その入力位置の移動距離が、閾値L1を超えたかどうか、つまり入力領域1上で入力位置が直線的に移動する入力動作(MOVE)を判定する。つまり、座標データに変化があったと判定された入力位置の属性が、ペンであったとしても、ほかに属性が指である入力位置が少なくとも1つ有るため、上記入力位置の移動距離を、指の閾値L1と比較する。
 なお、上記のように、入力位置自体の移動距離を閾値L1と比較してもよいが、図1を参照して説明したように、指2の入力位置と、ペン3の入力位置との中点Mの移動距離と、指の閾値L1との大小を判定してもよい。
 例えば、2本の指でMOVEのジェスチャーを行うときには、移動の方向の判定に中点Mを使ってもよい。また、ROTATEのジェスチャーの場合には、回転の中心として、中点Mを使ってもよい。同様に、PINCHのジェスチャーの場合、拡大縮小の中心位置として、中点Mを使ってもよい。
 この場合、隣り合う2点の位置の中点Mの動きは、隣り合う2点の位置の相対的な動きを示す。したがって、各点の位置の動きの解析に、相対的な動きの解析が加わわることによって、より高度な入力動作の解析を行うこともできる。
 いずれにしても、属性が指である入力位置が少なくとも1つ有る場合には、指判別基準によって、各入力位置の動き、または隣り合う入力位置同士の中点の動きを判定するので、指2がある程度ぶれても、閾値L1の範囲内のぶれであれば、静止と判定される。これにより、操作者が意図していない入力動作が検知され、誤った情報処理が行われる不具合が防止される。
 上記S13で、座標データの変化がMOVEであると判定された場合には、第1の入力動作判定処理が終了する一方、座標データの変化がMOVEではないと判定された場合には、処理がS14およびS15に進む。
 S14およびS15では、入力位置の移動距離が閾値L1を超えて、入力領域1上で入力位置が曲線的に移動する入力動作(ROTATE)かどうかが判定される。上記S15で、座標データの変化がROTATEであると判定された場合には、第1の入力動作判定処理が終了する一方、座標データの変化がROTATEではないと判定された場合には、処理がS16に進む。
 S16では、入力位置の移動距離が閾値L1を超えて、入力領域1上で隣り合う2つの入力位置の間隔を拡縮させる入力動作(PINCH)かどうかが判定され、このPINCHの判定でもって、全ての第1の入力動作判定処理が終了する。
 一方、上記S11で、属性が指である入力位置が1つも無いと判定されると、S17へ処理が進む。S17~S21におけるMOVE,ROTATE,PINCHの判定は、入力具判別基準であるペンの閾値L2を用いて行われる。S17~S21の処理と、S12~S16の処理との違いは、用いる判別基準の違いだけなので、重複する説明を省略する。
 本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、上記実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる他の実施形態についても本発明の技術的範囲に含まれる。
 本発明に係る情報処理装置では、上記入力領域に対して上記入力具または指を接触または近接させるか、あるいは、上記入力領域に対して上記入力具または指を離間させる第2の入力動作があったとき、上記解析部は、上記記憶部から、上記入力具については上記入力具判別基準を、上記指については上記指判別基準を、上記記憶部から個別に呼び出し、上記第2の入力動作を解析することを特徴とする。
 上記の構成によれば、第2の入力動作は、入力領域内のある点を指定する、一般にポインティングと呼ばれる入力動作である。第2の入力動作を、入力領域の面に沿って指または入力具を移動させる第1の入力動作と区別するためには、座標変化の現れ易い度合いに応じて、判別基準を使い分けることが好ましい。
 つまり、座標変化の現れ易い度合いが小さいペンのような入力具に対して、座標変化の現れ易い度合いが大きい指判別基準を用いると、実際には細かい文字を入力具によって描いたつもりであっても、静止していると判定され、ポインティングが行われたと誤判定されてしまう。
 逆に、座標変化の現れ易い度合いが大きい指に対して、座標変化の現れ易い度合いが小さい入力具判別基準を用いると、実際には指によるポインティングを行ったにもかかわらず、移動があったと誤判定されてしまう。
 したがって、第2の入力動作については、指に対して指判別基準を用い、入力具に対して入力具判別基準を用いることによって、第2の入力動作を正確に解析することができる。
 本発明に係る情報処理装置では、上記入力具判別基準は、上記入力領域の面に沿った上記入力具の移動距離に関する閾値であり、上記指判別基準は、上記入力領域の面に沿った上記指の移動距離に関する閾値であることを特徴とする。
 これにより、入力具を用いた第1の入力動作と、指を用いた第1の入力動作とに対する判別の解析度を具体的に異ならせることができる。例えば、入力具の移動距離に関する閾値を指の移動距離に関する閾値より小さく設定すれば、入力具を用いた第1の入力動作に対する解析度を、指の場合より高くすることができる。
 本発明に係る情報処理装置では、上記入力領域に対して上記入力具または指を接触または近接させる第2の入力動作について、上記入力具判別基準は、上記入力領域に対して上記入力具を接触または近接させる時間に関する閾値をさらに含み、上記指判別基準は、上記入力領域に対して上記指を接触または近接させる時間に関する閾値をさらに含んでいることを特徴とする。
 上記の構成において、入力領域に対して指または入力具が接触または近接した場合、直ちには正しい入力位置をあらわすデータが出力されないので、一般には若干のタイムラグを見込んでおく必要がある。
 このタイムラグは、接触面積または近接面積の大きなものほど大きくなり、入力位置の判定に時間を要する。さらに、入力領域に対して指が接触または近接する場合、入力位置が検出されたり、消滅したりするチャタリングが、入力具よりも発生し易い。
 したがって、例えば、入力領域に対して指を接触または近接させる時間が、指に関する時間の閾値を超えた場合に、入力領域に対して指を接触または近接させる第2の入力動作が確かに行われたと、判定することができる。
 また、上記タイムラグの小さい入力具についても、入力領域に対して入力具を接触または近接させる時間が、入力具に関する時間の閾値を超えた場合に、入力領域に対して入力具を接触または近接させる第2の入力動作が確かに行われたと、判定することができる。
 上記時間の閾値を前述の移動距離の閾値と組み合わせることによって、第2の入力動作が行われたかどうかの解析精度を一層向上させることができる。
 本発明に係る情報処理装置では、上記入力識別部が、上記入力領域に対する上記入力具または指の接触または近接を2点以上識別し、かつ、上記解析部が上記第1の入力動作を解析するとき、上記解析部は、隣り合う2点の位置の中点の位置が、上記入力領域の面に沿って移動した距離を、上記入力具判別基準または上記指判別基準との比較対象とする、あるいは比較対象として追加することを特徴とする。
 この場合、隣り合う2点の位置の中点の位置の動きは、隣り合う2点の位置の相対的な動きを示す。したがって、各点の位置の動きの解析に、相対的な動きの解析を加えることによって、より高度な入力動作の解析を行うこともできる。
 例えば、隣り合う2点が互いに逆方向に移動した場合でも、各点の移動速度が異なれば、中点の位置は、ある方向へ移動する。この場合、中点の位置の移動のみに着目して、2点が上記ある方向へ移動したと判定してもよいが、各点および中点を合わせた3点の移動に基づく情報処理が実行されるようにしてもよい。
 なお、ある着目した請求項に記載された構成と、その他の請求項に記載された構成との組み合わせが、その着目した請求項で引用された請求項に記載された構成との組み合わせのみに限られることはなく、本発明の目的を達成できる限り、その着目した請求項で引用されていない請求項に記載された構成との組み合わせが可能である。
 本発明は、操作者の指およびペンのような入力具を用いて、表示画面に対して情報処理に関する指令を入力することができるあらゆる情報処理装置に好適に利用することができる。
  1  入力領域
  2  指
  3  ペン
 10  情報処理装置
151  座標生成部(入力識別部)
152  ジェスチャー判定部(解析部)
154  メモリ(記憶部)
154E 記憶部
154F 記憶部
 L1  閾値(指判別基準)
 L2  閾値(入力具判別基準)

Claims (6)

  1.  表示画面内の同一の入力領域に対し、指および指より細い入力具を用いた入力動作を同時に受け付け可能であり、当該入力動作に応じた情報処理を行う情報処理装置において、
     上記入力領域に対して上記入力具が接触または近接したのか、指が接触または近接したのかを識別する入力識別部と、
     上記入力具を用いた入力動作を判別する入力具判別基準と、指を用いた入力動作を判別する指判別基準であって、上記入力具判別基準よりも判別の解析度が低い指判別基準とを格納した記憶部と、
     上記入力識別部が、上記入力領域に対して、少なくとも指の接触または近接を1点検出し、かつ、上記入力領域の面に沿って上記入力具または指を動かした第1の入力動作があったとき、上記記憶部から上記指判別基準を呼び出し、上記指判別基準を用いて上記入力具または指による上記第1の入力動作を解析する解析部と
    を備えたことを特徴とする情報処理装置。
  2.  上記入力領域に対して上記入力具または指を接触または近接させるか、あるいは、上記入力領域に対して上記入力具または指を離間させる第2の入力動作があったとき、上記解析部は、上記記憶部から、上記入力具については上記入力具判別基準を、上記指については上記指判別基準を、上記記憶部から個別に呼び出し、上記第2の入力動作を解析することを特徴とする請求項1に記載の情報処理装置。
  3.  上記入力具判別基準は、上記入力領域の面に沿った上記入力具の移動距離に関する閾値であり、上記指判別基準は、上記入力領域の面に沿った上記指の移動距離に関する閾値であることを特徴とする請求項1または2に記載の情報処理装置。
  4.  上記入力領域に対して上記入力具または指を接触または近接させる第2の入力動作について、上記入力具判別基準は、上記入力領域に対して上記入力具を接触または近接させる時間に関する閾値をさらに含み、上記指判別基準は、上記入力領域に対して上記指を接触または近接させる時間に関する閾値をさらに含んでいることを特徴とする請求項3に記載の情報処理装置。
  5.  上記入力識別部が、上記入力領域に対する上記入力具または指の接触または近接を2点以上識別し、かつ、上記解析部が上記第1の入力動作を解析するとき、上記解析部は、隣り合う2点の位置の中点の位置が、上記入力領域の面に沿って移動した距離を、上記入力具判別基準または上記指判別基準との比較対象とする、あるいは比較対象として追加することを特徴とする請求項3に記載の情報処理装置。
  6.  表示画面内の同一の入力領域に対し、指および指より細い入力具を用いた入力動作を同時に受け付け可能であり、当該入力動作に応じた情報処理を行う情報処理装置が実行する入力動作解析方法であって、
     上記情報処理装置の操作者が、上記入力領域に対して、少なくとも指を接触または近接させた状態で、上記入力領域の面に沿って上記入力具または指を動かす第1の入力動作を行ったとき、
     上記情報処理装置は、上記入力具を用いた入力動作を判別する入力具判別基準ではなく、指を用いた入力動作を判別する指判別基準であって、上記入力具判別基準よりも判別の解析度が低い指判別基準を用いて、上記入力具または指による上記第1の入力動作を解析すること
    を特徴とする入力動作解析方法。
PCT/JP2010/059269 2009-10-19 2010-06-01 入力動作解析方法および情報処理装置 Ceased WO2011048840A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/502,585 US20120212440A1 (en) 2009-10-19 2010-06-01 Input motion analysis method and information processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009240661 2009-10-19
JP2009-240661 2009-10-19

Publications (1)

Publication Number Publication Date
WO2011048840A1 true WO2011048840A1 (ja) 2011-04-28

Family

ID=43900082

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/059269 Ceased WO2011048840A1 (ja) 2009-10-19 2010-06-01 入力動作解析方法および情報処理装置

Country Status (2)

Country Link
US (1) US20120212440A1 (ja)
WO (1) WO2011048840A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114532A (ja) * 2011-11-30 2013-06-10 Fukuda Denshi Co Ltd タッチパネルの押下警告装置および押下警告プログラム
CN103197808A (zh) * 2012-01-09 2013-07-10 联想(北京)有限公司 响应电容式触摸屏输入的方法、装置及电子设备
CN103513822A (zh) * 2012-06-22 2014-01-15 三星电子株式会社 用于改进触摸辨识的方法及其电子装置
JP2014174600A (ja) * 2013-03-06 2014-09-22 Sharp Corp タッチパネル端末及びタッチパネル制御方法
JP2014199496A (ja) * 2013-03-29 2014-10-23 株式会社ジャパンディスプレイ 電子機器および電子機器の制御方法
JP2015084211A (ja) * 2013-09-17 2015-04-30 株式会社リコー 情報処理装置、情報処理システム、プログラム
JP2016033838A (ja) * 2015-12-11 2016-03-10 株式会社ジャパンディスプレイ 電子機器
US9594948B2 (en) 2013-08-30 2017-03-14 Panasonic Intellectual Property Management Co., Ltd. Makeup supporting device, makeup supporting method, and non-transitory computer-readable recording medium

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5648844B2 (ja) * 2010-12-21 2015-01-07 ソニー株式会社 画像表示制御装置および画像表示制御方法
US20120194457A1 (en) * 2011-01-28 2012-08-02 Bruce Cannon Identifiable Object and a System for Identifying an Object by an Electronic Device
US9105211B2 (en) * 2012-03-13 2015-08-11 Samsung Electronics Co., Ltd Portable projector and image projecting method thereof
KR102157270B1 (ko) * 2013-04-26 2020-10-23 삼성전자주식회사 펜을 이용하는 사용자 단말 장치 및 그 제어 방법
US10528249B2 (en) * 2014-05-23 2020-01-07 Samsung Electronics Co., Ltd. Method and device for reproducing partial handwritten content
US10403238B2 (en) * 2014-06-03 2019-09-03 Lenovo (Singapore) Pte. Ltd. Presentation of representations of input with contours having a width based on the size of the input
US20160154507A1 (en) * 2014-12-01 2016-06-02 Cypress Semiconductor Corporation Systems, methods, and devices for touch event and hover event detection
US10437461B2 (en) 2015-01-21 2019-10-08 Lenovo (Singapore) Pte. Ltd. Presentation of representation of handwriting input on display

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0468392A (ja) * 1990-07-09 1992-03-04 Toshiba Corp 画像表示装置
JPH08305875A (ja) * 1995-05-02 1996-11-22 Matsushita Electric Ind Co Ltd 座標情報操作装置
JPH09231006A (ja) * 1996-02-28 1997-09-05 Nec Home Electron Ltd 携帯情報処理装置
WO2008047552A1 (fr) * 2006-09-28 2008-04-24 Kyocera Corporation Terminal portable et procédé de commande de celui-ci
JP2008226048A (ja) * 2007-03-14 2008-09-25 Aisin Aw Co Ltd 入力支援装置、入力支援方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6897853B2 (en) * 2000-11-10 2005-05-24 Microsoft Corp. Highlevel active pen matrix
US7598949B2 (en) * 2004-10-22 2009-10-06 New York University Multi-touch sensing light emitting diode display and method for using the same
US7924272B2 (en) * 2006-11-27 2011-04-12 Microsoft Corporation Infrared sensor integrated in a touch panel
US8269727B2 (en) * 2007-01-03 2012-09-18 Apple Inc. Irregular input identification
US20100088595A1 (en) * 2008-10-03 2010-04-08 Chen-Hsiang Ho Method of Tracking Touch Inputs
US8836645B2 (en) * 2008-12-09 2014-09-16 Microsoft Corporation Touch input interpretation
US20100321339A1 (en) * 2009-06-18 2010-12-23 Nokia Corporation Diffractive optical touch input
US8514187B2 (en) * 2009-09-30 2013-08-20 Motorola Mobility Llc Methods and apparatus for distinguishing between touch system manipulators

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0468392A (ja) * 1990-07-09 1992-03-04 Toshiba Corp 画像表示装置
JPH08305875A (ja) * 1995-05-02 1996-11-22 Matsushita Electric Ind Co Ltd 座標情報操作装置
JPH09231006A (ja) * 1996-02-28 1997-09-05 Nec Home Electron Ltd 携帯情報処理装置
WO2008047552A1 (fr) * 2006-09-28 2008-04-24 Kyocera Corporation Terminal portable et procédé de commande de celui-ci
JP2008226048A (ja) * 2007-03-14 2008-09-25 Aisin Aw Co Ltd 入力支援装置、入力支援方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114532A (ja) * 2011-11-30 2013-06-10 Fukuda Denshi Co Ltd タッチパネルの押下警告装置および押下警告プログラム
CN103197808B (zh) * 2012-01-09 2016-08-17 联想(北京)有限公司 响应电容式触摸屏输入的方法、装置及电子设备
CN103197808A (zh) * 2012-01-09 2013-07-10 联想(北京)有限公司 响应电容式触摸屏输入的方法、装置及电子设备
CN103513822A (zh) * 2012-06-22 2014-01-15 三星电子株式会社 用于改进触摸辨识的方法及其电子装置
JP2014006904A (ja) * 2012-06-22 2014-01-16 Samsung Electronics Co Ltd タッチ情報認識方法及び電子装置
CN103513822B (zh) * 2012-06-22 2018-03-30 三星电子株式会社 用于改进触摸辨识的方法及其电子装置
US9588607B2 (en) 2012-06-22 2017-03-07 Samsung Electronics Co., Ltd. Method for improving touch recognition and electronic device thereof
JP2014174600A (ja) * 2013-03-06 2014-09-22 Sharp Corp タッチパネル端末及びタッチパネル制御方法
US9576549B2 (en) 2013-03-29 2017-02-21 Japan Display Inc. Electronic apparatus and method of controlling the same
US9823776B2 (en) 2013-03-29 2017-11-21 Japan Display Inc. Electronic apparatus and method of controlling the same
JP2014199496A (ja) * 2013-03-29 2014-10-23 株式会社ジャパンディスプレイ 電子機器および電子機器の制御方法
US9594948B2 (en) 2013-08-30 2017-03-14 Panasonic Intellectual Property Management Co., Ltd. Makeup supporting device, makeup supporting method, and non-transitory computer-readable recording medium
JP2015084211A (ja) * 2013-09-17 2015-04-30 株式会社リコー 情報処理装置、情報処理システム、プログラム
JP2016033838A (ja) * 2015-12-11 2016-03-10 株式会社ジャパンディスプレイ 電子機器

Also Published As

Publication number Publication date
US20120212440A1 (en) 2012-08-23

Similar Documents

Publication Publication Date Title
WO2011048840A1 (ja) 入力動作解析方法および情報処理装置
US11093086B2 (en) Method and apparatus for data entry input
CN101198925B (zh) 用于触敏输入设备的手势
KR102241618B1 (ko) 터치 입력의 압력 상태에 따라 동작하는 전자 장치 및 그 방법
JP4752887B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
US8493355B2 (en) Systems and methods for assessing locations of multiple touch inputs
TWI437484B (zh) 具方向性手勢輸入之轉譯
CN1661538B (zh) 用于具有触摸屏的终端的指示设备和使用该设备的方法
KR101119373B1 (ko) 하이브리드 터치패널의 작동방법
US20040021663A1 (en) Information processing method for designating an arbitrary point within a three-dimensional space
US20110320978A1 (en) Method and apparatus for touchscreen gesture recognition overlay
TWI396123B (zh) 光學式觸控系統及其運作方法
JP2008305087A (ja) 表示装置
US20140267029A1 (en) Method and system of enabling interaction between a user and an electronic device
CN103365595A (zh) 用于触敏输入设备的手势
CN101582008A (zh) 信息处理装置和信息处理装置的显示信息编辑方法
GB2470654A (en) Data input on a virtual device using a set of objects.
CN102119376A (zh) 触敏显示器的多维导航
US20110025718A1 (en) Information input device and information input method
US20120044143A1 (en) Optical imaging secondary input means
KR20150041135A (ko) 정전용량식 및 전자기식 듀얼 모드 터치스크린의 터치제어방법 및 핸드헬드 전자장치
CN106445369A (zh) 一种输入的方法和装置
CN101882029B (zh) 光学式触控系统及其操作方法
US7688313B2 (en) Touch-sense apparatus available for one-dimensional and two-dimensional modes and control method therefor
US20100245266A1 (en) Handwriting processing apparatus, computer program product, and method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10824692

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13502585

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 10824692

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP