WO2015083267A1 - Display control device, and display control method - Google Patents
Display control device, and display control method Download PDFInfo
- Publication number
- WO2015083267A1 WO2015083267A1 PCT/JP2013/082688 JP2013082688W WO2015083267A1 WO 2015083267 A1 WO2015083267 A1 WO 2015083267A1 JP 2013082688 W JP2013082688 W JP 2013082688W WO 2015083267 A1 WO2015083267 A1 WO 2015083267A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- display control
- icon
- image
- control device
- prescribed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/65—Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2380/00—Specific applications
- G09G2380/10—Automotive applications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/003—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/31—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
Definitions
- the present invention relates to a display control device and a display control method for controlling a display unit.
- split-view (also referred to as multi-view or dual-view (registered trademark)) type display devices are known as multi-image display devices capable of displaying different images on one screen depending on the viewing direction.
- a split view display device For example, it has been proposed to apply a split view display device and a touch panel disposed on the screen to an in-vehicle navigation device. According to such a navigation device, an image having different contents in the direction of the driver's seat and the direction of the passenger's seat is displayed on the screen, and an operation for the icon displayed in the image is received on the touch panel. Is possible.
- the position of the icon in the image displayed in the direction of the driver's seat and the position of the icon in the image displayed in the direction of the passenger's seat are determined by the split view display device. May overlap on the screen. In such a case, even if an operation on the icon is accepted on the touch panel, whether the operation is performed on the icon in the image displayed in the direction of the driver's seat is displayed in the direction of the passenger's seat There has been a problem that it is impossible to determine whether an operation has been performed on an icon in the displayed image.
- Patent Document 1 the positions of the icons in the image displayed in the direction of the driver's seat and the positions of the icons in the image displayed in the direction of the passenger's seat are not overlapped with each other. Techniques for arranging at different positions have been proposed.
- the present invention has been made in view of the above-described problems, and provides a technique capable of suppressing execution of the function of the application without knowing the user's operation. Objective.
- the display control device includes a first image that is visible in the first direction but not visible in the second direction, and a second image that is visible in the second direction but not visible in the first direction.
- a display control apparatus that controls a display unit that can display an image on one screen, and includes a control unit. The control unit is based on an output signal from the input unit that uniformly receives the first operation on the first image for executing the function of the application and the second operation on the second image for executing the function of the application.
- the first specified operation or gesture operation determined to be performed is changed to the first Judge as operation.
- the control unit determines that a pre-defined second prescribed operation different from the first prescribed operation or a gesture operation after the second prescribed operation has been performed based on an output signal from the input unit
- the second prescribed operation or the gesture operation determined to be performed is determined as the second operation.
- the first specified operation when it is determined that the first specified operation has been performed, the first specified operation is determined as the first operation, and when it is determined that the second specified operation has been performed, The second prescribed operation is determined as the second operation. Therefore, the user located in the first direction can execute his / her application without executing it without knowing the user's application located in the second direction by performing the first prescribed operation. Similarly, the user located in the second direction can execute his / her application without executing it without knowing the user's application located in the first direction by performing the second prescribed operation. .
- FIG. 1 is a block diagram illustrating an example of a configuration of a navigation device according to Embodiment 1.
- FIG. 3 is a cross-sectional view illustrating an example of a configuration of a split view display unit according to Embodiment 1.
- FIG. 6 is a diagram illustrating a display example of a split view display unit according to Embodiment 1.
- FIG. 3 is a cross-sectional view illustrating an example of a configuration of a split view display unit according to Embodiment 1.
- FIG. 6 is a diagram illustrating a display example of a split view display unit according to Embodiment 1.
- FIG. 3 is a flowchart showing an operation of the navigation device according to the first embodiment.
- FIG. 6 is a diagram illustrating a display example of a left image and a right image of the navigation device according to Embodiment 1.
- FIG. FIG. 6 is a diagram for explaining the operation of the navigation device according to the first embodiment.
- FIG. 6 is a diagram for explaining the operation of the navigation device according to the first embodiment.
- FIG. 10 is a diagram for explaining an operation of the navigation device according to the first modification of the first embodiment.
- FIG. 10 is a diagram for explaining an operation of the navigation device according to the first modification of the first embodiment.
- FIG. 10 is a diagram for explaining an operation of the navigation device according to the second modification of the first embodiment.
- FIG. 10 is a diagram for explaining an operation of the navigation device according to the second modification of the first embodiment.
- FIG. 10 is a diagram for explaining an operation of the navigation device according to the second modification of the first embodiment.
- FIG. 10 is a diagram for explaining an operation of the navigation device according to the second modification of the first embodiment.
- FIG. 12 is a diagram for explaining an operation of the navigation device according to the third modification of the first embodiment.
- FIG. 12 is a diagram for explaining an operation of the navigation device according to the third modification of the first embodiment.
- 10 is a flowchart showing the operation of the navigation device according to the second embodiment.
- FIG. 10 is a diagram for explaining an operation of the navigation device according to the second embodiment.
- FIG. 10 is a diagram for explaining an operation of the navigation device according to the second embodiment.
- FIG. 25 is a diagram for explaining the operation of the navigation device according to the first modification of the third embodiment.
- FIG. 25 is a diagram for explaining the operation of the navigation device according to the first modification of the third embodiment.
- FIG. 25 is a diagram for explaining the operation of the navigation device according to the first modification of the third embodiment.
- FIG. 11 is a diagram for illustrating a configuration of a navigation device according to a first modification of the third embodiment.
- FIG. 25 is a diagram for explaining the operation of the navigation device according to the first modification of the third embodiment.
- FIG. 25 is a diagram for explaining the operation of the navigation device according to the first modification of the third embodiment.
- FIG. 10 is a diagram for explaining an operation of the navigation device according to the fourth embodiment.
- FIG. 10 is a diagram for explaining an operation of the navigation device according to the fourth embodiment.
- FIG. 1 is a block diagram showing an example of the configuration of the navigation device.
- the vehicle equipped with the navigation device 1 shown in FIG. 1 will be described as “own vehicle”.
- the navigation device 1 includes a split view display unit 2, a touch panel 3, an operation input processing unit 9, an interface unit 10, a storage unit 11, a left image generation unit 12, a right image generation unit 13, and the like. And a control unit 14 that performs overall control.
- the interface unit 10 is connected between the wireless communication unit 4, the speaker 5, the DVD (Digital Versatile Disk) player 6, the air conditioner 7, the in-vehicle LAN (Local Area Network) 8, and the control unit 14.
- Various information and various signals are bidirectionally output between the wireless communication unit 4, the speaker 5, the DVD player 6, the air conditioner 7, the in-vehicle LAN 8, and the control unit 14 via the interface unit 10.
- the control unit 14 can control the control information by outputting the control information to the wireless communication unit 4, the speaker 5, the DVD player 6, the air conditioner 7, and the in-vehicle LAN 8.
- the split view display unit 2 is arranged, for example, on the dashboard of the own vehicle.
- the split view display unit 2 includes a first image that can be viewed in the direction of the left seat (first direction) but cannot be viewed from the direction of the right seat (hereinafter referred to as “left image”), and the direction of the right seat (first A second image (hereinafter referred to as “right image”) that can be viewed in two directions but not from the direction of the left seat can be displayed on one screen.
- the split view display unit 2 displays an icon in the left image (first icon) and an icon in the right image (second icon).
- the icon (first icon) in the left image is referred to as “left icon”
- the icon (second icon) in the right image is referred to as “right icon”.
- the left seat is the driver's seat and the right seat is the front passenger seat as an example, but the left seat is the passenger seat and the right seat is the driver seat. Is the same as left and right interchangeably.
- FIG. 2 is a schematic cross-sectional view of the display device.
- a display device 200 illustrated in FIG. 2 includes a display screen 201 and a parallax barrier 202.
- the first pixels 201a for displaying the left image and the second pixels 201b for displaying the right image are alternately arranged along the horizontal direction (left-right direction).
- the parallax barrier 202 allows the light of the first pixel 201a to pass in the direction of the left seat but blocks the light of the second pixel 201b, and allows the light of the second pixel 201b to pass in the direction of the right seat. Blocks the light of the first pixel 201a.
- the user 101a in the left seat cannot visually recognize the image for the right but can visually recognize the image for left
- the user 101b in the right seat cannot visually recognize the image for the left but visually recognizes the image for right. be able to.
- the parallax barrier 202 allows the light from the plurality of first pixels 201a to pass through in the direction of the left seat, so that the left icon is displayed in a visible manner.
- the parallax barrier 202 allows light from the plurality of second pixels 201b to pass in the direction of the right seat, the right icon is displayed so as to be visible.
- the outer edge of the left icon display area corresponds to the first pixel 201a located at the outer edge of the plurality of first pixels 201a used for displaying the left icon
- the right icon display area The outer edge portion corresponds to the second pixel 201b located at the outer edge portion among the plurality of second pixels 201b used for displaying the right icon.
- FIG. 3 is a diagram showing a display example of the split view display unit 2 of the space division method, and shows a left image and a right image of one frame.
- a display device of WVGA Wide
- VGA Wide
- the split-view display device of the space division type as shown in FIG. 3 corresponding to the display device of WVGA differs depending on the performance of the display device.
- the horizontal pixels in the display device of WVGA whose total number is horizontally arranged
- the first and second pixels 201a and 201b are double the number, that is, the total number of pixels is 1600 dots horizontally and 480 dots vertically.
- the split view display device is composed of a first pixel 201a having 13 dots horizontally and 4 dots vertically and the same number of second pixels 201b.
- the description will be made assuming that dots are displayed by the first pixel 201a or the second pixel 201b of one dot vertically.
- the 1-dot x-axis (left-right direction) shift of the icon as shown in FIG. 3 is not visible to the human eye from the normal viewing position, and appears to be displayed at the same position.
- the outer edge portion (outer frame) of the left icon is indicated by a broken line, and four first pixels 201 a arranged in the horizontal direction are used to display the left icon. It is shown.
- the outer edge portion (outer frame) of the right icon is indicated by a one-dot chain line, and four second pixels 201 b arranged in the horizontal direction are used to display the right icon. It is shown that.
- the space division display device 200 is applied to the split view display unit 2
- at least one of the plurality of (four in FIG. 3) first pixels 201a used for displaying the left icon is used.
- the second pixel 201b (second pixel 201b corresponding to the alternate long and short dash line in FIG. 3) located at the outer edge is sandwiched.
- at least a part of the display area of the left icon and at least a part of the display area of the right icon overlap each other on the screen of the split view display unit 2.
- first pixels 201a first pixels 201a corresponding to broken lines in FIG. 3 located on the outer edge of the first pixels 201a, at least a part of the display area of the left icon, It is noted that at least a part of the display area of the right icon overlaps with each other on the screen of the split view display unit 2.
- FIG. 4 is a schematic cross-sectional view of the display device.
- the display device 250 illustrated in FIG. 4 includes a display screen 251 and a parallax barrier 252.
- the display screen 251 displays the left image by the pixel 251c in the first period, and displays the right image by the pixel 251c in the second period.
- the parallax barrier 252 allows the light of the pixel 251c to pass in the direction of the left seat in the first period, but blocks the light of the pixel 251c in the direction of the right seat, and in the direction of the right seat in the second period.
- the light of the pixel 251c is allowed to pass but the light of the pixel 251c is blocked with respect to the direction of the left seat.
- FIG. 4 shows the state of the first period.
- the left seat user 101a cannot visually recognize the right image but can visually recognize the left image
- the right seat user 101b cannot visually recognize the left image but visually recognize the right image. can do.
- the eyes of the user 101b in the right seat do not receive the light of the pixel 251c from the split view display unit 2 in the first period.
- the first period is set to be very short
- the right seat user 101b does not recognize that the eyes are not receiving light in the first period.
- the user 101b in the right seat recognizes that the image of the second period is also displayed in the first period.
- the fact that the eyes are not receiving light in the second period is not recognized by the user 101a in the left seat, and the image of the first period is also displayed in the second period due to the afterimage effect of the light received in the first period. Is recognized by the user 101a in the left seat.
- the parallax barrier 252 allows the light from the plurality of pixels 251c to pass in the direction of the left seat in the first period so that the left icon can be visually recognized.
- the right icon is displayed so as to be visible by allowing light from the plurality of pixels 251c to pass in the direction of the right seat in the second period. Therefore, the outer edge of the left icon display area corresponds to the pixel 251c located at the outer edge of the plurality of pixels 251c used for displaying the left icon, and the outer edge of the right icon display area is This corresponds to the pixel 251c located at the outer edge among the plurality of pixels 251c used for displaying the right icon.
- FIGS. 5A and 5 (b) are diagrams showing a display example of the time-division split view display unit 2, and a left image and a right image of one frame are shown.
- a WVGA display device has pixels of 800 dots on the horizontal (x axis) and 480 dots on the vertical (y axis) as a whole.
- the time-division split-view display device corresponding to the WVGA display device as shown in FIGS. 5A and 5B differs depending on the performance of the display device, for example, 800 dots horizontally and vertically.
- the pixel 251c is composed of 480 dots.
- the split view display device is configured with pixels 251c having 13 dots horizontally and 4 dots vertically, and icons are displayed by pixels 251c having 3 dots horizontally and 1 dot vertically. It will be described as a thing.
- the outer edge (outer frame) of the left icon displayed in the first period is indicated by a broken line, and three pixels arranged in the horizontal direction to display the left icon. It is shown that 251c is used.
- the outer edge portion (outer frame) of the right icon displayed in the second period is indicated by a broken line, and 3 arranged in the horizontal direction to display the right icon. It is shown that two pixels 251c are used.
- the time-division display device 250 in the configuration in which the time-division display device 250 is applied to the split view display unit 2, it is used for displaying the left icon in the first period and used for displaying the right icon in the second period.
- the pixel 251c is present, at least a part of the display area for the left icon and at least a part of the display area for the right icon overlap each other on the screen of the split view display unit 2.
- the display area of the left icon and the right icon It is noted that the display area is separated on the screen of the split view display unit 2.
- the split view display unit 2 may be applied with a display device that combines a space division method and a time division method. For example, at least a part of the pixels used for displaying the left icon in the first period is sandwiched between pixels located on the outer edge among the plurality of pixels used for displaying the right icon in the second period. Or at least some of the pixels used for displaying the right icon in the second period are pixels located at the outer edge of the plurality of pixels used for displaying the left icon in the first period. When sandwiched, at least a part of the display area for the left icon and at least a part of the display area for the right icon overlap each other on the screen of the split view display unit 2.
- the display of the left icon is displayed. It is noted that the area and the display area for the right icon are separated on the screen of the split view display unit 2.
- pixel scanning is performed in a short period (for example, 1/30 [second]) in both the space division method and the time division method.
- the touch panel 3 (input unit) includes a first operation (hereinafter referred to as “left operation”) for a left image for executing an application function and a second operation (hereinafter referred to as “left operation” for executing an application function). (Referred to as “right operation”).
- the touch panel 3 periodically detects a two-dimensional position on the detection surface for an indicator such as one or more fingers that touch the detection surface. Then, the touch panel 3 outputs a signal indicating the position of the indicator to the operation input processing unit 9.
- the touch panel 3 is not limited to the one that detects the two-dimensional position of the indicator.
- the position of the point (two-dimensional position) on the detection surface that has the shortest distance from the indicator, and the indication A three-dimensional position including a distance (another one-dimensional position) between the body and the detection surface (the point) may be detected as the position of the indicator.
- the wireless communication unit 4 communicates with the server via, for example, DSRC (Dedicate Short Range Communication) and a mobile phone.
- the wireless communication unit 4 outputs information received from the server (for example, downloaded information) to the control unit 14 or transmits information output from the control unit 14 to the server.
- the wireless communication unit 4 receives radio broadcasts and television broadcasts and outputs information acquired from the broadcasts to the control unit 14.
- Speaker 5 (audio output unit) outputs audio based on the audio signal output from the control unit 14.
- the DVD player 6 reproduces AV (Audio-video) information recorded on the DVD, and outputs the AV information to the control unit 14.
- AV Audio-video
- the air conditioner 7 adjusts the temperature and humidity in the vehicle interior under the control of the control unit 14.
- the in-vehicle LAN 8 communicates with the own vehicle ECU (Electronic Control Unit), GPS (Global Positioning System) device, and the like.
- the in-vehicle LAN 8 outputs the speed of the own vehicle acquired from the ECU and the current position (for example, latitude and longitude) of the own vehicle acquired from the GPS device to the control unit 14.
- the operation input processing unit 9 determines whether or not a gesture operation has been performed on the touch panel 3 based on an output signal of the touch panel 3 and determines the type of the gesture operation that has been performed.
- the gesture operation includes a touch operation in which the detection surface of the touch panel 3 is touched by an indicator, and a gesture operation that draws a predetermined trajectory on the detection surface of the touch panel 3 by the indicator (hereinafter referred to as “orbit gesture operation”).
- the orbital gesture operation may include a gesture operation in which two points of the two-point touch are continuously used after the two-point touch, or one point out of the two points of the two-point touch is left after the two-point touch. It may include a gesture operation that uses one of the points in succession.
- the operation input processing unit 9 determines whether a touch operation has been performed as a gesture operation based on the output signal of the touch panel 3.
- the operation input processing unit 9 also determines the number of points where the detection surface of the touch panel 3 is touched (the number of indicators touching the detection surface). Therefore, the operation input processing unit 9 determines whether or not a one-point touch operation for touching the detection surface of the touch panel 3 at one point with the indicator is performed, and two points for touching the detection surface of the touch panel 3 with the indicator at two points. It is possible to determine whether or not a touch operation has been performed.
- the two-point touch operation is described as an operation in which the detection surface of the touch panel 3 is touched at two points at the same time by two indicators.
- the present invention is not limited to this, and for example, the first embodiment The operation described in the second modification may be used.
- the operation input processing unit 9 determines whether or not the orbital gesture operation is performed as the gesture operation based on the output signal of the touch panel 3.
- the orbital gesture operation is, for example, a flick operation in which the indicator rubs the detection surface in a time shorter than a predetermined time, a drag operation in which the indicator rubs the detection surface in a time longer than a predetermined time, And pinching operation etc. which change the distance between them in the state which two indicators contacted the detection surface are included.
- the drag operation is not limited to the above-described operation, and may be applied as an operation of rubbing the detection surface while the indicator is touching the touch panel.
- the flick operation is not limited to the above-described operation, and may be applied as an operation of touching the detection surface from a state where the indicator touches the touch panel.
- a gesture operation is applied to a first prescribed operation and a second prescribed operation described later.
- the operation input processing unit 9 is configured to determine whether or not a gesture operation has been performed for each type of gesture operation. Therefore, the first specified operation and the second specified operation are performed. It is possible to determine whether or not it has been done.
- icon position information indicating the position of the icon displayed on the split view display unit 2 is input from the control unit 14 to the operation input processing unit 9. Based on the icon position information and the output signal of the touch panel 3 (signal indicating the position of the indicator), the operation input processing unit 9 applies the icon displayed on the touch panel 3 and eventually the split view display unit 2. To determine whether a touch operation or a gesture operation has been performed.
- the operation input processing unit 9 determines that the position of the indicator indicated by the output signal of the touch panel 3 overlaps the display area of the left icon (the indicator is located inside the left icon), or If it is determined that the display area changes while overlapping the display area (the position of the indicator changes while being positioned inside the display area), it is determined that a gesture operation has been performed on the left icon.
- the operation input processing unit 9 performs the same determination on the right icon as the determination on the left icon.
- the operation input processing unit 9 outputs the determination result of the above gesture operation and the like to the control unit 14.
- the determination process may be performed by the control unit 14.
- the operation input processing unit 9 is provided separately from the touch panel 3 and the control unit 14, but is not limited thereto, and may be provided in the touch panel 3 as a function of the touch panel 3.
- the control unit 14 may be provided as a function of the control unit 14.
- the storage unit 11 includes, for example, a hard disk drive, a DVD and its drive device, a Blu-ray disc and its drive device, or a storage device such as a semiconductor memory.
- the storage unit 11 stores information used for the control unit 14 in addition to a program necessary for the control unit 14 to operate.
- the information used for the control unit 14 includes, for example, an application (application software), an image in which icons operated when executing the function of the application, map information, and the like.
- an image for example, an image corresponding to FIGS. 7A and 7B
- the “icon arrangement image” includes an image in which an icon is displayed on the map information.
- the left image generation unit 12 generates a display signal for displaying the left image based on the display information output from the control unit 14, and outputs the display signal to the split view display unit 2.
- the split view display unit 2 displays the left image based on the display signal.
- the right image generation unit 13 generates a display signal for displaying the right image based on the display information output from the control unit 14, and outputs the display signal to the split view display unit 2.
- the split view display unit 2 displays the right image based on the display signal.
- the display signal generated by the left image generation unit 12 includes, for example, (1, 1), (2, 1),..., (800, 1), (1) for each of a plurality of pixels used in the left image. , 2),... (800, 2),..., (800, 480).
- the display signal generated by the right image generation unit 13 is also referred to as (1, 1), (1, 2),..., (800, 480) for each of a plurality of pixels used in the right image. Contains pixel numbers assigned in order. Therefore, when the pixel number of at least one pixel used for displaying the left icon matches the pixel number of at least one pixel used for displaying the right icon, at least the display area of the left icon is displayed.
- (x, y) indicates a pixel position corresponding to an xy coordinate in which the upper left on the screen is (1, 1), the x axis is positive in the right direction, and the y axis is positive in the downward direction.
- the control unit 14 includes, for example, a CPU (Central Processing Unit), and when the CPU executes a program stored in the storage unit 11, the navigation device 1 executes various applications, and thus The speaker 5 and the like can be controlled according to the executed application.
- a CPU Central Processing Unit
- the control unit 14 determines a route from the current position to the destination based on the current position of the host vehicle, the destination based on the output signal of the touch panel 3, and the map information. Search is performed, and display information for displaying guidance along the route and a voice signal for outputting the guidance by voice are generated. As a result, the above guidance is displayed as a left image or a right image, and the above guidance voice is output from the speaker 5.
- the control unit 14 when a DVD playback application is executed, the control unit 14 generates display information for displaying AV information from the DVD player 6 and an audio signal for outputting the AV information as audio. .
- the video stored in the DVD is displayed as the left image or the right image, and the audio stored in the DVD is output from the speaker 5.
- control unit 14 acquires one icon arrangement image corresponding to one or more applications that can be executed on the left image side (executable from the left image side) from the storage unit 11, and the acquired icon arrangement image Is displayed as a left image.
- an icon that is an operation target for executing the function of the application on the left image side is displayed on the split view display unit (left image).
- an icon arrangement image (for example, an image corresponding to FIG. 7A) that can be displayed as the left image is referred to as a “left icon arrangement image”.
- the icon in the left icon arrangement image displayed as the left image corresponds to the above left icon.
- the control unit 14 acquires, from the storage unit 11, one icon arrangement image corresponding to one or more applications that can be executed on the right image side (executable from the right image side).
- the icon arrangement image is displayed as the right image.
- an icon that is an operation target for executing the function of the application on the right image side is displayed on the split view display unit 2 (right image).
- an icon arrangement image that can be displayed as a right image (for example, an image corresponding to FIG. 7B) will be referred to as a “right icon arrangement image”.
- the icon in the right icon arrangement image displayed as the right image corresponds to the above-described right icon.
- the control unit 14 changes the first specified operation determined to be performed as the above left operation. It is determined as On the other hand, if the operation input processing unit 9 determines that a second prescribed operation that is different from the first prescribed operation has been performed, the control unit 14 determines that the second prescribed operation that has been performed is performed. Is determined as the above-described right operation.
- the first prescribed operation is a first touch operation in which the touch panel 3 is touched with a predetermined first number of points with an indicator
- the second prescribed operation is the touch panel 3 with an indicator. Is a second touch operation of touching at a predetermined second number of points different from the first number.
- the first prescribed operation is a one-point touch operation (first touch operation having a first number of 1)
- the second prescribed operation is a two-point touch operation (second number).
- a second touch operation in which there are two) will be described.
- the first prescribed operation and the second prescribed operation are described as operations on icons, but even if they are operations on display areas other than icons (for example, gesture areas where trajectory gesture operations are performed). Good.
- FIG. 6 is a flowchart showing the operation of the navigation device 1 according to the first embodiment. The operation shown in FIG. 6 is performed by the CPU executing a program stored in the storage unit 11. Hereinafter, the operation of the navigation device 1 will be described with reference to FIG.
- step S1 when an operation for executing the initial operation is performed, the control unit 14 executes the initial operation.
- the control unit 14 acquires from the storage unit 11 an application to be initially executed on the left image side and the right image side, and executes the application.
- step S2 the control unit 14 acquires the left icon arrangement image corresponding to the application executed on the left image side from the storage unit 11, and also corresponds to the application executed on the right image side.
- a right icon arrangement image is acquired from the storage unit 11.
- step S3 the control unit 14 displays the acquired left icon arrangement image as the left image of the split view display unit 2, and displays the acquired right icon arrangement image as the right image of the split view display unit 2.
- FIG. 7 (a) and 7 (b) are diagrams showing display examples of the left image and the right image in step S3 of the navigation device 1 (split view display unit 2) according to the first embodiment.
- left icons L1, L2, L3, L4, and L5 (hereinafter, these icons may be collectively referred to as “left icons L1 to L5”) are displayed.
- right icons R1, R2, R3, R4, and R5 (hereinafter, these icons may be collectively referred to as “right icons R1 to R5”) are displayed. Yes.
- left icons L1 to L5 and right icons R1 to R5 are arranged on the screen of the split view display unit 2 so as to overlap each other.
- the control unit 14 displays at least part of the display area of the left icons L1 to L5 and at least part of the display area of the right icons R1 to R5 on the screen of the split view display part 2.
- step S4 of FIG. 6 the operation input processing unit 9 determines whether or not a touch operation has been performed. If it is determined that the touch operation has been performed, the process proceeds to step S5. If it is determined that the touch operation has not been performed, step S4 is performed again. When step S4 is performed again, if the map is displayed as the left image or the right image and the position of the vehicle has changed, the control unit 14 responds to the change. You may scroll the map.
- step S5 the operation input processing unit 9 determines whether or not the touch operation in step S4 has been performed on the left icon or the right icon. This determination result is used in step S8 or step S11.
- step S6 the operation input processing unit 9 determines whether the number of points in the touch operation in step S4 is one, two, or none of them.
- step S7 When it is determined that there is one (when it is determined that it is a one-point touch operation), the process proceeds to step S7. When it is determined that there is two (when it is determined that it is a two-point touch operation) ) Proceeds to step S10, and if it is determined that none of these has occurred, the process returns to step S4.
- step S4 if the map is displayed as a left image or a right image and the position of the vehicle has changed, the control unit 14 responds to the change with the map. May be scrolled. This is the same when returning from step S6 to step S4.
- step S7 the control unit 14 determines the touch operation in step S4, that is, the one-point touch operation, as the left operation.
- step S8 the control unit 14 determines whether or not the one-point touch operation determined to be the left operation has been performed on the left icon based on the determination result of step S5. If it is determined that the one-point touch operation has been performed on the left icon, the process proceeds to step S9, and if not, the process returns to step S4.
- step S9 the control unit 14 executes a function previously associated with the left icon for which the one-point touch operation has been performed. Thereafter, the process returns to step S4. If an icon arrangement image is associated with the left icon and stored in the storage unit 11 in advance, the process returns from step S9 to step S3, and the icon arrangement image is displayed on the split view display unit 2. May be displayed.
- step S10 the control unit 14 determines the touch operation in step S4, that is, the two-point touch operation, as the right operation.
- step S11 the control unit 14 determines whether or not the two-point touch operation determined to be the right operation has been performed on the right icon based on the determination result of step S5. If it is determined that the two-point touch operation has been performed on the right icon, the process proceeds to step S12. If not, the process returns to step S4.
- step S12 the control unit 14 executes a function previously associated with the right icon on which the two-point touch operation has been performed. Thereafter, the process returns to step S4.
- the process returns from step S12 to step S3, and the icon arrangement image is displayed in the split view display unit 2. May be displayed.
- FIGS. 8A and 8B An example of the operation of FIG. 6 described above will be described.
- the control unit 14 determines the one-point touch operation as a left operation.
- the control unit 14 executes the function associated with the left icon L1 without executing the function associated with the right icon R1.
- FIGS. 9A and 9B it is assumed that a two-point touch operation with the finger 21 is performed on the left icon L1 and the right icon R1.
- the control unit 14 determines the two-point touch operation as a right operation.
- the control unit 14 executes the function associated with the right icon R1 without executing the function associated with the left icon L1.
- the first prescribed operation here, one-point touch operation
- the second specified operation two-point touch operation in this case
- the user of the left seat can execute the application of the user of the left seat without executing the application without knowing the application of the user of the right seat by performing the first prescribed operation.
- the user of the right seat can execute the application of the user of the right seat without executing the application without knowing the application of the user of the left seat by performing the second prescribed operation.
- the left icon and the right icon can be arranged on the screen of the split view display unit 2 so that the area for arranging the icons is insufficient in the step of generating the icon arrangement image. It is possible to suppress this, and it is possible to reduce restrictions imposed on icon arrangement.
- the user of the left seat that is, the driver only needs to perform a one-point touch operation that is simpler than the two-point touch operation, thereby suppressing the operational burden on the driver. can do.
- the driver can concentrate on driving.
- both fingers touching the two points touch the right icon R1, but one finger touching the two points touches the right icon R1.
- the right seat application may be executed on the assumption that the icon R1 is operated. Further, when both the two touched fingers touch the right icon R1, it may be determined that the icon R1 has been operated.
- the operation of the touch may be invalidated to notify that it is invalid.
- the two-point touch often uses the middle finger and the index finger, and the middle finger can be pressed (touched) more strongly than the index finger, so the touch operation with the middle finger may be given priority over the touch operation with the index finger.
- touching the upper point (touch point with a large y-axis coordinate of the touch panel 3) or the left point (touch point with a small x-axis coordinate of the touch panel 3) of the two touch points with the middle finger The touch point may be validated as a point.
- the index finger may be prioritized depending on the use situation, which touch point of the two touch points is prioritized may be set by the user.
- the first specified operation when it is determined that the first specified operation has been performed, the first specified operation is determined as the left operation.
- the present invention is not limited to this. Instead of determining the first prescribed operation as the left operation, the gesture operation (touch operation or orbital gesture operation) after the first prescribed operation may be determined as the left operation. Good. That is, when the operation input processing unit 9 determines that the gesture operation after the first prescribed operation has been performed, the control unit 14 determines the gesture operation that has been determined to be performed as a left operation. Also good.
- the drag operation after the one-point touch operation with the finger 21 is a point on the left image. It is assumed that the operation is performed on Dl and the point Dr of the right image (the arrow 21A in the figure indicates the trajectory of the finger 21 in the drag operation).
- the control unit 14 may determine the drag operation as a left operation for the point D1 of the left image.
- a flick operation or the like is applied instead of the drag operation as the gesture operation after the first prescribed operation. This operation is applied to, for example, a map scroll function for performing operations outside icons.
- the control unit 14 may determine the pinch operation as a left operation for a point of the left image.
- the second specified operation when it is determined that the second specified operation has been performed, the second specified operation is determined as the right operation.
- the present invention is not limited to this. Instead of determining the second specified operation as a right operation, the gesture operation (touch operation or orbital gesture operation) after the second specified operation is determined as a right operation. May be. That is, when the operation input processing unit 9 determines that the gesture operation after the second prescribed operation has been performed, the control unit 14 determines the gesture operation determined to have been performed as the right operation. May be.
- the drag operation after the two-point touch operation with the finger 21 is a point on the left image. It is assumed that the operation is performed on Dl and the point Dr of the right image (the arrow 21A in the figure indicates the trajectory of the finger 21 in the drag operation). In this case, the control unit 14 may determine the drag operation as a right operation for the point Dr of the right image. The same applies when a flick operation or the like is applied instead of the drag operation as the gesture operation after the second prescribed operation.
- the control unit 14 may determine the pinch operation as a right operation with respect to a point of the right image.
- the operation input processing unit 9 is configured to determine that a two-point touch operation has been performed when an operation of simultaneously touching the detection surface of the touch panel 3 with two points using two indicators is performed. explained.
- the present invention is not limited to this, and the configuration described in the following first or second example may be used.
- the configuration of the first example will be described. For example, as shown in FIG. 12, while touching a specific point (special button 22) on the touch panel 3 with the finger 21, another point on the touch panel 3 is touched with the finger 21 as shown in FIG. It is assumed that a series of operations for touching (left button L3) is performed. In this case, the operation input processing unit 9 may determine that a two-point touch operation has been performed on another one point (the left button L3). Even in such a configuration, the same effect as in the first embodiment can be obtained.
- FIG. 12 For example, as shown in FIG. 12, within a predetermined time (for example, within 2 to 5 seconds) after touching a specific point (special button 22) on the touch panel 3 with the finger 21, FIG. As shown, it is assumed that a series of operations for touching another point (left button L3) on the touch panel with the finger 21 is performed. In this case, the operation input processing unit 9 may determine that a two-point touch operation has been performed on another one point (the left button L3). Even in such a configuration, the same effect as in the first embodiment can be obtained.
- a predetermined time for example, within 2 to 5 seconds
- the operation input processing unit 9 may determine that a two-point touch operation has been performed on another one point (the left button L3).
- buttons 22 shown in FIGS. 12 to 14 are arranged so as to be separated from the left icon display area and the right icon display area on the screen of the split view display unit 2. It can suppress that operation with respect to 22 is determined as operation with respect to the icon for left, and the icon for right.
- any one point on the touch panel 3 may be used instead of using one specific point (special button 22) on the touch panel 3.
- the operation input processing unit 9 may determine that a two-point touch operation (second prescribed operation) for the first one point or the next one point has been performed.
- the operation input processing unit 9 may determine that a one-point touch operation (first specified operation) for the one point has been performed. Even when configured as described above, the same effects as those of the first embodiment can be obtained.
- an arbitrary point (first one point) on the touch panel 3 is touched with an indicator within a predetermined time (for example, 2 to 5). It is assumed that a series of operations for touching another point (next point) on the touch panel with the indicator is performed within a second). In this case, the operation input processing unit 9 may determine that a two-point touch operation (second prescribed operation) for the first one point or the next one point has been performed.
- the operation input processing unit 9 may determine that a one-point touch operation (first specified operation) for the one point has been performed. Even when configured as described above, the same effects as those of the first embodiment can be obtained.
- the number of points touched by the touch panel 3 is different between the touch operation applied to the first prescribed operation and the touch operation applied to the second prescribed operation, but the number of these points is different. It may be the same.
- the first specified operation may be a two-point touch operation in which the touch panel 3 is touched simultaneously by two points separated by a distance smaller than a predetermined distance D by the indicator. It may be a touch operation in which the touch panel 3 is touched simultaneously by two points separated by a distance larger than a predetermined distance D by an indicator. Note that, for example, the maximum distance between the tip of the index finger of one hand and the tip of the middle finger is applied to the predetermined distance D here.
- the control unit 14 uses two one-hand distances D1 that are smaller than the distance D. When it is determined that a point touch operation has been performed, the two-point touch operation can be determined as a left operation. On the other hand, as shown in FIGS. 16A and 16B, the control unit 14 determines that a two-point touch operation with both hands in which the distance D2 between the two points is equal to or greater than the distance D is performed. Can determine the two-point touch operation as a right operation.
- the same effects as those of the first embodiment can be obtained.
- the driver since the driver only needs to perform a two-point touch operation with one hand, which is simpler than a two-point touch operation with both hands, for example, the driver's operational burden can be suppressed. Thus, the driver can concentrate on driving.
- the first prescribed operation and the second prescribed operation are the first touch operation and the second touch operation, respectively.
- the first prescribed operation is a first touch operation
- the second prescribed operation is a first gesture operation that draws a predetermined first trajectory on the touch panel 3 by an indicator (Hereinafter referred to as “first trajectory gesture operation”).
- first trajectory gesture operation is a one-point touch operation (first touch operation having a first number of 1)
- the first orbit gesture operation is included in the flick operation (orbit gesture operation). Will be described.
- FIG. 17 is a flowchart showing the operation of the navigation device 1 according to the second embodiment. Steps S1 to S3 in the flowchart shown in FIG. 17 are the same as steps S1 to S3 in the flowchart shown in FIG.
- step S14 after step S3, the operation input processing unit 9 determines whether or not an operation on the touch panel 3 has been performed. If it is determined that the operation has been performed, the process proceeds to step S15. If it is determined that the operation has not been performed, step S14 is performed again. In addition, when performing step S14 again, the control part 14 may scroll a map similarly to when performing above-mentioned step S4 again.
- step S15 the operation input processing unit 9 determines whether or not the operation in step S14 has been performed on the left icon or the right icon. This determination result is used in step S18 or step S20.
- step S16 the operation input processing unit 9 determines whether the operation in step S14 was a one-point touch operation, a flick operation, or none of these.
- step S17 If it is determined that the operation is a one-point touch operation, the process proceeds to step S17. If it is determined that the operation is a flick operation, the process proceeds to step S20. If it is determined that none of these operations is performed, the process returns to step S14. . When returning to step S14, the control unit 14 may scroll the map in the same manner as when returning to step S4 described above. This is the same when returning from step S16 to step S14.
- step S17 the control unit 14 determines the operation of step S14, that is, the one-point touch operation as the left operation.
- step S18 the control unit 14 determines whether or not the one-point touch operation determined to be the left operation has been performed on the left icon based on the determination result of step S15. If it is determined that the one-point touch operation has been performed on the left icon, the process proceeds to step S19. If not, the process returns to step S14.
- step S19 the control unit 14 executes a function previously associated with the left icon for which the one-point touch operation has been performed. Thereafter, the process returns to step S14. If an icon arrangement image is associated with the left icon and stored in the storage unit 11 in advance, the process returns from step S19 to step S3, and the icon arrangement image is displayed on the split view display unit 2. May be displayed.
- step S20 the control unit 14 determines the operation of step S14, that is, the flick operation as a right operation.
- step S21 the control unit 14 determines whether or not the flick operation determined to be the right operation has been performed on the right icon based on the determination result of step S15. If it is determined that the flick operation has been performed on the right icon, the process proceeds to step S22; otherwise, the process returns to step S14.
- step S22 the control unit 14 executes a function previously associated with the right icon on which the flick operation has been performed. Thereafter, the process returns to step S14. If an icon arrangement image is associated with the right icon and stored in the storage unit 11 in advance, the process returns from step S22 to step S3, and the icon arrangement image is displayed in the split view display unit 2. May be displayed.
- FIG. 17 An example of the operation of FIG. 17 described above will be described.
- the control unit 14 determines the one-point touch operation as a left operation.
- the control unit 14 executes the function associated with the left icon L1 without executing the function associated with the right icon R1.
- the control unit 14 determines the flick operation as a right operation. As a result, the control unit 14 executes the function associated with the right icon R1 without executing the function associated with the left icon L1.
- the driver since the driver only needs to perform the first touch operation that is simpler than the first orbital gesture operation, the operational burden on the driver can be suppressed. Thus, the driver can concentrate on driving.
- the first prescribed operation is the first orbital gesture operation described in the second embodiment, and the second prescribed operation is different from the first orbital gesture operation that draws a predetermined second orbit.
- Second gesture operation hereinafter referred to as “second orbit gesture operation”.
- the difference between the first trajectory gesture operation and the second trajectory gesture operation means that at least one of the first trajectory and the second trajectory is different and the type of the trajectory gesture operation is different.
- the first trajectory gesture operation is a flick operation (one kind of operation included in the trajectory gesture operation)
- the second trajectory gesture operation is one of the operations included in the trajectory gesture operation.
- the case where the types of orbital gesture operations are different will be described.
- the difference between the first track and the second track will be described in Modification 1 of Embodiment 3.
- the control unit 14 determines the flick operation as the left operation. As a result, the control unit 14 executes the function associated with the left icon L1 without executing the function associated with the right icon R1.
- the control unit 14 determines the drag operation as the right operation. As a result, the control unit 14 executes the function associated with the right icon R1 without executing the function associated with the left icon L1.
- a touch panel that can discriminate between a light touch operation that touches the touch panel and a push operation that presses the touch panel with a predetermined strength may be applied to the touch panel 3.
- the operation input processing unit 9 determines that a light touch operation on the icon has been performed based on the output signal from the touch panel 3, the operation input processing unit 9 determines that the touch operation is an operation from the driver's seat side.
- the pressing operation may be determined to be an operation from the passenger seat side.
- the shape of the first trajectory of the first trajectory gesture operation is different from the shape of the second trajectory of the second trajectory gesture operation.
- the first trajectory is not limited to a complete linear shape, and may be any shape included in a linear region having a predetermined width (for example, a substantially linear shape having a relatively small zigzag). Good.
- FIG. 21A and FIG. 21B it is assumed that a V-shaped drag operation with the finger 21 is performed on the left icon L1 and the right icon R1 (in the drawing).
- the arrow 21D indicates the trajectory of the finger 21 in the drag operation).
- the control unit 14 determines the drag operation as a right operation.
- the control unit 14 executes the function associated with the right icon R1 without executing the function associated with the left icon L1.
- the first trajectory of the first trajectory gesture operation and the second trajectory of the second trajectory gesture operation are both linear, and the extending directions of the first trajectory and the second trajectory are Is different.
- the first trajectory and the second trajectory are not limited to a complete linear shape, but are included in a linear region having a predetermined width (for example, a substantially linear shape having a relatively small zigzag). And so on.
- the first tilt angle ⁇ 1 in the counterclockwise direction in the extending direction of the first track with respect to the horizontal direction of the touch panel 3 is greater than 0 degrees and 90 degrees. It is assumed that it is defined within a predetermined range ( ⁇ 1S to ⁇ 1L) smaller than the degree.
- ⁇ 1S to ⁇ 1L a predetermined range
- the horizontal X-axis direction corresponds to the inclination angle ⁇ of 0 degree and is the vertical direction.
- the Y-axis direction corresponds to an inclination angle ⁇ of 90 degrees
- the ⁇ X-axis direction corresponds to an inclination angle ⁇ of 180 degrees
- the ⁇ Y-axis direction corresponds to an inclination angle ⁇ of 270 degrees.
- the counterclockwise second tilt angle ⁇ 2 in the extending direction of the second track with respect to the horizontal direction of the touch panel 3 is defined within a predetermined range ( ⁇ 2S to ⁇ 2L) that is greater than 90 degrees and smaller than 180 degrees.
- ⁇ 1S and ⁇ 1L may be other than 10 degrees and 80 degrees as long as they are angles larger than 0 degrees and smaller than 90 degrees.
- ⁇ 2S and ⁇ 2L may be other than 100 degrees and 170 degrees as long as they are angles larger than 90 degrees and smaller than 180 degrees.
- a linear drag operation with the finger 21 is performed on the left icon L1 and the right icon R1, and the drag operation is performed. It is assumed that the inclination angle ⁇ of the straight line is within ⁇ 1S to ⁇ 1L (the arrow 21E in the figure indicates the trajectory of the finger 21 in the drag operation).
- the control unit 14 determines the drag operation as a left operation. As a result, the control unit 14 executes the function associated with the left icon L1 without executing the function associated with the right icon R1.
- FIGS. 24A and 24B a linear drag operation with the finger 21 is performed on the left icon L1 and the right icon R1, and the straight line related to the drag operation is changed. It is assumed that the inclination angle ⁇ exists within ⁇ 2S to ⁇ 2L (the arrow 21F in the figure indicates the trajectory of the finger 21 in the drag operation). In this case, the control unit 14 determines the drag operation as a right operation. As a result, the control unit 14 executes the function associated with the right icon R1 without executing the function associated with the left icon L1.
- a case where the user of the left seat performs a linear drag operation on the touch panel 3 disposed on the right side of the user is considered.
- the user of the left seat rotates the forearm 26 of the right arm near the touch panel 3 out of the left arm and the right arm around the elbow 27 so as to be close to itself.
- a drag operation for drawing a linear shape along the arrow 21E can be performed relatively easily.
- the inclination angle ⁇ of the straight line drawn by the user of the left seat by the drag operation is likely to be within a predetermined range that is larger than 0 degree and smaller than 90 degrees.
- the first inclination angle ⁇ 1 is defined within ⁇ 1S to ⁇ 1L.
- an orbital gesture operation that is natural from the viewpoint of ergonomics and that is highly likely to be performed as a left operation can be applied to the first prescribed operation.
- the orbital gesture operation that is natural from the viewpoint of ergonomics and is likely to be performed as the right operation is performed. It can be applied to prescribed operations.
- the value of the range ( ⁇ 1S to ⁇ 1L) used to define the first tilt angle ⁇ 1 and the value of the range ( ⁇ 2S to ⁇ 2L) used to define the second tilt angle ⁇ 2 are not limited to the above.
- the value may be changed to another value based on the position of the touch panel 3 with respect to the driver seat and the passenger seat.
- the first tilt angle ⁇ 1 is defined within a predetermined range that is greater than ⁇ 45 degrees and less than 45 degrees
- the second tilt angle ⁇ 2 is greater than 45 degrees and less than 135 degrees. May be defined within a certain range.
- the first specified operation is an operation for changing the slide bar displayed on the split view display unit 2 to the first display state
- the second specified operation is the second display state. It is an operation to change to.
- the control unit 14 determines the gesture operation (touch operation, drag operation, flick operation, pinch operation, etc.) after the operation as a left operation.
- the position of the ball 32 of the slide bar 31 is changed to the second display state in which the ball 32 in the slide bar 31 is positioned on the right side.
- an operation for example, a trajectory gesture operation for moving the indicator from the left side to the right side on the slide bar 31
- the control unit 14 determines the gesture operation (touch operation, drag operation, flick operation, pinch operation, etc.) after the operation as the right operation.
- the position of the ball 32 of the slide bar 31 displayed immediately after the apparatus is started is stored in the storage unit 11, for example. For this reason, immediately after the device is started up, if an operation for an icon is performed without performing an operation for changing the position of the ball 32 of the slide bar 31, the operation is performed according to the stored position of the ball 32. Is determined as a left operation or a right operation. At this time, it is convenient for the driver if the initial position of the ball 32 of the slide bar 31 is set to the driver side, but the present invention is not limited to this.
- the input unit is not limited to the touch panel 3 as long as it can uniformly accept an operation on the left image for executing the function of the application and an operation on the right image for executing the function of the application. is not.
- a touch pad provided apart from the split view display unit 2 may be applied to the input unit.
- the touch pad has a function of obtaining the three-dimensional position of the indicator, the position of the indicator on the operation area of the touch pad is associated with the display area of the split view display unit 2, and the indicator You may perform by the point and icon display which show the position of.
- the left image and the right image (for example, FIG. 7A and FIG. 7B) described so far, at least a part of the display area of each of the left icons L1 to L5 and the right image are displayed. At least a part of the display area of each of the icons R1 to R5 is arranged so as to overlap on the screen of the split view display unit 2.
- the present invention is not limited to this, and at least a part of at least one display area of the left icons L1 to L5 and at least a part of at least one display area of the right icons R1 to R5 are included in the split view display unit 2. As long as they are arranged in an overlapping manner on the screen.
- control unit 14 performs the execution regardless of the type of the operation.
- the function of the displayed icon may be executed.
- the display control device described above includes not only the navigation device 1 provided in the vehicle but also a PND (Portable Navigation Device) and a mobile terminal (for example, a mobile phone, a smartphone, and a tablet) that can be mounted on the vehicle,
- the present invention can also be applied to a display control apparatus constructed as a system by appropriately combining servers and the like. In this case, each function or each component of the navigation device 1 described above is distributed and arranged in each device constituting the system.
- the present invention is not limited to this, and so-called display audio, PND, and portable terminal that do not have a navigation function but have a display function.
- the present invention may be applied to any one of a stationary display device and a server.
- the configuration in which the split view display unit 2 included in the navigation device 1 is applied to the split view type display unit has been described above, but the configuration is not limited thereto.
- a split-view display unit included in the smartphone may be applied.
- the present invention can be freely combined with each embodiment and each modification within the scope of the invention, or can be appropriately modified and omitted with each embodiment and each modification.
- 1 navigation device 2 split view display section, 3 touch panel, 14 control section, 21 fingers, L1 to L5 left icons, R1 to R5 right icons.
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、表示部を制御する表示制御装置及び表示制御方法に関するものである。 The present invention relates to a display control device and a display control method for controlling a display unit.
画面を見る方向によって異なる画像を一画面に表示可能な多重画像表示装置として、スプリットビュー(マルチビュー、デュアルビュー(登録商標)とも言う)方式の表示装置が知られており、近年、様々な分野においてスプリットビュー表示装置を適用することが提案されている。例えば、スプリットビュー表示装置と、その画面に配設されたタッチパネルとを、車載のナビゲーション装置に適用することが提案されている。このようなナビゲーション装置によれば、運転席側の方向と助手席側の方向とで異なる内容の画像を画面に表示するとともに、当該画像内に表示されているアイコンに対する操作をタッチパネルにて受け付けることが可能となる。 2. Description of the Related Art Split-view (also referred to as multi-view or dual-view (registered trademark)) type display devices are known as multi-image display devices capable of displaying different images on one screen depending on the viewing direction. Proposed to apply a split view display device. For example, it has been proposed to apply a split view display device and a touch panel disposed on the screen to an in-vehicle navigation device. According to such a navigation device, an image having different contents in the direction of the driver's seat and the direction of the passenger's seat is displayed on the screen, and an operation for the icon displayed in the image is received on the touch panel. Is possible.
しかしながら、上述のようなナビゲーション装置においては、運転席側の方向に表示される画像内のアイコンの位置と、助手席側の方向に表示される画像内のアイコンの位置とがスプリットビュー表示装置の画面上において重なっている場合がある。このような場合には、アイコンに対する操作をタッチパネルにて受け付けたとしても、運転席側の方向に表示されている画像内のアイコンに対して操作が実施されたのか、助手席側の方向に表示されている画像内のアイコンに対して操作が実施されたのかを判別できないという問題があった。 However, in the navigation device as described above, the position of the icon in the image displayed in the direction of the driver's seat and the position of the icon in the image displayed in the direction of the passenger's seat are determined by the split view display device. May overlap on the screen. In such a case, even if an operation on the icon is accepted on the touch panel, whether the operation is performed on the icon in the image displayed in the direction of the driver's seat is displayed in the direction of the passenger's seat There has been a problem that it is impossible to determine whether an operation has been performed on an icon in the displayed image.
そこで、特許文献1には、運転席側の方向に表示される画像内のアイコンの位置と、助手席側の方向に表示される画像内のアイコンの位置とが重ならないように、それらを互いに異なる位置に配置する技術が提案されている。
Therefore, in
しかしながら、例えば、助手席の同乗者が、ドラッグ操作などの比較的広い範囲にわたる操作を実施した場合などには、運転席側の方向に表示されている画像内のアイコンに対して知らないうちに操作を実施してしまうことがあるという問題があった。 However, for example, when a passenger in the passenger seat has performed an operation over a relatively wide range such as a drag operation, the icon in the image displayed in the direction of the driver's seat is not aware of the icon. There was a problem that the operation might be performed.
そこで、本発明は、上記のような問題点を鑑みてなされたものであり、ユーザが操作したことによってアプリケーションの機能を知らないうちに実行してしまうことを抑制可能な技術を提供することを目的とする。 Accordingly, the present invention has been made in view of the above-described problems, and provides a technique capable of suppressing execution of the function of the application without knowing the user's operation. Objective.
本発明に係る表示制御装置は、第1方向にて視認可能であるが第2方向にて視認できない第1画像と、第2方向にて視認可能であるが第1方向にて視認できない第2画像とを一つの画面上に表示可能な表示部を制御する表示制御装置であり、制御部を備える。制御部は、アプリケーションの機能を実行するための第1画像に対する第1操作と、アプリケーションの機能を実行するための第2画像に対する第2操作とを一律に受け付ける入力部からの出力信号に基づいて、予め規定された第1規定操作、または、当該第1規定操作後のジェスチャー操作が実施されたと判定された場合には、当該実施されたと判定された第1規定操作またはジェスチャー操作を、第1操作として判別する。制御部は、入力部からの出力信号に基づいて、第1規定操作と異なる予め規定された第2規定操作、または、当該第2規定操作後のジェスチャー操作が実施されたと判定された場合には、当該実施されたと判定された第2規定操作またはジェスチャー操作を、第2操作として判別する。 The display control device according to the present invention includes a first image that is visible in the first direction but not visible in the second direction, and a second image that is visible in the second direction but not visible in the first direction. A display control apparatus that controls a display unit that can display an image on one screen, and includes a control unit. The control unit is based on an output signal from the input unit that uniformly receives the first operation on the first image for executing the function of the application and the second operation on the second image for executing the function of the application. When it is determined that the first specified operation specified in advance or the gesture operation after the first specified operation is performed, the first specified operation or gesture operation determined to be performed is changed to the first Judge as operation. When the control unit determines that a pre-defined second prescribed operation different from the first prescribed operation or a gesture operation after the second prescribed operation has been performed based on an output signal from the input unit The second prescribed operation or the gesture operation determined to be performed is determined as the second operation.
本発明によれば、第1規定操作が実施されたと判定された場合には、当該第1規定操作を第1操作として判別し、第2規定操作が実施されたと判定された場合には、当該第2規定操作を第2操作として判別する。したがって、第1方向に位置するユーザは、第1規定操作を実施することにより、第2方向に位置するユーザのアプリケーションを知らないうちに実行することなく、自身のアプリケーションを実行することができる。同様に、第2方向に位置するユーザは、第2規定操作を実施することにより、第1方向に位置するユーザのアプリケーションを知らないうちに実行することなく、自身のアプリケーションを実行することができる。 According to the present invention, when it is determined that the first specified operation has been performed, the first specified operation is determined as the first operation, and when it is determined that the second specified operation has been performed, The second prescribed operation is determined as the second operation. Therefore, the user located in the first direction can execute his / her application without executing it without knowing the user's application located in the second direction by performing the first prescribed operation. Similarly, the user located in the second direction can execute his / her application without executing it without knowing the user's application located in the first direction by performing the second prescribed operation. .
この発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。 The objects, features, aspects, and advantages of the present invention will become more apparent from the following detailed description and the accompanying drawings.
<実施の形態1>
本発明の実施の形態1として、本発明に係る表示制御装置を、車両に搭載可能なナビゲーション装置に適用した場合を例にして説明する。図1は、当該ナビゲーション装置の構成の一例を示すブロック図である。以下、図1に示されるナビゲーション装置1が搭載された車両を「自車」と記載して説明する。
<
As a first embodiment of the present invention, a case where the display control device according to the present invention is applied to a navigation device that can be mounted on a vehicle will be described as an example. FIG. 1 is a block diagram showing an example of the configuration of the navigation device. Hereinafter, the vehicle equipped with the
ナビゲーション装置1は、スプリットビュー表示部2と、タッチパネル3と、操作入力処理部9と、インタフェース部10と、記憶部11と、左用画像生成部12と、右用画像生成部13と、これらを統括的に制御する制御部14とを備えて構成されている。
The
インタフェース部10は、無線通信部4、スピーカ5、DVD(Digital Versatile Disk)プレーヤ6、エアコン7及び車内LAN(Local Area Network)8と、制御部14との間に接続されている。無線通信部4、スピーカ5、DVDプレーヤ6、エアコン7及び車内LAN8と、制御部14との間では、インタフェース部10を介して各種情報や各種信号が双方向に出力される。以下、説明を簡単にするため、一方がインタフェース部10を介して他方に情報を出力すると記載する代わりに、一方が他方に情報を出力すると記載する。制御部14は、制御情報を、無線通信部4、スピーカ5、DVDプレーヤ6、エアコン7及び車内LAN8に出力することにより、これらを制御することが可能となっている。
The
スプリットビュー表示部2は、例えば自車のダッシュボードなどに配設される。スプリットビュー表示部2は、左座席の方向(第1方向)にて視認可能であるが右座席の方向から視認できない第1画像(以下「左用画像」と記す)と、右座席の方向(第2方向)にて視認可能であるが左座席の方向から視認できない第2画像(以下「右用画像」と記す)とを一つの画面上に表示することが可能となっている。
The split
後述するように、スプリットビュー表示部2は、左用画像内のアイコン(第1アイコン)と、右用画像内のアイコン(第2アイコン)とを表示する。以下、左用画像内のアイコン(第1アイコン)を「左用アイコン」と記し、右用画像内のアイコン(第2アイコン)を「右用アイコン」と記す。また、以下では、左座席が運転席であり、右座席が助手席である構成を例にして説明するが、左座席が助手席であり、右座席が運転席である構成では、以下の説明において左と右とを互いに読み替えたものと同様である。
As will be described later, the split
スプリットビュー表示部2には、例えば、空間分割方式の表示装置が適用される。図2に当該表示装置の模式断面図を示す。図2に示す表示装置200は、表示画面201と、視差バリア202とを備えている。表示画面201には、左用画像を表示するための第1画素201aと、右用画像を表示するための第2画素201bとが水平方向(左右方向)に沿って交互に配置されている。視差バリア202は、左座席の方向に対しては第1画素201aの光を通過させるが第2画素201bの光を遮断し、右座席の方向に対しては第2画素201bの光を通過させるが第1画素201aの光を遮断する。このような構成によれば、左座席のユーザ101aは、右用画像を視認できないが左用画像を視認することができ、右座席のユーザ101bは、左用画像を視認できないが右用画像を視認することができる。
For example, a space division display device is applied to the split
スプリットビュー表示部2に空間分割方式の表示装置200を適用した構成では、視差バリア202が左座席の方向に複数の第1画素201aからの光を通過させることによって左用アイコンが視認可能に表示され、視差バリア202が右座席の方向に複数の第2画素201bからの光を通過させることによって右用アイコンが視認可能に表示される。このため、左用アイコンの表示領域の外縁部は、当該左用アイコンの表示に用いられた複数の第1画素201aのうち外縁部に位置する第1画素201aに対応し、右用アイコンの表示領域の外縁部は、当該右用アイコンの表示に用いられた複数の第2画素201bのうち外縁部に位置する第2画素201bに対応する。
In the configuration in which the space
図3は、空間分割方式のスプリットビュー表示部2の表示例を示す図であり、1フレームの左用画像及び右用画像が示されている。例えば、WVGA(Wide VGA)の表示装置においては、全体で横(x軸)に800ドット、縦(y軸)に480ドットの画素を持つ。WVGAの表示装置に対応する、図3のような空間分割方式のスプリットビュー表示装置は、表示装置の性能によっても異なるが、例えば、横に並べられた総数がWVGAの表示装置における横方向の画素数の2倍、つまり合計の画素数が横に1600ドット、縦に480ドットの第1及び第2画素201a,201bで構成される。しかし、ここでは説明を容易にするため、スプリットビュー表示装置は、横に13ドット、縦に4ドットの第1画素201aと、それと同数の第2画素201bとで構成され、アイコンは横に4ドット、縦に1ドットの第1画素201aまたは第2画素201bで表示されるものとして説明を行う。また、図3に示されるようなアイコンの1ドットのx軸(左右方向)のずれは、通常の視認位置からでは人の目では見分けがつかず、同一位置に表示されているように見える。
FIG. 3 is a diagram showing a display example of the split
図3では、左用アイコンの外縁部(外枠)が破線で示されており、当該左用アイコンを表示するために、水平方向に配設された4つの第1画素201aが用いられていることが示されている。また、図3では、右用アイコンの外縁部(外枠)が一点鎖線で示されており、当該右用アイコンを表示するために、水平方向に配設された4つの第2画素201bが用いられていることが示されている。
In FIG. 3, the outer edge portion (outer frame) of the left icon is indicated by a broken line, and four
以下の説明では、スプリットビュー表示部2に空間分割方式の表示装置200が適用された構成において、左用アイコンの表示に用いられた複数(図3では4つ)の第1画素201aの少なくとも1つが、右用アイコンの表示に用いられた複数(図3では4つ)の第2画素201bのうち外縁部に位置する第2画素201b(図3では一点鎖線に対応する第2画素201b)に挟まれている場合に、当該左用アイコンの表示領域の少なくとも一部と、当該右用アイコンの表示領域の少なくとも一部とがスプリットビュー表示部2の画面上において互いに重なると記す。また、当該構成において、右用アイコンの表示に用いられた複数(図3では4つ)の第2画素201bの少なくとも1つが、左用アイコンの表示に用いられた複数(図3では4つ)の第1画素201aのうち外縁部に位置する第1画素201a(図3では破線に対応する第1画素201a)に挟まれている場合にも、当該左用アイコンの表示領域の少なくとも一部と、当該右用アイコンの表示領域の少なくとも一部とがスプリットビュー表示部2の画面上において互いに重なると記す。一方、当該構成において、右用アイコンの表示に用いられた第2画素201b、及び、左用アイコンの表示に用いられた第1画素201aの一方が、他方に挟まれていない場合に、当該左用アイコンの表示領域と、当該右用アイコンの表示領域とがスプリットビュー表示部2の画面上において離間すると記す。
In the following description, in the configuration in which the space
以上、スプリットビュー表示部2に、空間分割方式の表示装置200が適用された構成について説明した。しかしこれに限ったものではなく、スプリットビュー表示部2には、例えば、時分割方式の表示装置が適用されてもよい。図4に当該表示装置の模式断面図を示す。図4に示す表示装置250は、表示画面251と、視差バリア252とを備えている。表示画面251は、第1期間では左用画像を画素251cによって表示し、第2期間では右用画像を画素251cによって表示する。視差バリア252は、第1期間では左座席の方向に対して画素251cの光を通過させるが右座席の方向に対して画素251cの光を遮断し、第2期間では右座席の方向に対して画素251cの光を通過させるが左座席の方向に対して画素251cの光を遮断する。なお、図4には、第1期間の状態が示されている。
The configuration in which the space
上述のような構成によれば、左座席のユーザ101aは、右用画像を視認できないが左用画像を視認することができ、右座席のユーザ101bは、左用画像を視認できないが右用画像を視認することができる。なお、右座席のユーザ101bの目は、第1期間において、スプリットビュー表示部2から画素251cの光を受けていない。しかし、この第1期間は非常に短く設定されていることから、第1期間に目が光を受けていないことは右座席のユーザ101bに認識されない。一方、第2期間に目が受けた光の残像効果によって、第1期間においても第2期間の画像が表示されているように右座席のユーザ101bに認識される。同様に、第2期間に目が光を受けていないことは左座席のユーザ101aに認識されず、第1期間に目が受けた光の残像効果によって、第2期間においても第1期間の画像が表示されているように左座席のユーザ101aに認識される。
According to the configuration described above, the
スプリットビュー表示部2に時分割方式の表示装置250を適用した構成では、視差バリア252が、第1期間に左座席の方向に複数の画素251cからの光を通過させることによって左用アイコンが視認可能に表示され、第2期間に右座席の方向に複数の画素251cからの光を通過させることによって右用アイコンが視認可能に表示される。このため、左用アイコンの表示領域の外縁部は、当該左用アイコンの表示に用いられた複数の画素251cのうち外縁部に位置する画素251cに対応し、右用アイコンの表示領域の外縁部は、当該右用アイコンの表示に用いられた複数の画素251cのうち外縁部に位置する画素251cに対応する。
In the configuration in which the time
図5(a)及び図5(b)は、時分割方式のスプリットビュー表示部2の表示例を示す図であり、1フレームの左用画像及び右用画像が示されている。例えば、WVGAの表示装置においては、上述したように、全体で横(x軸)に800ドット、縦(y軸)に480ドットの画素を持つ。WVGAの表示装置に対応する、図5(a)及び図5(b)のような時分割方式のスプリットビュー表示装置は、表示装置の性能によっても異なるが、例えば、横に800ドット、縦に480ドットの画素251cで構成される。しかし、ここでは説明を容易にするため、スプリットビュー表示装置は、横に13ドット、縦に4ドットの画素251cで構成され、アイコンは横に3ドット、縦に1ドットの画素251cで表示されるものとして説明を行う。
5 (a) and 5 (b) are diagrams showing a display example of the time-division split
図5(a)では、第1期間に表示される左用アイコンの外縁部(外枠)が破線で示されており、当該左用アイコンを表示するために、水平方向に配設された3つの画素251cが用いられていることが示されている。図5(b)では、第2期間に表示される右用アイコンの外縁部(外枠)が破線で示されており、当該右用アイコンを表示するために、水平方向に配設された3つの画素251cが用いられていることが示されている。
In FIG. 5A, the outer edge (outer frame) of the left icon displayed in the first period is indicated by a broken line, and three pixels arranged in the horizontal direction to display the left icon. It is shown that 251c is used. In FIG. 5B, the outer edge portion (outer frame) of the right icon displayed in the second period is indicated by a broken line, and 3 arranged in the horizontal direction to display the right icon. It is shown that two
以下の説明では、スプリットビュー表示部2に時分割方式の表示装置250が適用された構成において、第1期間に左用アイコンの表示に用いられ、かつ、第2期間に右用アイコンの表示に用いられた画素251cが存在する場合に、当該左用アイコンの表示領域の少なくとも一部と、当該右用アイコンの表示領域の少なくとも一部とがスプリットビュー表示部2の画面上において互いに重なると記す。一方、第1期間に左用アイコンの表示に用いられ、かつ、第2期間に右用アイコンの表示に用いられた画素251cが存在しない場合に、当該左用アイコンの表示領域と、当該右用アイコンの表示領域とがスプリットビュー表示部2の画面上において離間すると記す。
In the following description, in the configuration in which the time-
詳細な構成については説明を省略するが、スプリットビュー表示部2には、空間分割方式と時分割方式とを組み合わせた方式の表示装置が適用されてもよい。そして、例えば、第1期間に左用アイコンの表示に用いられた画素の少なくとも一部が、第2期間に右用アイコンの表示に用いられた複数の画素のうち外縁部に位置する画素に挟まれている場合、または、第2期間に右用アイコンの表示に用いられた画素の少なくとも一部が、第1期間に左用アイコンの表示に用いられた複数の画素のうち外縁部に位置する画素に挟まれている場合に、当該左用アイコンの表示領域の少なくとも一部と、当該右用アイコンの表示領域の少なくとも一部とがスプリットビュー表示部2の画面上において互いに重なると記す。一方、第1期間に左用アイコンの表示に用いられた画素、及び、第2期間に右用アイコンの表示に用いられた画素の一方が、他方に挟まれていない場合に、当該左用アイコンの表示領域と、当該右用アイコンの表示領域とがスプリットビュー表示部2の画面上において離間すると記す。
Although a detailed description of the configuration is omitted, the split
なお、スプリットビュー方式を用いた表示装置の具体的な構成は、例えば特開2005-078080号公報及び国際公開第2012/070444号などに開示されている。なお、以上の説明では言及しなかったが、空間分割方式及び時分割方式のいずれにおいても、短い期間(例えば1/30[秒])で画素の走査が行われる。 Note that specific configurations of a display device using the split view method are disclosed in, for example, Japanese Patent Application Laid-Open No. 2005-078080 and International Publication No. 2012/070444. Although not mentioned in the above description, pixel scanning is performed in a short period (for example, 1/30 [second]) in both the space division method and the time division method.
図1に戻って、タッチパネル3の検出面は、スプリットビュー表示部2の画面に配設されている。タッチパネル3(入力部)は、アプリケーションの機能を実行するための左用画像に対する第1操作(以下「左用操作」と記す)と、アプリケーションの機能を実行するための右用画像に対する第2操作(以下「右用操作」と記す)とを一律に受け付ける。本実施の形態1では、タッチパネル3は、検出面をタッチした1以上の指などの指示体について、当該検出面上の二次元の位置を定期的に検出する。そして、タッチパネル3は、当該指示体の位置を示す信号を操作入力処理部9に出力する。
1, the detection surface of the
ただし、タッチパネル3は、指示体の二次元位置を検出するものに限ったものではなく、例えば、指示体との距離が最短となる検出面上の点の位置(二次元の位置)と、指示体と検出面(当該点)との間の距離(別の一次元の位置)とを含む三次元の位置を、指示体の位置として検出するものであってもよい。
However, the
無線通信部4は、例えばDSRC(Dedicate Short Range Communication)及び携帯電話機などを介してサーバと通信を行う。無線通信部4は、サーバから受信した情報(例えばダウンロードした情報など)を制御部14に出力したり、制御部14から出力された情報をサーバに送信したりする。また、無線通信部4は、ラジオ放送及びテレビ放送を受信し、それら放送から取得した情報を制御部14に出力する。
The wireless communication unit 4 communicates with the server via, for example, DSRC (Dedicate Short Range Communication) and a mobile phone. The wireless communication unit 4 outputs information received from the server (for example, downloaded information) to the
スピーカ5(音声出力部)は、制御部14から出力された音声信号に基づいて音声を出力する。
Speaker 5 (audio output unit) outputs audio based on the audio signal output from the
DVDプレーヤ6は、DVDに記録されたAV(Audio-video)情報を再生し、当該AV情報を制御部14に出力する。
The
エアコン7は、制御部14の制御により、自車の室内の温度や湿度を調整する。
The
車内LAN8は、自車のECU(Electronic Control Unit)やGPS(Global Positioning System)装置などと通信を行う。例えば、車内LAN8は、ECUから取得した自車の速度や、GPS装置から取得した自車の現在位置(例えば緯度及び経度)を制御部14に出力する。
The in-
操作入力処理部9は、タッチパネル3の出力信号に基づいて、タッチパネル3に対してジェスチャー操作が実施されたか否かを判定するとともに、実施されたジェスチャー操作の種類を判定する。ここで、ジェスチャー操作は、指示体によりタッチパネル3の検出面をタッチするタッチ操作と、指示体によりタッチパネル3の検出面に予め定められた軌道を描くジェスチャー操作(以下「軌道ジェスチャー操作」と記す)とを含む。また、軌道ジェスチャー操作は、2点タッチ後に当該2点タッチの2点を続けて用いるジェスチャー操作を含んでもよく、または、2点タッチ後に当該2点タッチの2点のうち1点を離して残りの1点を続けて用いるジェスチャー操作を含んでもよい。
The operation
つまり、操作入力処理部9は、タッチパネル3の出力信号に基づいて、ジェスチャー操作としてタッチ操作が実施されたか否かを判定する。また、タッチ操作が実施されたと判定する際には、操作入力処理部9は、タッチパネル3の検出面がタッチされた点の数(検出面をタッチした指示体の数)も判定する。したがって、操作入力処理部9は、指示体によりタッチパネル3の検出面を1点でタッチする1点タッチ操作が実施されたか否か、指示体によりタッチパネル3の検出面を2点でタッチする2点タッチ操作が実施されたか否かなどを判定することが可能となっている。なお、ここでは、2点タッチ操作は、2つの指示体によりタッチパネル3の検出面を同時に2点でタッチする操作であるとして説明するが、これに限ったものではなく、例えば実施の形態1の変形例2で説明する操作などであってもよい。
That is, the operation
また、操作入力処理部9は、タッチパネル3の出力信号に基づいて、ジェスチャー操作として軌道ジェスチャー操作が実施されたか否かを判定する。ここで、軌道ジェスチャー操作は、例えば、指示体が予め定められた時間よりも短い時間で検出面を擦るフリック操作、指示体が予め定められた時間よりも長い時間で検出面を擦るドラッグ操作、及び、二つの指示体が検出面に接触した状態でそれらの間の距離を変更するピンチ操作などを含む。ただし、ドラッグ操作は、上述した操作に限ったものではなく、指示体がタッチパネルに触れたまま検出面を擦る操作として適用されてもよい。また、フリック操作は、上述した操作に限ったものではなく、指示体がタッチパネルに触れた状態からその検出面をはらう操作として適用されてもよい。
Further, the operation
なお、後述する第1規定操作及び第2規定操作には、ジェスチャー操作が適用される。上述したように、操作入力処理部9は、ジェスチャー操作の種類ごとに、ジェスチャー操作が実施されたか否かを判定するように構成されていることから、第1規定操作及び第2規定操作が実施されたか否かを判定することが可能となっている。
A gesture operation is applied to a first prescribed operation and a second prescribed operation described later. As described above, the operation
さらに、操作入力処理部9には、スプリットビュー表示部2に表示されているアイコンの位置を示すアイコン位置情報が制御部14から入力される。操作入力処理部9は、当該アイコン位置情報と、タッチパネル3の出力信号(指示体の位置を示す信号)とに基づいて、タッチパネル3、ひいてはスプリットビュー表示部2に表示されているアイコンなどに対してタッチ操作またはジェスチャー操作が実施されたか否かを判定する。例えば、操作入力処理部9は、タッチパネル3の出力信号が示す指示体の位置が、左用アイコンの表示領域に重なる(当該指示体が、当該左用アイコンの内側に位置する)と判定した場合、または、当該表示領域に重なりながら変化する(当該指示体の位置が、当該表示領域の内側に位置しながら変化する)と判定した場合には、当該左用アイコンに対するジェスチャー操作が実施されたと判定する。操作入力処理部9は、左用アイコンに関する当該判定と同様の判定を右用アイコンについても行う。
Further, icon position information indicating the position of the icon displayed on the split
操作入力処理部9は、以上のジェスチャー操作の判定結果などを制御部14に出力する。以上のように本実施の形態1では、スプリットビュー表示部2に表示されているアイコンなどに対する操作が実施されたか否かを判定する処理を、操作入力処理部9によって実施するものとして説明するが、当該判定する処理は制御部14によって実施されてもよい。また、図1では、操作入力処理部9は、タッチパネル3及び制御部14とは別に設けられているが、これに限ったものではなく、タッチパネル3の機能としてタッチパネル3に備えられていてもよいし、制御部14の機能として制御部14に備えられていてもよい。
The operation
記憶部11は、例えばハードディスクドライブ、DVD及びそのドライブ装置、ブルーレイディスク及びそのドライブ装置、または、半導体メモリなどの記憶装置から構成される。記憶部11は、制御部14が動作するのに必要なプログラムのほか、制御部14に用いられる情報を記憶している。制御部14に用いられる情報には、例えば、アプリケーション(アプリケーションソフトウェア)、アプリケーションの機能を実行する際に操作されるアイコンが配置された画像、及び、地図情報などが含まれる。なお、以下の説明では、アプリケーションの機能を実行する際に操作されるアイコンが配置された画像(例えば図7(a)及び図7(b)に対応する画像)を、「アイコン配置画像」と記す。「アイコン配置画像」は、地図情報にアイコンを表示した画像も含む。
The storage unit 11 includes, for example, a hard disk drive, a DVD and its drive device, a Blu-ray disc and its drive device, or a storage device such as a semiconductor memory. The storage unit 11 stores information used for the
左用画像生成部12は、制御部14から出力された表示情報に基づいて、左用画像を表示するための表示信号を生成し、当該表示信号をスプリットビュー表示部2に出力する。スプリットビュー表示部2は、左用画像生成部12から表示信号を受けると、当該表示信号に基づいて左用画像を表示する。
The left
右用画像生成部13は、制御部14から出力された表示情報に基づいて、右用画像を表示するための表示信号を生成し、当該表示信号をスプリットビュー表示部2に出力する。スプリットビュー表示部2は、右用画像生成部13から表示信号を受けると、当該表示信号に基づいて右用画像を表示する。
The right
ここで、左用画像生成部12が生成する表示信号には、左用画像に用いられる複数の画素のそれぞれに例えば(1,1)、(2,1)、…、(800,1)、(1,2)、…(800,2)、…、(800,480)という順序で割り当てられた画素番号が含まれている。同様に、右用画像生成部13が生成する表示信号にも、右用画像に用いられる複数の画素のそれぞれに例えば(1,1)、(1,2)、…、(800,480)という順序で割り当てられた画素番号が含まれる。このため、左用アイコンの表示に用いられる少なくとも1つの画素の画素番号と、右用アイコンの表示に用いられる少なくとも1つの画素の画素番号とが一致する場合には、当該左用アイコンの表示領域の少なくとも一部と、当該右用アイコンの表示領域の少なくとも一部とがスプリットビュー表示部2の画面上において互いに重なることに相当する。ここで、(x,y)は、当該画面上の左上を(1,1)とし、x軸は右方向を正、y軸は下方向を正としたxy座標に対応した画素位置を示す。
Here, the display signal generated by the left
制御部14は、例えばCPU(Central Processing Unit)から構成されており、当該CPUが記憶部11に記憶されたプログラムを実行することにより、ナビゲーション装置1にて様々なアプリケーションを実行すること、ひいては当該実行されたアプリケーションに応じてスピーカ5などを制御することが可能となっている。
The
例えば、制御部14は、ナビゲーションのアプリケーションを実行した場合には、自車の現在位置と、タッチパネル3の出力信号に基づく目的地と、地図情報とに基づいて現在位置から目的地までの経路を探索し、当該経路に沿った案内を表示するための表示情報、及び、当該案内を音声出力するための音声信号を生成する。この結果、上述の案内が左用画像または右用画像として表示されるとともに、上述の案内の音声がスピーカ5にて出力される。
For example, when the navigation application is executed, the
また、例えば、制御部14は、DVD再生のアプリケーションを実行した場合には、DVDプレーヤ6からのAV情報を表示するための表示情報、及び、AV情報を音声出力するための音声信号を生成する。この結果、DVDに記憶された映像が左用画像または右用画像として表示されるとともに、DVDに記憶された音声がスピーカ5にて出力される。
Further, for example, when a DVD playback application is executed, the
また、制御部14は、左用画像側にて実行可能な(左用画像側から実行可能な)1以上のアプリケーションに対応する1つのアイコン配置画像を記憶部11から取得し、当該取得したアイコン配置画像を左用画像として表示させる。これにより、当該アプリケーションの機能を左用画像側にて実行するための操作の対象となるアイコンが、スプリットビュー表示部(左用画像)に表示される。以下、左用画像として表示可能なアイコン配置画像(例えば図7(a)に対応する画像)を「左用アイコン配置画像」と記す。なお、左用画像として表示されている左用アイコン配置画像内のアイコンは、上述の左用アイコンに対応する。
In addition, the
同様に、制御部14は、右用画像側にて実行可能な(右用画像側から実行可能な)1以上のアプリケーションに対応する1つのアイコン配置画像を記憶部11から取得し、当該取得したアイコン配置画像を右用画像として表示させる。これにより、当該アプリケーションの機能を右用画像側にて実行するための操作の対象となるアイコンが、スプリットビュー表示部2(右用画像)に表示される。以下、右用画像として表示可能なアイコン配置画像(例えば図7(b)に対応する画像)を「右用アイコン配置画像」と記す。なお、右用画像として表示されている右用アイコン配置画像内のアイコンは、上述の右用アイコンに対応する。
Similarly, the
また、制御部14は、予め規定された第1規定操作が実施されたと操作入力処理部9にて判定された場合には、当該実施されたと判定された第1規定操作を、上述の左用操作として判別する。一方、制御部14は、第1規定操作と異なる予め規定された第2規定操作が実施されたと操作入力処理部9にて判定された場合には、当該実施されたと判定された第2規定操作を、上述の右用操作として判別する。
In addition, when the operation
本実施の形態1では、第1規定操作は、指示体によりタッチパネル3を予め定められた第1の数の点でタッチする第1タッチ操作であり、第2規定操作は、指示体によりタッチパネル3を第1の数と異なる予め定められた第2の数の点でタッチする第2タッチ操作であるものとする。ここでは、その一例として、第1規定操作が、1点タッチ操作(第1の数が1つである第1タッチ操作)であり、第2規定操作が、2点タッチ操作(第2の数が2つである第2タッチ操作)場合について説明する。また、ここでは第1規定操作及び第2規定操作は、アイコンに対する操作であるものとして説明するが、アイコン以外の表示領域(例えば、軌道ジェスチャー操作が行われるジェスチャー領域など)に対する操作であってもよい。
In the first embodiment, the first prescribed operation is a first touch operation in which the
<動作>
図6は、本実施の形態1に係るナビゲーション装置1の動作を示すフローチャートである。図6に示される動作はCPUが記憶部11に記憶されたプログラムを実行することによって行われる。以下、ナビゲーション装置1の動作について図6を用いて説明する。
<Operation>
FIG. 6 is a flowchart showing the operation of the
まず、ステップS1にて、初期動作を実行するための操作が実施された場合に、制御部14は初期動作を実行する。ここでは、初期動作として、制御部14は、左用画像側及び右用画像側にて初期に実行すべきアプリケーションを記憶部11から取得し、当該アプリケーションを実行する。
First, in step S1, when an operation for executing the initial operation is performed, the
ステップS2にて、制御部14は、左用画像側にて実行されているアプリケーションに対応する左用アイコン配置画像を記憶部11から取得するとともに、右用画像側にて実行されているアプリケーションに対応する右用アイコン配置画像を記憶部11から取得する。
In step S2, the
ステップS3にて、制御部14は、取得した左用アイコン配置画像をスプリットビュー表示部2の左用画像として表示し、取得した右用アイコン配置画像をスプリットビュー表示部2の右用画像として表示する。
In step S3, the
図7(a)及び図7(b)は、本実施の形態1に係るナビゲーション装置1(スプリットビュー表示部2)のステップS3における左用画像及び右用画像の表示例を示す図である。図7(a)の左用画像には、左用アイコンL1,L2,L3,L4,L5(以下これらのアイコンをまとめて「左用アイコンL1~L5」と記すこともある)が表示されている。図7(b)の右用画像には、右用アイコンR1,R2,R3,R4,R5(以下これらのアイコンをまとめて「右用アイコンR1~R5」と記すこともある)が表示されている。 7 (a) and 7 (b) are diagrams showing display examples of the left image and the right image in step S3 of the navigation device 1 (split view display unit 2) according to the first embodiment. In the left image of FIG. 7A, left icons L1, L2, L3, L4, and L5 (hereinafter, these icons may be collectively referred to as “left icons L1 to L5”) are displayed. In the right image in FIG. 7B, right icons R1, R2, R3, R4, and R5 (hereinafter, these icons may be collectively referred to as “right icons R1 to R5”) are displayed. Yes.
図7(a)及び図7(b)の表示例では、左用アイコンL1~L5と右用アイコンR1~R5とが、スプリットビュー表示部2の画面上において互いに重ねて配置されている。本実施の形態1では、制御部14が、左用アイコンL1~L5の表示領域の少なくとも一部と、右用アイコンR1~R5の表示領域の少なくとも一部とがスプリットビュー表示部2の画面上において互いに重なる左用アイコン配置画像及び右用アイコン配置画像を記憶部11から取得し、これらをスプリットビュー表示部2に表示させることにより、図7(a)及び図7(b)に示すような表示が実現されるものとする。
7A and 7B, left icons L1 to L5 and right icons R1 to R5 are arranged on the screen of the split
図6のステップS4にて、操作入力処理部9は、タッチ操作が実施されたか否かを判定する。タッチ操作が実施されたと判定された場合にはステップS5に進み、実施されなかったと判定された場合にはステップS4を再度行う。なお、ステップS4を再度行う際において、地図が左用画像または右用画像として表示されており、かつ、自車の位置が変化していた場合には、制御部14は、当該変化に応じて当該地図をスクロールさせてもよい。
In step S4 of FIG. 6, the operation
ステップS5にて、操作入力処理部9は、ステップS4のタッチ操作が左用アイコンまたは右用アイコンに対して実施されたか否かを判定する。なお、この判定結果はステップS8またはステップS11にて用いられる。
In step S5, the operation
ステップS6にて、操作入力処理部9は、ステップS4のタッチ操作における点の数が1つであったか、2つであったか、または、これらのいずれでもなかったかを判定する。
In step S6, the operation
1つであったと判定された場合(1点タッチ操作であったと判定された場合)にはステップS7に進み、2つであったと判定された場合(2点タッチ操作であったと判定された場合)にはステップS10に進み、これらのいずれでもなかったと判定された場合にはステップS4に戻る。なお、ステップS4に戻る際において、地図が左用画像または右用画像として表示されており、かつ、自車の位置が変化していた場合には、制御部14は、当該変化に応じて当該地図をスクロールさせてもよい。このことは、ステップS6以外のステップからステップS4に戻る際においても同様である。
When it is determined that there is one (when it is determined that it is a one-point touch operation), the process proceeds to step S7. When it is determined that there is two (when it is determined that it is a two-point touch operation) ) Proceeds to step S10, and if it is determined that none of these has occurred, the process returns to step S4. When returning to step S4, if the map is displayed as a left image or a right image and the position of the vehicle has changed, the
ステップS6からステップS7に進んだ場合、ステップS7にて、制御部14は、ステップS4のタッチ操作、すなわち1点タッチ操作を左用操作として判別する。
When the process proceeds from step S6 to step S7, in step S7, the
ステップS8にて、制御部14は、左用操作であると判別された1点タッチ操作が、左用アイコンに対して実施されたか否かを、ステップS5の判定結果に基づいて判断する。当該1点タッチ操作が、左用アイコンに対して実施されたと判断された場合にはステップS9に進み、そうでない場合にはステップS4に戻る。
In step S8, the
ステップS9にて、制御部14は、1点タッチ操作が実施された左用アイコンに予め対応付けられた機能を実行する。その後ステップS4に戻る。なお、当該左用アイコンに対して、アイコン配置画像が予め対応付けられて記憶部11に記憶されている場合には、ステップS9からステップS3に戻って、当該アイコン配置画像がスプリットビュー表示部2に表示されてもよい。
In step S9, the
ステップS6からステップS10に進んだ場合、ステップS10にて、制御部14は、ステップS4のタッチ操作、すなわち2点タッチ操作を右用操作として判別する。
When the process proceeds from step S6 to step S10, in step S10, the
ステップS11にて、制御部14は、右用操作であると判別された2点タッチ操作が、右用アイコンに対して実施されたか否かを、ステップS5の判定結果に基づいて判断する。当該2点タッチ操作が、右用アイコンに対して実施されたと判断された場合にはステップS12に進み、そうでない場合にはステップS4に戻る。
In step S11, the
ステップS12にて、制御部14は、2点タッチ操作が実施された右用アイコンに予め対応付けられた機能を実行する。その後ステップS4に戻る。なお、当該右用アイコンに対して、アイコン配置画像が予め対応付けられて記憶部11に記憶されている場合には、ステップS12からステップS3に戻って、当該アイコン配置画像がスプリットビュー表示部2に表示されてもよい。
In step S12, the
以上で説明した図6の動作の一例について説明する。例えば、図8(a)及び図8(b)に示されるように、指示体である指21による1点タッチ操作が左用アイコンL1及び右用アイコンR1に対して実施されたものとする。この場合には、制御部14は、当該1点タッチ操作を左用操作として判別する。この結果、制御部14は、右用アイコンR1に対応付けられた機能を実行せずに、左用アイコンL1に対応付けられた機能を実行する。
An example of the operation of FIG. 6 described above will be described. For example, as shown in FIGS. 8A and 8B, it is assumed that a one-point touch operation with the
一方、例えば、図9(a)及び図9(b)に示されるように、指21による2点タッチ操作が左用アイコンL1及び右用アイコンR1に対して実施されたものとする。この場合には、制御部14は、当該2点タッチ操作を右用操作として判別する。この結果、制御部14は、左用アイコンL1に対応付けられた機能を実行せずに、右用アイコンR1に対応付けられた機能を実行する。
On the other hand, for example, as shown in FIGS. 9A and 9B, it is assumed that a two-point touch operation with the
<効果>
以上のような本実施の形態1に係るナビゲーション装置1によれば、第1規定操作(ここでは1点タッチ操作)が実施されたと判定された場合には、当該第1規定操作を左用操作として判別し、第2規定操作(ここでは2点タッチ操作)が実施されたと判定された場合には、当該第2規定操作を右用操作として判別する。したがって、左座席のユーザは、第1規定操作を実施することにより、右座席のユーザのアプリケーションを知らないうちに実行することなく、左座席のユーザのアプリケーションを実行することができる。同様に、右座席のユーザは、第2規定操作を実施することにより、左座席のユーザのアプリケーションを知らないうちに実行することなく、右座席のユーザのアプリケーションを実行することができる。また、この結果として、スプリットビュー表示部2の画面上において左用アイコン及び右用アイコンを重ねて配置することができることから、アイコン配置画像を生成する工程にて、アイコンを配置するための領域が不足することを抑制することができるとともに、アイコン配置に課せられる制約を低減することができる。
<Effect>
According to the
また、本実施の形態1によれば、左座席のユーザ、すなわち運転者は、2点タッチ操作よりも簡単な1点タッチ操作を実施すればよいことから、運転者の操作上の負担を抑制することができる。よって、運転者は運転に集中することが可能となる。 In addition, according to the first embodiment, the user of the left seat, that is, the driver only needs to perform a one-point touch operation that is simpler than the two-point touch operation, thereby suppressing the operational burden on the driver. can do. Thus, the driver can concentrate on driving.
なお、本実施の形態1の図9(b)には、2点タッチした指の両方が、右用アイコンR1をタッチしているが、2点タッチ中の片方の指が右用アイコンR1をタッチした場合にも、アイコンR1が操作されたとして右座席のアプリケーションを実行してもよい。また、2点タッチした指の両方が右用アイコンR1をタッチした場合に、アイコンR1が操作されたと判断するようにしてもよい。また、2点タッチした2本の指が2つのアイコンをそれぞれ同時にタッチした場合は、当該タッチの操作を無効にして、無効である旨を報知してもよい。また2点タッチは中指と人差し指を用いる場合が多く、中指の方が人差し指よりも強く押せる(タッチできる)ので、中指によるタッチ操作を人差し指によるタッチ操作よりも優先としてもよい。すなわち、2点タッチの2点のうち画面に対して上側の点(タッチパネル3のy軸座標が大きいタッチ点)または左側の点(タッチパネル3のx軸座標が小さいタッチ点)を、中指によるタッチ点であるとして、当該タッチ点を有効にしてもよい。ただし、使用状況によっては、人差し指を優先することも考えられるので、2つのタッチ点のいずれのタッチ点を優先するかは、ユーザによって設定できるようにしてもよい。 In FIG. 9B of the first embodiment, both fingers touching the two points touch the right icon R1, but one finger touching the two points touches the right icon R1. Even when touched, the right seat application may be executed on the assumption that the icon R1 is operated. Further, when both the two touched fingers touch the right icon R1, it may be determined that the icon R1 has been operated. When two fingers touched at two points touch two icons at the same time, the operation of the touch may be invalidated to notify that it is invalid. The two-point touch often uses the middle finger and the index finger, and the middle finger can be pressed (touched) more strongly than the index finger, so the touch operation with the middle finger may be given priority over the touch operation with the index finger. That is, touching the upper point (touch point with a large y-axis coordinate of the touch panel 3) or the left point (touch point with a small x-axis coordinate of the touch panel 3) of the two touch points with the middle finger The touch point may be validated as a point. However, since the index finger may be prioritized depending on the use situation, which touch point of the two touch points is prioritized may be set by the user.
<実施の形態1の変形例1>
実施の形態1においては、第1規定操作が実施されたと判定された場合に、当該第1規定操作を左用操作として判別した。しかしこれに限ったものではなく、第1規定操作を左用操作として判別する代わりに、当該第1規定操作後のジェスチャー操作(タッチ操作または軌道ジェスチャー操作)を左用操作として判別するものであってもよい。つまり、制御部14は、第1規定操作後のジェスチャー操作が実施されたと操作入力処理部9にて判定された場合には、当該実施されたと判定されたジェスチャー操作を、左用操作として判別してもよい。
<
In the first embodiment, when it is determined that the first specified operation has been performed, the first specified operation is determined as the left operation. However, the present invention is not limited to this. Instead of determining the first prescribed operation as the left operation, the gesture operation (touch operation or orbital gesture operation) after the first prescribed operation may be determined as the left operation. Good. That is, when the operation
例えば、第1規定操作が1点タッチ操作である構成において、図10(a)及び図10(b)に示されるように、指21による1点タッチ操作後のドラッグ操作が、左用画像の点Dl及び右用画像の点Drに対して実施されたものとする(図中の矢印21Aは当該ドラッグ操作における指21の軌道を示す)。この場合には、制御部14は、当該ドラッグ操作を左用画像の点Dlに対する左用操作として判別してもよい。なお、第1規定操作後のジェスチャー操作として、ドラッグ操作の代わりにフリック操作などが適用された場合も同様である。この操作は、例えばアイコン外で操作を行う地図スクロール機能等に適用される。
For example, in a configuration in which the first prescribed operation is a one-point touch operation, as shown in FIGS. 10A and 10B, the drag operation after the one-point touch operation with the
また、例えば、第1規定操作が2点タッチ操作である構成において、2点タッチ操作後のピンチ操作が、左用画像の点及び右用画像の点に対して実施されたものとする(図示せず)。この場合には、制御部14は、当該ピンチ操作を左用画像の点に対する左用操作として判別してもよい。
Further, for example, in a configuration in which the first prescribed operation is a two-point touch operation, a pinch operation after the two-point touch operation is performed on a point on the left image and a point on the right image (not shown). ) In this case, the
また、実施の形態1においては、第2規定操作が実施されたと判定された場合に、当該第2規定操作を右用操作として判別した。しかしこれに限ったものではなく、第2規定操作を右用操作として判別する代わりに、当該第2規定操作後のジェスチャー操作(タッチ操作または軌道ジェスチャー操作)を右用操作として判別するものであってもよい。つまり、制御部14は、第2規定操作後のジェスチャー操作が実施されたと操作入力処理部9にて判定された場合には、当該実施されたと判定されたジェスチャー操作を、右用操作として判別してもよい。
Further, in the first embodiment, when it is determined that the second specified operation has been performed, the second specified operation is determined as the right operation. However, the present invention is not limited to this. Instead of determining the second specified operation as a right operation, the gesture operation (touch operation or orbital gesture operation) after the second specified operation is determined as a right operation. May be. That is, when the operation
例えば、第2規定操作が2点タッチ操作である構成において、図11(a)及び図11(b)に示されるように、指21による2点タッチ操作後のドラッグ操作が、左用画像の点Dl及び右用画像の点Drに対して実施されたものとする(図中の矢印21Aは当該ドラッグ操作における指21の軌道を示す)。この場合には、制御部14は、当該ドラッグ操作を右用画像の点Drに対する右用操作として判別してもよい。なお、第2規定操作後のジェスチャー操作として、ドラッグ操作の代わりにフリック操作などが適用された場合も同様である。
For example, in a configuration in which the second prescribed operation is a two-point touch operation, as shown in FIGS. 11A and 11B, the drag operation after the two-point touch operation with the
また、例えば、第2規定操作が3点タッチ操作である構成において、3点タッチ操作後のピンチ操作が、左用画像の点及び右用画像の点に対して実施されたものとする(図示せず)。この場合には、制御部14は、当該ピンチ操作を右用画像の点に対する右用操作として判別してもよい。
Further, for example, in a configuration in which the second prescribed operation is a three-point touch operation, a pinch operation after the three-point touch operation is performed on a point on the left image and a point on the right image (not shown). ) In this case, the
以上のような構成によれば、第1規定操作及び第2規定操作後のジェスチャー操作について、実施の形態1と同様の効果を得ることができる。 According to the above configuration, the same effects as those in the first embodiment can be obtained for the gesture operation after the first prescribed operation and the second prescribed operation.
<実施の形態1の変形例2>
実施の形態1では、操作入力処理部9は、2つの指示体によりタッチパネル3の検出面を同時に2点でタッチする操作が実施された場合に、2点タッチ操作が実施されたと判定する構成を説明した。しかしこれに限ったものではなく、以下の第1例または第2例に説明する構成であってもよい。
<
In the first embodiment, the operation
まず、第1例の構成について説明する。例えば、図12に示されるように、指21によりタッチパネル3上の特定の1点(特別ボタン22)をタッチしながら、図13に示されるように、指21によりタッチパネル3上の他の1点(左用ボタンL3)をタッチする一連の操作が実施されたとする。この場合に、操作入力処理部9は、他の1点(左用ボタンL3)に対する2点タッチ操作が実施されたと判定してもよい。このように構成した場合にも、実施の形態1と同様の効果を得ることができる。
First, the configuration of the first example will be described. For example, as shown in FIG. 12, while touching a specific point (special button 22) on the
次に、第2例の構成について説明する。例えば、図12に示されるように、指21によりタッチパネル3上の特定の1点(特別ボタン22)をタッチしてから予め定められた時間内(例えば2~5秒内)に、図14に示されるように、指21によりタッチパネル上の他の1点(左用ボタンL3)をタッチする一連の操作が実施されたとする。この場合に、操作入力処理部9は、他の1点(左用ボタンL3)に対する2点タッチ操作が実施されたと判定してもよい。このように構成した場合にも、実施の形態1と同様の効果を得ることができる。
Next, the configuration of the second example will be described. For example, as shown in FIG. 12, within a predetermined time (for example, within 2 to 5 seconds) after touching a specific point (special button 22) on the
なお、図12~図14に示される特別ボタン22は、左用アイコンの表示領域及び右用アイコンの表示領域とスプリットビュー表示部2の画面上において離間するように配置されていることから、特別ボタン22に対する操作が、左用アイコン及び右用アイコンに対する操作として判定されることを抑制することができる。
The
また、上述の第1例及び第2例の構成において、タッチパネル3上の特定の1点(特別ボタン22)を用いる代わりに、タッチパネル3上の任意の1点を用いてもよい。
Also, in the configurations of the first and second examples described above, any one point on the
具体的には、図12及び図13に示した第1例と同様に、指示体によりタッチパネル3上の任意の1点(最初の1点)をタッチしながら、指示体によりタッチパネル3上の他の1点(次の1点)をタッチする一連の操作が実施されたとする。この場合には、操作入力処理部9は、最初の1点または次の1点に対する2点タッチ操作(第2規定操作)が実施されたと判定してもよい。
Specifically, as in the first example shown in FIGS. 12 and 13, another point on the
一方、この構成において、指示体によりタッチパネル3上の任意の1点をタッチする操作が実施され、かつ、当該タッチしている状態が維持されている間に他の1点をタッチする操作が実施されなかったとする。この場合には、操作入力処理部9は、当該1点に対する1点タッチ操作(第1規定操作)が実施されたと判定してもよい。以上のように構成した場合にも、実施の形態1と同様の効果を得ることができる。
On the other hand, in this configuration, an operation of touching an arbitrary point on the
また、図12及び図14に示した第2例と同様に、指示体によりタッチパネル3上の任意の1点(最初の1点)をタッチしてから予め定められた時間内(例えば2~5秒内)に、指示体によりタッチパネル上の他の1点(次の1点)をタッチする一連の操作が実施されたとする。この場合には、操作入力処理部9は、最初の1点または次の1点に対する2点タッチ操作(第2規定操作)が実施されたと判定してもよい。
Similarly to the second example shown in FIG. 12 and FIG. 14, an arbitrary point (first one point) on the
一方、この構成において、指示体によりタッチパネル3上の任意の1点をタッチする操作が実施され、かつ、予め定められた時間が経過した時点までに他の1点をタッチする操作が実施されていなかったとする。すなわち、指示体によりタッチパネル3上の1点をタッチする操作が実施され、かつ、予め定められた時間が経過した時点で2点タッチ操作が実施されていなかったとする。この場合には、操作入力処理部9は、当該1点に対する1点タッチ操作(第1規定操作)が実施されたと判定してもよい。以上のように構成した場合にも、実施の形態1と同様の効果を得ることができる。
On the other hand, in this configuration, an operation of touching an arbitrary point on the
<実施の形態1の変形例3>
実施の形態1では、第1規定操作に適用したタッチ操作と、第2規定操作に適用したタッチ操作とにおいて、タッチパネル3がタッチされる点の数が異なっていたが、これらの点の数が同じであってもよい。
<
In the first embodiment, the number of points touched by the
例えば、第1規定操作は、指示体によりタッチパネル3を予め定められた距離Dよりも小さい距離で離間された2点で同時にタッチする2点タッチ操作であってもよく、第2規定操作は、指示体によりタッチパネル3を予め定められた距離Dよりも大きい距離で離間された2点で同時にタッチするタッチ操作であってもよい。なお、ここでいう予め定められた距離Dには、例えば、片手の人差し指の先端及び中指の先端の間の最大距離が適用される。
For example, the first specified operation may be a two-point touch operation in which the
そのような距離を距離Dに適用した構成においては、図15(a)及び図15(b)に示されるように、制御部14は、2点の距離D1が距離Dよりも小さい片手による2点タッチ操作が実施されたと判定された場合には、当該2点タッチ操作を左用操作として判別することが可能となる。一方、図16(a)及び図16(b)に示されるように、制御部14は、2点の距離D2が距離D以上である両手による2点タッチ操作が実施されたと判定された場合には、当該2点タッチ操作を右用操作として判別することが可能となる。
In the configuration in which such a distance is applied to the distance D, as shown in FIG. 15A and FIG. 15B, the
以上のような本変形例3に係るナビゲーション装置1によれば、実施の形態1と同様の効果を得ることができる。また、運転者は、例えば両手による2点タッチ操作よりも簡単な片手による2点タッチ操作を実施すればよいことから、運転者の操作上の負担を抑制することができる。よって、運転者は運転に集中することが可能となる。
According to the
<実施の形態2>
本発明の実施の形態2に係るナビゲーション装置1のブロック構成は、実施の形態1のブロック構成と同じであることから、その図示については省略する。そして、本実施の形態2に係るナビゲーション装置1において、実施の形態1で説明した構成要素と同一または類似するものについては同じ符号を付し、以下においては異なる点を中心に説明する。
<
Since the block configuration of the
上述した実施の形態1では、第1規定操作及び第2規定操作は、それぞれ第1タッチ操作及び第2タッチ操作であった。これに対して本実施の形態2では、第1規定操作は、第1タッチ操作であり、第2規定操作は、指示体によりタッチパネル3に予め定められた第1軌道を描く第1ジェスチャー操作(以下「第1軌道ジェスチャー操作」と記す)である。ここでは、その一例として、第1規定操作が、1点タッチ操作(第1の数が1つである第1タッチ操作)であり、第1軌道ジェスチャー操作が、フリック操作(軌道ジェスチャー操作に含まれる操作の1種)である場合について説明する。
In the first embodiment described above, the first prescribed operation and the second prescribed operation are the first touch operation and the second touch operation, respectively. On the other hand, in the second embodiment, the first prescribed operation is a first touch operation, and the second prescribed operation is a first gesture operation that draws a predetermined first trajectory on the
図17は、本実施の形態2に係るナビゲーション装置1の動作を示すフローチャートである。図17に示すフローチャートのステップS1~S3は、図6に示したフローチャートのステップS1~S3と同じであることから、その説明については省略する。
FIG. 17 is a flowchart showing the operation of the
ステップS3後のステップS14にて、操作入力処理部9は、タッチパネル3に対する操作が実施されたか否かを判定する。操作が実施されたと判定された場合にはステップS15に進み、実施されなかったと判定された場合にはステップS14を再度行う。なお、ステップS14を再度行う際には、制御部14は、上述のステップS4を再度行う際と同様に地図をスクロールさせてもよい。
In step S14 after step S3, the operation
ステップS15にて、操作入力処理部9は、ステップS14の操作が左用アイコンまたは右用アイコンに対して実施されたか否かを判定する。なお、この判定結果はステップS18またはステップS20にて用いられる。
In step S15, the operation
ステップS16にて、操作入力処理部9は、ステップS14の操作が1点タッチ操作であったか、フリック操作であったか、または、これらのいずれでもなかったかを判定する。
In step S16, the operation
1点タッチ操作であったと判定された場合にはステップS17に進み、フリック操作であったと判定された場合にはステップS20に進み、これらのいずれでもなかったと判定された場合にはステップS14に戻る。なお、ステップS14に戻る際には、制御部14は、上述のステップS4に戻る際と同様に地図をスクロールさせてもよい。このことは、ステップS16以外のステップからステップS14に戻る際においても同様である。
If it is determined that the operation is a one-point touch operation, the process proceeds to step S17. If it is determined that the operation is a flick operation, the process proceeds to step S20. If it is determined that none of these operations is performed, the process returns to step S14. . When returning to step S14, the
ステップS16からステップS17に進んだ場合、ステップS17にて、制御部14は、ステップS14の操作、すなわち1点タッチ操作を左用操作として判別する。
When the process proceeds from step S16 to step S17, in step S17, the
ステップS18にて、制御部14は、左用操作であると判別された1点タッチ操作が、左用アイコンに対して実施されたか否かを、ステップS15の判定結果に基づいて判断する。当該1点タッチ操作が、左用アイコンに対して実施されたと判断された場合にはステップS19に進み、そうでない場合にはステップS14に戻る。
In step S18, the
ステップS19にて、制御部14は、1点タッチ操作が実施された左用アイコンに予め対応付けられた機能を実行する。その後ステップS14に戻る。なお、当該左用アイコンに対して、アイコン配置画像が予め対応付けられて記憶部11に記憶されている場合には、ステップS19からステップS3に戻って、当該アイコン配置画像がスプリットビュー表示部2に表示されてもよい。
In step S19, the
ステップS16からステップS20に進んだ場合、ステップS20にて、制御部14は、ステップS14の操作、すなわちフリック操作を右用操作として判別する。
When the process proceeds from step S16 to step S20, in step S20, the
ステップS21にて、制御部14は、右用操作であると判別されたフリック操作が、右用アイコンに対して実施されたか否かを、ステップS15の判定結果に基づいて判断する。当該フリック操作が、右用アイコンに対して実施されたと判断された場合にはステップS22に進み、そうでない場合にはステップS14に戻る。
In step S21, the
ステップS22にて、制御部14は、フリック操作が実施された右用アイコンに予め対応付けられた機能を実行する。その後ステップS14に戻る。なお、当該右用アイコンに対して、アイコン配置画像が予め対応付けられて記憶部11に記憶されている場合には、ステップS22からステップS3に戻って、当該アイコン配置画像がスプリットビュー表示部2に表示されてもよい。
In step S22, the
以上で説明した図17の動作の一例について説明する。例えば、図18(a)及び図18(b)に示されるように、指21による1点タッチ操作が左用アイコンL1及び右用アイコンR1に対して実施されたものとする。この場合には、制御部14は、当該1点タッチ操作を左用操作として判別する。この結果、制御部14は、右用アイコンR1に対応付けられた機能を実行せずに、左用アイコンL1に対応付けられた機能を実行する。
An example of the operation of FIG. 17 described above will be described. For example, as shown in FIGS. 18A and 18B, it is assumed that a one-point touch operation with the
一方、例えば、図19(a)及び図19(b)に示されるように、指21によるフリック操作が左用アイコンL1及び右用アイコンR1に対して実施されたものとする(図中の矢印21Bは当該フリック操作における指21の軌道を示す)。この場合には、制御部14は、当該フリック操作を右用操作として判別する。この結果、制御部14は、左用アイコンL1に対応付けられた機能を実行せずに、右用アイコンR1に対応付けられた機能を実行する。
On the other hand, for example, as shown in FIGS. 19A and 19B, it is assumed that the flick operation with the
<効果>
以上のような本実施の形態2に係るナビゲーション装置1によれば、第1タッチ操作(ここでは1点タッチ操作)が実施されたと判定された場合には、当該第1タッチ操作を左用操作として判別し、第1軌道ジェスチャー操作(ここではフリック操作)が実施されたと判定された場合には、当該第1軌道ジェスチャー操作を右用操作として判別する。したがって、実施の形態1と同様の効果を得ることができる。
<Effect>
According to the
また、本実施の形態2によれば、運転者は、第1軌道ジェスチャー操作よりも簡単な第1タッチ操作を実施すればよいことから、運転者の操作上の負担を抑制することができる。よって、運転者は運転に集中することが可能となる。 Further, according to the second embodiment, since the driver only needs to perform the first touch operation that is simpler than the first orbital gesture operation, the operational burden on the driver can be suppressed. Thus, the driver can concentrate on driving.
<実施の形態3>
本発明の実施の形態3に係るナビゲーション装置1のブロック構成は、実施の形態1のブロック構成と同じであることから、その図示については省略する。また、本実施の形態3に係るナビゲーション装置1において、実施の形態1及び2で説明した構成要素と同一または類似するものについては同じ符号を付し、以下においては異なる点を中心に説明する。
<
Since the block configuration of the
本実施の形態3では、第1規定操作は実施の形態2で説明した第1軌道ジェスチャー操作であり、第2規定操作は、予め定められた第2軌道を描く、第1軌道ジェスチャー操作と異なる第2ジェスチャー操作(以下「第2軌道ジェスチャー操作」と記す)である。 In the third embodiment, the first prescribed operation is the first orbital gesture operation described in the second embodiment, and the second prescribed operation is different from the first orbital gesture operation that draws a predetermined second orbit. Second gesture operation (hereinafter referred to as “second orbit gesture operation”).
なお、第1軌道ジェスチャー操作及び第2軌道ジェスチャー操作が異なるとは、第1軌道及び第2軌道が異なること、及び、軌道ジェスチャー操作の種類が異なることの少なくともいずれか1つを意味する。ここでは、その一例として、第1軌道ジェスチャー操作が、フリック操作(軌道ジェスチャー操作に含まれる操作の1種)であり、第2軌道ジェスチャー操作が、ドラッグ操作(軌道ジェスチャー操作に含まれる操作の1種)である場合、すなわち軌道ジェスチャー操作の種類が異なる場合について説明する。なお、第1軌道及び第2軌道が異なることについては、実施の形態3の変形例1で説明する。
Note that the difference between the first trajectory gesture operation and the second trajectory gesture operation means that at least one of the first trajectory and the second trajectory is different and the type of the trajectory gesture operation is different. Here, as an example, the first trajectory gesture operation is a flick operation (one kind of operation included in the trajectory gesture operation), and the second trajectory gesture operation is one of the operations included in the trajectory gesture operation. In other words, the case where the types of orbital gesture operations are different will be described. The difference between the first track and the second track will be described in
本実施の形態3において、例えば、フリック操作が左用アイコンL1及び右用アイコンR1に対して実施された場合には、制御部14は、当該フリック操作を左用操作として判別する。この結果、制御部14は、右用アイコンR1に対応付けられた機能を実行せずに、左用アイコンL1に対応付けられた機能を実行する。
In the third embodiment, for example, when the flick operation is performed on the left icon L1 and the right icon R1, the
一方、例えば、ドラッグ操作が左用アイコンL1及び右用アイコンR1に対して実施された場合には、制御部14は、当該ドラッグ操作を右用操作として判別する。この結果、制御部14は、左用アイコンL1に対応付けられた機能を実行せずに、右用アイコンR1に対応付けられた機能を実行する。
On the other hand, for example, when the drag operation is performed on the left icon L1 and the right icon R1, the
<効果>
以上のような本実施の形態3に係るナビゲーション装置1によれば、第1軌道ジェスチャー操作(ここではフリック操作)が実施されたと判定された場合には、当該第1軌道ジェスチャー操作を左用操作として判別し、第2軌道ジェスチャー操作(ここではドラッグ操作)が実施されたと判定された場合には、当該第2軌道ジェスチャー操作を右用操作として判別する。したがって、実施の形態1と同様の効果を得ることができる。
<Effect>
According to the
また、タッチパネルに触れる程度の軽いタッチ操作と、タッチパネルを所定の強さで押す押し込み操作とを判別できるタッチパネルを、タッチパネル3に適用してもよい。そして、操作入力処理部9は、タッチパネル3からの出力信号に基づいて、アイコンへの軽いタッチ操作が実施されたと判定した場合には、当該タッチ操作は運転席側からの操作であるとして判定し、アイコンへの押し込み操作が実施されたと判定した場合には、当該押し込み操作は助手席側からの操作であると判定してもよい。このような構成にすれば、軽いタッチ操作が運転者の操作として判定されることから、運転者に有利な操作を実現することができる。また、軽いタッチ操作と押し込み操作とを判別する場合には、1点タッチでも2点タッチでも操作を有効にしてもよい。
Further, a touch panel that can discriminate between a light touch operation that touches the touch panel and a push operation that presses the touch panel with a predetermined strength may be applied to the
<実施の形態3の変形例>
以上で説明した実施の形態3では、第1軌道ジェスチャー操作及び第2軌道ジェスチャー操作について軌道ジェスチャー操作の種類が異なる構成を説明した。しかしこれに限ったものではなく、以下の第1例または第2例に説明するように、第1軌道ジェスチャー操作の第1軌道と、第2軌道ジェスチャー操作の第2軌道とが、形状または方向に関して異なるものであってもよい。
<Modification of
In the third embodiment described above, the configuration in which the types of orbital gesture operations are different for the first orbital gesture operation and the second orbital gesture operation has been described. However, the present invention is not limited to this. As described in the first or second example below, the first trajectory of the first trajectory gesture operation and the second trajectory of the second trajectory gesture operation have shapes or directions. May be different.
第1例の構成では、第1軌道ジェスチャー操作の第1軌道の形状と、第2軌道ジェスチャー操作の第2軌道の形状とが異なっている。ここでは、その一例として、第1軌道が直線形状であり、第2軌道がV字形状である場合について説明する。ただし、第1軌道は、完全な直線形状に限ったものではなく、予め定められた幅を有する直線状の領域に含まれる形状(例えば、比較的小さなジグザグを有する略直線形状)などであればよい。 In the configuration of the first example, the shape of the first trajectory of the first trajectory gesture operation is different from the shape of the second trajectory of the second trajectory gesture operation. Here, as an example, a case where the first track has a linear shape and the second track has a V shape will be described. However, the first trajectory is not limited to a complete linear shape, and may be any shape included in a linear region having a predetermined width (for example, a substantially linear shape having a relatively small zigzag). Good.
このような構成において、図20(a)及び図20(b)に示されるように、指21による直線形状のドラッグ操作が、左用アイコンL1及び右用アイコンR1に対して実施されたものとする(図中の矢印21Cは当該ドラッグ操作における指21の軌道を示す)。この場合には、制御部14は、当該ドラッグ操作を左用操作として判別する。この結果、制御部14は、右用アイコンR1に対応付けられた機能を実行せずに、左用アイコンL1に対応付けられた機能を実行する。
In such a configuration, as shown in FIGS. 20A and 20B, it is assumed that a linear drag operation with the
一方、図21(a)及び図21(b)に示されるように、指21によるV字形状のドラッグ操作が、左用アイコンL1及び右用アイコンR1に対して実施されたものとする(図中の矢印21Dは当該ドラッグ操作における指21の軌道を示す)。この場合には、制御部14は、当該ドラッグ操作を右用操作として判別する。この結果、制御部14は、左用アイコンL1に対応付けられた機能を実行せずに、右用アイコンR1に対応付けられた機能を実行する。
On the other hand, as shown in FIG. 21A and FIG. 21B, it is assumed that a V-shaped drag operation with the
第2例の構成では、第1軌道ジェスチャー操作の第1軌道、及び、第2軌道ジェスチャー操作の第2軌道はいずれも直線形状であり、かつ、第1軌道及び第2軌道の延在方向が異なっている。ただし、第1軌道及び第2軌道は、完全な直線形状に限ったものではなく、予め定められた幅を有する直線状の領域に含まれる形状(例えば、比較的小さなジグザグを有する略直線形状)などであればよい。 In the configuration of the second example, the first trajectory of the first trajectory gesture operation and the second trajectory of the second trajectory gesture operation are both linear, and the extending directions of the first trajectory and the second trajectory are Is different. However, the first trajectory and the second trajectory are not limited to a complete linear shape, but are included in a linear region having a predetermined width (for example, a substantially linear shape having a relatively small zigzag). And so on.
本変形例では、図22に示されるように、タッチパネル3の水平方向(タッチパネル3の左右方向)に対する第1軌道の延在方向の反時計回りの第1傾斜角度θ1は、0度より大きく90度より小さい予め定められた範囲(θ1S~θ1L)内に規定されているものとする。ここで、タッチパネル3の平面上の1点を示すXY座標系と、傾斜角度θとを対応付けると、例えば、水平方向であるX軸方向は傾斜角度θが0度に対応し、垂直方向であるY軸方向は傾斜角度θが90度に対応し、-X軸方向は傾斜角度θが180度に対応し、-Y軸方向は傾斜角度θが270度に対応する。
In the present modification, as shown in FIG. 22, the first tilt angle θ1 in the counterclockwise direction in the extending direction of the first track with respect to the horizontal direction of the touch panel 3 (left and right direction of the touch panel 3) is greater than 0 degrees and 90 degrees. It is assumed that it is defined within a predetermined range (θ1S to θ1L) smaller than the degree. Here, when the XY coordinate system indicating one point on the plane of the
一方、タッチパネル3の水平方向に対する第2軌道の延在方向の反時計回りの第2傾斜角度θ2は、90度より大きく180度より小さい予め定められた範囲(θ2S~θ2L)内に規定されているものとする。なお、ここでは、θ1S=10度、θ1L=80度として説明するが、θ1S,θ1Lは、0度より大きく90度より小さい角度であれば10度,80度以外であってもよい。また、ここでは、θ2S=100度、θ2L=170度として説明するが、θ2S,θ2Lは、90度より大きく180度より小さい角度であれば100度,170度以外であってもよい。
On the other hand, the counterclockwise second tilt angle θ2 in the extending direction of the second track with respect to the horizontal direction of the
このような構成において、図23(a)及び図23(b)に示されるように、指21による直線形状のドラッグ操作が、左用アイコンL1及び右用アイコンR1に対して実施され、当該ドラッグ操作に係る直線の傾斜角度θがθ1S~θ1L内に存在したものとする(図中の矢印21Eは当該ドラッグ操作における指21の軌道を示す)。この場合には、制御部14は、当該ドラッグ操作を左用操作として判別する。この結果、制御部14は、右用アイコンR1に対応付けられた機能を実行せずに、左用アイコンL1に対応付けられた機能を実行する。
In such a configuration, as shown in FIGS. 23A and 23B, a linear drag operation with the
一方、図24(a)及び図24(b)に示されるように、指21による直線形状のドラッグ操作が、左用アイコンL1及び右用アイコンR1に対して実施され、当該ドラッグ操作に係る直線の傾斜角度θがθ2S~θ2L内に存在したものとする(図中の矢印21Fは当該ドラッグ操作における指21の軌道を示す)。この場合には、制御部14は、当該ドラッグ操作を右用操作として判別する。この結果、制御部14は、左用アイコンL1に対応付けられた機能を実行せずに、右用アイコンR1に対応付けられた機能を実行する。
On the other hand, as shown in FIGS. 24A and 24B, a linear drag operation with the
ここで、左座席のユーザが、自身より右側に配設されているタッチパネル3に対して直線形状のドラッグ操作を行う場合について考察する。図23(a)及び図23(b)に示されるように、左座席のユーザは、左腕及び右腕のうちタッチパネル3に近い右腕の前腕26を、自身に近づけるように肘27を中心に回転させれば、矢印21Eに沿って直線形状を描くドラッグ操作を比較的容易に実施することができると考えられる。このため、左座席のユーザがドラッグ操作によって描く直線の傾斜角度θは、0度より大きく90度より小さい予め定められた範囲内となる可能性が高いと考えられる。
Here, a case where the user of the left seat performs a linear drag operation on the
このことを鑑みて、本変形例では、上述したように、第1傾斜角度θ1がθ1S~θ1L内に規定されている。このような構成によれば、人間工学の観点から自然であり、左用操作として実施される可能性が高い軌道ジェスチャー操作を、第1規定操作に適用することができる。同様の理由で、第2傾斜角度θ2が、θ2S~θ2L内に規定されることにより、人間工学の観点から自然であり、右用操作として実施される可能性が高い軌道ジェスチャー操作を、第2規定操作に適用することができる。 In view of this, in the present modification, as described above, the first inclination angle θ1 is defined within θ1S to θ1L. According to such a configuration, an orbital gesture operation that is natural from the viewpoint of ergonomics and that is highly likely to be performed as a left operation can be applied to the first prescribed operation. For the same reason, when the second inclination angle θ2 is defined within θ2S to θ2L, the orbital gesture operation that is natural from the viewpoint of ergonomics and is likely to be performed as the right operation is performed. It can be applied to prescribed operations.
なお、第1傾斜角度θ1の規定に用いられる範囲(θ1S~θ1L)の値、及び、第2傾斜角度θ2の規定に用いられる範囲(θ2S~θ2L)の値は、上述に限ったものではなく、運転席及び助手席に対するタッチパネル3の配設位置などに基づいて別の値に変更されてもよい。その結果として、例えば、第1傾斜角度θ1は-45度より大きく45度より小さい予め定められた範囲内に規定され、かつ、第2傾斜角度θ2は45度より大きく135度より小さい予め定められた範囲内に規定されてもよい。
Note that the value of the range (θ1S to θ1L) used to define the first tilt angle θ1 and the value of the range (θ2S to θ2L) used to define the second tilt angle θ2 are not limited to the above. The value may be changed to another value based on the position of the
<実施の形態4>
本発明の実施の形態4に係るナビゲーション装置1のブロック構成は、実施の形態1のブロック構成と同じであることから、その図示については省略する。また、本実施の形態4に係るナビゲーション装置1において、実施の形態1~3で説明した構成要素と同一または類似するものについては同じ符号を付し、以下においては異なる点を中心に説明する。
<Embodiment 4>
Since the block configuration of the
本実施の形態4では、第1規定操作は、スプリットビュー表示部2に表示されるスライドバーを第1表示状態に変更する操作であり、第2規定操作は、当該スライドバーを第2表示状態に変更する操作である。
In the fourth embodiment, the first specified operation is an operation for changing the slide bar displayed on the split
例えば、図25(a)及び図25(b)に示されるように、スライドバー31内のボール32が左側に位置する第1表示状態に、スライドバー31のボール32の位置を変更する操作(例えばスライドバー31上において指示体を右側から左側に移動させる軌道ジェスチャー操作)が実施されたものとする。この場合には、制御部14は、当該操作後のジェスチャー操作(タッチ操作、ドラッグ操作、フリック操作またはピンチ操作など)を、左用操作として判別する。
For example, as shown in FIGS. 25A and 25B, the operation of changing the position of the
一方、例えば、図26(a)及び図26(b)に示されるように、スライドバー31内のボール32が右側に位置する第2表示状態に、スライドバー31のボール32の位置を変更する操作(例えばスライドバー31上において指示体を左側から右側に移動させる軌道ジェスチャー操作)が実施されたものとする。この場合には、制御部14は、当該操作後のジェスチャー操作(タッチ操作、ドラッグ操作、フリック操作またはピンチ操作など)を、右用操作として判別する。
On the other hand, for example, as shown in FIGS. 26A and 26B, the position of the
なお、装置の起動直後に表示されるスライドバー31のボール32の位置は、例えば記憶部11に記憶されているものとする。このため、装置の起動直後に、スライドバー31のボール32の位置を変更する操作が実施されないまま、アイコンに対する操作が実施された場合には、記憶されたボール32の位置に応じて、当該操作が左用操作または右用操作として判別される。このとき、スライドバー31のボール32の初期位置を、運転者側にすれば運転者にとって便利であるが、これに限ったものではない。
Note that the position of the
<効果>
以上のような本実施の形態4に係るナビゲーション装置1によれば、スライドバー31を第1表示状態に変更する操作が実施されたと判定された場合には、当該操作後のジェスチャー操作を左用操作として判別し、スライドバー31を第2表示状態に変更する操作が実施されたと判定された場合には、当該操作後のジェスチャー操作を右用操作として判別する。したがって、実施の形態1と同様の効果を得ることができる。
<Effect>
According to the
<実施の形態1~4に関するその他の変形例>
以上の説明では、入力部としてタッチパネル3を適用した構成について説明した。しかし、入力部は、アプリケーションの機能を実行するための左用画像に対する操作と、アプリケーションの機能を実行するための右用画像に対する操作とを一律に受け付けるものであればよく、タッチパネル3に限ったものではない。例えば、入力部には、スプリットビュー表示部2と離れて設けられたタッチパッドが適用されてもよい。このとき、タッチパッドには指示体の三次元の位置を求める機能を有し、タッチパッドの操作領域上の指示体の位置を、スプリットビュー表示部2の表示領域に対応付けておき、指示体の位置を示す点やアイコン表示で行ってもよい。
<Other
In the above description, the configuration in which the
また、これまでに説明した左用画像及び右用画像(例えば、図7(a)及び図7(b)など)においては、左用アイコンL1~L5のそれぞれの表示領域の少なくとも一部と、右用アイコンR1~R5のそれぞれの表示領域の少なくとも一部とが、スプリットビュー表示部2の画面上において重ねて配置されていた。しかしこれに限ったものではなく、左用アイコンL1~L5の少なくとも1つの表示領域の少なくとも一部と、右用アイコンR1~R5の少なくとも1つの表示領域の少なくとも一部とが、スプリットビュー表示部2の画面上において重ねて配置されたものであればよい。
Further, in the left image and the right image (for example, FIG. 7A and FIG. 7B) described so far, at least a part of the display area of each of the left icons L1 to L5 and the right image are displayed. At least a part of the display area of each of the icons R1 to R5 is arranged so as to overlap on the screen of the split
さらに、スプリットビュー表示部2の画面上において互いに離間する左用アイコン及び右用アイコンに対して操作が実施されたと判定された場合には、制御部14は、当該操作の種類に関わらず、当該実施されたアイコンの機能を実行してもよい。
Further, when it is determined that the operation is performed on the left icon and the right icon that are separated from each other on the screen of the split
<表示制御装置をナビゲーション装置以外にも適用した変形例>
以上で説明した表示制御装置は、車両に備え付けられたナビゲーション装置1だけでなく、車両に搭載可能な、PND(Portable Navigation Device)、及び、携帯端末(例えば携帯電話機、スマートフォン、及びタブレットなど)、並びにサーバなどを適宜に組み合わせてシステムとして構築される表示制御装置にも適用することができる。この場合、以上で説明したナビゲーション装置1の各機能あるいは各構成要素は、前記システムを構築する各機器に分散して配置される。
<Modification in which the display control device is applied to devices other than the navigation device>
The display control device described above includes not only the
例えば、以上の説明では、表示制御装置を、ナビゲーション装置1に適用した構成について説明したが、これに限ったものではなく、ナビゲーション機能を持たないが表示機能を有する所謂ディスプレイオーディオ、PND、携帯端末、設置型の表示装置、及び、サーバのいずれかに適用してもよい。
For example, in the above description, the configuration in which the display control device is applied to the
また、以上では、スプリットビュー方式の表示部に、ナビゲーション装置1が備えるスプリットビュー表示部2を適用した構成について説明したが、これに限ったものではない。例えば、表示制御装置をスマートフォンに適用する場合には、スマートフォンが備えるスプリットビュー方式の表示部が適用されてもよい。
In addition, the configuration in which the split
なお、本発明は、その発明の範囲内において、各実施の形態及び各変形例を自由に組み合わせたり、各実施の形態及び各変形例を適宜、変形、省略したりすることが可能である。 The present invention can be freely combined with each embodiment and each modification within the scope of the invention, or can be appropriately modified and omitted with each embodiment and each modification.
この発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。 Although the present invention has been described in detail, the above description is illustrative in all aspects, and the present invention is not limited thereto. It is understood that countless variations that are not illustrated can be envisaged without departing from the scope of the present invention.
1 ナビゲーション装置、2 スプリットビュー表示部、3 タッチパネル、14 制御部、21 指、L1~L5 左用アイコン、R1~R5 右用アイコン。 1 navigation device, 2 split view display section, 3 touch panel, 14 control section, 21 fingers, L1 to L5 left icons, R1 to R5 right icons.
Claims (14)
アプリケーションの機能を実行するための前記第1画像に対する第1操作と、アプリケーションの機能を実行するための前記第2画像に対する第2操作とを一律に受け付ける入力部からの出力信号に基づいて、予め規定された第1規定操作、または、当該第1規定操作後のジェスチャー操作が実施されたと判定された場合には、当該実施されたと判定された第1規定操作またはジェスチャー操作を、前記第1操作として判別し、前記入力部からの出力信号に基づいて、前記第1規定操作と異なる予め規定された第2規定操作、または、当該第2規定操作後のジェスチャー操作が実施されたと判定された場合には、当該実施されたと判定された第2規定操作またはジェスチャー操作を、前記第2操作として判別する制御部
を備える、表示制御装置。 A first image that is visible in the first direction but not visible in the second direction and a second image that is visible in the second direction but not visible in the first direction are displayed on one screen. A display control device for controlling a display unit that can be displayed on
Based on an output signal from an input unit that uniformly receives a first operation on the first image for executing the function of the application and a second operation on the second image for executing the function of the application in advance. When it is determined that the specified first specified operation or the gesture operation after the first specified operation has been performed, the first specified operation or the gesture operation determined to be performed is changed to the first operation. And determining based on the output signal from the input unit that a second prescribed operation different from the first prescribed operation or a gesture operation after the second prescribed operation has been performed. The display control device includes a control unit that discriminates the second prescribed operation or the gesture operation determined to be performed as the second operation. .
前記第1規定操作は、指示体により前記入力部を予め定められた第1の数の点でタッチする第1タッチ操作を含み、
前記第2規定操作は、指示体により前記入力部を前記第1の数と異なる予め定められた第2の数の点でタッチする第2タッチ操作を含む、表示制御装置。 The display control device according to claim 1,
The first prescribed operation includes a first touch operation in which the input unit is touched with a predetermined first number of points by an indicator,
The second control operation includes a second touch operation in which the input unit is touched with a predetermined second number of points different from the first number by an indicator.
前記第1方向及び前記第2方向は、それぞれ運転席側及び助手席側の方向であり、
前記第1の数及び前記第2の数は、それぞれ1つ及び2つである、表示制御装置。 The display control device according to claim 2,
The first direction and the second direction are directions on the driver's seat side and the passenger seat side, respectively.
The display control device, wherein the first number and the second number are one and two, respectively.
指示体により前記入力部において特定の1点をタッチしながら、指示体により前記入力部において他の1点をタッチする一連の操作が実施された場合、または、指示体により前記入力部において特定の1点をタッチしてから予め定められた時間内に、指示体により前記入力部において他の1点をタッチする一連の操作が実施された場合に、前記第2の数が2つである前記第2タッチ操作が実施されたと判定される、表示制御装置。 The display control device according to claim 2,
When a series of operations of touching another point on the input unit with the indicator while touching a specific point on the input unit with the indicator, or on the input unit with the indicator The second number is two when a series of operations of touching another point on the input unit by the indicator is performed within a predetermined time after touching one point, A display control apparatus that determines that the second touch operation has been performed.
指示体により前記入力部において1点をタッチする操作が実施され、かつ、当該実施から予め定められた時間が経過した時点で前記第2タッチ操作が実施されたと判定されていなかった場合に、前記第1の数が1つである前記第1タッチ操作が実施されたと判定される、表示制御装置。 The display control device according to claim 2,
When an operation of touching one point on the input unit by the indicator is performed, and when it is not determined that the second touch operation has been performed when a predetermined time has elapsed since the execution, The display control device that determines that the first touch operation in which the first number is one is performed.
前記第1方向及び前記第2方向は、それぞれ運転席側及び助手席側の方向であり、
前記第1規定操作は、指示体により前記入力部を予め定められた距離よりも小さい距離で離間された2点で同時にタッチする2点タッチ操作を含み、
前記第2規定操作は、指示体により前記入力部を予め定められた距離よりも大きい距離で離間された2点で同時にタッチする2点タッチ操作を含む、表示制御装置。 The display control device according to claim 1,
The first direction and the second direction are directions on the driver's seat side and the passenger seat side, respectively.
The first prescribed operation includes a two-point touch operation in which the input unit is simultaneously touched with two points separated by a distance smaller than a predetermined distance by an indicator,
The second control operation includes a two-point touch operation in which the input unit is touched simultaneously at two points separated by a distance greater than a predetermined distance by an indicator.
前記第1規定操作は、指示体により前記入力部を予め定められた第1の数の点でタッチする第1タッチ操作を含み、
前記第2規定操作は、指示体により前記入力部に予め定められた第1軌道を描く第1ジェスチャー操作を含む、表示制御装置。 The display control device according to claim 1,
The first prescribed operation includes a first touch operation in which the input unit is touched with a predetermined first number of points by an indicator,
The second control operation includes a first gesture operation that draws a predetermined first trajectory on the input unit by an indicator.
前記第1方向及び前記第2方向は、それぞれ運転席側及び助手席側の方向であり、
前記第1の数は1つであり、
前記第1ジェスチャー操作は、ピンチ操作、ドラッグ操作またはフリック操作を含む、表示制御装置。 The display control device according to claim 7,
The first direction and the second direction are directions on the driver's seat side and the passenger seat side, respectively.
The first number is one;
The display control device, wherein the first gesture operation includes a pinch operation, a drag operation, or a flick operation.
前記第1規定操作は、指示体により前記入力部に予め定められた第1軌道を描く第1ジェスチャー操作を含み、
前記第2規定操作は、指示体により前記入力部に予め定められた第2軌道を描く、前記第1ジェスチャー操作と異なる第2ジェスチャー操作を含む、表示制御装置。 The display control device according to claim 1,
The first prescribed operation includes a first gesture operation that draws a predetermined first trajectory on the input unit by an indicator,
The display control device, wherein the second prescribed operation includes a second gesture operation different from the first gesture operation in which a predetermined second trajectory is drawn on the input unit by an indicator.
前記第1ジェスチャー操作は、ピンチ操作、ドラッグ操作またはフリック操作を含み、
前記第2ジェスチャー操作は、ピンチ操作、ドラッグ操作またはフリック操作を含む、表示制御装置。 The display control device according to claim 9,
The first gesture operation includes a pinch operation, a drag operation, or a flick operation,
The display control device, wherein the second gesture operation includes a pinch operation, a drag operation, or a flick operation.
前記第1軌道及び前記第2軌道はいずれも予め定められた幅を有する直線状の領域に含まれる形状であり、かつ、前記第1軌道及び前記第2軌道の延在方向が異なる、表示制御装置。 The display control device according to claim 9,
Display control in which each of the first track and the second track has a shape included in a linear region having a predetermined width, and the extending directions of the first track and the second track are different. apparatus.
前記入力部の水平方向に対する前記第1軌道の前記延在方向の反時計回りの第1傾斜角度は、0度より大きく90度より小さい予め定められた範囲内に規定され、かつ、前記入力部の水平方向に対する前記第2軌道の前記延在方向の反時計回りの第2傾斜角度は、90度より大きく180度より小さい予め定められた範囲内に規定され、または、
前記第1傾斜角度は-45度より大きく45度より小さい予め定められた範囲内に規定され、かつ、前記第2傾斜角度は45度より大きく135度より小さい予め定められた範囲内に規定される、表示制御装置。 The display control device according to claim 11,
A first counterclockwise tilt angle in the extending direction of the first track with respect to the horizontal direction of the input unit is defined within a predetermined range that is greater than 0 degree and less than 90 degrees, and the input unit A second counterclockwise tilt angle in the extending direction of the second trajectory with respect to the horizontal direction is defined within a predetermined range greater than 90 degrees and less than 180 degrees, or
The first tilt angle is defined within a predetermined range greater than −45 degrees and less than 45 degrees, and the second tilt angle is defined within a predetermined range greater than 45 degrees and less than 135 degrees. Display control device.
前記第1規定操作は、前記表示部に表示されるスライドバーを第1表示状態に変更する操作を含み、
前記第2規定操作は、前記スライドバーを第2表示状態に変更する操作を含む、表示制御装置。 The display control device according to claim 1,
The first prescribed operation includes an operation of changing a slide bar displayed on the display unit to a first display state,
The display control apparatus, wherein the second prescribed operation includes an operation of changing the slide bar to a second display state.
(a)アプリケーションの機能を実行するための前記第1画像に対する第1操作と、アプリケーションの機能を実行するための前記第2画像に対する第2操作とを一律に受け付ける入力部からの出力信号に基づいて、予め規定された第1規定操作、または、当該第1規定操作後のジェスチャー操作が実施されたか否かを判定する工程と、
(b)前記工程(a)において実施されたと判定された第1規定操作またはジェスチャー操作を、前記第1操作として判別する工程と、
(c)前記入力部からの出力信号に基づいて、前記第1規定操作と異なる予め規定された第2規定操作、または、当該第2規定操作後のジェスチャー操作が実施されたか否かを判定する工程と、
(d)前記工程(c)において実施されたと判定された第2規定操作またはジェスチャー操作を、前記第2操作として判別する工程と
を備える、表示制御方法。 A first image that is visible in the first direction but not visible in the second direction and a second image that is visible in the second direction but not visible in the first direction are displayed on one screen. A display control method for controlling a display section that can be displayed on
(A) Based on an output signal from an input unit that uniformly receives a first operation on the first image for executing the function of the application and a second operation on the second image for executing the function of the application. Determining whether or not a first prescribed operation prescribed in advance or a gesture operation after the first prescribed operation has been performed;
(B) determining the first prescribed operation or gesture operation determined to have been performed in the step (a) as the first operation;
(C) Based on an output signal from the input unit, it is determined whether or not a second prescribed operation different from the first prescribed operation or a gesture operation after the second prescribed operation has been performed. Process,
(D) A display control method comprising: a step of determining, as the second operation, the second prescribed operation or the gesture operation determined to be performed in the step (c).
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2013/082688 WO2015083267A1 (en) | 2013-12-05 | 2013-12-05 | Display control device, and display control method |
| JP2015551343A JP6033465B2 (en) | 2013-12-05 | 2013-12-05 | Display control device |
| DE112013007666.7T DE112013007666T5 (en) | 2013-12-05 | 2013-12-05 | Display control device and display control |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2013/082688 WO2015083267A1 (en) | 2013-12-05 | 2013-12-05 | Display control device, and display control method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2015083267A1 true WO2015083267A1 (en) | 2015-06-11 |
Family
ID=53273060
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2013/082688 Ceased WO2015083267A1 (en) | 2013-12-05 | 2013-12-05 | Display control device, and display control method |
Country Status (3)
| Country | Link |
|---|---|
| JP (1) | JP6033465B2 (en) |
| DE (1) | DE112013007666T5 (en) |
| WO (1) | WO2015083267A1 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017149225A (en) * | 2016-02-23 | 2017-08-31 | 京セラ株式会社 | Vehicle control unit |
| CN108829332A (en) * | 2018-05-22 | 2018-11-16 | 珠海格力电器股份有限公司 | Control method of touch slide bar, remote controller, household appliance, computer-readable storage medium and touch slide bar device |
| JP2020072943A (en) * | 2019-02-07 | 2020-05-14 | グリー株式会社 | Display control program, display control method, and display control system |
| US11318371B2 (en) | 2016-08-18 | 2022-05-03 | Gree, Inc. | Program, control method, and information processing apparatus |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102023210000A1 (en) * | 2023-10-12 | 2025-04-17 | Robert Bosch Gesellschaft mit beschränkter Haftung | Device and method for viewing direction-dependent display of images |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006522397A (en) * | 2003-03-10 | 2006-09-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Multi-view display |
| JP2007164614A (en) * | 2005-12-15 | 2007-06-28 | Sharp Corp | Display device and display device control method |
| JP2007207146A (en) * | 2006-02-06 | 2007-08-16 | Alpine Electronics Inc | Display device, user interface therefor and menu provision method |
| JP2008269225A (en) * | 2007-04-19 | 2008-11-06 | Seiko Epson Corp | Detection apparatus and control method thereof |
| WO2011102406A1 (en) * | 2010-02-18 | 2011-08-25 | ローム株式会社 | Touch-panel input device |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN101375235B (en) * | 2006-02-03 | 2011-04-06 | 松下电器产业株式会社 | information processing device |
| JP2010061256A (en) * | 2008-09-02 | 2010-03-18 | Alpine Electronics Inc | Display device |
-
2013
- 2013-12-05 JP JP2015551343A patent/JP6033465B2/en not_active Expired - Fee Related
- 2013-12-05 DE DE112013007666.7T patent/DE112013007666T5/en not_active Withdrawn
- 2013-12-05 WO PCT/JP2013/082688 patent/WO2015083267A1/en not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006522397A (en) * | 2003-03-10 | 2006-09-28 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Multi-view display |
| JP2007164614A (en) * | 2005-12-15 | 2007-06-28 | Sharp Corp | Display device and display device control method |
| JP2007207146A (en) * | 2006-02-06 | 2007-08-16 | Alpine Electronics Inc | Display device, user interface therefor and menu provision method |
| JP2008269225A (en) * | 2007-04-19 | 2008-11-06 | Seiko Epson Corp | Detection apparatus and control method thereof |
| WO2011102406A1 (en) * | 2010-02-18 | 2011-08-25 | ローム株式会社 | Touch-panel input device |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017149225A (en) * | 2016-02-23 | 2017-08-31 | 京セラ株式会社 | Vehicle control unit |
| WO2017145746A1 (en) * | 2016-02-23 | 2017-08-31 | 京セラ株式会社 | Control unit for vehicle |
| US11221735B2 (en) | 2016-02-23 | 2022-01-11 | Kyocera Corporation | Vehicular control unit |
| US11318371B2 (en) | 2016-08-18 | 2022-05-03 | Gree, Inc. | Program, control method, and information processing apparatus |
| US11707669B2 (en) | 2016-08-18 | 2023-07-25 | Gree, Inc. | Program, control method, and information processing apparatus |
| CN108829332A (en) * | 2018-05-22 | 2018-11-16 | 珠海格力电器股份有限公司 | Control method of touch slide bar, remote controller, household appliance, computer-readable storage medium and touch slide bar device |
| CN108829332B (en) * | 2018-05-22 | 2023-10-03 | 珠海格力电器股份有限公司 | Control method of touch slide bar, remote controller, household appliance, computer readable storage medium and touch slide bar device |
| JP2020072943A (en) * | 2019-02-07 | 2020-05-14 | グリー株式会社 | Display control program, display control method, and display control system |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6033465B2 (en) | 2016-11-30 |
| DE112013007666T5 (en) | 2016-08-25 |
| JPWO2015083267A1 (en) | 2017-03-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP3090235B1 (en) | Input/output functions related to a portable device in an automotive environment | |
| JP5225820B2 (en) | Input device, vehicle periphery monitoring device, icon switch selection method and program | |
| JP6033465B2 (en) | Display control device | |
| WO2016084360A1 (en) | Display control device for vehicle | |
| JP2013161230A (en) | Input device | |
| JP2007331692A (en) | In-vehicle electronic equipment and touch panel device | |
| JP6147357B2 (en) | Display control apparatus and display control method | |
| JP2007042029A (en) | Display device and program | |
| JP5933468B2 (en) | Information display control device, information display device, and information display control method | |
| JP6120988B2 (en) | Display control apparatus and display control method | |
| US20190155560A1 (en) | Multi-display control apparatus and method thereof | |
| JP6180306B2 (en) | Display control apparatus and display control method | |
| JP2014182808A (en) | Navigation control of touch screen user interface | |
| JPWO2017217375A1 (en) | Image display apparatus, image display method, and image display program | |
| JP6124777B2 (en) | Display control apparatus, display control method, and image design method | |
| JP6371589B2 (en) | In-vehicle system, line-of-sight input reception method, and computer program | |
| US8621347B2 (en) | System for providing a handling interface | |
| JP5901865B2 (en) | Display control apparatus and display control method | |
| JP2018092522A (en) | Input system and input program | |
| JP2015108984A (en) | Display controller and display control method | |
| JP5950851B2 (en) | Information display control device, information display device, and information display control method | |
| JP5984718B2 (en) | In-vehicle information display control device, in-vehicle information display device, and information display control method for in-vehicle display device | |
| JP2014191818A (en) | Operation support system, operation support method and computer program | |
| JP2015108987A (en) | Display control apparatus and display control method | |
| JP2018101230A (en) | Input system and input program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13898651 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2015551343 Country of ref document: JP Kind code of ref document: A |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 112013007666 Country of ref document: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 13898651 Country of ref document: EP Kind code of ref document: A1 |