+

WO2018173180A1 - タッチ入力判定装置、タッチ入力判定方法、及びタッチ入力判定プログラム - Google Patents

タッチ入力判定装置、タッチ入力判定方法、及びタッチ入力判定プログラム Download PDF

Info

Publication number
WO2018173180A1
WO2018173180A1 PCT/JP2017/011615 JP2017011615W WO2018173180A1 WO 2018173180 A1 WO2018173180 A1 WO 2018173180A1 JP 2017011615 W JP2017011615 W JP 2017011615W WO 2018173180 A1 WO2018173180 A1 WO 2018173180A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
touch gesture
knob
operation mode
touch panel
Prior art date
Application number
PCT/JP2017/011615
Other languages
English (en)
French (fr)
Inventor
大介 木皿
佐々木 雄一
萩原 利幸
前川 拓也
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to DE112017007110.0T priority Critical patent/DE112017007110T5/de
Priority to JP2017535719A priority patent/JP6207804B1/ja
Priority to CN201780088528.0A priority patent/CN110431525A/zh
Priority to PCT/JP2017/011615 priority patent/WO2018173180A1/ja
Priority to KR1020197027062A priority patent/KR20190112160A/ko
Publication of WO2018173180A1 publication Critical patent/WO2018173180A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • the present invention relates to a touch input determination device, a touch input determination method, and a touch input determination program that change a selection value using a slide bar displayed on a touch panel.
  • a value corresponding to the amount of movement is output by moving (sliding) a knob (also referred to as “knob”) arranged on a long bar along the bar.
  • a knob also referred to as “knob”
  • Electronic devices have also been proposed (see, for example, Patent Document 2).
  • the present invention has been made in order to solve the above-described problems, and a touch input determination device and a touch input determination method capable of appropriately performing a touch gesture operation on a slide bar without viewing the touch panel screen. And a touch input determination program.
  • a touch input determination device is a device that receives the operation information from a touch panel that outputs operation information corresponding to a touch gesture operation, and generates a selection value based on the operation information.
  • the user operation mode is switched to a first operation mode for operating a display component displayed on the screen of the touch panel or a second operation mode in which the entire screen of the touch panel is used as the reception area for the touch gesture operation.
  • An operation determination unit that performs the user operation mode from the first operation mode to the second operation mode.
  • a bar and a knob are placed at the position where the first touch gesture operation is performed.
  • the second touch gesture operation is performed in which a slide bar is displayed and the knob is moved along the bar, the selection value is changed according to the movement amount of the knob.
  • a touch input determination method is a method of receiving the operation information from a touch panel that outputs operation information corresponding to a touch gesture operation, and generating a selection value based on the operation information.
  • the user operation mode in is switched from the first operation mode in which the display component displayed on the touch panel screen is operated to the second operation mode in which the entire touch panel screen is used as the reception area for the touch gesture operation. Later, when a predetermined first touch gesture operation is performed at an arbitrary position on the screen of the touch panel, a slide bar including a bar and a knob is provided at the position where the first touch gesture operation is performed.
  • a display step and a second touch gesture operation for moving the knob Characterized by a step of changing the selection value according to the amount of movement of the knob.
  • the slide bar is displayed at the position where the first touch gesture operation is performed, and the selection value is changed by performing the second touch gesture operation from the position where the first touch gesture operation is performed. Therefore, even if the screen of the touch panel is not visually observed, an effect that the touch gesture operation on the slide bar can be appropriately performed is obtained.
  • FIG. 6 is a flowchart illustrating an operation example of the touch input determination device according to the first embodiment. It is a figure which shows the example of a display of the screen of the touchscreen in step S1 of FIG. It is a figure which shows the touch gesture operation (two-point touch) in step S3 of FIG. It is a figure which shows the example of a display of the screen of the touchscreen in step S4 of FIG. It is a figure which shows 1st touch gesture operation (pinch in) in FIG.3 S5.
  • FIG. 4 is a diagram showing a second touch gesture operation (up / down operation) in steps S6 to S8 of FIG. It is a figure which shows 3rd touch gesture operation (pinch out) in step S9 of FIG. It is a figure which shows the example of a display of the screen of the touchscreen in step S11 of FIG.
  • FIG. 10 is a diagram showing a fourth touch gesture operation in steps S9 and S12 to S13 of FIG.
  • FIG. 4 is a diagram showing a touch gesture operation (single point touch) in steps S16 to S18 of FIG. 10 is a flowchart illustrating an operation example of the touch input determination device according to the second and third embodiments. 10 is a flowchart showing left and right operation processing in the touch input determination device according to Embodiment 2.
  • FIG. 10 is a flowchart showing left and right operation processing in the touch input determination device according to Embodiment 3. It is a figure which shows the touch gesture operation (left-right operation) in FIG.
  • the touch input determination device receives operation information from a touch panel that outputs operation information corresponding to a touch gesture operation, generates a selection value (output information) based on the operation information, and selects the selection value. Outputs a value signal.
  • the touch panel input device is mounted on equipment or equipment, can change and determine a selection value, and can provide the determined selection value to the equipment or equipment.
  • the touch input determination device is applied to a registration device for a stop floor (destination floor) in an elevator system
  • the present invention is not limited to the application of an elevator system.
  • the present invention is also applicable to other systems such as audio equipment and factory equipment.
  • FIG. 1 is a functional block diagram schematically showing a configuration of a touch input determination device 10 according to Embodiment 1 of the present invention.
  • the touch input determination device 10 is a device that can perform the touch input determination method according to the first embodiment. Further, the touch input determination device 10 may be a device (computer) that can execute the touch input determination program according to the first embodiment.
  • the touch input determination device 10 is connected to the touch panel 20.
  • the touch panel 20 includes a display panel unit (display device) 22 that provides an operation image of a display component (for example, button display) used for user operation, and an operation panel unit (input device) 21 that receives a touch gesture operation by the user.
  • a display panel unit 22 and the operation panel unit 21 are arranged so as to constitute a screen for touch gesture operation of the touch panel 20.
  • the touch panel 20 may be a part of the touch input determination device 10.
  • the touch input determination device 10 stores an operation information input unit 11 that receives operation information provided from the operation panel unit 21, a control unit 12 that controls the operation of the entire device, and information.
  • a storage unit 17 such as a semiconductor memory, a notification unit 18 as a sound output unit that outputs an audio signal to a sound output device (for example, a speaker), and a display control unit 19 that controls display contents of the display panel unit 22 are provided. ing.
  • the control unit 12 includes an operation mode switching unit 13 that switches a user operation mode on the touch panel 20 and an operation determination unit 14 that performs processing based on operation information received from the touch panel 20 via the operation information input unit 11. .
  • the operation determination unit 14 includes a first touch gesture determination unit 15 that determines a touch gesture operation in a normal operation mode (display component is displayed) as a first operation mode operated on the touch panel 20, and a touch panel. And a second touch gesture determination unit 16 that determines a touch gesture operation in a non-visual operation mode as a second operation mode operated in 20 (when the entire screen of the touch panel 20 is used as an operation area).
  • the non-visual operation mode means a mode in which a touch gesture operation is possible without viewing the touch panel 20, and is related to whether the user is actually viewing the screen of the touch panel 20 or not. There is no.
  • the operation information input unit 11 receives the operation information output from the operation panel unit 21 of the touch panel 20 and provides it to the control unit 12.
  • the operation mode switching unit 13 sets the user operation mode on the touch panel 20 as a first operation mode for operating display components displayed on the screen of the touch panel 20 or the entire screen of the touch panel 20 as a reception area for touch gesture operations. Switch to operation mode 2. The switching is performed, for example, in response to a user operation on the touch panel 20.
  • the operation mode switching unit 13 is a case where the touch coordinate information that is the operation information received from the touch panel 20 is a two-point touch (shown in FIG. 5 described later) that causes two fingers to contact the screen of the touch panel 20.
  • the user operation mode is switched from the first operation mode to the second operation mode.
  • a pinch-in (first touch gesture operation), which is an operation for narrowing the interval between two fingers, is performed
  • a slide bar (in the position where the pinch-in is performed is displayed on the screen of the touch panel 20. (Shown in FIG. 7 described later) is displayed.
  • the first touch gesture determination unit 15 of the operation determination unit 14 performs a first process based on operation information provided from the touch panel 20 when the first operation mode is set by the operation mode switching unit 13. Specifically, the first touch gesture determination unit 15 uses a button touch that is a touch gesture operation in the first operation mode (normal operation mode) from operation information based on the touch gesture operation provided from the touch panel 20. The contents of a gesture operation (a touch gesture operation on a button as a display component and shown in FIG. 12 described later) are determined, and a signal corresponding to the determination result is output.
  • a gesture operation a touch gesture operation on a button as a display component and shown in FIG. 12 described later
  • the second touch gesture determination unit 16 of the operation determination unit 14 performs a second process based on the operation information provided from the touch panel 20 when the second operation mode is set by the operation mode switching unit 13. Specifically, the second touch gesture determination unit 16 determines in advance at an arbitrary position on the screen of the touch panel 20 after the user operation mode is switched from the first operation mode to the second operation mode.
  • the first touch gesture operation for example, pinch-in
  • a slide bar is displayed at the position where the first touch gesture operation is performed.
  • the second touch gesture determination unit 16 performs a second touch gesture operation (also referred to as “slide bar gesture operation”, which will be described later in FIG. 8) to move (slide) the slide bar knob,
  • the selected value (operation result information) is changed according to the amount of movement.
  • the touch input determination device 10 displays the slide bar including the bar and the knob (knob) at the position where the first touch gesture operation (for example, pinch-in) is performed.
  • a second touch gesture operation (up / down operation for moving the knob upward or downward, shown in FIG. 8 described later) is performed from the position where the first touch gesture operation is performed (shown in FIG. 7 described later). Therefore, the user can change (set) the selected value (for example, the stop floor of the elevator), so that the user can easily and appropriately perform the touch gesture operation on the slide bar without looking at the screen of the touch panel 20. Can do.
  • FIG. 2 is a diagram illustrating a hardware configuration of the touch input determination device 10 according to the first embodiment.
  • the touch input determination device 10 includes a memory 42 that stores a program (touch input determination program) as software, and an information processing device that executes the program stored in the memory 42. And a CPU (Central Processing Unit) 41 as a processor.
  • the memory 42 shown in FIG. 2 corresponds to the storage unit 17 in FIG.
  • the touch input determination device 10 includes a touch interface 43 (corresponding to the operation information input unit 11 in FIG. 1) that mediates communication between the operation panel unit 21 of the touch panel 20 and the CPU 41, and a display panel unit of the touch panel 20. 22 and the CPU 41, a display interface 44 (corresponding to the display control unit 19 in FIG.
  • the CPU 41 in FIG. 2 can implement each configuration of the control unit 12 by executing a touch input determination program stored in the memory 42.
  • FIG. 3 is a flowchart showing an operation example of the touch input determination apparatus 10 according to the first embodiment.
  • 4 to 12 are diagrams showing a screen of the touch panel 20 and a touch gesture operation performed by the user.
  • step S1 of FIG. 3 when the system in which the touch input determination device 10 is mounted is started, the control unit 12 is in a first operation mode (normal operation mode) in which display components are operated, as shown in FIG. As shown, buttons on the touch panel 20 are displayed as display components. In the example of FIG. 4, buttons to which numerical values (selection value candidates) indicating the first floor to the 30th floor are assigned are displayed. In the example of FIG. 4, the 7th floor and the 15th floor are already selected as stop floors (that is, floors scheduled to stop) and are highlighted (for example, brightness highlight or color change display).
  • step S2 the control unit 12 waits for an input of a touch gesture operation on the touch panel 20, and when the touch gesture operation is performed, the process proceeds to step S3.
  • the control unit 12 performs a two-point touch that is a touch gesture operation for switching the operation mode based on the touch position coordinates acquired from the touch panel 20 (as shown in FIG. 5, 2 of the hand 51). It is determined whether or not there has been an operation of touching with a finger of a book. Any finger may be used for the two-point touch. Further, the touch positions 61 and 62 are not limited to the example of FIG. Further, this operation may be another touch gesture operation such as a three-point touch or a rotation operation as long as it can be identified as a touch gesture operation for switching the operation mode.
  • step S3 If it is determined that there is a two-point touch (YES in step S3), the control unit 12 advances the process to step S4, hides the button on the screen of the touch panel 20, and slides the slide bar as shown in FIG.
  • the bar 71 is displayed.
  • the bar 71 extends in a first direction that is a predetermined direction of the screen of the touch panel 20, that is, in the vertical direction (vertical direction).
  • the timing at which the bar 71 is displayed may be later than step S4 (eg, step S6).
  • the extending direction of the bar 71 may be set in another direction such as a horizontal direction (horizontal direction).
  • the control unit 12 determines whether or not a pinch-in as a first touch gesture operation has been performed with two fingers at an arbitrary position on the screen of the touch panel 20 as shown in FIG. to decide. If the first touch gesture operation is an operation that can specify the position on the screen of the touch panel 20 (for example, a double tap with one finger or a long press with one finger), the other touch gesture operation is performed. It may be.
  • step S5 the control unit 12 advances the process to step S6, and slides including a bar 71 and a knob 72 on the screen of the touch panel 20 as shown in FIG. Display the bar. Also, as shown in FIG. 7, the current floor display (“first floor” in FIG. 7) or the like may be displayed.
  • the control unit 12 performs a vertical operation of the knob 72 as a second touch gesture operation for moving the knob 72 in the first direction, that is, a drag operation for moving the knob 72 up or down.
  • step S7 When the up / down operation of the knob 72 is not performed (NO in step S7), the control unit 12 returns the process to step S6 and displays the bar 71 and the knob 72 on the screen of the touch panel 20 as shown in FIG. Is displayed, and a waiting state for waiting for the up / down operation is performed.
  • step S7 When an up / down operation is performed to move the finger upward or downward with the finger gripping the knob 72 (YES in step S7), the control unit 12 advances the process to step S8 and sets the amount of movement of the knob 72.
  • a calculation for changing the current selection value (stop floor) is performed using the corresponding change amount.
  • the selected value increases by a value corresponding to the amount of movement.
  • the selected value is decreased by a value corresponding to the moving amount.
  • the control unit 12 determines whether or not the pinch-out as the third touch gesture operation has been performed at the position when the movement of the knob 72 is completed, as shown in FIG.
  • the third touch gesture operation may be any other operation that can specify the completion of movement of the knob 72 on the screen of the touch panel 20 (for example, a double tap with one finger or a long press with one finger).
  • the touch gesture operation may be used.
  • step S3 when the control unit 12 determines that there is no two-point touch, the process proceeds to step S16, and it is determined whether or not there is a one-point touch as shown as a touch position 63 in FIG. to decide.
  • control unit 12 When the one-point touch is not performed (NO in step S16), the control unit 12 returns the process to step S2 and enters a standby state waiting for acceptance of the touch gesture operation.
  • step S16 determines whether or not a touch release has been performed in step S17. If touch release has been performed (YES in step S17), control unit 12 advances the process to step S18, and determines the changed selection value (stop floor) as a new selection value. When the touch release is not performed (NO in step S10), control unit 12 returns the process to step S2.
  • the figure can be displayed at an arbitrary position on the screen of the touch panel 20. If the pinch-in as the first touch gesture operation shown in step S5 of FIG. 3 and FIG. 7 is performed, a slide bar including the bar 71 and the knob 72 is displayed, and the knob 72 is moved up and down by a simple operation. The selection value can be increased or decreased according to the movement amount and movement direction of the knob 72. For this reason, even if it does not look at the screen of the touch panel 20, the effect that the touch gesture operation with respect to the slide bar displayed on the screen of the touch panel 20 can be performed appropriately is acquired.
  • step S5 to S9 since the touch gesture operation (steps S5 to S9) from the selection start to the selection end on the touch panel 20 is an operation by moving the knob, the user can explicitly indicate the operation and reduce selection errors. Can do.
  • the selected value is a large value and the number of digits of the selected value is a plurality of digits, it takes a long time to change the selected value only by moving the knob 72 on one bar 71.
  • the slide bar has a plurality of bars extending in the vertical direction (first direction).
  • the bars of the book are used to change the number of selected values per digit (eg, the number of one digit, the number of ten digits, the number of hundred digits).
  • the user selects one of the plurality of bars by moving the knob in a second direction that intersects (for example, orthogonally) the first direction, and the plurality of bars are selected in accordance with the movement of the knob in the first direction. Change the number of digits corresponding to the selected bar in the bar.
  • FIG. 13 shows an operation example of the touch input determination device according to the second embodiment.
  • the same step number as the step number of FIG. 3 is attached
  • the operation of the second embodiment shown in FIG. 13 is different from the operation of the first embodiment shown in FIG. 3 in that knob left / right operation and left / right operation processing in steps S14 and S15 are added. Except for this difference, the operation shown in FIG. 13 is the same as that of FIG.
  • FIG. 14 is a flowchart showing a left / right operation process in the touch input determination device according to the second embodiment.
  • FIG. 15 is a diagram showing the touch gesture operation in step S151 of FIG.
  • the selection value is an n-digit number composed of the number of the first digit to the number of the n-th digit.
  • n 3
  • the selected value is the number of the 1's place (number of the first digit), the number of the tens place (number of the 2nd digit), and the number of the hundreds place (the 3rd digit) Number).
  • step S14 in FIG. 13 the operation determination unit 14 of the control unit 12 responds to the movement of the knob 82 in the second direction intersecting the first direction, and the kth of the first to nth bar portions.
  • the bar portion is selected (k is an arbitrary integer not smaller than 1 and not larger than n).
  • step S15 in FIG. 13 step S151 in FIG. 14
  • the selected first portion is selected according to the movement amount of the knob 82 in the first direction. Change the number of the kth digit corresponding to the bar portion of k.
  • the second direction is a direction orthogonal to the first direction, but may not be orthogonal if the direction is different from the first direction.
  • the second embodiment is the same as the first embodiment except for the points described above.
  • Embodiment 3 ⁇ 3-1 Configuration
  • the slide bar has a plurality of bars extending in the vertical direction (first direction). In the bars, different values are set as the rate of change (resolution) that is the ratio of the amount of change in the selected value to the amount of movement of the knob in the first direction.
  • the configuration of the touch input determination device according to the third embodiment is the same as that of the first and second embodiments except for the control content of the control unit 12. For this reason, FIGS. 1 and 13 are referred to in the description of the third embodiment.
  • FIG. 16 is a flowchart showing left / right operation processing in the touch input determination apparatus according to the third embodiment.
  • FIG. 17 is a diagram showing the touch gesture operation in step S152 of FIG.
  • the bar 91 of the slide bar includes first to n-th bar portions extending in the first direction.
  • the bar 91 can be placed at any position on the screen of the touch panel 20.
  • a left and right operation for moving the knob 92 in the horizontal direction is performed to select the bar portion used for changing the selection value.
  • the up / down operation is performed at the leftmost bar portion, and when the selected value is to be increased / decreased at a medium resolution, the up / down operation is performed at the central bar portion. If the selection value is greatly changed, the up / down operation can be performed at the rightmost bar portion.
  • 10 touch input determination device 11 operation information input unit, 12 control unit, 13 operation mode switching unit, 14 operation determination unit, 15 first touch gesture determination unit, 16 second touch gesture determination unit, 17 storage unit, 18 Notification unit, 19 display control unit, 20 touch panel, 21 operation panel unit, 22 display panel unit, 41 CPU, 42 memory.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

タッチ入力判定装置(10)は、ユーザ操作モードを、表示部品を操作する第1の操作モード又は画面の全体をタッチジェスチャ操作の受付領域とする第2の操作モードに切り替える操作モード切替部(13)と、第1の操作モードが設定されたときに操作情報に基づく第1の処理を行い、第2の操作モードが設定されたときに操作情報に基づく第2の処理を行う操作判定部(14)とを備え、操作判定部(14)は、ユーザ操作モードが、第1の操作モードから第2の操作モードに切り替えられた後に、タッチパネルの画面上の任意の位置で予め決められた第1のタッチジェスチャ操作が行われると、第1のタッチジェスチャ操作が行われた位置に、第1方向に延在するバーとつまみとを含むスライドバーを表示させ、前記つまみを前記第1方向に移動させる第2のタッチジェスチャ操作が行われると、つまみの第1方向の移動量に応じて選択値を変更する。

Description

タッチ入力判定装置、タッチ入力判定方法、及びタッチ入力判定プログラム
 本発明は、タッチパネルに表示されたスライドバーを用いて選択値を変更するタッチ入力判定装置、タッチ入力判定方法、及びタッチ入力判定プログラムに関する。
 タッチパネルに表示されたスクロールバー(スライドバー)をユーザが指で操作することで、表示領域をスクロール(スライド)させる機能を備えた情報処理装置が提案されている(例えば、特許文献1参照)。
 また、タッチパネルに表示されたスライドバーにおいて、長尺なバー上に配置されたつまみ(「ノブ」とも言う)をバーに沿って移動(スライド)させることで、移動量に応じた値を出力する電子機器も提案されている(例えば、特許文献2参照)。
特開2014-203202号公報 特開2016-126715号公報
 しかしながら、上記従来の装置及び機器におけるスライドバーの操作は、ユーザがタッチパネルの画面を目視しながら行うものである。このため、ユーザは、タッチパネルの画面を目視することができないとき(例えば、ユーザが他の作業を行っているとき又は視覚障がいを持っているとき)に、スライドバーに対するタッチジェスチャ操作を適切に行うことが困難であるという課題がある。
 本発明は、上記課題を解決するためになされたものであり、タッチパネルの画面を目視していなくても、スライドバーに対するタッチジェスチャ操作を適切に行うことができるタッチ入力判定装置、タッチ入力判定方法、及びタッチ入力判定プログラムを提供することを目的とする。
 本発明の一態様に係るタッチ入力判定装置は、タッチジェスチャ操作に対応する操作情報を出力するタッチパネルから、前記操作情報を受け取り、前記操作情報に基づく選択値を生成する装置であって、前記タッチパネルにおけるユーザ操作モードを、前記タッチパネルの画面に表示された表示部品を操作する第1の操作モード又は前記タッチパネルの画面の全体を前記タッチジェスチャ操作の受付領域とする第2の操作モードに切り替える操作モード切替部と、前記第1の操作モードが設定されたときに前記操作情報に基づく第1の処理を行い、前記第2の操作モードが設定されたときに前記操作情報に基づく第2の処理を行う操作判定部とを備え、前記操作判定部は、前記ユーザ操作モードを、前記第1の操作モードから前記第2の操作モードに切り替えた後に、前記タッチパネルの画面上の任意の位置で予め決められた第1のタッチジェスチャ操作が行われると、前記第1のタッチジェスチャ操作が行われた位置に、バーとつまみとを含むスライドバーを表示させ、前記バーに沿って前記つまみを移動させる第2のタッチジェスチャ操作が行われると、前記つまみの移動量に応じて前記選択値を変更することを特徴とする。
 本発明の一態様に係るタッチ入力判定方法は、タッチジェスチャ操作に対応する操作情報を出力するタッチパネルから、前記操作情報を受け取り、前記操作情報に基づく選択値を生成する方法であって、前記タッチパネルにおけるユーザ操作モードを、前記タッチパネルの画面に表示された表示部品を操作する第1の操作モードから、前記タッチパネルの画面の全体を前記タッチジェスチャ操作の受付領域とする第2の操作モードに切り替えた後に、前記タッチパネルの画面上の任意の位置で予め決められた第1のタッチジェスチャ操作が行われると、前記第1のタッチジェスチャ操作が行われた位置に、バーとつまみとを含むスライドバーを表示させるステップと、前記つまみを移動させる第2のタッチジェスチャ操作が行われると、前記つまみの移動量に応じて前記選択値を変更するステップとを有することを特徴とする。
 本発明によれば、第1のタッチジェスチャ操作が行われた位置にスライドバーが表示され、第1のタッチジェスチャ操作を行った位置から第2のタッチジェスチャ操作を行うことで選択値を変更することができるので、タッチパネルの画面を目視していなくても、スライドバーに対するタッチジェスチャ操作を適切に行うことができるという効果が得られる。
本発明の実施の形態1から3に係るタッチ入力判定装置の構成を概略的に示す機能ブロック図である。 実施の形態1から3に係るタッチ入力判定装置のハードウェア構成を示す図である。 実施の形態1に係るタッチ入力判定装置の動作例を示すフローチャートである。 図3のステップS1におけるタッチパネルの画面の表示例を示す図である。 図3のステップS3におけるタッチジェスチャ操作(2点タッチ)を示す図である。 図3のステップS4におけるタッチパネルの画面の表示例を示す図である。 図3のステップS5における第1のタッチジェスチャ操作(ピンチイン)を示す図である。 図3のステップS6~S8における第2のタッチジェスチャ操作(上下操作)を示す図である。 図3のステップS9における第3のタッチジェスチャ操作(ピンチアウト)を示す図である。 図3のステップS11におけるタッチパネルの画面の表示例を示す図である。 図3のステップS9、S12~S13における第4のタッチジェスチャ操作を示す図である。 図3のステップS16~S18におけるタッチジェスチャ操作(1点タッチ)を示す図である。 実施の形態2及び3に係るタッチ入力判定装置の動作例を示すフローチャートである。 実施の形態2に係るタッチ入力判定装置における左右操作処理を示すフローチャートである。 図14におけるタッチジェスチャ操作(左右操作)を示す図である。 実施の形態3に係るタッチ入力判定装置における左右操作処理を示すフローチャートである。 図16におけるタッチジェスチャ操作(左右操作)を示す図である。
 以下に、本発明の実施の形態に係るタッチ入力判定装置、タッチ入力判定方法、及びタッチ入力判定プログラムを、添付図面を参照しながら説明する。以下の実施の形態は、例にすぎず、本発明の範囲内で種々の変更が可能である。
 実施の形態に係るタッチ入力判定装置は、タッチジェスチャ操作に対応する操作情報を出力するタッチパネルから、操作情報を受け取り、この操作情報に基づく選択値(出力情報)を生成し、選択値を示す選択値信号を出力する。実施の形態に係るタッチパネル入力装置は、設備又は機器に搭載され、選択値を変更及び決定し、決定された選択値を設備又は機器に提供することができる。
 以下の実施の形態では、タッチ入力判定装置がエレベータシステムにおける停止階(行先階)の登録装置に適用された場合を説明するが、本発明は、エレベータシステムの適用に限定されるものではない。本発明は、音響機器及び工場設備などのような他のシステムにも適用可能である。
《1》実施の形態1.
《1-1》構成
 図1は、本発明の実施の形態1に係るタッチ入力判定装置10の構成を概略的に示す機能ブロック図である。タッチ入力判定装置10は、実施の形態1に係るタッチ入力判定方法を実施することができる装置である。また、タッチ入力判定装置10は、実施の形態1に係るタッチ入力判定プログラムを実行することができる装置(コンピュータ)であってもよい。
 図1に示されるように、タッチ入力判定装置10は、タッチパネル20に接続されている。タッチパネル20は、ユーザ操作に使用される表示部品(例えば、ボタン表示)などの操作画像を提供する表示パネル部(表示装置)22と、ユーザによるタッチジェスチャ操作を受け付ける操作パネル部(入力装置)21とを含む。表示パネル部22と操作パネル部21とは、重ねて配置されることで、タッチパネル20のタッチジェスチャ操作用の画面を構成する。ただし、タッチパネル20は、タッチ入力判定装置10の一部であってもよい。
 図1に示されるように、タッチ入力判定装置10は、操作パネル部21から提供された操作情報を受け付ける操作情報入力部11と、装置全体の動作を制御する制御部12と、情報を記憶する半導体メモリなどの記憶部17と、音出力装置(例えば、スピーカ)に音声信号を出力する音出力部としての通知部18と、表示パネル部22の表示内容を制御する表示制御部19とを備えている。
 制御部12は、タッチパネル20におけるユーザ操作モードを切り替える操作モード切替部13と、タッチパネル20から操作情報入力部11を介して受け取った操作情報に基づく処理を行う操作判定部14とを有している。操作判定部14は、タッチパネル20において操作された第1の操作モードとしての通常操作モード時(表示部品が表示されている)のタッチジェスチャ操作を判定する第1のタッチジェスチャ判定部15と、タッチパネル20において操作された第2の操作モードとしての非目視操作モード時(タッチパネル20の画面全体を操作領域としているとき)のタッチジェスチャ操作を判定する第2のタッチジェスチャ判定部16とを有している。ここで、非目視操作モードとは、タッチパネル20を目視しなくてもタッチジェスチャ操作が可能であるモードを意味し、ユーザがタッチパネル20の画面を実際に目視しているか目視していないかとは関係がない。
 操作情報入力部11は、タッチパネル20の操作パネル部21から出力された操作情報を受け取り、これを制御部12に提供する。
 操作モード切替部13は、タッチパネル20におけるユーザ操作モードを、タッチパネル20の画面に表示された表示部品を操作する第1の操作モード又はタッチパネル20の画面の全体をタッチジェスチャ操作の受付領域とする第2の操作モードに切り替える。切り替えは、例えば、タッチパネル20におけるユーザ操作を契機に行われる。例えば、操作モード切替部13は、タッチパネル20から受け取った操作情報であるタッチ座標情報が、2本の指をタッチパネル20の画面に接触させる2点タッチ(後述の図5に示される)であるときに、ユーザ操作モードを、第1の操作モードから第2の操作モードに切り替える。第2の操作モードにおいて、2本の指の間隔を狭くする操作であるピンチイン(第1のタッチジェスチャ操作)が行われると、タッチパネル20の画面には、ピンチインが行われた位置にスライドバー(後述の図7に示される)が表示される。
 操作判定部14の第1のタッチジェスチャ判定部15は、操作モード切替部13により第1の操作モードが設定されたときに、タッチパネル20から提供される操作情報に基づく第1の処理を行う。具体的に言えば、第1のタッチジェスチャ判定部15は、タッチパネル20から提供されたタッチジェスチャ操作に基づく操作情報から、第1の操作モード(通常操作モード)時のタッチジェスチャ操作であるボタンタッチジェスチャ操作(表示部品としてのボタンに対するタッチジェスチャ操作であり、後述の図12に示される)の内容を判定し、判定結果に応じた信号を出力する。
 操作判定部14の第2のタッチジェスチャ判定部16は、操作モード切替部13により第2の操作モードが設定されたときに、タッチパネル20から提供される操作情報に基づく第2の処理を行う。具体的に言えば、第2のタッチジェスチャ判定部16は、ユーザ操作モードが、第1の操作モードから第2の操作モードに切り替えられた後に、タッチパネル20の画面上の任意の位置で予め決められた第1のタッチジェスチャ操作(例えば、ピンチイン)が行われると、第1のタッチジェスチャ操作が行われた位置にスライドバーを表示させる。第2のタッチジェスチャ判定部16は、スライドバーのつまみを移動(スライド)させる第2のタッチジェスチャ操作(「スライドバージェスチャ操作」とも言い、後述の図8に示される)が行われると、つまみの移動量に応じて選択値(操作結果情報)を変更する。
 このように、実施の形態1に係るタッチ入力判定装置10は、第1のタッチジェスチャ操作(例えば、ピンチイン)が行われた位置にバーとつまみ(ノブ)とを含むスライドバーが表示され、第1のタッチジェスチャ操作を行った位置(後述の図7に示される)から第2のタッチジェスチャ操作(つまみを上又は下方向に移動させる上下操作であり、後述の図8に示される)を行うことで選択値(例えば、エレベータの停止階)を変更(設定)することができるので、ユーザはタッチパネル20の画面を目視していなくても、スライドバーに対するタッチジェスチャ操作を容易且つ適切に行うことができる。
 図2は、実施の形態1に係るタッチ入力判定装置10のハードウェア構成を示す図である。図2に示されるように、タッチ入力判定装置10は、ソフトウェアとしてのプログラム(タッチ入力判定プログラム)を格納する記憶装置としてのメモリ42と、メモリ42に格納されているプログラムを実行する情報処理装置であるプロセッサとしてのCPU(Central Processing Unit)41とを備えている。図2に示されるメモリ42は、図1における記憶部17に対応する。また、タッチ入力判定装置10は、タッチパネル20の操作パネル部21とCPU41との間の通信を仲介するタッチインタフェース43(図1の操作情報入力部11に対応する)と、タッチパネル20の表示パネル部22とCPU41との間の通信を仲介する表示インタフェース44(図1の表示制御部19に対応する)と、スピーカなどの音出力装置とCPU41との間の通信を仲介する音出力インタフェース45(図1における通知部18に対応する)とを備えている。図2におけるCPU41は、メモリ42に格納されているタッチ入力判定プログラムを実行することで、制御部12の各構成を実現することができる。
《1-2》動作
 図3は、実施の形態1に係るタッチ入力判定装置10の動作例を示すフローチャートである。また、図4から図12は、タッチパネル20の画面及びユーザが行うタッチジェスチャ操作を示す図である。
 実施の形態1に係るタッチ入力判定装置10は、図4に示されるように、タッチパネル20に接続され、エレベータの停止階(選択値)を選択するためのエレベータ制御システムに搭載される。
 図3のステップS1において、タッチ入力判定装置10が搭載されたシステムの起動時には、制御部12は、表示部品を操作対象とする第1の操作モード(通常操作モード)であり、図4に示されるように、タッチパネル20の画面には、表示部品としてのボタンが表示される。図4の例では、1階から30階までを示す数値(選択値の候補)が割り当てられたボタンが表示されている。また、図4の例では、7階と15階が停止階(すなわち、停止予定の階)として既に選択されて、強調表示(例えば、輝度の強調表示又は色の変更表示)されている。
 次のステップS2において、制御部12は、タッチパネル20におけるタッチジェスチャ操作の入力待ち状態になり、タッチジェスチャ操作が行われると、処理はステップS3に進む。
 次のステップS3において、制御部12は、タッチパネル20から取得したタッチ位置座標に基づいて、操作モードを切り替えるためのタッチジェスチャ操作である2点タッチ(図5に示されるように、手51の2本の指でタッチする操作)があったか否かを判断する。2点タッチに使う指は、どの指であってもよい。また、タッチ位置61,62も、図5の例に限定されない。また、この操作は、操作モード切替のためのタッチジェスチャ操作として識別可能なものであれば、3点タッチ又は回転操作などのような他のタッチジェスチャ操作であってもよい。
 2点タッチ有りと判断した場合には(ステップS3においてYES)、制御部12は、処理をステップS4に進め、タッチパネル20の画面のボタンを非表示にし、図6に示されるように、スライドバーのバー71を表示する。図6の例では、バー71は、タッチパネル20の画面の予め決められた方向である第1方向、すなわち、縦方向(垂直方向)に延在している。なお、バー71が表示されるタイミングは、ステップS4よりも遅いタイミング(例えば、ステップS6)であってもよい。また、バー71の延在方向は、横方向(水平方向)などのような他の方向に設定されてもよい。
 次のステップS5において、制御部12は、タッチパネル20の画面における任意位置で、図7に示されるように、2本の指で、第1のタッチジェスチャ操作としてのピンチインが行われたか否かを判断する。なお、第1のタッチジェスチャ操作は、タッチパネル20の画面における位置を指定可能な操作(例えば、1本の指によるダブルタップ又は1本の指による長押しなど)であれば、他のタッチジェスチャ操作であってもよい。
 ピンチインが行われない場合(ステップS5においてNO)には、制御部12は、処理をステップS4に戻し、タッチパネル20の画面に、図6に示されるように、バー71を表示させて、ピンチインが行われるのを待つ待機状態になる。
 ピンチインが行われた場合(ステップS5においてYES)には、制御部12は、処理をステップS6に進め、タッチパネル20の画面に、図7に示されるように、バー71とつまみ72とを含むスライドバーを表示させる。また、図7に示されるように、現在の階床の表示(図7では「1階」)などを表示してもよい。
 次のステップS7において、制御部12は、つまみ72を第1方向に移動させる第2のタッチジェスチャ操作としての、つまみ72の上下操作、すなわち、つまみ72を上又は下に移動させるドラッグ操作が行われたか否かを判断する。
 つまみ72の上下操作が行われない場合(ステップS7においてNO)には、制御部12は、処理をステップS6に戻し、タッチパネル20の画面に、図7に示されるように、バー71とつまみ72とを表示させて、上下操作が行われるのを待つ待機状態になる。
 つまみ72を指で挟むようにして指を上又は下方向に移動させる上下操作が行われた場合(ステップS7においてYES)には、制御部12は、処理をステップS8に進め、つまみ72の移動量に応じた変化量を用いて、現在の選択値(停止階)を変更するための計算を行う。図8に示されるように、実施の形態1においては、ピンチインを行った位置を基準位置として、この基準位置からノブ72を上に移動させると、選択値は移動量に応じた値だけ増加し、基準位置からノブ72を下に移動させると、選択値は移動量に応じた値だけ減少する。
 次のステップS9において、制御部12は、つまみ72の移動完了時の位置で、図9に示されるように、第3のタッチジェスチャ操作としてのピンチアウトが行われたか否かを判断する。なお、第3のタッチジェスチャ操作は、タッチパネル20の画面におけるつまみ72の移動完了を指定可能な操作(例えば、1本の指によるダブルタップ又は1本の指による長押しなど)であれば、他のタッチジェスチャ操作であってもよい。
 ピンチアウトが行われない場合(ステップS9においてNO)には、制御部12は、処理をステップS12に進め、タッチパネル20の画面から指を離す操作であるタッチリリースが行われたか否かを判断する。タッチリリースが行われた場合(ステップS12においてYES)には、制御部12は、処理をステップS13に進め、図11に示されるように、変更された選択値(停止階)をキャンセルして、選択値を変更前の値に戻す。タッチリリースが行われない場合(ステップS12においてNO)には、制御部12は、処理をステップS9に戻す。
 ピンチアウトが行われた場合(ステップS9においてYES)には、制御部12は、処理をステップS10に進め、タッチリリースが行われたか否かを判断する。タッチリリースが行われた場合(ステップS10においてYES)には、制御部12は、処理をステップS11に進め、変更された選択値(停止階)を新たな選択値に決定する。タッチリリースが行われない場合(ステップS10においてNO)には、制御部12は、処理をステップS5に戻す。なお、制御部12は、新たな選択値(停止階)が決定されたことを、通知部18を通して音声で出力させてもよい。
 また、ステップS3において、制御部12は、2点タッチが無いと判断したときには、処理をステップS16に進め、図12にタッチ位置63として示されるように、1点タッチが有ったか否かを判断する。
 1点タッチが行われない場合(ステップS16においてNO)には、制御部12は、処理をステップS2に戻し、タッチジェスチャ操作の受け付けを待つ待機状態になる。
 1点タッチが行われた場合(ステップS16においてYES)には、制御部12は、ステップS17において、タッチリリースが行われたか否かを判断する。タッチリリースが行われた場合(ステップS17においてYES)には、制御部12は、処理をステップS18に進め、変更された選択値(停止階)を新たな選択値に決定する。タッチリリースが行われない場合(ステップS10においてNO)には、制御部12は、処理をステップS2に戻す。
《1-3》効果
 以上に説明したように、実施の形態1に係るタッチ入力判定装置10、タッチ入力判定方法、及びタッチ入力判定プログラムによれば、タッチパネル20の画面の任意の位置で、図3のステップS5及び図7に示される第1のタッチジェスチャ操作としてのピンチインを行えば、バー71とつまみ72とを含むスライドバーが表示され、つまみ72を上下方向に移動させるという簡単な操作によって、つまみ72の移動量及び移動方向に応じて、選択値を増加又は減少させることができる。このため、タッチパネル20の画面を目視していなくても、タッチパネル20の画面に表示されたスライドバーに対するタッチジェスチャ操作を適切に行うことができるという効果が得られる。
 また、タッチパネル20における選択開始から選択終了までのタッチジェスチャ操作(ステップS5~S9)が、つまみの移動による操作であるため、ユーザが明示的に操作を示すことができ、選択誤りを低減することができる。
《2》実施の形態2.
《2-1》構成
 上記実施の形態1においては、スライドバーは、上下方向(第1方向)に延在した1本のバー71を含み、つまみ72は、1本のバー71上を上下方向に移動し、操作判定部14は、つまみ72の上下方向の移動の移動量に応じた変化量を用いて、現在の選択値を変更した。
 しかし、選択値が大きな値であり、選択値の桁数が複数桁である場合には、1本のバー71上におけるつまみ72の移動だけでは、選択値を変更する操作に要する時間が長い。
 そこで、実施の形態2に係るタッチ入力判定装置、タッチ入力判定方法、及びタッチ入力判定プログラムにおいては、スライドバーは、上下方向(第1方向)に延在する複数本のバーを有し、複数本のバーは、選択値の桁毎の数(例えば、1の桁の数、十の桁の数、百の桁の数)を変更するために使用される。ユーザは、つまみを、第1方向に交差(例えば、直交)する第2方向に移動することで複数本のバーのいずれかを選択し、つまみの第1方向の移動に応じて、複数本のバーの内の選択されたバーに対応する桁の数を変更する。
 実施の形態2に係るタッチ入力判定装置の構成は、制御部12の制御内容を除いて、実施の形態1のものと同じである。このため、実施の形態2の説明に際しては、図1を参照する。
《2-2》動作
 図13は、実施の形態2に係るタッチ入力判定装置の動作例を示している。図13において、図3(実施の形態1)の処理ステップと同じ内容の処理ステップには、図3のステップ番号と同じステップ番号が付される。図13に示される実施の形態2の動作は、ステップS14及びS15のつまみ左右操作及び左右操作処理が追加されている点において、図3に示される実施の形態1の動作と相違する。この相違点以外の点については、図13に示される動作は、図3のものと同様である。
 図14は、実施の形態2に係るタッチ入力判定装置における左右操作処理を示すフローチャートである。図15は、図14のステップS151におけるタッチジェスチャ操作を示す図である。
 図15に示されるように、実施の形態2においては、スライドバーのバー81は、第1方向に延在する第1から第nまでのバー部分を含む。ここで、nは、正の整数である。図15には、n=3の場合、すなわち、第1方向の互いに平行な3本のバー部分が示されている。
 選択値は、1番目の桁の数からn番目の桁の数までによって構成されるn桁の数値である。n=3の場合には、選択値は、1の位の数(1番目の桁の数)、十の位の数(2番目の桁の数)、百の位の数(3番目の桁の数)で表現される。
 第1から第nまでのバー部分は、1番目の桁の数からn番目の桁の数までの変更にそれぞれ使用される。すなわち、図15の例では、1番左側のバー部分(n=1)は、選択値の1の位の数の増減に使用され、中央のバー部分(n=2)は、選択値の十の位の数の増減に使用され、1番右側のバー部分(n=3)は、選択値の百の位の数の増減に使用される。
 図13のステップS14において、制御部12の操作判定部14は、つまみ82の第1方向に交差する第2方向の移動に応じて、第1から第nまでのバー部分の内の第kのバー部分を選択し(kは、1以上n以下の任意の整数)、図13のステップS15(図14のステップS151)において、つまみ82の第1方向の移動量に応じて、選択された第kのバー部分に対応するk番目の桁の数を変更する。図15では、第2方向は、第1方向に直交する方向であるが、第1方向と異なる方向であれば、直交していなくともよい。
《2-3》効果
 以上に説明したように、実施の形態2に係るタッチ入力判定装置、タッチ入力判定方法、及びタッチ入力判定プログラムによれば、タッチパネル20の画面の任意の位置で、バー81とつまみ82とを含むスライドバーが表示された後に、つまみ82を横方向に移動させる左右操作を行うことで、選択値の何番目の桁の数を変更するかを選択することができる。このため、例えば、百の位の値(0から9までの整数)を直接指定し、十の位の値(0から9までの整数)を直接指定し、1の位の値(0から9までの整数)を直接指定することで、選択値を変更することができ、タッチパネル20の画面を目視していなくても、タッチパネル20の画面に表示されたスライドバーに対するタッチジェスチャ操作を適切に行うことができ、迅速に選択値を変更することができる。
 なお、上記以外の点について、実施の形態2は、実施の形態1と同じである。
《3》実施の形態3.
《3-1》構成
 上記実施の形態1においては、選択値が大きな値である場合には、選択値を変更する操作に要する時間が長い。そこで、実施の形態3に係るタッチ入力判定装置、タッチ入力判定方法、及びタッチ入力判定プログラムにおいては、スライドバーは、上下方向(第1方向)に延在する複数本のバーを有し、複数本のバーは、つまみの第1方向の移動量に対する選択値の変化量の比率である変化率(分解能)として、互いに異なる値が設定されている。
 実施の形態3に係るタッチ入力判定装置の構成は、制御部12の制御内容を除いて、実施の形態1及び2のものと同じである。このため、実施の形態3の説明に際しては、図1及び図13を参照する。
《3-2》動作
 図16は、実施の形態3に係るタッチ入力判定装置における左右操作処理を示すフローチャートである。図17は、図16のステップS152におけるタッチジェスチャ操作を示す図である。
 図17に示されるように、実施の形態3においては、スライドバーのバー91は、第1方向に延在する第1から第nまでのバー部分を含む。図17には、n=3の場合、すなわち、第1方向の互いに平行な3本のバー部分が示されている。
 第1から第nまでのバー部分は、つまみ92の第1方向の移動量に対する選択値の変化量の比率である変化率(分解能)として、互いに異なる第1から第nまでの変化率(分解能)が割り当てられている。図17の例では、1番左側(n=1)のバー部分では、単位移動量当たりの増加量が+1であり、単位移動量当たりの減少量が-1であり、中央のバー部分(n=2)では、単位移動量当たりの増加量が+5であり、単位移動量当たりの減少量が-5であり、1番右側のバー部分(n=3)では、単位移動量当たりの増加量が+10であり、単位移動量当たりの減少量が-10である。
 図13のステップS14において、制御部12の操作判定部14は、つまみ92の第1方向に交差する第2方向の移動に応じて、第1から第nまでのバー部分の内の第kのバー部分を選択し(kは、1以上n以下の任意の整数)、図13のステップS15(図16のステップS152)において、つまみ92の第1方向の移動量と、選択された第kのバー部分に対応する変化率(分解能)とを用いて選択値を変更する。
《3-3》効果
 以上に説明したように、実施の形態3に係るタッチ入力判定装置、タッチ入力判定方法、及びタッチ入力判定プログラムによれば、タッチパネル20の画面の任意の位置で、バー91とつまみ92とを含むスライドバーが表示された後に、つまみ92を横方向に移動させる左右操作を行うことで、選択値の変更に使用するバー部分を選択する。このため、例えば、選択値を少し変更する場合には、1番左側のバー部分で上下操作を行い、選択値を中くらいの分解能で増減させたい場合には、中央のバー部分で上下操作を行い、選択値を大きく変更した場合には、1番右のバー部分で上下操作を行うことができる。このような操作によって、タッチパネル20の画面を目視していなくても、タッチパネル20の画面に表示されたスライドバーに対するタッチジェスチャ操作を適切に行うことができ、迅速に選択値を変更することができる。
 なお、上記以外の点について、実施の形態3は、実施の形態1又は2と同じである。
 10 タッチ入力判定装置、 11 操作情報入力部、 12 制御部、 13 操作モード切替部、 14 操作判定部、 15 第1のタッチジェスチャ判定部、 16 第2のタッチジェスチャ判定部、 17 記憶部、 18 通知部、 19 表示制御部、 20 タッチパネル、 21 操作パネル部、 22 表示パネル部、 41 CPU、 42 メモリ。

Claims (9)

  1.  タッチジェスチャ操作に対応する操作情報を出力するタッチパネルから、前記操作情報を受け取り、前記操作情報に基づく選択値を生成するタッチ入力判定装置であって、
     前記タッチパネルにおけるユーザ操作モードを、前記タッチパネルの画面に表示された表示部品を操作する第1の操作モード又は前記タッチパネルの画面の全体を前記タッチジェスチャ操作の受付領域とする第2の操作モードに切り替える操作モード切替部と、
     前記第1の操作モードが設定されたときに前記操作情報に基づく第1の処理を行い、前記第2の操作モードが設定されたときに前記操作情報に基づく第2の処理を行う操作判定部と
     を備え、
     前記操作判定部は、
     前記ユーザ操作モードが、前記第1の操作モードから前記第2の操作モードに切り替えられた後に、前記タッチパネルの画面上の任意の位置で予め決められた第1のタッチジェスチャ操作が行われると、前記第1のタッチジェスチャ操作が行われた位置に、予め決められた第1方向に延在するバーとつまみとを含むスライドバーを表示させ、
     前記つまみを前記第1方向に移動させる第2のタッチジェスチャ操作が行われると、前記つまみの前記第1方向の移動量に応じて前記選択値を変更する
     ことを特徴とするタッチ入力判定装置。
  2.  前記操作判定部は、前記第2のタッチジェスチャ操作の後に、予め決められた第3のタッチジェスチャ操作が行われると、変更された前記選択値を新たな選択値に決定することを特徴とする請求項1に記載のタッチ入力判定装置。
  3.  前記操作判定部は、前記第2のタッチジェスチャ操作の後に、予め決められた第4のタッチジェスチャ操作が行われると、変更された前記選択値をキャンセルすることを特徴とする請求項2に記載のタッチ入力判定装置。
  4.  前記第1のタッチジェスチャ操作は、前記画面上で間隔を狭めるように2本の指を動かすピンチインを含むことを特徴とする請求項2又は3に記載のタッチ入力判定装置。
  5.  前記第3のタッチジェスチャ操作は、前記画面上で間隔を広げるように2本の指を動かすピンチアウトを含むことを特徴とする請求項2から4のいずれか1項に記載のタッチ入力判定装置。
  6.  前記バーは、前記第1方向に延在する第1から第nまでのバー部分を含み、
     前記選択値は、1番目の桁の数からn番目の桁の数までによって構成されるn桁の数値であり、
     nは、正の整数であり、
     kは、1以上n以下の任意の整数であり、
     前記第1から第nまでのバー部分は、前記1番目の桁の数から前記n番目の桁の数までの変更にそれぞれ使用され、
     前記操作判定部は、
     前記つまみの前記第1方向に交差する第2方向の移動に応じて、前記第1から第nまでのバー部分の内の第kのバー部分を選択し、
     前記つまみの前記第1方向の移動量に応じて、選択された前記第kのバー部分に対応するk番目の桁の数を変更する
     ことを特徴とする請求項1から5のいずれか1項に記載のタッチ入力判定装置。
  7.  前記バーは、前記第1方向に延在する第1から第nまでのバー部分を含み、
     nは、正の整数であり、
     kは、1以上n以下の任意の整数であり、
     前記第1から第nまでのバー部分は、前記つまみの前記第1方向の移動量に対する前記選択値の変化量の比率である変化率として、互いに異なる第1から第nまでの変化率が割り当てられ、
     前記操作判定部は、
     前記つまみの前記第1方向に交差する第2方向の移動に応じて、前記第1から第nまでのバー部分の内の第kのバー部分を選択し、
     前記つまみの前記第1方向の移動量に応じて、選択された前記第kのバー部分に対応する前記第kの変化率を用いて前記選択値を変更する
     ことを特徴とする請求項1から5のいずれか1項に記載のタッチ入力判定装置。
  8.  タッチジェスチャ操作に対応する操作情報を出力するタッチパネルから、前記操作情報を受け取り、前記操作情報に基づく選択値を生成するタッチ入力判定方法であって、
     前記タッチパネルにおけるユーザ操作モードを、前記タッチパネルの画面に表示された表示部品を操作する第1の操作モードから、前記タッチパネルの画面の全体を前記タッチジェスチャ操作の受付領域とする第2の操作モードに切り替えた後に、前記タッチパネルの画面上の任意の位置で予め決められた第1のタッチジェスチャ操作が行われると、前記第1のタッチジェスチャ操作が行われた位置に、予め決められた第1方向に延在するバーとつまみとを含むスライドバーを表示させるステップと、
     前記つまみを前記第1方向に移動させる第2のタッチジェスチャ操作が行われると、前記つまみの前記第1方向の移動量に応じて前記選択値を変更するステップと
     を有することを特徴とするタッチ入力判定方法。
  9.  コンピュータに、タッチジェスチャ操作に対応する操作情報を出力するタッチパネルから、前記操作情報を受け取り、前記操作情報に基づく選択値を生成するタッチ入力判定方法を実行させるタッチ入力判定プログラムであって、
     前記コンピュータに、
     前記タッチパネルにおけるユーザ操作モードを、前記タッチパネルの画面に表示された表示部品を操作する第1の操作モードから、前記タッチパネルの画面の全体を前記タッチジェスチャ操作の受付領域とする第2の操作モードに切り替えた後に、前記タッチパネルの画面上の任意の位置で予め決められた第1のタッチジェスチャ操作が行われると、前記第1のタッチジェスチャ操作が行われた位置に、予め決められた第1方向に延在するバーとつまみとを含むスライドバーを表示させる処理と、
     前記つまみを前記第1方向に移動させる第2のタッチジェスチャ操作が行われると、前記つまみの前記第1方向の移動量に応じて前記選択値を変更する処理と
     を実行させることを特徴とするタッチ入力判定プログラム。
PCT/JP2017/011615 2017-03-23 2017-03-23 タッチ入力判定装置、タッチ入力判定方法、及びタッチ入力判定プログラム WO2018173180A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE112017007110.0T DE112017007110T5 (de) 2017-03-23 2017-03-23 Berührungseingabebeurteilungseinrichtung, Berührungseingabebeurteilungsverfahren und Berührungseingabebeurteilungsprogramm
JP2017535719A JP6207804B1 (ja) 2017-03-23 2017-03-23 タッチ入力判定装置、タッチ入力判定方法、及びタッチ入力判定プログラム
CN201780088528.0A CN110431525A (zh) 2017-03-23 2017-03-23 触摸输入判定装置、触摸输入判定方法和触摸输入判定程序
PCT/JP2017/011615 WO2018173180A1 (ja) 2017-03-23 2017-03-23 タッチ入力判定装置、タッチ入力判定方法、及びタッチ入力判定プログラム
KR1020197027062A KR20190112160A (ko) 2017-03-23 2017-03-23 터치 입력 판정 장치, 터치 입력 판정 방법, 및 터치 입력 판정 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/011615 WO2018173180A1 (ja) 2017-03-23 2017-03-23 タッチ入力判定装置、タッチ入力判定方法、及びタッチ入力判定プログラム

Publications (1)

Publication Number Publication Date
WO2018173180A1 true WO2018173180A1 (ja) 2018-09-27

Family

ID=59997784

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/011615 WO2018173180A1 (ja) 2017-03-23 2017-03-23 タッチ入力判定装置、タッチ入力判定方法、及びタッチ入力判定プログラム

Country Status (5)

Country Link
JP (1) JP6207804B1 (ja)
KR (1) KR20190112160A (ja)
CN (1) CN110431525A (ja)
DE (1) DE112017007110T5 (ja)
WO (1) WO2018173180A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113590014A (zh) * 2021-07-16 2021-11-02 日立楼宇技术(广州)有限公司 基于姿态动作的电梯召唤方法、装置和计算机设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021034A (ja) * 1996-06-28 1998-01-23 Shimadzu Corp 数値入力装置
JPH11212726A (ja) * 1998-01-29 1999-08-06 Omron Corp 入力装置
WO2010071187A1 (ja) * 2008-12-18 2010-06-24 日本電気株式会社 スライドバー表示制御装置及びスライドバー表示制御方法
JP2012509393A (ja) * 2008-11-19 2012-04-19 ダウ コーニング コーポレーション シリコーン組成物およびその製造方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100064261A1 (en) * 2008-09-09 2010-03-11 Microsoft Corporation Portable electronic device with relative gesture recognition mode
KR101166292B1 (ko) * 2009-11-04 2012-07-18 삼성전자주식회사 터치스크린을 이용한 한글 입력 방법, 기록매체, 한글 입력 장치 및 이를 포함하는 모바일 기기
JP5772773B2 (ja) * 2012-09-19 2015-09-02 コニカミノルタ株式会社 画像処理装置、操作標準化方法および操作標準化プログラム
JP2014203202A (ja) 2013-04-03 2014-10-27 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
US9582184B2 (en) * 2013-11-04 2017-02-28 Keysight Technologies, Inc. Touch screen control for adjusting a numerical value
CN103853495A (zh) * 2014-02-13 2014-06-11 喻应芝 车载设备触摸控制装置和方法
EP2930049B1 (de) * 2014-04-08 2017-12-06 Volkswagen Aktiengesellschaft Anwenderschnittstelle und Verfahren zur Anpassung einer Ansicht auf einer Anzeigeeinheit
JP2016126715A (ja) 2015-01-08 2016-07-11 オンキヨー株式会社 電子機器、及び、電子機器の制御プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1021034A (ja) * 1996-06-28 1998-01-23 Shimadzu Corp 数値入力装置
JPH11212726A (ja) * 1998-01-29 1999-08-06 Omron Corp 入力装置
JP2012509393A (ja) * 2008-11-19 2012-04-19 ダウ コーニング コーポレーション シリコーン組成物およびその製造方法
WO2010071187A1 (ja) * 2008-12-18 2010-06-24 日本電気株式会社 スライドバー表示制御装置及びスライドバー表示制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113590014A (zh) * 2021-07-16 2021-11-02 日立楼宇技术(广州)有限公司 基于姿态动作的电梯召唤方法、装置和计算机设备
CN113590014B (zh) * 2021-07-16 2023-09-26 日立楼宇技术(广州)有限公司 基于姿态动作的电梯召唤方法、装置和计算机设备

Also Published As

Publication number Publication date
KR20190112160A (ko) 2019-10-02
JPWO2018173180A1 (ja) 2019-03-28
DE112017007110T5 (de) 2019-11-21
JP6207804B1 (ja) 2017-10-04
CN110431525A (zh) 2019-11-08

Similar Documents

Publication Publication Date Title
US10627990B2 (en) Map information display device, map information display method, and map information display program
JP5900500B2 (ja) 携帯電子機器及びキー表示プログラム
EP2530573B1 (en) Touch control method and electronic apparatus
JPH11203044A (ja) 情報処理システム
JP6253284B2 (ja) 情報処理装置およびその制御方法、プログラム、記録媒体
KR20130057369A (ko) 사용자 단말에서 터치 입력 장치 및 방법
CN105593779A (zh) 设备、具有这样设备的系统、用于实现所述系统的方法和用于实现所述方法的计算机程序产品
JP6207804B1 (ja) タッチ入力判定装置、タッチ入力判定方法、及びタッチ入力判定プログラム
CN104777975B (zh) 显示装置以及数值显示方法
JP6342297B2 (ja) 表示制御装置および表示制御方法
JP4166767B2 (ja) 情報処理装置及びポインタの移動表示方法、プログラム並びに記録媒体
US20140317568A1 (en) Information processing apparatus, information processing method, program, and information processing system
JP2001195170A (ja) 携帯型電子機器、入力制御装置、及び記憶媒体
WO2018173181A1 (ja) タッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラム
JPH06324829A (ja) 表示装置
WO2018167860A1 (ja) タッチジェスチャ判定装置、タッチジェスチャ判定方法、タッチジェスチャ判定プログラム、及びタッチパネル入力装置
KR101899884B1 (ko) 그래픽 사용자 인터페이스 장치 및 방법
JP2020086637A (ja) 情報処理装置およびその制御方法、並びにプログラム
JP2020013472A (ja) 画像出力装置、制御方法及びプログラム
JPH09128194A (ja) 表示監視装置
US7106314B2 (en) User interface and method of adapting a sensor signal to actuate multiple dimensions
JP7257248B2 (ja) タッチパネル用コントローラ及びプログラム
US10921894B2 (en) User interface device
JP6496345B2 (ja) 数値制御装置
JP5489218B2 (ja) 金融取引処理装置、画面切替方法、及びプログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2017535719

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17901902

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20197027062

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 17901902

Country of ref document: EP

Kind code of ref document: A1

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载