+

KR101766301B1 - Method and apparatus for inputting character in electronic device - Google Patents

Method and apparatus for inputting character in electronic device Download PDF

Info

Publication number
KR101766301B1
KR101766301B1 KR1020110052090A KR20110052090A KR101766301B1 KR 101766301 B1 KR101766301 B1 KR 101766301B1 KR 1020110052090 A KR1020110052090 A KR 1020110052090A KR 20110052090 A KR20110052090 A KR 20110052090A KR 101766301 B1 KR101766301 B1 KR 101766301B1
Authority
KR
South Korea
Prior art keywords
character
electronic device
input
word
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020110052090A
Other languages
Korean (ko)
Other versions
KR20120134162A (en
Inventor
전현필
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020110052090A priority Critical patent/KR101766301B1/en
Publication of KR20120134162A publication Critical patent/KR20120134162A/en
Application granted granted Critical
Publication of KR101766301B1 publication Critical patent/KR101766301B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/018Input/output arrangements for oriental characters
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 전자기기에서 문자 입력 방법 및 장치에 관한 것으로서, 전자기기에서 문자 입력 방법은, 화면의 각 좌표에 문자를 매핑하는 과정과, 상기 화면에 대한 사용자 터치를 감지하는 과정과, 사용자 터치가 감지된 화면의 좌표에 매핑된 문자를 검색하는 과정과, 상기 검색된 문자의 음성신호를 출력하는 과정을 포함한다.The present invention relates to a method and apparatus for inputting characters in an electronic device, and a method of inputting characters in an electronic device includes the steps of mapping characters to respective coordinates of a screen, detecting a user's touch on the screen, Searching for a character mapped to coordinates of the detected screen, and outputting a voice signal of the searched character.

Description

전자기기에서 문자 입력 방법 및 장치{METHOD AND APPARATUS FOR INPUTTING CHARACTER IN ELECTRONIC DEVICE}TECHNICAL FIELD [0001] The present invention relates to a method and apparatus for inputting characters in an electronic device,

본 발명은 전자기기에서 문자 입력에 관한 기술로서, 특히 시각 장애인의 문자 입력 방법 및 장치에 관한 것이다.
TECHNICAL FIELD The present invention relates to a technique for inputting characters in an electronic device, and more particularly, to a method and apparatus for inputting characters in a blind person.

최근 이동통신 단말기 및 휴대용 단말기 등과 같은 전자 기기들의 사용이 증가하는 추세에 있으며, 이에 따라 서비스 제공자들은 많은 사용자를 확보하기 위해 더욱 편리한 기능을 갖는 전자 기기들을 경쟁적으로 개발하고 있다. 예를 들어, 전자 기기에서 문자를 효율적으로 입력하기 위한 다양한 방식들이 제공되고 있다. 그러나, 종래에 제공되는 문자 입력 방식들은 일반적인 사용자들을 위한 것이므로, 시각 장애인들이 이용하기 어려운 단점이 있다.2. Description of the Related Art Recently, electronic devices such as mobile communication terminals and portable terminals have been increasingly used. Accordingly, service providers are developing electronic devices with more convenient functions to secure a large number of users. For example, various methods for efficiently inputting characters in electronic devices are being provided. However, since the conventional character input methods are provided for general users, they are difficult to use by the visually impaired.

종래 전자기기에서는 시각 장애인들을 위해 음성 인식을 이용한 문자 입력 방식을 제공하고 있다. 예를 들어, 전자기기가 사용자의 음성을 인식하고, 인식된 음성에 대응하는 문자를 자동으로 입력하는 방식을 제공하고 있다. 그러나, 이와 같이 음성을 인식하여 문자를 입력하는 방식은 주변 소음에 따라 음성 인식율이 저하되는 경우, 문자가 오 입력될 수 있는 단점이 있다. 또한, 상기 음성을 인식하여 문자를 입력하는 방식은, 사용자가 말을 하기 어려운 상황에 처한 경우 혹은 상기 사용자가 말하는 것이 불편한 경우에는 사용할 수 없게 되는 단점이 있다.
Conventional electronic devices provide a character input method using speech recognition for the visually impaired. For example, the electronic device recognizes the user's voice and automatically provides a character corresponding to the recognized voice. However, the method of recognizing the voice and inputting the characters has a disadvantage in that if the voice recognition rate is lowered according to the ambient noise, the characters can be erroneously input. In addition, the method of recognizing the voice and inputting characters is disadvantageous when the user is in a situation where it is difficult to speak or when the user is inconvenient to speak.

본 발명은 상술한 바와 같은 문제점을 해결하기 위해 도출된 것으로서, 본 발명의 목적은 전자기기에서 문자 입력 방법 및 장치를 제공함에 있다.The present invention has been made to solve the above problems, and it is an object of the present invention to provide a method and apparatus for inputting characters in an electronic device.

본 발명의 다른 목적은 전자기기에서 터치스크린의 좌표에 문자를 매핑하고, 사용자의 터치 동작을 감지하여 문자를 입력하는 방법 및 장치를 제공함에 있다.It is another object of the present invention to provide a method and apparatus for mapping a character to a coordinate of a touch screen in an electronic device, and sensing a touch operation of the user to input a character.

본 발명의 또 다른 목적은 전자기기에서 터치스크린의 좌표에 문자를 매핑하고, 사용자의 터치 좌표에 대응하는 문자를 음성 신호로 출력하여 시각 장애인의 문자 입력을 용이하게 하는 문자 입력 방법 및 장치를 제공함에 있다.
It is still another object of the present invention to provide a character input method and apparatus for mapping a character to coordinates of a touch screen in an electronic device and outputting a character corresponding to a touch coordinate of a user as a voice signal, .

상술한 목적들을 달성하기 위한 본 발명의 제 1 견지에 따르면, 전자기기에서 문자 입력 방법은, 화면의 각 좌표에 문자를 매핑하는 과정과, 상기 화면에 대한 사용자 터치를 감지하는 과정과, 사용자 터치가 감지된 화면의 좌표에 매핑된 문자를 검색하는 과정과, 상기 검색된 문자의 음성신호를 출력하는 과정을 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method of inputting characters in an electronic device, the method comprising: mapping characters to respective coordinates of a screen; detecting a user's touch on the screen; Searching for a character mapped to the coordinates of the detected screen, and outputting the voice signal of the searched character.

상술한 목적들을 달성하기 위한 본 발명의 제 2 견지에 따르면, 전자기기에서 문자 입력 장치는, 상기 화면에 대한 사용자 터치를 감지하는 감지부와, 화면의 각 좌표에 문자를 매핑하고, 사용자 터치가 감지된 화면의 좌표에 매핑된 문자를 검색하는 제어부와, 상기 검색된 문자의 음성신호를 출력하는 음성 출력부를 포함하는 것을 특징으로 한다.
According to a second aspect of the present invention, there is provided a character input device for an electronic device, comprising: a sensing unit for sensing a user's touch on the screen; a character mapping unit for mapping a character to each coordinate of the screen; A control unit for searching for a character mapped to coordinates of the detected screen, and a voice output unit for outputting a voice signal of the searched character.

본 발명은 전자기기에서 터치스크린의 좌표에 문자를 매핑하고, 사용자의 터치 좌표에 대응하는 문자를 음성 신호로 출력함으로써, 시각 장애인이 보다 용이하게 문자를 입력할 수 있으며, 주변 환경에 관계없이 문자를 정확하게 입력할 수 있는 효과가 있다.
According to the present invention, a character is mapped to a coordinate of a touch screen in an electronic device, and a character corresponding to a user's touch coordinates is output as a voice signal, so that a visually impaired person can input a character more easily, Can be accurately input.

도 1은 본 발명에 따른 전자기기의 블럭 구성을 도시하는 도면,
도 2는 본 발명의 실시 예에 따른 전자기기에서 문자 입력 절차를 도시하는 도면,
도 3a와 3b는 본 발명의 실시 예에 따른 전자기기에서 한글 입력 절차를 도시하는 도면,
도 4 및 도 5는 본 발명의 실시 예에 따른 전자기기에서 한글 입력 방식을 도시하는 도면,
도 6은 본 발명의 실시 예에 따른 전자기기에서 한글 입력 방식을 이용한 폰북 기능을 도시하는 도면,
도 7 및 8은 본 발명의 실시 예에 따른 전자기기에서 영문 입력 방식을 도시하는 도면,
도 9는 본 발명의 실시 예에 따른 전자기기에서 영문 입력 방식을 이용한 폰북 기능을 도시하는 도면,
도 10a 및 도 10b는 본 발명의 다른 실시 예에 따른 전자기기에서 단어 추천을 이용한 영문 입력 절차를 도시하는 도면, 및
도 11 및 도 12는 본 발명의 다른 실시 예에 따른 전자기기에서 단어 추천을 이용한 영문 입력 방식을 도시하는 도면.
1 is a block diagram of an electronic apparatus according to the present invention,
2 is a diagram illustrating a character input procedure in an electronic device according to an embodiment of the present invention;
3A and 3B are diagrams illustrating a Hangul input procedure in an electronic device according to an embodiment of the present invention,
4 and 5 are diagrams showing a Hangul input method in an electronic device according to an embodiment of the present invention,
6 is a diagram illustrating a phone book function using a Hangul input method in an electronic device according to an embodiment of the present invention;
7 and 8 are diagrams illustrating an English input method in an electronic device according to an embodiment of the present invention;
9 is a diagram illustrating a phonebook function using an English input method in an electronic device according to an embodiment of the present invention;
10A and 10B are diagrams illustrating an English input procedure using word recommendation in an electronic device according to another embodiment of the present invention, and FIG.
11 and 12 illustrate an English input method using word recommendation in an electronic device according to another embodiment of the present invention.

이하 본 발명의 바람직한 실시 예를 첨부된 도면을 참조하여 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략할 것이다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, the terms described below are defined in consideration of the functions of the present invention, which may vary depending on the intention of the user, the operator, or the custom. Therefore, the definition should be based on the contents throughout this specification.

이하 본 발명에서는 전자기기에서 터치스크린의 좌표에 문자를 매핑하고, 사용자의 터치 동작을 감지하여 문자를 입력하는 방법 및 장치에 관해 설명할 것이다.Hereinafter, a method and an apparatus for mapping a character to a coordinate of a touch screen in an electronic device and detecting a touch operation of the user to input a character will be described.

도 1은 본 발명에 따른 전자기기의 블럭 구성을 도시하고 있다.1 shows a block diagram of an electronic apparatus according to the present invention.

상기 도 1을 참조하면, 상기 전자기기는 제어부(100), 입출력부(110), 음성 출력부(120) 및 저장부(130)를 포함하여 구성되며, 특히 상기 제어부(100)는 문자 입력 제어부(102)를 포함하여 구성되고, 상기 입출력부(110)는 터치스크린 패널(112)을 포함하여 구성된다.1, the electronic device includes a control unit 100, an input / output unit 110, an audio output unit 120, and a storage unit 130, And the input / output unit 110 includes a touch screen panel 112. The input /

먼저, 상기 제어부(100)는 상기 전자기기의 전반적인 동작을 제어 및 처리하며, 본 발명에 따라 상기 문자 입력 제어부(102)를 포함함으로써 시각 장애인의 문자 입력을 용이하게 하는 문자 입력 방식을 제공하기 위한 기능을 제어 및 처리한다.First, the control unit 100 controls and processes the overall operation of the electronic device, and includes the character input control unit 102 according to the present invention to provide a character input method for facilitating the input of characters by the blind And controls and processes the functions.

즉, 상기 문자 입력 제어부(102)는 문자 입력 모드 진입 시, 터치스크린의 각 좌표에 문자를 매핑하고, 사용자의 터치를 감지하여 터치된 좌표에 매핑된 문자의 음성 신호를 출력하기 위한 기능을 제어 및 처리한다. 또한, 상기 문자 입력 제어부(102)는 사용자의 터치 동작(예: 터치 방향 전환, 터치 해제 등)을 감지하여 터치 좌표에 대응하는 문자 혹은 마지막에 출력된 음성 신호에 대응하는 문자를 저장 및 입력하기 위한 기능을 제어 및 처리한다. 또한, 상기 문자 입력 제어부(102)는 사용자의 터치 방향 전환에 따라 문자 입력 모드를 전환할 수 있다. 예를 들어, 상기 문자 입력 제어부(102)는 사용자의 터치가 상하 방향으로 이동하는 경우, 자음 입력 모드로 동작하고, 상기 사용자의 터치가 좌우 방향으로 이동하는 경우, 모음 입력 모드로 전환하여 동작할 수 있을 것이다. 물론, 설계 방식에 따라 상기 문자 입력 제어부(102)는 사용자의 터치 방향이 전환될 경우, 한글 입력 모드에서 영문 입력 모드로 전환하도록 제어할 수도 있다. 또한, 상기 문자 입력 제어부(102)는 현재 터치 좌표에 대응하는 문자와 이전에 입력된 문자의 결합 가능 여부를 결정하여, 결합이 가능할 시, 상기 현재 터치 좌표에 대응하는 문자와 이전에 입력된 문자를 결합하여 결합된 문자의 음성 신호를 출력하기 위한 기능을 제어 및 처리한다. That is, when the character input mode is entered, the character input control unit 102 controls the function of mapping a character to each coordinate of the touch screen, detecting a user's touch, and outputting a voice signal of a character mapped to the touched coordinate And processing. In addition, the character input control unit 102 detects a user's touch operation (e.g., change of the touch direction, touch release, and the like) and stores and inputs a character corresponding to the touch coordinate or a character corresponding to the last outputted voice signal Control and processing functions for In addition, the character input control unit 102 can switch the character input mode according to the user's touch direction change. For example, when the user's touch moves up and down, the character input control unit 102 operates in a consonant input mode. When the user's touch moves in the left and right direction, the character input control unit 102 switches to a vowel input mode It will be possible. Of course, the character input control unit 102 may control switching from the Hangul input mode to the English input mode when the user's touch direction is switched according to the design method. The character input control unit 102 determines whether or not the character corresponding to the current touch coordinates and the previously input character can be combined. If the character can be combined, the character corresponding to the current touch coordinates and the character previously input And controls and processes a function for outputting a voice signal of a combined character.

상기 문자 입력 제어부(102)는 설계 방식에 따라 다양한 방식으로 터치스크린의 좌표에 문자를 매핑할 수 있다. 예를 들어, 터치스크린의 Y축 좌표 각각에 자음을 순서대로 매핑할 수 있고, X축 좌표 각각에 모음을 순서대로 매핑할 수 있다. 예를 들어, 한글 입력 모드의 경우, (x,0)에 자음 "ㄱ"을 매핑하고, (x,1)에 "ㄴ"을 매핑하고, (x,2)에 "ㄷ"을 매핑하는 방식으로, x축 좌표에 관계없이 Y축 좌표에 대하여 자음들을 순서대로 매핑할 수 있다. 또한, 한글 입력 모드의 경우, (0,y)에 모음 "ㅏ"를 매핑하고, (1,y)에 "ㅑ"를 매핑하고, (2,y)에 "ㅓ"을 매핑하는 방식으로, y축 좌표에 관계없이 x축 좌표에 대하여 모음들을 순서대로 매핑할 수 있다. 이러한 문자 매핑 방식은 영어 입력 모드에도 동일하게 적용될 수 있을 것이다. 여기서, 각각의 문자가 매핑되는 좌표의 간격은 터치스크린의 크기를 고려하여 설정될 수 있으며, 설계 방식에 따라 변경 가능할 것이다. 예를 들어, (x,0) , (x,1), (x,2), ..., (x,y)에 자음을 순서대로 매핑할 수도 있으며, (x,0) , (x,3), (x,6), ..., (x,y)에 자음을 순서대로 매핑할 수도 있을 것이다. 또한, (0,y), (1,y), (2,y), ..., (x,y)에 모음을 순서대로 매핑할 수도 있으며, (0,y), (2,y), (4,y), ..., (x,y)에 자음을 순서대로 매핑할 수도 있을 것이다. The character input control unit 102 can map characters to the coordinates of the touch screen in various ways according to the design method. For example, consonants can be sequentially mapped on each of the Y-axis coordinates of the touch screen, and vowels can be sequentially mapped on each X-axis coordinate. For example, in the case of the Hangul input mode, a method of mapping a consonant "a" to (x, 0), mapping "(b)" to (x, 1), and mapping " , Consonants can be sequentially mapped to the Y axis coordinate irrespective of the x-axis coordinate. Also, in the case of the Hangul input mode, in a manner of mapping vowel "a" to (0, y), "ㅑ" mapping to (1, y), and "ㅓ" The vowels can be mapped in order for the x-axis coordinates, regardless of the y-axis coordinates. Such a character mapping method may be equally applied to the English input mode. Here, the interval of coordinates at which each character is mapped can be set in consideration of the size of the touch screen, and can be changed according to the design method. For example, consonants may be sequentially mapped to (x, 0), (x, 1), (x, 2), ..., 3), (x, 6), ..., (x, y). Also, vowels may be mapped to (0, y), (1, y), (2, y), ..., (x, y) , (4, y), ..., (x, y).

상기 입출력부(110)는 상기 전자기기의 동작 중에 발생되는 각종 상태 정보와 문자, 숫자 및 영상을 디스플레이하는 표시부(미도시)와 사용자로부터 데이터를 입력받는 입력부(미도시)를 포함하여 구성된다. 특히 상기 입출력부(110)는 본 발명에 따라 터치스크린패널(110)을 포함하여 구성됨으로써, 상기 터치스크린패널(110)을 통해 상기 전자기기의 동작 중에 발생되는 다양한 정보들을 디스플레이하고, 사용자 터치를 감지하여 터치된 위치의 좌표를 상기 제어부(100)로 제공한다. 특히, 상기 터치스크린패널(110)은 본 발명에 따라, 문자 입력 모드에서 하기 도 4 내지 도 8에 도시된 바와 같이, 터치된 위치의 좌표에 매핑된 문자와 터치의 이동 방향에 대응하는 좌표들에 매핑된 문자들을 디스플레이할 수 있다. 또한 상기 터치스크린패널(110)은 본 발명에 따라, 사용자의 터치 시작 위치의 좌표, 터치 이동에 대응하는 좌표들 및 터치 해제 위치의 좌표를 상기 제어부(100)로 제공할 수 있다. 여기서, 상기 터치 이동에 대응하는 좌표들을 통해 상기 제어부(100)가 터치 이동의 방향이 전환되었음을 감지할 수 있을 것이다.The input / output unit 110 includes a display unit (not shown) for displaying various status information and characters, numbers, and images generated during operation of the electronic device, and an input unit (not shown) for receiving data from the user. In particular, the input / output unit 110 includes the touch screen panel 110 according to the present invention, thereby displaying various information generated during operation of the electronic device through the touch screen panel 110, And provides the coordinates of the touched position to the control unit 100. In particular, as shown in FIGS. 4 to 8, in the character input mode, the touch screen panel 110 displays the characters mapped to the coordinates of the touched position and the coordinates Lt; RTI ID = 0.0 > mapped < / RTI > In addition, the touch screen panel 110 may provide the controller 100 with coordinates of the user's touch start position, coordinates corresponding to the touch movement, and coordinates of the touch release position according to the present invention. Here, the controller 100 may detect that the direction of the touch movement has been switched through the coordinates corresponding to the touch movement.

상기 음성 출력부(120)는 상기 제어부(100)의 제어에 따라 전자기기의 동작 중에 발생되는 음성 신호를 출력한다. 특히, 본 발명에 따라 상기 음성 출력부(120)는 문자 입력 모드에서, 사용자의 터치 위치의 좌표에 대응하는 문자의 음성 신호를 출력한다. 여기서, 상기 음성 출력부(120)는 상기 제어부(100)로부터 상기 저장부(130)에 저장된 디지털 음성 신호를 제공받아 아날로그 신호로 변환하여 출력할 수 있다. The voice output unit 120 outputs a voice signal generated during operation of the electronic device under the control of the control unit 100. [ In particular, in accordance with the present invention, the voice output unit 120 outputs a voice signal of a character corresponding to the coordinates of the touch position of the user in the character input mode. Here, the voice output unit 120 may receive the digital voice signal stored in the storage unit 130 from the controller 100, convert the digital voice signal into an analog signal, and output the analog voice signal.

상기 저장부(130)는 상기 전자기기의 동작에 필요한 각종 프로그램 및 데이터를 저장한다. 특히, 상기 저장부(130)는 본 발명에 따라 상기 제어부(100)의 제어에 따라 터치스크린의 각 좌표와 문자의 매핑 관계를 나타내는 테이블을 저장하고, 상기 각 문자에 대응하는 음성 신호를 저장한다. 상기 저장부(130)는 상기 제어부(100)의 제어에 따라 복수의 문자 입력 모드 별로 각 좌표와 문자의 매핑 관계를 나타내는 테이블을 저장한다. 예를 들어, 상기 저장부(130)는 Y축 좌표와 한글의 자음 간의 매핑 관계를 나타내는 테이블, X축 좌표와 한글의 모음 간의 매핑 관계를 나타내는 테이블, Y축 좌표와 영어의 자음 간의 관계를 나타내는 테이블, X축 좌표와 영어의 모음 간의 매핑관계를 나타내는 테이블 등을 저장할 수 있다.
The storage unit 130 stores various programs and data necessary for the operation of the electronic apparatus. In particular, according to the present invention, the storage unit 130 stores a table indicating mapping relationships between coordinates of characters and coordinates of the touch screen under the control of the controller 100, and stores voice signals corresponding to the characters . The storage unit 130 stores a table indicating a mapping relationship between coordinates and characters according to a plurality of character input modes under the control of the controller 100. [ For example, the storage unit 130 may include a table indicating a mapping relationship between the Y-axis coordinate and the Korean consonant, a table indicating a mapping relationship between the X-axis coordinate and the Korean vowel, a Y-axis coordinate, A table, a table indicating the mapping relationship between the X axis coordinate and the English vowel, and the like.

도 2는 본 발명의 실시 예에 따른 전자기기에서 문자 입력 절차를 도시하고 있다.2 shows a character input procedure in an electronic device according to an embodiment of the present invention.

상기 도 2를 참조하면, 상기 전자기기는 201단계에서 문자 입력 모드로 진입한다. 여기서, 상기 문자 입력 모드로의 진입은 미리 설정된 단축키 입력, 음성 인식, 더블 터치 등과 같은 다양한 방법을 통해 수행될 수 있으며, 특정 방법에 대해 한정되지 않을 것이다.Referring to FIG. 2, in step 201, the electronic device enters a character input mode. Herein, the entry into the character input mode may be performed through various methods such as pre-set hot key input, voice recognition, double touch, etc., and the specific method is not limited.

상기 전자기기는 203단계에서 미리 설정된 방식에 따라 화면의 각 좌표에 문자들을 매핑하고, 205단계로 진행하여 사용자 터치가 발생되는지 여부를 감지한다.The electronic device maps characters to respective coordinates of the screen according to a preset method in step 203 and proceeds to step 205 to detect whether a user touch is generated.

상기 사용자 터치가 감지될 시, 상기 전자기기는 207단계로 진행하여 사용자에 의해 터치된 좌표에 매핑된 문자의 음성 신호를 검색한다. 이후, 상기 전자기기는 상기 검색된 음성 신호를 출력하여 사용자가 청취할 수 있도록 한다.When the user touch is detected, the electronic device proceeds to step 207 and searches for a voice signal of a character mapped to coordinates touched by the user. Then, the electronic device outputs the searched voice signal so that the user can listen to the voice signal.

이후, 상기 전자기기는 211단계에서 상기 사용자 터치가 이동하거나 해제되는지 여부를 검사한다. 즉, 상기 전자기기는 사용자가 터치를 해제하지 않은 상태에서 드래그되어 다른 위치로 이동하거나 상기 사용자 터치가 해제되는지 여부를 검사한다. In step 211, the electronic device checks whether the user's touch is moved or released. That is, the electronic device examines whether the user moves to another position or the user's touch is released while the user does not release the touch.

만일, 상기 사용자 터치가 해제되지 않고 드래그되어 다른 위치로 이동하는 경우, 상기 전자기기는 213단계로 진행하여 터치가 이동함에 따라 대응하는 좌표에 매핑된 문자의 음성 신호를 출력한 후, 상기 211단계로 되돌아간다. 이때, 상기 전자기기는 설계 방식에 따라 사용자의 터치가 이동하는 경로에 포함된 좌표들 각각에 매핑된 문자의 음성 신호를 순차적으로 모두 출력할 수도 있고, 상기 사용자의 터치가 특정 위치에 임계 시간 이상 머무르는 경우에만, 해당 위치의 좌표에 매핑된 문자의 음성 신호를 출력할 수도 있을 것이다. 예를 들어, 화면의 A, B, C, ..., G 위치의 각 좌표에 문자 "ㄱ", "ㄴ", "ㄷ", ..., "ㅅ"이 매핑된 상태에서 사용자가 A 위치를 터치한 후 드래그하여 B, C 및 D를 터치한 경우, A, B, C, D 위치에 매핑된 문자 "ㄱ", "ㄴ", "ㄷ", "ㄹ"의 음성 신호를 순차적으로 출력할 수도 있으며, 이때 상기 터치가 B 위치와 C 위치에서는 임계 시간 이하로 머무르고, 상기 터치가 상기 A 위치와 D 위치에서는 임계 시간 이상으로 머무른 경우, 상기 A 위치와 C 위치에 매핑된 문자 "ㄱ", "ㄹ"의 음성 신호만 순차적으로 출력할 수 있을 것이다.If the user touch is not released and is dragged and moved to another position, the electronic device proceeds to step 213 and outputs a voice signal of a character mapped to a corresponding coordinate as the touch moves, Lt; / RTI > At this time, the electronic device may sequentially output all the voice signals of the characters mapped to the coordinates included in the path along which the user's touch moves according to the design method, Only when staying, it is possible to output the voice signal of the character mapped to the coordinates of the position. For example, in a state in which characters "a", "b", "c", ..., "" are mapped to coordinates of A, B, C, The audio signals of characters "a", "b", "c" and "d" mapped to positions A, B, C and D are sequentially In this case, if the touch remains below the threshold time at the B position and the C position, and when the touch remains at the A position and the D position for more than the threshold time, the character mapped to the A position and the C position Quot; "and" d ", respectively.

또한, 여기서 상기 음성 신호 출력 시, 현재 위치의 좌표에 매핑된 문자와 이전에 입력 및 저장된 문자의 결합 가능 여부를 결정하여, 결합 가능한 경우 상기 현재 위치의 좌표에 매핑된 문자와 이전에 입력 및 저장된 문자를 결합하여, 결합 문자의 음성 신호를 출력할 수 있을 것이다. 여기서 결합 가능 여부는 미리 저장된 문자 결합 방식 혹은 단어 DB 등을 통해 결정할 수 있을 것이다.Here, when outputting the voice signal, it is determined whether or not the characters mapped to the coordinates of the current position and the previously input and stored characters can be combined. If possible, the characters mapped to the coordinates of the current position are input and stored previously Characters can be combined to output a voice signal of a combined character. In this case, whether or not the word can be combined can be determined through a previously stored character combination method or a word DB.

반면, 상기 전자기기는 상기 사용자 터치가 해제되는 경우, 즉, 사용자의 화면 접촉이 종료되는 경우, 상기 전자기기는 215단계로 진행하여 마지막에 출력된 음성에 대응하는 문자를 저장 및 입력하고, 상기 215단계로 되돌아가 이하 단계를 재수행한다.
On the other hand, when the user touch is released, that is, when the user touches the screen, the electronic device proceeds to step 215 to store and input the character corresponding to the last output voice, The process returns to step 215 and executes the following steps again.

도 3a와 3b는 본 발명의 실시 예에 따른 전자기기에서 한글 입력 절차를 도시하고 있다. 상기 도 3a와 3b에서는 설명의 편의를 위하여 Y축 좌표에 대하여 한글의 자음을 매핑하고, X축 좌표에 대하여 한글의 모음을 매핑하는 경우를 예를 들어 상세하게 설명하기로 한다. 그러나, 상기 도 3a와 3b의 설명은 본 발명의 요지를 벗어나지 않는 범위 내에서 다양하게 변경될 수 있다. 예를 들어, Y축 좌표에 대하여 영어의 자음을 매핑하고, X축 좌표에 대하여 영어의 자음을 매핑하는 경우에도 동일한 방식으로 적용 가능하며, Y축 좌표에 대하여 한글 혹은 영어의 모음을 매핑하고, X축 좌표에 대하여 한글 혹은 영어의 자음을 매핑하는 경우에도 동일한 방식으로 적용될 수 있을 것이다.3A and 3B illustrate a Hangul input procedure in an electronic device according to an embodiment of the present invention. In FIGS. 3A and 3B, for convenience of description, a case in which a Korean consonant is mapped to a Y-axis coordinate and a Korean vowel is mapped to an X-axis coordinate will be described in detail, for example. However, the description of FIGS. 3A and 3B can be variously modified without departing from the gist of the present invention. For example, it is also possible to map consonants of English to Y-axis coordinates and to map consonants of English to X-axis coordinates in the same manner. A Korean or English vowel is mapped to Y-axis coordinates, The same method can be applied to mapping the Korean or English consonants to the X-axis coordinates.

상기 도 3a와 3b를 참조하면, 상기 전자기기는 301단계에서 문자 입력 모드로 진입한다. 여기서, 상기 문자 입력 모드로의 진입은 미리 설정된 단축키 입력, 음성 인식, 더블 터치 등과 같은 다양한 방법을 통해 수행될 수 있으며, 특정 방법에 대해 한정되지 않을 것이다.Referring to FIGS. 3A and 3B, the electronic device enters a character input mode in step 301. FIG. Herein, the entry into the character input mode may be performed through various methods such as pre-set hot key input, voice recognition, double touch, etc., and the specific method is not limited.

상기 전자기기는 303단계에서 미리 설정된 방식에 따라 화면의 Y축 좌표에 대해 자음을 순서대로 매핑하고, X축 좌표에 대해 모음을 순서대로 매핑한다. 예를 들어, (x,0)에 "ㄱ"을 매핑하고, (x,1)에 "ㄴ"을 매핑하고, (x,2)에 "ㄷ"을 매핑하는 방식으로, x축 좌표에 관계없이 Y축 좌표에 대하여 자음들을 순서대로 매핑하고, (0,y)에 "ㅏ"를 매핑하고, (1,y)에 "ㅑ"를 매핑하고, (2,y)에 "ㅓ"을 매핑하는 방식으로, y축 좌표에 관계없이 x축 좌표에 대하여 모음들을 순서대로 매핑할 수 있다. 여기서, 각각의 문자가 매핑되는 좌표 간의 간격은 터치스크린의 크기를 고려하여 설정될 수 있으며, 설계 방식에 따라 변경 가능할 것이다. 예를 들어, (x,0) , (x,1), (x,2), ,,, (x,y)에 자음을 순서대로 매핑할 수도 있으며, (x,0) , (x,3), (x,6), ,,, (x,y)에 자음을 순서대로 매핑할 수도 있을 것이다. In step 303, the electronic device sequentially maps the consonants to the Y-axis coordinates of the screen according to a preset method, and sequentially maps the vowels with respect to the X-axis coordinates. For example, in a manner such that "a" is mapped to (x, 0), "b" is mapped to (x, 1), and "m" is mapped to (0, y), mapping "ㅑ" to (1, y), mapping "ㅓ" to (2, y) , Vowels can be mapped in order for the x-axis coordinate, regardless of the y-axis coordinates. Here, the interval between the coordinates to which each character is mapped may be set considering the size of the touch screen, and may be changed according to the design method. For example, consonants may be mapped to (x, 0), (x, 1), (x, 2) ), (x, 6), ,,, (x, y).

이후, 상기 전자기기는 305단계에서 사용자 터치가 발생되는지 여부를 감지한다.In step 305, the electronic device detects whether a user touch occurs.

상기 사용자 터치가 감지될 시, 상기 전자기기는 307단계로 진행하여 사용자에 의해 터치된 좌표를 확인하고, 상기 확인된 좌표의 Y축에 매핑된 자음의 음성 신호를 검색한다. 이후, 상기 전자기기는 309단계로 진행하여 상기 검색된 음성 신호를 출력하여 사용자가 청취할 수 있도록 한다. 예를 들어, 상기 도 4(a)에 나타낸 바와 같이, 사용자가 터치한 위치의 Y축 좌표에 "ㄴ(401)"이 매핑된 경우, 상기 "ㄴ"을 나타내는 음성 신호 "니은"을 출력한다.When the user touch is detected, the electronic device proceeds to step 307 to check coordinates touched by the user, and searches for a voice signal of a consonant mapped on the Y-axis of the identified coordinates. Thereafter, the electronic device proceeds to step 309 and outputs the searched voice signal so that the user can listen to the voice signal. For example, as shown in Fig. 4 (a), if "b (401) " is mapped to the Y axis coordinate of the position touched by the user, a voice signal" .

이후, 상기 전자기기는 311단계에서 상기 사용자 터치가 이동하거나 해제되는지 여부를 검사한다. 즉, 상기 전자기기는 사용자가 터치를 해제하지 않은 상태에서 드래그되어 다른 위치로 이동하거나 상기 사용자 터치가 해제되는지 여부를 검사한다. In step 311, the electronic device determines whether the user's touch is moved or released. That is, the electronic device examines whether the user moves to another position or the user's touch is released while the user does not release the touch.

만일, 상기 사용자 터치가 해제되는 경우, 상기 전자기기는 315단계로 진행하여 마지막으로 출력된 음성 신호에 대응하는 문자를 저장 및 입력하고, 상기 305단계로 되돌아가 이하 단계를 재수행한다. 예를 들어, 마지막으로 출력된 음성 신호가 "니은"인 경우, 상기 전자기기는 문자 "ㄴ"을 입력되었음을 인지하고, 상기 문자 "ㄴ"을 대응하는 문자 입력 창에 입력하고 이를 저장한다.If the user touch is released, the electronic device proceeds to step 315 and stores and inputs the character corresponding to the last output speech signal, and returns to step 305 to perform the following steps again. For example, if the last output speech signal is "shiny ", the electronic device recognizes that the letter" a "has been input and stores the letter" b "

반면, 상기 사용자 터치가 해제되지 않고 화면 접촉을 유지한 상태로 다른 위치로 이동하는 경우, 상기 전자기기는 313단계로 진행하여 상기 터치의 이동 방향이 Y축에 대응하는 방향인지 여부를 검사한다. 만일, 상기 터치의 이동 방향이 Y축에 대응하는 이동방향인 경우, 상기 전자기기는 317단계로 진행하여 터치의 이동 위치에 대응하는 Y축 좌표에 매핑된 자음의 음성 신호를 검색하고, 319단계로 진행하여 검색된 음성 신호를 출력한다. 예를 들어, 상기 도 4(a)에 나타낸 바와 같이, 사용자가 "ㄴ(401)"이 매핑된 위치를 터치한 후, 터치를 유지한 상태에서 아래로 이동하는 경우, 이동한 위치의 Y축 좌표에 매핑된 문자 "ㅈ(403)"을 나타내는 음성 신호" 지읒"을 출력한다.On the other hand, if the user touch is not released but moves to another position while maintaining the screen contact, the electronic device proceeds to step 313 to check whether the movement direction of the touch corresponds to the Y axis. If the movement direction of the touch is the movement direction corresponding to the Y axis, the electronic apparatus proceeds to step 317 to search for a voice signal of the consonant mapped to the Y axis coordinate corresponding to the movement position of the touch, And outputs the searched voice signal. For example, as shown in Fig. 4 (a), when the user touches a position mapped with "b " 401 and then moves down while holding the touch, And outputs a speech signal "support" indicating the character "I (403) " mapped to the coordinates.

이후, 상기 전자기기는 321단계에서 상기 터치의 이동 방향이 변경되거나 터치가 해제되는지 여부를 검사한다. 만일, 상기 터치의 이동 방향이 변경되지 않고 터치가 해제되지 않은 경우, 상기 전자기기는 상기 317단계로 되돌아가 이하 단계를 재수행한다. 반면, 상기 터치의 이동 방향이 변경되거나 터치가 해제되는 경우, 상기 전자기기는 하기 329단계로 진행한다.In step 321, the electronic device checks whether the moving direction of the touch is changed or the touch is released. If the touch direction is not changed and the touch is not released, the electronic device returns to step 317 to re-execute the following steps. On the other hand, if the moving direction of the touch is changed or the touch is released, the electronic device proceeds to step 329. FIG.

한편, 상기 터치의 이동 방향이 X축에 대응하는 이동방향인 경우, 상기 전자기기는 323단계로 진행하여 터치의 이동 위치에 대응하는 X축 좌표에 매핑된 모음의 음성 신호를 검색하고, 325단계로 진행하여 검색된 음성 신호를 출력한다. 예를 들어, 상기 도 4(b)에 나타낸 바와 같이, 사용자가 "ㅈ(403)"이 매핑된 위치를 터치한 후, 터치를 유지한 상태에서 옆으로 이동하는 경우, 이동한 위치의 X축 좌표에 매핑된 문자 "ㅓ(411)"을 나타내는 음성 신호" 어"을 출력한다. 이때, 상기 전자기기는 마지막으로 출력한 음성 신호의 문자와 상기 문자 "ㅓ"의 결합 여부를 판단하여, 결합이 가능한 경우, 두 문자를 결합한 문자의 음성 신호를 출력할 수 있다. 예를 들어, 도 4(a)에 나타낸 바와 같이, 마지막으로 출력한 음성 신호가 "지읒"인 경우, 상기 "지읒"에 대응하는 문자 "ㅈ(403)"과 도 4(b)에 나타낸 바와 같이 상기 터치가 이동한 위치의 X축 좌표에 대응하는 문자 "ㅓ(411)"가 결합 가능할 경우, 상기 "저"의 음성신호 "저"를 출력한다. If the movement direction of the touch is the movement direction corresponding to the X-axis, the electronic apparatus proceeds to step 323 and searches for the voiced sound of the vowel mapped to the X-axis coordinate corresponding to the movement position of the touch, And outputs the searched voice signal. For example, as shown in FIG. 4 (b), when the user touches a position mapped with "X (403)" and then moves sideways while maintaining the touch, the X axis And outputs a speech signal "" representing the character "(411)" mapped to the coordinates. At this time, the electronic device judges whether or not the character of the voice signal outputted last is combined with the character "", and when it is possible to combine, the electronic device can output the voice signal of the character combining the two characters. For example, as shown in Fig. 4 (a), when the last output speech signal is "Supported ", the letter" Quot; low "when the character" 411 "corresponding to the X-axis coordinate of the position where the touch has moved can be combined.

이후, 상기 전자기기는 327단계에서 상기 터치의 이동 방향이 변경되거나 터치가 해제되는지 여부를 검사한다. 만일, 상기 터치의 이동 방향이 변경되지 않고 터치가 해제되지 않은 경우, 상기 전자기기는 상기 312단계로 되돌아가 이하 단계를 재수행한다. 반면, 상기 터치의 이동 방향이 변경되거나 터치가 해제되는 경우, 상기 전자기기는 하기 329단계로 진행한다.In step 327, the electronic device checks whether the moving direction of the touch is changed or the touch is released. If the touch direction is not changed and the touch is not released, the electronic device returns to step 312 and re-executes the following steps. On the other hand, if the moving direction of the touch is changed or the touch is released, the electronic device proceeds to step 329. FIG.

상기 전자기기는 329단계에서 사용자 터치의 이동 방향이 변경되었는지 혹은 해제되었는지 여부를 검사하여, 상기 사용자 터치의 이동 방향이 변경된 경우 상기 313단계로 되돌아가고, 상기 사용자 터치가 해제된 경우 331단계로 진행하여 마지막으로 출력된 음성 신호에 대응하는 문자를 저장 및 입력한다. 이후, 상기 전자기기는 상기 305단계로 되돌아가 이하 단계를 재수행한다.
The electronic device checks whether the direction of movement of the user's touch is changed or not in step 329. If the direction of movement of the user's touch is changed, the electronic device returns to step 313. If the user's touch is released, And stores and inputs the character corresponding to the last output speech signal. Thereafter, the electronic device returns to step 305 and re-executes the following steps.

그러면, 상술한 바와 같은 설명을 바탕으로 문자를 입력하는 방법에 대해 예를 들어 살펴보기로 한다.Hereinafter, a method of inputting characters based on the above description will be described as an example.

도 4 및 도 5는 본 발명의 실시 예에 따른 전자기기에서 한글 입력 방식을 도시하고 있다.4 and 5 illustrate a Hangul input method in an electronic device according to an embodiment of the present invention.

상기 도 4에 나타낸 바와 같이, 사용자가 화면의 소정 위치를 터치한 경우, 전자기기는 터치 위치의 Y축 좌표에 매핑된 자음 "ㄴ(401)"의 음성신호 "니은"을 출력한 후 사용자의 터치가 화면 접촉을 유지한 상태에서 아래로 이동하는 것을 감지하여, 이동한 위치의 Y축 좌표에 매핑된 "ㅈ(403)"의 음성신호 "ㅈ"을 출력한다. 이때, 상기 전자기기는 상기 문자 "ㅈ"을 임시 저장하고, 대응하는 문자 입력창에 디스플레이할 수 있다. 이후, 상기 터치가 화면 접촉을 유지한 상태에서 왼쪽으로 이동할 경우, 상기 전자기기는 이동한 위치의 X축 좌표에 매핑된 "ㅓ(411)"를 확인하고, 상기 마지막에 출력된 음성신호의 문자 "ㅈ(403)"과 결합하여 문자 "저"를 생성한 후, 이에 대응하는 음성신호 "저"를 출력한다. 여기서, 상기 전자기기는 상기 임시 저장된 문자 "ㅈ"을 문자 "저"로 갱신하여 저장하고, 상기 문자 입력창에 디스플레이된 "ㅈ" 역시 문자 "저"로 변경하여 디스플레이한다. 이후, 상기 사용자 터치가 화면 접촉을 유지한 상태에서 다시 위쪽으로 이동할 경우, 상기 전자기기는 이동한 위치의 Y축 좌표에 매핑된 "ㄴ(401)"을 확인하고, 상기 마지막에 출력된 음성신호 "저"와 결합하여 문자 "전"을 생성한 후, 이에 대응하는 음성신호 "전"을 출력한다. 이때, 상기 전자기기는 상기 임시 저장 및 입력한 "저"를 "전"으로 갱신하고, 사용자 터치가 해제되는 경우, 상기 "전"을 입력 문자로 결정 및 저장할 수 있다.4, when the user touches a predetermined position on the screen, the electronic device outputs the voice signal "Nin " of the consonant" b 401 "mapped to the Y- Detects that the touch moves down while maintaining the screen contact, and outputs the audio signal "i" of " I (403) " mapped to the Y axis coordinate of the moved position. At this time, the electronic device can temporarily store the character "X" and display it on the corresponding character input window. Then, when the touch moves to the left while maintaining the screen contact, the electronic device confirms "411" mapped to the X-axis coordinate of the moved position, Quot; (403) "to generate the character" low ", and outputs the corresponding voice signal "low. &Quot; Here, the electronic device updates the temporarily stored character "X" to the character "low ", and displays" X " Then, when the user touch moves upward again while maintaining the screen contact, the electronic device confirms "b 401" mapped to the Y axis coordinate of the moved position, And generates a character "before" in combination with "low ", and outputs a voice signal" before " At this time, the electronic device updates the temporarily stored "low" to "before ", and when the user touch is released, the electronic device can determine and store the" previous "as an input character.

이후, 상기 도 5에 나타낸 바와 같이, 사용자가 다시 화면을 터치한 경우, 상기 전자기기는 터치 위치의 Y축 좌표에 매핑된 자음 "ㅁ(501)"의 음성신호 "미음"을 출력한다. 이때, 상기 전자기기는 상기 문자 "ㅁ"을 임시 저장하고, 대응하는 문자 입력창에 디스플레이할 수 있다. 이후 사용자의 터치가 화면 접촉을 유지한 상태에서 왼쪽으로 이동할 경우, 상기 전자기기는 이동한 위치의 X축 좌표에 매핑된 "ㅣ(511)"를 확인하고, 상기 마지막에 출력된 음성신호의 문자 "ㅁ(501)"과 결합하여 문자 "미"를 생성한 후, 이에 대응하는 음성신호 "미"를 출력한다. 여기서, 상기 전자기기는 상기 임시 저장된 문자 "ㅁ"을 문자 "미"로 갱신하여 저장하고, 상기 문자 입력창에 디스플레이된 "ㅁ" 역시 문자 "미"로 변경하여 디스플레이한다. 이후, 상기 사용자 터치가 화면 접촉을 유지한 상태에서 다시 위쪽으로 이동할 경우, 상기 전자기기는 이동한 위치의 Y축 좌표에 매핑된 "ㄴ(521)"을 확인하고, 상기 마지막에 출력된 음성신호 "미"와 결합하여 문자 "민"을 생성한 후, 이에 대응하는 음성신호 "민"을 출력한다. 이때, 상기 전자기기는 상기 임시 저장 및 입력한 "미"를 "민"으로 갱신하고, 사용자 터치가 해제되는 경우, 상기 "민"을 입력 문자로 결정 및 저장할 수 있다.5, when the user touches the screen again, the electronic device outputs a voice signal "mute" of the consonant "501" mapped to the Y-axis coordinate of the touch position. At this time, the electronic device can temporarily store the character "?" And display it on the corresponding character input window. Then, when the user's touch moves to the left while maintaining the contact with the screen, the electronic device confirms "511" mapped to the X-axis coordinate of the moved position, (501) "to generate the character" L ", and outputs the corresponding voice signal "L ". Here, the electronic device updates and stores the temporarily stored character "CI" to the character "CI ", and changes" KI " Then, when the user touch moves upward again while maintaining the screen contact, the electronic device confirms "b (521) " mapped to the Y axis coordinate of the moved position, And generates a character "MIN" in combination with "MUSIC ", and outputs a voice signal" MIN " At this time, the electronic device updates the temporarily stored "minor" to "minor ", and when the user touch is released, the electronic device can determine and store the" minor "as an input character.

이에 따라, 상기 전자기기는 사용자 터치에 따라 "전민"이 입력되었음을 화면에 나타낼 수 있다.
Accordingly, the electronic device can display on the screen that the "all people" has been input according to the user's touch.

도 6은 본 발명의 실시 예에 따른 전자기기에서 한글 입력 방식을 이용한 폰북 기능을 도시하고 있다.6 illustrates a phone book function using a Hangul input method in an electronic device according to an embodiment of the present invention.

상기 도 6을 참조하면, "전민"이라는 단어가 입력된 상태에서 사용자가 화면을 멀티 터치한 경우, 예를 들어, 둘 이상의 손가락으로 터치한 경우, 상기 전자기기는 상기 입력된 "전민"에 대한 검색 기능을 수행할 수 있다. 즉, 상기 전자기기는 메모리에 저장된 정보들 중에서 상기 "전민"에 대응하는 정보를 검색할 수 있다. 예를 들어, 상기 전자기기는 폰북에서 "전민"을 포함하는 사용자 이름을 검색하고, 검색된 사용자 이름을 화면의 각 좌표에 매핑할 수 있다. 이때, 상기 사용자의 멀티 터치가 화면 접촉 상태를 유지한 채로 아래로 이동(601)하는 경우, 상기 전자기기는 상기 멀티 터치의 이동 위치의 좌표에 매핑된 사용자 이름을 확인하고, 대응하는 음성 신호를 출력할 수 있다. 즉, 도시된 바와 같이, 사용자의 멀티 터치가 이동한 좌표에 매핑된 이름이 "전민욱(611)"일 경우, 상기 전자기기는 이름 "전민욱"에 대응하는 음성신호를 출력한다. 이때, 상기 사용자가 해당 위치를 소정 시간 이상 터치하는 경우, 상기 전자기기는 상기 "전민욱(611)"에 대응하는 전화번호로 호를 발신하는 기능을 수행할 수 있다.Referring to FIG. 6, when the user touches the screen with multi-touch, for example, with two or more fingers in a state in which the word "All" is input, Search function can be performed. In other words, the electronic device can search for information corresponding to the "all citizen" among the information stored in the memory. For example, the electronic device may search for a user name that includes "all people" in the phone book, and map the retrieved user name to each coordinate of the screen. At this time, when the user's multi-touch moves down (601) while maintaining the screen contact state, the electronic device confirms the user name mapped to the coordinates of the movement position of the multi-touch, Can be output. That is, as shown in the figure, when the name mapped to the coordinates of the movement of the multi-touch of the user is "Jeon Min Wook 611 ", the electronic device outputs a voice signal corresponding to the name" Jeon Min Wook ". At this time, when the user touches the corresponding position for a predetermined time or longer, the electronic device can perform a function of transmitting a call to a telephone number corresponding to the "Jun-Min Wook 611 ".

여기서는, 상기 전자기기의 폰북에서 상기 입력된 "전민"을 포함하는 이름을 검색하는 것에 대하여 설명하였으나, 상기 전자기기에서 단어 데이터베이스를 구비한 경우, 상기 단어 데이터베이스에서 상기 입력된 "전민"을 포함하는 단어를 검색하는 것도 가능할 것이다.
Herein, a description has been given of searching for a name including the input "full name" in the phonebook of the electronic device. However, if the electronic device includes a word database, It is also possible to search for words.

도 7 및 8은 본 발명의 실시 예에 따른 전자기기에서 영문 입력 방식을 도시하고 있다. 여기서, 상기 전자기기에서 영문을 입력하는 방식은 한글을 입력하는 방식과 유사하나, 한글에서는 하나의 음절에 자음이 연속적으로 포함되지 않은 것과는 달리 영어에서는 자음이 연속적으로 입력될 수 있으므로, 이를 반영하기 위해 대각선 형태의 터치를 인식하여 자음을 입력하는 방식을 추가하였다.7 and 8 illustrate an English input method in an electronic device according to an embodiment of the present invention. Here, the method of inputting alphabet in the electronic device is similar to the method of inputting Hangul in Korean, but unlike the case in which consonants are not consecutively included in one syllable in Hangul, consonants can be continuously input in English, In addition, a method of recognizing the diagonal touch and inputting consonants is added.

상기 도 7에 도시된 바와 같이, 사용자가 화면을 터치한 경우, 전자기기는 터치 위치의 Y축 좌표에 매핑된 자음 "C(701)"의 음성신호 "C"를 출력한다. 이때, 상기 전자기기는 상기 문자 "C(701)"를 임시 저장하고, 대응하는 문자 입력창에 디스플레이할 수 있다. 이후, 상기 사용자의 터치가 화면 접촉을 유지한 상태에서 대각선 아래로 이동하는 경우, 상기 전자기기는 이동 위치의 Y축 좌표에 매핑된 자음 "H(711)"의 음성 신호 "H([eit∫])"를 출력한다. 이때, 상기 전자기기는 상기 자음 "C(701)"의 음성신호를 출력한 후, 사용자 터치의 이동 방향이 변경되었으므로, 상기 문자 "C(701)"와 문자 "H(711)"를 모두 입력 문자로 결정하고, 두 문자에 대응하는 음성 신호 "C([si]), H([eit∫])"를 출력할 수 있다. 이때, 상기 전자기기는 상기 문자 "C(701)"와 "H(711)"를 임시 저장하고, 두 문자를 문자 입력창에 디스플레이한다. 이후, 상기 사용자 터치가 화면 접촉을 유지한 상태에서 아래로 이동하는 경우, 상기 전자기기는 이동 위치의 Y축 좌표에 매핑된 "R(713)"의 음성 신호 "R([aːr])"을 출력한다. 이때, 상기 전자기기는 상기 "C([si]), H([eit∫])"의 음성신호를 출력한 후, 사용자 터치의 이동 방향이 변경되었으므로, 상기 문자 "C", "H" 및 "R"을 모두 입력 문자로 결정하고, 세 문자에 대응하는 음성 신호 "C([si]), H([eit∫]), R[aːr])"를 출력할 수 있다. 이후, 상기 사용자 터치가 화면 접촉을 유지한 상태에서 왼쪽으로 이동하는 경우, 상기 전자기기는 이동 위치의 X축에 매핑된 "I(715)"의 음성신호를 출력한다. 이때, 상기 전자기기는 이전에 입력된 문자 "CHR"과 "I"를 결합하여 "CHRI"의 음성신호 "CHRI([kri])"를 출력할 수 있다.As shown in FIG. 7, when the user touches the screen, the electronic device outputs the voice signal "C" of the consonant "C (701) " mapped to the Y- At this time, the electronic device can temporarily store the character "C (701) " and display it on the corresponding character input window. Then, when the touch of the user moves down the diagonal line while maintaining the contact with the screen, the electronic device determines that the voice signal "H (eit?) Of the consonant" H (711) "mapped to the Y- ]) " At this time, since the electronic device has changed the moving direction of the user's touch after outputting the voice signal of the consonant "C (701) ", the character " C (701)" ([Si]), H ([eit?]) "Corresponding to the two characters can be output. At this time, the electronic device temporarily stores the letters "C (701)" and "H (711) ", and displays the two characters in the character input window. Then, when the user touch moves down while maintaining the screen contact, the electronic device sets the audio signal " R ([aːr]) "of" R (713) " mapped to the Y- Output. At this time, after the electronic device outputs the voice signals of "C (si)" and H ("eit") ", the direction of movement of the user's touch is changed so that the letters" C " ([Si]), H ([eit?]), R [a? R]) "corresponding to the three characters can be output. If the user touch moves to the left while maintaining the screen contact, the electronic device outputs a voice signal of "I (715)" mapped to the X axis of the movement position. At this time, the electronic device can output the voice signal "CHRI ([kri])" of "CHRI" by combining the previously input characters "CHR" and "I".

이에 따라, 상기 전자기기는 도 8에 나타낸 바와 같이, 사용자 터치에 따라 "CHRI"가 입력되었음을 화면에 나타낼 수 있다.
Accordingly, as shown in Fig. 8, the electronic device can display on the screen that "CHRI" is inputted according to the user's touch.

도 9는 본 발명의 실시 예에 따른 전자기기에서 영문 입력 방식을 이용한 폰북 기능을 도시하고 있다.FIG. 9 illustrates a phonebook function using an English input method in an electronic device according to an embodiment of the present invention.

상기 도 9를 참조하면, "CHRI"이라는 단어가 입력된 상태에서 사용자가 화면을 둘 이상의 손가락으로 멀티 터치한 경우, 상기 전자기기는 상기 입력된 "CHRI"에 대한 검색 기능을 수행할 수 있다. 즉, 상기 전자기기는 메모리에 저장된 정보들 중에서 상기 "CHRI"에 대응하는 정보를 검색할 수 있다. 예를 들어, 상기 전자기기는 폰북에서 "CHRI"를 포함하는 사용자 이름을 검색하고, 검색된 사용자 이름을 화면의 각 좌표에 매핑할 수 있다. 이때, 상기 사용자의 멀티 터치가 화면 접촉 상태를 유지한 채로 아래로 이동(801)하는 경우, 상기 전자기기는 상기 멀티 터치의 이동 위치의 좌표에 매핑된 사용자 이름을 확인하고, 대응하는 음성 신호를 출력할 수 있다. 즉, 도시된 바와 같이, 사용자의 멀티 터치가 이동한 좌표에 매핑된 이름이 "CHRISS(811)"일 경우, 상기 전자기기는 이름 "CHRISS"에 대응하는 음성신호를 출력한다. 이때, 상기 사용자가 해당 위치를 소정 시간 이상 터치하는 경우, 상기 전자기기는 상기 "CHRISS(811)"에 대응하는 전화번호로 호를 발신하는 기능을 수행할 수도 있다.
Referring to FIG. 9, when the user inputs the word "CHRI" and the user multi-touches the screen with two or more fingers, the electronic device can perform a search function for the input "CHRI ". That is, the electronic device can retrieve information corresponding to the "CHRI" from the information stored in the memory. For example, the electronic device may search for a user name including "CHRI" in the phone book, and map the retrieved user name to each coordinate of the screen. At this time, when the user's multi-touch moves down while maintaining the screen contact state (801), the electronic device confirms the user name mapped to coordinates of the movement position of the multi-touch, Can be output. That is, as shown in the figure, when the name mapped to the coordinates of the user's multi-touch is "CHRISS (811)", the electronic device outputs a voice signal corresponding to the name "CHRISS". At this time, when the user touches the corresponding position for a predetermined time or longer, the electronic device may perform a function of transmitting a call to a telephone number corresponding to the "CHRISS (811) ".

상술한 바와 같이, 본 발명에서는 화면의 Y축 좌표와 X축 좌표 각각에 자음과 모음을 순서대로 매핑하고, 사용자가 터치한 위치에 매핑된 문자의 음성 신호를 출력함으로써, 사용자가 음성 신호를 듣고 입력하고자 하는 단어에 포함된 각 문자를 입력할 수 있도록 하고 있다. 그러나, 영어 단어의 경우, 묵음 및 유사 발음이 존재하기 때문에, 상술한 바와 같은 방식만으로는 시각 장애인이 원하는 단어를 입력하는데 어려움이 발생될 수 있다. 따라서, 본 발명에서는 단어 추천을 이용한 영문 입력 방식을 제공한다. As described above, in the present invention, consonants and vowels are sequentially mapped in the Y-axis coordinate and the X-axis coordinate of the screen, and a voice signal of a character mapped at a position touched by the user is output, It is possible to input each character included in a word to be input. However, in the case of an English word, silence and similar pronunciation exist, so that it may be difficult for a blind person to input a desired word only by the above-described method. Accordingly, the present invention provides an English input method using word recommendation.

도 10a 및 도 10b는 본 발명의 다른 실시 예에 따른 전자기기에서 단어 추천을 이용한 영문 입력 절차를 도시하고 있다. 여기서는, Y축 좌표에 영문자의 자음과 모음을 모두 매핑하고, X축 좌표에 영문자의 모음만을 매핑하는 경우를 예로 들어 설명하기로 한다. 그러나, X축 좌표에 영문자의 자음과 모음을 모두 매핑하고, Y축 좌표에 영문자의 모음만을 매핑하는 경우에도 동일하게 적용될 수 있다. 또한, 이하 설명하는 단어 추천 방식은 한글 입력시에도 동일한 방식으로 적용될 수 있을 것이다.10A and 10B illustrate an English input procedure using word recommendation in an electronic device according to another embodiment of the present invention. Here, the description will be made by taking as an example a case where both the consonant and vowel of English alphabets are mapped on the Y-axis coordinate and only the vowels of the alphabet are mapped on the X-axis coordinate. However, the same can be applied to mapping both consonants and vowels of alphabet letters to the X-axis coordinate and mapping only vowels of the alphabet to the Y-axis coordinate. In addition, the word recommendation method described below may be applied in the same manner at the time of inputting Hangul.

도 10a 및 도 10b를 참조하면, 상기 전자기기는 1001단계에서 영문 입력 모드로 진입한다. 여기서, 상기 영문 입력 모드로의 진입은 미리 설정된 단축키 입력, 음성 인식, 더블 터치 등과 같은 다양한 방법을 통해 수행될 수 있으며, 특정 방법에 대해 한정되지 않을 것이다.Referring to FIGS. 10A and 10B, the electronic device enters an English input mode in step 1001. FIG. Here, the entry into the English input mode may be performed through various methods such as a preset hot key input, a voice recognition, a double touch, etc., and the specific method is not limited.

상기 전자기기는 1003단계에서 미리 설정된 방식에 따라 화면의 Y축 좌표에 대해 영어문자의 자음과 모음을 순서대로 매핑하고, X축 좌표에 대해 영어문자의 모음을 순서대로 매핑한다. 예를 들어, (x,0)에 "A"을 매핑하고, (x,1)에 "B"을 매핑하고, (x,2)에 "C"을 매핑하는 방식으로, x축 좌표에 관계없이 Y축 좌표에 대하여 자음 및 모음들을 순서대로 매핑하고, (0,y)에 "A"를 매핑하고, (1,y)에 "E"를 매핑하고, (2,y)에 "I"을 매핑하는 방식으로, y축 좌표에 관계없이 x축 좌표에 대하여 모음 A, E, I, O, U, Y를 순서대로 매핑할 수 있다. 여기서, 각각의 문자가 매핑되는 좌표 간의 간격은 터치스크린의 크기를 고려하여 설정될 수 있으며, 설계 방식에 따라 변경 가능할 것이다. 예를 들어, (x,0) , (x,1), (x,2), ,,, (x,y)에 자음을 순서대로 매핑할 수도 있으며, (x,0) , (x,3), (x,6), ,,, (x,y)에 자음을 순서대로 매핑할 수도 있을 것이다. In step 1003, the electronic device sequentially maps consonants and vowels of English characters to Y-axis coordinates of the screen according to a preset method, and sequentially maps collections of English characters to X-axis coordinates. For example, in a manner such that "A" is mapped to (x, 0), "B" is mapped to (x, 1), and "C" (1, y) is mapped to (1, y), and (2, y) is mapped to "I" E, I, O, U, and Y with respect to the x-axis coordinate, regardless of the y-axis coordinates. Here, the interval between the coordinates to which each character is mapped may be set considering the size of the touch screen, and may be changed according to the design method. For example, consonants may be mapped to (x, 0), (x, 1), (x, 2) ), (x, 6), ,,, (x, y).

이후, 상기 전자기기는 1005단계에서 사용자 터치가 발생되는지 여부를 감지한다.In step 1005, the electronic device determines whether a user touch is generated.

상기 사용자 터치가 감지될 시, 상기 전자기기는 1007단계로 진행하여 사용자에 의해 터치된 위치의 Y축 좌표에 매핑된 문자의 음성 신호를 출력한다. 예를 들어, 도 11(a)에 나타낸 바와 같이, 사용자가 터치한 위치의 Y축 좌표에 "E"가 매핑된 경우, 상기 "E"을 나타내는 음성 신호를 출력한다.When the user touch is detected, the electronic device proceeds to step 1007 and outputs a voice signal of a character mapped to the Y-axis coordinate of the position touched by the user. For example, as shown in Fig. 11 (a), when "E" is mapped to the Y-axis coordinate of the position touched by the user, a voice signal indicating "E" is output.

이후, 상기 전자기기는 1009단계에서 상기 사용자 터치가 이동하거나 터치 방향이 전환되는지 여부를 검사한다. 만일, 상기 사용자 터치가 드래그되어 화면의 다른 위치로 이동하는 경우, 상기 전자기기는 상기 1007단계로 되돌아가 상기 사용자의 터치 위치의 Y축 좌표에 매핑된 문자의 음성 신호를 출력한다. 예를 들어, 상기 도 11(a)에 나타낸 바와 같이, 상기 "E"를 나타내는 음성 신호를 출력한 후, 사용자의 터치가 Y축 방향으로 이동하여 Y축 좌표에 "L"이 매핑된 위치에 머무르는 경우, 상기 "L"을 나타내는 음성 신호를 출력한다.In step 1009, the electronic device checks whether the user's touch is moved or the touch direction is switched. If the user touch is dragged and moved to another position on the screen, the electronic device returns to step 1007 and outputs a voice signal of a character mapped to the Y-axis coordinate of the touch position of the user. For example, as shown in Fig. 11 (a), after the audio signal indicating "E" is output, the touch of the user moves in the Y-axis direction and the position of "Y" When staying, it outputs a voice signal indicating "L ".

반면, 상기 사용자 터치의 이동 방향이 전환하는 경우, 상기 전자기기는 1011단계로 진행하여 마지막으로 출력된 음성 신호에 대응하는 문자를 제 1 입력 문자로 저장한다. 예를 들어, 상기 사용자의 터치가 Y축 방향으로 이동함에 따라 "E"의 음성 신호가 출력되고, 이 후 "L"의 음성 신호가 출력된 경우, 마지막으로 출력된 음성 신호에 대응하는 문자 "L"을 제 1 입력 문자로 저장한다.On the other hand, if the moving direction of the user's touch is switched, the electronic device proceeds to step 1011 and stores a character corresponding to the finally output voice signal as a first input character. For example, when the user's touch moves in the Y-axis direction, an audio signal of "E" is output, and thereafter a voice signal of "L " L "as the first input character.

이후, 상기 전자기기는 1013단계에서 상기 사용자 터치가 X축 방향으로 이동하는지 혹은 대각선 방향으로 이동하는지 여부를 검사한다. 만일, 상기 사용자 터치가 X축 방향으로 이동하는 경우, 상기 전자기기는 1015단계로 진행하여 사용자 터치 위치의 X축 좌표에 매핑된 모음의 음성 신호를 출력한다. 예를 들어, 도 11(b)에 나타낸 바와 같이, 사용자의 터치가 X축 방향으로 이동하여 X축 좌표에 "O"가 매핑된 위치에 머무르는 경우, 상기 "O"를 나타내는 음성 신호를 출력한다.In step 1013, the electronic device checks whether the user's touch moves in the X-axis direction or in the diagonal direction. If the user touch moves in the X-axis direction, the electronic instrument proceeds to step 1015 and outputs a vowel sound signal of the vowel mapped to the X-axis coordinate of the user touch position. For example, as shown in FIG. 11 (b), when the touch of the user moves in the X-axis direction and remains at the position where "0" is mapped in the X-axis coordinate, a voice signal indicating "O" is output .

반면, 상기 사용자 터치가 Y축 방향으로 이동하는 경우, 상기 전자기기는 1017단계로 진행하여 사용자 터치 위치의 Y축 좌표에 매핑된 문자의 음성 신호를 출력한다. 예를 들어, 도 12(a)에 나타낸 바와 같이, 상기 사용자 터치가 "A"의 음성 신호를 출력 및 저장한 후, 도 12(b)에 나타낸 바와 같이 대각선 방향으로 터치되어 Y축 좌표에 "P"가 매핑된 위치에 머무르는 경우, 상기 전자기기는 상기 "P"를 나타내는 음성신호를 출력한다.On the other hand, if the user touch moves in the Y axis direction, the electronic device proceeds to step 1017 and outputs a voice signal of a character mapped to the Y axis coordinate of the user touch position. For example, as shown in Fig. 12 (a), after the user touch outputs and stores the audio signal of "A ", the user touches the diagonal direction as shown in Fig. 12 (b) P "remains in the mapped position, the electronic device outputs a voice signal indicating the" P ".

이후, 상기 전자기기는 1019단계로 진행하여 단어 추천 이벤트가 발생되는지 여부를 검사한다. 즉, 상기 전자기기는 현재까지 입력된 문자들을 포함하는 단어를 추천하는 기능을 수행하기 위한 이벤트가 발생되는지 여부를 검사한다. 상기 단어 추천 이벤트는 상기 사용자의 터치 해제, 멀티 터치, 메뉴 선택 및 단축키 입력 등과 같은 다양한 방식에 의해 발생될 수 있으며, 본 발명에서는 특정 방식으로 한정하지 않을 것이다.In step 1019, the electronic device determines whether a word recommendation event is generated. That is, the electronic device checks whether an event for performing a function of recommending a word including the input characters up to now is generated. The word recommendation event may be generated by various methods such as the user's cancellation of touch, multi-touch, menu selection, and shortcut key input, and the present invention is not limited to a specific method.

상기 단어 추천 이벤트가 발생되지 않을 시, 상기 전자기기는 1013단계로 되돌아가 사용자의 터치 방향에 따라 문자의 음성 신호를 출력하는 과정을 재수행한다.When the word recommendation event is not generated, the electronic device returns to step 1013 and re-executes the process of outputting the voice signal of the character according to the touch direction of the user.

만일, 상기 단어 추천 이벤트가 발생될 시, 상기 전자기기는 1021단계로 진행하여 마지막으로 출력된 음성신호에 대응하는 문자를 제 2 입력 문자로 저장한다. If the word recommendation event is generated, the electronic device proceeds to step 1021 and stores the character corresponding to the finally output speech signal as the second input character.

이후, 상기 전자기기는 1023단계로 진행하여 미리 저장 및 설계된 단어 데이터베이스에서 상기 제 1 입력문자와 제 2 입력문자를 포함하는 단어들 중에서 사용 빈도가 높은 단어들을 검색하고, 1025단계에서 상기 검색된 단어들을 화면의 좌표 각각에 대해 매핑한다. 예를 들어, 도 11(c)에 나타낸 바와 같이, 사용자가 터치를 통해 "L"과 "O"를 입력한 상태에서 단어 추천 이벤트가 발생될 시, 상기 전자기기는 "LO"를 포함하는 단어들 "LOVE, LONG, LOG, LOW... " 등을 검색하고, 검색한 단어들을 화면의 각 Y축 좌표에 매핑한다. 또한, 도 12(c)에 나타낸 바와 같이 사용자가 터치를 통해 "A"와 "P"를 입력한 상태에서 단어 추천 이벤트가 발생될 시, 상기 전자기기는 "AP"를 포함하는 단어들 "APPLE, APPL, APART ..." 등을 검색하고, 검색한 단어들을 화면의 Y축 좌표에 매핑한다. 여기서, 상기 전자기기는 상기 제 1 입력문자와 제 2 입력문자를 포함하는 단어들 중에서 사용빈도가 높은 순서에 따라 추천 단어들을 검색할 수도 있으며, 상기 제 1 입력문자와 제 2 입력문자를 포함하는 단어들 중에서 미리 설정된 우선순위가 높은 순서에 따라 추천 단어들을 검색할 수도 있다. 또한, 상기 전자기기는 상기 사용빈도 혹은 우선순위가 높은 단어들을 사용자가 터치하기 쉬운 위치에 우선적으로 매핑할 수도 있을 것이다. 예를 들어, 상기 전자기기의 화면에 사용자가 터치를 유지하고 있는 경우, 상기 전자기기는 검색된 단어들 중에서 사용빈도 혹은 우선순위가 높은 단어일 수록 상기 사용자의 터치 위치에 가까운 곳에 매핑하고, 사용 빈도가 낮은 단어일 수록 상기 사용자의 터치 위치와 먼 곳에 매핑하는 방식을 이용할 수 있을 것이다.In step 1023, the electronic apparatus searches for words having a high frequency of use among words including the first input character and the second input character in a word database stored and designed in advance, and in step 1025, Map on each of the screen coordinates. For example, as shown in Fig. 11 (c), when a word recommendation event is generated when the user inputs "L" and "O" through touching, the electronic device transmits a word , "LOVE, LONG, LOG, LOW ...", and maps the searched words to each Y-axis coordinate on the screen. 12 (c), when a word recommendation event is generated with the user inputting "A" and "P" through the touch, the electronic device generates words "APPLE" , APPL, APART ... ", and maps the searched words to the Y-axis coordinates of the screen. Here, the electronic device may search for the recommended words in the order of the highest frequency of use among the words including the first input character and the second input character, and the electronic device may include the first input character and the second input character It is also possible to search for the recommended words in the order of higher priority in the preset words. In addition, the electronic device may preferentially map the words having high frequency of use or high priority to a position where the user can easily touch. For example, if the user maintains a touch on the screen of the electronic device, the electronic device maps the frequency of use or proximity to the touch location of the user, It is possible to use a method of mapping the touch location of the user to a remote place.

이후, 상기 전자기기는 1027단계에서 사용자의 터치를 인식하여 터치 위치에 매핑된 단어의 음성신호를 출력하고, 1027단계에서 상기 사용자의 터치가 해제되거나 상기 출력된 음성신호에 대응하는 단어를 선택하는 이벤트가 발생되는지 여부를 검사한다. 상기 사용자 터치가 해제되지 않고, 상기 출력된 음성 신호에 대응하는 단어를 선택하는 이벤트가 발생되지 않을 시, 상기 전자기기는 1027단계로 되돌아가 상기 사용자의 터치 위치에 매핑된 단어의 음성신호를 출력하는 과정을 재수행한다.In step 1027, the electronic device recognizes the user's touch and outputs a voice signal of a word mapped to the touch position. In step 1027, the electronic device determines whether the user's touch is canceled or a word corresponding to the output voice signal is selected Check whether an event occurs. If the user touch is not released and an event for selecting a word corresponding to the output speech signal is not generated, the electronic device returns to step 1027 to output a speech signal of a word mapped to the touch position of the user Re-execute the process.

만일, 상기 사용자 터치가 해제되거나 상기 출력된 음성 신호에 대응하는 단어를 선택하는 이벤트가 발생될 시, 상기 전자기기는 1031단계로 진행하여 상기 전자기기에서 마지막으로 출력한 음성 신호의 단어를 사용자의 입력단어로 결정한다. 예를 들어, 도 11(c)에 나타낸 바와 같이, "LO"를 포함하는 단어들 "LOVE, LONG, LOG, LOW... " 등이 화면의 각 Y축 좌표에 매핑된 상태에서, 사용자 터치가 "LOVE" 가 매핑된 위치로 이동하면, 상기 전자기기는 상기 "LOVE"의 음성 신호를 출력하고, 이후 상기 사용자 터치가 해제되는 경우 상기 "LOVE"를 입력 단어로 결정한다. 또한, 도 12(c)에 나타낸 바와 같이, "AP"를 포함하는 단어들 "APPLE, APPL, APART ..."등이 화면의 각 Y축 좌표에 매핑된 상태에서 사용자 터치가 "APPLE"이 매핑된 위치로 이동하면, 상기 전자기기는 상기 "APPLE"의 음성 신호를 출력하고, 이후 상기 사용자 터치가 해제되는 경우 상기 "APPLE"을 입력 단어로 결정한다.If the user touch is canceled or an event for selecting a word corresponding to the output speech signal is generated, the electronic device proceeds to step 1031 and transmits the word of the speech signal lastly output from the electronic device to the user It is decided by input word. For example, as shown in FIG. 11 (c), in a state in which words "LOVE, LONG, LOG, LOW ..." including "LO" are mapped to respective Y- Quot; LOVE " is mapped, the electronic device outputs the voice signal of "LOVE ", and then determines" LOVE " as an input word when the user touch is released. APPLE "," APPL ", and" APART ... "that include" AP "are mapped to the respective Y-axis coordinates on the screen as shown in FIG. 12 (c) When the user moves to the mapped position, the electronic device outputs the voice signal of "APPLE ", and then determines" APPLE " as an input word when the user touch is released.

이후, 상기 전자기기는 본 발명에 따른 알고리즘을 종료한다.
Thereafter, the electronic device terminates the algorithm according to the present invention.

상술한 도 10 내지 12에서는, 전자기기에서 사용자로부터 두 개의 영어 문자를 입력받은 후, 추천 단어를 검색하는 방식을 예로 들어 설명하였으나, 설계 방식에 따라 셋 이상의 영어 문자를 입력받은 후 추천 단어를 검색할 수 있음은 당연할 것이다.
In the above-described Figs. 10 to 12, a method of searching for a recommended word after receiving two English characters from a user in the electronic device has been described as an example. However, after inputting three or more English characters according to the design method, It is natural that it can be done.

한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능하다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Therefore, the scope of the present invention should not be limited by the illustrated embodiments, but should be determined by the scope of the appended claims and equivalents thereof.

100: 제어부 102: 문자입력 제어부
110: 입출력부 112: 터치스크린 패널
120: 음성 출력부 130: 저장부
100: control unit 102: character input control unit
110: input / output unit 112: touch screen panel
120: audio output unit 130: storage unit

Claims (20)

전자 장치의 방법에 있어서,
문자 입력 모드로 동작하는 상태에서, 상기 전자 장치의 디스플레이의 제1 지점에 대한 제1 입력을 수신하는 것에 대응하여, 상기 제1 지점에 기반하여 제1 문자그룹을 제1 방향 상에서 표시하는 동작과,
상기 제1 입력이 유지된 상태에서 수신되는 드래그 입력의 방향이 상기 제1 방향에서 제2 방향으로 변경되는 것에 기반하여, 상기 표시된 제1 문자그룹 중에서 상기 제1 지점과 상기 제1 방향으로의 드래그 입력이 종료되는 제2 지점 사이의 거리에 대응하는 문자를 제1 문자로 결정하고 상기 제2 방향 상에서 제2 문자그룹을 표시하는 동작과,
상기 제2 방향으로의 드래그 입력이 종료되는 것에 기반하여, 상기 표시된 제2 문자그룹 중에서 상기 제2 지점과 상기 드래그 입력이 종료된 제3 지점 사이의 거리에 대응하는 문자를 제2 문자로 결정하는 동작과,
상기 제1 문자 및 상기 제2 문자에 기반하여 결정된 단어에 대응하는 음성 신호를 상기 전자 장치의 출력부를 통해 출력하는 동작을 포함하는 방법.
A method of an electronic device,
Displaying the first group of characters on the first direction based on the first point, corresponding to receiving a first input on a first point of the display of the electronic device, in a state of operating in a character input mode; ,
And dragging in the first direction and the first direction among the displayed first character groups based on that the direction of the drag input received while the first input is held is changed from the first direction to the second direction, Determining a character corresponding to a distance between a second point at which input is terminated as a first character and displaying a second character group in the second direction,
The character corresponding to the distance between the second point and the third point at which the drag input ends is determined as the second character among the displayed second character groups based on the end of the drag input in the second direction Operation,
Outputting a speech signal corresponding to a word determined based on the first character and the second character through an output of the electronic device.
청구항 1에 있어서,
상기 제1 문자를 결정하는 것에 대응하여, 상기 제1 문자를 상기 전자 장치의 화면에 표시하는 동작과,
상기 제2 문자를 결정하는 것에 대응하여, 상기 제2 문자를 상기 전자 장치의 화면에 표시하는 동작을 더 포함하는 방법.
The method according to claim 1,
Displaying the first character on the screen of the electronic device corresponding to determining the first character,
Further comprising displaying the second character on the screen of the electronic device in response to determining the second character.
청구항 1에 있어서,
상기 제1 문자를 결정하는 것에 대응하여, 상기 제1 문자에 대응하는 제1 음성 신호를 상기 전자 장치의 출력부를 통해 출력하는 동작과,
상기 제2 문자를 결정하는 것에 대응하여, 상기 제2 문자에 대응하는 제2 음성 신호를 상기 전자 장치의 출력부를 통해 출력하는 동작을 더 포함하는 방법.
The method according to claim 1,
Outputting a first speech signal corresponding to the first character through an output of the electronic device in response to determining the first character;
And outputting a second voice signal corresponding to the second character through an output of the electronic device, corresponding to determining the second character.
청구항 1에 있어서, 상기 제1 문자그룹은,
자음을 포함하고,
상기 제2 문자그룹은,
모음을 포함하는 방법.
The method according to claim 1,
Contains consonants,
Wherein the second character group comprises:
How to include vowels.
청구항 1에 있어서, 상기 제1 문자 및 상기 제2 문자에 기반하여 결정된 단어에 대응하는 음성 신호를 상기 전자 장치의 출력부를 통해 출력하는 동작은,
상기 제1 문자와 상기 제2 문자를 조합할 수 있는지 여부를 결정하는 동작과,
상기 제1 문자와 상기 제2 문자를 조합할 수 있다고 결정하는 것에 대응하여, 상기 조합된 단어를 출력하는 동작을 포함하는 방법.
The method of claim 1, wherein outputting a speech signal corresponding to a word determined based on the first character and the second character through an output of the electronic device,
Determining whether the first character and the second character can be combined,
And outputting the combined word corresponding to determining that the first character and the second character can be combined.
청구항 1에 있어서,
상기 전자 장치의 화면에 대한 제2 입력을 검출하는 동작과,
상기 제2 입력을 검출하는 것에 대응하여, 상기 전자 장치 내의 데이터베이스에서 상기 단어와 관련된 적어도 하나의 단어를 검색하는 동작과,
상기 검색된 적어도 하나의 단어를 표시하는 동작과,
상기 표시된 적어도 하나의 단어 중 하나의 단어를 선택하기 위한 제3 입력을 검출하는 것에 대응하여, 상기 선택된 하나의 단어에 대응하는 음성 신호를 출력하는 동작을 더 포함하는 방법.
The method according to claim 1,
Detecting a second input to the screen of the electronic device;
Retrieving at least one word associated with the word in a database in the electronic device corresponding to detecting the second input;
Displaying the retrieved at least one word;
Further comprising outputting a speech signal corresponding to the selected one word corresponding to detecting a third input for selecting one of the displayed at least one word.
청구항 6에 있어서, 상기 제2 입력은,
화면에 대한 멀티 터치인 방법.
7. The apparatus of claim 6,
A method for multi-touch on a screen.
청구항 6에 있어서, 상기 데이터베이스는,
단어 데이터베이스 또는 전화번호 데이터베이스 중 하나 또는 그 이상을 포함하는 방법.
The system according to claim 6,
A word database, or a phone number database.
청구항 8에 있어서,
상기 제3 입력이, 상기 적어도 하나 이상의 단어들 중 상기 하나의 단어 상에서 특정 시간 동안 유지되는지 여부를 결정하는 동작과,
상기 제3 입력이 상기 특정 시간 동안 유지되는 것을 결정하는 것에 대응하여, 상기 전화번호 데이터베이스에서 상기 하나의 단어와 관련된 전화번호를 결정하는 동작과,
상기 결정된 전화번호로 호를 발신하는 동작을 더 포함하는 방법.
The method of claim 8,
Determining whether the third input is maintained for a particular time on the one of the at least one words;
Determining a telephone number associated with the one word in the telephone number database, corresponding to determining that the third input is maintained for the specified time,
And sending a call to the determined telephone number.
청구항 8에 있어서,
상기 제3 입력이 상기 적어도 하나 이상의 단어들 중 상기 하나의 단어 상에서 특정 시간 동안 유지되는지 여부를 결정하는 동작과,
상기 제3 입력이 상기 특정 시간 동안 유지되는 것을 결정하는 것에 대응하여, 상기 단어 데이터베이스에서 상기 하나의 단어와 관련된 입력 단어를 결정하는 동작을 더 포함하는 방법.
The method of claim 8,
Determining whether the third input is maintained for a particular time on the one of the at least one words,
Further comprising determining an input word associated with the one word in the word database, corresponding to determining that the third input is maintained for the specified time.
전자 장치에 있어서,
명령어(instruction)들을 저장하는 메모리(memory)와,
디스플레이부(display unit)와,
상기 메모리와 전기적으로 연결된 적어도 하나의 프로세서(processor)와,
상기 프로세서와 연결되고,
문자 입력 모드로 동작하는 상태에서, 상기 전자 장치의 디스플레이의 제1 지점에 대한 제1 입력을 수신하는 것에 대응하여, 상기 제1 지점에 기반하여 제1 문자그룹을 제1 방향 상에서 표시하고,
상기 제1 입력이 유지된 상태에서 수신되는 드래그 입력의 방향이 상기 제1 방향에서 제2 방향으로 변경되는 것에 기반하여, 상기 표시된 제1 문자그룹 중에서 상기 제1 지점과 상기 제1 방향으로의 드래그 입력이 종료되는 제2 지점 사이의 거리에 대응하는 문자를 제1 문자로 결정하고 상기 제2 방향 상에서 제2 문자그룹을 표시하고,
상기 제2 방향으로의 드래그 입력이 종료되는 것에 기반하여, 상기 표시된 제2 문자그룹 중에서 상기 제2 지점과 상기 드래그 입력이 종료된 제3 지점 사이의 거리에 대응하는 문자를 제2 문자로 결정하고,
상기 제1 문자 및 상기 제2 문자에 기반하여 결정된 단어에 대응하는 음성 신호를 상기 전자 장치의 출력부를 통해 출력하기 위해 상기 저장된 명령어들을 실행하도록 설정되는 적어도 하나의 프로세서를 포함하는 전자 장치.
In an electronic device,
A memory for storing instructions,
A display unit,
At least one processor electrically connected to the memory,
A processor coupled to the processor,
Displaying a first group of characters in a first direction based on the first point, corresponding to receiving a first input to a first point of a display of the electronic device, in a state of operating in a character input mode,
And dragging in the first direction and the first direction among the displayed first character groups based on that the direction of the drag input received while the first input is held is changed from the first direction to the second direction, Determining a character corresponding to a distance between a second point at which input is terminated as a first character and displaying a second character group in the second direction,
The character corresponding to the distance between the second point and the third point at which the drag input ends is determined as the second character among the displayed second character group based on the end of the drag input in the second direction ,
And to execute the stored instructions to output a speech signal corresponding to a word determined based on the first character and the second character through an output of the electronic device.
청구항 11에 있어서, 상기 적어도 하나의 프로세서는,
상기 제1 문자를 결정하는 것에 대응하여, 상기 제1 문자를 상기 전자 장치의 화면에 표시하고,
상기 제2 문자를 결정하는 것에 대응하여, 상기 제2 문자를 상기 전자 장치의 화면에 표시하기 위해 상기 저장된 명령어들을 실행하도록 더 설정되는 전자 장치.
12. The system of claim 11, wherein the at least one processor comprises:
Displaying the first character on the screen of the electronic device corresponding to determining the first character,
And responsive to determining the second character, to execute the stored instructions to display the second character on a screen of the electronic device.
청구항 11에 있어서, 상기 적어도 하나의 프로세서는,
상기 제1 문자에 대응하는 제1 음성 신호를 상기 전자 장치의 출력부를 통해 출력하고,
상기 제2 문자를 결정하는 것에 대응하여, 상기 제2 문자에 대응하는 제2 음성 신호를 상기 전자 장치의 출력부를 통해 출력하기 위해 저장된 명령어들을 실행하도록 더 설정되는 전자 장치.
12. The system of claim 11, wherein the at least one processor comprises:
Outputting a first voice signal corresponding to the first character through an output unit of the electronic device,
Corresponding to determining the second character, to execute the stored instructions to output a second voice signal corresponding to the second character through the output of the electronic device.
청구항 11에 있어서, 상기 제1 문자그룹은,
자음을 포함하고,
상기 제2 문자그룹은,
모음을 포함하는 전자 장치.
12. The method of claim 11,
Contains consonants,
Wherein the second character group comprises:
≪ / RTI >
청구항 11에 있어서, 상기 적어도 하나의 프로세서는,
상기 제1 문자와 상기 제2 문자를 조합할 수 있는지 여부를 결정하고,
상기 제1 문자와 상기 제2 문자를 조합할 수 있다고 결정하는 것에 대응하여, 상기 조합된 단어를 출력하기 위해 상기 저장된 명령어들을 실행하도록 더 설정되는 전자 장치.
12. The system of claim 11, wherein the at least one processor comprises:
Determining whether the first character and the second character can be combined,
Wherein the processor is further configured to execute the stored instructions to output the combined word corresponding to determining that the first character and the second character can be combined.
청구항 11에 있어서, 상기 적어도 하나의 프로세서는,
상기 전자 장치의 화면에 대한 제2 입력을 검출하고,
상기 제2 입력을 검출하는 것에 대응하여, 상기 전자 장치 내의 데이터베이스에서 상기 단어와 관련된 적어도 하나의 단어를 검색하고,
상기 검색된 적어도 하나의 단어를 표시하고,
상기 표시된 적어도 하나의 단어 중 하나의 단어를 선택하기 위한 제3 입력을 검출하는 것에 대응하여, 상기 선택된 하나의 단어에 대응하는 음성 신호를 출력하기 위해 상기 저장된 명령어들을 실행하도록 더 설정되는 전자 장치.
12. The system of claim 11, wherein the at least one processor comprises:
Detecting a second input to the screen of the electronic device,
Corresponding to detecting said second input, retrieving at least one word associated with said word in a database in said electronic device,
Displaying the retrieved at least one word,
And to execute the stored instructions to output a speech signal corresponding to the selected one word, corresponding to detecting a third input for selecting one of the displayed at least one word.
청구항 16에 있어서, 상기 제2 입력은,
화면에 대한 멀티 터치인 전자 장치.
17. The system of claim 16,
A multi-touch electronic device for a screen.
청구항 16에 있어서, 상기 데이터베이스는,
단어 데이터베이스 또는 전화번호 데이터베이스 중 하나 또는 그 이상을 포함하는 전자 장치.
18. The system of claim 16,
A word database, or a phone number database.
청구항 18에 있어서, 상기 적어도 하나의 프로세서는,
상기 제3 입력이, 상기 적어도 하나 이상의 단어들 중 상기 하나의 단어 상에서 특정 시간 동안 유지되는지 여부를 결정하고,
상기 제3 입력이 상기 특정 시간 동안 유지되는 것을 결정하는 것에 대응하여, 상기 전화번호 데이터베이스에서 상기 하나의 단어와 관련된 전화번호를 결정하고,
상기 결정된 전화번호로 호를 발신하기 위해 상기 저장된 명령어들을 실행하도록 더 설정되는 전자 장치.
19. The system of claim 18,
Determine whether the third input is maintained for a certain time on the one of the at least one words,
Determining a telephone number associated with the one word in the telephone number database, corresponding to determining that the third input is maintained for the specified time,
And to execute the stored instructions to originate a call to the determined telephone number.
청구항 18에 있어서, 상기 적어도 하나의 프로세서는,
상기 제3 입력이 상기 적어도 하나 이상의 단어들 중 상기 하나의 단어 상에서 특정 시간 동안 유지되는지 여부를 결정하고,
상기 제3 입력이 상기 특정 시간 동안 유지되는 것을 결정하는 것에 대응하여, 상기 단어 데이터베이스에서 상기 하나의 단어와 관련된 입력 단어를 결정하기 위해 상기 저장된 명령어들을 실행하도록 더 설정되는 전자 장치.
19. The system of claim 18,
Determine whether the third input is maintained for a particular time on the one of the at least one words,
And to execute the stored instructions to determine an input word associated with the one word in the word database, corresponding to determining that the third input is maintained for the specified time.
KR1020110052090A 2011-05-31 2011-05-31 Method and apparatus for inputting character in electronic device Expired - Fee Related KR101766301B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110052090A KR101766301B1 (en) 2011-05-31 2011-05-31 Method and apparatus for inputting character in electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110052090A KR101766301B1 (en) 2011-05-31 2011-05-31 Method and apparatus for inputting character in electronic device

Publications (2)

Publication Number Publication Date
KR20120134162A KR20120134162A (en) 2012-12-12
KR101766301B1 true KR101766301B1 (en) 2017-08-08

Family

ID=47902397

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110052090A Expired - Fee Related KR101766301B1 (en) 2011-05-31 2011-05-31 Method and apparatus for inputting character in electronic device

Country Status (1)

Country Link
KR (1) KR101766301B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038407A (en) * 2002-07-01 2004-02-05 Arcadia:Kk Character input device and method
KR200341190Y1 (en) * 2003-11-15 2004-02-11 조아라 Message input and processing device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038407A (en) * 2002-07-01 2004-02-05 Arcadia:Kk Character input device and method
KR200341190Y1 (en) * 2003-11-15 2004-02-11 조아라 Message input and processing device

Also Published As

Publication number Publication date
KR20120134162A (en) 2012-12-12

Similar Documents

Publication Publication Date Title
US9129011B2 (en) Mobile terminal and control method thereof
KR101545881B1 (en) Input Processing Device For Portable Device And Method including the same
JP6966979B2 (en) Dialogue system control methods, dialogue systems and programs
WO2008010432A1 (en) User interface device, computer program, and its recording medium
KR101650339B1 (en) Text Input Method And Portable Device supporting the same
KR20100127525A (en) Method and device for releasing lock mode of mobile terminal
JP2018074366A (en) Electronic apparatus, control method, and program
KR20110031797A (en) Input device and method of mobile terminal
CN107102746A (en) Candidate word generation method, device and the device generated for candidate word
KR20140148472A (en) Text select and enter
KR101502004B1 (en) A mobile terminal and its voice command recognition method
CN105589642B (en) Automatic input method switching system and method for palm electronic device
KR20120097836A (en) Apparatus and method for making text in terminal
JP6196101B2 (en) Information processing apparatus, method, and program
KR101766301B1 (en) Method and apparatus for inputting character in electronic device
KR101521923B1 (en) Terminal and method for controlling the same
KR20100062251A (en) Terminal and method for controlling the same
JP5082529B2 (en) Portable information terminal and input control program
KR100773711B1 (en) Allowing screen functions to share a common display area of a touch screen
KR101513629B1 (en) Terminal and its control method
JP2009053759A (en) Character input device
KR101426791B1 (en) Apparatas and method of inputting selected symbol for detecting input gesture in a electronic device
KR101923319B1 (en) Mobile terminal and inputting character method thereof
JP6099414B2 (en) Information providing apparatus and information providing method
EP2806364A2 (en) Method and apparatus for managing audio data in electronic device

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

R18-X000 Changes to party contact information recorded

St.27 status event code: A-3-3-R10-R18-oth-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

A201 Request for examination
PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20200803

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20200803

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载