RU2708357C2 - Gestures-controlled system for translation and transliteration of input text and method of input text translation and transliteration - Google Patents
Gestures-controlled system for translation and transliteration of input text and method of input text translation and transliteration Download PDFInfo
- Publication number
- RU2708357C2 RU2708357C2 RU2016115384A RU2016115384A RU2708357C2 RU 2708357 C2 RU2708357 C2 RU 2708357C2 RU 2016115384 A RU2016115384 A RU 2016115384A RU 2016115384 A RU2016115384 A RU 2016115384A RU 2708357 C2 RU2708357 C2 RU 2708357C2
- Authority
- RU
- Russia
- Prior art keywords
- input text
- sliding
- user
- gesture
- user interface
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 14
- 230000033001 locomotion Effects 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 8
- 239000000126 substance Substances 0.000 abstract 1
- 230000008901 benefit Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/018—Input/output arrangements for oriental characters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/15—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
- Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
Abstract
Description
ССЫЛКА НА РОДСТВЕННУЮ ЗАЯВКУLINK TO RELATED APPLICATION
[0001] По настоящей заявке испрашивается приоритет по дате подачи индийской предварительной патентной заявки №3161/MUM/2013 под названием "СПОСОБ И СИСТЕМА ДЛЯ ЯЗЫКОВОГО ПЕРЕВОДА И ТРАНСЛИТЕРАЦИИ В РЕАЛЬНОМ ВРЕМЕНИ", поданной в индийское патентное ведомство 4 октября 2013 г., содержание которой включено в настоящее описание посредством ссылки.[0001] This application claims priority on the filing date of the Indian provisional patent application No. 3161 / MUM / 2013 entitled "METHOD AND SYSTEM FOR LANGUAGE TRANSLATION AND TRANSLITERATION IN REAL TIME", filed with the Indian Patent Office on October 4, 2013, the contents of which incorporated herein by reference.
ПРЕДПОСЫЛКИ СОЗДАНИЯ ИЗОБРЕТЕНИЯBACKGROUND OF THE INVENTION
Область техникиTechnical field
[0002] Настоящее изобретение относится к области пользовательских интерфейсов. В частности, настоящее изобретение относится к интерфейсам на индийском языке. Более конкретно, настоящее изобретение относится к пользовательским интерфейсам с возможностью перевода и транслитерации.[0002] The present invention relates to the field of user interfaces. In particular, the present invention relates to interfaces in the Indian language. More specifically, the present invention relates to user interfaces with the ability to translate and transliterate.
Описание предшествующего уровня техникиDescription of the Related Art
[0003] В связи с новейшими технологическими достижениями в области коммуникации, количество людей, использующих мобильные телефоны для общения друг с другом, значительно увеличилось. Имеющиеся в настоящее время в продаже мобильные телефоны позволяют пользователям общаться друг с другом устно, а также позволяют обмениваться текстовыми сообщениями.[0003] In connection with the latest technological advances in communication, the number of people using mobile phones to communicate with each other has increased significantly. The currently available mobile phones allow users to communicate with each other verbally and also allow the exchange of text messages.
[0004] Кроме того, некоторые из мобильных телефонов предоставляют пользователям средства машинного перевода. Обычно, в мобильных телефонах средства машинного перевода представлены в виде отдельных инсталлируемых программных приложений. Кроме того, чтобы пользоваться средствами машинного перевода, предоставляемыми по сети Интернет, пользователь на своем мобильном телефоне также устанавливает дополнительные средства доступа к глобальной компьютерной сети.[0004] In addition, some of the mobile phones provide machine translation tools to users. Typically, in mobile phones, machine translation tools are presented as separate installable software applications. In addition, in order to use machine translation tools provided over the Internet, the user also installs additional means of access to the global computer network on his mobile phone.
[0005] Однако, одним из недостатков известных в технике средств машинного перевода и соответствующих приложений является то, что эти приложения не интегрированы в операционную систему мобильного телефона, и, чтобы воспользоваться указанными средствами для перевода вводимого текста, пользователю нужно вручную скопировать вводимый текст и ввести его в приложение для перевода. Вышеуказанный процесс осуществления машинного перевода с помощью известных в технике средств перевода (приложений) делает процесс перевода не только утомительным, но и трудновыполнимым.[0005] However, one of the drawbacks of the machine translation tools and related applications known in the art is that these applications are not integrated into the mobile phone operating system, and in order to use these tools to translate the input text, the user needs to manually copy the input text and enter its into a translation application. The above process of machine translation using the means of translation (applications) known in the art makes the translation process not only tedious, but also difficult to perform.
[0006] Для устранения указанных проблем и упрощения всего процесса перевода/транслитерации вводимого текста, в опубликованной патентной заявке США US 20070255554 предложены система и способ для обеспечения автоматического языкового перевода в сетях связи. Однако, в системе, предложенной в US 20070255554, предусмотрена маршрутизация вызова связи через сервисный центр для автоматического перевода. Использование стороннего сервисного центра для автоматического перевода означает, что, во-первых, подвергается риску секретность/конфиденциальность вводимого текста, так как вводимый текст перенаправляется в сторонний сервисный центр, и, во-вторых, пользователь не имеет возможности сравнивать исходный текст и переведенный текст, так как фактический перевод осуществляется в то время, когда сообщение находится в процессе передачи. Кроме того, известные в технике системы не обеспечивают средства транслитерации с индийского языка на английский язык.[0006] To eliminate these problems and simplify the entire process of translation / transliteration of the entered text, the published US patent application US 20070255554 proposes a system and method for providing automatic language translation in communication networks. However, the system proposed in US 20070255554 provides for routing a call through a service center for automatic transfer. Using a third-party service center for automatic translation means that, firstly, the privacy / confidentiality of the input text is at risk, as the input text is redirected to a third-party service center, and secondly, the user is not able to compare the source text and the translated text, as the actual translation is carried out while the message is in the process of being transmitted. In addition, systems known in the art do not provide a means of transliteration from Indian to English.
ЦЕЛИ ИЗОБРЕТЕНИЯOBJECTS OF THE INVENTION
[0007] Цель настоящего изобретения - обеспечить систему, которая позволяет осуществлять перевод вводимого текста.[0007] An object of the present invention is to provide a system that allows translation of input text.
[0008] Еще одна цель настоящего изобретения - обеспечить систему, которая позволяет осуществлять перевод и транслитерацию вводимого текста в зависимости от заданных жестов, осуществляемых пользователем.[0008] Another objective of the present invention is to provide a system that allows the translation and transliteration of the input text depending on the specified gestures made by the user.
[0009] Другим преимуществом настоящего изобретения является обеспечение перевода и транслитерации вводимого текста с множества индийских языков на английский язык и наоборот.[0009] Another advantage of the present invention is the provision of translation and transliteration of input text from a variety of Indian languages into English and vice versa.
[0010] Еще одно преимущество настоящего изобретения - обеспечение системы, которая позволяет пользователю осуществлять ввод текста на родном (индийском) языке, а затем преобразовывать вводимый текст в текст на английском языке перед отправкой вводимого текста в виде SMS/E-mail.[0010] Another advantage of the present invention is the provision of a system that allows a user to enter text in their native (Indian) language, and then convert the input text to English text before sending the input text as SMS / E-mail.
[0011] Еще одно преимущество настоящего изобретения - обеспечение системы, которая позволяет пользователю получать строку текста на английском языке, а затем преобразовывать полученную строку текста в строку текста на любом из заданных индийских языков.[0011] Another advantage of the present invention is the provision of a system that allows the user to receive a string of text in English, and then convert the resulting string of text into a string of text in any of the specified Indian languages.
СУЩНОСТЬ ИЗОБРЕТЕНИЯSUMMARY OF THE INVENTION
[0012] В настоящем изобретении предложена компьютерно-реализуемая система для избирательного представления вводимого текста на языке, отличном от языка ввода. Система, предложенная в настоящем изобретении, переводит/транслитерирует вводимый текст в зависимости от жестов, осуществляемых пользователем. Система содержит пользовательский интерфейс, настроенный для получения текста, вводимого пользователем.[0012] The present invention provides a computer-implemented system for selectively presenting input text in a language other than the input language. The system proposed in the present invention translates / translites the input text depending on the gestures made by the user. The system contains a user interface configured to receive user input.
[0013] Система содержит также модуль распознавания, взаимодействующий с пользовательским интерфейсом. Модуль распознавания настроен для распознавания жестов, осуществляемых пользователем в пользовательском интерфейсе, и преобразования заданных жестов пользователя в соответствующие электрические сигналы. Электрические сигналы содержат команды для представления вводимого текста на языке, отличном от языка ввода.[0013] The system also includes a recognition module that interacts with the user interface. The recognition module is configured to recognize gestures performed by the user in the user interface and to convert the specified gestures of the user into corresponding electrical signals. Electrical signals contain commands for representing the input text in a language other than the input language.
[0014] Система содержит также модуль перевода, взаимодействующий с модулем распознавания для избирательного получения от него электрических сигналов и настроенный также для перевода вводимого текста после получения электрических сигналов от модуля распознавания.[0014] The system also includes a translation module that interacts with a recognition module to selectively receive electrical signals from it and is also configured to translate input text after receiving electrical signals from the recognition module.
[0015] Система также содержит модуль транслитерации, взаимодействующий с модулем распознавания для избирательного получения от него электрических сигналов и настроенный также для транслитерации вводимого текста после получения электрических сигналов от модуля распознавания.[0015] The system also comprises a transliteration module cooperating with a recognition module to selectively receive electrical signals from it and also configured to transliterate input text after receiving electrical signals from the recognition module.
[0016] Согласно настоящему изобретению, пользовательский интерфейс также взаимодействует с модулем перевода и модулем транслитерации для получения переведенного текста и транслитерированного текста. Кроме того, пользовательский интерфейс настроен также для избирательного отображения по меньшей мере вводимого текста, переведенного текста и транслитерированного текста в зависимости от заданных жестов, осуществляемых пользователем.[0016] According to the present invention, the user interface also interacts with a translation module and a transliteration module to obtain translated text and transliterated text. In addition, the user interface is also configured to selectively display at least input text, translated text and transliterated text depending on the specified gestures made by the user.
[0017] Согласно настоящему изобретению модуль распознавания настроен также для распознавания по меньшей мере жеста "скользящее движение влево" и жеста "скользящее движение вправо", осуществляемых пользователем в пользовательском интерфейсе.[0017] According to the present invention, the recognition module is also configured to recognize at least the gesture "sliding left" and the gesture "sliding right", performed by the user in the user interface.
[0018] Согласно настоящему изобретению, модуль распознавания настроен также на преобразование жеста "скользящее движение влево" в электрические сигналы для транслитерации вводимого текста, предоставляемого пользователем, и на преобразование жеста "скользящее движение вправо" в электрические сигналы для перевода вводимого текста, предоставляемого пользователем.[0018] According to the present invention, the recognition module is also configured to convert the gesture "sliding left" to electrical signals to transliterate the input text provided by the user, and to convert the gesture "sliding motion right" to electrical signals to translate the input text provided by the user.
[0019] В настоящем изобретении предложен также компьютерно-реализуемый способ избирательного представления вводимого текста на языке, отличном от языка ввода, в зависимости от жестов, осуществляемых пользователем. Согласно настоящему изобретению компьютерно-реализуемый способ содержит следующие стадии: получение вводимого текста от пользователя посредством пользовательского интерфейса; распознавание с помощью модуля распознавания заданных жестов, осуществляемых пользователем в пользовательском интерфейсе; преобразование заданных жестов пользователя в соответствующие электрические сигналы, содержащие команды для представления вводимого текста на языке, отличном от языка ввода; избирательную передачу электрических сигналов модулю перевода и модулю транслитерации; перевод вводимого текста после получения электрических сигналов от модуля распознавания; транслитерацию вводимого текста после получения электрических сигналов от модуля распознавания; получение переведенного текста и транслитерированного текста с помощью пользовательского интерфейса и избирательное отображение вводимого текста, переведенного текста и транслитерированного текста в пользовательском интерфейсе на основе заданных жестов, осуществляемых пользователем.[0019] The present invention also provides a computer-implemented method for selectively presenting input text in a language other than the input language, depending on gestures by the user. According to the present invention, a computer-implemented method comprises the following steps: receiving input text from a user through a user interface; recognition with the help of the recognition module for specified gestures performed by the user in the user interface; converting user predefined gestures into corresponding electrical signals containing commands for representing input text in a language other than the input language; selective transmission of electrical signals to the translation module and transliteration module; translation of the input text after receiving electrical signals from the recognition module; transliteration of the input text after receiving electrical signals from the recognition module; receiving translated text and transliterated text using the user interface and selectively displaying input text, translated text and transliterated text in the user interface based on predefined gestures made by the user.
[0020] Согласно настоящему изобретению стадия распознавания заданных жестов, осуществляемых пользователем в пользовательском интерфейсе, включает в себя стадию распознавания по меньшей мере жеста "скользящее движение влево" и жеста "скользящее движение вправо", осуществляемых пользователем в пользовательском интерфейсе.[0020] According to the present invention, the step of recognizing predetermined gestures performed by the user in the user interface includes the step of recognizing at least the “sliding left motion” gesture and the “sliding right motion” gesture performed by the user in the user interface.
[0021] Согласно настоящему изобретению стадия распознавания по меньшей мере жеста "скользящее движение влево" и жеста "скользящее движение вправо" включает в себя стадию преобразования жеста "скользящее движение влево" в электрические сигналы для транслитерации вводимого текста, предоставляемого пользователем, и преобразования жеста "скользящее движение вправо" в электрические сигналы для перевода вводимого текста, предоставляемого пользователем.[0021] According to the present invention, the step of recognizing at least the gesture “sliding left” and the gesture “sliding right” includes the step of converting the gesture “moving left” into electrical signals to transliterate the input text provided by the user, and convert the gesture sliding motion to the right "into electrical signals to translate the input text provided by the user.
[0022] Энергонезависимый машиночитаемый носитель, на котором хранятся машиночитаемые команды, выполнение которых процессором приводит к тому, что совместимое с компьютером устройство: получает вводимый текст от пользователя посредством пользовательского интерфейса; распознает с помощью модуля распознавания заданные жесты, осуществляемые пользователем в пользовательском интерфейсе; преобразует заданные жесты пользователя в соответствующие электрические сигналы, при этом электрические сигналы содержат команды для представления вводимого текста на языке, отличном от языка ввода; избирательно передает электрические сигналы модулю перевода и модулю транслитерации; переводит вводимый текст после получения электрических сигналов от модуля распознавания; транслитерирует вводимый текст после получения электрических сигналов от модуля распознавания; получает переведенный текст и транслитерированный текст посредством пользовательского интерфейса; и избирательно отображает вводимый текст, переведенный текст и транслитерированный текст в пользовательском интерфейсе в зависимости от заданных жестов, осуществляемых пользователем.[0022] A non-volatile machine-readable medium on which machine-readable instructions are stored, the execution of which by the processor results in a computer-compatible device: receiving input from a user through a user interface; recognizes with the help of the recognition module the set gestures performed by the user in the user interface; converts the specified gestures of the user into the corresponding electrical signals, while the electrical signals contain commands for representing the input text in a language other than the input language; selectively transmits electrical signals to the translation module and the transliteration module; translates the input text after receiving electrical signals from the recognition module; transliterates the input text after receiving electrical signals from the recognition module; receives translated text and transliterated text through the user interface; and selectively displays the input text, translated text and transliterated text in the user interface depending on the specified gestures made by the user.
[0023] Согласно настоящему изобретению, машиночитаемые команды также позволяют совместимому с компьютером устройству распознавать по меньшей мере жест "скользящее движение влево" и жест "скользящее движение вправо", осуществляемые пользователем в пользовательском интерфейсе.[0023] According to the present invention, machine-readable instructions also allow a computer-compatible device to recognize at least a "sliding left gesture" and a "sliding right gesture" made by a user in a user interface.
[0024] Согласно настоящему изобретению, машиночитаемые команды также позволяют совместимому с компьютером устройству преобразовывать жест "скользящее движение влево" в электрические сигналы для транслитерации вводимого текста, предоставляемого пользователем, и преобразовывать жест "скользящее движение вправо" в электрические сигналы для перевода вводимого текста, предоставляемого пользователем.[0024] According to the present invention, machine-readable instructions also allow a computer-compatible device to convert the “sliding left gesture” to electrical signals to transliterate the text provided by the user, and to convert the sliding right gesture to electrical signals to translate the text provided by user.
ПЕРЕЧЕНЬ ЧЕРТЕЖЕЙLIST OF DRAWINGS
[0025] Настоящее изобретение будет лучше понятно из последующего подробного описания изобретения со ссылкой на прилагаемые чертежи, в которых:[0025] The present invention will be better understood from the following detailed description of the invention with reference to the accompanying drawings, in which:
[0026] фиг. 1 - иллюстрирует структурную схему компьютерно-реализуемой системы, соответствующей системе для перевода и транслитерации вводимого текста;[0026] FIG. 1 illustrates a block diagram of a computer-implemented system corresponding to a system for translating and transliterating input text;
[0027] фиг. 2 - блок-схему, на которой показаны стадии компьютерно-реализуемого способа перевода и транслитерации вводимого текста;[0027] FIG. 2 is a flowchart showing the stages of a computer-implemented method for translating and transliterating input text;
[0028] фиг. 3А и 3В - иллюстрируют пример пользовательского интерфейса для транслитерации вводимого текста; и[0028] FIG. 3A and 3B illustrate an example user interface for transliterating input text; and
[0029] фиг. 4А и 4В - иллюстрируют пример пользовательского интерфейса для перевода вводимого текста.[0029] FIG. 4A and 4B illustrate an example user interface for translating input text.
ПОДРОБНОЕ ОПИСАНИЕ ИЗОБРЕТЕНИЯDETAILED DESCRIPTION OF THE INVENTION
[0030] В настоящем изобретении предложена компьютерно-реализуемая, основанная на жестах система для избирательного перевода и транслитерации вводимого текста. Перевод и транслитерация являются избирательными в том смысле, что переведенный/транслитерированный вводимый текст показывается пользователю только в результате осуществления пользователем заданных жестов. Система, предложенная в настоящем изобретении, позволяет переводить и транслитерировать вводимый текст с английского языка на множество индийских языков и наоборот. Система, предложенная в настоящем изобретении, позволяет пользователю осуществлять ввод текста на родном (индийском) языке, а затем преобразовывать вводимый текст в текст на английском языке перед его отправкой в виде SMS/E-mail. Кроме того, система также позволяет пользователю получать строку текста на английском языке, а затем преобразовывать полученную строку текста в строку текста на любом из заданных индийских языков.[0030] The present invention provides a computer-based, gesture-based system for selectively translating and transliterating input text. Translation and transliteration are selective in the sense that the translated / transliterated input text is shown to the user only as a result of the user performing the specified gestures. The system proposed in the present invention allows you to translate and transliterate the input text from English into many Indian languages and vice versa. The system proposed in the present invention allows the user to enter text in their native (Indian) language, and then convert the input text to English text before sending it as SMS / E-mail. In addition, the system also allows the user to receive a string of text in English, and then convert the resulting string of text to a string of text in any of the specified Indian languages.
[0031] Со ссылкой на приложенные чертежи, на фиг. 1 показана компьютерно-реализуемая, основанная на жестах система 100 для перевода и транслитерации вводимого текста. Система 100 по настоящему изобретению содержит пользовательский интерфейс 10. Пользовательский интерфейс 10 настроен, помимо прочего, для получения текста в виде текста, вводимого пользователем. Ввод текста пользователем может осуществляться либо на английском языке, либо на любом из заданных индийских языков, в том числе на бенгальском, гуджаратском, ассамском, ория, каннада, тамильском, тулугу и малаялам. Кроме того, пользовательский интерфейс 10 также настроен для отображения текста, полученного в виде e-mails/SMS/веб-страниц и т.п.[0031] With reference to the attached drawings, in FIG. 1 shows a computer-based, gesture-based system 100 for translating and transliterating input text. The system 100 of the present invention comprises a
[0032] Пользовательский интерфейс 10 по настоящему изобретению настроен также, чтобы позволить пользователю взаимодействовать с пользовательским интерфейсом 10 посредством заданного набора жестов. В предпочтительном варианте пользовательский интерфейс 10, размещенный на сенсорном экране дисплея, позволяет пользователю взаимодействовать посредством осуществления некоторых жестов, в том числе жеста "скользящее движение влево", жеста "скользящее движение вправо", жеста "нажатие", жеста "нажатие и удерживание", кругового жеста, полукруглого жеста и жеста "двойное нажатие". Кроме того, пользовательский интерфейс 10 настроен также, чтобы позволить пользователю вводить текст посредством избирательного нажатия на отображаемые в нем буквенные клавиши, алфавитно-цифровые клавиши и цифровые клавиши.[0032] The
[0033] Система 100 по настоящему изобретению содержит также модуль распознавания 12, взаимодействующий с пользовательским интерфейсом 10. Модуль распознавания 12 по настоящему изобретению настроен для распознавания и интерпретации жестов, осуществляемых пользователем в пользовательском интерфейсе 10. Модуль распознавания 12 настроен для распознавания точки касания пальца пользователя в пользовательском интерфейсе 10 (с помощью хорошо известных технологий, включая резистивную технологию, емкостную технологию и технологию поверхностно-акустических волн) и соответственно для интерпретации "касания" пользователя в качестве выбора соответствующих букв/цифр/функций, отображаемых в виде выбираемых клавиш.[0033] The system 100 of the present invention also includes a
[0034] Кроме того, символы/цифры, соответствующие клавиши которых касаются/выбираются пользователем, модуль распознавания 12 распознает как вводимый текст. В контексте настоящего изобретения термин "вводимый текст" рассматривается как строка символов. Кроме того, "вводимый текст" может истолковываться как содержащий сочетание букв и цифр. Кроме того, "вводимый текст" также может истолковываться как сочетание букв, цифр и специальных символов. Однако, в предпочтительном варианте настоящего изобретения, в целях пояснения, вводимый текст рассматривается как строка букв.[0034] In addition, characters / numbers whose corresponding keys are touched / selected by the user, the
[0035] Согласно настоящему изобретению модуль распознавания 12 настроен также для интерпретации заданных жестов пользователя в качестве жестов, являющихся признаком запроса на перевод и транслитерацию вводимого текста.[0035] According to the present invention, the
[0036] Согласно предпочтительному варианту настоящего изобретения жест "скользящее движение влево", осуществляемый пользователем в пользовательском интерфейсе 10, интерпретируется модулем распознавания 12 как запрос на транслитерацию вводимого текста. Согласно предпочтительному варианту настоящего изобретения жест "скользящее движение вправо", осуществляемый пользователем в пользовательском интерфейсе 10, интерпретируется модулем распознавания 12 как запрос на перевод вводимого текста. Согласно предпочтительному варианту настоящего изобретения интерпретации, осуществляемые модулем распознавания 12 в ответ на жесты "скользящее движение влево" и "скользящее движение вправо", жестко запрограммированы в модуле распознавания 12. Однако, в рамках настоящего изобретения жесты "скользящее движение влево" и "скользящее движение вправо" можно заменить другими подходящими жестами и жестко запрограммировать замененные жесты, соответствующие запросам на перевод и транслитерацию.[0036] According to a preferred embodiment of the present invention, the “sliding left” gesture by the user in the
[0037] Согласно предпочтительному варианту настоящего изобретения модуль распознавания 12 взаимодействует с пользовательским интерфейсом, чтобы соответственно идентифицировать жест "скользящее движение влево" и жест "скользящее движение вправо". Если после набора вводимого текста с помощью клавиатуры пользователь осуществляет скользящее движение влево в пользовательском интерфейсе 10, то модуль распознавания 12 запускает модуль транслитерации 16 и затем дает команду модулю транслитерации 16 транслитерировать вводимый текст на язык, выбранный пользователем. Если после набора вводимого текста пользователь осуществляет скользящее движение вправо, то модуль распознавания 12 запускает модуль перевода 14 и затем дает команду модулю перевода 14 перевести вводимый текст на язык, выбранный пользователем. Несмотря на то, что функциональные возможности модуля перевода 14 и модуля транслитерации 16 показаны применительно к тексту, вводимому пользователем, модуль перевода 14 и модуль транслитерации 16 настроены также для перевода и транслитерации любого текста соответственно, например, текста, полученного в виде SMS/e-mail/веб-страниц и т.п., с родного языка на язык, заданный пользователем.[0037] According to a preferred embodiment of the present invention, the
[0038] На фиг. 3А показан пример пользовательского интерфейса 10, используя который пользователь ввел с помощью клавиатуры предложение "how are you" на английском языке. Если после набора вводимого текста с помощью клавиатуры пользователь осуществляет жест "скользящее движение влево", то запускается модуль транслитерации 16, и английский текст "how are you" транслитерируется на любой выбранный пользователем индийский язык, как показано на фиг. 3В.[0038] FIG. 3A shows an
[0039] На фиг. 4А показан другой пример пользовательского интерфейса 10, используя который пользователь ввел с помощью клавиатуры предложение "how are you" на английском языке. Если после набора вводимого текста посредством клавиатуры пользователь осуществляет жест "скользящее движение вправо", то запускается модуль перевода 14, и английский текст "how are you" переводится на любой выбранный пользователем индийский язык, как показано на фиг. 4В.[0039] FIG. 4A shows another example of
[0040] Согласно настоящему изобретению пользовательский интерфейс 10 настроен, чтобы позволить пользователю сначала выбрать язык для набора вводимого текста с помощью клавиатуры. Язык, выбираемый пользователем, может включать, в том числе, английский язык, хинди, бенгальский язык, гуджарати, ассамский язык, ория, урду, тамильский язык, телугу, малаялам и каннада. Кроме того, вышеуказанный неполный перечень языков может также использоваться для выбора языка, на который должен переводиться и/или транслитерироваться вводимый текст. Кроме того, модуль распознавания 12 настроен для запуска модуля перевода 14 и модуля транслитерации 16 посредством передачи электрических сигналов с содержащимися в них командами активации модуля перевода 14 и модуля транслитерации 16.[0040] According to the present invention, the
[0041] Кроме того, согласно настоящему изобретению экран по умолчанию в пользовательском интерфейсе 10 является экраном, используемым для набора вводимого текста с помощью клавиатуры (как показано на фиг. 3А), и если после набора вводимого текста с помощью клавиатуры пользователь осуществит жест "скользящее движение влево", то пользовательский интерфейс 10 изменится и примет вид, показанный на фиг. 3В, а если пользователь осуществит жест "скользящее движение вправо" в пользовательском интерфейсе 10, показанном в качестве примера на фиг. 3В, то пользовательский интерфейс 10 будет возвращен к экрану по умолчанию, показанному на фиг. 3А.[0041] Furthermore, according to the present invention, the default screen in the
[0042] Кроме того, согласно настоящему изобретению экран по умолчанию в пользовательском интерфейсе 10 является экраном, используемым для набора вводимого текста с помощью клавиатуры (как показано на фиг. 4А), и если после набора вводимого текста с помощью клавиатуры пользователь осуществит жест "скользящее движение вправо", то пользовательский интерфейс 10 изменится и примет вид, показанный на фиг. 4В, а если пользователь осуществит жест "скользящее движение влево" в пользовательском интерфейсе 10, показанном в качестве примера на фиг. 4В, то пользовательский интерфейс 10 будет возвращен к экрану по умолчанию, показанному на фиг. 4А.[0042] Furthermore, according to the present invention, the default screen in the
[0043] На фиг. 2 показана блок-схема, иллюстрирующая стадии способа перевода и транслитерации вводимого текста. Способ по настоящему изобретению выполняется в зависимости от жестов, осуществляемых пользователем. Способ по настоящему изобретению содержит следующие стадии:[0043] FIG. 2 is a flowchart illustrating the steps of a method for translating and transliterating input text. The method of the present invention is performed depending on gestures performed by the user. The method of the present invention comprises the following steps:
получение от пользователя вводимого текста посредством пользовательского интерфейса (200);receiving input from a user through a user interface (200);
распознавание с помощью модуля распознавания заданных жестов, осуществляемых пользователем в пользовательском интерфейсе (202);recognition using the module recognition of specified gestures performed by the user in the user interface (202);
преобразование указанных заданных жестов пользователя в соответствующие электрические сигналы, содержащие команды для представления вводимого текста на языке, отличном от языка ввода (204);converting said predetermined user gestures into corresponding electrical signals containing commands for presenting input text in a language other than the input language (204);
избирательную передачу указанных электрических сигналов модулю перевода и модулю транслитерации (206);selectively transmitting said electrical signals to the translation module and the transliteration module (206);
перевод вводимого текста после получения указанных электрических сигналов от модуля распознавания (208);translation of the input text after receiving the indicated electrical signals from the recognition module (208);
транслитерацию вводимого текста после получения указанных электрических сигналов от модуля распознавания (210); иtransliteration of the input text after receiving the indicated electrical signals from the recognition module (210); and
получение переведенного текста и транслитерированного текста с помощью пользовательского интерфейса и избирательное отображение вводимого текста, переведенного текста и транслитерированного текста в пользовательском интерфейсе на основе заданных жестов, осуществляемых пользователем (212).receiving translated text and transliterated text using the user interface and selectively displaying input text, translated text and transliterated text in the user interface based on predefined gestures made by the user (212).
[0044] Согласно настоящему изобретению стадия распознавания заданных жестов, осуществляемых пользователем в пользовательском интерфейсе, дополнительно содержит стадию распознавания по меньшей мере жеста "скользящее движение влево" и жеста "скользящее движение вправо", осуществляемых пользователем в пользовательском интерфейсе.[0044] According to the present invention, the step of recognizing predetermined gestures performed by the user in the user interface further comprises the step of recognizing at least the gesture “sliding left” and the gesture “sliding right” performed by the user in the user interface.
[0045] Согласно настоящему изобретению стадия распознавания по меньшей мере жеста "скользящее движение влево" и жеста "скользящее движение вправо" дополнительно содержит стадию преобразования жеста "скользящее движение влево" в электрические сигналы для транслитерации вводимого пользователем текста и преобразования жеста "скользящее движение вправо" в электрические сигналы для перевода вводимого пользователем текста.[0045] According to the present invention, the step of recognizing at least a “sliding left motion” gesture and a “sliding right motion” gesture further comprises the step of converting the “sliding left motion” gesture into electrical signals to transliterate user input text and converting the “sliding right motion” gesture into electrical signals to translate user-entered text.
[0046] Другой вариант настоящего изобретения раскрывает энергонезависимый машиночитаемый носитель, на котором хранятся машиночитаемые команды, выполнение которых процессором приводит к тому, что совместимое с компьютером устройство: получает вводимый текст от пользователя посредством пользовательского интерфейса; распознает с помощью модуля распознавания заданные жесты, осуществляемые пользователем в пользовательском интерфейсе; преобразует указанные заданные жесты пользователя в соответствующие электрические сигналы, при этом указанные электрические сигналы содержат команды для представления вводимого текста на языке, отличном от языка ввода; избирательно передает указанные электрические сигналы модулю перевода и модулю транслитерации; переводит вводимый текст после получения электрических сигналов от модуля распознавания; транслитерирует вводимый текст после получения электрических сигналов от модуля распознавания; и получает переведенный текст и транслитерированный текст посредством пользовательского интерфейса; и избирательно отображает вводимый текст, переведенный текст и транслитерированный текст в пользовательском интерфейсе в зависимости от заданных жестов, осуществляемых пользователем.[0046] Another embodiment of the present invention discloses a non-volatile machine-readable medium on which computer-readable instructions are stored, the execution of which by a processor results in a computer-compatible device: receiving input text from a user through a user interface; recognizes with the help of the recognition module the set gestures performed by the user in the user interface; converts said predetermined user gestures into corresponding electrical signals, wherein said electrical signals comprise instructions for presenting input text in a language other than the input language; selectively transmits said electrical signals to the translation module and the transliteration module; translates the input text after receiving electrical signals from the recognition module; transliterates the input text after receiving electrical signals from the recognition module; and receives the translated text and transliterated text through the user interface; and selectively displays the input text, the translated text and the transliterated text in the user interface depending on the specified gestures made by the user.
[0047] Согласно настоящему изобретению машиночитаемые команды настроены также, чтобы позволить совместимому с компьютером устройству распознавать по меньшей мере жест "скользящее движение влево" и жест "скользящее движение вправо", осуществляемые пользователем в пользовательском интерфейсе.[0047] According to the present invention, machine-readable instructions are also configured to allow a computer-compatible device to recognize at least the "sliding left gesture" and the "sliding right gesture" made by the user in the user interface.
[0048] Согласно настоящему изобретению машиночитаемые команды настроены также, чтобы позволить совместимому с компьютером устройству преобразовывать жест "скользящее движение влево" в электрические сигналы для транслитерации вводимого текста, предоставляемого пользователем, и преобразовывать жест "скользящее движение вправо" в электрические сигналы для перевода вводимого текста, предоставляемого пользователем.[0048] According to the present invention, machine-readable commands are also configured to allow a computer-compatible device to convert the "sliding left gesture" to electrical signals to transliterate the text provided by the user, and to convert the "sliding right movement" gesture to electrical signals to translate the input text provided by the user.
ТЕХНИЧЕСКИЕ ПРЕИМУЩЕСТВАTECHNICAL ADVANTAGES
[0049] Технические преимущества настоящего изобретения включают в себя реализацию системы, которая делает возможным перевод вводимого текста. Система, предложенная в настоящем изобретении, также обеспечивает квалифицированную и эффективную транслитерацию вводимого текста. Кроме того, система, предложенная в настоящем изобретении, позволяет переводить и транслитерировать вводимый текст в зависимости от заданных жестов, осуществляемых пользователем. Система обеспечивает перевод и транслитерацию вводимого текста с множества индийских языков на английский язык и наоборот. Система, предложенная в настоящем изобретении, позволяет пользователю представлять вводимый текст на родном (индийском) языке, а затем преобразовывать вводимый текст в текст на английском языке перед отправкой вводимого текста в виде SMS/E-mail. Кроме того, система позволяет также пользователю получать строку текста на английском языке, а затем преобразовывать полученную строку текста в строку текста на любом из заданных индийских языков.[0049] Technical advantages of the present invention include an implementation of a system that enables translation of input text. The system proposed in the present invention also provides qualified and efficient transliteration of the input text. In addition, the system proposed in the present invention allows you to translate and transliterate the input text depending on the specified gestures made by the user. The system provides translation and transliteration of input text from many Indian languages into English and vice versa. The system proposed in the present invention allows the user to present input text in their native (Indian) language, and then convert the input text to English text before sending the input text as SMS / E-mail. In addition, the system also allows the user to receive a string of text in English, and then convert the resulting string of text into a string of text in any of the specified Indian languages.
Claims (20)
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN3161/MUM/2013 | 2013-10-04 | ||
IN3161MU2013 IN2013MU03161A (en) | 2013-10-04 | 2014-09-29 | |
PCT/IN2014/000623 WO2015049697A1 (en) | 2013-10-04 | 2014-09-29 | A gesture based system for translation and transliteration of input text and a method thereof |
Publications (3)
Publication Number | Publication Date |
---|---|
RU2016115384A RU2016115384A (en) | 2017-11-10 |
RU2016115384A3 RU2016115384A3 (en) | 2018-08-15 |
RU2708357C2 true RU2708357C2 (en) | 2019-12-05 |
Family
ID=52778327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2016115384A RU2708357C2 (en) | 2013-10-04 | 2014-09-29 | Gestures-controlled system for translation and transliteration of input text and method of input text translation and transliteration |
Country Status (8)
Country | Link |
---|---|
EP (1) | EP3053061A4 (en) |
KR (1) | KR101995741B1 (en) |
IL (1) | IL244824B (en) |
IN (1) | IN2013MU03161A (en) |
PH (1) | PH12016500592A1 (en) |
RU (1) | RU2708357C2 (en) |
SG (1) | SG11201602622QA (en) |
WO (1) | WO2015049697A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102748681B1 (en) | 2019-03-25 | 2024-12-31 | 삼성전자 주식회사 | Method for performing fucntion according to gesture input and electronic device performing thereof |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5432948A (en) * | 1993-04-26 | 1995-07-11 | Taligent, Inc. | Object-oriented rule-based text input transliteration system |
RU2146066C1 (en) * | 1998-11-30 | 2000-02-27 | Рудковский Александр Валентинович | Foreign language learning tutorial |
US20080097745A1 (en) * | 2006-10-18 | 2008-04-24 | Domenica Bagnato | Text analysis, transliteration and translation method and apparatus for hieroglypic, hieratic, and demotic texts from ancient egyptian |
US20110258537A1 (en) * | 2008-12-15 | 2011-10-20 | Rives Christopher M | Gesture based edit mode |
RU2436146C2 (en) * | 2005-12-05 | 2011-12-10 | Майкрософт Корпорейшн | Flexible display transfer |
US20130151234A1 (en) * | 2011-12-12 | 2013-06-13 | Google Inc. | Techniques for input of a multi-character compound consonant or vowel and transliteration to another language using a touch computing device |
US20130191108A1 (en) * | 2008-08-06 | 2013-07-25 | Abbyy Software Ltd. | Translation of a Selected Text Fragment of a Screen |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7369986B2 (en) | 2003-08-21 | 2008-05-06 | International Business Machines Corporation | Method, apparatus, and program for transliteration of documents in various Indian languages |
US20070255554A1 (en) | 2006-04-26 | 2007-11-01 | Lucent Technologies Inc. | Language translation service for text message communications |
KR101477530B1 (en) * | 2010-03-12 | 2014-12-30 | 뉘앙스 커뮤니케이션즈, 인코포레이티드 | Multimodal text input system, such as for use with touch screens on mobile phones |
-
2014
- 2014-09-29 RU RU2016115384A patent/RU2708357C2/en active
- 2014-09-29 IN IN3161MU2013 patent/IN2013MU03161A/en unknown
- 2014-09-29 WO PCT/IN2014/000623 patent/WO2015049697A1/en active Application Filing
- 2014-09-29 KR KR1020187022878A patent/KR101995741B1/en active Active
- 2014-09-29 EP EP14851325.2A patent/EP3053061A4/en not_active Withdrawn
- 2014-09-29 SG SG11201602622QA patent/SG11201602622QA/en unknown
-
2016
- 2016-03-30 IL IL244824A patent/IL244824B/en active IP Right Grant
- 2016-04-01 PH PH12016500592A patent/PH12016500592A1/en unknown
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5432948A (en) * | 1993-04-26 | 1995-07-11 | Taligent, Inc. | Object-oriented rule-based text input transliteration system |
RU2146066C1 (en) * | 1998-11-30 | 2000-02-27 | Рудковский Александр Валентинович | Foreign language learning tutorial |
RU2436146C2 (en) * | 2005-12-05 | 2011-12-10 | Майкрософт Корпорейшн | Flexible display transfer |
US20080097745A1 (en) * | 2006-10-18 | 2008-04-24 | Domenica Bagnato | Text analysis, transliteration and translation method and apparatus for hieroglypic, hieratic, and demotic texts from ancient egyptian |
US20130191108A1 (en) * | 2008-08-06 | 2013-07-25 | Abbyy Software Ltd. | Translation of a Selected Text Fragment of a Screen |
US20110258537A1 (en) * | 2008-12-15 | 2011-10-20 | Rives Christopher M | Gesture based edit mode |
US20130151234A1 (en) * | 2011-12-12 | 2013-06-13 | Google Inc. | Techniques for input of a multi-character compound consonant or vowel and transliteration to another language using a touch computing device |
Also Published As
Publication number | Publication date |
---|---|
RU2016115384A3 (en) | 2018-08-15 |
IL244824A0 (en) | 2016-05-31 |
WO2015049697A1 (en) | 2015-04-09 |
IL244824B (en) | 2020-09-30 |
SG11201602622QA (en) | 2016-04-28 |
KR101995741B1 (en) | 2019-07-03 |
RU2016115384A (en) | 2017-11-10 |
EP3053061A1 (en) | 2016-08-10 |
KR20180093100A (en) | 2018-08-20 |
IN2013MU03161A (en) | 2015-07-03 |
PH12016500592A1 (en) | 2016-06-13 |
EP3053061A4 (en) | 2017-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102045585B1 (en) | Adaptive input language switching | |
US8892782B1 (en) | System for and method of translating motion-based user input between a client device and an application host computer | |
US20220261126A1 (en) | Display control method and device, electronic device and storage medium | |
JP5248321B2 (en) | Flexible display of translated text | |
US10078437B2 (en) | Method and apparatus for responding to a notification via a capacitive physical keyboard | |
CN108829686B (en) | Translation information display method, device, equipment and storage medium | |
US9292203B2 (en) | Providing a vertical candidate bar with an on-screen keyboard | |
CN101882007A (en) | Method and device for carrying out information input and execution based on input interface | |
KR20100086451A (en) | Apparatus and method for inputing characters of terminal | |
JP2006338667A (en) | User-machine communication method, device, interface processor and program | |
RU2632422C2 (en) | Method and device for the user input processing | |
JP2015212949A (en) | Information search system and method | |
EP2909702B1 (en) | Contextually-specific automatic separators | |
KR20110103265A (en) | Character input method of a mobile terminal and a mobile terminal supporting the same | |
US9395826B1 (en) | System for and method of translating motion-based user input between a client device and an application host computer | |
US10394964B2 (en) | Gesture based system for translation and transliteration of input text and a method thereof | |
RU2708357C2 (en) | Gestures-controlled system for translation and transliteration of input text and method of input text translation and transliteration | |
JP7145988B2 (en) | Translation service providing method using input application and terminal device using the same | |
Rodrigues et al. | Swat: Mobile system-wide assistive technologies | |
KR20160071400A (en) | A gesture based system for translation and transliteration of input text and a method thereof | |
KR101618353B1 (en) | Method for synchronizing server-side language and client-side language, and server-client system using the same | |
US20240393942A1 (en) | Multilingual integration service device and method using expandable keyboard | |
Jensen | Keyboard and Mouse Input for Controlling a Remote Machine via A Mobile Device | |
KR101087302B1 (en) | Service method of website providing picture letter input device | |
US20100060584A1 (en) | Computer keyboard |