JPH0895587A - Text-to-speech method - Google Patents
Text-to-speech methodInfo
- Publication number
- JPH0895587A JPH0895587A JP6231322A JP23132294A JPH0895587A JP H0895587 A JPH0895587 A JP H0895587A JP 6231322 A JP6231322 A JP 6231322A JP 23132294 A JP23132294 A JP 23132294A JP H0895587 A JPH0895587 A JP H0895587A
- Authority
- JP
- Japan
- Prior art keywords
- dictionary
- text
- text data
- character
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Abstract
(57)【要約】
【目的】日本語の文章中に、英語、他の言語、方言等が
混在していてもすべてのテキストデータについて音声合
成を行うことができるようにする。
【構成】文字修飾に対応させて設定された辞書情報を文
字コードに付加してテキストデータを発生させ、該テキ
ストデータを解析する。テキスト音声合成装置13は、
解析されたテキストデータの辞書情報に基づいて各言語
に対応する辞書を選択し、選択された辞書を参照して音
声合成を行う。一つの文章の中に各種の言語、方言等が
混在していても、すべてのテキストデータについて音声
合成を行うことができる。また、文字修飾に対応させて
辞書情報を設定することができるので、特別な制御は不
要であり、通常のワードプロセッサ、パソコン等を使用
して音声合成を行うこともできる。
(57) [Summary] [Purpose] To be able to perform speech synthesis for all text data even if English, other languages, dialects, etc. are mixed in Japanese sentences. [Structure] Dictionary information set corresponding to character modification is added to a character code to generate text data, and the text data is analyzed. The text-to-speech synthesizer 13
A dictionary corresponding to each language is selected on the basis of the dictionary information of the analyzed text data, and speech synthesis is performed by referring to the selected dictionary. Even if various languages and dialects are mixed in one sentence, it is possible to perform speech synthesis on all text data. Further, since the dictionary information can be set in correspondence with the character modification, no special control is required, and voice synthesis can be performed using a normal word processor, personal computer or the like.
Description
【0001】[0001]
【産業上の利用分野】本発明は、テキスト音声合成方法
に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a text-to-speech method.
【0002】[0002]
【従来の技術】従来、テキスト音声合成装置において
は、ワードプロセッサ、パソコン等の上位装置から漢字
カナ混じり文のテキストデータを受け、該テキストデー
タを解析し、音声合成を行うようになっている。そのた
めに、前記テキスト音声合成装置はアクセント辞書、ユ
ーザ辞書等を内蔵し、これらの辞書を参照することによ
って音声合成を行うことができるようになっている。ま
た、前記上位装置とテキスト音声合成装置との間には入
力インタフェース(I/F)が配設され、前記テキスト
データは入力インタフェースを介してテキスト音声合成
装置に入力されるようになっている。2. Description of the Related Art Conventionally, a text-to-speech synthesizer receives text data of a kanji-kana mixed sentence from a higher-level device such as a word processor or a personal computer, analyzes the text data, and synthesizes a voice. Therefore, the text-to-speech synthesizer has a built-in accent dictionary, user dictionary, etc., and can synthesize speech by referring to these dictionaries. An input interface (I / F) is arranged between the host device and the text-to-speech synthesizer, and the text data is input to the text-speech synthesizer via the input interface.
【0003】この場合、前記入力インタフェースとして
は、プリンタ用のセントロニクス規格のインタフェース
が使用される。In this case, a Centronics standard interface for a printer is used as the input interface.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、前記従
来のテキスト音声合成装置においては、アクセント辞書
はいずれも一つの言語だけに対応する辞書であり、前記
言語によって表されたテキストデータについてだけ音声
合成を行うことができるようになっている。したがっ
て、例えば、日本語に対応する辞書を内蔵するテキスト
音声合成装置においては、日本語の文章中に、英語、他
の言語、方言等が混在していると、該英語、他の言語、
方言等のテキストデータについては音声合成を行うこと
ができない。However, in the conventional text-to-speech synthesizer, the accent dictionaries are all dictionaries corresponding to only one language, and the speech synthesis is performed only on the text data represented by the language. You can do it. Therefore, for example, in a text-to-speech synthesizer with a built-in dictionary corresponding to Japanese, if English, another language, dialect, etc. are mixed in a Japanese sentence, the English, other language,
Speech synthesis cannot be performed on text data such as dialects.
【0005】本発明は、前記従来のテキスト音声合成装
置の問題点を解決して、日本語の文章中に、英語、他の
言語、方言等が混在していてもすべてのテキストデータ
について音声合成を行うことができるテキスト音声合成
方法を提供することを目的とする。The present invention solves the above-mentioned problems of the conventional text-to-speech synthesizer, and speech-synthesizes all text data even if English, other languages, dialects, etc. are mixed in a Japanese sentence. It is an object of the present invention to provide a text-to-speech method capable of performing.
【0006】[0006]
【課題を解決するための手段】そのために、本発明のテ
キスト音声合成方法においては、文字修飾に対応させて
設定された辞書情報を文字コードに付加してテキストデ
ータを発生させ、該テキストデータを解析し、解析され
たテキストデータの辞書情報に基づいて各言語に対応す
る辞書を選択し、選択された辞書を参照して音声合成を
行う。Therefore, in the text-to-speech synthesis method of the present invention, the dictionary information set corresponding to the character modification is added to the character code to generate the text data, and the text data is converted. A dictionary corresponding to each language is selected based on the analyzed dictionary information of the analyzed text data, and speech synthesis is performed with reference to the selected dictionary.
【0007】[0007]
【作用】本発明によれば、前記のようにテキスト音声合
成方法においては、あらかじめ上位装置において、文字
修飾に対応させて設定された辞書情報を文字コードに付
加してテキストデータを発生させる。テキスト音声合成
装置においては、前記上位装置から文字コードに辞書情
報が付加されたテキストデータを受け、該テキストデー
タを解析する。また、前記テキスト音声合成装置は各言
語に対応する辞書を有しており、解析されたテキストデ
ータの辞書情報に基づいて各言語に対応する辞書を選択
する。According to the present invention, as described above, in the text-to-speech synthesis method, text data is generated by adding the dictionary information set in advance in correspondence with the character modification to the character code. In the text-to-speech synthesizer, the text data in which the dictionary information is added to the character code is received from the host device, and the text data is analyzed. Further, the text-to-speech synthesizer has a dictionary corresponding to each language, and selects a dictionary corresponding to each language based on the dictionary information of the analyzed text data.
【0008】そして、前記テキスト音声合成装置は、選
択された辞書を参照して波形データを生成し、音声合成
を行う。Then, the text-to-speech synthesizer refers to the selected dictionary to generate waveform data and synthesizes the speech.
【0009】[0009]
【実施例】以下、本発明の実施例について図面を参照し
ながら詳細に説明する。図1は本発明の実施例における
テキスト音声合成装置のブロック図である。図におい
て、11はワードプロセッサ、パソコン等の上位装置、
12は該上位装置11内に配設された専用プリンタドラ
イバである。また、13はテキスト音声合成装置であ
り、該テキスト音声合成装置13はプリンタ用のインタ
フェース14を介して上位装置11からテキストデータ
を受ける。Embodiments of the present invention will now be described in detail with reference to the drawings. FIG. 1 is a block diagram of a text-to-speech synthesizer according to an embodiment of the present invention. In the drawing, 11 is a word processor, a host device such as a personal computer,
Reference numeral 12 is a dedicated printer driver arranged in the host device 11. Further, 13 is a text-to-speech synthesizer, and the text-to-speech synthesizer 13 receives text data from the higher-level device 11 via the printer interface 14.
【0010】前記テキスト音声合成装置13は辞書選定
部16、辞書部17及び音声合成部18を有する。前記
辞書選定部16は、テキスト音声合成装置13の図示し
ないプリンタインタフェース処理部に配設され、使用す
る辞書を選択するソフトウェアから成る。また、前記辞
書部17は各言語に対応する辞書、例えば、日本語辞書
21、英語辞書22、フランス語辞書23、ドイツ語辞
書24を備えるとともに、ユーザ辞書25を備える。そ
して、音声合成部18はインタフェース14を介して送
られたテキストデータを解析するとともに、波形データ
を生成し、音声合成を行う。The text-to-speech synthesizer 13 has a dictionary selection section 16, a dictionary section 17 and a speech synthesis section 18. The dictionary selection unit 16 is arranged in a printer interface processing unit (not shown) of the text-to-speech synthesizer 13 and is composed of software for selecting a dictionary to be used. The dictionary unit 17 includes dictionaries corresponding to respective languages, for example, a Japanese dictionary 21, an English dictionary 22, a French dictionary 23, a German dictionary 24, and a user dictionary 25. Then, the voice synthesizer 18 analyzes the text data sent via the interface 14, generates waveform data, and performs voice synthesis.
【0011】この場合、辞書を選択するために前記上位
装置11において作成したテキストデータに対して、斜
体、アンダーライン、網かけ等の文字修飾が行われる。
図2は本発明の実施例におけるテキストデータの説明図
である。図において、31は上位装置11(図1)の画
面であり、文章中に日本語の文字32、英語の文字3
3、フランス語の文字34、ドイツ語の文字35等が混
在している。この場合、各言語を区別するために、図示
しない入力装置を操作することによって、日本語の文字
32の場合は通常の書体で表され、英語の文字33の場
合は斜体の文字修飾が、フランス語の文字34の場合は
アンダーラインの文字修飾が、ドイツ語の文字35の場
合は網かけの文字修飾が行われる。In this case, the text data created in the host device 11 for selecting the dictionary is subjected to character modification such as italics, underlining, and shading.
FIG. 2 is an explanatory diagram of text data in the embodiment of the present invention. In the figure, 31 is a screen of the higher-level device 11 (FIG. 1), and Japanese characters 32 and English characters 3 are included in the sentence.
3, French letters 34, German letters 35, etc. are mixed. In this case, in order to distinguish each language, by operating an input device (not shown), the Japanese character 32 is expressed by a normal typeface, and the English character 33 is italicized by French. In the case of the character 34, the underlined character modification is performed, and in the case of the German character 35, the shaded character modification is performed.
【0012】これらの文字32〜35は、専用プリンタ
ドライバ12によってテキストデータ38にされ、イン
タフェース14を介して出力される。この場合、前記テ
キストデータ38は、前記文字32〜35を表す文字コ
ード列39、42、48、国指定制御コード40、4
6、国指定コード41、47、キャンセルコマンドCA
N、イメージ転送制御コード44、50及び文字修飾が
行われた文字を印字するためのイメージデータ45、5
1から成る。この場合、前記国指定制御コード40、4
6及び国指定コード41、47によって辞書情報が構成
される。The characters 32 to 35 are converted into text data 38 by the dedicated printer driver 12 and output via the interface 14. In this case, the text data 38 includes the character code strings 39, 42, 48 representing the characters 32 to 35, the country designation control codes 40, 4
6, country designation code 41, 47, cancel command CA
N, image transfer control codes 44, 50, and image data 45, 5 for printing characters with character modification
It consists of 1. In this case, the country designated control code 40, 4
6 and country designation codes 41 and 47 constitute dictionary information.
【0013】前記国指定制御コード40、46は、後に
続く文字コード列39、42、48が日本語辞書21に
もユーザ辞書25にも対応しないものであることを示
す。また、前記国指定コード41、47は、後に続く文
字コード列39、42、48の各言語の別を示す。そし
て、前記キャンセルコマンドCANは、先行する国指定
制御コード40、46、国指定コード41、47、及び
文字コード列39、42、48をキャンセルすることを
示す。さらに、前記イメージ転送制御コード44、50
は、後に続くテキストデータ38がイメージデータであ
ることを示す。なお、国指定制御コード40、46に
は、対象となる文字コード列39、42、48の文字の
数もパラメータとして含まれる。The country designation control codes 40 and 46 indicate that the character code strings 39, 42 and 48 following the code do not correspond to the Japanese dictionary 21 or the user dictionary 25. Further, the country designation codes 41, 47 indicate the respective languages of the character code strings 39, 42, 48 that follow. The cancel command CAN indicates that the preceding country designation control codes 40, 46, country designation codes 41, 47, and character code strings 39, 42, 48 are canceled. Further, the image transfer control codes 44, 50
Indicates that the subsequent text data 38 is image data. The country-specific control codes 40, 46 also include the number of characters of the target character code strings 39, 42, 48 as a parameter.
【0014】次に、前記構成のテキスト音声合成装置1
3の動作について図1及び2を併用して説明する。ま
ず、オペレータは上位装置11の入力装置を操作して、
日本語、英語、フランス語、ドイツ語等の各言語が混在
した文章を作成する。この時、日本語及びユーザ辞書に
登録された文字以外については、あらかじめ設定された
文字修飾を行う。本実施例においては、英語の文字33
の場合は斜体の文字修飾が、フランス語の文字34の場
合はアンダーラインの文字修飾が、ドイツ語の文字35
の場合は網かけの文字修飾が行われる。ただし、各言語
に対応する文字修飾は、自由に選択することができる。Next, the text-to-speech synthesizer 1 having the above configuration
The operation of No. 3 will be described with reference to FIGS. First, the operator operates the input device of the host device 11,
Create a sentence in which each language such as Japanese, English, French, and German is mixed. At this time, for characters other than Japanese and characters registered in the user dictionary, preset character decoration is performed. In this embodiment, the English character 33
Is italicized, and French 34 is underlined, German 35 is
In the case of, the characters are shaded. However, the character decoration corresponding to each language can be freely selected.
【0015】次に、文章を作成した後、印刷処理、すな
わち、音声出力処理を行うと、上位装置11に内蔵され
た専用プリンタドライバ12は、文字修飾が行われてい
ない文字については、日本語の文字コード列39を作成
し、文字修飾が行われている文字については、文字修飾
の内容に対応させて国指定制御コード40、46、及び
国指定コード41、47を付加した文字コード列42、
48を作成し、テキストデータ38を発生させる。Next, when a printing process, that is, a voice output process is performed after a sentence is created, the dedicated printer driver 12 incorporated in the higher-level device 11 makes Japanese characters for characters that are not character-modified. Character code string 39 is created, and for characters that have been character-modified, a character code string 42 in which country-specific control codes 40 and 46 and country-specific codes 41 and 47 are added according to the content of the character modification. ,
48 is generated and the text data 38 is generated.
【0016】そして、前記音声出力処理のほかに印刷出
力処理を行うことができるように、前記テキストデータ
38には印刷出力処理用のイメージデータ45、51が
併せて形成される。また、前記上位装置11をテキスト
音声合成装置13に接続すると、該テキスト音声合成装
置13はテキストデータ38中のイメージデータ45、
51を無視する。Image data 45 and 51 for print output processing are also formed in the text data 38 so that print output processing can be performed in addition to the voice output processing. When the host device 11 is connected to the text-to-speech synthesizer 13, the text-to-speech synthesizer 13 causes the image data 45 in the text data 38,
Ignore 51.
【0017】これに対して、上位装置11を図示しない
プリンタに接続すると、前記イメージデータ45、51
が印字データになる。この場合、国指定制御コード4
0、46、国指定コード41、47及び文字コード列4
2、48は、その後に続くキャンセルコマンドCANに
よって無視され、印刷されない。一方、テキスト音声合
成装置13は上位装置11からテキストデータ38を受
けると、辞書選定部16は国指定制御コード40、46
及び国指定コード41、47に基づいて、テキストデー
タ38の文字コード列39、42、48がどの言語に対
応するものであるかを判断し、辞書部17の日本語辞書
21、英語辞書22、フランス語辞書23、ドイツ語辞
書24、及びユーザ辞書25の中から対応する言語の辞
書を選択する。On the other hand, when the upper device 11 is connected to a printer (not shown), the image data 45, 51
Becomes the print data. In this case, country-specific control code 4
0, 46, country designation code 41, 47 and character code string 4
Nos. 2 and 48 are ignored by the cancel command CAN that follows, and are not printed. On the other hand, when the text-to-speech synthesizer 13 receives the text data 38 from the higher-level device 11, the dictionary selection unit 16 causes the country designation control codes 40 and 46.
It is determined which language the character code strings 39, 42 and 48 of the text data 38 correspond to based on the country designation codes 41 and 47, and the Japanese dictionary 21 and the English dictionary 22 of the dictionary unit 17, The dictionary of the corresponding language is selected from the French dictionary 23, the German dictionary 24, and the user dictionary 25.
【0018】次に、音声合成部18は選択された言語の
辞書を参照して、前記テキストデータ38の文字コード
列39、42、48を解析し、波形データを生成して音
声合成を行う。そして、図示しない出力部は、音声合成
によって得られたアナログ信号を所定のレベルで出力す
る。なお、本実施例においては、辞書部17に各言語別
の辞書を形成しているが、関西弁、京都弁、東北弁等の
方言の辞書を形成することもできる。Next, the voice synthesizing unit 18 refers to the dictionary of the selected language, analyzes the character code strings 39, 42 and 48 of the text data 38, generates waveform data and performs voice synthesis. Then, the output unit (not shown) outputs the analog signal obtained by the voice synthesis at a predetermined level. In the present embodiment, the dictionary for each language is formed in the dictionary unit 17, but it is also possible to form a dialect dictionary such as Kansai dialect, Kyoto dialect, Tohoku dialect.
【0019】次に、前記テキスト音声合成装置13の動
作について図3及び4に基づいて説明する。図3は本発
明の実施例におけるテキスト音声合成方法の動作を示す
フローチャート、図4は本発明の実施例における辞書選
定処理のサブルーチンを示すフローチャートである。 ステップS1 上位装置11(図1)から送られたテキ
ストデータ38(図2)に基づいて辞書選択処理を行
う。 ステップS2 テキストデータ38を解析し、波形デー
タを生成する。 ステップS3 音声合成部18が前記波形データに基づ
いて音声合成を行い、図示しない出力部がアナログ信号
を発生させ、所定のレベルで出力する。 ステップS1−1 送られてきたテキストデータ38を
解析し、解析されたテキストデータが国指定制御コード
40、46であるかどうかを判断する。国指定制御コー
ド40、46である場合はステップS1−2に、国指定
制御コード40、46でない場合はステップS1−4に
進む。 ステップS1−2 国指定コード41、47に基づいて
言語を判断する。 ステップS1−3 各言語の辞書を選択する。 ステップS1−4 解析されたテキストデータがその他
の制御コードであるかどうかを判断する。その他の制御
コードである場合はステップS1−5に、その他の制御
コードでない場合はS1−6に進む。 ステップS1−5 制御コード処理を行う。 ステップS1−6 文字コードであることが分かるの
で、日本語辞書21を選択する。Next, the operation of the text-to-speech synthesizer 13 will be described with reference to FIGS. FIG. 3 is a flow chart showing the operation of the text-to-speech synthesis method in the embodiment of the present invention, and FIG. 4 is a flow chart showing the subroutine of the dictionary selection processing in the embodiment of the present invention. Step S1 Dictionary selection processing is performed based on the text data 38 (FIG. 2) sent from the higher-level device 11 (FIG. 1). In step S2, the text data 38 is analyzed and waveform data is generated. Step S3 The voice synthesizing unit 18 performs voice synthesizing based on the waveform data, and an output unit (not shown) generates an analog signal and outputs it at a predetermined level. Step S1-1 The sent text data 38 is analyzed, and it is determined whether the analyzed text data is the country designated control codes 40 and 46. If it is the country designated control code 40 or 46, the process proceeds to step S1-2. If it is not the country designated control code 40 or 46, the process proceeds to step S1-4. In step S1-2, the language is judged based on the country designation codes 41 and 47. Step S1-3 Select a dictionary for each language. Step S1-4: It is judged whether the analyzed text data is another control code. If it is another control code, the process proceeds to step S1-5. If it is not another control code, the process proceeds to step S1-6. In step S1-5, control code processing is performed. Step S1-6 Since the character code is known, the Japanese dictionary 21 is selected.
【0020】なお、本発明は前記実施例に限定されるも
のではなく、本発明の趣旨に基づいて種々変形させるこ
とが可能であり、これらを本発明の範囲から排除するも
のではない。The present invention is not limited to the above-mentioned embodiments, but can be variously modified within the scope of the present invention, and these are not excluded from the scope of the present invention.
【0021】[0021]
【発明の効果】以上詳細に説明したように、本発明によ
れば、テキスト音声合成方法においては、文字修飾に対
応させて設定された辞書情報を文字コードに付加してテ
キストデータを発生させ、該テキストデータを解析す
る。また、前記テキスト音声合成装置は、解析されたテ
キストデータの辞書情報に基づいて各言語に対応する辞
書を選択し、選択された辞書を参照して音声合成を行
う。As described above in detail, according to the present invention, in the text-to-speech synthesis method, the dictionary information set corresponding to the character modification is added to the character code to generate the text data, The text data is analyzed. Further, the text-to-speech synthesizer selects a dictionary corresponding to each language based on the dictionary information of the analyzed text data, and refers to the selected dictionary to perform speech synthesis.
【0022】したがって、一つの文章の中に各種の言
語、方言等が混在していても、すべてのテキストデータ
について音声合成を行うことができる。また、文字修飾
に対応させて辞書情報を設定することができるので、特
別な制御は不要であり、通常のワードプロセッサ、パソ
コン等を使用して音声合成を行うことができる。また、
上位装置とテキスト音声合成装置とをプリンタ用のイン
タフェースによって接続することもできる。Therefore, even if various languages, dialects and the like are mixed in one sentence, it is possible to perform speech synthesis on all text data. Further, since the dictionary information can be set in correspondence with the character modification, no special control is required, and voice synthesis can be performed using a normal word processor, personal computer or the like. Also,
It is also possible to connect the host device and the text-to-speech synthesizer via an interface for a printer.
【図1】本発明の実施例におけるテキスト音声合成装置
のブロック図である。FIG. 1 is a block diagram of a text-to-speech synthesizer according to an embodiment of the present invention.
【図2】本発明の実施例におけるテキストデータの説明
図である。FIG. 2 is an explanatory diagram of text data according to the embodiment of this invention.
【図3】本発明の実施例におけるテキスト音声合成方法
の動作を示すフローチャートである。FIG. 3 is a flowchart showing the operation of the text-to-speech synthesis method in the embodiment of the present invention.
【図4】本発明の実施例における辞書選定処理のサブル
ーチンを示すフローチャートである。FIG. 4 is a flowchart showing a subroutine of dictionary selection processing in the embodiment of the present invention.
11 上位装置 12 専用プリンタドライバ 13 テキスト音声合成装置 16 辞書選定部 18 音声合成部 38 テキストデータ 11 Upper Device 12 Dedicated Printer Driver 13 Text-to-Speech Synthesizer 16 Dictionary Selection Section 18 Speech-Synthesis Section 38 Text Data
Claims (1)
辞書情報を文字コードに付加してテキストデータを発生
させ、(b)該テキストデータを解析し、解析されたテ
キストデータの辞書情報に基づいて各言語に対応する辞
書を選択し、(c)選択された辞書を参照して音声合成
を行うことを特徴とするテキスト音声合成方法。1. (a) The dictionary information set corresponding to the character modification is added to the character code to generate text data, and (b) the text data is analyzed, and the dictionary information of the analyzed text data. A text-to-speech synthesis method, characterized in that a dictionary corresponding to each language is selected based on, and (c) speech synthesis is performed with reference to the selected dictionary.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP6231322A JPH0895587A (en) | 1994-09-27 | 1994-09-27 | Text-to-speech method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP6231322A JPH0895587A (en) | 1994-09-27 | 1994-09-27 | Text-to-speech method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH0895587A true JPH0895587A (en) | 1996-04-12 |
Family
ID=16921823
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP6231322A Pending JPH0895587A (en) | 1994-09-27 | 1994-09-27 | Text-to-speech method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH0895587A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7292980B1 (en) | 1999-04-30 | 2007-11-06 | Lucent Technologies Inc. | Graphical user interface and method for modifying pronunciations in text-to-speech and speech recognition systems |
-
1994
- 1994-09-27 JP JP6231322A patent/JPH0895587A/en active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7292980B1 (en) | 1999-04-30 | 2007-11-06 | Lucent Technologies Inc. | Graphical user interface and method for modifying pronunciations in text-to-speech and speech recognition systems |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US5835924A (en) | Language processing apparatus and method | |
| JP2746875B2 (en) | Dictionary operation device | |
| US20030074185A1 (en) | Korean romanization system | |
| JPS61107430A (en) | Editing unit for voice information | |
| US20120259614A1 (en) | Transliterating methods between character-based and phonetic symbol-based writing systems | |
| JPH0535783A (en) | Document translation device with typographical information | |
| US20010052900A1 (en) | Apparatus and method for inputting chinese characters | |
| JP3483230B2 (en) | Utterance information creation device | |
| KR101259207B1 (en) | Method for learning chinese character script and chinese character-based scripts of other languages | |
| JPH0895587A (en) | Text-to-speech method | |
| JPH06195326A (en) | Method and device for inputting document | |
| JP2002207728A (en) | Phonetic character generation device and recording medium storing program for realizing the same | |
| JPH09325787A (en) | Voice synthesizing method, voice synthesizing device, method and device for incorporating voice command in sentence | |
| JPS634206B2 (en) | ||
| JPH09244869A (en) | Document reading-aloud system | |
| JP3533591B2 (en) | Character input device, character input method, and recording medium recording character input control program | |
| JPH10320399A (en) | Language identification device and method therefor and recording medium for recording program of language identification | |
| US8408914B2 (en) | System and method for learning Chinese character script and Chinese character-based scripts of other languages | |
| JP3414326B2 (en) | Speech synthesis dictionary registration apparatus and method | |
| JP3893709B2 (en) | Character string conversion apparatus and method, kana-kanji conversion apparatus, sentence proofreading apparatus, and recording medium recording the program | |
| JPH08272780A (en) | Chinese input processing apparatus, Chinese input processing method, language processing apparatus and language processing method | |
| JP2002516004A (en) | How to convert non-phonetic characters into substitute words and enter them into a computer | |
| JP3255328B2 (en) | Machine translation equipment | |
| JPH07141345A (en) | Japanese sentence processing method | |
| JPH0934890A (en) | Handwritten character input device and kana-kanji conversion method |