+

JP7033195B2 - Dialogue device - Google Patents

Dialogue device Download PDF

Info

Publication number
JP7033195B2
JP7033195B2 JP2020519502A JP2020519502A JP7033195B2 JP 7033195 B2 JP7033195 B2 JP 7033195B2 JP 2020519502 A JP2020519502 A JP 2020519502A JP 2020519502 A JP2020519502 A JP 2020519502A JP 7033195 B2 JP7033195 B2 JP 7033195B2
Authority
JP
Japan
Prior art keywords
utterance
concealment
level
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020519502A
Other languages
Japanese (ja)
Other versions
JPWO2019220791A1 (en
Inventor
剛 田中
公亮 角野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JPWO2019220791A1 publication Critical patent/JPWO2019220791A1/en
Application granted granted Critical
Publication of JP7033195B2 publication Critical patent/JP7033195B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/93Document management systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Bioethics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Machine Translation (AREA)

Description

本発明の一側面は対話装置に関する。 One aspect of the present invention relates to a dialogue device.

ユーザとの間で実行される自動対話の記録を管理する仕組みが知られている。例えば、特許文献1には、所定の処理に用いられた情報を削除する指示を受け付けると、該情報を削除するとともに、削除される該情報を用いた所定の処理に係る識別子を特定し、少なくとも特定した識別子に対応付けられた応答に係る音声の内容を対話履歴記憶部から削除する対話履歴管理装置が記載されている。 A mechanism for managing the recording of automatic dialogues performed with users is known. For example, in Patent Document 1, when an instruction to delete information used in a predetermined process is received, the information is deleted and an identifier related to the predetermined process using the deleted information is specified, and at least. Described is a dialogue history management device that deletes the content of the voice related to the response associated with the specified identifier from the dialogue history storage unit.

特開2015-169768号公報Japanese Unexamined Patent Publication No. 2015-169768

特許文献1に記載の装置では、削除指示を受け付けない限り削除処理を実行しない。しかし、対話を構成する発話文章の中には、当初から記録しない方が好ましい秘密情報が存在し得る。そこで、対話の中で現れた秘密情報のセキュリティをより確実に確保することが望まれている。 The apparatus described in Patent Document 1 does not execute the deletion process unless the deletion instruction is accepted. However, there may be confidential information in the spoken text that constitutes the dialogue, which should not be recorded from the beginning. Therefore, it is desired to ensure the security of the confidential information that appears in the dialogue.

本発明の一側面に係る対話装置は、ユーザとの間で実行される自動対話を構成する発話文章を取得する取得部と、発話文章がまだログに記録されていない状態において、少なくとも一部の秘密情報を隠蔽する隠蔽処理を発話文章に対して実行する隠蔽部と、少なくとも一部の秘密情報が隠蔽された発話文章をログに記録する記録部とを備える。 The dialogue device according to one aspect of the present invention includes an acquisition unit for acquiring an utterance sentence constituting an automatic dialogue executed with a user, and at least a part of the utterance sentence in a state where the utterance sentence is not yet recorded in a log. It includes a concealment unit that executes a concealment process for concealing confidential information on the utterance text, and a recording unit that records the utterance text in which at least a part of the confidential information is concealed in a log.

このような側面においては、発話文章中の秘密情報の少なくとも一部が最初からログに記録されないので、対話の中で現れた秘密情報のセキュリティをより確実に確保することができる。 In such an aspect, since at least a part of the confidential information in the spoken text is not recorded in the log from the beginning, the security of the confidential information appearing in the dialogue can be ensured more reliably.

本発明の一側面によれば、対話の中で現れた秘密情報のセキュリティをより確実に確保することができる。 According to one aspect of the present invention, it is possible to more reliably ensure the security of confidential information that appears in the dialogue.

実施形態に係る対話装置の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the dialogue apparatus which concerns on embodiment. 実施形態に係る対話装置の動作の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the operation of the dialogue apparatus which concerns on embodiment. 実施形態に係る対話装置の動作の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the operation of the dialogue apparatus which concerns on embodiment. ログのいくつかの例を示す図である。It is a figure which shows some example of a log. 実施形態に係る対話装置に用いられるコンピュータのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the computer used for the dialogue apparatus which concerns on embodiment.

以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一または同等の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same or equivalent elements are designated by the same reference numerals, and duplicate description will be omitted.

対話装置は、ユーザとの間で自動対話を実行するコンピュータである。ユーザとは対話装置を利用する人である。自動対話とはユーザとコンピュータ(このコンピュータは一般に「ボット」ともいわれる。)との間の会話のやり取りであり、この自動対話ではコンピュータはユーザからの発話に応答して自動的に発話する。発話とはユーザまたはコンピュータが発する一回分の話である。以下では、ユーザの発話を「ユーザ発話」ともいい、コンピュータの発話を「システム発話」ともいう。 A dialogue device is a computer that performs an automatic dialogue with a user. A user is a person who uses a dialogue device. Automatic dialogue is the exchange of conversations between a user and a computer (this computer is also commonly referred to as a "bot"), in which the computer automatically speaks in response to the user's speech. An utterance is a single utterance made by a user or computer. In the following, the utterance of the user is also referred to as "user utterance", and the utterance of the computer is also referred to as "system utterance".

対話装置の利用目的は何ら限定されない。例えば、対話装置はユーザの質問に回答するFAQ(Frequently Asked Questions)システムで用いられてもよいし、FAQに限られない任意の話を行う雑談システムで用いられてもよい。あるいは、対話装置は、音声操作に基づいて任意のタスクを実行するバーチャルアシスタント機能に組み込まれてもよい。 The purpose of using the dialogue device is not limited. For example, the dialogue device may be used in an FAQ (Frequently Asked Questions) system that answers user's questions, or may be used in a chat system that talks about anything, not limited to FAQ. Alternatively, the dialogue device may be incorporated into a virtual assistant function that performs any task based on voice operation.

対話装置はクライアント-サーバ型システムの一部であってもよいし、単体の装置であってもよい。本実施形態では、対話装置はサーバとして機能するコンピュータであるとする。図1は、実施形態に係る対話装置10の機能構成の一例を示す図である。対話装置10は通信ネットワークを介して少なくとも一つのユーザ端末90と接続することができる。通信ネットワークの構成は何ら限定されず、例えばインターネットおよびイントラネットの少なくとも一方を用いて構成されてもよい。 The dialogue device may be a part of a client-server system or a single device. In the present embodiment, it is assumed that the dialogue device is a computer that functions as a server. FIG. 1 is a diagram showing an example of the functional configuration of the dialogue device 10 according to the embodiment. The dialogue device 10 can be connected to at least one user terminal 90 via a communication network. The configuration of the communication network is not limited in any way, and may be configured using at least one of, for example, the Internet and an intranet.

ユーザ端末90はユーザにより操作されるコンピュータ(クライアント端末)である。ユーザ端末90は、ユーザにより入力された発話(ユーザ発話)を対話装置10に送信する機能と、対話装置10から受信した発話(システム発話)を出力する機能とを備える。ユーザ端末90の種類は限定されず、例えば、据置型のコンピュータまたは装置であってもよいし、携帯型のコンピュータまたは装置であってもよい。ユーザ端末90の具体的な例として、スマートフォン、タブレット端末、ウェアラブル端末、パーソナルコンピュータ、スマートスピーカ、スマートテレビ、およびスマート家電が挙げられるが、これらに限定されない。 The user terminal 90 is a computer (client terminal) operated by the user. The user terminal 90 has a function of transmitting an utterance (user utterance) input by the user to the dialogue device 10 and a function of outputting an utterance (system utterance) received from the dialogue device 10. The type of the user terminal 90 is not limited, and may be, for example, a stationary computer or a device, or a portable computer or a device. Specific examples of the user terminal 90 include, but are not limited to, smartphones, tablet terminals, wearable terminals, personal computers, smart speakers, smart TVs, and smart home appliances.

対話装置10はユーザ端末90との間で実行された自動対話を構成する発話文章をログ40に記録する。発話文章とはユーザまたはボットの発話を示す文章であり、文字列で表現することができる。ログとは発話文章の履歴の永続的な記録である。ログ40は任意の形式の論理ファイルにより実現され、任意のストレージ(記憶装置)に保存される。対話装置10の特徴の一つは、発話文章のログへの記録方法にある。以下では、その特徴について特に詳しく説明する。 The dialogue device 10 records in the log 40 the utterance text constituting the automatic dialogue executed with the user terminal 90. The utterance sentence is a sentence indicating the utterance of the user or the bot, and can be expressed by a character string. A log is a permanent record of the history of spoken text. The log 40 is realized by a logical file of any format and is stored in any storage (storage device). One of the features of the dialogue device 10 is a method of recording an uttered sentence in a log. The features will be described in particular detail below.

図1に示すように、対話装置10は機能要素として、自動対話を統括的に制御するフロント機能20と、特定の話題に関するシステム発話を出力する1以上のボット機能30とを備える。フロント機能20は、ユーザ端末90から受信したユーザ発話を処理させるボット機能30を決定し、そのボット機能30にユーザ発話を転送する。その後、フロント機能20は、そのボット機能30から出力されたシステム発話をユーザ端末90に応答として送信する。また、フロント機能20はそのユーザ発話およびシステム発話をログ40に記録する。それぞれのボット機能30は、対話のルール(どのようなユーザ発話を受け付けた場合にどのようなシステム発話を出力するかを規定したルール)であるシナリオを参照する。ボット機能30は、フロント機能20からユーザ発話を受け付けると、そのユーザ発話に対応するシステム発話をそのシナリオに基づいて決定し、決定したシステム発話をフロント機能20に出力する。 As shown in FIG. 1, the dialogue device 10 includes, as functional elements, a front function 20 that comprehensively controls automatic dialogue, and one or more bot functions 30 that output system utterances related to a specific topic. The front function 20 determines a bot function 30 for processing a user utterance received from the user terminal 90, and transfers the user utterance to the bot function 30. After that, the front function 20 transmits the system utterance output from the bot function 30 to the user terminal 90 as a response. Further, the front function 20 records the user utterance and the system utterance in the log 40. Each bot function 30 refers to a scenario that is a dialogue rule (a rule that defines what kind of system utterance is output when what kind of user utterance is received). When the bot function 30 receives a user utterance from the front function 20, the bot function 30 determines a system utterance corresponding to the user utterance based on the scenario, and outputs the determined system utterance to the front function 20.

本実施形態では、フロント機能20は取得部21、隠蔽部22、および記録部23を備える。取得部21は、ユーザとの間で実行される自動対話を構成する発話文章を取得する機能要素である。取得部21は、ユーザ発話またはシステム発話を示す発話文章を取得する。隠蔽部22は、その発話文章がまだログ40に記録されていない状態において、少なくとも一部の秘密情報を隠蔽する隠蔽処理を発話文章に対して実行する機能要素である。秘密情報とは第三者(少なくともユーザとは異なる者)に知らせないことが望ましい情報である。どのような情報を秘密情報とするかは任意に定められてよい。例えば、秘密情報は個人情報の少なくとも一部を含んでもよいし、企業の機密情報の少なくとも一部を含んでもよい。隠蔽とは、第三者による元の情報の特定を不可能にまたは困難にするための処理である。記録部23は、少なくとも一部の秘密情報が隠蔽された発話文章をログ40に記録する機能要素である。 In the present embodiment, the front function 20 includes an acquisition unit 21, a concealment unit 22, and a recording unit 23. The acquisition unit 21 is a functional element for acquiring an uttered sentence constituting an automatic dialogue executed with a user. The acquisition unit 21 acquires an utterance sentence indicating a user utterance or a system utterance. The concealment unit 22 is a functional element that executes a concealment process for concealing at least a part of confidential information on the utterance sentence in a state where the utterance sentence is not yet recorded in the log 40. Confidential information is information that should not be notified to a third party (at least a person different from the user). What kind of information should be confidential information may be arbitrarily determined. For example, confidential information may include at least a portion of personal information or may include at least a portion of confidential company information. Concealment is a process that makes it impossible or difficult for a third party to identify the original information. The recording unit 23 is a functional element that records an utterance sentence in which at least a part of confidential information is concealed in the log 40.

図2~図4を参照しながら対話装置10の動作を説明する。図2および図3は、対話装置10の動作の一例を示すシーケンス図である。図4はログ40のいくつかの例を示す図である。理解を容易にするために、図2および図3では、対話装置10のフロント機能20およびボット機能30を個々に示すと共に、1以上のボット機能30を一つのブロックで簡易に示す。 The operation of the dialogue device 10 will be described with reference to FIGS. 2 to 4. 2 and 3 are sequence diagrams showing an example of the operation of the dialogue device 10. FIG. 4 is a diagram showing some examples of the log 40. For ease of understanding, FIGS. 2 and 3 show the front function 20 and the bot function 30 of the dialogue device 10 individually, and briefly show one or more bot functions 30 in one block.

ステップS11では、ユーザ端末90が自動対話の開始要求を対話装置10に送信する。対話装置10がこの開始要求を受信および処理することで、ユーザはユーザ端末90を用いて自動対話を行うことができる。 In step S11, the user terminal 90 transmits a request to start an automatic dialogue to the dialogue device 10. When the dialogue device 10 receives and processes this start request, the user can perform an automatic dialogue using the user terminal 90.

本実施形態では、その開始要求は発話属性を含むデータ信号である。発話属性とはユーザ発話に関連する性質または特徴を示す情報であり、自動対話で用いられ得る。本実施形態では、発話属性は開始要求に含まれたかたちで、またはユーザ発話と共に、ユーザ端末90から対話装置10に提供される。発話属性の具体的な内容は限定されない。本実施形態では、発話属性は、自動対話を利用しようとするユーザの性質または特徴を示すユーザ属性と、ユーザ端末90の性質または特徴を示す端末属性とを含むものとする。ユーザ属性を示すデータ項目の種類および個数は何ら限定されない。例えば、ユーザ属性は名前、性別、年齢、および住所から選択される一つであってもよいし、該4項目から任意に選択される2以上の項目の組合せであってもよい。あるいは、ユーザ属性は該4項目とは異なる他の1以上のデータ項目を含んでもよい。端末属性を示すデータ項目の種類および個数も何ら限定されない。例えば、端末属性は端末名、オペレーティングシステム名、および作動モードから選択される一つであってもよいし、該3項目から任意に選択される2以上の項目の組合せであってもよい。あるいは、端末属性は該3項目とは異なる他の1以上のデータ項目を含んでもよい。いずれにしても、対話装置10では取得部21がその開始要求を受信する。 In this embodiment, the start request is a data signal including an utterance attribute. The utterance attribute is information indicating a property or characteristic related to the user's utterance, and can be used in automatic dialogue. In this embodiment, the utterance attribute is provided from the user terminal 90 to the dialogue device 10 in the form included in the start request or together with the user utterance. The specific content of the utterance attribute is not limited. In the present embodiment, the utterance attribute includes a user attribute indicating the property or characteristic of the user who intends to use the automatic dialogue, and a terminal attribute indicating the property or characteristic of the user terminal 90. The type and number of data items indicating user attributes are not limited in any way. For example, the user attribute may be one selected from the name, gender, age, and address, or may be a combination of two or more items arbitrarily selected from the four items. Alternatively, the user attribute may include one or more other data items different from the four items. The type and number of data items indicating terminal attributes are also not limited. For example, the terminal attribute may be one selected from the terminal name, the operating system name, and the operation mode, or may be a combination of two or more items arbitrarily selected from the three items. Alternatively, the terminal attribute may include one or more other data items different from the three items. In any case, in the dialogue device 10, the acquisition unit 21 receives the start request.

ステップS12では、隠蔽部22がその開始要求の発話属性に基づいて隠蔽レベルを決定する。隠蔽レベルとは、秘密情報を隠蔽する方法(隠蔽方法)と、隠蔽すべき秘密情報のデータ項目との少なくとも一方を示す指標である。 In step S12, the concealment unit 22 determines the concealment level based on the utterance attribute of the start request. The concealment level is an index indicating at least one of a method of concealing confidential information (concealment method) and a data item of confidential information to be concealed.

隠蔽方法は、少なくとも一部の秘密情報の削除であってもよく、この場合には、隠蔽レベルは削除レベルである。削除レベルの場合には、隠蔽される秘密情報は、ログ40に記録されようとする文字列から除外されるので、ログ40には最初から記録されない。 The concealment method may be the deletion of at least a part of the confidential information, in which case the concealment level is the deletion level. In the case of the deletion level, the hidden secret information is excluded from the character string to be recorded in the log 40, so that it is not recorded in the log 40 from the beginning.

あるいは、隠蔽方法は、少なくとも一部の秘密情報を1以上の概念語に置換する処理であってもよく、この場合には、隠蔽レベルは置換レベルである。概念語とは元の情報を抽象化した語句である。したがって、置換レベルの場合には、隠蔽される秘密情報は、より曖昧な別の言葉に置き換えられた上でログ40に記録される。概念語は、元の情報のカテゴリを示す語句であってもよいし、元の情報に対応する変数名であってもよい。あるいは、概念語は元の情報の手掛かりを全く与えないような曖昧な表現であってもよい。例えば、「田中」という姓が置換レベルで隠蔽される場合には、その文字列「田中」は「%userInfo.surname%」、「surname」、「name」、または「%variable_1%」という概念語に置換されてもよい。 Alternatively, the concealment method may be a process of replacing at least a part of the secret information with one or more conceptual words, and in this case, the concealment level is the replacement level. A conceptual word is a phrase that abstracts the original information. Therefore, in the case of the replacement level, the hidden confidential information is replaced with another more ambiguous word and recorded in the log 40. The conceptual word may be a phrase indicating the category of the original information, or may be a variable name corresponding to the original information. Alternatively, the conceptual word may be an ambiguous expression that does not give any clue to the original information. For example, if the surname "Tanaka" is concealed at the substitution level, the string "Tanaka" is the conceptual word "% userInfo.surname%", "surname", "name", or "% variable_1%". May be replaced with.

置換レベルは複数段階で設定されてもよい。これは、或る秘密情報の抽象化の度合い(抽象度)が複数種類用意されることを意味する。2種類の置換レベルが用意されてもよいし3種類以上の置換レベルが用意されてもよい。いずれにしても、この場合の隠蔽レベルは、少なくとも一部の秘密情報を第1概念語に置換する第1置換レベルと、少なくとも一部の秘密情報を、該第1概念語よりも抽象度が低い第2概念語に置換する第2置換レベルとを含んでもよい。 The replacement level may be set in multiple steps. This means that multiple types of abstraction levels (abstraction levels) of certain confidential information are prepared. Two types of substitution levels may be prepared, and three or more kinds of substitution levels may be prepared. In any case, the concealment level in this case is a first substitution level that replaces at least a part of the secret information with the first concept word, and at least a part of the secret information is more abstract than the first concept word. It may include a second substitution level that replaces with a lower second concept word.

第1置換レベルおよび第2置換レベルが予め用意されており、「田中」および「鈴木」という二つの姓をその2種類の置換レベルで隠蔽する例を示す。例えば、第1置換レベルでは、「田中」および「鈴木」という二つの文字列の双方が「%userInfo.surname%」という第1概念語に置き換えられてもよい。一方、第2置換レベルでは、文字列「田中」は「%userInfo.surname1%」という第2概念語に置き換えられ、文字列「鈴木」は「%userInfo.surname2%」という第2概念語に置き換えられてもよい。この例では、第1置換レベルは二つの姓を区別できないかたちで置換する処理であるのに対して、第2置換レベルは二つの姓を区別するかたちで置換する処理である。したがって、第2概念語は第1概念語よりも抽象度が低い。 The first substitution level and the second substitution level are prepared in advance, and an example of hiding the two surnames "Tanaka" and "Suzuki" with the two substitution levels is shown. For example, at the first substitution level, both the two character strings "Tanaka" and "Suzuki" may be replaced with the first conceptual word "% userInfo.surname%". On the other hand, at the second substitution level, the character string "Tanaka" is replaced with the second conceptual word "% userInfo.surname1%", and the character string "Suzuki" is replaced with the second conceptual word "% userInfo.surname2%". May be done. In this example, the first substitution level is a process of replacing two surnames in an indistinguishable manner, whereas the second substitution level is a process of replacing two surnames in a distinctive manner. Therefore, the second conceptual word has a lower degree of abstraction than the first conceptual word.

隠蔽方法は一つのみ用意されてもよいし、2以上の隠蔽方法が用意されてもよい。複数の隠蔽方法が用意される場合には、隠蔽レベルは、複数の置換レベルから選択可能であってもよいし、削除レベルと一つの置換レベルとから選択可能であってもよいし、削除レベルと複数の置換レベルとから選択可能であってもよい。 Only one concealment method may be prepared, or two or more concealment methods may be prepared. When multiple concealment methods are provided, the concealment level may be selectable from multiple replacement levels, may be selectable from a deletion level and one replacement level, or may be a deletion level. And a plurality of substitution levels may be selectable.

隠蔽すべき秘密情報の種類は任意に設定されてよい。例えば、一種類の秘密情報のみを隠蔽するように隠蔽レベルが設定されてもよいし、2種類以上の秘密情報を隠蔽するように隠蔽レベルが設定されてもよい。あるいは、想定される秘密情報の一部のみまたはすべてを隠蔽するように隠蔽レベルが設定されてもよい。より具体的な例として、名前、年齢、性別、および場所から選択される一または複数のデータ項目が隠蔽されるように隠蔽レベルが設定されてもよい。いずれにしても、隠蔽レベルは、少なくとも一部の秘密情報を隠蔽するように設定される。 The type of confidential information to be hidden may be set arbitrarily. For example, the concealment level may be set so as to conceal only one type of confidential information, or the concealment level may be set so as to conceal two or more types of confidential information. Alternatively, the concealment level may be set to conceal only or all of the assumed confidential information. As a more specific example, the concealment level may be set to conceal one or more data items selected by name, age, gender, and location. In any case, the concealment level is set to conceal at least some confidential information.

隠蔽レベルは隠蔽方法と隠蔽すべき秘密情報の種類との双方を示してもよいし、どちらか一方のみを示してもよい。隠蔽レベルは個々のユーザ毎に設定されてもよいし、すべてのユーザに共通であってもよい。あるいは、隠蔽レベルは個々の発話属性毎に設定されてもよく、例えば、ユーザの年齢層毎に設定されてもよい。発話文章の隠蔽レベルと発話属性の隠蔽レベルとは同じでもよいし互いに異なってもよい。いずれにしても、隠蔽レベルは様々な態様で柔軟に設定され得る。 The concealment level may indicate both the concealment method and the type of confidential information to be concealed, or may indicate only one of them. The hiding level may be set for each individual user or may be common to all users. Alternatively, the concealment level may be set for each individual utterance attribute, for example, for each age group of the user. The concealment level of the utterance sentence and the concealment level of the utterance attribute may be the same or different from each other. In any case, the concealment level can be flexibly set in various ways.

対話装置10は、隠蔽部22が隠蔽レベルを決定できるように、隠蔽レベルに関する情報を予め記憶する。記憶される隠蔽レベルの記述方法は限定されない。例えば、隠蔽レベルは設定ファイル、データベース、マッピングテーブル、アルゴリズム、数式、および閾値のうちのいずれかの手法で表されてもよいし、これらの手法から任意に選択される2以上の組合せで表されてもよい。このように、隠蔽レベルは様々な手法で設定され得る。いずれにしても、隠蔽部22は開始要求に含まれる発話属性に基づいて、予め用意された1以上の隠蔽レベルのうちの一つを決定する。 The dialogue device 10 stores information about the concealment level in advance so that the concealment unit 22 can determine the concealment level. The method of describing the concealment level to be stored is not limited. For example, the hiding level may be represented by any of the following methods: configuration file, database, mapping table, algorithm, formula, and threshold, or a combination of two or more arbitrarily selected from these methods. You may. In this way, the concealment level can be set by various methods. In any case, the concealment unit 22 determines one of one or more concealment levels prepared in advance based on the utterance attribute included in the start request.

ステップS13では、隠蔽部22が、決定した隠蔽レベルに基づいて、開始要求に対する隠蔽処理を実行する。隠蔽部22は、ログ40に記録しようとする、開始要求を示す文字列のうち、その隠蔽レベルで指定された秘密情報(例えば、ユーザ属性の少なくとも一部)を、指定された隠蔽方法で隠蔽する。例えば、決定した隠蔽レベルが削除レベルであれば、隠蔽部22は指定された秘密情報を該文字列から削除する。決定した隠蔽レベルが置換レベルであれば、隠蔽部22は該文字列内の指定された秘密情報を概念語に置換する。 In step S13, the concealment unit 22 executes a concealment process for the start request based on the determined concealment level. The concealment unit 22 conceals the secret information (for example, at least a part of the user attribute) specified by the concealment level among the character strings indicating the start request to be recorded in the log 40 by the specified concealment method. do. For example, if the determined concealment level is the deletion level, the concealment unit 22 deletes the designated secret information from the character string. If the determined concealment level is the replacement level, the concealment unit 22 replaces the specified secret information in the character string with a conceptual word.

隠蔽しようとする秘密情報を処理対象の文字列から特定する方法は限定されない。例えば、隠蔽部22はその秘密情報を、文字列マッチング、機械学習、照応解析、および固有表現抽出(エンティティリンキング)から選択される少なくとも一つの手法を用いて特定してもよい。開始要求を処理する場合には、発話属性は予め定められた規則で開始要求に記述されるので、隠蔽部22は、隠蔽しようとする秘密情報を文字列マッチングにより特定し、その秘密情報を隠蔽レベルに基づいて処理してもよい。 The method of specifying the confidential information to be hidden from the character string to be processed is not limited. For example, the concealment unit 22 may identify the secret information using at least one method selected from character string matching, machine learning, anaphora resolution, and named entity linking. When processing the start request, the utterance attribute is described in the start request according to a predetermined rule, so that the concealment unit 22 identifies the secret information to be concealed by character string matching and conceals the secret information. It may be processed based on the level.

ステップS14では、記録部23が、隠蔽処理された開始要求をログ40に記録する。隠蔽されるべき秘密情報は、この時点で既に隠蔽(例えば削除または置換)されているので、ログ40には当初から書き込まれない。 In step S14, the recording unit 23 records the concealed start request in the log 40. The confidential information to be concealed is not written to the log 40 from the beginning because it has already been concealed (for example, deleted or replaced) at this point.

ステップS15では、開始要求を契機として、ユーザ端末90と対話装置10との間で自動対話が実行される。ステップS15では、フロント機能20は自動対話を開始するための処理を実行し、その後、ユーザ端末90と対話装置10との間でユーザ発話およびシステム発話が伝送される。ユーザはこの自動対話において所望の情報を取得したり発信したりすることができる。 In step S15, an automatic dialogue is executed between the user terminal 90 and the dialogue device 10 triggered by the start request. In step S15, the front function 20 executes a process for starting an automatic dialogue, and then the user utterance and the system utterance are transmitted between the user terminal 90 and the dialogue device 10. The user can acquire and send desired information in this automatic dialogue.

図3は、その自動対話中の(言い換えると、ステップS15における)発話データのログへの記録の一例を示す。ステップS151では、ユーザ端末90がユーザ発話データを対話装置10に送信する。ユーザ発話データは、ユーザ発話を表す発話文章と発話属性とを含むデータである。 FIG. 3 shows an example of recording the utterance data (in other words, in step S15) in the log during the automatic dialogue. In step S151, the user terminal 90 transmits the user utterance data to the dialogue device 10. The user utterance data is data including an utterance sentence representing a user utterance and an utterance attribute.

ユーザ端末90におけるユーザ発話(発話文章)の取得方法は限定されない。例えば、ユーザ端末90は音声入力されたユーザ発話(すなわち音声データで表されるユーザ発話)を取得してもよいし、文字列で入力されたユーザ発話(すなわちテキストデータで表されるユーザ発話)を取得してもよい。あるいは、ユーザ端末90はユーザの指示に基づいて自動的にユーザ発話を音声データまたはテキストデータの形式で生成してもよい。発話属性は、開始要求に含まれるものと同じでもよいし、開始要求に含まれるものの少なくとも一部と異なってもよい。いずれにしても、発話属性はユーザ発話(発話文章)と関連付けられたデータである。ユーザ端末90は取得したユーザ発話と発話属性とを含むユーザ発話データを生成して、このユーザ発話データを送信する。対話装置10ではフロント機能20がそのユーザ発話データを受信する。 The method of acquiring the user's utterance (utterance sentence) in the user terminal 90 is not limited. For example, the user terminal 90 may acquire voice-input user utterances (that is, user utterances represented by voice data), or user utterances input by character strings (that is, user utterances represented by text data). May be obtained. Alternatively, the user terminal 90 may automatically generate the user utterance in the form of voice data or text data based on the user's instruction. The utterance attributes may be the same as those contained in the start request, or may differ from at least a portion of those contained in the start request. In any case, the utterance attribute is the data associated with the user's utterance (spoken sentence). The user terminal 90 generates user utterance data including the acquired user utterance and utterance attribute, and transmits the user utterance data. In the dialogue device 10, the front function 20 receives the user utterance data.

ステップS152では、フロント機能20がそのユーザ発話データを処理させるボット機能30を決定し、該当するボット機能30にそのユーザ発話データを転送する。 In step S152, the front function 20 determines the bot function 30 for processing the user utterance data, and transfers the user utterance data to the corresponding bot function 30.

ステップS153では、隠蔽部22がそのユーザ発話データの発話属性に基づいて隠蔽レベルを決定する。隠蔽部22はステップS12と同様に隠蔽レベルを決定する。 In step S153, the concealment unit 22 determines the concealment level based on the utterance attribute of the user utterance data. The concealment unit 22 determines the concealment level in the same manner as in step S12.

ステップS154では、隠蔽部22が、決定した隠蔽レベルに基づいて、ユーザ発話データに対する隠蔽処理を実行する。隠蔽部22はステップS13と同様に隠蔽処理を実行する。ユーザ発話の発話文章は自由に記述され得る。したがって、隠蔽しようとする秘密情報を発話文章から特定する際には、隠蔽部22は文字列マッチング、機械学習、照応解析、および固有表現抽出(エンティティリンキング)から選択される少なくとも一つの手法を用いてその秘密情報を発話文章から特定してもよい。これに対して、発話属性は予め定められた規則でユーザ発話データに記述されるので、隠蔽部22は、発話属性内の隠蔽しようとする秘密情報を文字列マッチングにより特定してもよい。 In step S154, the concealment unit 22 executes a concealment process for the user utterance data based on the determined concealment level. The concealment unit 22 executes the concealment process in the same manner as in step S13. The utterance text of the user's utterance can be freely described. Therefore, when identifying the secret information to be concealed from the spoken text, the concealment unit 22 uses at least one method selected from character string matching, machine learning, anaphora analysis, and named entity extraction (entity linking). The confidential information may be specified from the spoken text. On the other hand, since the utterance attribute is described in the user utterance data according to a predetermined rule, the concealment unit 22 may specify the secret information to be concealed in the utterance attribute by character string matching.

ステップS155では、記録部23が、隠蔽処理されたユーザ発話データをログ40に記録する。ステップS14と同様に、そのユーザ発話データは、隠蔽されるべき秘密情報がそのまま現れない態様でログ40に記録される。 In step S155, the recording unit 23 records the concealed user utterance data in the log 40. Similar to step S14, the user utterance data is recorded in the log 40 in such a manner that the confidential information to be concealed does not appear as it is.

発話データがどのようにログ40に記録されるかは隠蔽レベルに応じて変わる。図4を参照しながら、その隠蔽レベルとログ40との関係について説明する。図4の例では、対話装置10は「港区赤坂と横須賀市の天気を教えて」というユーザ発話(発話文章)をログ40に記録する際に地名を隠蔽するとともに、発話属性(clientData)内のユーザ属性(userInfo)を隠蔽する。この例では、「港区赤坂」はユーザの勤務地であるとし、「横須賀市」はユーザの居住地であるとする。また、発話文章の隠蔽レベルとして削除レベル、第1置換レベル、および第2置換レベル(第1概念語よりも抽象度が低い第2概念語に置換する処理)を例示する。なお、図4の例はAIML(Artificial Intelligence Markup Language)を応用して記述されたデータを示すが、発話データを記述するための方法および規則は何ら限定されない。 How the utterance data is recorded in the log 40 depends on the concealment level. The relationship between the concealment level and the log 40 will be described with reference to FIG. In the example of FIG. 4, the dialogue device 10 hides the place name when recording the user's utterance (utterance sentence) "Tell me the weather in Akasaka, Minato-ku and Yokosuka City" in the log 40, and also in the speech attribute (clinentData). Hide the user attribute (userInfo) of. In this example, "Akasaka, Minato-ku" is assumed to be the user's place of work, and "Yokosuka City" is assumed to be the user's place of residence. Further, the deletion level, the first replacement level, and the second replacement level (processing of replacing with a second concept word having a lower abstraction level than the first concept word) are exemplified as the concealment level of the spoken sentence. The example of FIG. 4 shows data described by applying AIML (Artificial Intelligence Markup Language), but the method and rules for describing utterance data are not limited in any way.

隠蔽部22が隠蔽レベルとして削除レベルを選択した場合には、隠蔽部22はそれら二つの地名をその発話文章から削除する。したがって、記録部23は「 と の天気を教えて」という文字列をログ40に記録する。また、隠蔽部22はユーザ属性を構成する名前「tanaka」および年齢「28」を削除する。 When the concealment unit 22 selects the deletion level as the concealment level, the concealment unit 22 deletes those two place names from the spoken text. Therefore, the recording unit 23 records the character string "Tell me the weather of and" in the log 40. In addition, the concealment unit 22 deletes the name "tanaka" and the age "28" that constitute the user attribute.

隠蔽部22が隠蔽レベルとして第1置換レベルを選択した場合には、隠蔽部22はそれら二つの地名を共通の文字列で置換する。例えば、隠蔽部22は地名に相当する変数名「%userInfo.place%」を第1概念語として用い、「港区赤坂」および「横須賀市」の双方をこの変数名で置換する。また、隠蔽部22はユーザ属性を構成する名前「tanaka」および年齢「28」を削除する。上述したように、発話文章と発話属性との間で隠蔽レベルが異なってもよい。 When the concealment unit 22 selects the first replacement level as the concealment level, the concealment unit 22 replaces the two place names with a common character string. For example, the concealment unit 22 uses the variable name “% userInfo.place%” corresponding to the place name as the first conceptual word, and replaces both “Akasaka, Minato-ku” and “Yokosuka City” with this variable name. In addition, the concealment unit 22 deletes the name "tanaka" and the age "28" that constitute the user attribute. As described above, the concealment level may differ between the utterance sentence and the utterance attribute.

隠蔽部22が隠蔽レベルとして第2置換レベルを選択した場合には、隠蔽部22はそれら二つの地名を、相異なる文字列で置換する。例えば、隠蔽部22は勤務地に相当する第2概念語である変数名「%userInfo.workplace%」で「港区赤坂」を置換する。また、隠蔽部22は居住地に相当する第2概念語である変数名「%userInfo.home%」で「横須賀市」を置換する。また、隠蔽部22はユーザ属性を構成する名前「tanaka」および年齢「28」を削除する。 When the concealment unit 22 selects the second replacement level as the concealment level, the concealment unit 22 replaces the two place names with different character strings. For example, the concealment unit 22 replaces "Akasaka, Minato-ku" with the variable name "% userInfo.workplace%" which is the second conceptual word corresponding to the place of work. Further, the concealment unit 22 replaces "Yokosuka City" with the variable name "% userInfo.home%" which is the second concept word corresponding to the place of residence. In addition, the concealment unit 22 deletes the name "tanaka" and the age "28" that constitute the user attribute.

図4では、発話文章のログへの記録方法が三つの例の間で異なる。隠蔽レベルが削除レベルである場合には、隠蔽の対象である秘密情報が発話文章から完全に削除されるので、ログ40には地名に関する手掛かりが記録されない。したがって、ユーザ以外の第三者(例えば対話装置10の管理者)がログ40を読んでも、ユーザが何の天気を教えてと話したかを特定できない。例えば、「 と の天気を教えて」の空欄には、「今日」「明日」などのような時期も入り得る。一方、隠蔽レベルが第1隠蔽レベルである場合には、ログ40上では、秘密情報に相当する部分に「%userInfo.place%」という第1概念語が記述される。したがって、第三者は、ユーザが何かしらの場所の天気を聞いたことは推測できるが、それが具体的にどの場所であるかを知ることはできない。隠蔽レベルが第2隠蔽レベルである場合には、ログ40上では、「%userInfo.workplace%」および「%userInfo.home%」という第2概念語が記述される。したがって、第三者はユーザが2ヵ所の天気を聞いたことと、その場所が勤務地および居住地に関することとを推測できるが、具体的な場所を知ることはできない。したがって、図4の例では、ログ40に記録される発話文章の抽象度は、削除レベルの場合にいちばん高く、第2置換レベルの場合にいちばん低く、第1置換レベルの場合には、削除レベルと第2置換レベルとの間の水準であるといえる。 In FIG. 4, the method of recording the spoken text in the log differs between the three examples. When the concealment level is the deletion level, the secret information to be concealed is completely deleted from the spoken text, so that no clue regarding the place name is recorded in the log 40. Therefore, even if a third party other than the user (for example, the administrator of the dialogue device 10) reads the log 40, it cannot be specified what weather the user has told. For example, the blank of "Tell me the weather of to" can be filled with times such as "today" and "tomorrow". On the other hand, when the concealment level is the first concealment level, the first conceptual word "% userInfo.place%" is described in the portion corresponding to the confidential information on the log 40. Therefore, it can be inferred that the user has heard the weather in some place, but the third party cannot know exactly which place it is. When the concealment level is the second concealment level, the second conceptual words "% userInfo.workplace%" and "% userInfo.home%" are described on the log 40. Therefore, the third party can infer that the user has heard the weather in two places and that the place is related to the place of work and the place of residence, but cannot know the specific place. Therefore, in the example of FIG. 4, the abstraction level of the spoken sentence recorded in the log 40 is the highest at the deletion level, the lowest at the second substitution level, and the deletion level at the first substitution level. It can be said that it is a level between the second substitution level and the second substitution level.

図4では、発話属性のログへの記録方法が三つの例で同じである。もちろん、隠蔽部22は、発話属性中の少なくとも一部の秘密情報を概念語に置換してもよい。 In FIG. 4, the method of recording the utterance attribute in the log is the same in the three examples. Of course, the concealment unit 22 may replace at least a part of the secret information in the utterance attribute with a conceptual word.

図3に戻り、ステップS156では、ボット機能30がユーザ発話に応答してシステム発話データをフロント機能20に出力する。ボット機能30は、フロント機能20からユーザ発話データを受け付け、そのデータに含まれるユーザ発話および発話属性に基づいてシナリオを参照することで、該ユーザ発話への応答として適切であると推定されるシステム発話を決定する。そして、ボット機能30はその決定したシステム発話を含むシステム発話データをフロント機能20に出力する。システム発話データは、システム発話を表す発話文章を含むデータである。ユーザ発話と同様にシステム発話の表現方法も限定されず、例えば、システム発話は音声またはテキストで表現され得る。 Returning to FIG. 3, in step S156, the bot function 30 responds to the user's utterance and outputs the system utterance data to the front function 20. The bot function 30 receives user utterance data from the front function 20 and refers to a scenario based on the user utterance and utterance attributes included in the data, and is presumed to be appropriate as a response to the user utterance. Determine the utterance. Then, the bot function 30 outputs the system utterance data including the determined system utterance to the front function 20. The system utterance data is data including utterance sentences representing system utterances. Similar to user utterances, the method of expressing system utterances is not limited, and for example, system utterances can be expressed by voice or text.

ステップS157では、フロント機能20がそのシステム発話データをユーザ端末90に送信する。フロント機能20はシステム発話の出力形式を指定した上で(すなわち、システム発話を整形した上で)システム発話データを送信してもよい。ユーザ端末90はそのシステム発話データを受信および出力し、これにより、ユーザはユーザ発話に対するボットの返事を認識できる。 In step S157, the front function 20 transmits the system utterance data to the user terminal 90. The front function 20 may transmit the system utterance data after designating the output format of the system utterance (that is, after shaping the system utterance). The user terminal 90 receives and outputs the system utterance data, whereby the user can recognize the reply of the bot to the user utterance.

ステップS158では、隠蔽部22がシステム発話の隠蔽レベルを決定する。ステップS153と同様に、隠蔽部22は、ユーザ発話データに含まれていた発話属性に基づいて隠蔽レベルを決定してもよい。 In step S158, the concealment unit 22 determines the concealment level of the system utterance. Similar to step S153, the concealment unit 22 may determine the concealment level based on the utterance attribute included in the user utterance data.

ステップS159では、隠蔽部22が、決定した隠蔽レベルに基づいて、システム発話データに対する隠蔽処理を実行する。システム発話が変数を含む場合には、隠蔽部22は、隠蔽しようとする秘密情報をその変数に基づいて特定してもよい。例えば、ユーザ端末90に出力されるシステム発話が「港区赤坂も横須賀市も晴です。」であれば、このシステム発話は、「港区赤坂」に対応する変数「%userInfo.workplace%」と「横須賀市」に対応する変数「%userInfo.home%」とを含み得る。この場合には、隠蔽部22はその変数に基づいて、これら二つの地名を隠蔽すると決定することができる。あるいは、隠蔽部22はその秘密情報をステップS154と同様の処理により特定してもよい。 In step S159, the concealment unit 22 executes concealment processing for the system utterance data based on the determined concealment level. If the system utterance contains a variable, the concealment unit 22 may specify the secret information to be concealed based on the variable. For example, if the system utterance output to the user terminal 90 is "Akasaka, Minato-ku and Yokosuka City are fine", this system utterance is the variable "% userInfo.workplace%" corresponding to "Akasaka, Minato-ku". It may include the variable "% userInfo.home%" corresponding to "Yokosuka City". In this case, the concealment unit 22 can determine to conceal these two place names based on the variable. Alternatively, the concealment unit 22 may specify the secret information by the same process as in step S154.

ステップS160では、記録部23が、隠蔽処理されたシステム発話データをログ40に記録する。ステップS155と同様に、そのシステム発話データは、隠蔽されるべき秘密情報がそのまま現れない態様でログ40に記録される。 In step S160, the recording unit 23 records the concealed system utterance data in the log 40. Similar to step S155, the system utterance data is recorded in the log 40 in such a manner that the confidential information to be concealed does not appear as it is.

その後、ユーザ端末90と対話装置10との間で更なる発話のやり取りが実行され得る。したがって、ステップS151~S160の処理は繰り返し実行され得る。図4は、ステップS151およびS152と同様の処理をステップS161およびS162として示す。ステップS161に応じてユーザ発話データがログ40に記録される。また、ステップS162に応じてシステム発話データが生成されてユーザ端末90に送信され、そのシステム発話データがログ40に記録される。 After that, further utterance exchanges may be executed between the user terminal 90 and the dialogue device 10. Therefore, the processes of steps S151 to S160 can be repeatedly executed. FIG. 4 shows the same processing as steps S151 and S152 as steps S161 and S162. User utterance data is recorded in the log 40 according to step S161. Further, the system utterance data is generated in accordance with step S162 and transmitted to the user terminal 90, and the system utterance data is recorded in the log 40.

このように、取得部21、隠蔽部22、および記録部23の協働により、隠蔽すべき秘密情報が確実に隠蔽された後に、発話文章および発話属性が初めてログ40に記録される。この処理は、いったんログ40上に記録された秘密情報を後から削除する処理とは全く異なる。 In this way, the utterance sentence and the utterance attribute are recorded in the log 40 for the first time after the confidential information to be concealed is surely concealed by the cooperation of the acquisition unit 21, the concealment unit 22, and the recording unit 23. This process is completely different from the process of deleting the confidential information once recorded on the log 40 later.

なお、対話装置10は、発話属性に対する隠蔽処理を行うことなく、発話文章に対する隠蔽処理を実行してもよい。すなわち、発話属性の隠蔽は必須ではない。 The dialogue device 10 may execute the concealment process for the utterance sentence without performing the concealment process for the utterance attribute. That is, concealment of speech attributes is not essential.

上記実施の形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成要素)は、ハードウェアおよび/またはソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的および/または論理的に結合した一つの装置により実現されてもよいし、物理的および/または論理的に分離した2つ以上の装置を直接的および/または間接的に(例えば、有線および/または無線)で接続し、これら複数の装置により実現されてもよい。 The block diagram used in the description of the above embodiment shows a block of functional units. These functional blocks (components) are realized by any combination of hardware and / or software. Further, the means for realizing each functional block is not particularly limited. That is, each functional block may be realized by one physically and / or logically coupled device, or directly and / or indirectly by two or more physically and / or logically separated devices. It may be connected specifically (eg, wired and / or wireless) and realized by these plurality of devices.

例えば、本発明の一実施の形態における対話装置10は、本実施形態の処理を行うコンピュータとして機能してもよい。図5は、対話装置10として機能するコンピュータ100のハードウェア構成の一例を示す図である。コンピュータ100は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含んでもよい。 For example, the dialogue device 10 in one embodiment of the present invention may function as a computer for processing the present embodiment. FIG. 5 is a diagram showing an example of the hardware configuration of the computer 100 that functions as the dialogue device 10. The computer 100 may physically include a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like.

なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。対話装置10のハードウェア構成は、図に示した各装置を一つまたは複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 In the following description, the word "device" can be read as a circuit, a device, a unit, or the like. The hardware configuration of the dialogue device 10 may be configured to include one or more of the devices shown in the figure, or may be configured not to include some of the devices.

対話装置10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信や、メモリ1002およびストレージ1003におけるデータの読み出しおよび/または書き込みを制御することで実現される。 For each function in the interactive device 10, the processor 1001 performs an operation by loading predetermined software (program) on hardware such as the processor 1001 and the memory 1002, and the communication device 1004 communicates with the memory 1002 and the storage 1003. It is realized by controlling the reading and / or writing of data in.

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。例えば、対話装置10の少なくとも一部の機能要素はプロセッサ1001で実現されてもよい。 Processor 1001 operates, for example, an operating system to control the entire computer. The processor 1001 may be configured by a central processing unit (CPU) including an interface with a peripheral device, a control device, an arithmetic unit, a register, and the like. For example, at least a part of the functional elements of the dialogue device 10 may be realized by the processor 1001.

また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、ストレージ1003および/または通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、対話装置10の少なくとも一部の機能要素は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、一つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時または逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されてもよい。 Further, the processor 1001 reads a program (program code), a software module and data from the storage 1003 and / or the communication device 1004 into the memory 1002, and executes various processes according to these. As the program, a program that causes a computer to execute at least a part of the operations described in the above-described embodiment is used. For example, at least a part of the functional elements of the dialogue device 10 may be stored in the memory 1002 and realized by a control program operating in the processor 1001, and other functional blocks may be realized in the same manner. Although it has been described that the various processes described above are executed by one processor 1001, they may be executed simultaneously or sequentially by two or more processors 1001. Processor 1001 may be mounted on one or more chips. The program may be transmitted from the network via a telecommunication line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも一つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本発明の一実施の形態に係る無線通信方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 1002 is a computer-readable recording medium, and is composed of at least one such as a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), and a RAM (Random Access Memory). May be done. The memory 1002 may be referred to as a register, a cache, a main memory (main storage device), or the like. The memory 1002 can store a program (program code), a software module, or the like that can be executed to implement the wireless communication method according to the embodiment of the present invention.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CDROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも一つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002および/またはストレージ1003を含むテーブル、サーバその他の適切な媒体であってもよい。 The storage 1003 is a computer-readable recording medium, and is, for example, an optical disk such as a CDROM (Compact Disc ROM), a hard disk drive, a flexible disk, a photomagnetic disk (for example, a compact disk, a digital versatile disk, or a Blu-ray (registration)). It may consist of at least one such as a (trademark) disk), a smart card, a flash memory (eg, a card, stick, key drive), a floppy (registered trademark) disk, a magnetic strip, and the like. The storage 1003 may be referred to as an auxiliary storage device. The storage medium described above may be, for example, a table, server or other suitable medium containing memory 1002 and / or storage 1003.

通信装置1004は、有線および/または無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。例えば、対話装置10の少なくとも一部の機能要素は通信装置1004で実現されてもよい。 The communication device 1004 is hardware (transmission / reception device) for communicating between computers via a wired and / or wireless network, and is also referred to as, for example, a network device, a network controller, a network card, a communication module, or the like. For example, at least a part of the functional elements of the dialogue device 10 may be realized by the communication device 1004.

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005および出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。 The input device 1005 is an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, a sensor, etc.) that receives an input from the outside. The output device 1006 is an output device (for example, a display, a speaker, an LED lamp, etc.) that performs output to the outside. The input device 1005 and the output device 1006 may have an integrated configuration (for example, a touch panel).

また、プロセッサ1001やメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。 Further, each device such as the processor 1001 and the memory 1002 is connected by a bus 1007 for communicating information. The bus 1007 may be composed of a single bus or may be composed of different buses between the devices.

また、コンピュータ100は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部または全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも一つで実装されてもよい。 Further, the computer 100 includes hardware such as a microprocessor, a digital signal processor (DSP: Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). The hardware may implement some or all of each functional block. For example, the processor 1001 may be implemented on at least one of these hardware.

以上説明したように、本発明の一側面に係る対話装置は、ユーザとの間で実行される自動対話を構成する発話文章を取得する取得部と、発話文章がまだログに記録されていない状態において、少なくとも一部の秘密情報を隠蔽する隠蔽処理を発話文章に対して実行する隠蔽部と、少なくとも一部の秘密情報が隠蔽された発話文章をログに記録する記録部とを備える。 As described above, the dialogue device according to one aspect of the present invention includes an acquisition unit that acquires an utterance sentence constituting an automatic dialogue executed with a user, and a state in which the utterance sentence is not yet recorded in the log. The present invention includes a concealing unit that executes a concealment process for concealing at least a part of the confidential information on the uttered text, and a recording unit that records the uttered text in which at least a part of the confidential information is concealed in a log.

このような側面においては、発話文章中の秘密情報の少なくとも一部が最初からログに記録されないので、対話の中で現れた秘密情報のセキュリティをより確実に確保することができる。加えて、いったん記録したログに対して秘密情報の少なくとも一部を後から隠蔽する処理を実行する処理が不要になるので、対話装置のハードウェア資源の使用量(例えば、プロセッサの負荷およびメモリ消費量)を抑制することができる。 In such an aspect, since at least a part of the confidential information in the spoken text is not recorded in the log from the beginning, the security of the confidential information appearing in the dialogue can be ensured more reliably. In addition, since it is not necessary to perform a process of hiding at least a part of confidential information from the log once recorded, the hardware resource usage of the interactive device (for example, processor load and memory consumption) is not required. Amount) can be suppressed.

他の側面に係る対話装置では、隠蔽部が、予め定められた複数の隠蔽レベルから選択された少なくとも一つの隠蔽レベルに基づいて隠蔽処理を実行してもよい。このように複数の隠蔽レベルを選択肢として用意することで、隠蔽処理を必要に応じて柔軟に実行することができる。言い換えると、ログに記録される発話文章の抽象度を必要に応じて変更することができる。 In the dialogue device according to the other aspect, the concealment unit may execute the concealment process based on at least one concealment level selected from a plurality of predetermined concealment levels. By preparing a plurality of concealment levels as options in this way, the concealment process can be flexibly executed as needed. In other words, the abstraction level of the spoken text recorded in the log can be changed as needed.

他の側面に係る対話装置では、複数の隠蔽レベルが、少なくとも一部の秘密情報の削除を示す削除レベルと、少なくとも一部の秘密情報を概念語に置換する置換レベルとを少なくとも含んでもよい。この場合には、隠蔽しようとする情報を完全に消すかまたは他の語句に置き換えるかを選択することができる。 In a dialogue device according to another aspect, the plurality of concealment levels may include at least a deletion level indicating deletion of at least a part of confidential information and a replacement level of replacing at least a part of confidential information with a conceptual word. In this case, you can choose to completely erase the information you are trying to hide or replace it with another phrase.

他の側面に係る対話装置では、複数の隠蔽レベルが、少なくとも一部の秘密情報を第1概念語に置換する第1置換レベルと、少なくとも一部の秘密情報を、該第1概念語よりも抽象度が低い第2概念語に置換する第2置換レベルとを少なくとも含んでもよい。このように複数種類の置換方法を用意することで、ログに記録される発話文章の抽象度を必要に応じて変更することができる。 In a dialogue device according to another aspect, a plurality of concealment levels have a first substitution level that replaces at least a part of confidential information with a first conceptual word, and at least a part of confidential information is more than the first conceptual word. It may include at least a second substitution level that replaces a second conceptual word with a low degree of abstraction. By preparing a plurality of types of replacement methods in this way, the abstraction level of the spoken text recorded in the log can be changed as needed.

他の側面に係る対話装置では、取得部が、発話文章と関連付けられた発話属性をさらに取得し、隠蔽部が、隠蔽処理をさらに発話属性に対して実行し、記録部が、少なくとも一部の秘密情報が隠蔽された発話属性をさらにログに記録してもよい。発話文章に加えて発話属性に対しても隠蔽処理を実行することで、秘密情報のセキュリティをより確実に確保することができる。 In the dialogue device according to the other aspect, the acquisition unit further acquires the utterance attribute associated with the utterance sentence, the concealment unit further executes the concealment process for the utterance attribute, and the recording unit performs at least a part of the utterance attribute. The utterance attribute with hidden confidential information may be further logged. By executing the concealment processing not only for the utterance text but also for the utterance attribute, the security of the confidential information can be ensured more reliably.

以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨および範囲を逸脱することなく修正および変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。 Although the present embodiment has been described in detail above, it is clear to those skilled in the art that the present embodiment is not limited to the embodiment described in the present specification. This embodiment can be implemented as an amendment or modification without departing from the spirit and scope of the present invention as determined by the description of the scope of claims. Therefore, the description herein is for purposes of illustration only and has no limiting implications for this embodiment.

情報の通知は、本明細書で説明した態様および実施形態に限られず、他の方法で行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号またはこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC Connection Reconfiguration)メッセージなどであってもよい。 Notification of information is not limited to the embodiments and embodiments described herein, and may be performed by other methods. For example, information notification includes physical layer signaling (eg, DCI (Downlink Control Information), UCI (Uplink Control Information)), higher layer signaling (eg, RRC (Radio Resource Control) signaling, MAC (Medium Access Control) signaling, etc. It may be carried out by broadcast information (MIB (Master Information Block), SIB (System Information Block)), other signals, or a combination thereof. Further, the RRC signaling may be referred to as an RRC message, and may be, for example, an RRC Connection Setup message, an RRC Connection Reconfiguration message, or the like.

本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G、5G、FRA(Future Radio Access)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-Wideband)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステムおよび/またはこれらに基づいて拡張された次世代システムに適用されてもよい。 Each aspect / embodiment described herein includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA. (Registered Trademarks), GSM (Registered Trademarks), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-Wideband), It may be applied to Bluetooth®, other systems that utilize suitable systems and / or next-generation systems that are extended based on them.

本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The processing procedures, sequences, flowcharts, and the like of each aspect / embodiment described in the present specification may be rearranged in order as long as there is no contradiction. For example, the methods described herein present elements of various steps in an exemplary order and are not limited to the particular order presented.

情報等は、上位レイヤ(または下位レイヤ)から下位レイヤ(または上位レイヤ)へ出力され得る。複数のネットワークノードを介して入出力されてもよい。 Information and the like can be output from the upper layer (or lower layer) to the lower layer (or upper layer). Input / output may be performed via a plurality of network nodes.

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 The input / output information and the like may be stored in a specific place (for example, a memory) or may be managed by a management table. Information to be input / output may be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by one bit (0 or 1), by a true / false value (Boolean: true or false), or by comparing numerical values (for example, a predetermined value). It may be done by comparison with the value).

本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect / embodiment described in the present specification may be used alone, in combination, or may be switched and used according to the execution. Further, the notification of predetermined information (for example, the notification of "being X") is not limited to the explicit one, but is performed implicitly (for example, the notification of the predetermined information is not performed). May be good.

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, whether referred to as software, firmware, middleware, microcode, hardware description language, or other names, is an instruction, instruction set, code, code segment, program code, program, subprogram, software module. , Applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures, features, etc. should be broadly interpreted.

また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペアおよびデジタル加入者回線(DSL)などの有線技術および/または赤外線、無線およびマイクロ波などの無線技術を使用してウェブサイト、サーバ、または他のリモートソースから送信される場合、これらの有線技術および/または無線技術は、伝送媒体の定義内に含まれる。 Further, software, instructions, and the like may be transmitted and received via a transmission medium. For example, the software uses wired technology such as coaxial cables, fiber optic cables, twisted pair and digital subscriber lines (DSL) and / or wireless technologies such as infrared, wireless and microwave to websites, servers, or other When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission medium.

本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、またはこれらの任意の組み合わせによって表されてもよい。 The information, signals, etc. described herein may be represented using any of a variety of different techniques. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may be represented by a combination of.

なお、本明細書で説明した用語および/または本明細書の理解に必要な用語については、同一のまたは類似する意味を有する用語と置き換えてもよい。 The terms described herein and / or the terms necessary for understanding the present specification may be replaced with terms having the same or similar meanings.

本明細書で使用する「システム」および「ネットワーク」という用語は、互換的に使用される。 The terms "system" and "network" used herein are used interchangeably.

また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。例えば、無線リソースはインデックスで指示されるものであってもよい。 Further, the information, parameters, etc. described in the present specification may be represented by an absolute value, a relative value from a predetermined value, or another corresponding information. .. For example, the radio resource may be indexed.

上述したパラメータに使用する名称はいかなる点においても限定的なものではない。さらに、これらのパラメータを使用する数式等は、本明細書で明示的に開示したものと異なる場合もある。様々なチャネル(例えば、PUCCH、PDCCHなど)および情報要素(例えば、TPCなど)は、あらゆる好適な名称によって識別できるので、これらの様々なチャネルおよび情報要素に割り当てている様々な名称は、いかなる点においても限定的なものではない。 The names used for the parameters mentioned above are not limited in any way. Further, mathematical formulas and the like using these parameters may differ from those expressly disclosed herein. Since the various channels (eg, PUCCH, PDCCH, etc.) and information elements (eg, TPC, etc.) can be identified by any suitable name, the various names assigned to these various channels and information elements are in any respect. However, it is not limited.

ユーザ端末および移動通信端末は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、またはいくつかの他の適切な用語で呼ばれる場合もある。 User terminals and mobile communication terminals may be used by those skilled in the art as subscriber stations, mobile units, subscriber units, wireless units, remote units, mobile devices, wireless devices, wireless communication devices, remote devices, mobile subscriber stations, access terminals, etc. It may also be referred to as a mobile device, wireless device, remote device, handset, user agent, mobile client, client, or some other suitable term.

本明細書で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、テーブルまたは別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。 As used herein, the terms "determining" and "determining" may include a wide variety of actions. “Judgment” and “decision” are, for example, judgment, calculation, computing, processing, deriving, investigating, and looking up (for example, a table). , Searching in a table or another data structure), ascertaining can be regarded as "judgment" or "decision". Further, "judgment" and "decision" are receiving (for example, receiving information), transmitting (for example, transmitting information), input (input), output (output), and access. (Accessing) (for example, accessing data in memory) may be regarded as "judgment" or "decision". In addition, "judgment" and "decision" are considered to be "judgment" and "decision" when they are resolved, selected, selected, established, and compared. Can include. That is, "judgment" and "decision" may include considering some action as "judgment" and "decision".

「接続された(connected)」、「結合された(coupled)」という用語、またはこれらのあらゆる変形は、2またはそれ以上の要素間の直接的または間接的なあらゆる接続または結合を意味し、互いに「接続」または「結合」された2つの要素間に1またはそれ以上の中間要素が存在することを含むことができる。要素間の結合または接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1またはそれ以上の電線、ケーブルおよび/またはプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域および光(可視および不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」または「結合」されると考えることができる。 The terms "connected", "coupled", or any variation thereof, mean any direct or indirect connection or connection between two or more elements and each other. It can include the presence of one or more intermediate elements between two "connected" or "joined" elements. The connection or connection between the elements may be physical, logical, or a combination thereof. As used herein, the two elements are by using one or more wires, cables and / or printed electrical connections, and, as some non-limiting and non-comprehensive examples, radio frequencies. By using electromagnetic energies such as electromagnetic energies with wavelengths in the region, microwave region and light (both visible and invisible) regions, they can be considered to be "connected" or "coupled" to each other.

本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 The phrase "based on" as used herein does not mean "based on" unless otherwise stated. In other words, the statement "based on" means both "based only" and "at least based on".

本明細書で「第1の」、「第2の」などの呼称を使用した場合においては、その要素へのいかなる参照も、それらの要素の量または順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみがそこで採用され得ること、または何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 As used herein by designations such as "first", "second", etc., any reference to that element does not generally limit the quantity or order of those elements. These designations can be used herein as a convenient way to distinguish between two or more elements. Thus, references to the first and second elements do not mean that only two elements can be adopted there, or that the first element must somehow precede the second element.

「含む(include)」、「含んでいる(including)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。 As long as "include", "including", and variations thereof are used herein or within the scope of the claims, these terms are similar to the term "comprising". In addition, it is intended to be inclusive. Moreover, the term "or" as used herein or in the claims is intended to be non-exclusive.

本明細書において、文脈または技術的に明らかに一つのみしか存在しない装置である場合以外は、複数の装置をも含むものとする。 In the present specification, a plurality of devices shall be included unless the device has only one device apparently in context or technically.

10…対話装置、20…フロント機能、21…取得部、22…隠蔽部、23…記録部、30…ボット機能、90…ユーザ端末、40…ログ。 10 ... Dialogue device, 20 ... Front function, 21 ... Acquisition unit, 22 ... Concealment unit, 23 ... Recording unit, 30 ... Bot function, 90 ... User terminal, 40 ... Log.

Claims (4)

ユーザとの間で実行される自動対話を構成する発話文章を取得する取得部と、
前記発話文章がまだログに記録されていない状態において、少なくとも一部の秘密情報を隠蔽する隠蔽処理を前記発話文章に対して実行する隠蔽部と、
前記少なくとも一部の秘密情報が隠蔽された前記発話文章を前記ログに記録する記録部とを備え
前記取得部が、前記発話文章と関連付けられた発話属性をさらに取得し、
前記隠蔽部が、前記隠蔽処理をさらに前記発話属性に対して実行し、
前記記録部が、少なくとも一部の秘密情報が隠蔽された前記発話属性をさらに前記ログに記録する、
対話装置。
An acquisition unit that acquires utterance sentences that make up an automatic dialogue performed with the user,
A concealment unit that executes a concealment process for concealing at least a part of confidential information on the utterance sentence in a state where the utterance sentence has not been recorded in the log yet.
It is provided with a recording unit for recording the utterance sentence in which the at least a part of the confidential information is concealed in the log .
The acquisition unit further acquires the utterance attribute associated with the utterance sentence, and the acquisition unit further acquires the utterance attribute.
The concealment unit further executes the concealment process for the utterance attribute.
The recording unit further records the utterance attribute in which at least a part of confidential information is hidden in the log.
Dialogue device.
前記隠蔽部が、予め定められた複数の隠蔽レベルから選択された少なくとも一つの隠蔽レベルに基づいて前記隠蔽処理を実行する、
請求項1に記載の対話装置。
The concealment unit executes the concealment process based on at least one concealment level selected from a plurality of predetermined concealment levels.
The dialogue device according to claim 1.
前記複数の隠蔽レベルが、前記少なくとも一部の秘密情報の削除を示す削除レベルと、前記少なくとも一部の秘密情報を概念語に置換する置換レベルとを少なくとも含む、
請求項2に記載の対話装置。
The plurality of concealment levels include at least a deletion level indicating the deletion of at least a part of the confidential information and a replacement level for replacing the at least a part of the secret information with a conceptual word.
The dialogue device according to claim 2.
前記複数の隠蔽レベルが、前記少なくとも一部の秘密情報を第1概念語に置換する第1置換レベルと、前記少なくとも一部の秘密情報を、該第1概念語よりも抽象度が低い第2概念語に置換する第2置換レベルとを少なくとも含む、
請求項2または3に記載の対話装置。
A first substitution level in which the plurality of concealment levels replaces at least a part of the secret information with a first concept word, and a second level in which the at least a part of the secret information is less abstract than the first concept word. Includes at least a second substitution level to replace with a conceptual word,
The dialogue device according to claim 2 or 3.
JP2020519502A 2018-05-14 2019-03-29 Dialogue device Active JP7033195B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018092832 2018-05-14
JP2018092832 2018-05-14
PCT/JP2019/014088 WO2019220791A1 (en) 2018-05-14 2019-03-29 Dialogue device

Publications (2)

Publication Number Publication Date
JPWO2019220791A1 JPWO2019220791A1 (en) 2021-02-12
JP7033195B2 true JP7033195B2 (en) 2022-03-09

Family

ID=68540111

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020519502A Active JP7033195B2 (en) 2018-05-14 2019-03-29 Dialogue device

Country Status (2)

Country Link
JP (1) JP7033195B2 (en)
WO (1) WO2019220791A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7388997B2 (en) * 2020-09-07 2023-11-29 株式会社日立製作所 Audio information processing system and audio information processing method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006127148A (en) 2004-10-28 2006-05-18 Fujitsu Ltd Information processing method for automatic voice dialogue system
JP2007249770A (en) 2006-03-17 2007-09-27 Nec Corp Personal information hiding service system
JP2009199144A (en) 2008-02-19 2009-09-03 Fuji Xerox Co Ltd Information processor and history information management program
JP2010079235A (en) 2008-09-28 2010-04-08 Avaya Inc Method of retaining media stream without its private (audio) content
WO2011142327A1 (en) 2010-05-10 2011-11-17 日本電気株式会社 Information processing device, control method and program
WO2016136208A1 (en) 2015-02-27 2016-09-01 パナソニックIpマネジメント株式会社 Voice interaction device, voice interaction system, control method of voice interaction device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006127148A (en) 2004-10-28 2006-05-18 Fujitsu Ltd Information processing method for automatic voice dialogue system
JP2007249770A (en) 2006-03-17 2007-09-27 Nec Corp Personal information hiding service system
JP2009199144A (en) 2008-02-19 2009-09-03 Fuji Xerox Co Ltd Information processor and history information management program
JP2010079235A (en) 2008-09-28 2010-04-08 Avaya Inc Method of retaining media stream without its private (audio) content
WO2011142327A1 (en) 2010-05-10 2011-11-17 日本電気株式会社 Information processing device, control method and program
WO2016136208A1 (en) 2015-02-27 2016-09-01 パナソニックIpマネジメント株式会社 Voice interaction device, voice interaction system, control method of voice interaction device

Also Published As

Publication number Publication date
WO2019220791A1 (en) 2019-11-21
JPWO2019220791A1 (en) 2021-02-12

Similar Documents

Publication Publication Date Title
US10573317B2 (en) Speech recognition method and device
US20230046716A1 (en) Document editing method and apparatus, computer device, and storage medium
US20200210505A1 (en) Electronic apparatus and controlling method thereof
JP2021026401A (en) Examination device
JP7033195B2 (en) Dialogue device
US11971977B2 (en) Service providing apparatus
JP7003228B2 (en) Dialogue server
US11663420B2 (en) Dialogue system
EP2908272A1 (en) Method and apparatus for creating a communication group
JP7043593B2 (en) Dialogue server
KR102642981B1 (en) Method for providing chat-bot service and user terminal therefor
WO2018203510A1 (en) Question inference device
WO2019216054A1 (en) Interactive server
JP6944594B2 (en) Dialogue device
JPWO2020054244A1 (en) Dialogue information generator
JP7016405B2 (en) Dialogue server
JP6895580B2 (en) Dialogue system
JP7112487B2 (en) dialogue device
JP7097460B2 (en) Dialogue system
JP6960049B2 (en) Dialogue device
WO2020235136A1 (en) Interactive system
JPWO2020054201A1 (en) Response statement creation device
JP7093844B2 (en) Dialogue system
JP2022025917A (en) Dialog device
JPWO2020105317A1 (en) Dialogue device and dialogue program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220225

R150 Certificate of patent or registration of utility model

Ref document number: 7033195

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载