+

JPH11249772A - Virtual environment presentation device - Google Patents

Virtual environment presentation device

Info

Publication number
JPH11249772A
JPH11249772A JP4553798A JP4553798A JPH11249772A JP H11249772 A JPH11249772 A JP H11249772A JP 4553798 A JP4553798 A JP 4553798A JP 4553798 A JP4553798 A JP 4553798A JP H11249772 A JPH11249772 A JP H11249772A
Authority
JP
Japan
Prior art keywords
information
image
user
presentation device
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4553798A
Other languages
Japanese (ja)
Other versions
JP3829005B2 (en
Inventor
Toshio Motegi
敏雄 茂出木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP4553798A priority Critical patent/JP3829005B2/en
Publication of JPH11249772A publication Critical patent/JPH11249772A/en
Application granted granted Critical
Publication of JP3829005B2 publication Critical patent/JP3829005B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Computer And Data Communications (AREA)

Abstract

(57)【要約】 【課題】 実践の場で演技や作業等を続けながら、映像
によりその支援を受けることができる環境を提供する。 【解決手段】 液晶ゴーグル12、小型ビデオカメラ1
4、ヘッドフォン16、マイクロフォン18を一体化し
たヘッドセット10と、コンピュータ本体(クランアン
ト端末)Aをワイヤレスで接続すると共に、該コンピュ
ータ本体Aをインターネットを介してWWWサーバBの
ファイルサーバCを接続し、マイクロフォン18から音
声で音声認識モジュール30にコード入力することによ
り、ファイルサーバCから模範演技、指示に関する映
像、音声情報を画像処理部38、音声合成モジュール3
4に入力し、液晶ゴーグル12に模範演技の映像を、ヘ
ッドフォン16から音声指示、効果音等を出力する。
(57) [Summary] [Problem] To provide an environment in which the user can receive support through video while continuing to perform and work in a place of practice. SOLUTION: A liquid crystal goggle 12, a small video camera 1
4. A headset 10 integrating a headphone 16 and a microphone 18 is wirelessly connected to a computer main body (clant terminal) A, and the computer main body A is connected to a file server C of a WWW server B via the Internet. By inputting a code from the microphone 18 to the voice recognition module 30 as a voice, the image processing unit 38 and the voice synthesis module 3 transmit the video and voice information relating to the model performance and instructions from the file server C.
4, and outputs a video of the model performance to the liquid crystal goggles 12, and outputs voice instructions, sound effects, and the like from the headphones 16.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、特に医療行為(救
急処置、外科手術、マッサージ、介護等)、ダンス・体
操等、主として人が対人的に行う各種演技・手技の修得
や、マニュアル類を持ち込めない実践の場、例えば教育
現場等で身体で覚える実技の修得に、あるいは多くの図
面を要する設備類のメンテナンス作業等の支援に適用し
て好適な、仮想環境提示装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to the acquisition of various acts and techniques mainly performed by humans, such as medical treatment (emergency treatment, surgery, massage, nursing care, etc.), dance and gymnastics, and manuals. The present invention relates to a virtual environment presentation device suitable for learning practical skills that can be learned by the body at a place of practice that cannot be brought in, for example, at an educational site, or for supporting maintenance work of equipment requiring many drawings.

【0002】[0002]

【従来の技術】医療行為等、主として人が対人的に行う
各種演技・手技又は実技(以下、単に演技ともいう)を
修得する場合、実践の場ではマニュアルを参照する余地
がないため、指導者によるマンツーマン教育が最も効率
的で不可欠になっている。
2. Description of the Related Art When learning various acts, techniques, or practical skills (hereinafter, also simply referred to as acting) mainly performed by humans, such as medical practice, there is no room to refer to a manual in a practice place. Is one of the most efficient and essential.

【0003】とは言うものの、誰もが常にマンツーマン
教育を受けられるとは限らない。そのため、このマンツ
ーマン教育以外に、依然として教則本・マニュアルとし
て印刷物、ビデオ等が利用され、更にCD−ROM、最
近ではインターネットWWW(World Wide Web)の
媒体を利用して修得することが可能になっている。
[0003] That said, not everyone can always receive one-on-one education. Therefore, besides this one-on-one education, printed materials and videos are still used as instruction manuals and manuals, and furthermore, it is possible to learn using CD-ROMs and, more recently, the media of the Internet WWW (World Wide Web). I have.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、実践の
場にこれらマニュアル類を持ち込むことは困難であり、
仮に持ち込めたとしても演技を修得をしながら、同時に
マニュアルを参照することは困難であると共に、媒体の
違いによっても以下のような各種の問題がある。
However, it is difficult to bring these manuals to the field of practice,
Even if they are brought in, it is difficult to refer to the manual at the same time while learning the performance, and there are various problems depending on the medium as follows.

【0005】(1)印刷物:携帯性はよいが、演技中に
参照したり、頁をめくったりできない。
[0005] (1) Printed matter: Although it has good portability, it cannot be referred to during performances or turned pages.

【0006】(2)ビデオ:操作が不要で遠方から視聴
しながら演技を同時にできるという利点はあるが、後戻
りや速度変更、アングルの変更ができないため、テンポ
を遅くしたいという初心者のニーズや、アングルを変え
て死角に入っている箇所を見たいというニーズに応える
ことができない。又、模範演技と利用者が対面している
向きが逆の場合は、頭の中で絶えず逆向きに手技を翻訳
しなくてはならず、初心者には難しいということもあ
る。
(2) Video: Although there is an advantage that the user can simultaneously perform while watching from a distance without operation, there is an advantage that it is not possible to go back, change the speed, or change the angle. Can not meet the need to see the spot in the blind spot. Also, when the model performance and the user face in opposite directions, the procedure must be constantly translated in the head in the opposite direction, which may be difficult for a beginner.

【0007】(3)CD−ROM:ビデオの問題点は解
決されているが、マウス操作が必要になる。
(3) CD-ROM: Although the problem of video is solved, mouse operation is required.

【0008】(4)WWW:CD−ROMに比べて提供
できるコンテンツが拡大するという利点はあるが、同様
にマウス操作が必要で、回線接続等、携帯性は逆に劣
る。
(4) WWW: There is an advantage that the contents which can be provided are expanded as compared with a CD-ROM, but similarly, mouse operation is required, and portability such as line connection is inferior.

【0009】本発明は、前記従来の問題点を解決するべ
くなされたもので、実践の場で演技や作業を続けなが
ら、その支援をオンラインマニュアルにより受けること
ができる環境、即ちいわばウォーキング・ディクショナ
リ環境を提供することを課題とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned conventional problems, and an environment in which it is possible to receive support through an online manual while continuing to perform and work in a practice place, that is, a walking dictionary environment. The task is to provide

【0010】[0010]

【課題を解決するための手段】本発明は、仮想環境提示
装置において、マルチメディア情報を画像認識手段及び
音声認識手段により提示制御可能となるように構成した
情報提示装置と、前記装置に対するハンズフリーによる
遠隔対話操作、及び前記装置により提供される情報に対
するシースルー視聴を可能にした、少なくとも映像入力
手段、映像出力手段、音声入力手段、音声出力手段を有
するユーザインタフェース装置とを備えたことにより、
前記課題を解決したものである。
SUMMARY OF THE INVENTION The present invention relates to a virtual environment presentation apparatus, in which multimedia information can be presented and controlled by image recognition means and voice recognition means, and a hands-free apparatus for the apparatus. Remote interactive operation by, and enabled see-through viewing for information provided by the device, by having at least a video input means, a video output means, a voice input means, a user interface device having a voice output means,
This has solved the above-mentioned problem.

【0011】即ち、本発明においては、ユーザインタフ
ェース装置が有する映像入力手段により、演技等をサポ
ートするマニュアル情報を映像として利用者に提示でき
るようにすると共に、その映像を音声出力手段や映像出
力手段等を介して、例えば利用者の声や視線により、手
を使うことなく、即ちハンズフリーで希望する情報コン
テンツに切り替えることができるようにしたので、利用
者は演技等を続けながら、その演技等を支援する所望の
サポート情報を受け取ることができる。
That is, according to the present invention, the video input means of the user interface device enables the user to present manual information supporting the performance and the like to the user as a video, and outputs the video to the audio output means or the video output means. For example, the user can switch to the desired information content in a hands-free manner, that is, hands-free with the user's voice or line of sight, for example, so that the user can continue performing The user can receive desired support information for assisting the user.

【0012】[0012]

【発明の実施の形態】以下、図面を参照して、本発明の
実施の形態について詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0013】図1は、本発明に係る一実施形態の救急医
療支援システム(仮想環境提示装置)を概念的に示すブ
ロック図、図2は、同システムの構成をより具体的に示
したブロック図である。又、図3は、本実施形態の支援
システムを構成するヘッドセット(ユーザインタフェー
ス装置)を、利用者が装着した状態と共に示した正面
図、図4は、その平面図である。
FIG. 1 is a block diagram conceptually showing an emergency medical support system (virtual environment presentation device) according to an embodiment of the present invention, and FIG. 2 is a block diagram more specifically showing the configuration of the system. It is. FIG. 3 is a front view showing a headset (user interface device) constituting the support system of the present embodiment together with a user wearing the headset, and FIG. 4 is a plan view thereof.

【0014】本実施形態の救急医療支援システムは、マ
ニュアルとして電子媒体で提供される模範映像を、離れ
た位置から視聴しながら演技修得をハンズフリーで行う
ことができる仮想環境を実現する家庭向けのシステムで
ある。
The emergency medical support system according to the present embodiment is intended for a home that realizes a virtual environment that enables hands-free learning of acting while viewing a model video provided as a manual on an electronic medium from a remote position. System.

【0015】本実施形態の支援システムは、前記図1、
2に示すように、救急医療支援のためのマニュルアル映
像を初めとする、マルチメディア情報を提示・制御可能
に構成されているパーソナルコンピュータ本体(情報提
示装置、クライアント端末)Aと、該本体Aにワイヤレ
スで接続されたヘッドセット(ユーザインタフェース装
置)10とを備えている。
The support system according to this embodiment is the same as that shown in FIG.
As shown in FIG. 2, a personal computer main body (information presenting device, client terminal) A capable of presenting and controlling multimedia information including a manual image for emergency medical support, and A headset (user interface device) 10 connected wirelessly.

【0016】本実施形態では、前記マルチメディア情報
が、インターネットを介してWWWサーバBのファイル
サーバ(マルチメディアサーバ)Cから、上記コンピュ
ータ本体Aに提供されるようになっている。
In this embodiment, the multimedia information is provided from the file server (multimedia server) C of the WWW server B to the computer main unit A via the Internet.

【0017】なお、図1中HTML(Hyper Text M
arkup Language )は、インターネットのホームページ
の作成に用いられる言語、Javaはサン・マイクロシ
ステムズ社が開発したプログラム言語で、この言語で作
成したプログラム(アプレット)は、インターネットの
ホームページを表示する際に実行される。又、VRML
(Virtual Reality Modeling Lauguage )はイン
ターネットで3次元のグラフィックスを表現できる言語
であり、MIDI(Musical InstrumentsDigital
Interface)はコンピュータで音楽データをやり取りす
るための規格である。
The HTML (Hyper Text M) shown in FIG.
arkup Language) is a language used to create Internet homepages, and Java is a programming language developed by Sun Microsystems. Programs (applets) created in this language are executed when displaying Internet homepages. You. Also, VRML
(Virtual Reality Modeling Language) is a language capable of expressing three-dimensional graphics on the Internet, and is based on MIDI (Musical Instruments Digital).
(Interface) is a standard for exchanging music data with a computer.

【0018】上記WWWは、オンラインで豊富なコンテ
ンツを提供でき、後戻り、速度変更、アングル変更等の
機能も技術的には提供可能であるという点で、現状最も
有望なメディアである。
The WWW is currently the most promising medium because it can provide abundant contents online and can technically provide functions such as backtracking, speed change, and angle change.

【0019】本実施形態では、又、利用者が演技等の修
得をしながら、電子マニュアルを参照できるようにする
ために、ユーザインタフェースとして必要とされる以下
の5つの機能を実現している。
In this embodiment, the following five functions required as a user interface are realized so that the user can refer to the electronic manual while learning the performance and the like.

【0020】(1)両手を使わず、コンピュータ操作が
行えること(ハンズフリー操作)。
(1) A computer operation can be performed without using both hands (hands-free operation).

【0021】(2)演技に支障がない程度に移動が可能
であること(携帯性・軽量性)。
(2) Being able to move to the extent that it does not hinder the performance (portability and light weight).

【0022】(3)模範演技(バーチャル映像)と現実
像を同時に視聴可能であること(シースルー)。
(3) A model performance (virtual image) and a real image can be viewed simultaneously (see-through).

【0023】(4)模範演技のアングルはユーザの視点
にできるだけ近いこと(少なくとも逆向きでないこ
と)。
(4) The angle of the model performance should be as close as possible to the user's viewpoint (at least not in the opposite direction).

【0024】(5)模範演技の速度はユーザのスキルに
応じて可変であり、演技中に変更も可能であること。
(5) The speed of the model performance is variable according to the skill of the user, and can be changed during the performance.

【0025】本実施形態においては、以下のシステム構
成とすることにより、以上の各機能を実現している。
In the present embodiment, the above functions are realized by the following system configuration.

【0026】即ち、前記ヘッドセット10を、図3、4
に示すように、液晶ゴーグル12、小型ビデオカメラ1
4、左右のイヤパッドからなるヘッドフォン16と、矢
印方向に可動なハンズフリーのマイクロフォン18と、
上記液晶ゴーグル12の上に固定されているペンライト
20と、伸縮自在なヘッドバンド10Aとを一体とした
構成としている。
That is, the headset 10 is moved to the position shown in FIGS.
As shown in the figure, the liquid crystal goggles 12, the small video camera 1
4. a headphone 16 comprising left and right ear pads, a hands-free microphone 18 movable in the direction of the arrow,
A penlight 20 fixed on the liquid crystal goggles 12 and a telescopic headband 10A are integrated.

【0027】上記液晶ゴーグル12は、半透明液晶ディ
スプレイを用いた光学的シースルー機能を有するシース
ルータイプである。このゴーグル12とヘッドフォン1
6は、それぞれゴーグルビデオケーブル12Cと、ヘッ
ドフォンオーディオケーブル16Cを介して、利用者の
腰にベルトで固定されている受信器(映像受信手段、音
声受信手段)22に接続されている。そして、受信器2
2にはバッテリーが内蔵されており、前記映像受信手段
及び音声受信手段に電源を供給する以外に、ゴーグル1
2に対してゴーグルビテオケーブル12Cを介して必要
な電源を供給している。
The liquid crystal goggles 12 are of a see-through type having an optical see-through function using a translucent liquid crystal display. These goggles 12 and headphones 1
Numerals 6 are connected to receivers (video receiving means, audio receiving means) 22 which are fixed to the user's waist by a belt via a goggle video cable 12C and a headphone audio cable 16C, respectively. And receiver 2
2 has a built-in battery, and in addition to supplying power to the video receiving means and the audio receiving means,
2 is supplied with necessary power via a goggle video cable 12C.

【0028】又、前記小型ビデオカメラ14とマイクロ
フォン18は、それぞれビデオカメラケーブル14Cと
マイクオーディオケーブル18Cを介して送信器(映像
送信手段、音声送信手段)24に接続されている。そし
て、送信器24にもバッテリーが内蔵されており、前記
映像送信手段及び音声送信手段に電源を供給する以外
に、ビデオカメラ14に対してビデオカメラケーブル1
4Cを介して必要な電源を供給すると共に、マイクロフ
ォン18に対してマイクオーディオケーブル18C介し
て必要な電源を供給している。
The small video camera 14 and the microphone 18 are connected to a transmitter (video transmission means, audio transmission means) 24 via a video camera cable 14C and a microphone audio cable 18C, respectively. The transmitter 24 also has a built-in battery. In addition to supplying power to the video transmission means and the audio transmission means, the video camera cable 1 is connected to the video camera 14.
The necessary power is supplied to the microphone 18 via the microphone audio cable 18C while supplying necessary power via the 4C.

【0029】又、本実施形態では、前記コンピュータ本
体A(クライアント端末)が、図2に示したように音声
認識モジュール30、ステータス制御部32、音声合成
モジュール(又はMIDI音源)34、再生速度制御部
36、レンダリングやビデオ復号再生、背景実写像との
合成を行う画像処理部38、カメラパラメータ抽出機能
を有する画像認識モジュール40を備えている。
In this embodiment, the computer main unit A (client terminal) comprises a voice recognition module 30, a status control unit 32, a voice synthesis module (or MIDI sound source) 34, a playback speed control as shown in FIG. An image processing unit 38 for performing rendering, video decoding / reproduction, and synthesis with a real background image, and an image recognition module 40 having a camera parameter extracting function.

【0030】そして、上記ヘッドセット10を利用者が
頭部に取付けることにより、その利用者は演技を行いな
がら、電子媒体で提供されるマニュアルを視聴できるよ
うにするために、該ヘッドセット10と前記コンピュー
タ本体Aとが、前記受信器22、送信器24を介してワ
イヤレス・アナログ回線で接続されている。
The user attaches the headset 10 to his / her head, so that the user can view the manual provided on an electronic medium while performing the performance. The computer main body A is connected via a wireless analog line via the receiver 22 and the transmitter 24.

【0031】即ち、前記液晶ゴーグル12には、受信器
22を介して画像処理部38から赤外線で送信されるビ
デオ信号が入力され、ヘッドフォン16には音声合成モ
ジュール34から同様にしてオーディオ信号が入力され
るようになっている。一方、ビデオカメラ14からは送
信器24を介して画像処理部38及び画像認識モジュー
ル40にVHF帯の電波で送信されるビデオ信号が出力
され、マイクロフォン18からは音声認識モジュール3
0に同様にしてオーディオ信号が出力されるようになっ
ている。
That is, to the liquid crystal goggles 12, a video signal transmitted from the image processing section 38 via the receiver 22 by infrared rays is input, and to the headphones 16, an audio signal is input from the voice synthesis module 34 in the same manner. It is supposed to be. On the other hand, a video signal transmitted by a radio wave in the VHF band is output from the video camera 14 to the image processing unit 38 and the image recognition module 40 via the transmitter 24, and the microphone 18 outputs the voice recognition module 3.
The audio signal is output in the same manner as 0.

【0032】このように、ここでは、ヘッドセット10
とコンピュータ本体Aの間において、映像と音声の双方
向ワイヤレス伝送を実現するにあたり、双方の干渉を避
けるため、現在入手可能な赤外線とVHF帯の2種の伝
送装置を共用する方策を取っている。
As described above, here, the headset 10
In realizing two-way wireless transmission of video and audio between the computer and the computer main unit A, in order to avoid interference between the two, measures are being taken to share currently available two types of transmission devices in the infrared and VHF bands. .

【0033】又、前記コンピュータ本体Aは、インター
ネット・デジタル回線を介して前記WWWサーバBと接
続され、前記ファイルサーバCに対してステータス制御
部32から演技状況が出力され、又、画像認識モジュー
ル40から視点情報が出力され、逆にファイルサーバC
からは音声合成モジュール34に音声情報が入力され、
又、画像処理部38に映像情報が入力されるようになっ
ている。
The computer main unit A is connected to the WWW server B via the Internet digital line, and the status control unit 32 outputs the performance status to the file server C, and the image recognition module 40 Output viewpoint information, and conversely, file server C
From the voice information is input to the voice synthesis module 34,
Also, video information is input to the image processing unit 38.

【0034】本実施形態においては、前記(1)の機能
を、音声入力・認識によりコンピュータ操作をすること
により実現する。具体的には、前記マイクロフォン18
により、利用者の音声を入力し、該音声から前記コンピ
ュータ本体Aの音声認識モジュール30により、利用者
が発声した文字列を認識し、該文字列に基づいて前記ス
テータス制御部32によりファイルサーバCに切り替え
信号を送ることにより、該ファイルサーバCからコンピ
ュータ本体Aに出力し、該本体Aから液晶ゴーグル1
2、ヘッドフォン16に提供する映像・音声のマルチメ
ディア情報のコンテンツを切り替えることができるよう
になっている。
In this embodiment, the function (1) is realized by operating a computer by voice input / recognition. Specifically, the microphone 18
Then, the voice of the user is input, and the voice recognition module 30 of the computer main body A recognizes the character string uttered by the user from the voice, and the status control unit 32 uses the file server C based on the character string. To the computer main unit A from the file server C, and the liquid crystal goggles 1
2. It is possible to switch the contents of the video / audio multimedia information provided to the headphones 16.

【0035】なお、この機能を実現するにあたり、HT
MLアンカー(アンダーラインのある文字列:クリック
すると所定の頁にジャンプする機能)については、音声
認識で得た文字コードに基づいて指定された先にジャン
プさせるような制御プログラムをHTML文に追加する
方法を採用した。
In realizing this function, HT
As for the ML anchor (underlined character string: a function of jumping to a predetermined page when clicked), a control program for jumping to a designated destination based on a character code obtained by voice recognition is added to an HTML sentence. The method was adopted.

【0036】図5は、これを概念的に示したブロック図
である。コンピュータ本体Aをインターネットでサーバ
に接続すると、メイン管理プログラム起動用HTML文
により、Javaアプレットで記述されたメイン管理プ
ログラム本体が起動する。その後、マウス等により、こ
の本体のメニューボタンに対してキー入力を行うことに
より、マルチメディア表示プログラム起動用HTML文
により、同じくJavaアプレットで記述されたマルチ
メディア表示プログラム本体を起動することができる。
そして、この状態で上記表示プログラム本体のメニュー
ボタンに対してキー入力を行うことにより、ファイルサ
ーバCから希望するファイルの情報を読み出すことがで
きる。このように、現状はマウスクリック入力でしかW
WWサーバBとの間で情報伝達のためのメニューの切り
替えができないところ、キー入力でも実現可能にした。
FIG. 5 is a block diagram conceptually showing this. When the computer main unit A is connected to the server via the Internet, the main management program main unit described in the Java applet is started by the main management program starting HTML statement. Thereafter, by performing a key input to the menu button of the main body with a mouse or the like, the multimedia display program main body also described in the Java applet can be started by an HTML sentence for starting the multimedia display program.
Then, by inputting a key to the menu button of the display program body in this state, desired file information can be read from the file server C. Thus, at present, W can only be entered with a mouse click.
Where the menu for information transmission cannot be switched with the WW server B, it can be realized by key input.

【0037】そして、音声コマンドがマイクロフォン1
8から音声認識モジュール30に入力されると、該モジ
ュール30では所定のメニューボタンに対応する文字コ
ードに変換し、該文字コードをキー入力したのと同等な
入力処理が実行される。即ち、音声コンマドにより別の
HTML頁にジャンプする所望のアンカー機能を実現し
ている。
Then, the voice command is transmitted to the microphone 1
When the input is made to the voice recognition module 30 from step 8, the module 30 converts the character code into a character code corresponding to a predetermined menu button, and executes an input process equivalent to a key input of the character code. That is, a desired anchor function for jumping to another HTML page by the voice command is realized.

【0038】前記(2)の機能を実現するために、前記
図3、4に示したように、前記液晶ゴーグル12、小型
ビデオカメラ14、ヘッドフォン16、マイクロフォン
18を有するヘッドセット10を、利用者の頭部に取り
付けて使用できるようにすると共に、前述のように該ヘ
ッドセット10とWWW端末であるコンピュータ本体A
とはワイヤレス接続することにより、結果的にヘッドセ
ット10とWWWサーバBとのワイヤレス接続を実現し
ている。
In order to realize the function (2), as shown in FIGS. 3 and 4, the headset 10 having the liquid crystal goggles 12, the small video camera 14, the headphones 16 and the microphone 18 is provided to the user. The headset 10 and the computer main unit A which is a WWW terminal
The wireless connection between the headset 10 and the WWW server B is realized as a result.

【0039】前記(3)の機能を実現するために、前記
ビデオカメラ14で入力された実写映像と、前記コンピ
ュータ本体Aで提供されるCG(コンピュータグラフィ
ックス)による模範映像とを画像処理部38で合成し、
その合成画像をシースルー機能を閉じた状態にした前記
液晶ゴーグル12に提供するようにしてある。このよう
にすることにより、CG画像では背景部を完全な無地の
状態にすることが容易であることから、いわゆるクロマ
キー合成法を用いて背景部に実写映像を埋め込めむよう
にすれば、双方の品質が劣化しないようにできるため、
鮮明な模範映像を提供することができる。但し、模範映
像は不鮮明になるが、シースルー機能をそのまま使用す
ることもできる。
In order to realize the function (3), an image processing section 38 converts a real image input by the video camera 14 and a model image provided by the computer main unit A by CG (computer graphics). Synthesized with
The composite image is provided to the liquid crystal goggles 12 with the see-through function closed. By doing so, it is easy to make the background part completely solid in the CG image. Therefore, if the real image can be embedded in the background part using a so-called chroma key synthesis method, both qualities can be improved. Because it can be prevented from deteriorating,
A clear model image can be provided. However, the model video becomes unclear, but the see-through function can be used as it is.

【0040】前記(4)の機能を実現するためには、例
えば利用者がビデオカメラ14で捕らえた視線映像の中
の被写体(例えば施術者)のシルエット像から、図6に
示すような4種類のカメラワークを自動的に選択できる
ようにしてもよい。
In order to realize the function (4), for example, four types of silhouettes of a subject (for example, a practitioner) in a line-of-sight image captured by the user with the video camera 14 as shown in FIG. May be automatically selected.

【0041】又、ビデオカメラ14が利用者の視野画像
を入力し、該視野画像に基づいて前記コンピュータ本体
Aの画像認識モジュール10により利用者の視線を認識
し、前記液晶ゴーグル12に提供する映像のアングルを
前記視線に近付けるように制御するようにしてもよい。
The video camera 14 inputs a visual field image of the user, and the image recognition module 10 of the computer main body A recognizes the user's line of sight based on the visual field image, and provides an image to be provided to the liquid crystal goggles 12. May be controlled so as to approach the angle of view.

【0042】具体的には、利用者の視野画像から被写体
の顔の向きだけ、画像処理のモーメント法で認識し、そ
の方向に最も近いアングルの映像を提供する。そのため
に、模範映像を3次元CGで制作し、1つのシーンに付
き数方向のアングルでレンダリングした映像を用意する
か、数方向から撮影した実写映像を用意しておく。な
お、現状の画像処理では正確な視点を認識するのは困難
であるが、3次元CGの手法の場合は、計算に時間がか
かる問題があるが、端末の処理能力が大きければ、グラ
フィックスエンジンを搭載するなどして、リアルタイム
にレンダリングする手法をとり、アングルを任意に変更
できるようにしてもよい。又、他に、この用途には移動
範囲に制約が大きいために不適当であるが、位置センサ
をゴーグルに取り付けて、視点に完全に追従させる方法
もある。
More specifically, only the direction of the face of the subject is recognized from the user's visual field image by the moment method of image processing, and an image of the angle closest to the direction is provided. For this purpose, a model video is produced by three-dimensional CG, and a video rendered at several angles per scene is prepared, or a real video taken from several directions is prepared. It is difficult to recognize an accurate viewpoint with the current image processing. However, in the case of the three-dimensional CG method, there is a problem that the calculation takes a long time. For example, a method of rendering in real time may be adopted, such as by mounting an image, so that the angle can be arbitrarily changed. In addition, there is another method that is not suitable for this application because the movement range is largely restricted, but a position sensor is attached to goggles to completely follow the viewpoint.

【0043】本実施形態では、利用者が液晶ゴーグル1
2を通して見ることのできる映像のカメラワークとして
は、CG映像の場合のみではあるが、施術者の背中に隠
れた動作を透過して見ることができるように、該施術者
をスケルトン(骸骨)表示する機能と、逆に解剖学的に
動作を見ることができるように、被施術者(患者)をス
ケルトン表示する機能もある。これについては、後に具
体例を示す。
In this embodiment, the user operates the liquid crystal goggles 1
Although the camera work of the image that can be seen through 2 is only the case of the CG image, the operator is displayed in a skeleton (skeleton) so that the operation hidden behind the operator can be seen through. There is also a function to display the operative subject (patient) in skeleton so that the operation can be seen anatomically. A specific example will be described later.

【0044】同様に、CG映像の場合のみではあるが、
複数のパーツ(頭や手等)が協調して動いている場合、
選択したパーツ以外の全パーツの動作を止めて再生した
り、選択したパーツの動作を止めて再生したりできる、
単一パーツの動作表示機能もある。
Similarly, only in the case of a CG image,
When multiple parts (head, hand, etc.) are moving in harmony,
You can stop and play the operation of all parts other than the selected part, or stop and play the operation of the selected part,
There is also a single part operation display function.

【0045】又、液晶ゴーグル12に提示される模範映
像を再生する際、指定領域に対する時間軸を拡大する機
能がある。
Further, when reproducing the exemplary video presented on the liquid crystal goggles 12, there is a function of expanding the time axis with respect to the designated area.

【0046】動画の再生映像は、基本的に時間的に変化
する動きを、連続的な静止画で表示するようになってい
る。従って、データベースには連続的に変化する静止画
の1つ1つが、図7(A)に示すようなフレーム1〜7
・・・の画像データとして保存されている。
A moving image reproduced basically displays a time-varying motion as a continuous still image. Therefore, each of the continuously changing still images is stored in the database as frames 1 to 7 as shown in FIG.
.. Are stored as image data.

【0047】ところが、模範演技の中では1回しか出て
こないため、見落とされ易い繰り返し演技の開始又は終
了部分や、熟練者では繰り返し演技にスムーズに結合さ
れ、見落とされ易く、時には簡素化又は省略されること
がある繰り返し演技のつなぎ部分のように、図7(A)
のフレームの再生速度を単に遅らせるスロー再生では対
応できない場合がある。このような映像については、例
えばフレーム2とフレーム3の間の詳細な映像を再生す
る超スローモーション再生に対応できるように、同図
(B)に示したように、これら両フレーム間を細分割し
たフレーム2.1〜2.7・・・の映像を別途用意して
ある。
However, since only one occurrence occurs in the model performance, the start or end of a repetitive performance that is easily overlooked, and a skilled person is smoothly coupled to the repetitive performance, is easily overlooked, and is sometimes simplified or omitted. Figure 7 (A)
There is a case where the slow reproduction simply reducing the reproduction speed of the frame cannot respond. As shown in FIG. 3B, such a video is subdivided into two frames, as shown in FIG. .. Are prepared separately.

【0048】又、本実施形態では、前記(5)の機能を
実現するために、前記マイクロフォン18が、利用者の
音声を入力し、該音声から前記コンピュータ本体Aの音
声認識モジュール30により、利用者が発声した複数の
文字列を認識し、文字列と文字列との時間間隔に基づい
て、再生速度制御部36で前記コンピュータ本体Aの音
声合成モジュール34や画像処理部38から、ヘッドフ
ォン16や液晶ゴーグル12にそれぞれ提供する支援映
像や音声等の時系列マルチメディア情報の再生速度を制
御するようになっている。なお、ここでいう文字列に
は、「あ」、「い」、「う」等の1文字も含まれる。
In this embodiment, in order to realize the function (5), the microphone 18 inputs a user's voice, and the voice is used by the voice recognition module 30 of the computer main unit A from the voice. A plurality of character strings uttered by the user are recognized, and based on the time interval between the character strings, the playback speed control unit 36 sends the signals from the speech synthesis module 34 or the image processing unit 38 of the computer A to the headphone 16 or The playback speed of time-series multimedia information such as support video and audio provided to the liquid crystal goggles 12 is controlled. Note that the character string referred to here also includes one character such as “A”, “I”, “U”, and the like.

【0049】即ち、動画再生のフレームレートを可変に
構成すると共に、BGMサウンドをMIDIで記述して
おく。利用者が、マイクロフォン18を使って、例えば
「1,2,3」を「いち、にい、さん」という複数の文
字列として所定の間隔で発声すると、「1」と「3」の
発音開始時間の間隔を測定し、その間隔で、例えば動画
30フレーム分、四部音符8個分を再生するように制御
することができるようになっている。
That is, the frame rate for reproducing a moving image is made variable, and the BGM sound is described in MIDI. When the user speaks, for example, “1, 2, 3” as a plurality of character strings “1, 1, 2, 3” using the microphone 18 at predetermined intervals, the pronunciation of “1” and “3” starts. A time interval is measured, and control can be performed such that 30 frames of a moving image and 8 quarter notes are reproduced at the interval.

【0050】この機能を概念的に示したのが図8であ
る。この図には、「1,2,3」の発声を、一番上のユ
ーザ入力パルスのパルス1〜3に置き換えて示してあ
り、パルス3のタイミングでシステム・クロックのパル
ス間隔が変化している。そして、これに同期して動画は
既製のフレームデータを上書きする間隔が制御され、C
G画像はバックグラウンドで描画したフレームをフロン
トに交替させる間隔が制御され、MIDIは強拍音符演
奏間隔が制御されるようになっている。なお、MIDI
の演奏間隔制御では、パルスの振幅の揺らぎ成分で音の
強さを変調することも可能となっている。
FIG. 8 conceptually shows this function. In this figure, the utterance of “1, 2, 3” is replaced with pulses 1 to 3 of the uppermost user input pulse, and the pulse interval of the system clock changes at the timing of pulse 3. I have. In synchronization with this, the interval at which the moving image overwrites the already-made frame data is controlled, and C
In the G image, the interval at which the frame drawn in the background is switched to the front is controlled, and in the MIDI, the interval of playing strong beats is controlled. Note that MIDI
In the performance interval control, the sound intensity can be modulated by the fluctuation component of the pulse amplitude.

【0051】又、上記再生速度制御部36には、外部同
期信号も入力可能になっており、該速度制御部36に利
用者もしくは利用者に対面している人物の心拍等の生体
信号を入力し、該生体信号に基づいて同様に前記時系列
マルチメディア情報の再生速度を制御することもできる
ようになっている。
An external synchronizing signal can also be input to the reproduction speed control unit 36, and a biological signal such as a heart rate of a user or a person facing the user is input to the speed control unit 36. The reproduction speed of the time-series multimedia information can be similarly controlled based on the biological signal.

【0052】又、前記支援システムには、図1に示した
ように、利用者が前記ゴーグルを通して見ている映像
を、他の者も見れるようにCRTモニタも設置されてい
る。
Further, as shown in FIG. 1, the support system is also provided with a CRT monitor so that other people can see the image that the user is watching through the goggles.

【0053】次に、本実施形態の救急医療支援システム
の使用方法を説明する。
Next, a method of using the emergency medical support system of the present embodiment will be described.

【0054】近年、高齢化社会を迎え、生活習慣病(旧
成人病)の増加は最早避けることができない。この生活
習慣病の中でも、狭心症・心筋硬塞等の循環器疾患は、
発作により一刻を争う危険性を秘めている。このような
救急医療においては、病院に搬送されるまでの救命・応
急処置が非常に重要であり、周囲に医者がいない、画像
検査機器がない、治療用薬剤がないという環境の下で、
周囲にいる人々の適切な医療行為が患者の運命を決定す
ることになる。本実施形態の支援システムは、このよう
な環境下で、特に優れた効果を発揮する。
In recent years, with the aging society, an increase in lifestyle-related diseases (old adult diseases) cannot be avoided anymore. Among these lifestyle-related diseases, cardiovascular diseases such as angina pectoris and myocardial infarction
There is the danger of fighting for a moment due to a seizure. In such emergency care, lifesaving and first aid measures before being transported to the hospital are very important, and in an environment where there are no doctors around, no image inspection equipment, no therapeutic drugs,
The appropriate medical practices of the people around them will determine the fate of the patient. The support system according to the present embodiment exhibits particularly excellent effects in such an environment.

【0055】まず、前記図3に示したように、ユーザー
インタフェース装置であるヘッドセット10を利用者の
頭部に取り付ける。
First, as shown in FIG. 3, the headset 10, which is a user interface device, is attached to the head of the user.

【0056】次いで、利用者はキー入力又はマイクロフ
ォン18を通して音声コマンドにより、コンピュータ本
体Aに対してコード入力し、該本体AをWWWサーバB
に接続させ、ファイルサーバCより模範演技に関する映
像、音声等の情報が入力できる状態に立ち上げる。
Next, the user inputs a code to the computer main unit A by key input or a voice command through the microphone 18, and connects the main unit A to the WWW server B.
And the file server C is set up so that information such as video and audio related to the model performance can be input.

【0057】そうすると、前記図5に示したメイン管理
プログラムにより、図9に端末制御プログラムの概要と
して示した(1)〜(10)の各静止映像を、救急医療
支援用のモードメニューとして、液晶ゴーグル12に順
次表示できる状態になる。
Then, according to the main management program shown in FIG. 5, each of the still images (1) to (10) shown in the outline of the terminal control program in FIG. The goggles 12 can be sequentially displayed.

【0058】図10には、便宜上CRTモニタのメニュ
ー画面を示したが、前記液晶ゴーグル12には、この画
面のウィンドウに表示されている映像(ここでは図9に
示した(6)の映像)が表示されると共に、同画面内に
あるような指示や質問がヘッドフォン16を通して利用
者に伝えられる。
FIG. 10 shows the menu screen of the CRT monitor for convenience, but the liquid crystal goggles 12 displays the image displayed in the window of this screen (the image of (6) shown in FIG. 9 here). Is displayed, and instructions and questions as in the screen are transmitted to the user through the headphones 16.

【0059】利用者は、その指示に従って動作を行うと
共に、質問に対して“はい”又は“いいえ”でマイクロ
フォン18を通して回答することにより、図9に示した
各メニュー映像を順次更新することができる。
The user operates in accordance with the instruction and answers the question with “yes” or “no” through the microphone 18 so that the menu images shown in FIG. 9 can be sequentially updated. .

【0060】ここでは、便宜上、利用者が図9のメニュ
ーの中から(9)の心臓マッサージのモードを選択した
とする。利用者は、図10の画面に示した“映像”を指
示するコマンドをマイクロフォン18を通して入力する
と、前記図5に示したマルチメディア表示プログラムが
起動し、前記ファイルサーバCから必要な映像、音声情
報がローディングされ、液晶ゴーグル12に心臓マッサ
ージの模範映像が動画として表示される。
Here, for convenience, it is assumed that the user has selected the heart massage mode (9) from the menu of FIG. When the user inputs a command indicating “video” shown on the screen of FIG. 10 through the microphone 18, the multimedia display program shown in FIG. 5 starts, and the necessary video and audio information is transmitted from the file server C. Is loaded, and an exemplary image of the heart massage is displayed on the liquid crystal goggles 12 as a moving image.

【0061】図11は、この模範映像の1フレーム、そ
れも被施術者(患者)が前述したスケルトン表示された
フレームを、前記図10の場合と同様のモニタ画面に示
したものである。実際には、この画面に文字で表示され
ているような操作メニューを、利用者が文字コードを音
声入力することにより選択して希望する状態の支援映像
を表示させ、その模範演技を見ながら心臓マッサージの
方法を修得することになる。
FIG. 11 shows one frame of the model image, that is, a frame in which the subject (patient) is displayed as a skeleton as described above, on the same monitor screen as in FIG. Actually, the user selects an operation menu displayed in characters on this screen by inputting a character code by voice, displays a support image in a desired state, and looks at the model performance while watching the model performance. You will learn how to massage.

【0062】因みに、操作メニューとしては、速度(S
peed)、再生、停止が音声入力により選択できると共
に、前記図6に示したカメラワークに相当する正面、上
面、側面、拡大の4つの映像を加えて、映像の開始部
を、ビデオカメラ14のアングルや音声入力により選択
できる。
Incidentally, the operation menu includes the speed (S
Peed), playback and stop can be selected by voice input, and four images of front, top, side, and enlargement corresponding to the camera work shown in FIG. You can select by angle or voice input.

【0063】又、心臓マッサージの動画映像に対応する
連続したフレーム映像の図示は省略するが、本実施形態
の救急医療支援システムが有する他の映像表示機能につ
いて説明する。
Although illustration of a continuous frame image corresponding to the moving image image of the heart massage is omitted, another image display function of the emergency medical support system of the present embodiment will be described.

【0064】図12は、横方向に仰向けになっている患
者に対して、その胸の上に施術者が覆い被さって心臓マ
ッサージをしている場面の1映像であるが、この映像で
は患者の胸部から上の状態が分かり難い。そこで、この
図に対応する図13に示したように、施術者をスケルト
ンで表示できるようになっている。
FIG. 12 shows one image of a scene in which a practitioner covers a patient who is lying on his back in the lateral direction and performs a heart massage with the operator covering the chest. The condition above the chest is difficult to understand. Therefore, as shown in FIG. 13 corresponding to this figure, the practitioner can be displayed as a skeleton.

【0065】又、図14は、施術者が患者の胸に手を当
てている場面を正面から見た映像であるが、この映像が
施術者の手が患者の心臓に対してどのような位置関係に
なっているか不明である。そこで、図15に示すよう
に、患者の方をスケルトン表示し、肋骨の内側にある心
臓と施術者の手の位置の関係も分かるように表示できる
ようになっている。
FIG. 14 is a front view of a scene in which the practitioner is placing his hand on the patient's chest. This image shows the position of the practitioner's hand with respect to the patient's heart. It is unknown whether or not they are involved. Therefore, as shown in FIG. 15, the patient is displayed as a skeleton so that the relationship between the heart inside the ribs and the position of the operator's hand can be understood.

【0066】このようなスケルトン表示は、例えば特に
演技上ポイントとなるような映像に対して、前記4つの
カメラワークによる動画フレームの他に、予め別途作成
してデータベース化しておくことで対応できる。
Such a skeleton display can be dealt with by, for example, separately preparing in advance a database in addition to the moving image frame by the four camera works, especially for a video that is a point in performance.

【0067】以上、詳述した如く、本実施形態の救急医
療支援システムによれば、利用者が救急医療の施術又は
その練習を行う際、両手を使わずにシステムを操作でき
る上に、演技に支障がない程度に移動することができ、
模範映像と現実像を同時に、しかも利用者の希望する方
向の映像を視聴でき、又、模範映像の速度を利用者の技
術に応じて、演技中にも変更することができる。従っ
て、家庭においても、容易に救急医療の施し方を修得す
ることができる。
As described in detail above, according to the emergency medical support system of the present embodiment, when the user performs emergency medical treatment or practice, the user can operate the system without using both hands, and can perform the performance. You can move to the extent that there is no trouble,
The model image and the real image can be viewed at the same time, and the user can view the image in the direction desired by the user, and the speed of the model image can be changed during the performance according to the skill of the user. Therefore, even at home, it is possible to easily learn how to give emergency medical treatment.

【0068】以上、本発明について具体的に説明した
が、本発明は、前記実施形態に示したものに限られるも
のでなく、その要旨を逸脱しない範囲で種々変更可能で
ある。
Although the present invention has been specifically described above, the present invention is not limited to the above-described embodiments, and can be variously modified without departing from the gist thereof.

【0069】例えば、前記実施形態では、仮想環境表示
装置が救急医療支援システムである場合を示したが、こ
れに限定されない。又、ヘッドセットの具体的な外観形
状や構成は同様に限定されない。
For example, in the above embodiment, the case where the virtual environment display device is an emergency medical support system has been described, but the present invention is not limited to this. Further, the specific external shape and configuration of the headset are not similarly limited.

【0070】又、前記実施形態では、マルチ情報のサー
バとしてWWWサーバを利用する場合を示したが、他の
ネットワークを利用してもよく、又、ネットワークを使
わずにデータベースと直接交信できるようにしてもよ
い。
In the above-described embodiment, the case where the WWW server is used as the server for the multi-information has been described. However, other networks may be used, and it is possible to directly communicate with the database without using the network. You may.

【0071】又、コンピュータ本体(端末)が据え置き
型である場合を示したが、コンピュータの小型化が進ん
でいることから、コンピュータ本体そのものを身に付
け、該本体とデータサーバの間をワイアレスで接続する
ようにしてもよい。
Although the case where the computer main body (terminal) is of a stationary type has been described, since the size of the computer has been reduced, the computer itself is worn, and a wireless connection is established between the main body and the data server. You may make it connect.

【0072】[0072]

【発明の効果】以上説明したとおり、本発明によれば、
実践の場で演技や作業等を続けながら、映像や音声によ
りその支援を受けることができる環境を提供することが
できる。
As described above, according to the present invention,
It is possible to provide an environment in which the support can be received by video and audio while performing and working in a place of practice.

【0073】又、本発明によれば、指導者がいない実践
の場において、度忘れした事項や参照したい文献等が出
てきた場合に、作業を中断することなく、文献の検索や
参照もできるようになり、インターネット環境で運用さ
れていれば、一人の指導者では対応できないような難し
い局面に対しても、解決策が得られる可能性を提供する
こともできる。
Further, according to the present invention, in the case of a practice where there is no instructor, if a forgotten matter or a document to be referred to comes out, it is possible to search or refer to the document without interrupting the work. As a result, operating in the Internet environment can provide the possibility of obtaining solutions even in difficult situations that cannot be handled by a single instructor.

【0074】又、薄暗くて狭い作業現場で、多くの図面
を参照する必要がある場合、従来は設計事務所の担当者
と無線連絡を取りながら作業を進めざるを得なかった
が、本発明によれば、現場で仮想的に図面を見ながら作
業ができるため、効率良く作業を進めることができる。
Further, when it is necessary to refer to many drawings in a dim and narrow work site, the work has conventionally had to be performed while communicating with a person in charge of the design office by radio. According to this, the user can work while viewing the drawing virtually at the site, so that the work can be performed efficiently.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る一実施形態の救急医療支援システ
ムの概略構成を示すブロック図
FIG. 1 is a block diagram showing a schematic configuration of an emergency medical support system according to an embodiment of the present invention.

【図2】上記救急医療支援システムの具体的構成を概念
的に示すブロック図
FIG. 2 is a block diagram conceptually showing a specific configuration of the emergency medical support system.

【図3】上記救急医療支援システムを構成するヘッドセ
ットを、装着状態と共に示す正面図
FIG. 3 is a front view showing a headset constituting the emergency medical support system together with a mounted state.

【図4】上記ヘッドセットを上から見た平面図FIG. 4 is a plan view of the headset as viewed from above.

【図5】音声によるWWWコンテンツの切り換え方法を
概念的に示すブロック図
FIG. 5 is a block diagram conceptually showing a method of switching WWW contents by voice.

【図6】再生映像のカメラワークの種類を示す説明図FIG. 6 is an explanatory diagram showing types of camera work of reproduced video.

【図7】標準と時間軸を拡大した再生映像シーケンスの
関係を示す説明図
FIG. 7 is an explanatory diagram showing a relationship between a standard and a reproduced video sequence in which a time axis is enlarged.

【図8】データ再生速度制御を説明するための説明図FIG. 8 is an explanatory diagram for explaining data reproduction speed control;

【図9】救急医療支援の制御プログラムの概要を示す説
明図
FIG. 9 is an explanatory diagram showing an outline of a control program for emergency medical support.

【図10】仮想映像に対応するモニタ画面を示す説明図FIG. 10 is an explanatory diagram showing a monitor screen corresponding to a virtual image.

【図11】他の仮想映像に対応するモニタ画面を示す説
明図
FIG. 11 is an explanatory diagram showing a monitor screen corresponding to another virtual image.

【図12】模範映像の1場面を示す説明図FIG. 12 is an explanatory diagram showing one scene of a model video.

【図13】図12のスケルトン表示の例を示す説明図FIG. 13 is an explanatory diagram showing an example of a skeleton display of FIG. 12;

【図14】模範映像の他の1場面を示す説明図FIG. 14 is an explanatory diagram showing another scene of the exemplary video.

【図15】図14のスケルトン表示の例を示す説明図FIG. 15 is an explanatory diagram showing an example of a skeleton display of FIG. 14;

【符号の説明】[Explanation of symbols]

A…コンピュータ本体 B…WWWサーバ C…ファイルサーバ 10…ヘッドセット 12…液晶ゴーグル 14…小型ビデオカメラ 16…ヘッドフォン 18…マイクロフォン 20…ペンライト 22…受信器 24…送信器 30…音声認識モジュール 32…ステータス制御部 34…音声合成モジュール 36…再生速度制御部 38…画像処理部 40…画像認識モジュール A: Computer body B: WWW server C: File server 10: Headset 12: Liquid crystal goggles 14: Small video camera 16: Headphones 18: Microphone 20: Penlight 22: Receiver 24 ... Transmitter 30: Voice recognition module 32 ... Status control unit 34 voice synthesis module 36 playback speed control unit 38 image processing unit 40 image recognition module

フロントページの続き (51)Int.Cl.6 識別記号 FI G10L 3/00 551 G06F 15/62 350K Continued on the front page (51) Int.Cl. 6 Identification code FI G10L 3/00 551 G06F 15/62 350K

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】マルチメディア情報を画像認識手段及び音
声認識手段により提示制御可能となるように構成した情
報提示装置と、前記装置に対するハンズフリーによる遠
隔対話操作、及び前記装置により提供される情報に対す
るシースルー視聴を可能にした、少なくとも映像入力手
段、映像出力手段、音声入力手段、音声出力手段を有す
るユーザインタフェース装置とを備えていることを特徴
とする仮想環境提示装置。
1. An information presenting apparatus configured so that presentation of multimedia information can be controlled by an image recognizing means and a voice recognizing means, a hands-free remote interactive operation on the apparatus, and a method for controlling information provided by the apparatus. A virtual environment presentation device, comprising: a user interface device having at least video input means, video output means, audio input means, and audio output means, which enables see-through viewing.
【請求項2】請求項1において、 前記映像入力手段は利用者の視野画像を入力し、該視野
画像に基づいて前記情報提示装置の画像認識手段により
利用者の視線を認識し、前記映像出力手段に提供する映
像のアングルを前記視線に近付けるように制御すること
を特徴とする仮想環境提示装置。
2. The image input device according to claim 1, wherein the image input means inputs a visual field image of the user, recognizes the user's line of sight by the image recognizing means of the information presenting device based on the visual field image, and outputs the video image. A virtual environment presentation device, wherein an angle of an image provided to a means is controlled so as to approach the line of sight.
【請求項3】請求項1において、 前記映像入力手段で入力された映像と、前記情報提示装
置で提供される映像とを合成し、その合成画像を前記映
像出力手段に提供するようにしたことを特徴とする仮想
環境提示装置。
3. The image processing device according to claim 1, wherein the image input by the image input device and the image provided by the information presenting device are synthesized, and the synthesized image is provided to the image output device. A virtual environment presentation device characterized by the following.
【請求項4】請求項1において、 前記音声入力手段は利用者の音声を入力し、該音声から
前記情報提示装置の音声認識手段により利用者が発声し
た文字列を認識し、該文字列に基づいて前記情報提示装
置で提供するマルチメディア情報のコンテンツを切り替
えるようにしたことを特徴とする仮想環境提示装置。
4. The apparatus according to claim 1, wherein the voice input means inputs a user's voice, and recognizes a character string uttered by the user from the voice by a voice recognition means of the information presenting device. A virtual environment presentation device, wherein the content of the multimedia information provided by the information presentation device is switched based on the information.
【請求項5】請求項1において、 前記音声入力手段は利用者の音声を入力し、該音声から
前記情報提示装置の音声認識手段により利用者が発声し
た複数の文字列を認識し、文字列と文字列との時間間隔
に基づいて、前記情報提示装置で提供する時系列マルチ
メディア情報の再生速度を制御するようにしたことを特
徴とする仮想環境提示装置。
5. The character string according to claim 1, wherein the voice input means inputs a user's voice, and recognizes a plurality of character strings uttered by the user from the voice by a voice recognition means of the information presenting apparatus. A virtual environment presentation device, wherein a reproduction speed of time-series multimedia information provided by the information presentation device is controlled based on a time interval between the information presentation device and a character string.
【請求項6】請求項1において、 利用者もしくは利用者に対面している人物の生体信号を
入力し、該生体信号に基づいて前記情報提示装置で提供
する時系列マルチメディア情報の再生速度を制御するよ
うにしたことを特徴とする仮想環境提示装置。
6. The system according to claim 1, wherein a biological signal of a user or a person facing the user is input, and the reproduction speed of the time-series multimedia information provided by the information presentation device is determined based on the biological signal. A virtual environment presentation device characterized in that it is controlled.
【請求項7】請求項1において、 前記映像入力手段、映像出力手段、音声入力手段及び音
声出力手段を有するユーザインタフェース装置が、利用
者の頭部に取付け可能なヘッドセットで構成されている
ことを特徴とする仮想環境提示装置。
7. The user interface device according to claim 1, wherein said user interface device having said video input means, video output means, audio input means and audio output means is constituted by a headset attachable to a user's head. A virtual environment presentation device characterized by the following.
【請求項8】請求項7において、 前記ヘッドセットが、映像送信手段、映像受信手段、音
声送信手段及び音声受信手段を介して、前記情報提示装
置と無線で情報伝送が可能になっていることを特徴とす
る仮想環境提示装置。
8. The information processing apparatus according to claim 7, wherein the headset is capable of wirelessly transmitting information with the information presenting device via a video transmitting unit, a video receiving unit, a voice transmitting unit, and a voice receiving unit. A virtual environment presentation device characterized by the following.
【請求項9】請求項7において、 前記情報提示装置が、マルチメディア情報を提供するデ
ータサーバに接続されていることを特徴とする仮想環境
提示装置。
9. The virtual environment presentation device according to claim 7, wherein the information presentation device is connected to a data server that provides multimedia information.
【請求項10】請求項9において、 前記ヘッドセットが、利用者の身体に取り付けられた前
記情報提示装置にワイヤ接続され、前記情報提示装置が
前記データサーバに無線接続されていることを特徴とす
る仮想環境提示装置。
10. The information processing apparatus according to claim 9, wherein the headset is wire-connected to the information presentation device attached to a user's body, and the information presentation device is wirelessly connected to the data server. Virtual environment presentation device.
【請求項11】請求項9において、 前記情報提示装置及び前記データサーバが、それぞれイ
ンターネットに接続されたWWWクライアント及びWW
Wサーバであることを特徴とする仮想環境提示装置。
11. The system according to claim 9, wherein the information presentation device and the data server are respectively a WWW client and a WW connected to the Internet.
A virtual environment presentation device, being a W server.
JP4553798A 1998-02-26 1998-02-26 Virtual environment presentation device Expired - Fee Related JP3829005B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4553798A JP3829005B2 (en) 1998-02-26 1998-02-26 Virtual environment presentation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4553798A JP3829005B2 (en) 1998-02-26 1998-02-26 Virtual environment presentation device

Publications (2)

Publication Number Publication Date
JPH11249772A true JPH11249772A (en) 1999-09-17
JP3829005B2 JP3829005B2 (en) 2006-10-04

Family

ID=12722139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4553798A Expired - Fee Related JP3829005B2 (en) 1998-02-26 1998-02-26 Virtual environment presentation device

Country Status (1)

Country Link
JP (1) JP3829005B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002054309A1 (en) * 2000-12-28 2002-07-11 Atsushi Takahashi Remote internet technical guidance/education distribution system using practitioner's vision, and guidance system using communication network
JP2005237017A (en) * 2005-03-07 2005-09-02 Toshiba Corp Communication recording system
US7062297B2 (en) 2000-07-21 2006-06-13 Telefonaktiebolaget L M Ericsson (Publ) Method and system for accessing a network using voice recognition
US7418281B2 (en) 2005-09-13 2008-08-26 International Business Machines Corporation Centralized voice recognition unit for wireless control of personal mobile electronic devices
JP2018163662A (en) * 2018-04-16 2018-10-18 株式会社東芝 Electronic apparatus, support system, and support method

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6250850B2 (en) * 1983-02-21 1987-10-27 Nippon Electric Co
JPH021897A (en) * 1988-06-13 1990-01-08 Hitachi Ltd 3D image display device, copy-uta graphics system and audiovisual system
JPH03176718A (en) * 1989-11-24 1991-07-31 Crowe Hansen Per Optical pointing apparatus
JPH06176131A (en) * 1992-12-03 1994-06-24 Namco Ltd Picture synthesis device and virtual reality device using the same
JPH086708A (en) * 1994-04-22 1996-01-12 Canon Inc Display device
JPH08167047A (en) * 1994-12-13 1996-06-25 Toshiba Corp 3D image display device
JPH08336128A (en) * 1995-04-05 1996-12-17 Matsushita Electric Ind Co Ltd Video viewing device
JPH0924160A (en) * 1996-07-11 1997-01-28 Sega Enterp Ltd Electronic play equipment
JPH09200803A (en) * 1996-01-23 1997-07-31 Canon Inc Image processing apparatus and image processing method
JPH09211375A (en) * 1996-01-31 1997-08-15 Nikon Corp Head mounted display device
JPH09218770A (en) * 1996-02-14 1997-08-19 Toshiba Corp Dialogue processing apparatus and dialogue processing method
JPH1027264A (en) * 1996-07-09 1998-01-27 Canon Inc Image processing apparatus and image processing method

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6250850B2 (en) * 1983-02-21 1987-10-27 Nippon Electric Co
JPH021897A (en) * 1988-06-13 1990-01-08 Hitachi Ltd 3D image display device, copy-uta graphics system and audiovisual system
JPH03176718A (en) * 1989-11-24 1991-07-31 Crowe Hansen Per Optical pointing apparatus
JPH06176131A (en) * 1992-12-03 1994-06-24 Namco Ltd Picture synthesis device and virtual reality device using the same
JPH086708A (en) * 1994-04-22 1996-01-12 Canon Inc Display device
JPH08167047A (en) * 1994-12-13 1996-06-25 Toshiba Corp 3D image display device
JPH08336128A (en) * 1995-04-05 1996-12-17 Matsushita Electric Ind Co Ltd Video viewing device
JPH09200803A (en) * 1996-01-23 1997-07-31 Canon Inc Image processing apparatus and image processing method
JPH09211375A (en) * 1996-01-31 1997-08-15 Nikon Corp Head mounted display device
JPH09218770A (en) * 1996-02-14 1997-08-19 Toshiba Corp Dialogue processing apparatus and dialogue processing method
JPH1027264A (en) * 1996-07-09 1998-01-27 Canon Inc Image processing apparatus and image processing method
JPH0924160A (en) * 1996-07-11 1997-01-28 Sega Enterp Ltd Electronic play equipment

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7062297B2 (en) 2000-07-21 2006-06-13 Telefonaktiebolaget L M Ericsson (Publ) Method and system for accessing a network using voice recognition
WO2002054309A1 (en) * 2000-12-28 2002-07-11 Atsushi Takahashi Remote internet technical guidance/education distribution system using practitioner's vision, and guidance system using communication network
JP2002207832A (en) * 2000-12-28 2002-07-26 Atsushi Takahashi Distribution system of internet technology instruction education, and instruction system using communication network
CN100432982C (en) * 2000-12-28 2008-11-12 高桥淳 Remote internet technical guidance/education distribution system using practitioner's vision, and guidance system using communication network
JP2005237017A (en) * 2005-03-07 2005-09-02 Toshiba Corp Communication recording system
US7418281B2 (en) 2005-09-13 2008-08-26 International Business Machines Corporation Centralized voice recognition unit for wireless control of personal mobile electronic devices
JP2018163662A (en) * 2018-04-16 2018-10-18 株式会社東芝 Electronic apparatus, support system, and support method

Also Published As

Publication number Publication date
JP3829005B2 (en) 2006-10-04

Similar Documents

Publication Publication Date Title
US20190240842A1 (en) Robot assisted interaction system and method thereof
US7780450B2 (en) Video instructional system and method for teaching motor skills
US6881067B2 (en) Video instructional system and method for teaching motor skills
WO2020179128A1 (en) Learning assist system, learning assist device, and program
CN103377568B (en) Multifunctional child somatic sensation educating system
WO2017130486A1 (en) Information processing device, information processing method, and program
GB2314648A (en) Computer-aided CPR
JP7082384B1 (en) Learning system and learning method
JP7066115B2 (en) Public speaking support device and program
WO2022188022A1 (en) Hearing-based perception system and method for using same
Aslan et al. PiHearts: Resonating Experiences of Self and Others Enabled by a Tangible Somaesthetic Design
JP2011152333A (en) Body skill learning support device and body skill learning support method
WO2022091832A1 (en) Information processing device, information processing system, information processing method, and information processing terminal
CN109119057A (en) Music creation method and device, storage medium and wearable device
WO2018135057A1 (en) Information processing device, information processing method, and program
CN111641861A (en) Video playing method and electronic equipment
WO2024145501A1 (en) Systems and methods to interactively control delivery of serial content using a handheld device
US12346994B2 (en) Method and system for virtual intelligence user interaction
JP3829005B2 (en) Virtual environment presentation device
CN215875885U (en) An immersive anti-stress psychological training system based on VR technology
KR102122021B1 (en) Apparatus and method for enhancement of cognition using Virtual Reality
US20240282218A1 (en) A portable assistive device for challenged individuals
KR20190084936A (en) Coaching system for users participating in virtual reality contents
CN212411589U (en) Operation auxiliary helmet based on mixed reality
Harris Inside-out instrument

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050315

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050516

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060404

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060605

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060710

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090714

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100714

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100714

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110714

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120714

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120714

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130714

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees
点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载