+

JP2023047853A - Information processing device, information processing system, and program - Google Patents

Information processing device, information processing system, and program Download PDF

Info

Publication number
JP2023047853A
JP2023047853A JP2021157001A JP2021157001A JP2023047853A JP 2023047853 A JP2023047853 A JP 2023047853A JP 2021157001 A JP2021157001 A JP 2021157001A JP 2021157001 A JP2021157001 A JP 2021157001A JP 2023047853 A JP2023047853 A JP 2023047853A
Authority
JP
Japan
Prior art keywords
input device
input
information
contact
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021157001A
Other languages
Japanese (ja)
Inventor
賢司 鈴木
Kenji Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Business Innovation Corp filed Critical Fujifilm Business Innovation Corp
Priority to JP2021157001A priority Critical patent/JP2023047853A/en
Priority to US17/666,472 priority patent/US20230095811A1/en
Priority to CN202210282508.XA priority patent/CN115877946A/en
Publication of JP2023047853A publication Critical patent/JP2023047853A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】表示装置を介して視認可能になったオブジェクトに対する入力操作の操作性を、ジェスチャによる入力操作を行う場合よりも向上させる。【解決手段】情報処理装置としてのHMD30は、制御部31を備え、制御部31では、表示制御部101が、情報の入力操作を受付可能とするオブジェクトおよび入力装置を、表示装置を介して視認可能にする制御を行い、接触検知部107が、表示装置を介して視認可能になったオブジェクトおよび入力装置の各々の位置に関する情報に基づいて、オブジェクトと入力装置との接触を検知する。すると、入力情報受付部108が、入力装置に入力された情報を、オブジェクトに入力された情報として受け付ける。【選択図】図3An object of the present invention is to improve the operability of an input operation on an object that has become visible through a display device, as compared with the case of performing an input operation using gestures. An HMD (30) as an information processing device includes a control unit (31), in which a display control unit (101) visually recognizes an object and an input device capable of accepting an information input operation through a display device. The contact detection unit 107 detects contact between the object and the input device based on the information regarding the positions of the object and the input device that are visible through the display device. Then, the input information receiving unit 108 receives the information input to the input device as the information input to the object. [Selection drawing] Fig. 3

Description

本発明は、情報処理装置、情報処理システム、およびプログラムに関する。 The present invention relates to an information processing device, an information processing system, and a program.

例えばHMD(ヘッドマウントディスプレイ)等の表示装置に表示されたオブジェクトをジェスチャによって操作するAR(拡張現実)やVR(仮想現実)の技術は、直感的な操作で3Dモデルの閲覧等を行える点でメリットがある。例えば、特許文献1には、HMDを装着しているユーザが、ジェスチャによってスマートフォンを1以上の仮想オブジェクトの各々に重ねながらタップやピンチ等の入力操作を行えるようにする技術が開示されている。 For example, AR (augmented reality) and VR (virtual reality) technologies, which operate objects displayed on a display device such as HMD (head-mounted display) with gestures, are capable of viewing 3D models with intuitive operations. There are merits. For example, Patent Literature 1 discloses a technology that allows a user wearing an HMD to perform input operations such as tapping and pinching while overlapping a smartphone with one or more virtual objects by gestures.

特許第6346585号公報Japanese Patent No. 6346585

しかしながら、HMDに表示されたオブジェクトへの入力操作をジェスチャによって行う場合、パーソナルコンピュータ、スマートフォン、タブレット等の汎用デバイスに入力する場合よりも操作が難しいと感じるユーザが多い。 However, when performing an input operation on an object displayed on the HMD by gestures, many users feel that the operation is more difficult than when inputting on a general-purpose device such as a personal computer, a smartphone, or a tablet.

本発明の目的は、表示装置を介して視認可能になったオブジェクトに対する入力操作の操作性を、ジェスチャによる入力操作を行う場合よりも向上させることにある。 An object of the present invention is to improve the operability of an input operation on an object that has become visible through a display device, as compared with the case of performing an input operation using gestures.

請求項1に記載された発明は、プロセッサを備え、前記プロセッサは、情報の入力操作を受付可能とするオブジェクトおよび入力装置を、表示装置を介して視認可能にする制御を行い、前記表示装置を介して視認可能になった前記オブジェクトおよび前記入力装置の各々の位置に関する情報に基づいて、当該オブジェクトと当該入力装置との接触を検知し、前記接触を検知すると、前記入力装置に入力された情報を、前記オブジェクトに入力された情報として受け付けることを特徴とする、情報処理装置である。
請求項2に記載された発明は、前記プロセッサは、現実空間に存在する前記入力装置を、前記表示装置を介して視認可能にする制御を行うことを特徴とする、請求項1に記載の情報処理装置である。
請求項3に記載された発明は、前記プロセッサは、前記現実空間に存在する前記入力装置のうち、ユーザの入力操作の対象となるものを特定して前記表示装置を介して視認可能にする制御を行うことを特徴とする、請求項2に記載の情報処理装置である。
請求項4に記載された発明は、前記プロセッサは、前記入力装置から提供されるデータ、当該入力装置を撮像した画像データ、および当該入力装置を対象とするセンシングデータのうち、いずれか1以上のデータから推定される当該入力装置の挙動に基づいて、前記ユーザの入力操作の対象となる前記入力装置を特定して前記表示装置を介して視認可能にする制御を行うことを特徴とする、請求項3に記載の情報処理装置である。
請求項5に記載された発明は、前記プロセッサは、前記入力装置の慣性計測データ(IMUデータ)と、三次元挙動データとの突合結果から推定される当該入力装置の挙動に基づいて、前記ユーザの入力操作の対象となる前記入力装置を特定して前記表示装置を介して視認可能にする制御を行うことを特徴とする、請求項4に記載の情報処理装置である。
請求項6に記載された発明は、前記プロセッサは、ユーザに装着された前記表示装置を介して、前記入力装置を視認可能にする制御を行うことを特徴とする、請求項1に記載の情報処理装置である。
請求項7に記載された発明は、前記プロセッサは、前記ユーザの頭部に装着された前記表示装置としてのヘッドマウントディスプレイを介して、前記入力装置を視認可能にする制御を行うことを特徴とする、請求項6に記載の情報処理装置である。
請求項8に記載された発明は、前記プロセッサは、テキスト情報、音声情報、および画像情報のうちいずれか1種類以上の情報の前記入力操作を受付可能とする前記オブジェクトおよび前記入力装置を、前記表示装置を介して視認可能にする制御を行うことを特徴とする、請求項1に記載の情報処理装置である。
請求項9に記載された発明は、前記プロセッサは、前記1種類以上の情報の前記入力操作を受付可能とする前記オブジェクトおよび前記入力装置を、前記表示装置を介して視認可能にする制御として、当該入力装置への当該入力操作を支援する他のオブジェクトをさらに視認可能にする制御を行うことを特徴とする、請求項8に記載の情報処理装置である。
請求項10に記載された発明は、前記プロセッサは、前記入力装置の近傍に、または当該入力装置の少なくとも一部に重畳するように、前記他のオブジェクトを視認可能にする制御を行うことを特徴とする、請求項9に記載の情報処理装置である。
請求項11に記載された発明は、前記プロセッサは、前記位置に関する情報として、前記表示装置を介して視認可能になった前記オブジェクトおよび前記入力装置の各々の外縁を示す情報に基づいて、当該オブジェクトと当該入力装置との接触を検知することを特徴とする、請求項1に記載の情報処理装置である。
請求項12に記載された発明は、前記プロセッサは、前記オブジェクトおよび前記入力装置の各々の前記外縁を示す情報から特定される、前記外縁を囲む仮想領域の外縁同士の接触を、当該オブジェクトと当該入力装置との接触として検知することを特徴とする、請求項11に記載の情報処理装置である。
請求項13に記載された発明は、前記仮想領域の外縁は、前記オブジェクトおよび前記入力装置の各々の外縁から外側に向かう距離の値として予め定められた値に基づいて特定されることを特徴とする、請求項12に記載の情報処理装置である。
請求項14に記載された発明は、前記プロセッサは、検知した前記接触が、ユーザの意図的な操作に基づくものである場合に、前記入力装置に入力された情報を前記オブジェクトに入力された情報として受け付けることを特徴とする、請求項1に記載の情報処理装置である。
請求項15に記載された発明は、前記プロセッサは、検知した前記接触が、前記ユーザのジェスチャによる、前記オブジェクトを移動させて前記入力装置に接触させる操作、または前記入力装置を移動させて前記オブジェクトに接触させる操作によるものである場合には、当該ユーザの意図的な操作に基づくものとして、当該入力装置に入力された情報を当該オブジェクトに入力された情報として受け付けることを特徴とする、請求項14に記載の情報処理装置である。
請求項16に記載された発明は、前記プロセッサは、前記接触のタイミングにおいて、前記ユーザの視線が、前記オブジェクトと前記入力装置との接触点、またはその近傍にある場合には、当該ユーザによる意図的な操作に基づくものとして、当該入力装置に入力された情報を、当該オブジェクトに入力された情報として受け付けることを特徴とする、請求項14に記載の情報処理装置である。
請求項17に記載された発明は、前記プロセッサは、前記オブジェクトの種類と前記入力装置の機能との組み合わせに基づいて特定される前記入力操作を行うための入力機能により当該入力装置に入力された情報を、当該オブジェクトに入力された情報として受け付けることを特徴とする、請求項1に記載の情報処理装置である。
請求項18に記載された発明は、前記プロセッサは、前記入力装置から提供されるデータ、当該入力装置を撮像した画像データ、および当該入力装置を対象とするセンシングデータのうちいずれか1以上のデータに基づいて、前記入力装置の機能を特定することを特徴とする、請求項17に記載の情報処理装置である。
請求項19に記載された発明は、前記プロセッサは、データベースに記憶されている前記組み合わせにより特定される前記入力機能にて前記入力装置に入力された情報を、前記オブジェクトに入力された情報として受け付けることを特徴とする、請求項17に記載の情報処理装置である。
請求項20に記載された発明は、前記プロセッサは、前記オブジェクトおよび前記入力装置の各々の前記位置に関する情報に基づいて、接触した状態にある当該オブジェクトと当該入力装置との離隔をさらに検知し、前記離隔を検知すると、前記入力装置に情報が入力されたとしても、当該情報を前記オブジェクトに入力された情報として受け付けないことを特徴とする、請求項1に記載の情報処理装置である。
請求項21に記載された発明は、前記プロセッサは、検知した前記離隔が、ユーザによる意図的な操作に基づくものである場合に、前記入力装置に情報が入力されたとしても、当該情報を前記オブジェクトに入力された情報として受け付けないことを特徴とする、請求項20に記載の情報処理装置である。
請求項22に記載された発明は、前記プロセッサは、前記オブジェクトと、前記入力装置との間で連携先の候補の登録が完了している場合に、前記接触を検知することを特徴とする、請求項1に記載の情報処理装置である。
請求項23に記載された発明は、前記プロセッサは、前記オブジェクトと、予め定められた前記入力装置、または予め定められた接続用のアプリケーションソフトウェアがインストールされた前記入力装置との間で連携先の候補の登録が完了している場合に、前記接触を検知することを特徴とする、請求項22に記載の情報処理装置である。
請求項24に記載された発明は、情報の入力操作を受付可能とするオブジェクトおよび入力装置を、表示装置を介して視認可能にする制御を行う表示制御手段と、前記表示装置を介して視認可能になった前記オブジェクトおよび前記入力装置の各々の位置に関する情報に基づいて、当該オブジェクトと当該入力装置との接触を検知する検知手段と、前記接触を検知すると、前記入力装置に入力された情報を、前記オブジェクトに入力された情報として受け付ける受付手段と、を有することを特徴とする情報処理システムである。
請求項25に記載された発明は、情報の入力操作を受付可能とするオブジェクトおよび入力装置を、表示装置を介して視認可能にする制御を行う機能と、前記表示装置を介して視認可能になった前記オブジェクトおよび前記入力装置の各々の位置に関する情報に基づいて、当該オブジェクトと当該入力装置との接触を検知する機能と、前記接触を検知すると、前記入力装置に入力された情報を、前記オブジェクトに入力された情報として受け付ける機能と、を実現させるためのプログラムである。
The invention described in claim 1 comprises a processor, the processor performs control to make an object and an input device capable of receiving information input operations visible through a display device, and the display device contact between the object and the input device is detected based on information about the positions of the object and the input device that have become visible through the input device, and information input to the input device when the contact is detected is accepted as information input to the object.
In the invention recited in claim 2, the processor performs control to make the input device existing in the physical space visible through the display device. processing equipment.
In the invention recited in claim 3, the processor specifies, among the input devices existing in the physical space, one to be subjected to an input operation by a user, and performs control to make it visible through the display device. 3. The information processing apparatus according to claim 2, characterized by:
According to the fourth aspect of the present invention, the processor is configured to store any one or more of data provided from the input device, image data obtained by imaging the input device, and sensing data targeted for the input device. Based on the behavior of the input device estimated from the data, the input device to be the target of the user's input operation is specified, and control is performed to make it visible through the display device. Item 3. An information processing apparatus according to item 3.
According to the invention recited in claim 5, the processor determines the user's behavior based on the behavior of the input device estimated from the matching result of the inertial measurement data (IMU data) of the input device and the three-dimensional behavior data. 5. The information processing apparatus according to claim 4, wherein the input device to be subjected to the input operation is specified and controlled to be visible through the display device.
The invention recited in claim 6 is characterized in that the processor performs control to make the input device visible through the display device worn by the user. processing equipment.
The invention recited in claim 7 is characterized in that the processor performs control to make the input device visible via a head-mounted display as the display device worn on the user's head. The information processing apparatus according to claim 6, wherein
According to the eighth aspect of the invention, the processor controls the object and the input device capable of receiving the input operation of information of one or more of text information, voice information, and image information. 2. The information processing apparatus according to claim 1, wherein control is performed to enable visual recognition via a display device.
In the invention recited in claim 9, the processor controls to make the object and the input device capable of accepting the input operation of the one or more types of information visible through the display device, 9. The information processing apparatus according to claim 8, wherein control is performed to further make visible another object that supports the input operation to the input device.
The invention according to claim 10 is characterized in that the processor performs control to make the other object visible so as to be in the vicinity of the input device or superimposed on at least a part of the input device. The information processing apparatus according to claim 9, wherein
According to the invention recited in claim 11, the processor, as the information about the position, based on information indicating outer edges of each of the object and the input device made visible through the display device, 2. The information processing apparatus according to claim 1, wherein contact between the and the input device is detected.
According to a twelfth aspect of the invention, the processor detects contact between outer edges of a virtual area surrounding the outer edge specified from information indicating the outer edge of each of the object and the input device. 12. The information processing apparatus according to claim 11, wherein the information processing apparatus detects contact with an input device.
A thirteenth aspect of the invention is characterized in that the outer edge of the virtual area is specified based on a predetermined value as a value of the distance outward from the outer edge of each of the object and the input device. 13. The information processing apparatus according to claim 12.
According to the fourteenth aspect of the invention, when the detected contact is based on a user's intentional operation, the processor converts information input to the input device into information input to the object. 2. The information processing apparatus according to claim 1, wherein the information processing apparatus receives as
The invention according to claim 15, wherein the detected contact is an operation of moving the object to touch the input device or moving the input device to touch the object by a gesture of the user. If the input is based on the user's intentional operation, the information input to the input device is accepted as the information input to the object. 14. The information processing apparatus according to 14.
According to the sixteenth aspect of the invention, when the line of sight of the user is at or near the point of contact between the object and the input device at the timing of the contact, the processor detects the user's intent. 15. The information processing apparatus according to claim 14, wherein the information input to the input device is accepted as the information input to the object based on a physical operation.
According to the seventeenth aspect of the invention, the processor performs an input function for performing the input operation specified based on the combination of the type of the object and the function of the input device. 2. The information processing apparatus according to claim 1, wherein the information is received as information input to the object.
According to the eighteenth aspect of the present invention, the processor is configured to store at least one of data provided from the input device, image data obtained by imaging the input device, and sensing data targeted for the input device. 18. The information processing apparatus according to claim 17, wherein the function of the input device is specified based on.
In the invention recited in claim 19, the processor receives information input to the input device by the input function specified by the combination stored in the database as information input to the object. 18. The information processing apparatus according to claim 17, characterized by:
According to the invention recited in claim 20, the processor further detects a distance between the object in contact with the input device based on the information regarding the positions of the object and the input device, and 2. The information processing apparatus according to claim 1, wherein when the distance is detected, even if information is input to the input device, the information is not accepted as information input to the object.
In the invention recited in claim 21, the processor, when the detected distance is based on an intentional operation by the user, even if information is input to the input device, the information is input to the input device. 21. The information processing apparatus according to claim 20, wherein the information input to the object is not accepted.
The invention recited in claim 22 is characterized in that the processor detects the contact when registration of cooperation destination candidates has been completed between the object and the input device. An information processing apparatus according to claim 1 .
According to the twenty-third aspect of the invention, the processor is configured to link between the object and the predetermined input device or the input device in which predetermined application software for connection is installed. 23. The information processing apparatus according to claim 22, wherein said contact is detected when registration of candidates has been completed.
The invention described in claim 24 comprises: display control means for controlling an object and an input device capable of receiving an information input operation to be visible through a display device; detection means for detecting contact between the object and the input device based on information on the respective positions of the object and the input device, and detecting information input to the input device when the contact is detected; and receiving means for receiving information input to the object.
The invention described in claim 25 has a function of controlling an object and an input device capable of receiving an information input operation to be visible through a display device, and a function of detecting contact between the object and the input device based on information about the respective positions of the object and the input device; It is a program for realizing the function of accepting as information input to

請求項1の本発明によれば、入力装置への入力操作がそのままオブジェクトへの入力操作として連携されるので、表示装置を介して視認可能となったオブジェクトに対する入力操作の操作性を、ジェスチャによる入力操作を行う場合によりも向上させることができる。
請求項2の本発明によれば、現実空間に存在する入力装置を、表示装置を介して視認可能にして、その入力装置に対する入力操作を、オブジェクトに対する入力操作とすることが可能となる。
請求項3の本発明によれば、現実空間にてユーザの入力操作の対象となる入力装置を、表示装置を介して視認可能にして、その入力装置に対するユーザの入力操作を、オブジェクトに対する入力操作とすることが可能となる。
請求項4の本発明によれば、現実空間にてユーザの入力操作の対象となる入力装置であるかどうかを、入力装置の挙動に基づいて特定することが可能となる。
請求項5の本発明によれば、現実空間にてユーザの入力操作の対象となる入力装置であるかどうかを、入力装置の慣性計測データ(IMUデータ)と、三次元の挙動データとの突合結果に基づいて推定することが可能となる。
請求項6の本発明によれば、ユーザに装着された表示装置を介してオブジェクトおよび入力装置を視認可能にし、入力装置に対するユーザの入力操作をオブジェクトに対する入力操作とすることが可能となる。
請求項7の本発明によれば、ユーザの頭部に装着されたヘッドマウントディスプレイを介して入力装置を視認可能にして、その入力装置に対するユーザの入力操作を、オブジェクトに対する入力操作とすることが可能となる。
請求項8の本発明によれば、表示装置を介して視認可能になった入力装置に対する、テキスト情報、音声情報、および画像情報のうちいずれか1種類以上の情報の入力操作を、オブジェクトに対する入力操作とすることが可能となる。
請求項9の本発明によれば、表示装置を介して視認可能になった入力装置に対する入力操作の操作性を向上させることが可能となる。
請求項10の本発明によれば、表示装置を介して視認可能になった入力装置への入力操作の操作性を向上させることができる。
請求項11の本発明によれば、表示装置を介して視認可能になったオブジェクトおよび入力装置の各々の外縁を示す情報から、オブジェクトと入力装置との接触の有無の検知が可能となる。
請求項12の本発明によれば、表示装置を介して視認可能になったオブジェクトおよび入力装置の各々の外縁同士が完全に接触するよりも前に接触が検知されるという接触判定の緩和により、ユーザの操作性が向上する。
請求項13の本発明によれば、接触判定の緩和の度合いを任意に設定することが可能になるので、ユーザの操作性がさらに向上する。
請求項14の本発明によれば、ユーザの意図せぬ接触による意図せぬ動作の発生を防ぐことができる。
請求項15の本発明によれば、オブジェクトを移動させて入力装置に接触させる操作、または入力装置を移動させてオブジェクトに接触させるジェスチャを、ユーザによる意図的な操作とすることで、ユーザの意図せぬ接触による意図せぬ動作の発生を防ぐことができる。
請求項16の本発明によれば、接触時におけるユーザの視線に関する情報からユーザの意図を推定することができるので、意図せぬ接触による意図せぬ動作を防ぐことが可能となる。
請求項17の本発明によれば、オブジェクトの種類と入力装置の機能との組み合わせで特定される入力機能による入力操作が可能となる。
請求項18の本発明によれば、入力装置から提供されるデータ、入力装置を撮像した画像データ、および入力装置を対象とするセンシングデータのいずれかから、入力装置の入力機能を特定することが可能となる。
請求項19の本発明によれば、データベースに記憶されているオブジェクトの種類と入力装置の機能との組み合わせから入力機能の特定が可能となるので、様々な組み合わせに対応することが可能となる。
請求項20の本発明によれば、ユーザは、接触した状態にあるオブジェクトと入力装置とを離隔させる操作を行うことで、オブジェクトと入力装置との入力操作の連携を解除することができる。
請求項21の本発明によれば、ユーザの意図せぬ離隔に伴う意図せぬ動作の発生を防ぐことができる。
請求項22の本発明によれば、オブジェクトと入力装置との間で連携先の候補の登録が事前に完了していることを条件とすることで、意図せぬ入力装置への接続を未然に防ぐことができる。
請求項23の本発明によれば、オブジェクトと、予め定められた入力装置、または予め定められた接続用のアプリケーションソフトウェアがインストールされた入力装置との間で連携先の候補の登録が事前に完了していることを条件とすることで、意図せぬ入力装置への接続を未然に防ぐことができる。
請求項24の本発明によれば、表示装置を介して視認可能となったオブジェクトに対する入力操作の操作性を、ジェスチャによる入力操作を行う場合によりも向上させる情報処理システムを提供することができる。
請求項25の本発明によれば、表示装置を介して視認可能となったオブジェクトに対する入力操作の操作性を、ジェスチャによる入力操作を行う場合によりも向上させるプログラムを提供することができる。
According to the first aspect of the present invention, an input operation to the input device is directly linked as an input operation to the object. It can be improved more than when performing an input operation.
According to the second aspect of the present invention, an input device existing in the physical space can be made visible through a display device, and an input operation to the input device can be used as an input operation to an object.
According to the third aspect of the present invention, an input device, which is the target of a user's input operation in the real space, is made visible through a display device, and a user's input operation to the input device is performed as an input operation to an object. It becomes possible to
According to the fourth aspect of the present invention, it is possible to identify whether or not the input device is the target of the user's input operation in the real space based on the behavior of the input device.
According to the fifth aspect of the present invention, inertial measurement data (IMU data) of the input device and three-dimensional behavior data are matched to determine whether or not the input device is the target of the user's input operation in the real space. It becomes possible to estimate based on the results.
According to the sixth aspect of the present invention, the object and the input device can be visually recognized through the display device worn by the user, and the user's input operation on the input device can be used as the input operation on the object.
According to the seventh aspect of the present invention, the input device can be made visible through a head-mounted display worn on the user's head, and the user's input operation to the input device can be used as the input operation to the object. It becomes possible.
According to the eighth aspect of the present invention, the input operation of any one or more of text information, voice information, and image information to the input device made visible through the display device is performed on the object. It is possible to operate.
According to the ninth aspect of the present invention, it is possible to improve the operability of the input operation to the input device that is visible through the display device.
According to the tenth aspect of the present invention, it is possible to improve the operability of the input operation to the input device that is visible through the display device.
According to the eleventh aspect of the present invention, it is possible to detect the presence or absence of contact between the object and the input device from the information indicating the respective outer edges of the object and the input device that are visible through the display device.
According to the present invention of claim 12, by easing the contact determination that the contact is detected before the outer edges of the object and the input device that have become visible through the display device are completely in contact with each other, User operability is improved.
According to the thirteenth aspect of the present invention, it is possible to arbitrarily set the degree of easing the contact determination, so that the user's operability is further improved.
According to the fourteenth aspect of the present invention, it is possible to prevent the occurrence of unintended actions due to unintended contact by the user.
According to the fifteenth aspect of the present invention, an operation of moving an object to touch an input device or a gesture of moving an input device to touch an object is defined as an intentional operation by the user, so that the user's intention is It is possible to prevent the occurrence of unintended operations due to unintentional contact.
According to the sixteenth aspect of the present invention, since the user's intention can be estimated from the information regarding the user's line of sight at the time of contact, it is possible to prevent unintended actions due to unintended contact.
According to the seventeenth aspect of the present invention, it is possible to perform an input operation using an input function specified by a combination of the type of object and the function of the input device.
According to the eighteenth aspect of the present invention, the input function of the input device can be specified from any one of data provided from the input device, image data obtained by imaging the input device, and sensing data for the input device. It becomes possible.
According to the nineteenth aspect of the present invention, the input function can be identified from the combination of the type of object stored in the database and the function of the input device, so various combinations can be handled.
According to the twentieth aspect of the present invention, the user can release the cooperation of the input operations between the object and the input device by performing the operation of separating the object and the input device that are in contact with each other.
According to the twenty-first aspect of the present invention, it is possible to prevent the occurrence of an unintended operation due to an unintended separation of the user.
According to the twenty-second aspect of the present invention, it is possible to prevent unintended connection to an input device by making it a condition that the registration of the candidate for the cooperation destination between the object and the input device is completed in advance. can be prevented.
According to the twenty-third aspect of the present invention, the registration of the candidate for the cooperation destination is completed in advance between the object and the predetermined input device or the input device in which the predetermined application software for connection is installed. Unintended connection to an input device can be prevented.
According to the twenty-fourth aspect of the present invention, it is possible to provide an information processing system that improves the operability of an input operation on an object that has become visible through a display device, compared to the case of performing an input operation using gestures.
According to the twenty-fifth aspect of the present invention, it is possible to provide a program that improves the operability of an input operation on an object that has become visible through a display device, compared to the case of performing an input operation using gestures.

本実施の形態が適用される情報処理システムの全体の構成を示す図である。It is a figure showing composition of the whole information processing system to which this embodiment is applied. HMDのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of HMD. HMDの制御部の機能構成を示す図である。It is a figure which shows the functional structure of the control part of HMD. ペアリングの処理の流れを示すフローチャートである。4 is a flow chart showing the flow of pairing processing. HMDの処理の流れを示すフローチャートである。4 is a flow chart showing the flow of HMD processing. ユーザがHMDを介して視認可能となったオブジェクトおよび入力装置の具体例のうち、オブジェクトが、テキスト入力を受付可能とする電子文書であり、入力装置がタブレット端末である場合の例を示す図である。FIG. 10 is a diagram showing an example of a case where the object is an electronic document capable of accepting text input, and the input device is a tablet terminal, among specific examples of the object and the input device that are visible to the user via the HMD; be. ユーザがHMDを介して視認可能となったオブジェクトおよび入力装置の具体例のうち、オブジェクトが、PDF(Portable Document Format)文書であり、入力装置が、表示機能を有しないペンタブレットである場合の例を示す図である。Among specific examples of objects and input devices that can be visually recognized by the user through the HMD, an example in which the object is a PDF (Portable Document Format) document and the input device is a pen tablet that does not have a display function. It is a figure which shows. ユーザがHMDを介して視認可能となったオブジェクトおよび入力装置の具体例のうち、オブジェクトが、スタイラスによる描画のための入力操作を受付可能とし、かつ、他のユーザとの共有が可能なオブジェクトであり、入力装置がタブレット端末である場合の例を示す図である。Among specific examples of objects and input devices that can be visually recognized by the user through the HMD, the objects are objects that can accept input operations for drawing with a stylus and can be shared with other users. It is a figure which shows the example in case an input device is a tablet terminal. ユーザがHMDを介して視認可能となったオブジェクトおよび入力装置の具体例のうち、オブジェクトがソフトウェアキーボードであり、入力装置がタブレット端末である場合の例を示す図である。FIG. 10 is a diagram showing an example in which the object is a software keyboard and the input device is a tablet terminal among specific examples of the object and the input device that are visible to the user via the HMD; ユーザがHMDを介して視認可能となったオブジェクトおよび入力装置の具体例のうち、オブジェクトが、三次元モデル設計ソフトウェアによる編集のための入力を受付可能とする三次元モデルであり、入力装置がノートタイプのパーソナルコンピュータである場合の例を示す図である。Among specific examples of objects and input devices that can be visually recognized by the user through the HMD, the object is a three-dimensional model that can receive input for editing by three-dimensional model design software, and the input device is a notebook. 1 is a diagram showing an example in the case of a personal computer of the type; FIG. ユーザがHMDを介して視認可能となったオブジェクトおよび入力装置の具体例のうち、オブジェクトが、テキスト入力を受付可能とする吹き出しであり、入力装置がタブレット端末である場合の例を示す図である。FIG. 10 is a diagram showing a specific example of an object and an input device that can be visually recognized by the user via the HMD, in which the object is a speech balloon that can accept text input, and the input device is a tablet terminal; .

以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
(情報処理システムの構成)
図1は、本実施の形態が適用される情報処理システム1の全体の構成を示す図である。
情報処理システム1は、情報処理機能を有するHMD(ヘッドマウントディスプレイ)30と、入力装置50とがネットワーク90、または赤外線通信、可視光通信、近接無線通信、ブルートゥース(登録商標)、RFID(登録商標)、UWB(Ultra Wide Band)等の通信方式により接続されることにより構成されている。ネットワーク90は、例えば、LAN(Local Area Network)、インターネット等である。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
(Configuration of information processing system)
FIG. 1 is a diagram showing the overall configuration of an information processing system 1 to which this embodiment is applied.
The information processing system 1 includes an HMD (head mounted display) 30 having an information processing function and an input device 50 connected to a network 90, infrared communication, visible light communication, proximity wireless communication, Bluetooth (registered trademark), RFID (registered trademark). ) and UWB (Ultra Wide Band). The network 90 is, for example, a LAN (Local Area Network), the Internet, or the like.

HMD30は、オブジェクトを表示する制御と、現実空間に存在する入力装置50を、ユーザUが視認可能になるようにする制御とを行う。また、HMD30は、表示したオブジェクトと、視認可能になった入力装置50との接触を検知する。そして、HMD30は、オブジェクトと入力装置50との接触が、ユーザUの意図的な操作に基づくものである場合には、オブジェクトと入力装置50とを連携させ、その後、入力装置50に入力された情報を、オブジェクトに入力された情報として受け付ける。 The HMD 30 performs control to display an object and control to allow the user U to visually recognize the input device 50 existing in the physical space. The HMD 30 also detects contact between the displayed object and the input device 50 that has become visible. Then, when the contact between the object and the input device 50 is based on the intentional operation of the user U, the HMD 30 causes the object and the input device 50 to cooperate, and then the input to the input device 50 Accept the information as entered into the object.

HMD30は、画像情報を表示するディスプレイを有する頭部装着型の情報処理装置である。HMD30には、透過型のものと非透過型のものがある。透過型のHMD30は、オブジェクトをディスプレイに表示し、現実空間に存在する入力装置50を、ディスプレイを介して視認可能にする。非透過型のHMD30は、オブジェクトおよび入力装置50をリアルタイムでディスプレイに表示する。 The HMD 30 is a head-mounted information processing device having a display for displaying image information. The HMD 30 includes a transmissive type and a non-transmissive type. The transmissive HMD 30 displays an object on the display and makes the input device 50 existing in the real space visible through the display. The non-transmissive HMD 30 displays the object and the input device 50 on the display in real time.

透過型のHMD30を装着したユーザUは、HMD30に表示されたオブジェクトと、現実空間に存在する入力装置50とを、HMD30を介して同時に視認することができる。また、非透過型のHMD30を装着したユーザUは、HMD30に表示されたオブジェクトおよび入力装置50を同時に視認することができる。なお、本実施の形態では、透過型のHMD30が採用されている。HMD30に表示されるオブジェクトとしては、例えば、ドキュメントデータ、ホワイトボード、仮想キーボード、三次元モデル、画像、動画、音声ファイル等が挙げられる。 The user U wearing the transmissive HMD 30 can simultaneously view the object displayed on the HMD 30 and the input device 50 existing in the real space through the HMD 30 . Also, the user U wearing the non-transmissive HMD 30 can visually recognize the object displayed on the HMD 30 and the input device 50 at the same time. Note that, in the present embodiment, a transmissive HMD 30 is employed. Objects displayed on the HMD 30 include, for example, document data, whiteboards, virtual keyboards, three-dimensional models, images, moving images, audio files, and the like.

入力装置50は、ユーザUとともに現実空間に存在し、ユーザUの入力操作を受け付ける機能を有する情報処理装置である。入力装置50としては、例えば、スマートフォン、パーソナルコンピュータ(デスクトップタイプ、ノートタイプ)、タブレット端末のほか、いわゆるタッチセンサ、ペンタブレット、電子ペン、スマートペン等が挙げられる。 The input device 50 is an information processing device that exists in the physical space together with the user U and has a function of receiving the user's U input operation. Examples of the input device 50 include smartphones, personal computers (desktop type, notebook type), tablet terminals, so-called touch sensors, pen tablets, electronic pens, smart pens, and the like.

(HMDのハードウェア構成)
図2は、HMD30のハードウェア構成を示す図である。
HMD30は、制御部31と、メモリ32と、記憶部33と、通信部34と、表示部35と、センサ部36と、撮像部37とを有している。これらの各部は、データバス、アドレスバス、PCI(Peripheral Component Interconnect)バス等で接続されている。
(HMD hardware configuration)
FIG. 2 is a diagram showing the hardware configuration of the HMD 30. As shown in FIG.
The HMD 30 has a control section 31 , a memory 32 , a storage section 33 , a communication section 34 , a display section 35 , a sensor section 36 and an imaging section 37 . These units are connected by a data bus, an address bus, a PCI (Peripheral Component Interconnect) bus, or the like.

制御部31は、OS(基本ソフトウェア)やアプリケーションソフトウェア(応用ソフトウェア)等の各種ソフトウェアの実行を通じて自機の動作を制御するプロセッサである。制御部31は、例えばCPU(Central Processing Unit)で構成される。メモリ32は、各種ソフトウェアやその実行に用いるデータ等を記憶する記憶領域であり、演算に際して作業エリアとして用いられる。メモリ32は、例えばRAM(Random Access Memory)等で構成される。 The control unit 31 is a processor that controls its own operation through execution of various types of software such as an OS (basic software) and application software (applied software). The control unit 31 is configured by, for example, a CPU (Central Processing Unit). The memory 32 is a storage area for storing various software and data used for executing the software, and is used as a work area for calculation. The memory 32 is composed of, for example, a RAM (Random Access Memory) or the like.

記憶部33は、各種ソフトウェアに対する入力データや各種ソフトウェアからの出力データ等を記憶する記憶領域であり、各種情報を記憶するデータベースが格納されている。記憶部33は、例えばプログラムや各種設定データなどの記憶に用いられるHDD(Hard Disk Drive)やSSD(Solid State Drive)、半導体メモリ等で構成される。通信部34は、ネットワーク90を介して、または赤外線通信等の通信方式によるデータの送受信を行う。通信部34は、入力装置50、および外部との間でデータの送受信を行う。 The storage unit 33 is a storage area for storing input data to various software, output data from various software, and the like, and stores a database for storing various information. The storage unit 33 is configured by an HDD (Hard Disk Drive), an SSD (Solid State Drive), a semiconductor memory, or the like used for storing programs and various setting data, for example. The communication unit 34 transmits and receives data via the network 90 or by a communication method such as infrared communication. The communication unit 34 transmits and receives data between the input device 50 and the outside.

表示部35は、液晶ディスプレイや有機ELディスプレイにより画像をユーザに対して提示するものであり、通常のディスプレイと同様に非透過型のものとユーザがディスプレイを通して前方を視認できる透過型のものがある。通常、前者を仮想現実HMD(VR-HMD)、後者を拡張現実HMD(AR-HMD)もしくは混合現実HMD(MR-HMD)と呼ぶ。 The display unit 35 presents an image to the user by means of a liquid crystal display or an organic EL display, and like a normal display, there are a non-transmissive type and a transmissive type through which the user can see forward through the display. . The former is usually called a virtual reality HMD (VR-HMD), and the latter is usually called an augmented reality HMD (AR-HMD) or a mixed reality HMD (MR-HMD).

センサ部36は、LiDAR(Laser Imaging Detection and Ranging)センサ等の光センサ、加速度センサなど各種のセンサで構成される。撮像部37は、カメラ等で構成される。そして、これらの各部は、データバス、アドレスバス、PCIバス等で接続されている。 The sensor unit 36 includes various sensors such as an optical sensor such as a LiDAR (Laser Imaging Detection and Ranging) sensor and an acceleration sensor. The imaging unit 37 is configured with a camera or the like. These units are connected by a data bus, an address bus, a PCI bus, and the like.

(入力装置のハードウェア構成)
入力装置50のハードウェア構成は、入力装置50の種類により異なるが、例えば、入力装置50が、スマートフォン、パーソナルコンピュータ(デスクトップタイプ、ノートタイプ)、タブレット端末である場合には、図2に示すHMD30のハードウェア構成と同様に加え、操作部を有する。操作部は、例えばキーボード、マウス、機械式のボタン、スイッチで構成され、入力操作を受け付ける。操作部には、表示部と一体的にタッチパネルを構成するタッチセンサも含まれる。また、例えば、入力装置50が、いわゆるタッチセンサ、ペンタブレット、電子ペン、スマートペンなど画面を有しないものである場合には、図2に示すHMD30のハードウェア構成のうち、表示部35以外の構成と同様の構成を備えている。
(Hardware configuration of input device)
The hardware configuration of the input device 50 varies depending on the type of the input device 50. For example, when the input device 50 is a smartphone, a personal computer (desktop type, notebook type), or a tablet terminal, the HMD 30 shown in FIG. In addition to the hardware configuration of , it has an operation unit. The operation unit includes, for example, a keyboard, mouse, mechanical buttons and switches, and receives input operations. The operation unit also includes a touch sensor that configures a touch panel integrally with the display unit. Further, for example, when the input device 50 is a so-called touch sensor, a pen tablet, an electronic pen, a smart pen, or the like that does not have a screen, the hardware configuration of the HMD 30 shown in FIG. It has the same configuration as the configuration.

(HMDの制御部の機能構成)
図3は、HMD30の制御部31の機能構成を示す図である。
HMD30の制御部31では、表示制御部101と、データ取得部102と、登録判定部103と、挙動推定部104と、装置特定部105と、位置取得部106と、接触検知部107と、入力情報受付部108と、入力制御部109とが機能する。
(Functional configuration of control unit of HMD)
FIG. 3 is a diagram showing the functional configuration of the control section 31 of the HMD 30. As shown in FIG.
In the control unit 31 of the HMD 30, a display control unit 101, a data acquisition unit 102, a registration determination unit 103, a behavior estimation unit 104, a device identification unit 105, a position acquisition unit 106, a contact detection unit 107, an input An information reception unit 108 and an input control unit 109 function.

表示制御部101は、情報の入力操作を受付可能とするオブジェクトおよび入力装置50を、自機を介して視認可能にする制御を行う。具体的には、表示制御部101は、情報の入力操作を受付可能とするオブジェクトを、表示部35に表示させる制御を行い、現実空間に存在する入力装置50を、表示部35を介して視認可能にする制御を行う。 The display control unit 101 performs control to make the object and the input device 50 capable of receiving an information input operation visible through the own device. Specifically, the display control unit 101 controls the display unit 35 to display an object capable of receiving an information input operation, and visually recognizes the input device 50 existing in the physical space through the display unit 35. Control to enable.

データ取得部102は、センサ部36の各種のセンサのセンシングデータ、および撮像部37により撮像された画像(静止画像および動画像)のデータを取得する。センサ部36の各種のセンサのセンシングデータには、ユーザUの両手の動きや目の動きに関するセンシングデータが含まれる。また、撮像部37により撮像された画像のデータには、ユーザUを撮像した画像のデータ、表示部35を介して視認可能な領域に存在するオブジェクトおよび入力装置50を撮像した画像のデータが含まれる。 The data acquisition unit 102 acquires sensing data from various sensors of the sensor unit 36 and data of images (still images and moving images) captured by the imaging unit 37 . Sensing data from various sensors of the sensor unit 36 includes sensing data relating to movements of the user's U hands and eyes. The data of the image captured by the imaging unit 37 includes the data of the image of the user U, the data of the image of the object present in the visible area through the display unit 35, and the data of the image of the input device 50. be

登録判定部103は、HMD30と入力装置50との間における連携先の候補の登録の状態を判定する。「連携先の候補の登録の状態」とは、複数台のデバイスの組み合わせが、互いに連携先の候補として登録されて、連携待ちの状態になっているかどうかを示す状態のことをいう。このような状態は、いわゆる「ペアリング」がなされた状態ともいう。一度ペアリングがなされると、2回目以降の接続時におけるペアリングは不要となる。登録判定部103は、HMD30と入力装置50とがペアリングされて、連携待ちの状態になっているかどうかを、自機が保有する情報および入力装置50の各々から得られる情報に基づいて判定する。 The registration determination unit 103 determines the state of registration of cooperation destination candidates between the HMD 30 and the input device 50 . The 'registration status of cooperation destination candidates' refers to a state indicating whether or not a combination of a plurality of devices are mutually registered as cooperation destination candidates and are waiting for cooperation. Such a state is also referred to as a so-called "pairing" state. Once the pairing is performed, the pairing is not required for the second and subsequent connections. The registration determination unit 103 determines whether the HMD 30 and the input device 50 are paired and are in a state of waiting for cooperation based on information held by the own device and information obtained from each of the input devices 50. .

ここで、HMD30と入力装置50とのペアリングについて説明する。HMD30と入力装置50とのペアリングは、例えば以下のような手順で行われる。すなわち、ユーザUの音声入力によりペアリングの処理が開始されてもよい。この場合、例えば、ユーザが「ペアリングして」と発話すると、その音声が検知されて、HMD30からペアリングに関する音声の案内が出力されてもよい。また、例えば、HMD30から「ペアリングしたいデバイスのアプリケーションソフトウェアでペアリング開始ボタンを押してください」といった案内が出力され、入力装置50に予めインストールされている接続用のアプリケーションソフトが起動して、ペアリングの処理が開始されるようにしてもよい。 Here, pairing between the HMD 30 and the input device 50 will be described. Pairing between the HMD 30 and the input device 50 is performed, for example, in the following procedure. That is, the pairing process may be started by the user U's voice input. In this case, for example, when the user utters "pairing", the voice may be detected and the HMD 30 may output voice guidance regarding pairing. Further, for example, the HMD 30 outputs a guidance such as "Please press the pairing start button in the application software of the device to be paired", and the connection application software pre-installed in the input device 50 is activated, and pairing is performed. may be started.

この場合、接続用のアプリケーションソフトがインストールされている入力装置50であれば、どのようなものであってもペアリングの処理が開始されるような、オープンな接続環境にしてもよい。また、頭部にHMD30を装着したユーザUが、入力装置50に表示されたQRコード(登録商標)をHMD30越しに視認すると、HMD30がそのQRコード(登録商標)を検知して、自動的にペアリングの処理が開始されるようにしてもよい。また、意図しない入力装置50とのペアリングを防ぐ見地から、HMD30がペアリング可能な入力装置50を限定し、予めペアリングされているような、クローズドな接続環境にしてもよい。 In this case, any input device 50 on which application software for connection is installed may be an open connection environment in which the pairing process is started. Further, when the user U wearing the HMD 30 on the head visually recognizes the QR code (registered trademark) displayed on the input device 50 through the HMD 30, the HMD 30 detects the QR code (registered trademark) and automatically Pairing processing may be started. Also, from the standpoint of preventing unintended pairing with the input device 50, the input device 50 that can be paired with the HMD 30 may be limited, and a closed connection environment may be created in which the HMD 30 is paired in advance.

挙動推定部104は、データ取得部102により取得されたデータ、および入力装置50から提供されるデータに基づいて、ユーザUおよび入力装置50の各々の挙動を推定する。このうち、ユーザUの挙動とは、ユーザUの両手の動きや目の動きのことをいう。また、入力装置50の挙動とは、現実空間における入力装置50の動きのことをいう。データ取得部102により取得されデータには、例えば、入力装置50とのペアリングの状態を示すデータ、センサ部36の各種のセンサのセンシングデータ、および撮像部37により撮像された画像(静止画像および動画像)のデータ等が含まれる。 The behavior estimation unit 104 estimates behaviors of the user U and the input device 50 based on the data acquired by the data acquisition unit 102 and the data provided from the input device 50 . Among these, the behavior of the user U refers to movements of the user's U hands and eyes. Also, the behavior of the input device 50 refers to the movement of the input device 50 in the physical space. The data acquired by the data acquisition unit 102 includes, for example, data indicating the pairing state with the input device 50, sensing data of various sensors of the sensor unit 36, and images captured by the imaging unit 37 (still images and video) data, etc.

また、入力装置50から提供されるデータには、HMD30とのペアリングの状態を示すデータ、入力装置50に入力されたデータ、入力装置50の慣性計測データ(IMUデータ)、入力装置50の三次元挙動データ、入力装置50の位置に関するデータ等が含まれる。具体的には、例えば、挙動推定部104は、入力装置50の慣性計測データ(IMUデータ)と三次元挙動データとの突合結果から、入力装置50の挙動を推定する。 The data provided from the input device 50 includes data indicating the pairing state with the HMD 30 , data input to the input device 50 , inertial measurement data (IMU data) of the input device 50 , tertiary data of the input device 50 . The original behavior data, data regarding the position of the input device 50, and the like are included. Specifically, for example, the behavior estimating unit 104 estimates the behavior of the input device 50 from the results of matching the inertial measurement data (IMU data) of the input device 50 and the three-dimensional behavior data.

なお、入力装置50の外形の三次元データをどのように取得するかについては特に限定されない。例えば、記憶部13のデータベースに予め記憶されている入力装置の種類に基づいて別途取得してもよい。また、例えば、HMD30を装着したユーザUが、入力装置50を四方八方から眺める動作を行い、それと同時にHMD30が入力装置50を撮像することで得られる複数の撮像画像のデータから三次元データを生成してもよい。この場合、入力装置50を眺める手順についての音声の案内が、HMD30からユーザUに向けて出力されるようにしてもよい。 It should be noted that how the three-dimensional data of the outer shape of the input device 50 is acquired is not particularly limited. For example, it may be acquired separately based on the type of input device pre-stored in the database of the storage unit 13 . Further, for example, the user U wearing the HMD 30 performs an action of looking at the input device 50 from all directions, and at the same time, the HMD 30 generates three-dimensional data from data of a plurality of captured images obtained by capturing images of the input device 50. You may In this case, the HMD 30 may output to the user U a voice guidance regarding the procedure for viewing the input device 50 .

装置特定部105は、データ取得部102により取得されたデータ、および入力装置50から提供されるデータ、挙動推定部104による推定の結果、および記憶部13のデータベースに予め記憶されている入力装置の種類と機能との組み合わせに基づいて、ユーザUの入力操作の対象となる入力装置50を特定する。入力装置50の特定には、入力装置50の機能の特定が含まれる。データ取得部102により取得されたデータとしては、センシングデータおよび画像のデータ等が挙げられる。入力装置50から提供されるデータとしては、ペアリングの状態を示すデータ、入力データ、慣性計測データ(IMUデータ)、三次元挙動データ、位置に関するデータ等が挙げられる。具体的には、例えば、装置特定部105は、データ取得部102により取得されたデータのうち、自機を介してユーザUが視認可能な領域を示す画像のデータに基づいて入力装置50を特定する。 The device specifying unit 105 uses the data acquired by the data acquiring unit 102, the data provided from the input device 50, the result of estimation by the behavior estimation unit 104, and the input device information stored in advance in the database of the storage unit 13. The input device 50 targeted for input operation by the user U is specified based on the combination of type and function. Specification of the input device 50 includes specification of the function of the input device 50 . The data acquired by the data acquisition unit 102 includes sensing data, image data, and the like. The data provided from the input device 50 includes data indicating the pairing state, input data, inertial measurement data (IMU data), three-dimensional behavior data, position data, and the like. Specifically, for example, the device specifying unit 105 specifies the input device 50 based on image data indicating an area visible to the user U through the own device, among the data acquired by the data acquiring unit 102. do.

位置取得部106は、自機を介してユーザUが視認可能な領域における、オブジェクトおよび入力装置50の各々の位置に関する情報を取得する。具体的には、位置取得部106は、データ取得部102により取得された画像のデータのうち、ユーザUが表示部35を介して視認可能な領域を示す画像のデータから、ユーザUが表示部35を介して視認可能な領域における、オブジェクトおよび入力装置50の各々の位置に関する情報を取得する。 The position acquisition unit 106 acquires information about the positions of each of the object and the input device 50 in the area visible to the user U through the device itself. Specifically, the position obtaining unit 106 obtains the image data obtained by the data obtaining unit 102 from the image data indicating the area that the user U can visually recognize through the display unit 35. Obtain information about the position of each of the object and the input device 50 in the area visible via 35 .

接触検知部107は、オブジェクトと入力装置50との接触を検知する。具体的には、接触検知部107は、位置取得部106により取得された、オブジェクトおよび入力装置50の各々の位置に関する情報に基づいて、表示部35を介して視認可能な領域におけるオブジェクトと、入力装置50との接触を検知する。オブジェクトと入力装置50との接触は、オブジェクトおよび入力装置50の各々の外縁同士が接触したときとしてもよいし、入力装置50およびオブジェクトの各々の外縁を囲む仮想領域の外縁同士が接触したときとしてもよい。この場合、「外縁を囲む仮想領域」は、オブジェクトおよび入力装置50の各々の外縁から外側に向かう距離の値として予め定められた値に基づいて特定される。 The contact detection unit 107 detects contact between an object and the input device 50 . Specifically, based on the information about the positions of the object and the input device 50 acquired by the position acquisition unit 106, the contact detection unit 107 detects the object in the area visible through the display unit 35 and the input device. A contact with the device 50 is detected. The contact between the object and the input device 50 may be when the outer edges of the object and the input device 50 are in contact with each other, or when the outer edges of the virtual area surrounding the outer edges of the input device 50 and the object are in contact with each other. good too. In this case, the “virtual area surrounding the outer edge” is specified based on a predetermined value as the value of the outward distance from the outer edge of each of the object and the input device 50 .

また、接触検知部107は、オブジェクトと入力装置50との接触がユーザUの意図的な操作に基づくものであるかどうかを検知する。接触検知部107がオブジェクトと入力装置50との接触を検知し、その接触がユーザUの意図的な操作に基づくものである場合には、そのオブジェクトと入力装置50とが連携された状態となる。例えば、HMD30を装着したユーザUのジェスチャとして、HMD30に表示されているオブジェクトを掴んで入力装置50に接触させる動作が行われた場合、接触検知部107は、その接触がユーザUの意図的な操作に基づくものであると検知する。また、例えば、オブジェクトと入力装置50とが接触するタイミングにおけるユーザUの視線の位置が、オブジェクトと入力装置50との接触点、またはその近傍にあることが検知された場合、接触検知部107は、オブジェクトと入力装置50との接触がユーザUの意図的な操作に基づくものであると検知してもよい。 Further, the contact detection unit 107 detects whether or not the contact between the object and the input device 50 is based on the user U's intentional operation. The contact detection unit 107 detects contact between an object and the input device 50, and when the contact is based on an intentional operation by the user U, the object and the input device 50 are linked. . For example, when an action of grabbing an object displayed on the HMD 30 and touching the input device 50 is performed as a gesture of the user U wearing the HMD 30 , the contact detection unit 107 detects that the contact is intentional by the user U. Detect that it is based on manipulation. Further, for example, when it is detected that the line of sight of the user U at the timing of contact between the object and the input device 50 is at or near the contact point between the object and the input device 50, the contact detection unit 107 , it may be detected that the contact between the object and the input device 50 is based on the user U's intentional operation.

また、接触検知部107は、オブジェクトと入力装置50との接触を検知した際、そのオブジェクトの状態を検知する。接触検知部107により検知されたオブジェクトの状態が、書き込み禁止の措置が講じられていて入力ができない場合や、ペアリングされた入力装置50の入力機能ではオブジェクトへの入力ができない場合には、オブジェクトが入力装置50に接触したとしても連携されることなくはじき返される。このようにすることで、ユーザUは、書き込み禁止であることを感覚的に知得できる。また、例えば、オブジェクトへの入力ができないことを示す色やポップアップメッセージをHMD30に表示したり、音声で出力したり、振動を発生させたりすることで、オブジェクトへの入力ができないことをユーザUが視覚的、聴覚的、触覚的に知得できるようにしてもよい。 Further, when the contact detection unit 107 detects contact between an object and the input device 50, the contact detection unit 107 detects the state of the object. If the state of the object detected by the contact detection unit 107 is a write-protection measure that prevents input, or if the input function of the paired input device 50 does not allow input to the object, the object touches the input device 50, it is repelled without being linked. By doing so, the user U can intuitively perceive that writing is prohibited. Further, for example, the user U can notify that the input to the object is impossible by displaying on the HMD 30 a color or a pop-up message indicating that the input to the object is impossible, by outputting it by voice, or by generating vibration. It may be perceivable visually, audibly, or tactilely.

また、接触検知部107は、オブジェクトおよび入力装置の各々の位置に関する情報に基づいて、接触した状態にあるオブジェクトと入力装置とがの離隔をさらに検知する。これにより、オブジェクトと入力装置50との連携が解除された状態となる。また、接触検知部107は、接触した状態にあるオブジェクトと入力装置50との離隔が、ユーザUの意図的な操作に基づくものであるかどうかを検知する。接触検知部107がオブジェクトと入力装置50との離隔を検知し、その接触がユーザUの意図的な操作に基づくものである場合には、そのオブジェクトと入力装置50との連携が解除された状態となる。 Further, the contact detection unit 107 further detects the distance between the object in contact with the input device based on the information regarding the positions of the object and the input device. As a result, the cooperation between the object and the input device 50 is released. Further, the contact detection unit 107 detects whether or not the distance between the object in contact with the input device 50 is based on the user U's intentional operation. When the contact detection unit 107 detects the distance between the object and the input device 50 and the contact is based on the intentional operation of the user U, the cooperation between the object and the input device 50 is released. becomes.

例えば、HMD30を装着したユーザUのジェスチャとして、HMD30を介して視認可能になっているオブジェクトを掴んで入力装置50から離隔させる動作が行われた場合、接触検知部107は、オブジェクトと入力装置50との離隔が、ユーザUの意図的な操作に基づくものであると検知する。また、例えば、オブジェクトと入力装置50とが離隔するタイミングにおけるユーザUの視線の位置が、オブジェクトと入力装置50との接触点、またはその近傍にあることが検知された場合、接触検知部107は、オブジェクトと入力装置50との離隔が、ユーザUの意図的な操作に基づくものであると検知してもよい。 For example, when the gesture of the user U wearing the HMD 30 is an action of grabbing an object that is visible through the HMD 30 and separating it from the input device 50 , the contact detection unit 107 detects the object and the input device 50 . It is detected that the distance from is based on user U's intentional operation. Further, for example, when it is detected that the line of sight of the user U at the timing when the object and the input device 50 separate is at or near the contact point between the object and the input device 50, the contact detection unit 107 , the distance between the object and the input device 50 may be detected as being based on the user U's intentional operation.

入力情報受付部108は、接触検知部107によりオブジェクトと入力装置50との接触が検知され、オブジェクトと入力装置50とが連携した状態になると、入力装置50に入力された情報を、オブジェクトに入力された情報として受け付ける。すなわち、ひとたびオブジェクトと入力装置50とが連携した状態になると、ユーザUは、オブジェクトと入力装置50との位置関係を特に気にすることなく入力操作に集中することが可能となる。 When the contact detection unit 107 detects contact between the object and the input device 50 and the object and the input device 50 are linked, the input information reception unit 108 inputs the information input to the input device 50 to the object. accepted as information provided. That is, once the object and the input device 50 are linked, the user U can concentrate on the input operation without paying particular attention to the positional relationship between the object and the input device 50 .

具体的には、入力情報受付部108は、記憶部13のデータベースに記憶されているオブジェクトの種類と入力装置50の機能との組み合わせにより特定される入力操作を行うための入力機能により入力された情報を、オブジェクトに入力された情報として受け付ける。入力操作を行うための入力機能としては、例えば、入力装置50がスマートフォンやタブレット端末である場合には、タッチパネル、スマートペン等が挙げられる。また、入力装置50がパーソナルコンピュータである場合には、キーボード、マウス等が挙げられる。 Specifically, the input information receiving unit 108 receives input by an input function for performing an input operation specified by a combination of the type of object stored in the database of the storage unit 13 and the function of the input device 50. Accept the information as entered into the object. For example, when the input device 50 is a smart phone or a tablet terminal, a touch panel, a smart pen, or the like may be used as an input function for performing an input operation. Moreover, when the input device 50 is a personal computer, a keyboard, a mouse, and the like can be used.

また、入力情報受付部108は、接触検知部107が、接触して連携した状態にあるオブジェクトと入力装置50との離隔を検知し、オブジェクトと入力装置50との連携が解除された状態になると、入力装置50に情報が入力されたとしても、この情報をオブジェクトに入力された情報として受け付けない。ただし、接触検知部107によりオブジェクトと入力装置50との離隔が検知されたとき、その原因がユーザUのジェスチャによるものでない場合には、その離隔がユーザUの意図的な操作に基づいたものではないことが検知されて、オブジェクトと入力装置50との連携は解除されることなく継続される。このため、入力装置50に入力された情報は、引き続きオブジェクトに入力された情報として受け付けられる。 In addition, when the contact detection unit 107 detects separation between the object and the input device 50 that are in contact with each other and the input device 50 is released, the input information reception unit 108 detects that the object and the input device 50 are disconnected from each other. , even if information is input to the input device 50, this information is not accepted as information input to the object. However, when the separation between the object and the input device 50 is detected by the contact detection unit 107, if the cause is not due to the gesture of the user U, the separation is not based on the intentional operation of the user U. It is detected that there is no object, and the cooperation between the object and the input device 50 is continued without being canceled. Therefore, the information input to the input device 50 is continuously accepted as information input to the object.

入力制御部109は、入力情報受付部108により受け付けられた入力情報を、オブジェクトに入力する制御を行う。例えば、オブジェクトがテキスト入力を受付可能とする電子文書であり、入力装置50がタブレット端末である場合には、タブレット端末に入力されたテキスト情報を電子文書に入力する制御を行う。また、例えば、オブジェクトがPDF文書であり、入力装置50がペンタブレットである場合には、スタイラスによりペンタブレットに入力された描画の情報である筆跡データを電子文書に入力する制御を行う。また、例えば、オブジェクトが三次元モデルであり、入力装置50がパーソナルコンピュータである場合には、三次元モデルを編集するために入力された情報を三次元モデルに反映させる制御を行う。 The input control unit 109 controls inputting the input information received by the input information receiving unit 108 into the object. For example, if the object is an electronic document capable of accepting text input and the input device 50 is a tablet terminal, control is performed to input the text information input to the tablet terminal into the electronic document. Further, for example, when the object is a PDF document and the input device 50 is a pen tablet, control is performed to input handwriting data, which is drawing information input to the pen tablet with a stylus, into the electronic document. Further, for example, when the object is a three-dimensional model and the input device 50 is a personal computer, control is performed to reflect input information in the three-dimensional model in order to edit the three-dimensional model.

(ペアリングの処理)
図4は、HMD30と入力装置50とのペアリングの処理の流れを示す図である。図4には、ペアリングの処理の一例として、ユーザの音声入力によりペアリングの処理が開始される場合の例が示されている。
(Pairing process)
FIG. 4 is a diagram showing the flow of pairing processing between the HMD 30 and the input device 50. As shown in FIG. FIG. 4 shows, as an example of pairing processing, a case where pairing processing is started by a user's voice input.

HMD30と入力装置50とがペアリングされていない状態で、ペアリングの処理の開始を指示するための音声入力が行われると(ステップ201でYES)、HMD30からペアリングに関する音声の案内が出力される(ステップ202)。これに対して、ペアリングの処理の開始を指示するための音声入力が行われていない場合には(ステップ201でNO)、ペアリングの処理の開始を指示するための音声入力が行われるまでステップ201の処理が繰り返される。 When the HMD 30 and the input device 50 are not paired and the voice input for instructing the start of pairing processing is performed (YES in step 201), the HMD 30 outputs voice guidance regarding the pairing. (step 202). On the other hand, if the voice input for instructing the start of the pairing process has not been performed (NO in step 201), the voice input for instructing the start of the pairing process is performed. The process of step 201 is repeated.

HMD30からの案内に従い、ペアリングの処理を開始するための入力操作が入力装置50に対して行われると(ステップ203でYES)、入力装置50から周囲のデバイスに向けてペアリングの開始通知が発信される(ステップ204)。これに対して、ペアリングの処理を開始するための入力操作が入力装置50に対して行われていない場合には、(ステップ203でNO)、ペアリングの処理を開始するための入力操作が入力装置50に対して行われるまでステップ203の処理が繰り返される。 When an input operation for starting the pairing process is performed on the input device 50 according to the guidance from the HMD 30 (YES in step 203), the pairing start notification is sent from the input device 50 to the surrounding devices. is sent (step 204). On the other hand, if an input operation for starting the pairing process has not been performed on the input device 50 (NO in step 203), an input operation for starting the pairing process has been performed. The process of step 203 is repeated until the input device 50 is processed.

入力装置50から発信されたペアリングの開始通知が、予め定められた時間内にHMD30によって受信されると(ステップ205でYES)、HMD30からユーザUに向けて、ペアリングを確定させるための入力操作についての案内が報知される(ステップ206)。例えば、「パスコードを入力してペアリング確定ボタンを押して下さい」といった内容の案内が報知される。これに対して、発信されたペアリングの開始通知が、予め定められた時間内にHMD30によって受信されない場合には(ステップ205でNO)、ペアリングされることなく処理が終了する。 When the pairing start notification transmitted from the input device 50 is received by the HMD 30 within a predetermined time (YES in step 205), the HMD 30 sends an input for confirming the pairing to the user U. Guidance on the operation is notified (step 206). For example, guidance such as "Please enter your passcode and press the pairing confirmation button" is notified. On the other hand, if the transmitted pairing start notification is not received by the HMD 30 within the predetermined time (NO in step 205), the process ends without pairing.

ここで、ユーザUが、報知された内容の操作を行うと(ステップ207でYES)、入力装置50から周囲のデバイスに向けてパスコードを含むペアリングの確定通知が発信される(ステップ208)。これに対して、ユーザUが、報知された内容の操作を行わない場合には(ステップ207でNO)、ユーザUが、報知された内容の操作を行うまでステップ207の処理が繰り返される。 Here, when the user U performs an operation according to the notified content (YES in step 207), the input device 50 transmits a pairing confirmation notification including a passcode to the surrounding devices (step 208). . On the other hand, if the user U does not perform the notified content operation (NO in step 207), the process of step 207 is repeated until the user U performs the notified content operation.

発信されたペアリングの確定通知が、予め定められた時間内にHMD30によって受信されると(ステップ209でYES)、HMD30から入力装置50に対して、入力装置50を特定可能なデータ、および入力装置50が提供可能な機能に関するデータの送信が要求される(ステップ210)。入力装置50を特定可能なデータとしては、例えば、入力装置50のWi-Fiアドレス等が挙げられる。これに対して、発信されたペアリングの確定通知が、予め定められた時間内にHMD30によって受信されない場合には(ステップ209でNO)、ペアリングされることなく処理が終了する。 When the transmitted pairing confirmation notification is received by HMD 30 within a predetermined period of time (YES in step 209), HMD 30 transmits data that can identify input device 50 and input A request is made to send data regarding the features that device 50 can provide (step 210). Data that can identify the input device 50 includes, for example, the Wi-Fi address of the input device 50 . On the other hand, if the transmitted pairing confirmation notification is not received by the HMD 30 within the predetermined time (NO in step 209), the process ends without pairing.

入力装置50が、HMD30から要求されたデータをHMD30に向けて送信すると(ステップ211でYES)、HMD30は、入力装置50から送信されてきたデータを受信して記憶する(ステップ212)。これに対して、入力装置50が、HMD30から要求されたデータをHMD30に向けて送信していない場合には(ステップ211でNO)、入力装置50が、HMD30から要求されたデータをHMD30に向けて送信するまでステップ211の処理が繰り返される。 When the input device 50 transmits the data requested by the HMD 30 to the HMD 30 (YES in step 211), the HMD 30 receives and stores the data transmitted from the input device 50 (step 212). On the other hand, if the input device 50 has not sent the data requested by the HMD 30 to the HMD 30 (NO in step 211), the input device 50 sends the data requested by the HMD 30 to the HMD 30. The process of step 211 is repeated until the data is transmitted.

そして、HMD30からユーザUに向けて、入力装置50の外形の三次元データを取得するための案内が報知される(ステップ213)。例えば、「デバイス(入力装置50)を手に持ち、様々な角度からデバイスを見つめてください」といった音声の案内が報知される。そこで、ユーザUが、入力装置50を把持し、これを注視しながら向きを変えたり持ち替えたりすることで四方八方から眺めると(ステップ214でYES)、HMD30は、入力装置50の外形の特徴の認識結果を、ペアリング済みの入力装置50の外形の特徴として記憶する(ステップ215)。 Then, the HMD 30 notifies the user U of a guide for acquiring the three-dimensional data of the outer shape of the input device 50 (step 213). For example, a voice guidance such as "Please hold the device (input device 50) in your hand and look at the device from various angles" is notified. Therefore, when the user U grasps the input device 50 and gazes at it while changing its orientation and holding it in different directions (YES at step 214 ), the HMD 30 displays the characteristics of the external shape of the input device 50 . The recognition results are stored as features of the external shape of the paired input device 50 (step 215).

具体的には、HMD30は、ユーザUが注視する点の近傍から、ユーザUが把持している入力装置50の三次元形状を推定し、様々な角度から入力装置50の外形の特徴を認識して、その認識結果をペアリング済みの入力装置50の外形の特徴として記憶する。これにより、HMD30と入力装置50とのペアリングが完了して連携待ちの状態となる。これに対して、ユーザUが、入力装置50を把持し、これを注視しながら向きを変えたり持ち替えたりすることで四方八方から眺める動作が行われない場合には(ステップ214でNO)、このような動作が行われるまでステップ214の処理が繰り返される。 Specifically, the HMD 30 estimates the three-dimensional shape of the input device 50 held by the user U from the vicinity of the point the user U gazes at, and recognizes the features of the external shape of the input device 50 from various angles. Then, the recognition result is stored as the feature of the external shape of the paired input device 50 . As a result, the pairing between the HMD 30 and the input device 50 is completed, and a state of waiting for cooperation is established. On the other hand, when the user U holds the input device 50 and does not look at it from all directions by changing the orientation or changing the grip while gazing at it (NO in step 214), this The process of step 214 is repeated until such an operation is performed.

(HMDの処理)
図5は、HMD30による連携処理の流れを示すフローチャートである。
HMD30は、オブジェクトおよび現実空間を、自機を介して視認可能にする制御を行う(ステップ401)。具体的には、HMD30の表示部35にオブジェクトを表示させる制御が行われる。なお、本実施の形態では、透過型のHMD30が採用されているため、表示部35を介して入力装置50が視認可能な状態になっている。
(Processing of HMD)
FIG. 5 is a flow chart showing the flow of cooperation processing by the HMD 30. As shown in FIG.
The HMD 30 performs control to make the object and the physical space visible through itself (step 401). Specifically, control is performed to display the object on the display unit 35 of the HMD 30 . In this embodiment, since the transmissive HMD 30 is employed, the input device 50 is visible through the display section 35 .

HMD30は、撮像部37により撮像された画像のデータから、ユーザの視界に存在する物体を認識する(ステップ402)。そして、入力装置50を特定した結果、ユーザUの視界にペアリング済みの入力装置50が存在する場合には(ステップ403でYES)、連携待ちの状態となる(ステップ404)。HMD30は、データ取得部102により取得されたデータ、および入力装置50の各々から取得したデータに基づいて、ユーザUおよび入力装置50の各々の挙動を推定する(ステップ405)。これに対して、ユーザの視界にペアリング済みの入力装置が存在しない場合には(ステップ403でNO)、ステップ402の処理に戻る。 The HMD 30 recognizes an object present in the user's field of view from the data of the image captured by the imaging section 37 (step 402). As a result of specifying the input device 50, if the paired input device 50 exists in the field of view of the user U (YES in step 403), the state is awaiting cooperation (step 404). The HMD 30 estimates the behavior of each of the user U and the input device 50 based on the data acquired by the data acquisition unit 102 and the data acquired from each of the input devices 50 (step 405). On the other hand, if there is no paired input device within the field of view of the user (NO in step 403), the process returns to step 402. FIG.

HMD30は、ユーザUが自機を介して視認可能な領域を示す画像のデータから、オブジェクトおよび入力装置50の各々の位置に関する情報を取得する(ステップ406)。HMD30は、取得したオブジェクトおよび入力装置50の各々の位置に関する情報に基づいて、自機を介して視認可能な領域におけるオブジェクトと入力装置50との接触を検知すると(ステップ407でYES)、記憶部13のデータベースに予め記憶されている入力装置50の種類と機能との組み合わせに基づいて、入力方法と表示方法を決定(ステップ408)する。そして、HMD30は、入力装置50に入力された情報を、オブジェクトに入力された情報として受け付けて(ステップ409)、受け付けた入力情報をオブジェクトに入力する制御を行う(ステップ410)。これに対して、オブジェクトと入力装置50との接触を検知していない場合(ステップ407でNO)、HMD30は、オブジェクトと入力装置50との接触を検知するまでステップ407の処理を繰り返す。 The HMD 30 obtains information about the positions of the object and the input device 50 from the data of the image showing the area that the user U can visually recognize through the HMD 30 (step 406). When the HMD 30 detects contact between the object and the input device 50 in an area visible through the HMD 30 based on the obtained information regarding the respective positions of the object and the input device 50 (YES in step 407), the storage unit An input method and a display method are determined (step 408) based on the combination of the type and function of the input device 50 pre-stored in the 13 databases. Then, the HMD 30 receives the information input to the input device 50 as information input to the object (step 409), and performs control to input the received input information to the object (step 410). On the other hand, if contact between the object and the input device 50 has not been detected (NO in step 407), the HMD 30 repeats the process of step 407 until contact between the object and the input device 50 is detected.

(具体例)
図6乃至図11は、ユーザUがHMD30を介して視認可能となったオブジェクトおよび入力装置50の具体例を示す図である。なお、HMD30と入力装置50とは事前にペアリングされているものとする。
図6(A)乃至(C)には、HMD30を介して視認可能となったオブジェクトV1が、テキスト入力を受付可能とする電子文書であり、入力装置50がタブレット端末である場合の例が示されている。図6(A)は、HMD30を介して視認可能となったオブジェクトV1と入力装置50とが離隔し、連携していない状態を示している。ここで、ユーザUのジェスチャとして、オブジェクトV1を掴み、そのままオブジェクトV1を移動させて入力装置50に接触させる動作を行うと、オブジェクトV1と入力装置50との接触が検知される。
(Concrete example)
6 to 11 are diagrams showing specific examples of objects and the input device 50 that the user U can visually recognize via the HMD 30. FIG. It is assumed that the HMD 30 and the input device 50 are paired in advance.
FIGS. 6A to 6C show an example in which the object V1 made visible through the HMD 30 is an electronic document capable of accepting text input, and the input device 50 is a tablet terminal. It is FIG. 6A shows a state in which the object V1 that has become visible through the HMD 30 and the input device 50 are separated and are not linked. Here, when the user U performs an action of grabbing the object V1 and moving the object V1 as it is to touch the input device 50, contact between the object V1 and the input device 50 is detected.

ユーザUのジェスチャの結果、オブジェクトV1と入力装置50との接触が検知されると、図6(B)に示すように、オブジェクトV1と入力装置50とが接触している状態、すなわち、連携している状態になる。すると、HMD30を介して視認可能な状態となっている入力装置50に重畳するように、ソフトウェアキーボードが表示される。これにより、ユーザUは、表示されたソフトウェアキーボードに対する入力操作を行うことが可能となる。 When contact between the object V1 and the input device 50 is detected as a result of the user U's gesture, the state in which the object V1 and the input device 50 are in contact, i.e., the state in which the input device 50 is in contact, as shown in FIG. state. Then, a software keyboard is displayed so as to be superimposed on the input device 50 that is visible through the HMD 30 . This enables the user U to perform an input operation on the displayed software keyboard.

そして、ユーザUが、HMD30に表示されたソフトウェアキーボードを見ながら、現実空間に存在する入力装置50に対する入力操作を行うと、その入力操作は、ソフトウェアキーボードの入力操作に連動する。これにより、入力装置50に入力された情報が、オブジェクトV1に入力された情報として受け付けられて、視認可能な態様でオブジェクトV1に反映される。なお、図6(B)では、HMD30を介して視認可能な状態になっている入力装置50に重畳するように表示されたソフトウェアキーボードに対する入力操作が行われる構成となっているが、入力装置50の表示部に表示されたソフトウェアキーボードに対する入力操作が行われる構成であってもよい。 Then, when the user U performs an input operation on the input device 50 existing in the real space while looking at the software keyboard displayed on the HMD 30, the input operation is linked to the input operation of the software keyboard. As a result, information input to the input device 50 is accepted as information input to the object V1, and reflected in the object V1 in a visible manner. Note that in FIG. 6B , an input operation is performed on a software keyboard displayed so as to be superimposed on the input device 50 that is visible through the HMD 30 . The configuration may be such that an input operation is performed with respect to a software keyboard displayed on the display unit.

ユーザUによる入力装置50に対する入力操作が完了すると、ユーザUは、ジェスチャにより、図6(B)に示す終了ボタンB1を押下する。すると、図6(C)に示すように、接触して連携した状態にあるオブジェクトV1と入力装置50とが離隔される。これにより、オブジェクトV1と入力装置50とが連携していない状態となり、入力装置50に重畳するように表示されていたソフトウェアキーボードが消える。また、オブジェクトV1には、入力された情報が反映されて、視認可能な態様で表示される。 When the user U completes the input operation on the input device 50, the user U gestures to press the end button B1 shown in FIG. 6B. Then, as shown in FIG. 6C, the object V1 and the input device 50, which are in contact and linked together, are separated from each other. As a result, the object V1 and the input device 50 are not linked, and the software keyboard superimposed on the input device 50 disappears. The input information is reflected in the object V1 and displayed in a visible manner.

なお、接触して連携した状態にあるオブジェクトV1と入力装置50とを離隔し、連携していない状態にする手法は、終了ボタンB1を押下する手法に限定されない。例えば、ユーザUのジェスチャにより、入力装置50に接触して連携した状態にあるオブジェクトV1を掴み、そのままオブジェクトV1を移動させて入力装置50から離隔させる動作を行うことでも、連携していない状態にすることができる。 It should be noted that the method of separating the object V1 and the input device 50 that are in contact and in cooperation with each other to put them in a non-cooperation state is not limited to the method of pressing the end button B1. For example, if the user U makes a gesture to touch the input device 50 to grab the object V1 that is in a linked state, and then move the object V1 as it is to move away from the input device 50, the unlinked state can also be achieved. can do.

図7(A)乃至(C)には、HMD30を介して視認可能となったオブジェクトV2が、PDF文書であり、入力装置50が、表示機能を有しないペンタブレットである場合の例が示されている。図7(A)は、HMD30を介して視認可能となったオブジェクトV2と入力装置50とが離隔し、連携していない状態を示している。ここで、ユーザUのジェスチャとして、オブジェクトV2を掴み、そのままオブジェクトV2を移動させて入力装置50に接触させる動作を行うと、オブジェクトV2と入力装置50との接触が検知される。 FIGS. 7A to 7C show an example in which the object V2 made visible through the HMD 30 is a PDF document, and the input device 50 is a pen tablet that does not have a display function. ing. FIG. 7A shows a state in which the object V2 that has become visible through the HMD 30 and the input device 50 are separated and are not linked. Here, when the user U performs an action of grabbing the object V2 and moving the object V2 as it is to touch the input device 50, contact between the object V2 and the input device 50 is detected.

ユーザUのジェスチャの結果、オブジェクトV2と入力装置50との接触が検知されると、図7(B)に示すように、オブジェクトV2と入力装置50とが接触している状態、すなわち、連携している状態になる。すると、HMD30を介して視認可能な状態となっている入力装置50に重畳するように、PDF文書のうち編集の対象となる箇所が拡大表示される。これにより、ユーザUは、拡大表示された箇所に対する入力操作として、スタイラスによる手書きの描画が可能となる。 When contact between the object V2 and the input device 50 is detected as a result of the user U's gesture, the state in which the object V2 and the input device 50 are in contact, that is, the state in which the input device 50 is in contact, as shown in FIG. state. Then, the part to be edited in the PDF document is enlarged and displayed so as to be superimposed on the input device 50 that is visible through the HMD 30 . As a result, the user U can draw handwriting with the stylus as an input operation on the enlarged display.

そして、ユーザUが、入力装置50に重畳するように拡大表示された箇所を見ながら、現実空間に存在する入力装置50に対する入力操作として、スタイラスによる手書きの描画を行うと、その入力操作は、オブジェクトV2の入力操作に連動する。これにより、入力装置50に入力された情報が、オブジェクトV2に入力された情報として受け付けられて、視認可能な態様でオブジェクトV2に反映される。 Then, when the user U performs handwriting drawing with a stylus as an input operation on the input device 50 existing in the real space while looking at the portion enlarged and displayed so as to be superimposed on the input device 50, the input operation is as follows. It is interlocked with the input operation of the object V2. As a result, information input to the input device 50 is accepted as information input to the object V2, and is reflected in the object V2 in a visible manner.

ユーザUによる入力装置50に対する入力操作が完了すると、ユーザUが、ジェスチャにより、図7(B)に示す終了ボタンB2をスタイラスで押下する。すると、図7(C)に示すように、接触して連携した状態にあるオブジェクトV2と入力装置50とが離隔される。これにより、オブジェクトV2と入力装置50とが連携していない状態となり、入力装置50に重畳するように拡大表示されていた箇所が消える。また、オブジェクトV2には、入力された情報が視認可能な態様で表示される。 When the user U completes the input operation on the input device 50, the user U gestures to press the end button B2 shown in FIG. 7B with the stylus. Then, as shown in FIG. 7C, the object V2 and the input device 50, which are in contact and linked together, are separated from each other. As a result, the object V2 and the input device 50 are not linked, and the portion enlarged and displayed so as to be superimposed on the input device 50 disappears. Further, the input information is displayed on the object V2 in a visually recognizable manner.

なお、接触して連携した状態にあるオブジェクトV2と入力装置50とを離隔し、連携していない状態にする手法は、終了ボタンB2を押下する手法に限定されない。例えば、ユーザUのジェスチャにより、入力装置50に接触して連携した状態にあるオブジェクトV2を掴み、そのままオブジェクトV2を移動させて入力装置50から離隔させる動作を行うことでも、連携していない状態にすることができる。 It should be noted that the method of separating the object V2 and the input device 50 that are in contact and in cooperation with each other to bring them into a non-cooperation state is not limited to the method of pressing the end button B2. For example, by a gesture of the user U, the object V2 that is in a state of contact with the input device 50 and is in cooperation is grabbed, and the object V2 is moved as it is to move away from the input device 50. can do.

図8(A)乃至(C)には、HMD30を介して視認可能となったオブジェクトV3が、スタイラスによる描画のための入力操作を受付可能とし、かつ、他のユーザUとの共有が可能なオブジェクト(以下、「ホワイドボード」と呼ぶ)であり、入力装置50がタブレット端末である場合の例が示されている。図8(A)は、HMD30を介して視認可能となったオブジェクトV3と入力装置50とが離隔し、連携していない状態を示している。ここで、ユーザUのジェスチャとして、摘まむ操作により表示されるポインタLでオブジェクトV3を示し、そのままオブジェクトV3を移動させて入力装置50に接触させる動作を行うと、オブジェクトV3と入力装置50との接触が検知される。 In FIGS. 8A to 8C, an object V3 that has become visible through the HMD 30 can accept an input operation for drawing with a stylus and can be shared with other users U. An example is shown in which the input device 50 is an object (hereinafter referred to as a “whiteboard”) and the input device 50 is a tablet terminal. FIG. 8A shows a state in which the object V3 that has become visible through the HMD 30 and the input device 50 are separated and are not linked. Here, as a gesture of the user U, if the object V3 is indicated by the pointer L displayed by the pinching operation, and the object V3 is moved and brought into contact with the input device 50, the object V3 and the input device 50 are moved. A touch is detected.

ユーザUのジェスチャの結果、オブジェクトV3と入力装置50との接触が検知されると、図8(B)に示すように、オブジェクトV3が元の位置に戻るとともに、オブジェクトV3と入力装置50とが連携している状態になる。すると、HMD30を介して視認可能な状態の入力装置50に重畳するように、オブジェクトV3のイメージ(ホワイトボードイメージ)が表示される。これにより、ユーザUは、表示されたオブジェクトV3のイメージに対する入力操作として、スタイラスによる手書きの描画が可能となる。 When contact between the object V3 and the input device 50 is detected as a result of the user U's gesture, the object V3 returns to its original position and the object V3 and the input device 50 are separated as shown in FIG. 8B. Be in a collaborative state. Then, an image (whiteboard image) of the object V3 is displayed so as to be superimposed on the input device 50 that is visible through the HMD 30 . This enables the user U to draw by hand with the stylus as an input operation for the displayed image of the object V3.

そして、ユーザUが、入力装置50に重畳するように表示されたオブジェクトV3のイメージを見ながら、現実空間に存在する入力装置50に対する入力操作として、スタイラスによる手書きの描画を行うと、その入力操作は、オブジェクトV3の入力操作に連動する。これにより、入力装置50に入力された情報が、オブジェクトV3に入力された情報として受け付けられて、視認可能な態様でオブジェクトV3に反映される。 Then, when the user U performs handwriting drawing with a stylus as an input operation on the input device 50 existing in the real space while viewing the image of the object V3 displayed so as to be superimposed on the input device 50, the input operation is performed. is interlocked with the input operation of the object V3. As a result, information input to the input device 50 is accepted as information input to the object V3, and reflected in the object V3 in a visible manner.

ユーザUによる入力装置50に対する入力操作が完了すると、ユーザUが、ジェスチャにより、図8(B)に示す終了ボタンB3をスタイラスで押下する。すると、オブジェクトV3と入力装置50とが連携していない状態となり、図8(C)に示すように、入力装置50に重畳するように表示されていたオブジェクトV3のイメージ(ホワイトボードイメージ)が消える。また、オブジェクトV3には、入力された情報が視認可能な態様で表示される。 When the user U completes the input operation on the input device 50, the user U gestures to press the end button B3 shown in FIG. 8B with the stylus. Then, the object V3 and the input device 50 are not linked, and the image (whiteboard image) of the object V3 superimposed on the input device 50 disappears as shown in FIG. 8(C). . Further, the input information is displayed on the object V3 in a visually recognizable manner.

なお、接触して連携した状態にあるオブジェクトV3と入力装置50とを離隔し、連携していない状態にする手法は、終了ボタンB3を押下する手法に限定されない。例えば、ユーザUのジェスチャにより、入力装置50に接触して連携した状態にあるオブジェクトV3をポインタLで示し、そのままオブジェクトV3を移動させて入力装置50から離隔させる動作を行うことでも、連携していない状態にすることができる。 It should be noted that the method of separating the object V3 and the input device 50 that are in contact and in cooperation with each other to put them in a non-cooperation state is not limited to the method of pressing the end button B3. For example, the gesture of the user U may indicate the object V3 that is in contact with the input device 50 and in cooperation with the pointer L, and move the object V3 as it is to separate it from the input device 50. can be left without.

図9(A)乃至(C)には、HMD30を介して視認可能となったオブジェクトV4がソフトウェアキーボードであり、入力装置50がタブレット端末である場合の例が示されている。図9(A)は、HMD30を介して視認可能となったオブジェクトV4と入力装置50とが離隔し、連携していない状態を示している。図9(A)では、オブジェクトV4に入力された情報が反映されるオブジェクトV5が、HMD30を介して視認可能になっている。ここで、ユーザUのジェスチャとして、オブジェクトV4を掴み、そのままオブジェクトV4を移動させて入力装置50に接触させる動作を行うと、オブジェクトV4と入力装置50との接触が検知される。 FIGS. 9A to 9C show an example in which the object V4 made visible through the HMD 30 is a software keyboard and the input device 50 is a tablet terminal. FIG. 9A shows a state in which the object V4 that has become visible through the HMD 30 and the input device 50 are separated and are not linked. In FIG. 9A, the object V5 reflecting the information input to the object V4 is visible through the HMD 30. In FIG. Here, when the user U performs an action of grabbing the object V4 and moving the object V4 as it is to touch the input device 50, contact between the object V4 and the input device 50 is detected.

ユーザUのジェスチャの結果、オブジェクトV4と入力装置50との接触が検知されると、図9(B)に示すように、ソフトウェアキーボードとしてのオブジェクトV4が消え、HMD30を介して視認可能な状態になっている入力装置50に重畳するようにソフトウェアキーボードが表示される。また、入力装置50に接触するように、他のオブジェクトとしてのオブジェクトV6が出現する。オブジェクトV6には入力行および変換候補が表示される。このため、ユーザUは、オブジェクトV6に表示される入力行および変換候補を見ながら、入力装置50に重畳するように表示されたソフトウェアキーボードに対する入力操作を行うことが可能となる。 When contact between the object V4 and the input device 50 is detected as a result of the user U's gesture, the object V4 as the software keyboard disappears and becomes visible through the HMD 30, as shown in FIG. 9B. A software keyboard is displayed so as to be superimposed on the input device 50 . Also, an object V6 appears as another object so as to touch the input device 50. FIG. Input lines and conversion candidates are displayed in object V6. Therefore, the user U can perform an input operation on the software keyboard displayed so as to be superimposed on the input device 50 while looking at the input lines and conversion candidates displayed on the object V6.

ユーザUが、オブジェクトV6に表示される入力行および変換候補を見ながらソフトウェアキーボードに対する入力操作を行うと、その入力された情報が、オブジェクトV5に入力された情報として受け付けられる。そして、視認可能な態様でオブジェクトV5に反映される。なお、図9(B)では、入力装置50に重畳するように表示されたソフトウェアキーボードに対する入力操作が行われる構成となっているが、入力装置50に実際に表示されたソフトウェアキーボードに対する入力操作が行われる構成であってもよい。 When the user U performs an input operation on the software keyboard while viewing the input lines and conversion candidates displayed in the object V6, the input information is accepted as the information input to the object V5. Then, it is reflected in the object V5 in a visible manner. Note that FIG. 9B shows a configuration in which an input operation is performed on the software keyboard displayed so as to be superimposed on the input device 50, but an input operation on the software keyboard actually displayed on the input device 50 is performed. It may be a configuration that is performed.

ユーザUによる入力装置50に対する入力操作が完了すると、ユーザUがジェスチャによって、図9(B)に示す終了ボタンB4を押下する。すると、図9(C)に示すように、オブジェクトV6が消え、オブジェクトV6と入力装置50とが連携していない状態となり、入力装置50に重畳するように表示されていたソフトウェアキーボードが消える。また、オブジェクトV5には、ソフトウェアキーボード入力された情報が視認可能な態様で表示される。 When the user U completes the input operation on the input device 50, the user U gestures to press the end button B4 shown in FIG. 9B. Then, as shown in FIG. 9C, the object V6 disappears, the object V6 and the input device 50 are not linked, and the software keyboard superimposed on the input device 50 disappears. In addition, the information input by the software keyboard is displayed on the object V5 in a visually recognizable manner.

なお、接触して連携した状態にあるオブジェクトV6と入力装置50とを離隔し、連携していない状態にする手法は、終了ボタンB4を押下する手法に限定されない。例えば、ユーザUのジェスチャにより、入力装置50に接触して連携した状態にあるオブジェクトV4を掴み、そのままオブジェクトV4を移動させて入力装置50から離隔させる動作を行うことでも、連携していない状態にすることができる。 It should be noted that the method of separating the object V6 and the input device 50 which are in contact and in cooperation with each other and putting them into a non-cooperation state is not limited to the method of pressing the end button B4. For example, by a gesture of the user U, the object V4 that is in a linked state by contacting the input device 50 is grabbed, and the object V4 is moved as it is to move away from the input device 50. can do.

図10(A)乃至(C)には、HMD30を介して視認可能となったオブジェクトV7が、三次元モデル設計ソフトウェアによる編集のための入力を受付可能とする三次元モデルであり、入力装置50がノートタイプのパーソナルコンピュータである場合の例が示されている。図10(A)は、HMD30を介して視認可能となったオブジェクトV7と入力装置50とが離隔し、連携していない状態を示している。ここで、ユーザUのジェスチャとして、オブジェクトV7を掴み、そのままオブジェクトV7を移動させて入力装置50に接触させる動作を行うと、オブジェクトV7と入力装置50との接触が検知される。 In FIGS. 10A to 10C, an object V7 made visible through the HMD 30 is a three-dimensional model capable of accepting input for editing by the three-dimensional model design software, and the input device 50 is a notebook type personal computer. FIG. 10A shows a state in which the object V7 that has become visible through the HMD 30 and the input device 50 are separated and are not linked. Here, when the user U performs an action of grabbing the object V7 and moving the object V7 as it is to touch the input device 50, contact between the object V7 and the input device 50 is detected.

ユーザUのジェスチャの結果、オブジェクトV7と入力装置50との接触が検知されると、図10(B)に示すように、オブジェクトV7は元の位置に戻るとともに、HMD30を介して視認可能な状態になっている入力装置50の表示部に三次元モデルの編集画面が表示される。これにより、ユーザUは、HMD30を介して視認可能となった三次元モデルの編集画面を見ながら、三次元モデルであるオブジェクトV7を編集するための入力操作を行うことが可能となる。ユーザUが、三次元モデルの編集画面を見ながら三次元モデルを編集するための入力操作を行うと、その入力された情報が反映された三次元モデルがオブジェクトV7として表示される。 When contact between the object V7 and the input device 50 is detected as a result of the user U's gesture, the object V7 returns to its original position and is visible through the HMD 30, as shown in FIG. 10B. The editing screen of the three-dimensional model is displayed on the display section of the input device 50 that is set to . As a result, the user U can perform an input operation for editing the object V7, which is a three-dimensional model, while viewing the edit screen of the three-dimensional model that has become visible through the HMD 30. FIG. When the user U performs an input operation for editing the 3D model while viewing the 3D model editing screen, the 3D model reflecting the input information is displayed as an object V7.

ユーザUによる入力装置50に対する入力操作が完了すると、ユーザUがジェスチャによって、図10(B)に示す終了ボタンB5を押下する。すると、図10(C)に示すように、オブジェクトV7と入力装置50とが連携していない状態となり、入力装置50の表示部に表示されていた三次元モデルの編集画面が消える。また、三次元モデルを編集するために入力された情報が反映された三次元モデルが、オブジェクトV7として視認可能な態様で表示される。 When the user U completes the input operation on the input device 50, the user U gestures to press the end button B5 shown in FIG. 10B. Then, as shown in FIG. 10C, the object V7 and the input device 50 are not linked, and the editing screen of the three-dimensional model displayed on the display section of the input device 50 disappears. Also, the three-dimensional model reflecting the information input for editing the three-dimensional model is displayed in a visually recognizable form as an object V7.

図11(A)乃至(C)には、HMD30を介して視認可能となったオブジェクトV8が、テキスト入力を受付可能とする吹き出しであり、入力装置50がタブレット端末である場合の例が示されている。図11(A)乃至(C)の吹き出しは、HMD30を介して視認可能となった現実空間の点検設備に接触するように、または点検設備の近傍に表示された吹き出しである。この吹き出しには、点検設備そのものを示す情報や、点検の内容を示す情報、あるいは点検設備から得られる情報等が、編集可能な態様で表示される。図11(A)は、HMD30を介して視認可能となったオブジェクトV8と入力装置50とが離隔し、連携していない状態を示している。ここで、ユーザUのジェスチャとして、オブジェクトV8を掴み、そのままオブジェクトV8を移動させて入力装置50に接触させる動作を行うと、オブジェクトV8と入力装置50との接触が検知される。 FIGS. 11A to 11C show an example in which the object V8 made visible through the HMD 30 is a balloon capable of accepting text input, and the input device 50 is a tablet terminal. ing. The balloons in FIGS. 11A to 11C are balloons displayed so as to come into contact with the inspection equipment in the real space, which is made visible through the HMD 30, or in the vicinity of the inspection equipment. Information indicating the inspection facility itself, information indicating the details of the inspection, information obtained from the inspection facility, and the like are displayed in an editable manner in this balloon. FIG. 11A shows a state in which the object V8 that has become visible through the HMD 30 and the input device 50 are separated and are not linked. Here, when the user U performs an action of grabbing the object V8 and moving the object V8 to contact the input device 50, contact between the object V8 and the input device 50 is detected.

ユーザUのジェスチャの結果、オブジェクトV8と入力装置50との接触が検知されると、図11(B)に示すように、オブジェクトV8が元の位置に戻るとともに、HMD30を介して視認可能な状態になっている入力装置50に重畳するようにソフトウェアキーボードが表示される。また、入力装置50に接触するように、他のオブジェクトとしてのオブジェクトV9が出現する。オブジェクトV9には入力行および変換候補が表示される。これにより、ユーザUは、オブジェクトV9に表示される入力行および変換候補を見ながら、入力装置50に重畳するように表示されたソフトウェアキーボードに対する入力操作を行うことが可能となる。 When contact between the object V8 and the input device 50 is detected as a result of the user U's gesture, the object V8 returns to its original position and is visible through the HMD 30, as shown in FIG. 11B. A software keyboard is displayed so as to be superimposed on the input device 50 that is set to . Also, an object V9 appears as another object so as to touch the input device 50. FIG. An input line and conversion candidates are displayed in object V9. As a result, the user U can perform an input operation on the software keyboard superimposed on the input device 50 while viewing the input line and conversion candidates displayed on the object V9.

ユーザUが、オブジェクトV9に表示される入力行および変換候補を見ながらソフトウェアキーボードに対する入力操作を行うと、その入力された情報が、オブジェクトV9に入力された情報として受け付けられて、視認可能な態様でオブジェクトV8に反映される。なお、図11(B)では、入力装置50に重畳するように表示されたソフトウェアキーボードに対する入力操作が行われる構成となっているが、入力装置50に実際に表示されたソフトウェアキーボードに対する入力操作が行われる構成であってもよい。 When the user U performs an input operation on the software keyboard while looking at the input lines and conversion candidates displayed in the object V9, the input information is accepted as the information input to the object V9 and is visible. is reflected in the object V8. Note that FIG. 11B shows a configuration in which an input operation is performed on the software keyboard displayed so as to be superimposed on the input device 50, but an input operation on the software keyboard actually displayed on the input device 50 is performed. It may be a configuration that is performed.

ユーザUによる入力装置50に対する入力操作が完了すると、ユーザUがジェスチャによって、図11(B)に示す終了ボタンB6を押下する。すると、図11(C)に示すように、オブジェクトV9が消え、オブジェクトV9と入力装置50とが連携していない状態となり、入力装置50に重畳するように表示されていたソフトウェアキーボードが消える。また、オブジェクトV8には、ソフトウェアキーボード入力された情報が視認可能な態様で表示される。 When the user U completes the input operation on the input device 50, the user U gestures to press the end button B6 shown in FIG. 11B. Then, as shown in FIG. 11C, the object V9 disappears, the object V9 and the input device 50 are not linked, and the software keyboard superimposed on the input device 50 disappears. In addition, the information input from the software keyboard is displayed in the object V8 in a visually recognizable manner.

なお、連携した状態にあるオブジェクトV8と入力装置50とが連携していない状態にする手法は、終了ボタンB6を押下する手法に限定されない。例えば、ユーザUのジェスチャにより、入力装置50に接触した状態にあるオブジェクトV9を掴み、そのままオブジェクトV9を移動させて入力装置50から離隔させる動作を行うことでも、連携していない状態にすることができる。 It should be noted that the method of putting the object V8 in the linked state and the input device 50 into the non-linked state is not limited to the method of pressing the end button B6. For example, the uncoordinated state can also be achieved by the user U gesturing to grab the object V9 that is in contact with the input device 50, and moving the object V9 as it is to separate it from the input device 50. can.

以上、本実施の形態について説明したが、本発明は上述した本実施の形態に限るものではない。また、本発明による効果も、上述した本実施の形態に記載されたものに限定されない。例えば、図1に示すシステム構成、図2に示すハードウェア構成は、本発明の目的を達成するための例示に過ぎず、特に限定されない。また、図3に示す機能構成も例示に過ぎず、特に限定されない。上述した処理を全体として実行できる機能が図1の情報処理システム1に備えられていれば足り、この機能を実現するためにどのような機能構成を用いるかは図3の例に限定されない。 Although the embodiment has been described above, the present invention is not limited to the embodiment described above. Moreover, the effects of the present invention are not limited to those described in the above embodiment. For example, the system configuration shown in FIG. 1 and the hardware configuration shown in FIG. 2 are merely examples for achieving the object of the present invention, and are not particularly limited. Also, the functional configuration shown in FIG. 3 is merely an example, and is not particularly limited. It is sufficient that the information processing system 1 of FIG. 1 has a function capable of executing the above-described processing as a whole, and the functional configuration used to realize this function is not limited to the example of FIG.

また、図4および図5に示す処理のステップの順序も例示に過ぎず、特に限定されない。図示されたステップの順序に沿って時系列的に行われる処理だけではなく、必ずしも時系列的に処理されなくとも、並列的あるいは個別的に行われてもよい。また、図6乃至図11に示す具体例も一例に過ぎず、特に限定されない。 Also, the order of the processing steps shown in FIGS. 4 and 5 is merely an example and is not particularly limited. In addition to the processing performed chronologically along the order of the illustrated steps, the steps may not necessarily be processed chronologically, but may be performed in parallel or individually. Further, the specific examples shown in FIGS. 6 to 11 are only examples and are not particularly limited.

また、例えば、図6乃至図11には、ユーザUのジェスチャとして、オブジェクトを掴んだり示したりすることで入力装置50に接触させる構成となっているが、これに限定されない。オブジェクトと入力装置50が接触すればよいので、ユーザUのジェスチャとして、現実空間の入力装置50を移動させてオブジェクトに接触させる構成であってもよい。具体的には、ユーザUが、手に持った入力装置50を動かして、HMD30に表示されたオブジェクトに接触させる。この場合、HMD30の接触検知部107(図3参照)は、オブジェクトと入力装置50との接触が、ユーザUの意図的な操作(この場合、ジェスチャ)に基づくものであることを検知する。 Further, for example, in FIGS. 6 to 11 , the gesture of the user U is configured to touch the input device 50 by grasping or showing an object, but the present invention is not limited to this. As long as the object and the input device 50 come into contact with each other, the user's U gesture may be such that the input device 50 in the physical space is moved to come into contact with the object. Specifically, the user U moves the hand-held input device 50 to touch the object displayed on the HMD 30 . In this case, the contact detection unit 107 (see FIG. 3) of the HMD 30 detects that the contact between the object and the input device 50 is based on the user's U intentional operation (gesture in this case).

また、例えば、上述の実施の形態では、透過型のHMD30が採用されているが、非透過型のHMD30を採用してもよい。すなわち、本発明では、ユーザが表示装置を介してオブジェクトおよび入力装置を視認できればよいので、例えば、入力装置の撮像画像が、非透過型のHMDにリアルタイムで表示されるようにしてもよい。 Further, for example, although the transmissive HMD 30 is employed in the above-described embodiment, a non-transmissive HMD 30 may be employed. That is, in the present invention, it is sufficient that the user can visually recognize the object and the input device through the display device. For example, the captured image of the input device may be displayed on the non-transmissive HMD in real time.

1…情報処理システム、30…HMD、31…制御部、50…入力装置、90…ネットワーク、101…表示制御部、102…データ取得部、103…登録判定部、104…挙動推定部、105…装置特定部、106…位置取得部、107…接触検知部、108…入力情報受付部、109…入力制御部 DESCRIPTION OF SYMBOLS 1... Information processing system 30... HMD 31... Control part 50... Input device 90... Network 101... Display control part 102... Data acquisition part 103... Registration determination part 104... Behavior estimation part 105... Device identification unit 106 Position acquisition unit 107 Contact detection unit 108 Input information reception unit 109 Input control unit

Claims (25)

プロセッサを備え、
前記プロセッサは、
情報の入力操作を受付可能とするオブジェクトおよび入力装置を、表示装置を介して視認可能にする制御を行い、
前記表示装置を介して視認可能になった前記オブジェクトおよび前記入力装置の各々の位置に関する情報に基づいて、当該オブジェクトと当該入力装置との接触を検知し、
前記接触を検知すると、前記入力装置に入力された情報を、前記オブジェクトに入力された情報として受け付けることを特徴とする、
情報処理装置。
with a processor
The processor
Control to make the object and input device capable of accepting information input operations visible through the display device,
Detecting contact between the object and the input device based on information about the respective positions of the object and the input device that have become visible through the display device;
When the contact is detected, the information input to the input device is accepted as the information input to the object,
Information processing equipment.
前記プロセッサは、現実空間に存在する前記入力装置を、前記表示装置を介して視認可能にする制御を行うことを特徴とする、
請求項1に記載の情報処理装置。
The processor controls the input device existing in the physical space to be visible through the display device,
The information processing device according to claim 1 .
前記プロセッサは、前記現実空間に存在する前記入力装置のうち、ユーザの入力操作の対象となるものを特定して前記表示装置を介して視認可能にする制御を行うことを特徴とする、
請求項2に記載の情報処理装置。
The processor specifies, among the input devices existing in the physical space, the target of the user's input operation, and performs control to make it visible through the display device,
The information processing apparatus according to claim 2.
前記プロセッサは、前記入力装置から提供されるデータ、当該入力装置を撮像した画像データ、および当該入力装置を対象とするセンシングデータのうち、いずれか1以上のデータから推定される当該入力装置の挙動に基づいて、前記ユーザの入力操作の対象となる前記入力装置を特定して前記表示装置を介して視認可能にする制御を行うことを特徴とする、
請求項3に記載の情報処理装置。
The processor estimates the behavior of the input device from at least one of data provided from the input device, image data obtained by imaging the input device, and sensing data targeted for the input device. Based on, the input device that is the target of the user's input operation is specified and controlled to be visible through the display device.
The information processing apparatus according to claim 3.
前記プロセッサは、前記入力装置の慣性計測データ(IMUデータ)と、三次元挙動データとの突合結果から推定される当該入力装置の挙動に基づいて、前記ユーザの入力操作の対象となる前記入力装置を特定して前記表示装置を介して視認可能にする制御を行うことを特徴とする、
請求項4に記載の情報処理装置。
The processor controls the input device to be operated by the user based on the behavior of the input device estimated from the result of matching the inertial measurement data (IMU data) of the input device and the three-dimensional behavior data. is specified and controlled to be visible through the display device,
The information processing apparatus according to claim 4.
前記プロセッサは、ユーザに装着された前記表示装置を介して、前記入力装置を視認可能にする制御を行うことを特徴とする、
請求項1に記載の情報処理装置。
The processor performs control to make the input device visible via the display device worn by the user,
The information processing device according to claim 1 .
前記プロセッサは、前記ユーザの頭部に装着された前記表示装置としてのヘッドマウントディスプレイを介して、前記入力装置を視認可能にする制御を行うことを特徴とする、
請求項6に記載の情報処理装置。
The processor performs control to make the input device visible via a head-mounted display as the display device mounted on the user's head,
The information processing device according to claim 6 .
前記プロセッサは、テキスト情報、音声情報、および画像情報のうちいずれか1種類以上の情報の前記入力操作を受付可能とする前記オブジェクトおよび前記入力装置を、前記表示装置を介して視認可能にする制御を行うことを特徴とする、
請求項1に記載の情報処理装置。
The processor controls to make the object and the input device capable of accepting the input operation of information of one or more types of text information, voice information, and image information visible through the display device. characterized by performing
The information processing device according to claim 1 .
前記プロセッサは、前記1種類以上の情報の前記入力操作を受付可能とする前記オブジェクトおよび前記入力装置を、前記表示装置を介して視認可能にする制御として、当該入力装置への当該入力操作を支援する他のオブジェクトをさらに視認可能にする制御を行う
ことを特徴とする、
請求項8に記載の情報処理装置。
The processor supports the input operation to the input device as control to make the object and the input device capable of accepting the input operation of the one or more types of information visible through the display device. characterized by performing control to make other objects to be more visible,
The information processing apparatus according to claim 8 .
前記プロセッサは、前記入力装置の近傍に、または当該入力装置の少なくとも一部に重畳するように、前記他のオブジェクトを視認可能にする制御を行うことを特徴とする、
請求項9に記載の情報処理装置。
The processor performs control to make the other object visible so as to be near the input device or overlap at least a part of the input device,
The information processing apparatus according to claim 9 .
前記プロセッサは、前記位置に関する情報として、前記表示装置を介して視認可能になった前記オブジェクトおよび前記入力装置の各々の外縁を示す情報に基づいて、当該オブジェクトと当該入力装置との接触を検知することを特徴とする、
請求項1に記載の情報処理装置。
The processor detects contact between the object and the input device based on information indicating outer edges of the object and the input device that are visible through the display device as the position information. characterized by
The information processing device according to claim 1 .
前記プロセッサは、前記オブジェクトおよび前記入力装置の各々の前記外縁を示す情報から特定される、前記外縁を囲む仮想領域の外縁同士の接触を、当該オブジェクトと当該入力装置との接触として検知することを特徴とする、
請求項11に記載の情報処理装置。
The processor detects, as contact between the object and the input device, contact between outer edges of a virtual area surrounding the outer edges, which is specified from information indicating the outer edges of each of the object and the input device. characterized by
The information processing device according to claim 11 .
前記仮想領域の外縁は、前記オブジェクトおよび前記入力装置の各々の外縁から外側に向かう距離の値として予め定められた値に基づいて特定されることを特徴とする、
請求項12に記載の情報処理装置。
The outer edge of the virtual area is specified based on a predetermined value as a value of the distance outward from the outer edge of each of the object and the input device,
The information processing apparatus according to claim 12.
前記プロセッサは、検知した前記接触が、ユーザの意図的な操作に基づくものである場合に、前記入力装置に入力された情報を前記オブジェクトに入力された情報として受け付けることを特徴とする、
請求項1に記載の情報処理装置。
When the detected contact is based on a user's intentional operation, the processor accepts information input to the input device as information input to the object,
The information processing device according to claim 1 .
前記プロセッサは、検知した前記接触が、前記ユーザのジェスチャによる、前記オブジェクトを移動させて前記入力装置に接触させる操作、または前記入力装置を移動させて前記オブジェクトに接触させる操作によるものである場合には、当該ユーザの意図的な操作に基づくものとして、当該入力装置に入力された情報を当該オブジェクトに入力された情報として受け付けることを特徴とする、
請求項14に記載の情報処理装置。
When the detected contact is an operation of moving the object to contact the input device or an operation of moving the input device to contact the object, the detected contact is a gesture of the user. is based on the user's intentional operation, and accepts information input to the input device as information input to the object,
The information processing apparatus according to claim 14.
前記プロセッサは、前記接触のタイミングにおいて、前記ユーザの視線が、前記オブジェクトと前記入力装置との接触点、またはその近傍にある場合には、当該ユーザによる意図的な操作に基づくものとして、当該入力装置に入力された情報を、当該オブジェクトに入力された情報として受け付けることを特徴とする、
請求項14に記載の情報処理装置。
When the line of sight of the user is at or near a contact point between the object and the input device at the timing of the contact, the processor determines that the input is based on an intentional operation by the user. characterized by accepting information input to the device as information input to the object,
The information processing apparatus according to claim 14.
前記プロセッサは、前記オブジェクトの種類と前記入力装置の機能との組み合わせに基づいて特定される前記入力操作を行うための入力機能により当該入力装置に入力された情報を、当該オブジェクトに入力された情報として受け付けることを特徴とする、
請求項1に記載の情報処理装置。
The processor converts information input to the input device by an input function for performing the input operation specified based on the combination of the type of the object and the function of the input device to information input to the object. characterized by accepting as
The information processing device according to claim 1 .
前記プロセッサは、前記入力装置から提供されるデータ、当該入力装置を撮像した画像データ、および当該入力装置を対象とするセンシングデータのうちいずれか1以上のデータに基づいて、前記入力装置の機能を特定することを特徴とする、
請求項17に記載の情報処理装置。
The processor controls the function of the input device based on any one or more of data provided from the input device, image data obtained by imaging the input device, and sensing data targeted for the input device. characterized by identifying
The information processing apparatus according to claim 17.
前記プロセッサは、データベースに記憶されている前記組み合わせにより特定される前記入力機能にて前記入力装置に入力された情報を、前記オブジェクトに入力された情報として受け付けることを特徴とする、
請求項17に記載の情報処理装置。
The processor receives information input to the input device by the input function specified by the combination stored in the database as information input to the object,
The information processing apparatus according to claim 17.
前記プロセッサは、
前記オブジェクトおよび前記入力装置の各々の前記位置に関する情報に基づいて、接触した状態にある当該オブジェクトと当該入力装置との離隔をさらに検知し、
前記離隔を検知すると、前記入力装置に情報が入力されたとしても、当該情報を前記オブジェクトに入力された情報として受け付けないことを特徴とする、
請求項1に記載の情報処理装置。
The processor
further detecting a distance between the object in contact with the input device based on the information about the positions of each of the object and the input device;
When the separation is detected, even if information is input to the input device, the information is not accepted as information input to the object,
The information processing device according to claim 1 .
前記プロセッサは、検知した前記離隔が、ユーザによる意図的な操作に基づくものである場合に、前記入力装置に情報が入力されたとしても、当該情報を前記オブジェクトに入力された情報として受け付けないことを特徴とする、
請求項20に記載の情報処理装置。
When the detected distance is based on a user's intentional operation, the processor does not accept information input to the input device as information input to the object. characterized by
The information processing apparatus according to claim 20.
前記プロセッサは、前記オブジェクトと、前記入力装置との間で連携先の候補の登録が完了している場合に、前記接触を検知することを特徴とする、
請求項1に記載の情報処理装置。
The processor detects the contact when the registration of the candidate for the cooperation destination is completed between the object and the input device,
The information processing device according to claim 1 .
前記プロセッサは、前記オブジェクトと、予め定められた前記入力装置、または予め定められた接続用のアプリケーションソフトウェアがインストールされた前記入力装置との間で連携先の候補の登録が完了している場合に、前記接触を検知することを特徴とする、
請求項22に記載の情報処理装置。
The processor, when registration of candidates for cooperation destinations has been completed between the object and the predetermined input device or the input device in which predetermined application software for connection is installed, , characterized by detecting the contact,
The information processing apparatus according to claim 22.
情報の入力操作を受付可能とするオブジェクトおよび入力装置を、表示装置を介して視認可能にする制御を行う表示制御手段と、
前記表示装置を介して視認可能になった前記オブジェクトおよび前記入力装置の各々の位置に関する情報に基づいて、当該オブジェクトと当該入力装置との接触を検知する検知手段と、
前記接触を検知すると、前記入力装置に入力された情報を、前記オブジェクトに入力された情報として受け付ける受付手段と、
を有することを特徴とする情報処理システム。
display control means for performing control to make an object and an input device capable of accepting an information input operation visible through a display device;
detection means for detecting contact between the object and the input device based on information on the respective positions of the object and the input device that are visible through the display device;
receiving means for receiving information input to the input device as information input to the object when the contact is detected;
An information processing system characterized by having:
情報の入力操作を受付可能とするオブジェクトおよび入力装置を、表示装置を介して視認可能にする制御を行う機能と、
前記表示装置を介して視認可能になった前記オブジェクトおよび前記入力装置の各々の位置に関する情報に基づいて、当該オブジェクトと当該入力装置との接触を検知する機能と、
前記接触を検知すると、前記入力装置に入力された情報を、前記オブジェクトに入力された情報として受け付ける機能と、
を実現させるためのプログラム。
A function of performing control to make an object and an input device capable of accepting an information input operation visible through a display device;
a function of detecting contact between the object and the input device based on information about the respective positions of the object and the input device that are visible through the display device;
a function of receiving information input to the input device as information input to the object when the contact is detected;
program to make it happen.
JP2021157001A 2021-09-27 2021-09-27 Information processing device, information processing system, and program Pending JP2023047853A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021157001A JP2023047853A (en) 2021-09-27 2021-09-27 Information processing device, information processing system, and program
US17/666,472 US20230095811A1 (en) 2021-09-27 2022-02-07 Information processing apparatus, information processing system, and non-transitory computer readable medium storing program
CN202210282508.XA CN115877946A (en) 2021-09-27 2022-03-22 Information processing apparatus, information processing system, storage medium, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021157001A JP2023047853A (en) 2021-09-27 2021-09-27 Information processing device, information processing system, and program

Publications (1)

Publication Number Publication Date
JP2023047853A true JP2023047853A (en) 2023-04-06

Family

ID=85718823

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021157001A Pending JP2023047853A (en) 2021-09-27 2021-09-27 Information processing device, information processing system, and program

Country Status (3)

Country Link
US (1) US20230095811A1 (en)
JP (1) JP2023047853A (en)
CN (1) CN115877946A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2025004775A (en) * 2023-06-26 2025-01-15 グーグル エルエルシー Reality Screen in Extended Reality

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017059062A (en) * 2015-09-17 2017-03-23 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2017058971A (en) * 2015-09-16 2017-03-23 株式会社バンダイナムコエンターテインメント Program and image formation device
JP2019111226A (en) * 2017-12-25 2019-07-11 グリー株式会社 Game device, control method and control program
US20210011556A1 (en) * 2019-07-09 2021-01-14 Facebook Technologies, Llc Virtual user interface using a peripheral device in artificial reality environments

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9791948B2 (en) * 2012-09-21 2017-10-17 Sony Corporation Control device and storage medium
US10168769B2 (en) * 2015-09-28 2019-01-01 Nec Corporation Input apparatus, input method, and program
US11487353B2 (en) * 2016-11-14 2022-11-01 Logitech Europe S.A. Systems and methods for configuring a hub-centric virtual/augmented reality environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017058971A (en) * 2015-09-16 2017-03-23 株式会社バンダイナムコエンターテインメント Program and image formation device
JP2017059062A (en) * 2015-09-17 2017-03-23 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2019111226A (en) * 2017-12-25 2019-07-11 グリー株式会社 Game device, control method and control program
US20210011556A1 (en) * 2019-07-09 2021-01-14 Facebook Technologies, Llc Virtual user interface using a peripheral device in artificial reality environments

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2025004775A (en) * 2023-06-26 2025-01-15 グーグル エルエルシー Reality Screen in Extended Reality

Also Published As

Publication number Publication date
US20230095811A1 (en) 2023-03-30
CN115877946A (en) 2023-03-31

Similar Documents

Publication Publication Date Title
Lee et al. Towards augmented reality driven human-city interaction: Current research on mobile headsets and future challenges
CN114115689B (en) Cross-environment sharing
KR102090269B1 (en) Method for searching information, device, and computer readable recording medium thereof
US9069386B2 (en) Gesture recognition device, method, program, and computer-readable medium upon which program is stored
US9075462B2 (en) Finger-specific input on touchscreen devices
EP1980937B1 (en) Object search method and terminal having object search function
US9389779B2 (en) Depth-based user interface gesture control
US10359905B2 (en) Collaboration with 3D data visualizations
EP2500809A2 (en) Handheld devices and related data transmission methods
EP2854003B1 (en) Electronic device and method for converting image format object to text format object
CN104756065B (en) Information processing device, information processing method, and computer-readable recording medium
US20160092062A1 (en) Input support apparatus, method of input support, and computer program
JP5728592B1 (en) Electronic device and handwriting input method
US9378427B2 (en) Displaying handwritten strokes on a device according to a determined stroke direction matching the present direction of inclination of the device
JP6991486B2 (en) Methods and systems for inserting characters into strings
CN104583906A (en) Input method and device for portable device
CN104049737A (en) Object control method and apparatus of user device
CN102906671A (en) Gesture input device and gesture input method
WO2015045676A1 (en) Information processing device and control program
KR20190063853A (en) Method and apparatus for moving an input field
KR102057196B1 (en) Method and system for transmitting information, device and computer readable recording medium thereof
JP2023047853A (en) Information processing device, information processing system, and program
KR102824359B1 (en) An electronic device and method for operating functions of the electronic device using uncontact gesture
Lee et al. Towards augmented reality-driven human-city interaction: Current research and future challenges
JP7467842B2 (en) Display device, display method, and display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250718

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载