JP2023047853A - Information processing device, information processing system, and program - Google Patents
Information processing device, information processing system, and program Download PDFInfo
- Publication number
- JP2023047853A JP2023047853A JP2021157001A JP2021157001A JP2023047853A JP 2023047853 A JP2023047853 A JP 2023047853A JP 2021157001 A JP2021157001 A JP 2021157001A JP 2021157001 A JP2021157001 A JP 2021157001A JP 2023047853 A JP2023047853 A JP 2023047853A
- Authority
- JP
- Japan
- Prior art keywords
- input device
- input
- information
- contact
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0384—Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
- H04M1/72412—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】表示装置を介して視認可能になったオブジェクトに対する入力操作の操作性を、ジェスチャによる入力操作を行う場合よりも向上させる。【解決手段】情報処理装置としてのHMD30は、制御部31を備え、制御部31では、表示制御部101が、情報の入力操作を受付可能とするオブジェクトおよび入力装置を、表示装置を介して視認可能にする制御を行い、接触検知部107が、表示装置を介して視認可能になったオブジェクトおよび入力装置の各々の位置に関する情報に基づいて、オブジェクトと入力装置との接触を検知する。すると、入力情報受付部108が、入力装置に入力された情報を、オブジェクトに入力された情報として受け付ける。【選択図】図3An object of the present invention is to improve the operability of an input operation on an object that has become visible through a display device, as compared with the case of performing an input operation using gestures. An HMD (30) as an information processing device includes a control unit (31), in which a display control unit (101) visually recognizes an object and an input device capable of accepting an information input operation through a display device. The contact detection unit 107 detects contact between the object and the input device based on the information regarding the positions of the object and the input device that are visible through the display device. Then, the input information receiving unit 108 receives the information input to the input device as the information input to the object. [Selection drawing] Fig. 3
Description
本発明は、情報処理装置、情報処理システム、およびプログラムに関する。 The present invention relates to an information processing device, an information processing system, and a program.
例えばHMD(ヘッドマウントディスプレイ)等の表示装置に表示されたオブジェクトをジェスチャによって操作するAR(拡張現実)やVR(仮想現実)の技術は、直感的な操作で3Dモデルの閲覧等を行える点でメリットがある。例えば、特許文献1には、HMDを装着しているユーザが、ジェスチャによってスマートフォンを1以上の仮想オブジェクトの各々に重ねながらタップやピンチ等の入力操作を行えるようにする技術が開示されている。
For example, AR (augmented reality) and VR (virtual reality) technologies, which operate objects displayed on a display device such as HMD (head-mounted display) with gestures, are capable of viewing 3D models with intuitive operations. There are merits. For example,
しかしながら、HMDに表示されたオブジェクトへの入力操作をジェスチャによって行う場合、パーソナルコンピュータ、スマートフォン、タブレット等の汎用デバイスに入力する場合よりも操作が難しいと感じるユーザが多い。 However, when performing an input operation on an object displayed on the HMD by gestures, many users feel that the operation is more difficult than when inputting on a general-purpose device such as a personal computer, a smartphone, or a tablet.
本発明の目的は、表示装置を介して視認可能になったオブジェクトに対する入力操作の操作性を、ジェスチャによる入力操作を行う場合よりも向上させることにある。 An object of the present invention is to improve the operability of an input operation on an object that has become visible through a display device, as compared with the case of performing an input operation using gestures.
請求項1に記載された発明は、プロセッサを備え、前記プロセッサは、情報の入力操作を受付可能とするオブジェクトおよび入力装置を、表示装置を介して視認可能にする制御を行い、前記表示装置を介して視認可能になった前記オブジェクトおよび前記入力装置の各々の位置に関する情報に基づいて、当該オブジェクトと当該入力装置との接触を検知し、前記接触を検知すると、前記入力装置に入力された情報を、前記オブジェクトに入力された情報として受け付けることを特徴とする、情報処理装置である。
請求項2に記載された発明は、前記プロセッサは、現実空間に存在する前記入力装置を、前記表示装置を介して視認可能にする制御を行うことを特徴とする、請求項1に記載の情報処理装置である。
請求項3に記載された発明は、前記プロセッサは、前記現実空間に存在する前記入力装置のうち、ユーザの入力操作の対象となるものを特定して前記表示装置を介して視認可能にする制御を行うことを特徴とする、請求項2に記載の情報処理装置である。
請求項4に記載された発明は、前記プロセッサは、前記入力装置から提供されるデータ、当該入力装置を撮像した画像データ、および当該入力装置を対象とするセンシングデータのうち、いずれか1以上のデータから推定される当該入力装置の挙動に基づいて、前記ユーザの入力操作の対象となる前記入力装置を特定して前記表示装置を介して視認可能にする制御を行うことを特徴とする、請求項3に記載の情報処理装置である。
請求項5に記載された発明は、前記プロセッサは、前記入力装置の慣性計測データ(IMUデータ)と、三次元挙動データとの突合結果から推定される当該入力装置の挙動に基づいて、前記ユーザの入力操作の対象となる前記入力装置を特定して前記表示装置を介して視認可能にする制御を行うことを特徴とする、請求項4に記載の情報処理装置である。
請求項6に記載された発明は、前記プロセッサは、ユーザに装着された前記表示装置を介して、前記入力装置を視認可能にする制御を行うことを特徴とする、請求項1に記載の情報処理装置である。
請求項7に記載された発明は、前記プロセッサは、前記ユーザの頭部に装着された前記表示装置としてのヘッドマウントディスプレイを介して、前記入力装置を視認可能にする制御を行うことを特徴とする、請求項6に記載の情報処理装置である。
請求項8に記載された発明は、前記プロセッサは、テキスト情報、音声情報、および画像情報のうちいずれか1種類以上の情報の前記入力操作を受付可能とする前記オブジェクトおよび前記入力装置を、前記表示装置を介して視認可能にする制御を行うことを特徴とする、請求項1に記載の情報処理装置である。
請求項9に記載された発明は、前記プロセッサは、前記1種類以上の情報の前記入力操作を受付可能とする前記オブジェクトおよび前記入力装置を、前記表示装置を介して視認可能にする制御として、当該入力装置への当該入力操作を支援する他のオブジェクトをさらに視認可能にする制御を行うことを特徴とする、請求項8に記載の情報処理装置である。
請求項10に記載された発明は、前記プロセッサは、前記入力装置の近傍に、または当該入力装置の少なくとも一部に重畳するように、前記他のオブジェクトを視認可能にする制御を行うことを特徴とする、請求項9に記載の情報処理装置である。
請求項11に記載された発明は、前記プロセッサは、前記位置に関する情報として、前記表示装置を介して視認可能になった前記オブジェクトおよび前記入力装置の各々の外縁を示す情報に基づいて、当該オブジェクトと当該入力装置との接触を検知することを特徴とする、請求項1に記載の情報処理装置である。
請求項12に記載された発明は、前記プロセッサは、前記オブジェクトおよび前記入力装置の各々の前記外縁を示す情報から特定される、前記外縁を囲む仮想領域の外縁同士の接触を、当該オブジェクトと当該入力装置との接触として検知することを特徴とする、請求項11に記載の情報処理装置である。
請求項13に記載された発明は、前記仮想領域の外縁は、前記オブジェクトおよび前記入力装置の各々の外縁から外側に向かう距離の値として予め定められた値に基づいて特定されることを特徴とする、請求項12に記載の情報処理装置である。
請求項14に記載された発明は、前記プロセッサは、検知した前記接触が、ユーザの意図的な操作に基づくものである場合に、前記入力装置に入力された情報を前記オブジェクトに入力された情報として受け付けることを特徴とする、請求項1に記載の情報処理装置である。
請求項15に記載された発明は、前記プロセッサは、検知した前記接触が、前記ユーザのジェスチャによる、前記オブジェクトを移動させて前記入力装置に接触させる操作、または前記入力装置を移動させて前記オブジェクトに接触させる操作によるものである場合には、当該ユーザの意図的な操作に基づくものとして、当該入力装置に入力された情報を当該オブジェクトに入力された情報として受け付けることを特徴とする、請求項14に記載の情報処理装置である。
請求項16に記載された発明は、前記プロセッサは、前記接触のタイミングにおいて、前記ユーザの視線が、前記オブジェクトと前記入力装置との接触点、またはその近傍にある場合には、当該ユーザによる意図的な操作に基づくものとして、当該入力装置に入力された情報を、当該オブジェクトに入力された情報として受け付けることを特徴とする、請求項14に記載の情報処理装置である。
請求項17に記載された発明は、前記プロセッサは、前記オブジェクトの種類と前記入力装置の機能との組み合わせに基づいて特定される前記入力操作を行うための入力機能により当該入力装置に入力された情報を、当該オブジェクトに入力された情報として受け付けることを特徴とする、請求項1に記載の情報処理装置である。
請求項18に記載された発明は、前記プロセッサは、前記入力装置から提供されるデータ、当該入力装置を撮像した画像データ、および当該入力装置を対象とするセンシングデータのうちいずれか1以上のデータに基づいて、前記入力装置の機能を特定することを特徴とする、請求項17に記載の情報処理装置である。
請求項19に記載された発明は、前記プロセッサは、データベースに記憶されている前記組み合わせにより特定される前記入力機能にて前記入力装置に入力された情報を、前記オブジェクトに入力された情報として受け付けることを特徴とする、請求項17に記載の情報処理装置である。
請求項20に記載された発明は、前記プロセッサは、前記オブジェクトおよび前記入力装置の各々の前記位置に関する情報に基づいて、接触した状態にある当該オブジェクトと当該入力装置との離隔をさらに検知し、前記離隔を検知すると、前記入力装置に情報が入力されたとしても、当該情報を前記オブジェクトに入力された情報として受け付けないことを特徴とする、請求項1に記載の情報処理装置である。
請求項21に記載された発明は、前記プロセッサは、検知した前記離隔が、ユーザによる意図的な操作に基づくものである場合に、前記入力装置に情報が入力されたとしても、当該情報を前記オブジェクトに入力された情報として受け付けないことを特徴とする、請求項20に記載の情報処理装置である。
請求項22に記載された発明は、前記プロセッサは、前記オブジェクトと、前記入力装置との間で連携先の候補の登録が完了している場合に、前記接触を検知することを特徴とする、請求項1に記載の情報処理装置である。
請求項23に記載された発明は、前記プロセッサは、前記オブジェクトと、予め定められた前記入力装置、または予め定められた接続用のアプリケーションソフトウェアがインストールされた前記入力装置との間で連携先の候補の登録が完了している場合に、前記接触を検知することを特徴とする、請求項22に記載の情報処理装置である。
請求項24に記載された発明は、情報の入力操作を受付可能とするオブジェクトおよび入力装置を、表示装置を介して視認可能にする制御を行う表示制御手段と、前記表示装置を介して視認可能になった前記オブジェクトおよび前記入力装置の各々の位置に関する情報に基づいて、当該オブジェクトと当該入力装置との接触を検知する検知手段と、前記接触を検知すると、前記入力装置に入力された情報を、前記オブジェクトに入力された情報として受け付ける受付手段と、を有することを特徴とする情報処理システムである。
請求項25に記載された発明は、情報の入力操作を受付可能とするオブジェクトおよび入力装置を、表示装置を介して視認可能にする制御を行う機能と、前記表示装置を介して視認可能になった前記オブジェクトおよび前記入力装置の各々の位置に関する情報に基づいて、当該オブジェクトと当該入力装置との接触を検知する機能と、前記接触を検知すると、前記入力装置に入力された情報を、前記オブジェクトに入力された情報として受け付ける機能と、を実現させるためのプログラムである。
The invention described in
In the invention recited in claim 2, the processor performs control to make the input device existing in the physical space visible through the display device. processing equipment.
In the invention recited in claim 3, the processor specifies, among the input devices existing in the physical space, one to be subjected to an input operation by a user, and performs control to make it visible through the display device. 3. The information processing apparatus according to claim 2, characterized by:
According to the fourth aspect of the present invention, the processor is configured to store any one or more of data provided from the input device, image data obtained by imaging the input device, and sensing data targeted for the input device. Based on the behavior of the input device estimated from the data, the input device to be the target of the user's input operation is specified, and control is performed to make it visible through the display device. Item 3. An information processing apparatus according to item 3.
According to the invention recited in claim 5, the processor determines the user's behavior based on the behavior of the input device estimated from the matching result of the inertial measurement data (IMU data) of the input device and the three-dimensional behavior data. 5. The information processing apparatus according to claim 4, wherein the input device to be subjected to the input operation is specified and controlled to be visible through the display device.
The invention recited in claim 6 is characterized in that the processor performs control to make the input device visible through the display device worn by the user. processing equipment.
The invention recited in claim 7 is characterized in that the processor performs control to make the input device visible via a head-mounted display as the display device worn on the user's head. The information processing apparatus according to claim 6, wherein
According to the eighth aspect of the invention, the processor controls the object and the input device capable of receiving the input operation of information of one or more of text information, voice information, and image information. 2. The information processing apparatus according to
In the invention recited in claim 9, the processor controls to make the object and the input device capable of accepting the input operation of the one or more types of information visible through the display device, 9. The information processing apparatus according to claim 8, wherein control is performed to further make visible another object that supports the input operation to the input device.
The invention according to claim 10 is characterized in that the processor performs control to make the other object visible so as to be in the vicinity of the input device or superimposed on at least a part of the input device. The information processing apparatus according to claim 9, wherein
According to the invention recited in claim 11, the processor, as the information about the position, based on information indicating outer edges of each of the object and the input device made visible through the display device, 2. The information processing apparatus according to
According to a twelfth aspect of the invention, the processor detects contact between outer edges of a virtual area surrounding the outer edge specified from information indicating the outer edge of each of the object and the input device. 12. The information processing apparatus according to claim 11, wherein the information processing apparatus detects contact with an input device.
A thirteenth aspect of the invention is characterized in that the outer edge of the virtual area is specified based on a predetermined value as a value of the distance outward from the outer edge of each of the object and the input device. 13. The information processing apparatus according to claim 12.
According to the fourteenth aspect of the invention, when the detected contact is based on a user's intentional operation, the processor converts information input to the input device into information input to the object. 2. The information processing apparatus according to
The invention according to claim 15, wherein the detected contact is an operation of moving the object to touch the input device or moving the input device to touch the object by a gesture of the user. If the input is based on the user's intentional operation, the information input to the input device is accepted as the information input to the object. 14. The information processing apparatus according to 14.
According to the sixteenth aspect of the invention, when the line of sight of the user is at or near the point of contact between the object and the input device at the timing of the contact, the processor detects the user's intent. 15. The information processing apparatus according to claim 14, wherein the information input to the input device is accepted as the information input to the object based on a physical operation.
According to the seventeenth aspect of the invention, the processor performs an input function for performing the input operation specified based on the combination of the type of the object and the function of the input device. 2. The information processing apparatus according to
According to the eighteenth aspect of the present invention, the processor is configured to store at least one of data provided from the input device, image data obtained by imaging the input device, and sensing data targeted for the input device. 18. The information processing apparatus according to claim 17, wherein the function of the input device is specified based on.
In the invention recited in claim 19, the processor receives information input to the input device by the input function specified by the combination stored in the database as information input to the object. 18. The information processing apparatus according to claim 17, characterized by:
According to the invention recited in claim 20, the processor further detects a distance between the object in contact with the input device based on the information regarding the positions of the object and the input device, and 2. The information processing apparatus according to
In the invention recited in claim 21, the processor, when the detected distance is based on an intentional operation by the user, even if information is input to the input device, the information is input to the input device. 21. The information processing apparatus according to claim 20, wherein the information input to the object is not accepted.
The invention recited in claim 22 is characterized in that the processor detects the contact when registration of cooperation destination candidates has been completed between the object and the input device. An information processing apparatus according to
According to the twenty-third aspect of the invention, the processor is configured to link between the object and the predetermined input device or the input device in which predetermined application software for connection is installed. 23. The information processing apparatus according to claim 22, wherein said contact is detected when registration of candidates has been completed.
The invention described in claim 24 comprises: display control means for controlling an object and an input device capable of receiving an information input operation to be visible through a display device; detection means for detecting contact between the object and the input device based on information on the respective positions of the object and the input device, and detecting information input to the input device when the contact is detected; and receiving means for receiving information input to the object.
The invention described in claim 25 has a function of controlling an object and an input device capable of receiving an information input operation to be visible through a display device, and a function of detecting contact between the object and the input device based on information about the respective positions of the object and the input device; It is a program for realizing the function of accepting as information input to
請求項1の本発明によれば、入力装置への入力操作がそのままオブジェクトへの入力操作として連携されるので、表示装置を介して視認可能となったオブジェクトに対する入力操作の操作性を、ジェスチャによる入力操作を行う場合によりも向上させることができる。
請求項2の本発明によれば、現実空間に存在する入力装置を、表示装置を介して視認可能にして、その入力装置に対する入力操作を、オブジェクトに対する入力操作とすることが可能となる。
請求項3の本発明によれば、現実空間にてユーザの入力操作の対象となる入力装置を、表示装置を介して視認可能にして、その入力装置に対するユーザの入力操作を、オブジェクトに対する入力操作とすることが可能となる。
請求項4の本発明によれば、現実空間にてユーザの入力操作の対象となる入力装置であるかどうかを、入力装置の挙動に基づいて特定することが可能となる。
請求項5の本発明によれば、現実空間にてユーザの入力操作の対象となる入力装置であるかどうかを、入力装置の慣性計測データ(IMUデータ)と、三次元の挙動データとの突合結果に基づいて推定することが可能となる。
請求項6の本発明によれば、ユーザに装着された表示装置を介してオブジェクトおよび入力装置を視認可能にし、入力装置に対するユーザの入力操作をオブジェクトに対する入力操作とすることが可能となる。
請求項7の本発明によれば、ユーザの頭部に装着されたヘッドマウントディスプレイを介して入力装置を視認可能にして、その入力装置に対するユーザの入力操作を、オブジェクトに対する入力操作とすることが可能となる。
請求項8の本発明によれば、表示装置を介して視認可能になった入力装置に対する、テキスト情報、音声情報、および画像情報のうちいずれか1種類以上の情報の入力操作を、オブジェクトに対する入力操作とすることが可能となる。
請求項9の本発明によれば、表示装置を介して視認可能になった入力装置に対する入力操作の操作性を向上させることが可能となる。
請求項10の本発明によれば、表示装置を介して視認可能になった入力装置への入力操作の操作性を向上させることができる。
請求項11の本発明によれば、表示装置を介して視認可能になったオブジェクトおよび入力装置の各々の外縁を示す情報から、オブジェクトと入力装置との接触の有無の検知が可能となる。
請求項12の本発明によれば、表示装置を介して視認可能になったオブジェクトおよび入力装置の各々の外縁同士が完全に接触するよりも前に接触が検知されるという接触判定の緩和により、ユーザの操作性が向上する。
請求項13の本発明によれば、接触判定の緩和の度合いを任意に設定することが可能になるので、ユーザの操作性がさらに向上する。
請求項14の本発明によれば、ユーザの意図せぬ接触による意図せぬ動作の発生を防ぐことができる。
請求項15の本発明によれば、オブジェクトを移動させて入力装置に接触させる操作、または入力装置を移動させてオブジェクトに接触させるジェスチャを、ユーザによる意図的な操作とすることで、ユーザの意図せぬ接触による意図せぬ動作の発生を防ぐことができる。
請求項16の本発明によれば、接触時におけるユーザの視線に関する情報からユーザの意図を推定することができるので、意図せぬ接触による意図せぬ動作を防ぐことが可能となる。
請求項17の本発明によれば、オブジェクトの種類と入力装置の機能との組み合わせで特定される入力機能による入力操作が可能となる。
請求項18の本発明によれば、入力装置から提供されるデータ、入力装置を撮像した画像データ、および入力装置を対象とするセンシングデータのいずれかから、入力装置の入力機能を特定することが可能となる。
請求項19の本発明によれば、データベースに記憶されているオブジェクトの種類と入力装置の機能との組み合わせから入力機能の特定が可能となるので、様々な組み合わせに対応することが可能となる。
請求項20の本発明によれば、ユーザは、接触した状態にあるオブジェクトと入力装置とを離隔させる操作を行うことで、オブジェクトと入力装置との入力操作の連携を解除することができる。
請求項21の本発明によれば、ユーザの意図せぬ離隔に伴う意図せぬ動作の発生を防ぐことができる。
請求項22の本発明によれば、オブジェクトと入力装置との間で連携先の候補の登録が事前に完了していることを条件とすることで、意図せぬ入力装置への接続を未然に防ぐことができる。
請求項23の本発明によれば、オブジェクトと、予め定められた入力装置、または予め定められた接続用のアプリケーションソフトウェアがインストールされた入力装置との間で連携先の候補の登録が事前に完了していることを条件とすることで、意図せぬ入力装置への接続を未然に防ぐことができる。
請求項24の本発明によれば、表示装置を介して視認可能となったオブジェクトに対する入力操作の操作性を、ジェスチャによる入力操作を行う場合によりも向上させる情報処理システムを提供することができる。
請求項25の本発明によれば、表示装置を介して視認可能となったオブジェクトに対する入力操作の操作性を、ジェスチャによる入力操作を行う場合によりも向上させるプログラムを提供することができる。
According to the first aspect of the present invention, an input operation to the input device is directly linked as an input operation to the object. It can be improved more than when performing an input operation.
According to the second aspect of the present invention, an input device existing in the physical space can be made visible through a display device, and an input operation to the input device can be used as an input operation to an object.
According to the third aspect of the present invention, an input device, which is the target of a user's input operation in the real space, is made visible through a display device, and a user's input operation to the input device is performed as an input operation to an object. It becomes possible to
According to the fourth aspect of the present invention, it is possible to identify whether or not the input device is the target of the user's input operation in the real space based on the behavior of the input device.
According to the fifth aspect of the present invention, inertial measurement data (IMU data) of the input device and three-dimensional behavior data are matched to determine whether or not the input device is the target of the user's input operation in the real space. It becomes possible to estimate based on the results.
According to the sixth aspect of the present invention, the object and the input device can be visually recognized through the display device worn by the user, and the user's input operation on the input device can be used as the input operation on the object.
According to the seventh aspect of the present invention, the input device can be made visible through a head-mounted display worn on the user's head, and the user's input operation to the input device can be used as the input operation to the object. It becomes possible.
According to the eighth aspect of the present invention, the input operation of any one or more of text information, voice information, and image information to the input device made visible through the display device is performed on the object. It is possible to operate.
According to the ninth aspect of the present invention, it is possible to improve the operability of the input operation to the input device that is visible through the display device.
According to the tenth aspect of the present invention, it is possible to improve the operability of the input operation to the input device that is visible through the display device.
According to the eleventh aspect of the present invention, it is possible to detect the presence or absence of contact between the object and the input device from the information indicating the respective outer edges of the object and the input device that are visible through the display device.
According to the present invention of claim 12, by easing the contact determination that the contact is detected before the outer edges of the object and the input device that have become visible through the display device are completely in contact with each other, User operability is improved.
According to the thirteenth aspect of the present invention, it is possible to arbitrarily set the degree of easing the contact determination, so that the user's operability is further improved.
According to the fourteenth aspect of the present invention, it is possible to prevent the occurrence of unintended actions due to unintended contact by the user.
According to the fifteenth aspect of the present invention, an operation of moving an object to touch an input device or a gesture of moving an input device to touch an object is defined as an intentional operation by the user, so that the user's intention is It is possible to prevent the occurrence of unintended operations due to unintentional contact.
According to the sixteenth aspect of the present invention, since the user's intention can be estimated from the information regarding the user's line of sight at the time of contact, it is possible to prevent unintended actions due to unintended contact.
According to the seventeenth aspect of the present invention, it is possible to perform an input operation using an input function specified by a combination of the type of object and the function of the input device.
According to the eighteenth aspect of the present invention, the input function of the input device can be specified from any one of data provided from the input device, image data obtained by imaging the input device, and sensing data for the input device. It becomes possible.
According to the nineteenth aspect of the present invention, the input function can be identified from the combination of the type of object stored in the database and the function of the input device, so various combinations can be handled.
According to the twentieth aspect of the present invention, the user can release the cooperation of the input operations between the object and the input device by performing the operation of separating the object and the input device that are in contact with each other.
According to the twenty-first aspect of the present invention, it is possible to prevent the occurrence of an unintended operation due to an unintended separation of the user.
According to the twenty-second aspect of the present invention, it is possible to prevent unintended connection to an input device by making it a condition that the registration of the candidate for the cooperation destination between the object and the input device is completed in advance. can be prevented.
According to the twenty-third aspect of the present invention, the registration of the candidate for the cooperation destination is completed in advance between the object and the predetermined input device or the input device in which the predetermined application software for connection is installed. Unintended connection to an input device can be prevented.
According to the twenty-fourth aspect of the present invention, it is possible to provide an information processing system that improves the operability of an input operation on an object that has become visible through a display device, compared to the case of performing an input operation using gestures.
According to the twenty-fifth aspect of the present invention, it is possible to provide a program that improves the operability of an input operation on an object that has become visible through a display device, compared to the case of performing an input operation using gestures.
以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
(情報処理システムの構成)
図1は、本実施の形態が適用される情報処理システム1の全体の構成を示す図である。
情報処理システム1は、情報処理機能を有するHMD(ヘッドマウントディスプレイ)30と、入力装置50とがネットワーク90、または赤外線通信、可視光通信、近接無線通信、ブルートゥース(登録商標)、RFID(登録商標)、UWB(Ultra Wide Band)等の通信方式により接続されることにより構成されている。ネットワーク90は、例えば、LAN(Local Area Network)、インターネット等である。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
(Configuration of information processing system)
FIG. 1 is a diagram showing the overall configuration of an
The
HMD30は、オブジェクトを表示する制御と、現実空間に存在する入力装置50を、ユーザUが視認可能になるようにする制御とを行う。また、HMD30は、表示したオブジェクトと、視認可能になった入力装置50との接触を検知する。そして、HMD30は、オブジェクトと入力装置50との接触が、ユーザUの意図的な操作に基づくものである場合には、オブジェクトと入力装置50とを連携させ、その後、入力装置50に入力された情報を、オブジェクトに入力された情報として受け付ける。
The
HMD30は、画像情報を表示するディスプレイを有する頭部装着型の情報処理装置である。HMD30には、透過型のものと非透過型のものがある。透過型のHMD30は、オブジェクトをディスプレイに表示し、現実空間に存在する入力装置50を、ディスプレイを介して視認可能にする。非透過型のHMD30は、オブジェクトおよび入力装置50をリアルタイムでディスプレイに表示する。
The
透過型のHMD30を装着したユーザUは、HMD30に表示されたオブジェクトと、現実空間に存在する入力装置50とを、HMD30を介して同時に視認することができる。また、非透過型のHMD30を装着したユーザUは、HMD30に表示されたオブジェクトおよび入力装置50を同時に視認することができる。なお、本実施の形態では、透過型のHMD30が採用されている。HMD30に表示されるオブジェクトとしては、例えば、ドキュメントデータ、ホワイトボード、仮想キーボード、三次元モデル、画像、動画、音声ファイル等が挙げられる。
The user U wearing the
入力装置50は、ユーザUとともに現実空間に存在し、ユーザUの入力操作を受け付ける機能を有する情報処理装置である。入力装置50としては、例えば、スマートフォン、パーソナルコンピュータ(デスクトップタイプ、ノートタイプ)、タブレット端末のほか、いわゆるタッチセンサ、ペンタブレット、電子ペン、スマートペン等が挙げられる。
The
(HMDのハードウェア構成)
図2は、HMD30のハードウェア構成を示す図である。
HMD30は、制御部31と、メモリ32と、記憶部33と、通信部34と、表示部35と、センサ部36と、撮像部37とを有している。これらの各部は、データバス、アドレスバス、PCI(Peripheral Component Interconnect)バス等で接続されている。
(HMD hardware configuration)
FIG. 2 is a diagram showing the hardware configuration of the
The
制御部31は、OS(基本ソフトウェア)やアプリケーションソフトウェア(応用ソフトウェア)等の各種ソフトウェアの実行を通じて自機の動作を制御するプロセッサである。制御部31は、例えばCPU(Central Processing Unit)で構成される。メモリ32は、各種ソフトウェアやその実行に用いるデータ等を記憶する記憶領域であり、演算に際して作業エリアとして用いられる。メモリ32は、例えばRAM(Random Access Memory)等で構成される。
The
記憶部33は、各種ソフトウェアに対する入力データや各種ソフトウェアからの出力データ等を記憶する記憶領域であり、各種情報を記憶するデータベースが格納されている。記憶部33は、例えばプログラムや各種設定データなどの記憶に用いられるHDD(Hard Disk Drive)やSSD(Solid State Drive)、半導体メモリ等で構成される。通信部34は、ネットワーク90を介して、または赤外線通信等の通信方式によるデータの送受信を行う。通信部34は、入力装置50、および外部との間でデータの送受信を行う。
The
表示部35は、液晶ディスプレイや有機ELディスプレイにより画像をユーザに対して提示するものであり、通常のディスプレイと同様に非透過型のものとユーザがディスプレイを通して前方を視認できる透過型のものがある。通常、前者を仮想現実HMD(VR-HMD)、後者を拡張現実HMD(AR-HMD)もしくは混合現実HMD(MR-HMD)と呼ぶ。
The
センサ部36は、LiDAR(Laser Imaging Detection and Ranging)センサ等の光センサ、加速度センサなど各種のセンサで構成される。撮像部37は、カメラ等で構成される。そして、これらの各部は、データバス、アドレスバス、PCIバス等で接続されている。
The
(入力装置のハードウェア構成)
入力装置50のハードウェア構成は、入力装置50の種類により異なるが、例えば、入力装置50が、スマートフォン、パーソナルコンピュータ(デスクトップタイプ、ノートタイプ)、タブレット端末である場合には、図2に示すHMD30のハードウェア構成と同様に加え、操作部を有する。操作部は、例えばキーボード、マウス、機械式のボタン、スイッチで構成され、入力操作を受け付ける。操作部には、表示部と一体的にタッチパネルを構成するタッチセンサも含まれる。また、例えば、入力装置50が、いわゆるタッチセンサ、ペンタブレット、電子ペン、スマートペンなど画面を有しないものである場合には、図2に示すHMD30のハードウェア構成のうち、表示部35以外の構成と同様の構成を備えている。
(Hardware configuration of input device)
The hardware configuration of the
(HMDの制御部の機能構成)
図3は、HMD30の制御部31の機能構成を示す図である。
HMD30の制御部31では、表示制御部101と、データ取得部102と、登録判定部103と、挙動推定部104と、装置特定部105と、位置取得部106と、接触検知部107と、入力情報受付部108と、入力制御部109とが機能する。
(Functional configuration of control unit of HMD)
FIG. 3 is a diagram showing the functional configuration of the
In the
表示制御部101は、情報の入力操作を受付可能とするオブジェクトおよび入力装置50を、自機を介して視認可能にする制御を行う。具体的には、表示制御部101は、情報の入力操作を受付可能とするオブジェクトを、表示部35に表示させる制御を行い、現実空間に存在する入力装置50を、表示部35を介して視認可能にする制御を行う。
The
データ取得部102は、センサ部36の各種のセンサのセンシングデータ、および撮像部37により撮像された画像(静止画像および動画像)のデータを取得する。センサ部36の各種のセンサのセンシングデータには、ユーザUの両手の動きや目の動きに関するセンシングデータが含まれる。また、撮像部37により撮像された画像のデータには、ユーザUを撮像した画像のデータ、表示部35を介して視認可能な領域に存在するオブジェクトおよび入力装置50を撮像した画像のデータが含まれる。
The
登録判定部103は、HMD30と入力装置50との間における連携先の候補の登録の状態を判定する。「連携先の候補の登録の状態」とは、複数台のデバイスの組み合わせが、互いに連携先の候補として登録されて、連携待ちの状態になっているかどうかを示す状態のことをいう。このような状態は、いわゆる「ペアリング」がなされた状態ともいう。一度ペアリングがなされると、2回目以降の接続時におけるペアリングは不要となる。登録判定部103は、HMD30と入力装置50とがペアリングされて、連携待ちの状態になっているかどうかを、自機が保有する情報および入力装置50の各々から得られる情報に基づいて判定する。
The
ここで、HMD30と入力装置50とのペアリングについて説明する。HMD30と入力装置50とのペアリングは、例えば以下のような手順で行われる。すなわち、ユーザUの音声入力によりペアリングの処理が開始されてもよい。この場合、例えば、ユーザが「ペアリングして」と発話すると、その音声が検知されて、HMD30からペアリングに関する音声の案内が出力されてもよい。また、例えば、HMD30から「ペアリングしたいデバイスのアプリケーションソフトウェアでペアリング開始ボタンを押してください」といった案内が出力され、入力装置50に予めインストールされている接続用のアプリケーションソフトが起動して、ペアリングの処理が開始されるようにしてもよい。
Here, pairing between the
この場合、接続用のアプリケーションソフトがインストールされている入力装置50であれば、どのようなものであってもペアリングの処理が開始されるような、オープンな接続環境にしてもよい。また、頭部にHMD30を装着したユーザUが、入力装置50に表示されたQRコード(登録商標)をHMD30越しに視認すると、HMD30がそのQRコード(登録商標)を検知して、自動的にペアリングの処理が開始されるようにしてもよい。また、意図しない入力装置50とのペアリングを防ぐ見地から、HMD30がペアリング可能な入力装置50を限定し、予めペアリングされているような、クローズドな接続環境にしてもよい。
In this case, any
挙動推定部104は、データ取得部102により取得されたデータ、および入力装置50から提供されるデータに基づいて、ユーザUおよび入力装置50の各々の挙動を推定する。このうち、ユーザUの挙動とは、ユーザUの両手の動きや目の動きのことをいう。また、入力装置50の挙動とは、現実空間における入力装置50の動きのことをいう。データ取得部102により取得されデータには、例えば、入力装置50とのペアリングの状態を示すデータ、センサ部36の各種のセンサのセンシングデータ、および撮像部37により撮像された画像(静止画像および動画像)のデータ等が含まれる。
The
また、入力装置50から提供されるデータには、HMD30とのペアリングの状態を示すデータ、入力装置50に入力されたデータ、入力装置50の慣性計測データ(IMUデータ)、入力装置50の三次元挙動データ、入力装置50の位置に関するデータ等が含まれる。具体的には、例えば、挙動推定部104は、入力装置50の慣性計測データ(IMUデータ)と三次元挙動データとの突合結果から、入力装置50の挙動を推定する。
The data provided from the
なお、入力装置50の外形の三次元データをどのように取得するかについては特に限定されない。例えば、記憶部13のデータベースに予め記憶されている入力装置の種類に基づいて別途取得してもよい。また、例えば、HMD30を装着したユーザUが、入力装置50を四方八方から眺める動作を行い、それと同時にHMD30が入力装置50を撮像することで得られる複数の撮像画像のデータから三次元データを生成してもよい。この場合、入力装置50を眺める手順についての音声の案内が、HMD30からユーザUに向けて出力されるようにしてもよい。
It should be noted that how the three-dimensional data of the outer shape of the
装置特定部105は、データ取得部102により取得されたデータ、および入力装置50から提供されるデータ、挙動推定部104による推定の結果、および記憶部13のデータベースに予め記憶されている入力装置の種類と機能との組み合わせに基づいて、ユーザUの入力操作の対象となる入力装置50を特定する。入力装置50の特定には、入力装置50の機能の特定が含まれる。データ取得部102により取得されたデータとしては、センシングデータおよび画像のデータ等が挙げられる。入力装置50から提供されるデータとしては、ペアリングの状態を示すデータ、入力データ、慣性計測データ(IMUデータ)、三次元挙動データ、位置に関するデータ等が挙げられる。具体的には、例えば、装置特定部105は、データ取得部102により取得されたデータのうち、自機を介してユーザUが視認可能な領域を示す画像のデータに基づいて入力装置50を特定する。
The
位置取得部106は、自機を介してユーザUが視認可能な領域における、オブジェクトおよび入力装置50の各々の位置に関する情報を取得する。具体的には、位置取得部106は、データ取得部102により取得された画像のデータのうち、ユーザUが表示部35を介して視認可能な領域を示す画像のデータから、ユーザUが表示部35を介して視認可能な領域における、オブジェクトおよび入力装置50の各々の位置に関する情報を取得する。
The
接触検知部107は、オブジェクトと入力装置50との接触を検知する。具体的には、接触検知部107は、位置取得部106により取得された、オブジェクトおよび入力装置50の各々の位置に関する情報に基づいて、表示部35を介して視認可能な領域におけるオブジェクトと、入力装置50との接触を検知する。オブジェクトと入力装置50との接触は、オブジェクトおよび入力装置50の各々の外縁同士が接触したときとしてもよいし、入力装置50およびオブジェクトの各々の外縁を囲む仮想領域の外縁同士が接触したときとしてもよい。この場合、「外縁を囲む仮想領域」は、オブジェクトおよび入力装置50の各々の外縁から外側に向かう距離の値として予め定められた値に基づいて特定される。
The
また、接触検知部107は、オブジェクトと入力装置50との接触がユーザUの意図的な操作に基づくものであるかどうかを検知する。接触検知部107がオブジェクトと入力装置50との接触を検知し、その接触がユーザUの意図的な操作に基づくものである場合には、そのオブジェクトと入力装置50とが連携された状態となる。例えば、HMD30を装着したユーザUのジェスチャとして、HMD30に表示されているオブジェクトを掴んで入力装置50に接触させる動作が行われた場合、接触検知部107は、その接触がユーザUの意図的な操作に基づくものであると検知する。また、例えば、オブジェクトと入力装置50とが接触するタイミングにおけるユーザUの視線の位置が、オブジェクトと入力装置50との接触点、またはその近傍にあることが検知された場合、接触検知部107は、オブジェクトと入力装置50との接触がユーザUの意図的な操作に基づくものであると検知してもよい。
Further, the
また、接触検知部107は、オブジェクトと入力装置50との接触を検知した際、そのオブジェクトの状態を検知する。接触検知部107により検知されたオブジェクトの状態が、書き込み禁止の措置が講じられていて入力ができない場合や、ペアリングされた入力装置50の入力機能ではオブジェクトへの入力ができない場合には、オブジェクトが入力装置50に接触したとしても連携されることなくはじき返される。このようにすることで、ユーザUは、書き込み禁止であることを感覚的に知得できる。また、例えば、オブジェクトへの入力ができないことを示す色やポップアップメッセージをHMD30に表示したり、音声で出力したり、振動を発生させたりすることで、オブジェクトへの入力ができないことをユーザUが視覚的、聴覚的、触覚的に知得できるようにしてもよい。
Further, when the
また、接触検知部107は、オブジェクトおよび入力装置の各々の位置に関する情報に基づいて、接触した状態にあるオブジェクトと入力装置とがの離隔をさらに検知する。これにより、オブジェクトと入力装置50との連携が解除された状態となる。また、接触検知部107は、接触した状態にあるオブジェクトと入力装置50との離隔が、ユーザUの意図的な操作に基づくものであるかどうかを検知する。接触検知部107がオブジェクトと入力装置50との離隔を検知し、その接触がユーザUの意図的な操作に基づくものである場合には、そのオブジェクトと入力装置50との連携が解除された状態となる。
Further, the
例えば、HMD30を装着したユーザUのジェスチャとして、HMD30を介して視認可能になっているオブジェクトを掴んで入力装置50から離隔させる動作が行われた場合、接触検知部107は、オブジェクトと入力装置50との離隔が、ユーザUの意図的な操作に基づくものであると検知する。また、例えば、オブジェクトと入力装置50とが離隔するタイミングにおけるユーザUの視線の位置が、オブジェクトと入力装置50との接触点、またはその近傍にあることが検知された場合、接触検知部107は、オブジェクトと入力装置50との離隔が、ユーザUの意図的な操作に基づくものであると検知してもよい。
For example, when the gesture of the user U wearing the
入力情報受付部108は、接触検知部107によりオブジェクトと入力装置50との接触が検知され、オブジェクトと入力装置50とが連携した状態になると、入力装置50に入力された情報を、オブジェクトに入力された情報として受け付ける。すなわち、ひとたびオブジェクトと入力装置50とが連携した状態になると、ユーザUは、オブジェクトと入力装置50との位置関係を特に気にすることなく入力操作に集中することが可能となる。
When the
具体的には、入力情報受付部108は、記憶部13のデータベースに記憶されているオブジェクトの種類と入力装置50の機能との組み合わせにより特定される入力操作を行うための入力機能により入力された情報を、オブジェクトに入力された情報として受け付ける。入力操作を行うための入力機能としては、例えば、入力装置50がスマートフォンやタブレット端末である場合には、タッチパネル、スマートペン等が挙げられる。また、入力装置50がパーソナルコンピュータである場合には、キーボード、マウス等が挙げられる。
Specifically, the input
また、入力情報受付部108は、接触検知部107が、接触して連携した状態にあるオブジェクトと入力装置50との離隔を検知し、オブジェクトと入力装置50との連携が解除された状態になると、入力装置50に情報が入力されたとしても、この情報をオブジェクトに入力された情報として受け付けない。ただし、接触検知部107によりオブジェクトと入力装置50との離隔が検知されたとき、その原因がユーザUのジェスチャによるものでない場合には、その離隔がユーザUの意図的な操作に基づいたものではないことが検知されて、オブジェクトと入力装置50との連携は解除されることなく継続される。このため、入力装置50に入力された情報は、引き続きオブジェクトに入力された情報として受け付けられる。
In addition, when the
入力制御部109は、入力情報受付部108により受け付けられた入力情報を、オブジェクトに入力する制御を行う。例えば、オブジェクトがテキスト入力を受付可能とする電子文書であり、入力装置50がタブレット端末である場合には、タブレット端末に入力されたテキスト情報を電子文書に入力する制御を行う。また、例えば、オブジェクトがPDF文書であり、入力装置50がペンタブレットである場合には、スタイラスによりペンタブレットに入力された描画の情報である筆跡データを電子文書に入力する制御を行う。また、例えば、オブジェクトが三次元モデルであり、入力装置50がパーソナルコンピュータである場合には、三次元モデルを編集するために入力された情報を三次元モデルに反映させる制御を行う。
The
(ペアリングの処理)
図4は、HMD30と入力装置50とのペアリングの処理の流れを示す図である。図4には、ペアリングの処理の一例として、ユーザの音声入力によりペアリングの処理が開始される場合の例が示されている。
(Pairing process)
FIG. 4 is a diagram showing the flow of pairing processing between the
HMD30と入力装置50とがペアリングされていない状態で、ペアリングの処理の開始を指示するための音声入力が行われると(ステップ201でYES)、HMD30からペアリングに関する音声の案内が出力される(ステップ202)。これに対して、ペアリングの処理の開始を指示するための音声入力が行われていない場合には(ステップ201でNO)、ペアリングの処理の開始を指示するための音声入力が行われるまでステップ201の処理が繰り返される。
When the
HMD30からの案内に従い、ペアリングの処理を開始するための入力操作が入力装置50に対して行われると(ステップ203でYES)、入力装置50から周囲のデバイスに向けてペアリングの開始通知が発信される(ステップ204)。これに対して、ペアリングの処理を開始するための入力操作が入力装置50に対して行われていない場合には、(ステップ203でNO)、ペアリングの処理を開始するための入力操作が入力装置50に対して行われるまでステップ203の処理が繰り返される。
When an input operation for starting the pairing process is performed on the
入力装置50から発信されたペアリングの開始通知が、予め定められた時間内にHMD30によって受信されると(ステップ205でYES)、HMD30からユーザUに向けて、ペアリングを確定させるための入力操作についての案内が報知される(ステップ206)。例えば、「パスコードを入力してペアリング確定ボタンを押して下さい」といった内容の案内が報知される。これに対して、発信されたペアリングの開始通知が、予め定められた時間内にHMD30によって受信されない場合には(ステップ205でNO)、ペアリングされることなく処理が終了する。
When the pairing start notification transmitted from the
ここで、ユーザUが、報知された内容の操作を行うと(ステップ207でYES)、入力装置50から周囲のデバイスに向けてパスコードを含むペアリングの確定通知が発信される(ステップ208)。これに対して、ユーザUが、報知された内容の操作を行わない場合には(ステップ207でNO)、ユーザUが、報知された内容の操作を行うまでステップ207の処理が繰り返される。
Here, when the user U performs an operation according to the notified content (YES in step 207), the
発信されたペアリングの確定通知が、予め定められた時間内にHMD30によって受信されると(ステップ209でYES)、HMD30から入力装置50に対して、入力装置50を特定可能なデータ、および入力装置50が提供可能な機能に関するデータの送信が要求される(ステップ210)。入力装置50を特定可能なデータとしては、例えば、入力装置50のWi-Fiアドレス等が挙げられる。これに対して、発信されたペアリングの確定通知が、予め定められた時間内にHMD30によって受信されない場合には(ステップ209でNO)、ペアリングされることなく処理が終了する。
When the transmitted pairing confirmation notification is received by
入力装置50が、HMD30から要求されたデータをHMD30に向けて送信すると(ステップ211でYES)、HMD30は、入力装置50から送信されてきたデータを受信して記憶する(ステップ212)。これに対して、入力装置50が、HMD30から要求されたデータをHMD30に向けて送信していない場合には(ステップ211でNO)、入力装置50が、HMD30から要求されたデータをHMD30に向けて送信するまでステップ211の処理が繰り返される。
When the
そして、HMD30からユーザUに向けて、入力装置50の外形の三次元データを取得するための案内が報知される(ステップ213)。例えば、「デバイス(入力装置50)を手に持ち、様々な角度からデバイスを見つめてください」といった音声の案内が報知される。そこで、ユーザUが、入力装置50を把持し、これを注視しながら向きを変えたり持ち替えたりすることで四方八方から眺めると(ステップ214でYES)、HMD30は、入力装置50の外形の特徴の認識結果を、ペアリング済みの入力装置50の外形の特徴として記憶する(ステップ215)。
Then, the
具体的には、HMD30は、ユーザUが注視する点の近傍から、ユーザUが把持している入力装置50の三次元形状を推定し、様々な角度から入力装置50の外形の特徴を認識して、その認識結果をペアリング済みの入力装置50の外形の特徴として記憶する。これにより、HMD30と入力装置50とのペアリングが完了して連携待ちの状態となる。これに対して、ユーザUが、入力装置50を把持し、これを注視しながら向きを変えたり持ち替えたりすることで四方八方から眺める動作が行われない場合には(ステップ214でNO)、このような動作が行われるまでステップ214の処理が繰り返される。
Specifically, the
(HMDの処理)
図5は、HMD30による連携処理の流れを示すフローチャートである。
HMD30は、オブジェクトおよび現実空間を、自機を介して視認可能にする制御を行う(ステップ401)。具体的には、HMD30の表示部35にオブジェクトを表示させる制御が行われる。なお、本実施の形態では、透過型のHMD30が採用されているため、表示部35を介して入力装置50が視認可能な状態になっている。
(Processing of HMD)
FIG. 5 is a flow chart showing the flow of cooperation processing by the
The
HMD30は、撮像部37により撮像された画像のデータから、ユーザの視界に存在する物体を認識する(ステップ402)。そして、入力装置50を特定した結果、ユーザUの視界にペアリング済みの入力装置50が存在する場合には(ステップ403でYES)、連携待ちの状態となる(ステップ404)。HMD30は、データ取得部102により取得されたデータ、および入力装置50の各々から取得したデータに基づいて、ユーザUおよび入力装置50の各々の挙動を推定する(ステップ405)。これに対して、ユーザの視界にペアリング済みの入力装置が存在しない場合には(ステップ403でNO)、ステップ402の処理に戻る。
The
HMD30は、ユーザUが自機を介して視認可能な領域を示す画像のデータから、オブジェクトおよび入力装置50の各々の位置に関する情報を取得する(ステップ406)。HMD30は、取得したオブジェクトおよび入力装置50の各々の位置に関する情報に基づいて、自機を介して視認可能な領域におけるオブジェクトと入力装置50との接触を検知すると(ステップ407でYES)、記憶部13のデータベースに予め記憶されている入力装置50の種類と機能との組み合わせに基づいて、入力方法と表示方法を決定(ステップ408)する。そして、HMD30は、入力装置50に入力された情報を、オブジェクトに入力された情報として受け付けて(ステップ409)、受け付けた入力情報をオブジェクトに入力する制御を行う(ステップ410)。これに対して、オブジェクトと入力装置50との接触を検知していない場合(ステップ407でNO)、HMD30は、オブジェクトと入力装置50との接触を検知するまでステップ407の処理を繰り返す。
The
(具体例)
図6乃至図11は、ユーザUがHMD30を介して視認可能となったオブジェクトおよび入力装置50の具体例を示す図である。なお、HMD30と入力装置50とは事前にペアリングされているものとする。
図6(A)乃至(C)には、HMD30を介して視認可能となったオブジェクトV1が、テキスト入力を受付可能とする電子文書であり、入力装置50がタブレット端末である場合の例が示されている。図6(A)は、HMD30を介して視認可能となったオブジェクトV1と入力装置50とが離隔し、連携していない状態を示している。ここで、ユーザUのジェスチャとして、オブジェクトV1を掴み、そのままオブジェクトV1を移動させて入力装置50に接触させる動作を行うと、オブジェクトV1と入力装置50との接触が検知される。
(Concrete example)
6 to 11 are diagrams showing specific examples of objects and the
FIGS. 6A to 6C show an example in which the object V1 made visible through the
ユーザUのジェスチャの結果、オブジェクトV1と入力装置50との接触が検知されると、図6(B)に示すように、オブジェクトV1と入力装置50とが接触している状態、すなわち、連携している状態になる。すると、HMD30を介して視認可能な状態となっている入力装置50に重畳するように、ソフトウェアキーボードが表示される。これにより、ユーザUは、表示されたソフトウェアキーボードに対する入力操作を行うことが可能となる。
When contact between the object V1 and the
そして、ユーザUが、HMD30に表示されたソフトウェアキーボードを見ながら、現実空間に存在する入力装置50に対する入力操作を行うと、その入力操作は、ソフトウェアキーボードの入力操作に連動する。これにより、入力装置50に入力された情報が、オブジェクトV1に入力された情報として受け付けられて、視認可能な態様でオブジェクトV1に反映される。なお、図6(B)では、HMD30を介して視認可能な状態になっている入力装置50に重畳するように表示されたソフトウェアキーボードに対する入力操作が行われる構成となっているが、入力装置50の表示部に表示されたソフトウェアキーボードに対する入力操作が行われる構成であってもよい。
Then, when the user U performs an input operation on the
ユーザUによる入力装置50に対する入力操作が完了すると、ユーザUは、ジェスチャにより、図6(B)に示す終了ボタンB1を押下する。すると、図6(C)に示すように、接触して連携した状態にあるオブジェクトV1と入力装置50とが離隔される。これにより、オブジェクトV1と入力装置50とが連携していない状態となり、入力装置50に重畳するように表示されていたソフトウェアキーボードが消える。また、オブジェクトV1には、入力された情報が反映されて、視認可能な態様で表示される。
When the user U completes the input operation on the
なお、接触して連携した状態にあるオブジェクトV1と入力装置50とを離隔し、連携していない状態にする手法は、終了ボタンB1を押下する手法に限定されない。例えば、ユーザUのジェスチャにより、入力装置50に接触して連携した状態にあるオブジェクトV1を掴み、そのままオブジェクトV1を移動させて入力装置50から離隔させる動作を行うことでも、連携していない状態にすることができる。
It should be noted that the method of separating the object V1 and the
図7(A)乃至(C)には、HMD30を介して視認可能となったオブジェクトV2が、PDF文書であり、入力装置50が、表示機能を有しないペンタブレットである場合の例が示されている。図7(A)は、HMD30を介して視認可能となったオブジェクトV2と入力装置50とが離隔し、連携していない状態を示している。ここで、ユーザUのジェスチャとして、オブジェクトV2を掴み、そのままオブジェクトV2を移動させて入力装置50に接触させる動作を行うと、オブジェクトV2と入力装置50との接触が検知される。
FIGS. 7A to 7C show an example in which the object V2 made visible through the
ユーザUのジェスチャの結果、オブジェクトV2と入力装置50との接触が検知されると、図7(B)に示すように、オブジェクトV2と入力装置50とが接触している状態、すなわち、連携している状態になる。すると、HMD30を介して視認可能な状態となっている入力装置50に重畳するように、PDF文書のうち編集の対象となる箇所が拡大表示される。これにより、ユーザUは、拡大表示された箇所に対する入力操作として、スタイラスによる手書きの描画が可能となる。
When contact between the object V2 and the
そして、ユーザUが、入力装置50に重畳するように拡大表示された箇所を見ながら、現実空間に存在する入力装置50に対する入力操作として、スタイラスによる手書きの描画を行うと、その入力操作は、オブジェクトV2の入力操作に連動する。これにより、入力装置50に入力された情報が、オブジェクトV2に入力された情報として受け付けられて、視認可能な態様でオブジェクトV2に反映される。
Then, when the user U performs handwriting drawing with a stylus as an input operation on the
ユーザUによる入力装置50に対する入力操作が完了すると、ユーザUが、ジェスチャにより、図7(B)に示す終了ボタンB2をスタイラスで押下する。すると、図7(C)に示すように、接触して連携した状態にあるオブジェクトV2と入力装置50とが離隔される。これにより、オブジェクトV2と入力装置50とが連携していない状態となり、入力装置50に重畳するように拡大表示されていた箇所が消える。また、オブジェクトV2には、入力された情報が視認可能な態様で表示される。
When the user U completes the input operation on the
なお、接触して連携した状態にあるオブジェクトV2と入力装置50とを離隔し、連携していない状態にする手法は、終了ボタンB2を押下する手法に限定されない。例えば、ユーザUのジェスチャにより、入力装置50に接触して連携した状態にあるオブジェクトV2を掴み、そのままオブジェクトV2を移動させて入力装置50から離隔させる動作を行うことでも、連携していない状態にすることができる。
It should be noted that the method of separating the object V2 and the
図8(A)乃至(C)には、HMD30を介して視認可能となったオブジェクトV3が、スタイラスによる描画のための入力操作を受付可能とし、かつ、他のユーザUとの共有が可能なオブジェクト(以下、「ホワイドボード」と呼ぶ)であり、入力装置50がタブレット端末である場合の例が示されている。図8(A)は、HMD30を介して視認可能となったオブジェクトV3と入力装置50とが離隔し、連携していない状態を示している。ここで、ユーザUのジェスチャとして、摘まむ操作により表示されるポインタLでオブジェクトV3を示し、そのままオブジェクトV3を移動させて入力装置50に接触させる動作を行うと、オブジェクトV3と入力装置50との接触が検知される。
In FIGS. 8A to 8C, an object V3 that has become visible through the
ユーザUのジェスチャの結果、オブジェクトV3と入力装置50との接触が検知されると、図8(B)に示すように、オブジェクトV3が元の位置に戻るとともに、オブジェクトV3と入力装置50とが連携している状態になる。すると、HMD30を介して視認可能な状態の入力装置50に重畳するように、オブジェクトV3のイメージ(ホワイトボードイメージ)が表示される。これにより、ユーザUは、表示されたオブジェクトV3のイメージに対する入力操作として、スタイラスによる手書きの描画が可能となる。
When contact between the object V3 and the
そして、ユーザUが、入力装置50に重畳するように表示されたオブジェクトV3のイメージを見ながら、現実空間に存在する入力装置50に対する入力操作として、スタイラスによる手書きの描画を行うと、その入力操作は、オブジェクトV3の入力操作に連動する。これにより、入力装置50に入力された情報が、オブジェクトV3に入力された情報として受け付けられて、視認可能な態様でオブジェクトV3に反映される。
Then, when the user U performs handwriting drawing with a stylus as an input operation on the
ユーザUによる入力装置50に対する入力操作が完了すると、ユーザUが、ジェスチャにより、図8(B)に示す終了ボタンB3をスタイラスで押下する。すると、オブジェクトV3と入力装置50とが連携していない状態となり、図8(C)に示すように、入力装置50に重畳するように表示されていたオブジェクトV3のイメージ(ホワイトボードイメージ)が消える。また、オブジェクトV3には、入力された情報が視認可能な態様で表示される。
When the user U completes the input operation on the
なお、接触して連携した状態にあるオブジェクトV3と入力装置50とを離隔し、連携していない状態にする手法は、終了ボタンB3を押下する手法に限定されない。例えば、ユーザUのジェスチャにより、入力装置50に接触して連携した状態にあるオブジェクトV3をポインタLで示し、そのままオブジェクトV3を移動させて入力装置50から離隔させる動作を行うことでも、連携していない状態にすることができる。
It should be noted that the method of separating the object V3 and the
図9(A)乃至(C)には、HMD30を介して視認可能となったオブジェクトV4がソフトウェアキーボードであり、入力装置50がタブレット端末である場合の例が示されている。図9(A)は、HMD30を介して視認可能となったオブジェクトV4と入力装置50とが離隔し、連携していない状態を示している。図9(A)では、オブジェクトV4に入力された情報が反映されるオブジェクトV5が、HMD30を介して視認可能になっている。ここで、ユーザUのジェスチャとして、オブジェクトV4を掴み、そのままオブジェクトV4を移動させて入力装置50に接触させる動作を行うと、オブジェクトV4と入力装置50との接触が検知される。
FIGS. 9A to 9C show an example in which the object V4 made visible through the
ユーザUのジェスチャの結果、オブジェクトV4と入力装置50との接触が検知されると、図9(B)に示すように、ソフトウェアキーボードとしてのオブジェクトV4が消え、HMD30を介して視認可能な状態になっている入力装置50に重畳するようにソフトウェアキーボードが表示される。また、入力装置50に接触するように、他のオブジェクトとしてのオブジェクトV6が出現する。オブジェクトV6には入力行および変換候補が表示される。このため、ユーザUは、オブジェクトV6に表示される入力行および変換候補を見ながら、入力装置50に重畳するように表示されたソフトウェアキーボードに対する入力操作を行うことが可能となる。
When contact between the object V4 and the
ユーザUが、オブジェクトV6に表示される入力行および変換候補を見ながらソフトウェアキーボードに対する入力操作を行うと、その入力された情報が、オブジェクトV5に入力された情報として受け付けられる。そして、視認可能な態様でオブジェクトV5に反映される。なお、図9(B)では、入力装置50に重畳するように表示されたソフトウェアキーボードに対する入力操作が行われる構成となっているが、入力装置50に実際に表示されたソフトウェアキーボードに対する入力操作が行われる構成であってもよい。
When the user U performs an input operation on the software keyboard while viewing the input lines and conversion candidates displayed in the object V6, the input information is accepted as the information input to the object V5. Then, it is reflected in the object V5 in a visible manner. Note that FIG. 9B shows a configuration in which an input operation is performed on the software keyboard displayed so as to be superimposed on the
ユーザUによる入力装置50に対する入力操作が完了すると、ユーザUがジェスチャによって、図9(B)に示す終了ボタンB4を押下する。すると、図9(C)に示すように、オブジェクトV6が消え、オブジェクトV6と入力装置50とが連携していない状態となり、入力装置50に重畳するように表示されていたソフトウェアキーボードが消える。また、オブジェクトV5には、ソフトウェアキーボード入力された情報が視認可能な態様で表示される。
When the user U completes the input operation on the
なお、接触して連携した状態にあるオブジェクトV6と入力装置50とを離隔し、連携していない状態にする手法は、終了ボタンB4を押下する手法に限定されない。例えば、ユーザUのジェスチャにより、入力装置50に接触して連携した状態にあるオブジェクトV4を掴み、そのままオブジェクトV4を移動させて入力装置50から離隔させる動作を行うことでも、連携していない状態にすることができる。
It should be noted that the method of separating the object V6 and the
図10(A)乃至(C)には、HMD30を介して視認可能となったオブジェクトV7が、三次元モデル設計ソフトウェアによる編集のための入力を受付可能とする三次元モデルであり、入力装置50がノートタイプのパーソナルコンピュータである場合の例が示されている。図10(A)は、HMD30を介して視認可能となったオブジェクトV7と入力装置50とが離隔し、連携していない状態を示している。ここで、ユーザUのジェスチャとして、オブジェクトV7を掴み、そのままオブジェクトV7を移動させて入力装置50に接触させる動作を行うと、オブジェクトV7と入力装置50との接触が検知される。
In FIGS. 10A to 10C, an object V7 made visible through the
ユーザUのジェスチャの結果、オブジェクトV7と入力装置50との接触が検知されると、図10(B)に示すように、オブジェクトV7は元の位置に戻るとともに、HMD30を介して視認可能な状態になっている入力装置50の表示部に三次元モデルの編集画面が表示される。これにより、ユーザUは、HMD30を介して視認可能となった三次元モデルの編集画面を見ながら、三次元モデルであるオブジェクトV7を編集するための入力操作を行うことが可能となる。ユーザUが、三次元モデルの編集画面を見ながら三次元モデルを編集するための入力操作を行うと、その入力された情報が反映された三次元モデルがオブジェクトV7として表示される。
When contact between the object V7 and the
ユーザUによる入力装置50に対する入力操作が完了すると、ユーザUがジェスチャによって、図10(B)に示す終了ボタンB5を押下する。すると、図10(C)に示すように、オブジェクトV7と入力装置50とが連携していない状態となり、入力装置50の表示部に表示されていた三次元モデルの編集画面が消える。また、三次元モデルを編集するために入力された情報が反映された三次元モデルが、オブジェクトV7として視認可能な態様で表示される。
When the user U completes the input operation on the
図11(A)乃至(C)には、HMD30を介して視認可能となったオブジェクトV8が、テキスト入力を受付可能とする吹き出しであり、入力装置50がタブレット端末である場合の例が示されている。図11(A)乃至(C)の吹き出しは、HMD30を介して視認可能となった現実空間の点検設備に接触するように、または点検設備の近傍に表示された吹き出しである。この吹き出しには、点検設備そのものを示す情報や、点検の内容を示す情報、あるいは点検設備から得られる情報等が、編集可能な態様で表示される。図11(A)は、HMD30を介して視認可能となったオブジェクトV8と入力装置50とが離隔し、連携していない状態を示している。ここで、ユーザUのジェスチャとして、オブジェクトV8を掴み、そのままオブジェクトV8を移動させて入力装置50に接触させる動作を行うと、オブジェクトV8と入力装置50との接触が検知される。
FIGS. 11A to 11C show an example in which the object V8 made visible through the
ユーザUのジェスチャの結果、オブジェクトV8と入力装置50との接触が検知されると、図11(B)に示すように、オブジェクトV8が元の位置に戻るとともに、HMD30を介して視認可能な状態になっている入力装置50に重畳するようにソフトウェアキーボードが表示される。また、入力装置50に接触するように、他のオブジェクトとしてのオブジェクトV9が出現する。オブジェクトV9には入力行および変換候補が表示される。これにより、ユーザUは、オブジェクトV9に表示される入力行および変換候補を見ながら、入力装置50に重畳するように表示されたソフトウェアキーボードに対する入力操作を行うことが可能となる。
When contact between the object V8 and the
ユーザUが、オブジェクトV9に表示される入力行および変換候補を見ながらソフトウェアキーボードに対する入力操作を行うと、その入力された情報が、オブジェクトV9に入力された情報として受け付けられて、視認可能な態様でオブジェクトV8に反映される。なお、図11(B)では、入力装置50に重畳するように表示されたソフトウェアキーボードに対する入力操作が行われる構成となっているが、入力装置50に実際に表示されたソフトウェアキーボードに対する入力操作が行われる構成であってもよい。
When the user U performs an input operation on the software keyboard while looking at the input lines and conversion candidates displayed in the object V9, the input information is accepted as the information input to the object V9 and is visible. is reflected in the object V8. Note that FIG. 11B shows a configuration in which an input operation is performed on the software keyboard displayed so as to be superimposed on the
ユーザUによる入力装置50に対する入力操作が完了すると、ユーザUがジェスチャによって、図11(B)に示す終了ボタンB6を押下する。すると、図11(C)に示すように、オブジェクトV9が消え、オブジェクトV9と入力装置50とが連携していない状態となり、入力装置50に重畳するように表示されていたソフトウェアキーボードが消える。また、オブジェクトV8には、ソフトウェアキーボード入力された情報が視認可能な態様で表示される。
When the user U completes the input operation on the
なお、連携した状態にあるオブジェクトV8と入力装置50とが連携していない状態にする手法は、終了ボタンB6を押下する手法に限定されない。例えば、ユーザUのジェスチャにより、入力装置50に接触した状態にあるオブジェクトV9を掴み、そのままオブジェクトV9を移動させて入力装置50から離隔させる動作を行うことでも、連携していない状態にすることができる。
It should be noted that the method of putting the object V8 in the linked state and the
以上、本実施の形態について説明したが、本発明は上述した本実施の形態に限るものではない。また、本発明による効果も、上述した本実施の形態に記載されたものに限定されない。例えば、図1に示すシステム構成、図2に示すハードウェア構成は、本発明の目的を達成するための例示に過ぎず、特に限定されない。また、図3に示す機能構成も例示に過ぎず、特に限定されない。上述した処理を全体として実行できる機能が図1の情報処理システム1に備えられていれば足り、この機能を実現するためにどのような機能構成を用いるかは図3の例に限定されない。
Although the embodiment has been described above, the present invention is not limited to the embodiment described above. Moreover, the effects of the present invention are not limited to those described in the above embodiment. For example, the system configuration shown in FIG. 1 and the hardware configuration shown in FIG. 2 are merely examples for achieving the object of the present invention, and are not particularly limited. Also, the functional configuration shown in FIG. 3 is merely an example, and is not particularly limited. It is sufficient that the
また、図4および図5に示す処理のステップの順序も例示に過ぎず、特に限定されない。図示されたステップの順序に沿って時系列的に行われる処理だけではなく、必ずしも時系列的に処理されなくとも、並列的あるいは個別的に行われてもよい。また、図6乃至図11に示す具体例も一例に過ぎず、特に限定されない。 Also, the order of the processing steps shown in FIGS. 4 and 5 is merely an example and is not particularly limited. In addition to the processing performed chronologically along the order of the illustrated steps, the steps may not necessarily be processed chronologically, but may be performed in parallel or individually. Further, the specific examples shown in FIGS. 6 to 11 are only examples and are not particularly limited.
また、例えば、図6乃至図11には、ユーザUのジェスチャとして、オブジェクトを掴んだり示したりすることで入力装置50に接触させる構成となっているが、これに限定されない。オブジェクトと入力装置50が接触すればよいので、ユーザUのジェスチャとして、現実空間の入力装置50を移動させてオブジェクトに接触させる構成であってもよい。具体的には、ユーザUが、手に持った入力装置50を動かして、HMD30に表示されたオブジェクトに接触させる。この場合、HMD30の接触検知部107(図3参照)は、オブジェクトと入力装置50との接触が、ユーザUの意図的な操作(この場合、ジェスチャ)に基づくものであることを検知する。
Further, for example, in FIGS. 6 to 11 , the gesture of the user U is configured to touch the
また、例えば、上述の実施の形態では、透過型のHMD30が採用されているが、非透過型のHMD30を採用してもよい。すなわち、本発明では、ユーザが表示装置を介してオブジェクトおよび入力装置を視認できればよいので、例えば、入力装置の撮像画像が、非透過型のHMDにリアルタイムで表示されるようにしてもよい。
Further, for example, although the
1…情報処理システム、30…HMD、31…制御部、50…入力装置、90…ネットワーク、101…表示制御部、102…データ取得部、103…登録判定部、104…挙動推定部、105…装置特定部、106…位置取得部、107…接触検知部、108…入力情報受付部、109…入力制御部
DESCRIPTION OF
Claims (25)
前記プロセッサは、
情報の入力操作を受付可能とするオブジェクトおよび入力装置を、表示装置を介して視認可能にする制御を行い、
前記表示装置を介して視認可能になった前記オブジェクトおよび前記入力装置の各々の位置に関する情報に基づいて、当該オブジェクトと当該入力装置との接触を検知し、
前記接触を検知すると、前記入力装置に入力された情報を、前記オブジェクトに入力された情報として受け付けることを特徴とする、
情報処理装置。 with a processor
The processor
Control to make the object and input device capable of accepting information input operations visible through the display device,
Detecting contact between the object and the input device based on information about the respective positions of the object and the input device that have become visible through the display device;
When the contact is detected, the information input to the input device is accepted as the information input to the object,
Information processing equipment.
請求項1に記載の情報処理装置。 The processor controls the input device existing in the physical space to be visible through the display device,
The information processing device according to claim 1 .
請求項2に記載の情報処理装置。 The processor specifies, among the input devices existing in the physical space, the target of the user's input operation, and performs control to make it visible through the display device,
The information processing apparatus according to claim 2.
請求項3に記載の情報処理装置。 The processor estimates the behavior of the input device from at least one of data provided from the input device, image data obtained by imaging the input device, and sensing data targeted for the input device. Based on, the input device that is the target of the user's input operation is specified and controlled to be visible through the display device.
The information processing apparatus according to claim 3.
請求項4に記載の情報処理装置。 The processor controls the input device to be operated by the user based on the behavior of the input device estimated from the result of matching the inertial measurement data (IMU data) of the input device and the three-dimensional behavior data. is specified and controlled to be visible through the display device,
The information processing apparatus according to claim 4.
請求項1に記載の情報処理装置。 The processor performs control to make the input device visible via the display device worn by the user,
The information processing device according to claim 1 .
請求項6に記載の情報処理装置。 The processor performs control to make the input device visible via a head-mounted display as the display device mounted on the user's head,
The information processing device according to claim 6 .
請求項1に記載の情報処理装置。 The processor controls to make the object and the input device capable of accepting the input operation of information of one or more types of text information, voice information, and image information visible through the display device. characterized by performing
The information processing device according to claim 1 .
ことを特徴とする、
請求項8に記載の情報処理装置。 The processor supports the input operation to the input device as control to make the object and the input device capable of accepting the input operation of the one or more types of information visible through the display device. characterized by performing control to make other objects to be more visible,
The information processing apparatus according to claim 8 .
請求項9に記載の情報処理装置。 The processor performs control to make the other object visible so as to be near the input device or overlap at least a part of the input device,
The information processing apparatus according to claim 9 .
請求項1に記載の情報処理装置。 The processor detects contact between the object and the input device based on information indicating outer edges of the object and the input device that are visible through the display device as the position information. characterized by
The information processing device according to claim 1 .
請求項11に記載の情報処理装置。 The processor detects, as contact between the object and the input device, contact between outer edges of a virtual area surrounding the outer edges, which is specified from information indicating the outer edges of each of the object and the input device. characterized by
The information processing device according to claim 11 .
請求項12に記載の情報処理装置。 The outer edge of the virtual area is specified based on a predetermined value as a value of the distance outward from the outer edge of each of the object and the input device,
The information processing apparatus according to claim 12.
請求項1に記載の情報処理装置。 When the detected contact is based on a user's intentional operation, the processor accepts information input to the input device as information input to the object,
The information processing device according to claim 1 .
請求項14に記載の情報処理装置。 When the detected contact is an operation of moving the object to contact the input device or an operation of moving the input device to contact the object, the detected contact is a gesture of the user. is based on the user's intentional operation, and accepts information input to the input device as information input to the object,
The information processing apparatus according to claim 14.
請求項14に記載の情報処理装置。 When the line of sight of the user is at or near a contact point between the object and the input device at the timing of the contact, the processor determines that the input is based on an intentional operation by the user. characterized by accepting information input to the device as information input to the object,
The information processing apparatus according to claim 14.
請求項1に記載の情報処理装置。 The processor converts information input to the input device by an input function for performing the input operation specified based on the combination of the type of the object and the function of the input device to information input to the object. characterized by accepting as
The information processing device according to claim 1 .
請求項17に記載の情報処理装置。 The processor controls the function of the input device based on any one or more of data provided from the input device, image data obtained by imaging the input device, and sensing data targeted for the input device. characterized by identifying
The information processing apparatus according to claim 17.
請求項17に記載の情報処理装置。 The processor receives information input to the input device by the input function specified by the combination stored in the database as information input to the object,
The information processing apparatus according to claim 17.
前記オブジェクトおよび前記入力装置の各々の前記位置に関する情報に基づいて、接触した状態にある当該オブジェクトと当該入力装置との離隔をさらに検知し、
前記離隔を検知すると、前記入力装置に情報が入力されたとしても、当該情報を前記オブジェクトに入力された情報として受け付けないことを特徴とする、
請求項1に記載の情報処理装置。 The processor
further detecting a distance between the object in contact with the input device based on the information about the positions of each of the object and the input device;
When the separation is detected, even if information is input to the input device, the information is not accepted as information input to the object,
The information processing device according to claim 1 .
請求項20に記載の情報処理装置。 When the detected distance is based on a user's intentional operation, the processor does not accept information input to the input device as information input to the object. characterized by
The information processing apparatus according to claim 20.
請求項1に記載の情報処理装置。 The processor detects the contact when the registration of the candidate for the cooperation destination is completed between the object and the input device,
The information processing device according to claim 1 .
請求項22に記載の情報処理装置。 The processor, when registration of candidates for cooperation destinations has been completed between the object and the predetermined input device or the input device in which predetermined application software for connection is installed, , characterized by detecting the contact,
The information processing apparatus according to claim 22.
前記表示装置を介して視認可能になった前記オブジェクトおよび前記入力装置の各々の位置に関する情報に基づいて、当該オブジェクトと当該入力装置との接触を検知する検知手段と、
前記接触を検知すると、前記入力装置に入力された情報を、前記オブジェクトに入力された情報として受け付ける受付手段と、
を有することを特徴とする情報処理システム。 display control means for performing control to make an object and an input device capable of accepting an information input operation visible through a display device;
detection means for detecting contact between the object and the input device based on information on the respective positions of the object and the input device that are visible through the display device;
receiving means for receiving information input to the input device as information input to the object when the contact is detected;
An information processing system characterized by having:
前記表示装置を介して視認可能になった前記オブジェクトおよび前記入力装置の各々の位置に関する情報に基づいて、当該オブジェクトと当該入力装置との接触を検知する機能と、
前記接触を検知すると、前記入力装置に入力された情報を、前記オブジェクトに入力された情報として受け付ける機能と、
を実現させるためのプログラム。 A function of performing control to make an object and an input device capable of accepting an information input operation visible through a display device;
a function of detecting contact between the object and the input device based on information about the respective positions of the object and the input device that are visible through the display device;
a function of receiving information input to the input device as information input to the object when the contact is detected;
program to make it happen.
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021157001A JP2023047853A (en) | 2021-09-27 | 2021-09-27 | Information processing device, information processing system, and program |
| US17/666,472 US20230095811A1 (en) | 2021-09-27 | 2022-02-07 | Information processing apparatus, information processing system, and non-transitory computer readable medium storing program |
| CN202210282508.XA CN115877946A (en) | 2021-09-27 | 2022-03-22 | Information processing apparatus, information processing system, storage medium, and information processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021157001A JP2023047853A (en) | 2021-09-27 | 2021-09-27 | Information processing device, information processing system, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2023047853A true JP2023047853A (en) | 2023-04-06 |
Family
ID=85718823
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021157001A Pending JP2023047853A (en) | 2021-09-27 | 2021-09-27 | Information processing device, information processing system, and program |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US20230095811A1 (en) |
| JP (1) | JP2023047853A (en) |
| CN (1) | CN115877946A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2025004775A (en) * | 2023-06-26 | 2025-01-15 | グーグル エルエルシー | Reality Screen in Extended Reality |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017059062A (en) * | 2015-09-17 | 2017-03-23 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
| JP2017058971A (en) * | 2015-09-16 | 2017-03-23 | 株式会社バンダイナムコエンターテインメント | Program and image formation device |
| JP2019111226A (en) * | 2017-12-25 | 2019-07-11 | グリー株式会社 | Game device, control method and control program |
| US20210011556A1 (en) * | 2019-07-09 | 2021-01-14 | Facebook Technologies, Llc | Virtual user interface using a peripheral device in artificial reality environments |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9791948B2 (en) * | 2012-09-21 | 2017-10-17 | Sony Corporation | Control device and storage medium |
| US10168769B2 (en) * | 2015-09-28 | 2019-01-01 | Nec Corporation | Input apparatus, input method, and program |
| US11487353B2 (en) * | 2016-11-14 | 2022-11-01 | Logitech Europe S.A. | Systems and methods for configuring a hub-centric virtual/augmented reality environment |
-
2021
- 2021-09-27 JP JP2021157001A patent/JP2023047853A/en active Pending
-
2022
- 2022-02-07 US US17/666,472 patent/US20230095811A1/en active Pending
- 2022-03-22 CN CN202210282508.XA patent/CN115877946A/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017058971A (en) * | 2015-09-16 | 2017-03-23 | 株式会社バンダイナムコエンターテインメント | Program and image formation device |
| JP2017059062A (en) * | 2015-09-17 | 2017-03-23 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
| JP2019111226A (en) * | 2017-12-25 | 2019-07-11 | グリー株式会社 | Game device, control method and control program |
| US20210011556A1 (en) * | 2019-07-09 | 2021-01-14 | Facebook Technologies, Llc | Virtual user interface using a peripheral device in artificial reality environments |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2025004775A (en) * | 2023-06-26 | 2025-01-15 | グーグル エルエルシー | Reality Screen in Extended Reality |
Also Published As
| Publication number | Publication date |
|---|---|
| US20230095811A1 (en) | 2023-03-30 |
| CN115877946A (en) | 2023-03-31 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Lee et al. | Towards augmented reality driven human-city interaction: Current research on mobile headsets and future challenges | |
| CN114115689B (en) | Cross-environment sharing | |
| KR102090269B1 (en) | Method for searching information, device, and computer readable recording medium thereof | |
| US9069386B2 (en) | Gesture recognition device, method, program, and computer-readable medium upon which program is stored | |
| US9075462B2 (en) | Finger-specific input on touchscreen devices | |
| EP1980937B1 (en) | Object search method and terminal having object search function | |
| US9389779B2 (en) | Depth-based user interface gesture control | |
| US10359905B2 (en) | Collaboration with 3D data visualizations | |
| EP2500809A2 (en) | Handheld devices and related data transmission methods | |
| EP2854003B1 (en) | Electronic device and method for converting image format object to text format object | |
| CN104756065B (en) | Information processing device, information processing method, and computer-readable recording medium | |
| US20160092062A1 (en) | Input support apparatus, method of input support, and computer program | |
| JP5728592B1 (en) | Electronic device and handwriting input method | |
| US9378427B2 (en) | Displaying handwritten strokes on a device according to a determined stroke direction matching the present direction of inclination of the device | |
| JP6991486B2 (en) | Methods and systems for inserting characters into strings | |
| CN104583906A (en) | Input method and device for portable device | |
| CN104049737A (en) | Object control method and apparatus of user device | |
| CN102906671A (en) | Gesture input device and gesture input method | |
| WO2015045676A1 (en) | Information processing device and control program | |
| KR20190063853A (en) | Method and apparatus for moving an input field | |
| KR102057196B1 (en) | Method and system for transmitting information, device and computer readable recording medium thereof | |
| JP2023047853A (en) | Information processing device, information processing system, and program | |
| KR102824359B1 (en) | An electronic device and method for operating functions of the electronic device using uncontact gesture | |
| Lee et al. | Towards augmented reality-driven human-city interaction: Current research and future challenges | |
| JP7467842B2 (en) | Display device, display method, and display program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240826 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250515 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250520 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250718 |