JP6589216B2 - Electronics - Google Patents
Electronics Download PDFInfo
- Publication number
- JP6589216B2 JP6589216B2 JP2014182591A JP2014182591A JP6589216B2 JP 6589216 B2 JP6589216 B2 JP 6589216B2 JP 2014182591 A JP2014182591 A JP 2014182591A JP 2014182591 A JP2014182591 A JP 2014182591A JP 6589216 B2 JP6589216 B2 JP 6589216B2
- Authority
- JP
- Japan
- Prior art keywords
- electronic device
- image
- hand
- user
- gesture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、所定の情報処理を行うことが可能な電子機器に関する。 The present invention relates to an electronic device capable of performing predetermined information processing.
従来より、ディスプレイとディスプレイの背面に設けられたカメラとを備える携帯型のゲーム装置が存在する(例えば、特許文献1)。このような従来のゲーム装置では、ユーザのシャッタ操作により撮像画像を取得し、当該取得された画像の特徴部分を解析し、その結果に基づいて仮想のキャラクタを撮像画像に合成してディスプレイに表示することができるものがある。 Conventionally, there is a portable game device including a display and a camera provided on the back of the display (for example, Patent Document 1). In such a conventional game device, a captured image is acquired by a user's shutter operation, a characteristic portion of the acquired image is analyzed, and a virtual character is combined with the captured image based on the result and displayed on the display. There is something you can do.
しかしながら、上記従来の携帯型の装置では、カメラによって撮像された画像に基づいて特徴部分を解析するものであり、カメラを用いて多様な入力を行い、当該入力の結果を出力するという点において改善の余地があった。 However, the conventional portable device analyzes feature portions based on an image captured by a camera, and is improved in that various inputs are made using the camera and the result of the input is output. There was room for.
それ故、本発明の目的の一つは、カメラを用いて多様な入力を行い、当該入力の結果を出力することが可能な電子機器を提供することである。 Therefore, one of the objects of the present invention is to provide an electronic device capable of performing various inputs using a camera and outputting a result of the input.
本発明では、上記の課題を解決するために、以下の構成を採用した。 In the present invention, the following configuration is adopted in order to solve the above-described problems.
一実施形態に係る電子機器は、カメラと、取得手段と、検出手段と、照射手段とを備える。取得手段は、前記カメラによって撮像された入力画像を取得する。検出手段は、前記取得手段によって取得された入力画像に基づいて、ユーザによって行われたジェスチャを検出する。照射手段は、前記検出手段による検出結果に基づいて、前記ジェスチャに関連する物体の方向に光を照射する。 An electronic apparatus according to an embodiment includes a camera, an acquisition unit, a detection unit, and an irradiation unit. The acquisition unit acquires an input image captured by the camera. The detection means detects a gesture made by the user based on the input image acquired by the acquisition means. The irradiating unit irradiates light in the direction of the object related to the gesture based on the detection result by the detecting unit.
ここで、「ユーザによって行われたジェスチャ」は、ユーザが顔や体の一部又は全部を使って行った身振り・手振りを示し、動作した状態や静止した状態を含む。 Here, the “gesture made by the user” indicates a gesture / hand gesture performed by the user using a part or all of the face or body, and includes an operating state and a stationary state.
上記によれば、電子機器は、カメラによって撮像された画像に基づいて、ユーザのジェスチャを検出し、検出結果に基づいて光を照射することができる。 Based on the above, the electronic device can detect the user's gesture based on the image captured by the camera and irradiate the light based on the detection result.
また、他の構成では、前記照射手段による光の照射方向は、前記カメラの撮像方向と同じ方向であってもよい。 In another configuration, the light irradiation direction of the irradiation unit may be the same as the imaging direction of the camera.
上記によれば、カメラの撮像方向と同じ方向に光を照射することができる。 According to the above, light can be irradiated in the same direction as the imaging direction of the camera.
また、他の構成では、前記検出手段は、ユーザの体の所定部分を検出してもよい。 In another configuration, the detection means may detect a predetermined part of the user's body.
上記によれば、ユーザの体の所定部分を検出し、検出結果に応じて光を照射することができる。 According to the above, it is possible to detect a predetermined part of the user's body and irradiate light according to the detection result.
また、他の構成では、前記検出手段は、ユーザの手を用いたジェスチャを検出してもよい。 In another configuration, the detection unit may detect a gesture using a user's hand.
上記によれば、ユーザの手を用いたジェスチャを検出して、当該ジェスチャに応じた光を照射することができる。 According to the above, it is possible to detect a gesture using the user's hand and irradiate light corresponding to the gesture.
また、他の構成では、前記電子機器は、ユーザが手で持って操作可能な手持ち型電子機器であってもよい。当該手持ち型電子機器は、ユーザの一方の手によって把持される把持部が設けられ、前記検出手段は、前記ユーザの他方の手を用いたジェスチャを検出する。 In another configuration, the electronic device may be a handheld electronic device that a user can hold and operate. The hand-held electronic device is provided with a grip portion that is gripped by one hand of a user, and the detection unit detects a gesture using the other hand of the user.
上記によれば、ユーザは一方の手で電子機器を把持して、他方の手でジェスチャを行うことができ、電子機器は、当該ジェスチャの検出結果に応じた光を当該他方の手の方向に照射することができる。 According to the above, the user can hold the electronic device with one hand and perform a gesture with the other hand, and the electronic device emits light according to the detection result of the gesture toward the other hand. Can be irradiated.
また、他の構成では、前記照射手段は、プロジェクタであってもよい。 In another configuration, the irradiation unit may be a projector.
上記によれば、プロジェクタを用いて上記検出結果に応じた光を照射することができる。 Based on the above, it is possible to irradiate light according to the detection result using a projector.
また、他の構成では、前記照射手段は、前記光を照射することとして、前記検出手段による検出結果に応じた画像を投影してもよい。 In another configuration, the irradiating unit may project an image corresponding to a detection result by the detecting unit as irradiating the light.
上記によれば、上記検出結果に応じた画像を投影することができ、例えばジェスチャ入力に応じた画像を投影することができる。 Based on the above, it is possible to project an image according to the detection result, for example, it is possible to project an image according to a gesture input.
また、他の構成では、前記照射手段は、連続する前記ジェスチャに合わせて連続的に前記画像を投影してもよい。 In another configuration, the irradiation unit may project the image continuously in accordance with the continuous gesture.
上記によれば、ジェスチャに応じた画像を連続的に投影することができる。 Based on the above, it is possible to continuously project an image corresponding to a gesture.
また、他の構成では、前記照射手段は、ユーザの体の所定部分に、前記画像を投影してもよい。 In another configuration, the irradiation unit may project the image onto a predetermined part of the user's body.
上記によれば、例えば手を用いてジェスチャ入力を行った場合に、当該入力に応じた画像を、入力を行った手に投影することができる。 According to the above, when a gesture input is performed using a hand, for example, an image corresponding to the input can be projected onto the input hand.
また、他の構成では、電子機器は、画像を表示するディスプレイをさらに備えてもよい。この場合、前記照射手段によって画像が投影されるとともに、前記ディスプレイに画像が表示される。 In another configuration, the electronic device may further include a display that displays an image. In this case, an image is projected by the irradiation unit and the image is displayed on the display.
上記によれば、照射手段で画像を投影するとともに、ディスプレイにも画像を表示させることができる。 Based on the above, it is possible to project an image by the irradiation means and display the image on the display.
また、他の構成では、電子機器は、前記照射手段によって投影される画像と、前記ディスプレイに表示される画像とを連動させる連動手段をさらに備えてもよい。 In another configuration, the electronic apparatus may further include interlocking means for interlocking an image projected by the irradiation means and an image displayed on the display.
上記によれば、プロジェクタで投影される画像と、ディスプレイに表示される画像とを連動させることができる。 According to the above, the image projected by the projector and the image displayed on the display can be linked.
また、他の構成では、前記検出手段は、前記ジェスチャに関連する物体の位置を検出し、前記照射手段は、前記検出手段によって検出された前記位置に基づいて、光を照射してもよい。 In another configuration, the detection unit may detect a position of an object related to the gesture, and the irradiation unit may irradiate light based on the position detected by the detection unit.
上記によれば、前記位置に基づいて光を照射することができる。 According to the above, light can be irradiated based on the position.
また、他の構成では、電子機器は、前記検出手段による検出結果に基づいて、所定のゲーム処理を行うゲーム処理手段をさらに備え、前記照射手段は、前記ゲーム処理の結果に基づいて光を照射してもよい。 In another configuration, the electronic device further includes game processing means for performing a predetermined game process based on a detection result by the detection means, and the irradiation means emits light based on the result of the game process. May be.
上記によれば、特定の物体の位置情報に基づいて画像を出力することができる。 Based on the above, it is possible to output an image based on position information of a specific object.
また、他の構成では、電子機器は、前記検出手段による検出結果に応じて、音声を出力する音声出力手段を備えてもよい。 In another configuration, the electronic device may include an audio output unit that outputs audio in accordance with a detection result by the detection unit.
上記によれば、光の出力に加えて音声を出力することができる。 According to the above, it is possible to output sound in addition to light output.
また、他の構成では、前記カメラと前記照射手段とは、前記電子機器の側面に設けられてもよい。 In another configuration, the camera and the irradiation unit may be provided on a side surface of the electronic device.
上記によれば、側面方向において行われたジェスチャ又は物体の動きを検出し、検出結果に基づいて側面方向に光を照射することができる。 According to the above, it is possible to detect the gesture or the movement of the object performed in the side surface direction and irradiate light in the side surface direction based on the detection result.
また、他の構成では、前記照射手段は、所定の色の光を発する光源であってもよい。 In another configuration, the irradiation unit may be a light source that emits light of a predetermined color.
上記によれば、例えば、LED等の光源を用いて所定の光を照射することができる。 According to the above, predetermined light can be irradiated using light sources, such as LED, for example.
また、他の実施形態に係る電子機器は、カメラと、取得手段と、検出手段と、照射手段とを備える。取得手段は、前記カメラによって撮像された入力画像を取得する。検出手段は、前記取得手段によって取得された入力画像に基づいて、特定の物体の動きを検出する。照射手段は、前記検出手段による検出結果に基づいて、前記特定の物体の方向に光を照射する。 An electronic apparatus according to another embodiment includes a camera, an acquisition unit, a detection unit, and an irradiation unit. The acquisition unit acquires an input image captured by the camera. The detection means detects the movement of a specific object based on the input image acquired by the acquisition means. The irradiating unit irradiates light in the direction of the specific object based on the detection result by the detecting unit.
ここで、「特定の物体の動き」は、人の顔や身体の一部又は全部の動きであってもよいし、任意の物体の動きであってもよい。 Here, the “movement of a specific object” may be a movement of a part or all of a human face or body, or may be a movement of an arbitrary object.
本発明の一実施形態によれば、カメラによって撮像された画像に基づいて、ユーザのジェスチャや物体の動きを検出し、検出結果に基づいて光を照射することができる。 According to an embodiment of the present invention, it is possible to detect a user's gesture or a movement of an object based on an image captured by a camera and irradiate light based on the detection result.
以下、本発明の一実施形態に係る携帯電子機器について説明する。携帯電子機器は、ユーザが手で持って操作可能な手持ち型の情報処理装置であり、例えば、ゲーム装置であってもよいし、携帯電話機(スマートフォン等)、タブレット端末、カメラ、腕時計型の端末等の任意の装置であってもよい。図1は、本実施形態の携帯電子機器1の正面図である。図2は、携帯電子機器1の右側面図である。図3は、携帯電子機器1の背面図である。
Hereinafter, a portable electronic device according to an embodiment of the present invention will be described. The portable electronic device is a hand-held information processing device that can be operated by a user with his / her hand. For example, the portable electronic device may be a game device, a mobile phone (smartphone or the like), a tablet terminal, a camera, or a wristwatch type terminal. Arbitrary arbitrary apparatuses, such as, may be sufficient. FIG. 1 is a front view of the portable
図1に示すように、携帯電子機器1は、ディスプレイ2と、タッチパネル3と、赤外線カメラ4と、測距センサ5と、入力ボタン6(6A〜6D)と、照射部7と、プロジェクタ8とを備え、これらはハウジング10に収納される。ハウジング10(携帯電子機器1)は、板状の形状であり、ユーザが片手又は両手で把持可能な大きさである。
As shown in FIG. 1, the portable
ディスプレイ2としては、例えば、液晶表示装置や有機EL表示装置等が用いられ、その他、任意の表示装置が用いられてもよい。ディスプレイ2の画面は、ハウジング10の正面(T5面)に露出するように設けられる。タッチパネル3は、ディスプレイ2の画面上に設けられ、ユーザによってタッチされた画面上の位置を検出する。タッチパネル3としては、1点検出が可能なものや多点検出が可能なものが用いられ、例えば、静電容量方式、抵抗膜方式等、任意のものが用いられてもよい。
As the
入力ボタン6A〜6Dは、ユーザによる入力(押下)を受け付ける。入力ボタン6A〜6Dは、ユーザが携帯電子機器1の両端を把持したときにユーザの指が届く位置に設けられる。具体的には、入力ボタン6Aおよび6Cは、ユーザが右手で携帯電子機器1を把持したときに右手の指が届く位置にあり、入力ボタン6Aは右手の親指が届く位置に、入力ボタン6Cは右手の人差し指又は中指が届く位置に設けられる。また、入力ボタン6Bおよび6Dは、ユーザが左手で携帯電子機器1を把持したときに左手の指が届く位置にあり、入力ボタン6Bは左手の親指が届く位置に、入力ボタン6Dは左手の人差し指又は中指が届く位置に設けられる。図1に示すように、入力ボタン6Aおよび6Bは、ハウジング10の正面(T5面)に設けられ、入力ボタン6Cおよび6Dは、ハウジング10の上面(T4面)に設けられる。なお、ユーザによる入力を受け付ける入力部としては、入力ボタン6A〜6Dの他に、方向入力のための十字キー、アナログスティック等が設けられてもよい。
The
赤外線カメラ4は、レンズと光(赤外線。具体的には近赤外線)に感光するセンサとを備える。赤外線カメラ4のセンサは、赤外線に感光する素子を縦横に複数並べたイメージセンサであり、当該イメージセンサの各素子が赤外線を受光して電気信号に変換することで2次元の赤外線画像を出力する。
The
測距センサ5は、測距センサ5に設けられた光源から射出された光(例えば、赤外光)が物体に反射し、当該反射光を受光素子で受光することで物体との間の距離を測定する。測距センサ5としては、三角測距方式、TOF(Time Of Flight)方式等任意のものが用いられてもよい。測距センサ5の光源としては、特定方向に赤外光を射出するLEDやレーザダイオード等が用いられる。
The
照射部7は、赤外線を所定の時間間隔(例えば、1/60秒間隔)で照射する。赤外線カメラ4が画像を撮像するタイミングと同期して、照射部7が赤外線を照射する。照射部7は、携帯電子機器1の右側面方向の所定の範囲に赤外線を照射する。照射部7によって照射された赤外線が物体によって反射され、当該反射された赤外線が赤外線カメラ4によって受光されることで、赤外線の画像が取得される。なお、照射部7は、赤外線カメラ4による赤外線画像の撮像のため、および、測距センサ5による距離の測定のために用いられてもよい。すなわち、照射部7からの赤外光を利用して、赤外線カメラ4によって画像が撮像されるとともに、測距センサ5によって距離が測定されてもよい。
The
また、プロジェクタ8は、可視光を射出する光源を有し、当該光源からの光を用いて文字や画像等を投影面(スクリーンや後述するようにユーザの手等)に投影する。
The
赤外線カメラ4、測距センサ5、照射部7、およびプロジェクタ8は、ハウジング10の側面(例えば右側面:T1面)に設けられる。具体的には、赤外線カメラ4の撮像方向(光軸)は、右側面に垂直な方向を向く。測距センサ5の検出方向、プロジェクタ8が光を照射する方向もまた同様に右側面に垂直な方向である。すなわち、赤外線カメラ4は、ユーザが左手で携帯電子機器1を把持した際に、携帯電子機器1の右側面方向の空間を撮像し、測距センサ5は、携帯電子機器1の右側面方向の空間に存在する物体までの距離を測定する。また、プロジェクタ8は、赤外線カメラ4および測距センサ5と同じ方向に可視光を照射することで画像等を投影する。
The
携帯電子機器1の背面(T6面)には、外側カメラ9が設けられる(図3)。外側カメラ9は、典型的には、赤外線カメラ4の撮像方向とは垂直な方向を撮像可能であり、背面と垂直な方向を撮像可能である。外側カメラ9は、レンズと可視光に感光するイメージセンサとを備える。外側カメラ9は、背面方向の空間を撮像し、カラー画像(RGB画像)を取得する。なお、背面の外側カメラ9に加えて正面にもカメラが設けられてもよいし、背面の外側カメラ9は設けられず、正面(ディスプレイ2の画面が設けられた面)にカメラが設けられてもよい。
An
図4は、携帯電子機器1の内部構成の一例を示すブロック図である。図4に示すように、携帯電子機器1は、上述した各部の他、バイブレータ11、マイク12、スピーカ13、制御部14、通信部15、姿勢検出部16、GPSレシーバ17、および地磁気センサ18を備える。また、携帯電子機器1は、図示しないバッテリーを備え、当該バッテリーから電源が供給される。これら各部はハウジング10内に収納される。
FIG. 4 is a block diagram illustrating an example of the internal configuration of the mobile
制御部14は、ディスプレイ2、タッチパネル3、赤外線カメラ4、測距センサ5、入力ボタン6、照射部7、プロジェクタ8、バイブレータ11、マイク12、スピーカ13、通信部15、姿勢検出部16、GPSレシーバ17、地磁気センサ18等、各部に接続され、各部を制御する。
The
具体的には、制御部14は、CPUやメモリ等を含み、携帯電子機器1に備えられた図示しない記憶装置(例えば、不揮発性メモリやハードディスク等)に記憶された所定のプログラム(例えば、ゲーム処理や画像処理、各種演算を行うためのアプリケーションプログラム)に基づいて所定の処理を行う。例えば、制御部14は、赤外線カメラ4からの画像を取得して当該画像を解析したり、測距センサ5からの信号に基づいて物体までの距離を算出したり、タッチパネル3や入力ボタン6からの入力信号に応じた処理を行う。そして、制御部14は、所定の処理の結果に基づく画像を生成し、ディスプレイ2に当該画像を出力する。なお、所定の処理を行うためのプログラムは、通信部15を介して外部からダウンロードされてもよい。
Specifically, the
バイブレータ11は、制御部14からの命令に基づいて動作し、携帯電子機器1全体を振動させる。バイブレータ11は、ユーザの手に振動が伝わりやすい所定の位置(例えば、ハウジング10内の中央部や左右の何れかに偏った位置)に設けられる。
The
マイク12およびスピーカ13は、音声を入力/出力するために用いられる。通信部15は、所定の通信方式(例えば、無線LAN等)で他の機器と通信を行うために用いられる。また、姿勢検出部16は、例えば、加速度センサや角速度センサであり、携帯電子機器1の姿勢を検出する。
The
GPSレシーバ17は、GPS(Global Positioning System)衛星からの信号を受信し、当該信号を受信することで携帯電子機器1は自機の位置を計算することができる。例えば、携帯電子機器1は、特定の位置で所定の操作(例えば、後述する赤外線カメラ4を用いたジェスチャ入力やボタン入力、携帯電子機器1を振るなどの動作)が行われた場合に、当該特定の位置に対応付けられたオブジェクトを表示してもよい。例えば、携帯電子機器1においてゲームが行われる場合において、携帯電子機器1が特定の位置にある場合、当該特定の位置に対応したオブジェクトを当該ゲームに登場させてもよい。
The GPS receiver 17 receives a signal from a GPS (Global Positioning System) satellite, and the portable
また、地磁気センサ18は、磁気の方向および大きさを検出可能なセンサである。例えば、携帯電子機器1は、地磁気センサ18の検出結果に基づいて、特定の方位を向いているか否かを判定し、特定の方位で所定の操作(上記ジェスチャ入力等)が行われた場合に、オブジェクトを表示してもよい。例えば、携帯電子機器1においてゲームが行われる場合、特定の方位に対応したオブジェクトが当該ゲームに登場してもよい。また、携帯電子機器1は、GPSレシーバ17を用いたGPS情報と地磁気センサを用いた方位情報とを組み合わせてもよい。例えば、携帯電子機器1が、特定の位置にあり、かつ、特定の方位を向いている場合、当該特定の位置及び特定の方位に対応するオブジェクトを表示したり、当該オブジェクトをゲームに登場させてもよい。
The
図5は、携帯電子機器1の使用状態の一例を示す図であり、ユーザが携帯電子機器1を両手で把持したときの様子を示す図である。図5に示すように、ユーザは携帯電子機器1の左右両端部を把持する。ユーザが左右の両端部を把持した場合に、ユーザは、左手の親指で入力ボタン6Bを押下可能であり、右手の親指で入力ボタン6Aを押下可能である。また、ユーザが左右の両端部を把持した場合に、ユーザは、左手の人差し指又は中指を動かすことができ当該左手の人差し指又は中指で入力ボタン6Dを押下可能であり、右手の人差し指又は中指を動かすことができ当該右手の人差し指又は中指で入力ボタン6Cを押下可能である。
FIG. 5 is a diagram illustrating an example of a usage state of the mobile
次に、携帯電子機器1に対する入力について説明する。本実施形態では、ユーザは、携帯電子機器1を左手で把持した状態で、右手を用いて携帯電子機器1に対してジェスチャ入力を行うことができる。
Next, input to the portable
図6Aおよび図6Bは、ユーザが携帯電子機器1の右側面方向で右手を用いてジェスチャ入力を行う様子を示す図である。図7Aは、図6Aに示すようなジェスチャ入力が行われた場合の赤外線カメラ4によって撮像される画像の一例を示す図である。図7Bは、図6Bに示すようなジェスチャ入力が行われた場合の赤外線カメラ4によって撮像される画像の一例を示す図である。
6A and 6B are diagrams illustrating a state where the user performs gesture input using the right hand in the right side surface direction of the mobile
図6Aおよび図6Bに示すように、ユーザは、携帯電子機器1の右側面方向の位置で右手を用いて様々なジェスチャ入力を行う。携帯電子機器1は、携帯電子機器1の右側面に設けられた赤外線カメラ4で赤外線画像を撮像し、当該撮像した赤外線画像を解析することにより、ユーザのジェスチャ入力を判別する。
As illustrated in FIGS. 6A and 6B, the user performs various gesture inputs using the right hand at a position in the right side surface direction of the mobile
具体的には、図7Aや図7Bに示す画像が赤外線カメラ4から取得されると、携帯電子機器1は、取得された画像に含まれる特定の物体(具体的には、人間の手)を検出し、当該特定の物体の形状等に基づいて、ユーザによって行われたジェスチャの種類を判別する。例えば、携帯電子機器1は、取得された画像に所定の形状の物体が存在するか否かをパターンマッチング等により判定する。例えば、携帯電子機器1は、図7Aに示す画像が取得された場合、指の本数から「グー」を認識することができ、図7Bに示す画像が取得された場合は、指の本数から「パー」を認識することができる。そして、携帯電子機器1は、後述するようにジェスチャの種類に応じた処理を行う。
Specifically, when the image shown in FIG. 7A or 7B is acquired from the
ここで、判別されるジェスチャは、ユーザの手や顔等の体の一部や全体を用いた身振り・手振りであり、携帯電子機器1は、手等の静止した状態をジェスチャ入力として認識してもよいし、手を使った一連の動作をジェスチャ入力として認識してもよい。また、携帯電子機器1は、ユーザが物を持った状態で行われるジェスチャ入力を認識してもよい。この場合、携帯電子機器1は、ユーザが持っている物のみの静止状態や動作状態をジェスチャ入力として認識してもよいし、ユーザの手と物を含んだ全体の静止状態や動作状態をジェスチャ入力として認識してもよい。
Here, the determined gesture is a gesture / hand gesture using a part or the whole of the user's hand or face, and the portable
また、本実施形態の携帯電子機器1は、後述するように測距センサ5を用いて携帯電子機器1と物体との間の距離を算出し、当該算出した距離に基づいて処理を行う。例えば、携帯電子機器1は、測距センサ5からの情報に基づいて、携帯電子機器1の右側面方向の物体の存否を検出したり、物体との間の距離を検出することで、右側面方向の物体の動きを検出することができる。例えば、所定時間内に測距センサ5によって検出される距離が変化している場合、携帯電子機器1は、携帯電子機器1の右側面方向においてユーザが手を左右方向に振っていると認識することができる。また、所定時間内に測距センサ5によって物体が検出されたり検出されなかったりした場合、携帯電子機器1は、ユーザが上下方向に手を振っていると認識することができる。そして、携帯電子機器1は、検出した物体の動きに応じて所定の処理を行い、当該処理の結果をディスプレイ2に表示する。
Moreover, the portable
このように、本実施形態では、赤外線カメラ4及び/又は測距センサ5を用いて、携帯電子機器1の右側面方向における特定の物体を検出することで、携帯電子機器1に対する様々なジェスチャ入力を判別し、当該入力に応じた処理の結果をディスプレイ2に表示することができる。
As described above, in the present embodiment, by using the
ここで、赤外線カメラ4及び測距センサ5には、それぞれ物体を認識することが可能な認識可能範囲がある。図8は、赤外線カメラ4の認識可能範囲を示す図である。図9は、測距センサ5の認識可能範囲を示す図である。
Here, each of the
図8に示すように、赤外線カメラ4は所定の画角θを有する。赤外線カメラ4は、携帯電子機器1の右側面方向において、赤外線カメラ4の画角θに含まれる範囲(例えば、数十〜180度の範囲)を撮像し、当該範囲が赤外線カメラ4を用いたジェスチャ入力の認識可能範囲である。ここで、認識対象の物体と携帯電子機器1との間の距離が短すぎる場合、赤外線カメラ4を用いて当該物体の全体を撮像することができない。したがって、画角θに含まれる範囲のうち、携帯電子機器1から所定の距離dより離れた領域が、赤外線カメラ4の認識可能範囲である。なお、距離dは、認識対象の物体の大きさにより異なる。
As shown in FIG. 8, the
また、図9に示すように、測距センサ5は、携帯電子機器1の右側面方向に物体が存在するか否か、および、物体までの距離を測定する。例えば、測距センサ5は、数cm〜1m程度の距離を検出可能である。測距センサ5の認識可能範囲は、赤外線カメラ4とは異なり、携帯電子機器1の近傍から右側面方向にほぼ直線状に広がっている。すなわち、測距センサ5は、検出方向のほぼ直線上の位置に存在する物体を検出するものであり、指向性が極めて高い一方で、赤外線カメラ4は、ある程度広がった範囲に存在する物体を撮像するものであり、指向性は低い。
Further, as shown in FIG. 9, the
次に、赤外線カメラ4および測距センサ5を用いて検出されるジェスチャ入力に基づく処理について説明する。
Next, processing based on gesture input detected using the
図10A〜図10Dは、赤外線カメラ4を用いたジェスチャ入力に基づく処理の一例を示す図である。図10Aに示すように、ユーザが左手で携帯電子機器1を持って携帯電子機器1の右側面方向の所定位置で右手を「グー」にした場合、ディスプレイ2にはキャラクタ21が表示される。図10Aの状態から図10Bに示すように、ユーザが右手を「グー」にした状態で右手を携帯電子機器1の右側面に近づけると、ディスプレイ2のキャラクタ21は拡大表示される。
10A to 10D are diagrams illustrating an example of processing based on gesture input using the
さらに、図10Bに示す状態から、ユーザが右手を「パー」にした場合、ディスプレイ2のキャラクタ21の表情が変化する(図10C)。例えば、図10Cに示すように、キャラクタ21は笑ったような表情に変化する。さらに、図10Dに示すように、ユーザが右手を「パー」にした状態で右手を携帯電子機器1に近づけると、キャラクタ21はさらに拡大表示されるとともに、キャラクタ21の表情が変化する。このとき、バイブレータ11が作動して携帯電子機器1が振動するとともに、スピーカ13から音が出力されてもよい。
Furthermore, from the state shown in FIG. 10B, when the user changes the right hand to “par”, the expression of the
図11Aは、図10Aに示すジェスチャ入力が行われた場合に赤外線カメラ4で撮像された入力画像の一例を示す図である。図11Bは、図10Bに示すジェスチャ入力が行われた場合に赤外線カメラ4で撮像された入力画像の一例を示す図である。図11Cは、図10Cに示すジェスチャ入力が行われた場合に赤外線カメラ4で撮像された入力画像の一例を示す図である。図11Dは、図10Dに示すジェスチャ入力が行われた場合に赤外線カメラ4で撮像される画像の一例を示す図である。
FIG. 11A is a diagram illustrating an example of an input image captured by the
図11Aに示すような入力画像が赤外線カメラ4から取得された場合、携帯電子機器1は、当該取得された入力画像に含まれる物体30を検出し、当該検出した物体30の形状に基づいて、ジェスチャの種類を判別する。携帯電子機器1には、予めジェスチャの種類と、ディスプレイ2に表示されるキャラクタ21とが対応付けされて記憶されており、携帯電子機器1は、判別したジェスチャの種類に対応するキャラクタ21の画像をディスプレイ2に表示する(図10A)。なお、判別したジェスチャの種類に応じてバイブレータ11を作動させて携帯電子機器1を振動させてもよい。
When an input image as shown in FIG. 11A is acquired from the
次に、図11Bに示すような入力画像が取得された場合、携帯電子機器1は、取得された入力画像に含まれる物体30を検出し、当該検出した物体30の形状に基づいてジェスチャの種類を判別する。図11Bでは、図11Aと同じジェスチャと判別されるため、ディスプレイ2に表示されるキャラクタ21の画像は図10Aと同じ画像である(図10B)。しかしながら、物体(ユーザの右手)が携帯電子機器1に近づくほど、ディスプレイ2に表示されるキャラクタ21は拡大表示される。具体的には、携帯電子機器1は、図11Aに示す入力画像に含まれる物体30の大きさと、図11Bに示す入力画像に含まれる物体30の大きさとを比較することにより、ディスプレイ2に表示するキャラクタ21の画像の大きさを決定する。このように、携帯電子機器1は、赤外線カメラ4から取得した画像に含まれる特定の物体の大きさに基づいて、携帯電子機器1と特定の物体との間の相対的な距離(相対位置)を判別し、当該相対的な距離に応じてディスプレイ2に表示するキャラクタ21の大きさを決定する。このとき、相対的な距離に応じて携帯電子機器1を振動させてもよい。
Next, when the input image as illustrated in FIG. 11B is acquired, the mobile
次に、図11Cに示すような入力画像が赤外線カメラ4から取得されると、携帯電子機器1は、入力画像に含まれる物体30を検出し、当該検出した物体30の形状に基づいてジェスチャの種類を判別する。図11Cに示す入力画像に含まれる物体30の形状に基づいて、携帯電子機器1は、「パー」のジェスチャーと判定し、図10Cに示すように、図10Aや図10Bとは異なるキャラクタ21の画像をディスプレイ2に表示する。このときに表示するキャラクタ21の大きさは、直前に決定されたキャラクタ21の大きさと同じ大きさに決定されてもよいし、入力画像に含まれる物体の大きさに基づいて決定されてもよい。
Next, when an input image as illustrated in FIG. 11C is acquired from the
さらに、図11Dに示すような入力画像が赤外線カメラ4から取得されると、携帯電子機器1は、入力画像に含まれる物体30を検出し、当該検出した物体30の形状に基づいてジェスチャの種類を判別する。しかしながら、図11Dでは、物体30の一部が欠如しており、携帯電子機器1は、ジェスチャの種類を正確に判別することができない。このため、図10Dに示すように、携帯電子機器1は、ジェスチャの種類が判別できないことを示す態様のキャラクタ21をディスプレイ2に表示するとともに、ユーザに検出エラーを知らせるために携帯電子機器1を振動させたり、警告音を出力したりする。
Furthermore, when an input image as illustrated in FIG. 11D is acquired from the
なお、図10A〜図10Dに示すように、ユーザが右手を動かすことで携帯電子機器1に対するジェスチャ入力を行ったが、右手を固定して携帯電子機器1自体を動かした場合でもジェスチャ入力があったと判定されてしまうことがある。このことを避けるために、例えば、加速度センサや角速度センサを用いて携帯電子機器1自体の動きを検出し、携帯電子機器1自体の動きが所定の閾値以上の場合は、ジェスチャ入力が行われなかったと判定してもよい。例えば、加速度センサ等からの検出値を用いて携帯電子機器1自体が移動しているか否かを判定し、携帯電子機器1自体が図10Aに示す右方向に移動していると判定された場合、右手を左方向に動かすジェスチャ入力は行われなかったと判定してもよい。また、例えば赤外線カメラ4から取得された画像に基づいて右手の動きが検出された場合において、加速度センサ等を用いて携帯電子機器1自体の動きが検出された場合、当該携帯電子機器1自体の動きに応じて、画像に基づいて検出された右手の動きを打ち消す処理を行い、当該処理によって算出された右手の動きに基づいてキャラクタ21が表示されてもよい。すなわち、赤外線カメラ4から取得された画像に基づく右手の動きと、加速度センサや角速度センサを用いて検出される携帯電子機器1自体の動きとに基づいて、所定の情報処理が行われてもよい。また、携帯電子機器1自体が動いているか否かを外側カメラ9からの画像に基づいて判定し、携帯電子機器1自体が動いている場合は、ジェスチャ入力が行われなかったと判定してもよい。
As shown in FIGS. 10A to 10D, the user performs a gesture input on the mobile
図12Aおよび図12Bは、赤外線カメラ4を用いたジェスチャ入力に基づく処理の他の例を示す図である。この例では、ディスプレイ2には、計算問題が表示される。ユーザは、ディスプレイ2に表示された問題に対して右手を用いて回答する。例えば、図12Aに示すように、「1+4=?」という文字列が表示された場合において、ユーザが右手でこの問題の解答「5」を示すジェスチャ入力(「パー」のジェスチャ)を行うと、問題に正解したことを示す表示がディスプレイ2において行われる。このとき、正解したことを示す音声が出力されたり、正解したことを示すパターンでバイブレータ11を作動させて携帯電子機器1を振動させてもよい。
12A and 12B are diagrams illustrating another example of processing based on gesture input using the
また、図12Bに示すように、「1+1=?」という文字列が表示された場合において、ユーザが右手でこの問題の解答「2」とは異なるジェスチャ入力(ジェスチャで「5」を入力)を行うと、不正解であることを示す表示がディスプレイ2において行われる。このとき、不正解であることを示す音声が出力されてもよいし、不正解であることを示すパターンでバイブレータ11を作動させてもよい。
Also, as shown in FIG. 12B, when the character string “1 + 1 =?” Is displayed, the user inputs a gesture input with the right hand that is different from the answer “2” (input “5” with the gesture). If it does, the
このように、携帯電子機器1は、赤外線カメラ4からの入力画像に基づいてユーザによって行われたジェスチャ入力を判別し、問題に正解したか否かを判定する。そして、携帯電子機器1は、判定結果をディスプレイ2に表示する。例えば、携帯電子機器1は、複数の問題を所定時間内に順に表示し、表示された問題に対してユーザが右手を使ったジェスチャで回答する。そして、例えば、所定時間内に何問正解したかに基づいて点数がディスプレイ2に表示される。
As described above, the mobile
次に、測距センサ5を用いた処理の一例について説明する。図13は、測距センサ5を用いた処理の一例を示す図である。図13に示すように、ユーザが左手で携帯電子機器1を持って携帯電子機器1の右側面方向の所定位置で右手をかざすと、蛇キャラクタ22がディスプレイ2の右端から出現する。ユーザが右手を携帯電子機器1に近づけると、蛇キャラクタ22は、ディスプレイ2の右端から左方向に伸びる。具体的には、携帯電子機器1は、測距センサ5からの情報に基づいて携帯電子機器1とユーザの右手との間の距離を算出し、算出した距離に応じて、蛇キャラクタ22の長さを決定する。そして、携帯電子機器1は、蛇キャラクタ22をディスプレイ2に表示する。また、携帯電子機器1は、距離に応じてバイブレータ11を作動させて、携帯電子機器1を振動させてもよい。
Next, an example of processing using the
このように、携帯電子機器1は、測距センサ5を用いて携帯電子機器1の右側面方向に存在する物体との間の距離を算出し、当該算出した距離に応じた画像をディスプレイ2に表示する。測距センサ5を用いた処理では、物体が存在するか否か、及び/又は、物体との距離に基づいて、所定の処理が行われる。また、上述のように、所定時間における物体の検知や距離の変化に基づいて、携帯電子機器1の右側面方向における物体の動きが検出され、当該動きの検出に応じて所定の処理が行われる。
As described above, the portable
次に、プロジェクタ8を用いた出力の例について説明する。図14は、プロジェクタ8を用いてユーザのジェスチャ入力に応じた画像がユーザの手に投影される様子を示す図である。図14の上図に示すように、携帯電子機器1の右側面方向の所定位置において、例えばユーザが右手を「パー」にすると、ユーザの右手にキャラクタ21が投影される。具体的には、携帯電子機器1は、赤外線カメラ4によって撮像された入力画像を解析することで、ユーザによって行われたジェスチャ入力の種類を判別する。次に、携帯電子機器1は、判別されたジェスチャ入力に基づいてキャラクタ21の画像を生成し、プロジェクタ8を用いて当該キャラクタ21の画像を出力する。このとき、ディスプレイ2にも同じ(又は異なる)画像が出力されてもよい。
Next, an example of output using the
また、図14の下図に示すように、右手を携帯電子機器1から遠ざけると、例えば、右手に投影されるキャラクタ21のサイズが変化しないように、キャラクタ21の画像がプロジェクタ8を用いてユーザの右手に投影される。具体的には、携帯電子機器1は、赤外線カメラ4によって撮像された画像を解析することで、ユーザのジェスチャ入力を判別し、判別結果に応じた画像を生成する。また、携帯電子機器1は、赤外線カメラ4からの入力画像に含まれる手の大きさに基づいて、出力する画像の大きさを決定する。また、携帯電子機器1は、赤外線カメラ4からの入力画像に代えて、又は加えて、測距センサ5によって測定された距離に基づいて、出力する画像の大きさを決定してもよい。そして、携帯電子機器1は、決定した大きさの画像をプロジェクタ8を用いて投影する。このとき、ディスプレイ2にも同じ(又は異なる)画像が出力されてもよい。ユーザが右手を用いて図14とは異なるジェスチャ(例えば、「グー」)を行った場合は、右手には図14とは異なる画像が投影される。すなわち、ジェスチャの種類に応じて、異なる画像が投影される。
Further, as shown in the lower diagram of FIG. 14, when the right hand is moved away from the portable
例えば、携帯電子機器1は、ディスプレイ2にユーザに行わせるジェスチャを順に表示し、表示されたジェスチャと同じジェスチャを所定時間内にユーザが行った場合に、成功判定し、表示されたジェスチャとは異なるジェスチャをユーザが行った場合は、失敗判定を行う。そして、携帯電子機器1は、判定結果に応じてプロジェクタ8から画像を出力することで、ユーザの手に判定結果に応じた画像を投影する。
For example, the mobile
なお、赤外線カメラ4でユーザの手を撮像することで、ユーザの手を追跡し、ユーザの手に画像が投影されるようにプロジェクタ8を制御してもよい。プロジェクタ8は、所定の範囲に画像を投影することが可能である。携帯電子機器1は、所定の時間間隔で赤外線カメラ4から画像を取得して、当該画像に基づいてユーザの手の位置を認識して、画像を投影する位置を定める。例えば、図14の下図のようにユーザの手に画像が投影されている状態で、手が上方向に移動した場合、携帯電子機器1は、赤外線カメラ4からの画像に基づいて手が上方向に移動したことを検出する。この検出結果に基づいて、携帯電子機器1はプロジェクタ8を用いてオブジェクトの画像を移動後のユーザの手に投影する。このように、携帯電子機器1は、所定の時間間隔で赤外線カメラ4から画像を取得することにより、ユーザの手が動いている場合でも、ユーザの手の動きに追随するように画像をユーザの手に投影することができる。また、携帯電子機器1は、ユーザの連続するジェスチャに合わせて連続的に画像を投影することができる。
Note that the user's hand may be tracked by imaging the user's hand with the
また、プロジェクタ8を用いて携帯電子機器1の右側面方向に光を照射することで、ユーザによるジェスチャ入力が可能な範囲をユーザに知らせてもよい。例えば、赤外線カメラ4でユーザの手の全体が撮像できる場合は、青色の光を照射し、ユーザの手の一部しか撮像できない場合は、赤色の光を照射してもよい。すなわち、赤外線カメラ4の撮像範囲(画角)と同じ又は類似する範囲にプロジェクタ8から光を照射することでユーザにジェスチャ入力が可能な範囲を認識させることができ、ユーザを誘導することができる。なお、画像を投影可能なプロジェクタ8の代わりに、所定の光を発する光源(例えば、LED、ハロゲンランプ、蛍光ランプ、ELランプ等)が携帯電子機器1に備えられ、当該光源から光を射出することで、ジェスチャ入力が可能な範囲をユーザに知らせてもよい。
Alternatively, the user may be notified of the range in which the user can input a gesture by irradiating light in the right side surface direction of the portable
このように、本実施形態では、赤外線カメラ4や測距センサ5を用いた入力のみならず、プロジェクタ8を用いた光による出力を携帯電子機器1の側面方向から可能である。
As described above, in the present embodiment, not only input using the
以上のように、本実施形態では、赤外線カメラ4および測距センサ5が携帯電子機器1の右側面に設けられ、ユーザが左手で携帯電子機器1を把持しながら右手で様々なジェスチャ入力を行い、当該ジェスチャ入力に応じた所定の処理が行われる。右側面に赤外線カメラ4および測距センサ5が設けられるため、ユーザは、携帯電子機器1を一方の手で把持してディスプレイ2を視認しながら、違和感なく他方の手でジェスチャ入力を行うことができる。
As described above, in the present embodiment, the
例えば、ディスプレイ2の画面が設けられたT5面(正面)に、ジェスチャ入力のための赤外線カメラ4や測距センサ5が設けられる場合、ユーザがジェスチャ入力を行うと、手がディスプレイ2の画面と重なり、ディスプレイ2の視認性を低下させてしまう。また、ディスプレイ2の画面とは反対側のT6面(背面)に、ジェスチャ入力のための赤外線カメラ4や測距センサ5が設けられる場合、ユーザは画面の背面でジェスチャ入力を行うことになり、右手が見えず、ジェスチャ入力を行い難い。
For example, when the
しかしながら、本実施形態の携帯電子機器1では、ディスプレイ2の側面にジェスチャ入力のための赤外線カメラ4や測距センサ5が設けられる。このため、ユーザが右手でジェスチャ入力を行う場合でも、画面と右手とが重なることはなく、画面の視認性を妨げずにジェスチャ入力を行うことができる。また、ディスプレイ2の側面に赤外線カメラ等が設けられるため、一方の手で携帯電子機器1を把持しながら、他方の手で携帯電子機器1に対するジェスチャ入力を行うことができ、両手で左右方向から挟むようにして携帯電子機器1に対して入力したり、当該入力に応じた出力(画像表示)を確認したりすることができる。これにより、携帯電子機器に対する従来には無い新規な操作感、使用感をユーザに与えることができる。
However, in the portable
図15は、左手で携帯電子機器1を把持しながら携帯電子機器1に対して右手で様々なジェスチャ入力を行う様子を示す図である。図15に示すように、ユーザが右手を左右方向に近づけたり、遠ざけたり、上下方向に動かしたり、回転させたり、右手の5本の指のうちの任意の指を伸ばしたり曲げたりすることで、携帯電子機器1に対して側面方向から入力を行うことができる。側面方向から入力を行うことで、携帯電子機器1に対して入力を行っているという感覚をユーザはより強く感じることができる。
FIG. 15 is a diagram illustrating how various gestures are input to the mobile
ユーザはディスプレイ2の画面を見ながら、右手方向からジェスチャ入力を行い、当該ジェスチャ入力の結果としてディスプレイ2に表示された画像を視認することができる。すなわち、ユーザは、ディスプレイ2の画面を見ると同時に、ジェスチャ入力を行う右手も視界に入り、右手を用いた入力とディスプレイ2からの出力とを同時に視認することができ、より自然にジェスチャ入力を行ったり、それに応じた出力を確認することができる。
The user can perform a gesture input from the right hand direction while viewing the screen of the
また、本実施形態の携帯電子機器1では、可視光の画像(RGB画像)を撮像する通常のカメラではなく赤外線カメラ4が用いられるため、ロバスト性がある。すなわち、通常のカメラを用いた場合、外部環境の明るさ(可視光の強さ)によっては、光量が多くなり過ぎたり少なくなり過ぎたりして画像認識に適した入力画像が取得できないことがある。また、通常のカメラを用いた場合において人間の手を認識する場合は、手の形状や肌の色で手を認識するが、外部環境の光の色によって、人間の手を認識できたりできなかったりすることがある。すなわち、外部環境によっては特定の物体(例えばユーザの手)を検出可能な画像が取得できないことがある。しかしながら、赤外線カメラ4を用いた場合は、可視光をフィルタで遮断しつつ照射部7からの赤外光(照射部7から照射されて物体によって反射された赤外光)を透過させることで、外部環境に影響されずに画像認識に適した入力画像を取得することができる。特に、太陽光が遮断された屋内においては赤外光の量は少なくなり、照射部7からの赤外光で特定の物体を照射することにより、外部環境の影響を受けることなく特定の物体を含む鮮明な画像を取得することができる。また、屋外においても、例えば夜間では照射部7からの赤外光で特定の物体を照射することで、画像認識に必要な画像を取得することができる。
In addition, the portable
(フローチャートの説明)
次に、携帯電子機器1において行われる処理の一例について説明する。図16は、携帯電子機器1において行われる処理の一例を示すフローチャートである。図16に示す処理は、制御部14が所定のプログラムを実行することにより行われる。また、図16に示す処理は、所定の時間間隔(例えば、1/60秒に1回)で繰り返し行われる。
(Explanation of flowchart)
Next, an example of processing performed in the mobile
図16に示すように、ステップS10において、制御部14は、赤外線カメラ4から入力画像を取得する。具体的には、制御部14は、照射部7に赤外線を照射させるとともに、赤外線カメラ4によって撮像された入力画像を取得する。次に、制御部14は、測距センサ5からの検出情報を取得する(ステップS11)。
As shown in FIG. 16, in step S <b> 10, the
次に、制御部14は、所定の情報処理を行う(ステップS12)。ここで、所定の情報処理としては、赤外線カメラ4からの入力画像を用いた処理、測距センサ5からの検出情報に基づく処理、及び、赤外線カメラ4と測距センサ5との両方を用いた処理の何れかが考えられる。ステップS12の所定の情報処理については、図17〜図19を参照して説明する。
Next, the
ステップS12の処理の後、制御部14は、ステップS12の所定の情報処理の結果に基づく画像をディスプレイ2、及び/又は、プロジェクタ8に出力する(ステップS13)。そして、制御部14は、図16に示す処理を終了するか否かを判定し(ステップS14)、終了しないと判定した場合は、再びステップS10の処理を実行し、終了すると判定した場合は、図16に示す処理を終了する。
After the processing in step S12, the
次に、図16のステップS12の所定の情報処理について説明する。所定の情報処理としては、上述のように、赤外線カメラ4からの画像を用いた処理、測距センサ5からの検出情報に基づく処理、及び、赤外線カメラ4と測距センサ5との両方を用いた処理がある。これら3つの処理のうち何れの処理が行われるかは、アプリケーションの種類によって定まる。以下では、それぞれの処理について、図17〜図19を参照して説明する。
Next, the predetermined information processing in step S12 of FIG. 16 will be described. As the predetermined information processing, as described above, processing using an image from the
(赤外線カメラ4を用いた所定の情報処理1)
図17は、赤外線カメラ4からの入力画像を用いた場合の図16のステップS12の所定の情報処理を示すフローチャートである。図17に示す処理は、例えば図10や図12で例示したアプリケーションを実行するための処理である。
(
FIG. 17 is a flowchart showing the predetermined information processing in step S12 of FIG. 16 when an input image from the
図17に示すように、制御部14は、ステップS10で取得した赤外線カメラ4からの入力画像に対して画像認識処理を行う(ステップS20)。具体的には、制御部14は、赤外線カメラ4からの入力画像に含まれるユーザの手(特定の物体)を、所定の画像認識技術を用いて検出する。
As shown in FIG. 17, the
次に、制御部14は、上記画像認識処理においてユーザの手を検出したか否かを判定する(ステップS21)。ユーザの手を検出した場合(ステップS21:YES)、制御部14は、ジェスチャの種類を判別する(ステップS22)。具体的には、制御部14は、検出したユーザの手の形状に基づいて、当該形状に対応するジェスチャの種類を判別する。続いて、制御部14は、ジェスチャの判別結果に応じた処理を行う(ステップS23)。例えば、制御部14は、判別したジェスチャの種類に応じた画像を選択したり、判別したジェスチャの種類に応じて、所定のゲームにおける成否を判定する(正しい入力か否かの判定を行う)。
Next, the
このステップS23の処理の内容は、実行されるプログラム(アプリケーション)の種類によって異なる。例えば、プログラムとして、任意のゲームプログラムが実行されてもよい。また、携帯電子機器1に対する操作(例えば、画面の拡大、縮小、スクロール等。所定のアプリケーションの起動や終了、携帯電子機器1の設定等)を行うためのプログラムが実行されてもよい。例えば、図10に示す処理に対応するプログラムが実行される場合は、制御部14は、判別したジェスチャの種類と、入力画像に含まれるユーザの手の大きさとに基づいて、出力する画像の種類を決定するとともに、画像の大きさを決定する。また、例えば、図12に示す処理に対応するプログラムが実行される場合は、制御部14は、ユーザによって行われた回答が正しいか否か(正しいジェスチャが行われたか否か)を判定する。
The content of the process in step S23 differs depending on the type of program (application) to be executed. For example, an arbitrary game program may be executed as the program. In addition, a program for performing an operation on the mobile electronic device 1 (for example, enlargement, reduction, scrolling, etc., activation or termination of a predetermined application, setting of the mobile
次に、制御部14は、ステップS23の処理の結果に応じて、出力画像を生成する(ステップS24)。ここで生成された出力画像が、ステップS13においてディスプレイ2及び/又はプロジェクタ8に出力される。
Next, the
一方、ステップS21において特定の物体を検出しなかったと判定した場合(ステップS21:NO)、制御部14は、図17に示す処理を終了する。
On the other hand, when it determines with a specific object not being detected in step S21 (step S21: NO), the
(測距センサ5を用いた所定の情報処理2)
図18は、測距センサ5からの検出情報に基づく処理が行われる場合の図16のステップS12の所定の情報処理を示すフローチャートである。図18に示す処理は、例えば図13で例示したアプリケーションを実行するための処理である。
(
FIG. 18 is a flowchart showing the predetermined information processing in step S12 of FIG. 16 when processing based on detection information from the
図18に示すように、制御部14は、ステップS11で取得した測距センサ5からの検出情報に基づいて、物体と携帯電子機器1との間の距離を算出する(ステップS30)。次に、制御部14は、距離の算出ができたか否かを判定する(ステップS31)。距離が算出できなかった場合(ステップS31:NO)、すなわち、物体が検出されなかった場合、制御部14は、図18に示す処理を終了する。
As shown in FIG. 18, the
距離の算出ができた場合(ステップS31:YES)、制御部14は、距離に応じた処理を行う(ステップS32)。
When the distance can be calculated (step S31: YES), the
このステップS32の処理の内容は、実行されるプログラム(アプリケーション)の種類によって異なる。例えば、プログラムとして、任意のゲームプログラムが行われてもよい。また、携帯電子機器1に対する操作を行うためのプログラムが実行されてもよい。例えば、図13に示す処理に対応するプログラムが実行される場合は、制御部14は、算出した距離に基づいて、蛇オブジェクト22の長さを決定する。なお、ステップS32において、過去の所定期間に算出された距離に基づいて、物体の動きが検出されてもよい。すなわち、過去の所定期間において、物体が検出されたりされなかったりした場合や、算出した距離が変化している場合は、当該変化のパターンに基づいて、制御部14は、物体の動きを検出し、検出した動きに応じた処理を行う。
The content of the process in step S32 varies depending on the type of program (application) to be executed. For example, an arbitrary game program may be performed as the program. In addition, a program for performing an operation on the mobile
そして、制御部14は、ステップS32の処理の結果に応じて、出力画像を生成する(ステップS33)。ここで生成された出力画像が、ステップS13においてディスプレイ2及び/又はプロジェクタ8に出力される。
And the
(赤外線カメラ4及び測距センサ5を用いた所定の情報処理3)
次に、赤外線カメラ4および測距センサ5の両方を用いた所定の情報処理について説明する。図19は、赤外線カメラ4および測距センサ5を用いた処理が行われる場合の図16のステップS12の所定の情報処理を示すフローチャートである。図19において、図17および図18と同じ処理については、同一の符号を付して説明を省略する。
(
Next, predetermined information processing using both the
図19に示すように、画像認識処理(ステップS20)に続いて、赤外線カメラ4からの入力画像の中にユーザの手(特定の物体)を検出した場合(ステップS21:YES)、制御部14は、ジェスチャの種類を判別する(ステップS22)。続いて、制御部14は、ジェスチャの種類を正常に判別できたか否かを判定する(ステップS40)。例えば、図11Dに示すように、赤外線カメラ4からの画像に含まれる画像において、特定の物体を検出した場合であっても、その特定の物体の一部が欠落している場合、制御部14は、ステップS40において「NO」と判定する。
As shown in FIG. 19, following the image recognition process (step S20), when the user's hand (specific object) is detected in the input image from the infrared camera 4 (step S21: YES), the
ジェスチャを正常に判別できた場合(ステップS40:YES)、制御部14は、判別結果に応じた処理を行う(ステップS23)。
When the gesture can be normally determined (step S40: YES), the
一方、ジェスチャを正常に判別できなかった場合(ステップS40:NO)、又は、ユーザの手を検出しなかった場合(ステップS21:NO)、制御部14は、測距センサ5からの検出情報に基づいて距離を算出する(ステップS30)。その後、制御部14は、図18と同様に距離を算出できたか否かを判定する。(ステップS31)。距離が算出できれば(ステップS31:YES)、制御部14は、距離に応じた処理を行う(ステップS32)。
On the other hand, when the gesture cannot be normally determined (step S40: NO), or when the user's hand is not detected (step S21: NO), the
ステップS23の処理を実行した場合、又は、ステップS32の処理を実行した場合、制御部14は、ステップS23の処理又はステップS32の処理の結果に応じて、出力画像を生成する(ステップS41)。すなわち、ステップS23の処理が実行された場合は、当該ステップS23の処理に応じた出力画像が生成され、ステップS32の処理が実行された場合は、当該ステップS32の処理に応じた出力画像が生成される。生成された出力画像は、ステップS13においてディスプレイ2及び/又はプロジェクタ8に出力される。
When the process of step S23 is executed, or when the process of step S32 is executed, the
このように、図19に示す処理では、赤外線カメラ4および測距センサ5の両方を用いて処理が行われる。図19に示す処理では、赤外線カメラ4および測距センサ5は、同じ処理が行われる場合において互いに補完関係にある。例えば、携帯電子機器1と特定の物体との間の距離が短すぎて、赤外線カメラ4では正常にジェスチャ入力を認識できない場合、測距センサ5の検出結果に基づいて処理が行われる。すなわち、赤外線カメラ4では認識不可能な範囲に特定の物体が存在する場合は、測距センサ5を用いて特定の物体を検出する。逆に、測距センサ5では認識不可能な範囲に特定の物体が存在する場合は、赤外線カメラ4を用いて特定の物体を検出してもよい。
As described above, in the process shown in FIG. 19, the process is performed using both the
このように、赤外線カメラ4と測距センサ5とで、何れか一方が検出状況に応じて選択される。具体的には、一方の検出結果が所定の処理に適さない場合は他方の検出結果を用いて同じ処理を行うことで、赤外線カメラ4と測距センサ5とで互いに補完し合うことができる。これにより、ユーザによって行われたジェスチャ入力をより確実に判別することができ、操作性を向上させることができる。
Thus, one of the
なお、赤外線カメラ4および測距センサ5の両方を用いる場合において、双方の検出結果に基づいて所定の処理が行われてもよい。すなわち、赤外線カメラ4と測距センサ5とで両方が選択されて、所定の処理のために用いられてもよい。例えば、赤外線カメラ4の認識可能範囲に特定の物体が存在する場合、赤外線カメラ4によって検出された特定の物体の画像と、測距センサ5によって算出された特定の物体までの距離とに基づいて、所定の処理が行われてもよい。
In the case where both the
また、上記実施形態のフローチャートで示した処理は単なる一例であり、上記処理の一部が実行されなくてもよいし、上記処理の他の処理が付加されてもよい。また、処理の順番はどのようなものでもよい。 Moreover, the process shown with the flowchart of the said embodiment is a mere example, and a part of said process may not be performed and the other process of the said process may be added. Further, any order of processing may be used.
以上のように、本実施形態の携帯電子機器1では、ディスプレイ2を正面から見た場合に、側面(右側面)に赤外線カメラ4および測距センサ5が設けられ、当該赤外線カメラ4および測距センサ5を用いて、ユーザの手を用いたジェスチャ入力を行うことができ、当該ジェスチャ入力に応じた出力画像をディスプレイ2やプロジェクタ8に出力することができる。赤外線カメラ4を用いた場合は、携帯電子機器1から所定距離だけ離れた位置において様々なジェスチャを識別可能であり、測距センサ5を用いた場合は、携帯電子機器1の近傍においても物体の存否を判別したり、物体と携帯電子機器1との間の距離に基づいて所定の処理を行うことができる。また、赤外線カメラ4および測距センサ5の両方を用いて所定の処理を行うことができる。そして、所定の処理の結果としての画像をディスプレイ2に表示したり、プロジェクタ8を用いて当該画像を投影したり、所定の処理の結果に応じて携帯電子機器1を振動させたりすることができる。
As described above, in the portable
また、本実施形態では、赤外線カメラ4と測距センサ5とを用いるため、電力消費を抑えつつ、かつ、安価で様々なジェスチャ入力を認識することが可能である。すなわち、赤外線カメラ4による画像の撮像タイミングと同期して照射部7が赤外光を所定の時間間隔で瞬間的に照射する。このため、光を照射する時間が短くても鮮明な画像を撮像することができるため、電力消費を抑えることができる。また、測距センサ5を用いた場合は、広範囲に光を照射する必要は無く、限られた特定の方向に光を照射するだけで検出対象の物体までの絶対距離を算出することができるため、電力消費を抑制することができる。例えば、2次元画像とともに画素毎に距離を測定可能な距離画像センサを用いた場合は、照射部は広範囲に光を照射する必要があるとともに、画素毎に距離を算出する必要があるため、処理負荷および電力消費が大きくなる。また、距離画像センサは、測距センサよりも高価である。しかしながら、赤外線カメラ4と測距センサ5とを用いた場合は、コストおよび電力消費を抑制することができる一方で、様々なジェスチャ入力を判別することができる。
In this embodiment, since the
(応用例)
上述した処理の他に、携帯電子機器1を用いて次に示すような処理を行ってもよい。
(Application examples)
In addition to the processing described above, the following processing may be performed using the mobile
図20は、携帯電子機器1において行われる処理の応用例を示す図である。例えば、図20に示すように、右手を携帯電子機器1に向かって移動させるジェスチャ入力が行われると、当該ジェスチャ入力に応じてディスプレイ2の画面の右端からボールが出現し、左方向に移動する。このとき、右手の動きが速ければ速いほど、ボールの移動速度は速くなる。具体的には、携帯電子機器1は、測距センサ5を用いて物体までの絶対距離を算出し、距離の変化に基づいて物体の速度を算出し、算出した速度に基づいてボールの移動速度を決定する。また、例えば、携帯電子機器1は、赤外線カメラ4からの画像に基づいて物体までの相対距離を算出し、相対距離の変化に基づいて物体の速度を算出してもよい。そして、ボールが画面の左端に到達するタイミングで、ユーザが左手で入力ボタン6Bを押下すると(あるいはディスプレイ2の画面をタッチすると)、ボールが反対方向に跳ね返り、入力ボタン6Bを押下するタイミングがずれると、ボールは反対方向に跳ね返らない。ボールが画面の左端に到達するタイミングでユーザが左手で入力ボタン6Bを押下した場合、ボールが反対方向に跳ね返るとともにバイブレータ11を動作させて左手に振動を与えてもよいし、音声を出力してもよい。このように、右手で行われたジェスチャ入力に応じてディスプレイ2に画像を表示し、所定時間経過後に左手を用いて入力を行わせるアプリケーションが実行されてもよい。
FIG. 20 is a diagram illustrating an application example of processing performed in the mobile
また、別の応用例では、例えば、赤外線カメラ4及び/又は測距センサ5を用いた入力と、外側カメラ9とを用いて、所定の画像が表示されてもよい。具体的には、外側カメラ9によって撮像された画像をディスプレイ2にリアルタイムで表示しながら、赤外線カメラ4及び/又は測距センサ5を用いてユーザのジェスチャ入力を検出し、当該ジェスチャ入力に応じた画像を、外側カメラ9によって撮像された画像に重畳表示してもよい。
In another application example, for example, a predetermined image may be displayed using an input using the
図21は、外側カメラ9と、赤外線カメラ4及び/又は測距センサ5とを用いた処理が行われた場合のディスプレイ2に表示される画像の一例を示す図である。
FIG. 21 is a diagram illustrating an example of an image displayed on the
図21に示すように、例えば、実空間内に所定のマーカ60が置かれ、当該マーカ60を外側カメラ9で撮像すると、外側カメラ9(実カメラ)で撮像された画像がディスプレイ2に表示されるとともに、撮像画像に含まれるマーカの位置に仮想オブジェクトが重畳表示される。ユーザは、右手でジェスチャ入力により当該仮想オブジェクトを操作する。例えば、右手を図21の矢印方向に移動させると、仮想オブジェクトが左方向に移動してもよい。具体的には、携帯電子機器は、実カメラから取得された撮像画像からマーカの位置および姿勢を検出し、実カメラとマーカとの位置関係を算出する。携帯電子機器は、算出した位置関係に基づいて、仮想空間の座標系を設定する(例えば、マーカを原点とする座標系)とともに仮想カメラを当該仮想空間に設定する。例えば、仮想カメラは、実空間における実カメラの位置に対応する仮想空間の位置に配置される。また、携帯電子機器は、当該仮想空間の所定位置(例えば原点)に仮想オブジェクトを配置する。そして、ユーザのジェスチャ入力に基づいて、仮想空間の仮想オブジェクトを操作するとともに、当該仮想オブジェクトを仮想カメラで撮像する。このようにして得られた仮想空間の画像と、外側カメラ9で撮像された実空間の画像とが重ね合わされて、ディスプレイ2に表示される。
As shown in FIG. 21, for example, when a
また、例えば、携帯電子機器は、図21に示すマーカやその他特定の物体を含む画像が外側カメラ9から取得されると、当該取得された画像に対して画像認識処理を実行する。携帯電子機器は、画像認識処理の結果に基づいて、外側カメラ9で撮像された実空間の画像に、魚オブジェクト及び釣り竿オブジェクト(仮想オブジェクト)を重畳表示する。このとき、携帯電子機器の右側面方向で、ユーザが釣り竿のリールを回すようなジェスチャを行うと、携帯電子機器が当該ジェスチャを認識する。そして、携帯電子機器は、魚が釣れたような表示をディスプレイ2に行う。
In addition, for example, when an image including the marker illustrated in FIG. 21 and other specific objects is acquired from the
このように、外側カメラ9と、赤外線カメラ4及び/又は測距センサ5とを用いた処理を行い、現実世界と仮想空間とを融合させた画像がディスプレイ2に表示されてもよい。
As described above, processing using the
また、別の応用例では、プロジェクタ8によって照射された画像とディスプレイ2に表示された画像とを連動させたゲームが行われてもよい。図22は、プロジェクタ8とディスプレイ2を連動させたゲームの一例を示す図である。
In another application example, a game in which an image irradiated by the
図22(A)に示すように、ディスプレイ2にはバッターが表示され、ユーザが右手で「パー」のジェスチャを行うと、赤外線カメラ4からの画像に基づいて携帯電子機器1が当該ジェスチャを認識し、プロジェクタ8を用いてユーザの右手にボールの画像を投影する。次に、ユーザが右手を振るジェスチャを行うと、ユーザの右手に投影されたボールの画像が消えるとともにディスプレイ2の右端からボールが出現し、当該ボールが画面の左方向に移動する(図22(B))。ボールがバッターの所定範囲に到達したタイミングでユーザが入力ボタン6Bを押下すると、バッターはボールを打ち返す(図22(C))。打ち返されたボールは、画面の右方向に移動する。ボールがディスプレイ2の右端に到達した後の所定のタイミング(打ち返されたボールが右手に到達するタイミング)で、ユーザが「グー」のジェスチャを行う。すると、ユーザが打ち返されたボールをキャッチしたように、ユーザの右手にボールの画像が投影される(図22(D))。このとき、ディスプレイ2には、ユーザがボールのキャッチに成功したことを示す「アウト」の文字が表示されるとともに、音声が出力されてもよいし、携帯電子機器1が振動してもよい。携帯電子機器1は、赤外線カメラ4からの画像や測距センサ5によって測定された距離に基づいてユーザの右手の位置(携帯電子機器の右側面に平行な平面上の位置、及び/又は、右側面に垂直な方向の位置)を認識し、当該認識結果に応じてボールの画像をユーザの右手に投影してもよい。なお、ユーザが上記所定のタイミングで「グー」のジェスチャを行わなかったり、「グー」のジェスチャを行ったタイミングが上記所定のタイミングとずれていた場合、ボールのキャッチに成功せず、図22(D)のようなボールの画像は右手に投影されない。例えば、ボールとは異なる画像が右手に投影されたり、「エラー」や「ヒット」という文字がディスプレイ2に表示されてもよい。なお、赤外線カメラ4によってユーザのジェスチャを認識できない場合は、測距センサ5を用いて手の動きを検出することで、上記と同様の処理が行われてもよい。
As shown in FIG. 22A, a batter is displayed on the
また、別の応用例では、測距センサ5を用いて物体(不特定の物体)までの絶対距離を算出し、算出した距離に基づいて、ディスプレイ2に画像を出力したり、プロジェクタ8を用いて画像を投影してもよい。例えば、図22で示した応用例において、キャッチする際の右手の絶対距離に基づいて、ボールのキャッチに成功したか否かが判定され、当該判定結果に応じた画像がディスプレイ2に表示されてもよい。また、赤外線カメラ4によって撮像された画像から特定の物体の位置(画像上の位置)を検出するとともに、測距センサ5を用いて特定の物体までの距離を検出することにより、特定の物体の3次元空間における位置を検出してもよい。そして、特定の物体の3次元空間における位置に基づいて、所定の処理を行い、当該所定の処理の結果に基づく画像をディスプレイ2に表示したり、プロジェクタ8で投影したりしてもよい。
In another application example, the
また、別の応用例では、赤外線カメラ4によって撮像された画像に基づいて、特定の物体の距離(相対距離)を算出し、算出した距離に応じてバイブレータ11を振動させてもよい。例えば、物体までの距離が所定の閾値より近い場合や遠い場合は、バイブレータ11を振動させてもよい。また、測距センサ5を用いて特定の物体までの絶対距離を算出し、算出した距離に応じてバイブレータ11を振動させてもよい。また、赤外線カメラ4、又は/及び、測距センサ5を用いて、特定の物体の動き(例えば、右手の動きやその他物体の動き)を検出し、当該特定の物体の動きに応じてバイブレータ11を振動させてもよい。具体的な例としては、ユーザがギターを弾くように右手を動かしたことに応じて、音を出力するとともに携帯電子機器1を振動させる。このとき、ディスプレイ2には、ギターの弦の画像が表示され、左手の指でディスプレイ2に表示された弦を押さえると、音が変化してもよい。このような応用例では、ユーザが右手を速く動かすほど大きな音が出力されるとともに、携帯電子機器1が強く振動するようにしてもよい。
In another application example, a distance (relative distance) of a specific object may be calculated based on an image captured by the
また、上記では赤外線カメラ4及び/又は測距センサ5を用いた処理の例を複数示したが、他の任意の処理が行われてもよい。例えば、ディスプレイ2や音声によって指示された内容に応じて、所定のタイミングでユーザにジェスチャを行わせるゲームが行われてもよい。そのようなゲームでは、所定のタイミングで所定のジェスチャが行われた場合は、得点が加算され、ユーザによって行われたジェスチャのタイミングが所定のタイミングとずれていたり、所定のジェスチャとは異なるジェスチャが行われた場合には、得点が加算されない。
In the above description, a plurality of examples of processing using the
このように、本実施形態の携帯電子機器1は、実行されるアプリケーションの種類に応じて、所定の処理が行われ、所定の処理のために赤外線カメラ4及び測距センサ5が用いられる。例えば、あるアプリケーションでは、赤外線カメラ4からの画像が所定の処理のために用いられてもよい。また、あるアプリケーションでは、測距センサ5によって算出される距離が所定の処理のために用いられる。また、あるアプリケーションでは、赤外線カメラ4及び測距センサ5の双方が所定の処理のために用いられる。例えば、特定の物体(予め定められた物体)を検出して検出結果に基づいた処理を行うアプリケーションが実行される場合は、赤外線カメラ4が用いられる。これに対して、不特定の物体を検出して当該不特定の物体までの距離に基づいて処理を行うアプリケーションが実行される場合は、測距センサ5が用いられる。
As described above, the portable
また、あるアプリケーションでは、赤外線カメラ4及び測距センサ5のうちの何れか一方が、検出状況に応じて選択され、選択された一方が所定の処理のために用いられる。例えば、赤外線カメラ4からの画像の中に特定の物体を検出できなかったり、ジェスチャの種類を判別できなかった場合は、赤外線カメラ4の代わりに、測距センサ5が選択される。選択された測距センサ5からの情報に基づいて、物体の動きを検出し、当該検出した動きに応じて所定の情報処理が行われる。すなわち、赤外線カメラ4及び測距センサ5のうち、赤外線カメラ4が優先的に物体の検出のために用いられる。そして、所定の情報処理の結果に基づいて、画像がディスプレイ2に表示されたりプロジェクタ8で投影されたりする。赤外線カメラ4及び測距センサ5のうち、測距センサ5が優先的に物体の検出のために用いられてもよい。
In one application, one of the
また、他の応用例としては、ユーザが両手で携帯電子機器1を把持してゲームを行っているときに、ユーザが右手を離すと、携帯電子機器1は、ディスプレイ2にゲーム画像の代わりに(又は加えて)メニュー画面を表示してもよい。ユーザは、メニュー画面を用いた操作によって、例えば、実行中のゲームを終了したり、ゲームの進行状況を保存したり、他のゲームを実行したり、携帯電子機器1の設定を変更したりすることができる。具体的には、携帯電子機器1は、赤外線カメラ4や測距センサ5を用いてユーザが右手を離したことを検出する。そして、ユーザが右手を離したことを検出すると、携帯電子機器1は、実行中のゲーム処理を中断し、メニュー画面を表示する。
As another application example, when the user holds the portable
また、上記携帯電子機器1では、右側面に赤外線カメラ4や測距センサ5等を配置したが、ユーザが左手を用いてジェスチャ入力を行う場合は、図1に示す姿勢の携帯電子機器1を180度回転させる(すなわち、図1の携帯電子機器1を上下逆にする)。携帯電子機器1は、姿勢検出部16を用いて、例えば重力を検出することで、携帯電子機器1が回転されたことを検出する。そして、検出した携帯電子機器1の姿勢に応じて、ディスプレイ2に表示する画像を回転させる。
Moreover, in the said portable
(変形例)
なお、上述した実施形態は単なる一例であり、例えば、以下のような変形が加えられてもよい。
(Modification)
In addition, embodiment mentioned above is only an example, For example, the following modifications may be added.
例えば、携帯電子機器1は、上述したユーザの手を用いたジェスチャ入力に限らず、他の様々な物体を検出して当該物体の検出結果に応じて所定の処理を行い、所定の処理の結果をディスプレイ2に出力したり、プロジェクタ8に出力してもよい。例えば、赤外線カメラ4で側面方向に存在する特定の物体を撮像することで、携帯電子機器に対する入力を行ってもよい。例えば、特定の物体に対する操作をユーザが行うと、当該特定の物体の位置や姿勢が変化する。赤外線カメラ4で当該特定の物体を撮像することで、ユーザによって行われた特定の物体に対する操作を検出することができる。そして、当該操作に応じた処理の結果がディスプレイ2等に出力される。この場合において、携帯電子機器1は、ユーザの手およびユーザが把持した物体の双方を検出してもよいし、物体のみを検出してもよい。
For example, the portable
また、携帯電子機器1の形状はどのようなものでもよい。例えば、携帯電子機器1(ディスプレイ2)は、横長ではなく縦長であってもよいし、正方形であってもよい。図23は、縦長の携帯電子機器50の一例を示す図である。図24は、横長の携帯電子機器の一例を示す図である。なお、図23では、入力ボタン6が表示されていないが、携帯電子機器50は入力ボタン6を備えてもよい。図23に示すように、縦長の携帯電子機器50の正面にはディスプレイ2が設けられ、右側面には、赤外線カメラ4と測距センサ5とプロジェクタ8とが設けられる。上述のように、携帯電子機器50においても、右側面に設けられた赤外線カメラ4及び測距センサ5を用いて、ユーザは、携帯電子機器50の右側面方向から右手でジェスチャ入力を行うことができる。
Further, the mobile
このように、本実施形態の携帯電子機器は、画面が縦長であっても横長であっても、画面を正面から見た場合の側面方向(左右方向)に、赤外線カメラ4等が設けられる。ここで、「画面を正面から見る」とは、ディスプレイ2の画面に表示された文字列や画像等が通常の方向から見えるように画面を見ることを意味する。例えば、図23では、画面が縦長になるように携帯電子機器を把持すると、画面に表示された文字列「ABC」や画像が通常の方向から見えるため、この状態が画面を正面から見ている状態である。また、例えば、図24では、画面が横長になるように携帯電子機器を把持すると、画面に表示された文字列「ABC」や画像が通常の方向から見えるため、この状態が画面を正面から見ている状態である。
As described above, the portable electronic device of the present embodiment is provided with the
本明細書における「側面」は、図23や図24に示すように、画面を正面から見た場合に下方向を向く底面及び上方向を向く上面を含んでもよい。すなわち、本実施形態の携帯電子機器では、画面を正面から見た場合に上方向を向く「上面」や下方向を向く「底面」に赤外線カメラ4や測距センサ5等が設けられてもよく、左方向を向く「左側面」や右方向を向く「右側面」に、赤外線カメラ4や測距センサ5等が設けられてもよい。
As shown in FIGS. 23 and 24, the “side surface” in the present specification may include a bottom surface facing downward and an upper surface facing upward when the screen is viewed from the front. That is, in the portable electronic device of the present embodiment, the
なお、本実施形態の携帯電子機器は、姿勢検出部16を用いて自機の姿勢を検出し、検出した姿勢に応じて、画面に表示する文字や画像等を回転させてもよい。図25は、画面を正面から見た場合の側面に赤外線カメラ4や測距センサ5等が設けられた携帯電子機器において、携帯電子機器を90度右回転させたときの様子を示す図である。
Note that the portable electronic device of the present embodiment may detect the posture of its own device using the posture detection unit 16 and rotate characters, images, and the like displayed on the screen according to the detected posture. FIG. 25 is a diagram illustrating a state in which the portable electronic device is rotated 90 degrees to the right in the portable electronic device in which the
図25に示すように、携帯電子機器は、画面が横長になるように携帯電子機器を把持した場合は、画面には文字や画像が通常の方向から見え、画面を正面から見たときの右側面に、赤外線カメラ4や測距センサ5等が設けられる。一方、携帯電子機器を90度右回転させると、姿勢検出部16が例えば重力を検出することで、携帯電子機器は自機の姿勢を検出する。携帯電子機器は、当該検出結果に応じてディスプレイ2に表示された文字や画像が正面から見えるように、当該文字や画像を回転させる。すなわち、90度右回転させた後でも、ユーザは携帯電子機器の画面を正面から見ることができる。この場合、赤外線カメラ4や測距センサ5等は、携帯電子機器の画面を正面から見た場合の底面に位置することになる。このような携帯電子機器もまた、本発明の範囲に含まれる。
As shown in FIG. 25, when the portable electronic device is held such that the screen is horizontally long, characters and images are visible on the screen from the normal direction, and the right side when the screen is viewed from the front. On the surface, an
すなわち、携帯電子機器の持ち方によっては、赤外線カメラ4や測距センサ5等は、画面に対して下方向に位置したり上方向に位置することになってもよい。携帯電子機器がある姿勢でユーザに把持された場合には、当該ユーザが画面を正面から見たときに(画面に表示される文字や画像等が通常の方向から見えるときに)、赤外線カメラ4や測距センサ5等が画面に対して左右方向の面に位置するようになる。そのような姿勢において、ユーザは、画面に対して右方向(又は左方向)から上述のような右手(又は左手)でジェスチャを行うことにより、携帯電子機器に対してジェスチャ入力を行うことができる。また、携帯電子機器が別の姿勢でユーザに把持された場合には、当該ユーザが画面を正面から見たときに、赤外線カメラ4や測距センサ5等が画面に対して上下方向の面に位置するようになる。そのような姿勢において、ユーザは、画面に対して上方向(又は下方向)から上述のような右手(又は左手)でジェスチャを行うことにより、携帯電子機器に対してジェスチャ入力を行うことができる。
That is, depending on how the portable electronic device is held, the
また、例えば、側面とともに上面や底面に赤外線カメラ4や測距センサ5、プロジェクタ8が設けられる構成も、本発明の範囲に含まれる。また、左側面および右側面の両方に赤外線カメラ4や測距センサ5等が設けられてもよい。この場合において、例えば測距センサによって測定された距離に基づいて、携帯電子機器の左側および右側のうちのどちらがユーザによって把持されているかを判断してもよい。例えば、携帯電子機器は、測定された距離が短い方に対応する側面(把持部)がユーザによって把持されていると判断してもよい。
Further, for example, a configuration in which the
図26は、側面と底面との両方に赤外線カメラ4や測距センサ5等が設けられた構成の一例を示す図である。図26に示すように、携帯電子機器の右側面には、赤外線カメラ4や測距センサ5等が設けられ、携帯電子機器の底面にも赤外線カメラ4や測距センサ5等が設けられる。ユーザは、左手で携帯電子機器を把持しながら、右手を用いてジェスチャ入力等が可能である。このような構成では、横長となるように携帯電子機器が把持された場合でも、縦長となるように携帯電子機器が把持された場合でも、横方向に赤外線カメラ4や測距センサ5等が位置するため、画面の横方向において上述のようなジェスチャ入力が可能となる。
FIG. 26 is a diagram illustrating an example of a configuration in which the
このように、ユーザが携帯電子機器を左手(又は右手)で把持して画面を正面から見ながら、右手(又は左手)でディスプレイの画面に対して側面方向からジェスチャ入力を行うことができるものであれば、携帯電子機器はどのような構成であってもよい。 In this way, the user can perform gesture input from the side direction on the display screen with the right hand (or left hand) while holding the portable electronic device with the left hand (or right hand) and viewing the screen from the front. If it exists, the mobile electronic device may have any configuration.
また、上記実施形態では、赤外線カメラ4や測距センサ5等が側面に垂直な方向(画面に平行)を向くものとしたが、他の構成では、赤外線カメラ4や測距センサ5等が側面に対して所定の角度だけ傾くように設けられてもよい。
In the above embodiment, the
図27は、赤外線カメラ4や測距センサ5を傾けた場合の携帯電子機器を底面から見た図である。図27に示すように、赤外線カメラ4の撮像方向が、携帯電子機器の右側面と垂直ではなく、画面方向に所定の角度だけ傾いていてもよい。また、測距センサ5の検出方向(光源からの光の射出方向)が、携帯電子機器の右側面と垂直ではなく、画面方向に所定の角度だけ傾いていてもよい。同様に、プロジェクタ8が、携帯電子機器の右側面と垂直ではなく、画面方向に所定の角度だけ傾いていてもよい。このように、赤外線カメラ4や測距センサ5、プロジェクタ8が画面方向に傾いている場合には、ユーザは、携帯電子機器の真横よりも画面方向の所定位置で手を使ったジェスチャ入力を行うことになる。赤外線カメラ4や測距センサ5、プロジェクタ8の傾きは、ユーザがジェスチャ入力を行い易いように、適宜調整されてもよく、例えば、赤外線カメラ4や測距センサ5、プロジェクタ8を背面方向に傾けてもよい。
FIG. 27 is a diagram of a portable electronic device viewed from the bottom when the
また、上記実施形態では、赤外線カメラ4が用いられたが、赤外線カメラ4の代わりに可視光の画像を撮像する通常のカメラ(RGB画像を取得するカメラ)が用いられ、当該通常のカメラを用いてユーザのジェスチャが認識されてもよい。また、赤外線カメラ4の代わりに、RGB画像と赤外線画像との両方を撮像可能なカメラが用いられてもよい。図28は、RGB画像と赤外線画像との両方を撮像可能なイメージセンサの一部を示す図である。図28に示すように、4つの素子(フォトトランジスタ)のそれぞれは、赤の光(R)、緑の光(G)、青の光(B)、赤外光(IR)を受光する。このような4つの素子の組み合わせが縦横に多数並べられたイメージセンサを用いることで、RGB画像を取得することができるとともに、赤外線画像も取得することができる。これにより、RGB画像と赤外線画像のうちの何れかを用いて、ジェスチャを認識することができる。すなわち、取得されたRGB画像と赤外線画像のうち、ジェスチャ認識に適した画像を選択することができる。例えば、赤外線の光量が多すぎて取得された赤外線画像に特定の物体が検出できない場合は、RGB画像を用いてジェスチャを認識することができ、その逆も可能である。
Moreover, in the said embodiment, although the
また、上記実施形態では、プロジェクタ8が備えられたが、ユーザによるジェスチャ入力に応じた所定の情報処理(S13)の結果を、光によってユーザに知らせるものであればどのようなものでもよい。例えば、プロジェクタ8の代わりに又は加えて、所定の光を発する光源(例えば、LED、ハロゲンランプ、蛍光ランプ、ELランプ等)が携帯電子機器1に備えられてもよい。
In the above embodiment, the
また、上記実施形態では、赤外線カメラ4と測距センサ5とを用いて画像と距離とを別々に取得したが、他の実施形態では、例えば、TOF(Time of Flight)型の距離画像センサが設けられ、当該距離画像センサを用いて、画像と画素毎の距離とが取得されてもよい。そして、携帯電子機器は、取得された画像と距離とに基づいて、特定の物体を検出し、検出結果に応じてディスプレイ2やプロジェクタ8に画像を出力する。
In the above embodiment, the image and the distance are separately acquired using the
また、上記実施形態では、一方の手で携帯電子機器を把持し、他方の手で携帯電子機器に対してジェスチャ入力を行う例について説明した。他の実施形態では、携帯電子機器は、例えば画面を備える腕時計型の装置のように、ユーザの腕(身体)に固定されるものであってもよい。 Further, in the above-described embodiment, the example in which the portable electronic device is held with one hand and the gesture input is performed on the portable electronic device with the other hand has been described. In another embodiment, the portable electronic device may be fixed to a user's arm (body), for example, a wristwatch-type device having a screen.
また、携帯電子機器の形状はどのようなものでもよく、例えば、板状の楕円形状であってもよい。例えば、携帯電子機器は、折り畳み可能なものであってもよい。 The portable electronic device may have any shape, for example, a plate-like ellipse. For example, the portable electronic device may be foldable.
また、上記実施形態では携帯型の装置としたが、他の実施形態では据置型の装置であってもよい。 In the above embodiment, a portable device is used. However, in another embodiment, a stationary device may be used.
1 携帯電子機器
2 ディスプレイ
3 タッチパネル
4 赤外線カメラ
5 測距センサ
6 入力ボタン
7 照射部
8 プロジェクタ
9 外側カメラ
11 バイブレータ
16 姿勢検出部
17 GPSレシーバ
18 地磁気センサ
DESCRIPTION OF
Claims (8)
ユーザの左手で把持される左把持部と、
前記ユーザの右手で把持される右把持部と、
前記電子機器の側面に設けられ、当該側面方向の空間を撮像可能なカメラと、
前記カメラによって撮像された入力画像を取得する取得手段と、
前記取得手段によって取得された入力画像に基づいて、前記側面方向の空間に存在する、前記左把持部又は前記右把持部を把持した前記ユーザの一方の手と反対側の他方の手で行われたジェスチャを検出する検出手段と、
前記側面に設けられ、前記検出手段による検出結果に応じた画像を前記他方の手に投影する照射手段と、
画像を表示するディスプレイと、
所定のゲーム処理を行うゲーム処理手段と、を備え、
前記ゲーム処理手段は、前記ディスプレイにゲームに関する画像を表示させ、
前記検出手段は、前記ゲームに関する画像に応じたジェスチャを検出し、
前記ゲーム処理手段は、前記検出手段によって検出されたジェスチャに基づいて前記ゲーム処理を行い、
前記照射手段は、前記ゲーム処理の結果に応じた画像を、前記他方の手に投影する、電子機器。 A handheld electronic device,
A left gripping part gripped by the user's left hand;
A right gripping part gripped by the right hand of the user;
A camera provided on a side surface of the electronic device and capable of imaging a space in the side surface direction;
Obtaining means for obtaining an input image captured by the camera;
Based on the input image acquired by the acquisition unit, the image is performed with the other hand on the opposite side to the one hand of the user holding the left grip part or the right grip part , which exists in the space in the side surface direction. Detecting means for detecting a gesture,
Irradiation means provided on the side surface and projecting an image according to the detection result by the detection means on the other hand ;
A display for displaying images,
Game processing means for performing predetermined game processing ,
The game processing means displays an image relating to a game on the display,
The detection means detects a gesture according to an image related to the game,
The game processing means performs the game processing based on the gesture detected by the detection means,
The illuminating means is an electronic apparatus that projects an image corresponding to the result of the game process onto the other hand .
前記照射手段は、前記検出手段によって検出された前記位置に基づいて、前記画像を照射する、請求項1から4の何れかに記載の電子機器。 The detecting means detects the position of the other hand ;
The irradiation means, on the basis of the detected position by the detecting means, for illuminating said image, the electronic device according to any one of claims 1 to 4.
ユーザの左手で把持される左把持部と、
前記ユーザの右手で把持される右把持部と、
前記電子機器の側面に設けられ、当該側面方向の空間を撮像可能なカメラと、
前記カメラによって撮像された入力画像を取得する取得手段と、
前記取得手段によって取得された入力画像に基づいて、前記側面方向の空間に存在する、前記左把持部又は前記右把持部を把持した前記ユーザの一方の手と反対側の他方の手で行われたジェスチャを検出する検出手段と、
前記側面に設けられ、前記検出手段による検出結果に応じた画像を前記他方の手に投影する照射手段と、
画像を表示するディスプレイと、
前記照射手段によって投影される画像と、前記ディスプレイに表示される画像とを連動させる連動手段とを備える、電子機器。 A handheld electronic device,
A left gripping part gripped by the user's left hand;
A right gripping part gripped by the right hand of the user;
A camera provided on a side surface of the electronic device and capable of imaging a space in the side surface direction;
Obtaining means for obtaining an input image captured by the camera;
Based on the input image acquired by the acquisition unit, the image is performed with the other hand on the opposite side to the one hand of the user holding the left grip part or the right grip part , which exists in the space in the side surface direction. Detecting means for detecting a gesture,
Irradiation means provided on the side surface and projecting an image according to the detection result by the detection means on the other hand ;
A display for displaying images,
An electronic apparatus comprising: interlocking means for interlocking an image projected by the irradiation means and an image displayed on the display .
ユーザの左手で把持される左把持部と、
前記ユーザの右手で把持される右把持部と、
前記電子機器の側面に設けられ、当該側面方向の空間を撮像可能なカメラと、
前記カメラによって撮像された入力画像を取得する取得手段と、
前記取得手段によって取得された入力画像に基づいて、前記側面方向の空間に存在する、前記左把持部又は前記右把持部を把持した前記ユーザの一方の手と反対側の他方の手の動きを検出する検出手段と、
前記側面に設けられ、前記検出手段による検出結果に応じた画像を前記他方の手に投影する照射手段と、
画像を表示するディスプレイと、
前記照射手段によって投影される画像と、前記ディスプレイに表示される画像とを連動させる連動手段とを備える、電子機器。 A handheld electronic device,
A left gripping part gripped by the user's left hand;
A right gripping part gripped by the right hand of the user;
A camera provided on a side surface of the electronic device and capable of imaging a space in the side surface direction;
Obtaining means for obtaining an input image captured by the camera;
Based on the input image acquired by the acquisition means, the movement of the other hand on the opposite side to the one hand of the user holding the left gripping part or the right gripping part existing in the space in the side surface direction is performed. Detecting means for detecting;
Irradiation means provided on the side surface and projecting an image according to the detection result by the detection means on the other hand ;
A display for displaying images,
An electronic apparatus comprising: interlocking means for interlocking an image projected by the irradiation means and an image displayed on the display .
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014182591A JP6589216B2 (en) | 2014-09-08 | 2014-09-08 | Electronics |
| US14/842,222 US10015402B2 (en) | 2014-09-08 | 2015-09-01 | Electronic apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014182591A JP6589216B2 (en) | 2014-09-08 | 2014-09-08 | Electronics |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2016054852A JP2016054852A (en) | 2016-04-21 |
| JP6589216B2 true JP6589216B2 (en) | 2019-10-16 |
Family
ID=55756255
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014182591A Active JP6589216B2 (en) | 2014-09-08 | 2014-09-08 | Electronics |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6589216B2 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7060355B2 (en) * | 2017-10-17 | 2022-04-26 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing system and information processing method |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07325688A (en) * | 1994-05-30 | 1995-12-12 | Casio Comput Co Ltd | Image display device |
| JP2009156912A (en) * | 2007-12-25 | 2009-07-16 | Nikon Corp | Portable electronic devices |
| JP5374906B2 (en) * | 2008-04-07 | 2013-12-25 | 株式会社ニコン | projector |
| JP5254906B2 (en) * | 2009-08-27 | 2013-08-07 | 京セラ株式会社 | Electronics |
| JP5740822B2 (en) * | 2010-03-04 | 2015-07-01 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| JP4846871B1 (en) * | 2010-10-28 | 2011-12-28 | 善博 和田 | KEY INPUT DEVICE, PORTABLE TERMINAL PROVIDED WITH THE SAME, AND PROGRAM FOR MAKING PORTABLE TERMINAL FUNCTION AS INPUT DEVICE |
-
2014
- 2014-09-08 JP JP2014182591A patent/JP6589216B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP2016054852A (en) | 2016-04-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6684042B2 (en) | Electronics | |
| US10015402B2 (en) | Electronic apparatus | |
| JP6388203B2 (en) | Electronics | |
| US9996107B2 (en) | Accessory and information processing system | |
| US9804667B2 (en) | Electronic apparatus | |
| JP2020091904A (en) | System and controller | |
| US10025975B2 (en) | Information processing device, storage medium storing information processing program, information processing system, and information processing method | |
| CN102033702A (en) | Image display device and display control method thereof | |
| US20190384419A1 (en) | Handheld controller, tracking method and system using the same | |
| US9864905B2 (en) | Information processing device, storage medium storing information processing program, information processing system, and information processing method | |
| JP6519074B2 (en) | Electronics | |
| JP6528193B2 (en) | Electronics | |
| US9824293B2 (en) | Information processing device, storage medium storing information processing program, information processing system, and information processing method | |
| JP6561400B2 (en) | Information processing apparatus, information processing program, information processing system, and information processing method | |
| JP6573457B2 (en) | Information processing system | |
| JP6589216B2 (en) | Electronics | |
| JP6444345B2 (en) | Method and apparatus for supporting input in virtual space, and program for causing computer to execute the method | |
| JP6666121B2 (en) | Information processing system, information processing apparatus, information processing method, and information processing program | |
| JP2018129084A (en) | Attached equipment, information processing system, information processing apparatus, information processing program, operation determination method, and processing execution method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170725 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180629 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180710 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180905 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190305 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190415 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190816 |
|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20190829 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190829 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20190829 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6589216 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |