+

JP7237149B2 - Information provision system and information terminal - Google Patents

Information provision system and information terminal Download PDF

Info

Publication number
JP7237149B2
JP7237149B2 JP2021511722A JP2021511722A JP7237149B2 JP 7237149 B2 JP7237149 B2 JP 7237149B2 JP 2021511722 A JP2021511722 A JP 2021511722A JP 2021511722 A JP2021511722 A JP 2021511722A JP 7237149 B2 JP7237149 B2 JP 7237149B2
Authority
JP
Japan
Prior art keywords
article
information
display
image
designated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021511722A
Other languages
Japanese (ja)
Other versions
JPWO2020202347A1 (en
Inventor
大祐 山岡
一彦 田中
祐 瀧口
瞳 ▲濱▼村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JPWO2020202347A1 publication Critical patent/JPWO2020202347A1/ja
Application granted granted Critical
Publication of JP7237149B2 publication Critical patent/JP7237149B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Finance (AREA)
  • Theoretical Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Traffic Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ユーザに情報を提供する情報提供システムおよび情報端末に関する。 The present invention relates to an information providing system and an information terminal that provide information to users.

スマートフォンなどの携帯端末を介してネットワークと接続することでサービスを提供するアプリケーションが考案されている。例えば、特許文献1には、携帯無線通信端末(スマートフォン)において撮像画像をディスプレイに表示するとともに、当該撮影画像内に含まれる部品の案内(名称)をディスプレイに重畳表示すること、および、ディスプレイに重畳表示された部品の案内を押下した場合に、当該部品の操作マニュアルをディスプレイに表示することが開示されている。 Applications that provide services by connecting to networks via mobile terminals such as smartphones have been devised. For example, in Patent Document 1, a captured image is displayed on a display in a mobile wireless communication terminal (smartphone), and a guide (name) of a part included in the captured image is displayed superimposed on the display. It is disclosed that when a guide for a superimposed part is pressed, an operation manual for the part is displayed on the display.

特開2014-215845号公報JP 2014-215845 A

ユーザは、例えば、車載部品の購入を検討している場合に当該車載部品を車両に搭載または取付けることができるのかや、大型の物品の購入を検討している場合に当該物品を車両に積むことができるのかなど、ユーザが購入を検討している物品が車両に対して適合するのか否か(即ち、車両に対する物品の適合性)を、当該物品の購入前に容易に把握したいと望むことがある。また、ユーザは、例えば、車両の構造物に適合する物品の情報を容易に把握したいと望むことがある。 For example, if the user is considering purchasing an in-vehicle component, the user may ask whether the in-vehicle component can be mounted or attached to the vehicle, or if the user is considering purchasing a large-sized item, ask whether the item can be loaded on the vehicle. Before purchasing the item, the user may desire to easily grasp whether the item that the user is considering to purchase is compatible with the vehicle (that is, whether the item is compatible with the vehicle). be. Also, the user may desire to easily grasp information on articles that fit into the structure of the vehicle, for example.

そこで、本発明は、ユーザの所望する情報を容易且つ直感的にユーザに提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a user with information desired by the user easily and intuitively.

本発明の一側面としての情報提供システムは、カメラおよびディスプレイを有する情報端末を用いて、指定物品と当該指定物品を搭載予定の対象箇所との適合性に関する情報をユーザに提供する情報提供システムであって、前記情報端末は、前記カメラで得られた撮影画像を前記ディスプレイに表示する表示制御手段と、前記指定物品の画像データを取得する取得手段と、前記取得手段で取得された画像データに基づいて、前記指定物品の拡張現実画像を生成する生成手段と、を有し、前記表示制御手段は、前記生成手段で生成された前記指定物品の拡張現実画像を前記情報として、前記撮影画像内の前記対象箇所に重畳させて前記ディスプレイに表示する、ことを特徴とする。 An information providing system as one aspect of the present invention is an information providing system that uses an information terminal having a camera and a display to provide a user with information on compatibility between a designated article and a target location where the designated article is to be mounted. The information terminal comprises display control means for displaying an image captured by the camera on the display, acquisition means for acquiring image data of the designated article, and image data acquired by the acquisition means. generating means for generating an augmented reality image of the designated article based on the information, and the display control means generates the augmented reality image of the designated article generated by the generating means as the information in the photographed image is displayed on the display while being superimposed on the target location.

本発明によれば、例えば、ユーザの所望する情報を拡張現実を通して当該ユーザに提供することができるため、ユーザは、当該情報を容易に且つ直感的に把握することが可能となる。 According to the present invention, for example, information desired by a user can be provided to the user through augmented reality, so the user can easily and intuitively grasp the information.

添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
情報提供システムの構成を示すブロック図 物品の指定を受け付ける処理を示すフローチャート 指定物品の適合性に関する情報をユーザに提供する処理を示すフローチャート 初期画面の表示例を示す図 施設リストの表示例を示す図 物品のカテゴリのリストの表示例を示す図 物品の候補リストの表示例を示す図 物品情報の表示例を示す図 車内を情報端末で撮影している様子を示す図 指定物品の拡張現実画像の表示例を示す図 指定物品の拡張現実画像の表示例を示す図 指定物品の拡張現実画像の表示例を示す図 二輪車に情報提供システムを適用した例を示す図 耕運機に情報提供システムを適用した例を示す図 適合物品の情報をユーザに提供する処理を示すフローチャート
The accompanying drawings, which are incorporated in and constitute a part of the specification, illustrate embodiments of the invention and, together with the description, serve to explain the principles of the invention.
Block diagram showing the configuration of the information provision system Flowchart showing processing for accepting designation of goods Flowchart showing the process of providing the user with information about the suitability of designated goods Diagram showing a display example of the initial screen Diagram showing a display example of the facility list Diagram showing a display example of a list of product categories A diagram showing a display example of an item candidate list Diagram showing a display example of product information A diagram showing how the inside of the car is being photographed with an information terminal A diagram showing a display example of an augmented reality image of a designated item A diagram showing a display example of an augmented reality image of a designated item A diagram showing a display example of an augmented reality image of a designated item Diagram showing an example of applying an information provision system to a motorcycle Diagram showing an example of applying an information provision system to a cultivator Flowchart showing processing for providing information on conforming articles to a user

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴のうち二つ以上の特徴が任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the invention according to the claims, and not all combinations of features described in the embodiments are essential to the invention. Two or more of the features described in the embodiments may be combined arbitrarily. Also, the same or similar configurations are denoted by the same reference numerals, and redundant explanations are omitted.

<第1実施形態>
本発明に係る第1実施形態について説明する。図1は、本実施形態の情報提供システム100の構成を示すブロック図である。本実施形態の情報提供システム100は、例えばネットワークNTWを介して互いに通信可能に接続された情報端末10およびサーバ装置20を含み、ユーザが指定した物品と当該物品を搭載する予定である車両の対象箇所との適合性に関する情報をユーザに提供するためのシステムである。以下では、ユーザが指定した物品を「指定物品」と呼ぶことがあり、指定物品を搭載予定の対象箇所を「搭載予定箇所」と呼ぶことがある。また、本実施形態では、車両として四輪車を例示して説明する。
<First embodiment>
A first embodiment according to the present invention will be described. FIG. 1 is a block diagram showing the configuration of an information providing system 100 of this embodiment. The information providing system 100 of the present embodiment includes an information terminal 10 and a server device 20 that are communicably connected to each other via a network NTW, for example, and includes an article designated by a user and a vehicle on which the article is to be mounted. A system for providing users with information about suitability for a place. Hereinafter, the article designated by the user may be called a "designated article", and the target location where the designated article is to be mounted may be called a "planned mounting location". Moreover, in this embodiment, a four-wheeled vehicle will be described as an example of a vehicle.

まず、情報端末10の構成について説明する。情報端末10は、例えば、処理部11と、記憶部12と、カメラ13と、ディスプレイ14と、位置検知センサ15と、姿勢検知センサ16と、通信部17とを含みうる。情報端末10の各部は、システムバス18を介して相互に通信可能に接続されている。情報端末10としては、例えばスマートフォンやタブレット端末などが挙げられ、本実施形態では、情報端末10としてスマートフォンを用いる例について説明する。スマートフォンおよびタブレット端末は、通話機能以外の様々な機能を有する携帯端末のことであるが、ディスプレイの寸法が互いに異なる。一般的には、タブレット端末の方が、スマートフォンよりディスプレイの寸法が大きい。 First, the configuration of the information terminal 10 will be described. The information terminal 10 can include, for example, a processing unit 11, a storage unit 12, a camera 13, a display 14, a position detection sensor 15, an orientation detection sensor 16, and a communication unit 17. Each part of the information terminal 10 is connected via a system bus 18 so as to be able to communicate with each other. Examples of the information terminal 10 include a smart phone and a tablet terminal. In this embodiment, an example using a smart phone as the information terminal 10 will be described. Smartphones and tablet terminals are mobile terminals that have various functions other than a call function, but display dimensions are different from each other. In general, tablet devices have larger display dimensions than smartphones.

処理部11は、CPUに代表されるプロセッサ、半導体メモリ等の記憶デバイス、外部デバイスとのインターフェース等を含む。記憶部12には、プロセッサが実行するプログラムやプロセッサが処理に使用するデータ等が格納されており、処理部11は、記憶部12に記憶されたプログラムをメモリ等の記憶デバイスに読み出して実行することができる。本実施形態の場合、記憶部12には、指定物品と車両の搭載予定箇所との適合性に関する情報をユーザに提供するためのアプリケーションプログラム(情報提供プログラム)が格納されており、処理部11は、記憶部12に記憶された情報提供プログラムをメモリ等の記憶デバイスに読み出して実行しうる。 The processing unit 11 includes a processor represented by a CPU, a storage device such as a semiconductor memory, an interface with an external device, and the like. The storage unit 12 stores programs executed by the processor, data used by the processor for processing, and the like. be able to. In the case of this embodiment, the storage unit 12 stores an application program (information providing program) for providing the user with information regarding the compatibility between the designated article and the planned mounting location of the vehicle. , the information providing program stored in the storage unit 12 can be read out to a storage device such as a memory and executed.

カメラ13は、レンズと撮像素子とを有し、被写体を撮影して撮影画像を取得する。カメラ13は、例えばディスプレイ14が設けられた外面とは反対側の外面に設けられうる。また、ディスプレイ14は、画像の表示によりユーザに対して情報を報知する。本実施形態の場合、ディスプレイ14は、カメラ13で取得された撮影画像をリアルタイムに表示することができる。ここで、本実施形態のディスプレイ14は、例えばタッチパネル式LCD(Liquid Crystal Display)などを含み、画像を表示する機能に加えて、ユーザからの情報の入力を受け付ける機能を有する。しかしながら、それに限られず、画像を表示する機能のみをディスプレイ14に持たせ、当該ディスプレイ14とは独立して入力部(例えばキーボードやマウスなど)を設けてもよい。 The camera 13 has a lens and an imaging element, and captures a subject by capturing a captured image. The camera 13 can be provided, for example, on the outer surface opposite to the outer surface on which the display 14 is provided. Also, the display 14 notifies the user of information by displaying an image. In the case of this embodiment, the display 14 can display the image captured by the camera 13 in real time. Here, the display 14 of the present embodiment includes, for example, a touch panel type LCD (Liquid Crystal Display) or the like, and has a function of receiving input of information from a user in addition to a function of displaying an image. However, the present invention is not limited to this, and the display 14 may have only the function of displaying images, and an input unit (for example, a keyboard, mouse, etc.) may be provided independently of the display 14 .

位置検知センサ15は、情報端末10の位置および方位を検知する。位置検知センサ15としては、例えば、GPS衛星からの信号を受信して情報端末10の現在位置を取得するGPSセンサや、地磁気などに基づいて情報端末10のカメラ13が向けられている方位を検知する方位センサなどを用いることができる。本実施形態では、「情報端末10の位置」と記載した場合、情報端末10の現在位置に加えて、情報端末10の方位をも含むものとする。また、姿勢検知センサ16は、情報端末10の姿勢を検知する。姿勢検知センサ16としては、例えば、加速度センサやジャイロセンサなどを用いることができる。 Position detection sensor 15 detects the position and orientation of information terminal 10 . As the position detection sensor 15, for example, a GPS sensor that receives signals from GPS satellites and acquires the current position of the information terminal 10, or detects the direction in which the camera 13 of the information terminal 10 is directed based on geomagnetism. It is possible to use an orientation sensor or the like. In the present embodiment, the term “position of the information terminal 10 ” includes not only the current position of the information terminal 10 but also the orientation of the information terminal 10 . Also, the orientation detection sensor 16 detects the orientation of the information terminal 10 . As the orientation detection sensor 16, for example, an acceleration sensor, a gyro sensor, or the like can be used.

通信部17は、ネットワークNTWを介してサーバ装置20と通信可能に接続される。具体的には、通信部17は、ネットワークNTWを介してサーバ装置20に情報を送信する送信部としての機能と、ネットワークNTWを介してサーバ装置20から情報を受信する受信部としての機能とを有する。 The communication unit 17 is communicably connected to the server device 20 via the network NTW. Specifically, the communication unit 17 has a function as a transmitting unit that transmits information to the server device 20 via the network NTW and a function as a receiving unit that receives information from the server device 20 via the network NTW. have.

処理部11の具体的な構成としては、例えば、第1取得部11aと、第2取得部11bと、特定部11cと、生成部11dと、受付部11eと、表示制御部11fとが設けられうる。第1取得部11aは、カメラ13で得られて撮影画像のデータを取得する。第2取得部11bは、物品に紐づけられてサーバ装置20に記憶されている物品情報などをサーバ装置20から取得する。特定部11cは、例えばパターンマッチング手法などの画像処理を行うことにより撮影画像を解析し、ディスプレイ14に表示された撮影画像内において搭載予定箇所を特定する。生成部11dは、物品の外観の画像データに基づいて、当該指定物品の拡張現実(AR;Augmented Reality)画像を生成する。受付部11eは、ユーザによる物品の指定を受け付ける処理を実行する。表示制御部11dは、第1取得部11aで取得された撮影画像をディスプレイ14に表示する。また、表示制御部11eは、生成部11dで指定物品の拡張現実画像が生成された場合には、位置検知センサ15および姿勢検知センサ16でそれぞれ検知された情報端末10の位置および姿勢に基づいて、当該指定物品の拡張現実画像を、撮影画像に重畳させてディスプレイ14に表示する。 As a specific configuration of the processing unit 11, for example, a first acquisition unit 11a, a second acquisition unit 11b, a specification unit 11c, a generation unit 11d, a reception unit 11e, and a display control unit 11f are provided. sell. The first acquisition unit 11 a acquires data of a photographed image obtained by the camera 13 . The second acquisition unit 11 b acquires from the server device 20 article information or the like that is associated with the article and stored in the server device 20 . The specifying unit 11 c analyzes the captured image by performing image processing such as pattern matching, and specifies the planned mounting location in the captured image displayed on the display 14 . The generation unit 11d generates an augmented reality (AR) image of the specified article based on the image data of the appearance of the article. The reception unit 11e executes processing for receiving designation of an article by a user. The display control unit 11d displays the captured image acquired by the first acquisition unit 11a on the display 14. FIG. Further, when the generation unit 11d generates an augmented reality image of the designated article, the display control unit 11e controls the position and orientation of the information terminal 10 detected by the position detection sensor 15 and the orientation detection sensor 16, respectively. , the augmented reality image of the designated article is superimposed on the captured image and displayed on the display 14 .

次に、サーバ装置20の構成について説明する。サーバ装置20は、処理部21と、記憶部22と、通信部23とを含みうる。処理部21は、CPUに代表されるプロセッサ、半導体メモリ等の記憶デバイス、外部デバイスとのインターフェース等を含む。記憶部22には、プロセッサが実行するプログラムや、プロセッサが処理に使用するデータ等が格納されており、処理部21は、記憶部22に記憶されたプログラムをメモリ等の記憶デバイスに読み出して実行することができる。また、通信部23は、ネットワークNTWを介して情報端末10と通信可能に接続される。具体的には、通信部23は、ネットワークNTWを介して情報端末10から情報を受信する受信部としての機能と、ネットワークNTWを介して情報端末10に情報を送信する送信部としての機能とを有する。 Next, the configuration of the server device 20 will be described. The server device 20 can include a processing unit 21 , a storage unit 22 and a communication unit 23 . The processing unit 21 includes a processor represented by a CPU, a storage device such as a semiconductor memory, an interface with an external device, and the like. The storage unit 22 stores programs executed by the processor, data used by the processor for processing, and the like. can do. Also, the communication unit 23 is communicably connected to the information terminal 10 via the network NTW. Specifically, the communication unit 23 has a function as a receiving unit that receives information from the information terminal 10 via the network NTW and a function as a transmitting unit that transmits information to the information terminal 10 via the network NTW. have.

本実施形態の場合、サーバ装置20(記憶部22)には、複数種類の物品の各々についての物品情報が記憶されている。物品とは、例えば、車両に取り付けられる車載部品であってもよいし、車両によって運搬するために車両の荷室に積載される運搬物(包装容器を含む)であってもよい。また、物品情報は、例えば、当該物品の型式や寸法を示す情報、当該物品の外観の画像データ、当該物品が販売されている施設およびその位置情報、当該物品の利用者からの投稿情報などを含みうる。投稿情報とは、各物品の利用者から投稿された情報であり、例えば、物品を搭載することができる車両の型式や、物品を車両の荷室に積載するときの当該物品の向き、物品としての段ボールを車両に積載する際の潰し方などの情報を含みうる。投稿情報としては、物品をより快適に使用する方法や、当該物品の使い易さなど、当該物品の操作マニュアルに記載されていない情報が含まれてもよい。 In the case of this embodiment, the server device 20 (storage unit 22) stores article information about each of a plurality of types of articles. The article may be, for example, an in-vehicle component attached to a vehicle, or an article (including a packaging container) loaded in the luggage compartment of the vehicle for transportation by the vehicle. In addition, the product information includes, for example, information indicating the type and dimensions of the product, image data of the appearance of the product, facility where the product is sold and its location information, information posted by the user of the product, etc. can contain Posted information is information posted by the user of each item. It can include information such as how to crush the cardboard when loading it on the vehicle. Posted information may include information that is not described in the operation manual of the article, such as how to use the article more comfortably, ease of use of the article, and the like.

次に、情報提供プログラムが実行されたときに情報端末10で行われる処理について説明する。図2A~図2Bは、情報端末10の処理部11で行われる処理を示すフローチャートである。図2Aは、ユーザによる物品の指定を受け付ける処理を示すフローチャートであり、図2Bは、車両に対する指定物品の適合性に関する情報をユーザに提供する処理を示すフローチャートである。 Next, processing performed by the information terminal 10 when the information providing program is executed will be described. 2A and 2B are flowcharts showing the processing performed by the processing unit 11 of the information terminal 10. FIG. FIG. 2A is a flow chart showing a process of accepting designation of an article by a user, and FIG. 2B is a flow chart showing a process of providing the user with information regarding the suitability of the designated article for a vehicle.

まず、ユーザによる物品の指定を受け付ける処理について、図2Aに示すフローチャートを用いて説明する。図2Aに示すフローチャートの処理は、処理部11の受付部11eによって行われうる。なお、図3~図7は、情報端末10のディスプレイ14に表示される画像を示す図であり、情報端末10の処理部11で行われる処理を説明するために用いられうる。 First, the process of receiving the user's specification of an article will be described with reference to the flowchart shown in FIG. 2A. The processing of the flowchart shown in FIG. 2A can be performed by the reception unit 11 e of the processing unit 11 . 3 to 7 are diagrams showing images displayed on the display 14 of the information terminal 10, and can be used to explain the processing performed by the processing section 11 of the information terminal 10. FIG.

S11では、処理部11は、初期画面をディスプレイ14に表示する。図3は、情報端末10のディスプレイ14に初期画面を表示した状態を示している。初期画面には、図3に示すように、例えば、ユーザにより物品のカテゴリ(分類、種類)が入力される入力欄31aと、物品の検索を開始するためのユーザの指示を受け付けるための検索ボタン31bとが設けられうる。図3に示す例では、物品のカテゴリとして「車載部品」が、ユーザにより入力欄31aに入力されている。 In S<b>11 , the processing unit 11 displays an initial screen on the display 14 . FIG. 3 shows a state in which an initial screen is displayed on the display 14 of the information terminal 10. As shown in FIG. As shown in FIG. 3, the initial screen includes, for example, an input field 31a in which the user inputs the category (classification, type) of the article, and a search button for accepting the user's instruction to start searching for the article. 31b may be provided. In the example shown in FIG. 3, the user has entered "vehicle parts" as the category of goods in the input field 31a.

S12では、処理部11は、ユーザにより検索ボタン31bがディスプレイ14上でタッチされたか否かを判断する。ユーザにより検索ボタン31bがタッチされた場合にはS13に進み、検索ボタン31bがタッチされていない場合にはS12を繰り返す。S13では、処理部11は、ユーザによって物品のカテゴリが入力欄31aに入力されていたか否かを判断する。物品のカテゴリが入力欄31aに入力されていない状態で検索ボタン31bがタッチされた場合にはS14に進み、ユーザに物品のカテゴリを選択させる選択処理(S14~S15)を実行する。一方、物品のカテゴリが入力欄31aに入力された状態で検索ボタン31bがタッチされた場合には、S14~S15の選択処理を省略してS16に進む。 In S<b>12 , the processing unit 11 determines whether or not the search button 31 b has been touched on the display 14 by the user. When the search button 31b is touched by the user, the process proceeds to S13, and when the search button 31b is not touched, S12 is repeated. In S13, the processing unit 11 determines whether or not the user has entered the category of the article in the input field 31a. If the search button 31b is touched while no article category has been entered in the input field 31a, the process advances to S14 to execute selection processing (S14-S15) for allowing the user to select an article category. On the other hand, if the search button 31b is touched while the article category has been entered in the input field 31a, the selection process of S14-S15 is skipped and the process proceeds to S16.

S14では、処理部11は、情報端末10の周辺に存在する商店等の施設のリストをディスプレイ14に表示する。具体的には、サーバ装置20の記憶部22には、複数の施設の位置が示された地図情報が記憶されている。処理部11は、位置検知センサ15で検知された情報端末10の現在位置を、通信部17を介してサーバ装置20に送信する。情報端末10の現在位置を受信したサーバ装置20では、記憶部22に記憶されている地図情報に基づいて、情報端末10の現在位置から所定範囲内に存在する施設を検索し、検索の結果で得られた施設のリストを通信部23を介して情報端末10に送信する。そして、情報端末10は、図4に示すように、受信した施設のリストを示す画像をディスプレイ14に表示する。図4に示す例では、各施設の名称が表示されている領域が、ユーザが施設を選択するための選択ボタン32となっており、ユーザは、いずれかの選択ボタン32をディスプレイ14上でタッチすることで、施設を選択することができる。ユーザにより施設が選択された場合にはS15に進む。ここで、所定範囲は、ユーザにより事前に且つ任意に設定されうる。所定範囲としては、情報端末10からの距離の範囲であってもよいし、施設に到着するまでの時間の範囲であってもよい。 In S<b>14 , the processing unit 11 displays on the display 14 a list of facilities such as shops existing around the information terminal 10 . Specifically, the storage unit 22 of the server device 20 stores map information indicating the positions of a plurality of facilities. The processing unit 11 transmits the current position of the information terminal 10 detected by the position detection sensor 15 to the server device 20 via the communication unit 17 . Upon receiving the current position of the information terminal 10, the server device 20 searches for facilities existing within a predetermined range from the current position of the information terminal 10 based on the map information stored in the storage unit 22. The obtained facility list is transmitted to the information terminal 10 via the communication unit 23 . Then, the information terminal 10 displays an image showing the received facility list on the display 14, as shown in FIG. In the example shown in FIG. 4, the area displaying the name of each facility serves as a selection button 32 for the user to select a facility, and the user touches one of the selection buttons 32 on the display 14. By doing so, you can select the facility. When the facility is selected by the user, the process proceeds to S15. Here, the predetermined range can be arbitrarily set in advance by the user. The predetermined range may be a range of distance from the information terminal 10 or a range of time until arrival at the facility.

S15では、処理部11は、S14で選択された施設で提供(販売)されている物品のカテゴリのリストをディスプレイ14に表示する。具体的には、サーバ装置20の記憶部22には、複数の施設の各々で提供されうる物品情報が、各施設に紐づけられて物品のカテゴリごとに記憶されている。処理部11は、S14で選択された施設に紐づけられてサーバ装置20(記憶部22)に記憶されている物品情報を取得することで、図5に示すように、物品のカテゴリのリストをディスプレイ14に表示することができる。図5に示す例では、物品のカテゴリ名が表示されている領域が、ユーザが物品のカテゴリを選択するための選択ボタン33となっており、ユーザは、いずれかの選択ボタン33をディスプレイ14上でタッチすることで、物品のカテゴリを選択することができる。 At S<b>15 , the processing unit 11 displays on the display 14 a list of categories of goods provided (sold) at the facility selected at S<b>14 . Specifically, in the storage unit 22 of the server device 20, article information that can be provided at each of a plurality of facilities is stored for each article category in association with each facility. The processing unit 11 acquires the item information linked to the facility selected in S14 and stored in the server device 20 (storage unit 22), thereby creating a list of item categories as shown in FIG. It can be displayed on the display 14 . In the example shown in FIG. 5, the area in which the item category names are displayed is the selection button 33 for the user to select the item category. By touching with , the category of the item can be selected.

S16では、処理部11は、ユーザにより指定された物品のカテゴリについて、物品の候補リストをディスプレイ14に表示する。ユーザにより指定された物品のカテゴリとは、ユーザにより初期画面の入力欄31aに入力された物品のカテゴリ、または、S15でユーザにより選択された物品のカテゴリである。例えば、処理部11は、ユーザにより指定された物品のカテゴリに紐づけられてサーバ装置20の記憶部22に記憶されている物品情報をサーバ装置20から取得することで、図6に示すように、物品の候補リストをディスプレイ14に表示することができる。図6に示す例では、物品のカテゴリとして「ドライブレコーダ」がユーザによって指定された例を示しており、物品の型式等が表示されている領域が、ユーザが物品を選択するための選択ボタン34となっている。ユーザは、いずれかの選択ボタン34をディスプレイ14上でタッチすることで、物品を指定(選択)することができる。ここで、S14で施設が選択されている場合には、処理部11は、選択された施設で提供(販売)される物品の候補リストをディスプレイ14上に表示しうる。 In S<b>16 , the processing unit 11 displays on the display 14 an article candidate list for the article category specified by the user. The item category designated by the user is the item category input by the user in the input field 31a of the initial screen or the item category selected by the user in S15. For example, the processing unit 11 obtains from the server device 20 the product information stored in the storage unit 22 of the server device 20 in association with the category of the product specified by the user. , a candidate list of items can be displayed on the display 14 . The example shown in FIG. 6 shows an example in which the user designates "drive recorder" as the item category, and the area where the item type and the like are displayed is the selection button 34 for the user to select the item. It has become. The user can specify (select) an item by touching any selection button 34 on the display 14 . Here, when a facility is selected in S14, the processing unit 11 can display on the display 14 a candidate list of goods provided (sold) at the selected facility.

S17では、処理部11は、ユーザにより物品が指定されたか否かを判断する。ユーザにより物品が指定された場合にはS18に進み、ユーザにより物品が指定されていない場合にはS17を繰り返す。S18では、処理部11(第2取得部11b)は、S17で指定された物品(指定物品)に関する物品情報をサーバ装置20から取得し、取得した物品情報をディスプレイ14上に表示する。例えば、上述したように、物品情報には、物品の型式や寸法を示す情報、物品の外観の画像データ、物品の利用者からの投稿情報などが含まれ、それらの情報およびデータがディスプレイ14上に表示される。図7は、指定物品としてのドライブレコーダに関する物品情報の表示画面の一例を示している。物品情報の表示画面には、図7に示すように、指定物品の型式の表示欄35a、指定物品の外観の表示欄35b、物品の寸法の表示欄35c、投稿情報の表示欄35dが設けられる。また、物品情報の表示画面には、OKボタン35eとキャンセルボタン35fとが設けられている。ユーザによりOKボタン35eがタッチされた場合には図2BのS21に進み、ユーザによりキャンセルボタン35fがタッチされた場合には終了する。 In S17, the processing unit 11 determines whether or not the user has designated an article. If the user has designated an article, the process proceeds to S18, and if the user has not designated an article, S17 is repeated. In S<b>18 , the processing unit 11 (second acquisition unit 11 b ) acquires article information about the article (designated article) specified in S<b>17 from the server device 20 and displays the acquired article information on the display 14 . For example, as described above, the article information includes information indicating the type and size of the article, image data of the appearance of the article, posted information from the user of the article, and the like. to be displayed. FIG. 7 shows an example of an article information display screen regarding a drive recorder as a designated article. As shown in FIG. 7, the item information display screen is provided with a display column 35a for the model of the specified item, a display column 35b for the appearance of the specified item, a display column 35c for the size of the item, and a display column 35d for the posted information. . An OK button 35e and a cancel button 35f are provided on the item information display screen. If the user touches the OK button 35e, the process proceeds to S21 in FIG. 2B, and if the user touches the cancel button 35f, the process ends.

次に、車両に対する指定物品の適合性に関する情報をユーザに提供する処理について、図2Bに示すフローチャートを用いて説明する。なお、図8~図10Bは、情報端末10のディスプレイ14に表示される画像を示す図であり、情報端末10の処理部11で行われる処理を説明するために用いられうる。 Next, the process of providing the user with information about the suitability of the designated article for the vehicle will be described using the flowchart shown in FIG. 2B. 8 to 10B are diagrams showing images displayed on the display 14 of the information terminal 10, and can be used to explain the processing performed by the processing section 11 of the information terminal 10. FIG.

S21では、処理部11は、指定物品の物品情報に基づいて、当該指定物品を搭載する予定である車両の対象箇所(例えば構造物や車両の位置)を決定する。以下では、指定物品を搭載する予定の対象箇所を「搭載予定箇所」と呼ぶことがある。例えば、物品情報には、物品が車載部品であるか否かの情報、および、物品が車載部品である場合には当該物品の搭載予定箇所を示す情報が含まれうる。したがって、処理部11は、指定物品の物品情報に基づいて、当該指定物品が車載部品であるか否かを判断するとともに、当該指定物品の搭載予定箇所を決定することができる。具体的には、車載部品であるドライブレコーダが指定物品である場合、処理部11は、物品情報に基づいて、ドライブレコーダの搭載予定箇所を、ルームミラー付近のフロントガラスと決定することができる。一方、処理部11は、指定物品の物品情報に基づいて当該指定物品が車載部品でないと判断した場合には、指定物品の搭載予定箇所を車両の荷室(積載部)に決定することができる。 In S21, the processing unit 11 determines a target location (for example, a structure or a position of the vehicle) on which the designated article is to be loaded, based on the article information of the designated article. Below, the target location where the designated article is scheduled to be loaded may be referred to as a "scheduled loading location". For example, the article information may include information as to whether the article is an in-vehicle component and, if the article is an in-vehicle component, information indicating where the article is to be mounted. Therefore, based on the article information of the designated article, the processing unit 11 can determine whether or not the designated article is an in-vehicle component, and can determine the planned mounting location of the designated article. Specifically, when the drive recorder, which is an in-vehicle component, is the designated article, the processing unit 11 can determine the planned mounting location of the drive recorder to be the windshield near the rearview mirror based on the article information. On the other hand, when the processing section 11 determines that the designated article is not an in-vehicle component based on the article information of the designated article, the processing section 11 can determine the planned mounting location of the designated article to be the luggage compartment (loading section) of the vehicle. .

S22では、処理部11は、S21で決定した搭載予定箇所を撮影する旨の要求をユーザに対して行う。例えば、指定物品がドライブレコーダである場合、処理部11は、搭載予定箇所であるルームミラー付近のフロントガラスの撮影を要求するコメントをディスプレイ14に表示する。また、指定物品が車載部品でないと判断した場合には、搭載予定箇所である車両の荷室の撮影を要求するコメントをディスプレイ14に表示する。 In S22, the processing unit 11 requests the user to photograph the planned mounting location determined in S21. For example, when the designated item is a drive recorder, the processing unit 11 displays on the display 14 a comment requesting photographing of the windshield near the rearview mirror, which is the location where the item is to be mounted. If it is determined that the designated article is not an on-vehicle component, the display 14 displays a comment requesting photographing of the luggage compartment of the vehicle where the article is to be mounted.

S23では、処理部11(第1取得部11a)は、カメラ13に撮影を開始させるとともに、カメラ13から撮影画像を取得する。S24では、処理部11(表示制御部11f)は、カメラ13から取得した撮影画像をディスプレイ14に逐次表示する。図8は、ルームミラーとセンターコンソールとを含むように車内を情報端末10(カメラ13)で撮影している様子を示している。 In S<b>23 , the processing unit 11 (first obtaining unit 11 a ) causes the camera 13 to start photographing and obtains the photographed image from the camera 13 . In S<b>24 , the processing unit 11 (display control unit 11 f ) sequentially displays captured images acquired from the camera 13 on the display 14 . FIG. 8 shows how the information terminal 10 (camera 13) captures the inside of the vehicle, including the rearview mirror and the center console.

S25では、処理部11(特定部11c)は、ディスプレイ14に表示された撮影画像内において、S21で決定された搭載予定箇所の特定を行う。例えば、処理部11は、公知の画像処理を行うことにより、撮影画像が、車両のどの部分をカメラ13で撮影して得られた画像であるのかを判断することができる。公知の画像処理の一例としては、撮影画像内において、角部(コーナー)や曲率、明度の変化、色の変化などの特徴量を有する部分(特徴点)を検出し、検出した特徴点の特徴量や位置関係などを示す特徴情報から、カメラ13で撮影されている車両の部分(撮影部分)を認識する方法が挙げられる。このような方法により、処理部11は、撮影画像内において、搭載予定箇所の特定を行うことができる。 In S<b>25 , the processing unit 11 (identifying unit 11 c ) identifies the planned mounting location determined in S<b>21 in the captured image displayed on the display 14 . For example, the processing unit 11 can determine which part of the vehicle the captured image is obtained by capturing the image with the camera 13 by performing known image processing. As an example of known image processing, a portion (feature point) having feature amounts such as a corner, curvature, change in brightness, change in color, etc. is detected in a photographed image, and the feature of the detected feature point is detected. A method of recognizing a part of the vehicle (captured part) photographed by the camera 13 from feature information indicating quantity, positional relationship, and the like can be mentioned. With such a method, the processing unit 11 can identify the planned mounting location in the captured image.

S26では、処理部11は、ディスプレイ14に表示された撮影画像内において、搭載予定箇所が特定されたか否かを判断する。撮影画像内において搭載予定箇所が特定された場合にはS27に進み、撮影画像内において搭載予定箇所が特定されなかった場合にはS25に戻る。 In S<b>26 , the processing unit 11 determines whether or not the planned mounting location is identified in the captured image displayed on the display 14 . If the planned mounting position is specified in the captured image, the process proceeds to S27, and if the planned mounting position is not specified in the captured image, the process returns to S25.

S27では、処理部11は、S25~S26で特定された搭載予定箇所の寸法情報を取得する。例えば、情報端末10の記憶部12には、複数種類の車両の各々についての特徴情報が記憶されており、処理部11は、S25~S26で特定された特徴情報に対して一致度が高い(即ち、一致度が所定値を超える)特徴情報を有する車両の型式を特定することができる。また、サーバ装置20の記憶部22には、車両の型式ごとに、車両の各部品の寸法情報が、車両の型式に紐づけられて記憶されている。情報端末10の処理部11は、特定した車両の型式の情報をサーバ装置20に送信し、当該車両の型式に紐づけられてサーバ装置20に記憶されている各部品の寸法情報をサーバ装置20から受信する。これにより、情報端末10の処理部11は、S25~S26で特定された搭載予定箇所の寸法情報を取得することができる。 In S27, the processing unit 11 acquires the dimension information of the planned mounting location specified in S25 and S26. For example, the storage unit 12 of the information terminal 10 stores feature information for each of a plurality of types of vehicles, and the processing unit 11 has a high degree of matching with the feature information specified in S25 and S26 ( That is, it is possible to specify the model of the vehicle having the feature information whose degree of matching exceeds a predetermined value. In addition, the storage unit 22 of the server device 20 stores dimensional information of each part of the vehicle in association with the model of the vehicle for each model of the vehicle. The processing unit 11 of the information terminal 10 transmits the information of the specified vehicle model to the server device 20, and transmits the dimension information of each part linked to the vehicle model and stored in the server device 20 to the server device 20. receive from As a result, the processing unit 11 of the information terminal 10 can acquire the dimension information of the planned mounting location specified in S25 and S26.

S28では、処理部11(生成部11d)は、指定物品の外観の画像データに基づいて当該指定物品の拡張現実画像40を生成する。そして、処理部11(表示制御部11f)は、生成した指定物品の拡張現実画像40を、カメラ13で得られた撮影画像内における搭載予定箇所に重畳させて(重ね合わせて)ディスプレイ14に表示する。このとき、処理部11は、位置検知センサ15および姿勢検知センサ16で検知された情報端末10の位置姿勢の情報に基づいて、情報端末10の動きに合わせて指定物品の拡張現実画像40が移動するように、カメラ13での撮影画像と指定物品の拡張現実画像40との位置合わせを行う。つまり、処理部11は、情報端末10の位置姿勢の情報に基づいて、ディスプレイ14に表示された撮影画像内における搭載予定箇所の位置に整合させるように、指定物品の拡張現実画像40をディスプレイ14に表示する。また、処理部11は、指定物品の寸法情報とS27で取得された搭載予定箇所の寸法情報とに基づいて、指定物品と搭載予定箇所との実際の寸法関係が反映されるように、指定物品の拡張現実画像40をディスプレイ14に表示する。なお、指定物品の外観の画像データおよび指定物品の寸法情報は、S18でサーバ装置20から取得された物品情報に含まれている情報である。 In S28, the processing unit 11 (generating unit 11d) generates the augmented reality image 40 of the designated article based on the image data of the appearance of the designated article. Then, the processing unit 11 (display control unit 11f) displays the generated augmented reality image 40 of the specified article on the display 14 by superimposing it on the planned mounting location in the captured image obtained by the camera 13. do. At this time, the processing unit 11 causes the augmented reality image 40 of the designated article to move in accordance with the movement of the information terminal 10 based on information on the position and orientation of the information terminal 10 detected by the position detection sensor 15 and the orientation detection sensor 16. The position of the image captured by the camera 13 and the augmented reality image 40 of the designated article is aligned. That is, the processing unit 11 displays the augmented reality image 40 of the designated article on the display 14 so as to match the position of the planned mounting location in the captured image displayed on the display 14 based on the information on the position and orientation of the information terminal 10 . to display. In addition, based on the dimensional information of the designated article and the dimensional information of the planned mounting location acquired in S27, the processing unit 11 adjusts the designated article so that the actual dimensional relationship between the designated article and the planned mounting location is reflected. of the augmented reality image 40 is displayed on the display 14 . The image data of the appearance of the designated article and the dimension information of the designated article are information included in the article information acquired from the server device 20 in S18.

例えば、図9は、指定物品がドライブレコーダである場合において、ドライブレコーダの拡張現実画像40aを、撮影画像内の搭載予定箇所(ルームミラー付近のフロントガラス)に重畳させてディスプレイ14に表示した例を示している。図9に示す例では、ルームミラー41とセンターコンソール42とを含む車内の撮影画像がディスプレイ14に表示されており、搭載予定箇所として特定されたルームミラー付近のフロントガラスに対して、ドライブレコーダの拡張現実画像40aが表示されている。これにより、ユーザは、車両とドライブレコーダとの位置関係および寸法関係など、車両に対するドライブレコーダの適合性を、当該ドライブレコーダを購入する前に容易に且つ直感的に把握することができる。 For example, FIG. 9 shows an example in which an augmented reality image 40a of the drive recorder is displayed on the display 14 by superimposing it on the planned mounting location (the windshield near the rearview mirror) in the captured image when the specified article is a drive recorder. is shown. In the example shown in FIG. 9, a photographed image of the inside of the vehicle including the rearview mirror 41 and the center console 42 is displayed on the display 14, and the drive recorder is displayed on the windshield near the rearview mirror specified as the planned installation location. An augmented reality image 40a is displayed. This allows the user to easily and intuitively grasp the suitability of the drive recorder for the vehicle, such as the positional relationship and dimensional relationship between the vehicle and the drive recorder, before purchasing the drive recorder.

また、図10A~図10Bは、指定物品が運搬物(例えば、机やベッドなどの包装容器)である場合において、当該運搬物の拡張現実画像40bを、撮影画像内の搭載予定箇所(車両43の荷室)に重畳させてディスプレイ14に表示した例を示している。図10A~図10Bに示す例では、バックドアを開けた状態の車両43の後部(荷室)の撮影画像がディスプレイ14に表示されており、搭載予定箇所として特定された荷室に対して、運搬物の拡張現実画像40bが表示されている。図10Aは、運搬物の寸法が車両43の荷室の寸法より小さい場合を示しており、図10Bは、運搬物の寸法が車両43の荷室の寸法より大きい場合を示している。これにより、ユーザは、指定物品としての運搬物が車両43の荷台に積載可能か否かなど、車両に対する運搬物の適合性を、当該運搬物を購入する前に容易に且つ直感的に把握することができる。 Also, FIGS. 10A and 10B show an augmented reality image 40b of a transported object (for example, a packaging container such as a desk or a bed) when the designated article is a transported object (a vehicle 43 14 shows an example of superimposed display on the display 14. In the example shown in FIGS. 10A and 10B, a photographed image of the rear part (luggage compartment) of the vehicle 43 with the back door opened is displayed on the display 14. An augmented reality image 40b of a consignment is displayed. 10A shows a case where the dimensions of the transported object are smaller than the dimensions of the luggage compartment of the vehicle 43, and FIG. As a result, the user can easily and intuitively grasp the suitability of the transported object for the vehicle, such as whether or not the transported object as the designated goods can be loaded on the carrier of the vehicle 43, before purchasing the transported object. be able to.

このように、本実施形態の情報提供システム100では、ユーザにより指定された指定物品の拡張現実画像を、搭載予定箇所に対する指定物品の適合性を示す情報として、カメラ13で得られた撮影画像内における搭載予定箇所に重畳させてディスプレイ14に表示する。これにより、ユーザは、情報端末10により物品を指定して、車両の搭載予定箇所を情報端末10のカメラ13で撮影すれば、車両の搭載予定箇所に対する指定物品の適合性を容易に且つ直感的に把握することができる。 As described above, in the information providing system 100 of the present embodiment, the augmented reality image of the designated article designated by the user is used as information indicating the suitability of the designated article for the planned mounting location in the photographed image obtained by the camera 13. is displayed on the display 14 by being superimposed on the planned mounting location. As a result, the user can easily and intuitively determine the suitability of the specified article for the planned mounting location of the vehicle by designating an article using the information terminal 10 and photographing the planned mounting location of the vehicle with the camera 13 of the information terminal 10. can be grasped.

<第2実施形態>
本発明に係る第2実施形態について説明する。上述した第1実施形態では、情報提供システム100を四輪車に適用する例について説明したが、それに限られるものではない。例えば、鞍乗型車両(二輪車、三輪車)、或いは、船舶、航空機、耕運機、芝刈機、発電機、除雪機などの他の機械や装置に対しても、上記の情報提供システム100を適用することができる。本実施形態では、二輪車および耕運機に対して、上記の情報提供システムを適用した例について説明する。
<Second embodiment>
A second embodiment according to the present invention will be described. In the first embodiment described above, an example in which the information providing system 100 is applied to a four-wheeled vehicle has been described, but the present invention is not limited to this. For example, the information providing system 100 can be applied to other machines and devices such as saddle-riding vehicles (two-wheeled vehicles, three-wheeled vehicles), ships, aircraft, cultivators, lawn mowers, generators, and snowplows. can be done. In this embodiment, an example in which the above information providing system is applied to a two-wheeled vehicle and a cultivator will be described.

まず、二輪車に対して情報提供システム100を適用する例について説明する。ここでは、上述した図2A~図2Bに示すフローチャートを実行することにより、二輪車50のキー挿入部51に搭載される蓄光性のカバーが指定物品として指定され、キー挿入部51が搭載予定箇所として決定された例を示す。図11は、情報端末10(カメラ13)により二輪車50のキー挿入部51付近を撮影している様子を示す図である。図11に示す例では、キー挿入部51のカバーの拡張現実画像40cが、撮影画像内におけるキー挿入部51に重畳してディスプレイ14に表示されている。これにより、ユーザは、所有している二輪車50のキー挿入部51とカバーとの位置関係および寸法関係など、二輪車に対するキー挿入部51のカバーの適合性を、当該カバーの購入前に容易に且つ直感的に把握することができる。 First, an example in which the information providing system 100 is applied to a motorcycle will be described. Here, by executing the flow charts shown in FIGS. 2A and 2B, the phosphorescent cover mounted on the key insertion portion 51 of the two-wheeled vehicle 50 is designated as the designated article, and the key insertion portion 51 is designated as the planned mounting location. A determined example is shown. FIG. 11 is a diagram showing how the information terminal 10 (camera 13) is photographing the vicinity of the key insertion portion 51 of the two-wheeled vehicle 50. As shown in FIG. In the example shown in FIG. 11, the augmented reality image 40c of the cover of the key insertion portion 51 is displayed on the display 14 while being superimposed on the key insertion portion 51 in the captured image. As a result, the user can easily check the suitability of the cover of the key insertion part 51 for the motorcycle, such as the positional relationship and dimensional relationship between the key insertion part 51 of the motorcycle 50 owned and the cover, before purchasing the cover. It can be understood intuitively.

次に、耕運機に対して情報提供システム100を適用する例について説明する。ここでは、上述した図2A~図2Bに示すフローチャートを実行することにより、オプション装備として耕運機60の爪部61の左右に搭載される移動用の車輪が指定物品として指定され、爪部61が搭載予定箇所として決定された例を示す。図12は、情報端末10(カメラ13)により耕運機60を撮影している様子を示す図である。図12に示す例では、車輪の拡張現実画像40dが、撮影画像内における爪部61に重畳してディスプレイ14に表示されている。これにより、ユーザは、所有している耕運機60に対する車輪の適合性を、当該車輪の購入前に容易に且つ直感的に把握することができる。ここで、図2Bに示すフローチャートのS27では、搭載予定箇所の寸法情報を取得するために、耕運機60(車両)の型式が特定される。この場合、処理部11は、車輪の物品情報に基づいて、特定した型式の耕運機60に対して当該車輪が適合しない(即ち、取り付けることができない)と判断した場合には、適合しない旨のコメントやバツ印などのマークをディスプレイ14に表示してもよい。 Next, an example of applying the information providing system 100 to a cultivator will be described. Here, by executing the flow charts shown in FIGS. 2A and 2B described above, the wheels for movement mounted on the left and right of the claw portion 61 of the cultivator 60 are designated as the designated item as optional equipment, and the claw portion 61 is mounted. An example determined as a scheduled location is shown. FIG. 12 is a diagram showing how the information terminal 10 (camera 13) is photographing the cultivator 60. As shown in FIG. In the example shown in FIG. 12, the augmented reality image 40d of the wheel is displayed on the display 14 while being superimposed on the claw portion 61 in the captured image. As a result, the user can easily and intuitively grasp the suitability of the wheel for the cultivator 60 owned by the user before purchasing the wheel. Here, in S27 of the flowchart shown in FIG. 2B, the model of the cultivator 60 (vehicle) is identified in order to acquire the dimensional information of the planned mounting location. In this case, if the processing unit 11 determines that the wheel is not compatible with the specified type of cultivator 60 (that is, cannot be attached) based on the item information of the wheel, a comment to the effect that the wheel is not compatible or a cross mark may be displayed on the display 14 .

<第3実施形態>
本発明に係る第3実施形態について説明する。本実施形態は、第1~第2実施形態を基本的に引き継ぐものであり、用語や定義等は第1~第2実施形態で説明したとおりである。本実施形態では、情報提供プログラムが実行されたときに情報端末10で行われる処理として、カメラ13で得られた撮影画像内に含まれる構造物を特定し、特定した構造物に適合する物品の情報をユーザに提供する処理について説明する。
<Third Embodiment>
A third embodiment according to the present invention will be described. This embodiment basically inherits the first and second embodiments, and the terms and definitions are the same as those described in the first and second embodiments. In this embodiment, as processing performed by the information terminal 10 when the information providing program is executed, a structure included in the photographed image obtained by the camera 13 is specified, and an article suitable for the specified structure is identified. The process of providing information to the user will be described.

例えば、情報提供プログラムが起動された場合、情報端末10(処理部11)は、第1モードおよび第2モードのいずれかをユーザに選択させるための画面をディスプレイ14に表示し、ユーザにより選択されたモードを実行する。第1モードとは、ユーザにより指定された物品に関する物品情報を取得するモードであり、第1モードが選択されると、第1~第2実施形態で説明した処理が実行される。一方、第2モードとは、撮影画像内の構造物を特定し、特定した構造物に適合する物品に関する物品情報を取得するモードであり、以下に説明する処理が実行される。 For example, when the information providing program is started, the information terminal 10 (processing unit 11) displays a screen for allowing the user to select either the first mode or the second mode on the display 14, and the user selects one of the modes. mode. The first mode is a mode for acquiring article information about an article designated by the user, and when the first mode is selected, the processes described in the first and second embodiments are executed. On the other hand, the second mode is a mode for identifying a structure in a photographed image and acquiring article information about an article that matches the identified structure, and the processing described below is executed.

図13は、ユーザにより第2モードが選択された場合に、情報端末10の処理部11で行われる処理を示すフローチャートである。 S31では、処理部11(第1取得部11a)は、カメラ13に撮影を開始させるとともに、カメラ13から撮影画像を取得する。S32では、処理部11(表示制御部11f)は、カメラ13から取得した撮影画像をディスプレイ14に逐次表示する。 FIG. 13 is a flow chart showing the processing performed by the processing unit 11 of the information terminal 10 when the user selects the second mode. In S<b>31 , the processing unit 11 (first obtaining unit 11 a ) causes the camera 13 to start photographing and obtains a photographed image from the camera 13 . In S<b>32 , the processing unit 11 (display control unit 11 f ) sequentially displays captured images acquired from the camera 13 on the display 14 .

S33では、処理部11(特定部11b)は、ディスプレイ14に表示された撮影画像内に含まれる構造物の特定を行う。例えば、処理部11は、まず、公知の画像処理を行うことにより、撮影画像内に含まれる構造物を認識する。公知の画像処理の一例としては、図2BのフローチャートのS25で説明したように、撮影画像内において特徴点を検出し、検出した特徴点の特徴量や位置関係などを示す特徴情報から構造物を認識する方法が挙げられる。サーバ装置20の記憶部22には、複数種類の構造物の各々についての特徴情報が、各構造物の型式等に紐づけられて記憶されており、情報端末10の処理部11は、認識した構造物に対して特徴情報の一致度が高い(即ち、一致度が所定値を超える)構造物があるか否かの調査(判定)を行う。これにより、処理部11は、撮影画像内に含まれる構造物の型式を特定することができる。一例として、図8に示すように、ユーザが、ルームミラーやセンターコンソールなどの車載部品を含むように車内を情報端末10(カメラ13)で撮影した場合、処理部11は、ルームミラーを構造物として特定することができる。 In S<b>33 , the processing unit 11 (identifying unit 11 b ) identifies a structure included in the photographed image displayed on the display 14 . For example, the processing unit 11 first recognizes structures included in the captured image by performing known image processing. As an example of known image processing, as described in S25 of the flowchart of FIG. 2B, feature points are detected in a photographed image, and a structure is identified from feature information indicating feature amounts and positional relationships of the detected feature points. method of recognition. In the storage unit 22 of the server device 20, feature information about each of a plurality of types of structures is stored in association with the type of each structure, etc., and the processing unit 11 of the information terminal 10 recognizes Investigation (determination) is made as to whether or not there is a structure with a high degree of matching of the feature information with respect to the structure (that is, the degree of matching exceeds a predetermined value). Thereby, the processing unit 11 can identify the model of the structure included in the captured image. As an example, as shown in FIG. 8, when the user captures an image of the interior of the vehicle with the information terminal 10 (camera 13) so as to include vehicle-mounted parts such as a rearview mirror and a center console, the processing unit 11 detects the rearview mirror as a structure. can be specified as

S34では、処理部11は、ディスプレイ14に表示された撮影画像内において、構造物が特定されたか否かを判断する。撮影画像内において構造物が特定された場合にはS35に進み、撮影画像内において構造物が特定されなかった場合にはS33に戻る。 In S<b>34 , the processing unit 11 determines whether or not a structure has been specified in the captured image displayed on the display 14 . If the structure is specified in the captured image, the process proceeds to S35, and if the structure is not specified in the captured image, the process returns to S33.

S35では、処理部11は、情報端末10の周辺に存在する商店等の施設で提供可能な物品リストを取得する。例えば、処理部11は、情報端末10の周辺に存在する商店等の施設で提供可能な物品リストとして、当該施設で推奨されている物品のリスト(おすすめ物品のリスト)を取得してもよい。 At S<b>35 , the processing unit 11 acquires a list of items that can be provided at facilities such as shops located around the information terminal 10 . For example, the processing unit 11 may acquire a list of items recommended at a facility (recommended item list) as a list of items that can be provided at a facility such as a store located near the information terminal 10 .

具体的には、サーバ装置20の記憶部22には、複数の施設の位置が示された地図情報が記憶されている。処理部11は、位置検知センサ15で検知された情報端末10の現在位置を、通信部17を介してサーバ装置20に送信する。情報端末10の現在位置を受信したサーバ装置20では、記憶部22に記憶されている地図情報に基づいて、情報端末10の現在位置から所定範囲内に存在する施設を検索し、検索の結果で得られた施設で提供可能な複数の物品のリスト(物品リスト)を通信部23を介して情報端末10に送信する。これにより、情報端末10は、周辺の施設で提供可能な物品リストを取得することができる。ここで、所定範囲は、ユーザにより事前に且つ任意に設定されうる。所定範囲としては、情報端末10からの距離の範囲であってもよいし、施設に到着するまでの時間の範囲であってもよい。 Specifically, the storage unit 22 of the server device 20 stores map information indicating the positions of a plurality of facilities. The processing unit 11 transmits the current position of the information terminal 10 detected by the position detection sensor 15 to the server device 20 via the communication unit 17 . Upon receiving the current position of the information terminal 10, the server device 20 searches for facilities existing within a predetermined range from the current position of the information terminal 10 based on the map information stored in the storage unit 22. The obtained list of a plurality of items that can be provided at the facility (item list) is transmitted to the information terminal 10 via the communication unit 23 . As a result, the information terminal 10 can acquire a list of items that can be provided by nearby facilities. Here, the predetermined range can be arbitrarily set in advance by the user. The predetermined range may be a range of distance from the information terminal 10 or a range of time until arrival at the facility.

S36では、処理部11は、S35で取得した物品リストの中に、S33で特定された構造物に適合する物品(以下、適合物品と呼ぶことがある)があるか否かを判断する。適合物品がある場合にはS37に進み、適合物品がない場合にはS33に戻る。また、S37では、処理部11(第2取得部11b)は、適合物品に紐づけられてサーバ装置20(記憶部22)に記憶されている物品情報をサーバ装置20から取得する。物品情報は、上述したように、物品の型式や寸法を示す情報、物品の外観の画像データ、物品が販売されている施設およびその位置情報などを含みうる。 In S36, the processing unit 11 determines whether or not there is an item (hereinafter sometimes referred to as a compatible item) that matches the structure specified in S33 in the item list acquired in S35. If there is a conforming article, the process proceeds to S37, and if there is no conforming article, the process returns to S33. Also, in S37, the processing unit 11 (second acquisition unit 11b) acquires from the server device 20 the article information linked to the conforming article and stored in the server device 20 (storage unit 22). As described above, the article information can include information indicating the type and size of the article, image data of the appearance of the article, facility where the article is sold and its location information, and the like.

S38では、処理部(生成部11d)は、適合物品の外観の画像データに基づいて当該適合物品の拡張現実画像40を生成する。そして、処理部11(表示制御部11f)は、カメラ13で得られた撮影画像内において、適合物品の拡張現実画像を、S33で特定された構造物に重畳させてディスプレイ14に表示する。このとき、処理部11は、位置検知センサ15および姿勢検知センサ16で検知された情報端末10の位置姿勢の情報に基づいて、情報端末10の動きに合わせて適合物品の拡張現実画像が移動するように、カメラ13での撮影画像と適合物品の拡張現実画像との位置合わせを行う。つまり、処理部11は、情報端末10の位置姿勢の情報に基づいて、ディスプレイ14に表示された撮影画像内における構造物の位置に整合させるように、適合物品の拡張現実画像をディスプレイ14に表示する。また、処理部11は、適合物品の寸法情報とS33で特定された構造物の寸法情報とに基づいて、適合物品と当該構造物との実際の寸法関係が反映されるように、適合物品の拡張現実画像40をディスプレイ14に表示するとよい。 In S38, the processing unit (generating unit 11d) generates the augmented reality image 40 of the conforming article based on the image data of the appearance of the conforming article. Then, the processing unit 11 (display control unit 11f) superimposes the augmented reality image of the conforming article on the structure specified in S33 in the photographed image obtained by the camera 13, and displays it on the display 14. At this time, the processing unit 11 causes the augmented reality image of the suitable article to move in accordance with the movement of the information terminal 10 based on the position and orientation information of the information terminal 10 detected by the position detection sensor 15 and the orientation detection sensor 16. As shown, the image captured by the camera 13 and the augmented reality image of the conforming article are aligned. That is, the processing unit 11 displays the augmented reality image of the conforming article on the display 14 based on the position and orientation information of the information terminal 10 so as to match the position of the structure in the photographed image displayed on the display 14 . do. In addition, based on the dimensional information of the compliant article and the dimensional information of the structure specified in S33, the processing unit 11 adjusts the size of the compliant article so that the actual dimensional relationship between the compliant article and the structure is reflected. Augmented reality image 40 may be displayed on display 14 .

ここで、処理部11は、S38において、適合物品が提供される施設の情報をディスプレイ14に表示してもよい。施設の情報とは、例えば、当該施設のホームページや電話番号などの情報や、当該施設までの経路(ルート)の情報などを含みうる。このような施設の情報は、適合物品の拡張現実画像をユーザがディスプレイ14上でタッチした場合にディスプレイ14に表示される態様であってもよい。 Here, in S38, the processing unit 11 may display on the display 14 the information of the facility where the conforming goods are provided. The facility information can include, for example, information such as the home page and telephone number of the facility, information on the route to the facility, and the like. Such facility information may be displayed on the display 14 when the user touches the augmented reality image of the conforming article on the display 14 .

一例として、図8に示すように、ユーザが、ルームミラーやセンターコンソールなどの車載部品を含むように車内が情報端末10(カメラ13)で撮影され、S33において、ルームミラー或いはルームミラー付近のフロントガラスが構造物として特定されたとする。この場合、処理部11は、S35において、情報端末10から所定範囲内に存在するカー用品店(施設)で提供可能な物品リストを取得したとすると、S37では、ルームミラー或いはルームミラー付近のフロントガラスに適合するドライブレコーダの物品情報が取得されうる。そして、図9に示すように、取得した物品情報(画像データ)に基づいて生成したドライブレコーダの拡張現実画像40aを、撮影画像内の構造物(例えば、ルームミラー付近のフロントガラス)に重畳させてディスプレイ14に表示する。 As an example, as shown in FIG. 8, the user captures an image of the interior of the vehicle with the information terminal 10 (camera 13) so as to include vehicle-mounted parts such as a rearview mirror and a center console. Suppose that glass is identified as a structure. In this case, if the processing unit 11 obtains a list of items that can be provided by car parts stores (facilities) within a predetermined range from the information terminal 10 in S35, in S37 the rearview mirror or the front of the rearview mirror Item information for drive recorders that fit glass can be obtained. Then, as shown in FIG. 9, an augmented reality image 40a of the drive recorder generated based on the acquired article information (image data) is superimposed on the structure (for example, the windshield near the rearview mirror) in the captured image. displayed on the display 14.

このように、第2モードでは、撮影画像内の構造物を特定し、特定した構造物に適合する物品(適合物品)に関する物品情報を取得する。そして、物品情報(画像データ)に基づいて適合物品の拡張現実画像を生成し、適合物品の拡張現実画像を、撮影画像内の構造物に重畳させてディスプレイに表示する。これにより、ユーザは、情報端末10で物品を指定しなくても、情報端末10のカメラ13で得られた撮影画像内の構造物に適合する物品の情報を容易に且つ直感的に取得することができる。 Thus, in the second mode, the structure within the photographed image is identified, and the article information regarding the article (conforming article) that conforms to the identified structure is acquired. Then, an augmented reality image of the conforming article is generated based on the article information (image data), and the augmented reality image of the conforming article is superimposed on the structure in the photographed image and displayed on the display. As a result, the user can easily and intuitively acquire the information of the article that matches the structure in the photographed image obtained by the camera 13 of the information terminal 10 without specifying the article with the information terminal 10. can be done.

<実施形態のまとめ>
1.上記実施形態の情報提供システムは、
カメラ(例えば13)およびディスプレイ(例えば14)を有する情報端末(例えば10)を用いて、指定物品と当該指定物品を搭載予定の対象箇所との適合性に関する情報をユーザに提供する情報提供システム(例えば100)であって、
前記情報端末は、
前記カメラで得られた撮影画像を前記ディスプレイに表示する表示制御手段(例えば11f)と、
前記指定物品の画像データを取得する取得手段(例えば11b)と、
前記取得手段で取得された画像データに基づいて、前記指定物品の拡張現実画像を生成する生成手段(例えば11d)と、
を有し、
前記表示制御手段は、前記生成手段で生成された前記指定物品の拡張現実画像を前記情報として、前記撮影画像内の前記対象箇所に重畳させて前記ディスプレイに表示する。
この構成によれば、ユーザは、情報端末で物品を指定し、指定した物品(指定物品)が搭載される予定の対象箇所を情報端末のカメラで撮影すれば、当該対象箇所に対する指定物品の適合性を容易に且つ直感的に把握することが可能となる。
<Summary of embodiment>
1. The information providing system of the above embodiment is
An information providing system (e.g., 10) having a camera (e.g., 13) and a display (e.g., 14) is used to provide a user with information on compatibility between a designated article and a target location where the designated article is to be mounted. For example, 100) and
The information terminal is
Display control means (for example, 11f) for displaying an image captured by the camera on the display;
Acquisition means (for example, 11b) for acquiring image data of the designated article;
generation means (for example, 11d) for generating an augmented reality image of the specified article based on the image data acquired by the acquisition means;
has
The display control means superimposes the augmented reality image of the specified article generated by the generating means on the display as the information on the target location in the captured image.
According to this configuration, the user designates an article on the information terminal, and if the target location where the designated article (designated article) is to be mounted is photographed with the camera of the information terminal, the conformity of the designated article to the target location can be determined. It is possible to easily and intuitively grasp the nature of a person.

2.上記実施形態の情報提供システムにおいて、
前記表示制御手段は、前記指定物品と前記対象箇所との実際の寸法関係が反映されるように、前記指定物品の拡張現実画像を前記ディスプレイに表示する。
この構成によれば、ユーザは、指定物品と対象箇所との寸法関係の把握がより容易になるため、対象箇所に対する指定物品の適合性をより容易に且つ直感的に把握することが可能となる。
2. In the information providing system of the above embodiment,
The display control means displays an augmented reality image of the specified item on the display so as to reflect an actual dimensional relationship between the specified item and the target location.
According to this configuration, the user can more easily grasp the dimensional relationship between the designated article and the target location, so that the user can more easily and intuitively grasp the suitability of the designated article for the target location. .

3.上記実施形態の情報提供システムにおいて、
前記情報端末は、前記撮影画像内において前記対象箇所を特定する特定手段(例えば11c)を更に含み、
前記表示制御手段は、前記特定手段で特定された前記撮影画像内の前記対象箇所に対して、前記指定物品の拡張現実画像を重畳して表示する。
この構成によれば、ユーザが撮影画像内における対象箇所の位置を指示しなくても、情報端末側で対象箇所が特定されるため、対象箇所に対する指定物品の適合性の把握する際のユーザの利便性を向上させることが可能となる。
3. In the information providing system of the above embodiment,
The information terminal further includes specifying means (for example, 11c) for specifying the target location in the captured image,
The display control means superimposes and displays an augmented reality image of the specified article on the target location in the captured image specified by the specifying means.
According to this configuration, even if the user does not indicate the position of the target location in the captured image, the target location is specified on the information terminal side. It is possible to improve convenience.

4.上記実施形態の情報提供システムにおいて、
前記情報端末は、物品の候補リストを前記ディスプレイに表示して、ユーザによる物品の指定を受け付ける受付手段(例えば11e)を更に有し、
前記指定物品は、前記受付手段でユーザの指定を受け付けた物品である。
この構成によれば、物品を指定する際のユーザの利便性を向上させることが可能となる。
4. In the information providing system of the above embodiment,
The information terminal further comprises receiving means (e.g., 11e) for displaying a candidate list of items on the display and receiving designation of items by a user,
The designated article is an article for which the user's designation is received by the receiving means.
According to this configuration, it is possible to improve the user's convenience when specifying an article.

5.上記実施形態の情報提供システムにおいて、
前記受付手段は、前記情報端末の現在位置から所定範囲内に存在する施設で提供可能な物品を前記候補リストとして前記ディスプレイに表示する。
この構成によれば、例えば移動中などにおいて、近くの施設で提供(販売)されている物品の情報をユーザに提示することができるため、ユーザは、その情報に基づいて、必要な物品があれば施設に立ち寄ることができ、ユーザの利便性を向上させることが可能となる。
5. In the information providing system of the above embodiment,
The receiving means displays on the display, as the candidate list, items that can be provided at facilities existing within a predetermined range from the current position of the information terminal.
According to this configuration, the user can be presented with information on goods offered (sold) at nearby facilities while moving, for example. It is possible to drop in at the facility if necessary, and it is possible to improve the convenience of the user.

6.上記実施形態の情報提供システムにおいて、
前記受付手段は、ユーザにより入力されたカテゴリに属する物品のリストを前記候補リストとして前記ディスプレイに表示する。
この構成によれば、ユーザは、必要な物品をカテゴリで検索することができるため、ユーザの利便性を向上させることが可能となる。
6. In the information providing system of the above embodiment,
The receiving means displays a list of articles belonging to the category input by the user on the display as the candidate list.
According to this configuration, the user can search for a desired article by category, so that convenience for the user can be improved.

7.上記実施形態の情報提供システムは、
カメラ(例えば13)およびディスプレイ(例えば14)を有する情報端末(例えば10)を用いてユーザに情報を提供する情報提供システム(例えば100)であって、
前記情報端末は、
前記カメラで得られた撮影画像を前記ディスプレイに表示する表示制御手段(例えば11f)と、
前記ディスプレイに表示された前記撮影画像内に含まれる構造物を特定する特定手段(例えば11c)と、
前記情報端末の現在位置から所定範囲内に存在する施設で提供可能な複数の物品のうち、前記特定手段で特定された前記構造物に適合する物品の画像データを取得する取得手段(例えば11b)と、
前記取得手段で取得された画像データに基づいて、前記物品の拡張現実画像を生成する生成手段(例えば11d)と、
を有し、
前記表示制御手段は、前記生成手段で生成された前記物品の拡張現実画像を、前記撮影画像内の前記構造物に重畳させて前記ディスプレイに表示する。
この構成によれば、ユーザは、情報端末で物品を指定しなくても、情報端末のカメラで得られた撮影画像内の構造物に適合する物品の情報を容易に且つ直感的に取得することが可能となる。
7. The information providing system of the above embodiment is
An information providing system (e.g., 100) that provides information to a user using an information terminal (e.g., 10) having a camera (e.g., 13) and a display (e.g., 14),
The information terminal is
Display control means (for example, 11f) for displaying an image captured by the camera on the display;
specifying means (for example, 11c) for specifying a structure included in the photographed image displayed on the display;
Acquisition means (for example, 11b) for acquiring image data of an article that matches the structure identified by the identification means, from among a plurality of articles that can be provided at facilities existing within a predetermined range from the current position of the information terminal. and,
generating means (for example, 11d) for generating an augmented reality image of the article based on the image data acquired by the acquiring means;
has
The display control means superimposes the augmented reality image of the article generated by the generating means on the structure in the photographed image and displays the augmented reality image on the display.
According to this configuration, a user can easily and intuitively obtain information on an article that matches the structure in the image captured by the camera of the information terminal without specifying the article on the information terminal. becomes possible.

本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために、以下の請求項を添付する。 The present invention is not limited to the embodiments described above, and various modifications and variations are possible without departing from the spirit and scope of the present invention. Accordingly, to publicize the scope of the invention, the following claims are included.

10:情報端末、11:処理部、12:記憶部、13:カメラ、14:ディスプレイ、15:位置検知センサ、16:姿勢検知センサ、17:通信部、20:サーバ装置、21:処理部、22:記憶部、23:通信部 10: information terminal, 11: processing unit, 12: storage unit, 13: camera, 14: display, 15: position detection sensor, 16: orientation detection sensor, 17: communication unit, 20: server device, 21: processing unit, 22: storage unit, 23: communication unit

Claims (8)

カメラおよびディスプレイを有する情報端末を用いて、指定物品と当該指定物品を搭載予定の対象箇所との適合性に関する情報をユーザに提供する情報提供システムであって、
前記情報端末は、
前記カメラで得られた撮影画像を前記ディスプレイに表示する表示制御手段と、
前記指定物品の画像データを取得する取得手段と、
前記取得手段で取得された画像データに基づいて、前記指定物品の拡張現実画像を生成する生成手段と、
を有し、
前記表示制御手段は、前記生成手段で生成された前記指定物品の拡張現実画像を前記情報として、前記指定物品の寸法と前記指定物品が前記対象箇所に搭載されるときの当該指定物品の向きの情報とに基づいて前記指定物品と前記対象箇所との実際の外観、寸法及び向きの関係が反映されるように、前記指定物品の拡張現実画像を前記撮影画像内の前記対象箇所に重畳させて前記ディスプレイに表示する、ことを特徴とする情報提供システム。
An information providing system that uses an information terminal having a camera and a display to provide a user with information on compatibility between a designated article and a target location where the designated article is to be mounted,
The information terminal is
display control means for displaying an image captured by the camera on the display;
Acquisition means for acquiring image data of the designated article;
generation means for generating an augmented reality image of the specified article based on the image data acquired by the acquisition means;
has
The display control means uses the augmented reality image of the designated article generated by the generation means as the information to determine the dimensions of the designated article and the orientation of the designated article when the designated article is mounted on the target location. superimposing an augmented reality image of the designated article on the target location in the photographed image so as to reflect the actual appearance, size, and orientation relationship between the designated article and the target location based on the information; An information providing system characterized by displaying on the display.
前記情報端末は、前記撮影画像内において前記対象箇所を特定する特定手段を更に含み、
前記表示制御手段は、前記特定手段で特定された前記撮影画像内の前記対象箇所に対して、前記指定物品の拡張現実画像を重畳して表示する、ことを特徴とする請求項1に記載の情報提供システム。
The information terminal further includes specifying means for specifying the target location in the captured image,
2. The method according to claim 1, wherein said display control means superimposes and displays an augmented reality image of said designated article on said target portion within said photographed image specified by said specifying means. information system.
前記情報端末は、物品の候補リストを前記ディスプレイに表示して、ユーザによる物品の指定を受け付ける受付手段を更に有し、
前記指定物品は、前記受付手段でユーザの指定を受け付けた物品である、ことを特徴とする請求項1又は2に記載の情報提供システム。
The information terminal further comprises receiving means for displaying a candidate list of items on the display and receiving designation of items by a user,
3. The information providing system according to claim 1, wherein said specified item is an item whose designation by said user is accepted by said accepting means.
前記受付手段は、前記情報端末の現在位置から所定範囲内に存在する施設で提供可能な物品を前記候補リストとして前記ディスプレイに表示する、ことを特徴とする請求項3に記載の情報提供システム。 4. The information providing system according to claim 3, wherein said receiving means displays on said display, as said candidate list, items that can be provided at facilities existing within a predetermined range from the current position of said information terminal. 前記受付手段は、ユーザにより入力されたカテゴリに属する物品のリストを前記候補リストとして前記ディスプレイに表示する、ことを特徴とする請求項3に記載の情報提供システム。 4. The information providing system according to claim 3, wherein said reception means displays a list of articles belonging to the category input by the user on said display as said candidate list. カメラおよびディスプレイを有する情報端末を用いてユーザに情報を提供する情報提供システムであって、
前記情報端末は、
前記カメラで得られた撮影画像を前記ディスプレイに表示する表示制御手段と、
前記ディスプレイに表示された前記撮影画像内に含まれる構造物を特定する特定手段と、
前記情報端末の現在位置から所定範囲内に存在する施設で提供可能な複数の物品のうち、物品を搭載予定の前記構造物であって前記特定手段で特定された前記構造物に適合する物品の画像データを取得する取得手段と、
前記取得手段で取得された画像データに基づいて、前記物品の拡張現実画像を生成する生成手段と、
を有し、
前記表示制御手段は、前記生成手段で生成された前記物品の拡張現実画像を、前記物品の寸法と前記物品が前記構造物に搭載されるときの当該物品の向きの情報とに基づいて前記物品と前記構造物との実際の外観、寸法及び向きの関係が反映されるように前記撮影画像内の前記構造物に重畳させて前記ディスプレイに表示する、ことを特徴とする情報提供システム。
An information providing system that provides information to a user using an information terminal having a camera and a display,
The information terminal is
display control means for displaying an image captured by the camera on the display;
identifying means for identifying a structure included in the photographed image displayed on the display;
Among a plurality of items that can be provided at a facility that exists within a predetermined range from the current position of the information terminal, the item that is the structure on which the item is to be mounted and that is compatible with the structure specified by the specifying means. acquisition means for acquiring image data;
generating means for generating an augmented reality image of the article based on the image data acquired by the acquiring means;
has
The display control means generates the augmented reality image of the article generated by the generation means based on the dimensions of the article and information on the orientation of the article when the article is mounted on the structure. and superimposed on the structure in the photographed image and displayed on the display so as to reflect the actual appearance, size and orientation relationship between the structure and the structure.
カメラおよびディスプレイを有し、ユーザによる指定物品と当該指定物品を搭載予定の対象箇所との適合性に関する情報をユーザに提供する情報端末であって、
前記カメラで得られた撮影画像を前記ディスプレイに表示する表示制御手段と、
前記指定物品の画像データを取得する取得手段と、
前記取得手段で取得された画像データに基づいて、前記指定物品の拡張現実画像を生成する生成手段と、
を有し、
前記表示制御手段は、前記生成手段で生成された前記指定物品の拡張現実画像を前記情報として、前記指定物品の寸法と前記指定物品が前記対象箇所に搭載されるときの当該指定物品の向きの情報とに基づいて前記指定物品と前記対象箇所との実際の外観、寸法及び向きの関係が反映されるように、前記指定物品の拡張現実画像を前記撮影画像内の前記対象箇所に重畳させて前記ディスプレイに表示する、ことを特徴とする情報端末。
An information terminal that has a camera and a display and provides the user with information on compatibility between an article designated by the user and a target location where the designated article is to be mounted,
display control means for displaying an image captured by the camera on the display;
Acquisition means for acquiring image data of the designated article;
generation means for generating an augmented reality image of the specified article based on the image data acquired by the acquisition means;
has
The display control means uses the augmented reality image of the designated article generated by the generation means as the information to determine the dimensions of the designated article and the orientation of the designated article when the designated article is mounted on the target location. superimposing an augmented reality image of the designated article on the target location in the photographed image so as to reflect the actual appearance, size, and orientation relationship between the designated article and the target location based on the information; An information terminal characterized by displaying on the display.
カメラおよびディスプレイを有し、ユーザに情報を提供する情報端末であって、
前記カメラで得られた撮影画像を前記ディスプレイに表示する表示制御手段と、
前記ディスプレイに表示された前記撮影画像内に含まれる構造物を特定する特定手段と、
前記情報端末の現在位置から所定範囲内に存在する施設で提供可能な複数の物品のうち、物品を搭載予定の前記構造物であって前記特定手段で特定された前記構造物に適合する物品の画像データを取得する取得手段と、
前記取得手段で取得された画像データに基づいて、前記物品の拡張現実画像を生成する生成手段と、
を有し、
前記表示制御手段は、前記生成手段で生成された前記物品の拡張現実画像を、前記物品の寸法と前記物品が前記構造物に搭載されるときの当該物品の向きの情報とに基づいて前記物品と前記構造物との実際の外観、寸法及び向きの関係が反映されるように前記撮影画像内の前記構造物に重畳させて前記ディスプレイに表示する、ことを特徴とする情報端末。
An information terminal that has a camera and a display and provides information to a user,
display control means for displaying an image captured by the camera on the display;
identifying means for identifying a structure included in the photographed image displayed on the display;
Among a plurality of items that can be provided at a facility that exists within a predetermined range from the current position of the information terminal, the item that is the structure on which the item is to be mounted and that is compatible with the structure specified by the specifying means. acquisition means for acquiring image data;
generating means for generating an augmented reality image of the article based on the image data acquired by the acquiring means;
has
The display control means generates the augmented reality image of the article generated by the generation means based on the dimensions of the article and information on the orientation of the article when the article is mounted on the structure. and the structure are superimposed on the structure in the photographed image and displayed on the display so as to reflect the actual appearance, size, and orientation of the structure.
JP2021511722A 2019-03-29 2019-03-29 Information provision system and information terminal Active JP7237149B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/014254 WO2020202347A1 (en) 2019-03-29 2019-03-29 Information provision system and information terminal

Publications (2)

Publication Number Publication Date
JPWO2020202347A1 JPWO2020202347A1 (en) 2020-10-08
JP7237149B2 true JP7237149B2 (en) 2023-03-10

Family

ID=72666511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021511722A Active JP7237149B2 (en) 2019-03-29 2019-03-29 Information provision system and information terminal

Country Status (3)

Country Link
JP (1) JP7237149B2 (en)
CN (1) CN113383363A (en)
WO (1) WO2020202347A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022157058A (en) * 2021-03-31 2022-10-14 本田技研工業株式会社 Information provision method, program, and information provision device
JP2022157034A (en) * 2021-03-31 2022-10-14 本田技研工業株式会社 Information provision method, program and information provision device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044704A (en) 2001-07-31 2003-02-14 Honda Motor Co Ltd Service provision method
JP2003331075A (en) 2002-05-09 2003-11-21 Honda Motor Co Ltd Service providing system
JP2011222000A (en) 2010-03-25 2011-11-04 Choushin Inc Image combination service system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9449342B2 (en) * 2011-10-27 2016-09-20 Ebay Inc. System and method for visualization of items in an environment using augmented reality
US9928544B1 (en) * 2015-03-10 2018-03-27 Amazon Technologies, Inc. Vehicle component installation preview image generation
CN108255304B (en) * 2018-01-26 2022-10-04 腾讯科技(深圳)有限公司 Video data processing method and device based on augmented reality and storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044704A (en) 2001-07-31 2003-02-14 Honda Motor Co Ltd Service provision method
JP2003331075A (en) 2002-05-09 2003-11-21 Honda Motor Co Ltd Service providing system
JP2011222000A (en) 2010-03-25 2011-11-04 Choushin Inc Image combination service system

Also Published As

Publication number Publication date
CN113383363A (en) 2021-09-10
WO2020202347A1 (en) 2020-10-08
JPWO2020202347A1 (en) 2020-10-08

Similar Documents

Publication Publication Date Title
US10562406B2 (en) System and method for autonomous charging of an autonomous vehicle
KR102346825B1 (en) Shopping trip planner
US11182967B2 (en) Devices, computer-readable media, and systems for augmented reality of available resources
JP6177998B2 (en) Information display method and information display terminal
US20120044264A1 (en) Apparatus and method for providing augmented reality
US12182904B2 (en) Information processing device and information processing method
JP6915195B2 (en) Designated reception system, search system, search terminal, designated reception program, search program and search terminal control program
JP7237149B2 (en) Information provision system and information terminal
US20200160715A1 (en) Information processing system, program, and information processing method
US11556976B2 (en) Server apparatus, mobile shop, and information processing system
US20200279314A1 (en) Proximity-based vehicle comparison
CN111047060A (en) Server, information processing method, and non-transitory storage medium storing program
US20110130953A1 (en) Navigation equipment and navigation system
JP2018106692A (en) Method and system for moving object virtual information remote management
US20170186073A1 (en) Shopping cart display
CN112837111A (en) Server device, medium, and method of operation of information processing system
US11488238B2 (en) Arrangement system for trial use or trial fitting vehicle
JP5970973B2 (en) Vehicle map display device
JP7117454B2 (en) Support method and support system
US20210224926A1 (en) Server apparatus, control apparatus, medium, mobile shop, and operation method for information processing system
KR20220117550A (en) Information displaying method and computer readable medium storing instructions to execute information displayimg method
JP6040804B2 (en) Object identification system and object identification method
US20170178210A1 (en) Device, system and method for a mobile mechanic
WO2020202346A1 (en) Information provision system and information terminal
JP2021081945A (en) Repair estimate preparation device and repair estimate preparation device method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210812

A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20210812

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230228

R150 Certificate of patent or registration of utility model

Ref document number: 7237149

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载