+

JP2003329448A - Three-dimensional site information creating system - Google Patents

Three-dimensional site information creating system

Info

Publication number
JP2003329448A
JP2003329448A JP2002135425A JP2002135425A JP2003329448A JP 2003329448 A JP2003329448 A JP 2003329448A JP 2002135425 A JP2002135425 A JP 2002135425A JP 2002135425 A JP2002135425 A JP 2002135425A JP 2003329448 A JP2003329448 A JP 2003329448A
Authority
JP
Japan
Prior art keywords
dimensional
data
image
construction machine
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002135425A
Other languages
Japanese (ja)
Inventor
Hideyuki Wakai
秀之 若井
Atsushi Aoki
淳 青木
Hiroshi Miwa
浩史 三輪
Hiroyoshi Yamaguchi
博義 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Komatsu Ltd
Original Assignee
Komatsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Komatsu Ltd filed Critical Komatsu Ltd
Priority to JP2002135425A priority Critical patent/JP2003329448A/en
Publication of JP2003329448A publication Critical patent/JP2003329448A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To construct a three-dimensional model capable of sharply distinguishing a construction machine and land features by picking up images of a construction work site by a plurality of stereo cameras. <P>SOLUTION: A plurality of camera poles 1 respectively comprising the stereo camera 3 configurated by a plurality of cameras 2, are respectively installed on different places, and each camera 2 picks up the images of the construction work site 5. Each stereo camera 3 performs the stereo-processing on the picked-up images to obtain a distance image, and detects position coordinates of a marker pair 61, 62 mounted on the construction machine 6. A host device 4 acquiring the distance image data from each of the stereo cameras 3 integrates the distance images and creates the three-dimensional model data of the construction work site 5. Further a position and the direction of the construction machine 6 are specified on the basis of position coordinates of the marker pair 61, 62. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、建設作業現場など
の現場の3次元情報を得るための技術に関する。
TECHNICAL FIELD The present invention relates to a technique for obtaining three-dimensional information of a construction site such as a construction site.

【0002】[0002]

【従来の技術】例えば、建設機械が作業を行う建設現場
において、地形の計測あるいは建設機械の位置計測のた
めの技術として、特開平11−237244号公報など
に記載されているような追尾式トータルステーション
や、RTK−GPSが知られている。
2. Description of the Related Art For example, as a technique for measuring topography or measuring the position of a construction machine at a construction site where the construction machine works, a tracking type total station as disclosed in Japanese Patent Laid-Open No. 11-237244 is disclosed. Also, RTK-GPS is known.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、追尾式
のトータルステーションは、測量機とターゲットとの間
に遮蔽物があると使用できないし、位置計測の対象物1
つにつき、1セット必要となるとなど、実用上の問題点
が多い。
However, the tracking type total station cannot be used if there is a shield between the surveying instrument and the target, and the position measuring target 1
Therefore, there are many practical problems such as one set being required.

【0004】また、RTK−GPSでは、GPS(Glob
al Positioning System)アンテナが人工衛星からの信
号を受信しなければならないので、人工衛星からの信号
を受信できるところでないと使用できないという問題が
ある。
In addition, in RTK-GPS, GPS (Glob
Since the antenna must receive the signal from the artificial satellite, there is a problem that the antenna cannot be used unless it can receive the signal from the artificial satellite.

【0005】そこで、本発明の目的は、現場の3次元情
報を得るための実用的なシステムを提供することであ
る。
Therefore, an object of the present invention is to provide a practical system for obtaining three-dimensional information on the spot.

【0006】本発明の別の目的は、建設機械と地形のよ
うに、現場に存在する諸物体を峻別することができるシ
ステムを提供することである。
[0006] Another object of the present invention is to provide a system capable of distinguishing various objects existing on site, such as construction machinery and terrain.

【0007】本発明のさらに別の目的は、上空が閉鎖さ
れているような現場でも、その3次元情報が得られるシ
ステムを提供することである。
Still another object of the present invention is to provide a system capable of obtaining the three-dimensional information even in the field where the sky is closed.

【0008】[0008]

【課題を解決するための手段】本発明の一つの実施形態
に従う現場の3次元情報生成システムは、現場を所定の
異なる場所から眺めて得られる複数の画像を用いて、前
記現場に存在する諸物体の3次元位置に関するデータを
生成する現場3次元データ生成手段と、前記現場の諸物
体の3次元位置に関するデータから、特定物体の3次元
位置に関するデータを得る特定物体3次元データ検出手
段と、前記現場の諸物体の3次元位置に関するデータか
ら、前記特定物体以外の他物体の3次元位置に関するデ
ータを得る他物体3次元データ検出手段とを備える。
A three-dimensional information generation system for a scene according to one embodiment of the present invention uses a plurality of images obtained by viewing the scene from different predetermined places, and presents various information existing in the scene. On-site three-dimensional data generation means for generating data on the three-dimensional position of the object, and specific object three-dimensional data detection means for obtaining data on the three-dimensional position of the specific object from the data on the three-dimensional positions of the various objects on the site. Other-object three-dimensional data detection means for obtaining data on the three-dimensional positions of other objects other than the specific object from the data on the three-dimensional positions of the various objects on the spot.

【0009】好適な実施形態では、得られた前記特定物
体の3次元位置に関するデータと前記特定物体以外の他
物体の3次元位置に関するデータとを、分離して又は一
緒に出力するデータ出力手段を更に備える。
In a preferred embodiment, there is provided data output means for outputting the obtained data regarding the three-dimensional position of the specific object and the data regarding the three-dimensional position of an object other than the specific object separately or together. Further prepare.

【0010】好適な実施形態では、現場を所定の異なる
場所に配置された複数台のステレオカメラを備え、前記
現場3次元データ生成手段は、前記複数台のステレオカ
メラの各々が撮影した画像を用いて現場の距離画像を生
成し、前記複数台のステレオカメラからの距離画像を用
いて前記現場の3次元モデルデータを生成する。前記ス
テレオカメラの各々は、上下方向に一列に並んだ複数の
カメラを有したポール形のものである。
In a preferred embodiment, a plurality of stereo cameras arranged at predetermined different places are provided, and the on-site three-dimensional data generating means uses images captured by each of the plurality of stereo cameras. To generate a range image of the scene, and to generate three-dimensional model data of the scene using the range images from the plurality of stereo cameras. Each of the stereo cameras is a pole type having a plurality of cameras arranged in a line in the vertical direction.

【0011】好適な実施形態では、前記複数の画像は動
画像であり、前記現場3次元データ生成手段は、前記複
数の動画像を用いて、前記動画像の変化に追従して変化
する動的な3次元モデルデータを合成し、前記特定物体
3次元データ検出手段は、前記動的な3次元モデルデー
タから、特定物体の3次元位置に関する動的なデータを
得る。
In a preferred embodiment, the plurality of images are moving images, and the on-site three-dimensional data generation means uses the plurality of moving images to dynamically change the motion images. The specific object three-dimensional data detecting means obtains dynamic data regarding the three-dimensional position of the specific object from the dynamic three-dimensional model data.

【0012】好適な実施形態では、前記検出手段は、前
記作業現場の3次元モデルデータと、前記建設機械に設
置されたマーカを検出して、前記建設機械の位置および
向きを検出する。
[0012] In a preferred embodiment, the detecting means detects the three-dimensional model data of the work site and a marker installed on the construction machine to detect the position and orientation of the construction machine.

【0013】好適な実施形態では、前記現場の3次元モ
デルデータと、前記特定物体の3次元位置に関するデー
タとを用いて、前記現場を所定視点から眺めた現場画像
が表示されるようになっている。
In a preferred embodiment, a site image of the site viewed from a predetermined viewpoint is displayed by using the 3D model data of the site and the data regarding the 3D position of the specific object. There is.

【0014】[0014]

【発明の実施の形態】以下、本発明を建設作業現場に適
用した実施形態に係る3次元情報生成システムについ
て、図面を用いて説明する。
DETAILED DESCRIPTION OF THE INVENTION A three-dimensional information generation system according to an embodiment in which the present invention is applied to a construction work site will be described below with reference to the drawings.

【0015】図1は、本発明の第1の実施形態に係る3
次元情報生成システムにおいて、建設作業現場に設置さ
れたカメラの配置などを示す図である。
FIG. 1 shows a third embodiment according to the present invention.
It is a figure which shows arrangement | positioning etc. of the camera installed in the construction work site in a dimensional information generation system.

【0016】本システムは、複数(ここでは3本)のカ
メラポール1を有し、各カメラポール1は、建設作業現
場5を撮影するために、それぞれ異なる位置に配置され
ている。各カメラポール1は、地面に固定することもで
きるし、車両などに搭載して、移動可能とすることもで
きる。各カメラポール1が配置される位置は、建設作業
現場5全体を撮影するために、死角ができないような位
置に配置され、その三次元座標は予め計測されている。
カメラポール1の本数は、必ずしも3本である必要は無
い。
The present system has a plurality (here, three) of camera poles 1, and each camera pole 1 is arranged at a different position in order to photograph the construction work site 5. Each camera pole 1 can be fixed to the ground, or can be mounted on a vehicle or the like to be movable. The position at which each camera pole 1 is arranged is arranged at a position where a blind spot cannot be made in order to photograph the entire construction work site 5, and its three-dimensional coordinates are measured in advance.
The number of camera poles 1 does not necessarily have to be three.

【0017】各カメラポール1は、所定の異なる相対位
置に配置された複数(ここでは5台)の動画カメラ2
(例えば、ビデオカメラ)を組み合わてなるステレオカ
メラ3を有する。1つのステレオカメラ3に含まれる5
台のカメラ2は、高さ方向に一列に並んでいるが、必ず
しもそうでなければならないわけではなく、例えばサイ
コロの5の目のように並んでいても、或いは、他の配置
であってもよく、さらに、カメラ2の台数も5台である
必要は無く、2台以上であれば5台より多くても少なく
てもよい。そして、各カメラポール1のすべてのカメラ
2が、建設作業現場の建設作業現場5を同時に撮影す
る。各カメラポール1からの5本の動画像から、後述す
るように、それぞれ距離画像が独立して生成され、それ
らの距離画像から建設作業現場5の動的な3次元モデル
が合成されることになる。
Each camera pole 1 includes a plurality of (five in this case) moving image cameras 2 arranged at different predetermined relative positions.
It has a stereo camera 3 which is a combination of (for example, a video camera). 5 included in one stereo camera 3
The cameras 2 in a row are arranged in a line in the height direction, but this does not necessarily have to be the case. For example, the cameras 2 may be arranged in a row of 5's on the dice or other arrangements. Well, the number of cameras 2 does not have to be 5, and may be more or less than 5 as long as it is 2 or more. Then, all the cameras 2 of each camera pole 1 simultaneously photograph the construction work site 5 of the construction work site. As will be described later, distance images are independently generated from the five moving images from each camera pole 1, and a dynamic three-dimensional model of the construction work site 5 is synthesized from these distance images. Become.

【0018】建設作業現場5には複数箇所に丁張り7が
打ってあり、建設機械(以下、建機という)6が丁張り
7に従って所定の作業を行っている。建機6は、それぞ
れ、ステレオカメラ3から視認できる所定場所(ここで
は運転席の屋根上の所定位置)に特定形状(ここでは球
形)のマーカ61、62を複数(ここでは2つ)備え
る。マーカ61および62は、例えば、互いに異なる色
が着色されていて、カメラ2で撮影した画像から画像処
理によって識別可能である。このマーカペアは、後述す
るように、建機6の位置および向きを検出するときに利
用される。
The construction work site 5 is provided with stakes 7 at a plurality of points, and a construction machine (hereinafter referred to as a construction machine) 6 performs a predetermined work according to the stakes 7. Each of the construction machines 6 includes a plurality of (here, two) markers 61 and 62 having a specific shape (here, spherical) at a predetermined location (here, a predetermined position on the roof of the driver's seat) that can be viewed from the stereo camera 3. The markers 61 and 62 are colored in mutually different colors, for example, and can be identified by image processing from an image captured by the camera 2. This marker pair is used when detecting the position and direction of the construction machine 6, as described later.

【0019】次に、本システムの機能構成について、図
2〜図5を用いて説明する。
Next, the functional configuration of this system will be described with reference to FIGS.

【0020】図2は、本システムの基本的な機能を説明
するものである。
FIG. 2 illustrates the basic functions of this system.

【0021】図2に示すように、建設作業現場を複数の
異なる場所から眺めた画像を用いて、建設作業現場5に
存在する全ての物体(地形、建機、丁張り、人など)の
同時計測された3次元位置関連データ100を得る。こ
こで、同時計測された3次元位置関連データ100と
は、この実施形態では例えば各ステレオカメラ5からの
距離画像であるが、これは例示であり、必ずしもそうで
なければならないわけではなく、要するに現場内の諸物
体の3次元位置が割り出せるデータであれば、どのよう
な形式のデータであってもよい。次に、建設作業現場の
同時計測された3次元位置関連データ100から、事前
登録された特定物体(ここでは、例えば個々の建機6)
の3次元位置関連データ102、103と、その特定物
体以外の物体(ここでは、例えば建機6以外の地形や丁
張りなど)の3次元位置関連データ101が分離抽出さ
れる。ここで、特定物体の3次元位置関連データ10
2、103とは、この実施形態では、後の説明から分か
るように、個々の建機6の代表部位(例えばマーカ或い
は運転席など)の3次元位置、又は個々の建機6の3次
元位置だけでなく3次元形状も表した3次元モデルデー
タであるが、これも例示であり、他の形式のデータでも
良い。また、特定物体以外の物体の3次元位置関連デー
タ101とは、この実施形態では、地形(丁張りを含む)
の3次元モデルデータであるが、これも例示であり、他
の形式のデータでも良い。このように分離抽出された個
々の物体の3次元位置関連データ101〜103は、別
個に出力され利用されてもよいし、一緒に出力され組み
合わせて利用されてもよい。なお、この実施形態では、
特定物体は建機であるが、これも例示にずぎず、必ずし
もそうである必要は無く、人、建造物、丁張り、資機材
或いは地面など任意の物体を特定物体とすることができ
る。
As shown in FIG. 2, by using images of the construction work site viewed from a plurality of different places, all the objects (terrain, construction equipment, timbers, people, etc.) existing on the construction work site 5 are simultaneously examined. The measured three-dimensional position-related data 100 is obtained. Here, the simultaneously measured three-dimensional position-related data 100 is, for example, a distance image from each stereo camera 5 in this embodiment, but this is an example, and it does not necessarily have to be so, in short. Any type of data may be used as long as the data can determine the three-dimensional positions of various objects in the scene. Next, from the simultaneously measured three-dimensional position-related data 100 at the construction work site, a pre-registered specific object (here, for example, each construction machine 6)
The three-dimensional position-related data 102 and 103 and the three-dimensional position-related data 101 of the object other than the specific object (here, for example, the terrain other than the construction machine 6 or the siding) are separated and extracted. Here, the three-dimensional position-related data 10 of the specific object
In this embodiment, 2 and 103 are the three-dimensional positions of the representative parts (for example, the markers or the driver's seat) of the individual construction machines 6, or the three-dimensional positions of the individual construction machines 6, as will be understood from the description below. Not only the three-dimensional model data that also represents a three-dimensional shape, but this is also an example, and data in other formats may be used. In addition, the three-dimensional position-related data 101 of an object other than the specific object means the terrain (including the marking) in this embodiment.
However, this is also an example, and data of other formats may be used. The three-dimensional position-related data 101 to 103 of the individual objects separated and extracted in this way may be output separately and used, or may be output together and used in combination. In this embodiment,
The specific object is a construction machine, but this is not limited to the example and does not have to be the case, and an arbitrary object such as a person, a building, a siding, equipment or the ground can be the specific object.

【0022】図3は、本システムの全体の機能構成を示
す図である。本システムは、各カメラポール1に設置さ
れたステレオカメラ3と、各ステレオカメラ3で合成さ
れた距離画像を統合して建設作業現場5の3次元モデル
を求めるホスト装置4とを備える。
FIG. 3 is a diagram showing the overall functional configuration of this system. The present system includes a stereo camera 3 installed on each camera pole 1 and a host device 4 for integrating a range image synthesized by each stereo camera 3 to obtain a three-dimensional model of a construction work site 5.

【0023】図3に示すように、各ステレオカメラ3
は、それぞれ、5台のカメラ2と、その5台のカメラ2
が撮影した輝度動画像を用いてステレオ画像処理法によ
り距離動画像を生成する画像処理部31と、画像処理部
31の処理結果をホスト装置4へ無線で送信する無線送
受信部32とを備える。(なお、この実施形態では、各
ステレオカメラ3において距離動画像を生成してホスト
装置4へ送信し、ホスト装置4にて、集まった複数の距
離動画像から建設作業現場5の3次元モデルを生成する
ようになっているが、必ずしもそうでなければならない
わけではない。他の方式、例えば、各ステレオカメラ3
では複雑な画像処理は行なわずに、5台のカメラ2の輝
度動画像をホスト装置4へ送信し、ホスト装置4にて、
ステレオ画像処理法でステレオカメラ3毎の距離動画像
を生成し、更に、それらの距離動画像から3次元モデル
を生成するようにしてもよい。このようなステレオカメ
ラ3とホスト装置4の処理分担には、様々なバリエーシ
ョンが採用し得るから、以下の説明は一つの例示にすぎ
ない。)
As shown in FIG. 3, each stereo camera 3
Are 5 cameras 2 and 5 cameras 2 respectively
An image processing unit 31 that generates a distance moving image by a stereo image processing method using the luminance moving image captured by the image capturing unit, and a wireless transmission / reception unit 32 that wirelessly transmits the processing result of the image processing unit 31 to the host device 4. (In this embodiment, each stereo camera 3 generates a distance moving image and transmits the distance moving image to the host device 4, and the host device 4 generates a three-dimensional model of the construction site 5 from a plurality of collected distance moving images. It is intended to generate, but does not necessarily have to be.
Then, without performing complicated image processing, the luminance moving images of the five cameras 2 are transmitted to the host device 4, and the host device 4
A distance moving image for each stereo camera 3 may be generated by the stereo image processing method, and a three-dimensional model may be generated from the distance moving images. Since various variations can be adopted for the sharing of processing between the stereo camera 3 and the host device 4 as described above, the following description is merely one example. )

【0024】各ステレオカメラ3毎の画像処理部31の
詳細な機能構成を図4に示す。
FIG. 4 shows a detailed functional configuration of the image processing unit 31 for each stereo camera 3.

【0025】図4に示すように、画像処理部31は、建
機位置認識部33と、ステレオ処理部34と、座標変換
処理部35とを備える。
As shown in FIG. 4, the image processing section 31 includes a construction machine position recognition section 33, a stereo processing section 34, and a coordinate conversion processing section 35.

【0026】ここで、ステレオ画像処理を行って距離画
像を得るために、1つのステレオカメラ3に含まれる5
台のカメラ2のうち1台を基準カメラ2aとし、残りの
4台を比較カメラ2bとする。そして、基準カメラ2a
と比較カメラ2bの各々とで一つのカメラペアを構成す
る。すなわち、本実施形態では4つのカメラペアが構成
される。
Here, in order to perform a stereo image process to obtain a range image, 5 included in one stereo camera 3
One of the two cameras 2 is the reference camera 2a, and the remaining four are the comparison cameras 2b. And the reference camera 2a
And each of the comparison cameras 2b form one camera pair. That is, four camera pairs are configured in this embodiment.

【0027】ステレオ処理部34は、基準カメラ2aお
よび比較カメラ2bが撮影したそれぞれの画像のノイズ
を除去し且つエッジを強調するためのLoG(ラプラシ
アン・オブ・ガウシアン)処理部341と、各カメラペ
アごとに、基準カメラ2aからの画像(以下、基準画像
という)とそれぞれの比較カメラ2bからの画像(以
下、比較画像という)との間で、パターンマッチングを
行ってSAD(Sum of Absolute Distance)を計算する
SAD処理部342と、4つのカメラペアのSADを合
計するSSAD(Sum of SAD)処理部343と、距離画
像を合成する距離画像合成部344とを備える。
The stereo processing unit 34 includes a LoG (Laplacian of Gaussian) processing unit 341 for removing noise and enhancing edges of images captured by the reference camera 2a and the comparison camera 2b, and each camera pair. For each, pattern matching is performed between the image from the reference camera 2a (hereinafter referred to as the reference image) and the image from each comparison camera 2b (hereinafter referred to as the comparison image) to obtain the SAD (Sum of Absolute Distance). An SAD processing unit 342 for calculating, an SSAD (Sum of SAD) processing unit 343 for totaling SADs of four camera pairs, and a distance image combining unit 344 for combining distance images are provided.

【0028】各LoG処理部341が、各カメラ2から
の画像にそれぞれLoG処理を施すと、異なるカメラ間
の画質の差を小さくすることができる。その結果、引き
続く異なるカメラの画像間でのパターンマッチング処理
を精度の良いものにすることができる。
When each LoG processing section 341 performs LoG processing on the image from each camera 2, the difference in image quality between different cameras can be reduced. As a result, it is possible to make the pattern matching process between the images of different cameras succeeding to each other with high accuracy.

【0029】各SAD処理部342およびSSAD処理
部343は、例えば、以下のような手順で処理を行い、
いわゆる対応点探索を行う。
Each SAD processing section 342 and SSAD processing section 343, for example, perform processing in the following procedure,
A so-called corresponding point search is performed.

【0030】(1) 基準画像内から、距離計測のターゲ
ットとなる一つの画素を選ぶ。このターゲット画素に対
応する建設作業現場内の物体までの距離として、或る距
離を仮定する。そして、その仮定された距離だけ離れた
建設作業現場空間中の座標点に対応する各比較画像内の
画素(以下「対応候補画素」という)の位置を求める。
(1) Select one pixel as a target of distance measurement from the reference image. A certain distance is assumed as the distance to the object in the construction work site corresponding to this target pixel. Then, the position of the pixel (hereinafter referred to as “corresponding candidate pixel”) in each comparison image corresponding to the coordinate point in the construction work site space separated by the assumed distance is obtained.

【0031】(2) 基準画像内に、ターゲット画素の位
置を中心とする例えば3画素×3画素というサイズのマ
ッチングウィンドウ(画素ブロック)(以下、「参照ウ
ィンドウ」という)を設定する。各比較画像内にも、対
応候補画素の位置を中心とする同サイズのマッチングウ
インドウ(以下「比較ウィンドウ」という)を設定する。
(2) A matching window (pixel block) having a size of, for example, 3 pixels × 3 pixels (hereinafter referred to as a “reference window”) centered on the position of the target pixel is set in the reference image. Within each comparison image, a matching window (hereinafter referred to as “comparison window”) of the same size centered on the position of the corresponding candidate pixel is set.

【0032】(3) 個々のカメラペア毎に、基準画像上
の参照ウインドウ内の各画素の画素値と、比較画像上の
比較ウィンドウ内の対応する各画素の画素値とを比較
し、画素間の「相違度」を求める。なお、前記「相違度」と
しては、画素値間の差の絶対値、あるいは、画素値間の
差の二乗などを用いる。
(3) For each camera pair, the pixel value of each pixel in the reference window on the standard image and the pixel value of each corresponding pixel in the comparison window on the comparison image are compared, and “Dissimilarity” is calculated. As the “degree of difference”, the absolute value of the difference between pixel values, the square of the difference between pixel values, or the like is used.

【0033】(4) 参照ウインドウ内の全画素について
上記「相違度」を求め、それら「相違度」を参照ウイン
ドウ内の全画素について合計(以下、ウインドウ加算と
いう)して、「ウインドウ加算した相違度」をカメラペア
毎に求める。この「ウインドウ加算した相違度」が「SA
D」である。
(4) The "difference" is calculated for all the pixels in the reference window, and the "difference" is summed up for all the pixels in the reference window (hereinafter referred to as window addition) to obtain "difference obtained by window addition". Degree ”for each camera pair. This “window added difference” is “SA
D ".

【0034】SSAD処理部343は、各SAD処理部
342からの各カメラペアの「SAD」を取得し、そし
て、集まった4つのカメラペアの「SAD」を合計し
て、「相違度の最終合計」を求める。この「相違度の最終
合計」が「SSAD」である。
The SSAD processing unit 343 acquires the “SAD” of each camera pair from each SAD processing unit 342, and sums the “SAD” of the four camera pairs that have been gathered to obtain the “final sum of dissimilarities”. Is asked. This "final total of dissimilarity" is "SSAD".

【0035】各SAD処理部342は、ターゲット画素
に対応する建設作業現場内の物体までの距離として、他
に複数個の距離を更に仮定し、それらの距離の各々につ
いても、上述した処理により「SAD」を求め、これに
対応して、SSAD処理部343が上述した処理を行な
って、各々の距離について「SSAD」を求める。そし
て、SSAD処理部343は「SSAD」が最小となる一
つの仮定距離を、ターゲット画素に対応する物体までの
距離として推定し、ターゲット画素および推定距離を距
離画像合成部344へ出力する。
Each SAD processing unit 342 further assumes a plurality of distances as the distance to the object in the construction work site corresponding to the target pixel, and each of these distances is also " “SAD” is obtained, and in response to this, the SSAD processing unit 343 performs the above-described processing to obtain “SSAD” for each distance. Then, the SSAD processing unit 343 estimates one assumed distance at which “SSAD” is the minimum as the distance to the object corresponding to the target pixel, and outputs the target pixel and the estimated distance to the distance image synthesis unit 344.

【0036】ここで、「SSAD」が最小となるというこ
とは、基準画像の参照ウインドウ内の画像パターンと、
比較画像の比較ウィンドウ内の画像パターンとが最も良
く類似するということを意味している。
Here, the minimum "SSAD" means that the image pattern in the reference window of the standard image is
This means that the comparison image is most similar to the image pattern in the comparison window.

【0037】そして、基準画像内の全画素をターゲット
画素として上記のような処理を行って距離を推定し、距
離画像合成部344がこれを蓄積することにより、基準
画像に対応した距離画像が得られる。
Then, all pixels in the reference image are used as target pixels to perform the above-described processing to estimate the distance, and the distance image synthesizing unit 344 accumulates the distance to obtain a distance image corresponding to the reference image. To be

【0038】なお、本実施形態では、建機6の動きを実
時間で把握するために、各カメラ2は基本的に動画カメ
ラ(例えば、ビデオカメラ)であり、動画カメラ2から出
力される各時点のフレーム画像毎に対応点探索が行なわ
れる。その結果としてステレオ処理部34から出力され
る画像も、各時点のフレーム画像が距離画像であるよう
な動画像である。
In this embodiment, in order to grasp the movement of the construction machine 6 in real time, each camera 2 is basically a moving image camera (for example, a video camera), and each output from the moving image camera 2. Corresponding point search is performed for each frame image at the time point. As a result, the image output from the stereo processing unit 34 is also a moving image in which the frame image at each time point is a distance image.

【0039】上記の対応点探索をステレオカメラ3ごと
に行なうことで、各ステレオカメラ3ごとに距離画像が
得られるが、各ステレオカメラ3の距離画像から得られ
る対象領域5の3次元座標値(つまり、画像内の画素の
x、y座標値と、画素値が示す距離値(z座標値))
は、そのステレオカメラ3の配置場所と方向を基準にし
たカメラ座標系で表現されたものである。従って、座標
変換処理部35は、各ステレオカメラ3の距離画像から
得られる各カメラ座標系の座標値を、所定の共通の基準
座標系に変換する処理を行う。
By performing the above-mentioned corresponding point search for each stereo camera 3, a range image is obtained for each stereo camera 3, but the three-dimensional coordinate value () of the target area 5 obtained from the range image of each stereo camera 3 ( That is, the x and y coordinate values of the pixel in the image and the distance value (z coordinate value) indicated by the pixel value)
Is expressed in a camera coordinate system based on the location and direction of the stereo camera 3. Therefore, the coordinate conversion processing unit 35 performs a process of converting the coordinate value of each camera coordinate system obtained from the distance image of each stereo camera 3 into a predetermined common reference coordinate system.

【0040】なお、座標変換処理を行なうための具体的
な装置として、例えば特開2002−32744号に開
示された装置を応用することができる。
As a specific device for performing the coordinate conversion process, for example, the device disclosed in Japanese Patent Laid-Open No. 2002-32744 can be applied.

【0041】建機位置認識部33は、基準カメラからの
画像中の建機に付けられたマーカを検出するマーカ座標
検出部331と、カメラポール1からマーカまでの距離
を決定するマーカ距離決定部332とを備える。
The construction machine position recognition unit 33 includes a marker coordinate detection unit 331 that detects a marker attached to the construction machine in the image from the reference camera, and a marker distance determination unit that determines the distance from the camera pole 1 to the marker. 332.

【0042】マーカ座標検出部331は、5台のカメラ
2のうちの一つ、例えば基準カメラ2aから基準画像を
受け付ける。画像上では、建機6に取り付けられた各マ
ーカ61,62は、それぞれ円として写っているので、
パターン認識によってそれを抽出し、各マーカ61,6
2の基準画像上のx、y座標値を決定する。
The marker coordinate detector 331 receives a reference image from one of the five cameras 2, for example, the reference camera 2a. Since the markers 61 and 62 attached to the construction machine 6 are shown as circles in the image,
It is extracted by pattern recognition, and each marker 61, 6 is extracted.
2. Determine the x, y coordinate values on the two reference images.

【0043】マーカ距離決定部332は、距離画像合成
部344によって合成された基準画像に対応する距離画
像から、マーカ座標検出部331により検出された各マ
ーカ61,62のx、y座標に対応するz座標値を求
め、カメラポール1からマーカ61,62までの距離を
求める。
The marker distance determining unit 332 corresponds to the x and y coordinates of the markers 61 and 62 detected by the marker coordinate detecting unit 331 from the distance image corresponding to the reference image combined by the distance image combining unit 344. The z coordinate value is obtained, and the distance from the camera pole 1 to the markers 61 and 62 is obtained.

【0044】マーカ距離決定部332は、基準画像上で
の各マーカ61,62の座標値とカメラポール1から各
マーカ61,62までの距離を座標変換処理部35へ通
知する。座標変換処理部35は、距離画像の変換と同様
に、各マーカの位置を示す3次元座標値(画像内の画素
のx、y座標値と、マーカまでの距離値(z座標値))
を、所定の共通の基準座標系に変換する処理を行う。
The marker distance determination unit 332 notifies the coordinate conversion processing unit 35 of the coordinate values of the markers 61 and 62 on the reference image and the distances from the camera pole 1 to the markers 61 and 62. The coordinate conversion processing unit 35, similarly to the conversion of the distance image, three-dimensional coordinate values indicating the position of each marker (x and y coordinate values of pixels in the image and distance value to the marker (z coordinate value)).
Is converted into a predetermined common reference coordinate system.

【0045】座標変換処理部35は、各マーカの3次元
座標値および距離画像を無線送受信部32へ渡し、無線
送受信部32がホスト装置4へ送信する。(なお、変形
例として、座標変換処理部35はホスト装置4に設け、
座標変換前のカメラ座標系のマーカ座標値および距離画
像を、各ステレオカメラ3からホスト装置4へ送信する
ようにしてもよい。)
The coordinate conversion processing unit 35 passes the three-dimensional coordinate values of each marker and the distance image to the wireless transmission / reception unit 32, and the wireless transmission / reception unit 32 transmits them to the host device 4. (Note that as a modification, the coordinate conversion processing unit 35 is provided in the host device 4,
You may make it transmit the marker coordinate value and distance image of the camera coordinate system before coordinate conversion from each stereo camera 3 to the host device 4. )

【0046】次に、図3に戻り、ホスト装置4について
説明する。
Next, returning to FIG. 3, the host device 4 will be described.

【0047】図3に示すように、ホスト装置4は、例え
ば汎用的なコンピュータシステムにより構成され、以下
に説明するホスト装置4内の個々の構成要素または機能
は、例えば、コンピュータプログラムを実行することに
より実現される。
As shown in FIG. 3, the host device 4 is composed of, for example, a general-purpose computer system, and each component or function in the host device 4 described below is, for example, to execute a computer program. It is realized by.

【0048】ホスト装置4は、その内部機能として、ス
テレオカメラ3からの無線信号を受信する無線送受信部
41と、複数のステレオカメラ3からのマーカの3次元
座標値に基づいて、個々の建機の位置及び方向を検出す
る建機検出部42と、複数のステレオカメラ3からの距
離画像を統計処理して建設作業現場の地形の3次元モデ
ルデータを生成する地形生成部43と、建機の位置及び
方向を示すデータと地形の3次元モデルデータをGIS
(Geographic Information System)データとして記憶
するためのGISデータ記憶部44と、GISデータを
外部へ出力するGISデータ出力部45とを備える。
The host device 4 has, as its internal functions, a radio transmitter / receiver 41 for receiving a radio signal from the stereo camera 3 and an individual construction machine based on the three-dimensional coordinate values of the markers from the plurality of stereo cameras 3. Of a construction machine, which detects the position and direction of the construction machine, a terrain generation section 43 which statistically processes distance images from a plurality of stereo cameras 3 to generate three-dimensional model data of the terrain of a construction work site, GIS data including position and direction and 3D model data of topography
A GIS data storage unit 44 for storing as (Geographic Information System) data and a GIS data output unit 45 for outputting the GIS data to the outside are provided.

【0049】建機検出部42および地形生成部43の詳
細な構成について、図5を用いて説明する。
Detailed structures of the construction machine detection section 42 and the terrain generation section 43 will be described with reference to FIG.

【0050】図5に示すように、建機検出部42は、さ
らに、3つのステレオカメラ3がそれぞれ推定したマー
カの位置に基づいて、個々の建機に対応したマーカのペ
アを識別し、そのマーカペアの位置から建機の位置およ
び方向を決定する建機位置決定部421と、地形の3次
元モデル中から個々の建機の3次元モデルを認識する建
機認識部422と、個々の建機の3次元モデルの特徴パ
ターンを記憶した建機パターン記憶部423とを備え
る。
As shown in FIG. 5, the construction machine detecting section 42 further identifies a pair of markers corresponding to each construction machine based on the positions of the markers estimated by the three stereo cameras 3, respectively, and A construction machine position determination unit 421 that determines the position and direction of the construction machine from the position of the marker pair, a construction machine recognition unit 422 that recognizes the three-dimensional model of each construction machine from the three-dimensional model of the terrain, and each construction machine And a construction machine pattern storage unit 423 that stores the characteristic pattern of the three-dimensional model.

【0051】建機位置決定部421は、例えば、3つの
ステレオカメラ3によって推定された各マーカの3次元
座標値に、所定の統計的処理(例えば、3つのステレオ
カメラ3からの座標値の平均値を求める、3つのステレ
オカメラ3からの座標値の多数決をとる、或いは、3つ
のステレオカメラ3からの座標値のうち最も信頼性の高
い値を選ぶ、など)を施して、各マーカの最終的な位置
座標値を決定する。そして、位置の確定した複数のマー
カを、相互位置関係が所定の関係になっているペアのマ
ーカに分類することで、個々の建機に取り付けられたペ
アのマーカ61,62を検出し、そのペアのマーカ6
1,62の代表的な位置をその建機の位置とし、そし
て、そのペアのマーカ61,62の配列方向に基づいて
その建機の方向を決定する。この位置と方向の決定を、
全ての建機(つまり、全てのペアのマーカ)について行
なう。
The construction machine position determining unit 421 uses a predetermined statistical process (for example, the average of the coordinate values from the three stereo cameras 3) for the three-dimensional coordinate values of the markers estimated by the three stereo cameras 3, for example. The majority of the coordinate values from the three stereo cameras 3 is calculated, or the most reliable value among the coordinate values from the three stereo cameras 3 is selected. The specific position coordinate value. Then, by classifying the plurality of fixed-position markers into a pair of markers having a predetermined mutual positional relationship, the pair of markers 61 and 62 attached to each construction machine are detected, and Pair marker 6
The representative position of 1, 62 is set as the position of the construction machine, and the direction of the construction machine is determined based on the arrangement direction of the markers 61, 62 of the pair. To determine this position and direction,
Do this for all construction equipment (that is, markers for all pairs).

【0052】建機認識部422は、建機位置決定部42
1からの個々の建機の位置および方向と、建機パターン
記憶部423に蓄積されている様々機種の建機の3次元
特徴パターンとを用いて、後述する距離画像統合処理部
431が作成した地形の3次元モデルデータの中から、
個々の建機に対応する3次元モデル部分を抽出する。例
えば、地形の3次元モデルデータの中から、建機位置決
定部421からの個々の建機の位置および方向によって
決まる個々の建機と推定される領域の3次元モデル部分
を取り出し、その取り出した3次元モデル部分の3次元
形状特徴を、建機パターン記憶部423に蓄積されてい
る様々な機種の建機の3次元特徴パターンと照合するこ
とで、個々の建機の3次元モデル部分をより正確に割出
すとともに、その建機が何の機種であるかも識別でき
る。こうして得られた個々の建機の位置および方向並び
に3次元モデルは、GISデータの要素としてGISデ
ータ記憶部44に格納される。(なお、建機認識部42
2による建機の3次元モデルデータの抽出処理は省略し
てもよい。この場合、GISデータに含まれる建機関連
のデータは、建機位置決定部421からの建機の位置お
よび方向だけとなる。)
The construction machine recognizing unit 422 is used by the construction machine position determining unit 42.
The distance image integration processing unit 431, which will be described later, creates using the position and direction of each construction machine from 1 and the three-dimensional characteristic patterns of construction machines of various models accumulated in the construction machine pattern storage unit 423. From the three-dimensional model data of the terrain,
The 3D model part corresponding to each construction machine is extracted. For example, from the three-dimensional model data of the terrain, the three-dimensional model portion of the area estimated to be the individual construction machine determined by the position and direction of the individual construction machine from the construction machine position determination unit 421 is extracted and taken out. By comparing the three-dimensional shape features of the three-dimensional model portion with the three-dimensional feature patterns of various types of construction equipment stored in the construction equipment pattern storage unit 423, the three-dimensional model portion of each construction equipment can be further improved. Accurately index and identify what model the construction machine is. The position and direction of each construction machine and the three-dimensional model thus obtained are stored in the GIS data storage unit 44 as elements of GIS data. (Note that the construction machine recognition unit 42
The process of extracting the three-dimensional model data of the construction machine by 2 may be omitted. In this case, the construction machine-related data included in the GIS data is only the position and direction of the construction machine from the construction machine position determination unit 421. )

【0053】地形生成部43は、3つのステレオカメラ
3からの距離画像を統計処理して統合する距離画像統合
処理部431と、距離画像統合処理部431の処理結果
及び上述した建機認識部422の処理結果に基づいて建
設作業現場の地形の3次元モデルを決定する地形決定部
432とを備える。
The terrain generation unit 43 statistically processes the distance images from the three stereo cameras 3 and integrates the distance image integration processing unit 431, the processing result of the distance image integration processing unit 431, and the construction machine recognition unit 422 described above. And a terrain determination unit 432 that determines a three-dimensional model of the terrain at the construction work site based on the processing result of 1.

【0054】距離画像統合処理部431は、3つのステ
レオカメラ3からの距離画像に、所定の統計的処理(例
えば、3つのステレオカメラ3からの座標値の多数決を
とる、或るいは、3つのステレオカメラ3からの座標値
のうち最も信頼性の高い値を選ぶ、など)を施して、地
形(建機も含んでいる)の最終的な3次元座標値(すな
わち、地形の3次元モデルデータ)を求める。
The range image integration processing unit 431 performs a predetermined statistical process on the range images from the three stereo cameras 3 (for example, the majority decision of the coordinate values from the three stereo cameras 3, or three). The most reliable value among the coordinate values from the stereo camera 3 is selected, and the final three-dimensional coordinate value of the terrain (including construction machinery) (that is, three-dimensional model data of the terrain) is applied. ).

【0055】なお、上記統計的処理のより具体的な方法
としては、特開2002−32744号に開示された方
法、すなわち、複数のステレオカメラからの距離画像に
基づいて、3次元空間のボクセルデータを求めて統合す
る方法を応用することができる。
A more specific method of the above statistical processing is the method disclosed in Japanese Patent Laid-Open No. 2002-32744, that is, voxel data in three-dimensional space based on distance images from a plurality of stereo cameras. Can be applied to apply the method of integration.

【0056】地形決定部432は、距離画像統合処理部
431からの地形(建機も含んでいる)の3次元モデル
データから、建機認識部422の決定した建機の3次元
モデルを取り除いて、建設作業現場の建機を含まない純
粋な地形(丁張りは含む)の3次元モデルデータを生成
する。この純粋な地形の3次元モデルデータは、GIS
データの要素として、GISデータ記憶部44に格納さ
れる。(なお、上述したように建機認識部422を省略
した場合には、地形決定部432も省略される。その場
合には、距離画像統合処理部431からの建機も含んだ
地形の3次元モデルデータが、GISデータ記憶部44
に格納される。)
The terrain determining unit 432 removes the 3D model of the construction machine determined by the construction machine recognizing unit 422 from the 3D model data of the terrain (including the construction machine) from the distance image integration processing unit 431. , Generates three-dimensional model data of pure terrain (including stakes) that does not include construction machinery at the construction work site. This pure terrain 3D model data is GIS
It is stored in the GIS data storage unit 44 as a data element. (Note that when the construction machine recognition unit 422 is omitted as described above, the terrain determination unit 432 is also omitted. In that case, the three-dimensional topography including the construction machine from the distance image integration processing unit 431 is also included. The model data is the GIS data storage unit 44.
Stored in. )

【0057】GISデータ出力部45は、GISデータ
記憶部44内のGISデータを、外部へ出力する。出力
態様としては、例えば、GISデータを通信ネットワー
クを通じて外部の情報処理装置へ提供したり、或るい
は、GISデータを使って所定の視点から建設作業現場
を眺めたときの画像を描画して表示する、などの態様が
考え得る。建設作業現場の地形は3次元モデルデータと
なっているから、任意の視点から見た画像を表示するこ
とができる。また、建機の位置と方向が判明しているか
ら、その画像内で建機と建機以外の地形等とを色分けな
どで区別して表示することができる。特に、建機の3次
元モデルデータが抽出されている場合には、建機を明確
に他の地形から区別して表示することができる。地形の
3次元モデルと建機の位置、方向及び3次元モデルは、
カメラで撮影された動画像の動きに追従して動く動的な
ものであるから、それらのデータに基づいた画像表示も
動的に行なうことができる。
The GIS data output section 45 outputs the GIS data in the GIS data storage section 44 to the outside. As an output mode, for example, the GIS data is provided to an external information processing device through a communication network, or the GIS data is used to draw and display an image of a construction work site viewed from a predetermined viewpoint. A mode such as “Yes” can be considered. Since the topography of the construction work site is three-dimensional model data, it is possible to display an image viewed from an arbitrary viewpoint. Further, since the position and direction of the construction machine are known, it is possible to display the construction machine and the terrain other than the construction machine by different colors in the image. In particular, when the three-dimensional model data of the construction machine is extracted, the construction machine can be clearly displayed in distinction from other topography. The 3D model of the terrain and the position, direction and 3D model of the construction machine are
Since it is a dynamic one that follows the movement of a moving image captured by a camera, it is possible to dynamically display an image based on those data.

【0058】次に、第2の実施形態に係る、より簡易な
構成の建設現場の3次元情報生成システムについて説明
する。
Next, a constructional three-dimensional information generation system of a simpler construction according to the second embodiment will be described.

【0059】本実施形態に係るシステムは、デジタルカ
メラ等を利用した静止画を用いて、対象領域の距離画像
を生成するシステムであり、その構成を図6に示す。
The system according to the present embodiment is a system for generating a distance image of a target area by using a still image using a digital camera or the like, and its configuration is shown in FIG.

【0060】本システムは、画像処理装置8によって構
成され、その画像処理装置8は、例えば汎用的なコンピ
ュータシステムにより構成され、以下に説明する画像処
理装置8内の個々の構成要素または機能は、例えば、コ
ンピュータプログラムを実行することにより実現され
る。
The present system is composed of an image processing device 8. The image processing device 8 is composed of, for example, a general-purpose computer system, and the individual constituent elements or functions in the image processing device 8 described below are as follows. For example, it is realized by executing a computer program.

【0061】画像処理装置8は、その内部機能として、
画像入力受付部81と、特徴抽出部82と、ステレオ処
理部84と、建機認識部85と、座標変換部86と、デ
ータ記憶部87とを備える。
The image processing device 8 has, as its internal function,
The image input reception unit 81, the feature extraction unit 82, the stereo processing unit 84, the construction machine recognition unit 85, the coordinate conversion unit 86, and the data storage unit 87 are provided.

【0062】本実施形態では、建設作業現場を、それぞ
れ異なる複数の撮影場所からデジタルカメラなどで撮影
された静止画を用いる。これらの複数枚の静止画のう
ち、少なくとも2枚には丁張りなどの基準点が含まれる
ようにする。そして、画像入力受付部81は、複数の撮
影場所についての一定の順序で、各撮影場所からの画像
データを一枚ずつ取り込む。
In this embodiment, still images taken by a digital camera or the like from a plurality of different shooting locations are used at the construction work site. At least two of the plurality of still images include a reference point such as stitching. Then, the image input receiving unit 81 captures the image data from each shooting location one by one in a fixed order for the plurality of shooting locations.

【0063】特徴抽出部82は、取り込まれた各画像か
ら特徴点を抽出し、抽出した特徴点のパターンを比較し
て、最低2つの画像に共通して含まれている領域を特定
する。
The feature extraction unit 82 extracts feature points from each of the captured images, compares the patterns of the extracted feature points, and specifies a region commonly included in at least two images.

【0064】ステレオ処理部84は、特定された各共通
領域毎に、それを共有する2枚以上の画像を用いてステ
レオ処理法を行なうことにより、その共通領域の地形
(建機や丁張りを含む)の距離画像を計算し、この距離
画像から地形の3次元座標(3次元モデルデータ)を決
定する。
The stereo processing unit 84 performs a stereo processing method for each of the specified common areas by using two or more images that share the common areas, thereby performing the terrain of the common areas (construction machines and sidings). The distance image of (including) is calculated, and the three-dimensional coordinates (three-dimensional model data) of the landform are determined from this distance image.

【0065】建機認識部85は、ステレオ処理部84か
らの地形の3次元モデルデータの各部と、予め用意され
た建機の3次元モデルの特徴パターンとのパターンマッ
チングを行なうことで、地形の3次元モデルデータの中
から、建機の3次元モデル部分を認識して抽出する。或
るいは、別法として、建機を様々な方向から見たときの
建機画像の特徴パターンを予め用意しておいて、ステレ
オ処理部84で計算された距離画像の各部と、建機画像
の特徴パターンとのパタンマッチングを行なうことで、
距離画像の中から建機の画像部分を認識して、そこから
建機の3次元位置座標を求める。
The construction machine recognizing unit 85 performs pattern matching between each part of the three-dimensional model data of the terrain from the stereo processing unit 84 and the characteristic pattern of the three-dimensional model of the construction machine prepared in advance, to thereby obtain the terrain. The 3D model portion of the construction machine is recognized and extracted from the 3D model data. Alternatively, as an alternative, a feature pattern of the construction machine image when the construction machine is viewed from various directions is prepared in advance, and each part of the distance image calculated by the stereo processing unit 84 and the construction machine image are prepared. By performing pattern matching with the feature pattern of
The image portion of the construction machine is recognized from the distance image, and the three-dimensional position coordinates of the construction machine are obtained from the image portion.

【0066】そして、座標変換部86は、ステレオ処理
部84からの地形の3次元モデルデータ及び建機認識部
85からの建機の3次元モデルデータ又は3次元位置座
標を、入力画像に含まれている丁張りなどの基準点を基
準とする建設作業現場内の基準座標系の座標値へ変換す
る。座標変換されたデータは、データ記憶部87へ格納
され、第1の実施形態と同様に外部出力される。
Then, the coordinate conversion unit 86 includes the three-dimensional model data of the terrain from the stereo processing unit 84 and the three-dimensional model data of the construction machine or the three-dimensional position coordinates from the construction machine recognition unit 85 in the input image. Convert to the coordinate value of the reference coordinate system in the construction work site with the reference point such as the tensioning as the reference. The coordinate-converted data is stored in the data storage unit 87 and is output to the outside as in the first embodiment.

【0067】上述した本発明の実施形態は、本発明の説
明のための例示であり、本発明の範囲をそれらの実施形
態にのみ限定する趣旨ではない。当業者は、本発明の要
旨を逸脱することなしに、他の様々な態様で本発明を実
施することができる。
The above-described embodiments of the present invention are examples for explaining the present invention, and are not intended to limit the scope of the present invention only to those embodiments. Those skilled in the art can implement the present invention in various other modes without departing from the gist of the present invention.

【0068】例えば、上記実施形態では、建機に設けた
2個のマーカからその建機の位置と方向を検出している
が、これは単なる例示であり、建機に設けた単に1個の
マーカからその建機の位置と方向を検出することもでき
るし(方向は、マーカの形状などから検出できる)、3
個以上のマーカを用いて位置と方向を検出してもよい。
或いは、建機に設置されたマーカを利用する方法に代え
て又はこれと併用して、建機画像とのパターンマッチン
グや、建機に特有の色情報を用いた検出方法などを用い
て、建機の位置および向きの検出を行なうこともでき
る。
For example, in the above embodiment, the position and direction of the construction machine are detected from the two markers provided on the construction machine, but this is merely an example, and only one marker provided on the construction machine is detected. It is also possible to detect the position and direction of the construction machine from the marker (the direction can be detected from the shape of the marker), 3
The position and direction may be detected using more than one marker.
Alternatively, instead of or in combination with the method of using the marker installed on the construction machine, the pattern matching with the construction machine image, the detection method using the color information unique to the construction machine, or the like is used. It is also possible to detect the position and orientation of the machine.

【0069】また、上記の実施形態では、ステレオカメ
ラごとに距離画像を合成し、ホスト装置でこれらの統合
処理を行っているが、各カメラが撮影した画像をすべて
ホスト装置へ送信し、ホスト装置がすべての処理を一貫
して行うようにすることもできる。
Further, in the above embodiment, the distance images are combined for each stereo camera and the integration processing is performed by the host device. However, all the images captured by the cameras are transmitted to the host device, and the host device Can do all the processing consistently.

【0070】また、上記実施形態では、異なる場所に設
置された複数の多眼ステレオカメラを用いているが、こ
れに代えて、複数の単眼のカメラを異なる場所に設置し
て、それら複数の単眼カメラからの画像から現場の3次
元形状を把握することもできる。
In the above embodiment, a plurality of multi-lens stereo cameras installed in different places are used, but instead of this, a plurality of monocular cameras are installed in different places, and the plurality of mono-eye cameras are installed. It is also possible to grasp the three-dimensional shape of the scene from the image from the camera.

【0071】また、上記実施形態では、建機の形状情報
(マーカ又は建機自体の形状特徴パターンなど)を事前に
登録しておき、その登録情報を用いて、最初に得られた
現場全体の3次元位置データの中から建機を検出してい
るが、このような物体検出のための登録対象は、建機に
限られるわけではない。建機とともに又は建機に代え
て、人や建物など所望の種類の物体の情報を事前登録し
ておいて、その登録情報を用いて、パターンマッチング
などの方法により、その所望物体を検出することができ
る。また、逆に、地形や背景の情報を事前登録しておい
て、その登録情報を用いて、地形や背景以外の物体を検
出したり、その物体の動きを検出したりすることもでき
る(この方法は、セキュリティシステムなどのアプリケ
ーションで有効であろう)。
In the above embodiment, the shape information of the construction machine is used.
(Marker or shape feature pattern of the construction machine itself) is registered in advance, and the construction information is used to detect the construction machine from the initially obtained 3D position data of the entire site. However, the registration target for such object detection is not limited to the construction machine. Information of a desired type of object such as a person or a building is pre-registered together with or instead of the construction machine, and the desired object is detected by a method such as pattern matching using the registered information. You can On the contrary, it is also possible to pre-register the information of the terrain and the background, and use the registered information to detect an object other than the terrain and the background, and to detect the movement of the object. The method will be useful in applications such as security systems).

【0072】さらに、最終的に出力されるデータはGI
Sデータである必要は無く、他の形式のデータであって
もよい。
Further, the finally output data is GI.
The data need not be S data, and may be data in other formats.

【0073】画像のソースは、上述の実施形態のように
カメラである必要は必ずしも無く、ネットワークから取
得した画像や、イメージスキャナで読み取った画像を入
力してもよい。
The image source does not necessarily have to be a camera as in the above-described embodiment, and an image acquired from a network or an image read by an image scanner may be input.

【0074】本発明の適用できる現場は、建設作業現場
に限られない。様々な3次元実空間に適用できる。
The site to which the present invention can be applied is not limited to the construction work site. It can be applied to various 3D real spaces.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施形態に係る3次元情報生成
システムのカメラの配置などを示す図である。
FIG. 1 is a diagram showing an arrangement of cameras in a three-dimensional information generation system according to a first embodiment of the present invention.

【図2】本発明の第1の実施形態に係る3次元情報生成
システムの基本的な機能を示す図である。
FIG. 2 is a diagram showing basic functions of the three-dimensional information generation system according to the first embodiment of the present invention.

【図3】本発明の第1の実施形態に係る3次元情報生成
システムの機能構成を示す図である。
FIG. 3 is a diagram showing a functional configuration of a three-dimensional information generation system according to the first embodiment of the present invention.

【図4】画像処理部の詳細な機能構成を示す図である。FIG. 4 is a diagram illustrating a detailed functional configuration of an image processing unit.

【図5】ホスト装置の詳細な機能構成を示す図である。FIG. 5 is a diagram showing a detailed functional configuration of a host device.

【図6】本発明の第2の実施形態に係る3次元情報生成
システムの画像処理装置の構成を示す図である。
FIG. 6 is a diagram showing a configuration of an image processing device of a three-dimensional information generation system according to a second embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1…カメラポール 2…カメラ 3…ステレオカメラ 4…ホスト装置 5…建設作業現場 6…建設機械 7…丁張り 8…画像処理装置 1 ... Camera pole 2 ... camera 3 ... Stereo camera 4 ... Host device 5 ... Construction work site 6 ... Construction machinery 7 ... 8 ... Image processing device

───────────────────────────────────────────────────── フロントページの続き (72)発明者 三輪 浩史 神奈川県平塚市万田1200 株式会社小松製 作所研究所内 (72)発明者 山口 博義 神奈川県平塚市万田1200 株式会社小松製 作所研究所内 Fターム(参考) 5B057 AA20 BA02 DA08 DB03 DB06 DB09 DC03 DC09 DC25 DC32 DC36    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Hiroshi Miwa             1200 Manda, Hiratsuka-shi, Kanagawa Made by Komatsu Ltd.             Seisakusho Institute (72) Inventor Hiroyoshi Yamaguchi             1200 Manda, Hiratsuka-shi, Kanagawa Made by Komatsu Ltd.             Seisakusho Institute F term (reference) 5B057 AA20 BA02 DA08 DB03 DB06                       DB09 DC03 DC09 DC25 DC32                       DC36

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 現場を所定の異なる場所から眺めて得ら
れる複数の画像を用いて、前記現場に存在する諸物体の
3次元位置に関するデータを生成する現場3次元データ
生成手段と、 前記現場の諸物体の3次元位置に関するデータから、特
定物体の3次元位置に関するデータを得る特定物体3次
元データ検出手段と、 前記現場の諸物体の3次元位置に関するデータから、前
記特定物体以外の他物体の3次元位置に関するデータを
得る他物体3次元データ検出手段とを備える現場の3次
元情報生成システム。
1. A site three-dimensional data generation means for generating data relating to the three-dimensional positions of various objects existing on the site by using a plurality of images obtained by viewing the site from predetermined different places, and Specific object three-dimensional data detection means for obtaining data on the three-dimensional position of a specific object from data on the three-dimensional positions of various objects; A three-dimensional information generation system in the field, comprising another object three-dimensional data detection means for obtaining data on a three-dimensional position.
【請求項2】 請求項1記載のシステムにおいて、得ら
れた前記特定物体の3次元位置に関するデータと前記特
定物体以外の他物体の3次元位置に関するデータとを、
分離して又は一緒に出力するデータ出力手段を更に備え
た現場の3次元情報生成システム。
2. The system according to claim 1, wherein the obtained data on the three-dimensional position of the specific object and the data on the three-dimensional position of another object other than the specific object are stored.
An on-site three-dimensional information generation system further comprising data output means for outputting separately or together.
【請求項3】 現場を所定の異なる場所から眺めて得ら
れる複数の画像を用いて、前記現場に存在する諸物体の
3次元位置に関するデータを生成するステップと、 前記現場の諸物体の3次元位置に関するデータから、特
定物体の3次元位置に関するデータを得るステップと、 前記現場の諸物体の3次元位置に関するデータから、前
記特定物体以外の他物体の3次元位置に関するデータを
得るステップととを備える現場の3次元情報生成方法。
3. A step of generating data regarding a three-dimensional position of various objects existing on the scene using a plurality of images obtained by viewing the scene from predetermined different places, and a three-dimensional shape of the objects on the scene. Obtaining data on the three-dimensional position of the specific object from the data on the position, and obtaining data on the three-dimensional position of the object other than the specific object from the data on the three-dimensional position of the objects on the scene. A method of generating three-dimensional information on site.
JP2002135425A 2002-05-10 2002-05-10 Three-dimensional site information creating system Pending JP2003329448A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002135425A JP2003329448A (en) 2002-05-10 2002-05-10 Three-dimensional site information creating system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002135425A JP2003329448A (en) 2002-05-10 2002-05-10 Three-dimensional site information creating system

Publications (1)

Publication Number Publication Date
JP2003329448A true JP2003329448A (en) 2003-11-19

Family

ID=29697754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002135425A Pending JP2003329448A (en) 2002-05-10 2002-05-10 Three-dimensional site information creating system

Country Status (1)

Country Link
JP (1) JP2003329448A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010237169A (en) * 2009-03-31 2010-10-21 Topcon Corp Automatic tracking method and surveying device
JP2012509508A (en) * 2008-11-20 2012-04-19 ザ ジレット カンパニー Personal hygiene devices, systems, and methods
JP2014222374A (en) * 2013-05-13 2014-11-27 大日本印刷株式会社 Planogram information generation device, planogram information generation method, program, planogram reproduction system and planogram reproduction device
JPWO2017033991A1 (en) * 2015-08-26 2018-06-14 住友建機株式会社 Excavator measuring device
WO2019012993A1 (en) * 2017-07-14 2019-01-17 株式会社小松製作所 Operation information transmission device, construction management system, operation information transmission method, and program
JP2019019592A (en) * 2017-07-19 2019-02-07 株式会社熊谷組 Construction status acquisition method
JP2019190064A (en) * 2018-04-20 2019-10-31 株式会社安藤・間 Attitude recognition system of construction machine
JP2020170431A (en) * 2019-04-05 2020-10-15 ジャパンパイル株式会社 Device and program for creating work plan of foundation pile construction
JP2021018071A (en) * 2019-07-17 2021-02-15 日本電気株式会社 Topographic information generation device, topographic information generation system, and information generation method
WO2022168616A1 (en) * 2021-02-05 2022-08-11 株式会社アマダ Device determination system, device determination method, and device determination program
JP2022120667A (en) * 2021-02-05 2022-08-18 株式会社アマダ Device discrimination system, device discrimination method and device discrimination program
JP7130215B1 (en) 2021-12-03 2022-09-05 Asatec株式会社 Planned building confirmation system
WO2022210005A1 (en) * 2021-03-31 2022-10-06 Johnan株式会社 Attitude estimation system
JP2023000736A (en) * 2021-06-18 2023-01-04 株式会社トプコン Measurement system, measurement method and measurement program
WO2023106323A1 (en) * 2021-12-10 2023-06-15 株式会社小松製作所 Construction management system and construction management method
JP2023544072A (en) * 2021-09-01 2023-10-20 グーグル エルエルシー Hybrid depth map
WO2023228244A1 (en) * 2022-05-23 2023-11-30 日本電気株式会社 Information processing device, information processing method, and recording medium
JP7705251B2 (en) 2021-02-05 2025-07-09 株式会社アマダ DEVICE IDENTIFICATION SYSTEM, DEVICE IDENTIFICATION METHOD, AND DEVICE IDENTIFICATION PROGRAM

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012509508A (en) * 2008-11-20 2012-04-19 ザ ジレット カンパニー Personal hygiene devices, systems, and methods
JP2010237169A (en) * 2009-03-31 2010-10-21 Topcon Corp Automatic tracking method and surveying device
JP2014222374A (en) * 2013-05-13 2014-11-27 大日本印刷株式会社 Planogram information generation device, planogram information generation method, program, planogram reproduction system and planogram reproduction device
JP2019214933A (en) * 2015-08-26 2019-12-19 住友建機株式会社 Shovel, shovel measurement device, and shovel management device
JPWO2017033991A1 (en) * 2015-08-26 2018-06-14 住友建機株式会社 Excavator measuring device
WO2019012993A1 (en) * 2017-07-14 2019-01-17 株式会社小松製作所 Operation information transmission device, construction management system, operation information transmission method, and program
JPWO2019012993A1 (en) * 2017-07-14 2019-11-07 株式会社小松製作所 Operation information transmission apparatus, construction management system, operation information transmission method and program
JP2021093219A (en) * 2017-07-14 2021-06-17 株式会社小松製作所 Operation information transmission device, construction management system, operation information transmission method, and program
US11076130B2 (en) 2017-07-14 2021-07-27 Komatsu Ltd. Operation information transmission device, construction management system, operation information transmission method, and program
JP7291739B2 (en) 2017-07-14 2023-06-15 株式会社小松製作所 Operation information transmission device, construction management system, operation information transmission method and program
JP2019019592A (en) * 2017-07-19 2019-02-07 株式会社熊谷組 Construction status acquisition method
JP2019190064A (en) * 2018-04-20 2019-10-31 株式会社安藤・間 Attitude recognition system of construction machine
JP6994427B2 (en) 2018-04-20 2022-01-14 株式会社安藤・間 Posture recognition system for construction machinery
JP2020170431A (en) * 2019-04-05 2020-10-15 ジャパンパイル株式会社 Device and program for creating work plan of foundation pile construction
JP7332853B2 (en) 2019-04-05 2023-08-24 ジャパンパイル株式会社 Foundation pile construction work plan creation device and foundation pile construction work plan creation program
JP2021018071A (en) * 2019-07-17 2021-02-15 日本電気株式会社 Topographic information generation device, topographic information generation system, and information generation method
JP2022120667A (en) * 2021-02-05 2022-08-18 株式会社アマダ Device discrimination system, device discrimination method and device discrimination program
WO2022168616A1 (en) * 2021-02-05 2022-08-11 株式会社アマダ Device determination system, device determination method, and device determination program
JP7705251B2 (en) 2021-02-05 2025-07-09 株式会社アマダ DEVICE IDENTIFICATION SYSTEM, DEVICE IDENTIFICATION METHOD, AND DEVICE IDENTIFICATION PROGRAM
JP7554130B2 (en) 2021-02-05 2024-09-19 株式会社アマダ DEVICE IDENTIFICATION SYSTEM, DEVICE IDENTIFICATION METHOD, AND DEVICE IDENTIFICATION PROGRAM
JP2022120663A (en) * 2021-02-05 2022-08-18 株式会社アマダ Device discrimination system, device discrimination method and device discrimination program
WO2022210005A1 (en) * 2021-03-31 2022-10-06 Johnan株式会社 Attitude estimation system
JP7680722B2 (en) 2021-03-31 2025-05-21 Johnan株式会社 Pose Estimation System
JP2022155843A (en) * 2021-03-31 2022-10-14 Johnan株式会社 Posture estimation system
JP7675569B2 (en) 2021-06-18 2025-05-13 株式会社トプコン Measurement system, measurement method, and measurement program
JP2023000736A (en) * 2021-06-18 2023-01-04 株式会社トプコン Measurement system, measurement method and measurement program
US12292284B2 (en) 2021-06-18 2025-05-06 Topcon Corporation Measuring system, measuring method, and measuring program
JP2023544072A (en) * 2021-09-01 2023-10-20 グーグル エルエルシー Hybrid depth map
JP7622087B2 (en) 2021-09-01 2025-01-27 グーグル エルエルシー Hybrid Depth Map
US12271992B2 (en) 2021-09-01 2025-04-08 Google Llc Hybrid depth maps
JP2023082830A (en) * 2021-12-03 2023-06-15 Asatec株式会社 System for confirming building to be constructed
JP7130215B1 (en) 2021-12-03 2022-09-05 Asatec株式会社 Planned building confirmation system
JP2023086500A (en) * 2021-12-10 2023-06-22 株式会社小松製作所 Construction management system and construction management method
WO2023106323A1 (en) * 2021-12-10 2023-06-15 株式会社小松製作所 Construction management system and construction management method
WO2023228244A1 (en) * 2022-05-23 2023-11-30 日本電気株式会社 Information processing device, information processing method, and recording medium

Similar Documents

Publication Publication Date Title
JP6129981B2 (en) Moving object position estimation apparatus and moving object position estimation method
JP2003329448A (en) Three-dimensional site information creating system
JP4672175B2 (en) Position detection apparatus, position detection method, and position detection program
JP5148669B2 (en) Position detection apparatus, position detection method, and position detection program
US20050078178A1 (en) System and method for providing position-independent pose estimation
JP2021530821A (en) Methods, equipment and computer programs for performing 3D wireless model construction
CN106169184A (en) For determining the method and system of the spatial character of video camera
CN103959307A (en) Method of detecting and describing features from an intensity image
US20090303348A1 (en) Metadata adding apparatus and metadata adding method
WO2003092291A1 (en) Object detection device, object detection server, and object detection method
WO2011043275A1 (en) Three-dimensional data creating method and three-dimensional data creating device
KR20140009737A (en) Hybrid map based localization method of robot
CN102917171A (en) Small target locating method based on pixel
Ruotsalainen et al. Heading change detection for indoor navigation with a smartphone camera
CN108459597A (en) A kind of mobile electronic device and method for handling the task of mission area
CN104700355A (en) Generation method, device and system for indoor two-dimension plan
Snidaro et al. Automatic camera selection and fusion for outdoor surveillance under changing weather conditions
JP2003333590A (en) System for generating image at site
Liu et al. A low-cost and scalable framework to build large-scale localization benchmark for augmented reality
KR100574227B1 (en) Apparatus and method for extracting object motion that compensates for camera movement
JP2881193B1 (en) Three-dimensional object recognition apparatus and method
JP2017182564A (en) Positioning device, positioning method, and positioning computer program
JP6580286B2 (en) Image database construction device, position and inclination estimation device, and image database construction method
JP7437930B2 (en) Mobile objects and imaging systems
JP2005157635A (en) Congestion degree measuring device, facility control system, and congestion degree measuring method
点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载