JP2002109518A - Three-dimensional shape restoring method and system therefor - Google Patents
Three-dimensional shape restoring method and system thereforInfo
- Publication number
- JP2002109518A JP2002109518A JP2000302937A JP2000302937A JP2002109518A JP 2002109518 A JP2002109518 A JP 2002109518A JP 2000302937 A JP2000302937 A JP 2000302937A JP 2000302937 A JP2000302937 A JP 2000302937A JP 2002109518 A JP2002109518 A JP 2002109518A
- Authority
- JP
- Japan
- Prior art keywords
- data
- image data
- image
- constraint condition
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 239000011159 matrix material Substances 0.000 claims description 42
- 230000009466 transformation Effects 0.000 claims description 33
- 238000005259 measurement Methods 0.000 claims description 29
- 238000012937 correction Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 12
- 230000003287 optical effect Effects 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 claims description 8
- 230000015556 catabolic process Effects 0.000 abstract 1
- 238000006731 degradation reaction Methods 0.000 abstract 1
- 230000000875 corresponding effect Effects 0.000 description 18
- 238000000605 extraction Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 102100033040 Carbonic anhydrase 12 Human genes 0.000 description 2
- 101000867855 Homo sapiens Carbonic anhydrase 12 Proteins 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 101100366710 Arabidopsis thaliana SSL12 gene Proteins 0.000 description 1
- 101000680262 Homo sapiens Transmembrane protein 60 Proteins 0.000 description 1
- LFVLUOAHQIVABZ-UHFFFAOYSA-N Iodofenphos Chemical compound COP(=S)(OC)OC1=CC(Cl)=C(I)C=C1Cl LFVLUOAHQIVABZ-UHFFFAOYSA-N 0.000 description 1
- 101100366563 Panax ginseng SS13 gene Proteins 0.000 description 1
- 241000287462 Phalacrocorax carbo Species 0.000 description 1
- 102100022076 Transmembrane protein 60 Human genes 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- BULVZWIRKLYCBC-UHFFFAOYSA-N phorate Chemical compound CCOP(=S)(OCC)SCSCC BULVZWIRKLYCBC-UHFFFAOYSA-N 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
Landscapes
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、複数枚の静止画
像又は動画像から測定対象物の三次元形状を計測する三
次元形状復元システム及び方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional shape restoration system and method for measuring a three-dimensional shape of an object to be measured from a plurality of still images or moving images.
【0002】[0002]
【従来の技術】画像計測は、ビル・プラント等の大型構
造物の寸法、形状、変位測定、工業部品の非接触測定や
コンピュータグラフィックスを用いて仮想的な映像を作
成する上でのモデルデータの入力等、その応用分野は多
岐にわたる。近年、複数枚の画像或いは動画像から物体
形状を復元するシステムが種々提案されている。例え
ば、特開平9−212643号では、入力画像から得ら
れる対象物体の輪郭、凹凸、模様等の特徴を直線、円弧
等で近似したステレオ計測による三次元位置データを有
する特徴パターンと、対象物体のモデルの特徴データと
のマッチングをとることで、対象物体の三次元形状を認
識する三次元物体認識方法が開示されている。この方法
では、測定対象のモデルのデータを予め用意しておかな
くてはならないため、測定対象が予め既知のものに特定
される。2. Description of the Related Art Image measurement is the measurement of dimensions, shapes and displacements of large structures such as buildings and plants, non-contact measurement of industrial parts, and model data for creating virtual images using computer graphics. There are a wide variety of application fields, such as the input of "". In recent years, various systems for restoring an object shape from a plurality of images or moving images have been proposed. For example, in Japanese Patent Application Laid-Open No. 9-212463, a feature pattern having three-dimensional position data obtained by stereo measurement in which features such as contours, irregularities, and patterns of a target object obtained from an input image are approximated by straight lines, arcs, and the like, A three-dimensional object recognition method for recognizing a three-dimensional shape of a target object by matching with feature data of a model is disclosed. In this method, since the data of the model to be measured must be prepared in advance, the measurement target is specified in advance as a known one.
【0003】特開平10−228542号に開示された
三次元計測方法は、複数の部位から撮影された画像の輪
郭の特徴を用いて特徴点のマッチング処理を行って測定
対象の三次元形状を推定する。この方法は、互いに平行
な光軸を持ち、カメラの相対位置方向が水平方向及び垂
直方向に並設された少なくとも3台のカメラを用いなく
てはならず、カメラを正確に位置決めするための器具が
必要となる。また、特開平10−318715号及び特
開平318732号に開示された三次元計測装置では、
予め位置関係が分かっている特徴パターン像に基づいて
複数の画像データの対応付けを行う。このため、特徴パ
ターンを生成するための手段を必要とする。A three-dimensional measurement method disclosed in Japanese Patent Application Laid-Open No. 10-228542 estimates a three-dimensional shape of a measurement target by performing feature point matching processing using contour features of images photographed from a plurality of parts. I do. This method requires the use of at least three cameras having optical axes parallel to each other and the relative positions of the cameras being arranged side by side in a horizontal direction and a vertical direction, and an apparatus for accurately positioning the cameras. Is required. Further, in the three-dimensional measuring device disclosed in JP-A-10-318715 and JP-A-3181872,
A plurality of image data are associated with each other based on a characteristic pattern image whose positional relationship is known in advance. Therefore, a means for generating a characteristic pattern is required.
【0004】一方、この種の画像計測では、撮像手段で
あるカメラのレンズ歪みが計測精度に影響を与える。レ
ンズ歪みの補正に関しては、特開平11−230745
号に記載があるが、歪み補正のための補正係数は、予め
レンズメーカにより入手するか別途計測する必要があ
る。これに対し、キャリブレーションされていない市販
のカメラやビデオカメラを用い、任意の位置から撮像し
て得られた複数の画像データから、画像上の2点間の距
離を指定するだけで、物体の三次元形状を復元すること
ができるシステムも種々提案されている(Q-T Luong an
d T.Vieville, Canonic Representation forthe Geomet
ries of Multiple Projective Views, Technical Repor
t UCB/CSD 93/772, EECS, U.C.Berkeley, 1993 その
他)。On the other hand, in this type of image measurement, a lens distortion of a camera as an image pickup means affects measurement accuracy. Japanese Patent Application Laid-Open No. 11-230745 describes correction of lens distortion.
However, the correction coefficient for distortion correction must be obtained in advance by a lens manufacturer or separately measured. On the other hand, by specifying a distance between two points on an image from a plurality of image data obtained by imaging from an arbitrary position using a commercially available camera or video camera that has not been calibrated, Various systems that can restore a three-dimensional shape have been proposed (QT Luong an
d T. Vieville, Canonic Representation for the Geomet
ries of Multiple Projective Views, Technical Repor
t UCB / CSD 93/772, EECS, UCBerkeley, 1993 and others).
【0005】[0005]
【発明が解決しようとする課題】上述した従来の三次元
形状復元システムでは、複数の画像データ間で対応する
特徴データを対応データとして関連付け、この関連を元
に三次元形状を復元していくことを基本としている。特
徴データは、手動で対応付けるか、特徴データ間の類似
性に基づいてシステムが自動で対応付ける。しかし、こ
のような従来のシステムでは、特徴データの抽出精度や
誤った対応付けの発生により、三次元形状の推定精度を
低下させるという問題がある。例えば、特開2000−
74641号に開示されたものは、撮像時の撮像装置に
関する情報がない画像から撮像シーンの三次元形状を抽
出する手法を開示しているが、特徴点の対応付けに関す
る精度向上について何等言及されていない。In the above-described conventional three-dimensional shape restoration system, corresponding feature data among a plurality of image data is associated as corresponding data, and the three-dimensional shape is restored based on this association. It is based on The feature data is associated manually or automatically by the system based on the similarity between the feature data. However, such a conventional system has a problem that the accuracy of extracting three-dimensional shapes is reduced due to the extraction accuracy of feature data and the occurrence of incorrect association. For example, JP-A-2000-
No. 74641 discloses a technique for extracting a three-dimensional shape of an imaged scene from an image having no information on an imaging device at the time of imaging, but mentions nothing about improving the accuracy of associating feature points. Absent.
【0006】この発明は、このような点に鑑みなされた
もので、特徴データ間の誤対応等に基づく推定精度の低
下を防止して、正確な三次元形状の復元が可能な三次元
形状復元方法及びシステムを提供することを目的とす
る。SUMMARY OF THE INVENTION The present invention has been made in view of the above points, and prevents a decrease in estimation accuracy based on an erroneous correspondence between feature data and the like, and enables a three-dimensional shape restoration capable of accurate three-dimensional shape restoration. It is intended to provide a method and a system.
【0007】[0007]
【課題を解決するための手段】この発明に係る第1の三
次元形状復元方法は、測定対象物を異なるアングルから
撮像して得られた複数の画像データを読み込むステップ
と、読み込まれた複数の画像データのそれぞれから画像
の特徴データを抽出するステップと、このステップで抽
出された特徴データに基づいて画像データ間の拘束条件
を算出し、この拘束条件を満たすような前記特徴データ
の対応付けを行うステップと、前記画像データ中の一個
所の長さのデータを与えるステップと、前記対応付けさ
れた特徴データと画像データ間の拘束条件とから前記測
定対象物が配置されている三次元空間と前記各画像デー
タの画像面との間の透視投影変換行列を算出し、この透
視投影変換行列と前記与えられた一個所の長さのデータ
とから前記測定対象物の三次元形状を復元するステップ
とを備えたことを特徴とする。A first three-dimensional shape restoring method according to the present invention includes a step of reading a plurality of image data obtained by capturing an image of an object to be measured from different angles; Extracting the feature data of the image from each of the image data, calculating a constraint condition between the image data based on the feature data extracted in this step, and associating the feature data so as to satisfy the constraint condition. Performing, and providing the data of the length of one location in the image data, and the three-dimensional space in which the measurement target is arranged from the associated feature data and the constraint between the image data. A perspective projection transformation matrix between each image data and the image plane is calculated, and the measurement pair is calculated from the perspective projection transformation matrix and the given length data. Characterized by comprising the step of restoring the three-dimensional shape of the object.
【0008】また、この発明に係る三次元形状復元シス
テムは、測定対象物を異なるアングルから撮像する1又
は複数の撮像手段と、この撮像手段からの複数の画像デ
ータを読み込んで記憶する画像記憶手段と、前記画像デ
ータ中の一個所の長さのデータを与える入力手段と、前
記画像記憶手段に記憶された複数の画像データのそれぞ
れから画像の特徴データを抽出する機能と、前記抽出さ
れた特徴データに基づいて画像データ間の拘束条件を算
出し、この拘束条件を満たすような前記特徴データの対
応付けを行う機能、前記対応付けされた特徴データと画
像データ間の拘束条件とから前記測定対象物が配置され
ている三次元空間と前記各画像データの画像面との間の
透視投影変換行列を算出し、この透視投影変換行列と前
記与えられた一個所の長さのデータとから前記測定対象
物の三次元形状を復元する機能とを有する演算処理手段
とを備えたことを特徴とする。Further, the three-dimensional shape restoration system according to the present invention is characterized in that one or a plurality of image pickup means for picking up an image of an object to be measured from different angles, and an image storage means for reading and storing a plurality of image data from the image pickup means. Input means for providing data of one length in the image data, a function of extracting characteristic data of an image from each of a plurality of image data stored in the image storage means, and the extracted characteristic A function of calculating a constraint condition between image data based on data, and associating the feature data so as to satisfy the constraint condition; Calculate a perspective projection transformation matrix between the three-dimensional space where the object is arranged and the image plane of each of the image data, and calculate the perspective projection transformation matrix and the given one Characterized by comprising a from the length of the data and processing means having a function to restore the three-dimensional shape of the measurement object.
【0009】本発明によれば、異なるアングルから撮像
された複数の画像データから抽出された特徴データに基
づいて画像データ間の拘束条件を算出し、この拘束条件
を満たすような前記特徴データの対応付けを行う。拘束
条件は、例えば安定した結果が得られるまで繰り返し計
算して求める。これにより、誤対応や精度の低い特徴デ
ータ間の対応付けを防止して、対応付けの精度を向上さ
せることができる。そして、画像データ中の一個所の長
さのデータを与え、前記対応付けされた特徴データと画
像データ間の拘束条件とから前記測定対象物が配置され
ている三次元空間と前記各画像データの画像面との間の
透視投影変換行列を算出し、この透視投影変換行列と前
記与えられた一個所の長さのデータとから前記測定対象
物の三次元形状を復元することで、精度良く三次元形状
を復元することができる。According to the present invention, a constraint condition between image data is calculated based on feature data extracted from a plurality of image data taken from different angles, and the correspondence of the feature data satisfying the constraint condition is calculated. Make the attachment. The constraint condition is obtained by repeatedly calculating, for example, until a stable result is obtained. As a result, it is possible to prevent erroneous correspondence and association between feature data with low accuracy, and improve the accuracy of association. Then, data of the length of one place in the image data is given, and from the associated feature data and the constraint condition between the image data, the three-dimensional space where the measurement object is arranged and the By calculating the perspective projection transformation matrix between the image plane and the perspective projection transformation matrix and the given one-piece length data, the three-dimensional shape of the measurement object is restored with high accuracy. The original shape can be restored.
【0010】本発明の好ましい実施形態によれば、前記
読み込まれた複数の画像データに対してカメラ校正パラ
メータに基づいて歪み補正を施すステップを備え、この
ステップで歪み補正された複数の画像データのそれぞれ
から画像の特徴データを抽出する。カメラ校正パラメー
タが未知の場合には、前記読み込まれた複数の画像デー
タから前記カメラ校正パラメータを算出するステップを
更に備えればよい。カメラ校正パラメータを算出するス
テップとしては、例えば前記読み込まれた複数の画像デ
ータから画像の特徴データを抽出するステップと、この
ステップで抽出された特徴データのうち画像データの中
心付近の特徴データに基づいて画像データ間の拘束条件
を算出し、この拘束条件を満たすような前記特徴データ
の対応付けを行うステップと、前記拘束条件からカメラ
内部パラメータを算出し、光学中心と前記対応付けられ
た特徴データとから各画像データについての透視投影変
換行列を求め、この透視投影変換行列と光学中心付近以
外の部分も含む対応付けされた特徴データとからレンズ
歪み補正係数を算出するステップとを備えるようにすれ
ばよい。According to a preferred embodiment of the present invention, the method further comprises the step of performing distortion correction on the plurality of read image data based on a camera calibration parameter. The feature data of the image is extracted from each. If the camera calibration parameters are unknown, the method may further include calculating the camera calibration parameters from the plurality of read image data. The steps of calculating the camera calibration parameters include, for example, extracting image feature data from the read plurality of image data, and based on feature data near the center of the image data among the feature data extracted in this step. Calculating a constraint condition between image data, and associating the feature data so as to satisfy the constraint condition; calculating a camera internal parameter from the constraint condition; Calculating a perspective projection transformation matrix for each image data from the image data, and calculating a lens distortion correction coefficient from the perspective projection transformation matrix and associated feature data including a portion other than the vicinity of the optical center. I just need.
【0011】また、前記画像データから抽出される特徴
データとしては、誤った特徴点を抽出しないように、好
ましくは前記画像データの濃淡が急激に変化するエッジ
の交差部分又はコーナー部分を示す特徴点データに加
え、前記画像データの濃淡が急激に変化するエッジを示
す特徴線分データを使用する。The feature data extracted from the image data is preferably a feature point indicating an intersection or a corner of an edge where the density of the image data changes rapidly so as not to extract an erroneous feature point. In addition to the data, feature line segment data indicating edges where the density of the image data changes rapidly is used.
【0012】本発明の更に好ましい実施態様によれば、
前記特徴データの対応付けを行うステップは、前記抽出
された特徴データについて前記複数の画像データ間で初
期の対応付けを行った後、画像データ間の拘束条件を算
出し、前記画像間の拘束条件を満たすような前記特徴デ
ータの対応付けを再度行い、前記拘束条件から求まる対
応データの位置と前記拘束条件によって対応付けられた
特徴データの位置とから画像間の対応の精度を評価し、
所定の精度が得られるまで前記拘束条件の算出と前記拘
束条件に基づく特徴データの対応付けとを繰り返すステ
ップである。According to a further preferred embodiment of the present invention,
The step of associating the feature data includes, after performing initial association between the plurality of pieces of image data with respect to the extracted feature data, calculating a constraint condition between the image data, Re-associating the feature data so as to satisfy, evaluate the accuracy of the correspondence between images from the position of the corresponding data obtained from the constraint condition and the position of the feature data associated by the constraint condition,
This is a step of repeating the calculation of the constraint condition and the association of the feature data based on the constraint condition until a predetermined accuracy is obtained.
【0013】[0013]
【発明の実施の形態】以下、図面を参照して、この発明
の実施例に係る三次元形状復元システムについて説明す
る。図1は、本発明の一実施例に係る三次元形状復元シ
ステムの構成を示すブロック図である。測定対象物1
は、カメラ2によって異なるアングルから撮像される。
最も典型的には複数台のカメラ21,22,…によって測
定対象物1を別の方向から撮像して複数の静止画像を得
る。但し1台のカメラ21を複数の位置に動かして測定
対象物1を異なるアングルから撮像して複数の静止画像
を得るようにしても良いし、測定対象物1自体が動く場
合には、1台のビデオカメラ21によって、測定対象物
1の動画像を得るようにしても良い。いずれにしても、
測定対象物1を異なるアングルから捉えた複数の画像が
得られれば良く、撮影形態としては種々の形態をとり得
る。このようにして得られた複数の静止画像又は動画像
(以下、これらをまとめて「複数の画像」と呼ぶ)は、
画像メモリ3に格納される。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a three-dimensional shape restoration system according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a three-dimensional shape restoration system according to one embodiment of the present invention. Measurement object 1
Are imaged by the camera 2 from different angles.
Obtain a plurality of still images captured most typically 2 multiple cameras in 1, 2 2, ... the measured object 1 from a different direction by. However by imaging from different angles of the measuring object 1 by moving 2 1 of one camera to a plurality of positions it may be to obtain a plurality of still images, when the measuring object 1 itself moves is 1 A video image of the measurement object 1 may be obtained by one video camera 21. In any case,
It is only necessary to obtain a plurality of images of the measurement object 1 from different angles, and various forms of photographing can be taken. The plurality of still images or moving images obtained in this manner (hereinafter, these are collectively referred to as “plural images”) are
It is stored in the image memory 3.
【0014】演算処理装置4は、画像メモリ3から複数
の画像を読み込み、これら画像からカメラ校正パラメー
タに基づいてカメラ2の歪みを除去した校正後画像を生
成し、この校正後画像から特徴点抽出、特徴間の対応付
け及び三次元形状の算出処理を実行する。ワークメモリ
5は、これらの処理の途中で得られる特徴点、線分、対
応点、対応線分等の中間的なデータを一時的に記憶する
のに使用される。外部記憶装置6は、カメラ校正パラメ
ータファイルや計測結果のファイル等を記憶する。入力
装置7は、三次元形状の算出処理に際して、画像中の一
個所の長さ等、必要なデータを入力するのに用いられ
る。表示装置8は、必要なデータの入力のため、読み込
まれた画像、抽出された特徴点及び対応付けされた特徴
点等を表示する。出力装置9は、計測結果等をプリント
アウトするのに使用される。The arithmetic processing unit 4 reads a plurality of images from the image memory 3, generates a calibrated image from which distortion of the camera 2 has been removed based on the camera calibration parameters, and extracts feature points from the calibrated image. , And a process of calculating a three-dimensional shape is performed. The work memory 5 is used to temporarily store intermediate data such as feature points, line segments, corresponding points, and corresponding line segments obtained during these processes. The external storage device 6 stores a camera calibration parameter file, a measurement result file, and the like. The input device 7 is used for inputting necessary data such as the length of one portion in an image in the calculation processing of the three-dimensional shape. The display device 8 displays a read image, extracted feature points, associated feature points, and the like for inputting necessary data. The output device 9 is used to print out a measurement result or the like.
【0015】次に、上記システムを用いた三次元形状復
元方法について説明する。いま、図2に示すように、測
定対象物1上の点の三次元空間における位置を、Next, a three-dimensional shape restoring method using the above system will be described. Now, as shown in FIG. 2, the position of a point on the measurement target 1 in a three-dimensional space is
【0016】[0016]
【数1】 (Equation 1)
【0017】とし、カメラ21の画像面S上における測
定対象物1の結像位置を、[0017] and then, the imaging position of the measurement object 1 in the camera 2 first image plane S,
【0018】[0018]
【数2】 (Equation 2)
【0019】とすると、ピンホールカメラモデルによる
両座標間の関係は、斉次座標を用いて次式のように表現
することができる。Then, the relationship between the two coordinates by the pinhole camera model can be expressed by the following equation using homogeneous coordinates.
【0020】[0020]
【数3】 (Equation 3)
【0021】但し、kは0でないスケールファクタ、P
はカメラ21を表現する3×4の透視投影変化行列であ
る。ここで、三次元空間上のカメラ2の姿勢をR、位置
をt、光軸Cが画像面Sを横切る点の画像面上での位置
を、Where k is a non-zero scale factor, P
Is a perspective projection changes a 3 × 4 matrix representing the camera 2 1. Here, the posture of the camera 2 in the three-dimensional space is R, the position is t, and the position on the image plane at which the optical axis C crosses the image plane S is
【0022】[0022]
【数4】 (Equation 4)
【0023】画像面S上の2軸u,νが空間上なす角を
θ、2軸方向の縮尺をku,kv、焦点距離をfとする
と、透視変換行列Pは次のように表すことが出来る。Assuming that the angle formed by the two axes u and ν on the image plane S in space is θ, the scale in the two-axis direction is k u , k v , and the focal length is f, the perspective transformation matrix P is expressed as follows. I can do it.
【0024】[0024]
【数5】 (Equation 5)
【0025】ここで、透視変換行列Pを表すf,ku,
kv,θ,u0,ν0をカメラの内部パラメータと呼ぶ。Here, f, ku , representing the perspective transformation matrix P,
k v , θ, u 0 , and v 0 are referred to as camera internal parameters.
【0026】(1)2枚の画像間から求まる拘束条件
(epipolar拘束) いま、第1のカメラ21の透視変換行列Pの第i行目を
aiとし、kを0でないスケールファクタとして、図3
に示すように、第1のカメラ21により空間上の点xが
画像面S1上に、次のように写っているとする。(1) Constraint condition obtained from two images (epipolar constraint) Now, let the i-th row of the perspective transformation matrix P of the first camera 21 be a i and k be a non-zero scale factor, FIG.
As shown in, x point on the space by the first camera 2 1 on the image plane S 1, and is reflected in the following manner.
【0027】[0027]
【数6】 (Equation 6)
【0028】同様に、第2のカメラ22の透視変換行列
Pの第i行目をbiとし、k′を0でないスケールファ
クタとして、第2のカメラ22により空間上の点xが画
像面S2上に、次のように写っているとする。[0028] Similarly, the i-th row of the second camera 2 2 perspective transformation matrix P and b i, the k 'as scale factor non-0, x point on the space by the second camera 2 2 image on the surface S 2, and is reflected in the following manner.
【0029】[0029]
【数7】 (Equation 7)
【0030】この2式をまとめると、To summarize these two equations,
【0031】[0031]
【数8】 (Equation 8)
【0032】となり、これが自明でない解を持つために
は左辺の6×6行列の行列式が0でなくてはならない。
この行列を計算し、画素位置についてまとめると、次の
式を得る。In order to have a non-trivial solution, the determinant of the 6 × 6 matrix on the left side must be 0.
When this matrix is calculated and the pixel positions are summarized, the following equation is obtained.
【0033】[0033]
【数9】 (Equation 9)
【0034】この式において行列Fをfundamental matr
ixと呼ぶ。In this equation, the matrix F is defined as a fundamental matr
Called ix.
【0035】(2)3枚の画像間から求まる拘束条件
(trilinear拘束) 上述した第1及び第2のカメラ21,22に加えて第3の
カメラ23の透視変換行列Pの第i行目をciとし、k″
を0でないスケールファクタとして、第3のカメラ23
により空間上の点xが画像面S上に、次のように写って
いるとする。[0035] (2) constraints determined between three images (trilinear constraint) the i perspective transformation matrix P of the first and second camera 2 1, 2 2 in addition third camera 2 3 above the row and c i, k "
As the non-zero scale factor, the third camera 2 3
Suppose that a point x in space is reflected on the image plane S as follows.
【0036】[0036]
【数10】 (Equation 10)
【0037】3つの式をまとめると、Summarizing the three equations,
【0038】[0038]
【数11】 [Equation 11]
【0039】となり、これが自明でない解を持つために
は左辺の6×7行列の階級(rank)は、高々6でなくて
はならない。よって、全ての7×7小行列の行列式は0
となる。ここで、小行列のとり方は全部で36通り存在
するが、その内訳は以下の通りである。In order for this to have a non-trivial solution, the rank of the 6 × 7 matrix on the left side must be at most 6. Therefore, the determinant of all 7 × 7 small matrices is 0
Becomes Here, there are a total of 36 ways to take a small matrix, the details of which are as follows.
【0040】2つのカメラの透視投影変換行列Pより
3行をとり、残りのカメラの透視投影変換行列Pより1
行とる(9通り)。 1つのカメラの透視投影変換行列Pより3行をとり、
残りのカメラの透視投影変換行列Pより2行ずつとる
(27通り)。Three rows are taken from the perspective projection transformation matrix P of the two cameras, and 1 row is taken from the perspective projection transformation matrix P of the remaining cameras.
Go (9 ways). Take three rows from the perspective projection transformation matrix P of one camera,
Two rows are taken from the perspective projection transformation matrix P of the remaining cameras (27 patterns).
【0041】の場合は2枚の画像間から求まる拘束条
件となる。また、3枚の画像間から新たに求まる拘束条
件はによる小行列の行列式で、これをtrilinear tens
orと呼ぶ。いま、7×7の小行列を、In this case, the constraint condition is determined between the two images. The constraint condition newly obtained from the three images is the determinant of the small matrix according to trilinear tens.
Call it or. Now, the 7 × 7 small matrix is
【0042】[0042]
【数12】 (Equation 12)
【0043】にとったとする。これを展開すると次のよ
うになる。Let us assume that When this is expanded, it becomes as follows.
【0044】[0044]
【数13】 (Equation 13)
【0045】但し、εijkは(i,j,k)が(1,
2,3)の偶置換により与えられるとき+1、奇置換に
より与えられるとき−1、それ以外は0、添え字x,y
は小行列を構成する際に取り込まれなかったカメラの透
視投影変換行列Pの行bx,cyを表す。これを、Where ε ijk is (i, j, k) is (1,
+1 when given by even permutation of 2,3), -1 when given by odd permutation, 0 otherwise, subscript x, y
Represents a line b x, c y of the camera perspective projection transformation matrix P unincorporated when configuring the submatrix. this,
【0046】[0046]
【数14】 [Equation 14]
【0047】と表すと、trilinear拘束は、次のように
表すことができる。Then, the trilinear constraint can be expressed as follows.
【0048】[0048]
【数15】 (Equation 15)
【0049】同様の方法で拘束条件を求めていこうとす
ると、容易に分かるように、5枚以上の画像からはもは
や新しい拘束条件が得られない。また、4枚の画像から
求まる拘束条件は、2枚及び3枚の画像から求まる拘束
条件で表せる。If it is attempted to determine the constraint conditions in the same manner, as will be easily understood, new constraint conditions can no longer be obtained from five or more images. In addition, a constraint condition obtained from four images can be expressed by a constraint condition obtained from two and three images.
【0050】三次元形状の復元の精度は、三次元空間に
配置された測定対象物1に含まれる特徴の、画像面S上
での結像位置を満たすべき拘束を与えるfundamental ma
trix又はtrilinear tensorを如何に精度良く推定するか
にかかっている。精度に影響を及ぼす要因としては、
特徴の抽出位置精度、特徴間の誤対応、解法の安定
性、カメラのレンズの歪みによる影響等が挙げられ
る。そこで、これらを考慮して次のような処理を実行す
る。The accuracy of the restoration of the three-dimensional shape is determined by a fundamental ma- terial that gives a constraint that satisfies the imaging position on the image plane S of the feature included in the measurement object 1 arranged in the three-dimensional space.
It depends on how accurately the trix or trilinear tensor is estimated. Factors that affect accuracy include:
The extraction position accuracy of the feature, the erroneous correspondence between the features, the stability of the solution, the influence of the distortion of the camera lens, and the like are given. Therefore, the following processing is executed in consideration of these.
【0051】図4は、この三次元形状復元処理のメイン
フローチャートである。まず、測定対象物1をカメラ2
で撮像した複数の画像を読み込む(S1)。読み込まれ
た画像の撮影に用いたカメラ2が過去に校正済みのカメ
ラかどうかを外部記憶装置6に格納されているカメラ校
正パラメータファイルを参照して判断し(S2)、もし
校正済みであれば、カメラ校正パラメータをファイルか
ら読み込む(S3)。また、校正済みでなければ、後述
する特徴抽出(S4)、画像間の対応付け(S5)及び
カメラ校正パラメータの算出(S6)を順次実行し、入
力画像を用いてカメラ校正パラメータを算出する。一度
算出したカメラ校正用パラメータは、コメント等と一緒
にファイルにして外部記憶装置6に保存しておけば、再
利用可能となる。よって、ステップS4〜S6は毎回行
う必要はない。FIG. 4 is a main flowchart of the three-dimensional shape restoration processing. First, the measurement object 1 is moved to the camera 2
A plurality of images picked up by are read (S1). It is determined whether the camera 2 used for capturing the read image has been calibrated in the past with reference to a camera calibration parameter file stored in the external storage device 6 (S2). Then, the camera calibration parameters are read from the file (S3). If calibration has not been completed, feature extraction (S4), association between images (S5), and calculation of camera calibration parameters (S6), which will be described later, are sequentially executed, and camera calibration parameters are calculated using the input image. The camera calibration parameters once calculated can be reused if they are stored in the external storage device 6 as a file together with comments and the like. Therefore, steps S4 to S6 do not need to be performed every time.
【0052】カメラの校正パラメータが求められたら、
次に入力画像とカメラ校正パラメータとからレンズ歪み
を取り除いた校正後画像データを作成する(S7)。こ
の歪みのない校正後画像データを用いて、画像上の特徴
を抽出し(S8)、画像間の対応付けを行う(S9)。
そして、カメラ校正パラメータと画像間の対応から、物
体の三次元形状を復元する(S10)。但し、この時点
では三次元空間上の位置関係が求まるだけで、実際の長
さを算出するには、画像中一個所の長さを入力する必要
がある。表示装置8に表示された画像中の一個所を入力
装置7から指定することにより、三次元形状を復元す
る。Once the camera calibration parameters have been determined,
Next, corrected image data is created by removing lens distortion from the input image and the camera calibration parameters (S7). Using the corrected image data without distortion, features on the image are extracted (S8), and the correspondence between the images is performed (S9).
Then, the three-dimensional shape of the object is restored from the correspondence between the camera calibration parameters and the images (S10). However, at this time, only the positional relationship in the three-dimensional space is obtained, and in order to calculate the actual length, it is necessary to input the length of one point in the image. By specifying one location in the image displayed on the display device 8 from the input device 7, the three-dimensional shape is restored.
【0053】次に、上記メインフローチャートにおける
主要な処理の詳細について説明する。図5は、図4のメ
インフローチャートにおける特徴抽出処理(S4)の詳
細を示すフローチャートである。まず、画像データから
画像濃淡値が急激に変化する方向が複数ある点をコーナ
ーとして検出する。これを特徴点データとして記憶する
(S11)。特徴点の抽出誤差は、量子化誤差や特徴抽
出アルゴリズムの性能に依存するが、抽出位置ずれがあ
ると、三次元形状を復元したときに大きな誤差となって
現れる。このため、例えば複数の特徴抽出アルゴリズム
を並列実行させて、明瞭な特徴のみを取り出すことが望
ましい。また、コーナー又は交差のみでは、オクルージ
ョン境界で見かけ上の特徴点を生ずることがあり問題が
ある。そこで、特徴点の抽出と並行して特徴線分も抽出
する。すなわち、画像データから画像濃淡値が急激に変
化する点列をエッジとして検出し(S12)、この中か
ら線分を検出し、これを線分データとして記憶する(S
13)。Next, details of main processing in the main flowchart will be described. FIG. 5 is a flowchart showing details of the feature extraction process (S4) in the main flowchart of FIG. First, a point having a plurality of directions in which the image density value changes rapidly from the image data is detected as a corner. This is stored as feature point data (S11). The feature point extraction error depends on the quantization error and the performance of the feature extraction algorithm, but if there is an extraction position shift, it appears as a large error when the three-dimensional shape is restored. Therefore, for example, it is desirable to execute a plurality of feature extraction algorithms in parallel to extract only clear features. Also, only corners or intersections may cause apparent feature points at occlusion boundaries, which is problematic. Therefore, a feature line segment is also extracted in parallel with the feature point extraction. That is, a point sequence in which the image density value changes abruptly is detected as an edge from the image data (S12), a line segment is detected from this, and this is stored as line data (S12).
13).
【0054】図6は、図4のメインフローチャートにお
ける画像間の対応付け(S5)の詳細を示すフローチャ
ートである。特徴点の誤対応は、異常データを生成して
fundamental matrix又はtrilineartensorの推定に悪影
響を及ぼすため、極力をこれを減らす必要がある。この
ため、まず、抽出された特徴点データより、初期対応と
して、特徴点近傍の画像の類似性と、隣接する特徴点間
ではその対応点も似たような位置にあるという類似性と
から、特徴点間の対応付けを行う(S21)。これと並
行して、線分データについても、線分パラメータの類似
性をもとに線分間の初期の対応付けを行う(S22)。
続いて、特徴点間又は線分間の対応から、画像間で満た
すべき拘束条件を算出する(S23)。この拘束条件
は、前述したように、2枚の画像間ではepipolar拘束、
3枚の画像間では、trilinear拘束を利用することがで
きる。FIG. 6 is a flowchart showing details of the association between images (S5) in the main flowchart of FIG. Incorrect feature points can be generated by generating abnormal data.
Since the estimation of the fundamental matrix or trilineartensor is adversely affected, it is necessary to reduce this as much as possible. For this reason, first, from the extracted feature point data, as the initial correspondence, the similarity of the image in the vicinity of the feature point and the similarity that the corresponding point is located at a similar position between adjacent feature points, Correlation between feature points is performed (S21). In parallel with this, the line segment data is also initially associated with the line segment based on the similarity of the line segment parameters (S22).
Subsequently, a constraint condition to be satisfied between the images is calculated from the correspondence between the feature points or the line segments (S23). As described above, this constraint condition is an epipolar constraint between two images,
A trilinear constraint can be used between the three images.
【0055】次に、各画像で抽出された特徴点データの
うち、算出された拘束条件を満たすような位置関係にあ
る特徴点データの組を対応点データとして選び出す(S
24)。同様に、線分データのうち拘束条件を満たすよ
うな位置関係にある特徴線分データの組を対応線分デー
タとして選び出す(S25)。ステップS23にて算出
した拘束条件から求まる対応データの位置と、これと対
応する画像上の特徴データの位置とが充分良く一致して
いるか、及び、特徴データのパラメータに類似性が見ら
れるかをもとに、画像間の対応の精度を評価する(S2
6)。この評価結果が所定値を超えるような充分に良い
精度で求まっていれば、対応点データ及び対応線分デー
タとしてこの結果を記憶する。そうでなければ、この結
果を用いて再度、拘束条件を算出し(S23)、評価結
果が所定値を超えるまでこれを繰り返す。Next, among the feature point data extracted from each image, a set of feature point data having a positional relationship satisfying the calculated constraint condition is selected as corresponding point data (S
24). Similarly, a set of characteristic line segment data having a positional relationship that satisfies the constraint condition among the line segment data is selected as corresponding line segment data (S25). It is determined whether the position of the corresponding data obtained from the constraint condition calculated in step S23 and the position of the corresponding feature data on the image match sufficiently well, and whether similarity is found in the feature data parameters. The accuracy of the correspondence between the images is evaluated based on (S2
6). If the evaluation result is obtained with sufficient accuracy so as to exceed a predetermined value, the result is stored as corresponding point data and corresponding line segment data. Otherwise, the constraint condition is calculated again using this result (S23), and this is repeated until the evaluation result exceeds a predetermined value.
【0056】次に、カメラ校正パラメータの算出につい
て説明する。図2の画像面S上で実際に得られる点をNext, calculation of camera calibration parameters will be described. The points actually obtained on the image plane S in FIG.
【0057】[0057]
【数16】 (Equation 16)
【0058】とすると、この点は、カメラ2のレンズ収
差歪みの影響を受けている。ここで補正分を、Then, this point is affected by lens aberration distortion of the camera 2. Here, the correction is
【0059】[0059]
【数17】 [Equation 17]
【0060】とすると、歪み補正後の点は、Then, the point after distortion correction is
【0061】[0061]
【数18】 (Equation 18)
【0062】と表すことができる。ここで、Can be expressed as here,
【0063】[0063]
【数19】 [Equation 19]
【0064】とすると、補正分は次のように表すことが
出来る。Then, the correction can be expressed as follows.
【0065】[0065]
【数20】 (Equation 20)
【0066】k1,p1,p2,s1,s2をレンズ歪み補
正係数と呼び、これをこれを先のカメラ内部パラメータ
と合わせてカメラ校正パラメータと呼ぶ。K 1 , p 1 , p 2 , s 1 , and s 2 are called lens distortion correction coefficients, which together with the camera internal parameters are called camera calibration parameters.
【0067】図7は、図4のメインフローチャートにお
けるカメラ校正パラメータの算出処理(S6)の詳細を
示すフローチャートである。一般に、レンズの歪みは、
光学中心(カメラの光軸と画像面の交点)から離れるほ
ど大きくなる。そこで、光学中心と画像面の中心があま
り離れていないと仮定し、画像の中心付近にある対応デ
ータのみを用いて、画像間の拘束条件を算出する(S3
1)。これは図6のステップS23にて計算したものと
同じである。次に、画像間の拘束条件より、光学中心や
焦点距離などのカメラ内部パラメータに関する方程式が
導ける。Kruppaの方程式として知られる方程式は、その
一つである。このような方程式を解いてカメラ内部パラ
メータを算出する(S32)。続いて算出した光学中心
と対応データとから前述した数5よって計算できる透視
投影変換行列Pを求め、この透視投影変換行列Pと光学
中心付近以外の部分も含む対応データとからレンズ歪み
補正係数を算出する(S33)。このステップS33で
算出されたレンズ歪み補正係数から、レンズ歪みのない
対応データを算出し(S34)、これを用いて画像間の
拘束条件を算出する(S35)。この拘束条件から解く
べき方程式を求め、カメラの内部パラメータを算出する
(S36)。そして、レンズ歪み補正係数及びカメラの
内部パラメータが充分良い精度で求まったかどうかを評
価し、求まったのであればこれをカメラ校正パラメータ
として記憶する。また、求まらなかったらステップS3
3に戻ってレンズ歪み補正係数の算出以降の処理を繰り
返す(S37)。FIG. 7 is a flowchart showing details of the camera calibration parameter calculation processing (S6) in the main flowchart of FIG. Generally, lens distortion is
The distance increases from the optical center (the intersection of the camera's optical axis and the image plane). Therefore, assuming that the optical center and the center of the image plane are not so far apart, the constraint condition between the images is calculated using only the corresponding data near the center of the image (S3).
1). This is the same as that calculated in step S23 in FIG. Next, equations relating to camera internal parameters such as the optical center and the focal length can be derived from the constraints between the images. One such equation is the Kruppa equation. The camera internal parameters are calculated by solving such an equation (S32). Subsequently, from the calculated optical center and the corresponding data, a perspective projection transformation matrix P, which can be calculated by the aforementioned equation 5, is obtained, and a lens distortion correction coefficient is calculated from the perspective projection transformation matrix P and the corresponding data including a portion other than the vicinity of the optical center. It is calculated (S33). Corresponding data without lens distortion is calculated from the lens distortion correction coefficient calculated in step S33 (S34), and the constraint condition between images is calculated using this (S35). An equation to be solved is obtained from the constraint conditions, and the internal parameters of the camera are calculated (S36). Then, it is evaluated whether or not the lens distortion correction coefficient and the camera's internal parameters have been obtained with sufficient accuracy, and if obtained, these are stored as camera calibration parameters. If not found, step S3
Returning to step S3, the processing after the calculation of the lens distortion correction coefficient is repeated (S37).
【0068】図4のメインフローチャートにおける歪み
なし画像データの生成ステップ(S7)では、図8に示
すように、カメラ校正パラメータを用いて画像データの
レンズ歪み補正(S41)を行い、歪みのない画像デー
タを作成する。図4のメインフローチャートにおける三
次元形状の算出処理(S10)では、図9のような処理
を実行する。対応点データ及び対応線データより算出さ
れる画像間の拘束条件とカメラ内部パラメータとからス
ケールの不定性を残して、透視投影変換行列Pを算出す
ることができる。そこで、まずこの透視投影変換行列P
を算出し(S51)、画像中、1個所の長さを入力装置
7から入力する(S52)。そして、この1個所の長さ
と透視投影変換行列Pとから物体の三次元形状を復元す
る(S53)。以上の処理により、精度良く三次元形状
を復元することができる。In the step of generating image data without distortion (S7) in the main flowchart of FIG. 4, as shown in FIG. 8, lens distortion correction of image data is performed using camera calibration parameters (S41), and an image without distortion is obtained. Create data. In the three-dimensional shape calculation process (S10) in the main flowchart of FIG. 4, a process as shown in FIG. 9 is executed. The perspective projection transformation matrix P can be calculated from the constraint conditions between images calculated from the corresponding point data and the corresponding line data and the camera internal parameters while leaving the scale uncertainty. Therefore, first, this perspective projection transformation matrix P
Is calculated (S51), and the length of one point in the image is input from the input device 7 (S52). Then, the three-dimensional shape of the object is restored from the length of the one portion and the perspective projection transformation matrix P (S53). By the above processing, the three-dimensional shape can be restored with high accuracy.
【0069】[0069]
【発明の効果】以上述べたようにこの発明によれば、異
なるアングルから撮像された複数の画像データから抽出
された特徴データに基づいて画像データ間の拘束条件を
算出し、この拘束条件を満たすような前記特徴データの
対応付けを行い、画像データ中の一個所の長さのデータ
を与え、前記対応付けされた特徴データと画像データ間
の拘束条件とから前記測定対象物が配置されている三次
元空間と前記各画像データの画像面との間の透視投影変
換行列を算出し、この透視投影変換行列と前記与えられ
た一個所の長さのデータとから前記測定対象物の三次元
形状を復元するようにしているので、誤対応や精度の低
い特徴データ間の対応付けを防止して、対応付けの精度
を向上させることができ、精度良く三次元形状を復元す
ることができるという効果を奏する。As described above, according to the present invention, a constraint condition between image data is calculated based on feature data extracted from a plurality of image data captured from different angles, and the constraint condition is satisfied. The feature data is correlated as described above, data of a length of one place in the image data is given, and the measurement object is arranged based on the correlated feature data and the constraint condition between the image data. A perspective projection transformation matrix between the three-dimensional space and the image plane of each of the image data is calculated, and the three-dimensional shape of the object to be measured is calculated from the perspective projection transformation matrix and the given length data. Therefore, it is possible to prevent erroneous correspondence or association between feature data having low accuracy, improve the accuracy of the association, and accurately restore the three-dimensional shape. Achieve the cormorant effect.
【図1】 この発明の一実施例に係る三次元形状復元シ
ステムの構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a three-dimensional shape restoration system according to an embodiment of the present invention.
【図2】 本発明に係る三次元形状復元方法におけるカ
メラの透視投影変換行列を説明するための図である。FIG. 2 is a diagram for explaining a perspective projection transformation matrix of a camera in the three-dimensional shape restoration method according to the present invention.
【図3】 同復元方法における特徴点の対応付けを説明
するための図である。FIG. 3 is a diagram for explaining association of feature points in the restoration method.
【図4】 同復元方法の一実施例を示すメインフローチ
ャートである。FIG. 4 is a main flowchart showing one embodiment of the restoration method.
【図5】 同メインフローチャートにおける特徴抽出処
理のフローチャートである。FIG. 5 is a flowchart of a feature extraction process in the main flowchart.
【図6】 同メインフローチャートにおける画像間の対
応付け処理を示すフローチャートである。FIG. 6 is a flowchart showing a process for associating images in the main flowchart.
【図7】 同メインフローチャートにおけるカメラ校正
パラメータの算出処理のフローチャートである。FIG. 7 is a flowchart of a camera calibration parameter calculation process in the main flowchart.
【図8】 同メインフローチャートにおけるレンズ歪み
補正処理のフローチャートである。FIG. 8 is a flowchart of a lens distortion correction process in the main flowchart.
【図9】 同メインフローチャートにおける三次元形状
算出処理のフローチャートである。FIG. 9 is a flowchart of a three-dimensional shape calculation process in the main flowchart.
1…測定対象物、21,22…カメラ、3…画像メモリ、
4…演算処理装置、5…ワークメモリ、6…外部記憶装
置、7…入力装置、8…表示装置、9…出力装置。1 ... measurement object, 2 1 , 2 2 ... camera, 3 ... image memory,
4 arithmetic processing device, 5 work memory, 6 external storage device, 7 input device, 8 display device, 9 output device.
フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) // G01C 3/06 G01B 11/24 N (72)発明者 定広 真一 北海道札幌市北区北7条西1丁目1番2号 株式会社システムテクノロジーインステ ィテュート内 (72)発明者 辻村 直久 北海道札幌市北区北7条西1丁目1番2号 株式会社システムテクノロジーインステ ィテュート内 Fターム(参考) 2F065 AA53 BB05 EE00 EE08 FF05 JJ03 JJ05 JJ19 JJ26 QQ00 QQ03 QQ23 QQ24 QQ28 QQ38 QQ41 SS02 SS06 SS13 2F112 AC02 AC06 BA06 CA08 CA12 FA03 FA21 FA38 FA45 5B057 AA20 BA02 CA12 CA16 CB13 CB16 CD12 DA07 DB02 DC05 DC32 5L096 CA05 EA07 FA03 FA09 FA22 FA69 HA01 JA11 Continued on the front page (51) Int.Cl. 7 Identification FI FI Theme Court II (Reference) // G01C 3/06 G01B 11/24 N (72) Inventor Shinichi Sadahiro 1-1-1 Kita 7-Nishi, Kita-ku, Sapporo, Hokkaido No. 2 System Technology Institute, Inc. (72) Inventor Naohisa Tsujimura 1-2-1, Kita 7-Jo Nishi, Kita-ku, Sapporo-shi, Hokkaido F-term (Reference) 2F065 AA53 BB05 EE00 EE08 FF05 JJ03 JJ05 JJ19 JJ26 QQ00 QQ03 QQ23 QQ24 QQ28 QQ38 QQ41 SS02 SS06 SS13 2F112 AC02 AC06 BA06 CA08 CA12 FA03 FA21 FA38 FA45 5B057 AA20 BA02 CA12 CA16 CB13 CB16 CD12 DA07 DB02 DC05 DC32 5L0969 FA09 FA09 FA01 FA01 FA07
Claims (6)
て得られた複数の画像データを読み込むステップと、 読み込まれた複数の画像データのそれぞれから画像の特
徴データを抽出するステップと、 このステップで抽出された特徴データに基づいて画像デ
ータ間の拘束条件を算出し、この拘束条件を満たすよう
な前記特徴データの対応付けを行うステップと、 前記画像データ中の一個所の長さのデータを与えるステ
ップと、 前記対応付けされた特徴データと画像データ間の拘束条
件とから前記測定対象物が配置されている三次元空間と
前記各画像データの画像面との間の透視投影変換行列を
算出し、この透視投影変換行列と前記与えられた一個所
の長さのデータとから前記測定対象物の三次元形状を復
元するステップとを備えたことを特徴とする三次元形状
復元方法。A step of reading a plurality of image data obtained by imaging a measurement object from different angles; a step of extracting feature data of an image from each of the plurality of read image data; Calculating a constraint condition between the image data based on the extracted feature data, and associating the feature data so as to satisfy the constraint condition; and providing data of a length of one portion in the image data Calculating a perspective projection transformation matrix between the three-dimensional space in which the object to be measured is located and the image plane of each image data from the associated feature data and the constraint condition between the image data. Restoring the three-dimensional shape of the measurement object from the perspective projection transformation matrix and the given length data. Three-dimensional shape reconstruction how to.
て得られた複数の画像データを読み込むステップと、 読み込まれた複数の画像データに対してカメラ校正パラ
メータに基づいて歪み補正を施すステップと、 このステップで歪み補正された複数の画像データのそれ
ぞれから画像の特徴データを抽出するステップと、 このステップで抽出された特徴データに基づいて画像デ
ータ間の拘束条件を算出し、この拘束条件を満たすよう
な前記特徴データの対応付けを行うステップと、 前記画像データ中の一個所の長さのデータを与えるステ
ップと、 前記対応付けされた特徴データと画像データ間の拘束条
件とから前記測定対象物が配置されている三次元空間と
前記各画像データの画像面との間の透視投影変換行列を
算出し、この透視投影変換行列と前記与えられた一個所
の長さのデータとから前記測定対象物の三次元形状を復
元するステップとを備えたことを特徴とする三次元形状
復元方法。2. A step of reading a plurality of image data obtained by imaging an object to be measured from different angles; a step of performing distortion correction on the plurality of read image data based on a camera calibration parameter; Extracting the feature data of the image from each of the plurality of image data having undergone the distortion correction in this step; calculating a constraint condition between the image data based on the feature data extracted in this step; satisfying the constraint condition Associating the characteristic data as described above, providing a length data at one position in the image data, and the constraint condition between the associated characteristic data and the image data. Is calculated, and a perspective projection transformation matrix between the three-dimensional space in which is disposed and the image plane of each image data is calculated. Three-dimensional shape restoring method characterized by comprising the step of restoring the three-dimensional shape of the measurement object from the length of the data in one place given the a.
前記カメラ校正パラメータを算出するステップを更に備
え、 前記カメラ校正パラメータを算出するステップは、 前記読み込まれた複数の画像データから画像の特徴デー
タを抽出するステップと、 このステップで抽出された特徴データのうち画像データ
の中心付近の特徴データに基づいて画像データ間の拘束
条件を算出し、この拘束条件を満たすような前記特徴デ
ータの対応付けを行うステップと、 前記拘束条件からカメラ内部パラメータを算出し、光学
中心と前記対応付けられた特徴データとから各画像デー
タについての透視投影変換行列を求め、この透視投影変
換行列と光学中心付近以外の部分も含む対応付けされた
特徴データとからレンズ歪み補正係数を算出するステッ
プとを備えたことを特徴とする請求項2記載の三次元形
状復元方法。3. The method according to claim 1, further comprising: calculating the camera calibration parameter from the plurality of read image data; and calculating the camera calibration parameter from the read plurality of image data. Extracting, calculating constraint conditions between the image data based on the feature data near the center of the image data among the feature data extracted in this step, and associating the feature data so as to satisfy the constraint conditions. Performing, calculating a camera internal parameter from the constraint condition, obtains a perspective projection transformation matrix for each image data from the optical center and the associated feature data, and calculates a perspective projection transformation matrix and other than the vicinity of the optical center. Calculating a lens distortion correction coefficient from the associated feature data including the portion. Three-dimensional shape restoration method according to claim 2, wherein a has.
タは、前記画像データの濃淡が急激に変化するエッジの
交差部分又はコーナー部分を示す特徴点データと前記画
像データの濃淡が急激に変化するエッジを示す特徴線分
データであることを特徴とする請求項1〜3のいずれか
1項記載の三次元形状復元方法。4. The feature data extracted from the image data includes: a feature point data indicating an intersection or a corner of an edge where the density of the image data changes rapidly; and an edge where the density of the image data changes rapidly. The three-dimensional shape restoration method according to any one of claims 1 to 3, wherein the characteristic line segment data indicates the following.
プは、前記抽出された特徴データについて前記複数の画
像データ間で初期の対応付けを行った後、画像データ間
の拘束条件を算出し、前記画像間の拘束条件を満たすよ
うな前記特徴データの対応付けを再度行い、前記拘束条
件から求まる対応データの位置と前記拘束条件によって
対応付けられた特徴データの位置とから画像間の対応の
精度を評価し、所定の精度が得られるまで前記拘束条件
の算出と前記拘束条件に基づく特徴データの対応付けと
を繰り返すステップであることを特徴とする請求項1〜
4のいずれか1項記載の三次元形状復元方法。5. The step of associating the feature data includes, after associating the extracted feature data with the plurality of image data, calculating a constraint condition between the image data, The correspondence of the feature data that satisfies the constraint condition between the images is performed again, and the accuracy of the correspondence between the images is determined based on the position of the corresponding data obtained from the constraint condition and the position of the feature data associated with the constraint condition. A step of repeating the calculation of the constraint condition and the association of the feature data based on the constraint condition until a predetermined accuracy is obtained.
5. The method for restoring a three-dimensional shape according to claim 4.
る1又は複数の撮像手段と、 この撮像手段からの複数の画像データを読み込んで記憶
する画像記憶手段と、 前記画像データ中の一個所の長さのデータを与える入力
手段と、 前記画像記憶手段に記憶された複数の画像データのそれ
ぞれから画像の特徴データを抽出する機能と、前記抽出
された特徴データに基づいて画像データ間の拘束条件を
算出し、この拘束条件を満たすような前記特徴データの
対応付けを行う機能、前記対応付けされた特徴データと
画像データ間の拘束条件とから前記測定対象物が配置さ
れている三次元空間と前記各画像データの画像面との間
の透視投影変換行列を算出し、この透視投影変換行列と
前記与えられた一個所の長さのデータとから前記測定対
象物の三次元形状を復元する機能とを有する演算処理手
段とを備えたことを特徴とする三次元形状復元システ
ム。6. One or a plurality of image pickup means for picking up an image of an object to be measured from different angles; an image storage means for reading and storing a plurality of image data from the image pickup means; Input means for providing data of the image data, a function of extracting feature data of an image from each of the plurality of image data stored in the image storage means, and a constraint condition between the image data based on the extracted feature data. The function of calculating and associating the feature data so as to satisfy the constraint condition, the three-dimensional space in which the measurement object is arranged from the associated feature data and the constraint condition between the image data and the A perspective projection transformation matrix between each image data and the image plane is calculated, and the three-dimensional object of the measurement object is calculated from the perspective projection transformation matrix and the given length data. A three-dimensional shape restoration system, comprising: an arithmetic processing unit having a function of restoring a shape.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000302937A JP4372328B2 (en) | 2000-10-02 | 2000-10-02 | Three-dimensional shape restoration method and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000302937A JP4372328B2 (en) | 2000-10-02 | 2000-10-02 | Three-dimensional shape restoration method and system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002109518A true JP2002109518A (en) | 2002-04-12 |
JP4372328B2 JP4372328B2 (en) | 2009-11-25 |
Family
ID=18784212
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000302937A Expired - Fee Related JP4372328B2 (en) | 2000-10-02 | 2000-10-02 | Three-dimensional shape restoration method and system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4372328B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005332177A (en) * | 2004-05-19 | 2005-12-02 | Etsuji Kitagawa | 3D information processing apparatus, 3D information processing method, and 3D information processing program |
JP2006052975A (en) * | 2004-08-10 | 2006-02-23 | Nikon Corp | Binocular vision apparatus |
JP2007132715A (en) * | 2005-11-08 | 2007-05-31 | Univ Chuo | Three-dimensional measurement method, measurement apparatus, restoration method, and restoration apparatus |
JP2007147457A (en) * | 2005-11-28 | 2007-06-14 | Topcon Corp | Three-dimensional shape calculation device and three-dimensional shape calculation method |
JP2009109322A (en) * | 2007-10-30 | 2009-05-21 | National Institute Of Information & Communication Technology | Camera, camera array and camera array system |
US7659921B2 (en) | 2003-05-19 | 2010-02-09 | Honda Motor Co., Ltd. | Distance measurement apparatus, distance measurement method, and distance measurement program |
US8805084B2 (en) | 2011-12-13 | 2014-08-12 | Fuji Xerox Co., Ltd. | Image processing apparatus, image processing method, and non-transitory computer readable medium storing program |
US10127687B2 (en) | 2014-11-13 | 2018-11-13 | Olympus Corporation | Calibration device, calibration method, optical device, image-capturing device, projection device, measuring system, and measuring method |
US10410054B2 (en) | 2016-10-24 | 2019-09-10 | Fujitsu Limited | Image processing device, method and program to align two images |
US11321861B2 (en) | 2017-05-23 | 2022-05-03 | Olympus Corporation | Method of operating measurement device, measurement device, measurement system, three-dimensional shape restoration device, and recording medium |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7045963B2 (en) | 2018-08-30 | 2022-04-01 | オリンパス株式会社 | How to operate the measuring device, measuring device, and program |
-
2000
- 2000-10-02 JP JP2000302937A patent/JP4372328B2/en not_active Expired - Fee Related
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7659921B2 (en) | 2003-05-19 | 2010-02-09 | Honda Motor Co., Ltd. | Distance measurement apparatus, distance measurement method, and distance measurement program |
JP2005332177A (en) * | 2004-05-19 | 2005-12-02 | Etsuji Kitagawa | 3D information processing apparatus, 3D information processing method, and 3D information processing program |
JP2006052975A (en) * | 2004-08-10 | 2006-02-23 | Nikon Corp | Binocular vision apparatus |
JP2007132715A (en) * | 2005-11-08 | 2007-05-31 | Univ Chuo | Three-dimensional measurement method, measurement apparatus, restoration method, and restoration apparatus |
JP2007147457A (en) * | 2005-11-28 | 2007-06-14 | Topcon Corp | Three-dimensional shape calculation device and three-dimensional shape calculation method |
JP2009109322A (en) * | 2007-10-30 | 2009-05-21 | National Institute Of Information & Communication Technology | Camera, camera array and camera array system |
US8805084B2 (en) | 2011-12-13 | 2014-08-12 | Fuji Xerox Co., Ltd. | Image processing apparatus, image processing method, and non-transitory computer readable medium storing program |
US10127687B2 (en) | 2014-11-13 | 2018-11-13 | Olympus Corporation | Calibration device, calibration method, optical device, image-capturing device, projection device, measuring system, and measuring method |
US10410054B2 (en) | 2016-10-24 | 2019-09-10 | Fujitsu Limited | Image processing device, method and program to align two images |
US11321861B2 (en) | 2017-05-23 | 2022-05-03 | Olympus Corporation | Method of operating measurement device, measurement device, measurement system, three-dimensional shape restoration device, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP4372328B2 (en) | 2009-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110568447B (en) | Visual positioning method, device and computer readable medium | |
US8452081B2 (en) | Forming 3D models using multiple images | |
US8447099B2 (en) | Forming 3D models using two images | |
EP1596330B1 (en) | Estimating position and orientation of markers in digital images | |
JP2005326247A (en) | Calibration apparatus, calibration method, and calibration program | |
WO2020038386A1 (en) | Determination of scale factor in monocular vision-based reconstruction | |
JP2013186816A (en) | Moving image processor, moving image processing method and program for moving image processing | |
JP2002024807A (en) | Object motion tracking method and recording medium | |
JP2004235934A (en) | Calibration processor, calibration processing method, and computer program | |
JP7427467B2 (en) | Image processing device, image processing method, trained model generation method, and program | |
JP2961264B1 (en) | Three-dimensional object model generation method and computer-readable recording medium recording three-dimensional object model generation program | |
CN112802186B (en) | Real-time 3D reconstruction method of dynamic scene based on binary feature code matching | |
JP2001067463A (en) | Device and method for generating facial picture from new viewpoint based on plural facial pictures different in viewpoint, its application device and recording medium | |
JP2018173882A (en) | Information processing apparatus, method, and program | |
JP2002109518A (en) | Three-dimensional shape restoring method and system therefor | |
CN113658279A (en) | Camera internal parameter and external parameter estimation method and device, computer equipment and storage medium | |
JP5998532B2 (en) | Correction formula calculation method, correction method, correction apparatus, and imaging apparatus | |
JP2000268179A (en) | Three-dimensional shape information obtaining method and device, two-dimensional picture obtaining method and device and record medium | |
CN110567441A (en) | Particle filter-based positioning method, positioning device, mapping and positioning method | |
CN112634377B (en) | Camera calibration method, terminal and computer readable storage medium of sweeping robot | |
CN112132971A (en) | Three-dimensional human body modeling method, device, electronic equipment and storage medium | |
JP2007034985A (en) | Information processing method and apparatus | |
KR100944293B1 (en) | Efficient Omnidirectional 3D Model Reconstruction from Single Axis Rotated Images | |
CN113642397A (en) | Object length measuring method based on mobile phone video | |
CN110232715B (en) | Method, device and system for self calibration of multi-depth camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060530 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090409 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090421 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090618 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090811 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090902 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120911 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4372328 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120911 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150911 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |