+

JP2002109518A - Three-dimensional shape restoring method and system therefor - Google Patents

Three-dimensional shape restoring method and system therefor

Info

Publication number
JP2002109518A
JP2002109518A JP2000302937A JP2000302937A JP2002109518A JP 2002109518 A JP2002109518 A JP 2002109518A JP 2000302937 A JP2000302937 A JP 2000302937A JP 2000302937 A JP2000302937 A JP 2000302937A JP 2002109518 A JP2002109518 A JP 2002109518A
Authority
JP
Japan
Prior art keywords
data
image data
image
constraint condition
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000302937A
Other languages
Japanese (ja)
Other versions
JP4372328B2 (en
Inventor
Soichi Kadowaki
聰一 門脇
Kozo Umeda
幸蔵 梅田
Shinichi Sadahiro
真一 定広
Naohisa Tsujimura
直久 辻村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitutoyo Corp
Mitsutoyo Kiko Co Ltd
Original Assignee
Mitutoyo Corp
Mitsutoyo Kiko Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitutoyo Corp, Mitsutoyo Kiko Co Ltd filed Critical Mitutoyo Corp
Priority to JP2000302937A priority Critical patent/JP4372328B2/en
Publication of JP2002109518A publication Critical patent/JP2002109518A/en
Application granted granted Critical
Publication of JP4372328B2 publication Critical patent/JP4372328B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional shape restoring method and a system therefor capable of restoring a correct three-dimensional shape by preventing degradation of estimation accuracy based on mistaken correspondence, etc., between characteristic data. SOLUTION: A plurality of images of an object picked up by a camera are read (S1). Whether or not the camera used in picking up the images is calibrated is determined (S2), and if it is calibrated, the camera calibration parameters are read (S3). Unless it is calibrated, characteristics are extracted (S4), the images are corresponded to each other (S5) and the camera calibration parameters are calculated (S6), successively to calculate the camera calibration parameters. Next, post-calibration image data excluding the lens distortion is prepared from the input image and the camera calibration parameters (S7). The characteristics on the images are extracted by using the post-calibration image data having no distortion (S8), and the images are corresponded to each other (S9). The three-dimensional shape is restored based on the camera calibration parameters and the correspondence between images by giving the length of a part in the image (S10).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、複数枚の静止画
像又は動画像から測定対象物の三次元形状を計測する三
次元形状復元システム及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional shape restoration system and method for measuring a three-dimensional shape of an object to be measured from a plurality of still images or moving images.

【0002】[0002]

【従来の技術】画像計測は、ビル・プラント等の大型構
造物の寸法、形状、変位測定、工業部品の非接触測定や
コンピュータグラフィックスを用いて仮想的な映像を作
成する上でのモデルデータの入力等、その応用分野は多
岐にわたる。近年、複数枚の画像或いは動画像から物体
形状を復元するシステムが種々提案されている。例え
ば、特開平9−212643号では、入力画像から得ら
れる対象物体の輪郭、凹凸、模様等の特徴を直線、円弧
等で近似したステレオ計測による三次元位置データを有
する特徴パターンと、対象物体のモデルの特徴データと
のマッチングをとることで、対象物体の三次元形状を認
識する三次元物体認識方法が開示されている。この方法
では、測定対象のモデルのデータを予め用意しておかな
くてはならないため、測定対象が予め既知のものに特定
される。
2. Description of the Related Art Image measurement is the measurement of dimensions, shapes and displacements of large structures such as buildings and plants, non-contact measurement of industrial parts, and model data for creating virtual images using computer graphics. There are a wide variety of application fields, such as the input of "". In recent years, various systems for restoring an object shape from a plurality of images or moving images have been proposed. For example, in Japanese Patent Application Laid-Open No. 9-212463, a feature pattern having three-dimensional position data obtained by stereo measurement in which features such as contours, irregularities, and patterns of a target object obtained from an input image are approximated by straight lines, arcs, and the like, A three-dimensional object recognition method for recognizing a three-dimensional shape of a target object by matching with feature data of a model is disclosed. In this method, since the data of the model to be measured must be prepared in advance, the measurement target is specified in advance as a known one.

【0003】特開平10−228542号に開示された
三次元計測方法は、複数の部位から撮影された画像の輪
郭の特徴を用いて特徴点のマッチング処理を行って測定
対象の三次元形状を推定する。この方法は、互いに平行
な光軸を持ち、カメラの相対位置方向が水平方向及び垂
直方向に並設された少なくとも3台のカメラを用いなく
てはならず、カメラを正確に位置決めするための器具が
必要となる。また、特開平10−318715号及び特
開平318732号に開示された三次元計測装置では、
予め位置関係が分かっている特徴パターン像に基づいて
複数の画像データの対応付けを行う。このため、特徴パ
ターンを生成するための手段を必要とする。
A three-dimensional measurement method disclosed in Japanese Patent Application Laid-Open No. 10-228542 estimates a three-dimensional shape of a measurement target by performing feature point matching processing using contour features of images photographed from a plurality of parts. I do. This method requires the use of at least three cameras having optical axes parallel to each other and the relative positions of the cameras being arranged side by side in a horizontal direction and a vertical direction, and an apparatus for accurately positioning the cameras. Is required. Further, in the three-dimensional measuring device disclosed in JP-A-10-318715 and JP-A-3181872,
A plurality of image data are associated with each other based on a characteristic pattern image whose positional relationship is known in advance. Therefore, a means for generating a characteristic pattern is required.

【0004】一方、この種の画像計測では、撮像手段で
あるカメラのレンズ歪みが計測精度に影響を与える。レ
ンズ歪みの補正に関しては、特開平11−230745
号に記載があるが、歪み補正のための補正係数は、予め
レンズメーカにより入手するか別途計測する必要があ
る。これに対し、キャリブレーションされていない市販
のカメラやビデオカメラを用い、任意の位置から撮像し
て得られた複数の画像データから、画像上の2点間の距
離を指定するだけで、物体の三次元形状を復元すること
ができるシステムも種々提案されている(Q-T Luong an
d T.Vieville, Canonic Representation forthe Geomet
ries of Multiple Projective Views, Technical Repor
t UCB/CSD 93/772, EECS, U.C.Berkeley, 1993 その
他)。
On the other hand, in this type of image measurement, a lens distortion of a camera as an image pickup means affects measurement accuracy. Japanese Patent Application Laid-Open No. 11-230745 describes correction of lens distortion.
However, the correction coefficient for distortion correction must be obtained in advance by a lens manufacturer or separately measured. On the other hand, by specifying a distance between two points on an image from a plurality of image data obtained by imaging from an arbitrary position using a commercially available camera or video camera that has not been calibrated, Various systems that can restore a three-dimensional shape have been proposed (QT Luong an
d T. Vieville, Canonic Representation for the Geomet
ries of Multiple Projective Views, Technical Repor
t UCB / CSD 93/772, EECS, UCBerkeley, 1993 and others).

【0005】[0005]

【発明が解決しようとする課題】上述した従来の三次元
形状復元システムでは、複数の画像データ間で対応する
特徴データを対応データとして関連付け、この関連を元
に三次元形状を復元していくことを基本としている。特
徴データは、手動で対応付けるか、特徴データ間の類似
性に基づいてシステムが自動で対応付ける。しかし、こ
のような従来のシステムでは、特徴データの抽出精度や
誤った対応付けの発生により、三次元形状の推定精度を
低下させるという問題がある。例えば、特開2000−
74641号に開示されたものは、撮像時の撮像装置に
関する情報がない画像から撮像シーンの三次元形状を抽
出する手法を開示しているが、特徴点の対応付けに関す
る精度向上について何等言及されていない。
In the above-described conventional three-dimensional shape restoration system, corresponding feature data among a plurality of image data is associated as corresponding data, and the three-dimensional shape is restored based on this association. It is based on The feature data is associated manually or automatically by the system based on the similarity between the feature data. However, such a conventional system has a problem that the accuracy of extracting three-dimensional shapes is reduced due to the extraction accuracy of feature data and the occurrence of incorrect association. For example, JP-A-2000-
No. 74641 discloses a technique for extracting a three-dimensional shape of an imaged scene from an image having no information on an imaging device at the time of imaging, but mentions nothing about improving the accuracy of associating feature points. Absent.

【0006】この発明は、このような点に鑑みなされた
もので、特徴データ間の誤対応等に基づく推定精度の低
下を防止して、正確な三次元形状の復元が可能な三次元
形状復元方法及びシステムを提供することを目的とす
る。
SUMMARY OF THE INVENTION The present invention has been made in view of the above points, and prevents a decrease in estimation accuracy based on an erroneous correspondence between feature data and the like, and enables a three-dimensional shape restoration capable of accurate three-dimensional shape restoration. It is intended to provide a method and a system.

【0007】[0007]

【課題を解決するための手段】この発明に係る第1の三
次元形状復元方法は、測定対象物を異なるアングルから
撮像して得られた複数の画像データを読み込むステップ
と、読み込まれた複数の画像データのそれぞれから画像
の特徴データを抽出するステップと、このステップで抽
出された特徴データに基づいて画像データ間の拘束条件
を算出し、この拘束条件を満たすような前記特徴データ
の対応付けを行うステップと、前記画像データ中の一個
所の長さのデータを与えるステップと、前記対応付けさ
れた特徴データと画像データ間の拘束条件とから前記測
定対象物が配置されている三次元空間と前記各画像デー
タの画像面との間の透視投影変換行列を算出し、この透
視投影変換行列と前記与えられた一個所の長さのデータ
とから前記測定対象物の三次元形状を復元するステップ
とを備えたことを特徴とする。
A first three-dimensional shape restoring method according to the present invention includes a step of reading a plurality of image data obtained by capturing an image of an object to be measured from different angles; Extracting the feature data of the image from each of the image data, calculating a constraint condition between the image data based on the feature data extracted in this step, and associating the feature data so as to satisfy the constraint condition. Performing, and providing the data of the length of one location in the image data, and the three-dimensional space in which the measurement target is arranged from the associated feature data and the constraint between the image data. A perspective projection transformation matrix between each image data and the image plane is calculated, and the measurement pair is calculated from the perspective projection transformation matrix and the given length data. Characterized by comprising the step of restoring the three-dimensional shape of the object.

【0008】また、この発明に係る三次元形状復元シス
テムは、測定対象物を異なるアングルから撮像する1又
は複数の撮像手段と、この撮像手段からの複数の画像デ
ータを読み込んで記憶する画像記憶手段と、前記画像デ
ータ中の一個所の長さのデータを与える入力手段と、前
記画像記憶手段に記憶された複数の画像データのそれぞ
れから画像の特徴データを抽出する機能と、前記抽出さ
れた特徴データに基づいて画像データ間の拘束条件を算
出し、この拘束条件を満たすような前記特徴データの対
応付けを行う機能、前記対応付けされた特徴データと画
像データ間の拘束条件とから前記測定対象物が配置され
ている三次元空間と前記各画像データの画像面との間の
透視投影変換行列を算出し、この透視投影変換行列と前
記与えられた一個所の長さのデータとから前記測定対象
物の三次元形状を復元する機能とを有する演算処理手段
とを備えたことを特徴とする。
Further, the three-dimensional shape restoration system according to the present invention is characterized in that one or a plurality of image pickup means for picking up an image of an object to be measured from different angles, and an image storage means for reading and storing a plurality of image data from the image pickup means. Input means for providing data of one length in the image data, a function of extracting characteristic data of an image from each of a plurality of image data stored in the image storage means, and the extracted characteristic A function of calculating a constraint condition between image data based on data, and associating the feature data so as to satisfy the constraint condition; Calculate a perspective projection transformation matrix between the three-dimensional space where the object is arranged and the image plane of each of the image data, and calculate the perspective projection transformation matrix and the given one Characterized by comprising a from the length of the data and processing means having a function to restore the three-dimensional shape of the measurement object.

【0009】本発明によれば、異なるアングルから撮像
された複数の画像データから抽出された特徴データに基
づいて画像データ間の拘束条件を算出し、この拘束条件
を満たすような前記特徴データの対応付けを行う。拘束
条件は、例えば安定した結果が得られるまで繰り返し計
算して求める。これにより、誤対応や精度の低い特徴デ
ータ間の対応付けを防止して、対応付けの精度を向上さ
せることができる。そして、画像データ中の一個所の長
さのデータを与え、前記対応付けされた特徴データと画
像データ間の拘束条件とから前記測定対象物が配置され
ている三次元空間と前記各画像データの画像面との間の
透視投影変換行列を算出し、この透視投影変換行列と前
記与えられた一個所の長さのデータとから前記測定対象
物の三次元形状を復元することで、精度良く三次元形状
を復元することができる。
According to the present invention, a constraint condition between image data is calculated based on feature data extracted from a plurality of image data taken from different angles, and the correspondence of the feature data satisfying the constraint condition is calculated. Make the attachment. The constraint condition is obtained by repeatedly calculating, for example, until a stable result is obtained. As a result, it is possible to prevent erroneous correspondence and association between feature data with low accuracy, and improve the accuracy of association. Then, data of the length of one place in the image data is given, and from the associated feature data and the constraint condition between the image data, the three-dimensional space where the measurement object is arranged and the By calculating the perspective projection transformation matrix between the image plane and the perspective projection transformation matrix and the given one-piece length data, the three-dimensional shape of the measurement object is restored with high accuracy. The original shape can be restored.

【0010】本発明の好ましい実施形態によれば、前記
読み込まれた複数の画像データに対してカメラ校正パラ
メータに基づいて歪み補正を施すステップを備え、この
ステップで歪み補正された複数の画像データのそれぞれ
から画像の特徴データを抽出する。カメラ校正パラメー
タが未知の場合には、前記読み込まれた複数の画像デー
タから前記カメラ校正パラメータを算出するステップを
更に備えればよい。カメラ校正パラメータを算出するス
テップとしては、例えば前記読み込まれた複数の画像デ
ータから画像の特徴データを抽出するステップと、この
ステップで抽出された特徴データのうち画像データの中
心付近の特徴データに基づいて画像データ間の拘束条件
を算出し、この拘束条件を満たすような前記特徴データ
の対応付けを行うステップと、前記拘束条件からカメラ
内部パラメータを算出し、光学中心と前記対応付けられ
た特徴データとから各画像データについての透視投影変
換行列を求め、この透視投影変換行列と光学中心付近以
外の部分も含む対応付けされた特徴データとからレンズ
歪み補正係数を算出するステップとを備えるようにすれ
ばよい。
According to a preferred embodiment of the present invention, the method further comprises the step of performing distortion correction on the plurality of read image data based on a camera calibration parameter. The feature data of the image is extracted from each. If the camera calibration parameters are unknown, the method may further include calculating the camera calibration parameters from the plurality of read image data. The steps of calculating the camera calibration parameters include, for example, extracting image feature data from the read plurality of image data, and based on feature data near the center of the image data among the feature data extracted in this step. Calculating a constraint condition between image data, and associating the feature data so as to satisfy the constraint condition; calculating a camera internal parameter from the constraint condition; Calculating a perspective projection transformation matrix for each image data from the image data, and calculating a lens distortion correction coefficient from the perspective projection transformation matrix and associated feature data including a portion other than the vicinity of the optical center. I just need.

【0011】また、前記画像データから抽出される特徴
データとしては、誤った特徴点を抽出しないように、好
ましくは前記画像データの濃淡が急激に変化するエッジ
の交差部分又はコーナー部分を示す特徴点データに加
え、前記画像データの濃淡が急激に変化するエッジを示
す特徴線分データを使用する。
The feature data extracted from the image data is preferably a feature point indicating an intersection or a corner of an edge where the density of the image data changes rapidly so as not to extract an erroneous feature point. In addition to the data, feature line segment data indicating edges where the density of the image data changes rapidly is used.

【0012】本発明の更に好ましい実施態様によれば、
前記特徴データの対応付けを行うステップは、前記抽出
された特徴データについて前記複数の画像データ間で初
期の対応付けを行った後、画像データ間の拘束条件を算
出し、前記画像間の拘束条件を満たすような前記特徴デ
ータの対応付けを再度行い、前記拘束条件から求まる対
応データの位置と前記拘束条件によって対応付けられた
特徴データの位置とから画像間の対応の精度を評価し、
所定の精度が得られるまで前記拘束条件の算出と前記拘
束条件に基づく特徴データの対応付けとを繰り返すステ
ップである。
According to a further preferred embodiment of the present invention,
The step of associating the feature data includes, after performing initial association between the plurality of pieces of image data with respect to the extracted feature data, calculating a constraint condition between the image data, Re-associating the feature data so as to satisfy, evaluate the accuracy of the correspondence between images from the position of the corresponding data obtained from the constraint condition and the position of the feature data associated by the constraint condition,
This is a step of repeating the calculation of the constraint condition and the association of the feature data based on the constraint condition until a predetermined accuracy is obtained.

【0013】[0013]

【発明の実施の形態】以下、図面を参照して、この発明
の実施例に係る三次元形状復元システムについて説明す
る。図1は、本発明の一実施例に係る三次元形状復元シ
ステムの構成を示すブロック図である。測定対象物1
は、カメラ2によって異なるアングルから撮像される。
最も典型的には複数台のカメラ21,22,…によって測
定対象物1を別の方向から撮像して複数の静止画像を得
る。但し1台のカメラ21を複数の位置に動かして測定
対象物1を異なるアングルから撮像して複数の静止画像
を得るようにしても良いし、測定対象物1自体が動く場
合には、1台のビデオカメラ21によって、測定対象物
1の動画像を得るようにしても良い。いずれにしても、
測定対象物1を異なるアングルから捉えた複数の画像が
得られれば良く、撮影形態としては種々の形態をとり得
る。このようにして得られた複数の静止画像又は動画像
(以下、これらをまとめて「複数の画像」と呼ぶ)は、
画像メモリ3に格納される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a three-dimensional shape restoration system according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a three-dimensional shape restoration system according to one embodiment of the present invention. Measurement object 1
Are imaged by the camera 2 from different angles.
Obtain a plurality of still images captured most typically 2 multiple cameras in 1, 2 2, ... the measured object 1 from a different direction by. However by imaging from different angles of the measuring object 1 by moving 2 1 of one camera to a plurality of positions it may be to obtain a plurality of still images, when the measuring object 1 itself moves is 1 A video image of the measurement object 1 may be obtained by one video camera 21. In any case,
It is only necessary to obtain a plurality of images of the measurement object 1 from different angles, and various forms of photographing can be taken. The plurality of still images or moving images obtained in this manner (hereinafter, these are collectively referred to as “plural images”) are
It is stored in the image memory 3.

【0014】演算処理装置4は、画像メモリ3から複数
の画像を読み込み、これら画像からカメラ校正パラメー
タに基づいてカメラ2の歪みを除去した校正後画像を生
成し、この校正後画像から特徴点抽出、特徴間の対応付
け及び三次元形状の算出処理を実行する。ワークメモリ
5は、これらの処理の途中で得られる特徴点、線分、対
応点、対応線分等の中間的なデータを一時的に記憶する
のに使用される。外部記憶装置6は、カメラ校正パラメ
ータファイルや計測結果のファイル等を記憶する。入力
装置7は、三次元形状の算出処理に際して、画像中の一
個所の長さ等、必要なデータを入力するのに用いられ
る。表示装置8は、必要なデータの入力のため、読み込
まれた画像、抽出された特徴点及び対応付けされた特徴
点等を表示する。出力装置9は、計測結果等をプリント
アウトするのに使用される。
The arithmetic processing unit 4 reads a plurality of images from the image memory 3, generates a calibrated image from which distortion of the camera 2 has been removed based on the camera calibration parameters, and extracts feature points from the calibrated image. , And a process of calculating a three-dimensional shape is performed. The work memory 5 is used to temporarily store intermediate data such as feature points, line segments, corresponding points, and corresponding line segments obtained during these processes. The external storage device 6 stores a camera calibration parameter file, a measurement result file, and the like. The input device 7 is used for inputting necessary data such as the length of one portion in an image in the calculation processing of the three-dimensional shape. The display device 8 displays a read image, extracted feature points, associated feature points, and the like for inputting necessary data. The output device 9 is used to print out a measurement result or the like.

【0015】次に、上記システムを用いた三次元形状復
元方法について説明する。いま、図2に示すように、測
定対象物1上の点の三次元空間における位置を、
Next, a three-dimensional shape restoring method using the above system will be described. Now, as shown in FIG. 2, the position of a point on the measurement target 1 in a three-dimensional space is

【0016】[0016]

【数1】 (Equation 1)

【0017】とし、カメラ21の画像面S上における測
定対象物1の結像位置を、
[0017] and then, the imaging position of the measurement object 1 in the camera 2 first image plane S,

【0018】[0018]

【数2】 (Equation 2)

【0019】とすると、ピンホールカメラモデルによる
両座標間の関係は、斉次座標を用いて次式のように表現
することができる。
Then, the relationship between the two coordinates by the pinhole camera model can be expressed by the following equation using homogeneous coordinates.

【0020】[0020]

【数3】 (Equation 3)

【0021】但し、kは0でないスケールファクタ、P
はカメラ21を表現する3×4の透視投影変化行列であ
る。ここで、三次元空間上のカメラ2の姿勢をR、位置
をt、光軸Cが画像面Sを横切る点の画像面上での位置
を、
Where k is a non-zero scale factor, P
Is a perspective projection changes a 3 × 4 matrix representing the camera 2 1. Here, the posture of the camera 2 in the three-dimensional space is R, the position is t, and the position on the image plane at which the optical axis C crosses the image plane S is

【0022】[0022]

【数4】 (Equation 4)

【0023】画像面S上の2軸u,νが空間上なす角を
θ、2軸方向の縮尺をku,kv、焦点距離をfとする
と、透視変換行列Pは次のように表すことが出来る。
Assuming that the angle formed by the two axes u and ν on the image plane S in space is θ, the scale in the two-axis direction is k u , k v , and the focal length is f, the perspective transformation matrix P is expressed as follows. I can do it.

【0024】[0024]

【数5】 (Equation 5)

【0025】ここで、透視変換行列Pを表すf,ku
v,θ,u0,ν0をカメラの内部パラメータと呼ぶ。
Here, f, ku , representing the perspective transformation matrix P,
k v , θ, u 0 , and v 0 are referred to as camera internal parameters.

【0026】(1)2枚の画像間から求まる拘束条件
(epipolar拘束) いま、第1のカメラ21の透視変換行列Pの第i行目を
iとし、kを0でないスケールファクタとして、図3
に示すように、第1のカメラ21により空間上の点xが
画像面S1上に、次のように写っているとする。
(1) Constraint condition obtained from two images (epipolar constraint) Now, let the i-th row of the perspective transformation matrix P of the first camera 21 be a i and k be a non-zero scale factor, FIG.
As shown in, x point on the space by the first camera 2 1 on the image plane S 1, and is reflected in the following manner.

【0027】[0027]

【数6】 (Equation 6)

【0028】同様に、第2のカメラ22の透視変換行列
Pの第i行目をbiとし、k′を0でないスケールファ
クタとして、第2のカメラ22により空間上の点xが画
像面S2上に、次のように写っているとする。
[0028] Similarly, the i-th row of the second camera 2 2 perspective transformation matrix P and b i, the k 'as scale factor non-0, x point on the space by the second camera 2 2 image on the surface S 2, and is reflected in the following manner.

【0029】[0029]

【数7】 (Equation 7)

【0030】この2式をまとめると、To summarize these two equations,

【0031】[0031]

【数8】 (Equation 8)

【0032】となり、これが自明でない解を持つために
は左辺の6×6行列の行列式が0でなくてはならない。
この行列を計算し、画素位置についてまとめると、次の
式を得る。
In order to have a non-trivial solution, the determinant of the 6 × 6 matrix on the left side must be 0.
When this matrix is calculated and the pixel positions are summarized, the following equation is obtained.

【0033】[0033]

【数9】 (Equation 9)

【0034】この式において行列Fをfundamental matr
ixと呼ぶ。
In this equation, the matrix F is defined as a fundamental matr
Called ix.

【0035】(2)3枚の画像間から求まる拘束条件
(trilinear拘束) 上述した第1及び第2のカメラ21,22に加えて第3の
カメラ23の透視変換行列Pの第i行目をciとし、k″
を0でないスケールファクタとして、第3のカメラ23
により空間上の点xが画像面S上に、次のように写って
いるとする。
[0035] (2) constraints determined between three images (trilinear constraint) the i perspective transformation matrix P of the first and second camera 2 1, 2 2 in addition third camera 2 3 above the row and c i, k "
As the non-zero scale factor, the third camera 2 3
Suppose that a point x in space is reflected on the image plane S as follows.

【0036】[0036]

【数10】 (Equation 10)

【0037】3つの式をまとめると、Summarizing the three equations,

【0038】[0038]

【数11】 [Equation 11]

【0039】となり、これが自明でない解を持つために
は左辺の6×7行列の階級(rank)は、高々6でなくて
はならない。よって、全ての7×7小行列の行列式は0
となる。ここで、小行列のとり方は全部で36通り存在
するが、その内訳は以下の通りである。
In order for this to have a non-trivial solution, the rank of the 6 × 7 matrix on the left side must be at most 6. Therefore, the determinant of all 7 × 7 small matrices is 0
Becomes Here, there are a total of 36 ways to take a small matrix, the details of which are as follows.

【0040】2つのカメラの透視投影変換行列Pより
3行をとり、残りのカメラの透視投影変換行列Pより1
行とる(9通り)。 1つのカメラの透視投影変換行列Pより3行をとり、
残りのカメラの透視投影変換行列Pより2行ずつとる
(27通り)。
Three rows are taken from the perspective projection transformation matrix P of the two cameras, and 1 row is taken from the perspective projection transformation matrix P of the remaining cameras.
Go (9 ways). Take three rows from the perspective projection transformation matrix P of one camera,
Two rows are taken from the perspective projection transformation matrix P of the remaining cameras (27 patterns).

【0041】の場合は2枚の画像間から求まる拘束条
件となる。また、3枚の画像間から新たに求まる拘束条
件はによる小行列の行列式で、これをtrilinear tens
orと呼ぶ。いま、7×7の小行列を、
In this case, the constraint condition is determined between the two images. The constraint condition newly obtained from the three images is the determinant of the small matrix according to trilinear tens.
Call it or. Now, the 7 × 7 small matrix is

【0042】[0042]

【数12】 (Equation 12)

【0043】にとったとする。これを展開すると次のよ
うになる。
Let us assume that When this is expanded, it becomes as follows.

【0044】[0044]

【数13】 (Equation 13)

【0045】但し、εijkは(i,j,k)が(1,
2,3)の偶置換により与えられるとき+1、奇置換に
より与えられるとき−1、それ以外は0、添え字x,y
は小行列を構成する際に取り込まれなかったカメラの透
視投影変換行列Pの行bx,cyを表す。これを、
Where ε ijk is (i, j, k) is (1,
+1 when given by even permutation of 2,3), -1 when given by odd permutation, 0 otherwise, subscript x, y
Represents a line b x, c y of the camera perspective projection transformation matrix P unincorporated when configuring the submatrix. this,

【0046】[0046]

【数14】 [Equation 14]

【0047】と表すと、trilinear拘束は、次のように
表すことができる。
Then, the trilinear constraint can be expressed as follows.

【0048】[0048]

【数15】 (Equation 15)

【0049】同様の方法で拘束条件を求めていこうとす
ると、容易に分かるように、5枚以上の画像からはもは
や新しい拘束条件が得られない。また、4枚の画像から
求まる拘束条件は、2枚及び3枚の画像から求まる拘束
条件で表せる。
If it is attempted to determine the constraint conditions in the same manner, as will be easily understood, new constraint conditions can no longer be obtained from five or more images. In addition, a constraint condition obtained from four images can be expressed by a constraint condition obtained from two and three images.

【0050】三次元形状の復元の精度は、三次元空間に
配置された測定対象物1に含まれる特徴の、画像面S上
での結像位置を満たすべき拘束を与えるfundamental ma
trix又はtrilinear tensorを如何に精度良く推定するか
にかかっている。精度に影響を及ぼす要因としては、
特徴の抽出位置精度、特徴間の誤対応、解法の安定
性、カメラのレンズの歪みによる影響等が挙げられ
る。そこで、これらを考慮して次のような処理を実行す
る。
The accuracy of the restoration of the three-dimensional shape is determined by a fundamental ma- terial that gives a constraint that satisfies the imaging position on the image plane S of the feature included in the measurement object 1 arranged in the three-dimensional space.
It depends on how accurately the trix or trilinear tensor is estimated. Factors that affect accuracy include:
The extraction position accuracy of the feature, the erroneous correspondence between the features, the stability of the solution, the influence of the distortion of the camera lens, and the like are given. Therefore, the following processing is executed in consideration of these.

【0051】図4は、この三次元形状復元処理のメイン
フローチャートである。まず、測定対象物1をカメラ2
で撮像した複数の画像を読み込む(S1)。読み込まれ
た画像の撮影に用いたカメラ2が過去に校正済みのカメ
ラかどうかを外部記憶装置6に格納されているカメラ校
正パラメータファイルを参照して判断し(S2)、もし
校正済みであれば、カメラ校正パラメータをファイルか
ら読み込む(S3)。また、校正済みでなければ、後述
する特徴抽出(S4)、画像間の対応付け(S5)及び
カメラ校正パラメータの算出(S6)を順次実行し、入
力画像を用いてカメラ校正パラメータを算出する。一度
算出したカメラ校正用パラメータは、コメント等と一緒
にファイルにして外部記憶装置6に保存しておけば、再
利用可能となる。よって、ステップS4〜S6は毎回行
う必要はない。
FIG. 4 is a main flowchart of the three-dimensional shape restoration processing. First, the measurement object 1 is moved to the camera 2
A plurality of images picked up by are read (S1). It is determined whether the camera 2 used for capturing the read image has been calibrated in the past with reference to a camera calibration parameter file stored in the external storage device 6 (S2). Then, the camera calibration parameters are read from the file (S3). If calibration has not been completed, feature extraction (S4), association between images (S5), and calculation of camera calibration parameters (S6), which will be described later, are sequentially executed, and camera calibration parameters are calculated using the input image. The camera calibration parameters once calculated can be reused if they are stored in the external storage device 6 as a file together with comments and the like. Therefore, steps S4 to S6 do not need to be performed every time.

【0052】カメラの校正パラメータが求められたら、
次に入力画像とカメラ校正パラメータとからレンズ歪み
を取り除いた校正後画像データを作成する(S7)。こ
の歪みのない校正後画像データを用いて、画像上の特徴
を抽出し(S8)、画像間の対応付けを行う(S9)。
そして、カメラ校正パラメータと画像間の対応から、物
体の三次元形状を復元する(S10)。但し、この時点
では三次元空間上の位置関係が求まるだけで、実際の長
さを算出するには、画像中一個所の長さを入力する必要
がある。表示装置8に表示された画像中の一個所を入力
装置7から指定することにより、三次元形状を復元す
る。
Once the camera calibration parameters have been determined,
Next, corrected image data is created by removing lens distortion from the input image and the camera calibration parameters (S7). Using the corrected image data without distortion, features on the image are extracted (S8), and the correspondence between the images is performed (S9).
Then, the three-dimensional shape of the object is restored from the correspondence between the camera calibration parameters and the images (S10). However, at this time, only the positional relationship in the three-dimensional space is obtained, and in order to calculate the actual length, it is necessary to input the length of one point in the image. By specifying one location in the image displayed on the display device 8 from the input device 7, the three-dimensional shape is restored.

【0053】次に、上記メインフローチャートにおける
主要な処理の詳細について説明する。図5は、図4のメ
インフローチャートにおける特徴抽出処理(S4)の詳
細を示すフローチャートである。まず、画像データから
画像濃淡値が急激に変化する方向が複数ある点をコーナ
ーとして検出する。これを特徴点データとして記憶する
(S11)。特徴点の抽出誤差は、量子化誤差や特徴抽
出アルゴリズムの性能に依存するが、抽出位置ずれがあ
ると、三次元形状を復元したときに大きな誤差となって
現れる。このため、例えば複数の特徴抽出アルゴリズム
を並列実行させて、明瞭な特徴のみを取り出すことが望
ましい。また、コーナー又は交差のみでは、オクルージ
ョン境界で見かけ上の特徴点を生ずることがあり問題が
ある。そこで、特徴点の抽出と並行して特徴線分も抽出
する。すなわち、画像データから画像濃淡値が急激に変
化する点列をエッジとして検出し(S12)、この中か
ら線分を検出し、これを線分データとして記憶する(S
13)。
Next, details of main processing in the main flowchart will be described. FIG. 5 is a flowchart showing details of the feature extraction process (S4) in the main flowchart of FIG. First, a point having a plurality of directions in which the image density value changes rapidly from the image data is detected as a corner. This is stored as feature point data (S11). The feature point extraction error depends on the quantization error and the performance of the feature extraction algorithm, but if there is an extraction position shift, it appears as a large error when the three-dimensional shape is restored. Therefore, for example, it is desirable to execute a plurality of feature extraction algorithms in parallel to extract only clear features. Also, only corners or intersections may cause apparent feature points at occlusion boundaries, which is problematic. Therefore, a feature line segment is also extracted in parallel with the feature point extraction. That is, a point sequence in which the image density value changes abruptly is detected as an edge from the image data (S12), a line segment is detected from this, and this is stored as line data (S12).
13).

【0054】図6は、図4のメインフローチャートにお
ける画像間の対応付け(S5)の詳細を示すフローチャ
ートである。特徴点の誤対応は、異常データを生成して
fundamental matrix又はtrilineartensorの推定に悪影
響を及ぼすため、極力をこれを減らす必要がある。この
ため、まず、抽出された特徴点データより、初期対応と
して、特徴点近傍の画像の類似性と、隣接する特徴点間
ではその対応点も似たような位置にあるという類似性と
から、特徴点間の対応付けを行う(S21)。これと並
行して、線分データについても、線分パラメータの類似
性をもとに線分間の初期の対応付けを行う(S22)。
続いて、特徴点間又は線分間の対応から、画像間で満た
すべき拘束条件を算出する(S23)。この拘束条件
は、前述したように、2枚の画像間ではepipolar拘束、
3枚の画像間では、trilinear拘束を利用することがで
きる。
FIG. 6 is a flowchart showing details of the association between images (S5) in the main flowchart of FIG. Incorrect feature points can be generated by generating abnormal data.
Since the estimation of the fundamental matrix or trilineartensor is adversely affected, it is necessary to reduce this as much as possible. For this reason, first, from the extracted feature point data, as the initial correspondence, the similarity of the image in the vicinity of the feature point and the similarity that the corresponding point is located at a similar position between adjacent feature points, Correlation between feature points is performed (S21). In parallel with this, the line segment data is also initially associated with the line segment based on the similarity of the line segment parameters (S22).
Subsequently, a constraint condition to be satisfied between the images is calculated from the correspondence between the feature points or the line segments (S23). As described above, this constraint condition is an epipolar constraint between two images,
A trilinear constraint can be used between the three images.

【0055】次に、各画像で抽出された特徴点データの
うち、算出された拘束条件を満たすような位置関係にあ
る特徴点データの組を対応点データとして選び出す(S
24)。同様に、線分データのうち拘束条件を満たすよ
うな位置関係にある特徴線分データの組を対応線分デー
タとして選び出す(S25)。ステップS23にて算出
した拘束条件から求まる対応データの位置と、これと対
応する画像上の特徴データの位置とが充分良く一致して
いるか、及び、特徴データのパラメータに類似性が見ら
れるかをもとに、画像間の対応の精度を評価する(S2
6)。この評価結果が所定値を超えるような充分に良い
精度で求まっていれば、対応点データ及び対応線分デー
タとしてこの結果を記憶する。そうでなければ、この結
果を用いて再度、拘束条件を算出し(S23)、評価結
果が所定値を超えるまでこれを繰り返す。
Next, among the feature point data extracted from each image, a set of feature point data having a positional relationship satisfying the calculated constraint condition is selected as corresponding point data (S
24). Similarly, a set of characteristic line segment data having a positional relationship that satisfies the constraint condition among the line segment data is selected as corresponding line segment data (S25). It is determined whether the position of the corresponding data obtained from the constraint condition calculated in step S23 and the position of the corresponding feature data on the image match sufficiently well, and whether similarity is found in the feature data parameters. The accuracy of the correspondence between the images is evaluated based on (S2
6). If the evaluation result is obtained with sufficient accuracy so as to exceed a predetermined value, the result is stored as corresponding point data and corresponding line segment data. Otherwise, the constraint condition is calculated again using this result (S23), and this is repeated until the evaluation result exceeds a predetermined value.

【0056】次に、カメラ校正パラメータの算出につい
て説明する。図2の画像面S上で実際に得られる点を
Next, calculation of camera calibration parameters will be described. The points actually obtained on the image plane S in FIG.

【0057】[0057]

【数16】 (Equation 16)

【0058】とすると、この点は、カメラ2のレンズ収
差歪みの影響を受けている。ここで補正分を、
Then, this point is affected by lens aberration distortion of the camera 2. Here, the correction is

【0059】[0059]

【数17】 [Equation 17]

【0060】とすると、歪み補正後の点は、Then, the point after distortion correction is

【0061】[0061]

【数18】 (Equation 18)

【0062】と表すことができる。ここで、Can be expressed as here,

【0063】[0063]

【数19】 [Equation 19]

【0064】とすると、補正分は次のように表すことが
出来る。
Then, the correction can be expressed as follows.

【0065】[0065]

【数20】 (Equation 20)

【0066】k1,p1,p2,s1,s2をレンズ歪み補
正係数と呼び、これをこれを先のカメラ内部パラメータ
と合わせてカメラ校正パラメータと呼ぶ。
K 1 , p 1 , p 2 , s 1 , and s 2 are called lens distortion correction coefficients, which together with the camera internal parameters are called camera calibration parameters.

【0067】図7は、図4のメインフローチャートにお
けるカメラ校正パラメータの算出処理(S6)の詳細を
示すフローチャートである。一般に、レンズの歪みは、
光学中心(カメラの光軸と画像面の交点)から離れるほ
ど大きくなる。そこで、光学中心と画像面の中心があま
り離れていないと仮定し、画像の中心付近にある対応デ
ータのみを用いて、画像間の拘束条件を算出する(S3
1)。これは図6のステップS23にて計算したものと
同じである。次に、画像間の拘束条件より、光学中心や
焦点距離などのカメラ内部パラメータに関する方程式が
導ける。Kruppaの方程式として知られる方程式は、その
一つである。このような方程式を解いてカメラ内部パラ
メータを算出する(S32)。続いて算出した光学中心
と対応データとから前述した数5よって計算できる透視
投影変換行列Pを求め、この透視投影変換行列Pと光学
中心付近以外の部分も含む対応データとからレンズ歪み
補正係数を算出する(S33)。このステップS33で
算出されたレンズ歪み補正係数から、レンズ歪みのない
対応データを算出し(S34)、これを用いて画像間の
拘束条件を算出する(S35)。この拘束条件から解く
べき方程式を求め、カメラの内部パラメータを算出する
(S36)。そして、レンズ歪み補正係数及びカメラの
内部パラメータが充分良い精度で求まったかどうかを評
価し、求まったのであればこれをカメラ校正パラメータ
として記憶する。また、求まらなかったらステップS3
3に戻ってレンズ歪み補正係数の算出以降の処理を繰り
返す(S37)。
FIG. 7 is a flowchart showing details of the camera calibration parameter calculation processing (S6) in the main flowchart of FIG. Generally, lens distortion is
The distance increases from the optical center (the intersection of the camera's optical axis and the image plane). Therefore, assuming that the optical center and the center of the image plane are not so far apart, the constraint condition between the images is calculated using only the corresponding data near the center of the image (S3).
1). This is the same as that calculated in step S23 in FIG. Next, equations relating to camera internal parameters such as the optical center and the focal length can be derived from the constraints between the images. One such equation is the Kruppa equation. The camera internal parameters are calculated by solving such an equation (S32). Subsequently, from the calculated optical center and the corresponding data, a perspective projection transformation matrix P, which can be calculated by the aforementioned equation 5, is obtained, and a lens distortion correction coefficient is calculated from the perspective projection transformation matrix P and the corresponding data including a portion other than the vicinity of the optical center. It is calculated (S33). Corresponding data without lens distortion is calculated from the lens distortion correction coefficient calculated in step S33 (S34), and the constraint condition between images is calculated using this (S35). An equation to be solved is obtained from the constraint conditions, and the internal parameters of the camera are calculated (S36). Then, it is evaluated whether or not the lens distortion correction coefficient and the camera's internal parameters have been obtained with sufficient accuracy, and if obtained, these are stored as camera calibration parameters. If not found, step S3
Returning to step S3, the processing after the calculation of the lens distortion correction coefficient is repeated (S37).

【0068】図4のメインフローチャートにおける歪み
なし画像データの生成ステップ(S7)では、図8に示
すように、カメラ校正パラメータを用いて画像データの
レンズ歪み補正(S41)を行い、歪みのない画像デー
タを作成する。図4のメインフローチャートにおける三
次元形状の算出処理(S10)では、図9のような処理
を実行する。対応点データ及び対応線データより算出さ
れる画像間の拘束条件とカメラ内部パラメータとからス
ケールの不定性を残して、透視投影変換行列Pを算出す
ることができる。そこで、まずこの透視投影変換行列P
を算出し(S51)、画像中、1個所の長さを入力装置
7から入力する(S52)。そして、この1個所の長さ
と透視投影変換行列Pとから物体の三次元形状を復元す
る(S53)。以上の処理により、精度良く三次元形状
を復元することができる。
In the step of generating image data without distortion (S7) in the main flowchart of FIG. 4, as shown in FIG. 8, lens distortion correction of image data is performed using camera calibration parameters (S41), and an image without distortion is obtained. Create data. In the three-dimensional shape calculation process (S10) in the main flowchart of FIG. 4, a process as shown in FIG. 9 is executed. The perspective projection transformation matrix P can be calculated from the constraint conditions between images calculated from the corresponding point data and the corresponding line data and the camera internal parameters while leaving the scale uncertainty. Therefore, first, this perspective projection transformation matrix P
Is calculated (S51), and the length of one point in the image is input from the input device 7 (S52). Then, the three-dimensional shape of the object is restored from the length of the one portion and the perspective projection transformation matrix P (S53). By the above processing, the three-dimensional shape can be restored with high accuracy.

【0069】[0069]

【発明の効果】以上述べたようにこの発明によれば、異
なるアングルから撮像された複数の画像データから抽出
された特徴データに基づいて画像データ間の拘束条件を
算出し、この拘束条件を満たすような前記特徴データの
対応付けを行い、画像データ中の一個所の長さのデータ
を与え、前記対応付けされた特徴データと画像データ間
の拘束条件とから前記測定対象物が配置されている三次
元空間と前記各画像データの画像面との間の透視投影変
換行列を算出し、この透視投影変換行列と前記与えられ
た一個所の長さのデータとから前記測定対象物の三次元
形状を復元するようにしているので、誤対応や精度の低
い特徴データ間の対応付けを防止して、対応付けの精度
を向上させることができ、精度良く三次元形状を復元す
ることができるという効果を奏する。
As described above, according to the present invention, a constraint condition between image data is calculated based on feature data extracted from a plurality of image data captured from different angles, and the constraint condition is satisfied. The feature data is correlated as described above, data of a length of one place in the image data is given, and the measurement object is arranged based on the correlated feature data and the constraint condition between the image data. A perspective projection transformation matrix between the three-dimensional space and the image plane of each of the image data is calculated, and the three-dimensional shape of the object to be measured is calculated from the perspective projection transformation matrix and the given length data. Therefore, it is possible to prevent erroneous correspondence or association between feature data having low accuracy, improve the accuracy of the association, and accurately restore the three-dimensional shape. Achieve the cormorant effect.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の一実施例に係る三次元形状復元シ
ステムの構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a three-dimensional shape restoration system according to an embodiment of the present invention.

【図2】 本発明に係る三次元形状復元方法におけるカ
メラの透視投影変換行列を説明するための図である。
FIG. 2 is a diagram for explaining a perspective projection transformation matrix of a camera in the three-dimensional shape restoration method according to the present invention.

【図3】 同復元方法における特徴点の対応付けを説明
するための図である。
FIG. 3 is a diagram for explaining association of feature points in the restoration method.

【図4】 同復元方法の一実施例を示すメインフローチ
ャートである。
FIG. 4 is a main flowchart showing one embodiment of the restoration method.

【図5】 同メインフローチャートにおける特徴抽出処
理のフローチャートである。
FIG. 5 is a flowchart of a feature extraction process in the main flowchart.

【図6】 同メインフローチャートにおける画像間の対
応付け処理を示すフローチャートである。
FIG. 6 is a flowchart showing a process for associating images in the main flowchart.

【図7】 同メインフローチャートにおけるカメラ校正
パラメータの算出処理のフローチャートである。
FIG. 7 is a flowchart of a camera calibration parameter calculation process in the main flowchart.

【図8】 同メインフローチャートにおけるレンズ歪み
補正処理のフローチャートである。
FIG. 8 is a flowchart of a lens distortion correction process in the main flowchart.

【図9】 同メインフローチャートにおける三次元形状
算出処理のフローチャートである。
FIG. 9 is a flowchart of a three-dimensional shape calculation process in the main flowchart.

【符号の説明】[Explanation of symbols]

1…測定対象物、21,22…カメラ、3…画像メモリ、
4…演算処理装置、5…ワークメモリ、6…外部記憶装
置、7…入力装置、8…表示装置、9…出力装置。
1 ... measurement object, 2 1 , 2 2 ... camera, 3 ... image memory,
4 arithmetic processing device, 5 work memory, 6 external storage device, 7 input device, 8 display device, 9 output device.

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) // G01C 3/06 G01B 11/24 N (72)発明者 定広 真一 北海道札幌市北区北7条西1丁目1番2号 株式会社システムテクノロジーインステ ィテュート内 (72)発明者 辻村 直久 北海道札幌市北区北7条西1丁目1番2号 株式会社システムテクノロジーインステ ィテュート内 Fターム(参考) 2F065 AA53 BB05 EE00 EE08 FF05 JJ03 JJ05 JJ19 JJ26 QQ00 QQ03 QQ23 QQ24 QQ28 QQ38 QQ41 SS02 SS06 SS13 2F112 AC02 AC06 BA06 CA08 CA12 FA03 FA21 FA38 FA45 5B057 AA20 BA02 CA12 CA16 CB13 CB16 CD12 DA07 DB02 DC05 DC32 5L096 CA05 EA07 FA03 FA09 FA22 FA69 HA01 JA11 Continued on the front page (51) Int.Cl. 7 Identification FI FI Theme Court II (Reference) // G01C 3/06 G01B 11/24 N (72) Inventor Shinichi Sadahiro 1-1-1 Kita 7-Nishi, Kita-ku, Sapporo, Hokkaido No. 2 System Technology Institute, Inc. (72) Inventor Naohisa Tsujimura 1-2-1, Kita 7-Jo Nishi, Kita-ku, Sapporo-shi, Hokkaido F-term (Reference) 2F065 AA53 BB05 EE00 EE08 FF05 JJ03 JJ05 JJ19 JJ26 QQ00 QQ03 QQ23 QQ24 QQ28 QQ38 QQ41 SS02 SS06 SS13 2F112 AC02 AC06 BA06 CA08 CA12 FA03 FA21 FA38 FA45 5B057 AA20 BA02 CA12 CA16 CB13 CB16 CD12 DA07 DB02 DC05 DC32 5L0969 FA09 FA09 FA01 FA01 FA07

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 測定対象物を異なるアングルから撮像し
て得られた複数の画像データを読み込むステップと、 読み込まれた複数の画像データのそれぞれから画像の特
徴データを抽出するステップと、 このステップで抽出された特徴データに基づいて画像デ
ータ間の拘束条件を算出し、この拘束条件を満たすよう
な前記特徴データの対応付けを行うステップと、 前記画像データ中の一個所の長さのデータを与えるステ
ップと、 前記対応付けされた特徴データと画像データ間の拘束条
件とから前記測定対象物が配置されている三次元空間と
前記各画像データの画像面との間の透視投影変換行列を
算出し、この透視投影変換行列と前記与えられた一個所
の長さのデータとから前記測定対象物の三次元形状を復
元するステップとを備えたことを特徴とする三次元形状
復元方法。
A step of reading a plurality of image data obtained by imaging a measurement object from different angles; a step of extracting feature data of an image from each of the plurality of read image data; Calculating a constraint condition between the image data based on the extracted feature data, and associating the feature data so as to satisfy the constraint condition; and providing data of a length of one portion in the image data Calculating a perspective projection transformation matrix between the three-dimensional space in which the object to be measured is located and the image plane of each image data from the associated feature data and the constraint condition between the image data. Restoring the three-dimensional shape of the measurement object from the perspective projection transformation matrix and the given length data. Three-dimensional shape reconstruction how to.
【請求項2】 測定対象物を異なるアングルから撮像し
て得られた複数の画像データを読み込むステップと、 読み込まれた複数の画像データに対してカメラ校正パラ
メータに基づいて歪み補正を施すステップと、 このステップで歪み補正された複数の画像データのそれ
ぞれから画像の特徴データを抽出するステップと、 このステップで抽出された特徴データに基づいて画像デ
ータ間の拘束条件を算出し、この拘束条件を満たすよう
な前記特徴データの対応付けを行うステップと、 前記画像データ中の一個所の長さのデータを与えるステ
ップと、 前記対応付けされた特徴データと画像データ間の拘束条
件とから前記測定対象物が配置されている三次元空間と
前記各画像データの画像面との間の透視投影変換行列を
算出し、この透視投影変換行列と前記与えられた一個所
の長さのデータとから前記測定対象物の三次元形状を復
元するステップとを備えたことを特徴とする三次元形状
復元方法。
2. A step of reading a plurality of image data obtained by imaging an object to be measured from different angles; a step of performing distortion correction on the plurality of read image data based on a camera calibration parameter; Extracting the feature data of the image from each of the plurality of image data having undergone the distortion correction in this step; calculating a constraint condition between the image data based on the feature data extracted in this step; satisfying the constraint condition Associating the characteristic data as described above, providing a length data at one position in the image data, and the constraint condition between the associated characteristic data and the image data. Is calculated, and a perspective projection transformation matrix between the three-dimensional space in which is disposed and the image plane of each image data is calculated. Three-dimensional shape restoring method characterized by comprising the step of restoring the three-dimensional shape of the measurement object from the length of the data in one place given the a.
【請求項3】 前記読み込まれた複数の画像データから
前記カメラ校正パラメータを算出するステップを更に備
え、 前記カメラ校正パラメータを算出するステップは、 前記読み込まれた複数の画像データから画像の特徴デー
タを抽出するステップと、 このステップで抽出された特徴データのうち画像データ
の中心付近の特徴データに基づいて画像データ間の拘束
条件を算出し、この拘束条件を満たすような前記特徴デ
ータの対応付けを行うステップと、 前記拘束条件からカメラ内部パラメータを算出し、光学
中心と前記対応付けられた特徴データとから各画像デー
タについての透視投影変換行列を求め、この透視投影変
換行列と光学中心付近以外の部分も含む対応付けされた
特徴データとからレンズ歪み補正係数を算出するステッ
プとを備えたことを特徴とする請求項2記載の三次元形
状復元方法。
3. The method according to claim 1, further comprising: calculating the camera calibration parameter from the plurality of read image data; and calculating the camera calibration parameter from the read plurality of image data. Extracting, calculating constraint conditions between the image data based on the feature data near the center of the image data among the feature data extracted in this step, and associating the feature data so as to satisfy the constraint conditions. Performing, calculating a camera internal parameter from the constraint condition, obtains a perspective projection transformation matrix for each image data from the optical center and the associated feature data, and calculates a perspective projection transformation matrix and other than the vicinity of the optical center. Calculating a lens distortion correction coefficient from the associated feature data including the portion. Three-dimensional shape restoration method according to claim 2, wherein a has.
【請求項4】 前記画像データから抽出される特徴デー
タは、前記画像データの濃淡が急激に変化するエッジの
交差部分又はコーナー部分を示す特徴点データと前記画
像データの濃淡が急激に変化するエッジを示す特徴線分
データであることを特徴とする請求項1〜3のいずれか
1項記載の三次元形状復元方法。
4. The feature data extracted from the image data includes: a feature point data indicating an intersection or a corner of an edge where the density of the image data changes rapidly; and an edge where the density of the image data changes rapidly. The three-dimensional shape restoration method according to any one of claims 1 to 3, wherein the characteristic line segment data indicates the following.
【請求項5】 前記特徴データの対応付けを行うステッ
プは、前記抽出された特徴データについて前記複数の画
像データ間で初期の対応付けを行った後、画像データ間
の拘束条件を算出し、前記画像間の拘束条件を満たすよ
うな前記特徴データの対応付けを再度行い、前記拘束条
件から求まる対応データの位置と前記拘束条件によって
対応付けられた特徴データの位置とから画像間の対応の
精度を評価し、所定の精度が得られるまで前記拘束条件
の算出と前記拘束条件に基づく特徴データの対応付けと
を繰り返すステップであることを特徴とする請求項1〜
4のいずれか1項記載の三次元形状復元方法。
5. The step of associating the feature data includes, after associating the extracted feature data with the plurality of image data, calculating a constraint condition between the image data, The correspondence of the feature data that satisfies the constraint condition between the images is performed again, and the accuracy of the correspondence between the images is determined based on the position of the corresponding data obtained from the constraint condition and the position of the feature data associated with the constraint condition. A step of repeating the calculation of the constraint condition and the association of the feature data based on the constraint condition until a predetermined accuracy is obtained.
5. The method for restoring a three-dimensional shape according to claim 4.
【請求項6】 測定対象物を異なるアングルから撮像す
る1又は複数の撮像手段と、 この撮像手段からの複数の画像データを読み込んで記憶
する画像記憶手段と、 前記画像データ中の一個所の長さのデータを与える入力
手段と、 前記画像記憶手段に記憶された複数の画像データのそれ
ぞれから画像の特徴データを抽出する機能と、前記抽出
された特徴データに基づいて画像データ間の拘束条件を
算出し、この拘束条件を満たすような前記特徴データの
対応付けを行う機能、前記対応付けされた特徴データと
画像データ間の拘束条件とから前記測定対象物が配置さ
れている三次元空間と前記各画像データの画像面との間
の透視投影変換行列を算出し、この透視投影変換行列と
前記与えられた一個所の長さのデータとから前記測定対
象物の三次元形状を復元する機能とを有する演算処理手
段とを備えたことを特徴とする三次元形状復元システ
ム。
6. One or a plurality of image pickup means for picking up an image of an object to be measured from different angles; an image storage means for reading and storing a plurality of image data from the image pickup means; Input means for providing data of the image data, a function of extracting feature data of an image from each of the plurality of image data stored in the image storage means, and a constraint condition between the image data based on the extracted feature data. The function of calculating and associating the feature data so as to satisfy the constraint condition, the three-dimensional space in which the measurement object is arranged from the associated feature data and the constraint condition between the image data and the A perspective projection transformation matrix between each image data and the image plane is calculated, and the three-dimensional object of the measurement object is calculated from the perspective projection transformation matrix and the given length data. A three-dimensional shape restoration system, comprising: an arithmetic processing unit having a function of restoring a shape.
JP2000302937A 2000-10-02 2000-10-02 Three-dimensional shape restoration method and system Expired - Fee Related JP4372328B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000302937A JP4372328B2 (en) 2000-10-02 2000-10-02 Three-dimensional shape restoration method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000302937A JP4372328B2 (en) 2000-10-02 2000-10-02 Three-dimensional shape restoration method and system

Publications (2)

Publication Number Publication Date
JP2002109518A true JP2002109518A (en) 2002-04-12
JP4372328B2 JP4372328B2 (en) 2009-11-25

Family

ID=18784212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000302937A Expired - Fee Related JP4372328B2 (en) 2000-10-02 2000-10-02 Three-dimensional shape restoration method and system

Country Status (1)

Country Link
JP (1) JP4372328B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005332177A (en) * 2004-05-19 2005-12-02 Etsuji Kitagawa 3D information processing apparatus, 3D information processing method, and 3D information processing program
JP2006052975A (en) * 2004-08-10 2006-02-23 Nikon Corp Binocular vision apparatus
JP2007132715A (en) * 2005-11-08 2007-05-31 Univ Chuo Three-dimensional measurement method, measurement apparatus, restoration method, and restoration apparatus
JP2007147457A (en) * 2005-11-28 2007-06-14 Topcon Corp Three-dimensional shape calculation device and three-dimensional shape calculation method
JP2009109322A (en) * 2007-10-30 2009-05-21 National Institute Of Information & Communication Technology Camera, camera array and camera array system
US7659921B2 (en) 2003-05-19 2010-02-09 Honda Motor Co., Ltd. Distance measurement apparatus, distance measurement method, and distance measurement program
US8805084B2 (en) 2011-12-13 2014-08-12 Fuji Xerox Co., Ltd. Image processing apparatus, image processing method, and non-transitory computer readable medium storing program
US10127687B2 (en) 2014-11-13 2018-11-13 Olympus Corporation Calibration device, calibration method, optical device, image-capturing device, projection device, measuring system, and measuring method
US10410054B2 (en) 2016-10-24 2019-09-10 Fujitsu Limited Image processing device, method and program to align two images
US11321861B2 (en) 2017-05-23 2022-05-03 Olympus Corporation Method of operating measurement device, measurement device, measurement system, three-dimensional shape restoration device, and recording medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7045963B2 (en) 2018-08-30 2022-04-01 オリンパス株式会社 How to operate the measuring device, measuring device, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7659921B2 (en) 2003-05-19 2010-02-09 Honda Motor Co., Ltd. Distance measurement apparatus, distance measurement method, and distance measurement program
JP2005332177A (en) * 2004-05-19 2005-12-02 Etsuji Kitagawa 3D information processing apparatus, 3D information processing method, and 3D information processing program
JP2006052975A (en) * 2004-08-10 2006-02-23 Nikon Corp Binocular vision apparatus
JP2007132715A (en) * 2005-11-08 2007-05-31 Univ Chuo Three-dimensional measurement method, measurement apparatus, restoration method, and restoration apparatus
JP2007147457A (en) * 2005-11-28 2007-06-14 Topcon Corp Three-dimensional shape calculation device and three-dimensional shape calculation method
JP2009109322A (en) * 2007-10-30 2009-05-21 National Institute Of Information & Communication Technology Camera, camera array and camera array system
US8805084B2 (en) 2011-12-13 2014-08-12 Fuji Xerox Co., Ltd. Image processing apparatus, image processing method, and non-transitory computer readable medium storing program
US10127687B2 (en) 2014-11-13 2018-11-13 Olympus Corporation Calibration device, calibration method, optical device, image-capturing device, projection device, measuring system, and measuring method
US10410054B2 (en) 2016-10-24 2019-09-10 Fujitsu Limited Image processing device, method and program to align two images
US11321861B2 (en) 2017-05-23 2022-05-03 Olympus Corporation Method of operating measurement device, measurement device, measurement system, three-dimensional shape restoration device, and recording medium

Also Published As

Publication number Publication date
JP4372328B2 (en) 2009-11-25

Similar Documents

Publication Publication Date Title
CN110568447B (en) Visual positioning method, device and computer readable medium
US8452081B2 (en) Forming 3D models using multiple images
US8447099B2 (en) Forming 3D models using two images
EP1596330B1 (en) Estimating position and orientation of markers in digital images
JP2005326247A (en) Calibration apparatus, calibration method, and calibration program
WO2020038386A1 (en) Determination of scale factor in monocular vision-based reconstruction
JP2013186816A (en) Moving image processor, moving image processing method and program for moving image processing
JP2002024807A (en) Object motion tracking method and recording medium
JP2004235934A (en) Calibration processor, calibration processing method, and computer program
JP7427467B2 (en) Image processing device, image processing method, trained model generation method, and program
JP2961264B1 (en) Three-dimensional object model generation method and computer-readable recording medium recording three-dimensional object model generation program
CN112802186B (en) Real-time 3D reconstruction method of dynamic scene based on binary feature code matching
JP2001067463A (en) Device and method for generating facial picture from new viewpoint based on plural facial pictures different in viewpoint, its application device and recording medium
JP2018173882A (en) Information processing apparatus, method, and program
JP2002109518A (en) Three-dimensional shape restoring method and system therefor
CN113658279A (en) Camera internal parameter and external parameter estimation method and device, computer equipment and storage medium
JP5998532B2 (en) Correction formula calculation method, correction method, correction apparatus, and imaging apparatus
JP2000268179A (en) Three-dimensional shape information obtaining method and device, two-dimensional picture obtaining method and device and record medium
CN110567441A (en) Particle filter-based positioning method, positioning device, mapping and positioning method
CN112634377B (en) Camera calibration method, terminal and computer readable storage medium of sweeping robot
CN112132971A (en) Three-dimensional human body modeling method, device, electronic equipment and storage medium
JP2007034985A (en) Information processing method and apparatus
KR100944293B1 (en) Efficient Omnidirectional 3D Model Reconstruction from Single Axis Rotated Images
CN113642397A (en) Object length measuring method based on mobile phone video
CN110232715B (en) Method, device and system for self calibration of multi-depth camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090811

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090902

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4372328

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150911

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees
点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载