+

JP7576620B2 - How to measure camera position deviation - Google Patents

How to measure camera position deviation Download PDF

Info

Publication number
JP7576620B2
JP7576620B2 JP2022536096A JP2022536096A JP7576620B2 JP 7576620 B2 JP7576620 B2 JP 7576620B2 JP 2022536096 A JP2022536096 A JP 2022536096A JP 2022536096 A JP2022536096 A JP 2022536096A JP 7576620 B2 JP7576620 B2 JP 7576620B2
Authority
JP
Japan
Prior art keywords
camera
mark
deviation
coordinate system
positional deviation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022536096A
Other languages
Japanese (ja)
Other versions
JPWO2022014043A1 (en
Inventor
智紀 川▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JPWO2022014043A1 publication Critical patent/JPWO2022014043A1/ja
Application granted granted Critical
Publication of JP7576620B2 publication Critical patent/JP7576620B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Description

本明細書は、カメラの位置ずれ測定方法について開示する。 This specification discloses a method for measuring camera position deviation.

従来、アームを備えるロボットにおいて、アームとは独立して設置されたカメラの校正を行なうものが提案されている(例えば、特許文献1参照)。このカメラの校正の処理手順は、まず、手先座標系の3つの回転軸X,Y,Zを設定し、各回転軸を中心として手先に保持した校正用パターンをそれぞれ回転させるようにアームを動作させる。次に、各回転軸を中心とした回転の複数の回転位置における校正用パターンのパターン画像をカメラで撮像する。そして、これらのパターン画像を用いて手先座標系とカメラ座標系との間の座標変換行列を推定する。この処理手順によれば、手先座標系とカメラ座標系との間の座標変換を計算可能な外部パラメータが得られるため、カメラを用いた対象物の位置検出を行なうことができるとしている。Conventionally, a robot equipped with an arm has been proposed that calibrates a camera installed independently of the arm (see, for example, Patent Document 1). The procedure for calibrating the camera involves first setting three rotation axes X, Y, and Z of the hand coordinate system, and operating the arm so as to rotate a calibration pattern held at the hand around each rotation axis. Next, the camera captures pattern images of the calibration pattern at multiple rotation positions around each rotation axis. These pattern images are then used to estimate a coordinate transformation matrix between the hand coordinate system and the camera coordinate system. According to this procedure, external parameters that can be used to calculate the coordinate transformation between the hand coordinate system and the camera coordinate system are obtained, making it possible to detect the position of an object using a camera.

特開2019-14031号公報JP 2019-14031 A

上述した特許文献1には、アームとは独立して設置されたカメラの校正を行なうことについては記載されているものの、アームに取り付けられたカメラの校正(位置ずれの測定)を行なうことについては何ら言及されていない。Although the above-mentioned Patent Document 1 describes the calibration of a camera installed independently of an arm, it does not make any mention of calibrating a camera attached to an arm (measuring positional deviation).

本開示は、アームに取り付けられたカメラの位置ずれの測定を簡易な手法により行なうことを主目的とする。 The primary objective of this disclosure is to measure the positional deviation of a camera attached to an arm using a simple method.

本開示のカメラの位置ずれ量測定方法は、上述の主目的を達成するために以下の手段を採った。 The camera position shift measurement method disclosed herein employs the following measures to achieve the above-mentioned primary objective.

本開示のカメラの位置ずれ量測定方法は、
ロボットアームと、該ロボットアームの先端部に回転軸を介して取り付けられたハンドと、光軸が前記回転軸と平行となるように前記ロボットアームに取り付けられたカメラと、を有するロボットにおける前記カメラの位置ずれを測定するカメラの位置ずれ測定方法であって、
マークを有する治具を前記ハンドに装着するステップ(a)と、
前記ハンドを前記回転軸周りに回転させながら複数の回転位置において前記カメラで前記マークを撮像するステップ(b)と、
前記複数の回転位置においてそれぞれ撮像された各撮像画像に写るマークの位置と理想的なマークの位置との差分に基づいて前記カメラの位置ずれを求めるステップ(c)と、
を備えることを要旨とする。
The camera position deviation amount measuring method disclosed herein includes:
1. A method for measuring a positional deviation of a camera in a robot having a robot arm, a hand attached to a tip of the robot arm via a rotation shaft, and a camera attached to the robot arm such that an optical axis of the camera is parallel to the rotation shaft, comprising:
(a) attaching a jig having a mark to the hand;
(b) capturing images of the mark with the camera at a plurality of rotation positions while rotating the hand around the rotation axis;
a step (c) of calculating a positional deviation of the camera based on a difference between a position of a mark shown in each captured image taken at each of the plurality of rotational positions and an ideal position of the mark;
The gist of the invention is to provide the following:

この本開示のカメラの位置ずれ量測定方法は、ロボットアームと、ロボットアームの先端部に回転軸を介して取り付けられたハンドと、光軸が回転軸と平行となるようにロボットアームに取り付けられたカメラと、を有するロボットにおけるカメラの位置ずれを測定するものである。この方法では、マークが付された治具をハンドに装着し、ハンドを回転軸周りに回転させながら複数の回転位置においてカメラによりマークを撮像する。そして、複数の回転位置においてそれぞれ撮像された各撮像画像に写るマークの位置と理想的なマークの位置との差分に基づいてカメラの位置ずれを求める。これにより、アームに取り付けられたカメラの位置ずれの測定を簡易な手順により行なうことができる。The camera misalignment measurement method disclosed herein measures the misalignment of a camera in a robot having a robot arm, a hand attached to the tip of the robot arm via a rotation axis, and a camera attached to the robot arm so that its optical axis is parallel to the rotation axis. In this method, a jig with a mark is attached to the hand, and the mark is captured by the camera at multiple rotation positions while the hand is rotated around the rotation axis. The camera misalignment is then calculated based on the difference between the position of the mark in each captured image taken at each of the multiple rotation positions and the ideal position of the mark. This allows the measurement of the misalignment of the camera attached to the arm to be performed using a simple procedure.

作業ロボットの外観斜視図である。FIG. 2 is an external perspective view of the working robot. ロボット本体の側面図である。FIG. ロボット本体と制御装置との電気的な接続関係を示すブロック図である。FIG. 2 is a block diagram showing an electrical connection relationship between a robot body and a control device. カメラ位置ずれ測定手順の一例を示す説明図である。FIG. 11 is an explanatory diagram showing an example of a camera position deviation measurement procedure. マーク付き治具の装着の様子を示す説明図である。FIG. 13 is an explanatory diagram showing how a jig with a mark is attached. カメラに位置ずれが生じているときの設計上のカメラ視野と実際のカメラ視野とを示す説明図である。1 is an explanatory diagram showing the designed camera field of view and the actual camera field of view when a positional deviation occurs in the camera; 実際のカメラ視野を基準としたXvrvr座標系における位置ずれ(xc,yc)と回転ずれをθcとを説明する説明図である。FIG. 13 is an explanatory diagram for explaining a positional deviation (x c , y c ) and a rotational deviation θ c in an Xvr Yvr coordinate system based on an actual camera field of view. 設計上のカメラ視野を基準としたXvivi座標系における位置ずれ(xci,yci)を説明する説明図である。FIG. 13 is an explanatory diagram for explaining a positional deviation (x ci , y ci ) in an X vi Y vi coordinate system based on a designed camera field of view.

次に、本開示を実施するための形態について図面を参照しながら説明する。Next, the form for implementing the present disclosure will be described with reference to the drawings.

図1は、作業ロボットの外観斜視図である。図2は、ロボット本体の側面図である。図3は、ロボット本体と制御装置との電気的な接続関係を示すブロック図である。 Figure 1 is an external perspective view of the work robot. Figure 2 is a side view of the robot body. Figure 3 is a block diagram showing the electrical connection relationship between the robot body and a control device.

作業ロボット1は、ワークWに対して所定の作業(例えば、ワークWをピックアップして搬送する搬送作業や、ワークWをピックアップして対象物に組み付ける組付け作業など)を行なう水平多関節ロボットとして構成されている。作業ロボット1は、ロボット本体10(図1~図3参照)と、ロボット本体10を制御する制御装置70(図3参照)と、を備える。ロボット本体10は、図1,図2に示すように、基台11と多関節アーム20とを備える。The working robot 1 is configured as a horizontal articulated robot that performs a predetermined task on a workpiece W (for example, a transport task of picking up and transporting the workpiece W, or an assembly task of picking up the workpiece W and assembling it to an object). The working robot 1 comprises a robot body 10 (see Figures 1 to 3) and a control device 70 (see Figure 3) that controls the robot body 10. As shown in Figures 1 and 2, the robot body 10 comprises a base 11 and an articulated arm 20.

基台11は、作業台2に固定されており、多関節アーム20の基端側を支持する。多関節アーム20は、第1アーム21と第1アーム駆動部30と第2アーム22と第2アーム駆動部40とシャフト23とシャフト駆動部50とカメラ60とを備える。第1アーム21は、基端部が第1関節軸J1を介して基台11に連結され、第1関節軸J1の回動により基台11に対して水平面内で回動(水平旋回)可能に構成される。第2アーム22は、基端部が第2関節軸J2を介して第1アーム21の先端部に連結され、第2関節軸J2の回動により第1アーム21に対して水平面内で回動(水平旋回)可能に構成される。シャフト23は、第2アーム22の先端部に第3関節軸J3を介して連結され、第2アーム22に対して第3関節軸J3の軸周りに回転可能かつ第3関節軸J3の軸方向に沿って昇降可能に構成される。シャフト23の先端には、ワークWに対して作業を行なうための各種ツールを保持するためのツール保持部24が設けられている。The base 11 is fixed to the workbench 2 and supports the base end side of the multi-joint arm 20. The multi-joint arm 20 includes a first arm 21, a first arm drive unit 30, a second arm 22, a second arm drive unit 40, a shaft 23, a shaft drive unit 50, and a camera 60. The base end of the first arm 21 is connected to the base 11 via a first joint axis J1, and is configured to be rotatable (horizontally rotated) in a horizontal plane relative to the base 11 by the rotation of the first joint axis J1. The base end of the second arm 22 is connected to the tip of the first arm 21 via a second joint axis J2, and is configured to be rotatable (horizontally rotated) in a horizontal plane relative to the first arm 21 by the rotation of the second joint axis J2. The shaft 23 is connected to the tip of the second arm 22 via a third joint axis J3, and is configured to be rotatable around the axis of the third joint axis J3 relative to the second arm 22 and to be raised and lowered along the axial direction of the third joint axis J3. At the tip of the shaft 23, a tool holding portion 24 for holding various tools for performing operations on the workpiece W is provided.

第1アーム駆動部30は、図3に示すように、モータ32とエンコーダ34とを備える。モータ32の回転軸は、図示しない減速機を介して第1関節軸J1に連結されている。第1アーム駆動部30は、モータ32を駆動することにより減速機を介して第1関節軸J1に伝達されるトルクにより、第1関節軸J1を支点に第1アーム21を水平旋回させる。エンコーダ34は、モータ32の回転軸に取り付けられ、モータ32の回転変位量を検出するロータリエンコーダとして構成される。3, the first arm driving unit 30 includes a motor 32 and an encoder 34. The rotating shaft of the motor 32 is connected to the first joint shaft J1 via a reducer (not shown). The first arm driving unit 30 drives the motor 32 to transmit torque to the first joint shaft J1 via the reducer, causing the first arm 21 to rotate horizontally around the first joint shaft J1 as a fulcrum. The encoder 34 is attached to the rotating shaft of the motor 32 and is configured as a rotary encoder that detects the amount of rotational displacement of the motor 32.

第2アーム駆動部40は、第1アーム駆動部30と同様に、モータ42とエンコーダ44とを備える。モータ42の回転軸は、図示しない減速機を介して第2関節軸J2に連結されている。第2アーム駆動部40は、モータ42を駆動することにより減速機を介して第2関節軸J2に伝達されるトルクにより、第2関節軸J2を支点に第2アーム22を水平旋回させる。エンコーダ44は、モータ42の回転軸に取り付けられ、モータ42の回転変位量を検出するロータリエンコーダとして構成される。 The second arm driving unit 40, like the first arm driving unit 30, includes a motor 42 and an encoder 44. The rotating shaft of the motor 42 is connected to the second joint shaft J2 via a reduction gear (not shown). The second arm driving unit 40 drives the motor 42 to transmit torque to the second joint shaft J2 via the reduction gear, causing the second arm 22 to rotate horizontally around the second joint shaft J2 as a fulcrum. The encoder 44 is attached to the rotating shaft of the motor 42 and is configured as a rotary encoder that detects the amount of rotational displacement of the motor 42.

シャフト駆動部50は、図3に示すように、モータ52a,52bとエンコーダ54a,54bとを備える。モータ52aの回転軸は、ベルト(図示せず)を介してシャフト23に接続され、シャフト23を軸周りに回転させる。モータ52bの回転軸は、シャフト23を貫通するボールねじナット(図示せず)にベルトを介して接続され、当該ボールねじナットを回転させることでシャフト23を上下に昇降させる。エンコーダ54aは、シャフト23の回転変位量を検出するロータリエンコーダとして構成される。エンコーダ54bは、シャフト23の昇降位置を検出するリニアエンコーダとして構成される。As shown in FIG. 3, the shaft drive unit 50 includes motors 52a and 52b and encoders 54a and 54b. The rotating shaft of the motor 52a is connected to the shaft 23 via a belt (not shown) and rotates the shaft 23 around its axis. The rotating shaft of the motor 52b is connected to a ball screw nut (not shown) that passes through the shaft 23 via a belt and raises and lowers the shaft 23 by rotating the ball screw nut. The encoder 54a is configured as a rotary encoder that detects the amount of rotational displacement of the shaft 23. The encoder 54b is configured as a linear encoder that detects the raised and lowered position of the shaft 23.

カメラ60は、光軸がシャフト23の軸と平行となるように第2アーム22の先端部側面に取り付けられている。カメラ60は、作業対象のワークWを撮像し、その撮像画像を制御装置70へ出力する。制御装置70は、撮像画像を処理することによりワークWの位置を認識する。The camera 60 is attached to the side of the tip of the second arm 22 so that its optical axis is parallel to the axis of the shaft 23. The camera 60 captures an image of the workpiece W to be worked on and outputs the captured image to the control device 70. The control device 70 recognizes the position of the workpiece W by processing the captured image.

制御装置70は、図3に示すように、CPU71とROM72とRAM73と不揮発性メモリ(記憶装置74)と入出力インタフェース(図示せず)とを備える。制御装置70には、エンコーダ34,44,54a,54bからの位置信号やカメラ60からの画像信号などが入出力インタフェースを介して入力されている。制御装置70からは、モータ32,42,52a,52bへの駆動信号などが入出力インタフェースを介して出力されている。3, the control device 70 includes a CPU 71, a ROM 72, a RAM 73, a non-volatile memory (storage device 74), and an input/output interface (not shown). Position signals from the encoders 34, 44, 54a, and 54b and image signals from the camera 60 are input to the control device 70 via the input/output interface. Drive signals for the motors 32, 42, 52a, and 52b are output from the control device 70 via the input/output interface.

次に、こうして構成された作業ロボット1の動作について説明する。制御装置70のCPU71は、まず、ワークWの上方にカメラ60を移動させるために手先が予め定められた目標位置に移動するよう第1アーム駆動部30と第2アーム駆動部40とシャフト駆動部50とを制御し、ワークWをカメラ60で撮像する。続いて、CPU71は、得られた撮像画像を処理する画像処理を行なってワークWの位置をカメラ座標系で計測する。画像処理は、撮像画像中に写るワークWの座標値を計測し、補正値を用いて計測した座標値に対して位置オフセット補正および回転オフセット補正を実行することにより行なわれる。ここで、補正値は、カメラ60の加工誤差や組付け誤差等によって生じるカメラ60と手先との位置関係のずれを補正するためのものである。補正値は、後述するカメラ位置ずれ測定手順によって予め測定され、記憶装置74に記憶されている。次に、CPU71は、ワークWの位置をロボット座標系に変換し、変換したワークWの位置に基づいてワークWをピックアップするための手先の目標位置を設定する。そして、CPU71は、設定した目標位置に手先が移動するよう第1アーム駆動部30と第2アーム駆動部40とシャフト駆動部50とを制御する。ワークWは、手先が目標位置へ移動することで、手先(ワーク保持部24)によりピックアップされる。Next, the operation of the working robot 1 thus configured will be described. The CPU 71 of the control device 70 first controls the first arm drive unit 30, the second arm drive unit 40, and the shaft drive unit 50 so that the hand moves to a predetermined target position in order to move the camera 60 above the workpiece W, and captures the workpiece W with the camera 60. Next, the CPU 71 performs image processing to process the captured image and measures the position of the workpiece W in the camera coordinate system. The image processing is performed by measuring the coordinate values of the workpiece W shown in the captured image, and performing position offset correction and rotation offset correction on the measured coordinate values using the correction values. Here, the correction values are used to correct the deviation in the positional relationship between the camera 60 and the hand caused by processing errors, assembly errors, etc. of the camera 60. The correction values are measured in advance by a camera position deviation measurement procedure described later, and stored in the storage device 74. Next, the CPU 71 converts the position of the workpiece W into the robot coordinate system, and sets the target position of the hand for picking up the workpiece W based on the converted position of the workpiece W. Then, the CPU 71 controls the first arm driving unit 30, the second arm driving unit 40, and the shaft driving unit 50 so that the end effector moves to the set target position. The workpiece W is picked up by the end effector (workpiece holding unit 24) as the end effector moves to the target position.

次に、カメラ位置ずれ測定手順について説明する。図4は、カメラ位置ずれ測定手順の一例を示す説明図である。カメラ位置ずれ測定手順は、ステップS100~S150により実行される。Next, the camera position deviation measurement procedure will be described. FIG. 4 is an explanatory diagram showing an example of the camera position deviation measurement procedure. The camera position deviation measurement procedure is executed by steps S100 to S150.

ステップS100は、図5に示すように、シャフト23の先端に設けられたツール保持部24(手先)にマーク付き治具100を装着する。マーク付き治具100は、ツール保持部24に装着される装着箇所からシャフト23に直交する方向に離間した位置にマークMを有する。ステップS110は、シャフト23が所定角度ずつ(例えば、10度ずつ)回転するようシャフト駆動部50を制御し、シャフト23が所定角度回転する毎に、カメラ60でマークMを撮像する。これにより、複数の回転位置n(n=1,2,3,k)においてマークMの撮像画像が得られる。ステップS120は、撮像画像からカメラ60の位置ずれを含む実際のカメラ視野を基準とした座標系(Xvrvr座標系)において、回転位置n毎のマーク位置(xvn,yvn)(n=1,2,3,k)を測定する。マーク位置(xvn,yvn)の測定は、撮像画像を処理して画像に写ったマークMの中心座標を求めることにより行なわれる。 In step S100, as shown in FIG. 5, the marked jig 100 is attached to the tool holding unit 24 (hand tip) provided at the tip of the shaft 23. The marked jig 100 has a mark M at a position spaced apart from the attachment position on the tool holding unit 24 in a direction perpendicular to the shaft 23. In step S110, the shaft driving unit 50 is controlled so that the shaft 23 rotates at a predetermined angle (for example, 10 degrees), and the camera 60 captures the mark M every time the shaft 23 rotates at the predetermined angle. As a result, captured images of the mark M are obtained at a plurality of rotation positions n (n=1, 2, 3 , ... , k ). In step S120, the mark position ( xvn , yvn ) (n=1, 2, 3, ..., k) for each rotation position n is measured in a coordinate system ( XvrYvr coordinate system ) based on the actual camera field of view including the positional deviation of the camera 60 from the captured image . The mark position (x vn , y vn ) is measured by processing the captured image and determining the central coordinates of the mark M shown in the image.

ステップS130は、Xvrvr座標系において測定したマーク位置(xvn,yvn)(n=1,2,3,k)と、Xvrvr座標系において予めROM72に記憶された理想的なマーク位置(x in ,y in )(n=1,2,3,k)との差分に基づいてカメラ60の位置ずれ(xc,yc)と回転ずれθcとを導出する。位置ずれ(xc,yc)は、それぞれXvr軸方向における位置ずれ量とYvr軸方向における位置ずれ量とを示す。また、回転ずれθcは、カメラ60の位置ずれを含まない設計上のカメラ視野に対するカメラ60の位置ずれを含む実際のカメラ視野の回転方向におけるずれ量を示す。ステップS130は、本実施形態においては、次式(1)~(3)により定義されるXvr軸方向における差分f xn とYvr軸方向における差分f yn との平方和Fが最小化する位置ずれ(xc,yc)と回転ずれθcとの組合せを遺伝的アルゴリズムやニュートンラフソン法などの周知の最小化アルゴリズムを用いて導出することにより行なわれる。ステップS140は、回転ずれθcを用いて次式(4)および(5)により、位置ずれ(xc,yc)を、実際のカメラ視野を基準とした座標系(Xvrvr座標系)から設計上のカメラ視野を基準とした座標系(Xvivi座標系)に変換する。これにより、Xvivi座標系において、カメラ60のXvivi軸方向における位置ずれ(xci,yci)が導出される。ステップS150は、位置ずれ(xci,yci)と同量で方向が逆の位置オフセット値と、回転ずれθcと同量で方向が逆の回転オフセット値とを補正値として記憶装置74に登録する。これにより、ワークWをピックアップするに際して、カメラ60でワークWを撮像して測定したワークWの位置をオフセット補正(位置オフセットおよび回転オフセット)することで、カメラ60の位置ずれに拘わらずワークWの位置を正しく認識することができる。この結果、作業(ピックアップ)の精度をより高めることができる。 Step S130 derives the positional deviation ( xc , yc ) and rotational deviation θc of the camera 60 based on the difference between the mark position ( xvn , yvn ) (n=1, 2, 3 , ..., k ) measured in the XvrYvr coordinate system and the ideal mark position ( xin , yin ) (n=1, 2, 3 , ... , k ) stored in advance in the ROM 72 in the XvrYvr coordinate system. The positional deviation ( xc , yc ) indicates the amount of positional deviation in the Xvr axis direction and the amount of positional deviation in the Yvr axis direction , respectively. Furthermore, the rotational deviation θc indicates the amount of deviation in the rotational direction of the actual camera field of view including the positional deviation of the camera 60 with respect to the designed camera field of view not including the positional deviation of the camera 60. In this embodiment, step S130 is performed by deriving a combination of positional deviation (xc, yc) and rotational deviation θc that minimizes the sum of squares F of the difference fxn in the Xvr axis direction and the difference fyn in the Yvr axis direction defined by the following expressions ( 1) to ( 3 ), using a well-known minimization algorithm such as a genetic algorithm or a Newton-Raphson method. Step S140 converts the positional deviation ( xc , yc ) from a coordinate system based on the actual camera view ( XvrYvr coordinate system ) to a coordinate system based on the designed camera view ( XviYvi coordinate system) using the rotational deviation θc according to the following expressions ( 4 ) and (5). As a result, the positional deviation (xci , yci ) of camera 60 in the XviYvi axis direction is derived in the XviYvi coordinate system. In step S150, a position offset value that is the same amount as the positional deviation (x ci , y ci ) but in the opposite direction, and a rotation offset value that is the same amount as the rotational deviation θ c but in the opposite direction are registered in the storage device 74 as correction values. As a result, when picking up the workpiece W, the position of the workpiece W measured by capturing an image of the workpiece W with the camera 60 is offset corrected (position offset and rotation offset), so that the position of the workpiece W can be correctly recognized regardless of the positional deviation of the camera 60. As a result, the accuracy of the operation (pickup) can be further improved.

Figure 0007576620000001
Figure 0007576620000001

ここで、ステップS130において、測定したマーク位置(xvn,yvn)と理想的なマーク位置(x in ,y in )との間には、理論上、次式(6)および(7)が成立する。このため、式(6)および(7)を用いてカメラ60の位置ずれ(xc,yc)と回転ずれθcとを導出することが可能である。しかし、実際には、両者の関係には、様々な誤差が含まれるため、差分f xn ,f yn との平方和Fが最小化する位置ずれ(xc,yc)と回転ずれθcとの組合せを求めることで、補正精度をより高めることができる。 Here, in step S130, the following formulas (6) and (7) theoretically hold between the measured mark position ( xvn , yvn ) and the ideal mark position ( xin , yin ). For this reason, it is possible to derive the positional shift ( xc , yc ) and rotational shift θc of the camera 60 using formulas (6) and (7). However, in reality, the relationship between the two contains various errors, so the correction accuracy can be further improved by finding a combination of the positional shift ( xc , yc ) and rotational shift θc that minimizes the sum of squares F with the differences fxn , fyn .

Figure 0007576620000002
Figure 0007576620000002

ここで、実施形態の主要な要素と請求の範囲に記載した本開示の主要な要素との対応関係について説明する。即ち、本実施形態では、多関節アーム20がロボットアームに相当し、ツール保持部24がハンドに相当し、カメラ60がカメラに相当する。Here, we will explain the correspondence between the main elements of the embodiment and the main elements of the present disclosure described in the claims. That is, in this embodiment, the articulated arm 20 corresponds to a robot arm, the tool holding unit 24 corresponds to a hand, and the camera 60 corresponds to a camera.

なお、本開示は上述した実施形態に何ら限定されることはなく、本開示の技術的範囲に属する限り種々の態様で実施し得ることはいうまでもない。It goes without saying that the present disclosure is in no way limited to the above-described embodiments, and may be implemented in various forms as long as they fall within the technical scope of the present disclosure.

例えば、上述した実施形態では、本開示のカメラの位置ずれ測定方法を水平多関節ロボットに適用して説明した。しかし、これに限定されるものではなく、例えば垂直多関節ロボットなど、ロボットアームと、ロボットアームの先端部に回転軸を介して取り付けられたハンドと、光軸が回転軸と平行となるようにロボットアームに取り付けられたカメラと、を有する構成であれば、如何なる構成のロボットにも適用可能である。For example, in the above-described embodiment, the camera position deviation measuring method of the present disclosure has been described as being applied to a horizontal articulated robot. However, the present disclosure is not limited to this, and the present invention can be applied to any robot configuration, such as a vertical articulated robot, as long as the robot has a robot arm, a hand attached to the tip of the robot arm via a rotation axis, and a camera attached to the robot arm so that the optical axis is parallel to the rotation axis.

以上説明したように、本開示のカメラの位置ずれ測定方法は、ロボットアームと、該ロボットアームの先端部に回転軸を介して取り付けられたハンドと、光軸が前記回転軸と平行となるように前記ロボットアームに取り付けられたカメラと、を有するロボットにおける前記カメラの位置ずれを測定するカメラの位置ずれ測定方法であって、マークを有する治具を前記ハンドに装着するステップ(a)と、前記ハンドを前記回転軸周りに回転させながら複数の回転位置において前記カメラで前記マークを撮像するステップ(b)と、前記複数の回転位置においてそれぞれ撮像された各撮像画像に写るマークの位置と理想的なマークの位置との差分に基づいて前記カメラの位置ずれを求めるステップ(c)と、を備えることを要旨とする。As described above, the camera positional deviation measurement method disclosed herein is a camera positional deviation measurement method for measuring the positional deviation of a robot having a robot arm, a hand attached to the tip of the robot arm via a rotation axis, and a camera attached to the robot arm so that its optical axis is parallel to the rotation axis, and comprises the steps of: (a) attaching a jig having a mark to the hand; (b) capturing images of the mark with the camera at a plurality of rotational positions while rotating the hand around the rotation axis; and (c) determining the positional deviation of the camera based on the difference between the position of the mark appearing in each of the captured images taken at the plurality of rotational positions and an ideal mark position.

この本開示のカメラの位置ずれ量測定方法は、ロボットアームと、ロボットアームの先端部に回転軸を介して取り付けられたハンドと、光軸が回転軸と平行となるようにロボットアームに取り付けられたカメラと、を有するロボットにおけるカメラの位置ずれを測定するものである。この方法では、マークが付された治具をハンドに装着し、ハンドを回転軸周りに回転させながら複数の回転位置においてカメラによりマークを撮像する。そして、複数の回転位置においてそれぞれ撮像された各撮像画像に写るマークの位置と理想的なマークの位置との差分に基づいてカメラの位置ずれを求める。これにより、アームに取り付けられたカメラの位置ずれの測定を簡易な手順により行なうことができる。The camera misalignment measurement method disclosed herein measures the misalignment of a camera in a robot having a robot arm, a hand attached to the tip of the robot arm via a rotation axis, and a camera attached to the robot arm so that its optical axis is parallel to the rotation axis. In this method, a jig with a mark is attached to the hand, and the mark is captured by the camera at multiple rotation positions while the hand is rotated around the rotation axis. The camera misalignment is then calculated based on the difference between the position of the mark in each captured image taken at each of the multiple rotation positions and the ideal position of the mark. This allows the measurement of the misalignment of the camera attached to the arm to be performed using a simple procedure.

この本開示のカメラの位置ずれ測定方法において、前記ステップ(c)は、実際のカメラ視野を基準としたXvrvr座標系において、前記ステップ(b)により各回転位置n(n=1,2…)でそれぞれ撮像され測定されたマークの位置を(xvn,yvn)とし、前記各回転位置n(n=1,2…)での理想的なマークの位置を(xin,yin)とし、Xvr軸方向およびYvr軸方向における前記カメラの各位置ずれを(xc,yc)とすると共に設計上のカメラ視野に対する前記実際のカメラ視野の回転方向の回転ずれをθcとしたとき、前記測定されたマーク位置(xvn,yvn)と前記理想的なマーク位置(xin,yin)との関係を表わす関係式を用いて前記位置ずれ(xc,yc)と前記回転ずれθcとを求め、前記回転ずれθcに基づいて前記位置ずれ(xc,yc)の座標系を前記Xvrvr座標系から前記設計上のカメラ視野を基準としたXvivi座標系に変換することで前記カメラの位置ずれを求めるものとしてもよい。こうすれば、各回転位置nでそれぞれカメラで撮像され測定されたマークの位置から簡易な処理によりカメラの位置ずれを求めることができる。 In the camera positional deviation measuring method disclosed herein, in an XvrYvr coordinate system based on an actual camera field of view, when the position of the mark imaged and measured at each rotational position n (n=1, 2, . . .) in step (b) is ( xvn , yvn ), the ideal position of the mark at each rotational position n (n=1, 2, . . . ) is (xin, yin ), the positional deviations of the camera in the Xvr axis direction and the Yvr axis direction are ( xc , yc ), and a rotational deviation in the rotation direction of the actual camera field of view with respect to the designed camera field of view is θc , the positional deviation ( xc , yc ) and the rotational deviation θc are calculated using a relational expression that represents the relationship between the measured mark position ( xvn , yvn ) and the ideal mark position ( xin , yin), and the coordinate system of the positional deviation (xc, yc ) is calculated based on the rotational deviation θc . The positional deviation of the camera may be calculated by converting the vr coordinate system into an XviYvi coordinate system based on the designed camera field of view. In this way, the positional deviation of the camera can be calculated by simple processing from the positions of the marks captured and measured by the cameras at each rotational position n.

この場合、前記ステップ(c)は、式(1)~(3)で定義される平方和Fが最小化する前記位置ずれ(xc,yc)と前記回転ずれθcとの組合せを所定の最小化アルゴリズムを用いて求め、次式(4)および(5)により前記位置ずれ(xc,yc)の座標系を前記Xvrvr座標系から前記Xvivi座標系に変換することで、前記Xvivi座標系における位置ずれ(xci,yci)を求めるものとしてもよい。こうすれば、カメラの位置ずれや回転ずれの測定精度を更に高めることができる。 In this case, the step (c) may involve using a predetermined minimization algorithm to find a combination of the positional shift ( xc , yc ) and the rotational shift θc that minimizes the sum of squares F defined by equations (1) to (3), and converting the coordinate system of the positional shift ( xc , yc ) from the XvrYvr coordinate system to the XviYvi coordinate system by the following equations (4) and (5) to find the positional shift ( xci , yci ) in the XviYvi coordinate system. In this way, the measurement accuracy of the positional shift and rotational shift of the camera can be further improved.

また、本開示のカメラの位置ずれ測定方法において、前記ステップ(c)で求めた前記カメラの位置ずれおよび回転ずれに応じたオフセット値を前記カメラで撮像して測定した対象物の位置を補正するための補正値として登録するものとしてもよい。こうすれば、カメラを用いて対象物の位置を精度良く認識することが可能である。In addition, in the camera position shift measuring method disclosed herein, the offset value corresponding to the position shift and rotation shift of the camera obtained in step (c) may be registered as a correction value for correcting the position of the object captured and measured by the camera. In this way, it is possible to accurately recognize the position of the object using the camera.

本開示は、ロボットの製造産業などに利用可能である。 This disclosure can be used in the robot manufacturing industry, etc.

1 作業ロボット、2 作業台、10 ロボット本体、11 基台、20 多関節アーム、21 第1アーム、22 第2アーム、23 シャフト、30 第1アーム駆動部、32 モータ、34 エンコーダ、40 第2アーム駆動部、42 モータ、44 エンコーダ、50 シャフト駆動部、52a,52b モータ、54a,54b エンコーダ、60 カメラ、70 制御装置、71 CPU、72 ROM、73 RAM、74 記憶装置、J1 第1関節軸、J2 第2関節軸、J3 第3関節軸。 1 Working robot, 2 Work table, 10 Robot body, 11 Base, 20 Articulated arm, 21 First arm, 22 Second arm, 23 Shaft, 30 First arm drive unit, 32 Motor, 34 Encoder, 40 Second arm drive unit, 42 Motor, 44 Encoder, 50 Shaft drive unit, 52a, 52b Motor, 54a, 54b Encoder, 60 Camera, 70 Control device, 71 CPU, 72 ROM, 73 RAM, 74 Storage device, J1 First joint axis, J2 Second joint axis, J3 Third joint axis.

Claims (2)

ロボットアームと、該ロボットアームの先端部に回転軸を介して取り付けられたハンドと、光軸が前記回転軸と平行となるように前記ロボットアームに取り付けられたカメラと、を有するロボットにおける前記カメラの位置ずれを測定するカメラの位置ずれ測定方法であって、
マークを有する治具を前記ハンドに装着するステップ(a)と、
前記ハンドを前記回転軸周りに回転させながら複数の回転位置において前記カメラで前記治具が有する前記マークを撮像するステップ(b)と、
前記複数の回転位置においてそれぞれ撮像された各撮像画像に写る前記マークの位置と当該回転位置における理想的な前記マークの位置との差分に基づいて前記カメラの位置ずれを求めるステップ(c)と、
を備え
前記ステップ(c)は、実際のカメラ視野を基準としたX vr vr 座標系において、前記ステップ(b)により各回転位置n(n=1,2,…,k)でそれぞれ撮像され測定されたマークの位置を(x vn ,y vn )とし、前記各回転位置n(n=1,2,…,k)での理想的なマークの位置を(x in ,y in )とし、X vr 軸方向およびY vr 軸方向における前記カメラの各位置ずれを(x c ,y c )とすると共に設計上のカメラ視野に対する前記実際のカメラ視野の回転方向の回転ずれをθ c としたとき、前記測定されたマーク位置(x vn ,y vn )と前記理想的なマーク位置(x in ,y in )との関係を表わす関係式を用いて前記位置ずれ(x c ,y c )と前記回転ずれθ c とを求め、前記回転ずれθ c に基づいて前記位置ずれ(x c ,y c )の座標系を前記X vr vr 座標系から前記設計上のカメラ視野を基準としたX vi vi 座標系に変換することで前記カメラの位置ずれを求めるものであって、
次式(1)~(3)で定義される平方和Fが最小化する前記位置ずれ(x c ,y c )と前記回転ずれθ c との組合せを所定の最小化アルゴリズムを用いて求め、次式(4)および(5)により前記位置ずれ(x c ,y c )の座標系を前記X vr vr 座標系から前記X vi vi 座標系に変換することで、前記X vi vi 座標系における位置ずれ(x ci ,y ci )を求める、
カメラの位置ずれ測定方法。
Figure 0007576620000003
1. A method for measuring a positional deviation of a camera in a robot having a robot arm, a hand attached to a tip of the robot arm via a rotation shaft, and a camera attached to the robot arm such that an optical axis of the camera is parallel to the rotation shaft, comprising:
(a) attaching a jig having a mark to the hand;
(b) capturing images of the mark on the jig with the camera at a plurality of rotation positions while rotating the hand around the rotation axis;
a step (c) of calculating a positional deviation of the camera based on a difference between a position of the mark shown in each captured image taken at each of the plurality of rotational positions and an ideal position of the mark at each of the plurality of rotational positions;
Equipped with
In the step (c), in an XvrYvr coordinate system based on an actual camera field of view , when the position of the mark imaged and measured at each rotation position n (n=1, 2, ..., k) in the step (b) is (xvn , yvn ) , the ideal position of the mark at each rotation position n (n=1, 2, ..., k) is (xin, yin), the positional deviations of the camera in the Xvr axis direction and the Yvr axis direction are (xc , yc ) , and a rotational deviation in the rotation direction of the actual camera field of view with respect to the designed camera field of view is θc , the positional deviation ( xc , yc ) and the rotational deviation θc are calculated using a relational expression that represents the relationship between the measured mark position (xvn, yvn) and the ideal mark position (xin , yin ) , and the coordinate system of the positional deviation (xc, yc) is calculated based on the rotational deviation θc . A positional deviation of the camera is calculated by converting the vr coordinate system into an XviYvi coordinate system based on the designed camera field of view ,
A combination of the positional deviation (x c , y c ) and the rotational deviation θ c that minimizes the sum of squares F defined by the following equations (1) to (3) is obtained using a predetermined minimization algorithm, and the coordinate system of the positional deviation (x c , y c ) is transformed from the XvrYvr coordinate system to the XviYvi coordinate system by the following equations ( 4 ) and (5) to obtain the positional deviation (x ci , y ci ) in the XviYvi coordinate system ;
How to measure camera position deviation.
Figure 0007576620000003
請求項1に記載のカメラの位置ずれ測定方法であって、
前記ステップ(c)で求めた前記カメラの位置ずれおよび回転ずれに応じたオフセット値を前記カメラで撮像して測定した対象物の位置を補正するための補正値として登録するステップ(d)を備える
カメラの位置ずれ測定方法。
2. The camera position deviation measuring method according to claim 1 ,
a step (d) of registering an offset value corresponding to the positional and rotational deviations of the camera obtained in the step (c) as a correction value for correcting a position of an object imaged and measured by the camera.
JP2022536096A 2020-07-17 2020-07-17 How to measure camera position deviation Active JP7576620B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/027861 WO2022014043A1 (en) 2020-07-17 2020-07-17 Positional deviation measurement method for camera

Publications (2)

Publication Number Publication Date
JPWO2022014043A1 JPWO2022014043A1 (en) 2022-01-20
JP7576620B2 true JP7576620B2 (en) 2024-10-31

Family

ID=79554589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022536096A Active JP7576620B2 (en) 2020-07-17 2020-07-17 How to measure camera position deviation

Country Status (3)

Country Link
JP (1) JP7576620B2 (en)
CN (1) CN115697652B (en)
WO (1) WO2022014043A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014180720A (en) 2013-03-19 2014-09-29 Yaskawa Electric Corp Robot system and calibration method
JP2015182144A (en) 2014-03-20 2015-10-22 キヤノン株式会社 Robot system and calibration method of robot system
JP2018012184A (en) 2016-07-22 2018-01-25 セイコーエプソン株式会社 Control device, robot and robot system
JP2018094648A (en) 2016-12-09 2018-06-21 セイコーエプソン株式会社 Control device, robot, and robot system
JP2019014031A (en) 2017-07-11 2019-01-31 セイコーエプソン株式会社 Control device for robot, robot, robot system, and calibration method for camera for robot

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2682763B2 (en) * 1991-06-29 1997-11-26 ファナック株式会社 Automatic measurement method of operation error of robot body
JP3296643B2 (en) * 1992-12-21 2002-07-02 松下電工株式会社 Component supply method and device
JP3208953B2 (en) * 1993-09-29 2001-09-17 株式会社デンソー Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision
JP7003462B2 (en) * 2017-07-11 2022-01-20 セイコーエプソン株式会社 Robot control device, robot system, and camera calibration method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014180720A (en) 2013-03-19 2014-09-29 Yaskawa Electric Corp Robot system and calibration method
JP2015182144A (en) 2014-03-20 2015-10-22 キヤノン株式会社 Robot system and calibration method of robot system
JP2018012184A (en) 2016-07-22 2018-01-25 セイコーエプソン株式会社 Control device, robot and robot system
JP2018094648A (en) 2016-12-09 2018-06-21 セイコーエプソン株式会社 Control device, robot, and robot system
JP2019014031A (en) 2017-07-11 2019-01-31 セイコーエプソン株式会社 Control device for robot, robot, robot system, and calibration method for camera for robot

Also Published As

Publication number Publication date
WO2022014043A1 (en) 2022-01-20
JPWO2022014043A1 (en) 2022-01-20
CN115697652B (en) 2025-10-03
CN115697652A (en) 2023-02-03

Similar Documents

Publication Publication Date Title
JP7153085B2 (en) ROBOT CALIBRATION SYSTEM AND ROBOT CALIBRATION METHOD
JP4267005B2 (en) Measuring apparatus and calibration method
JP6661028B2 (en) Work position correction method
JP3946711B2 (en) Robot system
KR102091917B1 (en) Gear mechanism assembly and assembly method
JP2017035754A (en) Robot system with visual sensor and multiple robots
JP2015042437A (en) Robot system and robot system calibration method
JP4289619B2 (en) Tool position correction method for articulated robots
JP2007122705A (en) Welding teaching point correction system and calibration method
JP5450242B2 (en) Manipulator calibration method and robot control system
JP7281910B2 (en) robot control system
JPWO2018092236A1 (en) Work robot and work position correction method
WO2020121399A1 (en) Robot control system and robot control method
EP1886771B1 (en) Rotation center point calculating method, rotation axis calculating method, program creating method, operation method, and robot apparatus
JP2011230249A (en) Method for calibrating sensor of manipulator having visual sensor and robot control system
CN116803628A (en) Object detection method and detection device
WO2018173192A1 (en) Articulated robot parallelism determination method and articulated robot inclination adjustment device
JP7576620B2 (en) How to measure camera position deviation
JPH09222913A (en) Robot teaching position correction device
JPH06785A (en) Correcting method for visual sensor coordinate system
CN114571199B (en) Screw locking machine and screw positioning method
JP7744979B2 (en) Camera position deviation correction method and robot device
WO2023032400A1 (en) Automatic transport device, and system
CN114939865A (en) Calibration method
CN113492401A (en) Correction method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240319

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240918

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241021

R150 Certificate of patent or registration of utility model

Ref document number: 7576620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载