+

JP2025099234A - Robot Control Device - Google Patents

Robot Control Device Download PDF

Info

Publication number
JP2025099234A
JP2025099234A JP2023215731A JP2023215731A JP2025099234A JP 2025099234 A JP2025099234 A JP 2025099234A JP 2023215731 A JP2023215731 A JP 2023215731A JP 2023215731 A JP2023215731 A JP 2023215731A JP 2025099234 A JP2025099234 A JP 2025099234A
Authority
JP
Japan
Prior art keywords
robot
workpiece
work
data
reference position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023215731A
Other languages
Japanese (ja)
Inventor
孝芳 伊藤
Takayoshi Ito
治輝 滝口
Haruki Takiguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Futaba Industrial Co Ltd
Original Assignee
Futaba Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Futaba Industrial Co Ltd filed Critical Futaba Industrial Co Ltd
Priority to JP2023215731A priority Critical patent/JP2025099234A/en
Publication of JP2025099234A publication Critical patent/JP2025099234A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To measure a positional deviation amount generated by installation errors, without moving a robot to an actual work position.
SOLUTION: A robot control device includes a 3D data storage part, an operation data storage part, an imaging part, a display part, a display control part, and a robot control part. The imaging part can image a workspace including a facility, a robot, and a workpiece, and the display part can display an actual image imaged by the imaging part. The display control part specifies a predetermined reference position separated from a work area to the workpiece in the actual image of the workspace, and displays a virtual image of a work tool when making the robot working at the reference position while overlapping the actual image, and the robot control part moves the work tool of the robot to the reference position in the workspace.
SELECTED DRAWING: Figure 2
COPYRIGHT: (C)2025,JPO&INPIT

Description

本開示は、ロボット制御装置に関する。 This disclosure relates to a robot control device.

ワークに対し所定の作業を行うロボットとして、作業工程順に作業位置や動きがプログラミングされた動作データに従いロボット各部を駆動制御することで、一連の作業を自動で実施するように構成されたものが知られている。また、この種のロボットの動作データをプログラミングする装置としては、例えば、特許文献1、2に記載のような、オフラインティーチング装置が知られている。 As a robot that performs a specific task on a workpiece, there is known a robot that is configured to automatically perform a series of tasks by controlling the drive of each part of the robot according to operation data in which the work positions and movements are programmed in the order of the work processes. In addition, as a device for programming the operation data of this type of robot, for example, an offline teaching device such as that described in Patent Documents 1 and 2 is known.

オフラインティーチング装置は、ロボットが設置される作業空間の設備を、仮想空間として表示装置に表示させ、使用者が、その仮想空間内でロボットの作業位置や動き(移動軌跡など)を入力することで、動作データを生成できるようにしたものである。オフラインティーチング装置は、ロボットを作業環境外でオフラインプログラミング(以下、OLP)するものであることから、使用者は、現実の作業空間内でロボットを動作させることなく、動作データを生成することができる。 The offline teaching device displays the equipment in the work space where the robot is installed as a virtual space on a display device, and allows the user to generate operation data by inputting the robot's work position and movements (such as movement trajectory) within that virtual space. Because the offline teaching device performs offline programming (hereinafter referred to as OLP) of the robot outside the work environment, the user can generate operation data without operating the robot in the actual work space.

WO2016/021130号公報WO2016/021130 publication 特開2012-24867号公報JP 2012-24867 A

ところで、OLPにて生成された動作データを、現実の作業空間内に設置されたロボットに組み込み、ロボットを動作させると、ロボットの設置誤差などによって、ロボットによる作業位置が、使用者が指定した作業位置からずれてしまうことがある。そして、このように作業位置がずれた場合、ロボットを動作データにて実際に動作させて、作業位置での位置ずれ量を計測し、その計測結果に基づき、動作データを補正することが考えられる。 However, when the operation data generated by the OLP is incorporated into a robot installed in an actual work space and the robot is operated, the work position of the robot may deviate from the work position specified by the user due to robot installation errors, etc. If the work position deviates in this way, it is conceivable to actually operate the robot using the operation data, measure the amount of positional deviation at the work position, and correct the operation data based on the measurement results.

しかし、動作データの補正のために、設置誤差が生じているロボットを、動作データを用いて実際に動作させると、ロボットが、作業空間内の設備(例えば、作業対象となるワークが固定された治具など)と干渉して、ロボットや設備の一部が破損する虞がある。また、ロボットを動作データを用いて実際に動作させて、設置誤差を検出するには、時間がかかることから、動作データ補正のための工数が増加するという問題もある。 However, if a robot with installation errors is actually operated using the operation data in order to correct the operation data, there is a risk that the robot will interfere with equipment in the workspace (such as a jig to which the workpiece to be operated is fixed), causing damage to the robot or part of the equipment. In addition, it takes time to actually operate a robot using operation data to detect installation errors, which creates the problem of increased man-hours required to correct the operation data.

本開示の一局面は、OLPなどにて生成された動作データに従いロボットを制御するロボット制御装置において、ロボットを実際の作業位置まで移動させることなく、設置誤差などによって生じる位置ずれ量を計測できるようにすることを目的とする。 One aspect of the present disclosure is to enable a robot control device that controls a robot according to operation data generated by an OLP or the like to measure the amount of positional deviation caused by installation errors, etc., without moving the robot to the actual work position.

本開示の1つの態様によるロボット制御装置は、ワークに対する所定の作業を行う作業具を備えたロボットの動作を制御するロボット制御装置であって、3Dデータ記憶部と、動作データ記憶部と、撮像部と、表示部と、表示制御部と、ロボット制御部と、を備える。 A robot control device according to one aspect of the present disclosure is a robot control device that controls the operation of a robot equipped with a work tool that performs a specified task on a workpiece, and includes a 3D data storage unit, an operation data storage unit, an imaging unit, a display unit, a display control unit, and a robot control unit.

このうち、3Dデータ記憶部には、ロボットの3Dデータ、及び、ロボットが設置される作業空間内の設備の3Dデータ、を含む3Dデータが記憶されている。また、動作データ記憶部には、ワークに対する作業を実施するために予め教示されたロボットの動きを表す動作データが記憶されている。 The 3D data storage unit stores 3D data including the robot's 3D data and 3D data of the equipment in the work space in which the robot is installed. The operation data storage unit stores operation data representing the movements of the robot that have been taught in advance to perform operations on a workpiece.

また、撮像部は、設備、ロボット、及び、ワークを含む、作業空間を撮像可能に構成されており、表示部は、その撮像部にて撮像された作業空間の実画像を表示可能に構成されている。 The imaging unit is configured to capture an image of the work space including the equipment, the robot, and the workpiece, and the display unit is configured to display an actual image of the work space captured by the imaging unit.

表示制御部は、表示部に表示された作業空間内の設備の実画像と、設備の3Dデータとに基づき、実画像内でワークに対する作業領域から離れた所定の基準位置を特定する。そして、表示制御部は、ロボットの3Dデータに基づき、基準位置にてロボットを作業させたときの作業具の仮想画像を、表示部に表示された実画像に重畳して表示させる。 The display control unit identifies a predetermined reference position in the actual image that is away from the work area for the workpiece, based on the actual image of the equipment in the work space displayed on the display unit and the 3D data of the equipment. Then, based on the 3D data of the robot, the display control unit displays a virtual image of the work tool when the robot is operating at the reference position, superimposed on the actual image displayed on the display unit.

また、ロボット制御部は、動作データに基づき、ロボットの作業具を作業空間内の基準位置まで移動させて、作業具に対し動作位置確認用の作業を実施させる。
つまり、本開示のロボット制御装置においては、AR(拡張現実)技術を利用して、表示部に表示された作業空間内の設備の実画像内の所定の基準位置に、作業具の仮想画像を表示することで、表示画像を仮想的に拡張する。また、ロボットを実際に動作させることで、作業具を作業空間内の基準位置まで移動させる。
Furthermore, the robot control unit moves the work tool of the robot to a reference position within the working space based on the operation data, and causes the work tool to perform an operation for confirming the operating position.
In other words, the robot control device of the present disclosure utilizes AR (augmented reality) technology to virtually extend the displayed image by displaying a virtual image of a tool at a predetermined reference position within an actual image of equipment in the work space displayed on a display unit, and the tool is moved to the reference position within the work space by actually operating the robot.

このようにロボットを動作させて、ロボットの作業具を基準位置まで正確に移動させることができれば、表示画面上で作業具の実画像と仮想画像とが重なり合うことになる。このため、使用者は、その表示画像から、ロボットが所定の位置に設置されていることを確認できる。 If the robot can be operated in this way and the robot's work tool can be moved accurately to the reference position, the actual image of the work tool and the virtual image will overlap on the display screen. This allows the user to confirm from the displayed image that the robot is placed in the specified position.

一方、ロボットの設置誤差などによって、ロボットの作業具が基準位置からずれていれば、表示画面上で作業具の実画像と仮想画像とにずれが生じる。そして、そのずれは、作業具、延いてはロボットの位置ずれ量として、表示画面上で確認することができる。従って、使用者は、その位置ずれ量を計測して、動作データの補正量として入力することで、ロボットの動作データを補正することができるようになる。 On the other hand, if the robot's work tool is misaligned from the reference position due to an error in robot installation or the like, a misalignment will occur between the actual image and virtual image of the work tool on the display screen. This misalignment can then be confirmed on the display screen as the amount of misalignment of the work tool, and ultimately the robot. Therefore, the user can correct the robot's operation data by measuring the amount of misalignment and inputting it as a correction amount for the operation data.

よって、本開示のロボット制御装置によれば、ロボットの作業具を基準位置まで移動させることで、設置誤差などによって生じる作業位置のずれを、AR技術を利用した表示画面上で計測できるようになり、動作データの補正を短時間で実施することができる。 Therefore, according to the robot control device disclosed herein, by moving the robot's work tool to a reference position, it becomes possible to measure the deviation of the work position caused by installation errors, etc. on a display screen using AR technology, and correction of the operation data can be performed in a short time.

また、基準位置は、ワークに対する作業領域から離れた位置に設定されることから、ロボットの作業具を基準位置に移動させる際に、ロボットと作業空間内の設備とが干渉して、これらの一部が損傷するのを抑制できる。よって、動作データの補正を安全に実施することができる。 In addition, because the reference position is set at a position away from the working area for the workpiece, it is possible to prevent the robot from interfering with equipment in the working space and damaging parts of the equipment when the robot's tool is moved to the reference position. This makes it possible to safely correct the operation data.

ここで、本開示のロボット制御装置においては、更に、入力部と、補正部が備えられてもよい。このうち、入力部は、基準位置に表示された作業具の仮想画像と実画像との位置ずれ量を入力可能に構成される。また、補正部は、入力部から入力された基準位置での作業具の位置ずれ量に基づき、ロボットによる複数の作業点で位置ずれが生じることのないよう、動作データを補正するように構成される。 Here, the robot control device of the present disclosure may further include an input unit and a correction unit. Of these, the input unit is configured to be able to input the amount of positional deviation between the virtual image and the actual image of the work tool displayed at the reference position. Furthermore, the correction unit is configured to correct the operation data based on the amount of positional deviation of the work tool at the reference position input from the input unit so that positional deviation does not occur at multiple work points performed by the robot.

このように構成されたロボット制御装置によれば、補正部は、入力部から入力される位置ずれ量に基づき、動作データを補正するようになり、動作データの補正のための使用者の作業を軽減して、ロボット制御装置の使い勝手を向上できる。 With a robot control device configured in this way, the correction unit corrects the operation data based on the amount of positional deviation input from the input unit, reducing the user's work in correcting the operation data and improving the usability of the robot control device.

次に、本開示のロボット制御装置においては、3Dデータ記憶部に、ロボットによる作業対象となるワークの3Dデータが記憶されていてもよい。この場合、ロボット制御部は、補正部にて補正された動作データに基づき、ロボットを動作させて、動作検証用の作業を実施させるように構成されてもよい。また、表示制御部は、ロボット制御部がロボットに対し動作検証用の作業を実施させているとき、画像データ記憶部に記憶されたワークの3Dデータに基づき、表示部に表示された実画像に対し、ワークの仮想画像を重畳して表示させるように構成されてもよい。 Next, in the robot control device of the present disclosure, the 3D data storage unit may store 3D data of the workpiece to be worked on by the robot. In this case, the robot control unit may be configured to operate the robot to perform work for operational verification based on the operation data corrected by the correction unit. Furthermore, the display control unit may be configured to display a virtual image of the workpiece superimposed on the actual image displayed on the display unit based on the 3D data of the workpiece stored in the image data storage unit when the robot control unit is causing the robot to perform work for operational verification.

このように構成されたロボット制御装置によれば、使用者は、ロボット制御部に対し、補正部にて補正された動作データに基づきロボットを動作させて、動作検証用の作業を実施させることができる。また、このとき、表示部には、AR技術を利用して、作業空間の実画像に対し、ワークの仮想画像が重畳された画像が表示されるので、使用者は、その表示画面上で、ロボットの動きや、ワークに対する作業位置を確認することができる。 With the robot control device configured in this way, the user can have the robot control unit operate the robot based on the operation data corrected by the correction unit to perform the operation verification task. At this time, the display unit uses AR technology to display an image in which a virtual image of the workpiece is superimposed on an actual image of the work space, so the user can check the robot's movement and the work position relative to the workpiece on the display screen.

よって、本開示のロボット制御装置によれば、使用者は、作業空間内の設備(例えば、治具)に対し、実際にワークを装着することなく、ワークに対するロボットの動作を確認することができるようになり、その確認作業を容易に行うことができる。 Therefore, with the robot control device disclosed herein, the user can check the robot's operation on a workpiece without actually attaching the workpiece to equipment (e.g., a jig) in the workspace, making the checking process easy.

また、本開示のロボット制御装置において、基準位置は、作業空間内で設備の外に設定されてもよい。このようにすれば、ロボット制御部が、ロボットの作業具を基準位置に移動させる際に、ロボットと作業空間内の設備とが干渉するのを、より良好に抑制することができ、動作データの補正をより安全に実施することができるようになる。 Furthermore, in the robot control device disclosed herein, the reference position may be set outside the equipment within the workspace. In this way, when the robot control unit moves the robot's tool to the reference position, interference between the robot and the equipment within the workspace can be better suppressed, and correction of the operation data can be performed more safely.

実施形態のロボットの作業空間全体の構成を表す概略構成図である。1 is a schematic diagram illustrating the overall configuration of a working space of a robot according to an embodiment. ロボット制御装置として機能する情報処理装置の構成を表すブロック図である。FIG. 2 is a block diagram showing a configuration of an information processing device that functions as a robot control device. 情報処理装置において実行される補正処理を表すフローチャートである。11 is a flowchart showing a correction process executed in the information processing device. 補正処理でのロボットの動き及び表示部の表示画面を表す説明図である。11A to 11C are explanatory diagrams showing the movement of the robot and the display screen of the display unit during the correction process. 情報処理装置において実行される作業確認処理を表すフローチャートである。11 is a flowchart showing a task confirmation process executed in an information processing device.

以下、図面を参照しながら、本開示の実施形態を説明する。
[実施形態]
[構成]
図1に示すように、ロボット2は、作業対象となる設備8を含む作業空間10内の所定位置に固定される。作業空間10内の設備8は、ワーク4が装着される治具6を含む各種機器にて構成されており、ロボット2は、治具6に装着されたワーク4に対し、所定の作業を行う。なお、本実施形態のロボット2は、金属製のワーク4に対する溶接作業を行う、溶接ロボットである。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[Embodiment]
[composition]
1, the robot 2 is fixed at a predetermined position in a work space 10 including equipment 8 to be operated. The equipment 8 in the work space 10 is composed of various devices including a jig 6 to which a workpiece 4 is attached, and the robot 2 performs a predetermined operation on the workpiece 4 attached to the jig 6. The robot 2 in this embodiment is a welding robot that performs welding work on the metal workpiece 4.

ロボット2は、作業空間10内に位置決め固定される基台12と、一端が基台12に固定された第1アーム14と、第1アーム14の他端に固定された第2アーム16と、第2アーム16の先端に固定されたヘッド20とを備える。 The robot 2 comprises a base 12 that is positioned and fixed within the workspace 10, a first arm 14 having one end fixed to the base 12, a second arm 16 that is fixed to the other end of the first arm 14, and a head 20 that is fixed to the tip of the second arm 16.

第1アーム14は、基台12に対し、矢印A方向に揺動可能かつ矢印B方向(換言すれば第1アーム14の軸周り)に回動可能に固定されている。また、第2アーム16は、第1アーム14に対し矢印C方向に回動可能に固定されている。また、ヘッド20は、第2アーム16の先端に、矢印D方向に揺動可能かつ矢印E方向(換言すれば第2アーム16の軸周り)に回動可能に固定されている。 The first arm 14 is fixed to the base 12 so that it can swing in the direction of arrow A and rotate in the direction of arrow B (in other words, around the axis of the first arm 14). The second arm 16 is fixed to the first arm 14 so that it can rotate in the direction of arrow C. The head 20 is fixed to the tip of the second arm 16 so that it can swing in the direction of arrow D and rotate in the direction of arrow E (in other words, around the axis of the second arm 16).

そして、第1アーム14、第2アーム16、及び、ヘッド20の固定部分には、これら各部を揺動或いは回動させるためのアクチュエータ(図示せず)が設けられている。なお、アクチュエータは、モータなどにて構成される。 The fixed parts of the first arm 14, the second arm 16, and the head 20 are provided with actuators (not shown) for swinging or rotating these parts. The actuators are constituted by motors, etc.

従って、ロボット2は、これらアクチュエータを介して、上記各部を揺動或いは回動させることで、作業空間10内でヘッド20を移動させて、ヘッド20の位置及び向きを調整できる。 The robot 2 can therefore move the head 20 within the working space 10 by swinging or rotating each of the above-mentioned parts via these actuators, thereby adjusting the position and orientation of the head 20.

次に、ヘッド20には、作業具として、スポット溶接のための一対の電極22、24が突設されている。ヘッド20内には、一方の電極22を矢印F方向に揺動させることで、電極22-24間にワーク4を挟み、溶接時の加圧力を調整するためのアクチュエータ(図示せず)が設けられている。 Next, a pair of electrodes 22, 24 for spot welding protrude from the head 20 as working tools. An actuator (not shown) is provided inside the head 20 to adjust the welding pressure by swinging one of the electrodes 22 in the direction of the arrow F to sandwich the workpiece 4 between the electrodes 22 and 24.

従って、ロボット2は、上記各アクチュエータを駆動することで、ヘッド20を、ワーク4に対する作業位置として予め設定された複数の溶接点Pwへ順に移動させて、各溶接点Pwにて、溶接作業を実施することができる。 Therefore, by driving each of the actuators, the robot 2 can move the head 20 in sequence to multiple welding points Pw that are preset as work positions for the workpiece 4, and perform welding work at each welding point Pw.

そして、こうした溶接作業を自動で実施できるようにするため、基台12内には、メモリに記憶された動作データに従い上記各アクチュエータを駆動する、駆動制御回路28が設けられている。 To enable this welding operation to be performed automatically, a drive control circuit 28 is provided within the base 12, which drives each of the actuators according to the operation data stored in the memory.

上記動作データは、情報処理装置30において、上述したOLPにより、ロボット2を実際に動作させることなく生成される。つまり、情報処理装置30は、本開示のロボット制御装置に相当し、上述したオフラインティーチング装置として機能する。 The above operation data is generated in the information processing device 30 by the above-mentioned OLP without actually operating the robot 2. In other words, the information processing device 30 corresponds to the robot control device of the present disclosure and functions as the offline teaching device described above.

情報処理装置30は、例えば、タブレット端末やノートパソコンなど、使用者が手に持って操作し得る、携帯型の情報処理装置であり、図2に示すように構成されている。すなわち、情報処理装置30には、カメラ32、表示部34、操作部36、通信部38、マイクロコンピュータ(以下、マイコン)40、及び、記憶部48が備えられている。 The information processing device 30 is a portable information processing device that can be held and operated by a user, such as a tablet terminal or a notebook computer, and is configured as shown in FIG. 2. That is, the information processing device 30 is equipped with a camera 32, a display unit 34, an operation unit 36, a communication unit 38, a microcomputer (hereinafter, MCU) 40, and a memory unit 48.

このうち、カメラ32は、情報処理装置30の周囲を撮像するためのものであり、周囲画像として、ロボット2が設置される作業空間10を撮像可能である。なお、カメラ32は、本開示の撮像部の一例に相当する。 Of these, the camera 32 is for capturing images of the surroundings of the information processing device 30, and is capable of capturing an image of the working space 10 in which the robot 2 is installed as the surrounding image. The camera 32 corresponds to an example of an imaging unit of the present disclosure.

また、表示部34は、カメラ32により撮像された撮像画像や使用者に対する操作案内画像など、各種情報を表示するためのものであり、例えば、液晶表示パネルにて構成される。 The display unit 34 is used to display various information, such as images captured by the camera 32 and operation guide images for the user, and is configured, for example, with a liquid crystal display panel.

また、操作部36は、使用者が操作することにより、各種情報或いは指令を入力するためのものであり、例えば、表示部34の表示画面上に設けられたタッチパネル、或いは、キーボード、マウス、などで構成される。なお、操作部36は、本開示の入力部の一例に相当する。 The operation unit 36 is operated by the user to input various information or commands, and is composed of, for example, a touch panel provided on the display screen of the display unit 34, a keyboard, a mouse, etc. The operation unit 36 corresponds to an example of an input unit in the present disclosure.

また、通信部38は、ロボット2の駆動制御回路28など、外部装置との間で無線通信を行うためのものであり、本実施形態では、情報処理装置30にて生成されたロボット2の動作データを、ロボット2の駆動制御回路28に送信するのに利用される。また、通信部38は、ロボット2に所定の駆動指令を送信したり、ロボット2からロボット2の動作状態を取得したりするのにも利用される。 The communication unit 38 is for wireless communication with external devices such as the drive control circuit 28 of the robot 2, and in this embodiment is used to transmit the operation data of the robot 2 generated by the information processing device 30 to the drive control circuit 28 of the robot 2. The communication unit 38 is also used to transmit a predetermined drive command to the robot 2 and to obtain the operation status of the robot 2 from the robot 2.

次に、マイコン40は、CPU(Central Processing Unit)42、GPU(Graphics Processing Unit)44、及び、メモリ46を含み、GPU44を利用した各種画像処理を実行可能である。なお、この画像処理には、AR技術を利用した実画像に対する仮想画像の重畳表示も含まれる。 Next, the microcomputer 40 includes a CPU (Central Processing Unit) 42, a GPU (Graphics Processing Unit) 44, and a memory 46, and is capable of executing various types of image processing using the GPU 44. Note that this image processing also includes the superimposition of a virtual image on a real image using AR technology.

また、記憶部48は、各種データを記憶するストレージであり、ハードディスクやソリッドステートドライブなどにて構成される。そして、記憶部48には、上述したOLPにてロボット2の動作データを生成したり、動作データを補正したりするのに利用されるOLPデータ50が記憶される。 The memory unit 48 is a storage device that stores various data and is configured with a hard disk, a solid state drive, or the like. The memory unit 48 stores OLP data 50 that is used to generate operation data for the robot 2 in the OLP described above and to correct the operation data.

OLPデータ50には、治具6、設備8、及びワーク4の仮想画像を表示部34に表示するのに用いられる、治具6、設備8、及びワーク4の3Dデータ52、54、56と、ワーク4の溶接点Pwの位置データ58が含まれる。 The OLP data 50 includes 3D data 52, 54, 56 of the jig 6, equipment 8, and workpiece 4, which are used to display virtual images of the jig 6, equipment 8, and workpiece 4 on the display unit 34, and position data 58 of the welding point Pw of the workpiece 4.

また、記憶部48には、OLPにて生成されたロボット2の動作データ60や、ロボット2のヘッド20を図1に示す基準位置Psまで移動させたときのヘッド20の仮想画像を表示するのに用いられる3Dデータ62も記憶される。従って、記憶部48は、本開示の3Dデータ記憶部、及び、動作データ記憶部の一例に相当する。 The storage unit 48 also stores operation data 60 of the robot 2 generated by the OLP, and 3D data 62 used to display a virtual image of the head 20 of the robot 2 when the head 20 is moved to the reference position Ps shown in FIG. 1. Therefore, the storage unit 48 corresponds to an example of the 3D data storage unit and operation data storage unit of the present disclosure.

なお、ヘッド20の3Dデータ62は、後述の補正処理で、ロボット2のヘッド20を予め設定された基準位置Psまで移動させたときに、図4に例示するように、表示部34に基準位置Ps付近を拡大表示して、ヘッド20の仮想画像を表示するのに利用される。 The 3D data 62 of the head 20 is used to display a virtual image of the head 20 by enlarging the area near the reference position Ps on the display unit 34 as shown in FIG. 4 when the head 20 of the robot 2 is moved to a preset reference position Ps in the correction process described below.

そして、この表示により、使用者は、表示部34の表示画面で、ヘッド20の実画像と仮想画像とを比較することで、ロボット2のヘッド20の基準位置Psからのずれを確認して、そのずれがなくなるように動作データ60を補正することができる。 This display allows the user to compare the actual image of the head 20 with the virtual image on the display screen of the display unit 34, thereby checking the deviation of the head 20 of the robot 2 from the reference position Ps, and correcting the operation data 60 so as to eliminate the deviation.

つまり、OLPにて生成されるロボット2の動作データ60は、ロボット2を実際に動作させることなく、仮想空間に表示させた治具6、設備8、及びワーク4の仮想画像に基づき生成される。このため、その生成されたロボット2の動作データ60を、ロボット2の駆動制御回路28に送信して、ロボット2を動作させると、ロボット2の設置誤差などによって、ロボット2による作業位置が、使用者が指定した作業位置からずれてしまうことがある。 In other words, the operation data 60 of the robot 2 generated by the OLP is generated based on virtual images of the jig 6, equipment 8, and workpiece 4 displayed in a virtual space, without actually operating the robot 2. For this reason, when the generated operation data 60 of the robot 2 is sent to the drive control circuit 28 of the robot 2 to operate the robot 2, the working position of the robot 2 may deviate from the working position specified by the user due to an installation error of the robot 2, etc.

そこで、本実施形態では、図3に示す補正処理を実行することで、ロボット2のヘッド20を位置ずれ確認用の基準位置Psまで移動させて、使用者が、表示部34に拡大表示される実画像と仮想画像とからヘッド20の位置ずれを確認できるようにしている。 In this embodiment, the correction process shown in FIG. 3 is executed to move the head 20 of the robot 2 to a reference position Ps for checking the positional deviation, so that the user can check the positional deviation of the head 20 from the actual image and virtual image enlarged and displayed on the display unit 34.

なお、位置ずれ確認用の基準位置Psは、ロボット2のヘッド20を基準位置Psまで移動させた際に、ロボット2のアーム14、16や、ヘッド20が、作業空間10内の設備8と干渉することのないよう、設備8の外に設定されている。 The reference position Ps for checking positional deviation is set outside the equipment 8 in the working space 10 so that the arms 14, 16 and head 20 of the robot 2 do not interfere with the equipment 8 when the head 20 of the robot 2 is moved to the reference position Ps.

[処理]
以下、このように使用者がヘッド20の位置ずれを確認して、動作データ60を補正できるようにするために、マイコン40において実行される補正処理について説明する。
[process]
The correction process executed by the microcomputer 40 so that the user can check the positional deviation of the head 20 and correct the operation data 60 will be described below.

なお、この補正処理を実行するに当たって、ロボット2の動作データ60は、OLPにて生成されて、記憶部48に記憶されているものとする。また、OLPによる動作データ60の生成処理については、特許文献1,2などに記載されているように、公知技術であるため、ここでは、説明を省略する。 When performing this correction process, the operation data 60 of the robot 2 is assumed to have been generated by the OLP and stored in the storage unit 48. Furthermore, the generation process of the operation data 60 by the OLP is a publicly known technology, as described in Patent Documents 1 and 2, and therefore a description thereof will be omitted here.

図3に示す補正処理は、使用者がカメラ32を作業空間10に向けて、操作部36を介して補正処理の実行指令を入力することにより開始される。そして、補正処理が開始されると、まずS110にて、カメラ32による作業空間10の撮像を開始し、その撮像画像を、現実空間に対応する仮想空間の画像として、表示部34に表示させる。このため、使用者は、表示部34に表示された仮想空間の画像を見ながら、作業空間10の所望領域が撮像されるように、カメラ32の向きを調整できる。 The correction process shown in FIG. 3 is started when the user points the camera 32 at the workspace 10 and inputs a command to execute the correction process via the operation unit 36. When the correction process is started, first in S110, the camera 32 starts capturing an image of the workspace 10, and the captured image is displayed on the display unit 34 as an image of a virtual space corresponding to the real space. Therefore, while viewing the image of the virtual space displayed on the display unit 34, the user can adjust the orientation of the camera 32 so that the desired area of the workspace 10 is captured.

S110にて、作業空間10の撮像が開始されると、S120に移行し、記憶部48に記憶された設備8や治具6の3Dデータ52、54に基づき、カメラ32にて撮像された現実空間と、表示部34に表示された仮想空間との対応付けを行う。つまり、表示部34に表示された仮想空間内での設備8や治具6の位置と、現実空間での実位置とが対応するように、表示部34に表示された仮想空間の3次元の位置座標を設定する。 When imaging of the work space 10 starts in S110, the process proceeds to S120, where the real space imaged by the camera 32 is associated with the virtual space displayed on the display unit 34 based on the 3D data 52, 54 of the equipment 8 and the jig 6 stored in the memory unit 48. In other words, the three-dimensional position coordinates of the virtual space displayed on the display unit 34 are set so that the positions of the equipment 8 and the jig 6 in the virtual space displayed on the display unit 34 correspond to their actual positions in the real space.

そして、続くS130では、S120にて設定された仮想空間の位置座標に基づき、表示部34に表示された仮想空間内で、位置補正用として予め設定された基準位置Psを特定し、表示部34に表示された仮想空間に基準位置Psを表示する。 Then, in the next step S130, a reference position Ps that has been set in advance for position correction is identified within the virtual space displayed on the display unit 34 based on the position coordinates of the virtual space set in S120, and the reference position Ps is displayed in the virtual space displayed on the display unit 34.

なお、この状態で、使用者がカメラ32の向きや撮像範囲を変化させると、表示部34に表示される仮想空間も変化することから、S120、S130の処理は、補正処理の実行中、繰り返し実行される。 In this state, if the user changes the orientation or imaging range of the camera 32, the virtual space displayed on the display unit 34 also changes, so the processes of S120 and S130 are repeatedly executed while the correction process is being performed.

従って、補正処理の実行中、使用者がカメラ32の向きや撮像範囲を変化させると、その変化に連動して、表示部34に表示された仮想空間の位置座標が更新されて、その仮想空間内での基準位置Psの表示位置も変化する。 Therefore, when the user changes the orientation or imaging range of the camera 32 while the correction process is being performed, the position coordinates of the virtual space displayed on the display unit 34 are updated in conjunction with the change, and the displayed position of the reference position Ps within the virtual space also changes.

次に、S120及びS130の処理が開始されると、S140にて、使用者が操作部36を操作することにより、位置補正の開始指令が入力されたか否かを判定する。そして、S140にて、位置補正の開始指令は入力されていないと判定されると、S140の処理を繰り返し実行することで、位置補正の開始指令が入力されるのを待機する。 Next, when the processing of S120 and S130 is started, in S140, it is determined whether or not a command to start position correction has been input by the user operating the operation unit 36. Then, when it is determined in S140 that a command to start position correction has not been input, the processing of S140 is repeatedly executed to wait for the command to start position correction to be input.

一方、S140にて、位置補正の開始指令が入力されたと判定されると、S150に移行する。S150では、ロボット2に対し、基準位置Psへの移動指令を出力することで、図4に示すように、ロボット2のヘッド20を基準位置Psへ移動させる。 On the other hand, if it is determined in S140 that a command to start position correction has been input, the process proceeds to S150. In S150, a command to move to the reference position Ps is output to the robot 2, so that the head 20 of the robot 2 is moved to the reference position Ps, as shown in FIG. 4.

なお、ロボット2の動作データ60には、ヘッド20を基準位置Psへ移動させる移動データも含まれており、S150では、この移動データをロボット2の駆動制御回路28に送信することで、ヘッド20を基準位置Psへ移動させる。 The operation data 60 of the robot 2 also includes movement data for moving the head 20 to the reference position Ps, and in S150, this movement data is sent to the drive control circuit 28 of the robot 2 to move the head 20 to the reference position Ps.

次にS160では、ロボット2がヘッド20を基準位置Psへ移動させたか否かを判定することで、ヘッド20が基準位置Psへ移動するのを待機し、ヘッド20の基準位置Psへの移動が完了したと判定すると、S170に移行する。なお、S160の判定処理は、例えば、ヘッド20の移動を完了したときにロボット2の駆動制御回路28から送信されてくる移動完了信号を受信したか否かを判定することにより実施される。 Next, in S160, the robot 2 waits for the head 20 to move to the reference position Ps by determining whether the robot 2 has moved the head 20 to the reference position Ps, and when it is determined that the head 20 has moved to the reference position Ps, the process proceeds to S170. Note that the determination process in S160 is performed, for example, by determining whether a movement completion signal transmitted from the drive control circuit 28 of the robot 2 when the movement of the head 20 is completed has been received.

そして、S170では、表示部34への表示画像が、作業空間10の基準位置Ps周囲を拡大した画像となるように、表示画像を変化させる。また、S170では、ヘッド20の3Dデータ62に基づき、図4に示すように、表示部34に拡大表示させた実画像上に、基準位置Psで溶接作業を実施させたときのヘッド20の仮想画像を重畳して表示させる。 Then, in S170, the display image on the display unit 34 is changed so that the image displayed is an enlarged image of the periphery of the reference position Ps in the work space 10. Also, in S170, based on the 3D data 62 of the head 20, as shown in FIG. 4, a virtual image of the head 20 when welding work is performed at the reference position Ps is superimposed on the actual image displayed on the enlarged display unit 34.

この結果、使用者は、表示部34の表示画面上で、ロボット2のヘッド20の実画像と仮想画像とを比較することで、ロボット2のヘッド20の基準位置Psからのずれを確認することができる。 As a result, the user can check the deviation of the head 20 of the robot 2 from the reference position Ps by comparing the actual image and the virtual image of the head 20 of the robot 2 on the display screen of the display unit 34.

次に、S180では、使用者が操作部36を操作することで、ロボット2のヘッド20の位置ずれ量を入力したか否かを判定する。つまり、使用者は、表示部34の表示画面上で、ヘッド20の基準位置Psからのずれを確認できることから、S180では、そのずれを解消するために、使用者がヘッド20の位置ずれ量を入力したか否かを判定する。 Next, in S180, it is determined whether or not the user has input the amount of positional deviation of the head 20 of the robot 2 by operating the operation unit 36. In other words, since the user can check the deviation of the head 20 from the reference position Ps on the display screen of the display unit 34, in S180 it is determined whether or not the user has input the amount of positional deviation of the head 20 in order to eliminate that deviation.

そして、S180にて、使用者がヘッド20の位置ずれ量を入力したと判定すると、S190に移行し、使用者が入力した位置ずれ量だけ、位置ずれ方向とは逆方向にヘッド20を移動させるための移動指令を、ロボット2の駆動制御回路28に送信する。 Then, when it is determined in S180 that the user has input the amount of misalignment of the head 20, the process proceeds to S190, and a movement command is sent to the drive control circuit 28 of the robot 2 to move the head 20 in the direction opposite to the misalignment direction by the amount of misalignment input by the user.

すると、ロボット2の駆動制御回路28は、情報処理装置30から送信された移動指令に対応して、ヘッド20を移動させる。この結果、表示部34の表示画面上では、ヘッド20の実画像が移動することから、使用者は、その移動によって実画像が仮想画像と一致したか否かを判定することで、ヘッド20の位置を補正できたことを確認できる。 The drive control circuit 28 of the robot 2 then moves the head 20 in response to the movement command sent from the information processing device 30. As a result, the actual image of the head 20 moves on the display screen of the display unit 34, and the user can confirm that the position of the head 20 has been corrected by determining whether the actual image matches the virtual image as a result of the movement.

次に、S190にて、ヘッド20の移動指令をロボット2の駆動制御回路28に送信するか、或いは、S180にて、位置ずれ量は入力されていないと判定されると、S200に移行する。そして、S200では、使用者が操作部36を操作することで、位置補正完了を入力したか否かを判定し、位置補正完了が入力されていなければ、S180に移行して、S180の判定処理を再度実行する。 Next, in S190, a command to move the head 20 is sent to the drive control circuit 28 of the robot 2, or if it is determined in S180 that the amount of positional deviation has not been input, the process proceeds to S200. Then, in S200, it is determined whether the user has input a position correction completion signal by operating the operation unit 36, and if the position correction completion signal has not been input, the process proceeds to S180 and the determination process of S180 is executed again.

また、S200にて、位置補正完了が入力されたと判定されると、S210に移行し、S180及びS190の処理でロボット2のヘッド20を移動させた位置補正量に基づき、ロボット2の動作データ60を補正する。例えば、動作データ60にて規定されている各溶接点Pwでのヘッド20の位置や角度、各溶接点Pwへのヘッド20の移動軌跡などを、位置補正量に基づき補正する。 Furthermore, when it is determined in S200 that the position correction completion has been input, the process proceeds to S210, where the operation data 60 of the robot 2 is corrected based on the position correction amount by which the head 20 of the robot 2 has been moved in the processes of S180 and S190. For example, the position and angle of the head 20 at each welding point Pw defined in the operation data 60, the movement trajectory of the head 20 to each welding point Pw, etc. are corrected based on the position correction amount.

この結果、補正後の動作データ60をロボット2の駆動制御回路28に送信して記憶させることで、ロボット2に対し、ワーク4の各溶接点Pwで正確に溶接作業を実施させることができるようになる。そして、S210での動作データ60の補正が完了すると、上記一連の補正処理を終了する。 As a result, the corrected operation data 60 is transmitted to and stored in the drive control circuit 28 of the robot 2, allowing the robot 2 to accurately perform welding work at each welding point Pw of the workpiece 4. Then, when the correction of the operation data 60 in S210 is completed, the series of correction processes described above ends.

なお、上記補正処理において、S150の処理は、本開示のロボット制御部の一例に相当し、S170の処理は、本開示の表示制御部の一例に相当し、S210の処理は、本開示の補正部の一例に相当する。 In the above correction process, the process of S150 corresponds to an example of a robot control unit of the present disclosure, the process of S170 corresponds to an example of a display control unit of the present disclosure, and the process of S210 corresponds to an example of a correction unit of the present disclosure.

次に、ロボット2の駆動制御回路28に送信した動作データ60にてロボット2を動作させた際に、ワーク4の各溶接点Pwで溶接作業を正常に実施できるか否かを確認できるようにするため、マイコン40は、図5に示す作業確認処理を実施する。なお、この作業確認処理は、使用者が操作部36を介して作業確認処理の実行指令を入力することにより実行される。 Next, when the robot 2 is operated based on the operation data 60 transmitted to the drive control circuit 28 of the robot 2, the microcomputer 40 performs the work confirmation process shown in FIG. 5 so as to be able to confirm whether or not welding work can be performed normally at each welding point Pw of the workpiece 4. Note that this work confirmation process is executed when the user inputs an execution command for the work confirmation process via the operation unit 36.

図5に示すように、作業確認処理が開始されると、まず310にて、図3に示したS110と同様、カメラ32による作業空間10の撮像を開始し、その撮像画像を、現実空間に対する仮想空間の画像として、表示部34に表示させる。 As shown in FIG. 5, when the work confirmation process is started, first, at 310, the camera 32 starts capturing an image of the work space 10, similar to S110 shown in FIG. 3, and the captured image is displayed on the display unit 34 as an image of the virtual space relative to the real space.

またS320では、図3に示したS120と同様、記憶部48に記憶された設備8や治具6の3Dデータ52、54に基づき、カメラ32にて撮像された現実空間と、表示部34に表示された仮想空間との対応付けを行う。 In addition, in S320, similar to S120 shown in FIG. 3, the real space captured by the camera 32 is associated with the virtual space displayed on the display unit 34 based on the 3D data 52, 54 of the equipment 8 and the jig 6 stored in the memory unit 48.

そして、続くS330では、S320での現実空間と仮想空間との対応付けにより得られる、仮想空間内での治具6や設備8の位置座標と、ワーク4の3Dデータ56とに基づき、表示部34に表示された治具6の実画像に対し、ワーク4の仮想画像を表示させる。以下、ワーク4の仮想画像を、仮想ワークともいう。 Then, in the next step S330, a virtual image of the workpiece 4 is displayed on the display unit 34 in addition to the actual image of the jig 6, based on the position coordinates of the jig 6 and the equipment 8 in the virtual space obtained by associating the real space with the virtual space in S320 and the 3D data 56 of the workpiece 4. Hereinafter, the virtual image of the workpiece 4 is also referred to as a virtual workpiece.

次に、S340では、ロボット2の駆動制御回路28に対し、仮想ワークへの溶接指令を出力する。すると、ロボット2は、情報処理装置30から取得した動作データ60に従い、現実空間では存在しないワーク4に対する溶接作業を開始する。 Next, in S340, a welding command for the virtual workpiece is output to the drive control circuit 28 of the robot 2. Then, the robot 2 starts welding work on the workpiece 4 that does not exist in the real space according to the operation data 60 acquired from the information processing device 30.

なお、この溶接作業は、仮想ワークへの溶接指令に従い実行されることから、ロボット2は、ヘッド20を動作データ60に従い移動させるものの、電極22-24間に電圧を印加する溶接動作は実施しない。 This welding operation is performed according to a welding command for the virtual workpiece, so although the robot 2 moves the head 20 according to the operation data 60, it does not perform a welding operation that applies a voltage between the electrodes 22-24.

こうして、ロボット2が仮想ワークに対する溶接作業を開始すると、S350に移行して、ロボット2からヘッド20の位置を取得し、ヘッド20が仮想ワークの溶接点Pw手前の所定距離まで接近したか否かを判定する。 Thus, when the robot 2 starts welding work on the virtual workpiece, the process proceeds to S350, where the position of the head 20 is obtained from the robot 2, and it is determined whether the head 20 has approached to within a predetermined distance of the welding point Pw of the virtual workpiece.

そして、ヘッド20が溶接点Pwに接近していなければ、S350の処理を再度実行することで、ヘッド20が溶接点Pwに接近するのを待機し、ヘッド20が溶接点Pwに接近していれば、S360に移行する。 If the head 20 is not approaching the welding point Pw, the process of S350 is executed again to wait for the head 20 to approach the welding point Pw, and if the head 20 is approaching the welding point Pw, the process proceeds to S360.

S360では、ヘッド20が接近中の溶接点Pwを通過するまで、表示部34の表示画面上でロボット2のヘッド20を拡大表示させる。この結果、使用者は、表示部34の表示画面上で、仮想ワークの溶接点Pwでのロボット2のヘッド20の向きや電極22、24の位置を確認することができるようになる。 In S360, the head 20 of the robot 2 is enlarged and displayed on the display screen of the display unit 34 until the head 20 passes the approaching welding point Pw. As a result, the user can check the orientation of the head 20 of the robot 2 and the positions of the electrodes 22, 24 at the welding point Pw of the virtual workpiece on the display screen of the display unit 34.

また、ヘッド20が溶接点Pwを通過して、S360での拡大表示が終了すると、S370に移行して、仮想ワークにおいて、次の溶接点Pwが存在するか否かを判定し、次の溶接点Pwが存在する場合には、S350に移行する。 When the head 20 passes the welding point Pw and the enlarged display in S360 ends, the process moves to S370 to determine whether the next welding point Pw exists in the virtual workpiece, and if the next welding point Pw exists, the process moves to S350.

そして、S350では、ヘッド20が次の溶接点Pwに接近するのを待機し、S360の処理を再度実行する。また、S370にて、次の溶接点Pwは存在しないと判定されると、ロボット2は仮想ワークへの溶接作業を終了することから、情報処理装置30での作業確認処理も終了する。 Then, in S350, the process waits for the head 20 to approach the next welding point Pw, and executes the process of S360 again. Also, if it is determined in S370 that the next welding point Pw does not exist, the robot 2 ends the welding work on the virtual workpiece, and the work confirmation process in the information processing device 30 also ends.

なお、上記作業確認処理において、S330及びS360の処理は、本開示の表示制御部の一例に相当し、S340の処理は、本開示のロボット制御部の一例に相当する。
[効果]
以上説明したように、本実施形態の情報処理装置30は、本開示のロボット制御装置としての機能を有し、使用者は、表示部34への表示画像から、ロボット2の設置誤差などによって生じるヘッド20の位置ずれを確認することができる。
In the above task confirmation process, the processes of S330 and S360 correspond to an example of a display control unit in the present disclosure, and the process of S340 corresponds to an example of a robot control unit in the present disclosure.
[effect]
As described above, the information processing device 30 of this embodiment has the function of a robot control device of the present disclosure, and the user can check the positional deviation of the head 20 caused by an installation error of the robot 2, etc. from the image displayed on the display unit 34.

また、ヘッド20の位置ずれを確認できるようにするために、本実施形態では、ロボット2を、溶接作業時と同様に動作させるのではなく、ヘッド20を、設備8の外に設定された基準位置Psまで移動させる。そして、AR技術を利用して、表示画面上の基準位置Psに、ヘッド20の仮想画像を表示することで、使用者が、ヘッド20の実画像と仮想画像とのずれから、ヘッド20の位置ずれを確認できるようにしている。 In addition, in order to make it possible to check for misalignment of the head 20, in this embodiment, the robot 2 is not operated in the same way as during welding work, but the head 20 is moved to a reference position Ps set outside the equipment 8. Then, by using AR technology, a virtual image of the head 20 is displayed at the reference position Ps on the display screen, allowing the user to check for misalignment of the head 20 from the misalignment between the actual image and the virtual image of the head 20.

従って、使用者は、表示部34の表示画面を見ることで、ヘッド20の位置ずれを、簡単に確認することができる。また、基準位置Psは、設備8の外に設定されることから、ロボット2のヘッド20を基準位置Psまで移動させる際に、ロボット2と作業空間10内の設備8とが干渉するのを抑制することができる。 Therefore, the user can easily check the positional deviation of the head 20 by looking at the display screen of the display unit 34. In addition, because the reference position Ps is set outside the equipment 8, it is possible to prevent interference between the robot 2 and the equipment 8 in the working space 10 when moving the head 20 of the robot 2 to the reference position Ps.

また、本実施形態では、使用者は、表示部34の表示画面上で確認したヘッド20の位置ずれを解消するように、ロボット2のヘッド20を移動させて、その移動量(換言すれば位置補正量)に基づき、ロボット2の動作データ60を補正させることができる。 In addition, in this embodiment, the user can move the head 20 of the robot 2 so as to eliminate the positional misalignment of the head 20 confirmed on the display screen of the display unit 34, and correct the operation data 60 of the robot 2 based on the amount of movement (in other words, the amount of position correction).

よって、本実施形態によれば、作業空間10にロボット2を設置した際に設置誤差が生じたとしても、使用者は、ロボット2のヘッド20による溶接点がワーク4の溶接点Pwからずれることのないよう、動作データ60を適正に補正することができる。 Therefore, according to this embodiment, even if an installation error occurs when installing the robot 2 in the work space 10, the user can appropriately correct the operation data 60 so that the welding point made by the head 20 of the robot 2 does not deviate from the welding point Pw of the workpiece 4.

また、本実施形態の情報処理装置30は、動作データ60をロボット2の駆動制御回路28に送信した後、マイコン40に作業確認処理を実行させることで、使用者は、その動作データ60にてロボット2が溶接作業を正常に実施できることを、確認できる。 In addition, the information processing device 30 of this embodiment transmits the operation data 60 to the drive control circuit 28 of the robot 2, and then causes the microcomputer 40 to execute a work confirmation process, so that the user can confirm that the robot 2 can perform welding work normally based on the operation data 60.

また、この作業確認処理では、表示部34に表示された治具6の実画像に対し、ワーク4の仮想画像が表示されることから、使用者は、作業空間10内の治具6にワーク4を装着することなく、ロボット2による溶接作業を確認できる。 In addition, in this work confirmation process, a virtual image of the workpiece 4 is displayed in addition to the actual image of the jig 6 displayed on the display unit 34, so the user can check the welding work being performed by the robot 2 without having to attach the workpiece 4 to the jig 6 in the work space 10.

従って、本実施形態では、ロボット2の作業確認のために、ワーク4を無駄に使用する必要がなく、また、ワーク4がなくても作業確認することができる。よって、ロボット制御装置としての情報処理装置30の使い勝手を向上することができる。 Therefore, in this embodiment, there is no need to wastefully use the workpiece 4 to check the work of the robot 2, and the work can be checked even without the workpiece 4. This improves the usability of the information processing device 30 as a robot control device.

[他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[Other embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments and can be implemented in various modified forms.

例えば、上記実施形態では、位置ずれ確認用の基準位置Psは、設備8の外に設定されるものとして説明した。しかし、基準位置Psは、ヘッド20を基準位置Psまで移動させた際に、ロボット2のアーム14、16やヘッド20が、作業空間10内の設備8と干渉することのない位置であればよい。このため、基準位置Psは、例えば、設備8内で、ワーク4に対する作業領域から離れた位置に設定されてもよい。 For example, in the above embodiment, the reference position Ps for checking misalignment has been described as being set outside the equipment 8. However, the reference position Ps may be any position where the arms 14, 16 and head 20 of the robot 2 do not interfere with the equipment 8 in the working space 10 when the head 20 is moved to the reference position Ps. For this reason, the reference position Ps may be set, for example, in a position within the equipment 8 away from the working area for the workpiece 4.

また、上記実施形態では、ロボット2を基準位置Psまで移動させて、表示部34にヘッド20の実画像と仮想画像とを拡大表示させた際に、使用者が手動でロボット2のヘッド20を移動させて、ヘッド20の位置ずれを補正できるものとして説明した。 In the above embodiment, it was described that when the robot 2 is moved to the reference position Ps and the actual image and virtual image of the head 20 are enlarged and displayed on the display unit 34, the user can manually move the head 20 of the robot 2 to correct the positional deviation of the head 20.

しかし、図3に示した補正処理において、表示部34にヘッド20の実画像と仮想画像とを拡大表示させた際に、操作部36を介して入力された位置ずれ量に基づき、ロボット2の動作データ60を直接補正するようにしてもよい。このようにすれば、操作部36を介して入力された位置ずれ量に基づき、ロボット2のヘッド20を移動させる必要がないので、動作データ60の補正をより安全に実施することができる。 However, in the correction process shown in FIG. 3, when the actual image and virtual image of the head 20 are enlarged and displayed on the display unit 34, the operation data 60 of the robot 2 may be directly corrected based on the positional deviation amount input via the operation unit 36. In this way, it is not necessary to move the head 20 of the robot 2 based on the positional deviation amount input via the operation unit 36, so the correction of the operation data 60 can be performed more safely.

また、上記実施形態では、ロボット制御装置として、ロボット2の動作データ60の生成、補正、及び動作確認を行う、携帯型の情報処理装置について説明したが、本開示のロボット制御装置は、必ずしも携帯型の情報処理装置にて構成する必要はない。 In addition, in the above embodiment, a portable information processing device that generates, corrects, and checks the operation of the robot 2 is described as the robot control device, but the robot control device of the present disclosure does not necessarily have to be configured as a portable information processing device.

例えば、本開示のロボット制御装置は、撮像部として設備8に設置された複数の固定カメラを利用してロボット2の動きを監視する監視装置において、表示装置に表示する撮像画像を切り替えながら、補正処理や作業確認作業を実施するように構成されてもよい。 For example, the robot control device of the present disclosure may be configured to perform correction processing and work confirmation work while switching the captured images displayed on the display device in a monitoring device that monitors the movement of the robot 2 using multiple fixed cameras installed in the facility 8 as imaging units.

また、上記実施形態では、ロボット2として、スポット溶接を行う溶接ロボットを例にとり説明したが、本開示のロボット制御装置は、スポット溶接とは異なる溶接ロボットであっても、或いは、溶接以外の作業を行うロボットであっても、適用できる。なお、溶接以外の作業を行うロボットとしては、ワークの曲げ、切断などの加工を行うロボットや、ワークや治具の移動或いは搬送を行うロボットなど、を挙げることができる。 In the above embodiment, a welding robot that performs spot welding has been described as an example of the robot 2, but the robot control device disclosed herein can be applied to welding robots other than spot welding robots, or robots that perform work other than welding. Examples of robots that perform work other than welding include robots that perform processing such as bending and cutting of workpieces, and robots that move or transport workpieces and jigs.

また、本開示のロボット制御装置及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示のロボット制御装置及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示のロボット制御装置及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。ロボット制御装置に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。 The robot control device and method of the present disclosure may be realized by a dedicated computer provided by configuring a processor and memory programmed to execute one or more functions embodied in a computer program. Alternatively, the robot control device and method of the present disclosure may be realized by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits. Alternatively, the robot control device and method of the present disclosure may be realized by one or more dedicated computers configured by combining a processor and memory programmed to execute one or more functions with a processor configured with one or more hardware logic circuits. Furthermore, the computer program may be stored in a computer-readable non-transient tangible recording medium as instructions executed by a computer. The method of realizing the functions of each unit included in the robot control device does not necessarily need to include software, and all of the functions may be realized using one or more hardware.

上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。 Multiple functions possessed by one component in the above embodiments may be realized by multiple components, or one function possessed by one component may be realized by multiple components. Furthermore, multiple functions possessed by multiple components may be realized by one component, or one function realized by multiple components may be realized by one component. Furthermore, part of the configuration of the above embodiments may be omitted. Furthermore, at least part of the configuration of the above embodiments may be added to or substituted for the configuration of another of the above embodiments.

また、本開示の技術は、ロボット制御装置の他、当該ロボット制御装置を構成要素とするロボット制御システム、当該ロボット制御装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、ロボットの動作データの補正方法など、種々の形態で実現することもできる。 In addition to the robot control device, the technology disclosed herein can also be realized in various forms, such as a robot control system that includes the robot control device as a component, a program for causing a computer to function as the robot control device, a non-transitive physical recording medium such as a semiconductor memory on which the program is recorded, and a method for correcting robot operation data.

[本明細書が開示する技術思想]
[項目1]
ワークに対する所定の作業を行う作業具を備えたロボットの動作を制御するロボット制御装置であって、
前記ロボットの3Dデータ、及び、前記ロボットが設置される作業空間内の設備の3Dデータ、を含む3Dデータが記憶された3Dデータ記憶部と、
前記ワークに対する作業を実施するために予め教示された前記ロボットの動きを表す動作データが記憶された動作データ記憶部と、
前記設備、前記ロボット、及び、前記ワークを含む前記作業空間を撮像可能に構成された撮像部と、
前記撮像部にて撮像された前記作業空間の実画像を表示可能に構成された表示部と、
前記表示部に表示された前記作業空間内の前記設備の前記実画像と、前記設備の前記3Dデータとに基づき、前記実画像内で前記ワークに対する作業領域から離れた所定の基準位置を特定し、前記ロボットの前記3Dデータに基づき、前記ロボットの前記作業具を前記基準位置まで移動させたときの前記作業具の仮想画像を、前記表示部に表示された前記実画像に重畳して表示させるよう構成された表示制御部と、
前記動作データに基づき、前記ロボットの前記作業具を前記作業空間内の前記基準位置まで移動させて、前記作業具に対し動作位置確認用の作業を実施させるよう構成された、ロボット制御部と、
を備えた、ロボット制御装置。
[Technical idea disclosed in this specification]
[Item 1]
A robot control device that controls the operation of a robot equipped with a work tool that performs a predetermined task on a workpiece,
A 3D data storage unit in which 3D data including 3D data of the robot and 3D data of equipment in a work space in which the robot is installed is stored;
an operation data storage unit that stores operation data representing a movement of the robot that has been taught in advance to perform a task on the workpiece;
An imaging unit configured to be able to image the work space including the facility, the robot, and the workpiece;
A display unit configured to display an actual image of the working space captured by the imaging unit;
a display control unit configured to identify a predetermined reference position away from a work area for the workpiece in the actual image based on the actual image of the equipment in the work space displayed on the display unit and the 3D data of the equipment, and to superimpose a virtual image of the work tool of the robot when the work tool is moved to the reference position based on the 3D data of the robot on the actual image displayed on the display unit;
a robot control unit configured to move the working tool of the robot to the reference position in the workspace based on the operation data and cause the working tool to perform an operation position confirmation task;
A robot control device comprising:

[項目2]
項目1に記載のロボット制御装置であって、
前記基準位置に表示された前記作業具の前記仮想画像と前記実画像との位置ずれ量を入力可能に構成された入力部と、
前記入力部から入力された前記基準位置での前記作業具の位置ずれ量に基づき、前記ロボットによる複数の作業点で位置ずれが生じることのないよう、前記動作データを補正するよう構成された補正部と、
を備えた、ロボット制御装置。
[Item 2]
Item 1: A robot control device comprising:
an input unit configured to be able to input a positional deviation amount between the virtual image and the actual image of the work tool displayed at the reference position;
a correction unit configured to correct the operation data based on the amount of positional deviation of the tool from the reference position input from the input unit so that positional deviation does not occur at a plurality of work points performed by the robot; and
A robot control device comprising:

[項目3]
項目2に記載のロボット制御装置であって、
前記3Dデータ記憶部には、前記ロボットによる作業対象となる前記ワークの3Dデータが記憶されており、
前記ロボット制御部は、前記補正部にて補正された前記動作データに基づき、前記ロボットを動作させて、動作検証用の作業を実施させ、
前記表示制御部は、前記ロボット制御部が、前記ロボットに対し前記動作検証用の作業を実施させているとき、前記3Dデータ記憶部に記憶された前記ワークの前記3Dデータに基づき、前記表示部に表示された前記実画像に対し、前記ワークの仮想画像を重畳して表示させる、ロボット制御装置。
[Item 3]
Item 2: The robot control device according to item 2,
The 3D data storage unit stores 3D data of the workpiece to be processed by the robot,
the robot control unit operates the robot based on the operation data corrected by the correction unit to perform an operation verification task;
The display control unit, when the robot control unit is causing the robot to perform the operation verification task, superimposes a virtual image of the workpiece on the actual image displayed on the display unit based on the 3D data of the workpiece stored in the 3D data storage unit, in a robot control device.

[項目4]
項目1~項目3の何れか1項に記載のロボット制御装置であって、
前記基準位置は、前記作業空間内で前記設備の外に設定されている、ロボット制御装置。
[Item 4]
A robot control device according to any one of items 1 to 3,
A robot control device, wherein the reference position is set outside the facility within the working space.

2…ロボット、4…ワーク、8…設備、10…作業空間、20…ヘッド、22,24…電極、30…情報処理装置、32…カメラ、34…表示部、36…操作部、40…マイコン、48…記憶部、50…OLPデータ。 2...Robot, 4...Work, 8...Equipment, 10...Work space, 20...Head, 22, 24...Electrodes, 30...Information processing device, 32...Camera, 34...Display unit, 36...Operation unit, 40...Microcomputer, 48...Memory unit, 50...OLP data.

Claims (4)

ワークに対する所定の作業を行う作業具を備えたロボットの動作を制御するロボット制御装置であって、
前記ロボットの3Dデータ、及び、前記ロボットが設置される作業空間内の設備の3Dデータ、を含む3Dデータが記憶された3Dデータ記憶部と、
前記ワークに対する作業を実施するために予め教示された前記ロボットの動きを表す動作データが記憶された動作データ記憶部と、
前記設備、前記ロボット、及び、前記ワークを含む前記作業空間を撮像可能に構成された撮像部と、
前記撮像部にて撮像された前記作業空間の実画像を表示可能に構成された表示部と、
前記表示部に表示された前記作業空間内の前記設備の前記実画像と、前記設備の前記3Dデータとに基づき、前記実画像内で前記ワークに対する作業領域から離れた所定の基準位置を特定し、前記ロボットの前記3Dデータに基づき、前記ロボットの前記作業具を前記基準位置まで移動させたときの前記作業具の仮想画像を、前記表示部に表示された前記実画像に重畳して表示させるよう構成された表示制御部と、
前記動作データに基づき、前記ロボットの前記作業具を前記作業空間内の前記基準位置まで移動させて、前記作業具に対し動作位置確認用の作業を実施させるよう構成された、ロボット制御部と、
を備えた、ロボット制御装置。
A robot control device that controls the operation of a robot equipped with a work tool that performs a predetermined task on a workpiece,
A 3D data storage unit in which 3D data including 3D data of the robot and 3D data of equipment in a work space in which the robot is installed is stored;
an operation data storage unit that stores operation data representing a movement of the robot that has been taught in advance to perform a task on the workpiece;
An imaging unit configured to be able to image the work space including the facility, the robot, and the workpiece;
A display unit configured to display an actual image of the working space captured by the imaging unit;
a display control unit configured to identify a predetermined reference position away from a work area for the workpiece in the actual image based on the actual image of the equipment in the work space displayed on the display unit and the 3D data of the equipment, and to superimpose a virtual image of the work tool of the robot when the work tool is moved to the reference position based on the 3D data of the robot on the actual image displayed on the display unit;
a robot control unit configured to move the working tool of the robot to the reference position in the workspace based on the operation data and cause the working tool to perform an operation position confirmation task;
A robot control device comprising:
請求項1に記載のロボット制御装置であって、
前記基準位置に表示された前記作業具の前記仮想画像と前記実画像との位置ずれ量を入力可能に構成された入力部と、
前記入力部から入力された前記基準位置での前記作業具の位置ずれ量に基づき、前記ロボットによる複数の作業点で位置ずれが生じることのないよう、前記動作データを補正するよう構成された補正部と、
を備えた、ロボット制御装置。
The robot control device according to claim 1 ,
an input unit configured to be able to input a positional deviation amount between the virtual image and the actual image of the work tool displayed at the reference position;
a correction unit configured to correct the operation data based on the amount of positional deviation of the tool from the reference position input from the input unit so that positional deviation does not occur at a plurality of work points performed by the robot; and
A robot control device comprising:
請求項2に記載のロボット制御装置であって、
前記3Dデータ記憶部には、前記ロボットによる作業対象となる前記ワークの3Dデータが記憶されており、
前記ロボット制御部は、前記補正部にて補正された前記動作データに基づき、前記ロボットを動作させて、動作検証用の作業を実施させ、
前記表示制御部は、前記ロボット制御部が、前記ロボットに対し前記動作検証用の作業を実施させているとき、前記3Dデータ記憶部に記憶された前記ワークの前記3Dデータに基づき、前記表示部に表示された前記実画像に対し、前記ワークの仮想画像を重畳して表示させる、ロボット制御装置。
The robot control device according to claim 2,
The 3D data storage unit stores 3D data of the workpiece to be processed by the robot,
the robot control unit operates the robot based on the operation data corrected by the correction unit to perform an operation verification task;
The display control unit, when the robot control unit is causing the robot to perform the operation verification task, superimposes a virtual image of the workpiece on the actual image displayed on the display unit based on the 3D data of the workpiece stored in the 3D data storage unit, in a robot control device.
請求項1~請求項3の何れか1項に記載のロボット制御装置であって、
前記基準位置は、前記作業空間内で前記設備の外に設定されている、ロボット制御装置。
The robot control device according to any one of claims 1 to 3,
A robot control device, wherein the reference position is set outside the facility within the working space.
JP2023215731A 2023-12-21 2023-12-21 Robot Control Device Pending JP2025099234A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023215731A JP2025099234A (en) 2023-12-21 2023-12-21 Robot Control Device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023215731A JP2025099234A (en) 2023-12-21 2023-12-21 Robot Control Device

Publications (1)

Publication Number Publication Date
JP2025099234A true JP2025099234A (en) 2025-07-03

Family

ID=96229920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023215731A Pending JP2025099234A (en) 2023-12-21 2023-12-21 Robot Control Device

Country Status (1)

Country Link
JP (1) JP2025099234A (en)

Similar Documents

Publication Publication Date Title
JP5872894B2 (en) Robot motion teaching support apparatus and method
JP4174517B2 (en) Teaching position correcting device and teaching position correcting method
JP6420229B2 (en) A robot system including a video display device that superimposes and displays an image of a virtual object on a video of a robot
US10500724B2 (en) Robot teaching device for correcting robot trajectory
JP3950805B2 (en) Teaching position correction device
JP4191080B2 (en) Measuring device
US9186792B2 (en) Teaching system, teaching method and robot system
JP3708083B2 (en) Robot teaching device
US20180345490A1 (en) Robot system displaying information for teaching robot
JP7190552B1 (en) Robot teaching system
US20080154428A1 (en) Device, method, program and recording medium for robot offline programming
US10534876B2 (en) Simulation device and simulation method that carry out simulation of operation of robot system, and recording medium that records computer program
JP2006048244A (en) Working program generating device
KR20150044812A (en) Teaching system and teaching method
JP2014024162A (en) Robot system, robot control device, robot control method and robot control program
CN105269578A (en) Teaching apparatus and robot system
JP2016187846A (en) Robot, robot controller and robot system
CN109834697B (en) Teaching operation panel and robot control system
CN115476338B (en) Gesture adjustment method and device, robot mechanism, electronic device and storage medium
CN112423946B (en) Robot system
CN110154043B (en) Robot system for learning control based on machining result and control method thereof
US20180088569A1 (en) Off-line-programming jog assist device, jog assist method, and recording medium storing jog assist program
JP2025099234A (en) Robot Control Device
JP2015100874A (en) Robot system
JP2022177476A (en) Robot control device and control method
点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载