JP7685981B2 - Image display device and image display method - Google Patents
Image display device and image display method Download PDFInfo
- Publication number
- JP7685981B2 JP7685981B2 JP2022194664A JP2022194664A JP7685981B2 JP 7685981 B2 JP7685981 B2 JP 7685981B2 JP 2022194664 A JP2022194664 A JP 2022194664A JP 2022194664 A JP2022194664 A JP 2022194664A JP 7685981 B2 JP7685981 B2 JP 7685981B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- work
- information
- unit
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Closed-Circuit Television Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本開示は、画像表示装置及び画像表示方法に関する。 This disclosure relates to an image display device and an image display method.
操作対象である移動体の遠隔操作に不慣れな操作者は、移動体の車体感覚がつかめないため、移動体に搭載されたカメラからリアルタイムに撮影される撮影画像だけで、移動体を遠隔操作することが困難である。そこで、カメラで撮影した過去の撮影画像のうち、現在の移動体を客観視可能な撮影画像に、移動体の画像を重畳表示することで移動体の操作性を高める技術が提案されている(例えば特許文献1)。 An operator who is unfamiliar with remotely controlling the moving object being operated cannot get a feel for the body of the moving object, and therefore has difficulty remotely controlling the moving object using only images captured in real time by a camera mounted on the moving object. Therefore, a technology has been proposed that improves the operability of the moving object by superimposing an image of the moving object on an image that allows the current moving object to be viewed objectively from among past images captured by a camera (for example, Patent Document 1).
しかしながら、障害物が多い屋内などで操作者が移動体を遠隔操作する場合には、移動体の後方から一定距離だけ離れた視点位置から視た画像は、操作者にとって好ましくない場合がある。 However, when an operator remotely controls a moving object indoors where there are many obstacles, the image viewed from a viewpoint that is a certain distance away from the rear of the moving object may not be desirable for the operator.
例えば、操作者が、移動体の後方から一定距離だけ離れた視点位置から視た画像を見ながら、移動体が右折して屋内の通路の奥に移動した後に戻ってくる移動を遠隔操作で行う場合を考える。この場合において、移動体が右折した直後には、通路を構成する壁または棚などの障害物によって移動体を表示できないという問題がある。また、移動体が戻って来る時に、一定距離を確保しようとすると、視点位置が大きく変更されるため、操作者は移動体の状況を容易に把握できないという問題がある。このように、障害物が多い屋内で遠隔操作を行うためには、移動体及びその周囲の表示の基準となる客観的な視点位置を適切化することが必要であった。 For example, consider a case where an operator remotely controls a moving object to turn right, move to the back of an indoor corridor, and then return, while viewing an image seen from a viewpoint position a certain distance behind the moving object. In this case, there is a problem that the moving object cannot be displayed immediately after the moving object turns right due to obstacles such as walls or shelves that make up the corridor. In addition, when attempting to maintain a certain distance when the moving object returns, the viewpoint position changes significantly, making it difficult for the operator to grasp the situation of the moving object. Thus, in order to perform remote control indoors where there are many obstacles, it was necessary to optimize the objective viewpoint position that serves as the basis for displaying the moving object and its surroundings.
特に、操作者の遠隔操作による作業だけでなく、自律的に作業を行う移動体に対しては、移動体が自律的に作業できない状況を打開する時にだけ、操作者が、移動体を遠隔操作する運用が想定される。このような運用では、操作者は、遠隔操作を開始するまで移動体を監視しないため、遠隔操作の開始時に移動体の状況を適切に把握するためには、適切化された客観的な視点位置から視た画像が必要であった。 In particular, for mobile objects that perform tasks not only remotely but also autonomously, it is envisioned that the operator will remotely control the mobile object only when overcoming a situation in which the mobile object cannot perform tasks autonomously. In such operations, the operator does not monitor the mobile object until remote operation begins, so images viewed from an optimized, objective viewpoint are required to properly grasp the status of the mobile object when remote operation begins.
そこで、本開示は、上記のような問題点に鑑みてなされたものであり、客観的な視点位置を適切化可能な技術を提供することを目的とする。 Therefore, this disclosure has been made in consideration of the above-mentioned problems, and aims to provide technology that can optimize the objective viewpoint position.
本開示に係る画像表示装置は、移動体への遠隔操作の要請と、前記移動体の移動を含む作業を示す作業情報と、前記移動体から撮影される撮影画像とを取得する取得部と、前記要請と、前記作業情報とに基づいて、前記要請が取得された際の前記移動体の作業位置を算出する作業位置算出部と、前記移動体の作業空間を示す地図情報と、前記作業空間内の障害物に関する障害物情報とを含む作業環境情報と、前記作業位置とに基づいて、前記作業位置の画像を含む前記撮影画像を撮影可能な領域を撮影可能領域として算出する撮影可能領域算出部と、前記作業情報と、前記撮影可能領域とに基づいて、前記移動体が過去に移動した移動経路内の位置のうち、前記撮影可能領域に含まれる位置を視点位置として抽出する第1視点位置抽出部と、前記撮影画像と前記作業位置と前記視点位置とに基づいて、前記視点位置で撮影された前記撮影画像に、前記作業位置を示す対応位置画像を重畳した重畳画像を生成する重畳画像生成部と、前記重畳画像を表示する表示部とを備える。 The image display device according to the present disclosure includes an acquisition unit that acquires a request for remote operation of a moving body, work information indicating a work including movement of the moving body, and a captured image captured from the moving body; a work position calculation unit that calculates the work position of the moving body when the request is acquired based on the request and the work information; a captureable area calculation unit that calculates an area in which the captured image including an image of the work position can be captured as a captureable area based on work environment information including map information indicating the work space of the moving body and obstacle information regarding obstacles in the work space and the work position; a first viewpoint position extraction unit that extracts a position included in the captureable area as a viewpoint position from among positions within a movement path in which the moving body has moved in the past based on the work information and the captureable area; a superimposed image generation unit that generates a superimposed image by superimposing a corresponding position image indicating the work position on the captured image captured at the viewpoint position based on the captured image, the work position, and the viewpoint position; and a display unit that displays the superimposed image.
本開示によれば、作業位置の画像を含む撮影画像を撮影可能な領域を撮影可能領域として算出し、作業情報と、撮影可能領域とに基づいて、移動体が過去に移動した移動経路内の位置のうち、撮影可能領域に含まれる位置を視点位置として抽出し、撮影画像と作業位置と視点位置とに基づいて、視点位置で撮影された撮影画像に、作業位置を示す対応位置画像を重畳した重畳画像を生成する。このような構成によれば、客観的な視点位置を適切化することができる。 According to the present disclosure, an area in which a captured image including an image of the work position can be captured is calculated as the captureable area, and a position included in the captureable area among positions within a moving path traveled by a moving body in the past is extracted as a viewpoint position based on the work information and the captureable area, and a superimposed image is generated in which a corresponding position image indicating the work position is superimposed on the captured image captured at the viewpoint position based on the captured image, the work position, and the viewpoint position. With this configuration, it is possible to optimize the objective viewpoint position.
<実施の形態1>
従来、工場などの環境では、移動型ロボットに作業し易い環境が整えられ、従業員が規則を守って行動することによって、移動型ロボットが完全に自動化される運用が実現されてきた。移動型ロボットに作業し易い環境としては、例えば、床面の色及び照度が一定であること、通路が広く死角が少ないこと、通路に障害物を設置しないことなどが挙げられる。従業員が守る規則としては、例えば、移動型ロボットを避ける、移動型ロボットの移動経路を占領しないなどが挙げられる。
<First embodiment>
Conventionally, in a factory or other environment, an environment that is easy for mobile robots to work in has been created, and fully automated operation of mobile robots has been realized by employees following rules. Examples of an environment that is easy for mobile robots to work in include a consistent floor color and illuminance, wide aisles with few blind spots, and no obstacles in the aisles. Examples of rules that employees follow include avoiding mobile robots and not occupying the movement path of mobile robots.
一方、移動型ロボットを構成するバッテリー及びセンサなどの機器の性能向上と、安全センサの普及と、AI(artificial intelligence)技術の進歩による状況判断能力向上とによって、移動型ロボットの自律的な作業遂行能力が高まってきている。これに伴い、工場だけでなく、人の作業空間で自律的に作業する自律移動型ロボットの需要が高まり、その結果として、人と作業空間を共有する自律移動型ロボットの運用が増えてきている。 Meanwhile, the autonomous task performance of mobile robots is improving due to improvements in the performance of devices such as batteries and sensors that make up mobile robots, the widespread use of safety sensors, and improvements in situational judgment capabilities due to advances in AI (artificial intelligence) technology. As a result, there is an increasing demand for autonomous mobile robots that can work autonomously not only in factories but also in human workspaces, and as a result, the use of autonomous mobile robots that share workspaces with people is on the rise.
しかしながら、人向けに設計された作業空間で、自律移動型ロボットが完全に自動化された運用を実現することは難しい。例えば、顧客が訪れる商業施設または一般のオフィスでは、人が好印象を受ける装飾が施され、自律移動型ロボットと環境を共有する人は、自律移動型ロボットに対して特別な配慮を払わないことが多い。そのため、自律移動型ロボットが、人の作業空間で完全に自動化された運用できる状態にまで、自律移動型ロボットが遭遇する状況及び対応策を予め想定し尽くすことは困難である。 However, it is difficult for an autonomous mobile robot to achieve fully automated operation in a workspace designed for humans. For example, commercial facilities or general offices visited by customers are decorated in a way that leaves a good impression on people, and people who share the environment with an autonomous mobile robot often do not pay special consideration to the autonomous mobile robot. For this reason, it is difficult to anticipate in advance all the situations and countermeasures that an autonomous mobile robot will encounter, to the point where it can operate fully automated in a human workspace.
ところで、作業空間を共有する人の安全を優先するため、自律移動型ロボットが、センサからの不十分な情報により安全を確認できない、または、接触の可能性がある場所に人がいると判定した場合には、自律移動型ロボットの駆動が停止されることが多い。また、人は、想定外の状況であっても、自律移動型ロボットよりも画像情報などから柔軟に状況を把握することができるため、接触事故のリスクを適切に捉えることができる。加えて、人は、周囲への注意喚起、及び、映像から近くの人の動きを予想することもできる。 However, in order to prioritize the safety of people sharing the workspace, autonomous mobile robots often stop operating when they are unable to confirm safety due to insufficient information from sensors, or when they determine that there is a person in an area where contact is possible. Furthermore, even in unexpected situations, humans can more flexibly grasp the situation from image information and the like than autonomous mobile robots can, and therefore can appropriately grasp the risk of contact accidents. In addition, humans can alert people in the surrounding area and predict the movements of people nearby from video footage.
これらを考慮して、自律移動型ロボットが自律的に作業を遂行できない状況に陥った場合に、操作者が遠隔操作で自律移動型ロボットを作業に復帰させる運用が提案されている。操作者によって自律移動型ロボットが遠隔操作で作業に復帰できる状況は多く、予め想定すべき状況及び対応策を減らすことができるので、このような運用であれば、人の作業空間内でも自律移動型ロボットを適用可能な範囲を広げることができる。 Taking these factors into consideration, an operation has been proposed in which an operator remotely controls an autonomous mobile robot to return it to work if the autonomous mobile robot gets into a situation where it cannot perform a task autonomously. There are many situations in which an operator can remotely control an autonomous mobile robot to return it to work, which reduces the number of situations and countermeasures that must be anticipated in advance, and such an operation can expand the range in which autonomous mobile robots can be applied even within human workspaces.
このような運用では、操作者が、自律移動型ロボットを遠隔操作する機会は少ないため、複数の自律移動型ロボットを複数の操作対象として一人で遠隔操作することが想定される。作業環境は多種多様であるから、操作者が、自律移動型ロボットに対する復旧作業などの遠隔操作を適切に行うためには、複数の自律移動型ロボットの状況を容易に把握できることが重要である。 In this type of operation, since the operator has few opportunities to remotely control an autonomous mobile robot, it is expected that one person will remotely control multiple autonomous mobile robots as multiple operation targets. Since the work environments are diverse, it is important for the operator to be able to easily grasp the status of multiple autonomous mobile robots in order to appropriately perform remote operation such as recovery work on the autonomous mobile robots.
屋内の復旧作業ではなく、公道を走行する自動運転車両の復旧作業であれば、注意をすべき対象を道路に限定できるため、操作者は、自動運転車両の状況、形状及び移動特性を把握し易い。このため、LiDER(Light Detection and Ranging)または全方位カメラなどの、車載センサから得られる一人称視点の情報だけでも、操作者は自動運転車両の状況を容易に把握することができる。 If the recovery work is for an autonomous vehicle traveling on a public road, rather than indoor recovery work, the operator can limit attention to the road, making it easier for the operator to grasp the situation, shape, and movement characteristics of the autonomous vehicle. Therefore, the operator can easily grasp the situation of the autonomous vehicle with just first-person perspective information obtained from on-board sensors such as LiDER (Light Detection and Ranging) or an omnidirectional camera.
しかしながら、屋内環境では、注意をすべき対象も、操作対象の形状及び移動特性も様々であるため、操作対象に搭載されたカメラによる一人称視点の映像では、操作者は、操作対象の状況、形状及び移動特性を把握することは困難である。このため、操作者が、操作対象の状況などを容易に把握するためには、一人称視点のような操作対象自身の視点から視た映像よりも、客観的な視点位置から視た、操作対象及びその周囲の映像を含む映像のほうが好ましい。 However, in an indoor environment, there are many different objects to pay attention to, and the shapes and movement characteristics of the objects being controlled vary widely, making it difficult for an operator to grasp the situation, shape, and movement characteristics of the object being controlled from a first-person perspective image captured by a camera mounted on the object being controlled. For this reason, in order for an operator to easily grasp the situation of the object being controlled, it is preferable to have an image that includes an image of the object being controlled and its surroundings, viewed from an objective viewpoint, rather than an image viewed from the object's own viewpoint, such as a first-person perspective.
このような客観的な視点位置からの映像は、作業空間の天井などに設置された固定カメラで取得することは可能である。しかしながら、例えばオフィス環境などの机及び棚が多い場所では、机及び棚が死角となり、そのような固定カメラでは床面の状況が把握できない箇所がある。また例えば、商業施設では多くの監視カメラが設置されているが、オフィス環境では監視カメラは、出入口のみに設置されていたり、室内の監視カメラが少なかったりする。 It is possible to capture images from such objective viewpoints using a fixed camera installed on the ceiling of the work space. However, in places with many desks and shelves, such as an office environment, the desks and shelves create blind spots, and there are places where the situation on the floor cannot be grasped using such a fixed camera. Also, for example, while many surveillance cameras are installed in commercial facilities, in an office environment, surveillance cameras are installed only at entrances and exits, and there are few surveillance cameras inside the room.
そこで、自律移動型ロボットに搭載されたカメラの映像を処理して、当該カメラの映像から、客観的な視点位置から視た映像を生成すれば、作業空間の死角を低減することができる。また、遠隔操作を要請した自律移動型ロボットに搭載されたカメラの映像を、処理対象の映像として用いることにより、自律移動型ロボットが自律的に作業を遂行できなくなった地点の映像が撮影される可能性を高めることもできる。 Therefore, by processing the image from a camera mounted on an autonomous mobile robot and generating an image seen from an objective viewpoint from the image from that camera, it is possible to reduce blind spots in the work space. In addition, by using the image from a camera mounted on an autonomous mobile robot that has requested remote operation as the image to be processed, it is possible to increase the possibility of capturing an image of a point where the autonomous mobile robot is no longer able to perform its work autonomously.
以下で説明する本実施の形態1では、移動体から撮影された画像から、客観的な視点位置から視た、遠隔操作可能な移動体の位置を示す画像を生成及び表示可能に構成されている。以下では、画像撮影及び遠隔操作可能な移動体は、自律移動型ロボットであるものとして説明するが、これに限ったものではなく、例えば、遠隔操作で動作するその他の移動体、または、搭乗型の移動体などであってもよい。これらの移動体であっても、以下で説明する自律移動型ロボットと同様に、移動体の移動に支障が生じた場合などに、操作者は、客観的な視点位置からの画像を見ながら遠隔操作を行うことが可能となっている。 In the first embodiment described below, an image showing the position of a remotely controllable mobile body as seen from an objective viewpoint can be generated and displayed from an image captured from the mobile body. In the following, the mobile body capable of image capture and remote control is described as an autonomous mobile robot, but this is not limited to this and may be, for example, other mobile bodies that operate by remote control or a ride-on mobile body. Even with these mobile bodies, as with the autonomous mobile robot described below, when an obstacle occurs to the movement of the mobile body, the operator can remotely control it while viewing an image from an objective viewpoint.
図1は、本実施の形態1に係る画像表示装置の構成を示すブロック図である。図1の画像表示装置には、自律移動型ロボットの作業情報と、カメラで撮影した撮影画像とが入力される。 Figure 1 is a block diagram showing the configuration of an image display device according to the first embodiment. Task information of an autonomous mobile robot and an image captured by a camera are input to the image display device in Figure 1.
作業情報は、自律移動型ロボットの移動を含む作業を示す情報であり、自律移動型ロボットが実施してきた作業、及び、自律移動型ロボットが今後に実施する予定の作業を示す。作業情報は、例えば、自律移動型ロボットがこれまでに移動した位置を時系列で示す移動経路情報、自律移動型ロボットに搭載されたセンサにて時系列で検出された情報、自律移動型ロボットを駆動する駆動部の駆動情報のログ情報などを含んでもよい。また、作業情報は、自律移動型ロボットの作業を示すだけでなく、自律移動型ロボットの作業空間内の監視カメラ及び自動ドアなどの周辺機器の作業を示す情報であってもよい。 The work information is information indicating work including the movement of the autonomous mobile robot, and indicates work that the autonomous mobile robot has performed so far, and work that the autonomous mobile robot plans to perform in the future. The work information may include, for example, movement path information indicating positions that the autonomous mobile robot has performed so far in chronological order, information detected in chronological order by a sensor mounted on the autonomous mobile robot, and log information of drive information of a drive unit that drives the autonomous mobile robot. Furthermore, the work information may not only indicate the work of the autonomous mobile robot, but may also be information indicating the work of peripheral devices such as security cameras and automatic doors within the workspace of the autonomous mobile robot.
撮影画像は、自律移動型ロボットから撮影される画像であり、自律移動型ロボットに搭載されたカメラで撮影される画像である。以下、自律移動型ロボットなどの移動体に搭載されたカメラを「搭載カメラ」と記すこともある。本実施の形態1では、搭載カメラは、自律移動型ロボットの全方向を撮影可能な全方位カメラであるとする。撮影画像は、例えば、時系列で撮影された画像であり、動画形式の画像であってもよいし、静止画形式の画像であってもよい。また撮影画像は、撮影された物体と搭載カメラとの間の距離を示す距離情報を含んでもよい。以下では説明を簡単にするために、撮影画像は、搭載カメラで撮影された、距離情報を含まない静止画形式の画像であるとして説明する。なお、撮影画像は、動画形式の画像から抽出可能な静止画形式の画像であってもよい。 The captured images are images captured by an autonomous mobile robot, and are images captured by a camera mounted on the autonomous mobile robot. Hereinafter, a camera mounted on a moving body such as an autonomous mobile robot may be referred to as an "mounted camera". In this embodiment 1, the mounted camera is assumed to be an omnidirectional camera capable of capturing images in all directions of the autonomous mobile robot. The captured images are, for example, images captured in a time series, and may be images in a video format or images in a still image format. The captured images may also include distance information indicating the distance between the captured object and the mounted camera. In the following, for simplicity of explanation, the captured images will be described as still image format images that do not include distance information, captured by the mounted camera. The captured images may also be still image format images that can be extracted from video format images.
図1の例では、作業環境情報は、自律移動型ロボットの作業実行中において変更が少ない情報であり、作業情報及び撮影画像と同様に画像表示装置に入力されてもよいし、画像表示装置に予め記憶されてもよい。作業環境情報は、自律移動型ロボットの作業空間を示す地図情報と、当該作業空間内の障害物に関する障害物情報とを含む。作業環境情報は、例えば自律移動型ロボットの形状及び型式といった移動体情報と、作業空間内の机、棚、監視カメラ、自動ドアの設置位置及び形状とを含んでもよい。地図情報は、例えば、事前に計測された3次元空間の情報と、自律移動型ロボットに搭載された距離センサの時系列情報から計算された3次元空間の情報とを含んでもよい。 In the example of FIG. 1, the work environment information is information that changes little while the autonomous mobile robot is performing work, and may be input to the image display device in the same way as the work information and captured images, or may be stored in advance in the image display device. The work environment information includes map information showing the work space of the autonomous mobile robot, and obstacle information related to obstacles in the work space. The work environment information may include mobile object information such as the shape and model of the autonomous mobile robot, and the installation positions and shapes of desks, shelves, surveillance cameras, and automatic doors in the work space. The map information may include, for example, information on a three-dimensional space measured in advance, and information on a three-dimensional space calculated from time-series information of a distance sensor mounted on the autonomous mobile robot.
なお、図1には示されていないが、自律移動型ロボットには、自律移動型ロボットを遠隔操作するための情報が入力される。自律移動型ロボットは、当該情報に基づいて遠隔操作される。 Although not shown in FIG. 1, information for remotely controlling the autonomous mobile robot is input to the autonomous mobile robot. The autonomous mobile robot is remotely controlled based on this information.
図1の画像表示装置は、取得部1と、作業位置算出部2と、撮影可能領域算出部3と、第1視点位置抽出部である自機視点位置抽出部4と、重畳画像生成部5と、表示部6とを備える。以下、画像表示装置の構成要素について詳細に説明する。
The image display device in FIG. 1 includes an acquisition unit 1, a work
<取得部1>
取得部1は、自律移動型ロボットへの遠隔操作の要請である遠隔操作要請と、作業情報と、撮影画像とを取得する。遠隔操作要請は、自律移動型ロボットが自律的に作業を遂行することが困難と判定された場合などに、自律的な作業を再開可能にするための、操作者に対する遠隔操作の要請である。複数の自律移動型ロボット全体を管理する管理システム、または、自律移動型ロボットは、自律的な作業の遂行が困難と判定された場合などに、遠隔操作要請によって操作者に自律移動型ロボットへの遠隔操作を要請し、かつ、遠隔操作要請を取得部1に出力する。
<Acquisition part 1>
The acquisition unit 1 acquires a remote operation request, which is a request for remote operation of the autonomous mobile robot, work information, and captured images. The remote operation request is a request to an operator for remote operation to enable the autonomous mobile robot to resume an autonomous task when it is determined that it is difficult for the autonomous mobile robot to autonomously perform a task. When it is determined that it is difficult for the autonomous mobile robot to perform a task autonomously, for example, a management system that manages all of the autonomous mobile robots, or an autonomous mobile robot, requests the operator to remotely operate the autonomous mobile robot by the remote operation request and outputs the remote operation request to the acquisition unit 1.
遠隔操作要請は、遠隔操作が必要となった自律移動型ロボットを指定する情報を含むが、その他の付加情報を含んでもよい。付加情報は、例えば要請時間、作業優先度、要請理由、遠隔操作案などを含む。作業優先度は、例えば、人との衝突、または、人が近くにいる状況での事故のように、自律移動型ロボットが人に危害を与える危険が高い場合では「高」に設定され、危険が低く、かつ、作業を急いでいる場合には「中」に設定され、危険が低く、かつ、作業を急いでない場合には「低」に設定される。要請理由は、例えば、エラーコード、及び、遠隔操作を要請した理由などを示し、遠隔操作案は、要請理由に対する対応案を示す。 The remote control request includes information specifying the autonomous mobile robot that requires remote control, but may also include other additional information. The additional information includes, for example, the time of the request, the work priority, the reason for the request, and a remote control proposal. The work priority is set to "high" when there is a high risk that the autonomous mobile robot will harm a person, such as a collision with a person or an accident in a situation where a person is nearby, is set to "medium" when the risk is low and the work is urgent, and is set to "low" when the risk is low and the work is not urgent. The reason for the request indicates, for example, an error code and the reason for the request for remote control, and the remote control proposal indicates a response proposal for the reason for the request.
取得部1は、遠隔操作要請を取得するだけでなく、遠隔操作を要請した自律移動型ロボットに関する情報を取得する。自律移動型ロボットに関する情報は、自律移動型ロボットの作業情報と、それに関連する撮影画像とを含む。作業環境情報が予め記憶されていない場合には、取得部1は作業環境情報を取得する。遠隔操作要請などの取得後には、作業位置算出部2に処理が移行する。
The acquisition unit 1 not only acquires a remote control request, but also acquires information about the autonomous mobile robot that requested remote control. The information about the autonomous mobile robot includes work information about the autonomous mobile robot and captured images related to the work information. If work environment information is not stored in advance, the acquisition unit 1 acquires the work environment information. After acquiring a remote control request, etc., processing is transferred to the work
<作業位置算出部2>
作業位置算出部2は、遠隔操作要請と、作業情報とに基づいて、遠隔操作要請が取得された際に自律移動型ロボットが作業していた位置を、作業位置として算出する。
<Working
The work
本実施の形態1では、まず、作業位置算出部2は、取得部1で取得された作業情報から、遠隔操作要請が取得された際に自律移動型ロボットが実施していた実施作業が、特定の位置周辺で実施する特定の作業であるか、特定の位置間の移動であるかを判定する。特定の作業は、例えば物品配送地点での積み降ろしまたは移載作業などの、移動が目的ではない一般作業である。
In the present embodiment 1, first, the work
実施作業が特定の作業であると判定された場合には、作業位置算出部2は、特定の作業における一連の動作が実施されている地点を作業位置として決定する。実施作業が、特定の位置間の移動であると判定された場合には、作業位置算出部2は、遠隔操作の要請時点までの予め定められた期間の移動範囲、または、遠隔操作の要請時点後の停止位置までの予め定められた距離の移動範囲を作業位置として決定する。予め定められた期間は、例えば、要請時点までの10秒などのような規定の時間、または、停止した後の時間は含まない要請時点までの5秒などのような規定の時間である。一定距離は、例えば、要請時点後の停止位置までの5mなどのような規定の距離、または、自律移動型ロボットの大きさに比例した距離である。作業位置の算出後には、撮影可能領域算出部3に処理が移行する。
When it is determined that the work being performed is a specific work, the work
<撮影可能領域算出部3>
撮影可能領域算出部3は、作業環境情報と、作業位置算出部2で算出された作業位置とに基づいて、作業位置の画像を含む撮影画像を撮影可能な領域を撮影可能領域として算出する。
<Photographable
The imageable
図2は、撮影可能領域の算出方法の一例を説明するための鳥観図である。図2では、自律移動型ロボットが棚に移載作業をしている時に、遠隔操作が要請された場面が示されている。図2には、黒丸で示される、遠隔操作を要請した自律移動型ロボット21と、ハッチングで示される作業位置22と、棚などの障害物23と、一点鎖線で囲まれた撮影可能領域24とが示されている。
Figure 2 is a bird's-eye view to explain an example of a method for calculating the imageable area. Figure 2 shows a scene in which remote control is requested while an autonomous mobile robot is transferring an object to a shelf. Figure 2 shows the autonomous
本実施の形態1では、まず、撮影可能領域算出部3は、作業環境情報に含まれる地図情報の地図に、作業位置算出部2で算出された作業位置22と、作業環境情報に含まれる障害物情報が示す棚などの障害物23とを組み合わせる。そして、撮影可能領域算出部3は、障害物23に邪魔されずに作業位置22の画像を含む撮影画像を撮影可能な領域を、撮影可能領域24として算出する。例えば、撮影可能領域算出部3は、障害物23に当たることなく、作業位置22の各領域へ直線を引ける地点を集めた領域を、撮影可能領域24として算出する。
In this embodiment 1, first, the photographable
撮影可能領域24の算出方法は、作業位置22及び障害物23を多面体として地図情報の地図に投影し、その頂点を結ぶ幾何学的な算出方法でもよいし、適当に抽出した代表点が撮影可能領域24の点であるかを判定する探索的な算出方法でもよい。なお、撮影可能領域24の算出方法は、これらに限ったものではない。また、図2の例では、撮影可能領域算出部3は、鳥観図のような平面で撮影可能領域24を算出しているが、3次元的な立体空間で撮影可能領域24を算出してもよい。撮影可能領域24の算出後には、自機視点位置抽出部4に処理が移行する。
The method of calculating the
<自機視点位置抽出部4>
自機視点位置抽出部4は、作業情報と、撮影可能領域算出部3で算出された撮影可能領域24とに基づいて、自律移動型ロボット21が過去に移動した移動経路内の位置のうち、撮影可能領域24に含まれる位置を視点位置として抽出する。自機視点位置抽出部4は、例えば、視点位置を抽出する場合に、作業情報に含まれる上記移動経路情報を用いる。視点位置は、表示部6で表示される画像の視点となる位置である。なお、自機視点位置抽出部4は、自律移動型ロボット21の搭載カメラの光学系情報も考慮して視点位置を抽出してもよい。
<Own aircraft viewpoint
The own aircraft viewpoint
図3は、視点位置の抽出方法の一例を説明するための鳥観図である。本実施の形態1では、まず、自機視点位置抽出部4は、移動経路情報に基づいて、これまで自律移動型ロボットが移動してきた移動経路25を撮影可能領域24に重ね、移動経路25のうち撮影可能領域24に含まれる部分を、抽出経路として抽出する。図3の例では、連続的な抽出経路25a,25bが抽出されている。
Figure 3 is a bird's-eye view diagram for explaining an example of a method for extracting a viewpoint position. In this embodiment 1, first, the own aircraft viewpoint
それから、自機視点位置抽出部4は、作業位置22からの距離と、撮影可能領域24の境界からの距離と、抽出経路を通過した時間とに基づいて、抽出経路内の各位置の評価値を算出する。例えば、自機視点位置抽出部4は、移動経路情報と、自律移動型ロボット21の搭載カメラの光学系情報と、自律移動型ロボット21の大きさを示す情報とに基づいて、抽出経路内の位置での撮影画像に自律移動型ロボット21を重畳する。そして、自機視点位置抽出部4は、自律移動型ロボット21が撮影画像内に占める割合が一定範囲に近づくほど、当該位置の評価値を高くしてもよい。また例えば、自機視点位置抽出部4は、抽出経路内の位置の撮影可能領域24の境界からの距離が、一定値よりも小さくなるほど、当該位置の評価値を低くしてもよい。また例えば、自機視点位置抽出部4は、抽出経路内の位置を自律移動型ロボット21が通過した時間から現在の時間までの期間が長いほど、当該位置の評価値を低くしてもよい。
Then, the own aircraft viewpoint
なお、評価値が算出される位置は、例えば、抽出経路を適当に分割し、各分割内の位置であってもよいし、撮影距離のような評価値を計算するための一部の指標が極大値を取る位置であってもよい。また、評価値が算出される位置は、これらに限ったものではない。 The position at which the evaluation value is calculated may be, for example, a position within each division of the extracted path, or a position at which some index for calculating the evaluation value, such as the shooting distance, takes a maximum value. Furthermore, the position at which the evaluation value is calculated is not limited to these.
次に、自機視点位置抽出部4は、各抽出経路について、評価値が一番高い位置を視点位置の候補として決定する。そして、自機視点位置抽出部4は、視点位置の候補の評価値を比較し、評価値が一番高い候補を視点位置として決定する。
Next, the aircraft's viewpoint
図3の例では、自機視点位置抽出部4は、抽出経路25a内の各位置で評価値を算出し、評価値が一番高い位置を視点位置の候補26aとして決定する。同様に、自機視点位置抽出部4は、抽出経路25b内の各位置で評価値を算出し、評価値が一番高い位置を視点位置の候補26bとして決定する。自機視点位置抽出部4は、視点位置の候補26a,26bの評価値を比較し、評価値が一番高い候補を視点位置として決定する。例えば、候補26bは、候補26aよりも撮影画像の撮影が過去ではあるが、候補26aよりも作業位置22から一定距離が確保できる場合には、候補26bの評価値は候補26aの評価値よりも高くなり、候補26bが視点位置として決定される。視点位置の抽出後には、重畳画像生成部5に処理が移行する。
In the example of FIG. 3, the aircraft viewpoint
<重畳画像生成部5>
重畳画像生成部5は、撮影画像と、作業位置算出部2で算出された作業位置22と、自機視点位置抽出部4で抽出された視点位置とに基づいて、視点位置で撮影された撮影画像に作業位置22を示す対応位置画像を重畳した重畳画像を生成する。本実施の形態1では、対応位置画像には、遠隔操作要請が取得部1で取得された際に自律移動型ロボット21が実施していた作業を示す作業画像が用いられる。
<
The superimposed
本実施の形態1では、まず、重畳画像生成部5は、取得部1で取得された撮影画像の中から、自機視点位置抽出部4で抽出された視点位置を自律移動型ロボット21が通過した時に撮影された撮影画像を、客観視点環境画像として抽出する。例えば、重畳画像生成部5は、自律移動型ロボット21が視点位置を複数回通過または複数回停止するなどして、視点位置について複数の撮影画像が存在する場合には、その中から最新の撮影画像を、客観視点環境画像として抽出する。また例えば、重畳画像生成部5は、視点位置を通過した時に撮影された撮影画像が存在しない場合には、視点位置を通過した時点前後で、かつ、その時点に最も近い時点で撮影された撮影画像を、客観視点環境画像として抽出する。
In the first embodiment, first, the superimposed
それから、重畳画像生成部5は、作業情報に基づいて、遠隔操作要請が取得部1で取得された際に自律移動型ロボット21が実施していた作業を再現する作業画像を生成する。再現される作業は、例えば、作業位置算出部2で作業位置の算出対象とした実施作業である。作業画像は、背景などの環境の画像を含まずに、自律移動型ロボット21の動作のみを含んでもよい。作業画像は、例えば自律移動型ロボット21の3Dモデルを動作させる画像であってもよい。
Then, based on the work information, the superimposed
次に、重畳画像生成部5は、客観視点環境画像に作業画像を重畳することで、重畳画像である作業状況再現画像を生成する。複数の画像間における、各画像の座標系の校正方法などは、広く知られているためその詳細な説明は省略する。作業状況再現画像の生成後には、情報表示操作部に処理が移行する。
Next, the superimposed
なお、以上の説明では、重畳画像生成部5は、視点位置で撮影された撮影画像を、客観視点環境画像としてそのまま用いたが、他の実施の形態で説明するようにこれに限ったものではない。また、重畳画像生成部5は、撮影画像内に示される物品の名前、及び、他機能で得られた付加情報などを、客観視点環境画像に重畳してもよい。
In the above description, the superimposed
<表示部6>
表示部6は、重畳画像である作業状況再現画像を表示する。なお、表示部6は、例えば、遠隔操作の要請状態、施設の地図情報、操作対象の情報、長時間にわたる過去の撮影画像など、遠隔操作に有用な情報も表示してもよい。また、表示部6は、操作者の操作によって、表示情報を切り替えてもよい。また、表示部6は、例えば、無線LAN(Local Area Network)など無線技術によって重畳画像生成部5と通信可能に構成され、自律移動型ロボット21の遠隔に位置する操作者が見ることが可能な表示装置である。
<
The
<実施の形態1のまとめ>
以上のような本実施の形態1に係る画像表示装置によれば、自律移動型ロボット21が過去に移動した移動経路25のうち、撮影可能領域24に含まれる位置を視点位置として抽出し、撮影画像と作業位置22と視点位置とに基づいて、視点位置で撮影された撮影画像に作業位置22を示す対応位置画像を重畳した作業状況再現画像を生成して表示することが可能となっている。このような構成によれば、操作者は、自律移動型ロボット21が作業を継続できなくなった状況を、客観的な視点位置から視た作業状況再現画像によって確認することで、自律移動型ロボット21の状況を容易に把握することができる。
Summary of the First Embodiment
According to the image display device of the first embodiment as described above, it is possible to extract a position included in the
特に、障害物が多い屋内作業では、客観的な視点位置から視た自律移動型ロボット21の作業位置の表示が、障害物などによって妨げられることがある。これに対して本実施の形態1では、撮影可能領域24によって客観的な視点位置を適切化することができるので、客観的な視点位置から視た自律移動型ロボット21の作業位置の表示が、障害物などによって妨げられることを抑制することができる。また、操作者が、取得部1で取得された撮影画像の中から、作業状況再現画像を生成するための撮影画像を探す手間をなくすことができる。
In particular, in indoor work where there are many obstacles, the display of the work position of the autonomous
また本実施の形態1では、作業位置22を示す対応位置画像は、遠隔操作要請が取得された際に自律移動型ロボット21が実施していた作業を示す作業画像を含む。このような構成によれば、操作者は、自律的に作業が遂行できない状態に陥った自律移動型ロボット21の作業を容易に把握することができる。
In addition, in this embodiment 1, the corresponding position image showing the
<変形例>
実施の形態1では、自機視点位置抽出部4は、視点位置の候補の決定のような視点位置の抽出だけでなく、視点位置そのものの決定を行ったが、これに限ったものではない。例えば、自機視点位置抽出部4における視点位置の抽出が、視点位置の候補の決定と、当該候補の評価値の算出とを含み、操作者が、評価値に基づいて視点位置の候補の中から視点位置を決定してもよい。この場合、自機視点位置抽出部4は、視点位置の候補と、当該候補の評価値とを操作者に表示してもよい。
<Modification>
In the first embodiment, the aircraft's viewpoint
図4は、操作者への自機視点位置抽出部4の表示例を示す図である。この図4の例では、地図上に自律移動型ロボット21と、作業位置22と、障害物23と、撮影可能領域24と、自律移動型ロボット21の移動経路25とが表示されている。また、撮影可能領域24内の抽出経路25a,25bの中で、評価値が高い位置が、視点位置の候補26a,26bとして操作者に表示されている。このような場合に、自機視点位置抽出部4は、候補26a,26bの中から操作者に選択された候補を、視点位置として決定してもよい。
Figure 4 is a diagram showing an example of the display of the own aircraft viewpoint
なお、操作者は、候補26a,26bの中から視点位置を決定するのではなく、抽出経路25a,25b上の任意の地点を視点位置として決定してもよい。この場合、自機視点位置抽出部4は、撮影可能領域24内の抽出経路25a,25bを強調表示してもよい。また、抽出経路25a,25bは、線の色または太さで撮影時間を識別可能に表示されてもよい。例えば、抽出経路内の位置を自律移動型ロボット21が通過した時間から現在の時間までの期間が長いほど、当該位置の線の色を薄くしたり、当該位置の線の赤及び青などの色合いを変化させたり、当該位置の線を細くしたりしてもよい。
In addition, the operator may determine an arbitrary point on the extracted
また、自律移動型ロボット21の搭載カメラが全方位カメラでない場合には、図5のように、候補26a,26bについて、搭載カメラの撮影範囲27a,27bが表示されてもよい。このような構成によれば、搭載カメラが全方位カメラでなくても、適切な撮影画像を作業状況再現画像に用いることができる。
In addition, if the camera mounted on the autonomous
また例えば、自機視点位置抽出部4における視点位置の抽出が、視点位置の候補の決定と、その評価値の算出とを含み、重畳画像生成部5が、評価値に基づいて視点位置の候補の中から視点位置を決定してもよい。
For example, extraction of the viewpoint position in the aircraft viewpoint
<実施の形態2>
本実施の形態2では、周辺環境の3次元空間のテクスチャ画像に、時系列の撮影画像を使用して更新することで、重畳画像生成部5の客観視点環境画像として使用可能、かつ、時系列で変更可能な3次元の仮想環境画像を生成するように構成されている。
<
In this second embodiment, the three-dimensional spatial texture image of the surrounding environment is updated using a time series of captured images, thereby generating a three-dimensional virtual environment image that can be used as an objective viewpoint environment image for the superimposed
図6は、本実施の形態2に係る画像表示装置の構成を示すブロック図である。図6の画像表示装置の構成は、図1の画像表示装置の構成に、環境画像生成部7が追加された構成と同様である。
Figure 6 is a block diagram showing the configuration of an image display device according to the second embodiment. The configuration of the image display device in Figure 6 is the same as that of the image display device in Figure 1, with an environmental
本実施の形態2では、作業環境情報は、作業空間内の固定物についての3次元空間の位置姿勢情報を含み、3次元空間の位置姿勢情報は、固定物の3次元オブジェクトを示す。 In this second embodiment, the work environment information includes three-dimensional spatial position and orientation information for fixed objects in the work space, and the three-dimensional spatial position and orientation information indicates the three-dimensional objects of the fixed objects.
環境画像生成部7は、時系列の撮影画像と、作業環境情報に含まれる位置姿勢情報とに基づいて、3次元オブジェクトに、時系列の撮影画像をテクスチャとして貼り付けることによって、時系列で変更可能な3次元の仮想環境画像を生成する。以下、仮想環境画像の生成例について説明する。
The environment
まず、本実施の形態2では、環境画像生成部7は、位置姿勢情報のうち、自機視点位置抽出部4で抽出された視点位置から撮影可能な3次元オブジェクトを示す位置姿勢情報を、視界内物体情報として抽出する。視界内物体情報は、例えば、どの3次元オブジェクトのどの表面が撮影可能かについての情報を含む。
First, in this second embodiment, the environmental
それから、環境画像生成部7は、遠隔操作が要請されるまでに撮り貯めた撮影画像に、視界内物体情報の3次元オブジェクトに対応する撮影画像が含まれているかを、時系列に沿って判定する。
Then, the environmental
3次元オブジェクトに対応する撮影画像が含まれていると判定された場合には、環境画像生成部7は、時系列に沿って、当該3次元オブジェクトに撮影画像をテクスチャとして貼り付けることによって仮想環境画像を生成する。これにより、自機視点位置抽出部4で抽出された視点位置から視た、時系列で変更可能な3次元の仮想環境画像が生成される。
When it is determined that a photographed image corresponding to a three-dimensional object is included, the environment
3次元オブジェクトに対応する撮影画像が含まれていると判定されなかった場合には、環境画像生成部7は、取得部1で取得された撮影画像の中から、自機視点位置抽出部4で抽出された視点位置で撮影された撮影画像を抽出する。
If it is not determined that the captured image corresponding to a three-dimensional object is included, the environmental
重畳画像生成部5は、環境画像生成部7で生成された仮想環境画像、または、抽出された撮影画像を、実施の形態1で説明した客観視点環境画像として用いることによって、作業状況再現画像を生成する。実施の形態1では、視点位置で撮影した静的な撮影画像を客観視点環境画像として用いたが、本実施の形態2では、時系列で変更可能な3次元の仮想環境画像を客観視点環境画像として用いることが可能である。仮想環境画像からなる客観視点環境画像に、自律移動型ロボット21の作業を示す作業画像を重畳する場合、作業画像の時間と、客観視点環境画像の時間とを合わせれば、自律移動型ロボット21の状況の再現度を高めることができる。
The superimposed
なお、作業画像の時間と、客観視点環境画像の時間とを異ならせてもよい。図7は、作業画像の時間と、客観視点環境画像の時間とを異ならせて、作業状況再現画像を生成するための画面例である。図7の画面下部には、自律移動型ロボットの作業画像の時間と、3次元オブジェクトを規定する視点位置の時間と、3次元オブジェクトにテクスチャとして貼り付けられる撮影画像の時間とを指定するシークバーが設けられている。この例では、視点位置の時間と、撮影画像の時間とが、客観視点環境画像の時間に含まれる。 The time of the work image and the time of the objective-viewpoint environment image may be made different. Figure 7 shows an example of a screen for generating a work situation reproduction image by making the time of the work image and the time of the objective-viewpoint environment image different. At the bottom of the screen in Figure 7, there is a seek bar for specifying the time of the work image of the autonomous mobile robot, the time of the viewpoint position that defines the three-dimensional object, and the time of the captured image that is pasted as a texture onto the three-dimensional object. In this example, the time of the viewpoint position and the time of the captured image are included in the time of the objective-viewpoint environment image.
操作者が、シークバーの時間を指定する操作を行うことで、作業画像、視点位置及び撮影画像に対して指定された時間の組合せで、客観視点環境画像が再現される。なお、3次元オブジェクトと撮影画像とを組み合わせる手法は様々な方法が既に提案されており、上記に限ったものではない。 When the operator operates the seek bar to specify a time, an objective viewpoint environment image is reproduced with a combination of the work image, viewpoint position, and time specified for the captured image. Note that various methods have already been proposed for combining 3D objects and captured images, and are not limited to the above.
<実施の形態2のまとめ>
本実施の形態2によれば、時系列の前記撮影画像と、作業空間内の固定物についての3次元空間の位置姿勢情報とに基づいて、時系列で変更可能な3次元の仮想環境画像を生成する。このような構成によれば、操作者は、自律的に作業が遂行できない状態に陥った自律移動型ロボット21の状況をさらに容易に把握することができる。
Summary of the second embodiment
According to the second embodiment, a three-dimensional virtual environment image that can be changed in time series is generated based on the time-series captured images and the three-dimensional spatial position and orientation information of fixed objects in the working space. With this configuration, the operator can more easily grasp the situation of the autonomous
<実施の形態3>
本実施の形態3では、移動障害物の位置姿勢情報を算出するように構成されている。
<Third embodiment>
In the third embodiment, the position and orientation information of a moving obstacle is calculated.
図8は、本実施の形態3に係る画像表示装置の構成を示すブロック図である。図8の画像表示装置の構成は、図1の画像表示装置の構成に、移動障害物情報算出部8が追加された構成と同様である。
Figure 8 is a block diagram showing the configuration of an image display device according to the third embodiment. The configuration of the image display device in Figure 8 is the same as that of the image display device in Figure 1, with a moving obstacle
なお、本実施の形態3に係る物体は、固定障害物と移動障害物との少なくともいずれか1つを含む。固定障害物は、例えば、壁、扉、棚、及び、机などの位置姿勢の変更が少ない障害物である。移動障害物は、例えば、人及び移動型ロボットなどの移動体、並びに、椅子などの位置姿勢の変更が多い障害物である。 The object according to the third embodiment includes at least one of a fixed obstacle and a moving obstacle. Fixed obstacles are obstacles whose position and posture change little, such as walls, doors, shelves, and desks. Moving obstacles are moving bodies such as people and mobile robots, and obstacles whose position and posture change often, such as chairs.
本実施の形態3では、作業環境情報の障害物情報は、作業空間内の固定障害物の位置姿勢情報を含む。 In this third embodiment, the obstacle information in the work environment information includes position and orientation information of fixed obstacles in the work space.
移動障害物情報算出部8は、作業空間内の物体の位置姿勢情報と、作業環境情報に含まれる固定障害物の位置姿勢情報とに基づいて、固定障害物と区別して表示部6で表示される移動障害物の位置姿勢情報を算出する。作業空間内の物体の位置姿勢情報は、例えば、自律移動型ロボット21などに搭載されたセンサで認識された、固定障害物と移動障害物との少なくともいずれか1つを含む物体の位置姿勢情報である。移動障害物情報算出部8は、作業空間内の物体の位置姿勢情報から、固定障害物の位置姿勢情報を差し引くことで、移動障害物の位置姿勢情報を算出する。例えば、LiDERまたはステレオカメラによって認識される距離情報が、物体の位置姿勢情報として用いられてもよい。この場合、移動障害物情報算出部8は、距離情報から固定障害物の位置姿勢情報を除去することによって、移動障害物の情報を算出してもよい。
The moving obstacle
移動障害物は、例えば、重畳画像生成部5の客観視点環境画像において、色及び文字、その他画像効果などで、強調表示される。重畳画像生成部5の客観視点環境画像における強調表示は、表示部6で表示される作業状況再現画像に反映される。なお、算出された位置姿勢情報で示される移動障害物は、重畳画像生成部5の客観視点環境画像を経由せずに、表示部6の作業状況再現画像において強調表示されてもよい。
The moving obstacle is highlighted, for example, in the objective viewpoint environment image of the superimposed
なお、以上の構成において、事前に移動障害物のモデルが得られる場合には、移動障害物情報算出部8は、距離情報を含まない撮影画像の物体の中からモデルマッチングによって移動障害物を認識して、移動障害物の位置姿勢情報を算出してもよい。例えば椅子、人、及び、移動型ロボットなどの移動障害物のモデルを作業環境情報に含めておき、移動障害物情報算出部8は、そのモデルを参照してモデルマッチングを行う。人に関しては精確なモデルマッチングではなく、人という一括りのモデルマッチングが行われてもよい。また、移動障害物情報算出部8は、物体にタグ付けを行うことによって、例えば、人、移動型ロボット、椅子などの物体を区別するタグ情報を生成してもよい。このタグ情報は、重畳画像生成部5の客観視点環境画像、または、表示部6の作業状況再現画像において、移動障害物の種別に合わせた強調表現の変更、または、移動障害物の名前の付加などに用いられてもよい。
In the above configuration, if a model of the moving obstacle is obtained in advance, the moving obstacle
作業環境情報に含まれる固定障害物の位置姿勢情報において、運用中に固定障害物と移動障害物とが切り換えられてもよい。例えば、距離情報による認識結果が前回の認識結果と異なる場合には、前回の認識時点における固定障害物が、移動障害物に切り換えられてもよい。逆に、距離情報による認識結果が一定期間変化しない場合には、前回の認識時点における移動障害物が、固定障害物に切り換えられてもよい。 In the position and orientation information of fixed obstacles included in the work environment information, fixed obstacles and moving obstacles may be switched during operation. For example, if the recognition result based on distance information differs from the previous recognition result, the fixed obstacle at the time of the previous recognition may be switched to a moving obstacle. Conversely, if the recognition result based on distance information does not change for a certain period of time, the moving obstacle at the time of the previous recognition may be switched to a fixed obstacle.
<実施の形態3のまとめ>
固定障害物の影響は、作業を計画する際に予め想定しているため、自律移動型ロボット21の作業遂行を阻害する可能性が低い。一方、移動障害物の影響は、作業を計画する際に予め想定し尽くすことができないため、自律移動型ロボット21の作業遂行を阻害する可能性が比較的高くなる。
<Summary of the Third Embodiment>
The influence of fixed obstacles is anticipated in advance when planning a task, and is therefore unlikely to hinder the task execution of the autonomous
そこで、本実施の形態3によれば、固定障害物と区別して表示部6で表示される移動障害物の位置姿勢情報を算出する。このような構成によれば、移動障害物を固定障害物と区別して表示することができるため、操作者は、自律的に作業が遂行できない状態に陥った自律移動型ロボット21の状況をさらに容易に把握することができる。
Therefore, according to the third embodiment, the position and orientation information of the moving obstacle that is displayed on the
<実施の形態4>
本実施の形態4では、遠隔操作を要請した自律移動型ロボット21の搭載カメラ以外の別のカメラの画像を利用可能に構成されている。
<Fourth embodiment>
In the fourth embodiment, an image from a camera other than the camera mounted on the autonomous
図9は、本実施の形態4に係る画像表示装置の構成を示すブロック図である。図9の画像表示装置の構成は、図1の画像表示装置の構成に、第2視点位置抽出部である他機視点位置抽出部9が追加された構成と同様である。
Figure 9 is a block diagram showing the configuration of an image display device according to the fourth embodiment. The configuration of the image display device in Figure 9 is the same as that of the image display device in Figure 1, except that a second viewpoint
他機視点位置抽出部9は、遠隔操作を要請した自律移動型ロボット21の搭載カメラ以外の別のカメラについて別の視点位置を算出する。以下では、別のカメラは、遠隔操作を要請した自律移動型ロボット21以外の別の自律移動型ロボット(つまり別の移動体)に搭載されたカメラである場合について主に説明する。
The other-machine viewpoint
移動経路が異なる点を除けば、他機視点位置抽出部9の処理は、自機視点位置抽出部4の処理と同様である。つまり、他機視点位置抽出部9は、別の自律移動型ロボットが過去に移動した別の移動経路上の位置のうち、撮影可能領域24に含まれる位置を別の視点位置として抽出する。
Except for the difference in the movement path, the processing of the other-vehicle viewpoint
具体的には、撮影可能領域24が算出された後、他機視点位置抽出部9は、別の自律移動型ロボットの移動経路情報に基づいて、これまで別の自律移動型ロボットが移動してきた別の移動経路を撮影可能領域24に重ね、別の移動経路のうち撮影可能領域24に含まれる部分を、別の抽出経路として抽出する。他機視点位置抽出部9は、別の抽出経路内の各位置の評価値を算出し、評価値に基づいて別の視点位置を決定する。
Specifically, after the
重畳画像生成部5は、別の自律移動型ロボットから撮影された別の撮影画像と、作業位置22と、他機視点位置抽出部9で決定された別の視点位置とに基づいて、別の視点位置で撮影された別の撮影画像に対応位置画像を重畳する。重畳画像生成部5は、このような重畳を行うことによって、表示部6で表示される作業状況再現画像を生成する。なお、重畳画像生成部5は、自機視点位置抽出部4で算出された視点位置の評価値と、他機視点位置抽出部9で算出された別の視点位置の評価値とを比較し、それらの中から評価値が高い方についてのみ作業状況再現画像を生成してもよい。
The superimposed
重畳画像生成部5は、自律移動型ロボットの搭載カメラの画像ではなく、例えば、天井に固定された監視カメラなどの画像を用いてもよい。監視カメラなどの画像では、別の視点位置は変更されない。
The superimposed
また、適切な別の視点位置が得られない場合には、操作者は遠隔操作によって別の自律移動型ロボットを移動させてもよい。 In addition, if a suitable alternative viewpoint cannot be obtained, the operator may move another autonomous mobile robot by remote control.
図10は、操作者への表示例を示す図である。図10では、図4の表示に、固定された監視カメラの視点位置28及び撮影範囲29と、別の自律移動型ロボットの移動先30とが追加されている。図10のような地図が操作者に表示され、操作者が移動先30を地図上で選択した場合に、別の自律移動型ロボットは当該移動先30に移動するように構成されてもよい。なお、別の自律移動型ロボットでは、自律移動型ロボット21が遠隔操作を要請した後でも撮影可能である。このため、表示部6が、別の自律移動型ロボットで撮影された画像を表示する場合には、当該画像が遠隔操作要請後の画像であるか、遠隔操作要請前の画像であるかを、表示アイコンの色などで識別表示してもよい。また、表示部6は、シークバーなどで指定された撮影時間の画像を表示してもよい。
Figure 10 is a diagram showing an example of a display to an operator. In Figure 10, the fixed surveillance camera's
<実施の形態4のまとめ>
本実施の形態4によれば、別の自律移動型ロボットなどの別の移動体から撮影された画像を利用することができる。これにより、自律移動型ロボット21の撮影画像に撮影可能領域24内で適切な撮影画像がない場合、または、操作者が撮影画像と撮影方向が異なる画像が欲しい場合などに、別の移動体から撮影された画像を用いることができる。この結果、操作者は、自律的に作業が遂行できない状態に陥った自律移動型ロボット21の状況をさらに容易に把握することができる。
<Summary of the Fourth Embodiment>
According to the fourth embodiment, it is possible to use images captured by another moving body, such as another autonomous mobile robot. This makes it possible to use images captured by another moving body when there is no suitable image captured by the autonomous
<実施の形態5>
本実施の形態5では、操作者からの遠隔操作に基づいて自律移動型ロボット21に作業を仮想的に実施させた場合のシミュレーション画像を生成可能に構成されている。
<Fifth embodiment>
In the fifth embodiment, a simulation image can be generated in which the autonomous
図11は、本実施の形態5に係る画像表示装置の構成を示すブロック図である。図11の画像表示装置の構成は、図1の画像表示装置の構成に、仮想画像生成部10が追加された構成と同様である。
Figure 11 is a block diagram showing the configuration of an image display device according to the fifth embodiment. The configuration of the image display device in Figure 11 is the same as that of the image display device in Figure 1, with a virtual
仮想画像生成部10は、操作者からの遠隔操作に基づいて自律移動型ロボット21に作業を仮想的に実施させた場合のシミュレーション画像を生成する。仮想画像生成部10は、遠隔操作によって自律移動型ロボット21を操作する前に、当該遠隔操作に従って自律移動型ロボット21の3Dモデルなどを動作させた場合のシミュレーション画像を生成する。シミュレーション画像は、表示部6で作業状況再現画像と重畳表示される。なお、シミュレーション画像は、表示部6で作業状況再現画像と重畳表示されるように、重畳画像生成部5の客観視点環境画像と重畳されてもよい。
The virtual
<実施の形態5のまとめ>
操作者が複数の自律移動型ロボットを遠隔操作する運用が想定されており、そのような運用では、遠隔操作要請後の遠隔操作ミスが事故に繋がる可能性がある。特に、自律移動型ロボットの種類は多種多様であり、自律移動型ロボットごとに操作方法及び挙動が異なるため、そのような可能性は比較的高くなると考えられる。
Summary of the Fifth Embodiment
It is assumed that an operator will remotely control multiple autonomous mobile robots, and in such an operation, a remote control error after a remote control request may lead to an accident. In particular, since there are many different types of autonomous mobile robots and each robot has a different operation method and behavior, the possibility of such an accident is considered to be relatively high.
これに対して、本実施の形態5によれば、操作者からの遠隔操作に基づいて自律移動型ロボット21に作業を仮想的に実施させた場合のシミュレーション画像を生成する。このような構成によれば、操作者は、実際に自律移動型ロボット21を遠隔操作する前に、作業状況再現画像と重畳表示されるシミュレーション画像を見て、遠隔操作に問題無いかを確認することができる。これにより、操作者は、遠隔操作に問題無いことが確認できるまで、遠隔操作を変更することができるので、遠隔操作ミスを低減することができる。
In contrast, according to the fifth embodiment, a simulation image is generated in which the autonomous
<実施の形態6>
本実施の形態6では、遠隔操作要請が取得された際に自律移動型ロボット21が実施している作業が、自律移動型ロボット21から被作業物体への作業である場合に、被作業物体が撮影された画像を取得可能に構成されている。
<Sixth embodiment>
In this
図12は、本実施の形態6に係る画像表示装置の構成を示すブロック図である。図12の画像表示装置の構成は、図1の画像表示装置の構成に、被作業物体画像取得部11が追加された構成と同様である。
Fig. 12 is a block diagram showing the configuration of an image display device according to the sixth embodiment. The configuration of the image display device in Fig. 12 is the same as that of the image display device in Fig. 1, with a work object
被作業物体画像取得部11は、遠隔操作要請が取得された際に自律移動型ロボット21が実施している作業が、自律移動型ロボット21から被作業物体への作業である場合に、被作業物体が撮影された画像を取得する。自律移動型ロボット21から被作業物体への作業は、自律移動型ロボット21のエンドエフェクターなどを用いた作業を含む。被作業物体の画像の撮影には、例えば、搭載カメラのうち、3次元空間画像をリアルタイムで撮影可能であり、自律移動型ロボット21本体から移動可能な移動型カメラが用いられる。被作業物体画像取得部11は、被作業物体を認識し易い画像が撮影されるように、移動型カメラを移動させることにより、移動型カメラの視点位置を変更してもよい。
The work object
まず、本実施の形態6では、被作業物体画像取得部11は、被作業物体またはエンドエフェクターの3次元空間画像が必要であるか否かを判定する。例えば、遠隔操作要請が取得された際に自律移動型ロボット21が実施していた作業内容が、エンドエフェクターを用いた被作業物体への操作である場合には、3次元空間画像が必要であると判定される。また、エンドエフェクターが操作されている場合、または、エンドエフェクターの近くに何らかの物体がある場合などにも、3次元空間画像が必要であると判定されてもよい。3次元空間画像が必要であると判定されている場合に、被作業物体画像取得部11は、被作業物体を撮影している移動型カメラの視点位置を、被作業物体撮影位置として決定する。
First, in the sixth embodiment, the work object
表示部6は、被作業物体撮影位置からの被作業物体画像を操作者に表示する。遠隔操作要請時の作業前後でエンドエフェクターのみが動作する場合には、表示部6は、客観視点環境画像を表示せずに、被作業物体画像のみを表示してもよい。
The
ところで、作業内容によって操作者に適した画像は異なる。自律移動型ロボット21本体を移動させる作業では、自律移動型ロボット21の全体を確認可能な客観的な視点位置での画像が、操作者の状況判断に適している。一方、自律移動型ロボット21が、エンドエフェクターを用いて被作業物体の移載作業などを行う場合には、エンドエフェクターと被作業物体とを中心とし、視点位置を自由に変更可能な3次元空間画像が、操作者の状況判断に適している。
The image suitable for an operator varies depending on the type of work. When moving the autonomous
特に、被作業物体を操作する際には、固定された視点だけの画像では距離感が把握し難いため、作業者が視点位置を変更しながら作業を確認できることが望まれる。一方、被作業物体を大きく移動させる作業を行う際には、作業者が、自律移動型ロボット21本体の状態と、エンドエフェクターによる被作業物体の状態との両方を同時に確認できることが望ましい。そこで、表示部6は、遠隔操作要請時の作業内容に基づいて、客観視点環境画像と被作業物体画像とを並べた表示と、客観視点環境画像及び被作業物体画像のいずれかの表示とを選択的に行ってもよい。なお、客観視点環境画像と被作業物体画像とを並べた表示は、作業者が遠隔操作要請時に作業を確認する場合に有用だけでなく、作業者が遠隔操作を行う場合にも有用である。
In particular, when operating a work object, it is difficult to grasp the sense of distance from an image with only a fixed viewpoint, so it is desirable for the worker to be able to check the work while changing the viewpoint position. On the other hand, when performing work that moves the work object by a large distance, it is desirable for the worker to be able to simultaneously check both the state of the autonomous
被作業物体画像取得部11は、自律移動型ロボット21が作業を開始する前の時点(例えばシステム立上げ時点または他の作業時点)に撮影した3次元空間画像と、リアルタイムの被作業物体画像とを組み合わせることで、死角などを低減してもよい。また、3次元空間画像を拡張できる場合には、拡張された3次元空間画像が表示部6に表示されてもよい。このような表示を行っている場合に、操作者が3次元空間画像内で視点位置を変更した場合には、移動型カメラの視点位置が変更されてもよい。このような構成によれば、操作者は、3次元空間画像内で視点位置を変更することで、被作業物体とエンドエフェクターとを確認することができる。
The work object
<実施の形態6のまとめ>
本実施の形態6によれば、遠隔操作要請が取得された際に自律移動型ロボット21が実施している作業が、自律移動型ロボット21から被作業物体への作業である場合に、被作業物体が撮影された画像を取得する。このような構成によれば、操作者は、自律的に作業が遂行できない状態に陥った自律移動型ロボット21が被作業物体に対して行う作業を容易に把握することができる。
Summary of the Sixth Embodiment
According to the sixth embodiment, an image of the work target object is acquired if the work being performed by the autonomous
<実施の形態7>
本実施の形態7では、作業空間のうち、撮影画像が撮影されてから予め定められた時間が経過した地点において、撮影画像が取得できるように自律移動型ロボット21を移動可能に構成されている。
<Seventh embodiment>
In the seventh embodiment, the autonomous
図13は、本実施の形態7に係る画像表示装置の構成を示すブロック図である。図13の画像表示装置の構成は、図1の画像表示装置の構成に、撮影位置取得部12と、計画作成部13とが追加された構成と同様である。
Figure 13 is a block diagram showing the configuration of an image display device according to the seventh embodiment. The configuration of the image display device in Figure 13 is the same as that of the image display device in Figure 1, with a shooting
撮影位置取得部12は、作業空間のうち、撮影画像が撮影されてから予め定められた時間が経過した地点を、撮影位置として取得する。撮影位置取得部12は、作業情報と作業環境情報とに基づいて、作業空間内の各地点で撮影画像が撮影された時間を管理し、例えば15分などの一定時間に亘って撮影画像が撮影されていない地点があれば、その地点を撮影位置として取得する。
The image capture
計画作成部13は、撮影位置に基づいて、自律移動型ロボット21が移動すべき経路の計画、つまり自律移動型ロボット21の移動経路の計画を作成する。計画作成部13は、自律移動型ロボット21の作業計画に基づいて移動経路及び作業指示を計画するが、撮影位置取得部12が撮影位置を取得している場合には、当該撮影位置を考慮して移動経路及び作業指示を計画する。撮影位置は、自律移動型ロボット21の移動経路の目的地に用いられてもよいし、当該移動経路の経由地に用いられてもよい。自律移動型ロボット21の移動経路の計画方法などは、広く知られているため、その詳細な説明は省略する。
The
なお、実施の形態1の変形例で説明した、視点位置の候補の表示、及び、操作者による候補の選択と同様に、撮影位置の候補の表示、及び、選択者による候補の選択が行われてもよい。例えば、撮影位置取得部12は、各撮影位置の候補について、撮影画像が撮影されてから経過した時間に比例する要求度を算出し、各撮影位置の候補と、その要求度とを表示してもよい。そして、撮影位置取得部12は、操作者によって選択された撮影位置の候補の要求度を一定値だけ大きくし、要求度が閾値以上である撮影位置の候補を、撮影位置として取得してもよい。
Note that, similar to the display of candidate viewpoint positions and the selection of candidates by the operator described in the modified example of the first embodiment, candidate shooting positions may be displayed and a candidate may be selected by the selector. For example, the shooting
<実施の形態7のまとめ>
本実施の形態7によれば、作業空間のうち、撮影画像が撮影されてから予め定められた時間が経過した地点を、自律移動型ロボット21に移動させる。このような構成によれば、当該地点の撮影画像を更新することができ、客観視点環境画像に適切な撮影画像が得られる可能性を高めることができる。
Summary of the Seventh Embodiment
According to the seventh embodiment, a point in the working space where a predetermined time has elapsed since the captured image was captured is moved to the autonomous
<実施の形態8>
本実施の形態8では、作業空間のうち、人が作業を完了した地点において、撮影画像が取得できるように自律移動型ロボット21を移動可能に構成されている。
<
In the eighth embodiment, the autonomous
図14は、本実施の形態8に係る画像表示装置の構成を示すブロック図である。図14の画像表示装置の構成は、図1の画像表示装置の構成に、計画作成部13と、作業完了位置取得部14とが追加された構成と同様である。
Figure 14 is a block diagram showing the configuration of an image display device according to the eighth embodiment. The configuration of the image display device in Figure 14 is the same as that of the image display device in Figure 1, with a
作業完了位置取得部14は、作業空間のうち、人が作業を完了した地点を、撮影位置として取得する。例えば、作業完了位置取得部14は、人が一定時間以上に亘って留まった後に移動した地点を、人が作業を完了した位置が行われた地点、つまり撮影位置として取得する。人の移動の判定は、カメラ画像などによるトラッキングで判定されてもよいし、人が従業員である場合には、作業員の作業情報から判定されてもよい。
The work completion
計画作成部13は、実施の形態7に係る計画作成部13と同様である。
The
<実施の形態8のまとめ>
人が作業を完了した後では、設置物の設置状況が変更されている可能性が高い。例えば、オフィス環境では、設置物の設置状況の変更として、椅子の移動などがある。物品の販売施設では、設置物の設置状況の変更として、物品の設置位置の変更などがある。飲食店では、店員及び客が作業をした後に、設置物の設置状況が変更されている可能性が高い。
<Summary of the Eighth Embodiment>
After a person has completed a task, it is highly likely that the installation status of an installed object has been changed. For example, in an office environment, a change in the installation status of an installed object may include moving a chair. In a sales facility, a change in the installation status of an installed object may include changing the installation position of the item. In a restaurant, it is highly likely that the installation status of an installed object has been changed after a store clerk and a customer have completed their task.
そこで、本実施の形態8によれば、作業空間のうち、人が作業を完了した地点を、自律移動型ロボット21に移動させる。このような構成によれば、作業環境が変更された可能性が高い、人が作業を完了した後の環境から画像を撮影することができるので、操作者の遠隔操作が要請される可能性が高い地点の画像を確保することができる。
Therefore, according to the eighth embodiment, the autonomous
<その他の変形例>
上述した図1の取得部1と、作業位置算出部2と、撮影可能領域算出部3と、自機視点位置抽出部4と、重畳画像生成部5とを、以下「取得部1等」と記す。取得部1等は、図15に示す処理回路81により実現される。すなわち、処理回路81は、移動体への遠隔操作の要請と、移動体の移動を含む作業を示す作業情報と、移動体から撮影される撮影画像とを取得する取得部1と、要請と、作業情報とに基づいて、要請が取得された際の移動体の作業位置を算出する作業位置算出部2と、移動体の作業空間を示す地図情報と、作業空間内の障害物に関する障害物情報とを含む作業環境情報と、作業位置とに基づいて、作業位置の画像を含む撮影画像を撮影可能な領域を撮影可能領域として算出する撮影可能領域算出部3と、作業情報と、撮影可能領域とに基づいて、移動体が過去に移動した移動経路内の位置のうち、撮影可能領域に含まれる位置を視点位置として抽出する自機視点位置抽出部4と、撮影画像と作業位置と視点位置とに基づいて、視点位置で撮影された撮影画像に、作業位置を示す対応位置画像を重畳した重畳画像を生成する重畳画像生成部5と、を備える。処理回路81には、専用のハードウェアが適用されてもよいし、メモリに格納されるプログラムを実行するプロセッサが適用されてもよい。プロセッサには、例えば、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)などが該当する。
<Other Modifications>
The acquisition unit 1, the work
処理回路81が専用のハードウェアである場合、処理回路81は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせたものが該当する。取得部1等の各部の機能それぞれは、処理回路を分散させた回路で実現されてもよいし、各部の機能をまとめて一つの処理回路で実現されてもよい。
When the
処理回路81がプロセッサである場合、取得部1等の機能は、ソフトウェア等との組み合わせにより実現される。なお、ソフトウェア等には、例えば、ソフトウェア、ファームウェア、または、ソフトウェア及びファームウェアが該当する。ソフトウェア等はプログラムとして記述され、メモリに格納される。図16に示すように、処理回路81に適用されるプロセッサ82は、メモリ83に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、画像表示装置は、処理回路81により実行されるときに、移動体への遠隔操作の要請と、移動体の移動を含む作業を示す作業情報と、移動体から撮影される撮影画像とを取得するステップと、要請と、作業情報とに基づいて、要請が取得された際の移動体の作業位置を算出するステップと、移動体の作業空間を示す地図情報と、作業空間内の障害物に関する障害物情報とを含む作業環境情報と、作業位置とに基づいて、作業位置の画像を含む撮影画像を撮影可能な領域を撮影可能領域として算出するステップと、作業情報と、撮影可能領域とに基づいて、移動体が過去に移動した移動経路内の位置のうち、撮影可能領域に含まれる位置を視点位置として抽出するステップと、撮影画像と作業位置と視点位置とに基づいて、視点位置で撮影された撮影画像に、作業位置を示す対応位置画像を重畳した重畳画像を生成するステップと、重畳画像を表示するステップと、が結果的に実行されることになるプログラムを格納するためのメモリ83を備える。換言すれば、このプログラムは、取得部1等の手順や方法をコンピュータに実行させるものであるともいえる。ここで、メモリ83は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)などの、不揮発性または揮発性の半導体メモリ、HDD(Hard Disk Drive)、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)、それらのドライブ装置、または、今後使用されるあらゆる記憶媒体であってもよい。
When the
以上、取得部1等の各機能が、ハードウェア及びソフトウェア等のいずれか一方で実現される構成について説明した。しかしこれに限ったものではなく、取得部1等の一部を専用のハードウェアで実現し、別の一部をソフトウェア等で実現する構成であってもよい。例えば、取得部1については専用のハードウェアとしての処理回路81でその機能を実現し、それ以外についてはプロセッサ82としての処理回路81がメモリ83に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
A configuration has been described above in which the functions of the acquisition unit 1, etc. are realized either by hardware or software, etc. However, this is not limited to this, and a configuration in which part of the acquisition unit 1, etc. is realized by dedicated hardware and another part is realized by software, etc. For example, the function of the acquisition unit 1 can be realized by a
以上のように、処理回路81は、ハードウェア、ソフトウェア等、またはこれらの組み合わせによって、上述の各機能を実現することができる。
As described above, the
また、以上で説明した画像表示装置は、情報処理装置と、携帯電話、スマートフォン及びタブレットなどの携帯端末を含む通信端末と、情報処理装置にインストールされるアプリケーションの機能と、サーバとを適宜に組み合わせてシステムとして構築される画像表示システムにも適用することができる。この場合、以上で説明した画像表示装置の各機能あるいは各構成要素は、前記システムを構築する各機器に分散して配置されてもよいし、いずれかの機器に集中して配置されてもよい。 The image display device described above can also be applied to an image display system constructed as a system by appropriately combining an information processing device, a communication terminal including a mobile terminal such as a mobile phone, a smartphone, and a tablet, the functions of an application installed on the information processing device, and a server. In this case, each function or each component of the image display device described above may be distributed and disposed in each device that constructs the system, or may be concentrated and disposed in one of the devices.
なお、各実施の形態及び各変形例を自由に組み合わせたり、各実施の形態及び各変形例を適宜、変形、省略したりすることが可能である。 The embodiments and variations can be freely combined, and each embodiment and variation can be modified or omitted as appropriate.
以下、本開示の諸態様を付記としてまとめて記載する。 Various aspects of this disclosure are summarized below as appendices.
(付記1)
移動体への遠隔操作の要請と、前記移動体の移動を含む作業を示す作業情報と、前記移動体から撮影される撮影画像とを取得する取得部と、
前記要請と、前記作業情報とに基づいて、前記要請が取得された際の前記移動体の作業位置を算出する作業位置算出部と、
前記移動体の作業空間を示す地図情報と、前記作業空間内の障害物に関する障害物情報とを含む作業環境情報と、前記作業位置とに基づいて、前記作業位置の画像を含む前記撮影画像を撮影可能な領域を撮影可能領域として算出する撮影可能領域算出部と、
前記作業情報と、前記撮影可能領域とに基づいて、前記移動体が過去に移動した移動経路内の位置のうち、前記撮影可能領域に含まれる位置を視点位置として抽出する第1視点位置抽出部と、
前記撮影画像と前記作業位置と前記視点位置とに基づいて、前記視点位置で撮影された前記撮影画像に、前記作業位置を示す対応位置画像を重畳した重畳画像を生成する重畳画像生成部と、
前記重畳画像を表示する表示部と
を備える、画像表示装置。
(Appendix 1)
an acquisition unit that acquires a request for remote control of a moving object, work information indicating a work including movement of the moving object, and a captured image captured from the moving object;
a work position calculation unit that calculates a work position of the moving object when the request is acquired based on the request and the work information;
a captureable area calculation unit that calculates an area in which the captured image including an image of the work position can be captured as a captureable area based on work environment information including map information indicating a work space of the moving body and obstacle information regarding obstacles in the work space, and the work position;
a first viewpoint position extraction unit that extracts, based on the work information and the imageable area, a position included in the imageable area from among positions within a movement path along which the moving object has moved in the past, as a viewpoint position;
a superimposed image generating unit that generates a superimposed image by superimposing a corresponding position image indicating the work position on the photographed image photographed at the viewpoint position based on the photographed image, the work position, and the viewpoint position;
and a display unit that displays the superimposed image.
(付記2)
前記対応位置画像は、前記要請が取得された際に前記移動体が実施していた作業を示す作業画像を含む、付記1に記載の画像表示装置。
(Appendix 2)
2. The image display device according to claim 1, wherein the corresponding position image includes a task image showing a task that the moving object was performing when the request was acquired.
(付記3)
前記作業環境情報は、前記作業空間内の固定物についての3次元空間の位置姿勢情報を含み、
時系列の前記撮影画像と、前記位置姿勢情報とに基づいて、時系列で変更可能な3次元の仮想環境画像を、前記重畳画像生成部で用いられる前記撮影画像として生成する環境画像生成部をさらに備える、付記1または付記2に記載の画像表示装置。
(Appendix 3)
the work environment information includes three-dimensional spatial position and orientation information of a fixed object in the work space,
The image display device described in Appendix 1 or
(付記4)
前記作業環境情報の前記障害物情報は、前記作業空間内の固定障害物の位置姿勢情報を含み、
前記作業空間内の物体の位置姿勢情報と、前記作業空間内の前記固定障害物の前記位置姿勢情報とに基づいて、前記固定障害物と区別して前記表示部で表示される移動障害物の位置姿勢情報を算出する移動障害物情報算出部をさらに備える、付記1から付記3のうちのいずれか1項に記載の画像表示装置。
(Appendix 4)
The obstacle information of the work environment information includes position and orientation information of a fixed obstacle in the work space,
The image display device according to any one of Supplementary Note 1 to
(付記5)
別の移動体が過去に移動した別の移動経路上の位置のうち、前記撮影可能領域に含まれる位置を別の視点位置として抽出する第2視点位置抽出部をさらに備え、
前記重畳画像生成部は、
前記別の移動体から撮影された別の撮影画像と、前記作業位置と、前記別の視点位置とに基づいて、前記別の視点位置で撮影された前記別の撮影画像に前記対応位置画像を重畳することによって、前記表示部で表示される前記重畳画像を生成する、付記1から付記4のうちのいずれか1項に記載の画像表示装置。
(Appendix 5)
a second viewpoint position extraction unit that extracts a position included in the imageable area as another viewpoint position from among positions on another moving path along which another moving body has moved in the past;
The superimposed image generating unit
An image display device as described in any one of Appendix 1 to
(付記6)
前記表示部で前記重畳画像と重畳表示され、操作者からの前記遠隔操作に基づいて前記移動体に作業を仮想的に実施させた場合のシミュレーション画像を生成する仮想画像生成部をさらに備える、付記1から付記5のうちのいずれか1項に記載の画像表示装置。
(Appendix 6)
The image display device according to any one of Supplementary Note 1 to
(付記7)
前記要請が取得された際に前記移動体が実施している作業が、前記移動体から被作業物体への作業である場合に、前記表示部で表示される前記被作業物体が撮影された画像を取得する被作業物体画像取得部をさらに備える、付記1から付記6のうちのいずれか1項に記載の画像表示装置。
(Appendix 7)
The image display device described in any one of Appendix 1 to
(付記8)
前記作業空間のうち、前記撮影画像が撮影されてから予め定められた時間が経過した地点を、撮影位置として取得する撮影位置取得部と、
前記撮影位置に基づいて前記移動体が移動すべき経路の計画を作成する計画作成部と
をさらに備える、付記1から付記7のうちのいずれか1項に記載の画像表示装置。
(Appendix 8)
an image capturing position acquisition unit that acquires, as an image capturing position, a point in the work space at which a predetermined time has elapsed since the image was captured;
The image display device according to any one of claims 1 to 7, further comprising a plan creation unit that creates a plan for a route along which the moving object should move based on the shooting positions.
(付記9)
前記作業空間のうち、人が作業を完了した地点を、撮影位置として取得する作業完了位置取得部と、
前記撮影位置に基づいて前記移動体が移動すべき経路の計画を作成する計画作成部と
をさらに備える、付記1から付記7のうちのいずれか1項に記載の画像表示装置。
(Appendix 9)
A task completion position acquisition unit that acquires a point in the work space where a person completes a task as a photographing position;
The image display device according to any one of claims 1 to 7, further comprising a plan creation unit that creates a plan for a route along which the moving object should move based on the shooting positions.
(付記10)
移動体への遠隔操作の要請と、前記移動体の移動を含む作業を示す作業情報と、前記移動体から撮影される撮影画像とを取得し、
前記要請と、前記作業情報とに基づいて、前記要請が取得された際の前記移動体の作業位置を算出し、
前記移動体の作業空間を示す地図情報と、前記作業空間内の障害物に関する障害物情報とを含む作業環境情報と、前記作業位置とに基づいて、前記作業位置の画像を含む前記撮影画像を撮影可能な領域を撮影可能領域として算出し、
前記作業情報と、前記撮影可能領域とに基づいて、前記移動体が過去に移動した移動経路内の位置のうち、前記撮影可能領域に含まれる位置を視点位置として抽出し、
前記撮影画像と前記作業位置と前記視点位置とに基づいて、前記視点位置で撮影された前記撮影画像に、前記作業位置を示す対応位置画像を重畳した重畳画像を生成し、
前記重畳画像を表示する、画像表示方法。
(Appendix 10)
acquiring a request for remote control of a moving body, work information indicating a work including movement of the moving body, and a photographed image taken from the moving body;
Calculating a work position of the moving object at the time the request was acquired based on the request and the work information;
calculating an area in which the captured image including an image of the work position can be captured as a captureable area based on work environment information including map information indicating a work space of the mobile body and obstacle information regarding obstacles in the work space, and the work position;
extracting, as a viewpoint position, a position included in the image capture area from among positions within a movement path along which the moving object has moved in the past, based on the work information and the image capture area;
generating a superimposed image by superimposing a corresponding position image indicating the work position on the photographed image photographed at the viewpoint position based on the photographed image, the work position, and the viewpoint position;
An image display method comprising: displaying the superimposed image.
1 取得部、2 作業位置算出部、3 撮影可能領域算出部、4 自機視点位置抽出部、5 重畳画像生成部、6 表示部、7 環境画像生成部、8 移動障害物情報算出部、9 他機視点位置抽出部、10 仮想画像生成部、11 被作業物体画像取得部、12 撮影位置取得部、13 計画作成部、14 作業完了位置取得部、21 自律移動型ロボット、22 作業位置、23 障害物、24 撮影可能領域、25 移動経路。 1 Acquisition unit, 2 Work position calculation unit, 3 Shootable area calculation unit, 4 Self-vehicle viewpoint position extraction unit, 5 Superimposed image generation unit, 6 Display unit, 7 Environmental image generation unit, 8 Moving obstacle information calculation unit, 9 Other vehicle viewpoint position extraction unit, 10 Virtual image generation unit, 11 Worked object image acquisition unit, 12 Shooting position acquisition unit, 13 Plan creation unit, 14 Work completion position acquisition unit, 21 Autonomous mobile robot, 22 Work position, 23 Obstacle, 24 Shootable area, 25 Movement route.
Claims (10)
前記要請と、前記作業情報とに基づいて、前記要請が取得された際の前記移動体の作業位置を算出する作業位置算出部と、
前記移動体の作業空間を示す地図情報と、前記作業空間内の障害物に関する障害物情報とを含む作業環境情報と、前記作業位置とに基づいて、前記作業位置の画像を含む前記撮影画像を撮影可能な領域を撮影可能領域として算出する撮影可能領域算出部と、
前記作業情報と、前記撮影可能領域とに基づいて、前記移動体が過去に移動した移動経路内の位置のうち、前記撮影可能領域に含まれる位置を視点位置として抽出する第1視点位置抽出部と、
前記撮影画像と前記作業位置と前記視点位置とに基づいて、前記視点位置で撮影された前記撮影画像に、前記作業位置を示す対応位置画像を重畳した重畳画像を生成する重畳画像生成部と、
前記重畳画像を表示する表示部と
を備える、画像表示装置。 an acquisition unit that acquires a request for remote control of a moving object, work information indicating a work including movement of the moving object, and a captured image captured from the moving object;
a work position calculation unit that calculates a work position of the moving object when the request is acquired based on the request and the work information;
a captureable area calculation unit that calculates an area in which the captured image including an image of the work position can be captured as a captureable area based on work environment information including map information indicating a work space of the moving body and obstacle information regarding obstacles in the work space, and the work position;
a first viewpoint position extraction unit that extracts, based on the work information and the imageable area, a position included in the imageable area from among positions within a movement path along which the moving object has moved in the past, as a viewpoint position;
a superimposed image generating unit that generates a superimposed image by superimposing a corresponding position image indicating the work position on the photographed image photographed at the viewpoint position based on the photographed image, the work position, and the viewpoint position;
and a display unit that displays the superimposed image.
前記対応位置画像は、前記要請が取得された際に前記移動体が実施していた作業を示す作業画像を含む、画像表示装置。 The image display device according to claim 1 ,
The corresponding position image includes a task image showing the task that the mobile object was performing when the request was acquired.
前記作業環境情報は、前記作業空間内の固定物についての3次元空間の位置姿勢情報を含み、
時系列の前記撮影画像と、前記位置姿勢情報とに基づいて、時系列で変更可能な3次元の仮想環境画像を、前記重畳画像生成部で用いられる前記撮影画像として生成する環境画像生成部をさらに備える、画像表示装置。 3. The image display device according to claim 1,
the work environment information includes three-dimensional spatial position and orientation information of a fixed object in the work space,
The image display device further includes an environment image generation unit that generates a three-dimensional virtual environment image that can be changed in time series based on the captured images in time series and the position and orientation information, as the captured images to be used in the superimposed image generation unit.
前記作業環境情報の前記障害物情報は、前記作業空間内の固定障害物の位置姿勢情報を含み、
前記作業空間内の物体の位置姿勢情報と、前記作業空間内の前記固定障害物の前記位置姿勢情報とに基づいて、前記固定障害物と区別して前記表示部で表示される移動障害物の位置姿勢情報を算出する移動障害物情報算出部をさらに備える、画像表示装置。 3. The image display device according to claim 1,
The obstacle information of the work environment information includes position and orientation information of a fixed obstacle in the work space,
The image display device further includes a moving obstacle information calculation unit that calculates position and orientation information of a moving obstacle to be displayed on the display unit in distinction from the fixed obstacle, based on position and orientation information of an object in the working space and the position and orientation information of the fixed obstacle in the working space.
別の移動体が過去に移動した別の移動経路上の位置のうち、前記撮影可能領域に含まれる位置を別の視点位置として抽出する第2視点位置抽出部をさらに備え、
前記重畳画像生成部は、
前記別の移動体から撮影された別の撮影画像と、前記作業位置と、前記別の視点位置とに基づいて、前記別の視点位置で撮影された前記別の撮影画像に前記対応位置画像を重畳することによって、前記表示部で表示される前記重畳画像を生成する、画像表示装置。 3. The image display device according to claim 1,
a second viewpoint position extraction unit that extracts a position included in the imageable area as another viewpoint position from among positions on another moving path along which another moving body has moved in the past;
The superimposed image generating unit
An image display device that generates the superimposed image displayed on the display unit by superimposing the corresponding position image on the other captured image taken at the other viewpoint position based on another captured image taken from the other moving body, the work position, and the other viewpoint position.
前記表示部で前記重畳画像と重畳表示され、操作者からの前記遠隔操作に基づいて前記移動体に作業を仮想的に実施させた場合のシミュレーション画像を生成する仮想画像生成部をさらに備える、画像表示装置。 3. The image display device according to claim 1,
The image display device further includes a virtual image generation unit that generates a simulation image that is superimposed on the superimposed image on the display unit and that simulates a task being virtually performed by the moving body based on the remote control from an operator.
前記要請が取得された際に前記移動体が実施している作業が、前記移動体から被作業物体への作業である場合に、前記表示部で表示される前記被作業物体が撮影された画像を取得する被作業物体画像取得部をさらに備える、画像表示装置。 3. The image display device according to claim 1,
The image display device further includes a work object image acquisition unit that acquires an image of the work object to be displayed on the display unit when the work being performed by the moving body at the time the request is acquired is work from the moving body to a work object.
前記作業空間のうち、前記撮影画像が撮影されてから予め定められた時間が経過した地点を、撮影位置として取得する撮影位置取得部と、
前記撮影位置に基づいて前記移動体が移動すべき経路の計画を作成する計画作成部と
をさらに備える、画像表示装置。 3. The image display device according to claim 1,
an image capturing position acquisition unit that acquires, as an image capturing position, a point in the work space at which a predetermined time has elapsed since the image was captured;
a plan creation unit that creates a plan for a route along which the moving object should move based on the photographing positions.
前記作業空間のうち、人が作業を完了した地点を、撮影位置として取得する作業完了位置取得部と、
前記撮影位置に基づいて前記移動体が移動すべき経路の計画を作成する計画作成部と
をさらに備える、画像表示装置。 3. The image display device according to claim 1,
A task completion position acquisition unit that acquires a point in the work space where a person completes a task as a photographing position;
a plan creation unit that creates a plan for a route along which the moving object should move based on the photographing positions.
前記要請と、前記作業情報とに基づいて、前記要請が取得された際の前記移動体の作業位置を算出し、
前記移動体の作業空間を示す地図情報と、前記作業空間内の障害物に関する障害物情報とを含む作業環境情報と、前記作業位置とに基づいて、前記作業位置の画像を含む前記撮影画像を撮影可能な領域を撮影可能領域として算出し、
前記作業情報と、前記撮影可能領域とに基づいて、前記移動体が過去に移動した移動経路内の位置のうち、前記撮影可能領域に含まれる位置を視点位置として抽出し、
前記撮影画像と前記作業位置と前記視点位置とに基づいて、前記視点位置で撮影された前記撮影画像に、前記作業位置を示す対応位置画像を重畳した重畳画像を生成し、
前記重畳画像を表示する、画像表示方法。 acquiring a request for remote control of a moving body, work information indicating a work including movement of the moving body, and a photographed image taken from the moving body;
Calculating a work position of the moving object at the time the request was acquired based on the request and the work information;
calculating an area in which the captured image including an image of the work position can be captured as a captureable area based on work environment information including map information indicating a work space of the mobile body and obstacle information regarding obstacles in the work space, and the work position;
extracting, as a viewpoint position, a position included in the image capture area from among positions within a movement path along which the moving object has moved in the past, based on the work information and the image capture area;
generating a superimposed image by superimposing a corresponding position image indicating the work position on the photographed image photographed at the viewpoint position based on the photographed image, the work position, and the viewpoint position;
An image display method comprising: displaying the superimposed image.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022194664A JP7685981B2 (en) | 2022-12-06 | 2022-12-06 | Image display device and image display method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022194664A JP7685981B2 (en) | 2022-12-06 | 2022-12-06 | Image display device and image display method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2024081209A JP2024081209A (en) | 2024-06-18 |
| JP7685981B2 true JP7685981B2 (en) | 2025-05-30 |
Family
ID=91486915
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022194664A Active JP7685981B2 (en) | 2022-12-06 | 2022-12-06 | Image display device and image display method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7685981B2 (en) |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2017042873A1 (en) | 2015-09-08 | 2017-03-16 | 株式会社日立製作所 | Remote operation system and operation assistance system |
| US20180084242A1 (en) | 2016-09-22 | 2018-03-22 | X Development Llc | Systems and Methods for Generating and Displaying a 3D Model of Items in a Warehouse |
| JP2018186375A (en) | 2017-04-25 | 2018-11-22 | Kddi株式会社 | Mobile body control system, program, and control method |
| JP2019125354A (en) | 2018-01-12 | 2019-07-25 | キヤノン株式会社 | Information processor, system, method, and program |
| JP2020161895A (en) | 2019-03-25 | 2020-10-01 | 国立大学法人 東京大学 | Overlooking video presentation system |
| WO2021002116A1 (en) | 2019-07-03 | 2021-01-07 | ソニー株式会社 | Information processing device, information processing method, and program |
| JP2022146888A (en) | 2021-03-22 | 2022-10-05 | 株式会社リコー | Display system, communication system, display control method, and program |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2992883B2 (en) * | 1998-03-11 | 1999-12-20 | 北海道 | How to create an environmental map for a mobile robot |
-
2022
- 2022-12-06 JP JP2022194664A patent/JP7685981B2/en active Active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2017042873A1 (en) | 2015-09-08 | 2017-03-16 | 株式会社日立製作所 | Remote operation system and operation assistance system |
| US20180084242A1 (en) | 2016-09-22 | 2018-03-22 | X Development Llc | Systems and Methods for Generating and Displaying a 3D Model of Items in a Warehouse |
| JP2018186375A (en) | 2017-04-25 | 2018-11-22 | Kddi株式会社 | Mobile body control system, program, and control method |
| JP2019125354A (en) | 2018-01-12 | 2019-07-25 | キヤノン株式会社 | Information processor, system, method, and program |
| JP2020161895A (en) | 2019-03-25 | 2020-10-01 | 国立大学法人 東京大学 | Overlooking video presentation system |
| WO2021002116A1 (en) | 2019-07-03 | 2021-01-07 | ソニー株式会社 | Information processing device, information processing method, and program |
| JP2022146888A (en) | 2021-03-22 | 2022-10-05 | 株式会社リコー | Display system, communication system, display control method, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2024081209A (en) | 2024-06-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20220199253A1 (en) | Interfacing With a Mobile Telepresence Robot | |
| CN113116224B (en) | Robot and control method thereof | |
| CN105408938B (en) | System for the processing of 2D/3D space characteristics | |
| US20190392630A1 (en) | Automated understanding of three dimensional (3d) scenes for augmented reality applications | |
| US20180043542A1 (en) | Customer service robot and related systems and methods | |
| US9858482B2 (en) | Mobile augmented reality for managing enclosed areas | |
| JP6742195B2 (en) | Information processing apparatus, method thereof, and computer program | |
| US9544489B2 (en) | Effortless navigation across cameras and cooperative control of cameras | |
| WO2018106719A1 (en) | Intelligent service robot and related systems and methods | |
| US20100194859A1 (en) | Configuration module for a video surveillance system, surveillance system comprising the configuration module, method for configuring a video surveillance system, and computer program | |
| KR20010024452A (en) | Figure tracking in a multiple camera system | |
| US20190156495A1 (en) | Systems and Methods of Tracking of the Moving Objects on the Video Image | |
| KR20180039439A (en) | Guidance robot for airport and method thereof | |
| CN115935458A (en) | Automatic exchange and use of attribute information between multiple types of architectural images | |
| US20150139505A1 (en) | Method and apparatus for predicting human motion in virtual environment | |
| US20180350216A1 (en) | Generating Representations of Interior Space | |
| US10565786B1 (en) | Sensor placement interface | |
| WO2018087462A1 (en) | Individual visual immersion device for a moving person with management of obstacles | |
| JP2024063106A (en) | Display system, communication system, display control method and program | |
| US20170206222A1 (en) | Location-based image retrieval | |
| JP7685981B2 (en) | Image display device and image display method | |
| CN114371632A (en) | Intelligent equipment control method, device, server and storage medium | |
| RU2679200C1 (en) | Data from the video camera displaying method and system | |
| Faisal et al. | Multi-sensors multi-baseline mapping system for mobile robot using stereovision camera and laser-range device | |
| CN114600067A (en) | Supervised Setup of Controls with Imager |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20241028 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250422 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250520 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7685981 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |