WO2009068641A1 - Method of stereoscopic tracking of a texture object - Google Patents
Method of stereoscopic tracking of a texture object Download PDFInfo
- Publication number
- WO2009068641A1 WO2009068641A1 PCT/EP2008/066406 EP2008066406W WO2009068641A1 WO 2009068641 A1 WO2009068641 A1 WO 2009068641A1 EP 2008066406 W EP2008066406 W EP 2008066406W WO 2009068641 A1 WO2009068641 A1 WO 2009068641A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- images
- points
- stereoscopic
- characteristic points
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/285—Analysis of motion using a sequence of stereo image pairs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
Definitions
- the invention relates to a stereoscopic tracking method of a texture object, that is to say an object where characteristic points can be detected.
- the field of the invention is in particular that of the robotic vision, for example in the context of the assistance to persons with disabilities.
- a document of the known art referenced [1] at the end of the description, proposes a solution in which, from a theoretical point of view, the statistical approach used is based on several constraining hypotheses.
- the object must be flat, and remain throughout the video sequence parallel to the image plane of the cameras. Classes of objects treatable by this approach are therefore restricted.
- the object of the invention is to overcome these drawbacks and to allow the tracking of a texture object without having prior knowledge of it, the 3D model of the object not being information to be supplied but information that the system automatically estimates, the algorithm used can work for any object, if it is sufficiently textured.
- the invention relates to a method for stereoscopic tracking of a texture object using an input system comprising: a computer associated with a display screen and an input device, a stereoscopic vision set comprising two cameras , wherein this object and / or stereoscopic set are in motion, characterized in that it comprises the following steps: - During an initialization phase: a) bring the object into the field of vision of the two cameras, b) enter two images and view the first of these two images, c) define this object by entering two opposite corners of a box enclosing this one in this first image, d) to look for this box in the second image, e) to extract characteristic points in the first image, f) to look for the corresponding characteristic points in the second image, g) to eliminate the mismatches between the corresponding characteristic points belonging to the two images, h) estimate the coordinates of the paired points, i) estimate the 3D position of the box,
- the invention relates to the genericity of the approach, and its ease of use since the user only has to surround the object with a box to start monitoring.
- the method of the invention can have many applications and in particular:
- Robotic assistance to people with disabilities for example in the context of the automatic grasping of objects by a robotic arm equipped with a stereoscopic sensor on its clamp.
- Any application of seizure of objects which can be a potential industrial application: it is enough that the object is sufficiently texture, and that it presents the same face to the cameras during the approach phase of the arm.
- the tracking of an object by a remote camera system is also possible, rigid object tracking applications (monitoring, tracking license plates, tracking cars, ).
- Figure 1 illustrates an input system implementing the method of the invention.
- Figures 2A and 2B illustrate a step of the method of the invention.
- FIG. 3 illustrates all the steps of the initialization phase of the method of the invention.
- FIGS. 4 and 5 schematically illustrate two steps of the method of the invention.
- Figs. 6A and 6B illustrate steps of the initialization phase and final results thereof.
- FIG. 7 illustrates all the steps of the treatment phase of the method of the invention.
- An object grasping system 16 making it possible to implement the method of the invention, as illustrated in FIG. 1, comprises: a calculator 10 associated with a display screen 11 and an input member, which can comprise a keyboard 12 and a mouse 13, arranged on a table 18, a stereoscopic vision set 15 comprising a stereoscopic pair of calibrated cameras 19, the intrinsic parameters (geometrical modeling) and extrinsic (respective position) of the two cameras being known.
- the cameras can, for example, be mounted on the clamp 20 of a robotic arm 17.
- This arm can be mounted on the wheelchair of a person disabled, or be mounted on an independent mobile platform, stereoscopic tracking being then used to guide the arm 17 to an object to be grasped 16.
- the user designates on an image returned by one of the two cameras the object to grab.
- the arm 17 then performs the automatic entry thereof, and reports the object to the user.
- the method of the invention relates mainly to the tracking phase of the object during the phase of movement of the arm. It is essential, since it is this which gives the information to deduce the movements of the arm.
- the method of the invention thus makes it possible to carry out the video tracking of an object observed 16 by the stereoscopic vision set 15 while this object and / or this set of vision is in motion.
- the main originality of such an approach is that the 3D model of the object is not necessary.
- the only initial knowledge of the object is given by the user who defines a box 25 encompassing this object 16, by two "clicks" on a video return of one of the two cameras 19.
- image processing and after calibrating the stereoscopic assembly, locating, mapping and triangulating characteristic points of the object in the two images 26 and 27 shown in Figures 2A and 2B.
- the 3D position of these points 30 is used to define the position of each camera 19 relative to the object 16 (pose).
- each pair of stereoscopic images acquired is treaty.
- the characteristic points are located in the two images.
- a technique known as virtual visual servoing makes it possible to deduce the pose of the camera.
- the object tracking method of the invention is divided into two phases:
- the stereoscopic set captures two images 25 and 26, said left and right and illustrated respectively in Figures 2A and 2B.
- the user only needs to view one of the two images (the image on the right 26 in the example of FIG. 2). It designates the object 16 in this image, thanks to the definition of a bounding box 27. Two "clicks" images are necessary: one for the lower left corner, one for the upper right corner, the box being aligned on the axes of the image.
- the object 16 is supposed to be contained in this box 27.
- the object 16 should be visible in the right and left images 25 and 26.
- FIG. 3 shows the succession of steps constituting the initialization phase, namely: a) a step (El) of seizure of a box 27 by the user
- T (x ', y') designates the zone that we want to match in the second image.
- a step (E4) for finding the corresponding points in the second image can be carried out by conventional techniques of image matching or point tracking.
- step E2 The use of the estimated position of the box 27 (step E2) limits the search area. We obtain a list of so-called paired points.
- the objective of this step E5 is to detect mismatches, that is to say the associations of image points that do not correspond to the same 3D point of the scene.
- Figure 4 illustrates these classic rules on pairing with a stereoscopic system.
- P 3D point of the scene Cl & Cr: optical center of the cameras, pl (xl, xr) and pr (xr, yr) projection of the 3D point in the left and right images). These rules are well known to those skilled in the art.
- E6 A step (E6) of triangulation of the paired points
- a step (E7) for estimating the 3D position of the box The box 27 defined by the user does not necessarily correspond to physical points of the scene. The objective is to estimate a 3D position of this box, according to the 3D coordinates estimated in the previous step.
- a pragmatic solution consists in associating at the corners of the box the median depth of the estimated 3D points.
- Figures 6A and 6B illustrate several of these steps namely E1, E2, E3 and E4 in the left and right images 31 and 32 and the final results of the initialization phase.
- Figure 7 illustrates the succession of steps of this phase of treatment.
- the objective is to deduce the attitude (position and orientation) of each camera 19 with respect to the object 16, known by the 3D points and the 3D box estimated during the initialization phase.
- the treatment phase is carried out continuously, for each pair of stereoscopic image acquired (step E'1).
- step E'3 the steps E' 4 to E '6 being optional
- This information is the result of the process of the invention.
- We can just inform the user of this result by tracing on each pair of acquired images the current position of the box thus obtained for example), or use this result as input data of another process.
- the current position of the object 16 thus obtained can be used to guide a robotic arm 17 towards this object 16, with a view to its capture.
- This step consists in finding the position of the characteristic points in the new images, knowing their positions in the two previous images.
- Conventional correlation techniques make it possible to perform this operation.
- This step consists in deducing the pose of the camera with respect to the object.
- the information used is: the estimated pose of the camera for the previous pair of stereoscopic images, the 3D coordinates of the characteristic points of the object and the 2D coordinates estimated in the previous step.
- This step can be performed using virtual visual servoing techniques as described in document [4].
- Visual servoing is an approach to deduce displacement of a robotic system according to an error measured between a visual pattern measured in the image and the desired value of this pattern.
- Virtual visual servoing takes up this principle, but instead of moving a robot, we update the estimated pose of the camera in relation to the scene of interest. This operation updates the pose of each camera vis-à-vis the object. This principle adapts very easily to a stereoscopic configuration as described in the document referenced [3].
- the tracking step E '2 provides the new 2D position of the points in the images: c Pi. (2D)
- T - ⁇ V ⁇ , where "to is a positive scalar regulating the speed of convergence, and L + the pseudo-inverse of the interaction matrix, connecting the variation of the image coordinates of the points according to a movement of the camera.
- the goal is to update the position
- characteristic points tracked may disappear, leave the field of view of one of the cameras or be hidden by another object of the scene.
- This operation is performed by repeating the processing of the initialization phase, and using the current 3D position of the box, deduced from step (c).
- Example of implementation The method of the invention can be used in the context of assistance to persons with disabilities. Thanks to a robotic arm, a disabled person can grab and manipulate objects from his environment.
- a system currently marketed by Exact Dynamics, for example, is controlled by means of a joystick. to the handicap of the user. This mode of operation imposes a strong control of the system by the user, while monopolizing all his attention during all the phase of capture (approach of the arm, closing of the clamp, return of the arm towards the operator, ...)
- the method of the invention makes it possible to envisage automating these input tasks.
- it is often proposed to use one or more cameras to control and guide the movements of the arm towards the object to be grasped.
- the success of the seizure rests mainly on the tracking of the object in the flow of images acquired by the camera or cameras observing the scene.
- the method of the invention allows to automatically control the movements of the arm towards the object.
- This new approach is more generic and robust than that proposed in the document referenced [I].
- the original characteristics of this new method include: a very simple initialization of the algorithm,
- the first characteristic is essential, since the process is developed for use by non-specialists. It is therefore very important that its use is very simple and does not require any particular scientific competence.
- the second characteristic is equally so: the fact of not imposing a prior knowledge on the object to be followed makes it possible to consider a very wide range of objects.
- this second characteristic makes it possible to envisage many fields of application of the method, outside the field of assistance to handicapped persons, since any rigid object (not deformable) and texture can be considered by the method of the invention. We can think of vehicle tracking, the tracking of license plates for example.
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
The invention relates to a method of stereoscopic tracking of a texture object (16) comprising the following steps: - in the course of an initialization phase: a) bringing the object into the field of vision of two cameras, b) capturing two images and viewing the first of these two images, c) defining this object by capturing two opposite corners of a box encompassing the object in this first image, d) searching for this box in the second image, e) extracting points of interest in the first image, f) searching for the corresponding points of interest in the second image, g) eliminating the poor pairings, h) estimating the coordinates of the paired points, i) estimating the three-dimensional position of the box, - in the course of a processing phase: a') acquiring a pair of new images, b') tracking the characteristic points, c') deducing the sought-after position.
Description
PROCEDE DE SUIVI STEREOSCOPIQUE D'UN OBJET TEXTURE METHOD FOR STEREOSCOPIC TRACKING OF A TEXTURED OBJECT
DESCRIPTIONDESCRIPTION
DOMAINE TECHNIQUE L' invention concerne un procédé de suivi stéréoscopique d'un objet texture, c'est-à-dire d'un objet où des points caractéristiques peuvent être détectés .TECHNICAL FIELD The invention relates to a stereoscopic tracking method of a texture object, that is to say an object where characteristic points can be detected.
Le domaine de l'invention est notamment celui de la vision robotique, par exemple dans le cadre de l'assistance aux personnes handicapées.The field of the invention is in particular that of the robotic vision, for example in the context of the assistance to persons with disabilities.
ETAT DE LA TECHNIQUE ANTERIEURESTATE OF THE PRIOR ART
II existe de nombreuses approches permettant de suivre un objet. La grande majorité suppose que le modèle 3D (en trois dimensions) de cet objet est une information connue, ce qui restreint le champ d'application de ces approches. D'autres approches, qui permettent de suivre des points caractéristiques d'un objet, ne permettent pas de remonter jusqu'à l'information de pose 3D, c'est-à-dire de position et d'orientation 3D, d'une caméra par rapport à un repère lié à cet objet.There are many approaches to tracking an object. The vast majority assume that the 3D (three-dimensional) model of this object is known information, which limits the scope of these approaches. Other approaches, which make it possible to follow characteristic points of an object, do not make it possible to go back to the information of 3D pose, that is to say of position and orientation 3D, of a camera relative to a reference linked to this object.
La majorité des publications traitant de l'utilisation d'un système de vision stéréoscopique s'intéresse à une reconstruction 3D dense d'une scène inconnue, ou bien à la localisation et à l'identification d'un objet dans une scène. Mais la problématique du suivi d'un objet dans une séquence d'images n'est pas explicitement traitée. Les
publications traitant du suivi dans des images stéréoscopiques d'objet supposent que le modèle de celui-ci est connu, comme dans l'article [3] .The majority of publications dealing with the use of a stereoscopic vision system focus on a dense 3D reconstruction of an unknown scene, or on the location and identification of an object in a scene. But the problem of tracking an object in a sequence of images is not explicitly addressed. The publications dealing with tracking in stereoscopic object images assume that the model of it is known, as in article [3].
Un document de l'art connu, référencé [1] en fin de description, propose une solution dans laquelle, d'un point de vue théorique, l'approche statistique utilisée repose sur plusieurs hypothèses contraignantes. L'objet doit être plan, et rester tout au long de la séquence vidéo parallèle au plan image des caméras. Les classes d'objets traitables par cette approche sont donc restreintes.A document of the known art, referenced [1] at the end of the description, proposes a solution in which, from a theoretical point of view, the statistical approach used is based on several constraining hypotheses. The object must be flat, and remain throughout the video sequence parallel to the image plane of the cameras. Classes of objects treatable by this approach are therefore restricted.
L'invention a pour objet de pallier ces inconvénients et de permettre le suivi d'un objet texture sans avoir de connaissance préalable sur celui- ci, le modèle 3D de l'objet n'étant pas une information à fournir mais une information que le système estime automatiquement, l'algorithme utilisé pouvant fonctionner pour n'importe quel objet, dès lors que celui-ci est suffisamment texture.The object of the invention is to overcome these drawbacks and to allow the tracking of a texture object without having prior knowledge of it, the 3D model of the object not being information to be supplied but information that the system automatically estimates, the algorithm used can work for any object, if it is sufficiently textured.
EXPOSÉ DE L'INVENTIONSTATEMENT OF THE INVENTION
L' invention concerne un procédé de suivi stéréoscopique d'un objet texture à l'aide d'un système de saisie comprenant : - un calculateur associé à un écran de visualisation et à un organe de saisie, un ensemble de vision stéréoscopique comprenant deux caméras, dans lequel cet objet et/ou cet ensemble stéréoscopique sont en mouvement, caractérisé en ce qu' il comprend les étapes suivantes :
- au cours d'une phase d'initialisation : a) amener l'objet dans le champ de vision des deux caméras, b) saisir deux images et visualiser la première de ces deux images, c) définir cet objet en saisissant deux coins opposés d'une boite englobant celui-ci dans cette première image, d) rechercher cette boite dans la seconde image, e) extraire des points caractéristiques dans la première image, f) rechercher les points caractéristiques correspondants dans la seconde image, g) éliminer les mauvais appariements entre les points caractéristiques correspondants appartenant aux deux images, h) estimer les coordonnées des points appariés, i) estimer la position 3D de la boite,The invention relates to a method for stereoscopic tracking of a texture object using an input system comprising: a computer associated with a display screen and an input device, a stereoscopic vision set comprising two cameras , wherein this object and / or stereoscopic set are in motion, characterized in that it comprises the following steps: - During an initialization phase: a) bring the object into the field of vision of the two cameras, b) enter two images and view the first of these two images, c) define this object by entering two opposite corners of a box enclosing this one in this first image, d) to look for this box in the second image, e) to extract characteristic points in the first image, f) to look for the corresponding characteristic points in the second image, g) to eliminate the mismatches between the corresponding characteristic points belonging to the two images, h) estimate the coordinates of the paired points, i) estimate the 3D position of the box,
- au cours d'une phase de traitement a' ) acquérir un couple de nouvelles images stéréoscopiques, b' ) réaliser le suivi des points caractéristiques dans les nouvelles images, c' ) déduire la position de l'ensemble stéréoscopique par rapport à l'objet, d' ) éventuellement mettre à jour la position 3D des points caractéristiques, e' ) éventuellement rejeter les mauvais points ; f' ) éventuellement enrichir le modèle des points caractéristiques en ajoutant de nouveaux points caractéristiques .
L' invention porte sur la généricité de l'approche, et sa facilité d'utilisation puisque l'utilisateur n'a qu'à entourer l'objet avec une boite pour en lancer le suivi.during a processing phase a) to acquire a pair of new stereoscopic images, b ') to follow up the characteristic points in the new images, c') to deduce the position of the stereoscopic set with respect to the object, d) possibly update the 3D position of the characteristic points, e ') possibly reject the bad points; f ') possibly enrich the model of the characteristic points by adding new characteristic points. The invention relates to the genericity of the approach, and its ease of use since the user only has to surround the object with a box to start monitoring.
La robustesse de cette approche permet d'utiliser des caméras à bas coût, comme des « webcams » du marché. Une telle caractéristique est très avantageuse puisque le système permettant de mettre en oeuvre le procédé de l'invention présente de ce fait un coût très faible.The robustness of this approach makes it possible to use low-cost cameras, such as "webcams" on the market. Such a characteristic is very advantageous since the system making it possible to implement the method of the invention thus has a very low cost.
Le procédé de l'invention peut avoir de nombreuses applications et notamment :The method of the invention can have many applications and in particular:
- l'assistance robotique aux personnes handicapées, par exemple dans le cadre de la saisie automatique d'objets par un bras robotisé muni d'un capteur stéréoscopique sur sa pince.- Robotic assistance to people with disabilities, for example in the context of the automatic grasping of objects by a robotic arm equipped with a stereoscopic sensor on its clamp.
- toute application de saisie d'objets qui peut être une application industrielle potentielle : il suffit que l'objet soit suffisamment texture, et qu'il présente une même face aux caméras durant la phase d'approche du bras. Le suivi d'un objet par un système caméra déporté est aussi envisageable, des applications de suivi d'objets rigides (surveillance, suivi de plaques minéralogiques, suivi de voitures, ...) .
BREVE DESCRIPTION DES DESSINS- Any application of seizure of objects which can be a potential industrial application: it is enough that the object is sufficiently texture, and that it presents the same face to the cameras during the approach phase of the arm. The tracking of an object by a remote camera system is also possible, rigid object tracking applications (monitoring, tracking license plates, tracking cars, ...). BRIEF DESCRIPTION OF THE DRAWINGS
La figure 1 illustre un système de saisie mettant en œuvre le procédé de l'invention.Figure 1 illustrates an input system implementing the method of the invention.
Les figures 2A et 2B illustrent une étape du procédé de l'invention.Figures 2A and 2B illustrate a step of the method of the invention.
La figure 3 illustre l'ensemble des étapes de la phase d'initialisation du procédé de l'invention.FIG. 3 illustrates all the steps of the initialization phase of the method of the invention.
Les figures 4 et 5 illustrent schématiquement deux étapes du procédé de l'invention. La figure 6A et 6B illustrent des étapes de la phase d' initialisation et des résultats finaux de celle-ci .Figures 4 and 5 schematically illustrate two steps of the method of the invention. Figs. 6A and 6B illustrate steps of the initialization phase and final results thereof.
La figure 7 illustre l'ensemble des étapes de la phase de traitement du procédé de l'invention.FIG. 7 illustrates all the steps of the treatment phase of the method of the invention.
EXPOSÉ DÉTAILLÉ DE MODES DE RÉALISATION PARTICULIERSDETAILED PRESENTATION OF PARTICULAR EMBODIMENTS
Un système de saisie d'un objet 16 permettant de mettre en œuvre le procédé de l'invention, comme illustré sur la figure 1, comprend : - un calculateur 10 associé à un écran de visualisation 11 et un organe de saisie, qui peut comprendre un clavier 12 et une souris 13, disposés sur une table 18, un ensemble de vision stéréoscopique 15 comprenant un couple stéréoscopique de caméras étalonnées 19, les paramètres intrinsèques (modélisations géométriques) et extrinsèques (position respective) des deux caméras étant connus.An object grasping system 16 making it possible to implement the method of the invention, as illustrated in FIG. 1, comprises: a calculator 10 associated with a display screen 11 and an input member, which can comprise a keyboard 12 and a mouse 13, arranged on a table 18, a stereoscopic vision set 15 comprising a stereoscopic pair of calibrated cameras 19, the intrinsic parameters (geometrical modeling) and extrinsic (respective position) of the two cameras being known.
Les caméras peuvent, par exemple, être montées sur la pince 20 d'un bras robotisé 17. Ce bras peut être monté sur le fauteuil roulant d'une personne
handicapée, ou bien être monté sur une plateforme mobile indépendante, le suivi stéréoscopique étant alors employé pour guider le bras 17 vers un objet à saisir 16. Selon le procédé de l'invention, l'utilisateur désigne sur une image retournée par une des deux caméras l'objet à saisir. Le bras 17 effectue ensuite la saisie automatique de celui-ci, et rapporte l'objet à l'utilisateur. Le procédé de l'invention concerne principalement la phase de suivi de l'objet durant la phase de déplacement du bras. Elle est primordiale, puisque c'est celle-ci qui donne les informations permettant de déduire les mouvements du bras .The cameras can, for example, be mounted on the clamp 20 of a robotic arm 17. This arm can be mounted on the wheelchair of a person disabled, or be mounted on an independent mobile platform, stereoscopic tracking being then used to guide the arm 17 to an object to be grasped 16. According to the method of the invention, the user designates on an image returned by one of the two cameras the object to grab. The arm 17 then performs the automatic entry thereof, and reports the object to the user. The method of the invention relates mainly to the tracking phase of the object during the phase of movement of the arm. It is essential, since it is this which gives the information to deduce the movements of the arm.
Le procédé de l'invention permet ainsi d'effectuer le suivi vidéo d'un objet observé 16 par l'ensemble de vision stéréoscopique 15 alors que cet objet et / ou cet ensemble de vision est en mouvement. La principale originalité d'une telle approche est que le modèle 3D de l'objet n'est pas nécessaire. La seule connaissance initiale de l'objet est donnée par l'utilisateur qui définit une boite 25 englobant cet objet 16, par deux « clics » sur un retour vidéo d'une des deux caméras 19. Par un traitement d'images, et après l'étalonnage de l'ensemble stéréoscopique, on localise, on met en correspondance et on triangule des points caractéristiques de l'objet dans les deux images 26 et 27 illustrées sur les figures 2A et 2B. La position 3D de ces points 30 est utilisée pour définir la position de chaque caméra 19 par rapport à l'objet 16 (pose) . Une fois cette initialisation réalisée, chaque couple d' images stéréoscopiques acquis est
traité. Les points caractéristiques 30 sont localisés dans les deux images. Puis, une technique dite d'asservissement visuel virtuel permet de déduire la pose de la caméra. On va à présent analyser plus précisément chacune des étapes du procédé de l'invention.The method of the invention thus makes it possible to carry out the video tracking of an object observed 16 by the stereoscopic vision set 15 while this object and / or this set of vision is in motion. The main originality of such an approach is that the 3D model of the object is not necessary. The only initial knowledge of the object is given by the user who defines a box 25 encompassing this object 16, by two "clicks" on a video return of one of the two cameras 19. By image processing, and after calibrating the stereoscopic assembly, locating, mapping and triangulating characteristic points of the object in the two images 26 and 27 shown in Figures 2A and 2B. The 3D position of these points 30 is used to define the position of each camera 19 relative to the object 16 (pose). Once this initialization is done, each pair of stereoscopic images acquired is treaty. The characteristic points are located in the two images. Then, a technique known as virtual visual servoing makes it possible to deduce the pose of the camera. We will now analyze more precisely each of the steps of the method of the invention.
Le procédé de suivi d'objet de l'invention se décompose en deux phases :The object tracking method of the invention is divided into two phases:
- une phase d' initialisation, et - une phase de suivi.- an initialization phase, and - a monitoring phase.
1 Phase d' initialisation1 Initialization phase
L'ensemble stéréoscopique effectue la saisie de deux images 25 et 26, dites gauche et droite et illustrées respectivement sur les figures 2A et 2B. L'utilisateur n'a besoin de visualiser qu'une des deux images (l'image de droite 26 dans l'exemple de la figure 2) . Il désigne l'objet 16 dans cette image, grâce à la définition d'une boite englobante 27. Deux « clics » images sont nécessaires : un pour le coin inférieur gauche, un pour le coin supérieur droit, la boite étant alignée sur les axes de l'image. L'objet 16 est supposé être contenu dans cette boite 27.The stereoscopic set captures two images 25 and 26, said left and right and illustrated respectively in Figures 2A and 2B. The user only needs to view one of the two images (the image on the right 26 in the example of FIG. 2). It designates the object 16 in this image, thanks to the definition of a bounding box 27. Two "clicks" images are necessary: one for the lower left corner, one for the upper right corner, the box being aligned on the axes of the image. The object 16 is supposed to be contained in this box 27.
La robustesse du procédé permet de se satisfaire d'une boite approximative. Elle n'a pas besoin de correspondre exactement à l'objet.The robustness of the process makes it possible to be satisfied with an approximate box. It does not need to exactly match the object.
L'objet 16 doit être visible dans les images de droite et de gauche 25 et 26.The object 16 should be visible in the right and left images 25 and 26.
La figure 3 présente la succession des étapes constituant la phase d'initialisation, à savoir :
a) une étape (El) de saisie d'une boite 27 par 1' utilisateurFIG. 3 shows the succession of steps constituting the initialization phase, namely: a) a step (El) of seizure of a box 27 by the user
C'est la seule opération où l'utilisateur intervient. Il visualise l'image 26 (vue droite) , et réalise deux « clics » pour définir le coin supérieur gauche et le coin inférieur droit d'une boite 27 englobant la projection image de l'objet. b) Une étape (E2) de recherche de la boite correspondante dans la seconde image Ce traitement peut être effectué en utilisant une méthode classique de corrélation exhaustive. Elle fournit la position dans l'image 25 de la zone la plus similaire à celle de l'image 26.This is the only operation where the user intervenes. He visualizes the image 26 (right view), and makes two "clicks" to define the upper left corner and the lower right corner of a box 27 encompassing the image projection of the object. b) A step (E2) of finding the corresponding box in the second image This processing can be performed using a conventional method of exhaustive correlation. It provides the position in the image of the zone most similar to that of the image 26.
Un exemple de corrélation est une corrélation normalisée croisée. On cherche la zone image l(x,y) permettant de maximiser la corrélation suivante :
An example of correlation is a cross-normalized correlation. We search the image area l (x, y) to maximize the following correlation:
Où T(x',y') désigne la zone que l'on cherche à apparier dans la seconde image. c) Une étape (E3) d'extraction de points dans la première image 26Where T (x ', y') designates the zone that we want to match in the second image. c) A step (E3) of extracting points in the first image 26
Ce traitement est très classique dans le domaine du traitement d'images. Des points dits de Harris (assimilables à des coins) sont recherchés dans la zone 27 délimitée par l'utilisateur. Ces points caractéristiques 30 sont rattachés à l'objet 16.This treatment is very conventional in the field of image processing. Points called Harris (similar to corners) are searched in the area 27 delimited by the user. These characteristic points 30 are attached to the object 16.
Toutes les bibliothèques de traitement d'images proposent des outils d'extraction de points
caractéristiques, comme décrit dans le document référencé [5] . d) Une étape (E4) de recherche des points correspondants dans la seconde image 25 La recherche des points correspondant dans la seconde image peut s'effectuer par des techniques classiques d' appariement d'images ou de suivi de points .All image processing libraries offer point extraction tools characteristics, as described in referenced document [5]. d) A step (E4) for finding the corresponding points in the second image The search for the corresponding points in the second image can be carried out by conventional techniques of image matching or point tracking.
L'utilisation de la position estimée de la boite 27 (étape E2) permet de limiter la zone de recherche. On obtient une liste de points dits appariés .The use of the estimated position of the box 27 (step E2) limits the search area. We obtain a list of so-called paired points.
La technique employée est une corrélation différentielle, comme proposée dans le document référencé [ 6] . e) Une étape (E5) de filtrage des appariements (E5)The technique used is a differential correlation, as proposed in the referenced document [6]. e) A step (E5) for matching filtering (E5)
L'objectif de cette étape E5 est de détecter les mauvais appariements, c'est-à-dire les associations de points images qui ne correspondent pas au même point 3D de la scène.The objective of this step E5 is to detect mismatches, that is to say the associations of image points that do not correspond to the same 3D point of the scene.
Des critères simples permettent de les détecter. Le fait d'employer un ensemble stéréoscopique 15 permet de définir des règles que doivent respecter tous les appariements. Ainsi, si l'on note (xl, yl) et (xr,yr) les coordonnées images de points appariés entre les images gauche et droite 25 et 26, on a alors :Simple criteria make it possible to detect them. Using a stereoscopic set 15 makes it possible to define rules that all matches must comply with. Thus, if we write (xl, yl) and (xr, yr) the image coordinates of paired points between the left and right images 25 and 26, we then have:
(a) xl > xr(a) xl> xr
(b) la différence |yl - yr | doit être très faible La relation (b) découle du fait que, par construction de l'ensemble stéréoscopique, les images
sont alignées verticalement, comme on le voit sur la figure 4.(b) the difference | yl - yr | must be very weak Relationship (b) stems from the fact that, by constructing the stereoscopic ensemble, the images are aligned vertically as shown in Figure 4.
De plus, puisque tous les points appartiennent au même objet, les distances entre les points gauche et droite doivent toutes être du même ordre de grandeur. Des techniques d'estimation robuste permettent de dégager les points présentant des distances trop importantes, comme décrit dans le document référencé [2] . La figure 4 illustre ces règles classiques sur les appariements avec un système stéréoscopique . (P : point 3D de la scène. Cl & Cr : centre optique des caméras, pl(xl,xr) et pr (xr, yr) projection du point 3D dans les images gauche et droite) . Ces règles sont bien connues de l'homme de métier. f) Une étape (E6) de triangulation des points appariésMoreover, since all the points belong to the same object, the distances between the left and right points must all be of the same order of magnitude. Robust estimation techniques make it possible to identify the points having too great distances, as described in the document referenced [2]. Figure 4 illustrates these classic rules on pairing with a stereoscopic system. (P: 3D point of the scene Cl & Cr: optical center of the cameras, pl (xl, xr) and pr (xr, yr) projection of the 3D point in the left and right images). These rules are well known to those skilled in the art. f) A step (E6) of triangulation of the paired points
C'est une étape classique en vision par ordinateur. Connaissant les coordonnées images gauche et droite d'un même point de la scène, et avec les paramètres d'étalonnage de l'ensemble stéréoscopique, on peut par triangulation estimer les coordonnées 3D Pl des points, exprimés dans le repère de la première caméra . La figure 5 illustre le fait qu'il est facile de remonter à ces coordonnées 3D en connaissant le mouvement (R, t) entre les deux caméras, et les coordonnées images d'un point de la scène. Les profondeurs dans les deux repères caméras (Zi et Zr) sont déduites de la relation suivante :
This is a classic step in computer vision. Knowing the left and right image coordinates of the same point of the scene, and with the calibration parameters of the stereoscopic set, it is possible, by triangulation, to estimate the 3D coordinates Pl of the points, expressed in the reference of the first camera. Figure 5 illustrates the fact that it is easy to go back to these 3D coordinates by knowing the movement (R, t) between the two cameras, and the image coordinates of a point of the scene. The depths in the two camera markers (Zi and Z r ) are deduced from the following relation:
Où le signe + désigne l'opérateur pseudo-inverse. g) Une étape (E7) d'estimation de la position 3D de la boite La boite 27 définie par l'utilisateur ne correspond pas nécessairement à des points physiques de la scène. L'objectif est d'estimer une position 3D de cette boite, en fonction des coordonnées 3D estimées dans l'étape précédente. Une solution pragmatique consiste à associer aux coins de la boite la profondeur médiane des points 3D estimés.Where the + sign designates the pseudo-inverse operator. g) A step (E7) for estimating the 3D position of the box The box 27 defined by the user does not necessarily correspond to physical points of the scene. The objective is to estimate a 3D position of this box, according to the 3D coordinates estimated in the previous step. A pragmatic solution consists in associating at the corners of the box the median depth of the estimated 3D points.
Les figures 6A et 6B illustrent plusieurs de ces étapes à savoir El, E2, E3 et E4 dans les images gauche et droite 31 et 32 et les résultats finaux de la phase d'initialisation.Figures 6A and 6B illustrate several of these steps namely E1, E2, E3 and E4 in the left and right images 31 and 32 and the final results of the initialization phase.
2 Phase de traitement2 Treatment phase
La figure 7 illustre la succession des étapes de cette phase de traitement. L'objectif est de déduire l'attitude (position et orientation) de chaque caméra 19 par rapport à l'objet 16, connue par les points 3D et la boite 3D estimée lors de la phase d' initialisation.Figure 7 illustrates the succession of steps of this phase of treatment. The objective is to deduce the attitude (position and orientation) of each camera 19 with respect to the object 16, known by the 3D points and the 3D box estimated during the initialization phase.
La phase de traitement est réalisée en continu, pour chaque couple d'image stéréoscopique acquise (étape E'1) . A la fin de la boucle (étape E' 3, les étapes E' 4 à E' 6 étant optionnelles), on connait exactement la position de l'objet 16 vis-à-vis de chaque caméra 19. Cette information est le résultat du procédé de l'invention. On peut juste informer
l'utilisateur de ce résultat (en retraçant sur chaque couple d'images acquises la position courante de la boite ainsi obtenue par exemple) , ou bien se servir de ce résultat comme donnée d'entrée d'un autre processus. La position courante de l'objet 16 ainsi obtenue peut être utilisée pour guider un bras robotisé 17 vers cet objet 16, en vue de sa saisie.The treatment phase is carried out continuously, for each pair of stereoscopic image acquired (step E'1). At the end of the loop (step E '3, the steps E' 4 to E '6 being optional), we know exactly the position of the object 16 vis-à-vis each camera 19. This information is the result of the process of the invention. We can just inform the user of this result (by tracing on each pair of acquired images the current position of the box thus obtained for example), or use this result as input data of another process. The current position of the object 16 thus obtained can be used to guide a robotic arm 17 towards this object 16, with a view to its capture.
On a ainsi les étapes suivantes a' ) une étape (E' 1) d'acquisition d'un couple d'images stéréoscopiques b' ) une étape (E' 2) de suivi des points caractéristiquesWe thus have the following steps a ') a step (E' 1) of acquisition of a pair of stereoscopic images b ') a step (E' 2) of tracking of the characteristic points
Cette étape consiste à trouver la position des points caractéristiques 30 dans les nouvelles images, connaissant leurs positions dans les deux images précédentes. Des techniques classiques de corrélation permettent d'effectuer cette opération.This step consists in finding the position of the characteristic points in the new images, knowing their positions in the two previous images. Conventional correlation techniques make it possible to perform this operation.
La technique employée est un suivi différentiel KLT. Comme décrit dans le document référencé [ 6] . c' ) Une étape (E' 3) de calcul de poseThe technique used is a KLT differential monitoring. As described in the referenced document [6]. c ') a step (E' 3) of laying calculation
Cette étape consiste à déduire la pose de la caméra par rapport à l'objet. Les informations utilisées sont : la pose estimée de la caméra pour le couple d'images stéréoscopiques précédent, les coordonnées 3D des points caractéristiques de l'objet et les coordonnées 2D estimées à l'étape précédente.This step consists in deducing the pose of the camera with respect to the object. The information used is: the estimated pose of the camera for the previous pair of stereoscopic images, the 3D coordinates of the characteristic points of the object and the 2D coordinates estimated in the previous step.
Cette étape peut être réalisée en utilisant des techniques d'asservissement visuel virtuel comme décrit dans le document [4] . L'asservissement visuel est une approche permettant de déduire le déplacement
d'un système robotique en fonction d'une erreur mesurée entre un motif visuel mesuré dans l'image et la valeur désirée de ce motif. L'asservissement visuel virtuel reprend ce principe, mais au lieu de déplacer un robot, on met à jour la pose estimée de la caméra par rapport à la scène d'intérêt. Cette opération permet de mettre à jour la pose de chaque caméra vis-à-vis de l'objet. Ce principe s'adapte très facilement à une configuration stéréoscopique comme décrit dans le document référencé [3] .This step can be performed using virtual visual servoing techniques as described in document [4]. Visual servoing is an approach to deduce displacement of a robotic system according to an error measured between a visual pattern measured in the image and the desired value of this pattern. Virtual visual servoing takes up this principle, but instead of moving a robot, we update the estimated pose of the camera in relation to the scene of interest. This operation updates the pose of each camera vis-à-vis the object. This principle adapts very easily to a stereoscopic configuration as described in the document referenced [3].
Pour ce faire, on utilise le formalisme ci- dessous. On suppose connaître :To do this, we use the formalism below. We suppose to know:
- la pose de la caméra vis-à-vis de l'objet à l'instant t = CMO - les positions 3D des points caractéristiques, obtenues lors de la triangulation à l'initialisation : 0P1 (3D)- the pose of the camera vis-à-vis the object at time t = C M O - the 3D positions of the characteristic points, obtained during the triangulation at initialization: 0 P 1 (3D)
Suite à l'acquisition de deux nouvelles images stéréo, l'étape E' 2 de suivi fournit la nouvelle position 2D des points dans les images : cPi. (2D)Following the acquisition of two new stereo images, the tracking step E '2 provides the new 2D position of the points in the images: c Pi. (2D)
- A partir de la pose de la caméra par rapport à l'objet, on estime la position supposée des points par projection : "' Jy. =ΛCM/Pi . où A est un opérateur de projection de l'espace 3D vers l'espace image (grâce aux paramètres intrinsèques des caméras) .- From the pose of the camera with respect to the object, we estimate the supposed position of the points by projection: "' Jy. = Λ C M / P i, where A is a projection operator of the 3D space to the image space (thanks to the intrinsic parameters of the cameras).
- On obtient ainsi une erreur entre la position estimée et la position mesurée : ^-P ~ P<~ Pi- This gives an error between the estimated position and the measured position: ^ - P ~ P < ~ Pi
- L'asservissement visuel permet d'obtenir une vitesse de caméra permettant de réduire cette erreur : T =—ΛVΑ , où "à est un scalaire positif réglant la vitesse de convergence, et L+ la pseudo-inverse de la
matrice d' interaction, reliant la variation des coordonnées images des points en fonction d'un mouvement de la caméra.- The visual servoing makes it possible to obtain a camera speed making it possible to reduce this error: T = -ΛVΑ, where "to is a positive scalar regulating the speed of convergence, and L + the pseudo-inverse of the interaction matrix, connecting the variation of the image coordinates of the points according to a movement of the camera.
- En appliquant cette vitesse à la position estimée, on obtient une mise à jour de la position estimée de la caméra : MZn → ./('Λ-*,,.^.).- By applying this speed to the estimated position, we obtain an update of the estimated position of the camera: MZ n → . /('Λ-*,,.^.).
Ce processus est réitéré jusqu'à ce que l'erreur ^p soit estimée suffisamment petite. On obtient ainsi la position courante de la caméra vis-à- vis de l'objet. d' ) Une étape (E' 4) de rejet mauvais points (optionnelle)This process is repeated until the error ^ p is considered sufficiently small. This gives the current position of the camera vis-à-vis the object. d ') A step (E' 4) of rejection bad points (optional)
Lors de la phase de suivi, certains points caractéristiques peuvent être perdus, c'est-à-dire que le suivi n'a pas réussi correctement à les localiser dans l'image courante. De plus, l'algorithme peut tout aussi bien donner un résultat erroné. Ces erreurs peuvent entacher le bon fonctionnement du procédé. Il peut donc être intéressant de détecter ces erreurs, et de rejeter ces points des prochains traitements.During the tracking phase, some feature points may be lost, that is, tracking has not been successful in locating them in the current image. Moreover, the algorithm can just as well give a wrong result. These errors may affect the proper functioning of the process. It may be interesting to detect these errors, and reject these points of the next treatments.
La détection et le rejet de ces mauvais points est effectuée par une approche statistique. Lors de la phase du calcul de pose, puisque l'objet est rigide, on peut, en effet, supposer que l'erreur entre la position estimée des points caractéristiques et leur position suivie dans l'image est du même ordre de grandeur pour tous les points considérés. Des techniques de M-estimation, comme décrit dans le document référencé [2], permettent de détecter les points qui ne respectent pas cette règle.
e' ) Une étape (E' 5) de mise à jour du modèle (optionnelle)The detection and rejection of these bad points is done by a statistical approach. During the pose calculation phase, since the object is rigid, one can, indeed, suppose that the error between the estimated position of the characteristic points and their position followed in the image is of the same order of magnitude for all the points considered. M-estimation techniques, as described in the document referenced [2], make it possible to detect the points which do not respect this rule. e ') A step (E' 5) for updating the model (optional)
L'objectif est de mettre à jour la positionThe goal is to update the position
3D des points caractéristiques, puisque le déplacement objet/caméra peut permettre d'avoir une connaissance plus précise sur les coordonnées images des points3D of the characteristic points, since the object / camera displacement can make it possible to have a more precise knowledge on the coordinates images of the points
(plus on se rapproche d'un objet, plus sa description est fine) . Il est possible de mettre à jour les coordonnées 3D des points suivis, en effectuant une triangulation à partir des coordonnées images des points suivis dans les deux images. f' ) Une étape (E' 6) d'enrichissement du modèle (optionnelle)(The closer you get to an object, the more it's fine.) It is possible to update the 3D coordinates of the points tracked, by triangulating from the image coordinates of the points tracked in the two images. f ') A step (E' 6) of enrichment of the model (optional)
Au cours du déplacement, des points caractéristiques suivis peuvent disparaître, sortir du champ de vision d'une des caméras ou bien être occultés par un autre objet de la scène. Pour éviter que la connaissance de l'objet ne s'amenuise, il est possible de rajouter de nouveaux points dans le modèle. Cette opération s'effectue en reprenant les traitements de la phase d' initialisation, et en utilisant la position 3D courante de la boite, déduite de l'étape (c) .During the movement, characteristic points tracked may disappear, leave the field of view of one of the cameras or be hidden by another object of the scene. To prevent the knowledge of the object from diminishing, it is possible to add new points in the model. This operation is performed by repeating the processing of the initialization phase, and using the current 3D position of the box, deduced from step (c).
Exemple de mise en œuvre Le procédé de l'invention peut être utilisé dans le cadre de l'assistance aux personnes handicapées. Grâce à un bras robotisé, une personne handicapée peut saisir et manipuler des objets de son environnement. Un système commercialisé actuellement, par la société Exact Dynamics par exemple, est contrôlé au moyen d'un levier de commande (« joystick ») , adapté
au handicap de l'utilisateur. Ce mode de fonctionnement impose une forte maîtrise du système par l'utilisateur, tout en monopolisant toute son attention durant toute la phase de saisie (approche du bras, fermeture de la pince, retour du bras vers l'opérateur, ...)Example of implementation The method of the invention can be used in the context of assistance to persons with disabilities. Thanks to a robotic arm, a disabled person can grab and manipulate objects from his environment. A system currently marketed by Exact Dynamics, for example, is controlled by means of a joystick. to the handicap of the user. This mode of operation imposes a strong control of the system by the user, while monopolizing all his attention during all the phase of capture (approach of the arm, closing of the clamp, return of the arm towards the operator, ...)
Le procédé de l'invention permet d'envisager l'automatisation de ces tâches de saisie. Dans ce cadre, il est souvent proposé d'utiliser une ou plusieurs caméras pour contrôler et guider les mouvements du bras vers l'objet à saisir. Naturellement, le succès de la saisie repose majoritairement sur le suivi de l'objet dans le flot d' images acquis par la ou les caméras observant la scène . En effet, le procédé de l'invention permet de contrôler automatiquement les mouvements du bras vers l'objet. Cette nouvelle approche est plus générique et robuste que celle proposée dans le document référencé [I] . Les caractéristiques originales de ce nouveau procédé sont notamment: une initialisation très simple de 1' algorithme,The method of the invention makes it possible to envisage automating these input tasks. In this context, it is often proposed to use one or more cameras to control and guide the movements of the arm towards the object to be grasped. Naturally, the success of the seizure rests mainly on the tracking of the object in the flow of images acquired by the camera or cameras observing the scene. Indeed, the method of the invention allows to automatically control the movements of the arm towards the object. This new approach is more generic and robust than that proposed in the document referenced [I]. The original characteristics of this new method include: a very simple initialization of the algorithm,
- aucune information préalable nécessaire sur l'objet à suivre. La première caractéristique est primordiale, puisque le procédé est développé pour être utilisé par des personnes non spécialistes. Il est donc très important que son utilisation soit très simple et ne nécessite aucune compétence scientifique particulière.
La seconde caractéristique l'est tout aussi : le fait de ne pas imposer une connaissance préalable sur l'objet à suivre permet de considérer une très large gamme d'objets. De plus, cette seconde caractéristique permet d'envisager de nombreux champs d'application du procédé, en dehors du domaine de l'assistance aux personnes handicapées, puisque tout objet rigide (non déformable) et texture peut être considéré par le procédé de l'invention. On peut ainsi penser au suivi de véhicule, au suivi de plaques minéralogiques par exemple.
- no prior information necessary on the subject to follow. The first characteristic is essential, since the process is developed for use by non-specialists. It is therefore very important that its use is very simple and does not require any particular scientific competence. The second characteristic is equally so: the fact of not imposing a prior knowledge on the object to be followed makes it possible to consider a very wide range of objects. In addition, this second characteristic makes it possible to envisage many fields of application of the method, outside the field of assistance to handicapped persons, since any rigid object (not deformable) and texture can be considered by the method of the invention. We can think of vehicle tracking, the tracking of license plates for example.
REFERENCESREFERENCES
[1] EP 1614509[1] EP 1614509
[2] "Statistically robust 2D visual servoing" de A. I. Comport, E. Marchand, F. Chaumette. (IEEE Trans . on Robotics, 22(2)), pages 415-421, Avril 2006 http : //www. irisa . fr/lagadic/pdf/2006_ieee_tro_comport .p df)[2] "Statistically robust 2D visual servoing" by A. Comport, E. Marchand, F. Chaumette. (IEEE Trans. On Robotics, 22 (2)), pages 415-421, April 2006 http: // www. irisa. en / lagadic / pdf / 2006_ieee_tro_comport .p df)
[3] "Robust model-based tracking with multiple caméras for spatial applications" de F. Dionnet, E. Marchand[3] F. Dionnet, E. Marchand, "Robust model-based tracking with multiple cameras for spatial applications"
(In 9th ESA Workshop on Advanced Space Technologies for(In 9th ESA Workshop on Advanced Space Technologies for
Robotics and Automation, ASTRA 2006, pages 287-294, Noordwijk, Pays-Bas, Novembre 2006 http : //www. irisa . fr/lagadic/pdf/2006_astra_dionnet .pdf)Robotics and Automation, ASTRA 2006, pages 287-294, Noordwijk, The Netherlands, November 2006 http: // www. irisa. fr / lagadic / pdf / 2006_astra_dionnet .pdf)
[4] "Virtual Visual Servoing: a framework for real-time augmented reality" de E. Marchand, F. Chaumette (Computer Graphics Forum, 21(3), pages 289-298, Septembre 2002 http : //www. irisa . fr/lagadic/pdf/2002_eurographics_march and. pdf)[4] "Virtual Visual Servoing: a framework for real-time augmented reality" by E. Marchand, F. Chaumette (Computer Graphics Forum, 21 (3), pages 289-298, September 2002 http: // www. en / lagadic / pdf / 2002_eurographics_march and. pdf)
[5] "A combined corner and edge detector. In Alvey[5] "A combined corner and edge detector." In Alvey
Vision" de C. Harris et M. J. Stephens (Conférence, pages 147-152, 1988, http : //www. esse .uwa . edu . au/~pk/research/matlabfns/Spati al/Does/Harris/)
[6] "Good Features to Track" de J. Shi et C. Tomasi.. (Conférence on Computer Vision and Pattern Récognition (CVPR' 94) http : //www. ri . cmu . edu/pub_files/pub2/shi_j ianbo_1994_l/ shi jianbo 1994 l.pdf) .
Vision by C. Harris and MJ Stephens (Conference, pp. 147-152, 1988, http: //www.ewe.uwa.edu/pk/research/ matlabfns / Spatial / Does / Harris /) [6] "Good Features to Track" by J. Shi and C. Tomasi .. (Conference on Computer Vision and Pattern Recognition (CVPR '94) http: // www.cmu.edu / pub_files / pub2 / shi_j ianbo_1994_l / shi jianbo 1994 l.pdf).
Claims
1. Procédé de suivi stéréoscopique d'un objet texture (16) à l'aide d'un système de saisie (14) comprenant :A stereoscopic tracking method of a texture object (16) using an input system (14) comprising:
- un calculateur (10) associé à un écran de visualisation (11) et à un organe de saisie (12,13), un ensemble de vision stéréoscopique (13) comprenant deux caméras (19), dans lequel cet objet (16) et /ou cet ensemble stéréoscopique (13) sont en mouvement, caractérisé en ce qu' il comprend les étapes suivantes- a computer (10) associated with a display screen (11) and a gripping member (12,13), a stereoscopic vision unit (13) comprising two cameras (19), wherein this object (16) and / or this stereoscopic assembly (13) are in motion, characterized in that it comprises the following steps
- au cours d'une phase d'initialisation : a) amener l'objet dans le champ de vision des deux caméras, b) saisir deux images et visualiser la première de ces deux images, c) définir cet objet en saisissant deux coins opposés d'une boite (27) englobant celui-ci dans cette première image, d) rechercher cette boite dans la seconde image, e) extraire des points caractéristiques (30) dans la première image, f) rechercher les points caractéristiques correspondants dans la seconde image, g) éliminer les mauvais appariements entre les points caractéristiques correspondants appartenant aux deux images, h) estimer les coordonnées des points appariés, i) estimer la position 3D de la boite (27),- During an initialization phase: a) bring the object into the field of vision of the two cameras, b) enter two images and view the first of these two images, c) define this object by entering two opposite corners a box (27) including it in this first image, d) find this box in the second image, e) extract characteristic points (30) in the first image, f) find the corresponding characteristic points in the second image image, g) eliminating mismatches between the corresponding characteristic points belonging to the two images, h) estimating the coordinates of the paired points, i) estimating the 3D position of the box (27),
- au cours d'une phase de traitement a' ) acquérir un couple de nouvelles images stéréoscopiques, b' ) réaliser le suivi des points caractéristiques dans les nouvelles images, c' ) déduire la position de l'ensemble stéréoscopique par rapport à l'objet.- during a treatment phase a ') to acquire a couple of new stereoscopic images, b') to follow the characteristic points in the new images, c ') to deduce the position of the stereoscopic set with respect to the object.
2. Procédé selon la revendication 1 comprenant une étape supplémentaire suivante au cours de la phase de traitement : d' ) mettre à jour la position 3D des points caractéristiques .2. Method according to claim 1 comprising a following additional step during the processing phase: d) update the 3D position of the characteristic points.
3. Procédé selon la revendication 1 comprenant une étape supplémentaire suivante au cours de la phase de traitement : e' ) rejeter les mauvais points.3. The method of claim 1 comprising a following additional step during the treatment phase: e ') rejecting the bad points.
4. Procédé selon la revendication 1 comprenant une étape supplémentaire suivante au cours de la phase de traitement : f' ) enrichir le modèle des points caractéristiques en ajoutant de nouveaux points caractéristiques.4. A method according to claim 1 comprising a further step following during the processing phase: f ') enrich the model of the characteristic points by adding new characteristic points.
5. Procédé de saisie d'objet à l'aide d'un bras robotisé utilisant le procédé selon l'une quelconque des revendications précédentes. An object grasping method using a robotic arm using the method of any of the preceding claims.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0759466A FR2924560A1 (en) | 2007-11-30 | 2007-11-30 | METHOD FOR STEREOSCOPIC TRACKING OF A TEXTURED OBJECT |
FR0759466 | 2007-11-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2009068641A1 true WO2009068641A1 (en) | 2009-06-04 |
Family
ID=39486908
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2008/066406 WO2009068641A1 (en) | 2007-11-30 | 2008-11-28 | Method of stereoscopic tracking of a texture object |
Country Status (2)
Country | Link |
---|---|
FR (1) | FR2924560A1 (en) |
WO (1) | WO2009068641A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106514658A (en) * | 2017-01-16 | 2017-03-22 | 珠海金萝卜智动科技有限公司 | Mechanical arm coordinate system control system |
CN108748137A (en) * | 2018-04-11 | 2018-11-06 | 陈小龙 | A kind of material object scanning modeling method and its application |
US11403764B2 (en) * | 2020-02-14 | 2022-08-02 | Mujin, Inc. | Method and computing system for processing candidate edges |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015134795A2 (en) * | 2014-03-05 | 2015-09-11 | Smart Picture Technologies, Inc. | Method and system for 3d capture based on structure from motion with pose detection tool |
US10083522B2 (en) | 2015-06-19 | 2018-09-25 | Smart Picture Technologies, Inc. | Image based measurement system |
WO2019032736A1 (en) | 2017-08-08 | 2019-02-14 | Smart Picture Technologies, Inc. | Method for measuring and modeling spaces using markerless augmented reality |
US11138757B2 (en) | 2019-05-10 | 2021-10-05 | Smart Picture Technologies, Inc. | Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6721444B1 (en) * | 1999-03-19 | 2004-04-13 | Matsushita Electric Works, Ltd. | 3-dimensional object recognition method and bin-picking system using the method |
US20050216274A1 (en) * | 2004-02-18 | 2005-09-29 | Samsung Electronics Co., Ltd. | Object tracking method and apparatus using stereo images |
EP1614509A2 (en) * | 2004-07-06 | 2006-01-11 | Commissariat A L'energie Atomique | Method for grasping an object using a robot arm with a camera |
US20060079817A1 (en) * | 2004-09-29 | 2006-04-13 | Dewald Julius P | System and methods to overcome gravity-induced dysfunction in extremity paresis |
-
2007
- 2007-11-30 FR FR0759466A patent/FR2924560A1/en active Pending
-
2008
- 2008-11-28 WO PCT/EP2008/066406 patent/WO2009068641A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6721444B1 (en) * | 1999-03-19 | 2004-04-13 | Matsushita Electric Works, Ltd. | 3-dimensional object recognition method and bin-picking system using the method |
US20050216274A1 (en) * | 2004-02-18 | 2005-09-29 | Samsung Electronics Co., Ltd. | Object tracking method and apparatus using stereo images |
EP1614509A2 (en) * | 2004-07-06 | 2006-01-11 | Commissariat A L'energie Atomique | Method for grasping an object using a robot arm with a camera |
US20060079817A1 (en) * | 2004-09-29 | 2006-04-13 | Dewald Julius P | System and methods to overcome gravity-induced dysfunction in extremity paresis |
Non-Patent Citations (3)
Title |
---|
HAGER, G.D.; WEN-CHUNG CHANG; MORSE, A.S.: "Robot hand-eye coordination based on stereo vision", CONTROL SYSTEMS MAGAZINE, IEEE, vol. 15, no. 1, February 1995 (1995-02-01), pages 30 - 39, XP002484353 * |
JEAN LOUCHET: "l'algorithme des mouches: une Stragégie d'Evolution Individuelle appliquée en Stéréovision", RFIA 2000, RECONNAISSANCE DES FORMES ET INTELLIGENCE ARTIFICIELLE, February 2000 (2000-02-01), Paris, XP002484352 * |
KRAGIC D ET AL: "Vision for robotic object manipulation in domestic settings", ROBOTICS AND AUTONOMOUS SYSTEMS, ELSEVIER SCIENCE PUBLISHERS, AMSTERDAM, NL, vol. 52, no. 1, 31 July 2005 (2005-07-31), pages 85 - 100, XP004952758, ISSN: 0921-8890 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106514658A (en) * | 2017-01-16 | 2017-03-22 | 珠海金萝卜智动科技有限公司 | Mechanical arm coordinate system control system |
CN108748137A (en) * | 2018-04-11 | 2018-11-06 | 陈小龙 | A kind of material object scanning modeling method and its application |
US11403764B2 (en) * | 2020-02-14 | 2022-08-02 | Mujin, Inc. | Method and computing system for processing candidate edges |
US20220351389A1 (en) * | 2020-02-14 | 2022-11-03 | Mujin, Inc. | Method and computing system for processing candidate edges |
US12236609B2 (en) * | 2020-02-14 | 2025-02-25 | Mujin, Inc. | Method and computing system for processing candidate edges |
Also Published As
Publication number | Publication date |
---|---|
FR2924560A1 (en) | 2009-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11668571B2 (en) | Simultaneous localization and mapping (SLAM) using dual event cameras | |
JP7506091B2 (en) | Image-based localization | |
WO2009068641A1 (en) | Method of stereoscopic tracking of a texture object | |
JP5952001B2 (en) | Camera motion estimation method and apparatus using depth information, augmented reality system | |
IL271519B2 (en) | Method and system for performing simultaneous localization and mapping using convolutional image transformation | |
US11094079B2 (en) | Determining a pose of an object from RGB-D images | |
WO2019091787A1 (en) | Method for estimating the installation of a camera in the reference frame of a three-dimensional scene, device, augmented reality system and associated computer program | |
WO2007090945A1 (en) | Method of tracking the position of the head in real time in a video image stream | |
EP3072108A1 (en) | Method for estimating the speed of movement of a camera | |
EP2572319A1 (en) | Method and system for fusing data arising from image sensors and from motion or position sensors | |
EP3271869B1 (en) | Method for processing an asynchronous signal | |
EP2851868A1 (en) | 3D Reconstruction | |
FR2977023A1 (en) | GENERATION OF CARD DATA | |
Deng et al. | Flexible depth segmentation method using phase-shifted wrapped phase sequences | |
Raza et al. | Framework for estimating distance and dimension attributes of pedestrians in real-time environments using monocular camera | |
EP3729327A1 (en) | Method for recognising objects in a three dimensional scene | |
WO2020169381A1 (en) | Method for registering depth images | |
Lachat et al. | Assessment of the accuracy of 3D models obtained with DSLR camera and Kinect v2 | |
Nakano | Stereo vision based single-shot 6d object pose estimation for bin-picking by a robot manipulator | |
FR3065097B1 (en) | AUTOMATED METHOD FOR RECOGNIZING AN OBJECT | |
Ahmed et al. | Distance alert system using Stereo vision and feature extraction | |
Ahn et al. | Positional estimation of invisible drone using acoustic array with A-shaped neural network | |
Swank | Localization using visual odometry and a single downward-pointing camera | |
Sari et al. | Optimization Estimating 3D Object Pose Using Levenberg-Marquardt Method | |
FR2992415A1 (en) | METHOD FOR ESTABLISHING A GEOLOCALIZED RECOVERY PLAN, COMPUTER PROGRAM PRODUCT AND CORRESPONDING STORAGE MEDIUM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
DPE2 | Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101) | ||
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 08855043 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 08855043 Country of ref document: EP Kind code of ref document: A1 |