+

FR3117219A1 - Procédé d’acquisition d’une séquence de parties d’images et système d’acquisition associé - Google Patents

Procédé d’acquisition d’une séquence de parties d’images et système d’acquisition associé Download PDF

Info

Publication number
FR3117219A1
FR3117219A1 FR2012577A FR2012577A FR3117219A1 FR 3117219 A1 FR3117219 A1 FR 3117219A1 FR 2012577 A FR2012577 A FR 2012577A FR 2012577 A FR2012577 A FR 2012577A FR 3117219 A1 FR3117219 A1 FR 3117219A1
Authority
FR
France
Prior art keywords
designation
image
exposure time
images
band
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2012577A
Other languages
English (en)
Inventor
Alexis MICHENAUD-RAGUE
Eric Carre
Patrick Robert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Safran Electronics and Defense SAS
Original Assignee
Safran Electronics and Defense SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Safran Electronics and Defense SAS filed Critical Safran Electronics and Defense SAS
Priority to FR2012577A priority Critical patent/FR3117219A1/fr
Publication of FR3117219A1 publication Critical patent/FR3117219A1/fr
Pending legal-status Critical Current

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/226Semi-active homing systems, i.e. comprising a receiver and involving auxiliary illuminating means, e.g. using auxiliary guiding missiles
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/145Indirect aiming means using a target illuminator
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/18Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/783Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems
    • G01S3/784Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems using a mosaic of detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

L’invention concerne un procédé d’acquisition d’une séquence d’images permettant de visualiser le pointage d’une cible par un désignateur laser, le désignateur laser émettant des impulsions laser en direction de la cible et générant des tâches de désignation, le procédé comprenant les étapes suivantes : - acquisition (110) d’une image de désignation dans une première fenêtre temporelle d’exposition synchronisée avec un instant d’émission d’une impulsion laser, ladite première fenêtre temporelle d’exposition présentant une première durée ; - détermination (120) de la tâche de désignation à partir de l’image de désignation ; - acquisition (122) d’images de scène dans une deuxième fenêtre temporelle d’exposition se déroulant entre deux instants d’émission d’impulsions laser, ladite deuxième fenêtre temporelle d’exposition présentant une deuxième durée quatre fois supérieure à la première durée ;- superposition (128) de la tâche de désignation aux images de scène ;- répétition (130) des étapes précédentes. Figure à publier avec l’abrégé : Figure 6

Description

Procédé d’acquisition d’une séquence de parties d’images et système d’acquisition associé
Domaine technique de l’invention
La présente invention est relative un procédé amélioré d’acquisition d’une séquence d’images ou parties d’images permettant la visualisation du pointage laser d’une cible à l’aide d’un imageur bi-bande.
Etat de la technique antérieure
Actuellement de nombreux armements sont guidés. Un des modes de guidage est réalisé à l’aide d’un désignateur laser (guidage Semi Actif Laser). Le désignateur laser émet un faisceau laser codé temporellement à une longueur d’onde donnée et à une fréquence particulière. Le faisceau laser est dirigé sur la cible. Le faisceau laser génère des tâches de désignation sur la cible. L’autodirecteur ou système de guidage de l’armement connait la fréquence particulière du désignateur laser. Il détecte les tâches de désignation générées par le désignateur laser. Un imageur bi-bande image la cible et les tâches de désignation générées par le faisceau laser pour vérifier que le désignateur laser pointe bien la cible. Un tel imageur est décrit, par exemple, dans le document FR 3054893. Cet imageur bi-bande permet de capter un signal optique qui comprend la longueur d’onde du désignateur laser et les longueurs d’onde infra-rouge. Si l’axe du désignateur se désaligne par rapport à la cible, l’opérateur s’en aperçoit immédiatement et repointe la cible avec le désignateur. Ainsi, il peut contrôler en permanence son pointage. Un désignateur laser utilise un laser en mode impulsionnel ce qui permet d'atteindre lors d’une désignation des niveaux de puissance photonique très élevés avec des quantités d'énergie assez faibles. La quantité d'énergie reçue par un imageur bi-bande placé à quelques kilomètres de la cible désignée est donc très faible comparée à l'énergie photonique infrarouge émise par la scène et intégrée par le capteur optique sur des durées de plusieurs millisecondes. Le signal de la désignation laser se retrouve alors noyé dans le bruit photonique généré par la scène. Les imageurs bi-bandes classiques ne permettent donc pas d’imager une scène en simultané d’une tache de désignation laser lorsque la cible de la désignation laser se trouve au-delà de quelques centaines de mètres de l’imageur.
Présentation de l’invention
Le but de la présente invention est de permettre d’imager avec un imageur bi-bande une scène ainsi que des taches de désignations lasers sans que le bruit photonique important lors de l’acquisition de la scène ne vienne compromettre la visibilité de la tache de désignation. Un but de la présente invention est de supprimer tout image ou résidu d'image qui aurait pu être détecté comme un point lumineux voire un leurre. Ces buts sont atteints avec une technique innovante qui entrelace simultanément deux modes d’intégration photonique : un mode à synchronisation interne pour l’acquisition de la scène et un mode à synchronisation externe pour la tache de désignation laser. Le mode d’acquisition de scène est optimisé pour maximiser le nombre d’acquisitions de la scène. Le mode d’acquisition de la tache de désignation laser est optimisé pour acquérir le plus grand nombre de taches de désignation laser.
La présente invention a pour objet un procédé d’acquisition d’une séquence d’au moins des parties d’images permettant de visualiser le pointage d’une cible par un désignateur laser, le désignateur laser étant propre à émettre des impulsions laser en direction de la cible et à générer des tâches de désignation, les impulsions laser étant émises à une fréquence d’émission et dans une longueur d’onde appartenant à une première bande de longueurs d’onde, le procédé d’acquisition étant mis en œuvre par un système d’acquisition d’images comprenant un imageur bi-bande apte à capter un signal optique dans la première bande de longueurs d’onde d’émission et dans l’infra-rouge, et une unité de traitement adaptée pour traiter les images acquises par l’imageur bi-bande et pour paramétrer l’imageur bi-bande, le procédé comprenant au moins un cycle, ledit cycle comprenant les étapes suivantes :
a) acquisition d’au moins une partie d’une image de désignation, ladite au moins une partie d’image de désignation étant acquise dans une première fenêtre temporelle d’exposition synchronisée avec un instant d’émission d’une impulsion laser, ladite première fenêtre temporelle d’exposition présentant une première durée d’exposition ;
b) détermination de la tâche de désignation ou de la position de la tâche de désignation à partir de ladite au moins une partie d’image de désignation ;
c) acquisition d’au moins des parties d’images de scène, lesdites au moins des parties d’images de scène étant acquises dans une deuxième fenêtre temporelle d’exposition se déroulant entre deux instants d’émission d’impulsions laser, ladite deuxième fenêtre temporelle d’exposition présentant une deuxième durée d’exposition, la deuxième durée d’exposition étant au moins quatre fois supérieure à la première durée d’exposition ;
d) superposition de la tâche de désignation ou de la position de la tâche de désignation aux au moins des parties d’images de scène ;
e) répétition des étapes a), b), c) et d) pour obtenir une séquence d’au moins des parties d’images.
Les caractéristiques exposées dans les paragraphes suivants peuvent, optionnellement, être mises en œuvre. Elles peuvent être mises en œuvre indépendamment les unes des autres ou en combinaison les unes avec les autres :
La première durée d’exposition est inférieure à 4 ms, de préférence inférieure à 1 ms.
La deuxième durée d’exposition est supérieure à 4 ms, de préférence comprise entre 8 et 40 ms.
Le procédé comporte une durée inférieure à 10 ms, de préférence 5 ms entre le début de l’étape d’acquisition de ladite au moins une partie d’image de désignation et le début de l’étape d’acquisition d’au moins des parties d’images de scène.
Le procédé comporte en outre une étape préalable de paramétrage de la caméra bi-bande par l’unité de traitement afin que les premières fenêtres temporelles d’exposition soient synchronisées avec les instants d’émissions des impulsions laser.
Le système d’acquisition comporte en outre un désignateur laser connecté à l’unité de traitement, et dans lequel ladite étape de paramétrage comporte les étapes suivantes :
- transmission des instants d’émission des impulsions laser du désignateur laser à l’unité de traitement ;
- détermination de la fréquence d’émission et des instants de génération de premières fenêtres temporelles d’exposition de manière que chaque première fenêtre temporelle d’exposition soit centrée temporellement autour d’un instant d’émission d’une impulsion laser,
- transmission des instants de génération de premières fenêtres temporelles d’exposition de l’unité de traitement à la caméra bi-bande.
Le procédé comporte en outre les étapes suivantes :
- acquisition d’au moins une partie d’une image de calibration, ladite au moins une partie d’une image de calibration étant acquise au cours d’une fenêtre temporelle de calibration subséquente à la première fenêtre temporelle d’exposition, la fenêtre temporelle de calibration présentant une durée sensiblement égale à la première durée d’exposition,
- soustraction de ladite au moins une partie d’une image de calibration à ladite au moins une partie d’une image de désignation pour obtenir au moins une partie d’image représentant uniquement la tâche de désignation, ladite au moins une partie d’image représentant uniquement la tâche de désignation étant utilisée en tant que au moins une partie d’image de désignation pour mettre en œuvre l’étape de détermination de la position de la tâche de désignation.
Le procédé comprend plusieurs cycles, et dans lequel la partie d’image représentant uniquement la tâche de désignation obtenue au cours de l’étape de soustraction du premier cycle est additionnée à la partie d’image représentant uniquement la tâche de désignation obtenue au cours de l’étape de soustraction du deuxième cycle.
La caméra bi-bande est apte à acquérir des images de désignation comprenant N lignes et M colonnes, N et M étant des entiers naturels, et dans lequel uniquement une partie de l’image de désignation est acquise, ladite partie de l’image de désignation acquise comprenant entre 50% et 10 % des N lignes et des M colonnes.
Avantageusement, ce fenêtrage permet de conserver une fréquence d’acquisition des images suffisamment importante pour permettre une visualisation fluide et non saccadée de la séquence d’images.
La caméra bi-bande est apte à acquérir des images de scène comprenant N lignes et M colonnes, N et M étant des entiers naturels, et dans lequel uniquement une partie de l’image de scène est acquise, ladite partie de l’image de scène acquise comprenant entre 100% et 30% des N lignes et des M colonnes.
L’invention a également pour objet un système d’acquisition d’une séquence d’au moins des parties d’images permettant de visualiser le pointage d’une cible par un désignateur laser, le désignateur laser étant propre à émettre des impulsions lasers en direction de la cible et à générer des tâches de désignation, les impulsions lasers étant émises à une fréquence d’émission et à une longueur d’onde appartenant à une première bande de longueurs d’onde, le système d’acquisition comprenant :
- un imageur bi-bande apte à capter un signal optique dans la première bande de longueurs d’onde et dans l’infra-rouge, l’imageur bi-bande étant propre à acquérir au moins une partie d’une image de désignation et au moins des parties d’images de scène, ladite au moins une partie d’une image de désignation étant acquise dans une première fenêtre temporelle d’exposition synchronisée avec une émission d’une impulsion laser, ladite première fenêtre temporelle d’exposition présentant une première durée d’exposition, lesdites au moins une partie des images de scène étant acquises dans une deuxième fenêtre temporelle d’exposition présentant une deuxième durée d’exposition, la deuxième durée d’exposition étant au moins quatre fois supérieure à la première durée d’exposition ; et
- une unité de traitement adaptée pour traiter les au moins une partie d’images de désignation et les au moins des parties d’images de scènes pour obtenir une séquence d’au moins des parties d’images, l’unité de traitement étant propre à déterminer la position de la tâche de désignation à partir de ladite au moins une partie d’image de désignation et à superposer la position de la tâche de désignation sur les au moins des parties d’images de scène.
Brève description des figures
est une vue schématique du système d’acquisition de parties d’images selon la présente invention ;
est un schéma représentant le champ de vision de la caméra bi-bande au cours d’une première fenêtre temporelle d’exposition ;
est un schéma représentant le champ de vision de la caméra bi-bande au cours d’une fenêtre temporelle de calibration ;
est un schéma représentant le champ de vision de la caméra bi-bande au cours d’une deuxième fenêtre temporelle d’exposition;
est un schéma montrant trois chronogrammes superposés représentant respectivement les émissions des impulsions laser au cours du temps, les fenêtres temporelles d’exposition de la caméra bi-bande au cours du temps et les fenêtres temporelles d’enregistrement des images au cours du temps ;
est un diagramme représentant les étapes du procédé d’acquisition d’une séquence de parties d’images selon la présente invention
est un diagramme représentant les sous-étapes d’un mode de réalisation de l’étape de synchronisation du procédé d’acquisition selon la présente invention.
Description détaillée de l’invention
En référence à la , le système 2 d’acquisition d’une séquence d’images selon la présente invention permet de visualiser et de surveiller le pointage d’une cible 4 à l’aide d’un désignateur laser 12.
Ce système d’acquisition 2 comporte une caméra bi-bande 6, une unité de traitement 8 connectée à la caméra bi-bande et un écran de visualisation 10 connecté à l’unité de traitement. L’écran de visualisation 10 permet de visualiser les images traitées par l’unité de traitement.
Dans le mode de réalisation représenté, le système d’acquisition 2 comporte également un désignateur laser 12 propre à générer des impulsions laser Ei, Ei+1 qui au contact d’une surface font apparaître des tâches de désignation Di, Di+1. Le désignateur laser 12 est connecté à l’unité de traitement. Les impulsions lasers Ei, Ei+1 présentent une fréquence d’émission connue de l’armement Cette fréquence d’émission peut varier d’un tir à l’autre dans une plage de fréquences connue. Le désignateur laser est pointé en direction de la cible 4 par un opérateur. Les impulsions lasers Ei, Ei+1 émises par celui-ci génèrent des tâches de désignation Di sur la surface pointée. Ces tâches de désignation Di, Di+1 apparaissent à une fréquence correspondant à la fréquence d’émission des impulsions laser Ei, Ei+1. La longueur d’onde des impulsions laser émises appartient à une première bande de longueur d’onde λ1 captée par la caméra bi-bande. Ces tâches de désignation Di sont captées par l’imageur bi-bande.
Dans le mode de réalisation représenté, le désignateur laser 12 est connecté par une liaison filaire à l’unité de traitement 8. Le désignateur laser est propre à transmettre à l’unité de traitement 8 les instants d’émission ti, ti+1 des impulsions laser par l’intermédiaire de cette liaison filaire. Il peut également transmettre la fréquence d’émission des impulsions laser.
Selon une variante non représentée, le désignateur laser 12 est un désignateur laser externe. Il n’est pas connecté à l’unité de traitement. Il ne fait pas partie du système d’acquisition. Dans ce cas, un système de détection est utilisé pour déterminer les instants d’émission et la fréquence d’émission du désignateur laser
La caméra bi-bande 6 comporte une matrice de photo-détecteurs aptes à capter un signal optique dans une première bande de longueurs d’onde λ1 comprenant la longueur d’onde d’émission du désignateur laser et dans une deuxième bande de longueurs d’onde λ2 comprise dans le domaine infrarouge. La première bande de longueurs d’onde λ1 est une bande étroite centrée autour de 1064 nm ou de 1550 nm, en fonction du type de désignateur utilisé. Dans la présente demande de brevet, une bande de longueur d’onde est considérée comme étroite lorsqu’elle est inférieure à 50 nm. La deuxième bande de longueurs d’onde λ2 est comprise entre 3 µm et 5 µm de sorte à pouvoir imager les rayonnements thermiques émis par les différents objets et corps présents dans le champ de vision de la caméra bi-bande et en particulier les rayonnements émis par la cible. Une autre bande utilisable est la bande LWIR de 8 à 12 µm.
La caméra bi-bande 6 est dirigée vers la cible 4.
La caméra bi-bande 6 est configurée pour acquérir différents types d’images dénommées différemment en fonction de leurs caractéristiques d’acquisition. Ainsi, la caméra bi-bande 6 est adaptée pour acquérir des images de désignation, des images de calibration et des images de scène.
Les images de désignation 18 sont acquises au cours de premières fenêtres temporelles d’exposition I1 représentées sur la . Les premières fenêtres temporelles d’exposition I1 sont synchronisées temporellement avec les instants d’émission ti, ti+1 des impulsions laser Ei, Ei+1. Les images de désignation 18 représentent la tâche de désignation Di, Di+1 et au moins une partie de la cible 4, comme visible sur la .
Les premières fenêtres temporelles d’exposition I1 se déroulent pendant une première durée d’exposition T1 inférieure à 1 ms. De préférence, la première durée d’exposition T1 est inférieure à 4 ms. Avantageusement, la première durée d’exposition T1 est inférieure à 1 ms.
Les images de calibration 20 sont acquises au cours de fenêtres de calibration Ic représentées sur la . Les fenêtres de calibration Ic se déroulent entre deux instants d’émissions d’impulsions laser. En particulier, les fenêtres de calibration Ic sont subséquentes aux premières fenêtres temporelles d’exposition I1. Les fenêtres de calibration Ic présentent la même durée que premières fenêtres temporelles d’exposition I1. Les images de calibration 20 représentent uniquement la cible 4, comme visible sur la .
Les images de scène 22 sont acquises au cours de deuxièmes fenêtres temporelles d’exposition I2. Les images de scène 22 représentent uniquement la cible 4 comme visible sur la . Les deuxièmes fenêtres temporelles d’exposition I2 se déroulent entre deux instants d’émission d’impulsions laser. En particulier, les deuxièmes fenêtres temporelles d’exposition I2 sont subséquentes aux fenêtres de calibration Ic. Les deuxièmes fenêtres temporelles d’exposition I2 présentent chacune une deuxième durée d’exposition T2.
La deuxième durée d’exposition T2 est supérieure à la première durée d’exposition. La deuxième durée d’exposition T2 est comprise entre 4 ms et 40 ms. La deuxième durée d’exposition T2 est celle du mode Imagerie normale.
La deuxième durée d’exposition T2 est plus longue que la première durée d’exposition T1 de manière à ce que la matrice de photo-détecteurs intègre la lumière dans la deuxième bande λ2 de longueurs d’onde. Le temps d’intégration de la lumière dans la première bande de longueurs d’onde est inférieur au temps d’intégration dans la deuxième bande de longueurs d’onde car la puissance lumineuse des impulsions lasers réfléchies est supérieure à celle des rayonnements infrarouges émis par la scène et par la cible 4.
La première durée d’exposition T1 est préenregistrées et la deuxième durée d’exposition T2 est voisine de celle du mode Imagerie normale dans la caméra bi-bande 6. Les instants de génération des premières fenêtres temporelles sont paramétrables.
La caméra bi-bande 6 est apte à acquérir des images 18, 20, 22 comprenant N lignes et M colonnes. Ces images 18, 20, 22 correspondent au champ de vision de la caméra bi-bande.
La caméra bi-bande 6 peut également fenêtrer les images acquises. Ainsi, la caméra bi-bande 6 peut acquérir et enregistrer des parties d’images de taille réduite par rapport au champ de vison de la caméra bi-bande. En Particulier, la caméra bi-bande 6 peut acquérir des parties 24 d’images de désignation comprenant environ moins de 25 % des lignes et des colonnes des images de désignation complètes. Avantageusement, ces parties d’images sont enregistrées plus rapidement dans la mémoire 14 que des images complètes. De préférence, une partie 24 d’image de désignation comprend entre 50 % et 10 % des lignes et des colonnes d’une image complète. Un exemple d’une partie 24 d’image de désignation est représenté sur la .
De même, la caméra bi-bande 6 peut acquérir des parties 26 d’images de calibration. Les parties 26 d’images de calibration présentent la même taille que les parties d’images de désignation. Un exemple d’une partie 26 d’image de calibration est représenté sur la .
Enfin, la caméra bi-bande peut acquérir des parties d’images de scène 28 comprenant moins de 60 % des lignes et des colonnes d’une image complète. De préférence, les parties 28 d’images de scène comprennent entre 80 % et 40 % des lignes et des colonnes d’une image complète. Un exemple d’une partie 28 d’image de scène est représenté sur la .
L’unité de traitement 8 comporte un processeur et une mémoire 14 contenant des instructions pour mettre en œuvre le procédé d’acquisition de partie d’images décrit ci-après.
L’unité de traitement 8 est apte à paramétrer la caméra bi-bande afin que celle-ci génère les premières fenêtres d’exposition I1 synchronisées avec les instants d’émissions ti, ti+1 des impulsions laser Ei, Ei+1.
L’unité de traitement 8 est propre à recevoir les parties 24 d’images de désignation, les parties 26 d’images de calibration et les parties 22 d’images de scène acquises par la caméra bi-bande, à traiter ces parties d’images et à transmettre les parties d’images traitées à l’écran de visualisation.
En particulier, l’unité de traitement 8 est adaptée pour localiser la position de la tâche de désignation Di, Di+1 dans une image de désignation. L’unité de traitement est apte à superposer la position de la tâche de désignation sur les images de scène pour faire apparaitre la position du pointage du désignateur laser sur les images de scène. A cet effet, la tâche de désignation Di ou un motif représentant la tâche de désignation est superposé aux images de scène. Ce motif peut par exemple être un réticule 16.
En référence à la figure aux figures 6 et 7, le procédé d’acquisition d’une séquence d’images selon la présente invention, débute par une étape préalable 100 de paramétrage de la caméra bi-bande par l’unité de traitement 8 afin que les premières fenêtres temporelles d’exposition I1 soient synchronisées avec les instants d’émission ti, ti+1 des impulsions laser Ei, Ei+1.
Dans le mode de réalisation représenté sur la dans lequel la caméra bi-bande est connectée à l’unité de traitement 8, cette étape préalable comporte trois sous étapes représentées sur la .
Au cours d’une étape 102, le désignateur laser 12 transmet les instants d’émission ti, ti+1 (ou tops) des impulsions laser à l’unité de traitement, par la liaison filaire.
Au cours d’une étape 104, l’unité de traitement 8 détermine la fréquence d’émission des impulsions laser Ei, Ei+1.
Au cours d’une étape 106, l’unité de traitement 8 détermine les instants de génération de premières fenêtres temporelles d’exposition I1 de manière que chaque première fenêtre temporelle d’exposition I1 soit temporellement centrée autour d’un instant ti d’émission d’une impulsion laser Ei, comme représenté sur le chronogramme de la .
Au cours d’une étape 108, l’unité de traitement 8 paramètre la caméra bi-bande 6 en lui transmettant les instants de génération de premières fenêtres temporelles d’exposition I1.
Ensuite, le désignateur laser 12 est pointé sur la cible 4. Il émet des impulsions laser Ei, Ei+1 qui génèrent des tâches de désignation Di, Di+1 sur la surface pointée. L’imageur bi-bande 6 est dirigé sur la cible 4 de sorte que la cible 4 et les tâches de désignation soient dans son champ de vision.
Au cours d’une étape 110, l’imageur bi-bande 6 capte un signal optique au cours d’une première fenêtre temporelle d’exposition T1 synchronisée avec un instant d’émission ti d’une impulsion laser Ei.
Comme la caméra bi-bande connait les futurs instants d’émission des impulsions laser Ei, Ei+1, la capture d’image peut être réalisée au cours d’une fenêtre temporelle T1 ayant une durée courte. Ainsi, la première fenêtre temporelle d’exposition T1 présente une durée inférieure à 1 ms. Comme la durée de cette fenêtre est courte, le bruit photométrique de l’imageur bi-bande est réduit.
Le signal optique capté représente une partie 24 d’une image de désignation. Cette partie 24 d’image de désignation représente la tâche de désignation Di et au moins une partie de la cible, comme visible sur la .
Au cours d’une étape 112, le signal optique représentant la partie 24 d’image de désignation est enregistré dans la mémoire 14 de l’unité de traitement au cours d’une première fenêtre temporelle d’enregistrement R1. Avantageusement, la première fenêtre temporelle d’enregistrement R1 est courte car une seule partie de l’image de désignation a été enregistrée. Ainsi, par exemple pour une partie d’image captée comprenant 25% des lignes et des colonnes de l’image complète, la durée de la première fenêtre temporelle d’enregistrement R1 est réduite d’environ 75 %. La durée de la première fenêtre temporelle d’enregistrement R1 est par exemple inférieure à 0.4 ms.
Dans le mode de réalisation représenté sur la , la caméra bi-bande 6 fonctionne selon un mode de fonctionnement « intégrer puis lire » (de l’anglais « Integrate Then Read »). L’étape d’enregistrement se déroule après l’étape d’acquisition. En variante, la caméra bi-bande 6 fonctionne selon un mode de fonctionnement « intégrer en lisant » (de l’anglais « Integrate While Read »).
Avantageusement la partie 24 d’image de désignation est centrée au centre de l’image de désignation 18.
En variante, l’unité de traitement 8 est propre à déterminer une position prédite de la cible 4 à partir des images acquises, et la partie de l’image de désignation est centrée autour de la position prédite de la cible.
Au cours d’une étape 114, l’imageur bi-bande 6 acquiert une partie 26 d’image de calibration au cours d’une fenêtre temporelle de calibration Ic directement subséquente à la fenêtre temporelle d’enregistrement R1. La fenêtre temporelle de calibration Ic présente la même durée T1 que la première fenêtre temporelle d’exposition I1. La partie 26 d’image de calibration présente la même dimension que la partie 24 d’image de désignation.
Au cours d’une étape 116, le signal électrooptique représentant la partie 26 d’image de calibration est enregistré dans la mémoire 14 de l’unité de traitement au cours d’une fenêtre temporelle d’enregistrement Rc. Avantageusement, la durée de la fenêtre temporelle d’enregistrement Rc est courte car une seule partie de l’image de calibration est enregistrée.
Au cours d’une étape 118, l’unité de traitement 8 soustrait la partie 26 de l’image de calibration à la partie 24 de l’image de désignation pour obtenir au moins une partie d’image représentant uniquement la tâche de désignation.
Avantageusement, cette soustraction de parties d’images permet d’éliminer le bruit fixe généré par la matrice de photodétecteurs. Cette soustraction permet aussi de réduire considérablement toute image résiduelle qui serait détectée malgré le temps d'intégration très court.
Au cours d’une étape 120, l’unité de traitement 8 détermine la position de la tâche de désignation Di sur la partie d’image obtenue au cours de l’étape 118. La position de la tâche de désignation est enregistrée dans la mémoire 14.
Au cours d’une étape 122, la caméra bi-bande 6 acquiert des parties 28 d’images de scène au cours d’une deuxième fenêtre temporelle I2. La deuxième fenêtre temporelle I2 présente une deuxième durée d’exposition T2. La deuxième durée d’exposition T2 est au moins quatre fois supérieure à la première durée d’exposition. La deuxième durée d’exposition T2 est comprise entre 5 ms et 40 ms.
Avantageusement, la durée D entre le début de l’étape d’acquisition de la partie 24 d’image de désignation et le début de l’étape d’acquisition des parties 28 d’images de scène est inférieure à 2,4 ms.
Au cours d’une étape 124, les parties 28 d’images de scène sont enregistrées dans la mémoire 14 au cours d’une deuxième fenêtre temporelle d’enregistrement R2. La caméra bi-bande 6 peut éventuellement acquérir d’autres parties d’images de scène au cours d’une nouvelle deuxième fenêtre temporelle I2 et les enregistrer au cours d’une nouvelle fenêtre temporelle d’enregistrement R2, comme visible sur la . Ainsi, les étapes 122 et 124 peuvent éventuellement être répétées une ou plusieurs fois.
Au cours d’une étape 126, les parties 28 d’images de scène sont affichées sur l’écran de visualisation 10.
Au cours d’une étape 128, la position de la tâche de désignation Di, Di+1 déterminée au cours de l’étape 120, est superposée aux parties 28 d’images de scène. A cet effet, soit la tâche de désignation est superposée aux parties 28 d’images de scène soit un réticule est superposé sur les images de scène à la position de la tâche de désignation.
La caméra bi-bande 6 peut éventuellement acquérir d’autres parties d’images de scène au cours d’une nouvelle deuxième fenêtre temporelle I2 et les enregistrer au cours d’une nouvelle fenêtre temporelle d’enregistrement R2, comme visible sur la .
Au cours d’une étape 130, les étapes 110 à 128 sont répétées au cours d’un deuxième cycle.
En variante, au cours de l’étape 120, la partie d’image obtenue au cours de la première fenêtre temporelle I1 (étape 118) est directement superposées aux parties d’images de scène obtenues au cours de la deuxième fenêtre temporelle (étape 122)
Quand cette variante est utilisée, l’image représentant la tâche de désignation déterminée au cours du deuxième cycle est ajoutée à l’image représentant la tâche de désignation acquise au cours du premier cycle. Un nombre prédéfini d’image représentant la tâche de désignation peuvent ainsi être ajouté les unes aux autres. Puis, lorsque ce nombre est atteint, les images représentant la tâche de désignation sont supprimées de la mémoire. La position de la tâche de désignation est rafraichie.
En variante, le procédé ne comporte pas d’étape d’acquisition 114 d’une partie 26 d’une image de calibration, ni d’étape de soustraction 118 de la partie 26 d’une image de calibration à une partie 24 d’une image de désignation. Dans ce cas, la position de la tâche de désignation est directement déterminée sur la partie d’image de désignation.
En variante, une image de désignation complète est acquise au cours de l’étape 110.
En variante, une image de calibration complète, est acquise au cours de l’étape 114.
En variante, Au cours d’une étape 118, l’unité de traitement 8 soustrait l’image de calibration complète à l’image de désignation complète.
En variante, des images de scène complètes, sont acquises au cours de l’étape 122.
En variante, comme la fréquence laser est connue du système, le déclenchement est réalisé à partir de l'impulsion n pour voir l'impulsion n+1. Le déclenchement est réalisé par le désignateur laser en autonome ou, en désignation externe, un dispositif de détection ponctuel qui détecte l'illumination laser et fournit un signal synchronisé.
Selon un mode de réalisation, les étapes 110, 120, 122, et 128 sont successives.

Claims (11)

  1. Procédé d’acquisition d’une séquence d’au moins des parties d’images permettant de visualiser le pointage d’une cible (4) par un désignateur laser (12), le désignateur laser (12) étant propre à émettre des impulsions laser (Ei, Ei+1) en direction de la cible et à générer des tâches de désignation (Di, Di+1), les impulsions laser étant émises à une fréquence d’émission et dans une longueur d’onde appartenant à une première bande (λ1) de longueurs d’onde, le procédé d’acquisition étant mis en œuvre par un système d’acquisition d’images (2) comprenant un imageur bi-bande (6) apte à capter un signal optique dans la première bande (λ1) de longueurs d’onde d’émission et dans l’infra-rouge, et une unité de traitement (8) adaptée pour traiter les images acquises par l’imageur bi-bande et pour paramétrer l’imageur bi-bande, le procédé comprenant au moins un cycle, ledit cycle comprenant les étapes suivantes :
    a) acquisition (110) d’au moins une partie (24) d’une image de désignation, ladite au moins une partie (24) d’image de désignation étant acquise dans une première fenêtre temporelle d’exposition (I1) synchronisée avec un instant (ti) d’émission d’une impulsion laser, ladite première fenêtre temporelle d’exposition (I1) présentant une première durée d’exposition (T1);
    b) détermination (120) de la tâche de désignation (Di, Di+1) ou de la position de la tâche de désignation (Di, Di+1) à partir de ladite au moins une partie (24) d’image de désignation ;
    c) acquisition (122) d’au moins des parties (28) d’images de scène, lesdites au moins des parties d’images de scène étant acquises dans une deuxième fenêtre temporelle d’exposition (I2) se déroulant entre deux instants (ti, ti+1) d’émission d’impulsions laser, ladite deuxième fenêtre temporelle d’exposition (I2) présentant une deuxième durée d’exposition (T2), la deuxième durée d’exposition (T2) étant au moins quatre fois supérieure à la première durée d’exposition (T1) ;
    d) superposition (128) de la tâche de désignation (Di, Di+1) ou de la position de la tâche de désignation aux au moins des parties (28) d’images de scène ;
    e) répétition (130) des étapes a), b), c) et d) pour obtenir une séquence d’au moins des parties d’images.
  2. Procédé d’acquisition selon la revendication 1, dans lequel la première durée d’exposition (T1) est inférieure à 4 ms, de préférence inférieure à 1 ms.
  3. Procédé d’acquisition selon la revendication 1, dans lequel la deuxième durée d’exposition (T2) est supérieure à 4 ms, de préférence comprise entre 8 et 40 ms.
  4. Procédé d’acquisition selon l’une quelconque des revendications 1 à 3, qui comporte une durée inférieure à 10 ms, de préférence 5 ms entre le début de l’étape d’acquisition de ladite au moins une partie (24) d’image de désignation et le début de l’étape d’acquisition d’au moins des parties (28) d’images de scène.
  5. Procédé d’acquisition selon l’une quelconque des revendications 1 à 4, dans lequel le procédé comporte en outre une étape préalable (100) de paramétrage de la caméra bi-bande (6) par l’unité de traitement (8) afin que les premières fenêtres temporelles d’exposition (I1) soient synchronisées avec les instants d’émissions (ti, ti+1) des impulsions laser (Ei, Ei+1).
  6. Procédé d’acquisition selon la revendication 5, dans lequel le système d’acquisition comporte en outre un désignateur laser (12) connecté à l’unité de traitement (8), et dans lequel ladite étape de paramétrage (100) comporte les étapes suivantes :
    - transmission (102) des instants d’émission (ti, ti+1) des impulsions laser du désignateur laser (12) à l’unité de traitement (8);
    - détermination (104, 106) de la fréquence d’émission et des instants de génération de premières fenêtres temporelles d’exposition (I1) de manière que chaque première fenêtre temporelle d’exposition soit centrée temporellement autour d’un instant d’émission (ti, ti+1) d’une impulsion laser,
    - transmission (108) des instants de génération de premières fenêtres temporelles d’exposition (I1) de l’unité de traitement (8) à la caméra bi-bande (6).
  7. Procédé d’acquisition selon l’une quelconque des revendications 1 à 6, qui comporte en outre les étapes suivantes :
    - acquisition (114) d’au moins une partie (26) d’une image de calibration, ladite au moins une partie (26) d’une image de calibration étant acquise au cours d’une fenêtre temporelle de calibration (Ic) subséquente à la première fenêtre temporelle d’exposition (T1), la fenêtre temporelle de calibration (Ic) présentant une durée sensiblement égale à la première durée d’exposition (T1),
    - soustraction (118) de ladite au moins une partie (26) d’une image de calibration à ladite au moins une partie (24) d’une image de désignation pour obtenir au moins une partie d’image représentant uniquement la tâche de désignation, ladite au moins une partie d’image représentant uniquement la tâche de désignation étant utilisée en tant que au moins une partie (24) d’image de désignation pour mettre en œuvre l’étape de détermination de la position de la tâche de désignation.
  8. Procédé d’acquisition selon la revendication 7, dans lequel le procédé comprend plusieurs cycles, et dans lequel la partie d’image représentant uniquement la tâche de désignation obtenue au cours de l’étape de soustraction du premier cycle est additionnée à la partie d’image représentant uniquement la tâche de désignation obtenue au cours de l’étape de soustraction du deuxième cycle.
  9. Procédé d’acquisition selon l’une quelconque des revendications 1 à 7, dans lequel la caméra bi-bande (6) est apte à acquérir des images de désignation (18) comprenant N lignes et M colonnes, N et M étant des entiers naturels, et dans lequel uniquement une partie (24) de l’image de désignation est acquise, ladite partie (24) de l’image de désignation acquise comprenant entre 50% et 10 % des N lignes et des M colonnes.
    Avantageusement, ce fenêtrage permet de conserver une fréquence d’acquisition des images suffisamment importante pour permettre une visualisation fluide et non saccadée de la séquence d’images.
  10. Procédé d’acquisition selon l’une quelconque des revendications 1 à 7, dans lequel la caméra bi-bande (6) est apte à acquérir des images de scène (22) comprenant N lignes et M colonnes, N et M étant des entiers naturels, et dans lequel uniquement une partie (28) de l’image de scène est acquise, ladite partie (28) de l’image de scène acquise comprenant entre 100% et 30% des N lignes et des M colonnes.
  11. Système d’acquisition (2) d’une séquence d’au moins des parties d’images permettant de visualiser le pointage d’une cible (4) par un désignateur laser (12) , le désignateur laser (12) étant propre à émettre des impulsions lasers (Ei, Ei+1) en direction de la cible (4) et à générer des tâches de désignation (Di, Di+1), les impulsions lasers étant émises à une fréquence d’émission et à une longueur d’onde appartenant à une première bande de longueurs d’onde (λ1), le système d’acquisition (2) comprenant :
    - un imageur bi-bande (6) apte à capter un signal optique dans la première bande de longueurs d’onde (λ1) et dans l’infra-rouge, l’imageur bi-bande (6) étant propre à acquérir au moins une partie (18) d’une image de désignation et au moins des parties (28) d’images de scène, ladite au moins une partie (18) d’une image de désignation étant acquise dans une première fenêtre temporelle d’exposition (I1) synchronisée avec une émission (ti, ti+1) d’une impulsion laser, ladite première fenêtre temporelle d’exposition (I1) présentant une première durée d’exposition (T1), lesdites au moins une partie (28) des images de scène étant acquises dans une deuxième fenêtre temporelle d’exposition (I2) présentant une deuxième durée d’exposition (T2), la deuxième durée d’exposition (T2)étant au moins quatre fois supérieure à la première durée d’exposition (T1) ; et
    - une unité de traitement (8) adaptée pour traiter les au moins une partie (24) d’images de désignation et les au moins des parties (28) d’images de scènes pour obtenir une séquence d’au moins des parties d’images, l’unité de traitement (8) étant propre à déterminer la position de la tâche de désignation (Di, Di+1) à partir de ladite au moins une partie (24) d’image de désignation et à superposer la position de la tâche de désignation sur les au moins des parties (28) d’images de scène.
FR2012577A 2020-12-03 2020-12-03 Procédé d’acquisition d’une séquence de parties d’images et système d’acquisition associé Pending FR3117219A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2012577A FR3117219A1 (fr) 2020-12-03 2020-12-03 Procédé d’acquisition d’une séquence de parties d’images et système d’acquisition associé

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2012577A FR3117219A1 (fr) 2020-12-03 2020-12-03 Procédé d’acquisition d’une séquence de parties d’images et système d’acquisition associé
FR2012577 2020-12-03

Publications (1)

Publication Number Publication Date
FR3117219A1 true FR3117219A1 (fr) 2022-06-10

Family

ID=75108443

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2012577A Pending FR3117219A1 (fr) 2020-12-03 2020-12-03 Procédé d’acquisition d’une séquence de parties d’images et système d’acquisition associé

Country Status (1)

Country Link
FR (1) FR3117219A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025068035A1 (fr) * 2023-09-28 2025-04-03 Thales Camera thermique adaptee pour l'exploitation d'un designateur en bande d'infra-rouge reflechi

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3054893A1 (fr) 2016-08-03 2018-02-09 Safran Electronics & Defense Dispositif de filtrage destine a detecter, dans un signal optique, au moins une longueur d'onde emise par un laser et une bande de longueurs d'ondes infrarouges
US9897688B2 (en) * 2013-11-30 2018-02-20 Bae Systems Information And Electronic Systems Integration Inc. Laser detection and image fusion system and method
FR3088790A1 (fr) * 2018-11-20 2020-05-22 Safran Electronics & Defense Appareil et procédé pour observer une scène comportant une cible

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9897688B2 (en) * 2013-11-30 2018-02-20 Bae Systems Information And Electronic Systems Integration Inc. Laser detection and image fusion system and method
FR3054893A1 (fr) 2016-08-03 2018-02-09 Safran Electronics & Defense Dispositif de filtrage destine a detecter, dans un signal optique, au moins une longueur d'onde emise par un laser et une bande de longueurs d'ondes infrarouges
FR3088790A1 (fr) * 2018-11-20 2020-05-22 Safran Electronics & Defense Appareil et procédé pour observer une scène comportant une cible

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SPIE, PO BOX 10 BELLINGHAM WA 98227-0010 USA, 20 May 2005 (2005-05-20), XP040211393 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025068035A1 (fr) * 2023-09-28 2025-04-03 Thales Camera thermique adaptee pour l'exploitation d'un designateur en bande d'infra-rouge reflechi
FR3153657A1 (fr) * 2023-09-28 2025-04-04 Thales Caméra thermique adaptée pour l'exploitation d'un désignateur en bande d'infra-rouge réfléchi

Similar Documents

Publication Publication Date Title
EP0425333B1 (fr) Dispositif de localisation en temps réel de sources de rayonnement
CA1256967A (fr) Systeme pour la localisation d'un mobile
US7139067B2 (en) Three-dimensional imaging with multiframe blind deconvolution
US20190166355A1 (en) System and method of reducing ambient background light in a pulse-illuminated image
EP1040339A1 (fr) Dispositif d'analyse non destructive de plantes et vehicule comportant un tel dispositif embarque
EP3720115B1 (fr) Procédé d'imagerie avec lumière pulsée
EP3627210A1 (fr) Système de vision en réalité virtuelle ou augmentée avec capteur d'image de l'oeil, et procédé associé
EP0920677B1 (fr) Procede et dispositif de reconnaissance air-sol pour equipement optronique
FR2740558A1 (fr) Procede de detection par designation laser et dispositif d'ecartometrie a detecteur matriciel correspondant
FR3117219A1 (fr) Procédé d’acquisition d’une séquence de parties d’images et système d’acquisition associé
WO2012007692A1 (fr) Procédé et dispositif d'imagerie bi-spectral multifonctions
Langof et al. Advanced multi-function infrared detector with on-chip processing
EP2420052B1 (fr) Procédé et système d'imagerie active á champ large
US20050253927A1 (en) Near infrared illuminated tripwire detector
EP0907284A1 (fr) Dispositif photosensible à couplage et accumulation de charges et lidar incorporant un tel dispositif
CA3046174C (fr) Systeme de detection de rayonnements electromagnetiques
EP3884656B1 (fr) Appareil et procédé pour observer une scène comportant une cible
EP2520916A1 (fr) Télescope multispectral à balayage comportant des moyens d'analyse de front d'onde
WO2023094409A1 (fr) Procede et dispositif de visualisation d'impacts d'impulsions laser sur une cible
FR3148092A1 (fr) Gestion d’échec de télémétrie de moteurs de balayage
FR2612391A1 (fr) Dispositif d'observation de l'oeil utilisant la reflexion infrarouge sur le globe oculaire
EP0902301B1 (fr) Dispositif d'observation opto-électronique perfectionné pour détecter les tirs laser
FR3152872A1 (fr) Dispositif de pointage d'une cible
FR3140678A1 (fr) Appareil de suivi d’une désignation d’au moins une cible et système de désignation correspondant
WO2007042641A1 (fr) Dispositif et procede d’imagerie en luminescence

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20220610

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载