DE102017211081A1 - Apparatus and method for finding a change in a scene - Google Patents
Apparatus and method for finding a change in a scene Download PDFInfo
- Publication number
- DE102017211081A1 DE102017211081A1 DE102017211081.3A DE102017211081A DE102017211081A1 DE 102017211081 A1 DE102017211081 A1 DE 102017211081A1 DE 102017211081 A DE102017211081 A DE 102017211081A DE 102017211081 A1 DE102017211081 A1 DE 102017211081A1
- Authority
- DE
- Germany
- Prior art keywords
- images
- time interval
- image
- recording
- pictures
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20088—Trinocular vision calculations; trifocal tensor
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
Die Erfindung bezieht sich auf ein Vorrichtung (1) zum Auffinden von Veränderungen in einer Szenerie (100). Eine erste Ermittlungsvorrichtung (10) ermittelt ausgehend von drei Bildern (P1, P2, P3), denen Aufnahmezeitpunkte (T1, T2, T3) zugeordnet sind und die unterschiedliche Perspektiven aufweisen, Daten eines Trifokaltensors. Die Aufnahmezeitpunkte (T1, T2) von zwei Bildern (P1, P2) gehören zu einem ersten Zeitintervall (I1) und der Aufnahmezeitpunkt (T3) eines dritten Bildes (P3) gehört zu einem zweiten Zeitintervall (I2). Ein zeitlicher Abstand (dt1) zwischen den Aufnahmezeitpunkten (T1, T2) der zwei Bilder (P1, P2) des ersten Zeitintervalls (I1) ist kleiner als ein zeitlicher Abstand (dt2) zwischen dem ersten (I1) und dem zweiten Zeitintervall (I2). Eine zweite Ermittlungsvorrichtung (20) ermittelt für die zwei Bilder (P1, P2) des ersten Zeitintervalls (I1) Daten einer pixelweisen Zuordnung. Eine Bildbearbeitungsvorrichtung (30) stellt ausgehend von den drei Bildern (P1, P2, P3), den Daten des Trifokaltensors und den Daten der pixelweisen Zuordnung zwei Vergleichsbilder (C1, C2) bereit, welche die Szenerie (100) aus derselben Perspektive zeigen. Eine Vergleichsvorrichtung (40) wertet die Vergleichsbilder (C1, C2) dahingehend aus, ob ein Unterschied besteht. Weiterhin bezieht sich die Erfindung auf ein entsprechendes Verfahren.The invention relates to a device (1) for detecting changes in a scene (100). A first determination device (10) determines, based on three images (P1, P2, P3) to which recording times (T1, T2, T3) are assigned and which have different perspectives, data of a trifocal senor. The recording times (T1, T2) of two pictures (P1, P2) belong to a first time interval (I1) and the recording time (T3) of a third picture (P3) belongs to a second time interval (I2). A time interval (dt1) between the acquisition times (T1, T2) of the two images (P1, P2) of the first time interval (I1) is less than a time interval (dt2) between the first (I1) and the second time interval (I2) , A second determination device (20) determines data of a pixel-by-pixel assignment for the two images (P1, P2) of the first time interval (I1). An image processing device (30) provides two comparison images (C1, C2) showing the scene (100) from the same perspective, starting from the three images (P1, P2, P3), the data of the trifocal sensor, and the data of the pixel-by-pixel assignment. A comparison device (40) evaluates the comparison images (C1, C2) as to whether there is a difference. Furthermore, the invention relates to a corresponding method.
Description
Die Erfindung bezieht sich auf eine Vorrichtung zum Auffinden mindestens einer Veränderung in einer Szenerie. Weiterhin bezieht sich die Erfindung auf ein Verfahren zum Auffinden mindestens einer Veränderung in einer Szenerie.The invention relates to a device for finding at least one change in a scene. Furthermore, the invention relates to a method for finding at least one change in a scene.
Derzeit setzt es eine bildbasierte Änderungsdetektion voraus, dass die Aufnahmen, die eine Szene vor und nach einem Ereignis abbilden, aus möglichst identischer Perspektive aufgenommen worden sind. Dies kann jedoch nur in Ausnahmefällen gewährleistet werden.Currently, image-based change detection requires that the images that depict a scene before and after an event have been taken from the same perspective as possible. However, this can only be guaranteed in exceptional cases.
Wenn Bilder einen deutlichen Unterschied in ihrer Perspektive aufweisen, sind je nach Beschaffenheit der Szene, Oberflächen nur in einem Bild sichtbar (Verdeckungen) und es treten Parallaxeneffekte auf. Hinsichtlich der Verdeckung ist entsprechend unklar, welche Bildregionen für eine Änderungsdetektion überhaupt vergleichbar sind. Hinsichtlich der Parallaxeneffekte sind geometrische Schätzungen oder detaillierte Modelle der Szene erforderlich, um die korrespondierenden Bildregionen vergleichen zu können.If images show a clear difference in their perspective, depending on the nature of the scene, surfaces are only visible in one image (occlusions) and parallax effects occur. Concerning the occlusion, it is unclear which image regions are comparable for a change detection. With respect to parallax effects, geometric estimates or detailed models of the scene are required to compare the corresponding image regions.
Einige Ansätze werden im Folgenden kurz skizziert.Some approaches are briefly outlined below.
D-ÄnderungsdetektionD-change detection
Eine Möglichkeit besteht in der Beschreibung der Geometrie des Zweibildfalls, also des Falls, dass von einem Objekt bzw. einer Szenerie zwei Bilder vorliegen, mittels der Homographie.One possibility is described in the description of the geometry of the two-image case, that is, the case of two images of an object or a scene, by means of homography.
Die Homographie als geometrisches Modell des Zweibildfalls ermöglicht eine pixelweise Zuordnung zwischen zwei Bildern, ohne dass aufwändige dichte Tiefenschätzungsverfahren zur Anwendung kommen müssen.Homography as a geometric model of the two-image case allows pixel-by-pixel mapping between two images without the need for complex dense depth estimation techniques.
Die pixelweise Zuordnung auf Grundlage der Homographie ist jedoch nur in drei Spezialfällen über alle Bildregionen korrekt, nämlich bei identischer Aufnahmeposition, unendlich großem Abstand zur Szene oder einer gänzlich ebenen Szene. Für die meisten Anwendungsfälle trifft keine dieser Spezialfälle zu. Dementsprechend kommen in der Regel Korrekturverfahren zur Anwendung, welche die Epipolargeometrie einbeziehen und Fehler durch Parallaxeneffekte weitgehend kompensieren können. Das Problem der Verdeckungen ist mit dieser Vorgehensweise konzeptionell unlösbar.However, the pixel-by-pixel assignment on the basis of homography is correct only in three special cases over all image regions, namely with identical recording position, infinitely large distance to the scene or a completely flat scene. For most applications, none of these special cases apply. Correspondingly, as a rule, correction methods are used which include the epipolar geometry and can largely compensate for errors due to parallax effects. The problem of occlusion is conceptually insoluble with this approach.
Die für die Änderungsdetektion vermutlich am häufigsten umgesetzte Methode zur pixelweisen Zuordnung ist die Generierung von 2D-Bildmosaiken (Stitching), wie Szeliski (2006) es beschreibt. Vorher- und Nachher-Bilder einer Szene werden ohne Berücksichtigung der Geometrie der Szene jeweils zu einem großen Bild zusammengesetzt und anschließend verglichen.The most commonly used method for pixel-wise mapping for change detection is the generation of 2D image mosaics (stitching), as described by Szeliski (2006). Before and after pictures of a scene are combined to form a large picture without considering the geometry of the scene, and then compared.
Ein solcher globaler Ansatz hat durch die Nichtberücksichtigung der Geometrie der Szene jedoch erhebliche konzeptionelle Schwächen und führt deshalb nur in Ausnahmefällen zu akzeptablen Ergebnissen.However, such a global approach has significant conceptual weaknesses by ignoring the geometry of the scene, and therefore leads to acceptable results only in exceptional cases.
Konzeptionell ähnlich ist die Generierung von True-Orthobildern anstelle von Bildmosaiken. In diesem Fall wird mittels absoluter Orientierung und dichter Tiefenschätzung oder einem vorhandenen Höhenmodell ein zusammengesetztes Bild erstellt, welches die Geometrie einer Szene berücksichtigt. Das Gesamtbild wird so aufbereitet, als wäre es komplett aus Nadirsicht aufgenommen. Bei einer entsprechend genauen Vorgehensweise können die True-Orthobilder für eine Änderungsdetektion verglichen werden.Conceptually similar is the generation of true ortho images instead of image mosaics. In this case, using absolute orientation and dense depth estimation or an existing elevation model, a composite image is created that takes into account the geometry of a scene. The overall picture is processed as if it were completely taken from nadir view. With a correspondingly accurate procedure, the true ortho images can be compared for a change detection.
Problematisch ist, dass die Zuverlässigkeit und Genauigkeit der dichten Tiefenschätzung in der Regel nicht für alle Bildregionen gleich hoch ist. Beim Vergleich für die Änderungsdetektion muss dementsprechend eine Plausibilitätsüberprüfung einbezogen werden. Zudem ist die Bestimmung der absoluten Orientierung und der dichten Tiefenschätzung rechenintensiv, sodass eine echtzeitfähige Realisierung mit entsprechender Zuverlässigkeit und Genauigkeit kaum möglich erscheint.The problem is that the reliability and accuracy of the dense depth estimation is generally not the same for all image regions. When comparing for change detection, a plausibility check must be included accordingly. In addition, the determination of the absolute orientation and the dense depth estimation is computationally intensive, so that a real-time capable realization with corresponding reliability and accuracy hardly seems possible.
Verwendung von 2,5D- und 3D-ReferenzmodellenUse of 2.5D and 3D reference models
Die Verwendung von 2,5D- (Höhenmodelle) oder Voll-3D-Oberflächenreferenzmodellen der Szene erlaubt den Umgang mit dem Problem der Parallaxeneffekte als auch der Verdeckungen.The use of 2.5D (elevation models) or full 3D surface reference models of the scene allows dealing with the problem of parallax effects as well as occlusions.
Die Bilder, die eine Szene vor und nach einem Ereignis abbilden, werden gegen das Referenzmodell registriert. Auf diese Weise kann auf Grundlage der Sehstrahlen unmittelbar bestimmt werden, welche Oberflächen in welchem Bild sichtbar sind und welchen Abstand sie bei der Aufnahme von der Kamera hatten.The images that depict a scene before and after an event are registered against the reference model. In this way, it can be determined directly on the basis of the visual rays, which surfaces are visible in which image and what distance they had when shooting from the camera.
Nachteilig ist, dass die Anforderungen an den Detaillierungsgrad und an den Aufnahmezeitpunkt der Referenzmodelle sehr hoch sind und nur für wenige Anwendungsfälle gewährleistet werden können.The disadvantage is that the demands on the level of detail and the recording time of the reference models are very high and can be guaranteed only for a few applications.
Volumenschätzungvolume estimation
Bildbasierte, euklidische 2,5D- oder Voll-3D-Oberflächenrekonstruktionsverfahren ermöglichen die Modellierung einer Szene, sodass die Zu- oder Abnahme des Volumens als Indikator für die Änderungsdetektion verwendet werden kann.Image-based, Euclidean 2.5D or full 3D surface reconstruction techniques allow the modeling of a scene so that the input or output of a scene is enhanced Decrease in volume can be used as an indicator of change detection.
Die Anforderungen an die Verfahren zur Bildregistrierung, zur dichten Tiefenschätzung und zur Oberflächenrekonstruktion bezüglich der verwendeten Sensorik sowie an die Genauigkeit und Performance sind jedoch ggf. hoch bis sehr hoch. Zudem ist eine genaue Kenntnis oder Schätzung der intrinsischen Kameraparameter zwingend erforderlich.However, the requirements for image registration, dense depth estimation, and surface reconstruction for the sensors used, as well as accuracy and performance, may be high to very high. In addition, a precise knowledge or estimation of the intrinsic camera parameters is mandatory.
Grundsätzlich weisen alle durch derartige Verfahren rekonstruierten Oberflächen ein Rauschen auf, sodass die gesuchten Änderungen deutlich hervorstechen müssen, um zuverlässig erkannt zu werden.In principle, all surfaces reconstructed by such methods have a noise, so that the changes sought must stand out clearly in order to be reliably recognized.
Mögliche Anwendungen einer Änderungsdetektion sind die Überwachung gefährdeter Infrastruktur für die zivile Sicherheit und Verteidigung. Dabei lassen sich beispielsweise Bilder von bemannten oder unbemannten Luftfahrzeugen verwenden. Eine andere Anwendung ist beispielsweise die Schadensfeststellung für das Versicherungswesen auf Grundlage von Satelliten- und Luftbildern.Possible applications of change detection include the monitoring of vulnerable infrastructure for civil security and defense. In this case, for example, images of manned or unmanned aerial vehicles can be used. Another application is, for example, damage assessment for the insurance industry based on satellite and aerial imagery.
Der Erfindung liegt daher die Aufgabe zugrunde, eine Vorrichtung und ein Verfahren zum Auffinden von Veränderungen in einer Szenerie vorzuschlagen, die möglichst einfach realisierbar sind.The invention is therefore based on the object of proposing a device and a method for finding changes in a scenery, which are as simple as possible.
Die Erfindung löst die Aufgabe durch eine Vorrichtung zum Auffinden mindestens einer Veränderung in einer Szenerie.The invention achieves the object by a device for finding at least one change in a scene.
Die Vorrichtung weist eine erste Ermittlungsvorrichtung, eine zweite Ermittlungsvorrichtung, eine Bildbearbeitungsvorrichtung sowie eine Vergleichsvorrichtung auf. Die erste Ermittlungsvorrichtung ist derartig ausgestaltet, ausgehend von mindestens drei Bildern der Szenerie Daten eines Trifokaltensors zu ermitteln. Den drei Bildern sind Aufnahmezeitpunkte zugeordnet. Die Aufnahmezeitpunkte von zwei Bildern der drei Bilder gehören zu einem ersten Zeitintervall. Die zwei Bilder des ersten Zeitintervalls weisen jeweils unterschiedliche Perspektiven relativ zur Szenerie auf. Der Aufnahmezeitpunkt eines dritten Bildes der drei Bilder gehört zu einem zweiten Zeitintervall. Das dritte Bild des zweiten Zeitintervalls weist eine andere Perspektive relativ zu der Szenerie als die zwei Bilder des ersten Zeitintervalls auf. Ein zeitlicher Abstand zwischen den Aufnahmezeitpunkten der zwei Bilder des ersten Zeitintervalls ist kleiner als ein zeitlicher Abstand zwischen dem ersten Zeitintervall und dem zweiten Zeitintervall. Die zweite Ermittlungsvorrichtung ist derartig ausgestaltet, mindestens für die zwei Bilder des ersten Zeitintervalls Daten einer pixelweisen Zuordnung zwischen den zwei Bildern zu ermitteln. Die Bildbearbeitungsvorrichtung ist derartig ausgestaltet, ausgehend von den mindestens drei Bildern sowie ausgehend von den ermittelten Daten des Trifokaltensors und den ermittelten Daten der pixelweisen Zuordnung mindestens zwei Vergleichsbilder bereitzustellen. Die mindestens zwei Vergleichsbilder weisen im Wesentlichen die gleiche Perspektive auf die Szenerie auf und sind unterschiedlichen Zeitintervallen zugeordnet. Die Vergleichsvorrichtung ist derartig ausgestaltet, die zwei Vergleichsbilder dahingehend auszuwerten, ob mindestens ein Unterschied zwischen den zwei Vergleichsbildern besteht, und ausgehend von der Auswertung ein Vergleichsergebnis zu erzeugen.The device has a first determination device, a second determination device, an image processing device and a comparison device. The first determination device is designed to determine data from a trifocal sensor based on at least three images of the scene. The three pictures are assigned recording times. The recording times of two pictures of the three pictures belong to a first time interval. The two images of the first time interval each have different perspectives relative to the scenery. The recording time of a third image of the three images belongs to a second time interval. The third image of the second time interval has a different perspective relative to the scene than the two images of the first time interval. A time interval between the acquisition times of the two images of the first time interval is smaller than a time interval between the first time interval and the second time interval. The second determination device is designed in such a way, at least for the two images of the first time interval, to determine data of a pixel-by-pixel association between the two images. The image processing apparatus is configured to provide at least two comparison images based on the at least three images and on the determined data of the trifocal sensor and the determined data of the pixel-by-pixel assignment. The at least two comparison images have substantially the same perspective on the scene and are assigned to different time intervals. The comparison device is designed in such a way to evaluate the two comparison images as to whether at least one difference exists between the two comparison images, and to generate a comparison result on the basis of the evaluation.
Die Vorrichtung wertet zumindest drei Bilder der Szenerie aus, die die Szenerie jeweils aus unterschiedlichen Perspektiven zeigen. Zwei der Bilder entstammen einem ersten Zeitintervall und liegen in Bezug auf ihre Aufnahmezeitpunkte relativ nah beieinander bzw. sind sogar zeitgleich aufgenommen worden. Das verbleibende dritte Bild entstammt einem zweiten Zeitintervall. Dabei liegen die zwei Zeitintervalle weiter voneinander entfernt als die zwei Bilder des ersten Zeitintervalls. Zwischen den beiden Zeitintervallen findet beispielsweise ein Ereignis statt, das zu einer Änderung der Szenerie führt oder führen könnte. Ob es eine Änderung gab, wird von der Vorrichtung ermittelt.The device evaluates at least three images of the scenery, each showing the scene from different perspectives. Two of the images come from a first time interval and are relatively close to each other in terms of their recording times or have even been recorded at the same time. The remaining third image comes from a second time interval. The two time intervals are farther apart than the two images of the first time interval. For example, an event takes place between the two time intervals that leads or could lead to a change in the scene. Whether there was a change is determined by the device.
Für das Auffinden der Veränderung oder der Veränderungen werden für die drei Bilder die Daten eines Trifokaltensors ermittelt und werden für die zwei - zeitgleichen oder zeitlich benachbarten - Bilder Daten einer pixelweisen Zuordnung ermittelt. Mit den Daten werden dann zwei Vergleichsbilder mit gleicher Perspektive und aus den beiden unterschiedlichen Zeitintervallen ermittelt. Aus den beiden Vergleichsbildern mit passenden Perspektiven, aber unterschiedlichen Zeitintervallen lassen sich dann Veränderungen erkennen.For finding the change or the changes, the data of a trifocal sensor are determined for the three images, and data of a pixel-by-pixel assignment is determined for the two images, which are simultaneous or temporally adjacent. With the data then two comparison images are determined with the same perspective and from the two different time intervals. From the two comparative images with suitable perspectives but different time intervals, changes can then be recognized.
In einer Ausgestaltung ist vorgesehen, dass die Vorrichtung eine Korrekturvorrichtung aufweist. Dabei ist die Korrekturvorrichtung derartig ausgestaltet, bei Eingangsbildern Verzeichnungsfehler zu erkennen und verzeichnungsfreie Bilder und/oder Korrekturdaten bereitzustellen. In dieser Ausgestaltung werden somit durch die Korrekturvorrichtung Linsenfehler korrigiert oder es werden zumindest Daten ermittelt, die es für die weiteren Schritte erlauben, die Auswirkungen der Linsenfehler zu berücksichtigen.In one embodiment, it is provided that the device has a correction device. In this case, the correction device is configured to recognize distortion errors in input images and to provide distortion-free images and / or correction data. In this refinement, lens correction errors are thus corrected by the correction device or at least data are determined which allow the further steps to take into account the effects of lens aberrations.
Eine Ausgestaltung besteht darin, dass die erste Ermittlungsvorrichtung derartig ausgestaltet ist, für die Ermittlung der Daten des Trifokaltensors die Pixelinformation bezüglich mindestens eines Bildes zu verwenden.An embodiment consists in that the first determination device is designed in such a way to use the pixel information with regard to at least one image for the determination of the data of the trifocal sensor.
Alternativ oder ergänzend besteht eine Ausgestaltung darin, dass die erste Ermittlungsvorrichtung derartig ausgestaltet ist, für die Ermittlung der Daten des Trifokaltensors Daten bezüglich mindestens einer Aufnahmebedingung mindestens eines Bildes zu verwenden.Alternatively or additionally, there is an embodiment in that the first determination device is configured in such a way for determining the Trifocal Values Data should be used for at least one image condition of at least one image.
In einer Ausgestaltung ist vorgesehen, dass sich mindestens eine Aufnahmebedingung auf eine Position einer für die Aufnahme eines Bildes verwendeten Aufnahmevorrichtung relativ zur Szenerie oder absolut bezieht.In one embodiment, it is provided that at least one recording condition relates to a position of a recording device used for recording an image relative to the scenery or absolutely.
Alternativ oder ergänzend bezieht sich die mindestens eine Aufnahmebedingung auf eine Orientierung einer für die Aufnahme eines Bildes verwendeten Aufnahmevorrichtung relativ zur Szenerie oder absolut.Alternatively or additionally, the at least one recording condition relates to an orientation of a recording device used to record an image relative to the scenery or absolutely.
Alternativ oder ergänzend bezieht sich die mindestens eine Aufnahmebedingung auf intrinsische Parameter einer für die Aufnahme eines Bildes verwendeten Aufnahmevorrichtung bezieht.Alternatively or additionally, the at least one recording condition relates to intrinsic parameters of a recording device used to record an image.
Bei der Ermittlung der Daten des Trifokaltensors werden somit Aufnahmebedingungen - oder spezieller: Daten, die diese Aufnahmebedingungen beschreiben - verwendet. Dabei wird insbesondere Rücksicht genommen auf die Aufnahmevorrichtung - z. B. die Kamera - für die Erzeugung der Bilder.When determining the data of the trifocal sensor, recording conditions are used - or more specifically: data describing these recording conditions. Particular consideration is given to the recording device -. As the camera - for the generation of images.
Die Aufnahmebedingungen beziehen sich daher je nach Ausgestaltung bzw. je nach Verfügbarkeit der Daten auf die Position der Aufnahmevorrichtung relativ zur Szenerie und/oder auf die Orientierung der Aufnahmevorrichtung relativ zur Szenerie. Relevant ist somit, wo sich die Aufnahmevorrichtung relativ zur Szenerie oder absolut befindet und/oder wie die Aufnahmevorrichtung - oder insbesondere deren Optik - relativ zur Szenerie oder absolut ausgerichtet ist.Depending on the design or the availability of the data, the recording conditions therefore relate to the position of the recording device relative to the scenery and / or to the orientation of the recording device relative to the scenery. Thus, it is relevant where the recording device is relative to the scenery or absolutely and / or how the recording device - or in particular its optics - relative to the scenery or absolutely aligned.
Unter Aufnahmebedingungen seien dabei auch die intrinsischen Parameter der Aufnahmevorrichtung selbst verstanden. Der Einfluss der inneren Eigenschaften der Aufnahmevorrichtung wird somit ebenfalls ergänzend oder alternativ für die Ermittlung der Daten des Trifokaltensors beachtet.In this case, the intrinsic parameters of the recording device itself are to be understood as recording conditions. The influence of the internal properties of the recording device is thus also taken into account as a supplement or alternatively for the determination of the data of the trifocal senor.
Eine Ausgestaltung besteht darin, dass die Bilder des ersten Zeitintervalls Vorher-Bilder sind und das Bild des zweiten Zeitintervalls ein Nachher-Bild ist.An embodiment is that the images of the first time interval are before images and the image of the second time interval is a post-image.
In einer Ausgestaltung ist vorgesehen, dass die Bilder des ersten Zeitintervalls Nachher-Bilder sind und das Bild des zweiten Zeitintervalls ein Vorher-Bild ist.In one embodiment, it is provided that the images of the first time interval are after-images and the image of the second time interval is a before-image.
Die Bezeichnungen Vorher- und Nachher-Bilder beziehen sich dabei auf den größeren zeitlichen Abstand zwischen den zwei Zeitintervallen und/oder vor bzw. nach einem Ereignis. Weiterhin gehören je nach Ausgestaltung die Vorher-Bilder zum ersten Zeitintervall oder zum zweiten Zeitintervall. Entsprechend gehören die Nachher-Bilder zum zweiten Zeitintervall oder zum ersten Zeitintervall.The terms before and after pictures refer to the larger time interval between the two time intervals and / or before and after an event. Furthermore, depending on the embodiment, the before images belong to the first time interval or to the second time interval. Accordingly, the after-pictures belong to the second time interval or to the first time interval.
Eine Ausgestaltung besteht darin, dass die Aufnahmezeitpunkte der Bilder des ersten Zeitintervalls nahezu oder exakt gleich sind. In dieser Ausgestaltung wird der zeitliche Abstand zwischen den zwei Bildern des ersten Zeitintervalls somit möglichst verkürzt.One embodiment is that the recording times of the images of the first time interval are almost or exactly the same. In this embodiment, the time interval between the two images of the first time interval is thus shortened as possible.
Weiterhin löst die Erfindung die Aufgabe durch ein Verfahren zum Auffinden mindestens einer Veränderung in einer Szenerie.Furthermore, the invention achieves the object by a method for finding at least one change in a scene.
Das Verfahren umfasst dabei zumindest die folgenden Schritte:
- • Dass mindestens drei Bilder bereitgestellt werden, die Aufnahmezeitpunkten zugeordnet sind.
- • Dass ausgehend von den mindestens drei Bildern Daten eines Trifokaltensors oder einer äquivalenten Beschreibung der Geometrie des Dreibildfalls ermittelt werden.
- • Dass mindestens für die zwei Bilder des ersten Zeitintervalls Daten einer pixelweisen Zuordnung zwischen den zwei Bildern ermittelt werden.
- • Dass ausgehend von den mindestens drei Bildern sowie ausgehend von den ermittelten Daten des Trifokaltensors bzw. der äquivalenten Beschreibung und den ermittelten Daten der pixelweisen Zuordnung mindestens zwei Vergleichsbilder, die im Wesentlichen die gleiche Perspektive auf die Szenerie aufweisen und unterschiedlichen Zeitintervallen zugeordnet sind, bereitgestellt werden.
- • Dass die zwei Vergleichsbilder dahingehend ausgewertet werden, ob mindestens ein Unterschied zwischen den zwei Vergleichsbildern besteht.
- • Dass ausgehend von der Auswertung der zwei Vergleichsbilder ein Vergleichsergebnis erzeugt wird.
- • That at least three images are assigned, which are assigned to recording times.
- • That, on the basis of the at least three images, data of a trifocal sensor or an equivalent description of the geometry of the triple-fall case is determined.
- • That at least for the two images of the first time interval, data of a pixel-wise association between the two images are determined.
- • That at least two comparison images, which have substantially the same perspective on the scene and are assigned to different time intervals, are provided on the basis of the at least three images as well as on the basis of the determined data of the trifocal tensor or the equivalent description and the determined data ,
- • That the two comparison images are evaluated to determine if there is at least one difference between the two comparison images.
- • That a comparison result is generated starting from the evaluation of the two comparison images.
Die drei Bilder werden dabei so bereitgestellt, d. h. beispielweise passend ausgesucht oder erzeugt, dass die folgenden Bedingungen erfüllt sind:
- • Die Aufnahmezeitpunkte von zwei Bildern der drei Bilder gehören zu einem ersten Zeitintervall und der Aufnahmezeitpunkt eines dritten Bildes der drei Bilder gehört zu einem zweiten Zeitintervall.
- • Die zwei Bilder des ersten Zeitintervalls weisen unterschiedliche Perspektiven relativ zur Szenerie auf.
- • Das dritte Bild des zweiten Zeitintervalls weist eine andere Perspektive relativ zu der Szenerie als die zwei Bilder des ersten Zeitintervalls auf.
- • Ein zeitlicher Abstand zwischen den Aufnahmezeitpunkten der zwei Bilder des ersten Zeitintervalls ist kleiner als ein zeitlicher Abstand zwischen dem ersten Zeitintervall und dem zweiten Zeitintervall.
- • The recording times of two pictures of the three pictures belong to a first time interval and the recording time of a third picture of the three pictures belongs to a second time interval.
- • The two images of the first time interval have different perspectives relative to the scenery.
- The third image of the second time interval has a different perspective relative to the scene than the two images of the first time interval.
- • A time interval between the recording times of the two images of the first time interval is smaller than a time interval between the first time interval and the second time interval.
Die obigen Ausgestaltungen der Vorrichtung lassen sich auch durch Schritte von Ausgestaltungen des Verfahrens realisieren, sodass die Erläuterungen entsprechend gelten. Daher wird hier auf eine Wiederholung verzichtet.The above embodiments of the device can also be realized by steps of embodiments of the method, so that the explanations apply accordingly. Therefore, a repeat is omitted here.
Schließlich bezieht sich die Erfindung auf ein Computerprogramm mit einem Programmcode zur Durchführung des vorgenannten Verfahrens nach einer der Ausgestaltungen.Finally, the invention relates to a computer program with a program code for carrying out the aforementioned method according to one of the embodiments.
Bislang vorgestellte 2D-Änderungsverfahren haben sich grundsätzlich auf die Geometrie des Zweibildfalls beschränkt. Diese Vorgehensweise hat für die Änderungsdetektion einen entscheidenden Nachteil: Auch unter Einbeziehung geometrischer Plausibilität durch die Epipolargeometrie und dichte Tiefenschätzung ist bei der Durchführung der Änderungsdetektion nicht unterscheidbar, ob eine Oberfläche in nur einem Bild sichtbar ist oder ob eine Änderung in der Szene vorliegt. Die Verwendung von drei Bildern und die Bestimmung der Geometrie des Dreibildfalls ermöglicht geometrisch korrekte Bildtransformation, auch ohne eine euklidische Rekonstruktion.So far presented 2D-change methods have basically been limited to the geometry of the two-image case. This procedure has a decisive disadvantage for the change detection: Even when geometrical plausibility is taken into account by the epipolar geometry and dense depth estimation, it is indistinguishable when performing the change detection whether a surface is visible in only one image or if there is a change in the scene. The use of three images and the determination of the geometry of the three-frame case enables geometrically correct image transformation, even without a Euclidean reconstruction.
Der im Folgenden erläuterte Lösungsweg nutzt dabei folgenden Gegebenheiten:The solution described below uses the following conditions:
Die Erfindung sei noch einmal mit anderen Worten zusammengefasst.The invention is summarized again in other words.
Schritt 1: Bestimmung von dünnen PunktkorrespondenzenStep 1: Determination of thin point correspondences
Die zuverlässige Bestimmung von Punktkorrespondenzen (homologe Punkte) ist auch bei Aufnahmekonfigurationen möglich, für die eine pixelweise Zuordnung nicht sinnvoll möglich ist (Stewart 1999), (Mikolajczyk & Schmid 2004).The reliable determination of point correspondences (homologous points) is also possible with recording configurations for which a pixel-wise assignment is not meaningful (Stewart 1999), (Mikolajczyk & Schmid 2004).
Dies ist dabei ein Teil der Ermittlung der Daten des Trifokaltensors.This is part of the determination of the data of the Trifokaltensors.
Verfahren zur automatischen Bestimmung und Zuordnung von Punktkorrespondenzen in Bildern werden beispielsweise beschrieben von (Förstner & Gülch 1987), (Harris & Stephens 1988), (Lowe 2004) oder (Rublee et al. 2011).Methods for the automatic determination and assignment of point correspondences in images are described, for example, by (Förstner & Gülch 1987), (Harris & Stephens 1988), (Lowe 2004) or (Rublee et al., 2011).
Verfahren zur Kompensation von Fehlzuordnungen beschreiben (Fischler & Bolles 1981).Describe methods for compensating misallocations (Fischler & Bolles 1981).
In einer Ausgestaltung werden Verfahren zur lokalen Verbesserung von Bildkoordinaten verwendet, vgl. (Grün 1985) oder (Bethmann & Luhmann 2010).In one embodiment, methods for the local enhancement of image coordinates are used, cf. (Green 1985) or (Bethmann & Luhmann 2010).
In einer Ausgestaltung werden zudem Verfahren zur robusten Schätzung eines geometrischen Modells verwendet, vgl. (Torr 1998) oder (Stewart 1999).In one embodiment, methods for robust estimation of a geometric model are also used, cf. (Torr 1998) or (Stewart 1999).
Schritt 2: Bestimmung der Geometrie des DreibildfallsStep 2: Determination of the geometry of the triple fall
Auf Grundlage von Punktkorrespondenzen (homologe Punkte) kann die Geometrie des Dreibildfalls zuverlässig bestimmt werden (Hartley & Zisserman 2004).Based on point correspondences (homologous points), the geometry of the three-frame case can be reliably determined (Hartley & Zisserman 2004).
Dieser Schritt ist ebenfalls ein Teil der Ermittlung der Daten des Trifokaltensors.This step is also part of determining the data of the Trifocal tensor.
Für die Bestimmung der Geometrie des Dreibildfalls - also der Bearbeitung der drei Bilder
- - sind folgende Ausgestaltungen vorgesehen, die Alternativen oder Ergänzungen zueinander darstellen:
- In einer Ausgestaltung erfolgt die Bestimmung des unkalibrierten Dreibildfalls durch Sechs-Punkt-Korrespondenz und optional durch eine kleinste Quadrate-Optimierung, vgl. (Quan 1994), (Torr & Zisserman 1997) oder (Schaffalitzki et al. 2000).
- the following configurations are provided, which represent alternatives or additions to one another:
- In one embodiment, the determination of the uncalibrated three-frame case is effected by six-point correspondence and optionally by a least squares optimization, cf. (Quan 1994), (Torr & Zisserman 1997) or (Schaffalitzki et al., 2000).
In einer Ausgestaltung erfolgt die Bestimmung des kalibrierten Dreibildfalls ausgehend von zwei kalibrierten Zweibildfällen, vgl. (Carlson & Weinshall 1998, Nister 2005). Dabei erfolgt in einer Ausgestaltung zudem eine kleinste Quadrate-Optimierung, vgl. (Schaffalitzki et al. 2000).In one embodiment, the determination of the calibrated three-frame case is based on two calibrated two-image cases, cf. (Carlson & Weinshall 1998, Nister 2005). In addition, in one embodiment, a least squares optimization takes place, cf. (Schaffalitzki et al., 2000).
In einer Ausgestaltung werden Projektionsmatrizen verwendet, welche als Ergebnis aus einer relativen oder absoluten Orientierung eines Vielbildfalls vorliegen.In one embodiment, projection matrices are used which are present as a result of a relative or absolute orientation of a multiple image case.
Dabei werden in einer Ausgestaltung drei Projektionsmatrizen ausgewählt und es wird unmittelbar der Trifokaltensor ermittelt. Zu Details siehe (Hartley & Zisserman 2004). In einer Ausgestaltung erfolgt optional eine kleinste Quadrate-Optimierung, vgl. (Schaffalitzki et al. 2000).In this case, in one embodiment, three projection matrices are selected and the Trifokaltensor is determined directly. For details see (Hartley & Zisserman 2004). In one embodiment, a least-squares optimization optionally takes place, cf. (Schaffalitzki et al., 2000).
In einer weiteren Ausgestaltung werden Projektionsmatrizen verwendet, die durch geeignete Sensorik und vorzugsweise deren GNSS-Daten (GNSS von global navigation satellite system, globales Navigationssatellitensystem) gegeben sind. Daraus werden ebenfalls unmittelbar die Daten des Trifokaltensors ermittelt, vgl. (Hartley & Zisserman 2004). Optional erfolgt eine kleinste Quadrate-Optimierung, vgl. (Schaffalitzky et al. 2000).In a further embodiment projection matrices are used which are given by suitable sensors and preferably their GNSS data (GNSS from global navigation satellite system, global navigation satellite system). The data of the trifocal senor are also determined directly from this, cf. (Hartley & Zisserman 2004). Optionally, a least squares optimization is performed, cf. (Schaffalitzky et al., 2000).
In einer Ausgestaltung findet eine Erweiterung auf die Bestimmung und entsprechende Verwendung eines Quadrifokaltensors statt, vgl. (Triggs 1995, Hartley 1998), sofern vier oder mehr Bilder vorhanden sind, welche die Szenerie zeigen.In one embodiment, an extension to the determination and corresponding use of a quadrifocal senors takes place, cf. (Triggs 1995, Hartley 1998) as long as there are four or more pictures showing the scene.
Schritt 3: Bestimmung von dichten Punktkorrespondenzen (pixelweise Zuordnung)Step 3: Determination of dense point correspondences (pixel-wise assignment)
Für ein Bildtriplet wird ein Bildpaar so akquiriert, dass es möglichst gut geeignet ist für eine pixelweise Zuordnung. Die Akquise dieses Bildpaares ist nicht an den Aufnahmezeitpunkt des dritten Bildes gebunden. Es ist sowohl eine monokulare als auch eine Stereo-Aufnahmekonfiguration möglich. Die pixelweise Zuordnung für das Bildpaar, welches die Szenerie zu einem quasi identischen Zeitpunkt abbildet, erfolgt in einer Ausgestaltung als globale Lösung z. B. in Form eines optischen Flusses, mit oder ohne Einbeziehung der geometrischen Plausibilität oder durch nicht globale Tiefenschätzung, vgl. (Lucas & Kanade 1981), (Brox et al. 2004) oder (Hirschmüller 2008). Für letzteren Ansatz ist planare wie polare Rektifizierung der Bilder gleichermaßen denkbar (Pollefeys et al. 2004).For an image triplet, a pair of images is acquired in such a way that it is as suitable as possible for a pixel-by-pixel assignment. The acquisition of this image pair is not bound to the recording time of the third image. Both monocular and stereo recording configurations are possible. The pixel-by-pixel assignment for the image pair, which depicts the scene at a virtually identical point in time, takes place in one embodiment as a global solution z. In the form of an optical flow, with or without the inclusion of geometric plausibility, or by non-global depth estimation, cf. (Lucas & Kanade 1981), (Brox et al., 2004) or (Hirschmüller, 2008). For the latter approach, planar and polar rectification of the images is equally conceivable (Pollefeys et al., 2004).
Schritt 4: Angleichung der Perspektive zwischen Vorher- und Nachher-Bildern.Step 4: Align the perspective between before and after pictures.
In diesem Schritt wird unter Verwendung des ermittelten Trifokaltensors und der pixelweisen Zuordnung für das Bildpaar, welches die Szene zum quasi identischen Zeitpunkt abbildet, die Transformation einer oder mehrerer Perspektiven der drei Bilder vorgenommen, vgl. (Avidan & Shashua 1997), (Connor & Reid 2002).In this step, using the determined Trifokaltensors and the pixel-by-pixel assignment for the image pair, which images the scene at a virtually identical time, the transformation of one or more perspectives of the three images is made, see. (Avidan & Shashua 1997), (Connor & Reid 2002).
In einer Ausgestaltung wird einer relativen oder absolute Orientierung in Verbindung mit einem vorhandenen, berechneten oder mittels RGB-D Kameras ermittelten groben Höhenmodells verwendet für eine grobe Transformation der Perspektiven der Bilder.In one embodiment, a relative or absolute orientation in conjunction with an existing, calculated or determined by RGB-D cameras coarse height model is used for a rough transformation of the perspectives of the images.
Die Bilder, für die eine Änderungsdetektion durchgeführt werden soll, liegen verzeichnungsfrei vor, werden verzeichnungsfrei aufbereitet oder die Verzeichnung wird modelliert (Buchdahl
Betrachtet sei der Fall mit einem Vorher-Bild und zwei Nachher-Bildern, also ein Bild, das zu dem zweiten Zeitintervall gehört, und zwei Bilder, die zu dem ersten Zeitintervall gehören. Dabei sei auch der zeitliche Abstand zwischen den beiden Nachher-Bildern vernachlässigbar gering. Die folgenden Ausführungen gelten entsprechend für die umgekehrte Konstellation, dass zwei Vorher-Bilder zum Zeitpunkt t0 und ein Nachher-Bild zum Zeitpunkt t1 vorliegen. Auch gelten die Erläuterungen für den Fall, dass zusätzliche Vorher-Bilder und/oder Nachher-Bilder vorhanden sind. Dies ist z. B. der Fall, wenn die Bilder einer Videosequenz bzw. Videosequenzen entstammen.Consider the case with a before-picture and two after-pictures, ie an image belonging to the second time interval and two pictures belonging to the first time interval. The time interval between the two subsequent pictures is negligible. The following explanations apply mutatis mutandis to the reverse constellation that there are two before-pictures at the time t0 and one after-picture at the time t1. Also, the explanations apply to the case where additional before images and / or after images exist. This is z. Example, the case when the images of a video sequence or video sequences come from.
Ein bestehendes Referenzbild (Vorher-Bild) wird verwendet, dieser Aufnahmezeitpunkt wird im Folgenden als t0 bezeichnet.An existing reference image (before image) is used, this recording time is referred to as t0 in the following.
Verwendung oder Aufnahme zweier geeigneter, aktueller Bilder (Nachher-Bilder), für die eine pixelweise Zuordnung sinnvoll möglich ist, dazu gehören insbesondere Stereoaufnahmekonfigurationen. Die Aufnahmezeitpunkte müssen entweder identisch sein, was bei Stereoaufnahmekonfigurationen der Fall ist oder es muss davon ausgegangen werden können, dass zwischen den Aufnahmezeitpunkten keine relevante Veränderung an der Szene erfolgt. Dieser Aufnahmezeitpunkt wird im Folgenden als t1 bezeichnet.Use or capture of two suitable, current images (after images) for which a pixel-wise assignment is meaningfully possible, these include in particular stereo recording configurations. The recording times must either be identical, which is the case with stereo recording configurations, or it must be assumed that there is no relevant change in the scene between the recording times. This recording time is referred to below as t1.
Einige Vorteile der Erfindung sind die folgenden:
- • Es wird eine 2D-Änderungsdetektion ermöglicht, die nicht von Referenzmodellen abhängig ist. Es ist auch keine Veränderung des Volumens erforderlich, um eine Identifizierung zu erlauben.
- • Die Bestimmung der Geometrie des Dreibildfalls erfordert für diese Anwendung keine euklidische Rekonstruktion, sondern lediglich eine projektive. Daher können alle Verfahrensschritte unkalibriert, d. h. ohne Kenntnis der intrinsischen Kameraparameter durchgeführt werden.
- • Alle Verfahrensschritte sind echtzeitfähig.
- • Die pixelweise Zuordnung erfolgt für zwei Bilder, die aufgrund ihrer zeitlichen Nähe eine unveränderte Szenerie zeigen. Daher kann davon ausgegangen werden, dass die Zuordnung nicht durch eine Änderung der Szenerie beeinträchtigt wird. Etwaige Fehler im Disparitätsbild - also Fehler, die bei der pixelweisen Zuordnung auftreten - können ggf. dem Verfahren oder der Aufnahmekonfiguration zugerechnet und somit nicht mehr fälschlich als Änderungen gedeutet werden. Für die betroffenen Bildregionen wäre somit bekannt, dass eine Aussage über etwaige Änderungen nicht möglich ist.
- • Verdeckungen führen bei der Transformation der Perspektive zu leeren Bildregionen, so dass feststellbar ist, wo Information fehlt und eine Aussage über etwaige Änderungen nicht möglich ist.
- • Ein großer Vorteil besteht darin, dass die Erfindung auf Grundlage von Consumer-Kameras, rein bildbasiert und ohne Expertenwissen umsetzbar ist, sodass auch bei sehr geringen Hardwarekosten zuverlässige Ergebnisse erzielt werden können.
- • It allows 2D change detection that does not depend on reference models. Also, no change in volume is required to allow identification.
- • The determination of the geometry of the three-dimensional case does not require a Euclidean reconstruction for this application, but only a projective one. Therefore, all process steps can be performed uncalibrated, ie without knowledge of the intrinsic camera parameters.
- • All process steps are real-time capable.
- • The pixel-by-pixel assignment is done for two images which, due to their temporal proximity, show an unchanged scene. Therefore, it can be assumed that the assignment is not affected by a change in the scenery. Any errors in the disparity image - that is, errors that occur in the pixel-wise assignment - can possibly be attributed to the procedure or the recording configuration and thus no longer be interpreted as changes wrongly. For the affected image regions would thus be known that a Statement about any changes is not possible.
- • When the perspective is transformed, obscurations lead to empty image regions, so that it is possible to determine where information is missing and if it is not possible to make any statements about any changes.
- • A big advantage is that the invention can be implemented on the basis of consumer cameras, purely image-based and without expert knowledge, so that reliable results can be achieved even at very low hardware costs.
Im Einzelnen gibt es eine Vielzahl von Möglichkeiten, die Vorrichtung und das entsprechende Verfahren auszugestalten und weiterzubilden. Dazu wird verwiesen einerseits auf die Patentansprüche, andererseits auf die folgende Beschreibung von Ausführungsbeispielen in Verbindung mit der Zeichnung. Es zeigen:
-
1 eine schematische Darstellung einer photographischen Aufnahme einer Szenerie, -
2 eine schematische Darstellung der zeitlichen Verteilung von drei Bildern einer Szenerie, -
3 eine schematische Darstellung einer Ausgestaltung einer Vorrichtung zur Identifizierung einer Veränderung in einer Szenerie, -
4 eine schematische Darstellung einer ersten Variante der Ermittlung von Daten eines Trifokaltensors (a)) und Daten einer pixelweisen Zuordnung (b)), -
5 eine schematische Darstellung einer zweiten Variante der Ermittlung von Daten eines Trifokaltensors (a)) und Daten einer pixelweisen Zuordnung (b)), -
6 eine schematische Darstellung einer dritten Variante der Ermittlung von Daten eines Trifokaltensors (a) oder b)) und Daten einer pixelweisen Zuordnung (c)), -
7 eine schematische Darstellung mehrerer Varianten einer unidirektionalen, einfachen Transformation zwischen zwei Bildern, -
8 eine schematische Darstellung mehrerer Varianten einer unidirektionalen, doppelten Transformation zwischen drei Bildern, -
9 eine schematische Darstellung mehrerer Varianten einer bidirektionalen, einfachen Transformation zwischen zwei Bildern, -
10 eine schematische Darstellung mehrerer Varianten einer bidirektionalen, doppelten Transformation zwischen drei Bildern und -
11 eine beispielhafte Realisierung des Verfahrens als Ablaufdiagramm.
-
1 a schematic representation of a photograph of a scene, -
2 a schematic representation of the temporal distribution of three images of a scene, -
3 a schematic representation of an embodiment of a device for identifying a change in a scenery, -
4 a schematic representation of a first variant of the determination of data of a Trifokaltensors (a)) and data of a pixel-by-pixel assignment (b)), -
5 a schematic representation of a second variant of the determination of data of a Trifokaltensors (a)) and data of a pixel-by-pixel assignment (b)), -
6 a schematic representation of a third variant of the determination of data of a Trifokaltensors (a) or b)) and data of a pixel-by-pixel assignment (c)), -
7 a schematic representation of several variants of a unidirectional, simple transformation between two images, -
8th a schematic representation of several variants of a unidirectional, double transformation between three images, -
9 a schematic representation of several variants of a bidirectional, simple transformation between two images, -
10 a schematic representation of several variants of a bidirectional, double transformation between three images and -
11 an exemplary implementation of the method as a flowchart.
In der
Die zeitliche Zuordnung von drei Bildern einer solchen Szenerie
Die drei Bilder seien dafür mit
In der gezeigten Ausgestaltung handelt es sich um zwei Vorher-Bilder und ein Nachher-Bild. Dies ist jedoch nur ein Beispiel, da das hier beschriebene Verfahren bzw. die Vorrichtung auch auf ein Vorher-Bild und zwei Nachher-Bilder anwendbar ist. Entsprechendes gilt auch für den Fall, dass noch weitere Vorher-Bilder bzw. Nachher-Bilder vorhanden sind.The embodiment shown is two before-pictures and one after-picture. However, this is only an example because the method or apparatus described herein is also applicable to a before-picture and two-after-picture. The same applies to the case that even more before-pictures or after-pictures are available.
Zwischen den zwei Bildern
Das dritte Bild
Für die Identifizierung einer Änderung der Szenerie
Die
Die drei Eingangsbilder
Die drei Bilder
Ein Trifokaltensor ist dabei ein Tensor, welcher geometrische Beziehungen zwischen den Aufnahmen der drei Bilder
Die zwei Bilder
Die zweite Ermittlungsvorrichtung
Schließlich werden die drei Bilder
Die Bildbearbeitungsvorrichtung
Die Vergleichsbilder
Die beiden Vergleichsbilder
Wie bereits angemerkt, sind drei Bilder erforderlich, welche die Szenerie aus unterschiedlichen Perspektiven zeigen, wobei zwei Bilder zeitlich nah beieinander oder sogar zeitgleich aufgenommen worden sind und wobei das dritte Bild einen unterschiedlichen Aufnahmezeitpunkt hat. Die zwei zeitlich nah beieinander aufgenommenen Bilder sind dabei vorzugsweise derartig erzeugt oder ausgewählt worden, dass deren Aufnahmebedingungen für eine pixelweise Zuordnung möglichst gut geeignet sind.As already noted, three images are required, showing the scene from different perspectives, where two images have been taken close to each other in time, or even at the same time, and the third image has a different recording time. The two images recorded temporally close to one another are preferably generated or selected in such a way that their recording conditions are as well suited for pixel-by-pixel assignment.
Es wurde auch bereits erwähnt, dass die zwei Bilder zeitlich vor oder hinter dem dritten Bild liegen können. Daher sind die folgenden Ausführungen entsprechend auch in zeitlicher Umkehrung zu verstehen.It has also been mentioned that the two pictures can be temporally in front of or behind the third picture. Therefore, the following statements are to be understood accordingly in temporal reversal.
Weiterhin wird in den folgenden Ausgestaltungen davon ausgegangen, dass zwei Bilder den gleichen Aufnahmezeitpunkt haben. Die entsprechenden Ausgestaltungen gelten jedoch auch für den Fall eines zeitlichen Abstandes, wobei der Abstand
Die
Die
Die
Die gleiche Vorgehensweise gilt auch für den Fall von zwei Vorher-Bildern und einem Nachher-Bild.The same procedure applies to the case of two before-pictures and one after-picture.
Die
Die Vorher-Bilder sind in dem ersten Zeitintervall
In der
Die
Die
Dabei liegen (
Für die Bestimmung des Trifokaltensors werden drei Bilder verwendet. Dabei entstammen zwei Bilder einem gemeinsamen und - hier so bezeichneten - ersten Zeitintervall
Dabei ergeben sich zwei Möglichkeiten, die in den
In der
Umgekehrt zeigt die
Für die Ermittlung der pixelweisen Zuordnung - angedeutet in der
Die folgenden Abbildungen beziehen sich auf einige beispielhafte Transformationen zwischen den einzelnen Bildern durch die Bildbearbeitungsvorrichtung
In der
Dargestellt sind jeweils drei Bilder:
In der
Im gezeigten Fall wird das Bild
Entsprechend ist der in der
Umgekehrt kann auch ein Bild
Alternativ kann das Bild
In der
Die
Entsprechendes gilt für den Fall, dass zwei Bilder mit Zeitpunkt
Die
Entsprechendes gilt für den Fall mit einem Vorher-Bild und zwei Nachher-Bildern.The same applies to the case with a before-picture and two after-pictures.
In der
In der
Die Ausführungen betreffend eines gemeinsamen Aufnahmezeitpunkts gelten - wie bereits erwähnt und allgemein geltend - auch für leicht unterschiedliche Aufnahmezeitpunkte, insofern die entsprechenden Aufnahmezeitpunkte immer noch eine Zuordnung zu dem ersten Zeitintervall
In der
Die
In der
In der
In der
Die vorgenannten Transformationen führen jeweils zu mindestens zwei Vergleichsbildern, die die gleiche Perspektive aufweisen.The aforementioned transformations each lead to at least two comparison images which have the same perspective.
Ein beispielhafter Ablauf des Verfahrens zur Identifizierung einer Veränderung in einer Szenerie anhand mindestens dreier Bilder wird in der
Der beispielhafte Verlauf beginnt im Schritt
Im positiven Fall (Y-Zweig) folgt Schritt
Im negativen Fall (N-Zweig) wird im Schritt
Im Schritt
Ist dem nicht der Fall (N-Zweig), so werden im Schritt
Sollen die Originalbilder Verwendung finden (Y-Zweig nach Schritt
Im Schritt
Liegen die Projektionsmatrizen vor (Y-Zweig nach Schritt
Liegen die Projektionsmatrizen nicht vor (N-Zweig nach Schritt
Ist dem der Fall, so wird im Schritt
Liegen die intrinsischen Kameraparameter nicht vor, so findet im Schritt
Im Schritt
Im Schritt
Insgesamt ergeben sich durch den Schritt
Im Schritt
Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar. Einige oder alle der Verfahrensschritte können durch einen Hardware-Apparat (oder unter Verwendung eines Hardware-Apparats), wie zum Beispiel einen Mikroprozessor, einen programmierbaren Computer oder einer elektronischen Schaltung durchgeführt werden. Bei einigen Ausführungsbeispielen können einige oder mehrere der wichtigsten Verfahrensschritte durch einen solchen Apparat ausgeführt werden.Although some aspects have been described in the context of a device, it will be understood that these aspects also constitute a description of the corresponding method, so that a block or a component of a device is also to be understood as a corresponding method step or as a feature of a method step. Similarly, aspects described in connection with or as a method step also represent a description of a corresponding block or detail or feature of a corresponding device. Some or all of the method steps may be performed by a Hardware apparatus (or using a hardware apparatus), such as a microprocessor, a programmable computer or an electronic circuit are performed. In some embodiments, some or more of the most important method steps may be performed by such an apparatus.
Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software oder zumindest teilweise in Hardware oder zumindest teilweise in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer BluRay Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird. Deshalb kann das digitale Speichermedium computerlesbar sein.Depending on particular implementation requirements, embodiments of the invention may be implemented in hardware or in software, or at least partially in hardware, or at least partially in software. The implementation may be performed using a digital storage medium such as a floppy disk, a DVD, a BluRay disc, a CD, a ROM, a PROM, an EPROM, an EEPROM or FLASH memory, a hard disk, or other magnetic or optical Memory are stored on the electronically readable control signals are stored, which can cooperate with a programmable computer system or cooperate such that the respective method is performed. Therefore, the digital storage medium can be computer readable.
Manche Ausführungsbeispiele gemäß der Erfindung umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird.Thus, some embodiments according to the invention include a data carrier having electronically readable control signals capable of interacting with a programmable computer system such that one of the methods described herein is performed.
Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Computerprogrammprodukt mit einem Programmcode implementiert sein, wobei der Programmcode dahin gehend wirksam ist, eines der Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Computer abläuft.In general, embodiments of the present invention may be implemented as a computer program product having a program code, wherein the program code is operable to perform one of the methods when the computer program product runs on a computer.
Der Programmcode kann beispielsweise auch auf einem maschinenlesbaren Träger gespeichert sein.The program code can also be stored, for example, on a machine-readable carrier.
Andere Ausführungsbeispiele umfassen das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren, wobei das Computerprogramm auf einem maschinen-lesbaren Träger gespeichert ist. Mit anderen Worten ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens somit ein Computerprogramm, das einen Programmcode zum Durchführen eines der hierin beschriebenen Verfahren aufweist, wenn das Computerprogramm auf einem Computer abläuft.Other embodiments include the computer program for performing any of the methods described herein, wherein the computer program is stored on a machine-readable medium. In other words, an embodiment of the method according to the invention is thus a computer program which has a program code for performing one of the methods described herein when the computer program runs on a computer.
Ein weiteres Ausführungsbeispiel der erfindungsgemäßen Verfahren ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist. Der Datenträger oder das digitale Speichermedium oder das computerlesbare Medium sind typischerweise greifbar und/oder nicht flüchtig.A further embodiment of the inventive method is thus a data carrier (or a digital storage medium or a computer-readable medium) on which the computer program is recorded for carrying out one of the methods described herein. The data carrier or the digital storage medium or the computer-readable medium are typically tangible and / or non-volatile.
Ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens ist somit ein Datenstrom oder eine Sequenz von Signalen, der bzw. die das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom oder die Sequenz von Signalen kann bzw. können beispielsweise dahin gehend konfiguriert sein, über eine Datenkommunikationsverbindung, beispielsweise über das Internet, transferiert zu werden.A further embodiment of the method according to the invention is thus a data stream or a sequence of signals, which represent the computer program for performing one of the methods described herein. The data stream or the sequence of signals may be configured, for example, to be transferred via a data communication connection, for example via the Internet.
Ein weiteres Ausführungsbeispiel umfasst eine Verarbeitungseinrichtung, beispielsweise einen Computer oder ein programmierbares Logikbauelement, die dahin gehend konfiguriert oder angepasst ist, eines der hierin beschriebenen Verfahren durchzuführen.Another embodiment includes a processing device, such as a computer or a programmable logic device, that is configured or adapted to perform one of the methods described herein.
Ein weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren installiert ist.Another embodiment includes a computer on which the computer program is installed to perform one of the methods described herein.
Ein weiteres Ausführungsbeispiel gemäß der Erfindung umfasst eine Vorrichtung oder ein System, die bzw. das ausgelegt ist, um ein Computerprogramm zur Durchführung zumindest eines der hierin beschriebenen Verfahren zu einem Empfänger zu übertragen. Die Übertragung kann beispielsweise elektronisch oder optisch erfolgen. Der Empfänger kann beispielsweise ein Computer, ein Mobilgerät, ein Speichergerät oder eine ähnliche Vorrichtung sein. Die Vorrichtung oder das System kann beispielsweise einen Datei-Server zur Übertragung des Computerprogramms zu dem Empfänger umfassen.Another embodiment according to the invention comprises a device or system adapted to transmit a computer program for performing at least one of the methods described herein to a receiver. The transmission can be done for example electronically or optically. The receiver may be, for example, a computer, a mobile device, a storage device or a similar device. For example, the device or system may include a file server for transmitting the computer program to the recipient.
Bei manchen Ausführungsbeispielen kann ein programmierbares Logikbauelement (beispielsweise ein feldprogrammierbares Gatterarray, ein FPGA) dazu verwendet werden, manche oder alle Funktionalitäten der hierin beschriebenen Verfahren durchzuführen. Bei manchen Ausführungsbeispielen kann ein feldprogrammierbares Gatterarray mit einem Mikroprozessor zusammenwirken, um eines der hierin beschriebenen Verfahren durchzuführen. Allgemein werden die Verfahren bei einigen Ausführungsbeispielen seitens einer beliebigen Hardwarevorrichtung durchgeführt. Diese kann eine universell einsetzbare Hardware wie ein Computerprozessor (CPU) sein oder für das Verfahren spezifische Hardware, wie beispielsweise ein ASIC oder beispielsweise ein Mikroprozessor, z. B. in Form einer ARM-Architektur.In some embodiments, a programmable logic device (eg, a field programmable gate array, an FPGA) may be used to perform some or all of the functionality of the methods described herein. In some embodiments, a field programmable gate array may cooperate with a microprocessor to perform one of the methods described herein. In general, in some embodiments, the methods are performed by any hardware device. This may be a universal hardware such as a computer processor (CPU) or hardware specific to the process, such as an ASIC or, for example, a microprocessor, e.g. In the form of an ARM architecture.
Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei. The embodiments described above are merely illustrative of the principles of the present invention. It will be understood that modifications and variations of the arrangements and details described herein will be apparent to others of ordinary skill in the art. Therefore, it is intended that the invention be limited only by the scope of the appended claims and not by the specific details presented in the description and explanation of the embodiments herein.
Referenzenreferences
- [1] Szeliski, R.: „Image Alignment and Stitching: A Tutorial“, Now: 2006, Foundations and Trends in Computer Graphics and Vision.[1] Szeliski, R .: "Image Alignment and Stitching: A Tutorial", Now: 2006, Foundations and Trends in Computer Graphics and Vision.
-
[2]
Stewart, C.: „Robust Parameter Estimation in Computer Vision“, SIAM Review 1999; 41 (3):513-537 Stewart, C .: "Robust Parameter Estimation in Computer Vision", SIAM Review 1999; 41 (3): 513-537 - [3] Mikolajczyk, K. & Schmid, C.: „Scale & Affine Invariant Interest Point Detectors“, International Journal of Computer Vision 2004; 60 (1): 63-86.[3] Mikolajczyk, K. & Schmid, C .: "Scale & Affine Invariant Interest Point Detectors", International Journal of Computer Vision 2004; 60 (1): 63-86.
- [4] Hartley, R. I., Zisserman, A.: „Multiple View Geometry in Computer Vision (2 ed.)“, Cambridge University Press, New York, NY, USA, 2004.Pollefeys, M., Van Gool, L. Vergauwen, M., Verbiest, F., Cornelis, K., Tops, J., Koch, R.: „Visual Modelling with a Hand-Held Camera“, International Jounal of Computer Vision 2004; 59(3): 207-232.[4] Hartley, RI, Zisserman, A .: "Multiple View Geometry in Computer Vision (2 ed.)", Cambridge University Press, New York, NY, USA, 2004. Pollefeys, M., Van Gool, L. Vergauwen , M., Verbiest, F., Cornelis, K., Tops, J., Koch, R .: "Visual Modeling with a Handheld Camera", International Journal of Computer Vision 2004; 59 (3): 207-232.
-
[5]
Lucas, B.D., Kanade, T.: „An Iterative Image Registration Technique with an Application to Stereo Vision“, International Joint Conferences on Artificial Intelligence 1981: 675-679 Lucas, BD, Kanade, T .: "Iterative Image Registration Technique with Application to Stereo Vision", International Joint Conferences on Artificial Intelligence 1981: 675-679 -
[6]
Brox, T., Bruhn, A. Papenberg, N., Weickert, J.: „High Accuracy Optical Flow Estimation based on a Theory for Warping“, European Conference on Computer Vision (ECCV), Lecture Notes in Computer Science, Springer 2004; 3024: 25-36 Brox, T., Bruhn, A. Papenberg, N., Weickert, J .: "High Accuracy Optical Flow Estimation based on a Theory for Warping," European Conference on Computer Vision (ECCV), Lecture Notes in Computer Science, Springer, 2004 ; 3024: 25-36 -
[7]
Hirschmüller H.: „Stereo Processing by Semiglobal Matching and Mutual Information“, IEEE Transactions on Pattern Analysis and Machine Intelligence 2008; 30 (2): 328-341 Hirschmüller H .: "Stereo Processing by Semiglobal Matching and Mutual Information", IEEE Transactions on Pattern Analysis and Machine Intelligence 2008; 30 (2): 328-341 -
[8]
Avidan, S., Shashua, A.: „Novel View Synthesis in Tensor Space“, in Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition 1997: 1034-1040 Avidan, S., Shashua, A .: Novel View Synthesis in Tensor Space, in Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition 1997: 1034-1040 -
[9]
Buchdahl, H. A.: „Optical Aberration Coefficients. III. The Computation of the Tertiary Coefficients,“ Journal of the Optical Society of America 1958; 48: 747-756 Buchdahl, HA: "Optical Aberration Coefficients. III. The Computation of the Tertiary Coefficients, "Journal of the Optical Society of America 1958; 48: 747-756 -
[10]
Barreto, J.P., Daniilidis, K.: „Fundamental Matrix for Cameras with Radial Distortion.“ in Proceedings of the Tenth IEEE International Conference on Computer Vision (ICCV'05) Volume 1, IEEE Computer Society, Washington, DC, USA, 2005, pp. 625-632 Barreto, JP, Daniilidis, K .: "Fundamental Matrix for Cameras with Radial Distortion." In Proceedings of the Tenth IEEE International Conference on Computer Vision (ICCV'05) Volume 1, IEEE Computer Society, Washington, DC, USA, 2005, pp. 625-632 -
[11]
Brito, J. H., Angst, R.; Köser, K; Pollefeys, M.: „Radial Distortion Self-Calibration“, 2013 IEEE Conference on Computer Vision and Pattern Recognition, Portland, OR, 2013, pp. 1368-1375 Brito, JH, Angst, R .; Köser, K; Pollefeys, M .: "Radial Distortion Self-Calibration", 2013 IEEE Conference on Computer Vision and Pattern Recognition, Portland, OR, 2013, p. 1368-1375 -
[12]
Förstner, W., Gülch, E.: „A Fast Operator for Detection and Precise Location of Distinct Points, Corners and Centres of Circular Features“, in Proceedings of the ISPRS Conference on Fast Processing of Photogrammetric Data, Interlaken, 1987, pp. 281-305 Förstner, W., Gülch, E .: "A Fast Operator for Detection and Precise Location of Distinct Points, Corners and Centers of Circular Features", in Proceedings of the ISPRS Conference on Fast Processing of Photogrammetric Data, Interlaken, 1987, pp. 281-305 -
[13]
Harris, C., Stephens, M.: „A Combined Corner and Edge Detector“, in Proceedings of Fourth Alvey Vision Conference, 1988, pp. 147-151 Harris, C., Stephens, M .: "A Combined Corner and Edge Detector", Proceedings of the Fourth Alvey Vision Conference, 1988, p. 147-151 -
[14]
Lowe, D.G.: „Distinctive Image Features from Scale-Invariant Keypoints“ in International Journal of Computer Vision; 2004, 60 (2): 91-110 Lowe, DG: "Distinctive Image Features from Scale Invariant Keypoints" in the International Journal of Computer Vision; 2004, 60 (2): 91-110 -
[15]
Rublee, E., Rabaud, V., Konolige, K., Bradski, G.: „ORB: An Efficient Alternative to SIFT or SURF“, in Proceedings of the 2011 International Conference on Computer Vision (ICCV'11), IEEE Society, Washington, DC, USA, 2011, pp. 2564-2571 Rublee, E., Rabaud, V., Konolige, K., Bradski, G .: "ORB: An Efficient Alternative to SIFT or SURF", in Proceedings of the 2011 International Conference on Computer Vision (ICCV'11), IEEE Society , Washington, DC, USA, 2011, pp. 2564-2571 -
[16]
Fischler, M. A., Bolles, R. C.: „Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography“, in Journal of Communications of the ACM; 1981, 24 (6): 381-395 Fischler, MA, Bolles, RC: "Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography," in Journal of Communications of the ACM; 1981, 24 (6): 381-395 -
[17]
Grün. A.: „Adaptive Least Squares Correlation: A Powerful Image Matching Technique“, in South African Journal of Photogrammetry, Remote Sensing, and Cartography, 1985; 14:175-187 Green. A .: "Adaptive Least Squares Correlation: A Powerful Image Matching Technique," South African Journal of Photogrammetry, Remote Sensing, and Cartography, 1985; 14: 175-187 -
[18]
Bethmann, F., Luhmann, T.: „Least-Squares Matching with Advanced Geometric Transformation Models“, in International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol. XXXVIII, Part 5 Commission V Symposium, Newcastle upon Tyne, UK. 2010 Bethmann, F., Luhmann, T .: Least-Squares Matching with Advanced Geometric Transformation Models, International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol. XXXVIII, Part 5 Commission V Symposium, Newcastle upon Tyne, UK , 2010 -
[19]
Torr, P. H. S.: „Geometric Motion Segmentation and Model Selection“, Philosophical Transactions of the Royal Society of London A: Mathematical, Physical and Engineering Sciences 1998; 356 (1740): 1321-1340 Torr, PHS: "Geometric Motion Segmentation and Model Selection", Philosophical Transactions of the Royal Society of London A: Mathematical, Physical and Engineering Sciences 1998; 356 (1740): 1321-1340 -
[20]
Quan L.: „Invariants of 6 points from 3 Uncalibrated Images“, in: Eklundh JO. (eds) Computer Vision - ECCV '94. ECCV 1994. Lecture Notes in Computer Science, vol 801. Springer, Berlin, Heidelberg Quan L .: "Invariants of 6 points from 3 Uncalibrated Images", in: Eklundh JO. (EDS) Computer Vision - ECCV '94. ECCV 1994. Lecture Notes in Computer Science, vol 801. Springer, Berlin, Heidelberg -
[21]
Torr, P. H. S., Zisserman, A.: „Robust Parameterization and Computation of the Trifocal Tensor“, Image and Vision Computing 1997; 15: 591-605 Torr, PHS, Zisserman, A .: "Robust Parameterization and Computation of the Trifocal Tensor", Image and Vision Computing 1997; 15: 591-605 -
[22]
Schaffalitzky, F., Zisserman, A. Hartley, R. I., Torr, P. H. S.: „A Six Point Solution for Structure and Motion“, Computer Vision - ECCV 2000: 6th European Conference on Computer Vision Dublin, Ireland, June 26 - July 1, 2000, Proceedings, Part I Springer, Berlin, Heidelberg, 2000: 632-648 Schaffalitzky, F., Zisserman, A. Hartley, RI, Torr, PHS: Computer Vision - ECCV 2000: 6th European Conference on Computer Vision Dublin, Ireland, June 26 - July 1, 2000, Proceedings, Part I Springer, Berlin, Heidelberg, 2000: 632-648 -
[23]
Carlsson, S., Weinshall, D.: „Dual Computation of Projective Shape and Camera Positions from Multiple Images“, International Journal of Computer Vision 2004; 27(3): 227-241 Carlsson, S., Weinshall, D .: "Dual Computation of Projective Shapes and Camera Positions from Multiple Images", International Journal of Computer Vision 2004; 27 (3): 227-241 -
[24]
Nister, D.: „An Efficient Solution to the Five-Point Relative Pose Problem“, IEEE Transactions on Pattern Analysis and Machine Intelligence 2004; 26(6): 756-777 Nister, D .: "An Efficient Solution to the Five-Point Relative Pose Problem," IEEE Transactions on Pattern Analysis and Machine Intelligence 2004; 26 (6): 756-777 -
[25]
Triggs, B.: The Geometry of Projective Reconstruction I: Matching Constraints and the Joint Image. Circulated in 1995. Accepted subject to revision to IJCV in 1995, but never completed. 1995 Triggs, B .: The Geometry of Projective Reconstruction I: Matching Constraints and the Joint Image. Circulated in 1995. Accepted subject to revision to IJCV in 1995, but never completed. 1995 -
[26]
Hartley, R. I.: „Computation of the Quadrifocal Tensor“, in: Burkhardt H., Neumann B. (eds) Computer Vision - ECCV'98. ECCV 1998. Lecture Notes in Computer Science, vol 1406. Springer, Berlin, Heidelberg Hartley, RI: "Computation of the Quadrifocal Tensor", in: Burkhardt H., Neumann B. (eds) Computer Vision - ECCV'98. ECCV 1998. Lecture Notes in Computer Science, volume 1406. Springer, Berlin, Heidelberg -
[27]
Connor, K., Reid, I.: „Novel View Specification and Synthesis“, in Proceeding of 13th British Machine Vision Conference, Cardiff, September 2002: 22.1-22.10 Connor, K., Reid, I .: "Novel View Specification and Synthesis", Proceeding of 13th British Machine Vision Conference, Cardiff, September 2002: 22.1-22.10
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte Nicht-PatentliteraturCited non-patent literature
- Stewart, C.: „Robust Parameter Estimation in Computer Vision“, SIAM Review 1999; 41 (3):513-537 [0153]Stewart, C .: "Robust Parameter Estimation in Computer Vision", SIAM Review 1999; 41 (3): 513-537 [0153]
- Lucas, B.D., Kanade, T.: „An Iterative Image Registration Technique with an Application to Stereo Vision“, International Joint Conferences on Artificial Intelligence 1981: 675-679 [0153]Lucas, B.D., Kanade, T .: "Iterative Image Registration Technique with Application to Stereo Vision", International Joint Conferences on Artificial Intelligence 1981: 675-679 [0153]
- Brox, T., Bruhn, A. Papenberg, N., Weickert, J.: „High Accuracy Optical Flow Estimation based on a Theory for Warping“, European Conference on Computer Vision (ECCV), Lecture Notes in Computer Science, Springer 2004; 3024: 25-36 [0153]Brox, T., Bruhn, A. Papenberg, N., Weickert, J .: "High Accuracy Optical Flow Estimation based on a Theory for Warping," European Conference on Computer Vision (ECCV), Lecture Notes in Computer Science, Springer, 2004 ; 3024: 25-36 [0153]
- Hirschmüller H.: „Stereo Processing by Semiglobal Matching and Mutual Information“, IEEE Transactions on Pattern Analysis and Machine Intelligence 2008; 30 (2): 328-341 [0153]Hirschmüller H .: "Stereo Processing by Semiglobal Matching and Mutual Information", IEEE Transactions on Pattern Analysis and Machine Intelligence 2008; 30 (2): 328-341 [0153]
- Avidan, S., Shashua, A.: „Novel View Synthesis in Tensor Space“, in Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition 1997: 1034-1040 [0153]Avidan, S., Shashua, A .: "Novel View Synthesis in Tensor Space," in Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition 1997: 1034-1040 [0153]
- Buchdahl, H. A.: „Optical Aberration Coefficients. III. The Computation of the Tertiary Coefficients,“ Journal of the Optical Society of America 1958; 48: 747-756 [0153]Buchdahl, H.A .: "Optical Aberration Coefficients. III. The Computation of the Tertiary Coefficients, "Journal of the Optical Society of America 1958; 48: 747-756 [0153]
-
Barreto, J.P., Daniilidis, K.: „Fundamental Matrix for Cameras with Radial Distortion.“ in Proceedings of the Tenth IEEE International Conference on Computer Vision (ICCV'05) Volume 1, IEEE Computer Society, Washington, DC, USA, 2005, pp. 625-632 [0153]Barreto, JP, Daniilidis, K .: "Fundamental Matrix for Cameras with Radial Distortion." In Proceedings of the Tenth IEEE International Conference on Computer Vision (ICCV'05)
Volume 1, IEEE Computer Society, Washington, DC, USA, 2005, pp. 625-632 [0153] - Brito, J. H., Angst, R.; Köser, K; Pollefeys, M.: „Radial Distortion Self-Calibration“, 2013 IEEE Conference on Computer Vision and Pattern Recognition, Portland, OR, 2013, pp. 1368-1375 [0153]Brito, J.H., Angst, R .; Köser, K; Pollefeys, M .: "Radial Distortion Self-Calibration", 2013 IEEE Conference on Computer Vision and Pattern Recognition, Portland, OR, 2013, p. 1368-1375 [0153]
- Förstner, W., Gülch, E.: „A Fast Operator for Detection and Precise Location of Distinct Points, Corners and Centres of Circular Features“, in Proceedings of the ISPRS Conference on Fast Processing of Photogrammetric Data, Interlaken, 1987, pp. 281-305 [0153]Förstner, W., Gülch, E .: "A Fast Operator for Detection and Precise Location of Distinct Points, Corners and Centers of Circular Features", in Proceedings of the ISPRS Conference on Fast Processing of Photogrammetric Data, Interlaken, 1987, pp. 281-305 [0153]
- Harris, C., Stephens, M.: „A Combined Corner and Edge Detector“, in Proceedings of Fourth Alvey Vision Conference, 1988, pp. 147-151 [0153]Harris, C., Stephens, M .: "A Combined Corner and Edge Detector", Proceedings of the Fourth Alvey Vision Conference, 1988, p. 147-151 [0153]
- Lowe, D.G.: „Distinctive Image Features from Scale-Invariant Keypoints“ in International Journal of Computer Vision; 2004, 60 (2): 91-110 [0153]Lowe, D.G .: "Distinctive Image Features from Scale Invariant Keypoints" in the International Journal of Computer Vision; 2004, 60 (2): 91-110 [0153]
- Rublee, E., Rabaud, V., Konolige, K., Bradski, G.: „ORB: An Efficient Alternative to SIFT or SURF“, in Proceedings of the 2011 International Conference on Computer Vision (ICCV'11), IEEE Society, Washington, DC, USA, 2011, pp. 2564-2571 [0153]Rublee, E., Rabaud, V., Konolige, K., Bradski, G .: "ORB: An Efficient Alternative to SIFT or SURF", in Proceedings of the 2011 International Conference on Computer Vision (ICCV'11), IEEE Society , Washington, DC, USA, 2011, pp. 2564-2571 [0153]
- Fischler, M. A., Bolles, R. C.: „Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography“, in Journal of Communications of the ACM; 1981, 24 (6): 381-395 [0153]Fischler, M.A., Bolles, R.C .: "Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography," in Journal of Communications of the ACM; 1981, 24 (6): 381-395 [0153]
- Grün. A.: „Adaptive Least Squares Correlation: A Powerful Image Matching Technique“, in South African Journal of Photogrammetry, Remote Sensing, and Cartography, 1985; 14:175-187 [0153]Green. A .: "Adaptive Least Squares Correlation: A Powerful Image Matching Technique," South African Journal of Photogrammetry, Remote Sensing, and Cartography, 1985; 14: 175-187 [0153]
- Bethmann, F., Luhmann, T.: „Least-Squares Matching with Advanced Geometric Transformation Models“, in International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol. XXXVIII, Part 5 Commission V Symposium, Newcastle upon Tyne, UK. 2010 [0153]Bethmann, F., Luhmann, T .: Least-Squares Matching with Advanced Geometric Transformation Models, International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol. XXXVIII, Part 5 Commission V Symposium, Newcastle upon Tyne, UK , 2010 [0153]
- Torr, P. H. S.: „Geometric Motion Segmentation and Model Selection“, Philosophical Transactions of the Royal Society of London A: Mathematical, Physical and Engineering Sciences 1998; 356 (1740): 1321-1340 [0153]Torr, P.H. S .: "Geometric Motion Segmentation and Model Selection", Philosophical Transactions of the Royal Society of London A: Mathematical, Physical and Engineering Sciences 1998; 356 (1740): 1321-1340 [0153]
- Quan L.: „Invariants of 6 points from 3 Uncalibrated Images“, in: Eklundh JO. (eds) Computer Vision - ECCV '94. ECCV 1994. Lecture Notes in Computer Science, vol 801. Springer, Berlin, Heidelberg [0153]Quan L .: "Invariants of 6 points from 3 Uncalibrated Images", in: Eklundh JO. (EDS) Computer Vision - ECCV '94. ECCV 1994. Lecture Notes in Computer Science, vol 801. Springer, Berlin, Heidelberg [0153]
- Torr, P. H. S., Zisserman, A.: „Robust Parameterization and Computation of the Trifocal Tensor“, Image and Vision Computing 1997; 15: 591-605 [0153]Torr, P.H.S., Zisserman, A .: "Robust Parameterization and Computation of the Trifocal Tensor", Image and Vision Computing 1997; 15: 591-605 [0153]
- Schaffalitzky, F., Zisserman, A. Hartley, R. I., Torr, P. H. S.: „A Six Point Solution for Structure and Motion“, Computer Vision - ECCV 2000: 6th European Conference on Computer Vision Dublin, Ireland, June 26 - July 1, 2000, Proceedings, Part I Springer, Berlin, Heidelberg, 2000: 632-648 [0153]Schaffalitzky, F., Zisserman, A. Hartley, RI, Torr, PHS: Computer Vision - ECCV 2000: 6th European Conference on Computer Vision Dublin, Ireland, June 26 - July 1, 2000, Proceedings, Part I Springer, Berlin, Heidelberg, 2000: 632-648 [0153]
- Carlsson, S., Weinshall, D.: „Dual Computation of Projective Shape and Camera Positions from Multiple Images“, International Journal of Computer Vision 2004; 27(3): 227-241 [0153]Carlsson, S., Weinshall, D .: "Dual Computation of Projective Shapes and Camera Positions from Multiple Images", International Journal of Computer Vision 2004; 27 (3): 227-241 [0153]
- Nister, D.: „An Efficient Solution to the Five-Point Relative Pose Problem“, IEEE Transactions on Pattern Analysis and Machine Intelligence 2004; 26(6): 756-777 [0153]Nister, D .: "An Efficient Solution to the Five-Point Relative Pose Problem," IEEE Transactions on Pattern Analysis and Machine Intelligence 2004; 26 (6): 756-777 [0153]
- Triggs, B.: The Geometry of Projective Reconstruction I: Matching Constraints and the Joint Image. Circulated in 1995. Accepted subject to revision to IJCV in 1995, but never completed. 1995 [0153]Triggs, B .: The Geometry of Projective Reconstruction I: Matching Constraints and the Joint Image. Circulated in 1995. Accepted subject to revision to IJCV in 1995, but never completed. 1995 [0153]
- Hartley, R. I.: „Computation of the Quadrifocal Tensor“, in: Burkhardt H., Neumann B. (eds) Computer Vision - ECCV'98. ECCV 1998. Lecture Notes in Computer Science, vol 1406. Springer, Berlin, Heidelberg [0153]Hartley, R.I .: "Computation of the Quadrifocal Tensor", in: Burkhardt H., Neumann B. (eds) Computer Vision - ECCV'98. ECCV 1998. Lecture Notes in Computer Science, vol. 1406. Springer, Berlin, Heidelberg [0153]
- Connor, K., Reid, I.: „Novel View Specification and Synthesis“, in Proceeding of 13th British Machine Vision Conference, Cardiff, September 2002: 22.1-22.10 [0153]Connor, K., Reid, I .: "Novel View Specification and Synthesis", Proceeding of 13th British Machine Vision Conference, Cardiff, September 2002: 22.1-22.10 [0153]
Claims (9)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017211081.3A DE102017211081A1 (en) | 2017-06-29 | 2017-06-29 | Apparatus and method for finding a change in a scene |
PCT/EP2018/067479 WO2019002502A1 (en) | 2017-06-29 | 2018-06-28 | Apparatus and method for finding a change in a scene |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017211081.3A DE102017211081A1 (en) | 2017-06-29 | 2017-06-29 | Apparatus and method for finding a change in a scene |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102017211081A1 true DE102017211081A1 (en) | 2019-01-03 |
Family
ID=62784165
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102017211081.3A Withdrawn DE102017211081A1 (en) | 2017-06-29 | 2017-06-29 | Apparatus and method for finding a change in a scene |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102017211081A1 (en) |
WO (1) | WO2019002502A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070116341A1 (en) * | 2003-08-29 | 2007-05-24 | Dongshan Fu | Apparatus and method for determining measure of similarity between images |
-
2017
- 2017-06-29 DE DE102017211081.3A patent/DE102017211081A1/en not_active Withdrawn
-
2018
- 2018-06-28 WO PCT/EP2018/067479 patent/WO2019002502A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070116341A1 (en) * | 2003-08-29 | 2007-05-24 | Dongshan Fu | Apparatus and method for determining measure of similarity between images |
Non-Patent Citations (25)
Title |
---|
Avidan, S., Shashua, A.: „Novel View Synthesis in Tensor Space", in Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition 1997: 1034-1040 |
AVIDAN, Shai ; SHASHUA, Amnon: Novel view synthesis in tensor space. In: Computer Vision and Pattern Recognition, 1997. Proceedings., 1997 IEEE Computer Society Conference on. 1997, S. 1034-1040. ISSN 1063-6919. DOI: 10.1109/CVPR.1997.609457. URL: http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=609457 [abgerufen am 2017-10-24]. Bibliographieinformationen ermittelt über: http://ieeexplore.ieee.org/document/609457/ [abgerufen am 2017-10-24]. * |
Barreto, J.P., Daniilidis, K.: „Fundamental Matrix for Cameras with Radial Distortion." in Proceedings of the Tenth IEEE International Conference on Computer Vision (ICCV'05) Volume 1, IEEE Computer Society, Washington, DC, USA, 2005, pp. 625-632 |
Bethmann, F., Luhmann, T.: „Least-Squares Matching with Advanced Geometric Transformation Models", in International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol. XXXVIII, Part 5 Commission V Symposium, Newcastle upon Tyne, UK. 2010 |
Brito, J. H., Angst, R.; Köser, K; Pollefeys, M.: „Radial Distortion Self-Calibration", 2013 IEEE Conference on Computer Vision and Pattern Recognition, Portland, OR, 2013, pp. 1368-1375 |
Brox, T., Bruhn, A. Papenberg, N., Weickert, J.: „High Accuracy Optical Flow Estimation based on a Theory for Warping", European Conference on Computer Vision (ECCV), Lecture Notes in Computer Science, Springer 2004; 3024: 25-36 |
Buchdahl, H. A.: „Optical Aberration Coefficients. III. The Computation of the Tertiary Coefficients," Journal of the Optical Society of America 1958; 48: 747-756 |
Carlsson, S., Weinshall, D.: „Dual Computation of Projective Shape and Camera Positions from Multiple Images", International Journal of Computer Vision 2004; 27(3): 227-241 |
Connor, K., Reid, I.: „Novel View Specification and Synthesis", in Proceeding of 13th British Machine Vision Conference, Cardiff, September 2002: 22.1-22.10 |
Fischler, M. A., Bolles, R. C.: „Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography", in Journal of Communications of the ACM; 1981, 24 (6): 381-395 |
Förstner, W., Gülch, E.: „A Fast Operator for Detection and Precise Location of Distinct Points, Corners and Centres of Circular Features", in Proceedings of the ISPRS Conference on Fast Processing of Photogrammetric Data, Interlaken, 1987, pp. 281-305 |
Grün. A.: „Adaptive Least Squares Correlation: A Powerful Image Matching Technique", in South African Journal of Photogrammetry, Remote Sensing, and Cartography, 1985; 14:175-187 |
Harris, C., Stephens, M.: „A Combined Corner and Edge Detector", in Proceedings of Fourth Alvey Vision Conference, 1988, pp. 147-151 |
Hartley, R. I.: „Computation of the Quadrifocal Tensor", in: Burkhardt H., Neumann B. (eds) Computer Vision - ECCV'98. ECCV 1998. Lecture Notes in Computer Science, vol 1406. Springer, Berlin, Heidelberg |
Hirschmüller H.: „Stereo Processing by Semiglobal Matching and Mutual Information", IEEE Transactions on Pattern Analysis and Machine Intelligence 2008; 30 (2): 328-341 |
Lowe, D.G.: „Distinctive Image Features from Scale-Invariant Keypoints" in International Journal of Computer Vision; 2004, 60 (2): 91-110 |
Lucas, B.D., Kanade, T.: „An Iterative Image Registration Technique with an Application to Stereo Vision", International Joint Conferences on Artificial Intelligence 1981: 675-679 |
Nister, D.: „An Efficient Solution to the Five-Point Relative Pose Problem", IEEE Transactions on Pattern Analysis and Machine Intelligence 2004; 26(6): 756-777 |
Quan L.: „Invariants of 6 points from 3 Uncalibrated Images", in: Eklundh JO. (eds) Computer Vision - ECCV '94. ECCV 1994. Lecture Notes in Computer Science, vol 801. Springer, Berlin, Heidelberg |
Rublee, E., Rabaud, V., Konolige, K., Bradski, G.: „ORB: An Efficient Alternative to SIFT or SURF", in Proceedings of the 2011 International Conference on Computer Vision (ICCV'11), IEEE Society, Washington, DC, USA, 2011, pp. 2564-2571 |
Schaffalitzky, F., Zisserman, A. Hartley, R. I., Torr, P. H. S.: „A Six Point Solution for Structure and Motion", Computer Vision - ECCV 2000: 6th European Conference on Computer Vision Dublin, Ireland, June 26 - July 1, 2000, Proceedings, Part I Springer, Berlin, Heidelberg, 2000: 632-648 |
Stewart, C.: „Robust Parameter Estimation in Computer Vision", SIAM Review 1999; 41 (3):513-537 |
Torr, P. H. S., Zisserman, A.: „Robust Parameterization and Computation of the Trifocal Tensor", Image and Vision Computing 1997; 15: 591-605 |
Torr, P. H. S.: „Geometric Motion Segmentation and Model Selection", Philosophical Transactions of the Royal Society of London A: Mathematical, Physical and Engineering Sciences 1998; 356 (1740): 1321-1340 |
Triggs, B.: The Geometry of Projective Reconstruction I: Matching Constraints and the Joint Image. Circulated in 1995. Accepted subject to revision to IJCV in 1995, but never completed. 1995 |
Also Published As
Publication number | Publication date |
---|---|
WO2019002502A1 (en) | 2019-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180240265A1 (en) | Systems and Methods for Depth-Assisted Perspective Distortion Correction | |
DE69922183T2 (en) | FACE RECOGNITION FROM VIDEO IMAGES | |
DE112018001050T5 (en) | SYSTEM AND METHOD FOR VIRTUALLY ENHANCED VISUAL SIMULTANEOUS LOCALIZATION AND CARTOGRAPHY | |
DE112018000332T5 (en) | SEAL VISUAL SLAM WITH PROBABILISTIC SURFEL MAP | |
DE202014010843U1 (en) | Align ground based images with aerial images | |
DE102004049676A1 (en) | Method for computer-aided motion estimation in a plurality of temporally successive digital images, arrangement for computer-aided motion estimation, computer program element and computer-readable storage medium | |
DE102014222617B4 (en) | Vehicle detection method and vehicle detection system | |
DE102014005181A1 (en) | Position and orientation of objects | |
DE202015009182U1 (en) | Aligning panoramic and aerial photography | |
DE112011103452T5 (en) | Method for matching pixels of a distance representation | |
DE102015107390A1 (en) | Method and device for automatic calibration of all-round visibility systems | |
DE112016001829T5 (en) | Automatically associate images using visual property references to related applications | |
DE102007021518B4 (en) | Method of processing a video data set | |
DE102007054950A1 (en) | Method for supporting the automatic navigation of a low-flying missile | |
DE102019117559A1 (en) | Method and system for merging two-dimensional semantic information from images with a three-dimensional point cloud | |
EP3539085B1 (en) | 3d localization | |
DE102014012250B4 (en) | Process for image processing and display | |
DE102019133719A1 (en) | Correcting an Image | |
DE102017211081A1 (en) | Apparatus and method for finding a change in a scene | |
DE102019220616A1 (en) | METHOD OF SIMULTANEOUS LOCALIZATION AND IMAGING | |
DE102015120965B3 (en) | Method and device for determining calibration parameters for metric calibration of a plenoptic camera | |
DE102013018561A1 (en) | Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses | |
DE102021126814A1 (en) | Method of locating a trailer, processing unit and vehicle | |
WO2018005953A1 (en) | Stereoscopic image capture | |
DE102023200507B4 (en) | Device and method for online georeferencing of camera images of map material with mobile devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |