+

DE102017211081A1 - Apparatus and method for finding a change in a scene - Google Patents

Apparatus and method for finding a change in a scene Download PDF

Info

Publication number
DE102017211081A1
DE102017211081A1 DE102017211081.3A DE102017211081A DE102017211081A1 DE 102017211081 A1 DE102017211081 A1 DE 102017211081A1 DE 102017211081 A DE102017211081 A DE 102017211081A DE 102017211081 A1 DE102017211081 A1 DE 102017211081A1
Authority
DE
Germany
Prior art keywords
images
time interval
image
recording
pictures
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102017211081.3A
Other languages
German (de)
Inventor
Jan Bartelsen
Bastian Erdnüß
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Karlsruher Institut fuer Technologie KIT
Fraunhofer Gesellschaft zur Foerderung der Angewandten Forschung eV
Original Assignee
Karlsruher Institut fuer Technologie KIT
Fraunhofer Gesellschaft zur Foerderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Karlsruher Institut fuer Technologie KIT, Fraunhofer Gesellschaft zur Foerderung der Angewandten Forschung eV filed Critical Karlsruher Institut fuer Technologie KIT
Priority to DE102017211081.3A priority Critical patent/DE102017211081A1/en
Priority to PCT/EP2018/067479 priority patent/WO2019002502A1/en
Publication of DE102017211081A1 publication Critical patent/DE102017211081A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20088Trinocular vision calculations; trifocal tensor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

Die Erfindung bezieht sich auf ein Vorrichtung (1) zum Auffinden von Veränderungen in einer Szenerie (100). Eine erste Ermittlungsvorrichtung (10) ermittelt ausgehend von drei Bildern (P1, P2, P3), denen Aufnahmezeitpunkte (T1, T2, T3) zugeordnet sind und die unterschiedliche Perspektiven aufweisen, Daten eines Trifokaltensors. Die Aufnahmezeitpunkte (T1, T2) von zwei Bildern (P1, P2) gehören zu einem ersten Zeitintervall (I1) und der Aufnahmezeitpunkt (T3) eines dritten Bildes (P3) gehört zu einem zweiten Zeitintervall (I2). Ein zeitlicher Abstand (dt1) zwischen den Aufnahmezeitpunkten (T1, T2) der zwei Bilder (P1, P2) des ersten Zeitintervalls (I1) ist kleiner als ein zeitlicher Abstand (dt2) zwischen dem ersten (I1) und dem zweiten Zeitintervall (I2). Eine zweite Ermittlungsvorrichtung (20) ermittelt für die zwei Bilder (P1, P2) des ersten Zeitintervalls (I1) Daten einer pixelweisen Zuordnung. Eine Bildbearbeitungsvorrichtung (30) stellt ausgehend von den drei Bildern (P1, P2, P3), den Daten des Trifokaltensors und den Daten der pixelweisen Zuordnung zwei Vergleichsbilder (C1, C2) bereit, welche die Szenerie (100) aus derselben Perspektive zeigen. Eine Vergleichsvorrichtung (40) wertet die Vergleichsbilder (C1, C2) dahingehend aus, ob ein Unterschied besteht. Weiterhin bezieht sich die Erfindung auf ein entsprechendes Verfahren.The invention relates to a device (1) for detecting changes in a scene (100). A first determination device (10) determines, based on three images (P1, P2, P3) to which recording times (T1, T2, T3) are assigned and which have different perspectives, data of a trifocal senor. The recording times (T1, T2) of two pictures (P1, P2) belong to a first time interval (I1) and the recording time (T3) of a third picture (P3) belongs to a second time interval (I2). A time interval (dt1) between the acquisition times (T1, T2) of the two images (P1, P2) of the first time interval (I1) is less than a time interval (dt2) between the first (I1) and the second time interval (I2) , A second determination device (20) determines data of a pixel-by-pixel assignment for the two images (P1, P2) of the first time interval (I1). An image processing device (30) provides two comparison images (C1, C2) showing the scene (100) from the same perspective, starting from the three images (P1, P2, P3), the data of the trifocal sensor, and the data of the pixel-by-pixel assignment. A comparison device (40) evaluates the comparison images (C1, C2) as to whether there is a difference. Furthermore, the invention relates to a corresponding method.

Description

Die Erfindung bezieht sich auf eine Vorrichtung zum Auffinden mindestens einer Veränderung in einer Szenerie. Weiterhin bezieht sich die Erfindung auf ein Verfahren zum Auffinden mindestens einer Veränderung in einer Szenerie.The invention relates to a device for finding at least one change in a scene. Furthermore, the invention relates to a method for finding at least one change in a scene.

Derzeit setzt es eine bildbasierte Änderungsdetektion voraus, dass die Aufnahmen, die eine Szene vor und nach einem Ereignis abbilden, aus möglichst identischer Perspektive aufgenommen worden sind. Dies kann jedoch nur in Ausnahmefällen gewährleistet werden.Currently, image-based change detection requires that the images that depict a scene before and after an event have been taken from the same perspective as possible. However, this can only be guaranteed in exceptional cases.

Wenn Bilder einen deutlichen Unterschied in ihrer Perspektive aufweisen, sind je nach Beschaffenheit der Szene, Oberflächen nur in einem Bild sichtbar (Verdeckungen) und es treten Parallaxeneffekte auf. Hinsichtlich der Verdeckung ist entsprechend unklar, welche Bildregionen für eine Änderungsdetektion überhaupt vergleichbar sind. Hinsichtlich der Parallaxeneffekte sind geometrische Schätzungen oder detaillierte Modelle der Szene erforderlich, um die korrespondierenden Bildregionen vergleichen zu können.If images show a clear difference in their perspective, depending on the nature of the scene, surfaces are only visible in one image (occlusions) and parallax effects occur. Concerning the occlusion, it is unclear which image regions are comparable for a change detection. With respect to parallax effects, geometric estimates or detailed models of the scene are required to compare the corresponding image regions.

Einige Ansätze werden im Folgenden kurz skizziert.Some approaches are briefly outlined below.

D-ÄnderungsdetektionD-change detection

Eine Möglichkeit besteht in der Beschreibung der Geometrie des Zweibildfalls, also des Falls, dass von einem Objekt bzw. einer Szenerie zwei Bilder vorliegen, mittels der Homographie.One possibility is described in the description of the geometry of the two-image case, that is, the case of two images of an object or a scene, by means of homography.

Die Homographie als geometrisches Modell des Zweibildfalls ermöglicht eine pixelweise Zuordnung zwischen zwei Bildern, ohne dass aufwändige dichte Tiefenschätzungsverfahren zur Anwendung kommen müssen.Homography as a geometric model of the two-image case allows pixel-by-pixel mapping between two images without the need for complex dense depth estimation techniques.

Die pixelweise Zuordnung auf Grundlage der Homographie ist jedoch nur in drei Spezialfällen über alle Bildregionen korrekt, nämlich bei identischer Aufnahmeposition, unendlich großem Abstand zur Szene oder einer gänzlich ebenen Szene. Für die meisten Anwendungsfälle trifft keine dieser Spezialfälle zu. Dementsprechend kommen in der Regel Korrekturverfahren zur Anwendung, welche die Epipolargeometrie einbeziehen und Fehler durch Parallaxeneffekte weitgehend kompensieren können. Das Problem der Verdeckungen ist mit dieser Vorgehensweise konzeptionell unlösbar.However, the pixel-by-pixel assignment on the basis of homography is correct only in three special cases over all image regions, namely with identical recording position, infinitely large distance to the scene or a completely flat scene. For most applications, none of these special cases apply. Correspondingly, as a rule, correction methods are used which include the epipolar geometry and can largely compensate for errors due to parallax effects. The problem of occlusion is conceptually insoluble with this approach.

Die für die Änderungsdetektion vermutlich am häufigsten umgesetzte Methode zur pixelweisen Zuordnung ist die Generierung von 2D-Bildmosaiken (Stitching), wie Szeliski (2006) es beschreibt. Vorher- und Nachher-Bilder einer Szene werden ohne Berücksichtigung der Geometrie der Szene jeweils zu einem großen Bild zusammengesetzt und anschließend verglichen.The most commonly used method for pixel-wise mapping for change detection is the generation of 2D image mosaics (stitching), as described by Szeliski (2006). Before and after pictures of a scene are combined to form a large picture without considering the geometry of the scene, and then compared.

Ein solcher globaler Ansatz hat durch die Nichtberücksichtigung der Geometrie der Szene jedoch erhebliche konzeptionelle Schwächen und führt deshalb nur in Ausnahmefällen zu akzeptablen Ergebnissen.However, such a global approach has significant conceptual weaknesses by ignoring the geometry of the scene, and therefore leads to acceptable results only in exceptional cases.

Konzeptionell ähnlich ist die Generierung von True-Orthobildern anstelle von Bildmosaiken. In diesem Fall wird mittels absoluter Orientierung und dichter Tiefenschätzung oder einem vorhandenen Höhenmodell ein zusammengesetztes Bild erstellt, welches die Geometrie einer Szene berücksichtigt. Das Gesamtbild wird so aufbereitet, als wäre es komplett aus Nadirsicht aufgenommen. Bei einer entsprechend genauen Vorgehensweise können die True-Orthobilder für eine Änderungsdetektion verglichen werden.Conceptually similar is the generation of true ortho images instead of image mosaics. In this case, using absolute orientation and dense depth estimation or an existing elevation model, a composite image is created that takes into account the geometry of a scene. The overall picture is processed as if it were completely taken from nadir view. With a correspondingly accurate procedure, the true ortho images can be compared for a change detection.

Problematisch ist, dass die Zuverlässigkeit und Genauigkeit der dichten Tiefenschätzung in der Regel nicht für alle Bildregionen gleich hoch ist. Beim Vergleich für die Änderungsdetektion muss dementsprechend eine Plausibilitätsüberprüfung einbezogen werden. Zudem ist die Bestimmung der absoluten Orientierung und der dichten Tiefenschätzung rechenintensiv, sodass eine echtzeitfähige Realisierung mit entsprechender Zuverlässigkeit und Genauigkeit kaum möglich erscheint.The problem is that the reliability and accuracy of the dense depth estimation is generally not the same for all image regions. When comparing for change detection, a plausibility check must be included accordingly. In addition, the determination of the absolute orientation and the dense depth estimation is computationally intensive, so that a real-time capable realization with corresponding reliability and accuracy hardly seems possible.

Verwendung von 2,5D- und 3D-ReferenzmodellenUse of 2.5D and 3D reference models

Die Verwendung von 2,5D- (Höhenmodelle) oder Voll-3D-Oberflächenreferenzmodellen der Szene erlaubt den Umgang mit dem Problem der Parallaxeneffekte als auch der Verdeckungen.The use of 2.5D (elevation models) or full 3D surface reference models of the scene allows dealing with the problem of parallax effects as well as occlusions.

Die Bilder, die eine Szene vor und nach einem Ereignis abbilden, werden gegen das Referenzmodell registriert. Auf diese Weise kann auf Grundlage der Sehstrahlen unmittelbar bestimmt werden, welche Oberflächen in welchem Bild sichtbar sind und welchen Abstand sie bei der Aufnahme von der Kamera hatten.The images that depict a scene before and after an event are registered against the reference model. In this way, it can be determined directly on the basis of the visual rays, which surfaces are visible in which image and what distance they had when shooting from the camera.

Nachteilig ist, dass die Anforderungen an den Detaillierungsgrad und an den Aufnahmezeitpunkt der Referenzmodelle sehr hoch sind und nur für wenige Anwendungsfälle gewährleistet werden können.The disadvantage is that the demands on the level of detail and the recording time of the reference models are very high and can be guaranteed only for a few applications.

Volumenschätzungvolume estimation

Bildbasierte, euklidische 2,5D- oder Voll-3D-Oberflächenrekonstruktionsverfahren ermöglichen die Modellierung einer Szene, sodass die Zu- oder Abnahme des Volumens als Indikator für die Änderungsdetektion verwendet werden kann.Image-based, Euclidean 2.5D or full 3D surface reconstruction techniques allow the modeling of a scene so that the input or output of a scene is enhanced Decrease in volume can be used as an indicator of change detection.

Die Anforderungen an die Verfahren zur Bildregistrierung, zur dichten Tiefenschätzung und zur Oberflächenrekonstruktion bezüglich der verwendeten Sensorik sowie an die Genauigkeit und Performance sind jedoch ggf. hoch bis sehr hoch. Zudem ist eine genaue Kenntnis oder Schätzung der intrinsischen Kameraparameter zwingend erforderlich.However, the requirements for image registration, dense depth estimation, and surface reconstruction for the sensors used, as well as accuracy and performance, may be high to very high. In addition, a precise knowledge or estimation of the intrinsic camera parameters is mandatory.

Grundsätzlich weisen alle durch derartige Verfahren rekonstruierten Oberflächen ein Rauschen auf, sodass die gesuchten Änderungen deutlich hervorstechen müssen, um zuverlässig erkannt zu werden.In principle, all surfaces reconstructed by such methods have a noise, so that the changes sought must stand out clearly in order to be reliably recognized.

Mögliche Anwendungen einer Änderungsdetektion sind die Überwachung gefährdeter Infrastruktur für die zivile Sicherheit und Verteidigung. Dabei lassen sich beispielsweise Bilder von bemannten oder unbemannten Luftfahrzeugen verwenden. Eine andere Anwendung ist beispielsweise die Schadensfeststellung für das Versicherungswesen auf Grundlage von Satelliten- und Luftbildern.Possible applications of change detection include the monitoring of vulnerable infrastructure for civil security and defense. In this case, for example, images of manned or unmanned aerial vehicles can be used. Another application is, for example, damage assessment for the insurance industry based on satellite and aerial imagery.

Der Erfindung liegt daher die Aufgabe zugrunde, eine Vorrichtung und ein Verfahren zum Auffinden von Veränderungen in einer Szenerie vorzuschlagen, die möglichst einfach realisierbar sind.The invention is therefore based on the object of proposing a device and a method for finding changes in a scenery, which are as simple as possible.

Die Erfindung löst die Aufgabe durch eine Vorrichtung zum Auffinden mindestens einer Veränderung in einer Szenerie.The invention achieves the object by a device for finding at least one change in a scene.

Die Vorrichtung weist eine erste Ermittlungsvorrichtung, eine zweite Ermittlungsvorrichtung, eine Bildbearbeitungsvorrichtung sowie eine Vergleichsvorrichtung auf. Die erste Ermittlungsvorrichtung ist derartig ausgestaltet, ausgehend von mindestens drei Bildern der Szenerie Daten eines Trifokaltensors zu ermitteln. Den drei Bildern sind Aufnahmezeitpunkte zugeordnet. Die Aufnahmezeitpunkte von zwei Bildern der drei Bilder gehören zu einem ersten Zeitintervall. Die zwei Bilder des ersten Zeitintervalls weisen jeweils unterschiedliche Perspektiven relativ zur Szenerie auf. Der Aufnahmezeitpunkt eines dritten Bildes der drei Bilder gehört zu einem zweiten Zeitintervall. Das dritte Bild des zweiten Zeitintervalls weist eine andere Perspektive relativ zu der Szenerie als die zwei Bilder des ersten Zeitintervalls auf. Ein zeitlicher Abstand zwischen den Aufnahmezeitpunkten der zwei Bilder des ersten Zeitintervalls ist kleiner als ein zeitlicher Abstand zwischen dem ersten Zeitintervall und dem zweiten Zeitintervall. Die zweite Ermittlungsvorrichtung ist derartig ausgestaltet, mindestens für die zwei Bilder des ersten Zeitintervalls Daten einer pixelweisen Zuordnung zwischen den zwei Bildern zu ermitteln. Die Bildbearbeitungsvorrichtung ist derartig ausgestaltet, ausgehend von den mindestens drei Bildern sowie ausgehend von den ermittelten Daten des Trifokaltensors und den ermittelten Daten der pixelweisen Zuordnung mindestens zwei Vergleichsbilder bereitzustellen. Die mindestens zwei Vergleichsbilder weisen im Wesentlichen die gleiche Perspektive auf die Szenerie auf und sind unterschiedlichen Zeitintervallen zugeordnet. Die Vergleichsvorrichtung ist derartig ausgestaltet, die zwei Vergleichsbilder dahingehend auszuwerten, ob mindestens ein Unterschied zwischen den zwei Vergleichsbildern besteht, und ausgehend von der Auswertung ein Vergleichsergebnis zu erzeugen.The device has a first determination device, a second determination device, an image processing device and a comparison device. The first determination device is designed to determine data from a trifocal sensor based on at least three images of the scene. The three pictures are assigned recording times. The recording times of two pictures of the three pictures belong to a first time interval. The two images of the first time interval each have different perspectives relative to the scenery. The recording time of a third image of the three images belongs to a second time interval. The third image of the second time interval has a different perspective relative to the scene than the two images of the first time interval. A time interval between the acquisition times of the two images of the first time interval is smaller than a time interval between the first time interval and the second time interval. The second determination device is designed in such a way, at least for the two images of the first time interval, to determine data of a pixel-by-pixel association between the two images. The image processing apparatus is configured to provide at least two comparison images based on the at least three images and on the determined data of the trifocal sensor and the determined data of the pixel-by-pixel assignment. The at least two comparison images have substantially the same perspective on the scene and are assigned to different time intervals. The comparison device is designed in such a way to evaluate the two comparison images as to whether at least one difference exists between the two comparison images, and to generate a comparison result on the basis of the evaluation.

Die Vorrichtung wertet zumindest drei Bilder der Szenerie aus, die die Szenerie jeweils aus unterschiedlichen Perspektiven zeigen. Zwei der Bilder entstammen einem ersten Zeitintervall und liegen in Bezug auf ihre Aufnahmezeitpunkte relativ nah beieinander bzw. sind sogar zeitgleich aufgenommen worden. Das verbleibende dritte Bild entstammt einem zweiten Zeitintervall. Dabei liegen die zwei Zeitintervalle weiter voneinander entfernt als die zwei Bilder des ersten Zeitintervalls. Zwischen den beiden Zeitintervallen findet beispielsweise ein Ereignis statt, das zu einer Änderung der Szenerie führt oder führen könnte. Ob es eine Änderung gab, wird von der Vorrichtung ermittelt.The device evaluates at least three images of the scenery, each showing the scene from different perspectives. Two of the images come from a first time interval and are relatively close to each other in terms of their recording times or have even been recorded at the same time. The remaining third image comes from a second time interval. The two time intervals are farther apart than the two images of the first time interval. For example, an event takes place between the two time intervals that leads or could lead to a change in the scene. Whether there was a change is determined by the device.

Für das Auffinden der Veränderung oder der Veränderungen werden für die drei Bilder die Daten eines Trifokaltensors ermittelt und werden für die zwei - zeitgleichen oder zeitlich benachbarten - Bilder Daten einer pixelweisen Zuordnung ermittelt. Mit den Daten werden dann zwei Vergleichsbilder mit gleicher Perspektive und aus den beiden unterschiedlichen Zeitintervallen ermittelt. Aus den beiden Vergleichsbildern mit passenden Perspektiven, aber unterschiedlichen Zeitintervallen lassen sich dann Veränderungen erkennen.For finding the change or the changes, the data of a trifocal sensor are determined for the three images, and data of a pixel-by-pixel assignment is determined for the two images, which are simultaneous or temporally adjacent. With the data then two comparison images are determined with the same perspective and from the two different time intervals. From the two comparative images with suitable perspectives but different time intervals, changes can then be recognized.

In einer Ausgestaltung ist vorgesehen, dass die Vorrichtung eine Korrekturvorrichtung aufweist. Dabei ist die Korrekturvorrichtung derartig ausgestaltet, bei Eingangsbildern Verzeichnungsfehler zu erkennen und verzeichnungsfreie Bilder und/oder Korrekturdaten bereitzustellen. In dieser Ausgestaltung werden somit durch die Korrekturvorrichtung Linsenfehler korrigiert oder es werden zumindest Daten ermittelt, die es für die weiteren Schritte erlauben, die Auswirkungen der Linsenfehler zu berücksichtigen.In one embodiment, it is provided that the device has a correction device. In this case, the correction device is configured to recognize distortion errors in input images and to provide distortion-free images and / or correction data. In this refinement, lens correction errors are thus corrected by the correction device or at least data are determined which allow the further steps to take into account the effects of lens aberrations.

Eine Ausgestaltung besteht darin, dass die erste Ermittlungsvorrichtung derartig ausgestaltet ist, für die Ermittlung der Daten des Trifokaltensors die Pixelinformation bezüglich mindestens eines Bildes zu verwenden.An embodiment consists in that the first determination device is designed in such a way to use the pixel information with regard to at least one image for the determination of the data of the trifocal sensor.

Alternativ oder ergänzend besteht eine Ausgestaltung darin, dass die erste Ermittlungsvorrichtung derartig ausgestaltet ist, für die Ermittlung der Daten des Trifokaltensors Daten bezüglich mindestens einer Aufnahmebedingung mindestens eines Bildes zu verwenden.Alternatively or additionally, there is an embodiment in that the first determination device is configured in such a way for determining the Trifocal Values Data should be used for at least one image condition of at least one image.

In einer Ausgestaltung ist vorgesehen, dass sich mindestens eine Aufnahmebedingung auf eine Position einer für die Aufnahme eines Bildes verwendeten Aufnahmevorrichtung relativ zur Szenerie oder absolut bezieht.In one embodiment, it is provided that at least one recording condition relates to a position of a recording device used for recording an image relative to the scenery or absolutely.

Alternativ oder ergänzend bezieht sich die mindestens eine Aufnahmebedingung auf eine Orientierung einer für die Aufnahme eines Bildes verwendeten Aufnahmevorrichtung relativ zur Szenerie oder absolut.Alternatively or additionally, the at least one recording condition relates to an orientation of a recording device used to record an image relative to the scenery or absolutely.

Alternativ oder ergänzend bezieht sich die mindestens eine Aufnahmebedingung auf intrinsische Parameter einer für die Aufnahme eines Bildes verwendeten Aufnahmevorrichtung bezieht.Alternatively or additionally, the at least one recording condition relates to intrinsic parameters of a recording device used to record an image.

Bei der Ermittlung der Daten des Trifokaltensors werden somit Aufnahmebedingungen - oder spezieller: Daten, die diese Aufnahmebedingungen beschreiben - verwendet. Dabei wird insbesondere Rücksicht genommen auf die Aufnahmevorrichtung - z. B. die Kamera - für die Erzeugung der Bilder.When determining the data of the trifocal sensor, recording conditions are used - or more specifically: data describing these recording conditions. Particular consideration is given to the recording device -. As the camera - for the generation of images.

Die Aufnahmebedingungen beziehen sich daher je nach Ausgestaltung bzw. je nach Verfügbarkeit der Daten auf die Position der Aufnahmevorrichtung relativ zur Szenerie und/oder auf die Orientierung der Aufnahmevorrichtung relativ zur Szenerie. Relevant ist somit, wo sich die Aufnahmevorrichtung relativ zur Szenerie oder absolut befindet und/oder wie die Aufnahmevorrichtung - oder insbesondere deren Optik - relativ zur Szenerie oder absolut ausgerichtet ist.Depending on the design or the availability of the data, the recording conditions therefore relate to the position of the recording device relative to the scenery and / or to the orientation of the recording device relative to the scenery. Thus, it is relevant where the recording device is relative to the scenery or absolutely and / or how the recording device - or in particular its optics - relative to the scenery or absolutely aligned.

Unter Aufnahmebedingungen seien dabei auch die intrinsischen Parameter der Aufnahmevorrichtung selbst verstanden. Der Einfluss der inneren Eigenschaften der Aufnahmevorrichtung wird somit ebenfalls ergänzend oder alternativ für die Ermittlung der Daten des Trifokaltensors beachtet.In this case, the intrinsic parameters of the recording device itself are to be understood as recording conditions. The influence of the internal properties of the recording device is thus also taken into account as a supplement or alternatively for the determination of the data of the trifocal senor.

Eine Ausgestaltung besteht darin, dass die Bilder des ersten Zeitintervalls Vorher-Bilder sind und das Bild des zweiten Zeitintervalls ein Nachher-Bild ist.An embodiment is that the images of the first time interval are before images and the image of the second time interval is a post-image.

In einer Ausgestaltung ist vorgesehen, dass die Bilder des ersten Zeitintervalls Nachher-Bilder sind und das Bild des zweiten Zeitintervalls ein Vorher-Bild ist.In one embodiment, it is provided that the images of the first time interval are after-images and the image of the second time interval is a before-image.

Die Bezeichnungen Vorher- und Nachher-Bilder beziehen sich dabei auf den größeren zeitlichen Abstand zwischen den zwei Zeitintervallen und/oder vor bzw. nach einem Ereignis. Weiterhin gehören je nach Ausgestaltung die Vorher-Bilder zum ersten Zeitintervall oder zum zweiten Zeitintervall. Entsprechend gehören die Nachher-Bilder zum zweiten Zeitintervall oder zum ersten Zeitintervall.The terms before and after pictures refer to the larger time interval between the two time intervals and / or before and after an event. Furthermore, depending on the embodiment, the before images belong to the first time interval or to the second time interval. Accordingly, the after-pictures belong to the second time interval or to the first time interval.

Eine Ausgestaltung besteht darin, dass die Aufnahmezeitpunkte der Bilder des ersten Zeitintervalls nahezu oder exakt gleich sind. In dieser Ausgestaltung wird der zeitliche Abstand zwischen den zwei Bildern des ersten Zeitintervalls somit möglichst verkürzt.One embodiment is that the recording times of the images of the first time interval are almost or exactly the same. In this embodiment, the time interval between the two images of the first time interval is thus shortened as possible.

Weiterhin löst die Erfindung die Aufgabe durch ein Verfahren zum Auffinden mindestens einer Veränderung in einer Szenerie.Furthermore, the invention achieves the object by a method for finding at least one change in a scene.

Das Verfahren umfasst dabei zumindest die folgenden Schritte:

  • • Dass mindestens drei Bilder bereitgestellt werden, die Aufnahmezeitpunkten zugeordnet sind.
  • • Dass ausgehend von den mindestens drei Bildern Daten eines Trifokaltensors oder einer äquivalenten Beschreibung der Geometrie des Dreibildfalls ermittelt werden.
  • • Dass mindestens für die zwei Bilder des ersten Zeitintervalls Daten einer pixelweisen Zuordnung zwischen den zwei Bildern ermittelt werden.
  • • Dass ausgehend von den mindestens drei Bildern sowie ausgehend von den ermittelten Daten des Trifokaltensors bzw. der äquivalenten Beschreibung und den ermittelten Daten der pixelweisen Zuordnung mindestens zwei Vergleichsbilder, die im Wesentlichen die gleiche Perspektive auf die Szenerie aufweisen und unterschiedlichen Zeitintervallen zugeordnet sind, bereitgestellt werden.
  • • Dass die zwei Vergleichsbilder dahingehend ausgewertet werden, ob mindestens ein Unterschied zwischen den zwei Vergleichsbildern besteht.
  • • Dass ausgehend von der Auswertung der zwei Vergleichsbilder ein Vergleichsergebnis erzeugt wird.
The method comprises at least the following steps:
  • • That at least three images are assigned, which are assigned to recording times.
  • • That, on the basis of the at least three images, data of a trifocal sensor or an equivalent description of the geometry of the triple-fall case is determined.
  • • That at least for the two images of the first time interval, data of a pixel-wise association between the two images are determined.
  • • That at least two comparison images, which have substantially the same perspective on the scene and are assigned to different time intervals, are provided on the basis of the at least three images as well as on the basis of the determined data of the trifocal tensor or the equivalent description and the determined data ,
  • • That the two comparison images are evaluated to determine if there is at least one difference between the two comparison images.
  • • That a comparison result is generated starting from the evaluation of the two comparison images.

Die drei Bilder werden dabei so bereitgestellt, d. h. beispielweise passend ausgesucht oder erzeugt, dass die folgenden Bedingungen erfüllt sind:

  • • Die Aufnahmezeitpunkte von zwei Bildern der drei Bilder gehören zu einem ersten Zeitintervall und der Aufnahmezeitpunkt eines dritten Bildes der drei Bilder gehört zu einem zweiten Zeitintervall.
  • • Die zwei Bilder des ersten Zeitintervalls weisen unterschiedliche Perspektiven relativ zur Szenerie auf.
  • • Das dritte Bild des zweiten Zeitintervalls weist eine andere Perspektive relativ zu der Szenerie als die zwei Bilder des ersten Zeitintervalls auf.
  • • Ein zeitlicher Abstand zwischen den Aufnahmezeitpunkten der zwei Bilder des ersten Zeitintervalls ist kleiner als ein zeitlicher Abstand zwischen dem ersten Zeitintervall und dem zweiten Zeitintervall.
The three images are provided in this way, that is, for example, appropriately selected or generated, that the following conditions are met:
  • • The recording times of two pictures of the three pictures belong to a first time interval and the recording time of a third picture of the three pictures belongs to a second time interval.
  • • The two images of the first time interval have different perspectives relative to the scenery.
  • The third image of the second time interval has a different perspective relative to the scene than the two images of the first time interval.
  • • A time interval between the recording times of the two images of the first time interval is smaller than a time interval between the first time interval and the second time interval.

Die obigen Ausgestaltungen der Vorrichtung lassen sich auch durch Schritte von Ausgestaltungen des Verfahrens realisieren, sodass die Erläuterungen entsprechend gelten. Daher wird hier auf eine Wiederholung verzichtet.The above embodiments of the device can also be realized by steps of embodiments of the method, so that the explanations apply accordingly. Therefore, a repeat is omitted here.

Schließlich bezieht sich die Erfindung auf ein Computerprogramm mit einem Programmcode zur Durchführung des vorgenannten Verfahrens nach einer der Ausgestaltungen.Finally, the invention relates to a computer program with a program code for carrying out the aforementioned method according to one of the embodiments.

Bislang vorgestellte 2D-Änderungsverfahren haben sich grundsätzlich auf die Geometrie des Zweibildfalls beschränkt. Diese Vorgehensweise hat für die Änderungsdetektion einen entscheidenden Nachteil: Auch unter Einbeziehung geometrischer Plausibilität durch die Epipolargeometrie und dichte Tiefenschätzung ist bei der Durchführung der Änderungsdetektion nicht unterscheidbar, ob eine Oberfläche in nur einem Bild sichtbar ist oder ob eine Änderung in der Szene vorliegt. Die Verwendung von drei Bildern und die Bestimmung der Geometrie des Dreibildfalls ermöglicht geometrisch korrekte Bildtransformation, auch ohne eine euklidische Rekonstruktion.So far presented 2D-change methods have basically been limited to the geometry of the two-image case. This procedure has a decisive disadvantage for the change detection: Even when geometrical plausibility is taken into account by the epipolar geometry and dense depth estimation, it is indistinguishable when performing the change detection whether a surface is visible in only one image or if there is a change in the scene. The use of three images and the determination of the geometry of the three-frame case enables geometrically correct image transformation, even without a Euclidean reconstruction.

Der im Folgenden erläuterte Lösungsweg nutzt dabei folgenden Gegebenheiten:The solution described below uses the following conditions:

Die Erfindung sei noch einmal mit anderen Worten zusammengefasst.The invention is summarized again in other words.

Schritt 1: Bestimmung von dünnen PunktkorrespondenzenStep 1: Determination of thin point correspondences

Die zuverlässige Bestimmung von Punktkorrespondenzen (homologe Punkte) ist auch bei Aufnahmekonfigurationen möglich, für die eine pixelweise Zuordnung nicht sinnvoll möglich ist (Stewart 1999), (Mikolajczyk & Schmid 2004).The reliable determination of point correspondences (homologous points) is also possible with recording configurations for which a pixel-wise assignment is not meaningful (Stewart 1999), (Mikolajczyk & Schmid 2004).

Dies ist dabei ein Teil der Ermittlung der Daten des Trifokaltensors.This is part of the determination of the data of the Trifokaltensors.

Verfahren zur automatischen Bestimmung und Zuordnung von Punktkorrespondenzen in Bildern werden beispielsweise beschrieben von (Förstner & Gülch 1987), (Harris & Stephens 1988), (Lowe 2004) oder (Rublee et al. 2011).Methods for the automatic determination and assignment of point correspondences in images are described, for example, by (Förstner & Gülch 1987), (Harris & Stephens 1988), (Lowe 2004) or (Rublee et al., 2011).

Verfahren zur Kompensation von Fehlzuordnungen beschreiben (Fischler & Bolles 1981).Describe methods for compensating misallocations (Fischler & Bolles 1981).

In einer Ausgestaltung werden Verfahren zur lokalen Verbesserung von Bildkoordinaten verwendet, vgl. (Grün 1985) oder (Bethmann & Luhmann 2010).In one embodiment, methods for the local enhancement of image coordinates are used, cf. (Green 1985) or (Bethmann & Luhmann 2010).

In einer Ausgestaltung werden zudem Verfahren zur robusten Schätzung eines geometrischen Modells verwendet, vgl. (Torr 1998) oder (Stewart 1999).In one embodiment, methods for robust estimation of a geometric model are also used, cf. (Torr 1998) or (Stewart 1999).

Schritt 2: Bestimmung der Geometrie des DreibildfallsStep 2: Determination of the geometry of the triple fall

Auf Grundlage von Punktkorrespondenzen (homologe Punkte) kann die Geometrie des Dreibildfalls zuverlässig bestimmt werden (Hartley & Zisserman 2004).Based on point correspondences (homologous points), the geometry of the three-frame case can be reliably determined (Hartley & Zisserman 2004).

Dieser Schritt ist ebenfalls ein Teil der Ermittlung der Daten des Trifokaltensors.This step is also part of determining the data of the Trifocal tensor.

Für die Bestimmung der Geometrie des Dreibildfalls - also der Bearbeitung der drei Bilder

  • - sind folgende Ausgestaltungen vorgesehen, die Alternativen oder Ergänzungen zueinander darstellen:
    • In einer Ausgestaltung erfolgt die Bestimmung des unkalibrierten Dreibildfalls durch Sechs-Punkt-Korrespondenz und optional durch eine kleinste Quadrate-Optimierung, vgl. (Quan 1994), (Torr & Zisserman 1997) oder (Schaffalitzki et al. 2000).
For the determination of the geometry of the three-frame case - ie the processing of the three pictures
  • the following configurations are provided, which represent alternatives or additions to one another:
    • In one embodiment, the determination of the uncalibrated three-frame case is effected by six-point correspondence and optionally by a least squares optimization, cf. (Quan 1994), (Torr & Zisserman 1997) or (Schaffalitzki et al., 2000).

In einer Ausgestaltung erfolgt die Bestimmung des kalibrierten Dreibildfalls ausgehend von zwei kalibrierten Zweibildfällen, vgl. (Carlson & Weinshall 1998, Nister 2005). Dabei erfolgt in einer Ausgestaltung zudem eine kleinste Quadrate-Optimierung, vgl. (Schaffalitzki et al. 2000).In one embodiment, the determination of the calibrated three-frame case is based on two calibrated two-image cases, cf. (Carlson & Weinshall 1998, Nister 2005). In addition, in one embodiment, a least squares optimization takes place, cf. (Schaffalitzki et al., 2000).

In einer Ausgestaltung werden Projektionsmatrizen verwendet, welche als Ergebnis aus einer relativen oder absoluten Orientierung eines Vielbildfalls vorliegen.In one embodiment, projection matrices are used which are present as a result of a relative or absolute orientation of a multiple image case.

Dabei werden in einer Ausgestaltung drei Projektionsmatrizen ausgewählt und es wird unmittelbar der Trifokaltensor ermittelt. Zu Details siehe (Hartley & Zisserman 2004). In einer Ausgestaltung erfolgt optional eine kleinste Quadrate-Optimierung, vgl. (Schaffalitzki et al. 2000).In this case, in one embodiment, three projection matrices are selected and the Trifokaltensor is determined directly. For details see (Hartley & Zisserman 2004). In one embodiment, a least-squares optimization optionally takes place, cf. (Schaffalitzki et al., 2000).

In einer weiteren Ausgestaltung werden Projektionsmatrizen verwendet, die durch geeignete Sensorik und vorzugsweise deren GNSS-Daten (GNSS von global navigation satellite system, globales Navigationssatellitensystem) gegeben sind. Daraus werden ebenfalls unmittelbar die Daten des Trifokaltensors ermittelt, vgl. (Hartley & Zisserman 2004). Optional erfolgt eine kleinste Quadrate-Optimierung, vgl. (Schaffalitzky et al. 2000).In a further embodiment projection matrices are used which are given by suitable sensors and preferably their GNSS data (GNSS from global navigation satellite system, global navigation satellite system). The data of the trifocal senor are also determined directly from this, cf. (Hartley & Zisserman 2004). Optionally, a least squares optimization is performed, cf. (Schaffalitzky et al., 2000).

In einer Ausgestaltung findet eine Erweiterung auf die Bestimmung und entsprechende Verwendung eines Quadrifokaltensors statt, vgl. (Triggs 1995, Hartley 1998), sofern vier oder mehr Bilder vorhanden sind, welche die Szenerie zeigen.In one embodiment, an extension to the determination and corresponding use of a quadrifocal senors takes place, cf. (Triggs 1995, Hartley 1998) as long as there are four or more pictures showing the scene.

Schritt 3: Bestimmung von dichten Punktkorrespondenzen (pixelweise Zuordnung)Step 3: Determination of dense point correspondences (pixel-wise assignment)

Für ein Bildtriplet wird ein Bildpaar so akquiriert, dass es möglichst gut geeignet ist für eine pixelweise Zuordnung. Die Akquise dieses Bildpaares ist nicht an den Aufnahmezeitpunkt des dritten Bildes gebunden. Es ist sowohl eine monokulare als auch eine Stereo-Aufnahmekonfiguration möglich. Die pixelweise Zuordnung für das Bildpaar, welches die Szenerie zu einem quasi identischen Zeitpunkt abbildet, erfolgt in einer Ausgestaltung als globale Lösung z. B. in Form eines optischen Flusses, mit oder ohne Einbeziehung der geometrischen Plausibilität oder durch nicht globale Tiefenschätzung, vgl. (Lucas & Kanade 1981), (Brox et al. 2004) oder (Hirschmüller 2008). Für letzteren Ansatz ist planare wie polare Rektifizierung der Bilder gleichermaßen denkbar (Pollefeys et al. 2004).For an image triplet, a pair of images is acquired in such a way that it is as suitable as possible for a pixel-by-pixel assignment. The acquisition of this image pair is not bound to the recording time of the third image. Both monocular and stereo recording configurations are possible. The pixel-by-pixel assignment for the image pair, which depicts the scene at a virtually identical point in time, takes place in one embodiment as a global solution z. In the form of an optical flow, with or without the inclusion of geometric plausibility, or by non-global depth estimation, cf. (Lucas & Kanade 1981), (Brox et al., 2004) or (Hirschmüller, 2008). For the latter approach, planar and polar rectification of the images is equally conceivable (Pollefeys et al., 2004).

Schritt 4: Angleichung der Perspektive zwischen Vorher- und Nachher-Bildern.Step 4: Align the perspective between before and after pictures.

In diesem Schritt wird unter Verwendung des ermittelten Trifokaltensors und der pixelweisen Zuordnung für das Bildpaar, welches die Szene zum quasi identischen Zeitpunkt abbildet, die Transformation einer oder mehrerer Perspektiven der drei Bilder vorgenommen, vgl. (Avidan & Shashua 1997), (Connor & Reid 2002).In this step, using the determined Trifokaltensors and the pixel-by-pixel assignment for the image pair, which images the scene at a virtually identical time, the transformation of one or more perspectives of the three images is made, see. (Avidan & Shashua 1997), (Connor & Reid 2002).

In einer Ausgestaltung wird einer relativen oder absolute Orientierung in Verbindung mit einem vorhandenen, berechneten oder mittels RGB-D Kameras ermittelten groben Höhenmodells verwendet für eine grobe Transformation der Perspektiven der Bilder.In one embodiment, a relative or absolute orientation in conjunction with an existing, calculated or determined by RGB-D cameras coarse height model is used for a rough transformation of the perspectives of the images.

Die Bilder, für die eine Änderungsdetektion durchgeführt werden soll, liegen verzeichnungsfrei vor, werden verzeichnungsfrei aufbereitet oder die Verzeichnung wird modelliert (Buchdahl 1958), (Hartley & Zisserman 2004), (Barreto & Daniilidis 2005), (Brito et al. 2013) oder analog zu (Brito et al. 2013) werden die Verzeichnisparameter direkt mit dem Trifokaltensor bestimmt (radialer Trifokaltensor).The images for which a change detection is to be performed are available without distortion, are prepared without distortion or the distortion is modeled (Buchdahl 1958 ), (Hartley & Zisserman 2004 ), (Barreto & Daniilidis 2005 ), (Brito et al., 2013) or, analogously to (Brito et al., 2013), the directory parameters are determined directly with the trifocal senor (radial trifocal senor).

Betrachtet sei der Fall mit einem Vorher-Bild und zwei Nachher-Bildern, also ein Bild, das zu dem zweiten Zeitintervall gehört, und zwei Bilder, die zu dem ersten Zeitintervall gehören. Dabei sei auch der zeitliche Abstand zwischen den beiden Nachher-Bildern vernachlässigbar gering. Die folgenden Ausführungen gelten entsprechend für die umgekehrte Konstellation, dass zwei Vorher-Bilder zum Zeitpunkt t0 und ein Nachher-Bild zum Zeitpunkt t1 vorliegen. Auch gelten die Erläuterungen für den Fall, dass zusätzliche Vorher-Bilder und/oder Nachher-Bilder vorhanden sind. Dies ist z. B. der Fall, wenn die Bilder einer Videosequenz bzw. Videosequenzen entstammen.Consider the case with a before-picture and two after-pictures, ie an image belonging to the second time interval and two pictures belonging to the first time interval. The time interval between the two subsequent pictures is negligible. The following explanations apply mutatis mutandis to the reverse constellation that there are two before-pictures at the time t0 and one after-picture at the time t1. Also, the explanations apply to the case where additional before images and / or after images exist. This is z. Example, the case when the images of a video sequence or video sequences come from.

Ein bestehendes Referenzbild (Vorher-Bild) wird verwendet, dieser Aufnahmezeitpunkt wird im Folgenden als t0 bezeichnet.An existing reference image (before image) is used, this recording time is referred to as t0 in the following.

Verwendung oder Aufnahme zweier geeigneter, aktueller Bilder (Nachher-Bilder), für die eine pixelweise Zuordnung sinnvoll möglich ist, dazu gehören insbesondere Stereoaufnahmekonfigurationen. Die Aufnahmezeitpunkte müssen entweder identisch sein, was bei Stereoaufnahmekonfigurationen der Fall ist oder es muss davon ausgegangen werden können, dass zwischen den Aufnahmezeitpunkten keine relevante Veränderung an der Szene erfolgt. Dieser Aufnahmezeitpunkt wird im Folgenden als t1 bezeichnet.Use or capture of two suitable, current images (after images) for which a pixel-wise assignment is meaningfully possible, these include in particular stereo recording configurations. The recording times must either be identical, which is the case with stereo recording configurations, or it must be assumed that there is no relevant change in the scene between the recording times. This recording time is referred to below as t1.

Einige Vorteile der Erfindung sind die folgenden:

  • • Es wird eine 2D-Änderungsdetektion ermöglicht, die nicht von Referenzmodellen abhängig ist. Es ist auch keine Veränderung des Volumens erforderlich, um eine Identifizierung zu erlauben.
  • • Die Bestimmung der Geometrie des Dreibildfalls erfordert für diese Anwendung keine euklidische Rekonstruktion, sondern lediglich eine projektive. Daher können alle Verfahrensschritte unkalibriert, d. h. ohne Kenntnis der intrinsischen Kameraparameter durchgeführt werden.
  • • Alle Verfahrensschritte sind echtzeitfähig.
  • • Die pixelweise Zuordnung erfolgt für zwei Bilder, die aufgrund ihrer zeitlichen Nähe eine unveränderte Szenerie zeigen. Daher kann davon ausgegangen werden, dass die Zuordnung nicht durch eine Änderung der Szenerie beeinträchtigt wird. Etwaige Fehler im Disparitätsbild - also Fehler, die bei der pixelweisen Zuordnung auftreten - können ggf. dem Verfahren oder der Aufnahmekonfiguration zugerechnet und somit nicht mehr fälschlich als Änderungen gedeutet werden. Für die betroffenen Bildregionen wäre somit bekannt, dass eine Aussage über etwaige Änderungen nicht möglich ist.
  • • Verdeckungen führen bei der Transformation der Perspektive zu leeren Bildregionen, so dass feststellbar ist, wo Information fehlt und eine Aussage über etwaige Änderungen nicht möglich ist.
  • • Ein großer Vorteil besteht darin, dass die Erfindung auf Grundlage von Consumer-Kameras, rein bildbasiert und ohne Expertenwissen umsetzbar ist, sodass auch bei sehr geringen Hardwarekosten zuverlässige Ergebnisse erzielt werden können.
Some advantages of the invention are the following:
  • • It allows 2D change detection that does not depend on reference models. Also, no change in volume is required to allow identification.
  • • The determination of the geometry of the three-dimensional case does not require a Euclidean reconstruction for this application, but only a projective one. Therefore, all process steps can be performed uncalibrated, ie without knowledge of the intrinsic camera parameters.
  • • All process steps are real-time capable.
  • • The pixel-by-pixel assignment is done for two images which, due to their temporal proximity, show an unchanged scene. Therefore, it can be assumed that the assignment is not affected by a change in the scenery. Any errors in the disparity image - that is, errors that occur in the pixel-wise assignment - can possibly be attributed to the procedure or the recording configuration and thus no longer be interpreted as changes wrongly. For the affected image regions would thus be known that a Statement about any changes is not possible.
  • • When the perspective is transformed, obscurations lead to empty image regions, so that it is possible to determine where information is missing and if it is not possible to make any statements about any changes.
  • • A big advantage is that the invention can be implemented on the basis of consumer cameras, purely image-based and without expert knowledge, so that reliable results can be achieved even at very low hardware costs.

Im Einzelnen gibt es eine Vielzahl von Möglichkeiten, die Vorrichtung und das entsprechende Verfahren auszugestalten und weiterzubilden. Dazu wird verwiesen einerseits auf die Patentansprüche, andererseits auf die folgende Beschreibung von Ausführungsbeispielen in Verbindung mit der Zeichnung. Es zeigen:

  • 1 eine schematische Darstellung einer photographischen Aufnahme einer Szenerie,
  • 2 eine schematische Darstellung der zeitlichen Verteilung von drei Bildern einer Szenerie,
  • 3 eine schematische Darstellung einer Ausgestaltung einer Vorrichtung zur Identifizierung einer Veränderung in einer Szenerie,
  • 4 eine schematische Darstellung einer ersten Variante der Ermittlung von Daten eines Trifokaltensors (a)) und Daten einer pixelweisen Zuordnung (b)),
  • 5 eine schematische Darstellung einer zweiten Variante der Ermittlung von Daten eines Trifokaltensors (a)) und Daten einer pixelweisen Zuordnung (b)),
  • 6 eine schematische Darstellung einer dritten Variante der Ermittlung von Daten eines Trifokaltensors (a) oder b)) und Daten einer pixelweisen Zuordnung (c)),
  • 7 eine schematische Darstellung mehrerer Varianten einer unidirektionalen, einfachen Transformation zwischen zwei Bildern,
  • 8 eine schematische Darstellung mehrerer Varianten einer unidirektionalen, doppelten Transformation zwischen drei Bildern,
  • 9 eine schematische Darstellung mehrerer Varianten einer bidirektionalen, einfachen Transformation zwischen zwei Bildern,
  • 10 eine schematische Darstellung mehrerer Varianten einer bidirektionalen, doppelten Transformation zwischen drei Bildern und
  • 11 eine beispielhafte Realisierung des Verfahrens als Ablaufdiagramm.
In particular, there are a variety of ways to design and further develop the device and the corresponding method. Reference is made on the one hand to the claims, on the other hand to the following description of embodiments in conjunction with the drawings. Show it:
  • 1 a schematic representation of a photograph of a scene,
  • 2 a schematic representation of the temporal distribution of three images of a scene,
  • 3 a schematic representation of an embodiment of a device for identifying a change in a scenery,
  • 4 a schematic representation of a first variant of the determination of data of a Trifokaltensors (a)) and data of a pixel-by-pixel assignment (b)),
  • 5 a schematic representation of a second variant of the determination of data of a Trifokaltensors (a)) and data of a pixel-by-pixel assignment (b)),
  • 6 a schematic representation of a third variant of the determination of data of a Trifokaltensors (a) or b)) and data of a pixel-by-pixel assignment (c)),
  • 7 a schematic representation of several variants of a unidirectional, simple transformation between two images,
  • 8th a schematic representation of several variants of a unidirectional, double transformation between three images,
  • 9 a schematic representation of several variants of a bidirectional, simple transformation between two images,
  • 10 a schematic representation of several variants of a bidirectional, double transformation between three images and
  • 11 an exemplary implementation of the method as a flowchart.

In der 1 ist dargestellt, wie von einer Szenerie 100 mit einer Aufnahmevorrichtung 200, die hier beispielhaft eine Kamera ist, Bilder aufgenommen werden.In the 1 is represented as from a scenery 100 with a recording device 200 , which is a camera here by way of example, pictures are taken.

Die zeitliche Zuordnung von drei Bildern einer solchen Szenerie 100 ist in der 2 dargestellt.The temporal assignment of three pictures of such a scene 100 is in the 2 shown.

Die drei Bilder seien dafür mit P1, P2 und P3 bezeichnet, die zu den Aufnahmezeitpunkten T1, T2 und T3 aufgenommen worden sind. Zwei Bilder P1 und P2 gehören dabei zu einem ersten Zeitintervall I1 und das dritte Bild P3 gehört zu einem zweiten Zeitintervall 12.The three pictures are with it P1 . P2 and P3 referred to at the recording times T1 . T2 and T3 been recorded. Two pictures P1 and P2 belong to a first time interval I1 and the third picture P3 belongs to a second time interval 12 ,

In der gezeigten Ausgestaltung handelt es sich um zwei Vorher-Bilder und ein Nachher-Bild. Dies ist jedoch nur ein Beispiel, da das hier beschriebene Verfahren bzw. die Vorrichtung auch auf ein Vorher-Bild und zwei Nachher-Bilder anwendbar ist. Entsprechendes gilt auch für den Fall, dass noch weitere Vorher-Bilder bzw. Nachher-Bilder vorhanden sind.The embodiment shown is two before-pictures and one after-picture. However, this is only an example because the method or apparatus described herein is also applicable to a before-picture and two-after-picture. The same applies to the case that even more before-pictures or after-pictures are available.

Zwischen den zwei Bildern P1 und P2 des ersten Zeitintervalls I1 besteht hier ein zeitlicher Abstand dt1, der kleiner ist als der Abstand dt2 zwischen den zwei Zeitintervallen I1 und I2. In einer Ausgestaltung ist der zeitliche Abstand dt1 zwischen den Bilder P1 und P2 nahezu Null, sodass die Bilder P1 und P2 also im Wesentlichen zeitgleich aufgenommen worden sind. Bei den Bildern P1 und P2 wird dabei angenommen, dass sich keine Änderung der Szenerie 100 zwischen den Aufnahmezeitpunkten T1 und T2 eingestellt hat. Daher ist der zeitliche Abstand dt1 vorzugsweise möglichst klein. Die drei Bilder P1, P2 und P3 unterscheiden sich generell darin voneinander, dass sie die Szenerie 100 aus anderen Perspektiven aufgenommen haben.Between the two pictures P1 and P2 the first time interval I1 there is a time gap here dt1 which is smaller than the distance dt2 between the two time intervals I1 and I2 , In one embodiment, the time interval dt1 between the pictures P1 and P2 almost zero, so the pictures P1 and P2 that is, they were essentially recorded at the same time. In the pictures P1 and P2 It is assumed that there is no change in the scenery 100 between recording times T1 and T2 has set. Therefore, the time interval dt1 preferably as small as possible. The three pictures P1 . P2 and P3 They generally differ from each other in that they are the scenery 100 from different perspectives.

Das dritte Bild P3, das hier auch das Bild des zweiten Zeitintervalls I2 und ein Nachher-Bild ist, wurde zu einem anderen Zeitpunkt T3 als die Vorher-Bilder P1 und P2 aufgenommen: T1 und T2. Die Perspektive des dritten Bildes P3 ist dabei unterschiedlich zu den Perspektiven der beiden anderen Bilder P1 und P2.The third picture P3 , here also the picture of the second time interval I2 and a after-image is at another time T3 as the before pictures P1 and P2 added: T1 and T2 , The perspective of the third picture P3 is different to the perspectives of the other two pictures P1 and P2 ,

Für die Identifizierung einer Änderung der Szenerie 100 werden somit mindestens drei Bilder verwendet. Zwei Bilder - hier P1 und P2 - zeigen die Szenerie 100 aus zwei unterschiedlichen Perspektiven und haben beieinanderliegende Aufnahmezeitpunkte T1 und T2. Das dritte Bild P3 zeigt ebenfalls die Szenerie, hat jedoch einen deutlich unterschiedlichen Aufnahmezeitpunkt T3. Der zeitliche Abstand dt2 zwischen den Zeitintervallen I1, I2, in denen die drei Bilder P1, P2 und P3 liegen, ist dabei beliebig, aber ist zumindest größer als der zeitliche Abstand dt1 zwischen den Bilder P1, P2 des ersten Zeitintervalls I1. Ebenfalls beliebig ist, ob die zwei Bilder P1, P2 zeitlich vor oder nach dem Aufnahmezeitpunkt T3 des dritten Bildes P3 liegen. Somit kann das erste Zeitintervall I1 auch dem zweiten Zeitintervall I2 folgen.For identifying a change of scenery 100 thus at least three images are used. Two pictures - here P1 and P2 - show the scenery 100 from two different perspectives and have different recording times T1 and T2 , The third picture P3 also shows the scene, but has a significantly different recording time T3 , The time interval dt2 between the time intervals I1 . I2 in which the three pictures P1 . P2 and P3 lie, is arbitrary, but is at least greater than the time interval dt1 between the pictures P1 . P2 the first time interval I1 , Also arbitrary is whether the two pictures P1 . P2 time before or after the recording time T3 of the third picture P3 lie. Thus, the first time interval I1 also the second time interval I2 consequences.

Die 3 zeigt schematisch eine Ausgestaltung einer Vorrichtung 1 zur Verarbeitung von drei Eingangsbildern P1', P2' und P3' sowie zur entsprechenden Identifizierung von Veränderungen in der Szenerie 100 anhand der Bilder. The 3 schematically shows an embodiment of a device 1 for processing three input pictures P1 ' P2 ' and P3 'as well as the corresponding identification of changes in the scenery 100 based on the pictures.

Die drei Eingangsbilder P1', P2' und P3' werden in dem dargestellten Ausführungsbeispiel zunächst einer Korrekturvorrichtung 50 zugeführt, die mögliche Verzeichnungsfehler erkennt und passend korrigiert. In der dargestellten Ausgestaltung gibt die Korrekturvorrichtung 50 korrigierte Bilder P1, P2, P3 aus. In einer alternativen Ausgestaltung ermittelt die Korrekturvorrichtung 50 Korrekturdaten, die bei den weiteren Schritten verwendet werden.The three input pictures P1 ' P2 ' and P3 'Be in the illustrated embodiment, first of a correction device 50 fed, which detects possible distortion errors and corrected appropriately. In the illustrated embodiment, the correction device gives 50 corrected pictures P1 . P2 . P3 out. In an alternative embodiment, the correction device determines 50 Correction data used in further steps.

Die drei Bilder P1, P2, P3 werden an die erste Ermittlungsvorrichtung 10 übermittelt, die aus den Bildern P1, P2, P3 Daten eines Trifokaltensors ermittelt.The three pictures P1 . P2 . P3 will be sent to the first investigator 10 transmitted from the pictures P1 . P2 . P3 Data of a Trifokaltensors determined.

Ein Trifokaltensor ist dabei ein Tensor, welcher geometrische Beziehungen zwischen den Aufnahmen der drei Bilder P1, P2, P3 beschreibt. In einer Variante werden dafür Projektionsmatrizen verwendet, die die jeweilige Aufnahme z. B. mit einer Kamera beschreiben. A tri-fold sorcerer is a tensor, which has geometrical relationships between the images of the three images P1 . P2 . P3 describes. In one variant, projection matrices are used for this purpose, the respective recording z. B. describe with a camera.

Die zwei Bilder P1 und P2, die zu dem gleichen Zeitintervall I1 gehören, werden zudem der zweiten Ermittlungsvorrichtung 20 zugeführt. Zwischen den beiden Bildern P1 und P2 liegt nur eine geringe zeitliche Differenz dt1. In einer Ausgestaltung sind die beiden Bilder P1 und P2 zeitgleich aufgenommen. Beide Bilder P1 und P2 zeigen jedoch die Szenerie 100 aus unterschiedlichen Perspektiven.The two pictures P1 and P2 that at the same time interval I1 also become the second investigative device 20 fed. Between the two pictures P1 and P2 there is only a small difference in time dt1 , In one embodiment, the two images P1 and P2 recorded at the same time. Both pictures P1 and P2 but show the scenery 100 from different perspectives.

Die zweite Ermittlungsvorrichtung 20 ermittelt Daten einer pixelweisen Zuordnung zwischen den beiden Bildern P1 und P2. Es wird also ermittelt, welche Pixel der zwei Bilder P1 und P2 jeweils zueinander gehören.The second investigative device 20 determines data of a pixel-wise assignment between the two images P1 and P2 , It is thus determined which pixels of the two images P1 and P2 belong to each other.

Schließlich werden die drei Bilder P1, P2, P3 sowie die Daten des Trifokaltensors und die Daten der pixelweisen Zuordnung der Bildbearbeitungsvorrichtung 30 zugeführt.Finally, the three pictures P1 . P2 . P3 as well as the data of the Trifokaltensors and the data of the pixel-by-pixel assignment of the image processing device 30 fed.

Die Bildbearbeitungsvorrichtung 30 ist derartig ausgestaltet, dass sie ausgehend von den drei perspektivisch nicht angeglichenen Bildern P1, P2, P3 sowie den Daten hinsichtlich des Trifokaltensor und der pixelweiser Zuordnung wenigstens zwei Vergleichsbilder C1 und C2 erzeugt, die die Szenerie 100 aus der gleichen Perspektive zeigen.The image processing device 30 is designed in such a way that it starts from the three perspectively unadjusted images P1 . P2 . P3 as well as the data regarding the Trifokaltensor and the pixelwise assignment at least two comparison images C1 and C2 that creates the scenery 100 show from the same perspective.

Die Vergleichsbilder C1, C2 entstammen dabei den beiden unterschiedlichen Zeitintervallen I1 und I2. In einer Ausgestaltung ist dabei ein Vergleichsbild C1 gleich einem perspektivisch nicht angeglichenen Bild - z. B. das Bild P1 aus dem ersten Zeitintervall I1 - und das andere Vergleichsbild ergibt sich aus einem anderen perspektivisch nicht angeglichenen Bild - entsprechend das Bild P3 aus dem zweiten Zeitintervall I2 - mit geänderter Perspektive. Alternativ werden aus beiden Zeitintervallen I1 und I2 Bilder zu einer gemeinsamen Perspektive transformiert.The comparison pictures C1 . C2 come from the two different time intervals I1 and I2 , In one embodiment is a comparison image C1 equal to a perspective not aligned image - z. For example, the picture P1 from the first time interval I1 - and the other comparative image results from another perspective not aligned image - corresponding to the image P3 from the second time interval I2 - with changed perspective. Alternatively, both time intervals become I1 and I2 Transformed images into a common perspective.

Die beiden Vergleichsbilder C1 und C2 werden dann einer Vergleichsvorrichtung 40 zugeführt, die die beiden Vergleichsbilder C1 und C2 miteinander vergleicht und ein Vergleichsergebnis erzeugt, das Auskunft über Änderungen der Szenerie 100 gibt.The two comparison pictures C1 and C2 are then a comparison device 40 fed to the two comparison images C1 and C2 compares with each other and generates a comparison result that provides information about changes in the scenery 100 gives.

Wie bereits angemerkt, sind drei Bilder erforderlich, welche die Szenerie aus unterschiedlichen Perspektiven zeigen, wobei zwei Bilder zeitlich nah beieinander oder sogar zeitgleich aufgenommen worden sind und wobei das dritte Bild einen unterschiedlichen Aufnahmezeitpunkt hat. Die zwei zeitlich nah beieinander aufgenommenen Bilder sind dabei vorzugsweise derartig erzeugt oder ausgewählt worden, dass deren Aufnahmebedingungen für eine pixelweise Zuordnung möglichst gut geeignet sind.As already noted, three images are required, showing the scene from different perspectives, where two images have been taken close to each other in time, or even at the same time, and the third image has a different recording time. The two images recorded temporally close to one another are preferably generated or selected in such a way that their recording conditions are as well suited for pixel-by-pixel assignment.

Es wurde auch bereits erwähnt, dass die zwei Bilder zeitlich vor oder hinter dem dritten Bild liegen können. Daher sind die folgenden Ausführungen entsprechend auch in zeitlicher Umkehrung zu verstehen.It has also been mentioned that the two pictures can be temporally in front of or behind the third picture. Therefore, the following statements are to be understood accordingly in temporal reversal.

Weiterhin wird in den folgenden Ausgestaltungen davon ausgegangen, dass zwei Bilder den gleichen Aufnahmezeitpunkt haben. Die entsprechenden Ausgestaltungen gelten jedoch auch für den Fall eines zeitlichen Abstandes, wobei der Abstand dt1 zwischen den Bildern kleiner als der Abstand dt2 zwischen den Zeitintervallen I1 und I2 ist.Furthermore, it is assumed in the following embodiments that two images have the same recording time. However, the corresponding embodiments also apply to the case of a time interval, wherein the distance dt1 between the pictures smaller than the distance dt2 between the time intervals I1 and I2 is.

Die 4 zeigt drei Bilder, die hier mit P1, P2 und P3 bezeichnet sind und denen die Aufnahmezeitpunkte t0 und t1 zugeordnet sind. Somit sind zwei Bilder: P2 und P3 zeitgleich aufgenommen worden. Damit gehören diese beiden Bilder P2 und P3 auch zu dem ersten Zeitintervall I1, das in dem gezeigten Beispiel dem zweiten Zeitintervall I2 folgt. Es liegen somit zwei Nachher-Bilder P2 und P3 und ein Vorher-Bild P3 vor.The 4 shows three pictures here with P1 . P2 and P3 are designated and to which the recording times t0 and t1 assigned. Thus, two pictures are: P2 and P3 been recorded at the same time. So these two pictures belong P2 and P3 also at the first time interval I1 in the example shown, the second time interval I2 follows. There are thus two after-pictures P2 and P3 and a before-picture P3 in front.

Die 4 a) verdeutlicht die Ermittlung der Daten des - hier insbesondere unkalibrierten - Trifokaltensors, wobei mindestens sechs Punktkorrespondenzen über die drei Bilder P1, P2, P3 ermittelt werden.The 4 a) illustrates the determination of the data of - in this case in particular uncalibrated - Trifokaltensors, wherein at least six point correspondences on the three images P1 . P2 . P3 be determined.

Die 4 b) zeigt die Bestimmung der pixelweisen Zuordnung für die zwei Nachher-Bilder P2, P3, also für die Bilder, die dem gleichen Zeitintervall I1 entstammen und sich hinsichtlich der Perspektive voneinander unterscheiden. Die Striche deuten dabei an, dass deutliche mehr zusammengehörige Pixel ermittelt werden als dies bei der Ermittlung des Trifokaltensors - 4 a) - der Fall ist.The 4 b) shows the determination of the pixel-by-pixel assignment for the two after-pictures P2 . P3 , that is, for the images that have the same time interval I1 come from and look at the perspective differ from each other. The strokes indicate that significantly more pixels are detected than in the determination of the trifocal scores - 4 a) - the case is.

Die gleiche Vorgehensweise gilt auch für den Fall von zwei Vorher-Bildern und einem Nachher-Bild.The same procedure applies to the case of two before-pictures and one after-picture.

Die 5 zeigt den Fall, dass insgesamt n Bilder vorhanden sind: P1, P2 bis Pn. Dabei handelt es sich um (n-1) Vorher-Bilder: P1 bis Pn-1 und ein Nachher-Bild: Pn. Dabei ist n eine natürliche Zahl größer als Drei.The 5 shows the case that there are n total pictures: P1 . P2 to Pn. These are ( n-1 ) Before pictures: P1 to Pn-1 and a after-picture: Pn. where n is a natural number greater than three.

Die Vorher-Bilder sind in dem ersten Zeitintervall I1 aufgenommen worden und haben hier sogar jeweils den gleichen Aufnahmezeitpunkt t0. Das Nachher-Bild Pn mit dem Aufnahmezeitpunkt t1 liegt im zweiten Zeitintervall I2.The before pictures are in the first time interval I1 been recorded and even have the same recording time here t0 , The after picture pn with the recording time t1 lies in the second time interval I2 ,

In der 5 a) ist angedeutet, wie der unkalibrierte Trifokalsensor durch sechs Punktkorrespondenzen für drei der n Bilder P1, Pn-1 und Pn ermittelt wird. Dabei ist wenigstens ein Bild das Nachher-Bild Pn.In the 5 a) is suggested as the uncalibrated trifocal sensor by six point correspondences for three of the n images P1 . pn - 1 and pn is determined. At least one picture is the after-picture pn ,

Die 5 b) verdeutlicht entsprechend, dass eine pixelweise Zuordnung zwischen allen (n-1) zeitgleichen Bildern ermittelt wird.The 5 b) clarifies that a pixel-by-pixel association between all n-1 ) is determined at the same time images.

Die 6 zeigt den Fall, dass insgesamt (n+m) Bilder vorhanden sind, wobei n und m natürliche Zahlen sind.The 6 shows the case that total ( n + m ) Images are present, where n and m are natural numbers.

Dabei liegen (n-1) Bilder vor, die zu einem Zeitpunkt t0 aufgenommen worden sind. Dies sind also Vorher-Bilder. Zudem gibt es (m+1) Bilder, die zu einem anderen Zeitpunkt t1 aufgenommen worden sind. Die sind hier Nachher-Bilder.Thereby lie ( n-1 ) Pictures before, at a time t0 been recorded. So these are before pictures. There are also ( m + 1 ) Pictures at another time t1 been recorded. They are here after pictures.

Für die Bestimmung des Trifokaltensors werden drei Bilder verwendet. Dabei entstammen zwei Bilder einem gemeinsamen und - hier so bezeichneten - ersten Zeitintervall I1 und das dritte Bild entstammt einem zweiten Zeitintervall I2.Three images are used to determine the trifocal senor. Two pictures are taken from a common and - here designated - first time interval I1 and the third image comes from a second time interval I2 ,

Dabei ergeben sich zwei Möglichkeiten, die in den 6 a) und b) dargestellt sind.This results in two options that in the 6 a) and b) are shown.

In der 6 a) ist der Fall dargestellt, dass sich das erste Zeitintervall I1 auf die Nachher-Bilder zum Zeitpunkt t1 bezieht. Es werden somit zwei Bilder Pj und Pk herangezogen, wobei n <= j < k und k <= n + m ist. Das einzelne Bild Pi mit 1 <= i < n ist ein Vorher-Bild aus dem Zeitintervall I2.In the 6 a) is the case shown that the first time interval I1 on the after pictures at the time t1 refers. There are thus two pictures Pj and Pk where n <= j <k and k <= n + m. The single image Pi with 1 <= i <n is a before image from the time interval I2 ,

Umgekehrt zeigt die 6 b), dass die zwei Bilder Pi und Pj Vorher-Bilder und daher dem ersten Zeitintervall I1 zuzuordnen sind. Das dritte Bild Pk ist ein Nachher-Bild.Conversely, the shows 6 b) that the two pictures pi and Pj Before pictures and therefore the first time interval I1 are assigned. The third picture Pk is a picture after.

Für die Ermittlung der pixelweisen Zuordnung - angedeutet in der 6 c) - werden zum einen alle (n-1) Vorher-Bilder und werden zum anderen alle (m+1) Nachher-Bilder jeweils separat ausgewertet. Es gibt somit eine pixelweise Zuordnung für den Vorher-Zustand und eine pixelweise Zuordnung für den Nachher-Zustand. Die Daten von beiden Zuordnungen werden der Bildbearbeitungsvorrichtung 30 (vgl. 3) zugeführt.For the determination of the pixel-wise assignment - indicated in the 6 c) - on the one hand all ( n-1 ) Before-pictures and become on the other all ( m + 1 ) After-pictures evaluated separately. There is thus a pixel-by-pixel assignment for the before state and a pixel-by-pixel assignment for the after state. The data of both assignments become the image processing device 30 (see. 3 ).

Die folgenden Abbildungen beziehen sich auf einige beispielhafte Transformationen zwischen den einzelnen Bildern durch die Bildbearbeitungsvorrichtung 30 (vgl. 3). Die Transformationen beziehen sich dabei auf die Anpassung der Perspektiven der Bilder. Dabei werden zumindest zwei Vergleichsbilder C1, C2 (vgl. 3) mit gleicher Perspektive auf die Szenerie 100 (vgl. 1) generiert.The following illustrations relate to some exemplary transformations between the individual images by the image processing device 30 (see. 3 ). The transformations refer to the adaptation of the perspectives of the images. At least two comparison images will be made C1 . C2 (see. 3 ) with the same perspective on the scenery 100 (see. 1 ) generated.

In der 7 sind drei Beispiele für eine unidirektional, einfache Transformation dargestellt. Dabei wird jeweils ein Bild - von dem der Pfeil ausgeht - in Bezug auf die Perspektive an ein anderes Bild - auf dem der Pfeil endet - angepasst.In the 7 Three examples of a unidirectional, simple transformation are presented. In each case, one image - from which the arrow starts - is adapted with respect to the perspective to another image - on which the arrow ends -.

Dargestellt sind jeweils drei Bilder: P1, P2 und P3, die insgesamt an zwei unterschiedlichen Aufnahmezeitpunkten: t0 und t1 aufgenommen worden sind. Zwei Bilder sind somit gleichzeitig aufgenommen worden: t0 oder t1. Die gezeigten Verknüpfungen gelten jedoch auch für den Fall, dass bei zwei Bildern zwischen den Aufnahmezeitpunkten ein zeitlicher Abstand dt1 (vgl. 2) besteht. Oder mit anderen Worten: zwei Bilder gehören zum ersten Zeitintervall I1 und haben einen gewissen - geringen - oder keinen zeitlichen Abstand und ein Bild gehört zu einem zweiten Zeitintervall I2, dessen zeitlicher Abstand dt2 zum ersten Zeitintervall I1 größer als der ggf. bestehende Abstand dt1 zwischen den Aufnahmezeitpunkten der Bilder des ersten Zeitintervalls I1 ist. Dieser Zusammenhang ist insbesondere dann gegeben, wenn die Bilder des ersten Zeitintervalls I1 identische Aufnahmezeitpunkte haben, sodass also dt1 = 0 gilt.There are three pictures each: P1 . P2 and P3 , in total at two different recording times: t0 and t1 been recorded. Two pictures have been taken at the same time: t0 or t1 , However, the links shown also apply to the case in which two images between the recording times a time interval dt1 (see. 2 ) consists. Or in other words: two images belong to the first time interval I1 and have a certain - small - or no time interval and a picture belongs to a second time interval I2 whose time interval dt2 at the first time interval I1 greater than the possibly existing distance dt1 between the recording times of the images of the first time interval I1 is. This relationship is given in particular when the images of the first time interval I1 have identical recording times, so so dt1 = 0 applies.

In der 7 a) ist ein Vorher-Bild P1 mit dem Aufnahmezeitpunkt t0 und sind zwei Nachher-Bilder P2 und P3 mit einem Aufnahmezeitpunkt t1 gegeben. Da - für die Beschreibung - den beiden zeitnahen oder zeitgleichen Bildern P2 und P3 das erste Zeitintervall I1 zugeordnet ist, geht hier das zweite Zeitintervall I2 mit dem zeitlich beabstandeten Bild P1 dem ersten Zeitintervall I1 voraus.In the 7 a) is a before picture P1 with the recording time t0 and are two after pictures P2 and P3 with a recording time t1 given. There - for the description - the two timely or simultaneous pictures P2 and P3 the first time interval I1 is assigned, here goes the second time interval I2 with the temporally spaced image P1 the first time interval I1 ahead.

Im gezeigten Fall wird das Bild P1 auf das Bild P3 in Bezug auf die Perspektive abgebildet. In einem alternativen Fall erfolgt die Anpassung der Perspektive des Bildes P1 an die Perspektive des Bildes P2.In the case shown, the picture becomes P1 on the picture P3 pictured in terms of perspective. In one alternative case, the adjustment of the perspective of the image P1 to the perspective of the picture P2 ,

Entsprechend ist der in der 7 b) gezeigte Fall, wenn zwei Vorher-Bilder P1 und P2 - im ersten Zeitintervall I1 - mit dem gemeinsamen Aufnahmezeitpunkt t0 und ein Nachher-Bild P3 - im zweiten Zeitintervall I2 - gegeben ist. Auch hier wird somit das einzelne Bild P3 an ein Bild der beiden anderen - und hier zeitgleichen - Bilder P1 oder P2 angepasst. Alternativ kann auch hier das Bild P3 an das Bild P1 angepasst werden.Accordingly, in the 7 b) case shown when two before pictures P1 and P2 - in the first time interval I1 - with the common recording time t0 and a picture after P3 - in the second time interval I2 - given is. Here, too, becomes the single picture P3 an image of the other two - and here at the same time - pictures P1 or P2 customized. Alternatively, here is the picture P3 to the picture P1 be adjusted.

Umgekehrt kann auch ein Bild P1 der zwei Bilder des ersten Zeitintervalls I1 an das einzelne Bild des anderen Zeitintervalls I2 angepasst werden. Ein Beispiel einer solchen Vorher-Nachher-Transformation zeigt die 7 c).Conversely, a picture can also be P1 the two pictures of the first time interval I1 to the single picture of the other time interval I2 be adjusted. An example of such a before-after transformation shows the 7c) ,

Alternativ kann das Bild P2 an das Bild P3 angepasst werden. Entsprechendes gilt für den Fall, dass ein Vorher-Bild und zwei Nachher-Bilder vorhanden sind.Alternatively, the picture P2 to the picture P3 be adjusted. The same applies in the case that a before-picture and two after-pictures are present.

In der 8 werden zwei beispielhafte Varianten für eine unidirektionale, doppelte Transformation dargestellt. Die dargestellten Beispiele lassen sich dabei wie bei den vorhergehenden Abbildungen auch auf andere Konstellationen analog anwenden.In the 8th Two exemplary variants for a unidirectional, double transformation are shown. The illustrated examples can be applied analogously to other constellations as in the previous figures.

Die 8 a) zeigt den Fall mit drei Bildern P1, P2 und P3, wobei ein Bild P1 einem Aufnahmezeitpunkt t0 und die zwei anderen Bilder P2 und P3 einem anderen Aufnahmezeitpunkt t1 zugeordnet sind. Für die Transformation wird dabei die Perspektive des Bildes P1 des zweiten Zeitintervalls I2 an die Perspektiven der beiden anderen Bilder P2 und P3 des ersten Zeitintervalls I1 angepasst.The 8 a) shows the case with three pictures P1 . P2 and P3 , taking a picture P1 a recording time t0 and the other two pictures P2 and P3 another recording time t1 assigned. For the transformation thereby the perspective of the picture becomes P1 the second time interval I2 to the perspectives of the other two pictures P2 and P3 the first time interval I1 customized.

Entsprechendes gilt für den Fall, dass zwei Bilder mit Zeitpunkt t0 - also zwei Vorher-Bilder - und ein Bild mit Zeitpunkt t1 - also ein Nachher-Bild - vorliegen. In diesem Fall wird auch das einzelne Bild an die beiden - zeitlich vorausgehenden - Bilder angepasst.The same applies in the event that two pictures with time t0 - that is, two before pictures - and one picture with time t1 - that is, a post-picture. In this case, the individual image is also adapted to the two images, which preceded it in time.

Die 8 b) zeigt, dass zwei Bilder P1 und P2 an ein Bild P3 angepasst werden. Die zwei Bilder P1 und P2 haben den gemeinsamen Aufnahmezeitpunkt t0 und gehören zu dem ersten Zeitintervall I2. Die Perspektiven dieser Bilder P1 und P2 werden an die Perspektive des zeitlich folgenden Bildes P3 des zweiten Zeitintervalls I2 angepasst.The 8 b) shows that two pictures P1 and P2 to a picture P3 be adjusted. The two pictures P1 and P2 have the common recording time t0 and belong to the first time interval I2 , The perspectives of these pictures P1 and P2 become the perspective of the temporal image P3 the second time interval I2 customized.

Entsprechendes gilt für den Fall mit einem Vorher-Bild und zwei Nachher-Bildern.The same applies to the case with a before-picture and two after-pictures.

In der 9 sind zwei mögliche Varianten einer bidirektionalen, einfachen Transformation dargestellt.In the 9 Two possible variants of a bidirectional, simple transformation are shown.

In der 9 a) sind zwei Vorher-Bilder P1 und P2, denen der gemeinsame Aufnahmezeitpunkt t0 zugeordnet ist, und ein Nachher-Bild P3 mit dem Aufnahmezeitpunkt t1 vorhanden.In the 9 a) are two before pictures P1 and P2 which the common recording time t0 is assigned, and an after-image P3 with the recording time t1 available.

Die Ausführungen betreffend eines gemeinsamen Aufnahmezeitpunkts gelten - wie bereits erwähnt und allgemein geltend - auch für leicht unterschiedliche Aufnahmezeitpunkte, insofern die entsprechenden Aufnahmezeitpunkte immer noch eine Zuordnung zu dem ersten Zeitintervall I1 erlauben.The statements concerning a common recording time apply - as already mentioned and generally valid - even for slightly different recording times, insofar as the corresponding recording times are still an assignment to the first time interval I1 allow.

In der 9 a) wird eine bidirektionale Transformation zwischen den Bildern P1 und P3 vorgenommen. Alternativ findet eine Transformation zwischen den Bildern P2 und P3 statt.In the 9 a) becomes a bidirectional transformation between the images P1 and P3 performed. Alternatively, there is a transformation between the pictures P2 and P3 instead of.

Die 9 b) zeigt den Fall mit einem Vorher-Bild P1 und zwei Nachher-Bildern P2 und P3. Dabei wird hier eine Transformation zwischen den Bildern P1 und P2 realisiert. In einer alternativen Ausgestaltung wird eine Transformation zwischen den Bildern P1 und P3 vorgenommen.The 9 b) shows the case with a before picture P1 and two after pictures P2 and P3 , Here is a transformation between the pictures P1 and P2 realized. In an alternative embodiment, a transformation between the images P1 and P3 performed.

In der 10 sind zwei Fälle einer bidirektionalen, doppelten Transformation dargestellt. Jede Transformation hinsichtlich der Perspektive findet zwischen zwei Bildern statt, die zu unterschiedlichen Zeitpunkten aufgenommen worden sind. Für die doppelte Transformation wird jeweils eine Transformation zwischen dem Bild des zweiten Zeitintervalls I2 und jeweils einem Bild der zwei Bilder des ersten Zeitintervalls I1 vorgenommen.In the 10 Two cases of bidirectional, double transformation are shown. Each transformation in perspective takes place between two images taken at different times. For the double transformation, there is a transformation between the image of the second time interval I2 and one image each of the two images of the first time interval I1 performed.

In der 10 a) sind die zwei Bilder P2, P3 des ersten Zeitintervalls I1 Nachher-Bilder, die hier zudem einem gemeinsamen Aufnahmezeitpunkt t1 zugeordnet sind. Zwischen diesen beiden Bildern P2 und P3 und dem einzelnen Bild P1 des zweiten Zeitintervalls I2, das hier das Vorher-Bild ist, wird jeweils eine bidirektionale Transformation vorgenommen.In the 10 a) are the two pictures P2 . P3 the first time interval I1 After pictures, here also a common recording time t1 assigned. Between these two pictures P2 and P3 and the single picture P1 the second time interval I2 , which is the before picture here, a bidirectional transformation is made in each case.

In der 10 b) ist der alternative Fall dargestellt, dass zwei Vorher-Bilder P1 und P2 und ein Nachher-Bild P3 gegeben sind. Daher wird jeweils eine bidirektionale Transformation zwischen den Bildern P1 und P3 sowie zwischen den Bildern P2 und P3 realisiert.In the 10 b) the alternative case is shown that two before-pictures P1 and P2 and a picture after P3 given are. Therefore, in each case a bidirectional transformation between the images P1 and P3 as well as between the pictures P2 and P3 realized.

Die vorgenannten Transformationen führen jeweils zu mindestens zwei Vergleichsbildern, die die gleiche Perspektive aufweisen.The aforementioned transformations each lead to at least two comparison images which have the same perspective.

Ein beispielhafter Ablauf des Verfahrens zur Identifizierung einer Veränderung in einer Szenerie anhand mindestens dreier Bilder wird in der 11 dargestellt.An exemplary procedure of the method for identifying a change in a scene based on at least three images is described in US Pat 11 shown.

Der beispielhafte Verlauf beginnt im Schritt 500 mit der Frage, ob drei Bilder der betrachteten Szenerie verzeichnungsfrei vorliegen. The exemplary course begins in the step 500 with the question whether three pictures of the scene under consideration are available without distortion.

Im positiven Fall (Y-Zweig) folgt Schritt 505, der den Beginn der weiteren Schritte darstellt.In the positive case (Y branch), step follows 505 which represents the beginning of further steps.

Im negativen Fall (N-Zweig) wird im Schritt 501 ein Verzeichnungsmodell gewählt und werden die Korrekturparameter bezüglich der Verzeichnung bestimmt.In the negative case (N-branch) is in step 501 a distortion model is selected and the correction parameters are determined with respect to the distortion.

Im Schritt 502 ist entscheidend, ob die Originalbilder für das weitere Vorgehen verwendet werden soll.In step 502 It is crucial whether the original images should be used for further action.

Ist dem nicht der Fall (N-Zweig), so werden im Schritt 503 verzeichnungsfreie Bilder berechnet, mit denen dann der Schritt 505 folgt.If this is not the case (N-branch), then in step 503 calculated distortion-free images, with which then the step 505 follows.

Sollen die Originalbilder Verwendung finden (Y-Zweig nach Schritt 502), so werden im Schritt 504 die Daten für korrigierte Bildkoordinaten bereitgestellt und bei den folgenden Schritten benutzt. Der erste folgende Schritt ist auch hier Schritt 505.Should the original images be used (Y branch after step 502 ), so in the step 504 provided the data for corrected image coordinates and used in the following steps. The first step is also here step 505 ,

Im Schritt 505 ist relevant, ob die zugehörigen Projektionsmatrizen für die drei Bilder vorliegen, ob also die nötigen Daten vorhanden sind, um aus diesen die Matrizen zu ermitteln. Die Daten ergeben sich dabei beispielsweise durch die Verwendung eines inertialen Navigationssystems oder durch die photogrammetrische Bestimmung der relativen oder absoluten Orientierung. Die Projektionsmatrizen beschreiben die jeweilige Abbildung - auch Projektion genannt - der Szenerie auf das Kamerabild bei der Aufnahme. Dies bezieht sich auf die Position und/oder die Orientierung der Kamera relativ zu den Kameras untereinander oder absolut zur Szenerie. Alternativ oder ergänzend bezieht sich dies auf intrinsische Kameraparameter, z. B. Kamerakonstante, Hauptpunkt, Scherung oder Skalierungsunterschied.In step 505 It is relevant whether the associated projection matrices are available for the three images, ie whether the necessary data are available to determine the matrices from these. The data result, for example, by the use of an inertial navigation system or by the photogrammetric determination of the relative or absolute orientation. The projection matrices describe the respective image - also called projection - of the scene on the camera image during recording. This refers to the position and / or orientation of the camera relative to the cameras with each other or absolutely to the scenery. Alternatively or additionally, this refers to intrinsic camera parameters, e.g. Camera constant, main point, shear, or scale difference.

Liegen die Projektionsmatrizen vor (Y-Zweig nach Schritt 505), so werden im Schritt 506 unmittelbar die Daten des Trifokaltensors für die drei Bilder bestimmt. Optional wird für den Trifokaltensor eine kleinste Quadrate-Optimierung durchgeführt.If the projection matrices are present (Y branch after step 505 ), so in the step 506 immediately determines the data of the Trifokaltensors for the three images. Optionally, a minimum squares optimization is performed on the trifocal senor.

Liegen die Projektionsmatrizen nicht vor (N-Zweig nach Schritt 505), so ist im Schritt 507 die Frage, ob wenigstens die intrinsischen Kameraparameter vorliegen.If the projection matrices are not available (N branch after step 505 ), so is in the step 507 the question of whether at least the intrinsic camera parameters are present.

Ist dem der Fall, so wird im Schritt 508 der Trifokaltensor über zwei kalibrierte Zweibildfälle bestimmt. Das bedeutet, dass zwei essentielle Matrizen mit dem Fünf-Punkt-Algorithmus bestimmt werden. Die essentielle Matrix beschreibt die Geometrie des Zweibildfalls. Da die intrinsischen Kameraparameter bekannt sind, ist eine euklidische Rekonstruktion der Kamerapositionen möglich. Dadurch können die zwei Zweibildfälle zu einem Dreibildfall zusammengefasst und daraus der Trifokaltensor bestimmt werden. Diese Vorgehensweise ist z. B. in Carlsson & Weinshall 1998 beschrieben.If that is the case, then in step 508 the Trifokaltensor determined over two calibrated two cases. This means that two essential matrices are determined using the five-point algorithm. The essential matrix describes the geometry of the two-image case. Since the intrinsic camera parameters are known, a Euclidean reconstruction of the camera positions is possible. As a result, the two two-image cases can be combined to form a three-image case and the Trifokaltensor can be determined from this. This procedure is z. In Carlsson & Weinshall 1998 described.

Liegen die intrinsischen Kameraparameter nicht vor, so findet im Schritt 509 ein unkalibrierte Bestimmung des Trifokaltensors statt. Dies zeigt einen großen Vorteil des Verfahrens auf, dass sogar ohne das Wissen über die Aufnahmebedingungen eine Verarbeitung möglich ist.If the intrinsic camera parameters are not available, find in step 509 an uncalibrated determination of the Trifokaltensors instead. This shows a great advantage of the method that even without the knowledge of the recording conditions, processing is possible.

Im Schritt 510 erfolgt die Bestimmung der pixelweisen Zuordnung für das Bildpaar, das aus dem gleichen - oder hier ersten - Zeitintervall stammt und das mit unterschiedlichen Perspektiven aufgenommen worden ist. Für die pixelweise Zuordnung ist es somit vorteilhaft, wenn die Aufnahmezeitpunkte der zwei Bilder identisch oder nur einen geringen zeitlichen Abstand haben, sodass keine Änderungen in der Szenerie zu erwarten sind.In step 510 the determination of the pixel-by-pixel assignment for the image pair, which originates from the same - or here first - time interval and which has been recorded with different perspectives, takes place. For the pixel-wise assignment, it is thus advantageous if the recording times of the two images have the same or only a small time interval, so that no changes in the scenery are to be expected.

Im Schritt 511 werden die Perspektiven von mindestens zwei Bildern aneinander angeglichen. Dabei werden entweder die korrigierten unverzeichneten Bilder des Schritts 503 oder die Originalbilder und die Korrekturdaten des Schritts 504 verwendet. Für die Angleichung der Perspektive werden zudem die Daten des Trifokaltensors verwendet, die je nach Verfügbarkeit der Daten bezüglich der Aufnahmesituation in einem der Schritte 506, 508 oder 509 ermittelt worden sind. Überdies werden die Daten der pixelweisen Zuordnung des Schritts 510 angewendet.In step 511 the perspectives of at least two pictures are aligned with each other. Either the corrected unsigned images of the step 503 or the original images and the correction data of the step 504 used. For the approximation of the perspective, the data of the Trifocalsensor will also be used, depending on the availability of the data on the recording situation in one of the steps 506 . 508 or 509 have been determined. Moreover, the data becomes the pixel-by-pixel assignment of the step 510 applied.

Insgesamt ergeben sich durch den Schritt 511 zwei Vergleichsbilder, die die gleiche Perspektive haben und die insbesondere auf Bilder aus unterschiedlichen Zeitintervallen basieren. Es ergibt sich somit ein Vorher-Bild und ein Nachher-Bild als Vergleichsbilder, wobei beide Vergleichsbilder die gleiche Perspektive haben.Overall, result from the step 511 two comparison images that have the same perspective and are based in particular on images from different time intervals. This results in a before-image and a after-image as comparison images, where both comparison images have the same perspective.

Im Schritt 512 wird für die zwei Vergleichsbilder eine Änderungsdetektion durchgeführt.In step 512 For the two comparison images, a change detection is performed.

Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar. Einige oder alle der Verfahrensschritte können durch einen Hardware-Apparat (oder unter Verwendung eines Hardware-Apparats), wie zum Beispiel einen Mikroprozessor, einen programmierbaren Computer oder einer elektronischen Schaltung durchgeführt werden. Bei einigen Ausführungsbeispielen können einige oder mehrere der wichtigsten Verfahrensschritte durch einen solchen Apparat ausgeführt werden.Although some aspects have been described in the context of a device, it will be understood that these aspects also constitute a description of the corresponding method, so that a block or a component of a device is also to be understood as a corresponding method step or as a feature of a method step. Similarly, aspects described in connection with or as a method step also represent a description of a corresponding block or detail or feature of a corresponding device. Some or all of the method steps may be performed by a Hardware apparatus (or using a hardware apparatus), such as a microprocessor, a programmable computer or an electronic circuit are performed. In some embodiments, some or more of the most important method steps may be performed by such an apparatus.

Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software oder zumindest teilweise in Hardware oder zumindest teilweise in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer BluRay Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird. Deshalb kann das digitale Speichermedium computerlesbar sein.Depending on particular implementation requirements, embodiments of the invention may be implemented in hardware or in software, or at least partially in hardware, or at least partially in software. The implementation may be performed using a digital storage medium such as a floppy disk, a DVD, a BluRay disc, a CD, a ROM, a PROM, an EPROM, an EEPROM or FLASH memory, a hard disk, or other magnetic or optical Memory are stored on the electronically readable control signals are stored, which can cooperate with a programmable computer system or cooperate such that the respective method is performed. Therefore, the digital storage medium can be computer readable.

Manche Ausführungsbeispiele gemäß der Erfindung umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird.Thus, some embodiments according to the invention include a data carrier having electronically readable control signals capable of interacting with a programmable computer system such that one of the methods described herein is performed.

Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Computerprogrammprodukt mit einem Programmcode implementiert sein, wobei der Programmcode dahin gehend wirksam ist, eines der Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Computer abläuft.In general, embodiments of the present invention may be implemented as a computer program product having a program code, wherein the program code is operable to perform one of the methods when the computer program product runs on a computer.

Der Programmcode kann beispielsweise auch auf einem maschinenlesbaren Träger gespeichert sein.The program code can also be stored, for example, on a machine-readable carrier.

Andere Ausführungsbeispiele umfassen das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren, wobei das Computerprogramm auf einem maschinen-lesbaren Träger gespeichert ist. Mit anderen Worten ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens somit ein Computerprogramm, das einen Programmcode zum Durchführen eines der hierin beschriebenen Verfahren aufweist, wenn das Computerprogramm auf einem Computer abläuft.Other embodiments include the computer program for performing any of the methods described herein, wherein the computer program is stored on a machine-readable medium. In other words, an embodiment of the method according to the invention is thus a computer program which has a program code for performing one of the methods described herein when the computer program runs on a computer.

Ein weiteres Ausführungsbeispiel der erfindungsgemäßen Verfahren ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist. Der Datenträger oder das digitale Speichermedium oder das computerlesbare Medium sind typischerweise greifbar und/oder nicht flüchtig.A further embodiment of the inventive method is thus a data carrier (or a digital storage medium or a computer-readable medium) on which the computer program is recorded for carrying out one of the methods described herein. The data carrier or the digital storage medium or the computer-readable medium are typically tangible and / or non-volatile.

Ein weiteres Ausführungsbeispiel des erfindungsgemäßen Verfahrens ist somit ein Datenstrom oder eine Sequenz von Signalen, der bzw. die das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom oder die Sequenz von Signalen kann bzw. können beispielsweise dahin gehend konfiguriert sein, über eine Datenkommunikationsverbindung, beispielsweise über das Internet, transferiert zu werden.A further embodiment of the method according to the invention is thus a data stream or a sequence of signals, which represent the computer program for performing one of the methods described herein. The data stream or the sequence of signals may be configured, for example, to be transferred via a data communication connection, for example via the Internet.

Ein weiteres Ausführungsbeispiel umfasst eine Verarbeitungseinrichtung, beispielsweise einen Computer oder ein programmierbares Logikbauelement, die dahin gehend konfiguriert oder angepasst ist, eines der hierin beschriebenen Verfahren durchzuführen.Another embodiment includes a processing device, such as a computer or a programmable logic device, that is configured or adapted to perform one of the methods described herein.

Ein weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren installiert ist.Another embodiment includes a computer on which the computer program is installed to perform one of the methods described herein.

Ein weiteres Ausführungsbeispiel gemäß der Erfindung umfasst eine Vorrichtung oder ein System, die bzw. das ausgelegt ist, um ein Computerprogramm zur Durchführung zumindest eines der hierin beschriebenen Verfahren zu einem Empfänger zu übertragen. Die Übertragung kann beispielsweise elektronisch oder optisch erfolgen. Der Empfänger kann beispielsweise ein Computer, ein Mobilgerät, ein Speichergerät oder eine ähnliche Vorrichtung sein. Die Vorrichtung oder das System kann beispielsweise einen Datei-Server zur Übertragung des Computerprogramms zu dem Empfänger umfassen.Another embodiment according to the invention comprises a device or system adapted to transmit a computer program for performing at least one of the methods described herein to a receiver. The transmission can be done for example electronically or optically. The receiver may be, for example, a computer, a mobile device, a storage device or a similar device. For example, the device or system may include a file server for transmitting the computer program to the recipient.

Bei manchen Ausführungsbeispielen kann ein programmierbares Logikbauelement (beispielsweise ein feldprogrammierbares Gatterarray, ein FPGA) dazu verwendet werden, manche oder alle Funktionalitäten der hierin beschriebenen Verfahren durchzuführen. Bei manchen Ausführungsbeispielen kann ein feldprogrammierbares Gatterarray mit einem Mikroprozessor zusammenwirken, um eines der hierin beschriebenen Verfahren durchzuführen. Allgemein werden die Verfahren bei einigen Ausführungsbeispielen seitens einer beliebigen Hardwarevorrichtung durchgeführt. Diese kann eine universell einsetzbare Hardware wie ein Computerprozessor (CPU) sein oder für das Verfahren spezifische Hardware, wie beispielsweise ein ASIC oder beispielsweise ein Mikroprozessor, z. B. in Form einer ARM-Architektur.In some embodiments, a programmable logic device (eg, a field programmable gate array, an FPGA) may be used to perform some or all of the functionality of the methods described herein. In some embodiments, a field programmable gate array may cooperate with a microprocessor to perform one of the methods described herein. In general, in some embodiments, the methods are performed by any hardware device. This may be a universal hardware such as a computer processor (CPU) or hardware specific to the process, such as an ASIC or, for example, a microprocessor, e.g. In the form of an ARM architecture.

Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei. The embodiments described above are merely illustrative of the principles of the present invention. It will be understood that modifications and variations of the arrangements and details described herein will be apparent to others of ordinary skill in the art. Therefore, it is intended that the invention be limited only by the scope of the appended claims and not by the specific details presented in the description and explanation of the embodiments herein.

Referenzenreferences

  • [1] Szeliski, R.: „Image Alignment and Stitching: A Tutorial“, Now: 2006, Foundations and Trends in Computer Graphics and Vision.[1] Szeliski, R .: "Image Alignment and Stitching: A Tutorial", Now: 2006, Foundations and Trends in Computer Graphics and Vision.
  • [2] Stewart, C.: „Robust Parameter Estimation in Computer Vision“, SIAM Review 1999; 41 (3):513-537 .[2] Stewart, C .: "Robust Parameter Estimation in Computer Vision", SIAM Review 1999; 41 (3): 513-537 ,
  • [3] Mikolajczyk, K. & Schmid, C.: „Scale & Affine Invariant Interest Point Detectors“, International Journal of Computer Vision 2004; 60 (1): 63-86.[3] Mikolajczyk, K. & Schmid, C .: "Scale & Affine Invariant Interest Point Detectors", International Journal of Computer Vision 2004; 60 (1): 63-86.
  • [4] Hartley, R. I., Zisserman, A.: „Multiple View Geometry in Computer Vision (2 ed.)“, Cambridge University Press, New York, NY, USA, 2004.Pollefeys, M., Van Gool, L. Vergauwen, M., Verbiest, F., Cornelis, K., Tops, J., Koch, R.: „Visual Modelling with a Hand-Held Camera“, International Jounal of Computer Vision 2004; 59(3): 207-232.[4] Hartley, RI, Zisserman, A .: "Multiple View Geometry in Computer Vision (2 ed.)", Cambridge University Press, New York, NY, USA, 2004. Pollefeys, M., Van Gool, L. Vergauwen , M., Verbiest, F., Cornelis, K., Tops, J., Koch, R .: "Visual Modeling with a Handheld Camera", International Journal of Computer Vision 2004; 59 (3): 207-232.
  • [5] Lucas, B.D., Kanade, T.: „An Iterative Image Registration Technique with an Application to Stereo Vision“, International Joint Conferences on Artificial Intelligence 1981: 675-679 .[5] Lucas, BD, Kanade, T .: "Iterative Image Registration Technique with Application to Stereo Vision", International Joint Conferences on Artificial Intelligence 1981: 675-679 ,
  • [6] Brox, T., Bruhn, A. Papenberg, N., Weickert, J.: „High Accuracy Optical Flow Estimation based on a Theory for Warping“, European Conference on Computer Vision (ECCV), Lecture Notes in Computer Science, Springer 2004; 3024: 25-36 .[6] Brox, T., Bruhn, A. Papenberg, N., Weickert, J .: "High Accuracy Optical Flow Estimation based on a Theory for Warping," European Conference on Computer Vision (ECCV), Lecture Notes in Computer Science, Springer, 2004 ; 3024: 25-36 ,
  • [7] Hirschmüller H.: „Stereo Processing by Semiglobal Matching and Mutual Information“, IEEE Transactions on Pattern Analysis and Machine Intelligence 2008; 30 (2): 328-341 .[7] Hirschmüller H .: "Stereo Processing by Semiglobal Matching and Mutual Information", IEEE Transactions on Pattern Analysis and Machine Intelligence 2008; 30 (2): 328-341 ,
  • [8] Avidan, S., Shashua, A.: „Novel View Synthesis in Tensor Space“, in Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition 1997: 1034-1040 .[8th] Avidan, S., Shashua, A .: Novel View Synthesis in Tensor Space, in Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition 1997: 1034-1040 ,
  • [9] Buchdahl, H. A.: „Optical Aberration Coefficients. III. The Computation of the Tertiary Coefficients,“ Journal of the Optical Society of America 1958; 48: 747-756 .[9] Buchdahl, HA: "Optical Aberration Coefficients. III. The Computation of the Tertiary Coefficients, "Journal of the Optical Society of America 1958; 48: 747-756 ,
  • [10] Barreto, J.P., Daniilidis, K.: „Fundamental Matrix for Cameras with Radial Distortion.“ in Proceedings of the Tenth IEEE International Conference on Computer Vision (ICCV'05) Volume 1, IEEE Computer Society, Washington, DC, USA, 2005, pp. 625-632 .[10] Barreto, JP, Daniilidis, K .: "Fundamental Matrix for Cameras with Radial Distortion." In Proceedings of the Tenth IEEE International Conference on Computer Vision (ICCV'05) Volume 1, IEEE Computer Society, Washington, DC, USA, 2005, pp. 625-632 ,
  • [11] Brito, J. H., Angst, R.; Köser, K; Pollefeys, M.: „Radial Distortion Self-Calibration“, 2013 IEEE Conference on Computer Vision and Pattern Recognition, Portland, OR, 2013, pp. 1368-1375 .[11] Brito, JH, Angst, R .; Köser, K; Pollefeys, M .: "Radial Distortion Self-Calibration", 2013 IEEE Conference on Computer Vision and Pattern Recognition, Portland, OR, 2013, p. 1368-1375 ,
  • [12] Förstner, W., Gülch, E.: „A Fast Operator for Detection and Precise Location of Distinct Points, Corners and Centres of Circular Features“, in Proceedings of the ISPRS Conference on Fast Processing of Photogrammetric Data, Interlaken, 1987, pp. 281-305 .[12] Förstner, W., Gülch, E .: "A Fast Operator for Detection and Precise Location of Distinct Points, Corners and Centers of Circular Features", in Proceedings of the ISPRS Conference on Fast Processing of Photogrammetric Data, Interlaken, 1987, pp. 281-305 ,
  • [13] Harris, C., Stephens, M.: „A Combined Corner and Edge Detector“, in Proceedings of Fourth Alvey Vision Conference, 1988, pp. 147-151 .[13] Harris, C., Stephens, M .: "A Combined Corner and Edge Detector", Proceedings of the Fourth Alvey Vision Conference, 1988, p. 147-151 ,
  • [14] Lowe, D.G.: „Distinctive Image Features from Scale-Invariant Keypoints“ in International Journal of Computer Vision; 2004, 60 (2): 91-110 .[14] Lowe, DG: "Distinctive Image Features from Scale Invariant Keypoints" in the International Journal of Computer Vision; 2004, 60 (2): 91-110 ,
  • [15] Rublee, E., Rabaud, V., Konolige, K., Bradski, G.: „ORB: An Efficient Alternative to SIFT or SURF“, in Proceedings of the 2011 International Conference on Computer Vision (ICCV'11), IEEE Society, Washington, DC, USA, 2011, pp. 2564-2571 .[15] Rublee, E., Rabaud, V., Konolige, K., Bradski, G .: "ORB: An Efficient Alternative to SIFT or SURF", in Proceedings of the 2011 International Conference on Computer Vision (ICCV'11), IEEE Society , Washington, DC, USA, 2011, pp. 2564-2571 ,
  • [16] Fischler, M. A., Bolles, R. C.: „Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography“, in Journal of Communications of the ACM; 1981, 24 (6): 381-395 .[16] Fischler, MA, Bolles, RC: "Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography," in Journal of Communications of the ACM; 1981, 24 (6): 381-395 ,
  • [17] Grün. A.: „Adaptive Least Squares Correlation: A Powerful Image Matching Technique“, in South African Journal of Photogrammetry, Remote Sensing, and Cartography, 1985; 14:175-187 .[17] Green. A .: "Adaptive Least Squares Correlation: A Powerful Image Matching Technique," South African Journal of Photogrammetry, Remote Sensing, and Cartography, 1985; 14: 175-187 ,
  • [18] Bethmann, F., Luhmann, T.: „Least-Squares Matching with Advanced Geometric Transformation Models“, in International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol. XXXVIII, Part 5 Commission V Symposium, Newcastle upon Tyne, UK. 2010 .[18] Bethmann, F., Luhmann, T .: Least-Squares Matching with Advanced Geometric Transformation Models, International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol. XXXVIII, Part 5 Commission V Symposium, Newcastle upon Tyne, UK , 2010 ,
  • [19] Torr, P. H. S.: „Geometric Motion Segmentation and Model Selection“, Philosophical Transactions of the Royal Society of London A: Mathematical, Physical and Engineering Sciences 1998; 356 (1740): 1321-1340 .[19] Torr, PHS: "Geometric Motion Segmentation and Model Selection", Philosophical Transactions of the Royal Society of London A: Mathematical, Physical and Engineering Sciences 1998; 356 (1740): 1321-1340 ,
  • [20] Quan L.: „Invariants of 6 points from 3 Uncalibrated Images“, in: Eklundh JO. (eds) Computer Vision - ECCV '94. ECCV 1994. Lecture Notes in Computer Science, vol 801. Springer, Berlin, Heidelberg [20] Quan L .: "Invariants of 6 points from 3 Uncalibrated Images", in: Eklundh JO. (EDS) Computer Vision - ECCV '94. ECCV 1994. Lecture Notes in Computer Science, vol 801. Springer, Berlin, Heidelberg
  • [21] Torr, P. H. S., Zisserman, A.: „Robust Parameterization and Computation of the Trifocal Tensor“, Image and Vision Computing 1997; 15: 591-605 .[21] Torr, PHS, Zisserman, A .: "Robust Parameterization and Computation of the Trifocal Tensor", Image and Vision Computing 1997; 15: 591-605 ,
  • [22] Schaffalitzky, F., Zisserman, A. Hartley, R. I., Torr, P. H. S.: „A Six Point Solution for Structure and Motion“, Computer Vision - ECCV 2000: 6th European Conference on Computer Vision Dublin, Ireland, June 26 - July 1, 2000, Proceedings, Part I Springer, Berlin, Heidelberg, 2000: 632-648 .[22] Schaffalitzky, F., Zisserman, A. Hartley, RI, Torr, PHS: Computer Vision - ECCV 2000: 6th European Conference on Computer Vision Dublin, Ireland, June 26 - July 1, 2000, Proceedings, Part I Springer, Berlin, Heidelberg, 2000: 632-648 ,
  • [23] Carlsson, S., Weinshall, D.: „Dual Computation of Projective Shape and Camera Positions from Multiple Images“, International Journal of Computer Vision 2004; 27(3): 227-241 .[23] Carlsson, S., Weinshall, D .: "Dual Computation of Projective Shapes and Camera Positions from Multiple Images", International Journal of Computer Vision 2004; 27 (3): 227-241 ,
  • [24] Nister, D.: „An Efficient Solution to the Five-Point Relative Pose Problem“, IEEE Transactions on Pattern Analysis and Machine Intelligence 2004; 26(6): 756-777 .[24] Nister, D .: "An Efficient Solution to the Five-Point Relative Pose Problem," IEEE Transactions on Pattern Analysis and Machine Intelligence 2004; 26 (6): 756-777 ,
  • [25] Triggs, B.: The Geometry of Projective Reconstruction I: Matching Constraints and the Joint Image. Circulated in 1995. Accepted subject to revision to IJCV in 1995, but never completed. 1995 .[25] Triggs, B .: The Geometry of Projective Reconstruction I: Matching Constraints and the Joint Image. Circulated in 1995. Accepted subject to revision to IJCV in 1995, but never completed. 1995 ,
  • [26] Hartley, R. I.: „Computation of the Quadrifocal Tensor“, in: Burkhardt H., Neumann B. (eds) Computer Vision - ECCV'98. ECCV 1998. Lecture Notes in Computer Science, vol 1406. Springer, Berlin, Heidelberg .[26] Hartley, RI: "Computation of the Quadrifocal Tensor", in: Burkhardt H., Neumann B. (eds) Computer Vision - ECCV'98. ECCV 1998. Lecture Notes in Computer Science, volume 1406. Springer, Berlin, Heidelberg ,
  • [27] Connor, K., Reid, I.: „Novel View Specification and Synthesis“, in Proceeding of 13th British Machine Vision Conference, Cardiff, September 2002: 22.1-22.10 .[27] Connor, K., Reid, I .: "Novel View Specification and Synthesis", Proceeding of 13th British Machine Vision Conference, Cardiff, September 2002: 22.1-22.10 ,

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte Nicht-PatentliteraturCited non-patent literature

  • Stewart, C.: „Robust Parameter Estimation in Computer Vision“, SIAM Review 1999; 41 (3):513-537 [0153]Stewart, C .: "Robust Parameter Estimation in Computer Vision", SIAM Review 1999; 41 (3): 513-537 [0153]
  • Lucas, B.D., Kanade, T.: „An Iterative Image Registration Technique with an Application to Stereo Vision“, International Joint Conferences on Artificial Intelligence 1981: 675-679 [0153]Lucas, B.D., Kanade, T .: "Iterative Image Registration Technique with Application to Stereo Vision", International Joint Conferences on Artificial Intelligence 1981: 675-679 [0153]
  • Brox, T., Bruhn, A. Papenberg, N., Weickert, J.: „High Accuracy Optical Flow Estimation based on a Theory for Warping“, European Conference on Computer Vision (ECCV), Lecture Notes in Computer Science, Springer 2004; 3024: 25-36 [0153]Brox, T., Bruhn, A. Papenberg, N., Weickert, J .: "High Accuracy Optical Flow Estimation based on a Theory for Warping," European Conference on Computer Vision (ECCV), Lecture Notes in Computer Science, Springer, 2004 ; 3024: 25-36 [0153]
  • Hirschmüller H.: „Stereo Processing by Semiglobal Matching and Mutual Information“, IEEE Transactions on Pattern Analysis and Machine Intelligence 2008; 30 (2): 328-341 [0153]Hirschmüller H .: "Stereo Processing by Semiglobal Matching and Mutual Information", IEEE Transactions on Pattern Analysis and Machine Intelligence 2008; 30 (2): 328-341 [0153]
  • Avidan, S., Shashua, A.: „Novel View Synthesis in Tensor Space“, in Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition 1997: 1034-1040 [0153]Avidan, S., Shashua, A .: "Novel View Synthesis in Tensor Space," in Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition 1997: 1034-1040 [0153]
  • Buchdahl, H. A.: „Optical Aberration Coefficients. III. The Computation of the Tertiary Coefficients,“ Journal of the Optical Society of America 1958; 48: 747-756 [0153]Buchdahl, H.A .: "Optical Aberration Coefficients. III. The Computation of the Tertiary Coefficients, "Journal of the Optical Society of America 1958; 48: 747-756 [0153]
  • Barreto, J.P., Daniilidis, K.: „Fundamental Matrix for Cameras with Radial Distortion.“ in Proceedings of the Tenth IEEE International Conference on Computer Vision (ICCV'05) Volume 1, IEEE Computer Society, Washington, DC, USA, 2005, pp. 625-632 [0153]Barreto, JP, Daniilidis, K .: "Fundamental Matrix for Cameras with Radial Distortion." In Proceedings of the Tenth IEEE International Conference on Computer Vision (ICCV'05) Volume 1, IEEE Computer Society, Washington, DC, USA, 2005, pp. 625-632 [0153]
  • Brito, J. H., Angst, R.; Köser, K; Pollefeys, M.: „Radial Distortion Self-Calibration“, 2013 IEEE Conference on Computer Vision and Pattern Recognition, Portland, OR, 2013, pp. 1368-1375 [0153]Brito, J.H., Angst, R .; Köser, K; Pollefeys, M .: "Radial Distortion Self-Calibration", 2013 IEEE Conference on Computer Vision and Pattern Recognition, Portland, OR, 2013, p. 1368-1375 [0153]
  • Förstner, W., Gülch, E.: „A Fast Operator for Detection and Precise Location of Distinct Points, Corners and Centres of Circular Features“, in Proceedings of the ISPRS Conference on Fast Processing of Photogrammetric Data, Interlaken, 1987, pp. 281-305 [0153]Förstner, W., Gülch, E .: "A Fast Operator for Detection and Precise Location of Distinct Points, Corners and Centers of Circular Features", in Proceedings of the ISPRS Conference on Fast Processing of Photogrammetric Data, Interlaken, 1987, pp. 281-305 [0153]
  • Harris, C., Stephens, M.: „A Combined Corner and Edge Detector“, in Proceedings of Fourth Alvey Vision Conference, 1988, pp. 147-151 [0153]Harris, C., Stephens, M .: "A Combined Corner and Edge Detector", Proceedings of the Fourth Alvey Vision Conference, 1988, p. 147-151 [0153]
  • Lowe, D.G.: „Distinctive Image Features from Scale-Invariant Keypoints“ in International Journal of Computer Vision; 2004, 60 (2): 91-110 [0153]Lowe, D.G .: "Distinctive Image Features from Scale Invariant Keypoints" in the International Journal of Computer Vision; 2004, 60 (2): 91-110 [0153]
  • Rublee, E., Rabaud, V., Konolige, K., Bradski, G.: „ORB: An Efficient Alternative to SIFT or SURF“, in Proceedings of the 2011 International Conference on Computer Vision (ICCV'11), IEEE Society, Washington, DC, USA, 2011, pp. 2564-2571 [0153]Rublee, E., Rabaud, V., Konolige, K., Bradski, G .: "ORB: An Efficient Alternative to SIFT or SURF", in Proceedings of the 2011 International Conference on Computer Vision (ICCV'11), IEEE Society , Washington, DC, USA, 2011, pp. 2564-2571 [0153]
  • Fischler, M. A., Bolles, R. C.: „Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography“, in Journal of Communications of the ACM; 1981, 24 (6): 381-395 [0153]Fischler, M.A., Bolles, R.C .: "Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography," in Journal of Communications of the ACM; 1981, 24 (6): 381-395 [0153]
  • Grün. A.: „Adaptive Least Squares Correlation: A Powerful Image Matching Technique“, in South African Journal of Photogrammetry, Remote Sensing, and Cartography, 1985; 14:175-187 [0153]Green. A .: "Adaptive Least Squares Correlation: A Powerful Image Matching Technique," South African Journal of Photogrammetry, Remote Sensing, and Cartography, 1985; 14: 175-187 [0153]
  • Bethmann, F., Luhmann, T.: „Least-Squares Matching with Advanced Geometric Transformation Models“, in International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol. XXXVIII, Part 5 Commission V Symposium, Newcastle upon Tyne, UK. 2010 [0153]Bethmann, F., Luhmann, T .: Least-Squares Matching with Advanced Geometric Transformation Models, International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol. XXXVIII, Part 5 Commission V Symposium, Newcastle upon Tyne, UK , 2010 [0153]
  • Torr, P. H. S.: „Geometric Motion Segmentation and Model Selection“, Philosophical Transactions of the Royal Society of London A: Mathematical, Physical and Engineering Sciences 1998; 356 (1740): 1321-1340 [0153]Torr, P.H. S .: "Geometric Motion Segmentation and Model Selection", Philosophical Transactions of the Royal Society of London A: Mathematical, Physical and Engineering Sciences 1998; 356 (1740): 1321-1340 [0153]
  • Quan L.: „Invariants of 6 points from 3 Uncalibrated Images“, in: Eklundh JO. (eds) Computer Vision - ECCV '94. ECCV 1994. Lecture Notes in Computer Science, vol 801. Springer, Berlin, Heidelberg [0153]Quan L .: "Invariants of 6 points from 3 Uncalibrated Images", in: Eklundh JO. (EDS) Computer Vision - ECCV '94. ECCV 1994. Lecture Notes in Computer Science, vol 801. Springer, Berlin, Heidelberg [0153]
  • Torr, P. H. S., Zisserman, A.: „Robust Parameterization and Computation of the Trifocal Tensor“, Image and Vision Computing 1997; 15: 591-605 [0153]Torr, P.H.S., Zisserman, A .: "Robust Parameterization and Computation of the Trifocal Tensor", Image and Vision Computing 1997; 15: 591-605 [0153]
  • Schaffalitzky, F., Zisserman, A. Hartley, R. I., Torr, P. H. S.: „A Six Point Solution for Structure and Motion“, Computer Vision - ECCV 2000: 6th European Conference on Computer Vision Dublin, Ireland, June 26 - July 1, 2000, Proceedings, Part I Springer, Berlin, Heidelberg, 2000: 632-648 [0153]Schaffalitzky, F., Zisserman, A. Hartley, RI, Torr, PHS: Computer Vision - ECCV 2000: 6th European Conference on Computer Vision Dublin, Ireland, June 26 - July 1, 2000, Proceedings, Part I Springer, Berlin, Heidelberg, 2000: 632-648 [0153]
  • Carlsson, S., Weinshall, D.: „Dual Computation of Projective Shape and Camera Positions from Multiple Images“, International Journal of Computer Vision 2004; 27(3): 227-241 [0153]Carlsson, S., Weinshall, D .: "Dual Computation of Projective Shapes and Camera Positions from Multiple Images", International Journal of Computer Vision 2004; 27 (3): 227-241 [0153]
  • Nister, D.: „An Efficient Solution to the Five-Point Relative Pose Problem“, IEEE Transactions on Pattern Analysis and Machine Intelligence 2004; 26(6): 756-777 [0153]Nister, D .: "An Efficient Solution to the Five-Point Relative Pose Problem," IEEE Transactions on Pattern Analysis and Machine Intelligence 2004; 26 (6): 756-777 [0153]
  • Triggs, B.: The Geometry of Projective Reconstruction I: Matching Constraints and the Joint Image. Circulated in 1995. Accepted subject to revision to IJCV in 1995, but never completed. 1995 [0153]Triggs, B .: The Geometry of Projective Reconstruction I: Matching Constraints and the Joint Image. Circulated in 1995. Accepted subject to revision to IJCV in 1995, but never completed. 1995 [0153]
  • Hartley, R. I.: „Computation of the Quadrifocal Tensor“, in: Burkhardt H., Neumann B. (eds) Computer Vision - ECCV'98. ECCV 1998. Lecture Notes in Computer Science, vol 1406. Springer, Berlin, Heidelberg [0153]Hartley, R.I .: "Computation of the Quadrifocal Tensor", in: Burkhardt H., Neumann B. (eds) Computer Vision - ECCV'98. ECCV 1998. Lecture Notes in Computer Science, vol. 1406. Springer, Berlin, Heidelberg [0153]
  • Connor, K., Reid, I.: „Novel View Specification and Synthesis“, in Proceeding of 13th British Machine Vision Conference, Cardiff, September 2002: 22.1-22.10 [0153]Connor, K., Reid, I .: "Novel View Specification and Synthesis", Proceeding of 13th British Machine Vision Conference, Cardiff, September 2002: 22.1-22.10 [0153]

Claims (9)

Vorrichtung (1) zum Auffinden mindestens einer Veränderung in einer Szenerie (100), wobei die Vorrichtung (1) eine erste Ermittlungsvorrichtung (10), eine zweite Ermittlungsvorrichtung (20), eine Bildbearbeitungsvorrichtung (30) sowie eine Vergleichsvorrichtung (40) aufweist, wobei die erste Ermittlungsvorrichtung (10) derartig ausgestaltet ist, ausgehend von mindestens drei Bildern (P1, P2, P3) der Szenerie (100) Daten eines Trifokaltensors zu ermitteln, wobei den drei Bildern (P1, P2, P3) Aufnahmezeitpunkte (T1, T2, T3) zugeordnet sind, wobei die Aufnahmezeitpunkte (T1, T2) von zwei Bildern (P1, P2) der drei Bilder (P1, P2, P3) zu einem ersten Zeitintervall (I1) gehören, wobei die zwei Bilder (P1, P2) des ersten Zeitintervalls (I1) jeweils unterschiedliche Perspektiven relativ zur Szenerie (100) aufweisen, wobei der Aufnahmezeitpunkt (T3) eines dritten Bildes (P3) der drei Bilder (P1, P2, P3) zu einem zweiten Zeitintervall (I2) gehört, wobei das dritte Bild (P3) des zweiten Zeitintervalls (I2) eine andere Perspektive relativ zu der Szenerie (100) als die zwei Bilder (P1, P2) des ersten Zeitintervalls (I1) aufweist, wobei ein zeitlicher Abstand (dt1) zwischen den Aufnahmezeitpunkten (T1, T2) der zwei Bilder (P1, P2) des ersten Zeitintervalls (I1) kleiner als ein zeitlicher Abstand (dt2) zwischen dem ersten Zeitintervall (I1) und dem zweiten Zeitintervall (I2) ist, wobei die zweite Ermittlungsvorrichtung (20) derartig ausgestaltet ist, mindestens für die zwei Bilder (P1, P2) des ersten Zeitintervalls (I1) Daten einer pixelweisen Zuordnung zwischen den zwei Bildern (P1, P2) zu ermitteln, wobei die Bildbearbeitungsvorrichtung (30) derartig ausgestaltet ist, ausgehend von den mindestens drei Bildern (P1, P2, P3) sowie ausgehend von den ermittelten Daten des Trifokaltensors und den ermittelten Daten der pixelweisen Zuordnung mindestens zwei Vergleichsbilder (C1, C2) bereitzustellen, wobei die mindestens zwei Vergleichsbilder (C1, C2) im Wesentlichen die gleiche Perspektive auf die Szenerie (100) aufweisen und unterschiedlichen Zeitintervallen (I1, I2) zugeordnet sind, und wobei die Vergleichsvorrichtung (40) derartig ausgestaltet ist, die zwei Vergleichsbilder (C1, C2) dahingehend auszuwerten, ob mindestens ein Unterschied zwischen den zwei Vergleichsbildern (C1, C2) besteht, und ausgehend von der Auswertung ein Vergleichsergebnis zu erzeugen.Device (1) for finding at least one change in a scene (100), the device (1) comprising a first determining device (10), a second determining device (20), an image processing device (30) and a comparison device (40), wherein the first determining device (10) is designed in such a way to determine data of a trifocal sensor from at least three images (P1, P2, P3) of the scene (100), wherein recording times (T1, T2, T3) are assigned to the three pictures (P1, P2, P3), the recording times (T1, T2) of two pictures (P1, P2) of the three pictures (P1, P2, P3) belonging to a first time interval (I1), wherein the two images (P1, P2) of the first time interval (I1) each have different perspectives relative to the scene (100), wherein the recording time (T3) of a third image (P3) of the three images (P1, P2, P3) belongs to a second time interval (I2), wherein the third image (P3) of the second time interval (I2) has a different perspective relative to the scene (100) than the two images (P1, P2) of the first time interval (I1), wherein a time interval (dt1) between the recording times (T1, T2) of the two images (P1, P2) of the first time interval (I1) is less than a time interval (dt2) between the first time interval (I1) and the second time interval (I2 ), wherein the second determination device (20) is designed in such a way to determine data of a pixel-wise association between the two images (P1, P2) for at least the two images (P1, P2) of the first time interval (I1) wherein the image processing device (30) is configured to provide at least two comparison images (C1, C2) starting from the at least three images (P1, P2, P3) and from the determined data of the trifocal sensor and the determined data of the pixel-by-pixel assignment, wherein the at least two comparison images (C1, C2) have substantially the same perspective on the scene (100) and are assigned to different time intervals (I1, I2), and wherein the comparison device (40) is configured to evaluate the two comparison images (C1, C2) as to whether there is at least one difference between the two comparison images (C1, C2) and to generate a comparison result based on the evaluation. Vorrichtung (1) nach Anspruch 1, wobei die Vorrichtung (1) eine Korrekturvorrichtung (50) aufweist, und wobei die Korrekturvorrichtung (50) derartig ausgestaltet ist, bei Eingangsbildern (P1', P2', P3') Verzeichnungsfehler zu erkennen und verzeichnungsfreie Bilder (P1, P2, P3) und/oder Korrekturdaten bereitzustellen.Device (1) according to Claim 1 wherein the device (1) comprises a correction device (50), and wherein the correction device (50) is designed to recognize distortion errors on input images (P1 ', P2', P3 ') and non-distortion images (P1, P2, P3) and / or provide correction data. Vorrichtung (1) nach Anspruch 1 oder 2, wobei die erste Ermittlungsvorrichtung (10) derartig ausgestaltet ist, für die Ermittlung der Daten des Trifokaltensors Daten bezüglich mindestens einer Aufnahmebedingung mindestens eines Bildes (P1, P2, P3) zu verwenden.Device (1) according to Claim 1 or 2 in which the first determining device (10) is designed to use data relating to at least one recording condition of at least one image (P1, P2, P3) for the determination of the data of the trifocal sensor. Vorrichtung (1) nach Anspruch 3, wobei sich die mindestens eine Aufnahmebedingung auf eine Position einer für die Aufnahme eines Bildes (P1, P2, P3) verwendeten Aufnahmevorrichtung (200) und/oder auf eine Orientierung einer für die Aufnahme eines Bildes (P1, P2, P3) verwendeten Aufnahmevorrichtung (200) relativ zur Szenerie (100) und/oder auf intrinsische Parameter einer für die Aufnahme eines Bildes (P1, P2, P3) verwendeten Aufnahmevorrichtung (200) bezieht.Device (1) according to Claim 3 in which the at least one recording condition relates to a position of a recording device (200) used to record an image (P1, P2, P3) and / or to an orientation of a recording device (P1, P2, P3) used for recording an image (P1, P2, P3). 200) relative to the scene (100) and / or to intrinsic parameters of a capture device (200) used to capture an image (P1, P2, P3). Vorrichtung (1) nach einem der Ansprüche 1 bis 4, wobei die Bilder (P1, P2) des ersten Zeitintervalls (I1) Vorher-Bilder sind und das Bild (P3) des zweiten Zeitintervalls (I2) ein Nachher-Bild ist.Device (1) according to one of Claims 1 to 4 wherein the images (P1, P2) of the first time interval (I1) are before images and the image (P3) of the second time interval (I2) is a post-image. Vorrichtung (1) nach einem der Ansprüche 1 bis 4, wobei die Bilder (P1, P2) des ersten Zeitintervalls (I1) Nachher-Bilder sind und das Bild (P3) des zweiten Zeitintervalls (I2) ein Vorher-Bild ist.Device (1) according to one of Claims 1 to 4 wherein the images (P1, P2) of the first time interval (I1) are after images and the image (P3) of the second time interval (I2) is a before image. Vorrichtung (1) nach einem der Ansprüche 1 bis 6, wobei die Aufnahmezeitpunkte (T1, T2) der Bilder (P1, P2) des ersten Zeitintervalls (I1) nahezu oder exakt gleich sind.Device (1) according to one of Claims 1 to 6 , wherein the recording times (T1, T2) of the images (P1, P2) of the first time interval (I1) are almost or exactly the same. Verfahren zum Auffinden mindestens einer Veränderung in einer Szenerie (100), wobei mindestens drei Bilder (P1, P2, P3) bereitgestellt werden, die Aufnahmezeitpunkten (T1, T2, T3) zugeordnet sind, wobei die Aufnahmezeitpunkte (T1, T2) von zwei Bildern (P1, P2) der drei Bilder (P1, P2, P3) zu einem ersten Zeitintervall (I1) gehören und der Aufnahmezeitpunkt (t2) eines dritten Bildes (P3) der drei Bilder (P1, P2, P3) zu einem zweiten Zeitintervall (I2) gehört, wobei die zwei Bilder (P1, P2) des ersten Zeitintervalls (I1) unterschiedliche Perspektiven relativ zur Szenerie (100) aufweisen, wobei das dritte Bild (P3) des zweiten Zeitintervalls (I2) eine andere Perspektive relativ zu der Szenerie (100) als die zwei Bilder (P1, P2) des ersten Zeitintervalls (I1) aufweist, wobei ein zeitlicher Abstand (dt1) zwischen den Aufnahmezeitpunkten (T1, T2) der zwei Bilder (P1, P2) des ersten Zeitintervalls (I1) kleiner als ein zeitlicher Abstand (dt2) zwischen dem ersten Zeitintervall (I1) und dem zweiten Zeitintervall (I2) ist, wobei ausgehend von den mindestens drei Bildern (P1, P2, P3) Daten eines Trifokaltensors oder einer äquivalenten Beschreibung der Geometrie des Dreibildfalls ermittelt werden, wobei mindestens für die zwei Bilder (P1, P2) des ersten Zeitintervalls (I1) Daten einer pixelweisen Zuordnung zwischen den zwei Bildern (P1, P2) ermittelt werden, wobei ausgehend von den mindestens drei Bildern (P1, P2, P3) sowie ausgehend von den ermittelten Daten des Trifokaltensors bzw. der äquivalenten Beschreibung und den ermittelten Daten der pixelweisen Zuordnung mindestens zwei Vergleichsbilder (C1, C2), die im Wesentlichen die gleiche Perspektive auf die Szenerie (100) aufweisen und unterschiedlichen Zeitintervallen (I1, I2) zugeordnet sind, bereitgestellt werden, wobei die zwei Vergleichsbilder (C1, C2) dahingehend ausgewertet werden, ob mindestens ein Unterschied zwischen den zwei Vergleichsbildern (C1, C2) besteht, und wobei ausgehend von der Auswertung der zwei Vergleichsbilder (C1, C2) ein Vergleichsergebnis erzeugt wird.A method for finding at least one change in a scene (100), wherein at least three pictures (P1, P2, P3) are assigned, which are associated with recording times (T1, T2, T3), wherein the recording times (T1, T2) of two pictures (P1, P2) of the three images (P1, P2, P3) belong to a first time interval (I1) and the recording time (t2) of a third image (P3) of the three images (P1, P2, P3) at a second time interval ( I2), the two images (P1, P2) of the first time interval (I1) having different perspectives relative to the scene (100), the third image (P3) of the second time interval (I2) having a different perspective relative to the scene (I2). 100) as the two images (P1, P2) of the first time interval (I1), wherein a time interval (dt1) between the recording times (T1, T2) of the two images (P1, P2) of the first time interval (I1) is less than a time interval (dt2) between the first time interval (I1) and the second time interval (I2), starting from the at least three images (P1, P2, P3) Data of a Trifokaltensors or an equivalent description of the geometry of the three-figure case are determined, wherein at least for the two images (P1, P2) of the first time interval (I1) data of a pixel-wise association between the two images (P1, P2) are determined, starting from the at least three images (P1, P2, P3) as well as on the basis of the determined data of the Trifokaltensors or the equivalent description and the determined data of the pixel-wise assignment at least two comparison images (C1, C2), the substantially the same perspective on the scenery ( 100) and assigned to different time intervals (I1, I2), wherein the two comparison images (C1, C2) are evaluated as to whether there is at least one difference between the two comparison images (C1, C2), and based on the Evaluation of the two comparison images (C1, C2) a comparison result is generated. Computerprogramm mit einem Programmcode zur Durchführung des Verfahrens nach Anspruch 8.Computer program with a program code for carrying out the method according to Claim 8 ,
DE102017211081.3A 2017-06-29 2017-06-29 Apparatus and method for finding a change in a scene Withdrawn DE102017211081A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102017211081.3A DE102017211081A1 (en) 2017-06-29 2017-06-29 Apparatus and method for finding a change in a scene
PCT/EP2018/067479 WO2019002502A1 (en) 2017-06-29 2018-06-28 Apparatus and method for finding a change in a scene

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017211081.3A DE102017211081A1 (en) 2017-06-29 2017-06-29 Apparatus and method for finding a change in a scene

Publications (1)

Publication Number Publication Date
DE102017211081A1 true DE102017211081A1 (en) 2019-01-03

Family

ID=62784165

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017211081.3A Withdrawn DE102017211081A1 (en) 2017-06-29 2017-06-29 Apparatus and method for finding a change in a scene

Country Status (2)

Country Link
DE (1) DE102017211081A1 (en)
WO (1) WO2019002502A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070116341A1 (en) * 2003-08-29 2007-05-24 Dongshan Fu Apparatus and method for determining measure of similarity between images

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070116341A1 (en) * 2003-08-29 2007-05-24 Dongshan Fu Apparatus and method for determining measure of similarity between images

Non-Patent Citations (25)

* Cited by examiner, † Cited by third party
Title
Avidan, S., Shashua, A.: „Novel View Synthesis in Tensor Space", in Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition 1997: 1034-1040
AVIDAN, Shai ; SHASHUA, Amnon: Novel view synthesis in tensor space. In: Computer Vision and Pattern Recognition, 1997. Proceedings., 1997 IEEE Computer Society Conference on. 1997, S. 1034-1040. ISSN 1063-6919. DOI: 10.1109/CVPR.1997.609457. URL: http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=609457 [abgerufen am 2017-10-24]. Bibliographieinformationen ermittelt über: http://ieeexplore.ieee.org/document/609457/ [abgerufen am 2017-10-24]. *
Barreto, J.P., Daniilidis, K.: „Fundamental Matrix for Cameras with Radial Distortion." in Proceedings of the Tenth IEEE International Conference on Computer Vision (ICCV'05) Volume 1, IEEE Computer Society, Washington, DC, USA, 2005, pp. 625-632
Bethmann, F., Luhmann, T.: „Least-Squares Matching with Advanced Geometric Transformation Models", in International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol. XXXVIII, Part 5 Commission V Symposium, Newcastle upon Tyne, UK. 2010
Brito, J. H., Angst, R.; Köser, K; Pollefeys, M.: „Radial Distortion Self-Calibration", 2013 IEEE Conference on Computer Vision and Pattern Recognition, Portland, OR, 2013, pp. 1368-1375
Brox, T., Bruhn, A. Papenberg, N., Weickert, J.: „High Accuracy Optical Flow Estimation based on a Theory for Warping", European Conference on Computer Vision (ECCV), Lecture Notes in Computer Science, Springer 2004; 3024: 25-36
Buchdahl, H. A.: „Optical Aberration Coefficients. III. The Computation of the Tertiary Coefficients," Journal of the Optical Society of America 1958; 48: 747-756
Carlsson, S., Weinshall, D.: „Dual Computation of Projective Shape and Camera Positions from Multiple Images", International Journal of Computer Vision 2004; 27(3): 227-241
Connor, K., Reid, I.: „Novel View Specification and Synthesis", in Proceeding of 13th British Machine Vision Conference, Cardiff, September 2002: 22.1-22.10
Fischler, M. A., Bolles, R. C.: „Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography", in Journal of Communications of the ACM; 1981, 24 (6): 381-395
Förstner, W., Gülch, E.: „A Fast Operator for Detection and Precise Location of Distinct Points, Corners and Centres of Circular Features", in Proceedings of the ISPRS Conference on Fast Processing of Photogrammetric Data, Interlaken, 1987, pp. 281-305
Grün. A.: „Adaptive Least Squares Correlation: A Powerful Image Matching Technique", in South African Journal of Photogrammetry, Remote Sensing, and Cartography, 1985; 14:175-187
Harris, C., Stephens, M.: „A Combined Corner and Edge Detector", in Proceedings of Fourth Alvey Vision Conference, 1988, pp. 147-151
Hartley, R. I.: „Computation of the Quadrifocal Tensor", in: Burkhardt H., Neumann B. (eds) Computer Vision - ECCV'98. ECCV 1998. Lecture Notes in Computer Science, vol 1406. Springer, Berlin, Heidelberg
Hirschmüller H.: „Stereo Processing by Semiglobal Matching and Mutual Information", IEEE Transactions on Pattern Analysis and Machine Intelligence 2008; 30 (2): 328-341
Lowe, D.G.: „Distinctive Image Features from Scale-Invariant Keypoints" in International Journal of Computer Vision; 2004, 60 (2): 91-110
Lucas, B.D., Kanade, T.: „An Iterative Image Registration Technique with an Application to Stereo Vision", International Joint Conferences on Artificial Intelligence 1981: 675-679
Nister, D.: „An Efficient Solution to the Five-Point Relative Pose Problem", IEEE Transactions on Pattern Analysis and Machine Intelligence 2004; 26(6): 756-777
Quan L.: „Invariants of 6 points from 3 Uncalibrated Images", in: Eklundh JO. (eds) Computer Vision - ECCV '94. ECCV 1994. Lecture Notes in Computer Science, vol 801. Springer, Berlin, Heidelberg
Rublee, E., Rabaud, V., Konolige, K., Bradski, G.: „ORB: An Efficient Alternative to SIFT or SURF", in Proceedings of the 2011 International Conference on Computer Vision (ICCV'11), IEEE Society, Washington, DC, USA, 2011, pp. 2564-2571
Schaffalitzky, F., Zisserman, A. Hartley, R. I., Torr, P. H. S.: „A Six Point Solution for Structure and Motion", Computer Vision - ECCV 2000: 6th European Conference on Computer Vision Dublin, Ireland, June 26 - July 1, 2000, Proceedings, Part I Springer, Berlin, Heidelberg, 2000: 632-648
Stewart, C.: „Robust Parameter Estimation in Computer Vision", SIAM Review 1999; 41 (3):513-537
Torr, P. H. S., Zisserman, A.: „Robust Parameterization and Computation of the Trifocal Tensor", Image and Vision Computing 1997; 15: 591-605
Torr, P. H. S.: „Geometric Motion Segmentation and Model Selection", Philosophical Transactions of the Royal Society of London A: Mathematical, Physical and Engineering Sciences 1998; 356 (1740): 1321-1340
Triggs, B.: The Geometry of Projective Reconstruction I: Matching Constraints and the Joint Image. Circulated in 1995. Accepted subject to revision to IJCV in 1995, but never completed. 1995

Also Published As

Publication number Publication date
WO2019002502A1 (en) 2019-01-03

Similar Documents

Publication Publication Date Title
US20180240265A1 (en) Systems and Methods for Depth-Assisted Perspective Distortion Correction
DE69922183T2 (en) FACE RECOGNITION FROM VIDEO IMAGES
DE112018001050T5 (en) SYSTEM AND METHOD FOR VIRTUALLY ENHANCED VISUAL SIMULTANEOUS LOCALIZATION AND CARTOGRAPHY
DE112018000332T5 (en) SEAL VISUAL SLAM WITH PROBABILISTIC SURFEL MAP
DE202014010843U1 (en) Align ground based images with aerial images
DE102004049676A1 (en) Method for computer-aided motion estimation in a plurality of temporally successive digital images, arrangement for computer-aided motion estimation, computer program element and computer-readable storage medium
DE102014222617B4 (en) Vehicle detection method and vehicle detection system
DE102014005181A1 (en) Position and orientation of objects
DE202015009182U1 (en) Aligning panoramic and aerial photography
DE112011103452T5 (en) Method for matching pixels of a distance representation
DE102015107390A1 (en) Method and device for automatic calibration of all-round visibility systems
DE112016001829T5 (en) Automatically associate images using visual property references to related applications
DE102007021518B4 (en) Method of processing a video data set
DE102007054950A1 (en) Method for supporting the automatic navigation of a low-flying missile
DE102019117559A1 (en) Method and system for merging two-dimensional semantic information from images with a three-dimensional point cloud
EP3539085B1 (en) 3d localization
DE102014012250B4 (en) Process for image processing and display
DE102019133719A1 (en) Correcting an Image
DE102017211081A1 (en) Apparatus and method for finding a change in a scene
DE102019220616A1 (en) METHOD OF SIMULTANEOUS LOCALIZATION AND IMAGING
DE102015120965B3 (en) Method and device for determining calibration parameters for metric calibration of a plenoptic camera
DE102013018561A1 (en) Method for data acquisition and data processing for lane identification of vehicle, involves filtering and discarding self-similarities of environment characteristics for non-relevant correspondence in generating road shape hypotheses
DE102021126814A1 (en) Method of locating a trailer, processing unit and vehicle
WO2018005953A1 (en) Stereoscopic image capture
DE102023200507B4 (en) Device and method for online georeferencing of camera images of map material with mobile devices

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载