+

WO2005010840A1 - Verfahren zur automatischen absicherung - Google Patents

Verfahren zur automatischen absicherung Download PDF

Info

Publication number
WO2005010840A1
WO2005010840A1 PCT/CH2004/000465 CH2004000465W WO2005010840A1 WO 2005010840 A1 WO2005010840 A1 WO 2005010840A1 CH 2004000465 W CH2004000465 W CH 2004000465W WO 2005010840 A1 WO2005010840 A1 WO 2005010840A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
light
sensor
light source
image area
Prior art date
Application number
PCT/CH2004/000465
Other languages
English (en)
French (fr)
Inventor
Phillip GEISSBÜHLER
Anton Gunzinger
Markus Emil Schenkel
Maurice Boonen
Original Assignee
Supercomputing Systems Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Supercomputing Systems Ag filed Critical Supercomputing Systems Ag
Publication of WO2005010840A1 publication Critical patent/WO2005010840A1/de

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene
    • G08B13/19643Multiple cameras having overlapping views on a single scene wherein the cameras play different roles, e.g. different resolution, different camera type, master-slave camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/1961Movement detection not involving frame subtraction, e.g. motion detection on the basis of luminance changes in the image

Definitions

  • the invention relates to a method and a device for automatic protection of systems.
  • one possibility for protection is based on the light barrier principle: a light source emits one or more light beams that strike one or more light catchers. If one or more light beams are interrupted, an alarm is triggered.
  • Room surveillance e.g. for robots or on autonomous vehicles
  • EP-A-1 300 691 A description of an alternative method for monitoring systems based on the known triangulation principle can be found in EP-A-1 300 691. According to this document, a pattern of light spots is projected onto a monitoring area. A receiving device determines whether light spots have moved away from a certain area, which indicates the presence of an object. Disadvantages are the great expenditure of optical elements for the generation of a pattern of light spots and the lack of possibility to make quantitative statements about the object.
  • the method and the device should preferably also enable the quantitative determination of properties of the monitored or interfering objects.
  • the method according to the invention uses the triangulation principle which is known per se, which, to put it simply, is based on the fact that the position of a light reflex on an object depends on its distance from the viewer, if the direction from which the light source shines depends on the Direction of view is different.
  • the triangulation principle is used here in such a way that it can be implemented cost-effectively with the use of components such as, for example, a laser light source and area image sensor and image processing techniques that run on corresponding image processing computers.
  • light is always understood to mean both visible light and electromagnetic radiation in the non-visible area.
  • Image and image processing are likewise not limited to images taken in the visible, they can also be infrared images, etc.
  • the invention is also based on the idea that when monitoring with the aid of image processing means, quantitative statements about the object and its
  • 3D properties can be made. This is based on the fact that in the case of known - or determined by one-time, camera type-specific calibration - optical
  • Characteristics of the camera an image position corresponds to a certain angle of incidence.
  • Object can be determined from the angle of incidence. According to one embodiment, the displacement of the
  • Embodiment the limitation of accuracy is overcome by a pixel resolution of the camera by performing a sub-pixel approximation.
  • the method according to the invention avoids disadvantages of existing systems. It is optically very simple. All that is required are means for generating at least one light line - for example a “laser light meter” - and an image area sensor, for example a camera. There is no need for complex optical adjustment.
  • the image processing that follows the image acquisition requires a certain amount Electronics and programming effort. However, this is not significant for a large number of pieces, since electronic components - in contrast to precise optical instruments - can be manufactured inexpensively in large quantities and, in particular, since no complex setup of each individual location is necessary.
  • the approach according to the invention enables not only the detection of objects but also the detection of their properties.
  • the deviation of the light pattern from a reference (for example, corresponding to the image of the light pattern, if there is no object in the detection area of the image area sensor) is recorded quantitatively and thus height information or distance information is obtained. Together with speed information - such information may be available if the monitored space is above a conveyor belt, for example - the volume of an object can thus be determined.
  • the invention is therefore not limited to systems in which only disturbing objects are detected, the detection of which causes an alarm signal or a machine to be switched off. Rather, it also includes the possibility of performing complex monitoring or even sorting functions.
  • Figure 1 of the drawing shows a schematic of the process.
  • FIG. 2 shows very schematically the basic principle of triangulation.
  • FIG. 3 shows an illustration of the principle of sub-pixel approximation.
  • Figure 4 shows an illustration of the principle of the difference image calculation with 2 cameras.
  • FIG. 1 schematically shows an area 4 to be monitored.
  • an object 0 is located in the area to be monitored, that is to say on the area 4 to be monitored.
  • a 3-dimensional image is to be generated from this object, which in the example described then triggers an alarm.
  • the space to be monitored is illuminated with the aid of a “laser light meter” 1 as a straight line of light per se, the light direction having to be shifted relative to the camera axis that records the scene.
  • the light meter essentially cuts through the entire area to be monitored and is, for example, . not interrupted or at most only interrupted by short sections, so that the total interruptions make up at most a small fraction (eg a tenth) of the total width. This ensures that narrow and marginal objects are not overlooked.
  • the "light meter” is now reflected from the empty space as a line. If there is an object 0 in the room, this line is changed.
  • a single light line it is also possible to use a plurality of light lines which are parallel or in any arrangement not parallel to one another and which complement one another or to form a pattern, for example by crossing, continuing with one another, etc.
  • the light line (s) Of course, must not necessarily be straight.
  • Different light patterns can be projected at different times and / or from independent light sources.
  • Lasers for example diode lasers, but also other preferably monochrome light sources (ie Light sources with a limited bandwidth compared to the spectrum of visible light), for example light-emitting diodes (LEDs).
  • the light pattern on the surface 4 serves as a reference, ie the pattern that would arise if there were a flat object on the surface 4. In this embodiment, it is also possible to detect objects that are located behind the surface.
  • An image area sensor 3 records the scene.
  • the light pattern 2 arising from the light line is also visible on this recording.
  • the signal from the image area sensor 3 is converted to a digital signal in the analog / digital conversion unit 5 and is thus available to the subsequent evaluation units as a digital signal.
  • the image evaluation 6 detects the course of the light line 2 in the image and creates a 3-D model from it in the manner set out above.
  • the control computer 7 recognizes the situation. On the basis of this change, the control computer 7 can generate an alarm signal 8.
  • the image recorded during the alarm situation - recorded by the image area sensor 3 or possibly by another camera - can possibly be saved for documentation purposes.
  • the height or distance of the object can be determined quantitatively depending on the lateral position. The principle of triangulation is shown very schematically in FIG. Due to the presence of object 0, the point of impact of the light, which is perceived by an image area sensor 3, is perceived as shifted in comparison to the state without object 0 (dashed line). Using trigonometric formulas, the height or distance of the object is calculated from the angle of incidence ⁇ and the angle of incidence ⁇ as well as the known distance of the camera from the monitored plane.
  • the specific formulas to be used are known from classic triangulation and are not listed again here.
  • the present invention makes use of the knowledge that the angle ⁇ is expressed in a positional shift of the light pattern on the image due to the camera optics.
  • the deviation in the image of the light pattern from the reference can be determined by means of image processing means, and from this the angle ⁇ or, as explained, the height of the object can be inferred.
  • the positional shift of the light pattern on the image recorded by the camera can be determined, for example, by evaluating which image points (pixels) the light pattern is mapped to.
  • the image of a thin line will also not only trigger signals in a single row of pixels, but also in neighboring pixels. This can be used to determine the position with a resolution that is finer than the "pitch", ie the size given by the pixel spacing.
  • the position of all pixels in which a signal is measured is averaged. The averaging is weighted according to signal strength.
  • the method can be used to determine precise position information with sub-pixel accuracy, even if the pattern is not exactly mapped to the center of a row of pixels. This is illustrated in FIG. 3, where the intensities 22 are plotted as a function of the x position of the pixels 21. The actual position 23 determined with the sub-pixel approximation is not in the center of the pixel with the highest intensity value.
  • a change in the brightness of the light line in the image can also indicate a lack of functionality.
  • a suitable warning signal and / or a check can be triggered.
  • the presence of an object - as an alarm case - can be distinguished from a system failure - as a malfunction - according to the approach according to the invention.
  • the image evaluation 6 can be carried out by simply setting a threshold value: if the signal is greater than this threshold value, it is the light line 2, otherwise it is not part of the light line.
  • Lighting conditions can be used. It also has to work in direct, competitive solar radiation. So that is the case , the light output of the light source 1 would have to be increased so much that the eye of a person could be damaged by direct radiation.
  • Various measures can be taken to reduce the light output so much that it becomes harmless to humans without endangering the way the system works. These measures are to be explained in more detail below:
  • Laser light sources such as are usefully used as light source 1, are monochrome.
  • an optical filter 9 for example a band-pass or low-pass filter in front of the camera, which is tuned to the frequency range of the laser, most of the sunlight or other lighting can be suppressed.
  • the optical filter thus favors the recognizability of the monochrome light source in relation to the ambient light.
  • Lasers can be used both in the visible and in the invisible area. The selection depends on the application; should the endangered area be visible (e.g. machine security) or should it be invisible (e.g. access security))
  • the light source 1 can usually be modulated or pulsed; for a short period of time it can be 100 or 1000 times the continuous output. At the same time, modern cameras have an electronic shutter. This can be synchronized with the light pulse.
  • the control computer 7 controls the light source via line 10 and the shutter of the camera via line 11.
  • an image can be suppressed without the light source 1 is switched on, recorded and temporarily stored in an image memory 12.
  • the picture is then taken with the light source switched on. This is compared by the comparator 13 with the stored image (for example by forming a difference).
  • slowly changing strong lights in the recording area 4 can be suppressed comparatively, for example in comparison with the recording frequency of the camera.
  • the picture can be taken with the light source switched off once at the beginning of a work cycle or continuously - alternating with lighting periods.
  • FIG. 4 a method according to FIG. 4 is suitable.
  • two sensors 3, 3 ' are available.
  • One sensor 3 triggers the image acquisition at the same time as the pulsation of the light source, while the other sensor 3 'immediately takes an image, the image acquisition time being approximately identical for both sensors.
  • Both sensor signals are converted into digital signals in the analog / digital converters 5, 5 '.
  • the transformation unit 20 'transforms the signal of the second sensor 3' geometrically and in terms of light intensity to the geometric position of the first sensor 3.
  • the two images are compared (e.g. by forming a difference) and then further evaluated analogously as described above.
  • an image area sensor including A / D converter, possibly its own optics, and possibly the means for reference formation) or more additional sensor systems can help: While one sensor system is set to be very light-sensitive with a first image area sensor and overdrives for large input signals, a second sensor system with a second image area sensor can take over the area which is not very light-sensitive. The sensor system which provides better signal statistics is used for further processing. As an alternative or in addition to this, the images recorded by both sensor systems can also be combined, for example after correction or geometric transformation, for example by addition. The acquisition of the images exposed to different intensities can, but does not have to take place simultaneously.
  • more than one sensor system can also be used in situations in which an object's shadow can lead to inaccessible areas, or in order to simultaneously detect the height and another geometric dimension of the object.
  • equivalent at least two sensor systems are preferably used simultaneously.
  • the device described here can be used to detect a change and thus for simple machine protection.
  • the system can be calibrated; the height or distance of object 0 can thus be calculated directly from the displacement of light line 2 in the image. If the geometric arrangement is known, the height or distance of the recording system can also be calculated. If object 0 is moving at a known speed (eg on a conveyor belt for parts or people), the volume of object 0 can also be estimated with this method.
  • the image processing device can also be provided with means for specifying an object speed in addition to the above.
  • the object can be conveyed, for example, in a plane containing the surface 4 and in a direction approximately perpendicular to the direction of the light meter.
  • the volume can be determined in the image processing means itself or in a control and / or evaluation computer.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Das Verfahren zur Absicherung von Systemen kann mittels Bildverarbeitungsmitteln ein von einem überwachten Bereich aufgenommenes Bild so auswerten, dass Aussagen über Abmessungen des Objektes möglich sind. Zu diesem Zweck wird durch eine Lichtquelle (1) aus einer Beleuchtungsrichtung mindestens eine Lichtlinie auf eine zu überwachende Fläche (4) projiziert, wodurch ein Lichtmuster (2) entsteht. Das Lichtmuster wird mindestens teilweise aus einer von der Beleuchtungsrichtung verschiedenen Richtung durch einen Bildflächensensor (3) erfasst. Das entstandene Kamerasignal wird anschliessend einer Bildverarbeitungseinrichtung (6) zugeführt wird, welche die Abweichung des Lichtmusters (2) von einer Referenz ermittelt. Durch quantitative Auswertung des Abstandes durch die Bildverarbeitungmittel kann auch die Höhe des Objektes mindestens annäherungsweise bestimmt werden.

Description

VERFAHREN ZUR AUTOMATISCHEN ABSICHERUNG
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur automatischen Absicherung von Systemen.
Die Absicherung von Maschinen, Türen, Fahrzeugen und anderen Objekten ist in der modernen Gesellschaft sowohl im Produktiv- wie auch im Freizeitsektor wichtig. Diese Sicherheitsfunktion wird heute hauptsächlich mit Hilfe von optischen Systemen realisiert:
Gemäss dem Stand der Technik beruht eine Möglichkeit der Absicherung auf dem Lichtschranken-Prinzip: Eine Lichtquelle sendet einen oder mehrere Lichtstrahlen aus, die auf einen oder mehrere Lichtfänger auftreffen. Werden ein oder mehrere Lichtstrahlen unterbrochen, so wird Alarm ausgelöst. Diese Verfahren haben den Vorteil, dass im Normalbetrieb immer alle beteiligten Komponenten überprüft werden.
Als Nachteil von diesen Verfahren ist einerseits der hohe Justage- Aufwand
(Lichtsender- Optik- Überwachungsweg- Optik müssen aliniert werden) und andererseits der komplexe Aufbau, wenn Flächen oder gar Räume überwacht werden sollen. Da bei diesen Verfahren immer Lichtstrahlen unterbrochen werden, sind für Raumüberwachungen (z.B. für Roboter oder an autonomen Fahrzeugen) komplexe und teure Aufbauten mit Spiegeln oder Lichtleitern notwendig.
Die Beschreibung eines alternativen, auf dem bekannten Triangulationsprinzip beruhendes Verfahren zur Überwachung von Systemen findet man in der EP-A-1 300 691. Gemäss dieser Schrift wird ein Muster von Lichtflecken auf einen Überwachungsbereich projiziert. Eine Empfangseinrichtung stellt fest, ob sich Lichtflecken von einem bestimmten Bereich weg verschoben haben, was auf die Anwesenheit eines Objekts hinweist. Nachteilig sind der grosse Aufwand an optischen Elementen für die Erzeugung eines Musters von Lichtflecken und die fehlende Möglichkeit, quantitative Aussagen über das Objekt machen zu können.
Es ist demnach Aufgabe der Erfindung, ein Verfahren und eine Vorrichtung zur Verfügung zu stellen, welche Nachteile bestehender Verfahren und Vorrichtungen überwindet und welche ermöglicht, dass mit optisch wenig komplexen Mitteln eine unter Umständen auch bei kleinen störenden Objekten zuverlässige Absicherung möglich ist. Das Verfahren und die Vorrichtung sollten vorzugsweise auch die quantitative Ermittlung von Eigenschaften der überwachten bzw. störenden Objekte ermöglichen.
Diese Aufgabe wird gelöst durch die Erfindung, wie sie in den Patentansprüchen definiert ist.
Das erfindungsgemässe Verfahren benutzt das an sich bekannte Triangulationsprinzip, welches, vereinfacht gesagt, darauf beruht, dass die Position eines Lichtreflexes auf einem Objekt abhängig ist von dessen Abstand zum Betrachter, wenn die Richtung, aus welcher die Lichtquelle einstrahlt, von der Blickrichtung verschieden ist. Das Triangulationsprinzip wird hier so genutzt, dass es mit Verwendung von Komponenten wie bspw. Laser- Lichtquelle und Flächenbildsensor und von Bildverarbeitungstechniken, die auf entsprechenden Bildverarbeitungsrechnern laufen, kostengünstig implementierbar ist.
Unter „Licht" versteht man im Kontext dieser Schrift immer sowohl sichtbares Licht als auch elektromagnetische Strahlung im nicht-sichtbaren Bereich. „Bild" und „Bildverarbeitung" sind ebenso wenig auf im Sichtbaren gemachte Bilder beschränkt, es können ebenso Infrarotaufnahmen etc. sein.
Der Erfindung zu Grunde liegt ebenfalls der Gedanke, dass bei Überwachung mit Hilfe von Bildverarbeitungsmitteln quantitative Aussagen über das Objekt und seine
3D-Eigenschaften gemacht werden können. Dies beruht darauf, dass bei bekannten - oder durch einmalige, kameratypspezifsche Kalibrierung ermittelten - optischen
Eigenschaften der Kamera eine Bildposition einem bestimmten Lichteinfallswinkel entspricht. Mit an sich von konventionellen Triangulationsverfahren her bekannten trigonometrischen Formeln kann eine Höhe des Objektes bzw. die Distanz zum
Objekt aus dem Einfallswinkel bestimmt werden. Gemäss einer Ausführungsform wird die durch den Bildflachensensor wahrgenommene Verschiebung des
Lichtmusters daher quantitativ ausgewertet, wobei gemäss einer speziellen
Ausführungsform die Beschränkung der Genauigkeit durch eine Pixelauflösung der Kamera überwunden wird, indem eine Sub-Pixel-Approximation durchgeführt wird.
Das erfindungsgesmässe Verfahren vermeidet Nachteile bestehender Systeme. So ist es optisch sehr einfach. Es müssen lediglich Mittel zum Erzeugen mindestens einer Lichtlinie - bspw. eines „Laserlichtmessers" - sowie ein Bildflachensensor, also bspw. eine Kamera vorhanden sein. Eine aufwändige opitsche Justierung entfällt. Die an die Bilderfassung anschliessende Bildverarbeitung bedingt einen gewissen Aufwand an Elektronik und in der Programmierung. Dieser fällt aber bei einer grösseren Stückzahl nicht stark ins Gewicht, da Elektronikbauteile - im Gegensatz zu präzisen optischen Instrumenten - in grossen Mengen kostengünstig gefertigt werden können und insbesondere da kein aufwändiges Einrichten jedes einzelnen Standortes nötig ist.
Weiter ermöglicht der erfindungsgemässe Ansatz, dass neben einer blossen Detektion von Objekten auch das Erfassen von deren Eigenschaften möglich ist. Dazu wird gemäss einer bevorzugten Ausführungsform die Abweichung des Lichtmusters von einer Referenz (bspw. entsprechend dem Abbild des Lichtmusters, falls sich kein Objekt im Erfassungsbereich des Bildflächensensors befindet) quantitativ erfasst und damit eine Höheninformation bzw. Distanzinformation gewonnen. Zusammen mit einer Geschwindigkeitsinformation - eine solche kann verfügbar sein, wenn der überwachte Raum bspw. über einem Förderband liegt - kann somit sogar das Volumen eines Objektes bestimmt werden. Damit eröffnen sich zusätzliche Möglichkeiten für die Überwachung von Maschinen. Die Erfindung ist also nicht beschränkt auf Systeme, in denen nur störende Objekte detektiert werden, deren Detektion ein Alarmsignal oder ein Abschalten einer Maschine bewirkt. Sie beinhaltet vielmehr auch die Möglichkeit komplexe Überwachungs- oder sogar Sortierfunktionen wahrzunehmen.
Im Folgenden wird eine Ausführungsform der Erfindung und deren Funktionsweise anhand einer Zeichnung schematisch dargestellt.
Die Figur 1 der Zeichnung zeigt ein Schema des Verfahrens.
Die Figur 2 zeigt sehr schematisch das Grundprinzip der Triangulation. Die Figur 3 zeigt eine Illustration des Prinzips der Sub-Pixel-Approximation.
Die Figur 4 zeigt eine Illustration des Prinzips der Differenzbildberechnung mit 2 Kameras.
Fig. 1 zeigt schematisch eine zu überwachende Fläche 4. In der folgenden Beschreibung sei angenommen, dass ein Objekt 0 sich im zu überwachenden Raum, also auf der zu überwachenden Fläche 4 befinde. Von diesem Objekt soll eine 3- dimensionale Abbildung erzeugt werden, die dann im beschriebenen Beispiel zu einer Auslösung eines Alarms führt. Der zu überwachende Raum wird mit Hilfe eines „Laserlichtmessers" 1 als an sich gerade Lichtlinie beleuchtet, wobei die Lichtrichtung gegenüber der Kameraachse, die die Szene aufnimmt, verschoben sein muss. Das Lichtmesser durchschneidet bspw. im Wesentlichen die gesamte zu überwachende Fläche und ist bspw. nicht unterbrochen oder allenfalls nur durch kurze Abschnitte unterbrochen, so dass die Unterbrechungen im Total höchstens einen kleinen Bruchteil (bspw. einen Zehntel) der Gesamtbreite ausmachen. Damit wird sichergestellt, dass schmale und randständige Objekte nicht übersehen werden. Das „Lichtmesser" wird nun vom leeren Raum als Linie reflektiert. Befindet sich ein Objekt 0 im Raum, so wird diese Linie verändert.
Anstelle einer einzigen Lichtlinie können auch mehrere Lichtlinien verwendet werden, die parallel oder in irgend einer Anordnung nicht parallel zueinander sind und sich zu einem oder mehreren Mustern ergänzen, bspw. indem sie sich kreuzen, einander mit einer Unterbrechung fortsetzen etc. Die Lichtlinie(n) muss/müssen selbstverständlich nicht notwendigerweise gerade sein. Verschiedene Lichtmuster können jeweils zu verschiedenen Zeitpunkten und/oder von voneinander unabhängigen Lichtquellen projiziert werden. Als Lichtquellen kommen Laser, bspw. Diodenlaser, aber auch andere vorzugsweise monochrome Lichtquellen (d.h. Lichtquellen mit im Vergleich zum Spektrum des sichtbaren Lichts beschränkter Bandbreite) in Frage, bspw. Leuchtdioden (LEDs).
Gemäss einer speziellen Ausführungsform wird - sofern kein Objekt im Überwachungsbereich ist - kein Licht von der Fläche 4 zurückgeworfen, da auf dieser kein Gegenstand vorhanden ist. Dann wird das Lichtmuster also quasi ins Unendliche projiziert. Das Lichtmuster ist also nur erfassbar, wenn sich ein Objekt im Kamerabereich befindet. Als Referenz dient auch in dieser Ausführungsform das Lichtmuster auf der Fläche 4 also das Muster, das entstehen würde, wenn sich ein flacher Gegenstand auf der Fläche 4 befinden würde. In dieser Ausführungsform ist es auch möglich, Objekte zu erfassen, die sich hinter der Fläche befinden.
Das Verfahren funktioniert wie folgt:
Ein Bildflachensensor 3 nimmt die Szene auf. Auf dieser Aufnahme ist auch das aus der Lichtlinie entstehende Lichtmuster 2 sichtbar.
Das Signal des Bildflächensensors 3 wird in der Analog/ Digital- Wandeleinheit 5 auf ein digitales Signal gewandelt und steht so den nachfolgenden Auswertungseinheiten als digitales Signal zur Verfügung.
Die Bildauswertung 6 detektiert den Verlauf der Lichtlinie 2 im Bild und erstellt daraus in der oben dargelegten Art ein 3- D Modell.
Der Steuerrechner 7 erkennt die Situation. Auf Basis dieser Veränderung kann der Steuerrechner 7 ein Alarmsignal 8 erzeugen. Das während der Alarmsituation erfasste Bild - aufgenommen durch den Bildflachensensor 3 oder allenfalls durch eine andere Kamera - kann ggf. zu Dokumentationszwecken abgespeichert werden. Ergänzend oder alternativ zum Alarmsignal kann die Höhe bzw. Distanz des Objektes in Abhängigkeit der seitlichen Position quantitativ ermittelt werden. In Fig. 2 wird das Prinzip der Triangulation sehr schematisch aufgezeigt. Durch die Anwesenheit des Objekts 0 wird der von einem Bildflachensensor 3 wahrgenommene Auftreffpunkt Ort des Lichtes im Vergleich zum Zustand ohne Objekt 0 (gestrichelte Linie) als verschoben wahrgenommen. Mit Hilfe trigonometrischer Formeln wird aus dem Einfallswinkel α und dem Lichtauftreffwinkel ß sowie dem bekannten Abstand der Kamera von der überwachten Ebene die Höhe bzw. Distanz des Objektes berechnet. Die konkreten (auch bei von der gezeichneten Konfiguration abweichenden Anordnungen) zu verwendenden Formeln sind aus der klassischen Triangulation bekannt und werden hier nicht noch einmal aufgeführt. Die vorliegende Erfindung macht sich die Erkenntnis zu Nutze, dass der Winkel α aufgrund der Kameraoptik sich in einer Positions Verschiebung des Lichtmusters auf dem Bild äussert. Durch Bildverarbeitungmittel kann die Abweichung im Bild des Lichtmusters von der Referenz ermittelt, und aus dieser auf den Winkel α, bzw. wie dargelegt auf die Höhe des Objektes geschlossen werden.
Die Positionsverschiebung des Lichtmusters auf dem von der Kamera (also dem Bildflachensensor) aufgenommenen Bild kann bspw. ermittelt werden, indem ausgewertet wird, auf welche Bildpunkte (Pixel) das Lichtmuster abgebildet wird. Im Allgemeinen wird auch das Bild einer dünnen Linie nicht nur Signale in einer einzigen Reihe von Pixeln auslösen, sondern auch in benachbarten Pixeln. Dies kann ausgenutzt werden, um die Postition mit einer Auflösung zu bestimmen, die feiner ist als der „Pitch", also die durch den Pixelabstand gegebene Grosse. Dabei wird die Postion aller Pixel gemittelt, in denen ein Signal gemessen wird. Die Mittelung erfolgt gewichtet nach Signalstärke. Dies erfolgt bspw. über alle in einer Richtung (bspw. x-Richtung in einem x-y-kartesischen Koordinatensystem) nebeneinander liegenden Pixel und zwar für alle Pixelreihen (also im Beispiel für alle y-Werte). Mit dem Verfahren kann eine präzise Positionsinformation in Sub-Pixel-Genauigkeit ermittelt werden, auch wenn das Muster nicht gerade auf die Mitte einer Pixelreihe abgebildet wird. Dies wird illustriert in Figur 3, wo die Intensitäten 22 in Funktion der x-Position der Pixel 21 aufgetragen werden. Die tatsächliche, mit der Sub-Pixel- Approximation ermittelte Position 23 liegt nicht in der Mitte des Pixels mit der höchsten Intensitätswert.
Ein Fehlen der Lichtlinie oder von Teilen davon im Bild oder je nach dem gewählten Aufbau auch eine Verschiebung der ganzen Lichtlinie im Vergleich zur Referenz deutet auf eine fehlende Funktionsfähigkeit des Systems hin. Auch eine Veränderung der Helligkeit der Lichtlinie im Bild kann auf eine fehlende Funktionsfähigkeit hindeuten. In diesem Fall kann ein geeignetes Warnsignal und/oder eine Überprüfung ausgelöst werden. Im Gegensatz zu bekannten Überwachungssystemen ist also gemäss dem erfindungsgemässen Ansatz die Anwesenheit eines Objekts - als Alarmfall - von einem Systemausfall - als Störfall - unterscheidbar.
Falls genügend Licht vom Lichtmuster vorhanden ist, ist die Linie 2 im Blickwinkel 4 des Bildflächensensors viel heller als alle anderen Objekte; in diesem Fall kann die Bildauswertung 6 durch einfaches Festlegen eines Schwellwerts erfolgen: ist das Signal grösser als dieser Schwellwert, so handelt es sich um die Lichtlinie 2 andernfalls ist es nicht Teil der Lichtlinie.
Nun soll diese Absicherungseinrichtung auch in unterschiedlichen
Beleuchtungsverhältnissen eingesetzt werden können. Sie muss also auch bei direkter, konkurrenzierender Sonneneinstrahlung funktionieren. Damit dies der Fall ist, müsste die Lichtleistung der Lichtquelle 1 so stark erhöht werden, dass das Auge eines Menschen bei direkter Einstrahlung Schaden nehmen könnte. Durch verschiedene Massnahmen kann die Lichtleistung so stark reduziert werden, dass sie für den Menschen ungefährlich wird, ohne dabei die Funktionsweise des Systems zu gefährden. In Folgendem sollen diese Massnahmen näher erläutert werden:
Die Sonne strahlt über ein grosses Frequenzspektrum. Laserlichtquellen, wie sie sinnvollerweise als Lichtquelle 1 eingesetzt werden, sind monochrom. Durch den Einsatz eines optischen Filters 9, bspw. Bandpass- oder Tiefpassfilters vor der Kamera, das auf den Frequenzbereich des Lasers abgestimmt ist, kann der grösste Anteil des Sonnenlichtes, oder anderer Beleuchtung, unterdrückt werden. Das optische Filter begünstigt also die Erkennbarkeit der monochromen Lichtquelle in Bezug zum Umgebungslicht. (Bemerkung: Es können sowohl Laser im sichtbaren und im unsichtbaren Bereich eingesetzt werden. Die Auswahl ist von der Anwendung abhängig; soll der gefährdete Raum sichtbar sein (z.B. Maschinenabsicherung) oder soll er unsichtbar sein (z.B. Zugangsabsicherung))
Die Lichtquelle 1 kann meistens moduliert bzw. gepulst werden; dabei kann sie für eine kurze Zeitdauer das 100- oder 1000-fache der kontinuierlichen Leistung betragen. Gleichzeitig verfügen moderne Kameras über einen elektronischen Verschluss. Dieser kann mit dem Lichtimpuls synchronisiert werden. In Fig. 1 steuert der Steuerrechner 7 über die Leitung 10 die Lichtquelle, und über Leitung 11 den Verschluss der Kamera.
Trotz obiger Massnahme können im Bild immer noch helle Lichtbereiche entstehen, z.B. durch direkte Scheinwerfereinstrahlung in den Aufnahmebereich der Kamera 4. Um diese Störsignale zu unterdrücken kann ein Bild, ohne dass die Lichtquelle 1 eingeschaltet ist, aufgenommen werden und in einem Bildspeicher 12 zwischengespeichert werden. Anschliessend erfolgt eine Aufnahme mit eingeschalteter Lichtquelle. Diese wird durch den Vergleicher 13 mit dem abgespeicherten Bild verglichen (z.B. durch Differenzbildung). Dadurch lassen sich vergleichsweise - bspw. im Vergleich zur Aufnahmefrequenz der Kamera - langsam ändernde starke Lichter im Aufnahmebereich 4 unterdrücken. Die Aufnahme des Bildes bei ausgeschalteter Lichtquelle kann einmal am Anfang eines Arbeitszyklus oder laufend - abwechslungsweise mit Beleuchtungsperioden - geschehen.
Ist eine von der Beleuchtung her hochdynamische Situation gegeben, sei es, dass der Überwachungssensor auf einem Fahrzeug montiert ist, oder dass er eine Objektüberwachung mit schnellen Objekten durchführen muss, so kann die Aufnahme eines Referenzbildes eine zusätzliche nichttolerierbare Totzeit ergeben. In diesem Fall eignet sich ein Verfahren nach Figur 4. In dieser Anordnung stehen zwei Sensoren zur Verfügung 3, 3'. Der eine Sensor 3 löst die Bildaufnahme gleichzeitig mit der Pulsung der Lichtquelle aus, während der andere Sensor 3' gleich anschliessend ein Bild aufnimmt, wobei die Bildaufnahmedauer für beide Sensoren etwa identisch sei. Beide Sensorsignale werden in den Analog/Digital-Wandlern 5, 5' in digitale Signale umgewandelt. Die Transformationseinheit 20' transformiert das Signal des zweiten Sensors 3' geometrisch und in der Lichtstärke auf die geometrische Position des ersten Sensor 3. Im Vergleicher 13 werden die zwei Bilder verglichen (z.B. durch Differenzbildung) und anschliessend analog oben beschrieben weiter ausgewertet.
Es kann vorkommen, dass sich die Lichtverhältnisse im Überwachungsbereich sehr schnell ändern wenn z.B. plötzlich ein Muster auf dem Überwachungsbereich mit sehr unterschiedlichen Reflexionseigenschaften vorhanden ist: Ein Teilgebiet reflektiert sehr stark, während ein anderes Teilgebiet kaum reflektiert. Falls es die zeitlichen Anforderungen erlauben, kann die Verstärkung der Belichtungszeit des Sensors bei der nächsten Bildaufnahme so angepasst werden, dass dann eine sinnvolle Auswertung möglich ist. Sind aber die zeitlichen Anforderungen an das System sehr hoch, so kann in diesem Fall ein weiteres Sensorsystem (d.h. ein Bildflachensensor inklusive A/D-Wandler, eventuell eigener Optik, und eventuell den Mitteln zur Referenzbildung) oder mehre weitere Sensorsysteme helfen: Während ein Sensorsystem mit einen ersten Bildflachensensor sehr lichtempfindlich eingestellt ist, und bei grossen Eingangssignalen übersteuert, kann ein zweites Sensorsystem mit einem zweiten Bildflachensensor den wenig lichtempfindlichen Bereich übernehmen. Zur weiteren Verarbeitung wird dasjenige Sensorsystem eingesetzt, welches eine bessere Signalstatistik liefert. Alternativ oder ergänzend dazu können auch die von beiden Sensorsystemen erfassten Bilder - ggf. nach Korrektur oder geometrischer Transformation - kombiniert werden, beispielsweise durch Addition. Die Erfassung der unterschiedlich stark belichteten Bilder kann, muss aber nicht gleichzeitig erfolgen.
Mehr als ein Sensorsystem kann bspw. auch in Situationen verwendet werden, in denen ein Schattenwurf eines Objektes zu unzugänglichen Bereichen führen kann, oder aber um gleichzeitig die Höhe und eine andere geometrische Abmessung des Objektes zu erfassen. Diese bspw. gleichwertigen mindestens zwei Sensorsysteme werden vorzugsweise gleichzeitig eingesetzt.
In der einfachsten Ausführung kann die hier beschriebene Vorrichtung zur Detektion einer Veränderung und damit zur einfachen Maschinenabsicherung eingesetzt werden. Das System kann geeicht werden; damit kann aus der Verschiebung der Lichtlinie 2 im Bild direkt die Höhe bzw. Distanz des Objekts 0 berechnet werden. Bei bekannter geometrischer Anordnung kann auch die Höhe bzw. Distanz des Aufnahmesystems berechnet werden. Bewegt sich das Objekt 0 mit bekannter Geschwindigkeit (z.B. auf Förderband für Teile oder Menschen) so kann mit diesem Verfahren auch das Volumen des Objekts 0 abgeschätzt werden. Unter Umständen kann die Bildverarbeitungseinrichtung auch in Ergänzung zu Obigem mit Mitteln zum Festlegen einer Objektsgeschwindigkeit versehen sein. In der in Fig. 1 gezeichneten Anordnung kann die Förderung des Objektes bspw. in einer die Fläche 4 beinhaltenden Ebene und in Richtung ungefähr senkrecht zur Richtung des Lichtmessers geschehen. Die Ermittlung des Volumens kann in den Bildverarbeitungsmitteln selbst oder in einem Steuer- und/oder Auswertungsrechner erfolgen.
Typische Anwendungsgebiete des vorgestellten Verfahrens sind:
Absicherung von Maschinen
Steuerung von Zugangssystemen (z.B. Türen)
Messung von Menschenströmen, Zählungen (Kaufhäuser, Verkehrsanlagen, öffentliche Verkehrsmittel (Tram, Zug, Bus))
- Elektronische Vorraumüberwachung von (autonomen) Fahrzeugen, mit dem Vorteil gegenüber mechanischen Systemen, dass das Fahrzeug gestoppt wird bevor es das Objekt (z.B. Mensch) mechanisch berührt.
Schutz von Objekten vor Annäherung durch einen Menschen oder eine Maschine, bzw. das Erkennen eines unerlaubten Zugriffs, bspw. der Schutz eines Gemäldes im Museum. Überwachen einer Fläche, die in mehrere zusammenhängende oder nicht zusammenhängende Zonen unterteilt ist. Für jede Zone kann ein unterschiedliches Alarmsignal ausgelöst werden.

Claims

PATENTANSPRUCHE
1. Verfahren zur Absicherung von Systemen, wobei
- eine Lichtquelle (1) aus einer Beleuchtungsrichtung mindestens eine Lichtlinie auf eine zu überwachende Fläche (4) projiziert, wodurch ein Lichtmuster (2) entsteht
- das Lichtmuster (2) mindestens teilweise aus einer von der Beleuchtungsrichtung verschiedenen Richtung durch einen Bildflachensensor (3) erfasst wird, wodurch ein Kamerasignal erzeugt wird,
- das Kamerasignal anschliessend einer Bildverarbeitungseinrichtung (6) zugeführt wird,
- und die Bildverarbeitungsseinreichtung (6) die Abweichung des Lichtmusters (2) von einer Referenz ermittelt.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als Lichtquelle (1) eine monochrome Lichtquelle eingesetzt wird und vor der Kamera (3) ein optisches Filter (9) für die Frequenz der monochromen Lichtquelle zum Einsatz kommt.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Lichtquelle gepulst oder moduliert wird und der Zeitpunkt der Auslösung der Pulsung bzw. die Steuerung der Modulation durch einen Steuerrechner (7) über eine Steuerung (10) der Lichtquelle (1) erfolgt und das gleichzeitig nur während diesem Zeitpunkt die Bildaufnahme der Kamera (3) eingeschaltet wird.
Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass ein Bild ohne Einschaltung der Lichtquelle (1) aufgenommen wird und zwischengespeichert wird und dieses Bild mit einem Bild mit Beleuchtung durch die Lichtquelle (1) verglichen wird und dieses Signal der Bildauswertung (6) weitergegeben wird.
5. Verfahren nach einem der vorangehenden Ansprüchen, dadurch gekennzeichnet, dass zwei Bildflächensensoren (3, 3') zur Aufnahme des Bildes eingesetzt werden , wovon ein erster Sensor (3) gleichzeitig mit der Pulsung der Lichtquelle ein Bild aufnimmt und ein zweiter Bildflachensensor (3') unmittelbar vorher oder unmittelbar anschliessend ein Referenzbild aufnimmt, dass das Bild mindestens eines der zwei Bildflächensensoren (3') geometrisch transformiert wird, und dass anschliessend die der beiden Bilder bspw. durch Differenzbildung verglichen werden und das Resultat für die weitere Bildauswertung benutzt wird.
6. Verfahren nach einem der vorangehenden Ansprüchen, dadurch gekennzeichnet, dass zwei oder mehrere unterschiedliche Sensorsysteme mit je einem Bildflachensensor vorhanden sind, die durch optische Massnahmen, beispielsweise eine Blende, oder elektrische Massnahmen, beispielsweise elektronische Verstärkung, eine unterschiedliche Lichtempfindlichkeit aufweisen
Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass je nach Situation dasjenige Sensorsystem mit der geeigneteren Signalstatistik zur weiteren Verarbeitung verwendet wird.
Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass die beiden Bilder mit unterschiedlichen Lichtempfindlichkeiten, beispielsweise durch Addition, kombiniert werden und das Resultat zur weiteren Verarbeitung verwendet wird.
9. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Abweichung des Lichtmusters (2) von der Referenz quantitativ berechnet wird, wodurch Rückschlüsse auf die Höhe mindestens eines sich auf der zu überwachenden Fläche befindlichen Objektes (0) gemacht werden können.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass auch die Bewegung eines sich im Überwachungsbereich befindlichen Objektes (0) erfasst wird und anhand der Höhe und der Bewegung des Objekts (0) das Volumen des Objekts abgeschätzt wird.
11. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Bildflachensensor (3) Daten in einem Pixelformat erfasst, dass zur Bestimmung der Abweichung ein über mindestens zwei Pixel gewichteter Mittelwert gebildet wird und dass die Positions-Abweichung des Lichtmusters (2) von der Referenz in einer Sub-Pixel-Approximation ermittelt wird.
12. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass ein von der Bildverarbeitungseinrichtung (6) ermitteltes Resultat einem Steuerrechner (7) zugeführt wird und dieser bei Abweichungen von einer vorgegebenen Norm ein Gefahrensignal erzeugt.
13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass je nach Art der Abweichung von der Norm verschiedene Gefahrensignale mit unterschiedlicher Bedeutung erzeugt werden.
14. Verfahren nach Anspruch 12 oder 13, dadurch gekennzeichnet, dass im Alarmfall ein - bspw. durch den Bildflachensensor erfasstes - Bild zu Dokumentationszwecken abgespeichert wird.
15. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass bei fehlender Sichtbarkeit des ganzen Lichtmusters oder von Teilen davon eine Überprüfung des Systems ausgelöst wird.
16. Verfahren nach einem der vorangehenden Ansprüchen, dadurch gekennzeichnet, dass mehrere unabhängige Lichtquellen zur Erzeugung des Lichtmusters eingesetzt werden.
17. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Lichtmuster (2) nur in Anwesenheit eines zu erfassenden Objektes erfassbar ist.
18. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das System zum Absichern von Maschinen eingesetzt wird.
19. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, dass das System für die Überwachung / Steuerung von jeglichen Zugangssystemen, z.B. Türen, eingesetzt wird.
20. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, dass damit Menschenströme, z.B. in Kaufhäusern oder beim Zugang in Zügen oder Bahnhöfen, gemessen werden.
21. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, dass damit der Vorraum von (autonomen) Fahrzeugen überwacht werden kann.
22. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, dass damit der Zugriff zu Objekten überwacht wird.
23. Vorrichtung zur Absicherung von Systemen, aufweisend eine Lichtquelle mit Mitteln zum projizieren mindestens einer Lichtlinie auf eine zu überwachende Fläche, einen Bildflachensensor zum Überwachen der Fläche, einer mit dem Bildflachensensor (3) verbundenen Bildverarbeitungseinrichtung (6) und mit Mitteln zum Auswerten eines durch den Bildflachensensor erfassten und durch die Bildverarbeitungseinrichtung verarbeiteten Kamerasignales, dergestalt, dass die Abweichung eines durch die mindestens eine Lichtlinie gebildeten Lichtmusters (2) von einer Referenz quantitativ ermittelbar ist.
24. Vorrichtung nach Anspruch 23, gekennzeichnet durch einen weiteren Bildflachensensor (3') zur Bildung eines Referenzsignals.
25. Vorrichtung nach Anspruch 23 oder 24, gekennzeichnet durch ein weiteres Sensorsystem mit einem Bildflachensensor und mit einer unterschiedlichen Lichtempfindlichkeit.
26. Vorrichtung nach einem der Ansprüche 23-25, aufweisend einen mit der Bildverarbeitungseinrichtung (6) verbundenen Steuerrechner (7), welcher so programmierbar ist, dass die Vorrichtung zum Durchführen des Verfahrens nach einem der Ansprüche 1 bis 16 aktiviert werden kann.
27. Vorrichtung nach einem der Ansprüche 23-26, gekennzeichnet, durch ein weiteres, gleichzeitig einsetzbares Sensorsystem, bspw. zur gleichzeitigen Erfassung von geometrischen Abmessungen in Höhe und Distanz oder zur Vermeidung von durch einen Schattenwurf verursachten nicht erfassbaren Bereichen.
PCT/CH2004/000465 2003-07-25 2004-07-23 Verfahren zur automatischen absicherung WO2005010840A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CH12982003A CH697014A5 (de) 2003-07-25 2003-07-25 Absicherung und/oder Ueberwachung von Systemen.
CH1298/03 2003-07-25

Publications (1)

Publication Number Publication Date
WO2005010840A1 true WO2005010840A1 (de) 2005-02-03

Family

ID=34085304

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CH2004/000465 WO2005010840A1 (de) 2003-07-25 2004-07-23 Verfahren zur automatischen absicherung

Country Status (2)

Country Link
CH (1) CH697014A5 (de)
WO (1) WO2005010840A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1722151A1 (de) * 2005-05-12 2006-11-15 Sick Ag Vorrichtung zur Absicherung eines Gefahrenbereiches
ITPD20080320A1 (it) * 2008-11-05 2010-05-06 Marss S R L Sistema antifurto
US9057779B2 (en) 2011-04-01 2015-06-16 Cedes Ag Sensor device, safety device, door and method for monitoring the movement

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4908704A (en) * 1987-12-11 1990-03-13 Kabushiki Kaisha Toshiba Method and apparatus for obtaining an object image and distance data of a moving object
DE4405849A1 (de) * 1993-02-26 1994-09-01 Murata Machinery Ltd Verfahren zum Aufnehmen drei-dimensionaler Bilder von Ladungen
DE19938639A1 (de) * 1999-08-14 2001-02-22 Pilz Gmbh & Co Vorrichtung zur Absicherung eines Gefahrenbereichs, insbesondere des Gefahrenbereichs einer automatisiert arbeitenden Maschine
DE10049366A1 (de) * 2000-10-05 2002-04-25 Ind Technik Ips Gmbh Verfahren zum Überwachen eines Sicherheitsbereichs und entsprechendes System

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4908704A (en) * 1987-12-11 1990-03-13 Kabushiki Kaisha Toshiba Method and apparatus for obtaining an object image and distance data of a moving object
DE4405849A1 (de) * 1993-02-26 1994-09-01 Murata Machinery Ltd Verfahren zum Aufnehmen drei-dimensionaler Bilder von Ladungen
DE19938639A1 (de) * 1999-08-14 2001-02-22 Pilz Gmbh & Co Vorrichtung zur Absicherung eines Gefahrenbereichs, insbesondere des Gefahrenbereichs einer automatisiert arbeitenden Maschine
DE10049366A1 (de) * 2000-10-05 2002-04-25 Ind Technik Ips Gmbh Verfahren zum Überwachen eines Sicherheitsbereichs und entsprechendes System

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1722151A1 (de) * 2005-05-12 2006-11-15 Sick Ag Vorrichtung zur Absicherung eines Gefahrenbereiches
US7563039B2 (en) 2005-05-12 2009-07-21 Sick Ag Apparatus for securing a dangerous zone
ITPD20080320A1 (it) * 2008-11-05 2010-05-06 Marss S R L Sistema antifurto
US9057779B2 (en) 2011-04-01 2015-06-16 Cedes Ag Sensor device, safety device, door and method for monitoring the movement

Also Published As

Publication number Publication date
CH697014A5 (de) 2008-03-14

Similar Documents

Publication Publication Date Title
EP2558886B1 (de) Einrichtung zur überwachung mindestens eines dreidimensionalen sicherheitsbereichs
EP0902402B1 (de) Verfahren und Vorrichtung zur optischen Überwachung eines Raumbereichs
DE102010037744B3 (de) Optoelektronischer Sensor
DE102009031732B3 (de) Entfernungsmessender optoelektronischer Sensor
DE10360174B4 (de) Vorrichtung zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel
EP1300691B1 (de) Überwachungsverfahren und optoelektronischer Sensor
DE69804591T2 (de) Positionserkennungssystem für virtuelles studio
EP1813961B1 (de) Vorrichtung zur optoelektronischen Überwachung von Objekten
EP1057323B1 (de) Kamera tracking system für ein virtuelles fernseh- oder videostudio
DE60006411T2 (de) Zählvorrichtung
DE4222920A1 (de) Bildverarbeitung verwendendes ueberwachungsmonitorsystem
EP2306426B1 (de) Vorrichtung zur Detektion von Fahrzeugen auf einer Verkehrsfläche
WO2019114889A1 (de) 3d-umfelderfassung mittels projektion einer reihe pseudo-zufälligen mustern und stereo-kameramodulen
DE10033608A1 (de) Verfahren und Vorrichtung zum Absichern eines Gefahrenbereichs, insbesondere des Gefahrenbereichs einer automatisiert arbeitenden Maschine
DE10055689B4 (de) Verfahren zum Betrieb eines optischen Triangulationslichtgitters
DE29911390U1 (de) Optoelektronisches Überwachungssystem
DE102016110514B4 (de) Vorrichtung und Verfahren zum Überwachen eines Raumbereichs, insbesondere zum Absichern eines Gefahrenbereichs einer automatisiert arbeitenden Anlage
EP0448803B1 (de) Videokontroll-Einrichtung
WO2007036553A1 (de) Vorrichtung und verfahren zur aufnahme von entfernungsbildern
DE102013007961B4 (de) Optisches Messsystem für ein Fahrzeug
WO2005010840A1 (de) Verfahren zur automatischen absicherung
WO2024251542A1 (de) Vorrichtung zur räumlichen bilderfassung einer relativ zur vorrichtung bewegten umgebung sowie betriebsverfahren hierfür
DE29520980U1 (de) Vorrichtung zum Testen eines lichtempfindlichen Matrix-Sensors, insbesondere einer elektronischen Kamera mit CCD-Matrix-Sensor oder CMOS-Matrix-Sensor
EP3855735A1 (de) Absichern einer maschine
EP1865755A2 (de) Vorrichtung zur Beleuchtungssteuerung

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
122 Ep: pct application non-entry in european phase
点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载