+

WO2005010840A1 - Method for automatic protection - Google Patents

Method for automatic protection Download PDF

Info

Publication number
WO2005010840A1
WO2005010840A1 PCT/CH2004/000465 CH2004000465W WO2005010840A1 WO 2005010840 A1 WO2005010840 A1 WO 2005010840A1 CH 2004000465 W CH2004000465 W CH 2004000465W WO 2005010840 A1 WO2005010840 A1 WO 2005010840A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
light
sensor
light source
image area
Prior art date
Application number
PCT/CH2004/000465
Other languages
German (de)
French (fr)
Inventor
Phillip GEISSBÜHLER
Anton Gunzinger
Markus Emil Schenkel
Maurice Boonen
Original Assignee
Supercomputing Systems Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Supercomputing Systems Ag filed Critical Supercomputing Systems Ag
Publication of WO2005010840A1 publication Critical patent/WO2005010840A1/en

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene
    • G08B13/19643Multiple cameras having overlapping views on a single scene wherein the cameras play different roles, e.g. different resolution, different camera type, master-slave camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/1961Movement detection not involving frame subtraction, e.g. motion detection on the basis of luminance changes in the image

Definitions

  • the invention relates to a method and a device for automatic protection of systems.
  • one possibility for protection is based on the light barrier principle: a light source emits one or more light beams that strike one or more light catchers. If one or more light beams are interrupted, an alarm is triggered.
  • Room surveillance e.g. for robots or on autonomous vehicles
  • EP-A-1 300 691 A description of an alternative method for monitoring systems based on the known triangulation principle can be found in EP-A-1 300 691. According to this document, a pattern of light spots is projected onto a monitoring area. A receiving device determines whether light spots have moved away from a certain area, which indicates the presence of an object. Disadvantages are the great expenditure of optical elements for the generation of a pattern of light spots and the lack of possibility to make quantitative statements about the object.
  • the method and the device should preferably also enable the quantitative determination of properties of the monitored or interfering objects.
  • the method according to the invention uses the triangulation principle which is known per se, which, to put it simply, is based on the fact that the position of a light reflex on an object depends on its distance from the viewer, if the direction from which the light source shines depends on the Direction of view is different.
  • the triangulation principle is used here in such a way that it can be implemented cost-effectively with the use of components such as, for example, a laser light source and area image sensor and image processing techniques that run on corresponding image processing computers.
  • light is always understood to mean both visible light and electromagnetic radiation in the non-visible area.
  • Image and image processing are likewise not limited to images taken in the visible, they can also be infrared images, etc.
  • the invention is also based on the idea that when monitoring with the aid of image processing means, quantitative statements about the object and its
  • 3D properties can be made. This is based on the fact that in the case of known - or determined by one-time, camera type-specific calibration - optical
  • Characteristics of the camera an image position corresponds to a certain angle of incidence.
  • Object can be determined from the angle of incidence. According to one embodiment, the displacement of the
  • Embodiment the limitation of accuracy is overcome by a pixel resolution of the camera by performing a sub-pixel approximation.
  • the method according to the invention avoids disadvantages of existing systems. It is optically very simple. All that is required are means for generating at least one light line - for example a “laser light meter” - and an image area sensor, for example a camera. There is no need for complex optical adjustment.
  • the image processing that follows the image acquisition requires a certain amount Electronics and programming effort. However, this is not significant for a large number of pieces, since electronic components - in contrast to precise optical instruments - can be manufactured inexpensively in large quantities and, in particular, since no complex setup of each individual location is necessary.
  • the approach according to the invention enables not only the detection of objects but also the detection of their properties.
  • the deviation of the light pattern from a reference (for example, corresponding to the image of the light pattern, if there is no object in the detection area of the image area sensor) is recorded quantitatively and thus height information or distance information is obtained. Together with speed information - such information may be available if the monitored space is above a conveyor belt, for example - the volume of an object can thus be determined.
  • the invention is therefore not limited to systems in which only disturbing objects are detected, the detection of which causes an alarm signal or a machine to be switched off. Rather, it also includes the possibility of performing complex monitoring or even sorting functions.
  • Figure 1 of the drawing shows a schematic of the process.
  • FIG. 2 shows very schematically the basic principle of triangulation.
  • FIG. 3 shows an illustration of the principle of sub-pixel approximation.
  • Figure 4 shows an illustration of the principle of the difference image calculation with 2 cameras.
  • FIG. 1 schematically shows an area 4 to be monitored.
  • an object 0 is located in the area to be monitored, that is to say on the area 4 to be monitored.
  • a 3-dimensional image is to be generated from this object, which in the example described then triggers an alarm.
  • the space to be monitored is illuminated with the aid of a “laser light meter” 1 as a straight line of light per se, the light direction having to be shifted relative to the camera axis that records the scene.
  • the light meter essentially cuts through the entire area to be monitored and is, for example, . not interrupted or at most only interrupted by short sections, so that the total interruptions make up at most a small fraction (eg a tenth) of the total width. This ensures that narrow and marginal objects are not overlooked.
  • the "light meter” is now reflected from the empty space as a line. If there is an object 0 in the room, this line is changed.
  • a single light line it is also possible to use a plurality of light lines which are parallel or in any arrangement not parallel to one another and which complement one another or to form a pattern, for example by crossing, continuing with one another, etc.
  • the light line (s) Of course, must not necessarily be straight.
  • Different light patterns can be projected at different times and / or from independent light sources.
  • Lasers for example diode lasers, but also other preferably monochrome light sources (ie Light sources with a limited bandwidth compared to the spectrum of visible light), for example light-emitting diodes (LEDs).
  • the light pattern on the surface 4 serves as a reference, ie the pattern that would arise if there were a flat object on the surface 4. In this embodiment, it is also possible to detect objects that are located behind the surface.
  • An image area sensor 3 records the scene.
  • the light pattern 2 arising from the light line is also visible on this recording.
  • the signal from the image area sensor 3 is converted to a digital signal in the analog / digital conversion unit 5 and is thus available to the subsequent evaluation units as a digital signal.
  • the image evaluation 6 detects the course of the light line 2 in the image and creates a 3-D model from it in the manner set out above.
  • the control computer 7 recognizes the situation. On the basis of this change, the control computer 7 can generate an alarm signal 8.
  • the image recorded during the alarm situation - recorded by the image area sensor 3 or possibly by another camera - can possibly be saved for documentation purposes.
  • the height or distance of the object can be determined quantitatively depending on the lateral position. The principle of triangulation is shown very schematically in FIG. Due to the presence of object 0, the point of impact of the light, which is perceived by an image area sensor 3, is perceived as shifted in comparison to the state without object 0 (dashed line). Using trigonometric formulas, the height or distance of the object is calculated from the angle of incidence ⁇ and the angle of incidence ⁇ as well as the known distance of the camera from the monitored plane.
  • the specific formulas to be used are known from classic triangulation and are not listed again here.
  • the present invention makes use of the knowledge that the angle ⁇ is expressed in a positional shift of the light pattern on the image due to the camera optics.
  • the deviation in the image of the light pattern from the reference can be determined by means of image processing means, and from this the angle ⁇ or, as explained, the height of the object can be inferred.
  • the positional shift of the light pattern on the image recorded by the camera can be determined, for example, by evaluating which image points (pixels) the light pattern is mapped to.
  • the image of a thin line will also not only trigger signals in a single row of pixels, but also in neighboring pixels. This can be used to determine the position with a resolution that is finer than the "pitch", ie the size given by the pixel spacing.
  • the position of all pixels in which a signal is measured is averaged. The averaging is weighted according to signal strength.
  • the method can be used to determine precise position information with sub-pixel accuracy, even if the pattern is not exactly mapped to the center of a row of pixels. This is illustrated in FIG. 3, where the intensities 22 are plotted as a function of the x position of the pixels 21. The actual position 23 determined with the sub-pixel approximation is not in the center of the pixel with the highest intensity value.
  • a change in the brightness of the light line in the image can also indicate a lack of functionality.
  • a suitable warning signal and / or a check can be triggered.
  • the presence of an object - as an alarm case - can be distinguished from a system failure - as a malfunction - according to the approach according to the invention.
  • the image evaluation 6 can be carried out by simply setting a threshold value: if the signal is greater than this threshold value, it is the light line 2, otherwise it is not part of the light line.
  • Lighting conditions can be used. It also has to work in direct, competitive solar radiation. So that is the case , the light output of the light source 1 would have to be increased so much that the eye of a person could be damaged by direct radiation.
  • Various measures can be taken to reduce the light output so much that it becomes harmless to humans without endangering the way the system works. These measures are to be explained in more detail below:
  • Laser light sources such as are usefully used as light source 1, are monochrome.
  • an optical filter 9 for example a band-pass or low-pass filter in front of the camera, which is tuned to the frequency range of the laser, most of the sunlight or other lighting can be suppressed.
  • the optical filter thus favors the recognizability of the monochrome light source in relation to the ambient light.
  • Lasers can be used both in the visible and in the invisible area. The selection depends on the application; should the endangered area be visible (e.g. machine security) or should it be invisible (e.g. access security))
  • the light source 1 can usually be modulated or pulsed; for a short period of time it can be 100 or 1000 times the continuous output. At the same time, modern cameras have an electronic shutter. This can be synchronized with the light pulse.
  • the control computer 7 controls the light source via line 10 and the shutter of the camera via line 11.
  • an image can be suppressed without the light source 1 is switched on, recorded and temporarily stored in an image memory 12.
  • the picture is then taken with the light source switched on. This is compared by the comparator 13 with the stored image (for example by forming a difference).
  • slowly changing strong lights in the recording area 4 can be suppressed comparatively, for example in comparison with the recording frequency of the camera.
  • the picture can be taken with the light source switched off once at the beginning of a work cycle or continuously - alternating with lighting periods.
  • FIG. 4 a method according to FIG. 4 is suitable.
  • two sensors 3, 3 ' are available.
  • One sensor 3 triggers the image acquisition at the same time as the pulsation of the light source, while the other sensor 3 'immediately takes an image, the image acquisition time being approximately identical for both sensors.
  • Both sensor signals are converted into digital signals in the analog / digital converters 5, 5 '.
  • the transformation unit 20 'transforms the signal of the second sensor 3' geometrically and in terms of light intensity to the geometric position of the first sensor 3.
  • the two images are compared (e.g. by forming a difference) and then further evaluated analogously as described above.
  • an image area sensor including A / D converter, possibly its own optics, and possibly the means for reference formation) or more additional sensor systems can help: While one sensor system is set to be very light-sensitive with a first image area sensor and overdrives for large input signals, a second sensor system with a second image area sensor can take over the area which is not very light-sensitive. The sensor system which provides better signal statistics is used for further processing. As an alternative or in addition to this, the images recorded by both sensor systems can also be combined, for example after correction or geometric transformation, for example by addition. The acquisition of the images exposed to different intensities can, but does not have to take place simultaneously.
  • more than one sensor system can also be used in situations in which an object's shadow can lead to inaccessible areas, or in order to simultaneously detect the height and another geometric dimension of the object.
  • equivalent at least two sensor systems are preferably used simultaneously.
  • the device described here can be used to detect a change and thus for simple machine protection.
  • the system can be calibrated; the height or distance of object 0 can thus be calculated directly from the displacement of light line 2 in the image. If the geometric arrangement is known, the height or distance of the recording system can also be calculated. If object 0 is moving at a known speed (eg on a conveyor belt for parts or people), the volume of object 0 can also be estimated with this method.
  • the image processing device can also be provided with means for specifying an object speed in addition to the above.
  • the object can be conveyed, for example, in a plane containing the surface 4 and in a direction approximately perpendicular to the direction of the light meter.
  • the volume can be determined in the image processing means itself or in a control and / or evaluation computer.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

The method for protection of systems can evaluate a recorded image of a monitored region with imaging processing means such that predictions as to the dimensions of the object are possible. A light source (1) in an illumination direction is thus used to project at least one line of light onto a surface (4) for monitoring, generating a light pattern (2). The pattern of light is at least partly recorded from a direction different to that of the illumination direction by means of an image surface sensor (3). The camera signal thus generated is then fed to an image processing device (6), which determines the deviation of the light pattern (2) from a reference standard. By quantitative evaluation of the separation, using the image processing means, the height of the object can also be approximately determined.

Description

VERFAHREN ZUR AUTOMATISCHEN ABSICHERUNG METHOD FOR AUTOMATIC SECURING
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur automatischen Absicherung von Systemen.The invention relates to a method and a device for automatic protection of systems.
Die Absicherung von Maschinen, Türen, Fahrzeugen und anderen Objekten ist in der modernen Gesellschaft sowohl im Produktiv- wie auch im Freizeitsektor wichtig. Diese Sicherheitsfunktion wird heute hauptsächlich mit Hilfe von optischen Systemen realisiert:Securing machines, doors, vehicles and other objects is important in modern society in both the productive and leisure sectors. This safety function is mainly implemented today with the help of optical systems:
Gemäss dem Stand der Technik beruht eine Möglichkeit der Absicherung auf dem Lichtschranken-Prinzip: Eine Lichtquelle sendet einen oder mehrere Lichtstrahlen aus, die auf einen oder mehrere Lichtfänger auftreffen. Werden ein oder mehrere Lichtstrahlen unterbrochen, so wird Alarm ausgelöst. Diese Verfahren haben den Vorteil, dass im Normalbetrieb immer alle beteiligten Komponenten überprüft werden.According to the state of the art, one possibility for protection is based on the light barrier principle: a light source emits one or more light beams that strike one or more light catchers. If one or more light beams are interrupted, an alarm is triggered. These methods have the advantage that all components involved are always checked during normal operation.
Als Nachteil von diesen Verfahren ist einerseits der hohe Justage- AufwandOn the one hand, the disadvantage of these methods is the high adjustment effort
(Lichtsender- Optik- Überwachungsweg- Optik müssen aliniert werden) und andererseits der komplexe Aufbau, wenn Flächen oder gar Räume überwacht werden sollen. Da bei diesen Verfahren immer Lichtstrahlen unterbrochen werden, sind für Raumüberwachungen (z.B. für Roboter oder an autonomen Fahrzeugen) komplexe und teure Aufbauten mit Spiegeln oder Lichtleitern notwendig.(Light transmitter optics, monitoring path optics must be aligned) and, on the other hand, the complex structure when surfaces or even rooms are to be monitored. Since light rays are always interrupted in these processes, Room surveillance (e.g. for robots or on autonomous vehicles) requires complex and expensive structures with mirrors or light guides.
Die Beschreibung eines alternativen, auf dem bekannten Triangulationsprinzip beruhendes Verfahren zur Überwachung von Systemen findet man in der EP-A-1 300 691. Gemäss dieser Schrift wird ein Muster von Lichtflecken auf einen Überwachungsbereich projiziert. Eine Empfangseinrichtung stellt fest, ob sich Lichtflecken von einem bestimmten Bereich weg verschoben haben, was auf die Anwesenheit eines Objekts hinweist. Nachteilig sind der grosse Aufwand an optischen Elementen für die Erzeugung eines Musters von Lichtflecken und die fehlende Möglichkeit, quantitative Aussagen über das Objekt machen zu können.A description of an alternative method for monitoring systems based on the known triangulation principle can be found in EP-A-1 300 691. According to this document, a pattern of light spots is projected onto a monitoring area. A receiving device determines whether light spots have moved away from a certain area, which indicates the presence of an object. Disadvantages are the great expenditure of optical elements for the generation of a pattern of light spots and the lack of possibility to make quantitative statements about the object.
Es ist demnach Aufgabe der Erfindung, ein Verfahren und eine Vorrichtung zur Verfügung zu stellen, welche Nachteile bestehender Verfahren und Vorrichtungen überwindet und welche ermöglicht, dass mit optisch wenig komplexen Mitteln eine unter Umständen auch bei kleinen störenden Objekten zuverlässige Absicherung möglich ist. Das Verfahren und die Vorrichtung sollten vorzugsweise auch die quantitative Ermittlung von Eigenschaften der überwachten bzw. störenden Objekte ermöglichen.It is therefore an object of the invention to provide a method and a device which overcomes the disadvantages of existing methods and devices and which makes it possible to provide reliable protection, even in the case of small, disruptive objects, using means that are not visually complex. The method and the device should preferably also enable the quantitative determination of properties of the monitored or interfering objects.
Diese Aufgabe wird gelöst durch die Erfindung, wie sie in den Patentansprüchen definiert ist.This object is achieved by the invention as defined in the patent claims.
Das erfindungsgemässe Verfahren benutzt das an sich bekannte Triangulationsprinzip, welches, vereinfacht gesagt, darauf beruht, dass die Position eines Lichtreflexes auf einem Objekt abhängig ist von dessen Abstand zum Betrachter, wenn die Richtung, aus welcher die Lichtquelle einstrahlt, von der Blickrichtung verschieden ist. Das Triangulationsprinzip wird hier so genutzt, dass es mit Verwendung von Komponenten wie bspw. Laser- Lichtquelle und Flächenbildsensor und von Bildverarbeitungstechniken, die auf entsprechenden Bildverarbeitungsrechnern laufen, kostengünstig implementierbar ist.The method according to the invention uses the triangulation principle which is known per se, which, to put it simply, is based on the fact that the position of a light reflex on an object depends on its distance from the viewer, if the direction from which the light source shines depends on the Direction of view is different. The triangulation principle is used here in such a way that it can be implemented cost-effectively with the use of components such as, for example, a laser light source and area image sensor and image processing techniques that run on corresponding image processing computers.
Unter „Licht" versteht man im Kontext dieser Schrift immer sowohl sichtbares Licht als auch elektromagnetische Strahlung im nicht-sichtbaren Bereich. „Bild" und „Bildverarbeitung" sind ebenso wenig auf im Sichtbaren gemachte Bilder beschränkt, es können ebenso Infrarotaufnahmen etc. sein.In the context of this document, “light” is always understood to mean both visible light and electromagnetic radiation in the non-visible area. “Image” and “image processing” are likewise not limited to images taken in the visible, they can also be infrared images, etc.
Der Erfindung zu Grunde liegt ebenfalls der Gedanke, dass bei Überwachung mit Hilfe von Bildverarbeitungsmitteln quantitative Aussagen über das Objekt und seineThe invention is also based on the idea that when monitoring with the aid of image processing means, quantitative statements about the object and its
3D-Eigenschaften gemacht werden können. Dies beruht darauf, dass bei bekannten - oder durch einmalige, kameratypspezifsche Kalibrierung ermittelten - optischen3D properties can be made. This is based on the fact that in the case of known - or determined by one-time, camera type-specific calibration - optical
Eigenschaften der Kamera eine Bildposition einem bestimmten Lichteinfallswinkel entspricht. Mit an sich von konventionellen Triangulationsverfahren her bekannten trigonometrischen Formeln kann eine Höhe des Objektes bzw. die Distanz zumCharacteristics of the camera an image position corresponds to a certain angle of incidence. With trigonometric formulas known per se from conventional triangulation methods, a height of the object or the distance to the
Objekt aus dem Einfallswinkel bestimmt werden. Gemäss einer Ausführungsform wird die durch den Bildflachensensor wahrgenommene Verschiebung desObject can be determined from the angle of incidence. According to one embodiment, the displacement of the
Lichtmusters daher quantitativ ausgewertet, wobei gemäss einer speziellenLight pattern therefore evaluated quantitatively, according to a special
Ausführungsform die Beschränkung der Genauigkeit durch eine Pixelauflösung der Kamera überwunden wird, indem eine Sub-Pixel-Approximation durchgeführt wird.Embodiment, the limitation of accuracy is overcome by a pixel resolution of the camera by performing a sub-pixel approximation.
Das erfindungsgesmässe Verfahren vermeidet Nachteile bestehender Systeme. So ist es optisch sehr einfach. Es müssen lediglich Mittel zum Erzeugen mindestens einer Lichtlinie - bspw. eines „Laserlichtmessers" - sowie ein Bildflachensensor, also bspw. eine Kamera vorhanden sein. Eine aufwändige opitsche Justierung entfällt. Die an die Bilderfassung anschliessende Bildverarbeitung bedingt einen gewissen Aufwand an Elektronik und in der Programmierung. Dieser fällt aber bei einer grösseren Stückzahl nicht stark ins Gewicht, da Elektronikbauteile - im Gegensatz zu präzisen optischen Instrumenten - in grossen Mengen kostengünstig gefertigt werden können und insbesondere da kein aufwändiges Einrichten jedes einzelnen Standortes nötig ist.The method according to the invention avoids disadvantages of existing systems. It is optically very simple. All that is required are means for generating at least one light line - for example a “laser light meter” - and an image area sensor, for example a camera. There is no need for complex optical adjustment. The image processing that follows the image acquisition requires a certain amount Electronics and programming effort. However, this is not significant for a large number of pieces, since electronic components - in contrast to precise optical instruments - can be manufactured inexpensively in large quantities and, in particular, since no complex setup of each individual location is necessary.
Weiter ermöglicht der erfindungsgemässe Ansatz, dass neben einer blossen Detektion von Objekten auch das Erfassen von deren Eigenschaften möglich ist. Dazu wird gemäss einer bevorzugten Ausführungsform die Abweichung des Lichtmusters von einer Referenz (bspw. entsprechend dem Abbild des Lichtmusters, falls sich kein Objekt im Erfassungsbereich des Bildflächensensors befindet) quantitativ erfasst und damit eine Höheninformation bzw. Distanzinformation gewonnen. Zusammen mit einer Geschwindigkeitsinformation - eine solche kann verfügbar sein, wenn der überwachte Raum bspw. über einem Förderband liegt - kann somit sogar das Volumen eines Objektes bestimmt werden. Damit eröffnen sich zusätzliche Möglichkeiten für die Überwachung von Maschinen. Die Erfindung ist also nicht beschränkt auf Systeme, in denen nur störende Objekte detektiert werden, deren Detektion ein Alarmsignal oder ein Abschalten einer Maschine bewirkt. Sie beinhaltet vielmehr auch die Möglichkeit komplexe Überwachungs- oder sogar Sortierfunktionen wahrzunehmen.Furthermore, the approach according to the invention enables not only the detection of objects but also the detection of their properties. For this purpose, according to a preferred embodiment, the deviation of the light pattern from a reference (for example, corresponding to the image of the light pattern, if there is no object in the detection area of the image area sensor) is recorded quantitatively and thus height information or distance information is obtained. Together with speed information - such information may be available if the monitored space is above a conveyor belt, for example - the volume of an object can thus be determined. This opens up additional options for monitoring machines. The invention is therefore not limited to systems in which only disturbing objects are detected, the detection of which causes an alarm signal or a machine to be switched off. Rather, it also includes the possibility of performing complex monitoring or even sorting functions.
Im Folgenden wird eine Ausführungsform der Erfindung und deren Funktionsweise anhand einer Zeichnung schematisch dargestellt.An embodiment of the invention and its mode of operation is shown schematically below with reference to a drawing.
Die Figur 1 der Zeichnung zeigt ein Schema des Verfahrens.Figure 1 of the drawing shows a schematic of the process.
Die Figur 2 zeigt sehr schematisch das Grundprinzip der Triangulation. Die Figur 3 zeigt eine Illustration des Prinzips der Sub-Pixel-Approximation.Figure 2 shows very schematically the basic principle of triangulation. FIG. 3 shows an illustration of the principle of sub-pixel approximation.
Die Figur 4 zeigt eine Illustration des Prinzips der Differenzbildberechnung mit 2 Kameras.Figure 4 shows an illustration of the principle of the difference image calculation with 2 cameras.
Fig. 1 zeigt schematisch eine zu überwachende Fläche 4. In der folgenden Beschreibung sei angenommen, dass ein Objekt 0 sich im zu überwachenden Raum, also auf der zu überwachenden Fläche 4 befinde. Von diesem Objekt soll eine 3- dimensionale Abbildung erzeugt werden, die dann im beschriebenen Beispiel zu einer Auslösung eines Alarms führt. Der zu überwachende Raum wird mit Hilfe eines „Laserlichtmessers" 1 als an sich gerade Lichtlinie beleuchtet, wobei die Lichtrichtung gegenüber der Kameraachse, die die Szene aufnimmt, verschoben sein muss. Das Lichtmesser durchschneidet bspw. im Wesentlichen die gesamte zu überwachende Fläche und ist bspw. nicht unterbrochen oder allenfalls nur durch kurze Abschnitte unterbrochen, so dass die Unterbrechungen im Total höchstens einen kleinen Bruchteil (bspw. einen Zehntel) der Gesamtbreite ausmachen. Damit wird sichergestellt, dass schmale und randständige Objekte nicht übersehen werden. Das „Lichtmesser" wird nun vom leeren Raum als Linie reflektiert. Befindet sich ein Objekt 0 im Raum, so wird diese Linie verändert.1 schematically shows an area 4 to be monitored. In the following description it is assumed that an object 0 is located in the area to be monitored, that is to say on the area 4 to be monitored. A 3-dimensional image is to be generated from this object, which in the example described then triggers an alarm. The space to be monitored is illuminated with the aid of a “laser light meter” 1 as a straight line of light per se, the light direction having to be shifted relative to the camera axis that records the scene. The light meter essentially cuts through the entire area to be monitored and is, for example, . not interrupted or at most only interrupted by short sections, so that the total interruptions make up at most a small fraction (eg a tenth) of the total width. This ensures that narrow and marginal objects are not overlooked. The "light meter" is now reflected from the empty space as a line. If there is an object 0 in the room, this line is changed.
Anstelle einer einzigen Lichtlinie können auch mehrere Lichtlinien verwendet werden, die parallel oder in irgend einer Anordnung nicht parallel zueinander sind und sich zu einem oder mehreren Mustern ergänzen, bspw. indem sie sich kreuzen, einander mit einer Unterbrechung fortsetzen etc. Die Lichtlinie(n) muss/müssen selbstverständlich nicht notwendigerweise gerade sein. Verschiedene Lichtmuster können jeweils zu verschiedenen Zeitpunkten und/oder von voneinander unabhängigen Lichtquellen projiziert werden. Als Lichtquellen kommen Laser, bspw. Diodenlaser, aber auch andere vorzugsweise monochrome Lichtquellen (d.h. Lichtquellen mit im Vergleich zum Spektrum des sichtbaren Lichts beschränkter Bandbreite) in Frage, bspw. Leuchtdioden (LEDs).Instead of a single light line, it is also possible to use a plurality of light lines which are parallel or in any arrangement not parallel to one another and which complement one another or to form a pattern, for example by crossing, continuing with one another, etc. The light line (s) Of course, must not necessarily be straight. Different light patterns can be projected at different times and / or from independent light sources. Lasers, for example diode lasers, but also other preferably monochrome light sources (ie Light sources with a limited bandwidth compared to the spectrum of visible light), for example light-emitting diodes (LEDs).
Gemäss einer speziellen Ausführungsform wird - sofern kein Objekt im Überwachungsbereich ist - kein Licht von der Fläche 4 zurückgeworfen, da auf dieser kein Gegenstand vorhanden ist. Dann wird das Lichtmuster also quasi ins Unendliche projiziert. Das Lichtmuster ist also nur erfassbar, wenn sich ein Objekt im Kamerabereich befindet. Als Referenz dient auch in dieser Ausführungsform das Lichtmuster auf der Fläche 4 also das Muster, das entstehen würde, wenn sich ein flacher Gegenstand auf der Fläche 4 befinden würde. In dieser Ausführungsform ist es auch möglich, Objekte zu erfassen, die sich hinter der Fläche befinden.According to a special embodiment, as long as there is no object in the monitoring area, no light is thrown back from the surface 4, since there is no object on it. Then the light pattern is projected almost to infinity. The light pattern can therefore only be detected when there is an object in the camera area. In this embodiment as well, the light pattern on the surface 4 serves as a reference, ie the pattern that would arise if there were a flat object on the surface 4. In this embodiment, it is also possible to detect objects that are located behind the surface.
Das Verfahren funktioniert wie folgt:The procedure works as follows:
Ein Bildflachensensor 3 nimmt die Szene auf. Auf dieser Aufnahme ist auch das aus der Lichtlinie entstehende Lichtmuster 2 sichtbar.An image area sensor 3 records the scene. The light pattern 2 arising from the light line is also visible on this recording.
Das Signal des Bildflächensensors 3 wird in der Analog/ Digital- Wandeleinheit 5 auf ein digitales Signal gewandelt und steht so den nachfolgenden Auswertungseinheiten als digitales Signal zur Verfügung.The signal from the image area sensor 3 is converted to a digital signal in the analog / digital conversion unit 5 and is thus available to the subsequent evaluation units as a digital signal.
Die Bildauswertung 6 detektiert den Verlauf der Lichtlinie 2 im Bild und erstellt daraus in der oben dargelegten Art ein 3- D Modell.The image evaluation 6 detects the course of the light line 2 in the image and creates a 3-D model from it in the manner set out above.
Der Steuerrechner 7 erkennt die Situation. Auf Basis dieser Veränderung kann der Steuerrechner 7 ein Alarmsignal 8 erzeugen. Das während der Alarmsituation erfasste Bild - aufgenommen durch den Bildflachensensor 3 oder allenfalls durch eine andere Kamera - kann ggf. zu Dokumentationszwecken abgespeichert werden. Ergänzend oder alternativ zum Alarmsignal kann die Höhe bzw. Distanz des Objektes in Abhängigkeit der seitlichen Position quantitativ ermittelt werden. In Fig. 2 wird das Prinzip der Triangulation sehr schematisch aufgezeigt. Durch die Anwesenheit des Objekts 0 wird der von einem Bildflachensensor 3 wahrgenommene Auftreffpunkt Ort des Lichtes im Vergleich zum Zustand ohne Objekt 0 (gestrichelte Linie) als verschoben wahrgenommen. Mit Hilfe trigonometrischer Formeln wird aus dem Einfallswinkel α und dem Lichtauftreffwinkel ß sowie dem bekannten Abstand der Kamera von der überwachten Ebene die Höhe bzw. Distanz des Objektes berechnet. Die konkreten (auch bei von der gezeichneten Konfiguration abweichenden Anordnungen) zu verwendenden Formeln sind aus der klassischen Triangulation bekannt und werden hier nicht noch einmal aufgeführt. Die vorliegende Erfindung macht sich die Erkenntnis zu Nutze, dass der Winkel α aufgrund der Kameraoptik sich in einer Positions Verschiebung des Lichtmusters auf dem Bild äussert. Durch Bildverarbeitungmittel kann die Abweichung im Bild des Lichtmusters von der Referenz ermittelt, und aus dieser auf den Winkel α, bzw. wie dargelegt auf die Höhe des Objektes geschlossen werden.The control computer 7 recognizes the situation. On the basis of this change, the control computer 7 can generate an alarm signal 8. The image recorded during the alarm situation - recorded by the image area sensor 3 or possibly by another camera - can possibly be saved for documentation purposes. In addition or as an alternative to the alarm signal, the height or distance of the object can be determined quantitatively depending on the lateral position. The principle of triangulation is shown very schematically in FIG. Due to the presence of object 0, the point of impact of the light, which is perceived by an image area sensor 3, is perceived as shifted in comparison to the state without object 0 (dashed line). Using trigonometric formulas, the height or distance of the object is calculated from the angle of incidence α and the angle of incidence β as well as the known distance of the camera from the monitored plane. The specific formulas to be used (even in the case of arrangements that differ from the drawn configuration) are known from classic triangulation and are not listed again here. The present invention makes use of the knowledge that the angle α is expressed in a positional shift of the light pattern on the image due to the camera optics. The deviation in the image of the light pattern from the reference can be determined by means of image processing means, and from this the angle α or, as explained, the height of the object can be inferred.
Die Positionsverschiebung des Lichtmusters auf dem von der Kamera (also dem Bildflachensensor) aufgenommenen Bild kann bspw. ermittelt werden, indem ausgewertet wird, auf welche Bildpunkte (Pixel) das Lichtmuster abgebildet wird. Im Allgemeinen wird auch das Bild einer dünnen Linie nicht nur Signale in einer einzigen Reihe von Pixeln auslösen, sondern auch in benachbarten Pixeln. Dies kann ausgenutzt werden, um die Postition mit einer Auflösung zu bestimmen, die feiner ist als der „Pitch", also die durch den Pixelabstand gegebene Grosse. Dabei wird die Postion aller Pixel gemittelt, in denen ein Signal gemessen wird. Die Mittelung erfolgt gewichtet nach Signalstärke. Dies erfolgt bspw. über alle in einer Richtung (bspw. x-Richtung in einem x-y-kartesischen Koordinatensystem) nebeneinander liegenden Pixel und zwar für alle Pixelreihen (also im Beispiel für alle y-Werte). Mit dem Verfahren kann eine präzise Positionsinformation in Sub-Pixel-Genauigkeit ermittelt werden, auch wenn das Muster nicht gerade auf die Mitte einer Pixelreihe abgebildet wird. Dies wird illustriert in Figur 3, wo die Intensitäten 22 in Funktion der x-Position der Pixel 21 aufgetragen werden. Die tatsächliche, mit der Sub-Pixel- Approximation ermittelte Position 23 liegt nicht in der Mitte des Pixels mit der höchsten Intensitätswert.The positional shift of the light pattern on the image recorded by the camera (ie the image area sensor) can be determined, for example, by evaluating which image points (pixels) the light pattern is mapped to. In general, the image of a thin line will also not only trigger signals in a single row of pixels, but also in neighboring pixels. This can be used to determine the position with a resolution that is finer than the "pitch", ie the size given by the pixel spacing. The position of all pixels in which a signal is measured is averaged. The averaging is weighted according to signal strength. This is done, for example, via all pixels lying next to one another in one direction (for example, x-direction in an xy-Cartesian coordinate system), specifically for all rows of pixels (in the example, for all y values). The method can be used to determine precise position information with sub-pixel accuracy, even if the pattern is not exactly mapped to the center of a row of pixels. This is illustrated in FIG. 3, where the intensities 22 are plotted as a function of the x position of the pixels 21. The actual position 23 determined with the sub-pixel approximation is not in the center of the pixel with the highest intensity value.
Ein Fehlen der Lichtlinie oder von Teilen davon im Bild oder je nach dem gewählten Aufbau auch eine Verschiebung der ganzen Lichtlinie im Vergleich zur Referenz deutet auf eine fehlende Funktionsfähigkeit des Systems hin. Auch eine Veränderung der Helligkeit der Lichtlinie im Bild kann auf eine fehlende Funktionsfähigkeit hindeuten. In diesem Fall kann ein geeignetes Warnsignal und/oder eine Überprüfung ausgelöst werden. Im Gegensatz zu bekannten Überwachungssystemen ist also gemäss dem erfindungsgemässen Ansatz die Anwesenheit eines Objekts - als Alarmfall - von einem Systemausfall - als Störfall - unterscheidbar.A lack of the light line or parts of it in the image or, depending on the chosen structure, a shift of the entire light line compared to the reference indicates a lack of functionality of the system. A change in the brightness of the light line in the image can also indicate a lack of functionality. In this case, a suitable warning signal and / or a check can be triggered. In contrast to known monitoring systems, the presence of an object - as an alarm case - can be distinguished from a system failure - as a malfunction - according to the approach according to the invention.
Falls genügend Licht vom Lichtmuster vorhanden ist, ist die Linie 2 im Blickwinkel 4 des Bildflächensensors viel heller als alle anderen Objekte; in diesem Fall kann die Bildauswertung 6 durch einfaches Festlegen eines Schwellwerts erfolgen: ist das Signal grösser als dieser Schwellwert, so handelt es sich um die Lichtlinie 2 andernfalls ist es nicht Teil der Lichtlinie.If there is enough light from the light pattern, the line 2 at the viewing angle 4 of the image area sensor is much brighter than all other objects; in this case, the image evaluation 6 can be carried out by simply setting a threshold value: if the signal is greater than this threshold value, it is the light line 2, otherwise it is not part of the light line.
Nun soll diese Absicherungseinrichtung auch in unterschiedlichenNow this protection device should also be in different
Beleuchtungsverhältnissen eingesetzt werden können. Sie muss also auch bei direkter, konkurrenzierender Sonneneinstrahlung funktionieren. Damit dies der Fall ist, müsste die Lichtleistung der Lichtquelle 1 so stark erhöht werden, dass das Auge eines Menschen bei direkter Einstrahlung Schaden nehmen könnte. Durch verschiedene Massnahmen kann die Lichtleistung so stark reduziert werden, dass sie für den Menschen ungefährlich wird, ohne dabei die Funktionsweise des Systems zu gefährden. In Folgendem sollen diese Massnahmen näher erläutert werden:Lighting conditions can be used. It also has to work in direct, competitive solar radiation. So that is the case , the light output of the light source 1 would have to be increased so much that the eye of a person could be damaged by direct radiation. Various measures can be taken to reduce the light output so much that it becomes harmless to humans without endangering the way the system works. These measures are to be explained in more detail below:
Die Sonne strahlt über ein grosses Frequenzspektrum. Laserlichtquellen, wie sie sinnvollerweise als Lichtquelle 1 eingesetzt werden, sind monochrom. Durch den Einsatz eines optischen Filters 9, bspw. Bandpass- oder Tiefpassfilters vor der Kamera, das auf den Frequenzbereich des Lasers abgestimmt ist, kann der grösste Anteil des Sonnenlichtes, oder anderer Beleuchtung, unterdrückt werden. Das optische Filter begünstigt also die Erkennbarkeit der monochromen Lichtquelle in Bezug zum Umgebungslicht. (Bemerkung: Es können sowohl Laser im sichtbaren und im unsichtbaren Bereich eingesetzt werden. Die Auswahl ist von der Anwendung abhängig; soll der gefährdete Raum sichtbar sein (z.B. Maschinenabsicherung) oder soll er unsichtbar sein (z.B. Zugangsabsicherung))The sun shines over a large frequency spectrum. Laser light sources, such as are usefully used as light source 1, are monochrome. By using an optical filter 9, for example a band-pass or low-pass filter in front of the camera, which is tuned to the frequency range of the laser, most of the sunlight or other lighting can be suppressed. The optical filter thus favors the recognizability of the monochrome light source in relation to the ambient light. (Note: Lasers can be used both in the visible and in the invisible area. The selection depends on the application; should the endangered area be visible (e.g. machine security) or should it be invisible (e.g. access security))
Die Lichtquelle 1 kann meistens moduliert bzw. gepulst werden; dabei kann sie für eine kurze Zeitdauer das 100- oder 1000-fache der kontinuierlichen Leistung betragen. Gleichzeitig verfügen moderne Kameras über einen elektronischen Verschluss. Dieser kann mit dem Lichtimpuls synchronisiert werden. In Fig. 1 steuert der Steuerrechner 7 über die Leitung 10 die Lichtquelle, und über Leitung 11 den Verschluss der Kamera.The light source 1 can usually be modulated or pulsed; for a short period of time it can be 100 or 1000 times the continuous output. At the same time, modern cameras have an electronic shutter. This can be synchronized with the light pulse. In Fig. 1, the control computer 7 controls the light source via line 10 and the shutter of the camera via line 11.
Trotz obiger Massnahme können im Bild immer noch helle Lichtbereiche entstehen, z.B. durch direkte Scheinwerfereinstrahlung in den Aufnahmebereich der Kamera 4. Um diese Störsignale zu unterdrücken kann ein Bild, ohne dass die Lichtquelle 1 eingeschaltet ist, aufgenommen werden und in einem Bildspeicher 12 zwischengespeichert werden. Anschliessend erfolgt eine Aufnahme mit eingeschalteter Lichtquelle. Diese wird durch den Vergleicher 13 mit dem abgespeicherten Bild verglichen (z.B. durch Differenzbildung). Dadurch lassen sich vergleichsweise - bspw. im Vergleich zur Aufnahmefrequenz der Kamera - langsam ändernde starke Lichter im Aufnahmebereich 4 unterdrücken. Die Aufnahme des Bildes bei ausgeschalteter Lichtquelle kann einmal am Anfang eines Arbeitszyklus oder laufend - abwechslungsweise mit Beleuchtungsperioden - geschehen.Despite the above measure, bright areas of light can still appear in the image, for example due to direct headlight radiation in the recording area of the camera 4. In order to suppress these interference signals, an image can be suppressed without the light source 1 is switched on, recorded and temporarily stored in an image memory 12. The picture is then taken with the light source switched on. This is compared by the comparator 13 with the stored image (for example by forming a difference). As a result, slowly changing strong lights in the recording area 4 can be suppressed comparatively, for example in comparison with the recording frequency of the camera. The picture can be taken with the light source switched off once at the beginning of a work cycle or continuously - alternating with lighting periods.
Ist eine von der Beleuchtung her hochdynamische Situation gegeben, sei es, dass der Überwachungssensor auf einem Fahrzeug montiert ist, oder dass er eine Objektüberwachung mit schnellen Objekten durchführen muss, so kann die Aufnahme eines Referenzbildes eine zusätzliche nichttolerierbare Totzeit ergeben. In diesem Fall eignet sich ein Verfahren nach Figur 4. In dieser Anordnung stehen zwei Sensoren zur Verfügung 3, 3'. Der eine Sensor 3 löst die Bildaufnahme gleichzeitig mit der Pulsung der Lichtquelle aus, während der andere Sensor 3' gleich anschliessend ein Bild aufnimmt, wobei die Bildaufnahmedauer für beide Sensoren etwa identisch sei. Beide Sensorsignale werden in den Analog/Digital-Wandlern 5, 5' in digitale Signale umgewandelt. Die Transformationseinheit 20' transformiert das Signal des zweiten Sensors 3' geometrisch und in der Lichtstärke auf die geometrische Position des ersten Sensor 3. Im Vergleicher 13 werden die zwei Bilder verglichen (z.B. durch Differenzbildung) und anschliessend analog oben beschrieben weiter ausgewertet.If there is a highly dynamic situation in terms of lighting, be it that the monitoring sensor is mounted on a vehicle or that it has to carry out object monitoring with fast objects, the recording of a reference image can result in an additional intolerable dead time. In this case, a method according to FIG. 4 is suitable. In this arrangement, two sensors 3, 3 'are available. One sensor 3 triggers the image acquisition at the same time as the pulsation of the light source, while the other sensor 3 'immediately takes an image, the image acquisition time being approximately identical for both sensors. Both sensor signals are converted into digital signals in the analog / digital converters 5, 5 '. The transformation unit 20 'transforms the signal of the second sensor 3' geometrically and in terms of light intensity to the geometric position of the first sensor 3. In the comparator 13, the two images are compared (e.g. by forming a difference) and then further evaluated analogously as described above.
Es kann vorkommen, dass sich die Lichtverhältnisse im Überwachungsbereich sehr schnell ändern wenn z.B. plötzlich ein Muster auf dem Überwachungsbereich mit sehr unterschiedlichen Reflexionseigenschaften vorhanden ist: Ein Teilgebiet reflektiert sehr stark, während ein anderes Teilgebiet kaum reflektiert. Falls es die zeitlichen Anforderungen erlauben, kann die Verstärkung der Belichtungszeit des Sensors bei der nächsten Bildaufnahme so angepasst werden, dass dann eine sinnvolle Auswertung möglich ist. Sind aber die zeitlichen Anforderungen an das System sehr hoch, so kann in diesem Fall ein weiteres Sensorsystem (d.h. ein Bildflachensensor inklusive A/D-Wandler, eventuell eigener Optik, und eventuell den Mitteln zur Referenzbildung) oder mehre weitere Sensorsysteme helfen: Während ein Sensorsystem mit einen ersten Bildflachensensor sehr lichtempfindlich eingestellt ist, und bei grossen Eingangssignalen übersteuert, kann ein zweites Sensorsystem mit einem zweiten Bildflachensensor den wenig lichtempfindlichen Bereich übernehmen. Zur weiteren Verarbeitung wird dasjenige Sensorsystem eingesetzt, welches eine bessere Signalstatistik liefert. Alternativ oder ergänzend dazu können auch die von beiden Sensorsystemen erfassten Bilder - ggf. nach Korrektur oder geometrischer Transformation - kombiniert werden, beispielsweise durch Addition. Die Erfassung der unterschiedlich stark belichteten Bilder kann, muss aber nicht gleichzeitig erfolgen.It can happen that the lighting conditions in the surveillance area change very quickly if, for example, suddenly there is a pattern on the surveillance area with very different reflection properties: one sub-area reflects very strongly, while another sub-area hardly reflects. If it is the allow time requirements, the gain of the exposure time of the sensor at the next image acquisition can be adjusted so that a meaningful evaluation is then possible. However, if the time requirements for the system are very high, in this case an additional sensor system (i.e. an image area sensor including A / D converter, possibly its own optics, and possibly the means for reference formation) or more additional sensor systems can help: While one sensor system is set to be very light-sensitive with a first image area sensor and overdrives for large input signals, a second sensor system with a second image area sensor can take over the area which is not very light-sensitive. The sensor system which provides better signal statistics is used for further processing. As an alternative or in addition to this, the images recorded by both sensor systems can also be combined, for example after correction or geometric transformation, for example by addition. The acquisition of the images exposed to different intensities can, but does not have to take place simultaneously.
Mehr als ein Sensorsystem kann bspw. auch in Situationen verwendet werden, in denen ein Schattenwurf eines Objektes zu unzugänglichen Bereichen führen kann, oder aber um gleichzeitig die Höhe und eine andere geometrische Abmessung des Objektes zu erfassen. Diese bspw. gleichwertigen mindestens zwei Sensorsysteme werden vorzugsweise gleichzeitig eingesetzt.For example, more than one sensor system can also be used in situations in which an object's shadow can lead to inaccessible areas, or in order to simultaneously detect the height and another geometric dimension of the object. These, for example, equivalent at least two sensor systems are preferably used simultaneously.
In der einfachsten Ausführung kann die hier beschriebene Vorrichtung zur Detektion einer Veränderung und damit zur einfachen Maschinenabsicherung eingesetzt werden. Das System kann geeicht werden; damit kann aus der Verschiebung der Lichtlinie 2 im Bild direkt die Höhe bzw. Distanz des Objekts 0 berechnet werden. Bei bekannter geometrischer Anordnung kann auch die Höhe bzw. Distanz des Aufnahmesystems berechnet werden. Bewegt sich das Objekt 0 mit bekannter Geschwindigkeit (z.B. auf Förderband für Teile oder Menschen) so kann mit diesem Verfahren auch das Volumen des Objekts 0 abgeschätzt werden. Unter Umständen kann die Bildverarbeitungseinrichtung auch in Ergänzung zu Obigem mit Mitteln zum Festlegen einer Objektsgeschwindigkeit versehen sein. In der in Fig. 1 gezeichneten Anordnung kann die Förderung des Objektes bspw. in einer die Fläche 4 beinhaltenden Ebene und in Richtung ungefähr senkrecht zur Richtung des Lichtmessers geschehen. Die Ermittlung des Volumens kann in den Bildverarbeitungsmitteln selbst oder in einem Steuer- und/oder Auswertungsrechner erfolgen.In the simplest version, the device described here can be used to detect a change and thus for simple machine protection. The system can be calibrated; the height or distance of object 0 can thus be calculated directly from the displacement of light line 2 in the image. If the geometric arrangement is known, the height or distance of the recording system can also be calculated. If object 0 is moving at a known speed (eg on a conveyor belt for parts or people), the volume of object 0 can also be estimated with this method. Under certain circumstances, the image processing device can also be provided with means for specifying an object speed in addition to the above. In the arrangement shown in FIG. 1, the object can be conveyed, for example, in a plane containing the surface 4 and in a direction approximately perpendicular to the direction of the light meter. The volume can be determined in the image processing means itself or in a control and / or evaluation computer.
Typische Anwendungsgebiete des vorgestellten Verfahrens sind:Typical areas of application of the presented method are:
Absicherung von MaschinenProtection of machines
Steuerung von Zugangssystemen (z.B. Türen)Control of access systems (e.g. doors)
Messung von Menschenströmen, Zählungen (Kaufhäuser, Verkehrsanlagen, öffentliche Verkehrsmittel (Tram, Zug, Bus))Measurement of flows of people, counts (department stores, traffic facilities, public transport (tram, train, bus))
- Elektronische Vorraumüberwachung von (autonomen) Fahrzeugen, mit dem Vorteil gegenüber mechanischen Systemen, dass das Fahrzeug gestoppt wird bevor es das Objekt (z.B. Mensch) mechanisch berührt.- Electronic vestibule monitoring of (autonomous) vehicles, with the advantage over mechanical systems that the vehicle is stopped before it mechanically touches the object (e.g. human).
Schutz von Objekten vor Annäherung durch einen Menschen oder eine Maschine, bzw. das Erkennen eines unerlaubten Zugriffs, bspw. der Schutz eines Gemäldes im Museum. Überwachen einer Fläche, die in mehrere zusammenhängende oder nicht zusammenhängende Zonen unterteilt ist. Für jede Zone kann ein unterschiedliches Alarmsignal ausgelöst werden. Protection of objects from being approached by a human or a machine, or the detection of unauthorized access, e.g. the protection of a painting in a museum. Monitor an area that is divided into several contiguous or non-contiguous zones. A different alarm signal can be triggered for each zone.

Claims

PATENTANSPRUCHE PATENT CLAIMS
1. Verfahren zur Absicherung von Systemen, wobei1. Procedure for securing systems, whereby
- eine Lichtquelle (1) aus einer Beleuchtungsrichtung mindestens eine Lichtlinie auf eine zu überwachende Fläche (4) projiziert, wodurch ein Lichtmuster (2) entsteht- A light source (1) projects at least one light line onto a surface to be monitored (4) from an illumination direction, whereby a light pattern (2) is created
- das Lichtmuster (2) mindestens teilweise aus einer von der Beleuchtungsrichtung verschiedenen Richtung durch einen Bildflachensensor (3) erfasst wird, wodurch ein Kamerasignal erzeugt wird,- The light pattern (2) is detected at least partially from a direction different from the direction of illumination by an image area sensor (3), whereby a camera signal is generated,
- das Kamerasignal anschliessend einer Bildverarbeitungseinrichtung (6) zugeführt wird,- The camera signal is then fed to an image processing device (6),
- und die Bildverarbeitungsseinreichtung (6) die Abweichung des Lichtmusters (2) von einer Referenz ermittelt.- And the image processing device (6) determines the deviation of the light pattern (2) from a reference.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als Lichtquelle (1) eine monochrome Lichtquelle eingesetzt wird und vor der Kamera (3) ein optisches Filter (9) für die Frequenz der monochromen Lichtquelle zum Einsatz kommt.2. The method according to claim 1, characterized in that a monochrome light source is used as the light source and an optical filter (9) for the frequency of the monochrome light source is used in front of the camera (3).
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Lichtquelle gepulst oder moduliert wird und der Zeitpunkt der Auslösung der Pulsung bzw. die Steuerung der Modulation durch einen Steuerrechner (7) über eine Steuerung (10) der Lichtquelle (1) erfolgt und das gleichzeitig nur während diesem Zeitpunkt die Bildaufnahme der Kamera (3) eingeschaltet wird. 3. The method according to claim 1 or 2, characterized in that the light source is pulsed or modulated and the time of triggering the pulsation or the control of the modulation by a control computer (7) via a controller (10) of the light source (1) and that the image recording of the camera (3) is switched on only during this time.
Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass ein Bild ohne Einschaltung der Lichtquelle (1) aufgenommen wird und zwischengespeichert wird und dieses Bild mit einem Bild mit Beleuchtung durch die Lichtquelle (1) verglichen wird und dieses Signal der Bildauswertung (6) weitergegeben wird. Method according to one of the preceding claims, characterized in that an image is recorded and temporarily stored without switching on the light source (1) and this image is compared with an image illuminated by the light source (1) and this signal is passed on to the image evaluation (6) becomes.
5. Verfahren nach einem der vorangehenden Ansprüchen, dadurch gekennzeichnet, dass zwei Bildflächensensoren (3, 3') zur Aufnahme des Bildes eingesetzt werden , wovon ein erster Sensor (3) gleichzeitig mit der Pulsung der Lichtquelle ein Bild aufnimmt und ein zweiter Bildflachensensor (3') unmittelbar vorher oder unmittelbar anschliessend ein Referenzbild aufnimmt, dass das Bild mindestens eines der zwei Bildflächensensoren (3') geometrisch transformiert wird, und dass anschliessend die der beiden Bilder bspw. durch Differenzbildung verglichen werden und das Resultat für die weitere Bildauswertung benutzt wird.5. The method according to any one of the preceding claims, characterized in that two image area sensors (3, 3 ') are used to record the image, of which a first sensor (3) records an image simultaneously with the pulsation of the light source and a second image area sensor (3 ') takes a reference image immediately before or immediately afterwards, that the image of at least one of the two image area sensors (3') is geometrically transformed, and that those of the two images are then compared, for example by forming a difference, and the result is used for further image evaluation.
6. Verfahren nach einem der vorangehenden Ansprüchen, dadurch gekennzeichnet, dass zwei oder mehrere unterschiedliche Sensorsysteme mit je einem Bildflachensensor vorhanden sind, die durch optische Massnahmen, beispielsweise eine Blende, oder elektrische Massnahmen, beispielsweise elektronische Verstärkung, eine unterschiedliche Lichtempfindlichkeit aufweisen6. The method according to any one of the preceding claims, characterized in that two or more different sensor systems are present, each with an image area sensor, which have different light sensitivity due to optical measures, for example a diaphragm, or electrical measures, for example electronic amplification
Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass je nach Situation dasjenige Sensorsystem mit der geeigneteren Signalstatistik zur weiteren Verarbeitung verwendet wird. Method according to claim 6, characterized in that, depending on the situation, that sensor system with the more suitable signal statistics is used for further processing.
Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass die beiden Bilder mit unterschiedlichen Lichtempfindlichkeiten, beispielsweise durch Addition, kombiniert werden und das Resultat zur weiteren Verarbeitung verwendet wird. A method according to claim 6 or 7, characterized in that the two images are combined with different light sensitivities, for example by addition, and the result is used for further processing.
9. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Abweichung des Lichtmusters (2) von der Referenz quantitativ berechnet wird, wodurch Rückschlüsse auf die Höhe mindestens eines sich auf der zu überwachenden Fläche befindlichen Objektes (0) gemacht werden können.9. The method according to any one of the preceding claims, characterized in that the deviation of the light pattern (2) from the reference is quantitatively calculated, whereby conclusions can be drawn about the height of at least one object (0) located on the area to be monitored.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass auch die Bewegung eines sich im Überwachungsbereich befindlichen Objektes (0) erfasst wird und anhand der Höhe und der Bewegung des Objekts (0) das Volumen des Objekts abgeschätzt wird.10. The method according to claim 9, characterized in that the movement of an object located in the monitored area (0) is also detected and the volume of the object is estimated on the basis of the height and the movement of the object (0).
11. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Bildflachensensor (3) Daten in einem Pixelformat erfasst, dass zur Bestimmung der Abweichung ein über mindestens zwei Pixel gewichteter Mittelwert gebildet wird und dass die Positions-Abweichung des Lichtmusters (2) von der Referenz in einer Sub-Pixel-Approximation ermittelt wird.11. The method according to any one of the preceding claims, characterized in that the image area sensor (3) detects data in a pixel format, that an average weighted over at least two pixels is formed for determining the deviation and that the position deviation of the light pattern (2) from the reference is determined in a sub-pixel approximation.
12. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass ein von der Bildverarbeitungseinrichtung (6) ermitteltes Resultat einem Steuerrechner (7) zugeführt wird und dieser bei Abweichungen von einer vorgegebenen Norm ein Gefahrensignal erzeugt. 12. The method according to any one of the preceding claims, characterized in that a result determined by the image processing device (6) is fed to a control computer (7) and this generates a danger signal in the event of deviations from a predetermined standard.
13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass je nach Art der Abweichung von der Norm verschiedene Gefahrensignale mit unterschiedlicher Bedeutung erzeugt werden.13. The method according to claim 12, characterized in that depending on the type of deviation from the norm, different hazard signals are generated with different meanings.
14. Verfahren nach Anspruch 12 oder 13, dadurch gekennzeichnet, dass im Alarmfall ein - bspw. durch den Bildflachensensor erfasstes - Bild zu Dokumentationszwecken abgespeichert wird.14. The method according to claim 12 or 13, characterized in that in the event of an alarm, an image, for example captured by the image area sensor, is stored for documentation purposes.
15. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass bei fehlender Sichtbarkeit des ganzen Lichtmusters oder von Teilen davon eine Überprüfung des Systems ausgelöst wird.15. The method according to any one of the preceding claims, characterized in that when the entire light pattern or parts thereof are not visible, a check of the system is triggered.
16. Verfahren nach einem der vorangehenden Ansprüchen, dadurch gekennzeichnet, dass mehrere unabhängige Lichtquellen zur Erzeugung des Lichtmusters eingesetzt werden.16. The method according to any one of the preceding claims, characterized in that several independent light sources are used to generate the light pattern.
17. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Lichtmuster (2) nur in Anwesenheit eines zu erfassenden Objektes erfassbar ist.17. The method according to any one of the preceding claims, characterized in that the light pattern (2) can only be detected in the presence of an object to be detected.
18. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das System zum Absichern von Maschinen eingesetzt wird.18. The method according to any one of the preceding claims, characterized in that the system is used to secure machines.
19. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, dass das System für die Überwachung / Steuerung von jeglichen Zugangssystemen, z.B. Türen, eingesetzt wird. 19. The method according to any one of claims 1 to 17, characterized in that the system for monitoring / controlling any access systems, such as doors, is used.
20. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, dass damit Menschenströme, z.B. in Kaufhäusern oder beim Zugang in Zügen oder Bahnhöfen, gemessen werden.20. The method according to any one of claims 1 to 17, characterized in that it flows with people, e.g. in department stores or when entering trains or train stations.
21. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, dass damit der Vorraum von (autonomen) Fahrzeugen überwacht werden kann.21. The method according to any one of claims 1 to 17, characterized in that the anteroom of (autonomous) vehicles can be monitored.
22. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, dass damit der Zugriff zu Objekten überwacht wird.22. The method according to any one of claims 1 to 17, characterized in that the access to objects is monitored.
23. Vorrichtung zur Absicherung von Systemen, aufweisend eine Lichtquelle mit Mitteln zum projizieren mindestens einer Lichtlinie auf eine zu überwachende Fläche, einen Bildflachensensor zum Überwachen der Fläche, einer mit dem Bildflachensensor (3) verbundenen Bildverarbeitungseinrichtung (6) und mit Mitteln zum Auswerten eines durch den Bildflachensensor erfassten und durch die Bildverarbeitungseinrichtung verarbeiteten Kamerasignales, dergestalt, dass die Abweichung eines durch die mindestens eine Lichtlinie gebildeten Lichtmusters (2) von einer Referenz quantitativ ermittelbar ist.23. Device for securing systems, comprising a light source with means for projecting at least one light line onto a surface to be monitored, an image surface sensor for monitoring the surface, an image processing device (6) connected to the image surface sensor (3) and with means for evaluating a the image area sensor and camera signal processed by the image processing device such that the deviation of a light pattern (2) formed by the at least one light line from a reference can be determined quantitatively.
24. Vorrichtung nach Anspruch 23, gekennzeichnet durch einen weiteren Bildflachensensor (3') zur Bildung eines Referenzsignals.24. The device according to claim 23, characterized by a further image area sensor (3 ') for forming a reference signal.
25. Vorrichtung nach Anspruch 23 oder 24, gekennzeichnet durch ein weiteres Sensorsystem mit einem Bildflachensensor und mit einer unterschiedlichen Lichtempfindlichkeit. 25. The apparatus of claim 23 or 24, characterized by a further sensor system with an image area sensor and with a different light sensitivity.
26. Vorrichtung nach einem der Ansprüche 23-25, aufweisend einen mit der Bildverarbeitungseinrichtung (6) verbundenen Steuerrechner (7), welcher so programmierbar ist, dass die Vorrichtung zum Durchführen des Verfahrens nach einem der Ansprüche 1 bis 16 aktiviert werden kann.26. Device according to one of claims 23-25, comprising a control computer (7) connected to the image processing device (6), which is programmable in such a way that the device for carrying out the method according to one of claims 1 to 16 can be activated.
27. Vorrichtung nach einem der Ansprüche 23-26, gekennzeichnet, durch ein weiteres, gleichzeitig einsetzbares Sensorsystem, bspw. zur gleichzeitigen Erfassung von geometrischen Abmessungen in Höhe und Distanz oder zur Vermeidung von durch einen Schattenwurf verursachten nicht erfassbaren Bereichen. 27. The device according to any one of claims 23-26, characterized by a further, simultaneously usable sensor system, for example. For the simultaneous detection of geometric dimensions in height and distance or for avoiding non-detectable areas caused by shadows.
PCT/CH2004/000465 2003-07-25 2004-07-23 Method for automatic protection WO2005010840A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CH1298/03 2003-07-25
CH12982003A CH697014A5 (en) 2003-07-25 2003-07-25 Hedging and / or monitoring systems.

Publications (1)

Publication Number Publication Date
WO2005010840A1 true WO2005010840A1 (en) 2005-02-03

Family

ID=34085304

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CH2004/000465 WO2005010840A1 (en) 2003-07-25 2004-07-23 Method for automatic protection

Country Status (2)

Country Link
CH (1) CH697014A5 (en)
WO (1) WO2005010840A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1722151A1 (en) * 2005-05-12 2006-11-15 Sick Ag Device for securing a dangerous area
ITPD20080320A1 (en) * 2008-11-05 2010-05-06 Marss S R L ANTI-THEFT SYSTEM
US9057779B2 (en) 2011-04-01 2015-06-16 Cedes Ag Sensor device, safety device, door and method for monitoring the movement

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4908704A (en) * 1987-12-11 1990-03-13 Kabushiki Kaisha Toshiba Method and apparatus for obtaining an object image and distance data of a moving object
DE4405849A1 (en) * 1993-02-26 1994-09-01 Murata Machinery Ltd Method for recording three-dimensional images of loads
DE19938639A1 (en) * 1999-08-14 2001-02-22 Pilz Gmbh & Co Device for protecting a danger zone, in particular the danger zone of an automated machine
DE10049366A1 (en) * 2000-10-05 2002-04-25 Ind Technik Ips Gmbh Security area monitoring method involves using two image detection units whose coverage areas overlap establishing monitored security area

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4908704A (en) * 1987-12-11 1990-03-13 Kabushiki Kaisha Toshiba Method and apparatus for obtaining an object image and distance data of a moving object
DE4405849A1 (en) * 1993-02-26 1994-09-01 Murata Machinery Ltd Method for recording three-dimensional images of loads
DE19938639A1 (en) * 1999-08-14 2001-02-22 Pilz Gmbh & Co Device for protecting a danger zone, in particular the danger zone of an automated machine
DE10049366A1 (en) * 2000-10-05 2002-04-25 Ind Technik Ips Gmbh Security area monitoring method involves using two image detection units whose coverage areas overlap establishing monitored security area

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1722151A1 (en) * 2005-05-12 2006-11-15 Sick Ag Device for securing a dangerous area
US7563039B2 (en) 2005-05-12 2009-07-21 Sick Ag Apparatus for securing a dangerous zone
ITPD20080320A1 (en) * 2008-11-05 2010-05-06 Marss S R L ANTI-THEFT SYSTEM
US9057779B2 (en) 2011-04-01 2015-06-16 Cedes Ag Sensor device, safety device, door and method for monitoring the movement

Also Published As

Publication number Publication date
CH697014A5 (en) 2008-03-14

Similar Documents

Publication Publication Date Title
EP2558886B1 (en) Device for monitoring at least one three-dimensional safety area
EP0902402B1 (en) Apparatus and method for optically monitoring a space
DE102010037744B3 (en) Optoelectronic sensor
DE102009031732B3 (en) Distance measuring optoelectronic sensor e.g. laser scanner, for monitoring operating area, has illumination unit activated with increased power, when no impermissible object contact is recognized
DE10360174B4 (en) Device for monitoring a detection area on a work equipment
EP1300691B1 (en) Surveillance method and optoelectronic sensor
DE69804591T2 (en) POSITION DETECTION SYSTEM FOR VIRTUAL STUDIO
EP1813961B1 (en) Device for optoelectronic monitoring of objects
EP1057323B1 (en) Camera tracking system for a virtual television or video studio
DE60006411T2 (en) counting
DE4222920A1 (en) IMAGE PROCESSING USING SURVEILLANCE MONITORING SYSTEM
EP2306426B1 (en) Device for detecting vehicles on a traffic surface
WO2019114889A1 (en) 3-d environment sensing by means of the projection of a series of pseudo-random patterns and stereo camera modules
DE10033608A1 (en) Securing an area around a machine tool to prevent entrance of personnel and possible injury using artificial light target, the image of which can be compared to a reference value and used to switch off the machine
DE10055689B4 (en) Method for operating an optical triangulation light grid
EP1065521A2 (en) Optoelectronic surveillance system
DE102016110514B4 (en) Device and method for monitoring a room area, in particular for securing a danger area of an automated system
EP0448803B1 (en) Video control system
WO2007036553A1 (en) Device and method for recording distance images
DE102013007961B4 (en) Optical measuring system for a vehicle
WO2005010840A1 (en) Method for automatic protection
WO2024251542A1 (en) Device for capturing a spatial image of a surrounding area which is moving relative to the device, and method for operating same
DE29520980U1 (en) Device for testing a light-sensitive matrix sensor, in particular an electronic camera with a CCD matrix sensor or CMOS matrix sensor
EP3855735A1 (en) Securing of a machine
EP1865755A2 (en) Device to control illumination

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
122 Ep: pct application non-entry in european phase
点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载