VERFAHREN ZUR AUTOMATISCHEN ABSICHERUNG
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur automatischen Absicherung von Systemen.
Die Absicherung von Maschinen, Türen, Fahrzeugen und anderen Objekten ist in der modernen Gesellschaft sowohl im Produktiv- wie auch im Freizeitsektor wichtig. Diese Sicherheitsfunktion wird heute hauptsächlich mit Hilfe von optischen Systemen realisiert:
Gemäss dem Stand der Technik beruht eine Möglichkeit der Absicherung auf dem Lichtschranken-Prinzip: Eine Lichtquelle sendet einen oder mehrere Lichtstrahlen aus, die auf einen oder mehrere Lichtfänger auftreffen. Werden ein oder mehrere Lichtstrahlen unterbrochen, so wird Alarm ausgelöst. Diese Verfahren haben den Vorteil, dass im Normalbetrieb immer alle beteiligten Komponenten überprüft werden.
Als Nachteil von diesen Verfahren ist einerseits der hohe Justage- Aufwand
(Lichtsender- Optik- Überwachungsweg- Optik müssen aliniert werden) und andererseits der komplexe Aufbau, wenn Flächen oder gar Räume überwacht werden sollen. Da bei diesen Verfahren immer Lichtstrahlen unterbrochen werden, sind für
Raumüberwachungen (z.B. für Roboter oder an autonomen Fahrzeugen) komplexe und teure Aufbauten mit Spiegeln oder Lichtleitern notwendig.
Die Beschreibung eines alternativen, auf dem bekannten Triangulationsprinzip beruhendes Verfahren zur Überwachung von Systemen findet man in der EP-A-1 300 691. Gemäss dieser Schrift wird ein Muster von Lichtflecken auf einen Überwachungsbereich projiziert. Eine Empfangseinrichtung stellt fest, ob sich Lichtflecken von einem bestimmten Bereich weg verschoben haben, was auf die Anwesenheit eines Objekts hinweist. Nachteilig sind der grosse Aufwand an optischen Elementen für die Erzeugung eines Musters von Lichtflecken und die fehlende Möglichkeit, quantitative Aussagen über das Objekt machen zu können.
Es ist demnach Aufgabe der Erfindung, ein Verfahren und eine Vorrichtung zur Verfügung zu stellen, welche Nachteile bestehender Verfahren und Vorrichtungen überwindet und welche ermöglicht, dass mit optisch wenig komplexen Mitteln eine unter Umständen auch bei kleinen störenden Objekten zuverlässige Absicherung möglich ist. Das Verfahren und die Vorrichtung sollten vorzugsweise auch die quantitative Ermittlung von Eigenschaften der überwachten bzw. störenden Objekte ermöglichen.
Diese Aufgabe wird gelöst durch die Erfindung, wie sie in den Patentansprüchen definiert ist.
Das erfindungsgemässe Verfahren benutzt das an sich bekannte Triangulationsprinzip, welches, vereinfacht gesagt, darauf beruht, dass die Position eines Lichtreflexes auf einem Objekt abhängig ist von dessen Abstand zum Betrachter, wenn die Richtung, aus welcher die Lichtquelle einstrahlt, von der
Blickrichtung verschieden ist. Das Triangulationsprinzip wird hier so genutzt, dass es mit Verwendung von Komponenten wie bspw. Laser- Lichtquelle und Flächenbildsensor und von Bildverarbeitungstechniken, die auf entsprechenden Bildverarbeitungsrechnern laufen, kostengünstig implementierbar ist.
Unter „Licht" versteht man im Kontext dieser Schrift immer sowohl sichtbares Licht als auch elektromagnetische Strahlung im nicht-sichtbaren Bereich. „Bild" und „Bildverarbeitung" sind ebenso wenig auf im Sichtbaren gemachte Bilder beschränkt, es können ebenso Infrarotaufnahmen etc. sein.
Der Erfindung zu Grunde liegt ebenfalls der Gedanke, dass bei Überwachung mit Hilfe von Bildverarbeitungsmitteln quantitative Aussagen über das Objekt und seine
3D-Eigenschaften gemacht werden können. Dies beruht darauf, dass bei bekannten - oder durch einmalige, kameratypspezifsche Kalibrierung ermittelten - optischen
Eigenschaften der Kamera eine Bildposition einem bestimmten Lichteinfallswinkel entspricht. Mit an sich von konventionellen Triangulationsverfahren her bekannten trigonometrischen Formeln kann eine Höhe des Objektes bzw. die Distanz zum
Objekt aus dem Einfallswinkel bestimmt werden. Gemäss einer Ausführungsform wird die durch den Bildflachensensor wahrgenommene Verschiebung des
Lichtmusters daher quantitativ ausgewertet, wobei gemäss einer speziellen
Ausführungsform die Beschränkung der Genauigkeit durch eine Pixelauflösung der Kamera überwunden wird, indem eine Sub-Pixel-Approximation durchgeführt wird.
Das erfindungsgesmässe Verfahren vermeidet Nachteile bestehender Systeme. So ist es optisch sehr einfach. Es müssen lediglich Mittel zum Erzeugen mindestens einer Lichtlinie - bspw. eines „Laserlichtmessers" - sowie ein Bildflachensensor, also bspw. eine Kamera vorhanden sein. Eine aufwändige opitsche Justierung entfällt. Die an die Bilderfassung anschliessende Bildverarbeitung bedingt einen gewissen
Aufwand an Elektronik und in der Programmierung. Dieser fällt aber bei einer grösseren Stückzahl nicht stark ins Gewicht, da Elektronikbauteile - im Gegensatz zu präzisen optischen Instrumenten - in grossen Mengen kostengünstig gefertigt werden können und insbesondere da kein aufwändiges Einrichten jedes einzelnen Standortes nötig ist.
Weiter ermöglicht der erfindungsgemässe Ansatz, dass neben einer blossen Detektion von Objekten auch das Erfassen von deren Eigenschaften möglich ist. Dazu wird gemäss einer bevorzugten Ausführungsform die Abweichung des Lichtmusters von einer Referenz (bspw. entsprechend dem Abbild des Lichtmusters, falls sich kein Objekt im Erfassungsbereich des Bildflächensensors befindet) quantitativ erfasst und damit eine Höheninformation bzw. Distanzinformation gewonnen. Zusammen mit einer Geschwindigkeitsinformation - eine solche kann verfügbar sein, wenn der überwachte Raum bspw. über einem Förderband liegt - kann somit sogar das Volumen eines Objektes bestimmt werden. Damit eröffnen sich zusätzliche Möglichkeiten für die Überwachung von Maschinen. Die Erfindung ist also nicht beschränkt auf Systeme, in denen nur störende Objekte detektiert werden, deren Detektion ein Alarmsignal oder ein Abschalten einer Maschine bewirkt. Sie beinhaltet vielmehr auch die Möglichkeit komplexe Überwachungs- oder sogar Sortierfunktionen wahrzunehmen.
Im Folgenden wird eine Ausführungsform der Erfindung und deren Funktionsweise anhand einer Zeichnung schematisch dargestellt.
Die Figur 1 der Zeichnung zeigt ein Schema des Verfahrens.
Die Figur 2 zeigt sehr schematisch das Grundprinzip der Triangulation.
Die Figur 3 zeigt eine Illustration des Prinzips der Sub-Pixel-Approximation.
Die Figur 4 zeigt eine Illustration des Prinzips der Differenzbildberechnung mit 2 Kameras.
Fig. 1 zeigt schematisch eine zu überwachende Fläche 4. In der folgenden Beschreibung sei angenommen, dass ein Objekt 0 sich im zu überwachenden Raum, also auf der zu überwachenden Fläche 4 befinde. Von diesem Objekt soll eine 3- dimensionale Abbildung erzeugt werden, die dann im beschriebenen Beispiel zu einer Auslösung eines Alarms führt. Der zu überwachende Raum wird mit Hilfe eines „Laserlichtmessers" 1 als an sich gerade Lichtlinie beleuchtet, wobei die Lichtrichtung gegenüber der Kameraachse, die die Szene aufnimmt, verschoben sein muss. Das Lichtmesser durchschneidet bspw. im Wesentlichen die gesamte zu überwachende Fläche und ist bspw. nicht unterbrochen oder allenfalls nur durch kurze Abschnitte unterbrochen, so dass die Unterbrechungen im Total höchstens einen kleinen Bruchteil (bspw. einen Zehntel) der Gesamtbreite ausmachen. Damit wird sichergestellt, dass schmale und randständige Objekte nicht übersehen werden. Das „Lichtmesser" wird nun vom leeren Raum als Linie reflektiert. Befindet sich ein Objekt 0 im Raum, so wird diese Linie verändert.
Anstelle einer einzigen Lichtlinie können auch mehrere Lichtlinien verwendet werden, die parallel oder in irgend einer Anordnung nicht parallel zueinander sind und sich zu einem oder mehreren Mustern ergänzen, bspw. indem sie sich kreuzen, einander mit einer Unterbrechung fortsetzen etc. Die Lichtlinie(n) muss/müssen selbstverständlich nicht notwendigerweise gerade sein. Verschiedene Lichtmuster können jeweils zu verschiedenen Zeitpunkten und/oder von voneinander unabhängigen Lichtquellen projiziert werden. Als Lichtquellen kommen Laser, bspw. Diodenlaser, aber auch andere vorzugsweise monochrome Lichtquellen (d.h.
Lichtquellen mit im Vergleich zum Spektrum des sichtbaren Lichts beschränkter Bandbreite) in Frage, bspw. Leuchtdioden (LEDs).
Gemäss einer speziellen Ausführungsform wird - sofern kein Objekt im Überwachungsbereich ist - kein Licht von der Fläche 4 zurückgeworfen, da auf dieser kein Gegenstand vorhanden ist. Dann wird das Lichtmuster also quasi ins Unendliche projiziert. Das Lichtmuster ist also nur erfassbar, wenn sich ein Objekt im Kamerabereich befindet. Als Referenz dient auch in dieser Ausführungsform das Lichtmuster auf der Fläche 4 also das Muster, das entstehen würde, wenn sich ein flacher Gegenstand auf der Fläche 4 befinden würde. In dieser Ausführungsform ist es auch möglich, Objekte zu erfassen, die sich hinter der Fläche befinden.
Das Verfahren funktioniert wie folgt:
Ein Bildflachensensor 3 nimmt die Szene auf. Auf dieser Aufnahme ist auch das aus der Lichtlinie entstehende Lichtmuster 2 sichtbar.
Das Signal des Bildflächensensors 3 wird in der Analog/ Digital- Wandeleinheit 5 auf ein digitales Signal gewandelt und steht so den nachfolgenden Auswertungseinheiten als digitales Signal zur Verfügung.
Die Bildauswertung 6 detektiert den Verlauf der Lichtlinie 2 im Bild und erstellt daraus in der oben dargelegten Art ein 3- D Modell.
Der Steuerrechner 7 erkennt die Situation.
Auf Basis dieser Veränderung kann der Steuerrechner 7 ein Alarmsignal 8 erzeugen. Das während der Alarmsituation erfasste Bild - aufgenommen durch den Bildflachensensor 3 oder allenfalls durch eine andere Kamera - kann ggf. zu Dokumentationszwecken abgespeichert werden. Ergänzend oder alternativ zum Alarmsignal kann die Höhe bzw. Distanz des Objektes in Abhängigkeit der seitlichen Position quantitativ ermittelt werden. In Fig. 2 wird das Prinzip der Triangulation sehr schematisch aufgezeigt. Durch die Anwesenheit des Objekts 0 wird der von einem Bildflachensensor 3 wahrgenommene Auftreffpunkt Ort des Lichtes im Vergleich zum Zustand ohne Objekt 0 (gestrichelte Linie) als verschoben wahrgenommen. Mit Hilfe trigonometrischer Formeln wird aus dem Einfallswinkel α und dem Lichtauftreffwinkel ß sowie dem bekannten Abstand der Kamera von der überwachten Ebene die Höhe bzw. Distanz des Objektes berechnet. Die konkreten (auch bei von der gezeichneten Konfiguration abweichenden Anordnungen) zu verwendenden Formeln sind aus der klassischen Triangulation bekannt und werden hier nicht noch einmal aufgeführt. Die vorliegende Erfindung macht sich die Erkenntnis zu Nutze, dass der Winkel α aufgrund der Kameraoptik sich in einer Positions Verschiebung des Lichtmusters auf dem Bild äussert. Durch Bildverarbeitungmittel kann die Abweichung im Bild des Lichtmusters von der Referenz ermittelt, und aus dieser auf den Winkel α, bzw. wie dargelegt auf die Höhe des Objektes geschlossen werden.
Die Positionsverschiebung des Lichtmusters auf dem von der Kamera (also dem Bildflachensensor) aufgenommenen Bild kann bspw. ermittelt werden, indem ausgewertet wird, auf welche Bildpunkte (Pixel) das Lichtmuster abgebildet wird. Im Allgemeinen wird auch das Bild einer dünnen Linie nicht nur Signale in einer einzigen Reihe von Pixeln auslösen, sondern auch in benachbarten Pixeln. Dies kann ausgenutzt werden, um die Postition mit einer Auflösung zu bestimmen, die feiner ist als der „Pitch", also die durch den Pixelabstand gegebene Grosse. Dabei wird die Postion aller Pixel gemittelt, in denen ein Signal gemessen wird. Die Mittelung
erfolgt gewichtet nach Signalstärke. Dies erfolgt bspw. über alle in einer Richtung (bspw. x-Richtung in einem x-y-kartesischen Koordinatensystem) nebeneinander liegenden Pixel und zwar für alle Pixelreihen (also im Beispiel für alle y-Werte). Mit dem Verfahren kann eine präzise Positionsinformation in Sub-Pixel-Genauigkeit ermittelt werden, auch wenn das Muster nicht gerade auf die Mitte einer Pixelreihe abgebildet wird. Dies wird illustriert in Figur 3, wo die Intensitäten 22 in Funktion der x-Position der Pixel 21 aufgetragen werden. Die tatsächliche, mit der Sub-Pixel- Approximation ermittelte Position 23 liegt nicht in der Mitte des Pixels mit der höchsten Intensitätswert.
Ein Fehlen der Lichtlinie oder von Teilen davon im Bild oder je nach dem gewählten Aufbau auch eine Verschiebung der ganzen Lichtlinie im Vergleich zur Referenz deutet auf eine fehlende Funktionsfähigkeit des Systems hin. Auch eine Veränderung der Helligkeit der Lichtlinie im Bild kann auf eine fehlende Funktionsfähigkeit hindeuten. In diesem Fall kann ein geeignetes Warnsignal und/oder eine Überprüfung ausgelöst werden. Im Gegensatz zu bekannten Überwachungssystemen ist also gemäss dem erfindungsgemässen Ansatz die Anwesenheit eines Objekts - als Alarmfall - von einem Systemausfall - als Störfall - unterscheidbar.
Falls genügend Licht vom Lichtmuster vorhanden ist, ist die Linie 2 im Blickwinkel 4 des Bildflächensensors viel heller als alle anderen Objekte; in diesem Fall kann die Bildauswertung 6 durch einfaches Festlegen eines Schwellwerts erfolgen: ist das Signal grösser als dieser Schwellwert, so handelt es sich um die Lichtlinie 2 andernfalls ist es nicht Teil der Lichtlinie.
Nun soll diese Absicherungseinrichtung auch in unterschiedlichen
Beleuchtungsverhältnissen eingesetzt werden können. Sie muss also auch bei direkter, konkurrenzierender Sonneneinstrahlung funktionieren. Damit dies der Fall
ist, müsste die Lichtleistung der Lichtquelle 1 so stark erhöht werden, dass das Auge eines Menschen bei direkter Einstrahlung Schaden nehmen könnte. Durch verschiedene Massnahmen kann die Lichtleistung so stark reduziert werden, dass sie für den Menschen ungefährlich wird, ohne dabei die Funktionsweise des Systems zu gefährden. In Folgendem sollen diese Massnahmen näher erläutert werden:
Die Sonne strahlt über ein grosses Frequenzspektrum. Laserlichtquellen, wie sie sinnvollerweise als Lichtquelle 1 eingesetzt werden, sind monochrom. Durch den Einsatz eines optischen Filters 9, bspw. Bandpass- oder Tiefpassfilters vor der Kamera, das auf den Frequenzbereich des Lasers abgestimmt ist, kann der grösste Anteil des Sonnenlichtes, oder anderer Beleuchtung, unterdrückt werden. Das optische Filter begünstigt also die Erkennbarkeit der monochromen Lichtquelle in Bezug zum Umgebungslicht. (Bemerkung: Es können sowohl Laser im sichtbaren und im unsichtbaren Bereich eingesetzt werden. Die Auswahl ist von der Anwendung abhängig; soll der gefährdete Raum sichtbar sein (z.B. Maschinenabsicherung) oder soll er unsichtbar sein (z.B. Zugangsabsicherung))
Die Lichtquelle 1 kann meistens moduliert bzw. gepulst werden; dabei kann sie für eine kurze Zeitdauer das 100- oder 1000-fache der kontinuierlichen Leistung betragen. Gleichzeitig verfügen moderne Kameras über einen elektronischen Verschluss. Dieser kann mit dem Lichtimpuls synchronisiert werden. In Fig. 1 steuert der Steuerrechner 7 über die Leitung 10 die Lichtquelle, und über Leitung 11 den Verschluss der Kamera.
Trotz obiger Massnahme können im Bild immer noch helle Lichtbereiche entstehen, z.B. durch direkte Scheinwerfereinstrahlung in den Aufnahmebereich der Kamera 4. Um diese Störsignale zu unterdrücken kann ein Bild, ohne dass
die Lichtquelle 1 eingeschaltet ist, aufgenommen werden und in einem Bildspeicher 12 zwischengespeichert werden. Anschliessend erfolgt eine Aufnahme mit eingeschalteter Lichtquelle. Diese wird durch den Vergleicher 13 mit dem abgespeicherten Bild verglichen (z.B. durch Differenzbildung). Dadurch lassen sich vergleichsweise - bspw. im Vergleich zur Aufnahmefrequenz der Kamera - langsam ändernde starke Lichter im Aufnahmebereich 4 unterdrücken. Die Aufnahme des Bildes bei ausgeschalteter Lichtquelle kann einmal am Anfang eines Arbeitszyklus oder laufend - abwechslungsweise mit Beleuchtungsperioden - geschehen.
Ist eine von der Beleuchtung her hochdynamische Situation gegeben, sei es, dass der Überwachungssensor auf einem Fahrzeug montiert ist, oder dass er eine Objektüberwachung mit schnellen Objekten durchführen muss, so kann die Aufnahme eines Referenzbildes eine zusätzliche nichttolerierbare Totzeit ergeben. In diesem Fall eignet sich ein Verfahren nach Figur 4. In dieser Anordnung stehen zwei Sensoren zur Verfügung 3, 3'. Der eine Sensor 3 löst die Bildaufnahme gleichzeitig mit der Pulsung der Lichtquelle aus, während der andere Sensor 3' gleich anschliessend ein Bild aufnimmt, wobei die Bildaufnahmedauer für beide Sensoren etwa identisch sei. Beide Sensorsignale werden in den Analog/Digital-Wandlern 5, 5' in digitale Signale umgewandelt. Die Transformationseinheit 20' transformiert das Signal des zweiten Sensors 3' geometrisch und in der Lichtstärke auf die geometrische Position des ersten Sensor 3. Im Vergleicher 13 werden die zwei Bilder verglichen (z.B. durch Differenzbildung) und anschliessend analog oben beschrieben weiter ausgewertet.
Es kann vorkommen, dass sich die Lichtverhältnisse im Überwachungsbereich sehr schnell ändern wenn z.B. plötzlich ein Muster auf dem Überwachungsbereich mit sehr unterschiedlichen Reflexionseigenschaften vorhanden ist: Ein Teilgebiet reflektiert sehr stark, während ein anderes Teilgebiet kaum reflektiert. Falls es die
zeitlichen Anforderungen erlauben, kann die Verstärkung der Belichtungszeit des Sensors bei der nächsten Bildaufnahme so angepasst werden, dass dann eine sinnvolle Auswertung möglich ist. Sind aber die zeitlichen Anforderungen an das System sehr hoch, so kann in diesem Fall ein weiteres Sensorsystem (d.h. ein Bildflachensensor inklusive A/D-Wandler, eventuell eigener Optik, und eventuell den Mitteln zur Referenzbildung) oder mehre weitere Sensorsysteme helfen: Während ein Sensorsystem mit einen ersten Bildflachensensor sehr lichtempfindlich eingestellt ist, und bei grossen Eingangssignalen übersteuert, kann ein zweites Sensorsystem mit einem zweiten Bildflachensensor den wenig lichtempfindlichen Bereich übernehmen. Zur weiteren Verarbeitung wird dasjenige Sensorsystem eingesetzt, welches eine bessere Signalstatistik liefert. Alternativ oder ergänzend dazu können auch die von beiden Sensorsystemen erfassten Bilder - ggf. nach Korrektur oder geometrischer Transformation - kombiniert werden, beispielsweise durch Addition. Die Erfassung der unterschiedlich stark belichteten Bilder kann, muss aber nicht gleichzeitig erfolgen.
Mehr als ein Sensorsystem kann bspw. auch in Situationen verwendet werden, in denen ein Schattenwurf eines Objektes zu unzugänglichen Bereichen führen kann, oder aber um gleichzeitig die Höhe und eine andere geometrische Abmessung des Objektes zu erfassen. Diese bspw. gleichwertigen mindestens zwei Sensorsysteme werden vorzugsweise gleichzeitig eingesetzt.
In der einfachsten Ausführung kann die hier beschriebene Vorrichtung zur Detektion einer Veränderung und damit zur einfachen Maschinenabsicherung eingesetzt werden. Das System kann geeicht werden; damit kann aus der Verschiebung der Lichtlinie 2 im Bild direkt die Höhe bzw. Distanz des Objekts 0 berechnet werden. Bei bekannter geometrischer Anordnung kann auch die Höhe bzw. Distanz des Aufnahmesystems berechnet werden.
Bewegt sich das Objekt 0 mit bekannter Geschwindigkeit (z.B. auf Förderband für Teile oder Menschen) so kann mit diesem Verfahren auch das Volumen des Objekts 0 abgeschätzt werden. Unter Umständen kann die Bildverarbeitungseinrichtung auch in Ergänzung zu Obigem mit Mitteln zum Festlegen einer Objektsgeschwindigkeit versehen sein. In der in Fig. 1 gezeichneten Anordnung kann die Förderung des Objektes bspw. in einer die Fläche 4 beinhaltenden Ebene und in Richtung ungefähr senkrecht zur Richtung des Lichtmessers geschehen. Die Ermittlung des Volumens kann in den Bildverarbeitungsmitteln selbst oder in einem Steuer- und/oder Auswertungsrechner erfolgen.
Typische Anwendungsgebiete des vorgestellten Verfahrens sind:
Absicherung von Maschinen
Steuerung von Zugangssystemen (z.B. Türen)
Messung von Menschenströmen, Zählungen (Kaufhäuser, Verkehrsanlagen, öffentliche Verkehrsmittel (Tram, Zug, Bus))
- Elektronische Vorraumüberwachung von (autonomen) Fahrzeugen, mit dem Vorteil gegenüber mechanischen Systemen, dass das Fahrzeug gestoppt wird bevor es das Objekt (z.B. Mensch) mechanisch berührt.
Schutz von Objekten vor Annäherung durch einen Menschen oder eine Maschine, bzw. das Erkennen eines unerlaubten Zugriffs, bspw. der Schutz eines Gemäldes im Museum.
Überwachen einer Fläche, die in mehrere zusammenhängende oder nicht zusammenhängende Zonen unterteilt ist. Für jede Zone kann ein unterschiedliches Alarmsignal ausgelöst werden.