KR20180064775A - Driving Support Apparatus Of Vehicle And Driving Method Thereof - Google Patents
Driving Support Apparatus Of Vehicle And Driving Method Thereof Download PDFInfo
- Publication number
- KR20180064775A KR20180064775A KR1020160165057A KR20160165057A KR20180064775A KR 20180064775 A KR20180064775 A KR 20180064775A KR 1020160165057 A KR1020160165057 A KR 1020160165057A KR 20160165057 A KR20160165057 A KR 20160165057A KR 20180064775 A KR20180064775 A KR 20180064775A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- frame
- vehicle
- pitch motion
- objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/22—Conjoint control of vehicle sub-units of different type or different function including control of suspension systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/11—Pitch movement
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/32—Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0043—Signal treatments, identification of variables or parameters, parameter estimation or state estimation
- B60W2050/0057—Frequency analysis, spectral techniques or transforms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B60W2420/42—
-
- B60W2420/52—
-
- B60W2550/10—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/802—Longitudinal distance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Mathematical Physics (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Networks & Wireless Communication (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명은 피치 모션(pitch motion)에 의한 이미지 검출의 오류 및 실패를 방지한 차량의 주행 지원 장치 및 이의 구동 방법에 관한 것이다. 본 발명의 실시 예에 따른 차량의 주행 지원 장치는 카메라, 레이더, 관심 영역 설정부, 물체 검출부, 이미지 보정부 및 제어부를 포함한다. 레이더는 실시간으로 전방의 하나 이상의 물체와 자차와의 거리를 검출하여 프레임 단위로 거리 정보를 생성한다. 그리고, 카메라는 실시간으로 전방을 촬영하여 프레임 단위로 제1 이미지를 생성한다. 그리고, 관심 영역 설정부는 제1 프레임의 거리 정보를 제2 이미지로 변환하고, 상기 제1 프레임의 제1 이미지 및 제2 이미지에 기초하여 관심 영역을 설정한다. 그리고, 물체 검출부는 상기 관심 영역에 위치하는 복수의 물체를 검출한다. 그리고, 피치 모션 검출부는 차량의 속도 및 고도 변화에 따른 피치 모션을 검출한다. 그리고, 이미지 보정부는 피치 모션 발생 시, 상기 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이에 기초하여 제2 프레임의 제1 이미지를 보정한다. 그리고, 보정된 제2 프레임의 제1 이미지에 기초하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어한다.The present invention relates to a driving support apparatus for a vehicle and a driving method thereof for preventing errors and failures of image detection by pitch motion. A driving support apparatus for a vehicle according to an embodiment of the present invention includes a camera, a radar, a region-of-interest setting unit, an object detecting unit, an image correction unit, and a control unit. The radar detects the distance between one or more objects in front of the vehicle and the vehicle in real time and generates distance information on a frame-by-frame basis. Then, the camera captures a forward image in real time to generate a first image in frame units. Then, the ROI setting unit converts the distance information of the first frame into a second image, and sets the ROI based on the first image and the second image of the first frame. Then, the object detecting unit detects a plurality of objects located in the area of interest. Then, the pitch motion detecting unit detects the pitch motion according to the change of the vehicle speed and altitude. The image correction unit corrects the first image of the second frame based on the reference point difference between the first image and the second image of the first frame when the pitch motion occurs. And controls the speed, steering, and damper of the vehicle based on the first image of the corrected second frame.
Description
본 발명은 차량의 주행 지원 장치 및 이의 구동 방법에 관한 것으로, 더욱 자세하게는 피치 모션(pitch motion)에 의한 이미지 검출의 오류 및 실패를 방지한 차량의 주행 지원 장치 및 이의 구동 방법에 관한 것이다.BACKGROUND OF THE
차량의 주행 시 돌발 상황이 발생하면 운전자의 인지능력이 현저히 저하되어 교통 사고로 이어질 수 있다. 돌발 상황에 의한 교통 사고를 줄이기 위해서 도로 상의 상황을 감지하는 기술들이 제안되고 있다. 예로서, 레이더 장치를 이용하여 물체를 검출하고, 검출된 물체 전체에 식별자를 부여 및 맵핑(mapping)함으로써 전방 물체를 감지하는 기술이 제안되었다.If an unexpected situation occurs while driving the vehicle, the driver's cognitive ability is significantly lowered, leading to traffic accidents. In order to reduce traffic accidents caused by an unexpected situation, technologies for detecting the situation on the road have been proposed. For example, a technique has been proposed in which a radar apparatus is used to detect an object, and an identifier is assigned and mapped to the detected object as a whole to detect a preceding object.
차량이 감속 또는 가속하거나, 과속 방지턱을 지나는 경우, 차량의 차체가 상하로 유동되는 피치 모션이 발생하게 된다. 차량의 주행 시 카메라와 레이더를 이용하여 전방의 차량, 물체 및 보행자의 이미지를 운전자에게 제공한다. 그러나, 종래의 기술에서는 일반적인 주행 상황과 피치 모션 상황을 구분하지 않고, 동일하게 이미지를 검출함으로써 피치 모션으로 인한 이미지에 오류가 발생한다.When the vehicle decelerates or accelerates, or passes over the overspeed preventing jaw, a pitch motion occurs in which the vehicle body of the vehicle moves up and down. When the vehicle is running, the camera and the radar are used to provide the driver with images of the preceding vehicle, object, and pedestrian. However, in the conventional technique, an image due to the pitch motion is generated by detecting the same image without distinguishing the general running situation from the pitch motion situation.
특히, 피치 모션으로 인해 차선, 차량 및 보행자 검출의 오류나 실패가 발생하고, 이는 곧 안전에 영향을 주게 된다. 따라서, 피치 모션을 고려하여 이미지를 보정함으로써, 이미지 검출 오류 및 실패를 방지할 수 있는 차량의 주행 지원 장치 및 이의 구동 방법이 요구된다.In particular, pitch motion causes errors or failures in lane, vehicle and pedestrian detection, which in turn affects safety. Therefore, there is a demand for a driving support apparatus for a vehicle and a driving method thereof that can prevent an image detection error and failure by correcting an image in consideration of pitch motion.
본 출원의 발명자들은 앞에서 언급한 문제점들을 검출하고 다음과 같은 기술적 과제를 제시한다.The inventors of the present application detect the aforementioned problems and propose the following technical problems.
본 발명은 전술한 문제점을 해결하기 위한 것으로, 피치 모션에 의한 이미지 검출 오류 또는 실패를 방지한 차량의 주행 지원 장치 및 이의 구동 방법을 제공하는 것을 기술적 과제로 한다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a driving support apparatus for a vehicle and a driving method thereof, which prevent errors or failures of image detection by pitch motion.
또한, 레이더 및 카메라를 이용하여 피치 모션에 의한 이미지를 검출할 수 있는 차량의 주행 지원 장치 및 이의 구동 방법을 제공하는 것을 기술적 과제로 한다.It is another object of the present invention to provide a driving support apparatus for a vehicle capable of detecting an image by pitch motion using a radar and a camera, and a driving method thereof.
또한, 피치 모션에 의해 오류가 발생한 이미지를 보정하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어할 수 있는 차량의 주행 지원 장치 및 이의 구동 방법을 제공하는 것을 기술적 과제로 한다.Another object of the present invention is to provide a driving support apparatus for a vehicle and a driving method thereof that can control a speed, a steering, and a damper of a vehicle by correcting an image in which an error occurs due to pitch motion.
또한, 피치 모션이 발생하더라도 운전자에게 안전을 제공하는 차량의 주행 지원 장치 및 이의 구동 방법을 제공하는 것을 기술적 과제로 한다.Another object of the present invention is to provide a driving support apparatus and a driving method thereof for a vehicle that provides safety to a driver even when pitch motion occurs.
위에서 언급된 본 발명의 기술적 과제 외에도, 본 발명의 다른 특징 및 이점들이 이하에서 기술되거나, 그러한 기술 및 설명으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Other features and advantages of the invention will be set forth in the description which follows, or may be obvious to those skilled in the art from the description and the claims.
본 발명의 실시 예에 따른 차량의 주행 지원 장치는 카메라, 레이더, 관심영역 설정부, 물체 검출부, 피치 모션 검출부, 이미지 보정부 및 제어부를 포함한다. 레이더는 실시간으로 전방의 하나 이상의 물체와 자차와의 거리를 검출하여 프레임 단위로 거리 정보를 생성한다. 그리고, 카메라는 실시간으로 전방을 촬영하여 프레임 단위로 제1 이미지를 생성한다. 그리고, 관심 영역 설정부는 제1 프레임의 거리 정보를 제2 이미지로 변환하고, 상기 제1 프레임의 제1 이미지 및 제2 이미지에 기초하여 관심 영역을 설정한다. 그리고, 물체 검출부는 상기 관심 영역에 위치하는 복수의 물체를 검출한다. 그리고, 피치 모션 검출부는 차량의 속도 및 고도 변화에 따른 피치 모션을 검출한다. 그리고, 이미지 보정부는 피치 모션 발생 시, 상기 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이에 기초하여 제2 프레임의 제1 이미지를 보정한다. 그리고, 제어부는 보정된 제2 프레임의 제1 이미지에 기초하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어한다.A driving support apparatus for a vehicle according to an embodiment of the present invention includes a camera, a radar, a region-of-interest setting unit, an object detecting unit, a pitch motion detecting unit, an image correcting unit, and a control unit. The radar detects the distance between one or more objects in front of the vehicle and the vehicle in real time and generates distance information on a frame-by-frame basis. Then, the camera captures a forward image in real time to generate a first image in frame units. Then, the ROI setting unit converts the distance information of the first frame into a second image, and sets the ROI based on the first image and the second image of the first frame. Then, the object detecting unit detects a plurality of objects located in the area of interest. Then, the pitch motion detecting unit detects the pitch motion according to the change of the vehicle speed and altitude. The image correction unit corrects the first image of the second frame based on the reference point difference between the first image and the second image of the first frame when the pitch motion occurs. The control unit then controls the speed, steering, and damper of the vehicle based on the first image of the corrected second frame.
또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치는 상기 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이를 검출하고, 상기 기준점 차이에 기초하여 피치 모션을 검출한다.Further, the running support apparatus of a vehicle according to the embodiment of the present invention detects a reference point difference between the first image and the second image of the first frame, and detects the pitch motion based on the reference point difference.
또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치는 상기 제1 프레임에서 복수의 물체와 자차와의 거리를 산출한다.Further, a travel support apparatus for a vehicle according to an embodiment of the present invention calculates a distance between a plurality of objects and a vehicle in the first frame.
또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치는 상기 복수의 물체 중 자차와 가장 근접한 물체를 기준으로 제2 프레임의 제1 이미지를 보정한다.In addition, the running support apparatus of a vehicle according to the embodiment of the present invention corrects the first image of the second frame based on an object closest to the child of the plurality of objects.
또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치는 상기 제1 프레임에서 복수의 물체 각각에 대해서 상기 제1 이미지와 상기 제2 이미지의 기준점 차이를 산출하고, 상기 복수의 물체 중 기준점 차이가 가장 큰 물체를 기준으로 이미지를 보정한다.Further, the running support apparatus of a vehicle according to an embodiment of the present invention calculates a reference point difference between the first image and the second image for each of a plurality of objects in the first frame, Correct the image based on the largest object.
본 발명의 실시 예에 따른 차량의 주행 지원 방법은 실시간으로 전방을 촬영하여 프레임 단위로 제1 이미지를 생성하는 단계를 포함한다. 그리고, 실시간으로 전방의 하나 이상의 물체와 자차와의 거리를 검출하여 프레임 단위로 거리 정보를 생성하는 단계를 포함한다. 그리고, 제1 프레임의 거리 정보를 제2 이미지로 변환하고, 상기 제1 프레임의 제1 이미지 및 제2 이미지에 기초하여 관심 영역을 설정하는 단계를 포함한다. 그리고, 상기 관심 영역에 위치하는 복수의 물체를 검출하는 단계를 포함한다. 그리고, 차량의 속도 및 고도 변화에 따른 피치 모션을 검출하는 단계를 포함한다. 그리고, 피치 모션 발생 시, 상기 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이에 기초하여 제2 프레임의 제1 이미지를 보정하는 단계를 포함한다. 보정된 제2 프레임의 제1 이미지에 기초하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어하는 단계를 포함한다.The driving support method of a vehicle according to an embodiment of the present invention includes a step of photographing forward in real time to generate a first image in frame units. And generating distance information on a frame-by-frame basis by detecting a distance between one or more objects ahead of the vehicle and the vehicle in real time. And converting the distance information of the first frame to a second image and setting a region of interest based on the first image and the second image of the first frame. And detecting a plurality of objects located in the area of interest. And detecting pitch motion in accordance with a change in the speed and altitude of the vehicle. And correcting the first image of the second frame based on the reference point difference of the first image and the second image of the first frame when the pitch motion occurs. And controlling the speed, steering and damper of the vehicle based on the first image of the corrected second frame.
또한, 본 발명의 실시 예에 따른 차량의 주행 지원 방법은 상기 피치 모션 검출하는 단계에 있어서, 상기 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이를 검출하고, 상기 기준점 차이에 기초하여 피치 모션을 검출한다.According to another aspect of the present invention, there is provided a method of supporting a running of a vehicle, the method comprising the steps of: detecting pitch motion; detecting a reference point difference between a first image and a second image of the first frame; Motion is detected.
또한, 본 발명의 실시 예에 따른 차량의 주행 지원 방법은 상기 관심 영역 설정하는 단계에 있어서, 상기 제1 프레임에서 복수의 물체와 자차와의 거리를 산출한다.In the driving support method of a vehicle according to the embodiment of the present invention, in the step of setting the ROI, a distance between a plurality of objects and a vehicle is calculated in the first frame.
또한, 본 발명의 실시 예에 따른 차량의 주행 지원 방법은 상기 이미지 보정하는 단계에 있어서, 상기 복수의 물체 중 자차와 가장 근접한 물체를 기준으로 제2 프레임의 제1 이미지를 보정한다.Further, in a method of supporting a running of a vehicle according to an embodiment of the present invention, in the image correcting step, a first image of a second frame is corrected based on an object closest to the vehicle among the plurality of objects.
또한, 본 발명의 실시 예에 따른 차량의 주행 지원 방법은 상기 이미지 보정하는 단계에 있어서, 상기 제1 프레임에서 복수의 물체 각각에 대해서 상기 제1 이미지와 상기 제2 이미지의 기준점 차이를 산출하고, 상기 복수의 물체 중 기준점 차이가 가장 큰 물체를 기준으로 이미지를 보정한다.According to another aspect of the present invention, there is provided a method of supporting a running of a vehicle, the method comprising: calculating a reference point difference between the first image and the second image for each of a plurality of objects in the first frame, An image is corrected on the basis of an object having the largest reference point difference among the plurality of objects.
본 발명의 실시 예에 따른 차량의 주행 지원 장치 및 이의 구동 방법은 실시간으로 전방을 촬영하여 프레임 단위로 생성한 제1 이미지와 실시간으로 전방의 물체와 자차와의 거리를 검출 후, 거리 정보를 제2 이미지로 변환하고, 제1 이미지와 제2 이미지를 이용하여 관심 영역을 설정 할 수 있다.A driving support apparatus and a driving method of a vehicle according to an embodiment of the present invention detect a distance between an object and a vehicle in front of a first image generated in real time on a frame by frame basis, 2 image, and set the region of interest using the first image and the second image.
또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치 및 이의 구동 방법은 관심 영역에 위치하는 복수의 물체를 검출하여 전방의 차량 및 보행자의 위치를 알 수 있다.In addition, the driving support apparatus and the driving method of the vehicle according to the embodiment of the present invention can detect a plurality of objects located in a region of interest and know the position of the vehicle and the pedestrian in front.
또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치 및 이의 구동 방법은 제1 프레임에서 피치 모션이 발생 시, 카메라 이미지와 레이더 이미지의 기준점 차이를 산출하고, 상기 제1 프레임에서 산출된 기준점 차이에 기초하여 제2 프레임의 카메라 이미지를 보정할 수 있다.In addition, the driving support apparatus and the driving method of the vehicle according to the embodiment of the present invention calculate the reference point difference between the camera image and the radar image when the pitch motion occurs in the first frame, The camera image of the second frame can be corrected.
또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치 및 이의 구동 방법은 다음 프레임 중 카메라의 이미지에 기초하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어할 수 있고, 피치 모션이 발생하더라도 운전자에게 안전을 제공할 수 있다.In addition, the driving support device and the driving method of the vehicle according to the embodiment of the present invention can control the speed, steering and damper of the vehicle based on the image of the camera in the next frame, and even if pitch motion occurs, Can provide safety to the user.
또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치 및 이의 구동 방법은 피치 모션에 따른 이미지를 검출 시 복수의 물체 중 가장 근접한 물체를 기준으로 차량의 속도, 조향 및 댐퍼(Damper)을 제어하여, 피치 모션이 발생하더라도 운전자에게 안정감을 제공할 수 있다.In addition, the driving support apparatus and the driving method of the vehicle according to the embodiments of the present invention control the speed, steering, and damper of the vehicle based on the closest object among a plurality of objects when detecting an image according to the pitch motion , It is possible to provide the driver with a sense of stability even when the pitch motion occurs.
또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치 및 이의 구동 방법은 카메라의 제1 이미지와 레이더의 제2 이미지의 기준점 차이가 가장 큰 물체를 기준으로 차량의 속도, 조향 및 댐퍼(Damper)을 제어하여, 피치 모션이 발생해도 운전자에게 안정감을 제공할 수 있다.The driving support device and the driving method of the vehicle according to the embodiment of the present invention may be applied to a driving support device and a driving method of the vehicle according to an embodiment of the present invention in which a speed difference between a first image of a camera and a second image of a radar, So that it is possible to provide the driver with a sense of stability even when the pitch motion occurs.
도 1은 본 발명의 실시 예에 따른 차량의 주행 지원 장치를 나타내는 도면이다
도 2a 및 2b는 피치 모션을 검출하기 위해 차량 전방에서 관심 영역을 검출하는 방법을 나타내는 도면이다.
도 3a 및 3b는 본 발명의 실시 예에 따른 차량의 주행에 따른 피치 모션 상태를 검출하는 방법을 나타낸 도면이다.
도 4a 및 4b는 본 발명의 실시 예에 따른 차량의 주행 지원 장치의 이미지 보정 방법을 나타내는 도면이다.
도 5는 본 발명의 실시 예에 따른 차량의 주행 지원 장치의 구동 방법을 나타내는 도면이다.1 is a view showing a driving support apparatus for a vehicle according to an embodiment of the present invention
2A and 2B are diagrams illustrating a method of detecting a region of interest in front of a vehicle to detect pitch motion.
3A and 3B are diagrams illustrating a method of detecting a pitch motion state according to the running of a vehicle according to an embodiment of the present invention.
4A and 4B are views showing a method of correcting an image of a driving support system for a vehicle according to an embodiment of the present invention.
5 is a diagram illustrating a driving method of a driving support apparatus for a vehicle according to an embodiment of the present invention.
이하, 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art to which the present invention pertains. The present invention may be embodied in many different forms and is not limited to the embodiments described herein.
본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다.In order to clearly illustrate the present invention, parts not related to the description are omitted, and the same or similar components are denoted by the same reference numerals throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "comprising ", it means that it can include other elements as well, without departing from the other elements unless specifically stated otherwise.
어느 부분이 다른 부분의 "위에" 있다고 언급하는 경우, 이는 바로 다른 부분의 위에 있을 수 있거나 그 사이에 다른 부분이 수반될 수 있다. 대조적으로 어느 부분이 다른 부분의 "바로 위에" 있다고 언급하는 경우, 그 사이에 다른 부분이 수반되지 않는다.If any part is referred to as being "on" another part, it may be directly on the other part or may be accompanied by another part therebetween. In contrast, when a section is referred to as being "directly above" another section, no other section is involved.
제1, 제2 및 제3 등의 용어들은 다양한 부분, 성분, 영역, 층 및/또는 섹션들을 설명하기 위해 사용되나 이들에 한정되지 않는다. 이들 용어들은 어느 부분, 성분, 영역, 층 또는 섹션을 다른 부분, 성분, 영역, 층 또는 섹션과 구별하기 위해서만 사용된다. 따라서, 이하에서 서술하는 제1 부분, 성분, 영역, 층 또는 섹션은 본 발명의 범위를 벗어나지 않는 범위 내에서 제2 부분, 성분, 영역, 층 또는 섹션으로 언급될 수 있다.The terms first, second and third, etc. are used to describe various portions, components, regions, layers and / or sections, but are not limited thereto. These terms are only used to distinguish any moiety, element, region, layer or section from another moiety, moiety, region, layer or section. Thus, a first portion, component, region, layer or section described below may be referred to as a second portion, component, region, layer or section without departing from the scope of the present invention.
여기서, 사용되는 전문 용어는 단지 특정 실시 예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지 않는다. 여기서, 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. 명세서에서 사용되는 "포함하는"의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분의 존재나 부가를 제외시키는 것은 아니다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to limit the invention. Here, the singular forms used include plural forms as long as the phrases do not expressly mean the opposite. Means that a particular feature, region, integer, step, operation, element and / or component is specified and that the presence or absence of other features, regions, integers, steps, operations, elements, and / It does not exclude addition.
"아래", "위" 등의 상대적인 공간을 나타내는 용어는 도면에서 도시된 한 부분의 다른 부분에 대한 관계를 보다 쉽게 설명하기 위해 사용될 수 있다. 이러한 용어들은 도면에서 의도한 의미와 함께 사용중인 장치의 다른 의미나 동작을 포함하도록 의도된다. 예를 들면, 도면중의 장치를 뒤집으면, 다른 부분들의 "아래"에 있는 것으로 설명된 어느 부분들은 다른 부분들의 "위"에 있는 것으로 설명된다. 따라서 "아래"라는 예시적인 용어는 위와 아래 방향을 전부 포함한다. 장치는 90˚ 회전 또는 다른 각도로 회전할 수 있고, 상대적인 공간을 나타내는 용어도 이에 따라서 해석된다.Terms indicating relative space such as "below "," above ", and the like may be used to more easily describe the relationship to other portions of a portion shown in the figures. These terms are intended to include other meanings or acts of the apparatus in use, as well as intended meanings in the drawings. For example, when inverting a device in the figures, certain parts that are described as being "below" other parts are described as being "above " other parts. Thus, an exemplary term "below" includes both up and down directions. The device can be rotated by 90 degrees or rotated at different angles, and terms indicating relative space are interpreted accordingly.
다르게 정의하지는 않았지만, 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 보통 사용되는 사전에 정의된 용어들은 관련기술문헌과 현재 개시된 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms including technical and scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Commonly used predefined terms are further interpreted as having a meaning consistent with the relevant technical literature and the present disclosure, and are not to be construed as ideal or very formal meanings unless defined otherwise.
이하, 첨부한 도면을 참조하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein.
도 1은 본 발명의 실시 예에 따른 차량의 주행 지원 장치의 예를 나타내는 도면이다.1 is a view showing an example of a travel support apparatus for a vehicle according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시 예에 따른 차량의 주행 지원 장치(100)는 레이더(110), 카메라(120), 속도 센서(130), 관심 영역 설정부(140), 물체 검출부(150), 피치 모션 검출부(160), 이미지 보정부(170) 및 제어부(180)를 포함한다.1, a driving
레이더(110)는 실시간으로 전방의 하나 이상의 물체와 자차와의 거리를 검출하여 프레임 단위로 거리 정보를 생성한다. 레이더(110)에서 생성된 거리 정보는 관심 영역 설정부(140)에 공급된다.The
카메라(120)는 실시간으로 전방을 촬영하여 프레임 단위로 제1 이미지를 생성한다. 전방의 차량 및 보행자를 촬영 시, 1 프레임의 데이터가 이미지다. 카메라(120)에서 획득된 상기 제1 이미지는 관심 영역 설정부(140)에 공급된다.The
속도 센서(130)는 차량의 속도 변화를 검출하고, 상기 속도 변화에 기초하여 속도 신호를 생성한다. 속도 센서(130)에서 생성된 속도 신호는 피치 모션 검출부(160)에 공급된다.The
관심 영역 설정부(140)는 제1 프레임의 거리 정보를 제2 이미지로 변환하고, 상기 제1 프레임의 제1 이미지 및 제2 이미지에 기초하여 관심 영역을 설정한다.The region-of-
여기서, 카메라(120)로부터의 이미지 및 레이더(110)로부터의 거리 정보를 하기 수학식 1과 하기 수학식 2을 기초하여 이미지로 변환하고, 변환된 이미지를 기초로 관심 영역을 설정한다. 이후, 설정된 관심 영역을 물체 검출부(150)에 공급한다.Here, the image from the
구체적으로, 레이더(110)는 로 이루어진 좌표계를 하기의 수학식 1에 기초하여 영상 좌표계로 변환한다.Specifically, the
[수학식 1][Equation 1]
상기 수학식 1에서, "x"는 차량을 기준으로 전방의 위치이고, "y"는 전방의 물체의 너비이다.In Equation (1), "x" is the position in front of the vehicle and "y" is the width of the object in front.
상기 수학식 1에 기초하여 전방의 위치(x), 고도(z) 및 좌우방향(y)의 위치를 영상 좌표계로 변환한다. 이후, 변환한 영상 좌표계를 하기의 수학식 2에 기초하여 영상 좌표로 변환한다. 이때 하기의 수학식 2에서 고도 방향(z)은 "0(zero)"인 것으로 가정한다.The position of the front position (x), the altitude (z), and the left and right direction (y) is converted into the image coordinate system based on the above equation (1). Then, the converted image coordinate system is converted into image coordinates based on the following equation (2). In this case, it is assumed that the altitude direction z in the following equation (2) is "zero ".
[수학식 2]&Quot; (2) "
상기 수학식 2에서, "K"는 고유 파라미터 행렬식이고, "R"은 레이더의 거리 정보를 행렬식으로 변환하고, "T"는 거리 정보를 이미지로 변환하기 위한 행렬식이다. "P"는 상기 K, R, T를 기초로 이미지로 변환한 결과를 의미한다.&Quot; R "is a determinant for converting radar distance information into a determinant, and" T "is a determinant for converting distance information into an image. "P" means a result obtained by converting the images into K, R and T based images.
레이더의 이미지(P)는 고유 파라미터(K)와 거리(R) 및 입체변환(T)을 산출하여 생성된다. 레이더의 이미지(P)를 월드 좌표(W)로 변환하여 이미지 좌표(U)를 생성할 수 있다. 이미지 좌표(U)의 생성하는 방법은 이미지 보정부(170)에 대한 설명을 참조하기로 한다.The image P of the radar is generated by calculating the intrinsic parameter K, the distance R and the stereoscopic transformation T. [ The image coordinates (U) can be generated by converting the image (P) of the radar into the world coordinates (W). The method of generating the image coordinates U will be described with reference to the description of the
도 2a 및 2b는 피치 모션을 검출하기 위해 차량 전방에서 관심 영역을 검출하는 과정을 나타내는 도면이다.2A and 2B are diagrams showing a process of detecting a region of interest in front of the vehicle to detect pitch motion.
도 2a를 참조하면, 전방의 물체의 거리를 x축으로 설정하고, 상기 수학식 2를 기초에 기초하여, 레이더(110)의 길이()에 물체의 높이(H)를 곱하여 얻은 결과 값을 거리(d)로 나누어 자차(210)로부터 일정 거리(d)에 위치하는 차량의 높이(H)를 산출한다. 물체의 높이(H)는 차량 시 대략 1m에서 3m 내외이고, 보행자 시 대략 0.8m에서 2m내외이다. 도 2b를 참조하면, 전방 물체(220)의 너비를 y축으로 두고 상기 수학식 2를 기초로 레이더(110)의 너비()에 전방 물체(220)의 너비(W2) 곱한다. 그리고, 거리(d)를 나눈 값을 픽셀로 변환한 너비(W1)를 산출한다. 전방 물체(220)의 너비(W2)는 차량 시 대략 1.5m에서 2.5m내외이고, 보행자 시 대략 0.5m에서 1.5m내외이다.2A, the distance of an object ahead is set as the x-axis, and the length of the radar 110 ( The vehicle height H is calculated by dividing the resultant value obtained by multiplying the vehicle height H by the height H of the object by the distance d. The height (H) of the object is about 3m to about 3m at the time of the vehicle, and about 2m to about 0.8m at the pedestrian. Referring to FIG. 2B, the width of the
물체 검출부(150)는 상기 관심 영역에 위치하는 복수의 물체를 검출한다. 그리고, 상기 관심 영역에 위치하는 복수의 물체에 대한 제1 프레임의 제1 이미지 및 제2 이미지를 피치 모션 검출부(160)에 공급한다.The
또한, 물체 검출부(150)는 제1 프레임에서 복수의 물체와 자차와의 거리를 산출하고, 제1 프레임에서 가장 근접한 물체를 검출한다. 자차와 가장 근접한 물체를 검출하는 방법은 이미지 보정부(170)에 대한 설명을 참조하기로 한다.Further, the
여기서, 복수의 물체는 전방에 존재하는 다수의 차량 및 보행자이다. 실제 상황에서는 전방에 적어도 하나 이상의 물체가 존재한다. 적어도 하나 이상의 차량 및 보행자는 동일한 속도로 이동하지 않을 수 있다.Here, the plurality of objects are a plurality of vehicles and pedestrians present in the front. In the actual situation, there is at least one object ahead. At least one of the vehicles and the pedestrian may not move at the same speed.
피치 모션 검출부(160)는 물체 검출부(150)에서 공급 받은 제1 프레임의 상기 제1 이미지 및 상기 제2 이미지에 기초하여, 차량의 속도 및 고도 변화에 따른 피치 모션을 검출한다. 그리고, 제1 프레임의 피치 모션 결과를 이미지 보정부(170)에 공급된다.The pitch
여기서, 피치 모션은 차량의 상하가 변화하는 경우이다. 피치 모션의 종류로서, 크게 차량의 속도 변화로 인한 고도 변화 및 과속방지턱을 지날 때 발생하는 고도 변화가 있다. 과속방지턱에 대한 차체의 상하가 유동되는 피치 모션을 검출한다. 또한, 속도 센서(130)로부터 검출된 속도 신호를 기초로 차량의 속도 변화에 대한 차체의 상하가 유동하는 피치 모션을 검출할 수 있다.Here, the pitch motion is a case where the top and bottom of the vehicle change. As a kind of pitch motion, there are largely an altitude change due to a change in the speed of the vehicle and an altitude change that occurs when passing the speed limit bust. And detects a pitch motion in which the upper and lower portions of the vehicle body move relative to the overspeed preventing jaw. Further, based on the speed signal detected from the
차량이 상하로 유동되면 카메라에서 획득된 이미지 또는 영상도 상하로 유동되지만, 레이더에서 획득된 전방의 이미지는 상하로 유동되지 않는다. 따라서, 차량이 감속, 가속하거나 또는 과속 방지턱을 지나는 경우, 차량이 상하로 유동되어 카메라에서 획득된 제1 이미지의 기준점과 레이더에서 획득된 제2 이미지의 기준점에 차이가 발생한다.If the vehicle is moving up and down, the image or image acquired from the camera also flows up and down, but the image from the front acquired from the radar does not flow up and down. Therefore, when the vehicle decelerates, accelerates, or crosses the overspeed prevention threshold, the vehicle is caused to flow up and down to cause a difference between the reference point of the first image obtained in the camera and the reference point of the second image obtained in the radar.
구체적으로, 카메라(120)의 제1 이미지 및 레이더(110)의 상기 제2 이미지의 기준점 차이를 피치 모션 검출부(160)에서 검출한다. 예를 들어, 차량이 과속방지턱을 지나가면서 상하로 흔들리는 피치 모션이 발생하는 경우, 차량에서 레이더(110)의 제2 이미지는 피치 모션과 상관없이 검출된다. 그러나, 차량이 과속방지턱을 지나가면서 상하로 흔들리는 피치 모션이 발생하는 경우, 카메라의 제1 이미지는 변화하게 된다. 카메라의 제1 이미지와 레이더의 제2 이미지의 기준점 차이가 모든 물체에 발생하면 피치 모션으로 판단한다.Specifically, the
한편, 카메라의 제1 이미지 및 레이더의 제2 이미지의 기준점 차이가 특정 물체만 발생하고, 다른 물체에서는 기준점 차이의 변화가 없는 경우에는 차량의 피치 모션이 아닌 상태, 즉, 논-피치 모션(non-pitch motion)으로 판단한다.On the other hand, when the reference point difference of the first image of the camera and the second image of the radar generates only a specific object and there is no change of the reference point difference of the other objects, a state other than the pitch motion of the vehicle, pitch motion).
여기서, 피치 모션 검출부(160)는 카메라의 제1 이미지 및 레이더의 제2 이미지의 기준점 차이가 발생한 경우, 카메라의 제1 이미지와 레이더의 제2 이미지의 기준점 차이가 복수의 물체에서 모두 검출되면 피치 모션이 발생했다고 검출한다. 그리고, 피치 모션의 검출결과는 이미지 보정부(170)에 공급된다.Here, when the reference point difference of the first image of the camera and the second image of the radar occurs, the pitch
한편, 피치 모션 검출부(160)는 상기 제1 이미지 및 제2 이미지의 기준점 차이가 복수의 물체에서 모두 발생하지 않거나, 또는 일부의 물체에서 발생하면 논-피치 모션을 검출한다. 그리고, 논 피치 모션의 검출 결과는 이미지 보정부(170)에 공급된다.On the other hand, the pitch
도 3a 및 3b는 본 발명의 실시 예에 따른 차량의 주행에 따른 피치 모션 상태 검출 과정을 나타낸 도면이다.3A and 3B are diagrams illustrating a pitch motion state detection process according to the running of a vehicle according to an embodiment of the present invention.
도 3a를 참조하면, 제1 이미지에 포함된 제1 물체의 제1 위치(310)와, 제2 이미지에 포함된 제1 물체의 제1 위치(340)를 검출한다. 그리고, 제1 이미지에서 검출된 제1 위치(310)와 제2 이미지에서 검출된 제1 위치(340)의 차이(d1)를 검출한다. 즉, 제1 이미지와 제2 이미지를 오버랩시켜 자차와 제1 물체와의 거리 차이(d1)를 검출한다.Referring to FIG. 3A, a
또한, 제1 이미지에 포함된 제2 물체의 제2 위치(320)와, 제2 이미지에 포함된 제2 물체의 제2 위치(350)를 검출한다. 그리고, 제1 이미지에서 검출된 제2 위치(320)와 제2 이미지에서 검출된 제2 위치(350)의 차이(d2)를 검출한다. 즉, 제1 이미지와 제2 이미지를 오버랩시켜 자차와 제2 물체와의 거리 차이(d2)를 검출한다.It also detects the
또한, 제1 이미지에 포함된 제3 물체의 제3 위치(330)와, 제2 이미지에 포함된 제3 물체의 제3 위치(360)를 검출한다. 그리고, 제1 이미지에서 검출된 제3 위치(330)와 제2 이미지에서 검출된 제3 위치(360)의 차이(d3)를 검출한다. 즉, 즉, 제1 이미지와 제2 이미지를 오버랩시켜 자차와 제3 물체와의 거리 차이(d3)를 검출한다. 본 발명에서는 제1 이미지와 제2 이미지의 제1 거리 차이(d1), 제2 거리 차이(d2) 및 제3 거리 차이(d3)를 기준점 차이라 정의한다. 이와 같이, 복수의 물체(예로서, 제1 물체, 제2 물체 및 제3 물체)에서 기준점 차이가 모두 발생하면 차량의 피치 모션으로 판단한다.It also detects the
도 3b을 참조하면, 복수의 물체 중, 제1 물체에서는 기준점 차이가 발생하고, 제2 물체 및 제3 물체에서는 기준점 차이가 발생하지 않으면 차량의 논-피치 모션으로 판단한다.Referring to FIG. 3B, when a reference point difference occurs in the first object among the plurality of objects, and a reference point difference does not occur in the second object and the third object, the non-pitch motion of the vehicle is determined.
다시, 도 1을 참조하면, 이미지 보정부(170)는 피치 모션 발생 시, 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이에 기초하여 제2 프레임의 제1 이미지를 보정한다. 한편, 논-피치 모션으로 판단되면 제2 프레임의 제1 이미지를 보정하지 않는다.Referring again to FIG. 1, the
여기서, 제2 프레임의 제1 이미지는 피치 모션으로 인한 기준점 차이를 의 제1 프레임의 제1 이미지를 보정한다. 즉, 제2 프레임의 제1 이미지는 피치 모션 발생 시, 제1 프레임의 제1 이미지와 상기 제2 이미지의 기준점 차이에 기초하여 보정된 것이다.Here, the first image of the second frame corrects the first image of the first frame of the reference point difference due to the pitch motion. That is, the first image of the second frame is corrected based on the reference point difference between the first image of the first frame and the second image when the pitch motion occurs.
구체적으로, 하기의 방법으로 제1 이미지를 보정할 수 있다. 상기 수학식 2을 기초로 산출된 레이더의 이미지(P)를 월드 좌표(W)로 변환하여 이미지 좌표(U)를 생성한다. 피치 모션 검출 시, 이미지 보정부(170)에서 이미지 좌표(U)를 보정하여 제2 프레임의 제1 이미지로 변환한다. 피치 모션 검출부(160)에서 상기 이미지 좌표(U)를 참조하여 논-피치 모션을 검출하면, 이미지 보정부(170)는 상기 이미지 좌표(U)를 변환하지 않는다. 즉, 제2 프레임의 제1 이미지를 보정하지 않는다.Specifically, the first image can be corrected by the following method. (P) of the radar calculated on the basis of Equation (2) into the world coordinate (W) to generate the image coordinate (U). When the pitch motion is detected, the
예로서, 이미지에서 피치 모션에 의한 픽셀 변화량을 좌표로 나타낸다. 하기의 수학식 3을 이용하여, 고도 방향(z)을 기준으로 전방 물체 거리(x)에 대한 픽셀 변화량(Δz)을 검출한다.As an example, the amount of pixel change due to pitch motion in an image is indicated by coordinates. (Z) with respect to the front object distance (x) with respect to the altitude direction (z) using the following expression (3).
[수학식 3]&Quot; (3) "
Δz = x * tan(L)? Z = x * tan (L)
상기 수학식 3에서, L는 전방 물체 거리(x)에 대한 고도 방향(z)의 기울기 각도이다.In Equation (3), L is a tilt angle of the altitude direction (z) with respect to the front object distance (x).
이이서, 하기의 수학식 4를 이용하여 이미지에서의 피치 변화량(Δv)을 검출한다. 센서 길이(f)에 픽셀 변화량(Δz)을 곱하여 얻은 결과 값을 전방 물체 거리(x)를 나누어서 피치 변화량(Δv)을 검출한다. 이후, 검출된 피치 변화량(Δv)을 이용하여 제2 프레임의 제1 이미지를 보정한다.Then, the pitch variation amount? V in the image is detected using the following expression (4). The pitch change amount? V is detected by dividing the resultant value obtained by multiplying the sensor length f by the pixel change amount? Z by the forward object distance x. Then, the first image of the second frame is corrected using the detected pitch variation amount? V.
[수학식 4]&Quot; (4) "
Δv = f * Δz / x = f * tan(L)? V = f *? Z / x = f * tan (L)
도 4a 및 도 4b는 본 발명의 실시 예에 따른 차량의 주행 지원 장치의 이미지 보정 방법을 나타내는 도면이다.4A and 4B are views showing a method of correcting an image of a driving support apparatus for a vehicle according to an embodiment of the present invention.
도 4a를 참조하면, 피치 모션이 발생한 경우, 차량을 원점으로 지정하고, 고도(z)를 기준으로 전방 물체 거리(x)에 기초하여 픽셀 변화량(Δz)을 2차원의 그래프로 변환한다.Referring to FIG. 4A, when a pitch motion occurs, the vehicle is designated as the origin, and the pixel variation amount? Z is converted into a two-dimensional graph based on the forward object distance x on the basis of the elevation z.
이어서, 도 4b를 참조하면, 픽셀 변화량(Δz)을 영상 좌표계로 변환하여 이미지에서의 피치 변화량(Δv)으로 변환한다.Next, referring to FIG. 4B, the pixel change amount? Z is converted into an image coordinate system and converted into a pitch change amount? V in the image.
자차와 복수의 물체 사이의 거리가 상이할 때, 피치 모션이 발생하면 자차와 가장 근접한 물체의 이미지 변화가 가장 크게 된다. 따라서, 본 발명에서 기준점 차이가 가장 큰 물체는 자차와 가장 근접한 물체라고 판단할 수 있다.When the distance between the car and the object is different, when the pitch motion occurs, the image change of the object closest to the car is the largest. Therefore, in the present invention, the object having the greatest reference point difference can be determined as the object closest to the vehicle.
이미지 보정부(170)는 관심 영역에 포함된 복수의 물체 중 자차와 가장 근접한 물체를 기준으로 제2 프레임의 제1 이미지를 보정한다. The
또한, 이미지 보정부(170)는 상기 제1 프레임에서 복수의 물체 각각에 대해서 제1 이미지와 제2 이미지의 기준점 차이를 산출하고, 상기 복수의 물체 중 기준점 차이가 가장 큰 물체를 기준으로 제2 프레임의 제1 이미지를 보정할 수 있다. 여기서, 기준점 차이가 가장 크다는 것은 자차와 전방에 위한 차량, 물체 또는 보행자의 고도 차이 또는 거리 차이의 변화가 크다는 것을 의미한다.In addition, the
이어서, 제어부(180)는 이미지 보정부(170)에서 생성된 상기 제2 프레임의 제1 이미지에 기초하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어하고 돌발 상황에 대처할 수 있다. 예를 들면, 학교 주변도로의 과속방지턱으로 인해 피치 모션의 상황인 경우에 어린 아이(보행자)가 전방에 레이더(110) 및 카메라(120)를 기초로 이미지가 검출 시 제어부(180)에서 피치 모션 상황에도 주행 지원을 보조하여 어린 아이(보행자) 및 운전자에 대한 안전을 지원한다.Then, the
이와 같이, 자차와 가장 근접한 물체를 기준으로 차량의 피치 모션 시, 돌발 상황을 대처하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어할 수 있다. 이를 통해, 자차, 전방 차량 및 보행자의 안전을 확보할 수 있다. 또한, 기준점 차이가 가장 큰 물체를 기준으로 제2 프레임의 제1 이미지를 보정하여 차량의 피치 모션 시 돌발 상황을 대처하면 주행 시 안전을 확보할 수 있다.In this manner, the speed, steering, and damper of the vehicle can be controlled by coping with an unexpected situation at the pitch motion of the vehicle based on the object closest to the vehicle. This makes it possible to secure the safety of the car, the front vehicle, and the pedestrian. In addition, by correcting the first image of the second frame on the basis of the object with the largest reference point difference, coping with the unexpected situation in the pitch motion of the vehicle can secure safety during traveling.
상술한 본 발명의 실시 예에 따른 차량의 주행 지원 장치는 카메라의 제1 이미지와 레이더의 제2 이미지를 이용하여 관심 영역을 설정하고, 관심 영역에 위치하는 복수의 물체를 검출하여 전방의 차량 및 보행자의 위치를 알 수 있다.The apparatus for supporting travel of a vehicle according to an embodiment of the present invention sets a region of interest using a first image of a camera and a second image of a radar, detects a plurality of objects located in a region of interest, The position of the pedestrian can be known.
또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치는 제1 프레임에서 피치 모션이 발생 시, 카메라 이미지와 레이더 이미지의 기준점 차이를 산출하고, 상기 제1 프레임에서 산출된 기준점 차이에 기초하여 제2 프레임의 카메라 이미지를 보정할 수 있다.The apparatus for supporting travel of a vehicle according to an embodiment of the present invention calculates a reference point difference between a camera image and a radar image when a pitch motion occurs in a first frame, It is possible to correct the camera image of two frames.
또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치는 피치 모션에 따른 이미지를 검출 시, 복수의 물체 중 가장 근접한 물체를 기준으로 차량의 속도, 조향 및 댐퍼(Damper)을 제어하여 피치 모션이 발생하더라도 운전자에게 안정감을 제공할 수 있다.In addition, when detecting an image according to the pitch motion, the running support apparatus of a vehicle according to an embodiment of the present invention controls the speed, steering, and damper of the vehicle based on the closest object among a plurality of objects, It is possible to provide a sense of stability to the driver even if it occurs.
또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치는 카메라의 제1 이미지와 레이더의 제2 이미지의 기준점 차이가 가장 큰 물체를 기준으로 차량의 속도, 조향 및 댐퍼(Damper)을 제어하여 피치 모션이 발생해도 운전자에게 안정감을 제공할 수 있다.In addition, the driving support apparatus for a vehicle according to an embodiment of the present invention controls a speed, a steering, and a damper of a vehicle based on an object having a largest reference point difference between a first image of the camera and a second image of the radar, It is possible to provide the driver with a sense of stability even when motion occurs.
도 5는 본 발명의 실시 예에 따른 차량의 주행 지원 장치의 구동 방법을 나타내는 도면이다. 이하, 도 1 내지 도 5를 결부하여 본 발명의 실시 예에 따른 차량의 주행 지원 방법을 설명하기로 한다.5 is a diagram illustrating a driving method of a driving support apparatus for a vehicle according to an embodiment of the present invention. Hereinafter, a driving support method of a vehicle according to an embodiment of the present invention will be described with reference to FIGS. 1 to 5. FIG.
카메라(120)는 실시간으로 전방을 촬영하여 프레임 단위로 제1 이미지를 생성한다. 그리고, 레이더(110)는 전방의 하나 이상의 물체와 자차와의 거리를 검출하고, 프레임 단위로 거리 정보를 생성한다(S1). 이때, 카메라(120)는 프레임 단위로 제1 이미지를 생성하고, 레이더(110) 또한 프레임 단위로 거리 정보를 생성한다. 카메라(120)에서 생성된 제1 이미지 및 레이더(110)에서 생성된 거리 정보는 관심 영역 설정부(140)에 공급된다. The
이어서, 속도 센서(130)는 차량의 속도 변화를 검출하고, 속도의 변화를 기초로 속도 신호를 생성한다(S2). 속도 센서(130)에서 생성된 속도 신호는 피치 모션 검출부(160)에 공급된다.Then, the
이어서, 관심 영역 설정부(140)는 제1 프레임의 거리 정보를 제2 이미지로 변환하고, 제1 프레임의 제1 이미지 및 제2 이미지에 기초하여 관심 영역을 설정한다(S3). 관심 영역 설정부(140)에서 설정된 관심 영역은 물체 검출부(150)에 공급된다.Then, the region-of-
수학식 2을 기초하여
관심 영역을 설정하는 방법을 구체적으로 설명하면, 레이더(110)는 영상 좌표계를 사용한다. 로 이루어진 좌표계를 상기 수학식 1에 기초하여 영상 좌표계로 변환한다. 이후, 영상 좌표계를 상기 수학식 2에 이용하여 영상 좌표로 변환한다. 이때, 상기 수학식 2에서 고도 방향(z)은 0(zero)인 것으로 가정한다.A method of setting an area of interest based on Equation (2) will be described in detail. The
레이더의 이미지(P)는 고유 파라미터(K)와 거리(R) 및 입체변환(T)을 산출하여 생성된다.The image P of the radar is generated by calculating the intrinsic parameter K, the distance R and the stereoscopic transformation T. [
도 2를 결부하여 설명하면, 전방의 물체의 거리를 x축으로 설정하고, 상기 수학식 2를 기초에 기초하여, 레이더(110)의 길이()에 물체의 높이(H)를 곱하여 얻은 결과 값을 거리(d)로 나누어 자차(210)로부터 일정 거리(d)에 위치하는 차량의 높이(H)를 산출한다. 한편, 물체의 높이(H)는 차량 시 대략 1m에서 3m 내외이고, 보행자 시 대략 0.8m에서 2m내외이다. 도 2b를 참조하면, 전방 물체(220)의 너비를 y축으로 두고 상기 수학식 2를 기초로 레이더(110)의 너비()에 전방 물체(220)의 너비(W2) 곱한다. 그리고, 거리(d)를 나눈 값을 픽셀로 변환한 너비(W1)를 산출한다. 전방 물체(220)의 너비(W2)는 차량 시 대략 1.5m에서 2.5m내외이고, 보행자 시 대략 0.5m에서 1.5m내외이다.2, the distance of the front object is set as the x-axis, and the length of the radar 110 ( The vehicle height H is calculated by dividing the resultant value obtained by multiplying the vehicle height H by the height H of the object by the distance d. On the other hand, the height (H) of the object is about 3m to about 1m at the time of the vehicle, and about 2m to about 0.8m at the time of the pedestrian. Referring to FIG. 2B, the width of the
물체 검출부(150)는 관심 영역 설정부(140)에서 검출된 상기 관심 영역을 기초로 상기 관심 영역에 위치하는 복수의 물체를 검출한다(S4). 그리고 검출된 상기 제1 이미지 및 상기 제2 이미지는 피치 모션 검출부(160)에 공급된다.The
또한, 물체 검출부(150)는 복수의 물체와 자차와의 거리를 산출하고 자차와 복수의 물체와의 거리에 기초하여, 제1 프레임에서 자차와 가장 근접한 물체를 검출한다.Further, the
여기서, 복수의 물체는 전방에 존재하는 다수의 차량 및 보행자이다. 실제 상황에서는 전방에 적어도 하나 이상의 물체가 존재한다. 적어도 하나 이상의 차량 및 보행자는 동일한 속도로 이동하지 않을 수 있다.Here, the plurality of objects are a plurality of vehicles and pedestrians present in the front. In the actual situation, there is at least one object ahead. At least one of the vehicles and the pedestrian may not move at the same speed.
이어서, 피치 모션 검출부(160)는 물체 검출부(150)에서 공급 받은 상기 제1 이미지 및 제2 이미지를 기초로 차량의 속도 및 고도 변화에 따른 피치 모션을 검출한다(S5).Next, the
피치 모션의 종류로서, 차량의 속도 변화로 인한 고도 변화 및 과속방지턱을 지날 때 발생하는 고도 변화가 있다. 과속방지턱에 대한 차체의 상하가 유동되는 피치 모션을 검출한다. 또한, 속도 센서(130)로부터 검출된 속도 신호를 기초로 차량의 속도 변화에 대한 차체의 상하가 유동하는 피치 모션을 검출할 수 있다.As a kind of pitch motion, there is an altitude change due to a change in the speed of the vehicle and an altitude change that occurs when the speed exceeds the speed limit bust. And detects a pitch motion in which the upper and lower portions of the vehicle body move relative to the overspeed preventing jaw. Further, based on the speed signal detected from the
구체적으로, 카메라(120)의 제1 이미지 및 레이더(110)의 상기 제2 이미지의 기준점 차이를 피치 모션 검출부(160)에서 검출한다. 예를 들어, 차량이 과속방지턱을 지나가면서 상하로 흔들리는 피치 모션이 발생하는 경우, 차량에서 레이더(110)의 제2 이미지는 피치 모션과 상관없이 검출된다. 그러나, 차량이 과속방지턱을 지나가면서 상하로 흔들리는 피치 모션이 발생하는 경우, 카메라의 제1 이미지는 변화하게 된다. 카메라의 제1 이미지와 레이더의 제2 이미지의 기준점 차이가 모든 물체에 발생하면 피치 모션으로 판단한다.Specifically, the
한편, 카메라의 제1 이미지 및 레이더의 제2 이미지의 기준점 차이가 특정 물체만 발생하고, 다른 물체에서는 기준점 차이의 변화가 없는 경우에는 차량의 피치 모션이 아닌 상태, 즉, 논-피치 모션(non-pitch motion)으로 판단한다.On the other hand, when the reference point difference of the first image of the camera and the second image of the radar generates only a specific object and there is no change of the reference point difference of the other objects, a state other than the pitch motion of the vehicle, pitch motion).
여기서, 피치 모션 검출부(160)는 카메라의 제1 이미지 및 레이더의 제2 이미지의 기준점 차이가 발생한 경우, 카메라의 제1 이미지와 레이더의 제2 이미지의 기준점 차이가 복수의 물체에서 모두 검출되면 피치 모션이 발생했다고 검출한다. 그리고, 피치 모션의 검출결과는 이미지 보정부(170)에 공급된다.Here, when the reference point difference of the first image of the camera and the second image of the radar occurs, the pitch
한편, 피치 모션 검출부(160)는 상기 제1 이미지 및 제2 이미지의 기준점 차이가 복수의 물체에서 모두 발생하지 않거나, 또는 일부의 물체에서 발생하면 논-피치 모션을 검출한다. 그리고, 논 피치 모션의 검출 결과는 이미지 보정부(170)에 공급된다.On the other hand, the pitch
도 3a를 참조하면, 제1 이미지에 포함된 제1 물체의 제1 위치(310)와, 제2 이미지에 포함된 제1 물체의 제1 위치(340)를 검출한다. 그리고, 제1 이미지에서 검출된 제1 위치(310)와 제2 이미지에서 검출된 제1 위치(340)의 차이(d1)를 검출한다. 즉, 제1 이미지와 제2 이미지를 오버랩시켜 자차와 제1 물체와의 거리 차이(d1)를 검출한다.Referring to FIG. 3A, a
또한, 제1 이미지에 포함된 제2 물체의 제2 위치(320)와, 제2 이미지에 포함된 제2 물체의 제2 위치(350)를 검출한다. 그리고, 제1 이미지에서 검출된 제2 위치(320)와 제2 이미지에서 검출된 제2 위치(350)의 차이(d2)를 검출한다. 즉, 제1 이미지와 제2 이미지를 오버랩시켜 자차와 제2 물체와의 거리 차이(d2)를 검출한다.It also detects the
또한, 제1 이미지에 포함된 제3 물체의 제3 위치(330)와, 제2 이미지에 포함된 제3 물체의 제3 위치(360)를 검출한다. 그리고, 제1 이미지에서 검출된 제3 위치(330)와 제2 이미지에서 검출된 제3 위치(360)의 차이(d3)를 검출한다. 즉, 즉, 제1 이미지와 제2 이미지를 오버랩시켜 자차와 제3 물체와의 거리 차이(d3)를 검출한다. 본 발명에서는 제1 이미지와 제2 이미지의 제1 거리 차이(d1), 제2 거리 차이(d2) 및 제3 거리 차이(d3)를 기준점 차이라 정의한다. 이와 같이, 복수의 물체(예로서, 제1 물체, 제2 물체 및 제3 물체)에서 기준점 차이가 모두 발생하면 차량의 피치 모션으로 판단한다.It also detects the
도 3b을 참조하면, 복수의 물체 중, 제1 물체에서는 기준점 차이가 발생하고, 제2 물체 및 제3 물체에서는 기준점 차이가 발생하지 않으면 차량의 논-피치 모션으로 판단한다.Referring to FIG. 3B, when a reference point difference occurs in the first object among the plurality of objects, and a reference point difference does not occur in the second object and the third object, the non-pitch motion of the vehicle is determined.
상기 S5에서 피치 모션이 검출되면, 즉, 상기 제1 이미지와 상기 제2 이미지의 차이가 복수의 물체에서 모두 검출되면 피치 모션이 발생한 것으로 판단한다. 그리고, 상기 검출된 피치 모션의 발생 정보를 이미지 보정부(170)에 공급한다.When the pitch motion is detected in S5, that is, when the difference between the first image and the second image is detected in all of the plurality of objects, it is determined that pitch motion has occurred. The detected pitch motion generation information is supplied to the
이어서, 이미지 보정부(170)는 피치 모션 검출 시, 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이에 기초하여 제2 프레임의 제1 이미지를 보정한다(S6).Next, in the pitch motion detection, the
상기 수학식 2을 기초로 산출된 레이더의 이미지(P)를 월드 좌표(W)로 변환하여 이미지 좌표(U)를 생성한다. 피치 모션 검출 시, 이미지 보정부(170)에서 이미지 좌표(U)를 보정하여 제2 프레임의 제1 이미지로 변환한다. 피치 모션 검출부(160)에서 상기 이미지 좌표(U)를 참조하여 논-피치 모션을 검출하면, 이미지 보정부(170)는 상기 이미지 좌표(U)를 변환하지 않는다. 즉, 제2 프레임의 제1 이미지를 보정하지 않는다.(P) of the radar calculated on the basis of Equation (2) into the world coordinate (W) to generate the image coordinate (U). When the pitch motion is detected, the
예로서, 이미지에서 피치 모션에 의한 픽셀 변화량을 좌표로 나타낸다. 상기 수학식 3을 이용하여, 고도 방향(z)을 기준으로 전방 물체 거리(x)에 대한 픽셀 변화량(Δz)을 검출한다.As an example, the amount of pixel change due to pitch motion in an image is indicated by coordinates. Using the above equation (3), the pixel variation amount? Z with respect to the front object distance (x) is detected based on the altitude direction (z).
이어서, 상기 수학식 4를 이용하여 이미지에서의 피치 변화량(Δv)을 검출한다. 센서 길이(f)에 픽셀 변화량(Δz)을 곱하여 얻은 결과 값을 전방 물체 거리(x)를 나누어서 피치 변화량(Δv)을 검출한다. . 이후, 검출된 피치 변화량(Δv)을 이용하여 제2 프레임의 제1 이미지를 보정한다.Next, the pitch variation amount? V in the image is detected using the equation (4). The pitch change amount? V is detected by dividing the resultant value obtained by multiplying the sensor length f by the pixel change amount? Z by the forward object distance x. . Then, the first image of the second frame is corrected using the detected pitch variation amount? V.
도 4a를 결부하여 설명하면, 피치 모션이 발생한 경우, 차량을 원점으로 지정하고, 고도(z)를 기준으로 전방 물체 거리(x)에 기초하여 픽셀 변화량(Δz)을 2차원의 그래프로 변환한다.4A, when the pitch motion occurs, the vehicle is designated as the origin, and the pixel variation amount? Z is converted into a two-dimensional graph based on the forward object distance x on the basis of the altitude z .
이어서, 도 4b를 참조하면, 픽셀 변화량(Δz)을 영상 좌표계로 변환하여 이미지에서의 피치 변화량(Δv)으로 변환한다.Next, referring to FIG. 4B, the pixel change amount? Z is converted into an image coordinate system and converted into a pitch change amount? V in the image.
자차와 복수의 물체 사이의 거리가 상이할 때, 피치 모션이 발생하면 자차와 가장 근접한 물체의 이미지 변화가 가장 크게 된다. 따라서, 본 발명에서 기준점 차이가 가장 큰 물체는 자차와 가장 근접한 물체라고 판단할 수 있다.When the distance between the car and the object is different, when the pitch motion occurs, the image change of the object closest to the car is the largest. Therefore, in the present invention, the object having the greatest reference point difference can be determined as the object closest to the vehicle.
한편, 상기 S5에서, 복수의 물체 중, 제1 물체에서는 기준점 차이가 발생하고, 제2 물체 및 제3 물체에서는 기준점 차이가 발생하지 않으면 차량의 논-피치 모션으로 판단한다.On the other hand, if the reference point difference occurs in the first object among the plurality of objects and the reference point difference does not occur in the second and third objects, the non-pitch motion of the vehicle is determined.
이어서, 이미지 보정부(170)는 상기 S6에서 검출된 상기 피치 모션을 기초하여, 제2 프레임의 제1 이미지로 변환한다. 한편, 논-피치 모션으로 판단되면 제2 프레임의 제1 이미지를 보정하지 않는다(S7).Subsequently, the
하기의 방법으로 제1 이미지를 보정할 수 있다. 상기 수학식 2을 기초로 산출된 레이더의 이미지(P)를 월드 좌표(W)로 변환하여 이미지 좌표(U)를 생성한다. 피치 모션 검출 시, 이미지 보정부(170)에서 이미지 좌표(U)를 보정하여 제2 프레임의 제1 이미지로 변환한다.
피치 모션 검출부(160)에서 상기 이미지 좌표(U)를 참조하여 논-피치 모션을 검출하면, 이미지 보정부(170)는 상기 이미지 좌표(U)를 변환하지 않는다. 즉, 제2 프레임의 제1 이미지를 보정하지 않는다.The first image can be corrected by the following method. (P) of the radar calculated on the basis of Equation (2) into the world coordinate (W) to generate the image coordinate (U). When the pitch motion is detected, the
자차와 복수의 물체 사이의 거리가 상이할 때, 피치 모션이 발생하면 자차와 가장 근접한 물체의 이미지 변화가 가장 크게 된다. 따라서, 본 발명에서 기준점 차이가 가장 큰 물체는 자차와 가장 근접한 물체라고 판단할 수 있다. 이미지 보정부(170)는 관심 영역에 포함된 복수의 물체 중 자차와 가장 근접한 물체를 기준으로 제2 프레임의 제1 이미지를 보정한다.When the distance between the car and the object is different, when the pitch motion occurs, the image change of the object closest to the car is the largest. Therefore, in the present invention, the object having the greatest reference point difference can be determined as the object closest to the vehicle. The
또한, 이미지 보정부(170)는 상기 제1 프레임에서 복수의 물체 각각에 대해서 제1 이미지와 제2 이미지의 기준점 차이를 산출하고, 상기 복수의 물체 중 기준점 차이가 가장 큰 물체를 기준으로 제2 프레임의 제1 이미지를 보정할 수 있다. 여기서, 기준점 차이가 가장 크다는 것은 자차와 전방에 위한 차량, 물체 또는 보행자의 고도 차이 또는 거리 차이의 변화가 크다는 것을 의미한다.In addition, the
이어서, 제어부(180)는 이미지 보정부(170)에서 보정된 상기 제2 프레임의 제1 이미지에 기초하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어한다(S8). 피치 모션 검출 시 상기 제2 프레임의 제1 이미지로 공급받은 제어부(180)에서 차량의 속도, 조향 및 댐퍼(Damper)을 제어하는 방법과 논-피치 모션 검출 시 상기 이미지로 공급받은 제어부(180)에서 차량의 속도, 조향 및 댐퍼(Damper)을 제어하는 방법은 돌발 상황에 대처할 수 있다. 예를 들면, 학교 주변도로의 과속방지턱으로 인해 피치 모션의 상황인 경우에 어린 아이(보행자)가 전방에 레이더(110) 및 카메라(120)를 기초로 이미지가 검출될 경우 제어부(180)에서 피치 모션 상황에도 주행 지원을 보조하여 어린 아이(보행자) 및 운전자에 대한 안전을 지원한다.Then, the
이와 같이, 자차와 가장 근접한 물체를 기준으로 차량의 피치 모션 시, 돌발 상황을 대처하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어할 수 있다. 이를 통해, 차량 주행 시 안전을 확보할 수 있다. 또한, 기준점 차이가 가장 큰 물체를 기준으로 제2 프레임의 제1 이미지를 보정하여 차량의 피치 모션 시 돌발 상황을 대처하면 차량 주행 시 안전을 확보할 수 있다. 상술한 본 발명의 실시 예에 따른 차량의 주행 지원 장치의 구동 방법은 카메라의 제1 이미지와 레이더의 제2 이미지를 이용하여 관심 영역을 설정하고, 관심 영역에 위치하는 복수의 물체를 검출하여 전방의 차량 및 보행자의 위치를 알 수 있다.In this manner, the speed, steering, and damper of the vehicle can be controlled by coping with an unexpected situation at the pitch motion of the vehicle based on the object closest to the vehicle. This makes it possible to secure safety when driving the vehicle. Further, if the first image of the second frame is corrected based on the object having the largest difference of the reference point, and the unexpected situation occurs during the pitch motion of the vehicle, safety can be secured when driving the vehicle. A driving method of a driving support device for a vehicle according to an embodiment of the present invention sets a region of interest using a first image of a camera and a second image of a radar and detects a plurality of objects located in a region of interest The position of the vehicle and the pedestrian of the vehicle can be known.
또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치의 구동 방법은 제1 프레임에서 피치 모션이 발생 시, 카메라 이미지와 레이더 이미지의 기준점 차이를 산출하고, 상기 제1 프레임에서 산출된 기준점 차이에 기초하여 제2 프레임의 카메라 이미지를 보정할 수 있다.According to another aspect of the present invention, there is provided a method of driving a driving support apparatus for a vehicle, the method comprising: calculating a reference point difference between a camera image and a radar image when a pitch motion occurs in a first frame; The camera image of the second frame can be corrected.
또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치의 구동 방법은 피치 모션에 따른 이미지를 검출 시, 복수의 물체 중 가장 근접한 물체를 기준으로 차량의 속도, 조향 및 댐퍼(Damper)을 제어하여 피치 모션이 발생하더라도 운전자에게 안정감을 제공할 수 있다.In the driving method of a driving support device for a vehicle according to an embodiment of the present invention, when an image according to a pitch motion is detected, speed, steering, and damper of the vehicle are controlled based on the closest object among a plurality of objects It is possible to provide the driver with a sense of stability even when the pitch motion occurs.
또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치의 구동 방법은 카메라의 제1 이미지와 레이더의 제2 이미지의 기준점 차이가 가장 큰 물체를 기준으로 차량의 속도, 조향 및 댐퍼(Damper)을 제어하여 피치 모션이 발생해도 운전자에게 안정감을 제공할 수 있다.In addition, the driving method of a driving support device for a vehicle according to an embodiment of the present invention is a method for driving a driving support device for a vehicle, including a speed, a steering and a damper of a vehicle based on an object having a largest difference between a first image of the camera and a second image of the radar It is possible to provide the driver with a sense of stability even if the pitch motion occurs.
본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있으므로, 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention as defined by the following claims and their equivalents. Only. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.
110: 레이더
120: 카메라
130: 속도 센서
140: 관심 영역 설정부
150: 물체 검출부
160: 피치 모션 검출부
170: 이미지 보정부
180: 제어부
210: 자차
220: 전방 물체
310: 제1 물체의 제1 위치
320: 제2 물체의 제2 위치
330: 제3 물체의 제3 위치
340: 제1 물체의 제1 위치
350: 제2 물체의 제2 위치
360: 제3 물체의 제3 위치110: Radar
120: camera
130: Speed sensor
140: Interest area setting section
150: Object detection unit
160: pitch motion detector
170: image correction unit
180:
210: Car
220: forward object
310: first position of the first object
320: second position of the second object
330: Third position of the third object
340: first position of the first object
350: second position of the second object
360: Third position of the third object
Claims (10)
실시간으로 전방을 촬영하여 프레임 단위로 제1 이미지를 생성하는 카메라;
제1 프레임의 거리 정보를 제2 이미지로 변환하고,
상기 제1 프레임의 제1 이미지 및 제2 이미지에 기초하여 관심 영역을 설정하는 관심 영역 설정부;
상기 관심 영역에 위치하는 복수의 물체를 검출하는 물체 검출부;
차량의 속도 및 고도 변화에 따른 피치 모션을 검출하는 피치 모션 검출부;
피치 모션 발생 시, 상기 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이에 기초하여 제2 프레임의 제1 이미지를 보정하는 이미지 보정부;
보정된 제2 프레임의 제1 이미지에 기초하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어하는 제어부;를 포함하는 차량의 주행 지원 장치.A radar for detecting a distance between at least one object ahead of the vehicle and the vehicle in real time and generating distance information on a frame-by-frame basis;
A camera for capturing a forward image in real time to generate a first image in frame units;
Converts the distance information of the first frame into a second image,
A region of interest setting unit that sets a region of interest based on the first image and the second image of the first frame;
An object detecting unit that detects a plurality of objects located in the ROI;
A pitch motion detector for detecting a pitch motion according to a change in vehicle speed and altitude;
An image correcting unit correcting a first image of a second frame based on a reference point difference between the first image and the second image of the first frame when the pitch motion occurs;
And a controller for controlling a speed, a steering, and a damper of the vehicle based on the first image of the corrected second frame.
상기 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이를 검출하고, 상기 기준점 차이에 기초하여 피치 모션을 검출하는 차량의 주행 지원 장치.The apparatus of claim 1, wherein the pitch motion detector comprises:
Detecting a reference point difference between the first image and the second image of the first frame, and detecting the pitch motion based on the reference point difference.
상기 제1 프레임에서 복수의 물체와 자차와의 거리를 산출하는 차량의 주행 지원 장치.The apparatus according to claim 1,
And calculates the distance between the plurality of objects and the vehicle in the first frame.
상기 복수의 물체 중 자차와 가장 근접한 물체를 기준으로 제2 프레임의 제1 이미지를 보정하는 차량의 주행 지원 장치. The image processing apparatus according to claim 3,
And corrects the first image of the second frame based on an object closest to the vehicle among the plurality of objects.
상기 제1 프레임에서 복수의 물체 각각에 대해서 상기 제1 이미지와 상기 제2 이미지의 기준점 차이를 산출하고,
상기 복수의 물체 중 기준점 차이가 가장 큰 물체를 기준으로 이미지를 보정하는 차량의 주행 지원 장치.The image processing apparatus according to claim 1,
Calculating a reference point difference between the first image and the second image for each of a plurality of objects in the first frame,
And corrects the image based on an object having the largest reference point difference among the plurality of objects.
실시간으로 전방의 하나 이상의 물체와 자차와의 거리를 검출하여 프레임 단위로 거리 정보를 생성하는 단계;
제1 프레임의 거리 정보를 제2 이미지로 변환하고, 상기 제1 프레임의 제1 이미지 및 제2 이미지에 기초하여 관심 영역을 설정하는 단계;
상기 관심 영역에 위치하는 복수의 물체를 검출하는 단계;
차량의 속도 및 고도 변화에 따른 피치 모션을 검출하는 단계;
피치 모션 발생 시, 상기 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이에 기초하여 제2 프레임의 제1 이미지를 보정하는 단계;
보정된 제2 프레임의 제1 이미지에 기초하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어하는 단계;를 포함하는 차량의 주행 지원 장치의 구동 방법.Capturing a forward image in real time to generate a first image in frame units;
Detecting distance between at least one object ahead and a vehicle in real time and generating distance information on a frame basis;
Converting the distance information of the first frame to a second image, and setting a region of interest based on the first image and the second image of the first frame;
Detecting a plurality of objects located in the region of interest;
Detecting pitch motion in accordance with a change in vehicle speed and altitude;
Correcting the first image of the second frame based on the reference point difference of the first image and the second image of the first frame when the pitch motion occurs;
And controlling a speed, a steering, and a damper of the vehicle based on the first image of the corrected second frame.
상기 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이를 검출하고, 상기 기준점 차이에 기초하여 피치 모션을 검출하는 차량의 주행 지원 장치의 구동 방법.7. The method of claim 6, wherein in the step of detecting pitch motion,
Detecting a reference point difference between the first image and the second image of the first frame and detecting the pitch motion based on the reference point difference.
상기 제1 프레임에서 복수의 물체와 자차와의 거리를 산출하는 차량의 주행 지원 장치의 구동 방법.The method according to claim 6, wherein, in the step of detecting the plurality of objects,
And calculates the distance between the plurality of objects and the vehicle in the first frame.
상기 복수의 물체 중 자차와 가장 근접한 물체를 기준으로 제2 프레임의 제1 이미지를 보정하는 차량의 주행 지원 장치의 구동 방법.9. The method of claim 8, wherein in the image correction step,
And corrects the first image of the second frame based on an object closest to the child of the plurality of objects.
상기 제1 프레임에서 복수의 물체 각각에 대해서 상기 제1 이미지와 상기 제2 이미지의 기준점 차이를 산출하고, 상기 복수의 물체 중 기준점 차이가 가장 큰 물체를 기준으로 이미지를 보정하는 차량의 주행 지원 장치의 구동 방법.7. The method of claim 6, wherein in the image correction step,
Wherein the control unit calculates a reference point difference between the first image and the second image for each of a plurality of objects in the first frame and corrects the image based on an object having the largest reference point difference among the plurality of objects, .
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020160165057A KR102494260B1 (en) | 2016-12-06 | 2016-12-06 | Driving Support Apparatus Of Vehicle And Driving Method Thereof |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020160165057A KR102494260B1 (en) | 2016-12-06 | 2016-12-06 | Driving Support Apparatus Of Vehicle And Driving Method Thereof |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20180064775A true KR20180064775A (en) | 2018-06-15 |
| KR102494260B1 KR102494260B1 (en) | 2023-02-03 |
Family
ID=62628815
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020160165057A Active KR102494260B1 (en) | 2016-12-06 | 2016-12-06 | Driving Support Apparatus Of Vehicle And Driving Method Thereof |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102494260B1 (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20200052589A (en) * | 2018-11-07 | 2020-05-15 | 현대자동차주식회사 | Apparatus and method for removing misrecognition of front vehicle and vehicle including the same |
| WO2020145440A1 (en) * | 2019-01-11 | 2020-07-16 | 엘지전자 주식회사 | Electronic device for vehicle and operation method of electronic device for vehicle |
| KR20200098774A (en) * | 2019-02-12 | 2020-08-21 | 주식회사 만도 | Vehicle and method for controlling the same |
| KR20210006558A (en) * | 2019-07-08 | 2021-01-19 | 현대자동차주식회사 | Method and system for calibrating road surface information detected electronic control suspension |
| KR20210008981A (en) * | 2019-07-15 | 2021-01-26 | 현대자동차주식회사 | Apparatus and method for driving control of vehicle |
| KR20220097569A (en) * | 2020-12-30 | 2022-07-08 | 아진산업(주) | Apparatus for detecting passenger in a vehicle and method thereof |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4434296B1 (en) * | 2008-09-05 | 2010-03-17 | トヨタ自動車株式会社 | Object detection device |
| JP2015041265A (en) * | 2013-08-22 | 2015-03-02 | 株式会社デンソー | Target detection device and program |
-
2016
- 2016-12-06 KR KR1020160165057A patent/KR102494260B1/en active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4434296B1 (en) * | 2008-09-05 | 2010-03-17 | トヨタ自動車株式会社 | Object detection device |
| JP2015041265A (en) * | 2013-08-22 | 2015-03-02 | 株式会社デンソー | Target detection device and program |
Non-Patent Citations (1)
| Title |
|---|
| 대한민국 공개특허번호: 10-2014-0123270(레이더 장치 및 영상 맵핑(mapping) 을 이용한 물체 감지 장치, 방법 및 시스템) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20200052589A (en) * | 2018-11-07 | 2020-05-15 | 현대자동차주식회사 | Apparatus and method for removing misrecognition of front vehicle and vehicle including the same |
| WO2020145440A1 (en) * | 2019-01-11 | 2020-07-16 | 엘지전자 주식회사 | Electronic device for vehicle and operation method of electronic device for vehicle |
| KR20200098774A (en) * | 2019-02-12 | 2020-08-21 | 주식회사 만도 | Vehicle and method for controlling the same |
| KR20210006558A (en) * | 2019-07-08 | 2021-01-19 | 현대자동차주식회사 | Method and system for calibrating road surface information detected electronic control suspension |
| KR20210008981A (en) * | 2019-07-15 | 2021-01-26 | 현대자동차주식회사 | Apparatus and method for driving control of vehicle |
| KR20220097569A (en) * | 2020-12-30 | 2022-07-08 | 아진산업(주) | Apparatus for detecting passenger in a vehicle and method thereof |
Also Published As
| Publication number | Publication date |
|---|---|
| KR102494260B1 (en) | 2023-02-03 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102494260B1 (en) | Driving Support Apparatus Of Vehicle And Driving Method Thereof | |
| JP4801821B2 (en) | Road shape estimation device | |
| JP6511406B2 (en) | Calibration system, calibration device | |
| CN109131067B (en) | Tripod self-propelled vehicle and obstacle avoidance method thereof | |
| US20160019429A1 (en) | Image processing apparatus, solid object detection method, solid object detection program, and moving object control system | |
| JP4433887B2 (en) | Vehicle external recognition device | |
| KR101991611B1 (en) | Apparatus and method for setting stop position | |
| WO2016092591A1 (en) | Collision risk calculation device, collision risk display device, and vehicle body control device | |
| US9734719B2 (en) | Method and apparatus for guiding a vehicle in the surroundings of an object | |
| JP6787157B2 (en) | Vehicle control device | |
| JP6856452B2 (en) | Target judgment device and driving support system | |
| KR20180055292A (en) | Integration method for coordinates of multi lidar | |
| JP2005209019A (en) | Obstacle detection device, method and program | |
| WO2019031137A1 (en) | Roadside object detection device, roadside object detection method, and roadside object detection system | |
| WO2017154389A1 (en) | Image processing device, imaging device, mobile apparatus control system, image processing method, and program | |
| US20240383479A1 (en) | Vehicular sensing system with lateral threat assessment | |
| JP7261588B2 (en) | Traffic light recognition method and traffic light recognition device | |
| JP6493000B2 (en) | Road marking detection device and road marking detection method | |
| JP5792378B2 (en) | Method, apparatus and computer program for controlling the light emission of at least one headlight of a vehicle | |
| JP5974718B2 (en) | Vehicle travel support device and vehicle travel support method | |
| JP7236849B2 (en) | External recognition device | |
| JP6489645B2 (en) | Image processing device | |
| JP2014167397A (en) | Inter-vehicle distance calculation device and motion controlling method for the same | |
| JP2010018223A (en) | Device for detecting vehicle traveling road surface | |
| KR102376203B1 (en) | Providing method for autonomous vehicle control system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| R17-X000 | Change to representative recorded |
St.27 status event code: A-3-3-R10-R17-oth-X000 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
| A201 | Request for examination | ||
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
| N231 | Notification of change of applicant | ||
| PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
| PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |