+

KR20180064775A - Driving Support Apparatus Of Vehicle And Driving Method Thereof - Google Patents

Driving Support Apparatus Of Vehicle And Driving Method Thereof Download PDF

Info

Publication number
KR20180064775A
KR20180064775A KR1020160165057A KR20160165057A KR20180064775A KR 20180064775 A KR20180064775 A KR 20180064775A KR 1020160165057 A KR1020160165057 A KR 1020160165057A KR 20160165057 A KR20160165057 A KR 20160165057A KR 20180064775 A KR20180064775 A KR 20180064775A
Authority
KR
South Korea
Prior art keywords
image
frame
vehicle
pitch motion
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020160165057A
Other languages
Korean (ko)
Other versions
KR102494260B1 (en
Inventor
조영하
Original Assignee
주식회사 만도
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 만도 filed Critical 주식회사 만도
Priority to KR1020160165057A priority Critical patent/KR102494260B1/en
Publication of KR20180064775A publication Critical patent/KR20180064775A/en
Application granted granted Critical
Publication of KR102494260B1 publication Critical patent/KR102494260B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/22Conjoint control of vehicle sub-units of different type or different function including control of suspension systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/11Pitch movement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0057Frequency analysis, spectral techniques or transforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • B60W2420/52
    • B60W2550/10
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 피치 모션(pitch motion)에 의한 이미지 검출의 오류 및 실패를 방지한 차량의 주행 지원 장치 및 이의 구동 방법에 관한 것이다. 본 발명의 실시 예에 따른 차량의 주행 지원 장치는 카메라, 레이더, 관심 영역 설정부, 물체 검출부, 이미지 보정부 및 제어부를 포함한다. 레이더는 실시간으로 전방의 하나 이상의 물체와 자차와의 거리를 검출하여 프레임 단위로 거리 정보를 생성한다. 그리고, 카메라는 실시간으로 전방을 촬영하여 프레임 단위로 제1 이미지를 생성한다. 그리고, 관심 영역 설정부는 제1 프레임의 거리 정보를 제2 이미지로 변환하고, 상기 제1 프레임의 제1 이미지 및 제2 이미지에 기초하여 관심 영역을 설정한다. 그리고, 물체 검출부는 상기 관심 영역에 위치하는 복수의 물체를 검출한다. 그리고, 피치 모션 검출부는 차량의 속도 및 고도 변화에 따른 피치 모션을 검출한다. 그리고, 이미지 보정부는 피치 모션 발생 시, 상기 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이에 기초하여 제2 프레임의 제1 이미지를 보정한다. 그리고, 보정된 제2 프레임의 제1 이미지에 기초하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어한다.The present invention relates to a driving support apparatus for a vehicle and a driving method thereof for preventing errors and failures of image detection by pitch motion. A driving support apparatus for a vehicle according to an embodiment of the present invention includes a camera, a radar, a region-of-interest setting unit, an object detecting unit, an image correction unit, and a control unit. The radar detects the distance between one or more objects in front of the vehicle and the vehicle in real time and generates distance information on a frame-by-frame basis. Then, the camera captures a forward image in real time to generate a first image in frame units. Then, the ROI setting unit converts the distance information of the first frame into a second image, and sets the ROI based on the first image and the second image of the first frame. Then, the object detecting unit detects a plurality of objects located in the area of interest. Then, the pitch motion detecting unit detects the pitch motion according to the change of the vehicle speed and altitude. The image correction unit corrects the first image of the second frame based on the reference point difference between the first image and the second image of the first frame when the pitch motion occurs. And controls the speed, steering, and damper of the vehicle based on the first image of the corrected second frame.

Description

차량의 주행 지원 장치 및 이의 구동 방법{Driving Support Apparatus Of Vehicle And Driving Method Thereof}Technical Field [0001] The present invention relates to a driving support apparatus for a vehicle,

본 발명은 차량의 주행 지원 장치 및 이의 구동 방법에 관한 것으로, 더욱 자세하게는 피치 모션(pitch motion)에 의한 이미지 검출의 오류 및 실패를 방지한 차량의 주행 지원 장치 및 이의 구동 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a driving support apparatus for a vehicle and a driving method thereof, and more particularly, to a driving support apparatus for a vehicle and a driving method thereof, which prevent errors and failures of image detection by pitch motion.

차량의 주행 시 돌발 상황이 발생하면 운전자의 인지능력이 현저히 저하되어 교통 사고로 이어질 수 있다. 돌발 상황에 의한 교통 사고를 줄이기 위해서 도로 상의 상황을 감지하는 기술들이 제안되고 있다. 예로서, 레이더 장치를 이용하여 물체를 검출하고, 검출된 물체 전체에 식별자를 부여 및 맵핑(mapping)함으로써 전방 물체를 감지하는 기술이 제안되었다.If an unexpected situation occurs while driving the vehicle, the driver's cognitive ability is significantly lowered, leading to traffic accidents. In order to reduce traffic accidents caused by an unexpected situation, technologies for detecting the situation on the road have been proposed. For example, a technique has been proposed in which a radar apparatus is used to detect an object, and an identifier is assigned and mapped to the detected object as a whole to detect a preceding object.

차량이 감속 또는 가속하거나, 과속 방지턱을 지나는 경우, 차량의 차체가 상하로 유동되는 피치 모션이 발생하게 된다. 차량의 주행 시 카메라와 레이더를 이용하여 전방의 차량, 물체 및 보행자의 이미지를 운전자에게 제공한다. 그러나, 종래의 기술에서는 일반적인 주행 상황과 피치 모션 상황을 구분하지 않고, 동일하게 이미지를 검출함으로써 피치 모션으로 인한 이미지에 오류가 발생한다.When the vehicle decelerates or accelerates, or passes over the overspeed preventing jaw, a pitch motion occurs in which the vehicle body of the vehicle moves up and down. When the vehicle is running, the camera and the radar are used to provide the driver with images of the preceding vehicle, object, and pedestrian. However, in the conventional technique, an image due to the pitch motion is generated by detecting the same image without distinguishing the general running situation from the pitch motion situation.

특히, 피치 모션으로 인해 차선, 차량 및 보행자 검출의 오류나 실패가 발생하고, 이는 곧 안전에 영향을 주게 된다. 따라서, 피치 모션을 고려하여 이미지를 보정함으로써, 이미지 검출 오류 및 실패를 방지할 수 있는 차량의 주행 지원 장치 및 이의 구동 방법이 요구된다.In particular, pitch motion causes errors or failures in lane, vehicle and pedestrian detection, which in turn affects safety. Therefore, there is a demand for a driving support apparatus for a vehicle and a driving method thereof that can prevent an image detection error and failure by correcting an image in consideration of pitch motion.

대한민국 공개특허번호: 10-2014-0123270(레이더 장치 및 영상 맵핑(mapping) 을 이용한 물체 감지 장치, 방법 및 시스템)Korean Patent Publication No. 10-2014-0123270 (Object Detection Device, Method and System Using Radar Device and Image Mapping)

본 출원의 발명자들은 앞에서 언급한 문제점들을 검출하고 다음과 같은 기술적 과제를 제시한다.The inventors of the present application detect the aforementioned problems and propose the following technical problems.

본 발명은 전술한 문제점을 해결하기 위한 것으로, 피치 모션에 의한 이미지 검출 오류 또는 실패를 방지한 차량의 주행 지원 장치 및 이의 구동 방법을 제공하는 것을 기술적 과제로 한다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a driving support apparatus for a vehicle and a driving method thereof, which prevent errors or failures of image detection by pitch motion.

또한, 레이더 및 카메라를 이용하여 피치 모션에 의한 이미지를 검출할 수 있는 차량의 주행 지원 장치 및 이의 구동 방법을 제공하는 것을 기술적 과제로 한다.It is another object of the present invention to provide a driving support apparatus for a vehicle capable of detecting an image by pitch motion using a radar and a camera, and a driving method thereof.

또한, 피치 모션에 의해 오류가 발생한 이미지를 보정하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어할 수 있는 차량의 주행 지원 장치 및 이의 구동 방법을 제공하는 것을 기술적 과제로 한다.Another object of the present invention is to provide a driving support apparatus for a vehicle and a driving method thereof that can control a speed, a steering, and a damper of a vehicle by correcting an image in which an error occurs due to pitch motion.

또한, 피치 모션이 발생하더라도 운전자에게 안전을 제공하는 차량의 주행 지원 장치 및 이의 구동 방법을 제공하는 것을 기술적 과제로 한다.Another object of the present invention is to provide a driving support apparatus and a driving method thereof for a vehicle that provides safety to a driver even when pitch motion occurs.

위에서 언급된 본 발명의 기술적 과제 외에도, 본 발명의 다른 특징 및 이점들이 이하에서 기술되거나, 그러한 기술 및 설명으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Other features and advantages of the invention will be set forth in the description which follows, or may be obvious to those skilled in the art from the description and the claims.

본 발명의 실시 예에 따른 차량의 주행 지원 장치는 카메라, 레이더, 관심영역 설정부, 물체 검출부, 피치 모션 검출부, 이미지 보정부 및 제어부를 포함한다. 레이더는 실시간으로 전방의 하나 이상의 물체와 자차와의 거리를 검출하여 프레임 단위로 거리 정보를 생성한다. 그리고, 카메라는 실시간으로 전방을 촬영하여 프레임 단위로 제1 이미지를 생성한다. 그리고, 관심 영역 설정부는 제1 프레임의 거리 정보를 제2 이미지로 변환하고, 상기 제1 프레임의 제1 이미지 및 제2 이미지에 기초하여 관심 영역을 설정한다. 그리고, 물체 검출부는 상기 관심 영역에 위치하는 복수의 물체를 검출한다. 그리고, 피치 모션 검출부는 차량의 속도 및 고도 변화에 따른 피치 모션을 검출한다. 그리고, 이미지 보정부는 피치 모션 발생 시, 상기 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이에 기초하여 제2 프레임의 제1 이미지를 보정한다. 그리고, 제어부는 보정된 제2 프레임의 제1 이미지에 기초하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어한다.A driving support apparatus for a vehicle according to an embodiment of the present invention includes a camera, a radar, a region-of-interest setting unit, an object detecting unit, a pitch motion detecting unit, an image correcting unit, and a control unit. The radar detects the distance between one or more objects in front of the vehicle and the vehicle in real time and generates distance information on a frame-by-frame basis. Then, the camera captures a forward image in real time to generate a first image in frame units. Then, the ROI setting unit converts the distance information of the first frame into a second image, and sets the ROI based on the first image and the second image of the first frame. Then, the object detecting unit detects a plurality of objects located in the area of interest. Then, the pitch motion detecting unit detects the pitch motion according to the change of the vehicle speed and altitude. The image correction unit corrects the first image of the second frame based on the reference point difference between the first image and the second image of the first frame when the pitch motion occurs. The control unit then controls the speed, steering, and damper of the vehicle based on the first image of the corrected second frame.

또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치는 상기 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이를 검출하고, 상기 기준점 차이에 기초하여 피치 모션을 검출한다.Further, the running support apparatus of a vehicle according to the embodiment of the present invention detects a reference point difference between the first image and the second image of the first frame, and detects the pitch motion based on the reference point difference.

또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치는 상기 제1 프레임에서 복수의 물체와 자차와의 거리를 산출한다.Further, a travel support apparatus for a vehicle according to an embodiment of the present invention calculates a distance between a plurality of objects and a vehicle in the first frame.

또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치는 상기 복수의 물체 중 자차와 가장 근접한 물체를 기준으로 제2 프레임의 제1 이미지를 보정한다.In addition, the running support apparatus of a vehicle according to the embodiment of the present invention corrects the first image of the second frame based on an object closest to the child of the plurality of objects.

또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치는 상기 제1 프레임에서 복수의 물체 각각에 대해서 상기 제1 이미지와 상기 제2 이미지의 기준점 차이를 산출하고, 상기 복수의 물체 중 기준점 차이가 가장 큰 물체를 기준으로 이미지를 보정한다.Further, the running support apparatus of a vehicle according to an embodiment of the present invention calculates a reference point difference between the first image and the second image for each of a plurality of objects in the first frame, Correct the image based on the largest object.

본 발명의 실시 예에 따른 차량의 주행 지원 방법은 실시간으로 전방을 촬영하여 프레임 단위로 제1 이미지를 생성하는 단계를 포함한다. 그리고, 실시간으로 전방의 하나 이상의 물체와 자차와의 거리를 검출하여 프레임 단위로 거리 정보를 생성하는 단계를 포함한다. 그리고, 제1 프레임의 거리 정보를 제2 이미지로 변환하고, 상기 제1 프레임의 제1 이미지 및 제2 이미지에 기초하여 관심 영역을 설정하는 단계를 포함한다. 그리고, 상기 관심 영역에 위치하는 복수의 물체를 검출하는 단계를 포함한다. 그리고, 차량의 속도 및 고도 변화에 따른 피치 모션을 검출하는 단계를 포함한다. 그리고, 피치 모션 발생 시, 상기 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이에 기초하여 제2 프레임의 제1 이미지를 보정하는 단계를 포함한다. 보정된 제2 프레임의 제1 이미지에 기초하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어하는 단계를 포함한다.The driving support method of a vehicle according to an embodiment of the present invention includes a step of photographing forward in real time to generate a first image in frame units. And generating distance information on a frame-by-frame basis by detecting a distance between one or more objects ahead of the vehicle and the vehicle in real time. And converting the distance information of the first frame to a second image and setting a region of interest based on the first image and the second image of the first frame. And detecting a plurality of objects located in the area of interest. And detecting pitch motion in accordance with a change in the speed and altitude of the vehicle. And correcting the first image of the second frame based on the reference point difference of the first image and the second image of the first frame when the pitch motion occurs. And controlling the speed, steering and damper of the vehicle based on the first image of the corrected second frame.

또한, 본 발명의 실시 예에 따른 차량의 주행 지원 방법은 상기 피치 모션 검출하는 단계에 있어서, 상기 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이를 검출하고, 상기 기준점 차이에 기초하여 피치 모션을 검출한다.According to another aspect of the present invention, there is provided a method of supporting a running of a vehicle, the method comprising the steps of: detecting pitch motion; detecting a reference point difference between a first image and a second image of the first frame; Motion is detected.

또한, 본 발명의 실시 예에 따른 차량의 주행 지원 방법은 상기 관심 영역 설정하는 단계에 있어서, 상기 제1 프레임에서 복수의 물체와 자차와의 거리를 산출한다.In the driving support method of a vehicle according to the embodiment of the present invention, in the step of setting the ROI, a distance between a plurality of objects and a vehicle is calculated in the first frame.

또한, 본 발명의 실시 예에 따른 차량의 주행 지원 방법은 상기 이미지 보정하는 단계에 있어서, 상기 복수의 물체 중 자차와 가장 근접한 물체를 기준으로 제2 프레임의 제1 이미지를 보정한다.Further, in a method of supporting a running of a vehicle according to an embodiment of the present invention, in the image correcting step, a first image of a second frame is corrected based on an object closest to the vehicle among the plurality of objects.

또한, 본 발명의 실시 예에 따른 차량의 주행 지원 방법은 상기 이미지 보정하는 단계에 있어서, 상기 제1 프레임에서 복수의 물체 각각에 대해서 상기 제1 이미지와 상기 제2 이미지의 기준점 차이를 산출하고, 상기 복수의 물체 중 기준점 차이가 가장 큰 물체를 기준으로 이미지를 보정한다.According to another aspect of the present invention, there is provided a method of supporting a running of a vehicle, the method comprising: calculating a reference point difference between the first image and the second image for each of a plurality of objects in the first frame, An image is corrected on the basis of an object having the largest reference point difference among the plurality of objects.

본 발명의 실시 예에 따른 차량의 주행 지원 장치 및 이의 구동 방법은 실시간으로 전방을 촬영하여 프레임 단위로 생성한 제1 이미지와 실시간으로 전방의 물체와 자차와의 거리를 검출 후, 거리 정보를 제2 이미지로 변환하고, 제1 이미지와 제2 이미지를 이용하여 관심 영역을 설정 할 수 있다.A driving support apparatus and a driving method of a vehicle according to an embodiment of the present invention detect a distance between an object and a vehicle in front of a first image generated in real time on a frame by frame basis, 2 image, and set the region of interest using the first image and the second image.

또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치 및 이의 구동 방법은 관심 영역에 위치하는 복수의 물체를 검출하여 전방의 차량 및 보행자의 위치를 알 수 있다.In addition, the driving support apparatus and the driving method of the vehicle according to the embodiment of the present invention can detect a plurality of objects located in a region of interest and know the position of the vehicle and the pedestrian in front.

또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치 및 이의 구동 방법은 제1 프레임에서 피치 모션이 발생 시, 카메라 이미지와 레이더 이미지의 기준점 차이를 산출하고, 상기 제1 프레임에서 산출된 기준점 차이에 기초하여 제2 프레임의 카메라 이미지를 보정할 수 있다.In addition, the driving support apparatus and the driving method of the vehicle according to the embodiment of the present invention calculate the reference point difference between the camera image and the radar image when the pitch motion occurs in the first frame, The camera image of the second frame can be corrected.

또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치 및 이의 구동 방법은 다음 프레임 중 카메라의 이미지에 기초하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어할 수 있고, 피치 모션이 발생하더라도 운전자에게 안전을 제공할 수 있다.In addition, the driving support device and the driving method of the vehicle according to the embodiment of the present invention can control the speed, steering and damper of the vehicle based on the image of the camera in the next frame, and even if pitch motion occurs, Can provide safety to the user.

또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치 및 이의 구동 방법은 피치 모션에 따른 이미지를 검출 시 복수의 물체 중 가장 근접한 물체를 기준으로 차량의 속도, 조향 및 댐퍼(Damper)을 제어하여, 피치 모션이 발생하더라도 운전자에게 안정감을 제공할 수 있다.In addition, the driving support apparatus and the driving method of the vehicle according to the embodiments of the present invention control the speed, steering, and damper of the vehicle based on the closest object among a plurality of objects when detecting an image according to the pitch motion , It is possible to provide the driver with a sense of stability even when the pitch motion occurs.

또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치 및 이의 구동 방법은 카메라의 제1 이미지와 레이더의 제2 이미지의 기준점 차이가 가장 큰 물체를 기준으로 차량의 속도, 조향 및 댐퍼(Damper)을 제어하여, 피치 모션이 발생해도 운전자에게 안정감을 제공할 수 있다.The driving support device and the driving method of the vehicle according to the embodiment of the present invention may be applied to a driving support device and a driving method of the vehicle according to an embodiment of the present invention in which a speed difference between a first image of a camera and a second image of a radar, So that it is possible to provide the driver with a sense of stability even when the pitch motion occurs.

도 1은 본 발명의 실시 예에 따른 차량의 주행 지원 장치를 나타내는 도면이다
도 2a 및 2b는 피치 모션을 검출하기 위해 차량 전방에서 관심 영역을 검출하는 방법을 나타내는 도면이다.
도 3a 및 3b는 본 발명의 실시 예에 따른 차량의 주행에 따른 피치 모션 상태를 검출하는 방법을 나타낸 도면이다.
도 4a 및 4b는 본 발명의 실시 예에 따른 차량의 주행 지원 장치의 이미지 보정 방법을 나타내는 도면이다.
도 5는 본 발명의 실시 예에 따른 차량의 주행 지원 장치의 구동 방법을 나타내는 도면이다.
1 is a view showing a driving support apparatus for a vehicle according to an embodiment of the present invention
2A and 2B are diagrams illustrating a method of detecting a region of interest in front of a vehicle to detect pitch motion.
3A and 3B are diagrams illustrating a method of detecting a pitch motion state according to the running of a vehicle according to an embodiment of the present invention.
4A and 4B are views showing a method of correcting an image of a driving support system for a vehicle according to an embodiment of the present invention.
5 is a diagram illustrating a driving method of a driving support apparatus for a vehicle according to an embodiment of the present invention.

이하, 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art to which the present invention pertains. The present invention may be embodied in many different forms and is not limited to the embodiments described herein.

본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다.In order to clearly illustrate the present invention, parts not related to the description are omitted, and the same or similar components are denoted by the same reference numerals throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "comprising ", it means that it can include other elements as well, without departing from the other elements unless specifically stated otherwise.

어느 부분이 다른 부분의 "위에" 있다고 언급하는 경우, 이는 바로 다른 부분의 위에 있을 수 있거나 그 사이에 다른 부분이 수반될 수 있다. 대조적으로 어느 부분이 다른 부분의 "바로 위에" 있다고 언급하는 경우, 그 사이에 다른 부분이 수반되지 않는다.If any part is referred to as being "on" another part, it may be directly on the other part or may be accompanied by another part therebetween. In contrast, when a section is referred to as being "directly above" another section, no other section is involved.

제1, 제2 및 제3 등의 용어들은 다양한 부분, 성분, 영역, 층 및/또는 섹션들을 설명하기 위해 사용되나 이들에 한정되지 않는다. 이들 용어들은 어느 부분, 성분, 영역, 층 또는 섹션을 다른 부분, 성분, 영역, 층 또는 섹션과 구별하기 위해서만 사용된다. 따라서, 이하에서 서술하는 제1 부분, 성분, 영역, 층 또는 섹션은 본 발명의 범위를 벗어나지 않는 범위 내에서 제2 부분, 성분, 영역, 층 또는 섹션으로 언급될 수 있다.The terms first, second and third, etc. are used to describe various portions, components, regions, layers and / or sections, but are not limited thereto. These terms are only used to distinguish any moiety, element, region, layer or section from another moiety, moiety, region, layer or section. Thus, a first portion, component, region, layer or section described below may be referred to as a second portion, component, region, layer or section without departing from the scope of the present invention.

여기서, 사용되는 전문 용어는 단지 특정 실시 예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지 않는다. 여기서, 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. 명세서에서 사용되는 "포함하는"의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분의 존재나 부가를 제외시키는 것은 아니다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to limit the invention. Here, the singular forms used include plural forms as long as the phrases do not expressly mean the opposite. Means that a particular feature, region, integer, step, operation, element and / or component is specified and that the presence or absence of other features, regions, integers, steps, operations, elements, and / It does not exclude addition.

"아래", "위" 등의 상대적인 공간을 나타내는 용어는 도면에서 도시된 한 부분의 다른 부분에 대한 관계를 보다 쉽게 설명하기 위해 사용될 수 있다. 이러한 용어들은 도면에서 의도한 의미와 함께 사용중인 장치의 다른 의미나 동작을 포함하도록 의도된다. 예를 들면, 도면중의 장치를 뒤집으면, 다른 부분들의 "아래"에 있는 것으로 설명된 어느 부분들은 다른 부분들의 "위"에 있는 것으로 설명된다. 따라서 "아래"라는 예시적인 용어는 위와 아래 방향을 전부 포함한다. 장치는 90˚ 회전 또는 다른 각도로 회전할 수 있고, 상대적인 공간을 나타내는 용어도 이에 따라서 해석된다.Terms indicating relative space such as "below "," above ", and the like may be used to more easily describe the relationship to other portions of a portion shown in the figures. These terms are intended to include other meanings or acts of the apparatus in use, as well as intended meanings in the drawings. For example, when inverting a device in the figures, certain parts that are described as being "below" other parts are described as being "above " other parts. Thus, an exemplary term "below" includes both up and down directions. The device can be rotated by 90 degrees or rotated at different angles, and terms indicating relative space are interpreted accordingly.

다르게 정의하지는 않았지만, 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 보통 사용되는 사전에 정의된 용어들은 관련기술문헌과 현재 개시된 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms including technical and scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Commonly used predefined terms are further interpreted as having a meaning consistent with the relevant technical literature and the present disclosure, and are not to be construed as ideal or very formal meanings unless defined otherwise.

이하, 첨부한 도면을 참조하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein.

도 1은 본 발명의 실시 예에 따른 차량의 주행 지원 장치의 예를 나타내는 도면이다.1 is a view showing an example of a travel support apparatus for a vehicle according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시 예에 따른 차량의 주행 지원 장치(100)는 레이더(110), 카메라(120), 속도 센서(130), 관심 영역 설정부(140), 물체 검출부(150), 피치 모션 검출부(160), 이미지 보정부(170) 및 제어부(180)를 포함한다.1, a driving support apparatus 100 for a vehicle according to an embodiment of the present invention includes a radar 110, a camera 120, a velocity sensor 130, a ROI setting unit 140, an object detecting unit 150 A pitch motion detection unit 160, an image correction unit 170, and a control unit 180.

레이더(110)는 실시간으로 전방의 하나 이상의 물체와 자차와의 거리를 검출하여 프레임 단위로 거리 정보를 생성한다. 레이더(110)에서 생성된 거리 정보는 관심 영역 설정부(140)에 공급된다.The radar 110 detects the distance between one or more objects ahead of the vehicle and the vehicle in real time and generates distance information on a frame-by-frame basis. The distance information generated by the radar 110 is supplied to the ROI setting unit 140.

카메라(120)는 실시간으로 전방을 촬영하여 프레임 단위로 제1 이미지를 생성한다. 전방의 차량 및 보행자를 촬영 시, 1 프레임의 데이터가 이미지다. 카메라(120)에서 획득된 상기 제1 이미지는 관심 영역 설정부(140)에 공급된다.The camera 120 takes a forward view in real time and generates a first image in frame units. When shooting a vehicle or pedestrian ahead, the data of one frame is the image. The first image obtained by the camera 120 is supplied to the region-of-interest setting unit 140. [

속도 센서(130)는 차량의 속도 변화를 검출하고, 상기 속도 변화에 기초하여 속도 신호를 생성한다. 속도 센서(130)에서 생성된 속도 신호는 피치 모션 검출부(160)에 공급된다.The speed sensor 130 detects a speed change of the vehicle and generates a speed signal based on the speed change. The velocity signal generated by the velocity sensor 130 is supplied to the pitch motion detector 160.

관심 영역 설정부(140)는 제1 프레임의 거리 정보를 제2 이미지로 변환하고, 상기 제1 프레임의 제1 이미지 및 제2 이미지에 기초하여 관심 영역을 설정한다.The region-of-interest setting unit 140 converts the distance information of the first frame into a second image, and sets the region of interest based on the first image and the second image of the first frame.

여기서, 카메라(120)로부터의 이미지 및 레이더(110)로부터의 거리 정보를 하기 수학식 1과 하기 수학식 2을 기초하여 이미지로 변환하고, 변환된 이미지를 기초로 관심 영역을 설정한다. 이후, 설정된 관심 영역을 물체 검출부(150)에 공급한다.Here, the image from the camera 120 and the distance information from the radar 110 are converted into an image based on Equation (1) and Equation (2), and the ROI is set based on the converted image. Then, the set object region is supplied to the object detection unit 150.

구체적으로, 레이더(110)는

Figure pat00001
로 이루어진 좌표계를 하기의 수학식 1에 기초하여 영상 좌표계로 변환한다.Specifically, the radar 110
Figure pat00001
Is converted into an image coordinate system based on the following expression (1).

[수학식 1][Equation 1]

Figure pat00002
Figure pat00002

상기 수학식 1에서, "x"는 차량을 기준으로 전방의 위치이고, "y"는 전방의 물체의 너비이다.In Equation (1), "x" is the position in front of the vehicle and "y" is the width of the object in front.

상기 수학식 1에 기초하여 전방의 위치(x), 고도(z) 및 좌우방향(y)의 위치를 영상 좌표계로 변환한다. 이후, 변환한 영상 좌표계를 하기의 수학식 2에 기초하여 영상 좌표로 변환한다. 이때 하기의 수학식 2에서 고도 방향(z)은 "0(zero)"인 것으로 가정한다.The position of the front position (x), the altitude (z), and the left and right direction (y) is converted into the image coordinate system based on the above equation (1). Then, the converted image coordinate system is converted into image coordinates based on the following equation (2). In this case, it is assumed that the altitude direction z in the following equation (2) is "zero ".

[수학식 2]&Quot; (2) "

Figure pat00003
Figure pat00003

상기 수학식 2에서, "K"는 고유 파라미터 행렬식이고, "R"은 레이더의 거리 정보를 행렬식으로 변환하고, "T"는 거리 정보를 이미지로 변환하기 위한 행렬식이다. "P"는 상기 K, R, T를 기초로 이미지로 변환한 결과를 의미한다.&Quot; R "is a determinant for converting radar distance information into a determinant, and" T "is a determinant for converting distance information into an image. "P" means a result obtained by converting the images into K, R and T based images.

레이더의 이미지(P)는 고유 파라미터(K)와 거리(R) 및 입체변환(T)을 산출하여 생성된다. 레이더의 이미지(P)를 월드 좌표(W)로 변환하여 이미지 좌표(U)를 생성할 수 있다. 이미지 좌표(U)의 생성하는 방법은 이미지 보정부(170)에 대한 설명을 참조하기로 한다.The image P of the radar is generated by calculating the intrinsic parameter K, the distance R and the stereoscopic transformation T. [ The image coordinates (U) can be generated by converting the image (P) of the radar into the world coordinates (W). The method of generating the image coordinates U will be described with reference to the description of the image corrector 170. [

도 2a 및 2b는 피치 모션을 검출하기 위해 차량 전방에서 관심 영역을 검출하는 과정을 나타내는 도면이다.2A and 2B are diagrams showing a process of detecting a region of interest in front of the vehicle to detect pitch motion.

도 2a를 참조하면, 전방의 물체의 거리를 x축으로 설정하고, 상기 수학식 2를 기초에 기초하여, 레이더(110)의 길이(

Figure pat00004
)에 물체의 높이(H)를 곱하여 얻은 결과 값을 거리(d)로 나누어 자차(210)로부터 일정 거리(d)에 위치하는 차량의 높이(H)를 산출한다. 물체의 높이(H)는 차량 시 대략 1m에서 3m 내외이고, 보행자 시 대략 0.8m에서 2m내외이다. 도 2b를 참조하면, 전방 물체(220)의 너비를 y축으로 두고 상기 수학식 2를 기초로 레이더(110)의 너비(
Figure pat00005
)에 전방 물체(220)의 너비(W2) 곱한다. 그리고, 거리(d)를 나눈 값을 픽셀로 변환한 너비(W1)를 산출한다. 전방 물체(220)의 너비(W2)는 차량 시 대략 1.5m에서 2.5m내외이고, 보행자 시 대략 0.5m에서 1.5m내외이다.2A, the distance of an object ahead is set as the x-axis, and the length of the radar 110 (
Figure pat00004
The vehicle height H is calculated by dividing the resultant value obtained by multiplying the vehicle height H by the height H of the object by the distance d. The height (H) of the object is about 3m to about 3m at the time of the vehicle, and about 2m to about 0.8m at the pedestrian. Referring to FIG. 2B, the width of the front object 220 is set to the y-axis, and the width of the radar 110
Figure pat00005
) By the width W2 of the front object 220. Then, the width W1 obtained by converting the value obtained by dividing the distance d into pixels is calculated. The width W2 of the front object 220 is about 1.5 m to 2.5 m in the vehicle, and about 0.5 m to about 1.5 m in the pedestrian.

물체 검출부(150)는 상기 관심 영역에 위치하는 복수의 물체를 검출한다. 그리고, 상기 관심 영역에 위치하는 복수의 물체에 대한 제1 프레임의 제1 이미지 및 제2 이미지를 피치 모션 검출부(160)에 공급한다.The object detecting unit 150 detects a plurality of objects located in the area of interest. Then, the first image and the second image of the first frame for a plurality of objects located in the ROI are supplied to the pitch motion detector 160.

또한, 물체 검출부(150)는 제1 프레임에서 복수의 물체와 자차와의 거리를 산출하고, 제1 프레임에서 가장 근접한 물체를 검출한다. 자차와 가장 근접한 물체를 검출하는 방법은 이미지 보정부(170)에 대한 설명을 참조하기로 한다.Further, the object detecting unit 150 calculates distances between the plurality of objects and the vehicle in the first frame, and detects the object closest to the first frame. A method of detecting an object closest to the vehicle will be described with reference to the description of the image correcting unit 170. [

여기서, 복수의 물체는 전방에 존재하는 다수의 차량 및 보행자이다. 실제 상황에서는 전방에 적어도 하나 이상의 물체가 존재한다. 적어도 하나 이상의 차량 및 보행자는 동일한 속도로 이동하지 않을 수 있다.Here, the plurality of objects are a plurality of vehicles and pedestrians present in the front. In the actual situation, there is at least one object ahead. At least one of the vehicles and the pedestrian may not move at the same speed.

피치 모션 검출부(160)는 물체 검출부(150)에서 공급 받은 제1 프레임의 상기 제1 이미지 및 상기 제2 이미지에 기초하여, 차량의 속도 및 고도 변화에 따른 피치 모션을 검출한다. 그리고, 제1 프레임의 피치 모션 결과를 이미지 보정부(170)에 공급된다.The pitch motion detecting unit 160 detects a pitch motion according to the vehicle speed and the altitude change based on the first image and the second image of the first frame supplied from the object detecting unit 150. [ Then, the pitch motion result of the first frame is supplied to the image correcting unit 170.

여기서, 피치 모션은 차량의 상하가 변화하는 경우이다. 피치 모션의 종류로서, 크게 차량의 속도 변화로 인한 고도 변화 및 과속방지턱을 지날 때 발생하는 고도 변화가 있다. 과속방지턱에 대한 차체의 상하가 유동되는 피치 모션을 검출한다. 또한, 속도 센서(130)로부터 검출된 속도 신호를 기초로 차량의 속도 변화에 대한 차체의 상하가 유동하는 피치 모션을 검출할 수 있다.Here, the pitch motion is a case where the top and bottom of the vehicle change. As a kind of pitch motion, there are largely an altitude change due to a change in the speed of the vehicle and an altitude change that occurs when passing the speed limit bust. And detects a pitch motion in which the upper and lower portions of the vehicle body move relative to the overspeed preventing jaw. Further, based on the speed signal detected from the speed sensor 130, it is possible to detect pitch motion in which the vehicle body moves up and down with respect to the speed change of the vehicle.

차량이 상하로 유동되면 카메라에서 획득된 이미지 또는 영상도 상하로 유동되지만, 레이더에서 획득된 전방의 이미지는 상하로 유동되지 않는다. 따라서, 차량이 감속, 가속하거나 또는 과속 방지턱을 지나는 경우, 차량이 상하로 유동되어 카메라에서 획득된 제1 이미지의 기준점과 레이더에서 획득된 제2 이미지의 기준점에 차이가 발생한다.If the vehicle is moving up and down, the image or image acquired from the camera also flows up and down, but the image from the front acquired from the radar does not flow up and down. Therefore, when the vehicle decelerates, accelerates, or crosses the overspeed prevention threshold, the vehicle is caused to flow up and down to cause a difference between the reference point of the first image obtained in the camera and the reference point of the second image obtained in the radar.

구체적으로, 카메라(120)의 제1 이미지 및 레이더(110)의 상기 제2 이미지의 기준점 차이를 피치 모션 검출부(160)에서 검출한다. 예를 들어, 차량이 과속방지턱을 지나가면서 상하로 흔들리는 피치 모션이 발생하는 경우, 차량에서 레이더(110)의 제2 이미지는 피치 모션과 상관없이 검출된다. 그러나, 차량이 과속방지턱을 지나가면서 상하로 흔들리는 피치 모션이 발생하는 경우, 카메라의 제1 이미지는 변화하게 된다. 카메라의 제1 이미지와 레이더의 제2 이미지의 기준점 차이가 모든 물체에 발생하면 피치 모션으로 판단한다.Specifically, the pitch motion detector 160 detects a reference point difference between the first image of the camera 120 and the second image of the radar 110. For example, when pitch motion occurs in which the vehicle is shaken up and down as it passes the speed bump, the second image of the radar 110 in the vehicle is detected regardless of the pitch motion. However, when pitch motion occurs in which the vehicle is shaken up and down as it passes through the speed braking chisl, the first image of the camera changes. When the difference between the first image of the camera and the second image of the radar is generated in all the objects, it is judged as the pitch motion.

한편, 카메라의 제1 이미지 및 레이더의 제2 이미지의 기준점 차이가 특정 물체만 발생하고, 다른 물체에서는 기준점 차이의 변화가 없는 경우에는 차량의 피치 모션이 아닌 상태, 즉, 논-피치 모션(non-pitch motion)으로 판단한다.On the other hand, when the reference point difference of the first image of the camera and the second image of the radar generates only a specific object and there is no change of the reference point difference of the other objects, a state other than the pitch motion of the vehicle, pitch motion).

여기서, 피치 모션 검출부(160)는 카메라의 제1 이미지 및 레이더의 제2 이미지의 기준점 차이가 발생한 경우, 카메라의 제1 이미지와 레이더의 제2 이미지의 기준점 차이가 복수의 물체에서 모두 검출되면 피치 모션이 발생했다고 검출한다. 그리고, 피치 모션의 검출결과는 이미지 보정부(170)에 공급된다.Here, when the reference point difference of the first image of the camera and the second image of the radar occurs, the pitch motion detecting unit 160 detects the reference point difference of the first image of the camera and the second image of the radar, It is detected that a motion has occurred. Then, the detection result of the pitch motion is supplied to the image correcting unit 170.

한편, 피치 모션 검출부(160)는 상기 제1 이미지 및 제2 이미지의 기준점 차이가 복수의 물체에서 모두 발생하지 않거나, 또는 일부의 물체에서 발생하면 논-피치 모션을 검출한다. 그리고, 논 피치 모션의 검출 결과는 이미지 보정부(170)에 공급된다.On the other hand, the pitch motion detecting unit 160 detects non-pitch motion when the reference point difference of the first image and the second image does not occur in all of the plurality of objects or occurs in some objects. Then, the detection result of the non-pitch motion is supplied to the image correction unit 170. [

도 3a 및 3b는 본 발명의 실시 예에 따른 차량의 주행에 따른 피치 모션 상태 검출 과정을 나타낸 도면이다.3A and 3B are diagrams illustrating a pitch motion state detection process according to the running of a vehicle according to an embodiment of the present invention.

도 3a를 참조하면, 제1 이미지에 포함된 제1 물체의 제1 위치(310)와, 제2 이미지에 포함된 제1 물체의 제1 위치(340)를 검출한다. 그리고, 제1 이미지에서 검출된 제1 위치(310)와 제2 이미지에서 검출된 제1 위치(340)의 차이(d1)를 검출한다. 즉, 제1 이미지와 제2 이미지를 오버랩시켜 자차와 제1 물체와의 거리 차이(d1)를 검출한다.Referring to FIG. 3A, a first position 310 of the first object included in the first image and a first position 340 of the first object included in the second image are detected. Then, a difference d1 between the first position 310 detected in the first image and the first position 340 detected in the second image is detected. That is, the distance difference d1 between the vehicle and the first object is detected by overlapping the first image and the second image.

또한, 제1 이미지에 포함된 제2 물체의 제2 위치(320)와, 제2 이미지에 포함된 제2 물체의 제2 위치(350)를 검출한다. 그리고, 제1 이미지에서 검출된 제2 위치(320)와 제2 이미지에서 검출된 제2 위치(350)의 차이(d2)를 검출한다. 즉, 제1 이미지와 제2 이미지를 오버랩시켜 자차와 제2 물체와의 거리 차이(d2)를 검출한다.It also detects the second position 320 of the second object contained in the first image and the second position 350 of the second object contained in the second image. Then, a difference d2 between the second position 320 detected in the first image and the second position 350 detected in the second image is detected. That is, the first image and the second image are overlapped to detect the distance difference d2 between the vehicle and the second object.

또한, 제1 이미지에 포함된 제3 물체의 제3 위치(330)와, 제2 이미지에 포함된 제3 물체의 제3 위치(360)를 검출한다. 그리고, 제1 이미지에서 검출된 제3 위치(330)와 제2 이미지에서 검출된 제3 위치(360)의 차이(d3)를 검출한다. 즉, 즉, 제1 이미지와 제2 이미지를 오버랩시켜 자차와 제3 물체와의 거리 차이(d3)를 검출한다. 본 발명에서는 제1 이미지와 제2 이미지의 제1 거리 차이(d1), 제2 거리 차이(d2) 및 제3 거리 차이(d3)를 기준점 차이라 정의한다. 이와 같이, 복수의 물체(예로서, 제1 물체, 제2 물체 및 제3 물체)에서 기준점 차이가 모두 발생하면 차량의 피치 모션으로 판단한다.It also detects the third position 330 of the third object contained in the first image and the third position 360 of the third object contained in the second image. Then, a difference d3 between the third position 330 detected in the first image and the third position 360 detected in the second image is detected. That is, the first image and the second image are overlapped to detect the distance difference d3 between the vehicle and the third object. In the present invention, a first distance difference d1, a second distance difference d2, and a third distance difference d3 between the first image and the second image are defined as reference point differences. In this way, when all of the reference point differences occur in a plurality of objects (e.g., the first object, the second object, and the third object), the pitch motion of the vehicle is determined.

도 3b을 참조하면, 복수의 물체 중, 제1 물체에서는 기준점 차이가 발생하고, 제2 물체 및 제3 물체에서는 기준점 차이가 발생하지 않으면 차량의 논-피치 모션으로 판단한다.Referring to FIG. 3B, when a reference point difference occurs in the first object among the plurality of objects, and a reference point difference does not occur in the second object and the third object, the non-pitch motion of the vehicle is determined.

다시, 도 1을 참조하면, 이미지 보정부(170)는 피치 모션 발생 시, 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이에 기초하여 제2 프레임의 제1 이미지를 보정한다. 한편, 논-피치 모션으로 판단되면 제2 프레임의 제1 이미지를 보정하지 않는다.Referring again to FIG. 1, the image correcting unit 170 corrects the first image of the second frame based on the reference point difference between the first image and the second image of the first frame, when the pitch motion occurs. On the other hand, if it is determined as non-pitch motion, the first image of the second frame is not corrected.

여기서, 제2 프레임의 제1 이미지는 피치 모션으로 인한 기준점 차이를 의 제1 프레임의 제1 이미지를 보정한다. 즉, 제2 프레임의 제1 이미지는 피치 모션 발생 시, 제1 프레임의 제1 이미지와 상기 제2 이미지의 기준점 차이에 기초하여 보정된 것이다.Here, the first image of the second frame corrects the first image of the first frame of the reference point difference due to the pitch motion. That is, the first image of the second frame is corrected based on the reference point difference between the first image of the first frame and the second image when the pitch motion occurs.

구체적으로, 하기의 방법으로 제1 이미지를 보정할 수 있다. 상기 수학식 2을 기초로 산출된 레이더의 이미지(P)를 월드 좌표(W)로 변환하여 이미지 좌표(U)를 생성한다. 피치 모션 검출 시, 이미지 보정부(170)에서 이미지 좌표(U)를 보정하여 제2 프레임의 제1 이미지로 변환한다. 피치 모션 검출부(160)에서 상기 이미지 좌표(U)를 참조하여 논-피치 모션을 검출하면, 이미지 보정부(170)는 상기 이미지 좌표(U)를 변환하지 않는다. 즉, 제2 프레임의 제1 이미지를 보정하지 않는다.Specifically, the first image can be corrected by the following method. (P) of the radar calculated on the basis of Equation (2) into the world coordinate (W) to generate the image coordinate (U). When the pitch motion is detected, the image correcting unit 170 corrects the image coordinates U and converts the image into the first image of the second frame. When the pitch motion detecting unit 160 detects non-pitch motion with reference to the image coordinates U, the image correcting unit 170 does not transform the image coordinates U. That is, the first image of the second frame is not corrected.

예로서, 이미지에서 피치 모션에 의한 픽셀 변화량을 좌표로 나타낸다. 하기의 수학식 3을 이용하여, 고도 방향(z)을 기준으로 전방 물체 거리(x)에 대한 픽셀 변화량(Δz)을 검출한다.As an example, the amount of pixel change due to pitch motion in an image is indicated by coordinates. (Z) with respect to the front object distance (x) with respect to the altitude direction (z) using the following expression (3).

[수학식 3]&Quot; (3) "

Δz = x * tan(L)? Z = x * tan (L)

상기 수학식 3에서, L는 전방 물체 거리(x)에 대한 고도 방향(z)의 기울기 각도이다.In Equation (3), L is a tilt angle of the altitude direction (z) with respect to the front object distance (x).

이이서, 하기의 수학식 4를 이용하여 이미지에서의 피치 변화량(Δv)을 검출한다. 센서 길이(f)에 픽셀 변화량(Δz)을 곱하여 얻은 결과 값을 전방 물체 거리(x)를 나누어서 피치 변화량(Δv)을 검출한다. 이후, 검출된 피치 변화량(Δv)을 이용하여 제2 프레임의 제1 이미지를 보정한다.Then, the pitch variation amount? V in the image is detected using the following expression (4). The pitch change amount? V is detected by dividing the resultant value obtained by multiplying the sensor length f by the pixel change amount? Z by the forward object distance x. Then, the first image of the second frame is corrected using the detected pitch variation amount? V.

[수학식 4]&Quot; (4) "

Δv = f * Δz / x = f * tan(L)? V = f *? Z / x = f * tan (L)

도 4a 및 도 4b는 본 발명의 실시 예에 따른 차량의 주행 지원 장치의 이미지 보정 방법을 나타내는 도면이다.4A and 4B are views showing a method of correcting an image of a driving support apparatus for a vehicle according to an embodiment of the present invention.

도 4a를 참조하면, 피치 모션이 발생한 경우, 차량을 원점으로 지정하고, 고도(z)를 기준으로 전방 물체 거리(x)에 기초하여 픽셀 변화량(Δz)을 2차원의 그래프로 변환한다.Referring to FIG. 4A, when a pitch motion occurs, the vehicle is designated as the origin, and the pixel variation amount? Z is converted into a two-dimensional graph based on the forward object distance x on the basis of the elevation z.

이어서, 도 4b를 참조하면, 픽셀 변화량(Δz)을 영상 좌표계로 변환하여 이미지에서의 피치 변화량(Δv)으로 변환한다.Next, referring to FIG. 4B, the pixel change amount? Z is converted into an image coordinate system and converted into a pitch change amount? V in the image.

자차와 복수의 물체 사이의 거리가 상이할 때, 피치 모션이 발생하면 자차와 가장 근접한 물체의 이미지 변화가 가장 크게 된다. 따라서, 본 발명에서 기준점 차이가 가장 큰 물체는 자차와 가장 근접한 물체라고 판단할 수 있다.When the distance between the car and the object is different, when the pitch motion occurs, the image change of the object closest to the car is the largest. Therefore, in the present invention, the object having the greatest reference point difference can be determined as the object closest to the vehicle.

이미지 보정부(170)는 관심 영역에 포함된 복수의 물체 중 자차와 가장 근접한 물체를 기준으로 제2 프레임의 제1 이미지를 보정한다. The image correcting unit 170 corrects the first image of the second frame on the basis of the object closest to the child of the plurality of objects included in the region of interest.

또한, 이미지 보정부(170)는 상기 제1 프레임에서 복수의 물체 각각에 대해서 제1 이미지와 제2 이미지의 기준점 차이를 산출하고, 상기 복수의 물체 중 기준점 차이가 가장 큰 물체를 기준으로 제2 프레임의 제1 이미지를 보정할 수 있다. 여기서, 기준점 차이가 가장 크다는 것은 자차와 전방에 위한 차량, 물체 또는 보행자의 고도 차이 또는 거리 차이의 변화가 크다는 것을 의미한다.In addition, the image correcting unit 170 may calculate the reference point difference between the first image and the second image for each of the plurality of objects in the first frame, and determine, based on the object having the largest reference point difference among the plurality of objects, The first image of the frame can be corrected. Here, the largest reference point difference means that the altitude difference of the vehicle, the object, or the pedestrian for the preceding vehicle or the change of the distance difference is large.

이어서, 제어부(180)는 이미지 보정부(170)에서 생성된 상기 제2 프레임의 제1 이미지에 기초하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어하고 돌발 상황에 대처할 수 있다. 예를 들면, 학교 주변도로의 과속방지턱으로 인해 피치 모션의 상황인 경우에 어린 아이(보행자)가 전방에 레이더(110) 및 카메라(120)를 기초로 이미지가 검출 시 제어부(180)에서 피치 모션 상황에도 주행 지원을 보조하여 어린 아이(보행자) 및 운전자에 대한 안전을 지원한다.Then, the control unit 180 controls the speed, steering, and damper of the vehicle based on the first image of the second frame generated by the image correcting unit 170 and copes with the unexpected situation. For example, when a child (pedestrian) moves forward in the pitch motion due to the speed limit of the road around the school, the controller 180 controls the pitch motion Supports driving assistance even in situations and supports safety for young children (pedestrians) and drivers.

이와 같이, 자차와 가장 근접한 물체를 기준으로 차량의 피치 모션 시, 돌발 상황을 대처하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어할 수 있다. 이를 통해, 자차, 전방 차량 및 보행자의 안전을 확보할 수 있다. 또한, 기준점 차이가 가장 큰 물체를 기준으로 제2 프레임의 제1 이미지를 보정하여 차량의 피치 모션 시 돌발 상황을 대처하면 주행 시 안전을 확보할 수 있다.In this manner, the speed, steering, and damper of the vehicle can be controlled by coping with an unexpected situation at the pitch motion of the vehicle based on the object closest to the vehicle. This makes it possible to secure the safety of the car, the front vehicle, and the pedestrian. In addition, by correcting the first image of the second frame on the basis of the object with the largest reference point difference, coping with the unexpected situation in the pitch motion of the vehicle can secure safety during traveling.

상술한 본 발명의 실시 예에 따른 차량의 주행 지원 장치는 카메라의 제1 이미지와 레이더의 제2 이미지를 이용하여 관심 영역을 설정하고, 관심 영역에 위치하는 복수의 물체를 검출하여 전방의 차량 및 보행자의 위치를 알 수 있다.The apparatus for supporting travel of a vehicle according to an embodiment of the present invention sets a region of interest using a first image of a camera and a second image of a radar, detects a plurality of objects located in a region of interest, The position of the pedestrian can be known.

또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치는 제1 프레임에서 피치 모션이 발생 시, 카메라 이미지와 레이더 이미지의 기준점 차이를 산출하고, 상기 제1 프레임에서 산출된 기준점 차이에 기초하여 제2 프레임의 카메라 이미지를 보정할 수 있다.The apparatus for supporting travel of a vehicle according to an embodiment of the present invention calculates a reference point difference between a camera image and a radar image when a pitch motion occurs in a first frame, It is possible to correct the camera image of two frames.

또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치는 피치 모션에 따른 이미지를 검출 시, 복수의 물체 중 가장 근접한 물체를 기준으로 차량의 속도, 조향 및 댐퍼(Damper)을 제어하여 피치 모션이 발생하더라도 운전자에게 안정감을 제공할 수 있다.In addition, when detecting an image according to the pitch motion, the running support apparatus of a vehicle according to an embodiment of the present invention controls the speed, steering, and damper of the vehicle based on the closest object among a plurality of objects, It is possible to provide a sense of stability to the driver even if it occurs.

또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치는 카메라의 제1 이미지와 레이더의 제2 이미지의 기준점 차이가 가장 큰 물체를 기준으로 차량의 속도, 조향 및 댐퍼(Damper)을 제어하여 피치 모션이 발생해도 운전자에게 안정감을 제공할 수 있다.In addition, the driving support apparatus for a vehicle according to an embodiment of the present invention controls a speed, a steering, and a damper of a vehicle based on an object having a largest reference point difference between a first image of the camera and a second image of the radar, It is possible to provide the driver with a sense of stability even when motion occurs.

도 5는 본 발명의 실시 예에 따른 차량의 주행 지원 장치의 구동 방법을 나타내는 도면이다. 이하, 도 1 내지 도 5를 결부하여 본 발명의 실시 예에 따른 차량의 주행 지원 방법을 설명하기로 한다.5 is a diagram illustrating a driving method of a driving support apparatus for a vehicle according to an embodiment of the present invention. Hereinafter, a driving support method of a vehicle according to an embodiment of the present invention will be described with reference to FIGS. 1 to 5. FIG.

카메라(120)는 실시간으로 전방을 촬영하여 프레임 단위로 제1 이미지를 생성한다. 그리고, 레이더(110)는 전방의 하나 이상의 물체와 자차와의 거리를 검출하고, 프레임 단위로 거리 정보를 생성한다(S1). 이때, 카메라(120)는 프레임 단위로 제1 이미지를 생성하고, 레이더(110) 또한 프레임 단위로 거리 정보를 생성한다. 카메라(120)에서 생성된 제1 이미지 및 레이더(110)에서 생성된 거리 정보는 관심 영역 설정부(140)에 공급된다. The camera 120 takes a forward view in real time and generates a first image in frame units. Then, the radar 110 detects the distance between one or more objects in front of the vehicle and the vehicle, and generates distance information on a frame-by-frame basis (S1). At this time, the camera 120 generates a first image in units of frames, and the radar 110 also generates distance information in units of frames. The first image generated by the camera 120 and the distance information generated by the radar 110 are supplied to the ROI setting unit 140.

이어서, 속도 센서(130)는 차량의 속도 변화를 검출하고, 속도의 변화를 기초로 속도 신호를 생성한다(S2). 속도 센서(130)에서 생성된 속도 신호는 피치 모션 검출부(160)에 공급된다.Then, the speed sensor 130 detects a speed change of the vehicle and generates a speed signal based on the change in speed (S2). The velocity signal generated by the velocity sensor 130 is supplied to the pitch motion detector 160.

이어서, 관심 영역 설정부(140)는 제1 프레임의 거리 정보를 제2 이미지로 변환하고, 제1 프레임의 제1 이미지 및 제2 이미지에 기초하여 관심 영역을 설정한다(S3). 관심 영역 설정부(140)에서 설정된 관심 영역은 물체 검출부(150)에 공급된다.Then, the region-of-interest setting unit 140 converts the distance information of the first frame into a second image, and sets the region of interest based on the first image and the second image of the first frame (S3). The region of interest set by the region-of-interest setting unit 140 is supplied to the object-detecting unit 150.

수학식 2을 기초하여 관심 영역을 설정하는 방법을 구체적으로 설명하면, 레이더(110)는 영상 좌표계를 사용한다.

Figure pat00006
로 이루어진 좌표계를 상기 수학식 1에 기초하여 영상 좌표계로 변환한다. 이후, 영상 좌표계를 상기 수학식 2에 이용하여 영상 좌표로 변환한다. 이때, 상기 수학식 2에서 고도 방향(z)은 0(zero)인 것으로 가정한다.A method of setting an area of interest based on Equation (2) will be described in detail. The radar 110 uses an image coordinate system.
Figure pat00006
Is converted into an image coordinate system based on Equation (1). Then, the image coordinate system is transformed into the image coordinates using Equation (2). In this case, it is assumed that the altitude direction (z) in Equation (2) is zero.

레이더의 이미지(P)는 고유 파라미터(K)와 거리(R) 및 입체변환(T)을 산출하여 생성된다.The image P of the radar is generated by calculating the intrinsic parameter K, the distance R and the stereoscopic transformation T. [

도 2를 결부하여 설명하면, 전방의 물체의 거리를 x축으로 설정하고, 상기 수학식 2를 기초에 기초하여, 레이더(110)의 길이(

Figure pat00007
)에 물체의 높이(H)를 곱하여 얻은 결과 값을 거리(d)로 나누어 자차(210)로부터 일정 거리(d)에 위치하는 차량의 높이(H)를 산출한다. 한편, 물체의 높이(H)는 차량 시 대략 1m에서 3m 내외이고, 보행자 시 대략 0.8m에서 2m내외이다. 도 2b를 참조하면, 전방 물체(220)의 너비를 y축으로 두고 상기 수학식 2를 기초로 레이더(110)의 너비(
Figure pat00008
)에 전방 물체(220)의 너비(W2) 곱한다. 그리고, 거리(d)를 나눈 값을 픽셀로 변환한 너비(W1)를 산출한다. 전방 물체(220)의 너비(W2)는 차량 시 대략 1.5m에서 2.5m내외이고, 보행자 시 대략 0.5m에서 1.5m내외이다.2, the distance of the front object is set as the x-axis, and the length of the radar 110 (
Figure pat00007
The vehicle height H is calculated by dividing the resultant value obtained by multiplying the vehicle height H by the height H of the object by the distance d. On the other hand, the height (H) of the object is about 3m to about 1m at the time of the vehicle, and about 2m to about 0.8m at the time of the pedestrian. Referring to FIG. 2B, the width of the front object 220 is set to the y-axis, and the width of the radar 110
Figure pat00008
) By the width W2 of the front object 220. Then, the width W1 obtained by converting the value obtained by dividing the distance d into pixels is calculated. The width W2 of the front object 220 is about 1.5 m to 2.5 m in the vehicle, and about 0.5 m to about 1.5 m in the pedestrian.

물체 검출부(150)는 관심 영역 설정부(140)에서 검출된 상기 관심 영역을 기초로 상기 관심 영역에 위치하는 복수의 물체를 검출한다(S4). 그리고 검출된 상기 제1 이미지 및 상기 제2 이미지는 피치 모션 검출부(160)에 공급된다.The object detecting unit 150 detects a plurality of objects located in the ROI based on the ROI detected by the ROI setting unit 140 (S4). The detected first and second images are supplied to the pitch motion detecting unit 160.

또한, 물체 검출부(150)는 복수의 물체와 자차와의 거리를 산출하고 자차와 복수의 물체와의 거리에 기초하여, 제1 프레임에서 자차와 가장 근접한 물체를 검출한다.Further, the object detecting unit 150 calculates the distance between the plurality of objects and the vehicle, and detects an object closest to the vehicle in the first frame, based on the distance between the vehicle and the plurality of objects.

여기서, 복수의 물체는 전방에 존재하는 다수의 차량 및 보행자이다. 실제 상황에서는 전방에 적어도 하나 이상의 물체가 존재한다. 적어도 하나 이상의 차량 및 보행자는 동일한 속도로 이동하지 않을 수 있다.Here, the plurality of objects are a plurality of vehicles and pedestrians present in the front. In the actual situation, there is at least one object ahead. At least one of the vehicles and the pedestrian may not move at the same speed.

이어서, 피치 모션 검출부(160)는 물체 검출부(150)에서 공급 받은 상기 제1 이미지 및 제2 이미지를 기초로 차량의 속도 및 고도 변화에 따른 피치 모션을 검출한다(S5).Next, the pitch motion detector 160 detects the pitch motion according to the velocity and altitude of the vehicle based on the first image and the second image supplied from the object detector 150 (S5).

피치 모션의 종류로서, 차량의 속도 변화로 인한 고도 변화 및 과속방지턱을 지날 때 발생하는 고도 변화가 있다. 과속방지턱에 대한 차체의 상하가 유동되는 피치 모션을 검출한다. 또한, 속도 센서(130)로부터 검출된 속도 신호를 기초로 차량의 속도 변화에 대한 차체의 상하가 유동하는 피치 모션을 검출할 수 있다.As a kind of pitch motion, there is an altitude change due to a change in the speed of the vehicle and an altitude change that occurs when the speed exceeds the speed limit bust. And detects a pitch motion in which the upper and lower portions of the vehicle body move relative to the overspeed preventing jaw. Further, based on the speed signal detected from the speed sensor 130, it is possible to detect pitch motion in which the vehicle body moves up and down with respect to the speed change of the vehicle.

구체적으로, 카메라(120)의 제1 이미지 및 레이더(110)의 상기 제2 이미지의 기준점 차이를 피치 모션 검출부(160)에서 검출한다. 예를 들어, 차량이 과속방지턱을 지나가면서 상하로 흔들리는 피치 모션이 발생하는 경우, 차량에서 레이더(110)의 제2 이미지는 피치 모션과 상관없이 검출된다. 그러나, 차량이 과속방지턱을 지나가면서 상하로 흔들리는 피치 모션이 발생하는 경우, 카메라의 제1 이미지는 변화하게 된다. 카메라의 제1 이미지와 레이더의 제2 이미지의 기준점 차이가 모든 물체에 발생하면 피치 모션으로 판단한다.Specifically, the pitch motion detector 160 detects a reference point difference between the first image of the camera 120 and the second image of the radar 110. For example, when pitch motion occurs in which the vehicle is shaken up and down as it passes the speed bump, the second image of the radar 110 in the vehicle is detected regardless of the pitch motion. However, when pitch motion occurs in which the vehicle is shaken up and down as it passes through the speed braking chisl, the first image of the camera changes. When the difference between the first image of the camera and the second image of the radar is generated in all the objects, it is judged as the pitch motion.

한편, 카메라의 제1 이미지 및 레이더의 제2 이미지의 기준점 차이가 특정 물체만 발생하고, 다른 물체에서는 기준점 차이의 변화가 없는 경우에는 차량의 피치 모션이 아닌 상태, 즉, 논-피치 모션(non-pitch motion)으로 판단한다.On the other hand, when the reference point difference of the first image of the camera and the second image of the radar generates only a specific object and there is no change of the reference point difference of the other objects, a state other than the pitch motion of the vehicle, pitch motion).

여기서, 피치 모션 검출부(160)는 카메라의 제1 이미지 및 레이더의 제2 이미지의 기준점 차이가 발생한 경우, 카메라의 제1 이미지와 레이더의 제2 이미지의 기준점 차이가 복수의 물체에서 모두 검출되면 피치 모션이 발생했다고 검출한다. 그리고, 피치 모션의 검출결과는 이미지 보정부(170)에 공급된다.Here, when the reference point difference of the first image of the camera and the second image of the radar occurs, the pitch motion detecting unit 160 detects the reference point difference of the first image of the camera and the second image of the radar, It is detected that a motion has occurred. Then, the detection result of the pitch motion is supplied to the image correcting unit 170.

한편, 피치 모션 검출부(160)는 상기 제1 이미지 및 제2 이미지의 기준점 차이가 복수의 물체에서 모두 발생하지 않거나, 또는 일부의 물체에서 발생하면 논-피치 모션을 검출한다. 그리고, 논 피치 모션의 검출 결과는 이미지 보정부(170)에 공급된다.On the other hand, the pitch motion detecting unit 160 detects non-pitch motion when the reference point difference of the first image and the second image does not occur in all of the plurality of objects or occurs in some objects. Then, the detection result of the non-pitch motion is supplied to the image correction unit 170. [

도 3a를 참조하면, 제1 이미지에 포함된 제1 물체의 제1 위치(310)와, 제2 이미지에 포함된 제1 물체의 제1 위치(340)를 검출한다. 그리고, 제1 이미지에서 검출된 제1 위치(310)와 제2 이미지에서 검출된 제1 위치(340)의 차이(d1)를 검출한다. 즉, 제1 이미지와 제2 이미지를 오버랩시켜 자차와 제1 물체와의 거리 차이(d1)를 검출한다.Referring to FIG. 3A, a first position 310 of the first object included in the first image and a first position 340 of the first object included in the second image are detected. Then, a difference d1 between the first position 310 detected in the first image and the first position 340 detected in the second image is detected. That is, the distance difference d1 between the vehicle and the first object is detected by overlapping the first image and the second image.

또한, 제1 이미지에 포함된 제2 물체의 제2 위치(320)와, 제2 이미지에 포함된 제2 물체의 제2 위치(350)를 검출한다. 그리고, 제1 이미지에서 검출된 제2 위치(320)와 제2 이미지에서 검출된 제2 위치(350)의 차이(d2)를 검출한다. 즉, 제1 이미지와 제2 이미지를 오버랩시켜 자차와 제2 물체와의 거리 차이(d2)를 검출한다.It also detects the second position 320 of the second object contained in the first image and the second position 350 of the second object contained in the second image. Then, a difference d2 between the second position 320 detected in the first image and the second position 350 detected in the second image is detected. That is, the first image and the second image are overlapped to detect the distance difference d2 between the vehicle and the second object.

또한, 제1 이미지에 포함된 제3 물체의 제3 위치(330)와, 제2 이미지에 포함된 제3 물체의 제3 위치(360)를 검출한다. 그리고, 제1 이미지에서 검출된 제3 위치(330)와 제2 이미지에서 검출된 제3 위치(360)의 차이(d3)를 검출한다. 즉, 즉, 제1 이미지와 제2 이미지를 오버랩시켜 자차와 제3 물체와의 거리 차이(d3)를 검출한다. 본 발명에서는 제1 이미지와 제2 이미지의 제1 거리 차이(d1), 제2 거리 차이(d2) 및 제3 거리 차이(d3)를 기준점 차이라 정의한다. 이와 같이, 복수의 물체(예로서, 제1 물체, 제2 물체 및 제3 물체)에서 기준점 차이가 모두 발생하면 차량의 피치 모션으로 판단한다.It also detects the third position 330 of the third object contained in the first image and the third position 360 of the third object contained in the second image. Then, a difference d3 between the third position 330 detected in the first image and the third position 360 detected in the second image is detected. That is, the first image and the second image are overlapped to detect the distance difference d3 between the vehicle and the third object. In the present invention, a first distance difference d1, a second distance difference d2, and a third distance difference d3 between the first image and the second image are defined as reference point differences. In this way, when all of the reference point differences occur in a plurality of objects (e.g., the first object, the second object, and the third object), the pitch motion of the vehicle is determined.

도 3b을 참조하면, 복수의 물체 중, 제1 물체에서는 기준점 차이가 발생하고, 제2 물체 및 제3 물체에서는 기준점 차이가 발생하지 않으면 차량의 논-피치 모션으로 판단한다.Referring to FIG. 3B, when a reference point difference occurs in the first object among the plurality of objects, and a reference point difference does not occur in the second object and the third object, the non-pitch motion of the vehicle is determined.

상기 S5에서 피치 모션이 검출되면, 즉, 상기 제1 이미지와 상기 제2 이미지의 차이가 복수의 물체에서 모두 검출되면 피치 모션이 발생한 것으로 판단한다. 그리고, 상기 검출된 피치 모션의 발생 정보를 이미지 보정부(170)에 공급한다.When the pitch motion is detected in S5, that is, when the difference between the first image and the second image is detected in all of the plurality of objects, it is determined that pitch motion has occurred. The detected pitch motion generation information is supplied to the image correction unit 170.

이어서, 이미지 보정부(170)는 피치 모션 검출 시, 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이에 기초하여 제2 프레임의 제1 이미지를 보정한다(S6).Next, in the pitch motion detection, the image correcting unit 170 corrects the first image of the second frame based on the reference point difference between the first image and the second image of the first frame (S6).

상기 수학식 2을 기초로 산출된 레이더의 이미지(P)를 월드 좌표(W)로 변환하여 이미지 좌표(U)를 생성한다. 피치 모션 검출 시, 이미지 보정부(170)에서 이미지 좌표(U)를 보정하여 제2 프레임의 제1 이미지로 변환한다. 피치 모션 검출부(160)에서 상기 이미지 좌표(U)를 참조하여 논-피치 모션을 검출하면, 이미지 보정부(170)는 상기 이미지 좌표(U)를 변환하지 않는다. 즉, 제2 프레임의 제1 이미지를 보정하지 않는다.(P) of the radar calculated on the basis of Equation (2) into the world coordinate (W) to generate the image coordinate (U). When the pitch motion is detected, the image correcting unit 170 corrects the image coordinates U and converts the image into the first image of the second frame. When the pitch motion detecting unit 160 detects non-pitch motion with reference to the image coordinates U, the image correcting unit 170 does not transform the image coordinates U. That is, the first image of the second frame is not corrected.

예로서, 이미지에서 피치 모션에 의한 픽셀 변화량을 좌표로 나타낸다. 상기 수학식 3을 이용하여, 고도 방향(z)을 기준으로 전방 물체 거리(x)에 대한 픽셀 변화량(Δz)을 검출한다.As an example, the amount of pixel change due to pitch motion in an image is indicated by coordinates. Using the above equation (3), the pixel variation amount? Z with respect to the front object distance (x) is detected based on the altitude direction (z).

이어서, 상기 수학식 4를 이용하여 이미지에서의 피치 변화량(Δv)을 검출한다. 센서 길이(f)에 픽셀 변화량(Δz)을 곱하여 얻은 결과 값을 전방 물체 거리(x)를 나누어서 피치 변화량(Δv)을 검출한다. . 이후, 검출된 피치 변화량(Δv)을 이용하여 제2 프레임의 제1 이미지를 보정한다.Next, the pitch variation amount? V in the image is detected using the equation (4). The pitch change amount? V is detected by dividing the resultant value obtained by multiplying the sensor length f by the pixel change amount? Z by the forward object distance x. . Then, the first image of the second frame is corrected using the detected pitch variation amount? V.

도 4a를 결부하여 설명하면, 피치 모션이 발생한 경우, 차량을 원점으로 지정하고, 고도(z)를 기준으로 전방 물체 거리(x)에 기초하여 픽셀 변화량(Δz)을 2차원의 그래프로 변환한다.4A, when the pitch motion occurs, the vehicle is designated as the origin, and the pixel variation amount? Z is converted into a two-dimensional graph based on the forward object distance x on the basis of the altitude z .

이어서, 도 4b를 참조하면, 픽셀 변화량(Δz)을 영상 좌표계로 변환하여 이미지에서의 피치 변화량(Δv)으로 변환한다.Next, referring to FIG. 4B, the pixel change amount? Z is converted into an image coordinate system and converted into a pitch change amount? V in the image.

자차와 복수의 물체 사이의 거리가 상이할 때, 피치 모션이 발생하면 자차와 가장 근접한 물체의 이미지 변화가 가장 크게 된다. 따라서, 본 발명에서 기준점 차이가 가장 큰 물체는 자차와 가장 근접한 물체라고 판단할 수 있다.When the distance between the car and the object is different, when the pitch motion occurs, the image change of the object closest to the car is the largest. Therefore, in the present invention, the object having the greatest reference point difference can be determined as the object closest to the vehicle.

한편, 상기 S5에서, 복수의 물체 중, 제1 물체에서는 기준점 차이가 발생하고, 제2 물체 및 제3 물체에서는 기준점 차이가 발생하지 않으면 차량의 논-피치 모션으로 판단한다.On the other hand, if the reference point difference occurs in the first object among the plurality of objects and the reference point difference does not occur in the second and third objects, the non-pitch motion of the vehicle is determined.

이어서, 이미지 보정부(170)는 상기 S6에서 검출된 상기 피치 모션을 기초하여, 제2 프레임의 제1 이미지로 변환한다. 한편, 논-피치 모션으로 판단되면 제2 프레임의 제1 이미지를 보정하지 않는다(S7).Subsequently, the image correcting section 170 converts the first image of the second frame based on the pitch motion detected at S6. On the other hand, if it is determined that the motion is non-pitch motion, the first image of the second frame is not corrected (S7).

하기의 방법으로 제1 이미지를 보정할 수 있다. 상기 수학식 2을 기초로 산출된 레이더의 이미지(P)를 월드 좌표(W)로 변환하여 이미지 좌표(U)를 생성한다. 피치 모션 검출 시, 이미지 보정부(170)에서 이미지 좌표(U)를 보정하여 제2 프레임의 제1 이미지로 변환한다. 피치 모션 검출부(160)에서 상기 이미지 좌표(U)를 참조하여 논-피치 모션을 검출하면, 이미지 보정부(170)는 상기 이미지 좌표(U)를 변환하지 않는다. 즉, 제2 프레임의 제1 이미지를 보정하지 않는다.The first image can be corrected by the following method. (P) of the radar calculated on the basis of Equation (2) into the world coordinate (W) to generate the image coordinate (U). When the pitch motion is detected, the image correcting unit 170 corrects the image coordinates U and converts the image into the first image of the second frame. When the pitch motion detecting unit 160 detects non-pitch motion with reference to the image coordinates U, the image correcting unit 170 does not transform the image coordinates U. That is, the first image of the second frame is not corrected.

자차와 복수의 물체 사이의 거리가 상이할 때, 피치 모션이 발생하면 자차와 가장 근접한 물체의 이미지 변화가 가장 크게 된다. 따라서, 본 발명에서 기준점 차이가 가장 큰 물체는 자차와 가장 근접한 물체라고 판단할 수 있다. 이미지 보정부(170)는 관심 영역에 포함된 복수의 물체 중 자차와 가장 근접한 물체를 기준으로 제2 프레임의 제1 이미지를 보정한다.When the distance between the car and the object is different, when the pitch motion occurs, the image change of the object closest to the car is the largest. Therefore, in the present invention, the object having the greatest reference point difference can be determined as the object closest to the vehicle. The image correcting unit 170 corrects the first image of the second frame on the basis of the object closest to the child of the plurality of objects included in the region of interest.

또한, 이미지 보정부(170)는 상기 제1 프레임에서 복수의 물체 각각에 대해서 제1 이미지와 제2 이미지의 기준점 차이를 산출하고, 상기 복수의 물체 중 기준점 차이가 가장 큰 물체를 기준으로 제2 프레임의 제1 이미지를 보정할 수 있다. 여기서, 기준점 차이가 가장 크다는 것은 자차와 전방에 위한 차량, 물체 또는 보행자의 고도 차이 또는 거리 차이의 변화가 크다는 것을 의미한다.In addition, the image correcting unit 170 may calculate the reference point difference between the first image and the second image for each of the plurality of objects in the first frame, and determine, based on the object having the largest reference point difference among the plurality of objects, The first image of the frame can be corrected. Here, the largest reference point difference means that the altitude difference of the vehicle, the object, or the pedestrian for the preceding vehicle or the change of the distance difference is large.

이어서, 제어부(180)는 이미지 보정부(170)에서 보정된 상기 제2 프레임의 제1 이미지에 기초하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어한다(S8). 피치 모션 검출 시 상기 제2 프레임의 제1 이미지로 공급받은 제어부(180)에서 차량의 속도, 조향 및 댐퍼(Damper)을 제어하는 방법과 논-피치 모션 검출 시 상기 이미지로 공급받은 제어부(180)에서 차량의 속도, 조향 및 댐퍼(Damper)을 제어하는 방법은 돌발 상황에 대처할 수 있다. 예를 들면, 학교 주변도로의 과속방지턱으로 인해 피치 모션의 상황인 경우에 어린 아이(보행자)가 전방에 레이더(110) 및 카메라(120)를 기초로 이미지가 검출될 경우 제어부(180)에서 피치 모션 상황에도 주행 지원을 보조하여 어린 아이(보행자) 및 운전자에 대한 안전을 지원한다.Then, the control unit 180 controls the speed, steering, and damper of the vehicle based on the first image of the second frame corrected by the image correcting unit 170 (S8). Steering and damper of the vehicle are controlled by the controller 180 supplied with the first image of the second frame at the time of pitch motion detection and a method of controlling the controller 180 supplied with the image at the non- , The way to control the speed, steering and damper of a vehicle can cope with an unexpected situation. For example, when a child (pedestrian) detects an image based on the radar 110 and the camera 120 in front of a child in a pitch motion situation due to a speed limit of the road around the school, Supports driving assistance even in the case of motion and supports safety for young children (pedestrians) and drivers.

이와 같이, 자차와 가장 근접한 물체를 기준으로 차량의 피치 모션 시, 돌발 상황을 대처하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어할 수 있다. 이를 통해, 차량 주행 시 안전을 확보할 수 있다. 또한, 기준점 차이가 가장 큰 물체를 기준으로 제2 프레임의 제1 이미지를 보정하여 차량의 피치 모션 시 돌발 상황을 대처하면 차량 주행 시 안전을 확보할 수 있다. 상술한 본 발명의 실시 예에 따른 차량의 주행 지원 장치의 구동 방법은 카메라의 제1 이미지와 레이더의 제2 이미지를 이용하여 관심 영역을 설정하고, 관심 영역에 위치하는 복수의 물체를 검출하여 전방의 차량 및 보행자의 위치를 알 수 있다.In this manner, the speed, steering, and damper of the vehicle can be controlled by coping with an unexpected situation at the pitch motion of the vehicle based on the object closest to the vehicle. This makes it possible to secure safety when driving the vehicle. Further, if the first image of the second frame is corrected based on the object having the largest difference of the reference point, and the unexpected situation occurs during the pitch motion of the vehicle, safety can be secured when driving the vehicle. A driving method of a driving support device for a vehicle according to an embodiment of the present invention sets a region of interest using a first image of a camera and a second image of a radar and detects a plurality of objects located in a region of interest The position of the vehicle and the pedestrian of the vehicle can be known.

또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치의 구동 방법은 제1 프레임에서 피치 모션이 발생 시, 카메라 이미지와 레이더 이미지의 기준점 차이를 산출하고, 상기 제1 프레임에서 산출된 기준점 차이에 기초하여 제2 프레임의 카메라 이미지를 보정할 수 있다.According to another aspect of the present invention, there is provided a method of driving a driving support apparatus for a vehicle, the method comprising: calculating a reference point difference between a camera image and a radar image when a pitch motion occurs in a first frame; The camera image of the second frame can be corrected.

또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치의 구동 방법은 피치 모션에 따른 이미지를 검출 시, 복수의 물체 중 가장 근접한 물체를 기준으로 차량의 속도, 조향 및 댐퍼(Damper)을 제어하여 피치 모션이 발생하더라도 운전자에게 안정감을 제공할 수 있다.In the driving method of a driving support device for a vehicle according to an embodiment of the present invention, when an image according to a pitch motion is detected, speed, steering, and damper of the vehicle are controlled based on the closest object among a plurality of objects It is possible to provide the driver with a sense of stability even when the pitch motion occurs.

또한, 본 발명의 실시 예에 따른 차량의 주행 지원 장치의 구동 방법은 카메라의 제1 이미지와 레이더의 제2 이미지의 기준점 차이가 가장 큰 물체를 기준으로 차량의 속도, 조향 및 댐퍼(Damper)을 제어하여 피치 모션이 발생해도 운전자에게 안정감을 제공할 수 있다.In addition, the driving method of a driving support device for a vehicle according to an embodiment of the present invention is a method for driving a driving support device for a vehicle, including a speed, a steering and a damper of a vehicle based on an object having a largest difference between a first image of the camera and a second image of the radar It is possible to provide the driver with a sense of stability even if the pitch motion occurs.

본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있으므로, 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention as defined by the following claims and their equivalents. Only. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

110: 레이더
120: 카메라
130: 속도 센서
140: 관심 영역 설정부
150: 물체 검출부
160: 피치 모션 검출부
170: 이미지 보정부
180: 제어부
210: 자차
220: 전방 물체
310: 제1 물체의 제1 위치
320: 제2 물체의 제2 위치
330: 제3 물체의 제3 위치
340: 제1 물체의 제1 위치
350: 제2 물체의 제2 위치
360: 제3 물체의 제3 위치
110: Radar
120: camera
130: Speed sensor
140: Interest area setting section
150: Object detection unit
160: pitch motion detector
170: image correction unit
180:
210: Car
220: forward object
310: first position of the first object
320: second position of the second object
330: Third position of the third object
340: first position of the first object
350: second position of the second object
360: Third position of the third object

Claims (10)

실시간으로 전방의 하나 이상의 물체와 자차와의 거리를 검출하여 프레임 단위로 거리 정보를 생성하는 레이더;
실시간으로 전방을 촬영하여 프레임 단위로 제1 이미지를 생성하는 카메라;
제1 프레임의 거리 정보를 제2 이미지로 변환하고,
상기 제1 프레임의 제1 이미지 및 제2 이미지에 기초하여 관심 영역을 설정하는 관심 영역 설정부;
상기 관심 영역에 위치하는 복수의 물체를 검출하는 물체 검출부;
차량의 속도 및 고도 변화에 따른 피치 모션을 검출하는 피치 모션 검출부;
피치 모션 발생 시, 상기 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이에 기초하여 제2 프레임의 제1 이미지를 보정하는 이미지 보정부;
보정된 제2 프레임의 제1 이미지에 기초하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어하는 제어부;를 포함하는 차량의 주행 지원 장치.
A radar for detecting a distance between at least one object ahead of the vehicle and the vehicle in real time and generating distance information on a frame-by-frame basis;
A camera for capturing a forward image in real time to generate a first image in frame units;
Converts the distance information of the first frame into a second image,
A region of interest setting unit that sets a region of interest based on the first image and the second image of the first frame;
An object detecting unit that detects a plurality of objects located in the ROI;
A pitch motion detector for detecting a pitch motion according to a change in vehicle speed and altitude;
An image correcting unit correcting a first image of a second frame based on a reference point difference between the first image and the second image of the first frame when the pitch motion occurs;
And a controller for controlling a speed, a steering, and a damper of the vehicle based on the first image of the corrected second frame.
제1 항에 있어서, 상기 피치 모션 검출부는,
상기 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이를 검출하고, 상기 기준점 차이에 기초하여 피치 모션을 검출하는 차량의 주행 지원 장치.
The apparatus of claim 1, wherein the pitch motion detector comprises:
Detecting a reference point difference between the first image and the second image of the first frame, and detecting the pitch motion based on the reference point difference.
제1 항에 있어서, 상기 물체 검출부는,
상기 제1 프레임에서 복수의 물체와 자차와의 거리를 산출하는 차량의 주행 지원 장치.
The apparatus according to claim 1,
And calculates the distance between the plurality of objects and the vehicle in the first frame.
제3 항에 있어서, 상기 이미지 보정부는,
상기 복수의 물체 중 자차와 가장 근접한 물체를 기준으로 제2 프레임의 제1 이미지를 보정하는 차량의 주행 지원 장치.
The image processing apparatus according to claim 3,
And corrects the first image of the second frame based on an object closest to the vehicle among the plurality of objects.
제1 항에 있어서, 상기 이미지 보정부는,
상기 제1 프레임에서 복수의 물체 각각에 대해서 상기 제1 이미지와 상기 제2 이미지의 기준점 차이를 산출하고,
상기 복수의 물체 중 기준점 차이가 가장 큰 물체를 기준으로 이미지를 보정하는 차량의 주행 지원 장치.
The image processing apparatus according to claim 1,
Calculating a reference point difference between the first image and the second image for each of a plurality of objects in the first frame,
And corrects the image based on an object having the largest reference point difference among the plurality of objects.
실시간으로 전방을 촬영하여 프레임 단위로 제1 이미지를 생성하는 단계;
실시간으로 전방의 하나 이상의 물체와 자차와의 거리를 검출하여 프레임 단위로 거리 정보를 생성하는 단계;
제1 프레임의 거리 정보를 제2 이미지로 변환하고, 상기 제1 프레임의 제1 이미지 및 제2 이미지에 기초하여 관심 영역을 설정하는 단계;
상기 관심 영역에 위치하는 복수의 물체를 검출하는 단계;
차량의 속도 및 고도 변화에 따른 피치 모션을 검출하는 단계;
피치 모션 발생 시, 상기 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이에 기초하여 제2 프레임의 제1 이미지를 보정하는 단계;
보정된 제2 프레임의 제1 이미지에 기초하여 차량의 속도, 조향 및 댐퍼(Damper)을 제어하는 단계;를 포함하는 차량의 주행 지원 장치의 구동 방법.
Capturing a forward image in real time to generate a first image in frame units;
Detecting distance between at least one object ahead and a vehicle in real time and generating distance information on a frame basis;
Converting the distance information of the first frame to a second image, and setting a region of interest based on the first image and the second image of the first frame;
Detecting a plurality of objects located in the region of interest;
Detecting pitch motion in accordance with a change in vehicle speed and altitude;
Correcting the first image of the second frame based on the reference point difference of the first image and the second image of the first frame when the pitch motion occurs;
And controlling a speed, a steering, and a damper of the vehicle based on the first image of the corrected second frame.
제6 항에 있어서, 상기 피치 모션 검출하는 단계에 있어서,
상기 제1 프레임의 제1 이미지와 제2 이미지의 기준점 차이를 검출하고, 상기 기준점 차이에 기초하여 피치 모션을 검출하는 차량의 주행 지원 장치의 구동 방법.
7. The method of claim 6, wherein in the step of detecting pitch motion,
Detecting a reference point difference between the first image and the second image of the first frame and detecting the pitch motion based on the reference point difference.
제6 항에 있어서, 상기 복수의 물체를 검출하는 단계에 있어서,
상기 제1 프레임에서 복수의 물체와 자차와의 거리를 산출하는 차량의 주행 지원 장치의 구동 방법.
The method according to claim 6, wherein, in the step of detecting the plurality of objects,
And calculates the distance between the plurality of objects and the vehicle in the first frame.
제8 항에 있어서, 상기 이미지 보정하는 단계에 있어서,
상기 복수의 물체 중 자차와 가장 근접한 물체를 기준으로 제2 프레임의 제1 이미지를 보정하는 차량의 주행 지원 장치의 구동 방법.
9. The method of claim 8, wherein in the image correction step,
And corrects the first image of the second frame based on an object closest to the child of the plurality of objects.
제6 항에 있어서, 상기 이미지 보정하는 단계에 있어서,
상기 제1 프레임에서 복수의 물체 각각에 대해서 상기 제1 이미지와 상기 제2 이미지의 기준점 차이를 산출하고, 상기 복수의 물체 중 기준점 차이가 가장 큰 물체를 기준으로 이미지를 보정하는 차량의 주행 지원 장치의 구동 방법.
7. The method of claim 6, wherein in the image correction step,
Wherein the control unit calculates a reference point difference between the first image and the second image for each of a plurality of objects in the first frame and corrects the image based on an object having the largest reference point difference among the plurality of objects, .
KR1020160165057A 2016-12-06 2016-12-06 Driving Support Apparatus Of Vehicle And Driving Method Thereof Active KR102494260B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160165057A KR102494260B1 (en) 2016-12-06 2016-12-06 Driving Support Apparatus Of Vehicle And Driving Method Thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160165057A KR102494260B1 (en) 2016-12-06 2016-12-06 Driving Support Apparatus Of Vehicle And Driving Method Thereof

Publications (2)

Publication Number Publication Date
KR20180064775A true KR20180064775A (en) 2018-06-15
KR102494260B1 KR102494260B1 (en) 2023-02-03

Family

ID=62628815

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160165057A Active KR102494260B1 (en) 2016-12-06 2016-12-06 Driving Support Apparatus Of Vehicle And Driving Method Thereof

Country Status (1)

Country Link
KR (1) KR102494260B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200052589A (en) * 2018-11-07 2020-05-15 현대자동차주식회사 Apparatus and method for removing misrecognition of front vehicle and vehicle including the same
WO2020145440A1 (en) * 2019-01-11 2020-07-16 엘지전자 주식회사 Electronic device for vehicle and operation method of electronic device for vehicle
KR20200098774A (en) * 2019-02-12 2020-08-21 주식회사 만도 Vehicle and method for controlling the same
KR20210006558A (en) * 2019-07-08 2021-01-19 현대자동차주식회사 Method and system for calibrating road surface information detected electronic control suspension
KR20210008981A (en) * 2019-07-15 2021-01-26 현대자동차주식회사 Apparatus and method for driving control of vehicle
KR20220097569A (en) * 2020-12-30 2022-07-08 아진산업(주) Apparatus for detecting passenger in a vehicle and method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4434296B1 (en) * 2008-09-05 2010-03-17 トヨタ自動車株式会社 Object detection device
JP2015041265A (en) * 2013-08-22 2015-03-02 株式会社デンソー Target detection device and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4434296B1 (en) * 2008-09-05 2010-03-17 トヨタ自動車株式会社 Object detection device
JP2015041265A (en) * 2013-08-22 2015-03-02 株式会社デンソー Target detection device and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
대한민국 공개특허번호: 10-2014-0123270(레이더 장치 및 영상 맵핑(mapping) 을 이용한 물체 감지 장치, 방법 및 시스템)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200052589A (en) * 2018-11-07 2020-05-15 현대자동차주식회사 Apparatus and method for removing misrecognition of front vehicle and vehicle including the same
WO2020145440A1 (en) * 2019-01-11 2020-07-16 엘지전자 주식회사 Electronic device for vehicle and operation method of electronic device for vehicle
KR20200098774A (en) * 2019-02-12 2020-08-21 주식회사 만도 Vehicle and method for controlling the same
KR20210006558A (en) * 2019-07-08 2021-01-19 현대자동차주식회사 Method and system for calibrating road surface information detected electronic control suspension
KR20210008981A (en) * 2019-07-15 2021-01-26 현대자동차주식회사 Apparatus and method for driving control of vehicle
KR20220097569A (en) * 2020-12-30 2022-07-08 아진산업(주) Apparatus for detecting passenger in a vehicle and method thereof

Also Published As

Publication number Publication date
KR102494260B1 (en) 2023-02-03

Similar Documents

Publication Publication Date Title
KR102494260B1 (en) Driving Support Apparatus Of Vehicle And Driving Method Thereof
JP4801821B2 (en) Road shape estimation device
JP6511406B2 (en) Calibration system, calibration device
CN109131067B (en) Tripod self-propelled vehicle and obstacle avoidance method thereof
US20160019429A1 (en) Image processing apparatus, solid object detection method, solid object detection program, and moving object control system
JP4433887B2 (en) Vehicle external recognition device
KR101991611B1 (en) Apparatus and method for setting stop position
WO2016092591A1 (en) Collision risk calculation device, collision risk display device, and vehicle body control device
US9734719B2 (en) Method and apparatus for guiding a vehicle in the surroundings of an object
JP6787157B2 (en) Vehicle control device
JP6856452B2 (en) Target judgment device and driving support system
KR20180055292A (en) Integration method for coordinates of multi lidar
JP2005209019A (en) Obstacle detection device, method and program
WO2019031137A1 (en) Roadside object detection device, roadside object detection method, and roadside object detection system
WO2017154389A1 (en) Image processing device, imaging device, mobile apparatus control system, image processing method, and program
US20240383479A1 (en) Vehicular sensing system with lateral threat assessment
JP7261588B2 (en) Traffic light recognition method and traffic light recognition device
JP6493000B2 (en) Road marking detection device and road marking detection method
JP5792378B2 (en) Method, apparatus and computer program for controlling the light emission of at least one headlight of a vehicle
JP5974718B2 (en) Vehicle travel support device and vehicle travel support method
JP7236849B2 (en) External recognition device
JP6489645B2 (en) Image processing device
JP2014167397A (en) Inter-vehicle distance calculation device and motion controlling method for the same
JP2010018223A (en) Device for detecting vehicle traveling road surface
KR102376203B1 (en) Providing method for autonomous vehicle control system

Legal Events

Date Code Title Description
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

R17-X000 Change to representative recorded

St.27 status event code: A-3-3-R10-R17-oth-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

A201 Request for examination
PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

P22-X000 Classification modified

St.27 status event code: A-2-2-P10-P22-nap-X000

PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

N231 Notification of change of applicant
PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

PN2301 Change of applicant

St.27 status event code: A-3-3-R10-R13-asn-PN2301

St.27 status event code: A-3-3-R10-R11-asn-PN2301

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载