+

WO2018131729A1 - 단일 카메라를 이용한 영상에서 움직이는 객체 검출 방법 및 시스템 - Google Patents

단일 카메라를 이용한 영상에서 움직이는 객체 검출 방법 및 시스템 Download PDF

Info

Publication number
WO2018131729A1
WO2018131729A1 PCT/KR2017/000359 KR2017000359W WO2018131729A1 WO 2018131729 A1 WO2018131729 A1 WO 2018131729A1 KR 2017000359 W KR2017000359 W KR 2017000359W WO 2018131729 A1 WO2018131729 A1 WO 2018131729A1
Authority
WO
WIPO (PCT)
Prior art keywords
divided
image
optical flow
region
object detection
Prior art date
Application number
PCT/KR2017/000359
Other languages
English (en)
French (fr)
Inventor
김정호
최병호
황영배
장성준
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Publication of WO2018131729A1 publication Critical patent/WO2018131729A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Definitions

  • the present invention relates to an object detection method, and more particularly, to a method and system for determining and detecting a moving object from an image sequence obtained by a single camera.
  • a stereo camera or a single camera can be used to calculate the movement of the camera and perform detection therefrom.
  • the technique of estimating camera movement has a problem in that accuracy decreases when there are many moving objects.
  • the present invention has been made to solve the above problems, and an object of the present invention is to provide an object detection method and system that can improve the accuracy in detecting a moving object based on a single camera.
  • an object detecting method includes: generating an optical flow image from an input image sequence; Extracting divided regions from an optical flow image; And generating a motion region from the extracted divided regions.
  • the motion regions may be generated by integrating or maintaining the divided regions through color comparison between the divided regions and neighboring divided regions.
  • the color difference values between the divided areas and the difference value in the boundary line may be compared to integrate or maintain the divided areas.
  • the moving region may be generated by maintaining or removing the divided region based on the size and position of the divided region in the optical flow image.
  • the size of the divided region may be the height of the divided region, and the position of the divided region may be the y-coordinate at the bottom of the divided region.
  • the input image sequence may be generated using a single camera.
  • the object detection system for generating an input image sequence; And a processor configured to generate an optical flow image from the input image sequence generated by the camera, extract the divided regions from the optical flow image, and generate a motion region from the extracted divided regions.
  • object detection performance may be improved by using an optical flow image, an image segmentation technique, and an object detection using an approximate size of a moving object using a single camera. Will be.
  • embodiments of the present invention can be applied to an intelligent driverless vehicle, and can be applied to a technology capable of recognizing such a situation.
  • FIG. 2 is a diagram illustrating an input image
  • FIG. 3 is a diagram illustrating an optical flow image of FIG. 2;
  • FIG. 4 is a diagram illustrating a result of extracting divided regions from an optical flow image
  • 5 to 8 are views provided for further explanation of a post-processing process for motion regions
  • 9 to 12 are views illustrating results of detecting a moving object from a single camera image by a method according to an embodiment of the present invention.
  • FIG. 13 is a block diagram of an object detection system according to another embodiment of the present invention.
  • the object detection method according to an embodiment of the present invention accurately detects moving objects in an image sequence generated by using a single camera.
  • the object detection method by using the image sequence obtained by a single camera to calculate the amount of movement of the pixels in the optical flow (moving by splitting the image through the size and direction of the flow) Detect objects and improve the performance of object detection through the approximate size of moving objects.
  • the object detection method by comparing the input image (current image) and the previous image in the image sequence generated using a single camera, Optical Flow ) Generates an image (S110).
  • FIG. 2 illustrates an input image
  • FIG. 3 illustrates an optical flow image of FIG. 2.
  • segmented regions are extracted by dividing adjacent pixels having the same colors that are determined to have a motion in the optical flow image generated in S110 (S120). 4 illustrates the results of extracting the divided regions from the optical flow image.
  • step S130 motion regions are generated from the divided regions obtained in operation S120 (S130).
  • the movement area generation in step S130 is performed by grouping the divided areas obtained in step S120 or removing / excluding a portion.
  • each partition is configured as a node in the graph, and neighboring partitions are connected as edges to compare two colors or to separate the partitions through color comparison.
  • Equation 1 the maximum color value in the partition is calculated by Equation 1 below.
  • Equation 2 The minimum color difference value at the boundary line between two neighboring partitions is calculated by Equation 2 below.
  • Equation 3 if the maximum color difference value, which is the difference value between the maximum color values inside the two partitions, is smaller than the minimum color difference value at the boundary line, the two partitions remain divided and vice versa. In this case, two partitions are combined and grouped into one partition.
  • k represents a constant value and ⁇ represents the number of pixels belonging to the divided region.
  • the motion regions determined as not the actual moving objects are removed by inferring whether the size of the movement regions corresponds to the size of the actual moving objects.
  • Equation 4 The correlation between the y coordinate and h is calculated from the linear relationship shown in Equation 4 below.
  • a linear function can be calculated by projecting an image at an interval of about 10 cm from an actual height of 1 m to 3 m (see FIG. 6), calculating a matrix A, calculating eigenvectors and eigenvalues from SVD (Singular Value Decomposition)
  • SVD Single Value Decomposition
  • h min and h max corresponding to y coordinates can be calculated.
  • the partition is determined to be not a moving object and removed.
  • FIG. 8 a result of removing regions which do not correspond to actual moving objects among the movement regions shown in FIG. 4 is shown in FIG. 8.
  • 9 to 12 illustrate the results of detecting a moving object from a single camera image by the method according to an embodiment of the present invention. It can be seen that the robust moving object can be detected by overcoming the limitation of estimating motion without distance information, which is the limitation of a single camera.
  • the object detection system includes a camera 110, an image processor 120, and an output unit 130 as shown in FIG. 13.
  • the camera 110 generates an image sequence with a single camera system, and the image processor 120 detects a moving object from a single camera image through the algorithm shown in FIG. 1.
  • the output unit 130 may be various means for outputting / saving a detection result of a moving object, such as a display, an interface, a memory, and the like.
  • the technical idea of the present invention can be applied to a computer-readable recording medium containing a computer program for performing the functions of the apparatus and method according to the present embodiment.
  • the technical idea according to various embodiments of the present disclosure may be implemented in the form of computer readable codes recorded on a computer readable recording medium.
  • the computer-readable recording medium can be any data storage device that can be read by a computer and can store data.
  • the computer-readable recording medium may be a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical disk, a hard disk drive, or the like.
  • the computer-readable code or program stored in the computer-readable recording medium may be transmitted through a network connected between the computers.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

단일 카메라를 이용한 영상에서 움직이는 객체 검출 방법 및 시스템이 제공된다. 본 발명의 실시예에 따른 객체 검출 방법은, 입력 영상 시퀀스로부터 광류 영상을 생성하고, 광류 영상에서 분할 영역들을 추출하며, 추출한 분할 영역들로부터 움직임 영역을 생성한다. 이에 의해, 객체 검출 성능을 향상시킬 수 있게 되며, 지능형 무인 자동차 드의 상황 인지 기술에 적용 가능하다.

Description

단일 카메라를 이용한 영상에서 움직이는 객체 검출 방법 및 시스템
본 발명은 객체 검출 방법에 관한 것으로, 더욱 상세하게는 단일 카메라로 획득한 영상 시퀀스로부터 움직이는 물체를 결정하고 검출하는 방법 및 시스템에 관한 것이다.
움직이는 객체를 검출하기 위해, 스테레오 카메라를 사용하거나 단일 카메라를 이용할 수 있으며, 카메라의 움직임을 계산하고 이로부터 검출을 수행하게 된다.
가격 경쟁력을 확보하기 위해서는, 단일 카메라 기반의 방법을 이용하는데, 카메라의 움직임을 추정하는 기술은 움직이는 객체가 많이 존재할 경우 정확도가 저하되는 문제가 있다.
이에, 단일 카메라를 이용하는 경우, 카메라의 움직임 추정 없이 움직이는 객체를 검출 방안의 모색이 요청된다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 단일 카메라 기반으로 움직이는 객체를 검출함에 있어, 정확도를 향상시킬 수 있는 객체 검출 방법 및 시스템을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 객체 검출 방법은, 입력 영상 시퀀스로부터 광류(Optical Flow) 영상을 생성하는 단계; 광류 영상에서 분할 영역들을 추출하는 단계; 및 추출한 분할 영역들로부터 움직임 영역을 생성하는 단계;를 포함한다.
움직임 영역 생성단계는, 분할 영역과 이웃하는 분할 영역의 색상 비교를 통해, 분할 영역들을 통합 또는 유지하여, 움직임 영역을 생성할 수 있다.
움직임 영역 생성단계는, 분할 영역들 간의 색상 차이 값과 경계선에서의 차이 값을 비교하여, 분할 영역들을 통합 또는 유지할 수 있다.
움직임 영역 생성단계는, 분할 영역의 크기가 작을수록 통합될 가능성을 높게 적용하고, 분할 영역의 크기가 클수록 통합될 가능성을 낮게 적용할 수 있다.
움직임 영역 생성단계는, 광류 영상에서 분할 영역의 크기와 위치를 기초로, 분할 영역을 유지 또는 제거하여, 움직임 영역을 생성할 수 있다.
분할 영역의 크기는, 분할 영역의 높이이고, 분할 영역의 위치는, 분할 영역의 최하단의 y 좌표일 수 있다.
입력 영상 시퀀스는, 단일 카메라를 이용하여 생성할 수 있다.
한편, 본 발명의 다른 실시예에 따른, 객체 검출 시스템은, 입력 영상 시퀀스를 생성하는 카메라; 및 카메라에서 생성된 입력 영상 시퀀스로부터 광류(Optical Flow) 영상을 생성하며, 광류 영상에서 분할 영역들을 추출하고, 추출한 분할 영역들로부터 움직임 영역을 생성하는 프로세서;를 포함한다.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 단일 카메라를 이용하여 광류(Optical Flow) 영상, 영상 분할 기법 및 움직이는 객체의 대략적인 크기를 이용한 객체 검출을 통해, 객체 검출 성능을 향상시킬 수 있게 된다.
또한, 본 발명의 실시예들은 지능형 무인 자동차에 적용 가능하며, 이와 같은 상황을 인지할 수 있는 기술에 적용 가능하다.
도 1은 본 발명의 일 실시예에 따른 객체 검출 방법의 설명에 제공되는 흐름도,
도 2는 입력 영상을 예시한 도면,
도 3은, 도 2에 대한 광류 영상을 예시한 도면,
도 4는 광류 영상에서 분할 영역들을 추출한 결과를 예시한 도면,
도 5 내지 도 8은, 움직임 영역들에 대한 후처리 과정의 부연 설명에 제공되는 도면들,
도 9 내지 도 12는, 본 발명의 실시예에 따른 방법으로 단일 카메라 영상으로부터 움직이는 객체를 검출한 결과들을 예시한 도면들, 그리고,
도 13은 본 발명의 다른 실시예에 따른 객체 검출 시스템의 블럭도이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 객체 검출 방법의 설명에 제공되는 흐름도이다. 본 발명의 실시예에 따른 객체 검출 방법은, 단일 카메라를 이용하여 생성한 영상 시퀀스에서 움직이는 객체를 정확하게 검출한다.
이를 위해, 본 발명의 실시예에 따른 객체 검출 방법은, 단일 카메라로 획득한 영상 시퀀스를 이용하여 픽셀들의 이동량을 광류(Optical Flow)로 계산하고, Flow의 크기와 방향을 통해서 영상을 분할하여 움직이는 객체를 검출하며, 움직이는 객체의 대략적인 크기를 통해 객체 검출의 성능을 향상시킨다.
구체적으로, 본 발명의 실시예에 따른 객체 검출 방법은, 도 1에 도시된 바와 같이, 단일 카메라를 이용하여 생성한 영상 시퀀스에서 입력 영상(현재 영상)과 이전 영상을 비교하여, 광류(Optical Flow) 영상을 생성한다(S110).
S110단계에서 생성된 광류 영상에는, 모든 픽셀의 이동방향과 이동량에 대한 정보가 색상으로 나타난다. 도 2에는 입력 영상을 예시하였고, 도 3에는 도 2에 대한 광류 영상을 예시하였다.
다음, S110단계에서 생성된 광류 영상에서 움직임이 발생한 것으로 판단되는 동일 색상들을 갖는 인접한 픽셀들을 구분하여 분할 영역들을 추출한다(S120). 도 4에는 광류 영상에서 분할 영역들을 추출한 결과를 예시하였다.
이후, S120단계에서 얻어진 분할 영역들로부터 움직임 영역들을 생성한다(S130). S130단계에서의 움직임 영역 생성은, S120단계에서 얻어진 분할 영역들을 합쳐 그룹핑하거나 일부를 제거/배제하는 과정을 통해 이루어진다.
움직임 영역의 생성에는 효과적인 그래프 기반의 영상 분할 기술이 이용된다. 구체적으로, 각 분할 영역을 그래프에서 노드(node)로 구성하고, 이웃하는 분할 영역들을 에지(edge)로 연결하여 색상의 비교를 통해서 두 분할 영역을 통합할지 아니면 분리된 분할 영역들로 남겨둘지를 결정한다.
이를 위해서 먼저 분할 영역 내에서 최대 색상 값을 아래의 수학식 1로 계산한다.
[수학식 1]
Figure PCTKR2017000359-appb-I000001
그리고 이웃하는 두 분할 영역 사이의 경계선에서 최소 색상 차이 값을 아래의 수학식 2로 계산한다.
[수학식 2]
Figure PCTKR2017000359-appb-I000002
그리고 아래의 수학식 3에 따라, 두 분할 영역 내부의 최대 색상 값 간의 차이 값인 최대 색상 차이 값이 경계선에서의 최소 색상 차이 값 보다 작으면 두 분할 영역은 분할된 상태로 그대로 유지하고, 그와 반대일 경우 두 분할 영역을 합쳐서 하나의 분할 영역으로 그룹핑 한다.
[수학식 3]
Figure PCTKR2017000359-appb-I000003
Figure PCTKR2017000359-appb-I000004
Figure PCTKR2017000359-appb-I000005
여기서, k는 상수값을 나타내며, τ는 분할 영역에 소속된 픽셀의 개수를 나타낸다.
이에 따라, 분할 영역의 크기가 작을수록 값이 커서 분할 영역이 합쳐질 확률은 높아지게 된다. 반면, 분할 영역의 크기가 클수록 분할 영역이 합쳐질 확률이 낮아지게 된다.
다음, 움직임 영역들에 대한 후처리 과정으로써, 움직임 영역들의 크기가 실제 움직이는 객체들의 크기에 상응하는지 추론하여 실제 움직이는 객체가 아니라고 판단되는 움직임 영역들을 제거한다.
이를 위해 먼저 검출하고자 하는 실제 움직이는 객체의 크기 범위를 정의/설정하여야 한다. 이를 테면, 1m로부터 3m까지의 높이값을 가지는 객체를 검출하기 위해, 도 5에 도시된 바와 같이 해당 높이의 가상 물체를 영상에 투영하여 영상에서의 객체 높이 h와 최하단의 y 좌표를 계산하여, 상관관계를 모델링한다.
y 좌표와 h 간의 상관관계는 아래의 수학식 4에 제시된 선형적인 관계식으로부터 계산한다. 이때 실제 높이 1m에서 3m까지 약 10cm를 간격으로 영상으로 투영하여(도 6 참조) 선형 함수를 계산할 수 있으며, 아래와 같이 행렬 A를 계산하고 SVD(Singular Value Decomposition)으로부터 eigenvector와 eigenvalue값 들을 계산하고, eigenvalue의 크기가 가장 큰 eigenvector가 구하고자 하는 선형식의 파라미터 a와 b가 된다.
[수학식 4]
Figure PCTKR2017000359-appb-I000006
이에 따르면 도 7에 도시된 바와 같이 y 좌표에 해당하는 hmin과 hmax를 계산할 수 있고, 분할 영역의 높이 값인 h가 이 범위에 포함되는지 확인하여, 만약 높이 h가 이 범위 내에 존재하지 않을 경우 분할 영역은 실제 움직이는 객체가 아닌 것으로 판단하여 제거한다.
이와 같은 방법에 따라 도 4에 제시된 움직임 영역들 중 실제 움직이는 객체에 해당하지 않는 영역들을 제거한 결과를 도 8에 제시하였다.
지금까지, 단일 카메라로 획득한 영상에 대해 광류 영상을 생성하여 움직이는 객체를 검출하고, 실제 움직이는 객체의 크기 검증을 통해 객체 검출의 성능을 향상시키는 방법에 대해, 바람직한 실시예를 들어 상세히 설명하였다.
도 9 내지 도 12에는 본 발명의 실시예에 따른 방법으로 단일 카메라 영상으로부터 움직이는 객체를 검출한 결과들을 예시하였다. 단일 카메라의 한계점인 거리정보 없이 움직임을 추정해야 하는 한계를 극복하고 강인하게 움직이는 물체를 검출할 수 있음을 확인할 수 있다.
도 13은 본 발명의 다른 실시예에 따른 객체 검출 시스템의 블럭도이다. 본 발명의 실시예에 따른 객체 검출 시스템은, 도 13에 도시된 바와 같이, 카메라(110), 영상 프로세서(120) 및 출력부(130)를 포함한다.
카메라(110)는 단일 카메라 시스템으로 영상 시퀀스를 생성하고, 영상 프로세서(120)는 도 1에 제시된 알고리즘을 통해 단일 카메라 영상으로부터 움직이는 객체를 검출한다.
출력부(130)는 움직이는 객체의 검출 결과 출력/저장하는 다양한 수단, 이를 테면, 디스플레이, 인터페이스, 메모리 등이다.
한편, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.

Claims (8)

  1. 입력 영상 시퀀스로부터 광류(Optical Flow) 영상을 생성하는 단계;
    광류 영상에서 분할 영역들을 추출하는 단계; 및
    추출한 분할 영역들로부터 움직임 영역을 생성하는 단계;를 포함하는 것을 특징으로 하는 객체 검출 방법.
  2. 청구항 1에 있어서,
    움직임 영역 생성단계는,
    분할 영역과 이웃하는 분할 영역의 색상 비교를 통해, 분할 영역들을 통합 또는 유지하여, 움직임 영역을 생성하는 것을 특징으로 하는 객체 검출 방법.
  3. 청구항 2에 있어서,
    움직임 영역 생성단계는,
    분할 영역들 간의 색상 차이 값과 경계선에서의 차이 값을 비교하여, 분할 영역들을 통합 또는 유지하는 것을 특징으로 하는 객체 검출 방법.
  4. 청구항 3에 있어서,
    움직임 영역 생성단계는,
    분할 영역의 크기가 작을수록 통합될 가능성을 높게 적용하고, 분할 영역의 크기가 클수록 통합될 가능성을 낮게 적용하는 것을 특징으로 하는 객체 검출 방법.
  5. 청구항 1에 있어서,
    움직임 영역 생성단계는,
    광류 영상에서 분할 영역의 크기와 위치를 기초로, 분할 영역을 유지 또는 제거하여, 움직임 영역을 생성하는 것을 특징으로 하는 객체 검출 방법.
  6. 청구항 5에 있어서,
    분할 영역의 크기는, 분할 영역의 높이이고,
    분할 영역의 위치는, 분할 영역의 최하단의 y 좌표인 것을 특징으로 하는 객체 검출 방법.
  7. 청구항 1에 있어서,
    입력 영상 시퀀스는,
    단일 카메라를 이용하여 생성하는 것을 특징으로 하는 객체 검출 방법.
  8. 입력 영상 시퀀스를 생성하는 카메라;
    카메라에서 생성된 입력 영상 시퀀스로부터 광류(Optical Flow) 영상을 생성하며, 광류 영상에서 분할 영역들을 추출하고, 추출한 분할 영역들로부터 움직임 영역을 생성하는 프로세서;를 포함하는 것을 특징으로 하는 객체 검출 시스템.
PCT/KR2017/000359 2017-01-11 2017-01-11 단일 카메라를 이용한 영상에서 움직이는 객체 검출 방법 및 시스템 WO2018131729A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170003980A KR102336284B1 (ko) 2017-01-11 2017-01-11 단일 카메라를 이용한 영상에서 움직이는 객체 검출 방법 및 시스템
KR10-2017-0003980 2017-01-11

Publications (1)

Publication Number Publication Date
WO2018131729A1 true WO2018131729A1 (ko) 2018-07-19

Family

ID=62840539

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/000359 WO2018131729A1 (ko) 2017-01-11 2017-01-11 단일 카메라를 이용한 영상에서 움직이는 객체 검출 방법 및 시스템

Country Status (2)

Country Link
KR (1) KR102336284B1 (ko)
WO (1) WO2018131729A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110007107B (zh) * 2019-04-02 2021-02-09 上海交通大学 一种集成不同焦距摄像头的光流传感器
WO2020242179A1 (ko) * 2019-05-29 2020-12-03 (주) 애니펜 콘텐츠를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110118376A (ko) * 2010-04-23 2011-10-31 동명대학교산학협력단 광류를 이용한 방범용 차량 감지 시스템
KR20130060274A (ko) * 2010-08-02 2013-06-07 페킹 유니버시티 효과적인 비디오 분류 및 검색을 위한 대표 모션 플로우 추출
KR20130075636A (ko) * 2011-12-27 2013-07-05 중앙대학교 산학협력단 배경 합성을 위한 자동 객체 분할 장치 및 방법
KR20150089677A (ko) * 2014-01-28 2015-08-05 엘지이노텍 주식회사 카메라 시스템, 캘리브레이션 장치 및 캘리브레이션 방법
KR20150113751A (ko) * 2014-03-31 2015-10-08 (주)트라이큐빅스 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 방법 및 장치

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004088599A (ja) * 2002-08-28 2004-03-18 Toshiba Corp 画像監視装置と画像監視方法
JP2008226261A (ja) * 2008-04-07 2008-09-25 Toshiba Corp オブジェクト検出方法
KR101141936B1 (ko) * 2010-10-29 2012-05-07 동명대학교산학협력단 광류장 기반의 손 이미지 영역 검출 방법 및 그 검출 방법에 의한 손동작 인식 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110118376A (ko) * 2010-04-23 2011-10-31 동명대학교산학협력단 광류를 이용한 방범용 차량 감지 시스템
KR20130060274A (ko) * 2010-08-02 2013-06-07 페킹 유니버시티 효과적인 비디오 분류 및 검색을 위한 대표 모션 플로우 추출
KR20130075636A (ko) * 2011-12-27 2013-07-05 중앙대학교 산학협력단 배경 합성을 위한 자동 객체 분할 장치 및 방법
KR20150089677A (ko) * 2014-01-28 2015-08-05 엘지이노텍 주식회사 카메라 시스템, 캘리브레이션 장치 및 캘리브레이션 방법
KR20150113751A (ko) * 2014-03-31 2015-10-08 (주)트라이큐빅스 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 방법 및 장치

Also Published As

Publication number Publication date
KR20180082739A (ko) 2018-07-19
KR102336284B1 (ko) 2021-12-08

Similar Documents

Publication Publication Date Title
WO2022050473A1 (ko) 카메라 포즈 추정 장치 및 방법
US11928800B2 (en) Image coordinate system transformation method and apparatus, device, and storage medium
CN106952269B (zh) 近邻可逆的视频前景物体序列检测分割方法及系统
WO2015126031A1 (ko) 사람 계수 방법 및 그를 위한 장치
WO2019169884A1 (zh) 基于深度信息的图像显著性检测方法和装置
WO2013048160A1 (ko) 얼굴 인식 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
CN109033972A (zh) 一种目标检测方法、装置、设备及存储介质
CN111382637B (zh) 行人检测跟踪方法、装置、终端设备及介质
CN106997478B (zh) 基于显著中心先验的rgb-d图像显著目标检测方法
KR101963404B1 (ko) 2-단계 최적화 딥 러닝 방법, 이를 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록매체 및 딥 러닝 시스템
WO2017150899A9 (ko) 전역적 다중 객체 추적을 위한 객체 재식별 방법
WO2019147024A1 (ko) 다른 초점 거리를 갖는 두 개의 카메라를 이용한 객체 검출 방법 및 그 장치
CN105740751A (zh) 一种目标检测与识别的方法和系统
CN114072839A (zh) 单目静止相机视频中的分层运动表示与提取
CN107610177A (zh) 一种同步定位与地图构建中确定特征点的方法和设备
KR20230166840A (ko) 인공지능을 이용한 객체 이동 경로 확인 방법
WO2023050810A1 (zh) 一种目标检测的方法、装置、电子设备及存储介质、计算机程序产品
WO2014185691A1 (ko) 연속 촬영 이미지에서의 고조점 이미지 추출 장치 및 방법
CN117593548A (zh) 基于加权注意力机制去除动态特征点的视觉slam方法
WO2018131729A1 (ko) 단일 카메라를 이용한 영상에서 움직이는 객체 검출 방법 및 시스템
CN113129249B (zh) 基于深度视频的空间平面检测方法及其系统和电子设备
WO2016104842A1 (ko) 카메라의 왜곡을 고려한 물체 인식 시스템 및 방법
Bikmullina et al. Stand for development of tasks of detection and recognition of objects on image
JP5027201B2 (ja) テロップ文字領域検出方法,テロップ文字領域検出装置およびテロップ文字領域検出プログラム
CN114399729A (zh) 监控对象移动识别方法、系统、终端及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17890997

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17890997

Country of ref document: EP

Kind code of ref document: A1

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载