+

KR20230093891A - Apparatus for uniting underwater images and method therof - Google Patents

Apparatus for uniting underwater images and method therof Download PDF

Info

Publication number
KR20230093891A
KR20230093891A KR1020210182885A KR20210182885A KR20230093891A KR 20230093891 A KR20230093891 A KR 20230093891A KR 1020210182885 A KR1020210182885 A KR 1020210182885A KR 20210182885 A KR20210182885 A KR 20210182885A KR 20230093891 A KR20230093891 A KR 20230093891A
Authority
KR
South Korea
Prior art keywords
image
underwater
sonar
optical
optical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020210182885A
Other languages
Korean (ko)
Other versions
KR102599739B1 (en
Inventor
김수미
김홍기
서정민
Original Assignee
한국해양과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국해양과학기술원 filed Critical 한국해양과학기술원
Priority to KR1020210182885A priority Critical patent/KR102599739B1/en
Publication of KR20230093891A publication Critical patent/KR20230093891A/en
Application granted granted Critical
Publication of KR102599739B1 publication Critical patent/KR102599739B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • G06T5/002
    • G06T5/009
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

An embodiment of the present invention relates to an apparatus and method for uniting an optical image captured using an RGB camera under water and a sonar image captured using a sonar camera and, more specifically, to an apparatus for uniting images and a method for uniting underwater images using the same to confirm a distance between the image of an underwater object that can be confirmed by an optical image and an underwater object that can be confirmed by an sonar image as an united image.

Description

수중 영상 융합 장치 및 이를 이용한 수중 영상 융합 방법 {APPARATUS FOR UNITING UNDERWATER IMAGES AND METHOD THEROF}Underwater image fusion device and underwater image fusion method using the same {APPARATUS FOR UNITING UNDERWATER IMAGES AND METHOD THEROF}

본 발명은, 수중 내에서 RGB 카메라를 이용하여 촬영한 광학 영상과 소나 카메라를 이용하여 촬영한 소나 영상을 융합하는 장치 및 방법에 관한 것으로서, 더욱 상세하게는 광학 영상으로 확인 가능한 수중 대상체의 이미지와 소나 영상으로 확인 가능한 수중 대상체와의 거리를 하나의 융합 영상으로 확인할 수 있도록 수중 영상 융합 장치 및 이를 이용한 수중 영상 융합 방법에 관한 것이다. The present invention relates to an apparatus and method for fusing an optical image captured using an RGB camera and a sonar image captured using a sonar camera in water, and more particularly, to an image of an underwater object that can be confirmed with an optical image and a sonar image. The present invention relates to an underwater image convergence device and an underwater image convergence method using the same to confirm a distance to an underwater object that can be confirmed by sonar image as a single convergence image.

이하에서 기술되는 내용은 본 발명의 실시 예와 관련되는 배경 정보를 제공할 목적으로 기재된 것일 뿐이고, 기술되는 내용들이 당연하게 종래기술을 구성하는 것은 아니다. The contents described below are only described for the purpose of providing background information related to an embodiment of the present invention, and the contents described do not naturally constitute prior art.

최근 극한의 수중작업을 사람을 대신하여 수중무인기(Unmanned underwater vehicle)를 투입하여 안전하게 진행하는 수요가 증가하고 있다. 수중무인기를 활용한 수중작업 시, 수중 상황을 보다 정확하게 가시화하는 영상센서는 필수적인 센싱 기술 중 하나이다. Recently, there is an increasing demand for safely carrying out extreme underwater work by introducing an unmanned underwater vehicle instead of a person. When working underwater using an underwater drone, an image sensor that visualizes the underwater situation more accurately is one of the essential sensing technologies.

이중 가장 널리 사용되는 수중 영상센서는 광학카메라와 멀티빔 소나이다. Among them, the most widely used underwater imaging sensors are optical cameras and multi-beam sonars.

광학카메라는 빛 신호를 감지하여 RGB(red, green, blue) 색조의 영상을 제공하며, 멀티빔 소나는 음파를 이용하여 피사체와의 거리 및 방향 정보를 영상으로 표현할 수 있다. An optical camera detects a light signal and provides an image in red, green, blue (RGB) tones, and a multi-beam sonar uses sound waves to express distance and direction information to a subject as an image.

그러나, 수중 광학 영상의 경우, 물에 의한 신호 감쇠 현상이 빛의 파장에 따라 다르게 발생하여 RGB 색상의 불균형성(color casting)을 초래한다는 한계가 있다. 또한, 플랑크톤 및 수중 부유물에 의하여 빛의 산란과 반사 현상으로 대조도 및 선명도가 저하될 수 있다는 문제가 있다. However, in the case of underwater optical imaging, there is a limitation in that signal attenuation caused by water occurs differently depending on the wavelength of light, resulting in color casting of RGB colors. In addition, there is a problem that contrast and sharpness may be deteriorated due to light scattering and reflection by plankton and floating matter in the water.

이와 다르게, 멀티빔 소나는 물을 잘 투과하는 음파의 특성상 시야가 확보되지 않는 상황에도 수중탐지가 가능하다는 장점이 있다. 그러나, 낮은 해상도 및 신호대잡음비로 소나영상의 품질이 저하되고 비전문가가 영상 내 관심물체를 직관적으로 인지하여 필요한 정보를 얻는 것이 매우 어렵다는 한계가 있다. Unlike this, multi-beam sonar has the advantage of being able to detect underwater even in situations where visibility is not secured due to the characteristics of sound waves that penetrate water well. However, there is a limit in that the quality of the sonar image is degraded due to low resolution and signal-to-noise ratio, and it is very difficult for non-experts to intuitively recognize the object of interest in the image and obtain necessary information.

따라서, 수중 환경을 보다 정확하게 가시화할 수 있는 장치 및 방법이 요구되고 있는 실정이다. Accordingly, there is a demand for an apparatus and method capable of more accurately visualizing an underwater environment.

전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.The foregoing background art is technical information that the inventor possessed for derivation of the present invention or acquired during the derivation process of the present invention, and cannot necessarily be said to be known art disclosed to the general public prior to filing the present invention.

본 발명의 일 실시 예는 수중 환경을 보다 정확하게 가시화할 수 있는 수중 영상 융합 장치 및 이를 이용한 수중 영상 융합 방법을 제공하는 것이다. An embodiment of the present invention is to provide an underwater image fusion device capable of more accurately visualizing an underwater environment and an underwater image fusion method using the same.

또한, 본 발명의 일 실시 예는 수중 내에서 촬영한 영상의 품질을 개선할 수 있는 수중 영상 융합 장치 및 이를 이용한 수중 영상 융합 방법을 제공하는 것이다. In addition, an embodiment of the present invention is to provide an underwater image convergence device capable of improving the quality of an image captured underwater and an underwater image convergence method using the same.

본 발명의 목적은 이상에서 언급한 과제에 한정되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시 예에 의해보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 알 수 있을 것이다.The object of the present invention is not limited to the above-mentioned tasks, and other objects and advantages of the present invention not mentioned above can be understood by the following description and will be more clearly understood by the embodiments of the present invention. It will also be seen that the objects and advantages of the present invention may be realized by means of the instrumentalities and combinations indicated in the claims.

본 발명의 실시 예에 따른 수중 영상 융합 방법은, 수중 정보를 모니터링하기 위한 수중 대상체를 촬영한 적어도 하나의 광학 영상 및 소나 영상을 수집하고, 수집된 상기 광학 영상의 색조를 보정하여 보정된 광학 영상을 생성하며, 상기 소나 영상에 포함된 잡음을 제거하여 보정된 소나 영상을 생성한 후, 상기 보정된 광학 영상 및 상기 보정된 소나 영상을 융합한 융합 영상을 생성하는 과정을 통해 수행될 수 있다.An underwater image fusion method according to an embodiment of the present invention collects at least one optical image and a sonar image of an underwater object for monitoring underwater information, corrects the color tone of the collected optical image, and corrects the corrected optical image. It can be performed through a process of generating a corrected sonar image by removing noise included in the sonar image, and then generating a fusion image in which the corrected optical image and the corrected sonar image are fused.

본 발명의 실시 예에 따르면, 광학 영상 색조 보정 이후에 상기 보정된 광학 영상의 채도(Colorfulness) 및 선명도 (Sharpness), 대조도 (Contrast)의 가중치 합을 통해 상기 보정된 광학 영상의 개선도를 평가할 수 있다. According to an embodiment of the present invention, after color correction of the optical image, the degree of improvement of the corrected optical image may be evaluated through a weighted sum of saturation, sharpness, and contrast of the corrected optical image. can

본 발명의 실시 예에 따르면, 광학 영상 색조 보정 시 상기 광학 영상의 백색 균형을 설정하고, 이미지 히스토그램 균일화를 통해 상기 광학 영상의 이미지를 최적화한 후, 최적화된 상기 광학 영상을 언샤프 마스킹(UnSharp Masking)을 통해 상기 광학 영상에 포함된 노이즈를 제거할 수 있다. According to an embodiment of the present invention, when correcting the color tone of an optical image, the white balance of the optical image is set, the image of the optical image is optimized through image histogram equalization, and then the optimized optical image is unsharp masked ), it is possible to remove noise included in the optical image.

본 발명의 실시 예에 따르면, 소나 영상 생성 시, 상기 소나 영상에서 관심 영역을 설정하고, 상기 관심 영역 내의 대조도대잡음비 (Contrast to noise ratio, CNR)를 측정할 수 있다. According to an embodiment of the present invention, when generating a sonar image, a region of interest may be set in the sonar image, and a contrast to noise ratio (CNR) within the region of interest may be measured.

본 발명의 실시 예에 따르면, 소나 영상 생성 시, 상기 소나 영상을 미디언 필터(median) 및 감마 보정(gamma correction)에 적용하는 단계를 포함하고, 상기 감마 보정은,

Figure pat00001
에 의해 정의될 수 있다. According to an embodiment of the present invention, generating a sonar image includes applying a median filter and gamma correction to the sonar image, wherein the gamma correction comprises:
Figure pat00001
can be defined by

본 발명의 실시 예에 따르면, 융합 영상 생성 시, 상기 보정된 광학 영상 및 상기 보정된 소나 영상에서 임의의 제1 포인트 및 제2 포인트를 설정하고, 상기 제1 포인트 및 상기 제2 포인트를 정합하는 과정으로 수행될 수 있다. According to an embodiment of the present invention, when generating a fusion image, setting an arbitrary first point and a second point in the corrected optical image and the corrected sonar image, and matching the first point and the second point process can be performed.

본 발명의 실시 예에 따르면, 제1 포인트 및 제2 포인트를 설정 시, 상기 제1 포인트에서 이미지 좌표를 추출하고, 상기 이미지 좌표를 좌표 행렬로 변환한 후, 상기 좌표 행렬을 추출하는 변환 행렬에 기 설정된 기준 행렬을 순차적으로 곱하여 상기 좌표 행렬을 추출할 수 있다. According to an embodiment of the present invention, when setting a first point and a second point, image coordinates are extracted from the first point, the image coordinates are converted into a coordinate matrix, and then a transformation matrix for extracting the coordinate matrix is used. The coordinate matrix may be extracted by sequentially multiplying a preset reference matrix.

본 발명의 실시 예에 따르면, 상기 이미지 좌표에서 x, y, z축을 회전하는 행렬인 회전행렬과 상기 이미지 좌표의 x, y, z축을 이동하는 정도를 나타내는 전이행렬이 나열된 행렬을 상기 광학 영상의 화소크기 및 상기 광학 영상의 중심점 파라미터 값들로 표현되는 행렬인 영상파라이터 행렬을 순차적으로 곱하여 상기 변환 행렬을 추출할 수 있다. According to an embodiment of the present invention, a matrix in which a rotation matrix, which is a matrix that rotates the x, y, and z axes of the image coordinates, and a transition matrix representing the degree of movement of the x, y, and z axes of the image coordinates are listed is a matrix of the optical image. The conversion matrix may be extracted by sequentially multiplying a pixel size and an image parameter matrix, which is a matrix expressed by parameter values of the center point of the optical image.

본 발명의 실시 예에 따르면, 상기 보정된 광학 영상에서 상기 수중 대상체의 모서리를 지정하는 상기 제1 포인트를 설정하고, 상기 보정된 소나 영상에서 상기 수중 대상체의 거리를 지정하는 상기 제2 포인트를 설정한 후, 상기 제1 포인트와 상기 제2 포인트를 정합하여 상기 수중 대상체의 형상 및 상기 수중 대상체와의 거리를 측정할 수 있다. According to an embodiment of the present invention, the first point designating the corner of the underwater object is set in the corrected optical image, and the second point designating the distance of the underwater object is set in the corrected sonar image. After that, the shape of the underwater object and the distance to the underwater object may be measured by matching the first point and the second point.

본 발명의 실시 예에 따른 수중 영상 융합 장치는, 수중 정보를 모니터링하기 위한 수중 대상체를 촬영한 적어도 하나의 광학 영상 및 소나 영상을 수집한 후, 상기 광학 영상의 색조를 보정하고, 상기 소나 영상에 포함된 상기 수중 대상체와 상기 수중 대상체 주변부 사이의 경계면 및 대조도를 개선하면, 상기 광학 영상 및 상기 소나 영상을 융합한 융합 영상을 생성하는 코드들을 저장할 수 있다. An underwater image convergence device according to an embodiment of the present invention collects at least one optical image of an underwater object and a sonar image for monitoring underwater information, corrects the color tone of the optical image, and adds the sonar image to the sonar image. Codes for generating a fusion image in which the optical image and the sonar image are fused may be stored when an interface and a contrast between the included underwater object and the periphery of the underwater object are improved.

전술한 것 외의 다른 측면, 특징, 및 이점이 이하의 도면, 청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명의 실시 예는 수중 내에서 RGB 광학 카메라를 통해 수중 대상체를 촬영하고, 이와 동시에 수중 소나를 이용하여 수중 대상체를 촬영할 수 있다. 촬영한 광학 영상과 소나 영상은 색조 보정 및 대조도(Contrast) 등을 개선할 수 있으며, 개선된 두 영상은 융합될 수 있다. According to an embodiment of the present invention, an underwater object may be photographed underwater using an RGB optical camera, and at the same time, an underwater subject may be photographed using an underwater sonar. The captured optical image and the sonar image can be improved in color correction and contrast, and the two improved images can be fused.

융합 영상은 색조를 포함하고 있으며, 융합 장치와 수중 대상체 사이의 거리 정보를 포함할 수 있다. 즉, 융합 영상은 수중 대상체를 직관적으로 인지할 수 있음과 동시에 수중 내 음파를 통해 수중 대상체와의 거리를 측정할 수 있다. 즉, 수중 대상체의 직관적 정보와 수중 대상체와의 거리 정보를 동시에 측정 및 획득할 수 있다는 효과가 있다. The fusion image includes color tones and may include distance information between the fusion device and the underwater object. That is, the fusion image can intuitively recognize an underwater object and measure the distance to the underwater object through sound waves in the water. That is, there is an effect of simultaneously measuring and obtaining intuitive information of an underwater object and distance information to the underwater object.

본 발명의 효과는 이상에서 언급된 것들에 한정되지 않으며, 언급되지 아니한 다른 효과들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 발명의 실시 예에 따른 수중 영상 융합 장치가 적용된 수중 영상 융합 환경을 도시한 도면이다.
도 2는 도 1의 수중 영상 융합 장치를 도시한 사시도이다.
도 3은 본 발명의 실시 예에 따른 수중 영상 융합 장치의 구성을 도시한 블록도이다.
도 4은 본 발명의 실시 예에 따른 수중 영상 융합 과정을 도시한 흐름도이다.
도 5은 본 발명의 실시 예에 따른 수중 영상 융합 장치를 통해 획득한 광학 영상과 소나 영상의 융합 과정을 도시한 도면이다.
도 6 내지 도 8은 본 발명의 실시 예에 따른 수중 영상 융합 장치를 통해 획득한 광학 영상의 보정 과정을 도시한 도면이다.
도 9는 본 발명의 실시 예에 따른 수중 영상 융합 장치를 통해 획득한 소나 영상의 보정 과정을 도시한 도면이다.
1 is a diagram illustrating an underwater image fusion environment to which an underwater image fusion device according to an embodiment of the present invention is applied.
FIG. 2 is a perspective view illustrating the underwater image convergence device of FIG. 1 .
3 is a block diagram showing the configuration of an underwater video convergence device according to an embodiment of the present invention.
4 is a flowchart illustrating an underwater image fusion process according to an embodiment of the present invention.
5 is a diagram illustrating a fusion process of an optical image and a sonar image acquired through an underwater image convergence device according to an embodiment of the present invention.
6 to 8 are diagrams illustrating a process of correcting an optical image acquired through an underwater image convergence device according to an embodiment of the present invention.
9 is a diagram illustrating a process of correcting a sonar image acquired through an underwater image convergence device according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 발명된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 발명된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 발명된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 발명된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 발명된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the embodiments invented in this specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used together in consideration of ease of writing the specification, and do not have meanings or roles that are distinct from each other by themselves. In addition, when it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification in describing the embodiments disclosed herein, the detailed descriptions thereof will be omitted. In addition, the accompanying drawings are only for making it easy to understand the embodiments invented in this specification, and the technical ideas invented in this specification are not limited by the accompanying drawings, and are included in the spirit and technical scope of the present invention. It should be understood to include all modifications, equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first and second, may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수개의 표현을 포함한다.Expressions in the singular number include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as "comprise" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

도 1은 본 발명의 실시 예에 따른 수중 영상 융합 장치가 적용된 수중 영상 융합 시스템의 환경을 도시한 도면이다.1 is a diagram illustrating an environment of an underwater image fusion system to which an underwater image fusion device according to an embodiment of the present invention is applied.

도 1을 참고하면, 본 발명의 실시 예에 따른 수중 영상 융합 장치가 적용된 수중 영상 융합 환경(10)은 수중 내에 위치한 수중 대상체를 촬영하고, 촬영한 영상이나 이미지를 기초로 대상체를 직관적으로 확인함과 동시에 수중 대상체와의 거리, 수중 대상체의 방향 등을 측정할 수 있도록 한다. Referring to FIG. 1 , an underwater image fusion environment 10 to which an underwater image fusion device according to an embodiment of the present invention is applied captures an underwater object located in the water and intuitively identifies the object based on the captured video or image. At the same time, the distance to the underwater object and the direction of the underwater object can be measured.

이를 위해 수중 영상 융합 환경(10)은 수중 영상 융합을 위한 장치(100), 서버(200)가 네트워크(300)을 통해 통신 연결되어 있다. To this end, in the underwater video convergence environment 10, the device 100 and the server 200 for underwater video convergence are communicatively connected through a network 300.

구체적으로 수중 영상 융합 장치(100)는 수중 내에서 수중 대상체를 광학 영상 및 소나 영상으로 동시에 촬영할 수 있는 장치이며, 본 발명의 실시 예에서는 광학 영상은 서로 다른 각도에서 촬영할 수 있도록 한 쌍의 광학 카메라(120)와 한 쌍의 광학 카메라(120) 사이에 소나 영상을 촬영할 수 있는 멀티빔 소나(130)을 포함한 예를 들어 설명하기로 한다.Specifically, the underwater image convergence device 100 is a device capable of simultaneously capturing an underwater object as an optical image and a sonar image in the water. An example including a multi-beam sonar 130 capable of capturing sonar images between the 120 and the pair of optical cameras 120 will be described.

이러한 수중 영상 융합 장치(100)는 수중 대상체와 소정 거리를 두고 설치될 수 있다. 특히, 광학 카메라(120)는 일 방향 또는 360도 회전 가능하게 설치되어 다양한 방향에서 수중 대상체를 촬영할 수 있도록 한다. The underwater image convergence device 100 may be installed at a predetermined distance from an underwater object. In particular, the optical camera 120 is installed to be rotatable in one direction or 360 degrees so that an underwater object can be photographed from various directions.

이러한 수중 영상 융합 장치(100)는 촬영 모드에서 수중 대상체의 광학 영상 및 소나 영상을 동시에 획득할 수 있다. 획득한 광학 영상 및 소나 영상은 수중 영상 융합 장치(100)에 포함된 메모리(130)에 저장되거나 서버(200)로 전송되어 서버(200)의 메모리(미도시)에 저장될 수 있다. The underwater image convergence apparatus 100 may simultaneously acquire an optical image and a sonar image of an underwater object in a photographing mode. The acquired optical image and sonar image may be stored in the memory 130 included in the underwater image convergence device 100 or transmitted to the server 200 and stored in a memory (not shown) of the server 200.

서버(200)는 본 발명의 실시 예에서 설명되는 수중 대상체의 직관적 정보(예: 색조감) 및 수중 대상체와의 거리나 수중 대상체가 위치한 방향 등의 정보를 모니터링하기 위한 각종 서비스를 제공한다. 구체적으로 서버(200)는 수중 영상 융합 장치(100)가 촬영한 수중 대상체의 영상이나 이미지에서 광학 영상과 소나 영상을 획득하고 획득한 영상들을 융합하여 융합 영상을 추출할 수 있다. The server 200 provides various services for monitoring intuitive information (eg, color tone) of an underwater object described in an embodiment of the present invention and information such as a distance to the underwater object or a direction in which the underwater object is located. In detail, the server 200 may obtain an optical image and a sonar image from an image or image of an underwater object captured by the underwater image convergence device 100 and fuse the obtained images to extract a fusion image.

또한, 서버(200)는 추출한 융합 영상을 기초로 수중 대상체의 광학적 특성과 수중 대상체와의 거리를 계산할 수 있으며, 계산된 결과를 단말(미도시)이나 PC(미도시) 등으로 전송할 수 있다. 이하 광학 영상과 소나 영상을 융합하는 기술에 관하여는 후술하기로 한다. In addition, the server 200 may calculate the optical characteristics of the underwater object and the distance to the underwater object based on the extracted fusion image, and may transmit the calculated result to a terminal (not shown) or a PC (not shown). Hereinafter, a technology for converging an optical image and a sonar image will be described later.

한편, 본 발명의 실시 예에서는 수중 영상 융합 장치(100)를 통해 촬영된 광학 영상 및 소나 영상을 서버(200)로 전송한 후, 서버(200)에서 광학 영상 및 소나 영상을 융합에 적절한 영상으로 보정한 후, 보정된 영상을 융합하는 예를 들어 설명하기로 하지만, 다르게는 수중 영상 융합 장치(100)에서 원본 영상을 보정하고, 보정된 영상을 융합할 수도 있음은 물론이다. On the other hand, in an embodiment of the present invention, after transmitting the optical image and sonar image captured by the underwater image convergence device 100 to the server 200, the server 200 converts the optical image and sonar image into an image suitable for convergence. An example of fusing the corrected images after correction will be described, but it goes without saying that the original image may be corrected in the underwater image fusion device 100 and the corrected images may be fused.

네트워크(300)는 유선 및 무선 네트워크, 예를 들어 예를 들어 LAN(local area network), WAN(wide area network), 인터넷(internet), 인트라넷(intranet) 및 엑스트라넷(extranet), 그리고 모바일 네트워크, 예를 들어 셀룰러, 3G, LTE, 5G, WiFi 네트워크, 애드혹 네트워크 및 이들의 조합을 비롯한 임의의 적절한 통신 네트워크 일 수 있다.Network 300 includes wired and wireless networks, such as, for example, local area networks (LANs), wide area networks (WANs), the Internet, intranets and extranets, and mobile networks, It may be any suitable communication network including, for example, cellular, 3G, LTE, 5G, WiFi networks, ad hoc networks, and combinations thereof.

네트워크(300)는 허브, 브리지, 라우터, 스위치 및 게이트웨이와 같은 네트워크 요소들의 연결을 포함할 수 있다. 네트워크(300)는 인터넷과 같은 공용 네트워크 및 안전한 기업 사설 네트워크와 같은 사설 네트워크를 비롯한 하나 이상의 연결된 네트워크들, 예컨대 다중 네트워크 환경을 포함할 수 있다. 네트워크(300)에의 액세스는 하나 이상의 유선 또는 무선 액세스 네트워크들을 통해 제공될 수 있다. Network 300 may include connections of network elements such as hubs, bridges, routers, switches, and gateways. Network 300 may include one or more connected networks, such as a multiple network environment, including a public network such as the Internet and a private network such as a secure corporate private network. Access to network 300 may be provided via one or more wired or wireless access networks.

도 2는 도 1의 수중 영상 융합 장치를 도시한 사시도이고, 도 3은 본 발명의 실시 예에 따른 수중 영상 융합 장치의 구성을 도시한 블록도이다. 2 is a perspective view showing the underwater image fusion device of FIG. 1, and FIG. 3 is a block diagram showing the configuration of the underwater image fusion device according to an embodiment of the present invention.

도 2를 참고하면, 수중 영상 융합 장치(100)는 프레임(150), 조명(110), 광학 카메라(120), 멀티빔 소나(130) 등을 포함하여 구성될 수 있다. Referring to FIG. 2 , the underwater image convergence device 100 may include a frame 150, lighting 110, an optical camera 120, a multi-beam sonar 130, and the like.

구체적으로 프레임(150)은 수중 영상 융합 장치(100) 전체 외관을 형성하는 구성일 수 있다. 이러한 프레임(150)의 형상은 수중 영상 융합 장치(100)을 형성하는 과정에서 결정될 수 있으며, 프레임(150)의 형상은 조건에 따라 다르게 적용될 수 있다. Specifically, the frame 150 may be a component that forms the overall appearance of the underwater image convergence device 100. The shape of the frame 150 may be determined in the process of forming the underwater image convergence device 100, and the shape of the frame 150 may be applied differently depending on conditions.

프레임(150) 내측에는 적어도 하나의 조명(110)이 설치될 수 있다. 조명(110)은 수중 영상 융합 장치(100)가 수중 대상체를 촬영할 때, 수중 대상체를 향해 빛을 조사하는 장치일 수 있다. 이러한 조명(110)은 수중 내에서 작동할 수 있도록 방수 구조로 형성될 수 있고, 수중 내에서 최소한의 전력으로 작동할 수 있도록 LED 조명으로 구성되는 것이 바람직하다. At least one light 110 may be installed inside the frame 150 . The lighting 110 may be a device that radiates light toward an underwater object when the underwater image convergence device 100 captures the underwater object. These lights 110 may be formed of a waterproof structure to operate in the water, it is preferable to be composed of LED lights to operate with a minimum of power in the water.

또한, 조명(110)은 프레임(150)의 좌, 우(도 2의 방향축 참고) 양 측에 설치되어 조도가 낮은 경우에도 수중 촬영이 이루어질 수 있도록 구성될 수 있다. In addition, the lighting 110 may be installed on both the left and right sides of the frame 150 (refer to the directional axis of FIG. 2 ) so that underwater photography can be performed even when the illumination is low.

광학 카메라(120) 및 멀티빔 소나(130)는 프레임(150)의 중심측에 설치될 수 있으며, 적어도 하나의 광학 카메라(120)가 설치될 수 있다. 본 발명의 실시 예에서는 한 쌍의 광학 카메라(120)가 설치되고, 하나의 멀티빔 소나(130)가 한 쌍의 광학 카메라(120) 사이에 설치되는 예를 들어 설명하지만, 광학 카메라(120) 및 멀티빔 소나(130)의 설치 개수, 설치 위치 등은 조건에 따라 변경될 수 있다. The optical camera 120 and the multi-beam sonar 130 may be installed at the center of the frame 150, and at least one optical camera 120 may be installed. In the embodiment of the present invention, an example in which a pair of optical cameras 120 are installed and one multi-beam sonar 130 is installed between the pair of optical cameras 120 will be described, but the optical camera 120 And the installation number and installation location of the multi-beam sonar 130 may be changed according to conditions.

광학 카메라(120)는 수중 내에서 빛 신호를 감지하여 RGB 색조의 영상 및 이미지를 촬영할 수 있는 장치이고, 멀티빔 소나(130)는 음파를 이용하여 수중 대상체와의 거리 및 방향 정보를 영상으로 표현할 수 있는 장치이다. The optical camera 120 is a device capable of capturing RGB color images and images by detecting light signals in the water, and the multi-beam sonar 130 expresses distance and direction information to an underwater object using sound waves as an image. It is a device that can

설명한 바와 같이 광학 카메라(120)는 빛 신호를 감지하기 때문에 물에 의한 신호 감쇠 현상이 빛의 파장에 따라 수중 대상체의 촬영 영상 또는 이미지가 실제 수중 대상체의 형상과 다르게 촬영될 수 있다. 이러한 불균형을 최소화하기 위하여 광학 카메라(120)는 다양한 각도에서 수중 대상체를 촬영할 수 있도록 구현될 수 있다. 이를 위해 프레임(150)에는 광학 카메라(120)를 회동시킬 수 있는 회전축(122_도 1 참고)이 설치될 수 있고, 광학 카메라(120)는 회전축(122)에 설치될 수 있다. 이때, 회전축(122)은 좌, 우측과 상, 하측 모두 회전하거나, 좌, 우측 또는 상, 하측 중 어느 하나의 방향으로만 회전할 수 있다. As described above, since the optical camera 120 detects a light signal, the signal attenuation caused by water may cause a captured image or image of an underwater object to be captured differently from a shape of the actual underwater object according to the wavelength of light. In order to minimize such an imbalance, the optical camera 120 may be implemented to photograph an underwater object from various angles. To this end, a rotation axis (122_refer to FIG. 1 ) capable of rotating the optical camera 120 may be installed in the frame 150 , and the optical camera 120 may be installed on the rotation axis 122 . At this time, the rotating shaft 122 may rotate left, right, up, and down, or rotate only in any one direction of left, right, or up and down.

멀티빔 소나(130)는 수중 내에서 시야가 확보되지 않은 상황에서도 수중 대상체를 인지하고, 수중 대상체와의 거리나 수중 대상체가 위치한 방향 등을 측정할 수 있는 탐지기라고 할 수 있다. The multi-beam sonar 130 may be referred to as a detector capable of recognizing an underwater object and measuring a distance to the underwater object or a direction in which the underwater object is located even when the field of view is not secured underwater.

한편, 수중 영상 융합 장치(100)는 광학 카메라(120) 및 멀티빔 소나(130)를 구동시킬 수 있는 모터가 각각 설치될 수 있다. 또한, 광학 카메라(120) 및 멀티빔 소나(130)는 동시에 수중 대상체를 촬영할 수 있으며, 광학 영상 및 소나 영상이 동시에 촬영됨에 따라 융합 영상을 생성할 때 시간 차이를 계산하지 않고 광학 영상과 소나 영상을 융합할 수 있게 된다. Meanwhile, in the underwater image fusion device 100, motors capable of driving the optical camera 120 and the multi-beam sonar 130 may be respectively installed. In addition, the optical camera 120 and the multi-beam sonar 130 can simultaneously photograph an underwater object, and since the optical image and the sonar image are simultaneously captured, the optical image and the sonar image are not calculated for a time difference when generating a fusion image. can be fused.

한편, 도 3을 참고하면, 수중 영상 융합 장치(100)는 통신부(110), 데이터 획득부(120), 보정부(140), 융합부(150), 메모리(130) 및 프로세서(160)를 포함한다. Meanwhile, referring to FIG. 3 , the underwater image convergence device 100 includes a communication unit 110, a data acquisition unit 120, a correction unit 140, a fusion unit 150, a memory 130 and a processor 160. include

통신부(110)는 서버(200)와 통신 연결될 수 있는 구성이다. 구체적으로 통신부(110)는 수중 영상 융합 장치(100)에서 획득한 광학 영상 및 소나 영상을 서버(200)로 송신할 수 있으며, 서버(200)에서 광학 영상과 소나 영상을 융합한 융합 영상을 수신 받을 수 있다. The communication unit 110 is a component that can be connected to the server 200 through communication. Specifically, the communication unit 110 may transmit the optical image and the sonar image acquired by the underwater image convergence device 100 to the server 200, and the server 200 receives the convergence image obtained by fusing the optical image and the sonar image. can receive

데이터 획득부(120)는 광학 카메라(120) 및 멀티빔 소나(130)를 통해 획득한 광학 영상과 소나 영상을 획득하는 구성이다. 이러한 데이터 획득부(120)는 동시에 광학 영상과 소나 영상을 획득할 수 있다. 이는 융합 영상을 생성할 때, 같은 시간대의 같은 수중 대상체를 촬영한 영상을 기준으로 융합 영상을 생성하여야 수중 대상체의 색조, 거리 및 방향 등을 보다 정확하게 추출할 수 있기 때문이다. The data acquisition unit 120 is a component that acquires an optical image and a sonar image acquired through the optical camera 120 and the multi-beam sonar 130 . The data acquisition unit 120 may simultaneously acquire an optical image and a sonar image. This is because when generating a fusion image, the color tone, distance, and direction of the underwater object can be more accurately extracted only when the fusion image is generated based on an image of the same underwater object photographed at the same time.

보정부(140)는 획득한 광학 영상과 소나 영상을 융합 영상으로 생성하기 전에 보정하는 구성이다. 이러한 보정부(140)는 광학 영상을 보정하는 제1 보정부(142)와 소나 영상을 보정하는 제2 보정부(144)를 포함할 수 있다. The correction unit 140 is a component that corrects the acquired optical image and sonar image before generating a fusion image. The correction unit 140 may include a first correction unit 142 for correcting an optical image and a second correction unit 144 for correcting a sonar image.

각각의 보정부는 조건에 따라 광학 영상과 소나 영상을 보정할 수 있으며, 보정의 조건 등을 요구되는 조건에 따라 변경될 수 있다. Each correction unit may correct an optical image and a sonar image according to conditions, and conditions of correction may be changed according to required conditions.

본 발명의 실시 예에서 융합 영상은 서버(200)에서 이루어지는 예를 들지만 다르게는 수중 영상 융합 장치(100)에서 이루어질 수 있다. 따라서 융합부(150)는 수중 영상 융합 장치(100)에서 광학 영상과 소나 영상을 융합하기 위한 구성일 수 있다. In an embodiment of the present invention, the convergence video is performed in the server 200, but may be performed in the underwater video convergence device 100 otherwise. Accordingly, the fusion unit 150 may be a component for fusing optical images and sonar images in the underwater image fusion device 100 .

메모리(130)는 수중 영상 융합 장치(100)에서 촬영한 영상을 저장할 수 있으며, 서버(200)에서 수행하는 다양한 기능을 지원하는 데이터를 저장할 수 있다. The memory 130 may store images captured by the underwater image convergence device 100 and may store data supporting various functions performed by the server 200 .

프로세서(160)는 앞서 설명된 응용 프로그램과 관련한 동작 이외에 통상적으로 수중 영상 융합 장치(100)의 전반적인 동작을 제어할 수 있다. 프로세서(160)는 앞서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(130)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The processor 160 may control general operations of the underwater video convergence device 100 in addition to operations related to the above-described application program. The processor 160 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the components described above or by running an application program stored in the memory 130.

도 4은 본 발명의 실시 예에 따른 수중 영상 융합 과정을 도시한 흐름도이고, 도 5은 본 발명의 실시 예에 따른 수중 영상 융합 장치를 통해 획득한 광학 영상과 소나 영상의 융합 과정을 도시한 도면이며, 도 6 내지 도 8은 본 발명의 실시 예에 따른 수중 영상 융합 장치를 통해 획득한 광학 영상의 보정 과정을 도시한 도면이고, 도 9는 본 발명의 실시 예에 따른 수중 영상 융합 장치를 통해 획득한 소나 영상의 보정 과정을 도시한 도면이다. 4 is a flowchart illustrating an underwater image fusion process according to an embodiment of the present invention, and FIG. 5 is a diagram showing a fusion process between an optical image and a sonar image acquired through an underwater image fusion device according to an embodiment of the present invention. 6 to 8 are diagrams illustrating a process of correcting an optical image obtained through an underwater image fusion device according to an embodiment of the present invention, and FIG. 9 is a view showing an underwater image fusion device according to an embodiment of the present invention It is a diagram showing the correction process of the acquired sonar image.

도면을 참고하면, 광학 카메라(120)에서 수중 대상체를 촬영할 수 있다(S110). 설명한 바와 같이, 광학 카메라(120)는 수중 대상체의 빛 신호를 감지하여 RGB(red, green, blue) 색조의 영상을 촬영할 수 있다. Referring to the drawing, the optical camera 120 may capture an underwater object (S110). As described above, the optical camera 120 may capture a red, green, and blue (RGB) color image by detecting a light signal of an underwater object.

광학 카메라(120)로 수중 대상체를 촬영할 때, 물에 의한 신호 감쇠 현상이 빛의 파장을 다르게 하여 RGB 색상의 불균형성(color casting)이 발생할 수 있다. 이러한 문제를 위해, 광학 카메라(120)로 촬영된 영상 또는/및 이미지의 개선할 수 있다(S120). 이미지 개선은 Image Fusion 기법을 통해 수행될 수 있다. When an underwater object is photographed by the optical camera 120, a signal attenuation phenomenon caused by water may cause light wavelengths to be different, resulting in RGB color imbalance (color casting). For this problem, it is possible to improve a video or/and an image captured by the optical camera 120 (S120). Image enhancement can be performed through the Image Fusion technique.

우선, 이미지 개선을 위해 원본 이미지의 색조 보정이 수행될 수 있다. 색조 보정이란, 광학 영상의 백색 균형을 설정하는 것으로, 수중 내에서 촬영된 광학 영상의 화질을 측정하여 색조가 명확한 광학 영상이 도출될 수 있도록 한다. First, tonal correction of the original image may be performed to improve the image. Color correction is to set the white balance of an optical image, and measures the image quality of an optical image taken underwater so that an optical image with clear color tone can be derived.

도 6 및 도 7에 도시된 바와 같이 광학 카메라(120)에서 촬영한 원본 영상의 색조를 보정(White balancing)할 수 있다. 색조 보정은 다음의 식으로 계산될 수 있다. As shown in FIGS. 6 and 7 , the color tone of the original image captured by the optical camera 120 may be corrected (white balancing). Tonal correction can be calculated with the following formula.

Figure pat00002
Figure pat00002

여기서, WBr과 WBb는 색조 보정 후 영상의 붉은 색과 파란 색 채널의 값을 의미하며, Ir, Ib, Ig는 각각 원 영상의 붉은 색, 파란 색과 녹색 채널의 값을 의미할 수 있다. 또한,

Figure pat00003
,
Figure pat00004
,
Figure pat00005
는 각각 원 영상의 붉은 색, 파란 색과 녹색 채널의 평균값을 의미할 수 있다. Here, WB r and WB b mean the values of the red and blue channels of the image after tonal correction, and I r , I b , and I g mean the values of the red, blue and green channels of the original image, respectively. can do. also,
Figure pat00003
,
Figure pat00004
,
Figure pat00005
may mean average values of red, blue, and green channels of the original image, respectively.

즉, [수학식 1] 및 도 7을 참고하면 색과 파란 색 채널의 값이 녹색의 평균값에 최대한 가깝도록 색조를 보정할 수 있다. 또한, α는 보정값의 가중치를 의미할 수 있다. That is, referring to [Equation 1] and FIG. 7, the color tone can be corrected so that the values of the color and blue channels are as close as possible to the average values of green. Also, α may mean a weight of the correction value.

원본 데이터의 색조를 보정하면, 원본 이미지의 대비를 개선할 수 있다(contrast limited adaptive histogram equalization (CLAHE)). 구체적으로 이미지 히스토그램 균일화를 통해 광학 영상 이미지를 최적화할 수 있다. By correcting the color tone of the original data, the contrast of the original image can be improved (contrast limited adaptive histogram equalization (CLAHE)). Specifically, an optical video image may be optimized through image histogram equalization.

이후, 최적화된 광학 영상은 언샤프 마스킹(UnSharp Masking)을 통해 광학 영상에 포함된 노이즈를 제거할 수 있다. 이때, 노이즈를 제거하기 위한 언샤프 마스킹의 프로세스는 다음의 식으로 표현될 수 있다. Thereafter, the optimized optical image may remove noise included in the optical image through unsharp masking. At this time, the process of unsharp masking to remove noise can be expressed by the following equation.

Figure pat00006
Figure pat00006

[수학식 2]에서 WB는 색조 보정 후 영상을 의미하여 G는 가우시안 필터를 의미한다. 색조 보정 후 영상을 가우시안 필터로 저주파 성분이 강하게 만든 다음 색조 보정 후 영상에서 빼면 고주파 성분만을 남길 수 있고 이를 색조 보정 후 영상에 더해줌으로 선명도를 강화할 수 있다.In [Equation 2], WB means an image after color correction, and G means a Gaussian filter. After color correction, if the low-frequency component is made stronger with a Gaussian filter, and then subtracted from the image after color correction, only the high-frequency component can be left, and sharpness can be enhanced by adding it to the image after color correction.

노이즈가 제거된 이미지는 Image Fusion 기법으로 화질이 개선된 이미지를 추출하도록 한다. 이때, Image Fusion 기법은 다음의 식으로 구현될 수 있다. The image from which the noise has been removed is extracted using the Image Fusion technique with improved image quality. At this time, the Image Fusion technique may be implemented in the following equation.

Figure pat00007
Figure pat00007

여기서, Rk는 CLAHE (k=1)와 언샤프 마스킹 (k=2) 후 영상을 의미한다. ωk는 CLAHE와 언샤프 마스킹 후 영상의 각 픽셀값을 어느 정도로 융합할지 결정하는 가중치를 의미한다. ωk는 다음의 식을 통해 도출될 수 있다.Here, R k means the image after CLAHE (k=1) and unsharp masking (k=2). ω k means a weight that determines how much to fuse each pixel value of the image after CLAHE and unsharp masking. ω k can be derived through the following equation.

Figure pat00008
Figure pat00008

여기서 WLap은 Laplacian Contrast weight로 영상의 휘도 채널에 Lapalcian 필터를 적용하여 결정된 각 픽셀의 가중치이고, Wsat은 Saturation weight로 RGB 색상모델과 YCbCr 색상모델의 휘도 (Y)의 평균 차이로 결정며, Wsal은 saliency weight로 CIELAB 색상모델에서 나타나는 주요 특징을 추출하여 결정할 수 있다. Here, WLap is the Laplacian Contrast weight, which is the weight of each pixel determined by applying the Lapalcian filter to the luminance channel of the image, and Wsat is the Saturation weight, which is determined by the average difference between the luminance (Y) of the RGB color model and the YCbCr color model, and Wsal is the It can be determined by extracting the main features appearing in the CIELAB color model as a saliency weight.

화질을 개선한 광학 영상은 개선도를 평가할 수 있다. 도 5에 도시된 바와 같이, 개선도는 보정된 광학 영상의 RGB 색상의 불균형의 감소 정도 등을 확인하는 것이라 할 수 있다. 이러한 개선도 평가는 보정된 광학 영상의 채도(Colorfulness) 및 선명도 (Sharpness), 대조도 (Contrast)의 가중치 합을 통해 추출할 수 있다. 구체적으로 개선도는 다음의 식을 통해 도출될 수 있다. Optical images with improved image quality can evaluate the degree of improvement. As shown in FIG. 5 , the degree of improvement can be referred to as confirming the degree of reduction of RGB color imbalance of the corrected optical image. This improvement evaluation can be extracted through a weighted sum of the chroma, sharpness, and contrast of the corrected optical image. Specifically, the degree of improvement can be derived through the following equation.

Figure pat00009
Figure pat00009

이때, UICM는 채도(Colorfulness)를 의미하고, UISM은 선명도(Sharpness)를 의미하며, UIConM은 대조도(Contrast)를 의미할 수 있다. 또한 각 가중치(a₁, a₂, a₃)은 조건에 따라 다르게 적용될 수 있다. In this case, UICM may mean colorfulness, UISM may mean sharpness, and UIConM may mean contrast. In addition, each weight (a₁, a₂, a₃) can be applied differently depending on conditions.

도 7에 도시된 바와 같이 개선도 평가에 의해, 광학 영상의 경우 원본 영상에 비해 화질이 개선한 후, 광학 영상의 채도, 선명도 및 대조도가 증가한 것을 알 수 있다. As shown in FIG. 7 , it can be seen that, in the case of the optical image, after the image quality is improved compared to the original image, the saturation, sharpness, and contrast of the optical image are increased by the evaluation of the degree of improvement.

광학 카메라(120)에서 수중 대상체를 촬영함과 동시에 멀티빔 소나(130)에서 수중 대상체로 음파를 전달하고, 전달된 음파가 수중 대상체로 되돌아오는 과정을 통해 수중 대상체와의 거리 및 방향 정도를 측정할 수 있다. The optical camera 120 captures the underwater object, transmits sound waves from the multi-beam sonar 130 to the underwater object, and measures the distance and direction of the underwater object through a process in which the transmitted sound waves return to the underwater object. can do.

멀티빔 소나(130)에서 측정한 수중 대상체와의 거리 및 방향 정도는 수중 내 잡음과 함께 수집되기 때문에 획득한 소나 영상에서 잡음을 제거해야 한다(S130). Since the distance and direction of the underwater object measured by the multi-beam sonar 130 are collected together with noise in the water, noise must be removed from the acquired sonar image (S130).

이를 위해, 소나 영상에서 관심 영역(I)을 설정할 수 있다. 관심 영역(I)이란, 수중 대상체가 위치할 수 있는 영역이거나 작업자의 요청에 따라 이미지 화질을 개선하고자 하는 영역 중 어느 하나일 수 있다. To this end, a region of interest (I) may be set in the sonar image. The region of interest (I) may be any one of an area where an underwater object can be located or an area in which image quality is to be improved according to a request of an operator.

관심 영역(I)이 설정되면, 관심 영역 내의 대조도잡음비(Contrast to noise ratio, CNR)를 측정할 수 있다. 대조도잡음비란, 다음의 식으로 구현될 수 있다.When the region of interest (I) is set, a contrast to noise ratio (CNR) within the region of interest may be measured. The contrast-to-noise ratio can be implemented by the following equation.

Figure pat00010
Figure pat00010

여기서 SA-SB는 수중 대상체가 감지되는 RoI((Region of interest)의신호세기의 차라고 할 수 있으며, σA-σB는 측정되는잡음(Noise)의 표준편차의 차라고 할 수 있다.Here, SA-SB can be referred to as the difference in signal strength of RoI ((Region of interest) where an underwater object is detected, and σA-σB can be referred to as the difference in standard deviation of noise being measured.

이러한 대조도잡음비를 측정하면 도 6과 같이 원본 소나 영상이 화질이 개선된 소나 영상으로 추출될 수 있다. By measuring this contrast-to-noise ratio, the original sonar image can be extracted as a sonar image with improved quality, as shown in FIG. 6 .

한편, 소나 영상 개선 시, 소나 영상을 미디언 필터(median) 및 감마 보정(gamma correction)에 적용할 수 있다. 미디언 필터(Median Filter)는 주어진 마스크 영역의 값들을 크기 순서대로 정렬한 후 중간 크기의 값을 선택하는 필터라고 할 수 있다. Meanwhile, when improving a sonar image, a median filter and gamma correction may be applied to the sonar image. A median filter can be referred to as a filter that selects a medium-sized value after arranging the values of a given mask area in order of size.

예컨대 픽셀에 따른 픽셀값을 크기 순서대로 정렬한 후 중간 픽셀값을 선택하여 노이즈가 심한 픽셀의 경우 높은 화질의 영상으로 추출될 수 있다는 특징이 있다. For example, after arranging pixel values according to pixels in order of size, a middle pixel value is selected so that a pixel with severe noise can be extracted as a high-quality image.

또한, 감마 보정은 영상/이미지의 그라데이션(Gradation, 계조) 특성을 보정하는 것을 의미할 수 있다. 즉, 감마 보정은 영상 등에서 비선형 전달함수(Nonlinear Transfer Function)를 사용해 빛의 강도(Intensity) 신호를 비선형적으로 변형할 수 있는 것을 의미한다. Also, gamma correction may mean correcting a gradation (gradation) characteristic of a video/image. That is, gamma correction means that a light intensity signal can be nonlinearly transformed using a nonlinear transfer function in an image or the like.

한편, 본 발명의 실시 예에 따른 감마 보정은 다음의 식으로 구현될 수 있다. Meanwhile, gamma correction according to an embodiment of the present invention may be implemented by the following equation.

Figure pat00011
Figure pat00011

수학식 7에서 I(x,y)는 좌표 (x,y) 위치의 원 소나영상 픽셀값을 의미하며, J(x,y)는 감마 보정 후 소나영상의 픽셀값을 의미할 수 있다. 또한, γ는 보정계수를 의미할 수 있다.In Equation 7, I(x,y) may mean a pixel value of an elemental sonar image at the position of coordinates (x,y), and J(x,y) may mean a pixel value of a sonar image after gamma correction. Also, γ may mean a correction coefficient.

이러한 감마 보정 및 미디어 필터를 소나 영상에 적용함에 따라 소나 영상에 포함된 잡음을 제거할 수 있으며, 소나 영상의 음영을 보다 밝게 개선할 수 있게 된다(도 9의 영역 1 참고). By applying such gamma correction and media filter to the sonar image, noise included in the sonar image can be removed, and the shadow of the sonar image can be improved more brightly (refer to area 1 in FIG. 9).

이와 같이 수중 영상 융합 장치(100)를 통해 광학 영상과 소나 영상을 수집 및 보정하면 보정된 광학 영상과 보정된 소나 영상을 융합한 융합 영상을 생성할 수 있다(S140). In this way, when the optical image and the sonar image are collected and corrected through the underwater image convergence device 100, a fusion image in which the corrected optical image and the corrected sonar image are fused can be generated (S140).

융합 영상은 동시에 획득하여 보정한 광학 영상과 소나 영상을 융합한 영상으로, 융합 영상을 생성하기 위해서는 도 5에 도시된 바와 같이 광학 영상과 소나 영상에서 임의의 제1 포인트(P₁)와 제2 포인트(P₂)를 설정할 수 있다(도 5의 (a) 및 (b) 참고). The fusion image is an image in which an optical image obtained and calibrated at the same time is fused with a sonar image. In order to generate a fusion image, as shown in FIG. 5, an arbitrary first point P1 and a second point (P₂) can be set (refer to (a) and (b) of FIG. 5).

제1 포인트(P₁)는 보정된 광학 영상에서 수중 대상체의 모서리를 지정하는 위치라고 할 수 있으며, 제2 포인트(P₂)는 보정된 소나 영상에서 수중 대상체의 거리를 지정하는 위치라고 할 수 있다. The first point P1 may be referred to as a position designating the corner of the underwater object in the corrected optical image, and the second point P2 may be referred to as a position designating the distance of the underwater object in the corrected sonar image.

이와 같이 보정된 광학 영상 및 소나 영상에서 제1 포인트(P₁) 및 제2 포인트(P₂)를 설정한 후, 제1 포인트(P₁)와 제2 포인트(P₂)를 정합할 수 있다. 도 5을 참고하면, 보정된 광학 영상의 모서리를 지정하는 제1 포인트와 보정된 소나 영상의 모서리를 지정하는 제2 포인트가 정합(A)될 수 있다(도 5의 (c) 참고). After setting the first point (P1) and the second point (P2) in the optical image and the sonar image thus corrected, the first point (P1) and the second point (P2) may be matched. Referring to FIG. 5 , a first point designating a corner of a corrected optical image and a second point designating a corner of a corrected sonar image may be matched (A) (refer to (c) of FIG. 5 ).

제1 포인트 및 제2 포인트가 정합되면 광학 영상과 소나 영상이 합쳐진 융합 영상이 생성될 수 있다(도 5의(d) 참고). When the first point and the second point are matched, a fusion image in which the optical image and the sonar image are combined may be generated (refer to (d) of FIG. 5 ).

설명한 바와 같이 제1 포인트(P₁)는 보정된 광학 영상의 모서리 좌표를 나타내는 위치이고, 제2 포인트(P₂)는 보정된 소나 영상의 모서리 좌표를 나타내는 위치이므로, 서로 다른 정보를 포함하고 있다. 따라서, 두 모서리를 정합할 때, 색조 정보와 거리 정보를 포함할 수 있도록 변환해야 한다. As described above, the first point P1 is a position indicating the corner coordinates of the corrected optical image, and the second point P2 is a position indicating the corner coordinates of the corrected sonar image, so they contain different information. Therefore, when matching two edges, it should be converted to include color tone information and distance information.

이를 위해, 제1 포인트(P₁)를 추출할 때, 제1 포인트(P₁)를 이미지 좌표로 추출할 수 있으며, 추출되는 이미지 좌표는 좌표 행렬로 변환될 수 있다. To this end, when extracting the first point P1, the first point P1 may be extracted as image coordinates, and the extracted image coordinates may be converted into a coordinate matrix.

제1 포인트(P₁)의 좌표를 통해 좌표 행렬을 추출할 때, 좌표 행렬을 추출할 수 있는 변환 행렬에 기 설정된 기준 행렬을 순차적으로 곱하여 추출할 수 있다. When extracting the coordinate matrix through the coordinates of the first point P1, it may be extracted by sequentially multiplying a transformation matrix capable of extracting the coordinate matrix by a preset reference matrix.

여기서 변환 행렬이란, 각 이미지 좌표에서 추출한 포인트를 다른 이미지 좌표의 상응하는 포인트로 변환할 수 있는 행렬을 의미하고, 기준 좌표란, 이미지 좌표 간 변환 시 기준이 되어주는 좌표(예: Wx,Wy,Wz)를 의미할 수 있다. Here, the transformation matrix means a matrix capable of converting a point extracted from each image coordinate into a corresponding point of another image coordinate, and the reference coordinate refers to a coordinate that serves as a standard when converting between image coordinates (eg, Wx, Wy, Wz).

즉, 한 이미지에서 추출한 포인트들을 다른 이미지 좌표의 포인트로 변환할 수 있도록 변환 행렬에 이미지 좌표를 곱하여 기준 좌표 내 포인트로 변환 후 다시 다른 이미지 좌표 변환행렬을 곱하여 좌표 간 좌표 변환을 할 수 있다. That is, in order to convert points extracted from one image into points of other image coordinates, coordinate conversion between coordinates may be performed by multiplying a conversion matrix by image coordinates to convert points in reference coordinates, and then multiplying them by another image coordinate conversion matrix.

좌표 행렬로 변환할 때, 변환 행렬은 회전행렬과 전이행렬의 2X1로 나열된 배열 행렬과 영상파라이터 행렬을 순차적으로 곱한 행렬이 될 수 있다. 구체적으로 변환 행렬은 다음의 식을 통해 구현될 수 있다. When converting to a coordinate matrix, the transformation matrix may be a matrix obtained by sequentially multiplying a rotation matrix and a transition matrix by a 2X1 array matrix and an image parameter matrix. Specifically, the transformation matrix may be implemented through the following equation.

Figure pat00012
Figure pat00012

여기서, : 변환 행렬이고, : 회전 행렬이며, : 전이 행렬이고, : 영상파라미터 행렬을 의미할 수 있다. Here, : transformation matrix, : rotation matrix, : transition matrix, and : image parameter matrix.

여기서, 회전 행렬은 3x3의 행렬이며, 이미지 좌표의 x, y, z축을 회전하는 행렬일 수 있다. 또한, 전이 행렬은 3x1으로 표현되며 이미지 좌표의 x, y, z축의 이동 정도를 나타내는 행렬일 수 있으며, 영상파라미터 행렬은 영상 자체의 화소크기 및 광학 영상의 중심점 파라미터 값들로 표현되는 행렬일 수 있다. Here, the rotation matrix is a 3x3 matrix, and may be a matrix that rotates the x, y, and z axes of image coordinates. In addition, the transition matrix is expressed as 3x1 and may be a matrix representing the degree of movement of the x, y, and z axes of image coordinates, and the image parameter matrix may be a matrix expressed by the pixel size of the image itself and the center point parameter values of the optical image. .

이와 같이 행렬을 통해 추출한 광학 카메라(120)를 통해 획득한 광학 영상에서 유추된 변환 행렬을 통해 광학 영상이 나타내는 3차원의 거리 등을 추출할 수 있다. 또한, 멀티빔 소나(130)를 통해 획득한 소나 영상을 통해 수중 대상체의 거리 및 방향 등을 추출할 수 있다. 추출된 광학 영상을 통해 추출되는 수중 대상체의 거리 위치와 거리와 소나 영상으로 추출하는 수중 대상체와의 거리 위치를 정합하면 실제 수중 대상체의 거리와 수중 대상체의 색조를 추출할 수 있다(도 5의 (d) 참고). In this way, a 3D distance represented by the optical image may be extracted through a transformation matrix inferred from the optical image obtained through the optical camera 120 extracted through the matrix. In addition, the distance and direction of the underwater object may be extracted through the sonar image acquired through the multi-beam sonar 130 . By matching the distance and distance of the underwater object extracted through the extracted optical image with the distance to the underwater object extracted through the sonar image, the actual distance of the underwater object and the color tone of the underwater object can be extracted ((FIG. 5). d) Note).

이상과 같이 수중 내에서 RGB 광학 카메라를 통해 수중 대상체를 촬영하고, 이와 동시에 수중 소나를 이용하여 수중 대상체를 촬영할 수 있다. 촬영한 광학 영상과 소나 영상은 색조 보정 및 대조도(Contrast) 등을 개선할 수 있으며, 개선된 두 영상은 융합될 수 있다. As described above, it is possible to photograph an underwater object in the water through an RGB optical camera and simultaneously photograph the underwater object using an underwater sonar. The captured optical image and the sonar image can be improved in color correction and contrast, and the two improved images can be fused.

융합 영상은 색조를 포함하고 있으며, 융합 장치와 수중 대상체 사이의 거리 정보를 포함할 수 있다. 즉, 융합 영상은 수중 대상체를 직관적으로 인지할 수 있음과 동시에 수중 내 음파를 통해 수중 대상체와의 거리를 측정할 수 있다. 즉, 수중 대상체의 직관적 정보와 수중 대상체와의 거리 정보를 동시에 측정 및 획득할 수 있다.The fusion image includes color tones and may include distance information between the fusion device and the underwater object. That is, the fusion image can intuitively recognize an underwater object and measure the distance to the underwater object through sound waves in the water. That is, intuitive information of an underwater object and distance information to the underwater object may be simultaneously measured and acquired.

이상 설명된 본 발명의 실시 예에 대한 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the embodiments of the present invention described above is for illustrative purposes, and those skilled in the art can easily modify them into other specific forms without changing the technical spirit or essential features of the present invention. you will understand that Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 청구범위에 의하여 나타내어지며, 청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof should be construed as being included in the scope of the present invention.

Claims (13)

각 단계의 적어도 일부가 프로세서에 의해 수행되고, 소나 영상 및 광학 영상을 이용하여 영상을 융합하는 방법으로서,
수중 정보를 모니터링하기 위한 수중 대상체를 촬영한 적어도 하나의 광학 영상 및 소나 영상을 수집하는 단계;
수집된 상기 광학 영상의 색조를 보정하여 보정된 광학 영상을 생성하는 단계;
상기 소나 영상에 포함된 잡음을 제거하여 보정된 소나 영상을 생성하는 단계; 및
상기 보정된 광학 영상 및 상기 보정된 소나 영상을 융합한 융합 영상을 생성하는 단계를 포함하는,
수중 영상 융합 방법.
A method in which at least a part of each step is performed by a processor and fuses images using sonar images and optical images,
collecting at least one optical image and sonar image of an underwater object for monitoring underwater information;
generating a corrected optical image by correcting color tone of the collected optical image;
generating a corrected sonar image by removing noise included in the sonar image; and
Generating a fusion image in which the corrected optical image and the corrected sonar image are fused,
Underwater image fusion method.
제1항에 있어서,
상기 보정된 광학 영상을 생성하는 단계 이후에,
상기 보정된 광학 영상의 채도(Colorfulness) 및 선명도 (Sharpness), 대조도 (Contrast)의 가중치 합을 통해 상기 보정된 광학 영상의 개선도를 평가하는 단계를 더 포함하는,
수중 영상 융합 방법.
According to claim 1,
After generating the corrected optical image,
Evaluating the degree of improvement of the corrected optical image through a weighted sum of saturation, sharpness, and contrast of the corrected optical image,
Underwater image fusion method.
제1항에 있어서,
상기 보정된 광학 영상을 생성하는 단계는,
상기 광학 영상의 백색 균형을 설정하는 단계;
이미지 히스토그램 균일화를 통해 상기 광학 영상의 이미지를 최적화하는 단계; 및
최적화된 상기 광학 영상을 언샤프 마스킹(UnSharp Masking)을 통해 상기 광학 영상에 포함된 노이즈를 제거하는 단계를 포함하는,
수중 영상 융합 방법.
According to claim 1,
Generating the corrected optical image,
setting a white balance of the optical image;
optimizing an image of the optical image through image histogram equalization; and
Removing noise included in the optimized optical image through unsharp masking,
Underwater image fusion method.
제1항에 있어서,
상기 보정된 소나 영상을 생성하는 단계는,
상기 소나 영상에서 관심 영역을 설정하는 단계; 및
상기 관심 영역 내의 대조도대잡음비 (Contrast to noise ratio, CNR)를 측정하는 단계를 포함하는,
수중 영상 융합 방법.
According to claim 1,
The step of generating the calibrated sonar image,
setting a region of interest in the sonar image; and
Measuring a contrast to noise ratio (CNR) in the region of interest,
Underwater image fusion method.
제4항에 있어서,
상기 보정된 소나 영상을 생성하는 단계는,
상기 소나 영상을 미디언 필터(median) 및 감마 보정(gamma correction)에 적용하는 단계를 포함하고,
상기 감마 보정은,
Figure pat00013
에 의해 정의되는
(여기서, I(x,y)는 좌표 (x,y) 위치의 원본의 상기 소나 영상 픽셀값을 의미하며, J(x,y)는 감마 보정 후 소나 영상의 픽셀값을 의미한다. γ는 보정계수를 의미함),
수중 영상 융합 방법.
According to claim 4,
The step of generating the calibrated sonar image,
Applying the sonar image to a median filter and gamma correction,
The gamma correction,
Figure pat00013
defined by
(Here, I(x,y) means the pixel value of the original SONA image at the position of coordinates (x,y), and J(x,y) means the pixel value of the SONA image after gamma correction. γ is correction factor),
Underwater image fusion method.
제1항에 있어서,
상기 생성하는 단계는,
상기 보정된 광학 영상 및 상기 보정된 소나 영상에서 임의의 제1 포인트 및 제2 포인트를 설정하는 단계;
상기 제1 포인트 및 상기 제2 포인트를 정합하는 단계를 포함하는,
수중 영상 융합 방법.
According to claim 1,
The generating step is
setting arbitrary first and second points in the corrected optical image and the corrected sonar image;
Including matching the first point and the second point,
Underwater image fusion method.
제6항에 있어서,
상기 설정하는 단계는,
상기 제1 포인트에서 이미지 좌표를 추출하는 단계;
상기 이미지 좌표를 좌표 행렬로 변환하는 단계; 및
상기 좌표 행렬을 추출하는 변환 행렬에 기 설정된 기준 행렬을 순차적으로 곱하여 상기 좌표 행렬을 추출하는 단계를 포함하는,
수중 영상 융합 방법.
According to claim 6,
In the setting step,
extracting image coordinates from the first point;
converting the image coordinates into a coordinate matrix; and
Including the step of extracting the coordinate matrix by sequentially multiplying the transformation matrix for extracting the coordinate matrix by a preset reference matrix,
Underwater image fusion method.
제7항에 있어서,
상기 이미지 좌표에서 x, y, z축을 회전하는 행렬인 회전행렬과 상기 이미지 좌표의 x, y, z축을 이동하는 정도를 나타내는 전이행렬이 나열된 행렬을 상기 광학 영상의 화소크기 및 상기 광학 영상의 중심점 파라미터 값들로 표현되는 행렬인 영상파라이터 행렬을 순차적으로 곱하여 상기 변환 행렬을 추출하는 단계를 더 포함하는,
수중 영상 융합 방법.
According to claim 7,
The pixel size of the optical image and the center point of the optical image Further comprising extracting the transformation matrix by sequentially multiplying an image parameter matrix, which is a matrix represented by parameter values,
Underwater image fusion method.
제6항에 있어서,
상기 보정된 광학 영상에서 상기 수중 대상체의 모서리를 지정하는 상기 제1 포인트를 설정하는 단계;
상기 보정된 소나 영상에서 상기 수중 대상체의 거리를 지정하는 상기 제2 포인트를 설정하는 단계; 및
상기 제1 포인트와 상기 제2 포인트를 정합하여 상기 수중 대상체의 형상 및 상기 수중 대상체와의 거리를 측정하는 단계를 포함하는,
수중 영상 융합 방법.
According to claim 6,
setting the first point designating a corner of the underwater object in the corrected optical image;
setting the second point designating a distance of the underwater object in the calibrated sonar image; and
Measuring a shape of the underwater object and a distance to the underwater object by matching the first point and the second point,
Underwater image fusion method.
소나 영상 및 광학 영상을 이용하여 영상을 융합하는 장치로서,
상기 프로세서와 전기적으로 연결되고, 상기 프로세서에서 수행되는 적어도 하나의 코드(code)가 저장되는 메모리를 포함하고,
상기 메모리는 상기 프로세서를 통해 실행될 때 상기 프로세서가
수중 정보를 모니터링하기 위한 수중 대상체를 촬영한 적어도 하나의 광학 영상 및 소나 영상을 수집한 후, 상기 광학 영상의 색조를 보정하고, 상기 소나 영상에 포함된 상기 수중 대상체와 상기 수중 대상체 주변부 사이의 경계면 및 대조도를 개선하면, 상기 광학 영상 및 상기 소나 영상을 융합한 융합 영상을 생성하는 코드들을 저장하는,
수중 영상 융합 장치.
An apparatus for converging images using sonar images and optical images,
A memory electrically connected to the processor and storing at least one code executed by the processor;
When the memory is executed by the processor, the processor
After collecting at least one optical image of an underwater object for monitoring underwater information and a sonar image, color tone of the optical image is corrected, and an interface between the underwater object included in the sonar image and a peripheral portion of the underwater object And if the contrast is improved, storing codes for generating a fusion image in which the optical image and the sonar image are fused,
Underwater image fusion device.
제10항에 있어서,
상기 메모리는 상기 프로세서가,
상기 보정된 광학 영상의 채도(Colorfulness) 및 선명도 (Sharpness), 대조도 (Contrast)의 가중치 합을 통해 상기 보정된 광학 영상의 개선도를 평가하도록 야기하는 코드들을 더 저장하는,
수중 영상 융합 장치.
According to claim 10,
The memory is the processor,
Further storing codes that cause the improvement of the corrected optical image to be evaluated through a weighted sum of saturation, sharpness, and contrast of the corrected optical image.
Underwater image fusion device.
제10항에 있어서,
상기 메모리는 상기 프로세서가,
상기 광학 영상의 백색 균형을 설정하고, 이미지 히스토그램 균일화를 통해 상기 광학 영상의 이미지를 최적화한 후, 최적화된 상기 광학 영상을 언샤프 마스킹(UnSharp Masking)을 통해 상기 광학 영상에 포함된 노이즈를 제거하도록 야기하는 코드들을 더 저장하는,
수중 영상 융합 장치.
According to claim 10,
The memory is the processor,
After setting the white balance of the optical image, optimizing the image of the optical image through image histogram equalization, and removing noise included in the optical image through unsharp masking of the optimized optical image to store more codes that cause
Underwater image fusion device.
제10항에 있어서,
상기 메모리는 상기 프로세서가,
상기 소나 영상에서 관심 영역을 설정하고, 상기 관심 영역 내의 대조도대잡음비 (Contrast to noise ratio, CNR)를 측정하도록 야기하는 코드들을 더 저장하는,
수중 영상 융합 장치.
According to claim 10,
The memory is the processor,
Further storing codes that cause setting a region of interest in the sonar image and measuring a contrast to noise ratio (CNR) in the region of interest,
Underwater image fusion device.
KR1020210182885A 2021-12-20 2021-12-20 Apparatus for uniting underwater images and method therof Active KR102599739B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210182885A KR102599739B1 (en) 2021-12-20 2021-12-20 Apparatus for uniting underwater images and method therof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210182885A KR102599739B1 (en) 2021-12-20 2021-12-20 Apparatus for uniting underwater images and method therof

Publications (2)

Publication Number Publication Date
KR20230093891A true KR20230093891A (en) 2023-06-27
KR102599739B1 KR102599739B1 (en) 2023-11-07

Family

ID=86947068

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210182885A Active KR102599739B1 (en) 2021-12-20 2021-12-20 Apparatus for uniting underwater images and method therof

Country Status (1)

Country Link
KR (1) KR102599739B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN119355737A (en) * 2024-12-23 2025-01-24 中电科东方通信集团有限公司 A method for detecting and locating targets above and below water based on acoustic and optical fusion
KR102795054B1 (en) 2023-10-19 2025-04-10 한국해양과학기술원 Apparatus for underwater stereo imaging

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Do Gyun Kim ET AL, Single Image-based Enhancement Techniques for Underwater Optical Imaging, Journal of Ocean Engineering and Technology 34(6), Dec. 2020(2020.12.31.) 1부.* *
신영식 외 4인, 항법 적용을 위한 수중 소나 영상 처리 요소 기법 비교 분석, 한국해양공학회지 제30권 제3호, June 2016(2016.06.30.) 1부.* *
인용발명 1: S. Negahdaripour ET AL, Opti-Acoustic Stereo Imaging, System Calibration and 3-D Reconstruction, 2007 IEEE Conference on Computer Vision and Pattern Recognition, July 2007(2007.07.16.) 1부.* *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102795054B1 (en) 2023-10-19 2025-04-10 한국해양과학기술원 Apparatus for underwater stereo imaging
CN119355737A (en) * 2024-12-23 2025-01-24 中电科东方通信集团有限公司 A method for detecting and locating targets above and below water based on acoustic and optical fusion

Also Published As

Publication number Publication date
KR102599739B1 (en) 2023-11-07

Similar Documents

Publication Publication Date Title
US8767103B2 (en) Color filter, image processing apparatus, image processing method, image-capture apparatus, image-capture method, program and recording medium
JP4346634B2 (en) Target detection device
KR101869637B1 (en) Image processing system, imaging apparatus, image processing method, and computer-readable storage medium
JP5206796B2 (en) Image input device
JP4040625B2 (en) Image processing apparatus, printer apparatus, photographing apparatus, and television receiver
CN110519489B (en) Image acquisition method and device
US7656437B2 (en) Image processing apparatus, image processing method, and computer program
WO2017159312A1 (en) Image processing device, imaging device, image processing method, and program
KR102599739B1 (en) Apparatus for uniting underwater images and method therof
JP2004200902A (en) Image processing device, electronic camera, and image processing program
JP5186517B2 (en) Imaging device
CN113676629A (en) Image sensor, image acquisition device, image processing method and image processor
JP2020182163A (en) Image processing equipment, image processing methods and programs
JP6696596B2 (en) Image processing system, imaging device, image processing method and program
JP5348253B2 (en) Image processing apparatus and image processing method, imaging apparatus and imaging method, program, and recording medium
JP7057159B2 (en) Image processing equipment, image processing methods and programs
JP6881646B2 (en) Image processing system, imaging device, image processing method and program
WO2020017638A1 (en) Image generation device and imaging device
JP5988725B2 (en) Imaging device and developing device
JP7286328B2 (en) Image processing device, image processing method and program
JP6946049B2 (en) Image processing equipment, image processing methods, and programs
CN116528054A (en) Self-adjusting method and device for imaging brightness of camera
CN120034750A (en) Image processing method, device, electronic device, storage medium and program product
JP2006173661A (en) Image processing method, system, apparatus and program, and digital camera
CN115039402A (en) Color filter array and pipeline for image processing

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20211220

PA0201 Request for examination
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20230313

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20230927

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20231103

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20231103

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载