+

JP6938282B2 - Image processing equipment, image processing methods and programs - Google Patents

Image processing equipment, image processing methods and programs Download PDF

Info

Publication number
JP6938282B2
JP6938282B2 JP2017166007A JP2017166007A JP6938282B2 JP 6938282 B2 JP6938282 B2 JP 6938282B2 JP 2017166007 A JP2017166007 A JP 2017166007A JP 2017166007 A JP2017166007 A JP 2017166007A JP 6938282 B2 JP6938282 B2 JP 6938282B2
Authority
JP
Japan
Prior art keywords
pixel
reference image
image
edge
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017166007A
Other languages
Japanese (ja)
Other versions
JP2019045981A5 (en
JP2019045981A (en
Inventor
洋佑 高田
洋佑 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017166007A priority Critical patent/JP6938282B2/en
Publication of JP2019045981A publication Critical patent/JP2019045981A/en
Publication of JP2019045981A5 publication Critical patent/JP2019045981A5/ja
Application granted granted Critical
Publication of JP6938282B2 publication Critical patent/JP6938282B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、画像データに含まれるノイズを低減する画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program for reducing noise contained in image data.

デジタルスチルカメラやデジタルビデオカメラなどの撮像装置では、撮像素子や回路の特性により暗電流ノイズ、熱雑音、ショットノイズなどが発生し、撮像により得られる画像データにランダムなノイズ(ランダムノイズ)が混入する。近年、撮像素子の小型化や高画素化に伴い画素ピッチが極小化されているため、ノイズが目立ちやすくなっている。特に、高感度で撮影して得られる画像データにはショットノイズが顕著に発生し、画質劣化の大きな要因になっている。そこで、ランダムノイズを低減することで、高画質化を実現するための様々な方法が提案されている。 In imaging devices such as digital still cameras and digital video cameras, dark current noise, thermal noise, shot noise, etc. are generated due to the characteristics of the imaging element and circuit, and random noise (random noise) is mixed in the image data obtained by imaging. do. In recent years, as the image sensor has become smaller and the number of pixels has increased, the pixel pitch has been minimized, so that noise is more noticeable. In particular, shot noise is remarkably generated in image data obtained by shooting with high sensitivity, which is a major factor in image quality deterioration. Therefore, various methods for achieving high image quality by reducing random noise have been proposed.

ショットノイズ除去の最も原理的な方法として、同一被写体を同じ撮影条件で連続撮影して得られた複数枚の画像データを平均する方法がある。この方法に基づき、連続撮影して得られた画像データにおける基準点に対して、他の画像の学習領域に含まれる複数点を参照し、基準点を含むウィンドウとの類似度に応じて複数点を加重平均してノイズを除去する方法が提案されている(特許文献1参照)。また、連続撮影して得られた複数枚の画像データを類似画素同士で合成することでショットノイズを低減し、そのノイズ低減量を利用して合成画像データに対してさらにノイズ低減処理を行う方法が提案されている(特許文献2参照)。 The most principle method of removing shot noise is a method of averaging a plurality of image data obtained by continuously shooting the same subject under the same shooting conditions. Based on this method, with respect to the reference points in the image data obtained by continuous shooting, a plurality of points included in the learning area of another image are referred to, and a plurality of points are referred to according to the degree of similarity with the window including the reference points. A method for removing noise by weighted averaging has been proposed (see Patent Document 1). In addition, a method of reducing shot noise by synthesizing a plurality of image data obtained by continuous shooting with similar pixels, and further performing noise reduction processing on the composite image data by utilizing the noise reduction amount. Has been proposed (see Patent Document 2).

特表2007−536662号公報Special Table 2007-536662 特開2014−236226号公報Japanese Unexamined Patent Publication No. 2014-236226

特許文献1に記載の方法によれば、テクスチャの構造を残したまま、ノイズを低減させることができる。しかし、エッジのがたつきもテクスチャの構造の一つとして扱われてしまうため、特許文献1に記載の方法では、エッジのがたつきが残ってしまう可能性がある。また、特許文献2に記載の方法では、合成画像データ全体のノイズ低減量を一様にできるものの、エッジのがたつきについては考慮されていないため、結果としてエッジのがたつきを残してしまう。 According to the method described in Patent Document 1, noise can be reduced while leaving the texture structure. However, since the edge rattling is also treated as one of the texture structures, the method described in Patent Document 1 may leave the edge rattling. Further, in the method described in Patent Document 2, although the noise reduction amount of the entire composite image data can be made uniform, the edge rattling is not considered, and as a result, the edge rattling is left. ..

そこで本発明は、連続撮影して得られた複数画像を用いて行われるノイズ低減処理において、出力画像に発生するエッジのがたつきを抑制することを目的とする。 Therefore, an object of the present invention is to suppress rattling of edges that occur in an output image in a noise reduction process performed using a plurality of images obtained by continuous shooting.

本発明による画像処理装置は、同一被写体を撮影して得られる複数の画像のうち、一の画像を基準画像とし、該一の画像以外の画像を参照画像とし、基準画像に参照画像を合成した合成画像を生成して基準画像に含まれるノイズを低減する第1のノイズ低減処理を実行する第1のノイズ低減手段と、基準画像の各画素がエッジ領域に属するか非エッジ領域に属するかを判定する領域判定手段と、基準画像のエッジ領域に対応する合成画像内の画素に対して非等方フィルタを適用し、基準画像の非エッジ領域に対応する合成画像内の画素に対して等方フィルタを適用することで、合成画像に含まれるノイズを低減する第2のノイズ低減処理を行う第2のノイズ低減手段と、を備えることを特徴とする。 The image processing apparatus according to the present invention uses one image as a reference image, an image other than the one image as a reference image, and synthesizes a reference image with the reference image among a plurality of images obtained by photographing the same subject. The first noise reduction means for generating the composite image and executing the first noise reduction processing for reducing the noise contained in the reference image, and whether each pixel of the reference image belongs to the edge region or the non-edge region. An isotropic filter is applied to the area determination means for determining the image and the pixels in the composite image corresponding to the edge area of the reference image, and the pixels in the composite image corresponding to the non-edge area of the reference image are equal to It is characterized by comprising a second noise reduction means for performing a second noise reduction process for reducing noise included in the composite image by applying a square filter.

本発明により、連続撮影して得られた複数画像を用いて行われるノイズ低減処理において、出力画像に発生するエッジのがたつきを抑制することができる。 According to the present invention, it is possible to suppress the rattling of edges generated in the output image in the noise reduction processing performed by using a plurality of images obtained by continuous shooting.

第1実施形態における画像処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware structure of the image processing apparatus in 1st Embodiment. 第1実施形態における画像処理装置の論理構成を示すブロック図である。It is a block diagram which shows the logical structure of the image processing apparatus in 1st Embodiment. 第1実施形態に係る画像処理装置が実行する画像処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image processing executed by the image processing apparatus which concerns on 1st Embodiment. ベイヤ配列のカラーフィルタを説明するための図である。It is a figure for demonstrating the color filter of a Bayer array. ステップS302の合成処理を示すフローチャートである。It is a flowchart which shows the synthesis process of step S302. ステップS302の合成処理を説明するための図である。It is a figure for demonstrating the synthesis process of step S302. ステップS303の領域判定処理を示すフローチャートである。It is a flowchart which shows the area determination process of step S303. 領域判定処理の処理単位である局所領域を説明するための図である。It is a figure for demonstrating the local area which is the processing unit of area determination processing. ステップS304の領域別ノイズ低減処理を示すフローチャートである。It is a flowchart which shows the noise reduction process for each area of step S304. エッジ方向判定に用いるフィルタを説明するための図である。It is a figure for demonstrating the filter used for the edge direction determination. 領域別ノイズ低減処理に用いられる非等方フィルタを説明するための図である。It is a figure for demonstrating the anisotropic filter used for the noise reduction processing by area. 第1実施形態の効果を説明するための図である。It is a figure for demonstrating the effect of 1st Embodiment.

以下、本発明の実施の形態について詳細に説明する。なお、この実施の形態に記載されている構成要素は、本発明の例としての形態を示すものであり、この発明の範囲をそれらのみに必ずしも限定するものではない。 Hereinafter, embodiments of the present invention will be described in detail. It should be noted that the components described in this embodiment show embodiments as examples of the present invention, and the scope of the present invention is not necessarily limited to them.

[実施形態1]
本実施形態に係る画像処理装置の構成について、図1を参照して説明する。図1は、第1実施形態における画像処理装置のハードウェア構成を示すブロック図である。図1に示すように、本実施形態に係る画像処理装置100は、CPU101、RAM102、HDD103、汎用インターフェース(I/F)104、モニタ108、及びメインバス109を備える。汎用I/F104は、カメラなどの撮像装置105や、マウス、キーボードなどの入力装置106、及びメモリーカードなどの外部メモリ107をメインバス109に接続する。
[Embodiment 1]
The configuration of the image processing apparatus according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a hardware configuration of the image processing apparatus according to the first embodiment. As shown in FIG. 1, the image processing apparatus 100 according to the present embodiment includes a CPU 101, a RAM 102, an HDD 103, a general-purpose interface (I / F) 104, a monitor 108, and a main bus 109. The general-purpose I / F 104 connects an image pickup device 105 such as a camera, an input device 106 such as a mouse and a keyboard, and an external memory 107 such as a memory card to the main bus 109.

CPU101は、HDD103に格納された各種ソフトウェア(コンピュータプログラム)をRAM102に展開して実行することで、各種処理を実現する。本実施形態では、コンピュータプログラムの一つとして、画像処理アプリケーション(以下、単に画像処理アプリと呼ぶ。)がRAM102に展開される。CPU101によって画像処理アプリが起動されると、モニタ108に画像処理アプリのユーザインターフェース(UI)画面が表示される。 The CPU 101 realizes various processes by expanding and executing various software (computer programs) stored in the HDD 103 in the RAM 102. In the present embodiment, as one of the computer programs, an image processing application (hereinafter, simply referred to as an image processing application) is deployed in the RAM 102. When the image processing application is started by the CPU 101, the user interface (UI) screen of the image processing application is displayed on the monitor 108.

RAM102には、HDD103や外部メモリ107に格納されている各種データや、入力装置106からの指示などが転送される。また、RAM102には、撮像装置105で撮影された画像データが転送される。なお、ここでは、画像データとしてRAW画像データが転送されるものとする。また、HDD103や外部メモリ107に格納されているRAW画像データがRAM102に転送されてもよい。また、不図示のネットワークを介してサーバ装置から受信したRAW画像データをRAM102に転送するようにしてもよい。以降の説明において、画像データを単に画像と呼ぶ場合がある。RAM102に格納された画像データ等は、画像処理アプリの処理に従って、CPU101からの指令に基づき各種演算される。演算結果はモニタ108に表示されたり、HDD103または外部メモリ107に格納されたりする。 Various data stored in the HDD 103 and the external memory 107, instructions from the input device 106, and the like are transferred to the RAM 102. Further, the image data captured by the image pickup apparatus 105 is transferred to the RAM 102. Here, it is assumed that the RAW image data is transferred as the image data. Further, the RAW image data stored in the HDD 103 or the external memory 107 may be transferred to the RAM 102. Further, the RAW image data received from the server device may be transferred to the RAM 102 via a network (not shown). In the following description, the image data may be simply referred to as an image. The image data and the like stored in the RAM 102 are subjected to various calculations based on commands from the CPU 101 according to the processing of the image processing application. The calculation result is displayed on the monitor 108 or stored in the HDD 103 or the external memory 107.

上記の構成において本実施形態では、CPU101からの指令に基づき、画像処理アプリに複数の画像データを入力し、ノイズを低減した画像データを生成して出力する。 In the above configuration, in the present embodiment, a plurality of image data are input to the image processing application based on a command from the CPU 101, and image data with reduced noise is generated and output.

図2は、本実施形態に係る画像処理装置100の論理構成を示す図である。図2に示すように、画像処理装置100は、入力部201、記憶部202、処理部203、及び出力部204を備える。処理部203は、合成処理部205、領域判定処理部206、ノイズ低減処理部207、及び現像処理部208を含む。 FIG. 2 is a diagram showing a logical configuration of the image processing device 100 according to the present embodiment. As shown in FIG. 2, the image processing device 100 includes an input unit 201, a storage unit 202, a processing unit 203, and an output unit 204. The processing unit 203 includes a synthesis processing unit 205, an area determination processing unit 206, a noise reduction processing unit 207, and a development processing unit 208.

入力部201は、複数の画像データ、画像処理パラメータ、ISO感度別のノイズ特性を示す情報(以下、ノイズ特性情報と呼ぶ)などのデータを入力する。CPU101からの指示に基づき、処理部203で処理された画像データや記憶部202に記憶された画像データなどをモニタ108やHDD103などに出力する。複数の画像データは、ノイズ低減対象である基準画像データと、基準画像データと同一被写体を連続撮影した1以上の参照画像データとを含む。画像処理パラメータは、後述する合成処理、領域判定処理、及びノイズ低減処理において用いられるパラメータである。ノイズ特性情報は、予めISO感度別に算出したノイズ分散値である。入力部201は、これらのデータをCPU101からの指示に基づいて、撮像装置105や、HDD103、外部メモリ107などから入力する。また、撮像装置105で撮影された画像データを、撮像装置105から入力部201に直接入力するようにしてもよい。なお、画像処理パラメータやノイズ特性情報をユーザが設定可能なようにしてもよい。例えば、それらの情報を設定するためのUI画面をモニタ108に表示させて、該UI画面を介してユーザが設定した値をHDD103や外部メモリ107に記憶させておくようにしてもよい。 The input unit 201 inputs data such as a plurality of image data, image processing parameters, and information indicating noise characteristics for each ISO sensitivity (hereinafter, referred to as noise characteristic information). Based on the instruction from the CPU 101, the image data processed by the processing unit 203, the image data stored in the storage unit 202, and the like are output to the monitor 108, the HDD 103, and the like. The plurality of image data includes reference image data that is a noise reduction target, and one or more reference image data in which the same subject as the reference image data is continuously photographed. The image processing parameters are parameters used in the composition processing, the area determination processing, and the noise reduction processing described later. The noise characteristic information is a noise dispersion value calculated in advance for each ISO sensitivity. The input unit 201 inputs these data from the image pickup apparatus 105, the HDD 103, the external memory 107, and the like based on the instruction from the CPU 101. Further, the image data captured by the image pickup device 105 may be directly input from the image pickup device 105 to the input unit 201. The image processing parameters and noise characteristic information may be set by the user. For example, a UI screen for setting such information may be displayed on the monitor 108, and the value set by the user via the UI screen may be stored in the HDD 103 or the external memory 107.

記憶部202は、CPU101からの指示に基づき、入力部201が入力した複数の画像データ、画像処理パラメータ、及び画像処理後の画像データなどをRAM102、HDD103、または外部メモリ107などに記憶する。 Based on the instruction from the CPU 101, the storage unit 202 stores a plurality of image data, image processing parameters, image data after image processing, and the like input by the input unit 201 in the RAM 102, HDD 103, external memory 107, and the like.

処理部203は、CPU101からの指示に基づき、入力部201から画像データや、画像処理パラメータ、ノイズ特性情報などを取得し、該画像データに対して画像処理を行う。なお、処理部203は、それらのデータを記憶部202から読み込むようにしてもよい。処理部203は、画像処理後の画像データを記憶部202や出力部204に出力する。処理部203における画像処理の詳細は後述する。 Based on the instruction from the CPU 101, the processing unit 203 acquires image data, image processing parameters, noise characteristic information, and the like from the input unit 201, and performs image processing on the image data. The processing unit 203 may read the data from the storage unit 202. The processing unit 203 outputs the image data after image processing to the storage unit 202 and the output unit 204. The details of the image processing in the processing unit 203 will be described later.

出力部204は、CPU101からの指示に基づき、処理部203で処理された画像データや記憶部202に記憶された画像データなどをモニタ108やHDD103などに出力する。なお、データの出力先はこれらに限られず、例えば、汎用I/F104に接続された外部メモリ107や不図示のサーバ装置やプリンタに、データが出力されてもよい。 Based on the instruction from the CPU 101, the output unit 204 outputs the image data processed by the processing unit 203, the image data stored in the storage unit 202, and the like to the monitor 108, the HDD 103, and the like. The data output destination is not limited to these, and data may be output to, for example, an external memory 107 connected to the general-purpose I / F 104, or a server device or printer (not shown).

(メイン処理フロー)
次いで、画像処理装置100の各処理の詳細について、図3のフローチャートを参照して説明する。図3は、第1実施形態に係る画像処理装置100が実行する画像処理の流れを示すフローチャートである。なお、図3に示す処理は、CPU101がHDD103に格納されたプログラム(画像処理アプリ)をRAM102に展開して実行することによって、実現される。勿論、図2に示す構成要素の一部または全部の役割を果たす専用の処理回路などを設けて、図2に示す構成要素の一部または全部をハードウェアにより実現してもよい。
(Main processing flow)
Next, the details of each process of the image processing apparatus 100 will be described with reference to the flowchart of FIG. FIG. 3 is a flowchart showing the flow of image processing executed by the image processing apparatus 100 according to the first embodiment. The process shown in FIG. 3 is realized by the CPU 101 expanding the program (image processing application) stored in the HDD 103 into the RAM 102 and executing the program. Of course, a dedicated processing circuit or the like that plays a part or all of the components shown in FIG. 2 may be provided, and a part or all of the components shown in FIG. 2 may be realized by hardware.

ステップS301において、入力部201は、複数の画像データ、画像処理パラメータ、ノイズ特性情報、及びエッジ方向判定に用いるフィルタ(以下、エッジ方向判定フィルタと呼ぶ)を入力して、記憶部202に記憶する。なお、本実施形態では、入力部201が入力する画像データは、ベイヤ配列のカラーフィルタを有する撮像装置で撮影されたRAW画像データであるものとする。ベイヤ配列のカラーフィルタは、図4に示すように、緑(G)の画素と赤(R)の画素とが交互に繰り返される行と、青(B)の画素と緑(G)の画素とが交互に繰り返される行とが交互に配列されたフィルタである。但し、本実施形態の適用範囲は、ベイヤ配列のカラーフィルタを有する撮像装置で撮影された画像データに限られない。RAW画像データからカラー画像データを生成する際に、ノイズ低減処理及び画素補間が可能な画像データであれば、任意のカラーフィルタを有する撮像装置で撮影された画像データに対して適用可能である。入力する画像データは、ノイズ低減対象である基準画像データと、基準画像データと同じ被写体を連続撮影した1以上の参照画像データである。なお、以下では、連続撮影して得られた画像データの内、1枚目を基準画像データ、それ以外を参照画像データとする。また、入力部201が入力する複数のRAW画像データの各々の大きさは幅X画素、高さY画素であり、入力部201はN枚の参照画像データを入力するものとする。また、各画像データにおいて、左上の画素の座標(画素位置)を基準(すなわち(0,0))とし、各画素の座標を(x,y)とする。但し、x,yは0≦x<X,0≦y<Yを満たす整数である。 In step S301, the input unit 201 inputs a plurality of image data, image processing parameters, noise characteristic information, and a filter used for edge direction determination (hereinafter, referred to as an edge direction determination filter) and stores them in the storage unit 202. .. In the present embodiment, the image data input by the input unit 201 is assumed to be RAW image data taken by an imaging device having a Bayer array color filter. As shown in FIG. 4, the color filter of the bayer array includes a row in which green (G) pixels and red (R) pixels are alternately repeated, and blue (B) pixels and green (G) pixels. This is a filter in which rows in which are repeated alternately are arranged alternately. However, the scope of application of this embodiment is not limited to image data taken by an image pickup apparatus having a Bayer array color filter. When generating color image data from RAW image data, any image data capable of noise reduction processing and pixel interpolation can be applied to image data captured by an imaging device having an arbitrary color filter. The image data to be input is the reference image data to be noise-reduced and one or more reference image data obtained by continuously shooting the same subject as the reference image data. In the following, among the image data obtained by continuous shooting, the first image will be referred to as reference image data, and the others will be referred to as reference image data. Further, the size of each of the plurality of RAW image data input by the input unit 201 is a width X pixel and a height Y pixel, and the input unit 201 is assumed to input N pieces of reference image data. Further, in each image data, the coordinates (pixel positions) of the upper left pixel are used as a reference (that is, (0,0)), and the coordinates of each pixel are used as (x, y). However, x and y are integers that satisfy 0 ≦ x <X and 0 ≦ y <Y.

ステップS302において、合成処理部205は、ステップS301で入力部201が入力した基準画像データと全ての参照画像データとを合成して、合成画像データを生成する合成処理(第1のノイズ低減処理)を行う。合成処理の詳細は後述する。 In step S302, the synthesis processing unit 205 synthesizes the reference image data input by the input unit 201 in step S301 and all the reference image data to generate the composite image data (first noise reduction process). I do. The details of the synthesis process will be described later.

ステップS303において、領域判定処理部206は、ステップS301で入力部201が入力した基準画像データと全ての参照画像データとを用いて、基準画像データに対して領域判定処理を行う。領域判定処理の詳細は後述する。 In step S303, the area determination processing unit 206 performs an area determination process on the reference image data using the reference image data input by the input unit 201 in step S301 and all the reference image data. The details of the area determination process will be described later.

ステップS304において、ノイズ低減処理部207は、ステップS303の領域判定処理の結果に基づいて、ステップS302で生成された合成画像データに対して領域別ノイズ低減処理(第2のノイズ低減処理)を行う。領域別ノイズ低減処理の詳細は後述する。 In step S304, the noise reduction processing unit 207 performs region-specific noise reduction processing (second noise reduction processing) on the composite image data generated in step S302 based on the result of the region determination processing in step S303. .. The details of the noise reduction processing for each region will be described later.

ステップS305において、現像処理部208は、ステップS304でノイズ低減処理された合成画像データに対して現像処理を行う。現像処理された画像データは、記憶部202に記憶される。ここで、現像処理は、出力画像が好適に見えるように補正する補正処理全般を含む。例えば、画素を補間するデモザイク処理、メリハリを増すためのエッジ強調や、明るさを補正するγ補正、鮮やかさを増すための色補正が含まれる。なお、補正処理の詳細は本実施形態の主眼ではないため説明は省略する。ステップS306において、出力部204は、ステップS305で現像処理された画像データを記憶部202から読み出して出力する。 In step S305, the development processing unit 208 performs development processing on the composite image data that has been noise-reduced in step S304. The developed image data is stored in the storage unit 202. Here, the development process includes a general correction process for correcting the output image so that it looks suitable. For example, demosaic processing for interpolating pixels, edge enhancement for increasing sharpness, gamma correction for correcting brightness, and color correction for increasing vividness are included. Since the details of the correction process are not the main focus of the present embodiment, the description thereof will be omitted. In step S306, the output unit 204 reads out the image data developed in step S305 from the storage unit 202 and outputs it.

以下、ステップS302における合成処理、ステップS303における領域判定処理、及びステップS304における領域別ノイズ低減処理について説明する。 Hereinafter, the synthesis process in step S302, the area determination process in step S303, and the area-specific noise reduction process in step S304 will be described.

(合成処理)
図5は、ステップS302の合成処理を示すフローチャートである。なお、図5には、基準画像データの1つの着目画素に対して行われる合成処理が示されている。したがって、基準画像データの全画素ついて合成処理を行う場合には、図5に示す処理(より具体的には、ステップS502〜S514の処理)を全画素について繰り返し実行すればよい。
(Composite processing)
FIG. 5 is a flowchart showing the synthesis process of step S302. Note that FIG. 5 shows a compositing process performed on one pixel of interest in the reference image data. Therefore, when performing the compositing process for all the pixels of the reference image data, the process shown in FIG. 5 (more specifically, the process of steps S502 to S514) may be repeatedly executed for all the pixels.

ステップS501において、合成処理部205は、合成の候補となる画素を記録するための合成候補画素リストの初期化と、着目ブロックサイズS1、参照ブロックサイズS2、及び閾値th1、合成画素数Numなどの画像処理パラメータを入力する。本実施形態では、合成画素数Numとして、連続撮影により取得した複数の参照画像データの数Nが設定される。 In step S501, the synthesis processing unit 205 initializes the synthesis candidate pixel list for recording the pixels that are candidates for synthesis, and sets the block size S1, the reference block size S2, the threshold value th1, the number of composite pixels Num, and the like. Enter the image processing parameters. In the present embodiment, the number N of a plurality of reference image data acquired by continuous shooting is set as the number of composite pixels Num.

ステップS502において、合成処理部205は、着目画素を中心とする着目ブロックを決定する。ここでは、着目画素をRとする。図6(a)には、基準画像データ601が示されている。例えばサイズS1=5の場合、着目画素602を中心とする5×5の矩形領域が着目ブロック603として設定される。 In step S502, the synthesis processing unit 205 determines the block of interest centered on the pixel of interest. Here, the pixel of interest is R. FIG. 6A shows the reference image data 601. For example, when the size S1 = 5, a 5 × 5 rectangular area centered on the pixel of interest 602 is set as the block of interest 603.

ステップS503において、合成処理部205は、複数の参照画像データから処理対象とする参照画像データを1つ選択する。 In step S503, the synthesis processing unit 205 selects one reference image data to be processed from the plurality of reference image data.

ステップS504において、合成処理部205は、ステップS503で選択した処理対象の参照画像データから、探索領域を決定する。探索領域のサイズは、参照ブロックサイズS2と同じである。また、参照ブロックサイズS2は、着目ブロックサイズS1と同じである。図6(b)には、参照画像データ604が示されていて、例えばサイズS2=5である場合、着目画素602と同座標の画素605を中心とする5×5の矩形領域が探索領域606として設定される。 In step S504, the synthesis processing unit 205 determines the search area from the reference image data of the processing target selected in step S503. The size of the search area is the same as the reference block size S2. Further, the reference block size S2 is the same as the block size S1 of interest. FIG. 6B shows reference image data 604. For example, when the size S2 = 5, a 5 × 5 rectangular area centered on the pixel 605 having the same coordinates as the pixel of interest 602 is the search area 606. Is set as.

ステップS505において、合成処理部205は、ステップS504で決定した探索領域の中から、着目画素と同色の画素(図6(b)において斜線で示される画素)を参照画素として1つ選択する。 In step S505, the synthesis processing unit 205 selects one pixel of the same color as the pixel of interest (pixel shown by the diagonal line in FIG. 6B) as a reference pixel from the search region determined in step S504.

ステップS506において、合成処理部205は、ステップS505で選択した参照画素を中心とする参照ブロックを決定する。例えばサイズS2=5の場合であって、参照画素として画素607が選択されている場合には、図6(c)に示すように参照画素607を中心とする5×5の矩形領域が参照ブロック608として設定される。 In step S506, the synthesis processing unit 205 determines a reference block centered on the reference pixel selected in step S505. For example, when the size S2 = 5, and the pixel 607 is selected as the reference pixel, the reference block is a 5 × 5 rectangular area centered on the reference pixel 607 as shown in FIG. 6 (c). It is set as 608.

ステップS507において、合成処理部205は、ステップS502で決定した着目ブロックとステップS506で決定した参照ブロックとについて、画素毎の画素値の差分絶対値の和(SAD)を算出する。なお、SADは、Sum of Absoluted Differenceの略である。 In step S507, the synthesis processing unit 205 calculates the sum (SAD) of the difference absolute values of the pixel values for each pixel for the block of interest determined in step S502 and the reference block determined in step S506. SAD is an abbreviation for Sum of Absorbed Difference.

ステップS508において、合成処理部205は、ステップS507で算出したSADとステップS501で入力した閾値th1とを比較する。SAD<th1である場合は(ステップS508のYES)、合成処理部205は、ステップS505で選択した参照画素を合成候補画素リストに追加する(ステップS509)。SAD<th1でない場合は(ステップS508のNO)、処理はステップS510に進む。ステップS510において、合成処理部205は、参照ブロック内の全参照画素を選択し終えたか否か、すなわち参照ブロック内の全参照画素について処理が完了しているか否かを判定する(ステップS510)。 In step S508, the synthesis processing unit 205 compares the SAD calculated in step S507 with the threshold value th1 input in step S501. When SAD <th1 (YES in step S508), the synthesis processing unit 205 adds the reference pixel selected in step S505 to the synthesis candidate pixel list (step S509). If SAD <th1 is not satisfied (NO in step S508), the process proceeds to step S510. In step S510, the synthesis processing unit 205 determines whether or not all the reference pixels in the reference block have been selected, that is, whether or not the processing has been completed for all the reference pixels in the reference block (step S510).

参照ブロック内の全参照画素について処理が完了していない場合は(ステップS510のNO)、処理はステップS505に戻る。一方、参照ブロック内の全参照画素について処理が完了している場合は(ステップS510のYES)、合成処理部205は、全参照画像データを選択し終えたか、すなわち全参照画像データについて処理が完了しているかを判定する(ステップS511)。 If the processing is not completed for all the reference pixels in the reference block (NO in step S510), the processing returns to step S505. On the other hand, when the processing is completed for all the reference pixels in the reference block (YES in step S510), the synthesis processing unit 205 has selected all the reference image data, that is, the processing is completed for all the reference image data. It is determined whether or not (step S511).

全参照画像データについて処理が完了しない場合は(ステップS511のNO)、処理はステップS503に戻る。一方、全参照画像データについて処理が完了している場合は(ステップS511のYES)、処理はステップS512に進む。 If the processing is not completed for all the reference image data (NO in step S511), the processing returns to step S503. On the other hand, if the processing is completed for all the reference image data (YES in step S511), the processing proceeds to step S512.

ステップS512において、合成処理部205は、合成候補画素リストをSADが小さい順にソートする。そして、ステップS513において、合成処理部205は、ステップS512でソートした画素の内、SADが小さい方からNum番目までの画素を選択する。さらに、ステップS514において、合成処理部205は、着目画素とステップS513で選択したNum個の画素の平均値を以下の式(1)にて算出する。 In step S512, the composition processing unit 205 sorts the composition candidate pixel list in ascending order of SAD. Then, in step S513, the synthesis processing unit 205 selects the pixels sorted in step S512 from the one with the smallest SAD to the Numth pixel. Further, in step S514, the synthesis processing unit 205 calculates the average value of the pixel of interest and the Num pixels selected in step S513 by the following equation (1).

Figure 0006938282
Figure 0006938282

ここで、I0は着目画素の画素値、Iiはi番目の画素の画素値(iはステップS513で選択された順番を示す)である。ステップS502〜S514の処理を基準画像データの全画素ついて行うことで、上記式(1)で導出された画素値が各画素に設定された合成画像データが生成される。
なお、上記のような単純な平均ではなく、例えば、選択した各画素のSADの逆数を重みとして、式(2)にて加重平均して平均値を算出してもよい。
Here, I 0 is the pixel value of the pixel of interest, and I i is the pixel value of the i-th pixel (i indicates the order selected in step S513). By performing the processing of steps S502 to S514 for all the pixels of the reference image data, the composite image data in which the pixel values derived by the above equation (1) are set for each pixel is generated.
Instead of the simple average as described above, for example, the reciprocal of the SAD of each selected pixel may be used as a weight, and the weighted average may be calculated by the equation (2) to calculate the average value.

Figure 0006938282
Figure 0006938282

ここで、wiはi番目画素の重みでwi=1/SADiである。 Here, w i is the weight of the i -th pixel, and w i = 1 / SAD i .

なお、本実施形態では、合成候補画素を決定するために、差分絶対値和(SAD)を用いたが、これに限らず着目画素との類似度が高い画素を見つけることが出来る方法であればどのような方法でもよい。例えば、着目ブロックと参照ブロックの平均値の差分絶対値や差分率が所定の閾値以下になる場合を合成候補画素として決定してもよい。または、SADと平均値の差分絶対値を組み合わせて用いてもよい。 In the present embodiment, the difference absolute value sum (SAD) is used to determine the composite candidate pixel, but the method is not limited to this and any method can find a pixel having a high degree of similarity to the pixel of interest. Any method will do. For example, a case where the absolute difference value or the difference rate of the average value of the block of interest and the reference block is equal to or less than a predetermined threshold value may be determined as the synthesis candidate pixel. Alternatively, the absolute difference between the SAD and the average value may be used in combination.

また、ステップS509で合成候補画素リストに追加された参照画素の個数がNum個に満たない場合には、ステップS513の処理をスキップするようにしてもよい。そして、ステップS514において、合成候補画素リストに追加されている全参照画素について式(1)を適用するようにしてもよい。また、合成候補画素リストに追加された参照画素の個数がNum個に満たない場合、特に参照画素の個数が0である場合には、th1の値を大きくしてから、再度ステップS302の処理(合成処理)を実行するようにしてもよい。 Further, if the number of reference pixels added to the composition candidate pixel list in step S509 is less than Nu, the process of step S513 may be skipped. Then, in step S514, the equation (1) may be applied to all the reference pixels added to the composition candidate pixel list. Further, when the number of reference pixels added to the composition candidate pixel list is less than Nu, especially when the number of reference pixels is 0, the value of th1 is increased, and then the process of step S302 is performed again (the process of step S302 is performed again. (Synthesis processing) may be executed.

(領域判定処理)
次に、図7を参照して、ステップS303における領域判定処理を説明する。図7は、ステップS303の領域判定処理を示すフローチャートである。
(Area judgment processing)
Next, the area determination process in step S303 will be described with reference to FIG. 7. FIG. 7 is a flowchart showing the area determination process in step S303.

ステップS701において、領域判定処理部206は、領域判定した結果を記憶する領域判定マップの初期化と、領域判定に用いる局所領域のサイズS3、閾値th2,th3などの画像処理パラメータ、及びノイズ特性情報を入力する。なお、領域判定マップは基準画像データと同サイズである。また、ここでは、ノイズ特性情報として、撮影時のISO感度に応じたノイズ分散σ2が入力される。 In step S701, the area determination processing unit 206 initializes the area determination map that stores the result of the area determination, image processing parameters such as the size S3 of the local area used for the area determination, the threshold values th2 and th3, and noise characteristic information. Enter. The area determination map has the same size as the reference image data. Further, here, the noise variance σ 2 according to the ISO sensitivity at the time of shooting is input as the noise characteristic information.

ステップS702において、領域判定処理部206は、基準画像データから、処理対象とする着目画素を選択する。そして、ステップS703において、領域判定処理部206は、ステップS702で選択した着目画素のエッジ強度Eを導出する。以下、エッジ強度Eの導出方法について説明する。 In step S702, the area determination processing unit 206 selects the pixel of interest to be processed from the reference image data. Then, in step S703, the area determination processing unit 206 derives the edge strength E of the pixel of interest selected in step S702. Hereinafter, a method for deriving the edge strength E will be described.

まず、領域判定処理部206は、着目画素と周辺画素とから成る局所領域を決定する。局所領域のサイズS3はステップS301で入力したパラメータに基づいて決定される。ここではS3=5とし、局所領域が5×5画素である場合を例に図8を参照して説明する。図8(a)において、黒色の画素801は着目画素を表し、網掛けされた画素802は周辺画素を表し、太線で囲われた領域803は局所領域を表している。局所領域の形状は、図8(a)に示す形状に限らず任意の形状でよく、例えば図8(b)に示すような形状であってもよい。 First, the area determination processing unit 206 determines a local area including a pixel of interest and a peripheral pixel. The size S3 of the local region is determined based on the parameters input in step S301. Here, S3 = 5, and the case where the local region is 5 × 5 pixels will be described as an example with reference to FIG. In FIG. 8A, the black pixel 801 represents the pixel of interest, the shaded pixel 802 represents the peripheral pixel, and the region 803 surrounded by the thick line represents the local region. The shape of the local region is not limited to the shape shown in FIG. 8A, and may be any shape, for example, the shape shown in FIG. 8B.

次に、領域判定処理部206は、局所領域における分散値VをRGB毎に式(3)を用いて算出する。 Next, the area determination processing unit 206 calculates the variance value V in the local area for each RGB using the equation (3).

Figure 0006938282
Figure 0006938282

ここで、Mは局所領域に含まれる画素数を示していて、r,g,bはそれぞれRGB値を示している。 Here, M indicates the number of pixels included in the local region, and r, g, and b indicate RGB values, respectively.

Figure 0006938282
は局所領域に含まれる画素値の平均値を示している。iは局所領域における各画素を識別するためのインデックス番号であり、0≦i≦M−1を満たす整数である。領域判定処理部206は、これらの分散値Vを、ステップS701で入力した撮影時のISO感度に応じたノイズ分散値σ2で割ることで分散値の比率を算出し、これをエッジ強度Eとする。具体的には、式(4)によりエッジ強度Eが算出される。エッジ強度Eは値が大きいほど、鮮鋭度が高く、逆に小さいほど鮮鋭度が低いことを示す指標である。
Figure 0006938282
Indicates the average value of the pixel values contained in the local area. i is an index number for identifying each pixel in the local region, and is an integer satisfying 0 ≦ i ≦ M-1. The area determination processing unit 206 calculates the ratio of the dispersion values by dividing these dispersion values V by the noise dispersion value σ 2 according to the ISO sensitivity at the time of shooting input in step S701, and sets this as the edge strength E. do. Specifically, the edge strength E is calculated by the equation (4). The larger the value of the edge strength E, the higher the sharpness, and conversely, the smaller the value, the lower the sharpness.

Figure 0006938282
Figure 0006938282

領域判定処理部206は、算出したエッジ強度ER、EG、EBの内の最大値を、エッジ強度Eとして取得する。 Area determination unit 206, the calculated edge intensity E R, E G, the maximum value of E B, obtained as edge intensities E.

ステップS704において、領域判定処理部206は、ステップS703で導出したエッジ強度Eと、ステップS701で入力した閾値(第1の判定値)th2とを比較する。エッジ強度Eが第1の判定値より小さい場合は(ステップS704のNO)、処理はステップS711に進む。エッジ強度Eが第1の判定値以上である場合は(ステップS704のYES)、領域判定処理部206は、複数の参照画像データから処理対象とする参照画像データを1つ選択する。そして、領域判定処理部206は、選択した参照画像データから、ステップS702で選択した着目画素と同座標にある画素を参照画素として選択する。そして、領域判定処理部206は、基準画像データにおける、着目画素を中心とする局所領域と、処理対象の参照画像データにおける、参照画素を中心とする局所領域との両領域について、SADを算出する。SAD算出時の局所領域のサイズは、エッジ強度算出時と同サイズ、すなわち5×5画素であるとする。 In step S704, the area determination processing unit 206 compares the edge strength E derived in step S703 with the threshold value (first determination value) th2 input in step S701. If the edge strength E is smaller than the first determination value (NO in step S704), the process proceeds to step S711. When the edge strength E is equal to or higher than the first determination value (YES in step S704), the area determination processing unit 206 selects one reference image data to be processed from the plurality of reference image data. Then, the area determination processing unit 206 selects a pixel having the same coordinates as the pixel of interest selected in step S702 from the selected reference image data as a reference pixel. Then, the area determination processing unit 206 calculates SAD for both the local area centered on the pixel of interest in the reference image data and the local area centered on the reference pixel in the reference image data to be processed. .. It is assumed that the size of the local region at the time of calculating SAD is the same size as at the time of calculating the edge strength, that is, 5 × 5 pixels.

ステップS707において、領域判定処理部206は、ステップS706で2つの局所領域について算出したSADと、ステップS701で入力した閾値(第2の判定値)th3とを比較する。SADが第2の判定値以上である場合は(ステップS707のNO)、領域判定処理部206は、2つの局所領域が類似していないと判断する。そして、処理はステップS710に進む。SADが第2の判定値より小さい場合は(ステップS707のYES)、領域判定処理部206は、2つの局所領域が類似していると判断し、全参照画像データの参照画素について処理が完了したか否かを判定する(ステップS708)。全参照画像データの参照画素について処理が完了していない場合は(ステップS708のNO)、処理はステップS705に戻る。全参照画像データの参照画素について処理が完了している場合は(ステップS708のYES)、処理はステップS709に進む。 In step S707, the area determination processing unit 206 compares the SAD calculated for the two local areas in step S706 with the threshold value (second determination value) th3 input in step S701. If the SAD is equal to or greater than the second determination value (NO in step S707), the region determination processing unit 206 determines that the two local regions are not similar. Then, the process proceeds to step S710. If the SAD is smaller than the second determination value (YES in step S707), the region determination processing unit 206 determines that the two local regions are similar, and the processing is completed for the reference pixels of all the reference image data. Whether or not it is determined (step S708). If the processing is not completed for the reference pixels of all the reference image data (NO in step S708), the processing returns to step S705. If the processing is completed for the reference pixels of all the reference image data (YES in step S708), the processing proceeds to step S709.

ステップS709において、領域判定処理部206は、ステップS702で選択した着目画素が非動体エッジに対応するエッジ領域(以下、非動体エッジ領域と呼ぶ)に属する画素であると判定し、領域判定マップの着目画素と同座標の画素に「1」を出力する。ステップS710において、領域判定処理部206は、ステップS702で選択した着目画素が動体エッジに対応するエッジ領域(以下、動体エッジ領域と呼ぶ)に属する画素であると判定し、領域判定マップの着目画素と同座標の画素に「2」を出力する。ステップS711において、領域判定処理部206は、ステップS702で選択した着目画素がエッジ領域以外の領域(平坦領域または非エッジ領域と呼ぶ)に属する画素であると判定し、領域判定マップの着目画素と同座標の画素に「0」を出力する。 In step S709, the area determination processing unit 206 determines that the pixel of interest selected in step S702 belongs to the edge region corresponding to the non-moving body edge (hereinafter, referred to as the non-moving body edge region), and determines that the pixel of interest belongs to the area determination map. "1" is output to the pixel having the same coordinates as the pixel of interest. In step S710, the area determination processing unit 206 determines that the pixel of interest selected in step S702 is a pixel belonging to the edge region corresponding to the moving object edge (hereinafter referred to as the moving object edge region), and determines that the pixel of interest is a pixel of interest in the area determination map. "2" is output to the pixel with the same coordinates as. In step S711, the area determination processing unit 206 determines that the pixel of interest selected in step S702 belongs to an area other than the edge area (referred to as a flat area or a non-edge area), and sets the pixel of interest in the area determination map. "0" is output to the pixels with the same coordinates.

ステップS712において、領域判定処理部206は、基準画像データの全画素についてステップS703〜S711の処理を完了したか否かを判定する。基準画像データの全画素について処理が完了していない場合は(ステップS712のNO)、処理はステップS702に戻る。基準画像データの全画素について処理が完了している場合は(ステップS712のYES)、領域判定処理部206は、領域判定処理を終了する。 In step S712, the area determination processing unit 206 determines whether or not the processing of steps S703 to S711 has been completed for all the pixels of the reference image data. If the processing is not completed for all the pixels of the reference image data (NO in step S712), the processing returns to step S702. When the processing is completed for all the pixels of the reference image data (YES in step S712), the area determination processing unit 206 ends the area determination processing.

なお、本実施形態では、エッジ強度Eの算出に分散の比率を用いたが、これに限らずソーベルフィルタやラプラシアンフィルタなどを用いるようにしてもよい。すなわち、エッジ強度Eの算出方法は、エッジ強度に相当する値が算出できればいずれの算出方法であっても構わない。 In the present embodiment, the dispersion ratio is used for calculating the edge strength E, but the present invention is not limited to this, and a Sobel filter, a Laplacian filter, or the like may be used. That is, the calculation method of the edge strength E may be any calculation method as long as the value corresponding to the edge strength can be calculated.

(領域別ノイズ低減処理)
次に、図9を参照して、ステップS304における領域別ノイズ低減処理を説明する。図9は、ステップS304の領域別ノイズ低減処理を示すフローチャートを参照して説明する。
(Noise reduction processing by area)
Next, with reference to FIG. 9, the area-specific noise reduction processing in step S304 will be described. FIG. 9 will be described with reference to a flowchart showing the noise reduction processing for each region in step S304.

ステップS901において、ノイズ低減処理部207は、ステップS303で生成した領域判定マップ、ノイズ低減処理に用いるフィルタのサイズS4,S5などの画像処理パラメータ、及びエッジ方向判定フィルタを入力する。 In step S901, the noise reduction processing unit 207 inputs the area determination map generated in step S303, image processing parameters such as filter sizes S4 and S5 used for noise reduction processing, and the edge direction determination filter.

ステップS902において、ノイズ低減処理部207は、ステップS301で入力した基準画像データから、処理対象とする着目画素を選択する。ステップS903において、ノイズ低減処理部207は、ステップS901で入力した領域判定マップに基づいて、着目画素が非動体エッジ(=「1」)であるか、すなわち着目画素が非動体エッジ領域に属する画素であるかを判定する。非動体エッジである場合は(ステップS903のYES)、処理はステップS905に進む。非動体エッジでない場合は(ステップS903のNO)、ノイズ低減処理部207は、ステップS901で入力した領域判定マップに基づいて、着目画素が動体エッジ(=「2」)であるか、すなわち着目画素が動体エッジ領域に属する画素であるかを判定する。動体エッジである場合は(ステップS904のYES)、処理はステップS906に進み、動体エッジでない場合は(ステップS904のNO)、処理はステップS907に進む。 In step S902, the noise reduction processing unit 207 selects the pixel of interest to be processed from the reference image data input in step S301. In step S903, the noise reduction processing unit 207 determines whether the pixel of interest is a non-moving body edge (= “1”) based on the area determination map input in step S901, that is, the pixel of interest belongs to the non-moving body edge region. Is determined. If it is a non-moving body edge (YES in step S903), the process proceeds to step S905. If it is not a non-moving body edge (NO in step S903), the noise reduction processing unit 207 determines whether the pixel of interest is the moving body edge (= “2”) based on the area determination map input in step S901, that is, the pixel of interest. Determines if is a pixel belonging to the moving body edge region. If it is a moving body edge (YES in step S904), the process proceeds to step S906, and if it is not a moving body edge (NO in step S904), the process proceeds to step S907.

ステップS905において、ノイズ低減処理部207は、着目画素に対してエッジの方向を判定して、該エッジの方向に沿った非等方フィルタを着目画素に適用する。具体的には、まず、ノイズ低減処理部207は、予め用意された複数のエッジ方向判定フィルタ(例えば、図10(a)〜(d)に示されるようなフィルタ)を1つずつ着目画素に適用する。図10において黒く塗りつぶされた画素は着目画素を示していて、丸が描かれた画素と三角が描かれた画素はそれぞれ、エッジの方向を判定するための画素を示している。次に、ノイズ低減処理部207は、エッジ方向判定フィルタの丸が描かれた画素と空間的に対応する、基準画像データにおける画素の画素値の和を算出する。同様に、ノイズ低減処理部207は、エッジ方向判定フィルタの三角が描かれた画素と空間的に対応する、基準画像データにおける画素の画素値の和を算出する。そして、ノイズ低減処理部207は、算出した画素値の和のそれぞれの差分を算出することで、直線上の輝度差を求める。そして、ノイズ低減処理部207は、輝度差が最も大きいエッジ方向判定フィルタの丸が描かれた画素方向(または、三角が描かれた画素方向)をエッジの方向とする。最後に、ノイズ低減処理部207は、エッジの方向に伸びた、サイズS3である非等方フィルタを着目画素に適用する。図11(a)には、エッジ方向判定フィルタ1101によって示される方向(図において太線矢印で示される右斜め上方向)が、着目画素1102(ここでは、R)におけるエッジの方向として判定されたときの様子が示されている。図11(b)には、このとき適用される非等方フィルタが示されている。ここで、画像データ1103は、ステップS302で基準画像データと全ての参照画像データとを合成して得られた合成画像データである。図11(b)に示すように、着目画素1102に対応する、合成画像データ1103上の着目画素1104には、図11(a)の太線矢印と同じ方向(右斜め上方向)に伸びた非等方フィルタ1105が適用される。なお、非等方フィルタは、R,G,Bのそれぞれについて用意される。図11(b)に示す非等方フィルタ1105はR用の非等方フィルタであり、非等方フィルタ1105を着目画素1102に適用することで、図中の破線枠内のR画素の画素値が平滑化される。また、非等方フィルタに設定される係数については、エッジの方向について画素値を平滑化する値であればどのような値が設定されても構わない。 In step S905, the noise reduction processing unit 207 determines the direction of the edge with respect to the pixel of interest, and applies an anisotropic filter along the direction of the edge to the pixel of interest. Specifically, first, the noise reduction processing unit 207 applies a plurality of edge direction determination filters (for example, filters as shown in FIGS. 10A to 10D) prepared in advance to the pixels of interest one by one. Apply. In FIG. 10, the pixels painted in black indicate the pixels of interest, and the pixels in which the circles are drawn and the pixels in which the triangles are drawn indicate the pixels for determining the direction of the edge, respectively. Next, the noise reduction processing unit 207 calculates the sum of the pixel values of the pixels in the reference image data, which spatially corresponds to the pixels on which the circles of the edge direction determination filter are drawn. Similarly, the noise reduction processing unit 207 calculates the sum of the pixel values of the pixels in the reference image data, which spatially corresponds to the pixels on which the triangles of the edge direction determination filter are drawn. Then, the noise reduction processing unit 207 obtains the brightness difference on a straight line by calculating the difference between the sums of the calculated pixel values. Then, the noise reduction processing unit 207 sets the pixel direction in which the circle of the edge direction determination filter having the largest brightness difference is drawn (or the pixel direction in which the triangle is drawn) as the edge direction. Finally, the noise reduction processing unit 207 applies an anisotropic filter of size S3 extending in the direction of the edge to the pixel of interest. In FIG. 11A, when the direction indicated by the edge direction determination filter 1101 (the diagonally upward right direction indicated by the thick arrow in the figure) is determined as the direction of the edge in the pixel of interest 1102 (here, R). The state of is shown. FIG. 11B shows the anisotropic filter applied at this time. Here, the image data 1103 is the composite image data obtained by synthesizing the reference image data and all the reference image data in step S302. As shown in FIG. 11B, the focus pixel 1104 on the composite image data 1103 corresponding to the focus pixel 1102 is not extended in the same direction as the thick line arrow in FIG. 11 (a) (diagonally upward to the right). The isotropic filter 1105 is applied. Anisotropy filters are prepared for each of R, G, and B. The anisotropic filter 1105 shown in FIG. 11B is an anisotropic filter for R. By applying the anisotropic filter 1105 to the pixel of interest 1102, the pixel value of the R pixel in the broken line frame in the drawing is obtained. Is smoothed. Further, as the coefficient set in the anisotropic filter, any value may be set as long as it is a value that smoothes the pixel value in the edge direction.

ステップS906において、ノイズ低減処理部207は、ステップS905と同様に着目画素に対してエッジの方向を判定して、該エッジの方向に沿った非等方フィルタを適用する。ステップS906で適用される非等方フィルタ(以下、第2の非等方フィルタと呼ぶ)は、ステップS905で適用される非等方フィルタ(以下、第1の非等方フィルタと呼ぶ)とサイズのみ異なる。より具体的には、第2の非等方フィルタは、第1の非等方フィルタとエッジ方向のサイズのみ異なる。なお、第2の非等方フィルタのサイズS5>第1の非等方フィルタのサイズS4である。これは、動体エッジは、非動体エッジに比べて画像データ間で類似画素が見つかり難いため、エッジのがたつきが残りやすい。そのため、動体エッジ領域に適用される非等方フィルタのサイズS5を大きく設定する。その際、動体エッジ領域に適用されるエッジ方向判定フィルタのサイズも、動体エッジ領域に適用される非等方フィルタのサイズ拡大後の大きさに合わせて大きく設定される。図11(c)には、着目画素1106に対応する領域判定マップの画素値が「2(動体エッジ)」であって、該着目画素におけるエッジ方向が水平方向(図において左右方向)であると判定された場合における第2の非等方フィルタの一例が示されている。なお、図11(c)には、図11(b)と同様に、着目画素がRである場合に適用される非等方フィルタが示されている。図11(c)に示されるように、動体エッジ領域に適用される第2の非等方フィルタは、図11(b)に示す非動体エッジ領域に適用される第1の非等方フィルタよりもエッジ方向のサイズが大きく設定されている。なお、第2の非等方フィルタの一部分が第1の非等方フィルタとして用いられてもよいし、第2の非等方フィルタと第1の非等方フィルタとで全く異なるフィルタ係数が設定されてもよい。 In step S906, the noise reduction processing unit 207 determines the direction of the edge with respect to the pixel of interest in the same manner as in step S905, and applies an anisotropic filter along the direction of the edge. The anisotropic filter applied in step S906 (hereinafter referred to as a second anisotropic filter) has the same size as the anisotropic filter applied in step S905 (hereinafter referred to as a first anisotropic filter). Only different. More specifically, the second anisotropic filter differs from the first anisotropic filter only in the size in the edge direction. The size S5 of the second anisotropic filter> the size S4 of the first anisotropic filter. This is because it is difficult to find similar pixels in the image data of the moving body edge as compared with the non-moving body edge, so that the edge rattling tends to remain. Therefore, the size S5 of the anisotropic filter applied to the moving body edge region is set large. At that time, the size of the edge direction determination filter applied to the moving body edge region is also set large according to the size of the anisotropic filter applied to the moving body edge region after the size is increased. In FIG. 11C, the pixel value of the area determination map corresponding to the pixel of interest 1106 is “2 (moving object edge)”, and the edge direction of the pixel of interest is the horizontal direction (horizontal direction in the figure). An example of a second anisotropic filter in the case of determination is shown. Note that FIG. 11 (c) shows an anisotropic filter applied when the pixel of interest is R, as in FIG. 11 (b). As shown in FIG. 11 (c), the second anisotropic filter applied to the moving body edge region is more than the first anisotropic filter applied to the non-moving body edge region shown in FIG. 11 (b). The size in the edge direction is set large. A part of the second anisotropic filter may be used as the first anisotropic filter, and completely different filter coefficients are set for the second anisotropic filter and the first anisotropic filter. May be done.

ステップS907において、ノイズ低減処理部207は、着目画素に対して等方フィルタを適用する。この処理は、エッジ領域に非等方フィルタをかけることによりエッジ領域と平坦領域との境界で発生し得るSN段差を抑制するために行う。但し、ステップS302の合成処理において平坦領域のノイズはすでに低減されているため、等方フィルタによるノイズ低減効果はエッジ領域より弱くなるように設定される。なお、本実施形態では、等方フィルタとしてガウスフィルタを用いる。 In step S907, the noise reduction processing unit 207 applies an isotropic filter to the pixel of interest. This process is performed in order to suppress the SN step that may occur at the boundary between the edge region and the flat region by applying an anisotropic filter to the edge region. However, since the noise in the flat region has already been reduced in the synthesis process in step S302, the noise reduction effect of the isotropic filter is set to be weaker than that in the edge region. In this embodiment, a Gaussian filter is used as the isotropic filter.

ステップS908において、ノイズ低減処理部207は、全画素についてステップS903〜S907の処理を完了したか否かを判定する。全画素について処理が完了している場合は(ステップS908のYES)、ノイズ低減処理部207は、領域別ノイズ低減処理を終了する。全画素について処理が完了していない場合は(ステップS908のNO)、処理はステップS902に戻る。 In step S908, the noise reduction processing unit 207 determines whether or not the processing of steps S903 to S907 has been completed for all the pixels. When the processing is completed for all the pixels (YES in step S908), the noise reduction processing unit 207 ends the area-specific noise reduction processing. If the processing is not completed for all pixels (NO in step S908), the processing returns to step S902.

以上のように、本実施形態では、第2のノイズ低減処理(領域別ノイズ低減処理)において、第1のノイズ低減処理(合成処理)で得られた合成画像に対してフィルタ処理を行う際に、エッジ領域と平坦領域とのそれぞれに対して異なるフィルタを適用する。特に、本実施形態では、合成画像内のエッジ領域に対して非等方フィルタを適用するようにしている。したがって、本実施形態によれば、複数の画像を用いて行われるノイズ低減処理において、出力画像に発生するエッジのがたつきを抑制することが可能となる。また、本実施形態では、着目画像のエッジ領域について、該エッジ領域に対応する参照画像内の領域とのSADを導出し、導出したSADに基づいてエッジ領域を動体エッジ領域と非動体エッジ領域とにさらに分類している。そして、動体エッジ領域と非動体エッジ領域とで異なるサイズの非等方フィルタを適用するようにしている。それにより、エッジのがたつきをさらに抑制することが可能となる。図12は、本実施形態の効果を説明するための図である。図12には、入力画像(図12(a))に対して、エッジのがたつきを考慮しない従来のノイズ低減処理を適用した画像(図12(b))と、本実施形態によるノイズ低減処理を適用した画像(図12(c))とが示されている。図中の破線の楕円で囲われた部分に注目すると、従来のノイズ低減処理を適用した画像ではエッジにがたつきが残っているのが分かる。一方、本実施形態によるノイズ低減処理を適用した画像ではエッジにがたつきが見られず、エッジのがたづきが抑制されているのが分かる。 As described above, in the second noise reduction processing (region-specific noise reduction processing), in the present embodiment, when the composite image obtained by the first noise reduction processing (composite processing) is filtered. , Apply different filters to each of the edge and flat areas. In particular, in the present embodiment, the anisotropic filter is applied to the edge region in the composite image. Therefore, according to the present embodiment, it is possible to suppress the rattling of edges that occur in the output image in the noise reduction processing performed using a plurality of images. Further, in the present embodiment, for the edge region of the image of interest, the SAD with the region in the reference image corresponding to the edge region is derived, and the edge region is divided into a moving body edge region and a non-moving body edge region based on the derived SAD. It is further classified into. Then, anisotropic filters of different sizes are applied to the moving body edge region and the non-moving body edge region. As a result, it becomes possible to further suppress the rattling of the edge. FIG. 12 is a diagram for explaining the effect of the present embodiment. FIG. 12 shows an image (FIG. 12 (b)) in which a conventional noise reduction process that does not consider edge rattling is applied to an input image (FIG. 12 (a)), and noise reduction by the present embodiment. An image to which the processing is applied (FIG. 12 (c)) is shown. Focusing on the part surrounded by the broken line ellipse in the figure, it can be seen that the edge remains rattling in the image to which the conventional noise reduction processing is applied. On the other hand, in the image to which the noise reduction processing according to the present embodiment is applied, no rattling is observed at the edges, and it can be seen that the rattling of the edges is suppressed.

なお、本実施形態では、連続撮影により得られた画像の数と、合成画素数Numとが同じである場合について説明したが、任意の合成画素数を設定し、該合成画素数を満足するように合成処理が行われれば、合成画素数は上述したものに限定されない。 In the present embodiment, the case where the number of images obtained by continuous shooting and the number of composite pixels Nu are the same has been described, but an arbitrary number of composite pixels is set so as to satisfy the composite pixel number. If the compositing process is performed, the number of compositing pixels is not limited to those described above.

また、本実施形態では、連続撮影により得られた画像の内、最初に得られた画像を基準画像としたが、最初に得られた画像以外の画像を基準画像としてもよい。例えば主被写体を最も捉えた画像を基準画像としても構わない。 Further, in the present embodiment, among the images obtained by continuous shooting, the first obtained image is used as the reference image, but an image other than the first obtained image may be used as the reference image. For example, the image that most captures the main subject may be used as the reference image.

また、本実施形態では、合成候補画素リストに含まれる画素の内、着目画素と参照画素とのSADが小さい順にNum個の画素を合成したが、これに限定されるものではない。例えば、合成候補画素リストからランダムにNum個の画素を選択して合成しても構わない。 Further, in the present embodiment, among the pixels included in the composition candidate pixel list, Num pixels are synthesized in ascending order of SAD between the pixel of interest and the reference pixel, but the present invention is not limited to this. For example, Num pixels may be randomly selected from the composition candidate pixel list and combined.

また、本実施形態では、参照画像から着目画素と同座標の画素を参照画像として選択したが、これに限定されない。例えば、手持ち撮影により得られた画像では大きく位置ずれが発生する場合がある。したがって、手持ち撮影により得られた画像を入力部201が入力する場合には、ステップS301で各参照画像を基準画像に位置合わせしてからステップS302〜S306の処理を行うようにしてもよい。 Further, in the present embodiment, a pixel having the same coordinates as the pixel of interest is selected as the reference image from the reference image, but the present invention is not limited to this. For example, a large displacement may occur in an image obtained by handheld shooting. Therefore, when the input unit 201 inputs an image obtained by handheld shooting, the processes of steps S302 to S306 may be performed after each reference image is aligned with the reference image in step S301.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

Claims (9)

同一被写体を撮影して得られる複数の画像のうち、一の画像を基準画像とし、該一の画像以外の画像を参照画像とし、前記基準画像に前記参照画像を合成した合成画像を生成して前記基準画像に含まれるノイズを低減する第1のノイズ低減処理を実行する第1のノイズ低減手段と、
前記基準画像の各画素がエッジ領域に属するか非エッジ領域に属するかを判定する領域判定手段と、
前記基準画像の前記エッジ領域に対応する前記合成画像内の画素に対して非等方フィルタを適用し、前記基準画像の前記非エッジ領域に対応する前記合成画像内の画素に対して等方フィルタを適用することで、前記合成画像に含まれるノイズを低減する第2のノイズ低減処理を行う第2のノイズ低減手段と、を備える
ことを特徴とする画像処理装置。
Of a plurality of images obtained by photographing the same subject, one image is used as a reference image, an image other than the one image is used as a reference image, and a composite image obtained by synthesizing the reference image with the reference image is generated. The first noise reduction means for executing the first noise reduction processing for reducing the noise included in the reference image, and the first noise reduction means.
A region determination means for determining whether each pixel of the reference image belongs to an edge region or a non-edge region, and
An isotropic filter is applied to the pixels in the composite image corresponding to the edge region of the reference image, and the isotropic filter is applied to the pixels in the composite image corresponding to the non-edge region of the reference image. An image processing apparatus comprising the second noise reducing means for performing a second noise reducing process for reducing the noise included in the composite image by applying
前記領域判定手段は、
前記基準画像について、着目画素と該着目画素の周辺画素とから成る局所領域ごとにエッジ強度を導出し、
導出した前記エッジ強度が第1の判定値以上である、前記基準画像の前記局所領域における着目画素を、前記エッジ領域に属する画素であると判定し、前記エッジ強度が前記第1の判定値より小さい、前記基準画像の前記局所領域における着目画素を、前記非エッジ領域に属する画素であると判定する
ことを特徴とする請求項1に記載の画像処理装置。
The area determination means
For the reference image, the edge strength is derived for each local region composed of the pixel of interest and the peripheral pixels of the pixel of interest.
It is determined that the pixel of interest in the local region of the reference image whose derived edge strength is equal to or higher than the first determination value is a pixel belonging to the edge region, and the edge strength is based on the first determination value. The image processing apparatus according to claim 1, wherein a small pixel of interest in the local region of the reference image is determined to be a pixel belonging to the non-edge region.
前記領域判定手段は、
前記エッジ強度が前記第1の判定値以上である、前記基準画像の各局所領域のそれぞれが、該各局所領域のそれぞれに対応する前記参照画像内の領域と類似しているか否かを判定し、
類似していると判定された前記局所領域における着目画素を、非動体エッジ領域に属する画素であると判定し、類似していないと判定された前記局所領域における着目画素を、動体エッジ領域に属する画素であると判定する
ことを特徴とする請求項2に記載の画像処理装置。
The area determination means
It is determined whether or not each of the local regions of the reference image having the edge intensity equal to or higher than the first determination value is similar to the region in the reference image corresponding to each of the local regions. ,
The pixel of interest in the local region determined to be similar is determined to be a pixel belonging to the non-moving body edge region, and the pixel of interest in the local region determined to be dissimilar belongs to the moving body edge region. The image processing apparatus according to claim 2, wherein the image processing apparatus is determined to be a pixel.
前記領域判定手段は、
前記エッジ強度が前記第1の判定値以上である、前記基準画像の前記局所領域と、該局所領域に対応する前記参照画像内の領域との両領域の差分絶対値和を導出し、
導出した前記差分絶対値和が第2の判定値より小さい場合に、両領域が類似していると判定し、前記差分絶対値和が前記第2の判定値以上である場合に、両領域が類似していないと判定する
ことを特徴とする請求項3に記載の画像処理装置。
The area determination means
The sum of the absolute values of the differences between the local region of the reference image and the region in the reference image corresponding to the local region, whose edge strength is equal to or higher than the first determination value, is derived.
When the derived absolute difference sum is smaller than the second determination value, it is determined that both regions are similar, and when the difference absolute sum is equal to or greater than the second determination value, both regions are determined to be similar. The image processing apparatus according to claim 3, wherein it is determined that they are not similar.
前記基準画像の前記動体エッジ領域に対応する前記合成画像内の画素に対して適用される非等方フィルタは、前記基準画像の前記非動体エッジ領域に対応する前記合成画像内の画素に対して適用される非等方フィルタよりも、エッジ方向におけるサイズが大きい
ことを特徴とする請求項3または請求項4に記載の画像処理装置。
The anisotropic filter applied to the pixels in the composite image corresponding to the moving body edge region of the reference image is applied to the pixels in the composite image corresponding to the non-moving body edge region of the reference image. The image processing apparatus according to claim 3 or 4, characterized in that the size in the edge direction is larger than that of the applied anisotropic filter.
前記領域判定手段は、
前記基準画像の前記エッジ領域に属する各画素についてエッジ方向を判定し、
前記エッジ領域に属する各画素に対して、該各画素について判定した前記エッジ方向の非等方フィルタを適用する
ことを特徴とする請求項1から請求項5のいずれか1項に記載の画像処理装置。
The area determination means
The edge direction is determined for each pixel belonging to the edge region of the reference image, and the edge direction is determined.
The image processing according to any one of claims 1 to 5, wherein an anisotropic filter in the edge direction determined for each pixel is applied to each pixel belonging to the edge region. Device.
前記第1のノイズ低減手段は、
各参照画像内の、前記基準画像の一の画素に対応する画素と該画素の周辺画素とから成るブロックから、該一の画素に適用する合成候補画素を選択し、
前記基準画像の各画素について選択された前記合成候補画素を用いて、前記合成画像の各画素の画素値を決定し、
前記合成候補画素は、前記一の画素との類似度が高い順に、前記各参照画像内の前記ブロックから選択される所定の数の画素である
ことを特徴とする請求項1から請求項6のうちのいずれか1項に記載の画像処理装置。
The first noise reducing means is
A synthesis candidate pixel to be applied to the one pixel is selected from a block composed of a pixel corresponding to one pixel of the reference image and peripheral pixels of the pixel in each reference image.
Using the composite candidate pixels selected for each pixel of the reference image, the pixel value of each pixel of the composite image is determined.
Claims 1 to 6, wherein the composite candidate pixels are a predetermined number of pixels selected from the blocks in each reference image in descending order of similarity to the one pixel. The image processing apparatus according to any one of the items.
同一被写体を撮影して得られる複数の画像のうち、一の画像を基準画像とし、該一の画像以外の画像を参照画像とし、前記基準画像に前記参照画像を合成した合成画像を生成して前記基準画像に含まれるノイズを低減する第1のノイズ低減処理を実行する第1のノイズ低減ステップと、
前記基準画像の各画素がエッジ領域に属するか非エッジ領域に属するかを判定する領域判定ステップと、
前記基準画像の前記エッジ領域に対応する前記合成画像内の画素に対して非等方フィルタを適用し、前記基準画像の前記非エッジ領域に対応する前記合成画像内の画素に対して等方フィルタを適用することで、前記合成画像に含まれるノイズを低減する第2のノイズ低減処理を行う第2のノイズ低減ステップと、を含む
ことを特徴とする画像処理方法。
Of a plurality of images obtained by photographing the same subject, one image is used as a reference image, an image other than the one image is used as a reference image, and a composite image obtained by synthesizing the reference image with the reference image is generated. The first noise reduction step of executing the first noise reduction processing for reducing the noise included in the reference image, and
A region determination step for determining whether each pixel of the reference image belongs to an edge region or a non-edge region, and
An isotropic filter is applied to the pixels in the composite image corresponding to the edge region of the reference image, and the isotropic filter is applied to the pixels in the composite image corresponding to the non-edge region of the reference image. An image processing method comprising a second noise reduction step of performing a second noise reduction process for reducing the noise included in the composite image by applying the above.
コンピュータを、請求項1から請求項7のうちのいずれか1項に記載の画像処理装置として機能させるためのプログラム。 A program for causing a computer to function as the image processing device according to any one of claims 1 to 7.
JP2017166007A 2017-08-30 2017-08-30 Image processing equipment, image processing methods and programs Active JP6938282B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017166007A JP6938282B2 (en) 2017-08-30 2017-08-30 Image processing equipment, image processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017166007A JP6938282B2 (en) 2017-08-30 2017-08-30 Image processing equipment, image processing methods and programs

Publications (3)

Publication Number Publication Date
JP2019045981A JP2019045981A (en) 2019-03-22
JP2019045981A5 JP2019045981A5 (en) 2020-08-27
JP6938282B2 true JP6938282B2 (en) 2021-09-22

Family

ID=65816440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017166007A Active JP6938282B2 (en) 2017-08-30 2017-08-30 Image processing equipment, image processing methods and programs

Country Status (1)

Country Link
JP (1) JP6938282B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111062878B (en) * 2019-10-31 2023-04-18 深圳先进技术研究院 Image denoising method and device and computer readable storage medium
CN113347490B (en) * 2020-02-18 2022-08-16 RealMe重庆移动通信有限公司 Video processing method, terminal and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008293425A (en) * 2007-05-28 2008-12-04 Olympus Corp Noise removal device, program, and method
JP6253331B2 (en) * 2012-10-25 2017-12-27 キヤノン株式会社 Image processing apparatus and image processing method
JP6594075B2 (en) * 2015-07-22 2019-10-23 キヤノン株式会社 Image processing apparatus, imaging system, and image processing method

Also Published As

Publication number Publication date
JP2019045981A (en) 2019-03-22

Similar Documents

Publication Publication Date Title
JP5362878B2 (en) Image processing apparatus and image processing method
US7983511B1 (en) Methods and apparatus for noise reduction in digital images
JP6635799B2 (en) Image processing apparatus, image processing method, and program
JP2020129276A (en) Image processing apparatus, image processing method, and program
JP6818463B2 (en) Image processing equipment, image processing methods and programs
WO2016206087A1 (en) Low-illumination image processing method and device
US11145032B2 (en) Image processing apparatus, method and storage medium for reducing color noise and false color
JP2004214756A (en) Image noise reduction
JP7032913B2 (en) Image processing device, image processing method, computer program
JP6501452B2 (en) IMAGE PROCESSING APPARATUS AND SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM
CN111183630B (en) A kind of photo processing method and processing device of intelligent terminal
JP5653104B2 (en) Image processing apparatus, image processing method, and program
CN107767356B (en) Image processing method and device
JP7328096B2 (en) Image processing device, image processing method, and program
CN105227826A (en) Image processing apparatus, image processing method and image processing program
US7751641B2 (en) Method and system for digital image enhancement
JP5765893B2 (en) Image processing apparatus, imaging apparatus, and image processing program
EP3438923B1 (en) Image processing apparatus and image processing method
JP6957665B2 (en) Image processing equipment, image processing methods and programs
JP4241774B2 (en) Image processing apparatus, image processing method, and program
JP6938282B2 (en) Image processing equipment, image processing methods and programs
WO2016113805A1 (en) Image processing method, image processing apparatus, image pickup apparatus, program, and storage medium
JP2016201037A (en) Image processing apparatus, image processing method, and program
US20250097367A1 (en) Color noise reduction based on guided filter using luminance information
CN104504667B (en) image processing method and device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200716

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210901

R151 Written notification of patent or utility model registration

Ref document number: 6938282

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载