JP6938282B2 - Image processing equipment, image processing methods and programs - Google Patents
Image processing equipment, image processing methods and programs Download PDFInfo
- Publication number
- JP6938282B2 JP6938282B2 JP2017166007A JP2017166007A JP6938282B2 JP 6938282 B2 JP6938282 B2 JP 6938282B2 JP 2017166007 A JP2017166007 A JP 2017166007A JP 2017166007 A JP2017166007 A JP 2017166007A JP 6938282 B2 JP6938282 B2 JP 6938282B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- reference image
- image
- edge
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
Description
本発明は、画像データに含まれるノイズを低減する画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program for reducing noise contained in image data.
デジタルスチルカメラやデジタルビデオカメラなどの撮像装置では、撮像素子や回路の特性により暗電流ノイズ、熱雑音、ショットノイズなどが発生し、撮像により得られる画像データにランダムなノイズ(ランダムノイズ)が混入する。近年、撮像素子の小型化や高画素化に伴い画素ピッチが極小化されているため、ノイズが目立ちやすくなっている。特に、高感度で撮影して得られる画像データにはショットノイズが顕著に発生し、画質劣化の大きな要因になっている。そこで、ランダムノイズを低減することで、高画質化を実現するための様々な方法が提案されている。 In imaging devices such as digital still cameras and digital video cameras, dark current noise, thermal noise, shot noise, etc. are generated due to the characteristics of the imaging element and circuit, and random noise (random noise) is mixed in the image data obtained by imaging. do. In recent years, as the image sensor has become smaller and the number of pixels has increased, the pixel pitch has been minimized, so that noise is more noticeable. In particular, shot noise is remarkably generated in image data obtained by shooting with high sensitivity, which is a major factor in image quality deterioration. Therefore, various methods for achieving high image quality by reducing random noise have been proposed.
ショットノイズ除去の最も原理的な方法として、同一被写体を同じ撮影条件で連続撮影して得られた複数枚の画像データを平均する方法がある。この方法に基づき、連続撮影して得られた画像データにおける基準点に対して、他の画像の学習領域に含まれる複数点を参照し、基準点を含むウィンドウとの類似度に応じて複数点を加重平均してノイズを除去する方法が提案されている(特許文献1参照)。また、連続撮影して得られた複数枚の画像データを類似画素同士で合成することでショットノイズを低減し、そのノイズ低減量を利用して合成画像データに対してさらにノイズ低減処理を行う方法が提案されている(特許文献2参照)。 The most principle method of removing shot noise is a method of averaging a plurality of image data obtained by continuously shooting the same subject under the same shooting conditions. Based on this method, with respect to the reference points in the image data obtained by continuous shooting, a plurality of points included in the learning area of another image are referred to, and a plurality of points are referred to according to the degree of similarity with the window including the reference points. A method for removing noise by weighted averaging has been proposed (see Patent Document 1). In addition, a method of reducing shot noise by synthesizing a plurality of image data obtained by continuous shooting with similar pixels, and further performing noise reduction processing on the composite image data by utilizing the noise reduction amount. Has been proposed (see Patent Document 2).
特許文献1に記載の方法によれば、テクスチャの構造を残したまま、ノイズを低減させることができる。しかし、エッジのがたつきもテクスチャの構造の一つとして扱われてしまうため、特許文献1に記載の方法では、エッジのがたつきが残ってしまう可能性がある。また、特許文献2に記載の方法では、合成画像データ全体のノイズ低減量を一様にできるものの、エッジのがたつきについては考慮されていないため、結果としてエッジのがたつきを残してしまう。 According to the method described in Patent Document 1, noise can be reduced while leaving the texture structure. However, since the edge rattling is also treated as one of the texture structures, the method described in Patent Document 1 may leave the edge rattling. Further, in the method described in Patent Document 2, although the noise reduction amount of the entire composite image data can be made uniform, the edge rattling is not considered, and as a result, the edge rattling is left. ..
そこで本発明は、連続撮影して得られた複数画像を用いて行われるノイズ低減処理において、出力画像に発生するエッジのがたつきを抑制することを目的とする。 Therefore, an object of the present invention is to suppress rattling of edges that occur in an output image in a noise reduction process performed using a plurality of images obtained by continuous shooting.
本発明による画像処理装置は、同一被写体を撮影して得られる複数の画像のうち、一の画像を基準画像とし、該一の画像以外の画像を参照画像とし、基準画像に参照画像を合成した合成画像を生成して基準画像に含まれるノイズを低減する第1のノイズ低減処理を実行する第1のノイズ低減手段と、基準画像の各画素がエッジ領域に属するか非エッジ領域に属するかを判定する領域判定手段と、基準画像のエッジ領域に対応する合成画像内の画素に対して非等方フィルタを適用し、基準画像の非エッジ領域に対応する合成画像内の画素に対して等方フィルタを適用することで、合成画像に含まれるノイズを低減する第2のノイズ低減処理を行う第2のノイズ低減手段と、を備えることを特徴とする。 The image processing apparatus according to the present invention uses one image as a reference image, an image other than the one image as a reference image, and synthesizes a reference image with the reference image among a plurality of images obtained by photographing the same subject. The first noise reduction means for generating the composite image and executing the first noise reduction processing for reducing the noise contained in the reference image, and whether each pixel of the reference image belongs to the edge region or the non-edge region. An isotropic filter is applied to the area determination means for determining the image and the pixels in the composite image corresponding to the edge area of the reference image, and the pixels in the composite image corresponding to the non-edge area of the reference image are equal to It is characterized by comprising a second noise reduction means for performing a second noise reduction process for reducing noise included in the composite image by applying a square filter.
本発明により、連続撮影して得られた複数画像を用いて行われるノイズ低減処理において、出力画像に発生するエッジのがたつきを抑制することができる。 According to the present invention, it is possible to suppress the rattling of edges generated in the output image in the noise reduction processing performed by using a plurality of images obtained by continuous shooting.
以下、本発明の実施の形態について詳細に説明する。なお、この実施の形態に記載されている構成要素は、本発明の例としての形態を示すものであり、この発明の範囲をそれらのみに必ずしも限定するものではない。 Hereinafter, embodiments of the present invention will be described in detail. It should be noted that the components described in this embodiment show embodiments as examples of the present invention, and the scope of the present invention is not necessarily limited to them.
[実施形態1]
本実施形態に係る画像処理装置の構成について、図1を参照して説明する。図1は、第1実施形態における画像処理装置のハードウェア構成を示すブロック図である。図1に示すように、本実施形態に係る画像処理装置100は、CPU101、RAM102、HDD103、汎用インターフェース(I/F)104、モニタ108、及びメインバス109を備える。汎用I/F104は、カメラなどの撮像装置105や、マウス、キーボードなどの入力装置106、及びメモリーカードなどの外部メモリ107をメインバス109に接続する。
[Embodiment 1]
The configuration of the image processing apparatus according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a hardware configuration of the image processing apparatus according to the first embodiment. As shown in FIG. 1, the
CPU101は、HDD103に格納された各種ソフトウェア(コンピュータプログラム)をRAM102に展開して実行することで、各種処理を実現する。本実施形態では、コンピュータプログラムの一つとして、画像処理アプリケーション(以下、単に画像処理アプリと呼ぶ。)がRAM102に展開される。CPU101によって画像処理アプリが起動されると、モニタ108に画像処理アプリのユーザインターフェース(UI)画面が表示される。
The
RAM102には、HDD103や外部メモリ107に格納されている各種データや、入力装置106からの指示などが転送される。また、RAM102には、撮像装置105で撮影された画像データが転送される。なお、ここでは、画像データとしてRAW画像データが転送されるものとする。また、HDD103や外部メモリ107に格納されているRAW画像データがRAM102に転送されてもよい。また、不図示のネットワークを介してサーバ装置から受信したRAW画像データをRAM102に転送するようにしてもよい。以降の説明において、画像データを単に画像と呼ぶ場合がある。RAM102に格納された画像データ等は、画像処理アプリの処理に従って、CPU101からの指令に基づき各種演算される。演算結果はモニタ108に表示されたり、HDD103または外部メモリ107に格納されたりする。
Various data stored in the
上記の構成において本実施形態では、CPU101からの指令に基づき、画像処理アプリに複数の画像データを入力し、ノイズを低減した画像データを生成して出力する。
In the above configuration, in the present embodiment, a plurality of image data are input to the image processing application based on a command from the
図2は、本実施形態に係る画像処理装置100の論理構成を示す図である。図2に示すように、画像処理装置100は、入力部201、記憶部202、処理部203、及び出力部204を備える。処理部203は、合成処理部205、領域判定処理部206、ノイズ低減処理部207、及び現像処理部208を含む。
FIG. 2 is a diagram showing a logical configuration of the
入力部201は、複数の画像データ、画像処理パラメータ、ISO感度別のノイズ特性を示す情報(以下、ノイズ特性情報と呼ぶ)などのデータを入力する。CPU101からの指示に基づき、処理部203で処理された画像データや記憶部202に記憶された画像データなどをモニタ108やHDD103などに出力する。複数の画像データは、ノイズ低減対象である基準画像データと、基準画像データと同一被写体を連続撮影した1以上の参照画像データとを含む。画像処理パラメータは、後述する合成処理、領域判定処理、及びノイズ低減処理において用いられるパラメータである。ノイズ特性情報は、予めISO感度別に算出したノイズ分散値である。入力部201は、これらのデータをCPU101からの指示に基づいて、撮像装置105や、HDD103、外部メモリ107などから入力する。また、撮像装置105で撮影された画像データを、撮像装置105から入力部201に直接入力するようにしてもよい。なお、画像処理パラメータやノイズ特性情報をユーザが設定可能なようにしてもよい。例えば、それらの情報を設定するためのUI画面をモニタ108に表示させて、該UI画面を介してユーザが設定した値をHDD103や外部メモリ107に記憶させておくようにしてもよい。
The
記憶部202は、CPU101からの指示に基づき、入力部201が入力した複数の画像データ、画像処理パラメータ、及び画像処理後の画像データなどをRAM102、HDD103、または外部メモリ107などに記憶する。
Based on the instruction from the
処理部203は、CPU101からの指示に基づき、入力部201から画像データや、画像処理パラメータ、ノイズ特性情報などを取得し、該画像データに対して画像処理を行う。なお、処理部203は、それらのデータを記憶部202から読み込むようにしてもよい。処理部203は、画像処理後の画像データを記憶部202や出力部204に出力する。処理部203における画像処理の詳細は後述する。
Based on the instruction from the
出力部204は、CPU101からの指示に基づき、処理部203で処理された画像データや記憶部202に記憶された画像データなどをモニタ108やHDD103などに出力する。なお、データの出力先はこれらに限られず、例えば、汎用I/F104に接続された外部メモリ107や不図示のサーバ装置やプリンタに、データが出力されてもよい。
Based on the instruction from the
(メイン処理フロー)
次いで、画像処理装置100の各処理の詳細について、図3のフローチャートを参照して説明する。図3は、第1実施形態に係る画像処理装置100が実行する画像処理の流れを示すフローチャートである。なお、図3に示す処理は、CPU101がHDD103に格納されたプログラム(画像処理アプリ)をRAM102に展開して実行することによって、実現される。勿論、図2に示す構成要素の一部または全部の役割を果たす専用の処理回路などを設けて、図2に示す構成要素の一部または全部をハードウェアにより実現してもよい。
(Main processing flow)
Next, the details of each process of the
ステップS301において、入力部201は、複数の画像データ、画像処理パラメータ、ノイズ特性情報、及びエッジ方向判定に用いるフィルタ(以下、エッジ方向判定フィルタと呼ぶ)を入力して、記憶部202に記憶する。なお、本実施形態では、入力部201が入力する画像データは、ベイヤ配列のカラーフィルタを有する撮像装置で撮影されたRAW画像データであるものとする。ベイヤ配列のカラーフィルタは、図4に示すように、緑(G)の画素と赤(R)の画素とが交互に繰り返される行と、青(B)の画素と緑(G)の画素とが交互に繰り返される行とが交互に配列されたフィルタである。但し、本実施形態の適用範囲は、ベイヤ配列のカラーフィルタを有する撮像装置で撮影された画像データに限られない。RAW画像データからカラー画像データを生成する際に、ノイズ低減処理及び画素補間が可能な画像データであれば、任意のカラーフィルタを有する撮像装置で撮影された画像データに対して適用可能である。入力する画像データは、ノイズ低減対象である基準画像データと、基準画像データと同じ被写体を連続撮影した1以上の参照画像データである。なお、以下では、連続撮影して得られた画像データの内、1枚目を基準画像データ、それ以外を参照画像データとする。また、入力部201が入力する複数のRAW画像データの各々の大きさは幅X画素、高さY画素であり、入力部201はN枚の参照画像データを入力するものとする。また、各画像データにおいて、左上の画素の座標(画素位置)を基準(すなわち(0,0))とし、各画素の座標を(x,y)とする。但し、x,yは0≦x<X,0≦y<Yを満たす整数である。
In step S301, the
ステップS302において、合成処理部205は、ステップS301で入力部201が入力した基準画像データと全ての参照画像データとを合成して、合成画像データを生成する合成処理(第1のノイズ低減処理)を行う。合成処理の詳細は後述する。
In step S302, the
ステップS303において、領域判定処理部206は、ステップS301で入力部201が入力した基準画像データと全ての参照画像データとを用いて、基準画像データに対して領域判定処理を行う。領域判定処理の詳細は後述する。
In step S303, the area
ステップS304において、ノイズ低減処理部207は、ステップS303の領域判定処理の結果に基づいて、ステップS302で生成された合成画像データに対して領域別ノイズ低減処理(第2のノイズ低減処理)を行う。領域別ノイズ低減処理の詳細は後述する。
In step S304, the noise
ステップS305において、現像処理部208は、ステップS304でノイズ低減処理された合成画像データに対して現像処理を行う。現像処理された画像データは、記憶部202に記憶される。ここで、現像処理は、出力画像が好適に見えるように補正する補正処理全般を含む。例えば、画素を補間するデモザイク処理、メリハリを増すためのエッジ強調や、明るさを補正するγ補正、鮮やかさを増すための色補正が含まれる。なお、補正処理の詳細は本実施形態の主眼ではないため説明は省略する。ステップS306において、出力部204は、ステップS305で現像処理された画像データを記憶部202から読み出して出力する。
In step S305, the
以下、ステップS302における合成処理、ステップS303における領域判定処理、及びステップS304における領域別ノイズ低減処理について説明する。 Hereinafter, the synthesis process in step S302, the area determination process in step S303, and the area-specific noise reduction process in step S304 will be described.
(合成処理)
図5は、ステップS302の合成処理を示すフローチャートである。なお、図5には、基準画像データの1つの着目画素に対して行われる合成処理が示されている。したがって、基準画像データの全画素ついて合成処理を行う場合には、図5に示す処理(より具体的には、ステップS502〜S514の処理)を全画素について繰り返し実行すればよい。
(Composite processing)
FIG. 5 is a flowchart showing the synthesis process of step S302. Note that FIG. 5 shows a compositing process performed on one pixel of interest in the reference image data. Therefore, when performing the compositing process for all the pixels of the reference image data, the process shown in FIG. 5 (more specifically, the process of steps S502 to S514) may be repeatedly executed for all the pixels.
ステップS501において、合成処理部205は、合成の候補となる画素を記録するための合成候補画素リストの初期化と、着目ブロックサイズS1、参照ブロックサイズS2、及び閾値th1、合成画素数Numなどの画像処理パラメータを入力する。本実施形態では、合成画素数Numとして、連続撮影により取得した複数の参照画像データの数Nが設定される。
In step S501, the
ステップS502において、合成処理部205は、着目画素を中心とする着目ブロックを決定する。ここでは、着目画素をRとする。図6(a)には、基準画像データ601が示されている。例えばサイズS1=5の場合、着目画素602を中心とする5×5の矩形領域が着目ブロック603として設定される。
In step S502, the
ステップS503において、合成処理部205は、複数の参照画像データから処理対象とする参照画像データを1つ選択する。
In step S503, the
ステップS504において、合成処理部205は、ステップS503で選択した処理対象の参照画像データから、探索領域を決定する。探索領域のサイズは、参照ブロックサイズS2と同じである。また、参照ブロックサイズS2は、着目ブロックサイズS1と同じである。図6(b)には、参照画像データ604が示されていて、例えばサイズS2=5である場合、着目画素602と同座標の画素605を中心とする5×5の矩形領域が探索領域606として設定される。
In step S504, the
ステップS505において、合成処理部205は、ステップS504で決定した探索領域の中から、着目画素と同色の画素(図6(b)において斜線で示される画素)を参照画素として1つ選択する。
In step S505, the
ステップS506において、合成処理部205は、ステップS505で選択した参照画素を中心とする参照ブロックを決定する。例えばサイズS2=5の場合であって、参照画素として画素607が選択されている場合には、図6(c)に示すように参照画素607を中心とする5×5の矩形領域が参照ブロック608として設定される。
In step S506, the
ステップS507において、合成処理部205は、ステップS502で決定した着目ブロックとステップS506で決定した参照ブロックとについて、画素毎の画素値の差分絶対値の和(SAD)を算出する。なお、SADは、Sum of Absoluted Differenceの略である。
In step S507, the
ステップS508において、合成処理部205は、ステップS507で算出したSADとステップS501で入力した閾値th1とを比較する。SAD<th1である場合は(ステップS508のYES)、合成処理部205は、ステップS505で選択した参照画素を合成候補画素リストに追加する(ステップS509)。SAD<th1でない場合は(ステップS508のNO)、処理はステップS510に進む。ステップS510において、合成処理部205は、参照ブロック内の全参照画素を選択し終えたか否か、すなわち参照ブロック内の全参照画素について処理が完了しているか否かを判定する(ステップS510)。
In step S508, the
参照ブロック内の全参照画素について処理が完了していない場合は(ステップS510のNO)、処理はステップS505に戻る。一方、参照ブロック内の全参照画素について処理が完了している場合は(ステップS510のYES)、合成処理部205は、全参照画像データを選択し終えたか、すなわち全参照画像データについて処理が完了しているかを判定する(ステップS511)。
If the processing is not completed for all the reference pixels in the reference block (NO in step S510), the processing returns to step S505. On the other hand, when the processing is completed for all the reference pixels in the reference block (YES in step S510), the
全参照画像データについて処理が完了しない場合は(ステップS511のNO)、処理はステップS503に戻る。一方、全参照画像データについて処理が完了している場合は(ステップS511のYES)、処理はステップS512に進む。 If the processing is not completed for all the reference image data (NO in step S511), the processing returns to step S503. On the other hand, if the processing is completed for all the reference image data (YES in step S511), the processing proceeds to step S512.
ステップS512において、合成処理部205は、合成候補画素リストをSADが小さい順にソートする。そして、ステップS513において、合成処理部205は、ステップS512でソートした画素の内、SADが小さい方からNum番目までの画素を選択する。さらに、ステップS514において、合成処理部205は、着目画素とステップS513で選択したNum個の画素の平均値を以下の式(1)にて算出する。
In step S512, the
ここで、I0は着目画素の画素値、Iiはi番目の画素の画素値(iはステップS513で選択された順番を示す)である。ステップS502〜S514の処理を基準画像データの全画素ついて行うことで、上記式(1)で導出された画素値が各画素に設定された合成画像データが生成される。
なお、上記のような単純な平均ではなく、例えば、選択した各画素のSADの逆数を重みとして、式(2)にて加重平均して平均値を算出してもよい。
Here, I 0 is the pixel value of the pixel of interest, and I i is the pixel value of the i-th pixel (i indicates the order selected in step S513). By performing the processing of steps S502 to S514 for all the pixels of the reference image data, the composite image data in which the pixel values derived by the above equation (1) are set for each pixel is generated.
Instead of the simple average as described above, for example, the reciprocal of the SAD of each selected pixel may be used as a weight, and the weighted average may be calculated by the equation (2) to calculate the average value.
ここで、wiはi番目画素の重みでwi=1/SADiである。 Here, w i is the weight of the i -th pixel, and w i = 1 / SAD i .
なお、本実施形態では、合成候補画素を決定するために、差分絶対値和(SAD)を用いたが、これに限らず着目画素との類似度が高い画素を見つけることが出来る方法であればどのような方法でもよい。例えば、着目ブロックと参照ブロックの平均値の差分絶対値や差分率が所定の閾値以下になる場合を合成候補画素として決定してもよい。または、SADと平均値の差分絶対値を組み合わせて用いてもよい。 In the present embodiment, the difference absolute value sum (SAD) is used to determine the composite candidate pixel, but the method is not limited to this and any method can find a pixel having a high degree of similarity to the pixel of interest. Any method will do. For example, a case where the absolute difference value or the difference rate of the average value of the block of interest and the reference block is equal to or less than a predetermined threshold value may be determined as the synthesis candidate pixel. Alternatively, the absolute difference between the SAD and the average value may be used in combination.
また、ステップS509で合成候補画素リストに追加された参照画素の個数がNum個に満たない場合には、ステップS513の処理をスキップするようにしてもよい。そして、ステップS514において、合成候補画素リストに追加されている全参照画素について式(1)を適用するようにしてもよい。また、合成候補画素リストに追加された参照画素の個数がNum個に満たない場合、特に参照画素の個数が0である場合には、th1の値を大きくしてから、再度ステップS302の処理(合成処理)を実行するようにしてもよい。 Further, if the number of reference pixels added to the composition candidate pixel list in step S509 is less than Nu, the process of step S513 may be skipped. Then, in step S514, the equation (1) may be applied to all the reference pixels added to the composition candidate pixel list. Further, when the number of reference pixels added to the composition candidate pixel list is less than Nu, especially when the number of reference pixels is 0, the value of th1 is increased, and then the process of step S302 is performed again (the process of step S302 is performed again. (Synthesis processing) may be executed.
(領域判定処理)
次に、図7を参照して、ステップS303における領域判定処理を説明する。図7は、ステップS303の領域判定処理を示すフローチャートである。
(Area judgment processing)
Next, the area determination process in step S303 will be described with reference to FIG. 7. FIG. 7 is a flowchart showing the area determination process in step S303.
ステップS701において、領域判定処理部206は、領域判定した結果を記憶する領域判定マップの初期化と、領域判定に用いる局所領域のサイズS3、閾値th2,th3などの画像処理パラメータ、及びノイズ特性情報を入力する。なお、領域判定マップは基準画像データと同サイズである。また、ここでは、ノイズ特性情報として、撮影時のISO感度に応じたノイズ分散σ2が入力される。
In step S701, the area
ステップS702において、領域判定処理部206は、基準画像データから、処理対象とする着目画素を選択する。そして、ステップS703において、領域判定処理部206は、ステップS702で選択した着目画素のエッジ強度Eを導出する。以下、エッジ強度Eの導出方法について説明する。
In step S702, the area
まず、領域判定処理部206は、着目画素と周辺画素とから成る局所領域を決定する。局所領域のサイズS3はステップS301で入力したパラメータに基づいて決定される。ここではS3=5とし、局所領域が5×5画素である場合を例に図8を参照して説明する。図8(a)において、黒色の画素801は着目画素を表し、網掛けされた画素802は周辺画素を表し、太線で囲われた領域803は局所領域を表している。局所領域の形状は、図8(a)に示す形状に限らず任意の形状でよく、例えば図8(b)に示すような形状であってもよい。
First, the area
次に、領域判定処理部206は、局所領域における分散値VをRGB毎に式(3)を用いて算出する。
Next, the area
ここで、Mは局所領域に含まれる画素数を示していて、r,g,bはそれぞれRGB値を示している。 Here, M indicates the number of pixels included in the local region, and r, g, and b indicate RGB values, respectively.
領域判定処理部206は、算出したエッジ強度ER、EG、EBの内の最大値を、エッジ強度Eとして取得する。
ステップS704において、領域判定処理部206は、ステップS703で導出したエッジ強度Eと、ステップS701で入力した閾値(第1の判定値)th2とを比較する。エッジ強度Eが第1の判定値より小さい場合は(ステップS704のNO)、処理はステップS711に進む。エッジ強度Eが第1の判定値以上である場合は(ステップS704のYES)、領域判定処理部206は、複数の参照画像データから処理対象とする参照画像データを1つ選択する。そして、領域判定処理部206は、選択した参照画像データから、ステップS702で選択した着目画素と同座標にある画素を参照画素として選択する。そして、領域判定処理部206は、基準画像データにおける、着目画素を中心とする局所領域と、処理対象の参照画像データにおける、参照画素を中心とする局所領域との両領域について、SADを算出する。SAD算出時の局所領域のサイズは、エッジ強度算出時と同サイズ、すなわち5×5画素であるとする。
In step S704, the area
ステップS707において、領域判定処理部206は、ステップS706で2つの局所領域について算出したSADと、ステップS701で入力した閾値(第2の判定値)th3とを比較する。SADが第2の判定値以上である場合は(ステップS707のNO)、領域判定処理部206は、2つの局所領域が類似していないと判断する。そして、処理はステップS710に進む。SADが第2の判定値より小さい場合は(ステップS707のYES)、領域判定処理部206は、2つの局所領域が類似していると判断し、全参照画像データの参照画素について処理が完了したか否かを判定する(ステップS708)。全参照画像データの参照画素について処理が完了していない場合は(ステップS708のNO)、処理はステップS705に戻る。全参照画像データの参照画素について処理が完了している場合は(ステップS708のYES)、処理はステップS709に進む。
In step S707, the area
ステップS709において、領域判定処理部206は、ステップS702で選択した着目画素が非動体エッジに対応するエッジ領域(以下、非動体エッジ領域と呼ぶ)に属する画素であると判定し、領域判定マップの着目画素と同座標の画素に「1」を出力する。ステップS710において、領域判定処理部206は、ステップS702で選択した着目画素が動体エッジに対応するエッジ領域(以下、動体エッジ領域と呼ぶ)に属する画素であると判定し、領域判定マップの着目画素と同座標の画素に「2」を出力する。ステップS711において、領域判定処理部206は、ステップS702で選択した着目画素がエッジ領域以外の領域(平坦領域または非エッジ領域と呼ぶ)に属する画素であると判定し、領域判定マップの着目画素と同座標の画素に「0」を出力する。
In step S709, the area
ステップS712において、領域判定処理部206は、基準画像データの全画素についてステップS703〜S711の処理を完了したか否かを判定する。基準画像データの全画素について処理が完了していない場合は(ステップS712のNO)、処理はステップS702に戻る。基準画像データの全画素について処理が完了している場合は(ステップS712のYES)、領域判定処理部206は、領域判定処理を終了する。
In step S712, the area
なお、本実施形態では、エッジ強度Eの算出に分散の比率を用いたが、これに限らずソーベルフィルタやラプラシアンフィルタなどを用いるようにしてもよい。すなわち、エッジ強度Eの算出方法は、エッジ強度に相当する値が算出できればいずれの算出方法であっても構わない。 In the present embodiment, the dispersion ratio is used for calculating the edge strength E, but the present invention is not limited to this, and a Sobel filter, a Laplacian filter, or the like may be used. That is, the calculation method of the edge strength E may be any calculation method as long as the value corresponding to the edge strength can be calculated.
(領域別ノイズ低減処理)
次に、図9を参照して、ステップS304における領域別ノイズ低減処理を説明する。図9は、ステップS304の領域別ノイズ低減処理を示すフローチャートを参照して説明する。
(Noise reduction processing by area)
Next, with reference to FIG. 9, the area-specific noise reduction processing in step S304 will be described. FIG. 9 will be described with reference to a flowchart showing the noise reduction processing for each region in step S304.
ステップS901において、ノイズ低減処理部207は、ステップS303で生成した領域判定マップ、ノイズ低減処理に用いるフィルタのサイズS4,S5などの画像処理パラメータ、及びエッジ方向判定フィルタを入力する。
In step S901, the noise
ステップS902において、ノイズ低減処理部207は、ステップS301で入力した基準画像データから、処理対象とする着目画素を選択する。ステップS903において、ノイズ低減処理部207は、ステップS901で入力した領域判定マップに基づいて、着目画素が非動体エッジ(=「1」)であるか、すなわち着目画素が非動体エッジ領域に属する画素であるかを判定する。非動体エッジである場合は(ステップS903のYES)、処理はステップS905に進む。非動体エッジでない場合は(ステップS903のNO)、ノイズ低減処理部207は、ステップS901で入力した領域判定マップに基づいて、着目画素が動体エッジ(=「2」)であるか、すなわち着目画素が動体エッジ領域に属する画素であるかを判定する。動体エッジである場合は(ステップS904のYES)、処理はステップS906に進み、動体エッジでない場合は(ステップS904のNO)、処理はステップS907に進む。
In step S902, the noise
ステップS905において、ノイズ低減処理部207は、着目画素に対してエッジの方向を判定して、該エッジの方向に沿った非等方フィルタを着目画素に適用する。具体的には、まず、ノイズ低減処理部207は、予め用意された複数のエッジ方向判定フィルタ(例えば、図10(a)〜(d)に示されるようなフィルタ)を1つずつ着目画素に適用する。図10において黒く塗りつぶされた画素は着目画素を示していて、丸が描かれた画素と三角が描かれた画素はそれぞれ、エッジの方向を判定するための画素を示している。次に、ノイズ低減処理部207は、エッジ方向判定フィルタの丸が描かれた画素と空間的に対応する、基準画像データにおける画素の画素値の和を算出する。同様に、ノイズ低減処理部207は、エッジ方向判定フィルタの三角が描かれた画素と空間的に対応する、基準画像データにおける画素の画素値の和を算出する。そして、ノイズ低減処理部207は、算出した画素値の和のそれぞれの差分を算出することで、直線上の輝度差を求める。そして、ノイズ低減処理部207は、輝度差が最も大きいエッジ方向判定フィルタの丸が描かれた画素方向(または、三角が描かれた画素方向)をエッジの方向とする。最後に、ノイズ低減処理部207は、エッジの方向に伸びた、サイズS3である非等方フィルタを着目画素に適用する。図11(a)には、エッジ方向判定フィルタ1101によって示される方向(図において太線矢印で示される右斜め上方向)が、着目画素1102(ここでは、R)におけるエッジの方向として判定されたときの様子が示されている。図11(b)には、このとき適用される非等方フィルタが示されている。ここで、画像データ1103は、ステップS302で基準画像データと全ての参照画像データとを合成して得られた合成画像データである。図11(b)に示すように、着目画素1102に対応する、合成画像データ1103上の着目画素1104には、図11(a)の太線矢印と同じ方向(右斜め上方向)に伸びた非等方フィルタ1105が適用される。なお、非等方フィルタは、R,G,Bのそれぞれについて用意される。図11(b)に示す非等方フィルタ1105はR用の非等方フィルタであり、非等方フィルタ1105を着目画素1102に適用することで、図中の破線枠内のR画素の画素値が平滑化される。また、非等方フィルタに設定される係数については、エッジの方向について画素値を平滑化する値であればどのような値が設定されても構わない。
In step S905, the noise
ステップS906において、ノイズ低減処理部207は、ステップS905と同様に着目画素に対してエッジの方向を判定して、該エッジの方向に沿った非等方フィルタを適用する。ステップS906で適用される非等方フィルタ(以下、第2の非等方フィルタと呼ぶ)は、ステップS905で適用される非等方フィルタ(以下、第1の非等方フィルタと呼ぶ)とサイズのみ異なる。より具体的には、第2の非等方フィルタは、第1の非等方フィルタとエッジ方向のサイズのみ異なる。なお、第2の非等方フィルタのサイズS5>第1の非等方フィルタのサイズS4である。これは、動体エッジは、非動体エッジに比べて画像データ間で類似画素が見つかり難いため、エッジのがたつきが残りやすい。そのため、動体エッジ領域に適用される非等方フィルタのサイズS5を大きく設定する。その際、動体エッジ領域に適用されるエッジ方向判定フィルタのサイズも、動体エッジ領域に適用される非等方フィルタのサイズ拡大後の大きさに合わせて大きく設定される。図11(c)には、着目画素1106に対応する領域判定マップの画素値が「2(動体エッジ)」であって、該着目画素におけるエッジ方向が水平方向(図において左右方向)であると判定された場合における第2の非等方フィルタの一例が示されている。なお、図11(c)には、図11(b)と同様に、着目画素がRである場合に適用される非等方フィルタが示されている。図11(c)に示されるように、動体エッジ領域に適用される第2の非等方フィルタは、図11(b)に示す非動体エッジ領域に適用される第1の非等方フィルタよりもエッジ方向のサイズが大きく設定されている。なお、第2の非等方フィルタの一部分が第1の非等方フィルタとして用いられてもよいし、第2の非等方フィルタと第1の非等方フィルタとで全く異なるフィルタ係数が設定されてもよい。
In step S906, the noise
ステップS907において、ノイズ低減処理部207は、着目画素に対して等方フィルタを適用する。この処理は、エッジ領域に非等方フィルタをかけることによりエッジ領域と平坦領域との境界で発生し得るSN段差を抑制するために行う。但し、ステップS302の合成処理において平坦領域のノイズはすでに低減されているため、等方フィルタによるノイズ低減効果はエッジ領域より弱くなるように設定される。なお、本実施形態では、等方フィルタとしてガウスフィルタを用いる。
In step S907, the noise
ステップS908において、ノイズ低減処理部207は、全画素についてステップS903〜S907の処理を完了したか否かを判定する。全画素について処理が完了している場合は(ステップS908のYES)、ノイズ低減処理部207は、領域別ノイズ低減処理を終了する。全画素について処理が完了していない場合は(ステップS908のNO)、処理はステップS902に戻る。
In step S908, the noise
以上のように、本実施形態では、第2のノイズ低減処理(領域別ノイズ低減処理)において、第1のノイズ低減処理(合成処理)で得られた合成画像に対してフィルタ処理を行う際に、エッジ領域と平坦領域とのそれぞれに対して異なるフィルタを適用する。特に、本実施形態では、合成画像内のエッジ領域に対して非等方フィルタを適用するようにしている。したがって、本実施形態によれば、複数の画像を用いて行われるノイズ低減処理において、出力画像に発生するエッジのがたつきを抑制することが可能となる。また、本実施形態では、着目画像のエッジ領域について、該エッジ領域に対応する参照画像内の領域とのSADを導出し、導出したSADに基づいてエッジ領域を動体エッジ領域と非動体エッジ領域とにさらに分類している。そして、動体エッジ領域と非動体エッジ領域とで異なるサイズの非等方フィルタを適用するようにしている。それにより、エッジのがたつきをさらに抑制することが可能となる。図12は、本実施形態の効果を説明するための図である。図12には、入力画像(図12(a))に対して、エッジのがたつきを考慮しない従来のノイズ低減処理を適用した画像(図12(b))と、本実施形態によるノイズ低減処理を適用した画像(図12(c))とが示されている。図中の破線の楕円で囲われた部分に注目すると、従来のノイズ低減処理を適用した画像ではエッジにがたつきが残っているのが分かる。一方、本実施形態によるノイズ低減処理を適用した画像ではエッジにがたつきが見られず、エッジのがたづきが抑制されているのが分かる。 As described above, in the second noise reduction processing (region-specific noise reduction processing), in the present embodiment, when the composite image obtained by the first noise reduction processing (composite processing) is filtered. , Apply different filters to each of the edge and flat areas. In particular, in the present embodiment, the anisotropic filter is applied to the edge region in the composite image. Therefore, according to the present embodiment, it is possible to suppress the rattling of edges that occur in the output image in the noise reduction processing performed using a plurality of images. Further, in the present embodiment, for the edge region of the image of interest, the SAD with the region in the reference image corresponding to the edge region is derived, and the edge region is divided into a moving body edge region and a non-moving body edge region based on the derived SAD. It is further classified into. Then, anisotropic filters of different sizes are applied to the moving body edge region and the non-moving body edge region. As a result, it becomes possible to further suppress the rattling of the edge. FIG. 12 is a diagram for explaining the effect of the present embodiment. FIG. 12 shows an image (FIG. 12 (b)) in which a conventional noise reduction process that does not consider edge rattling is applied to an input image (FIG. 12 (a)), and noise reduction by the present embodiment. An image to which the processing is applied (FIG. 12 (c)) is shown. Focusing on the part surrounded by the broken line ellipse in the figure, it can be seen that the edge remains rattling in the image to which the conventional noise reduction processing is applied. On the other hand, in the image to which the noise reduction processing according to the present embodiment is applied, no rattling is observed at the edges, and it can be seen that the rattling of the edges is suppressed.
なお、本実施形態では、連続撮影により得られた画像の数と、合成画素数Numとが同じである場合について説明したが、任意の合成画素数を設定し、該合成画素数を満足するように合成処理が行われれば、合成画素数は上述したものに限定されない。 In the present embodiment, the case where the number of images obtained by continuous shooting and the number of composite pixels Nu are the same has been described, but an arbitrary number of composite pixels is set so as to satisfy the composite pixel number. If the compositing process is performed, the number of compositing pixels is not limited to those described above.
また、本実施形態では、連続撮影により得られた画像の内、最初に得られた画像を基準画像としたが、最初に得られた画像以外の画像を基準画像としてもよい。例えば主被写体を最も捉えた画像を基準画像としても構わない。 Further, in the present embodiment, among the images obtained by continuous shooting, the first obtained image is used as the reference image, but an image other than the first obtained image may be used as the reference image. For example, the image that most captures the main subject may be used as the reference image.
また、本実施形態では、合成候補画素リストに含まれる画素の内、着目画素と参照画素とのSADが小さい順にNum個の画素を合成したが、これに限定されるものではない。例えば、合成候補画素リストからランダムにNum個の画素を選択して合成しても構わない。 Further, in the present embodiment, among the pixels included in the composition candidate pixel list, Num pixels are synthesized in ascending order of SAD between the pixel of interest and the reference pixel, but the present invention is not limited to this. For example, Num pixels may be randomly selected from the composition candidate pixel list and combined.
また、本実施形態では、参照画像から着目画素と同座標の画素を参照画像として選択したが、これに限定されない。例えば、手持ち撮影により得られた画像では大きく位置ずれが発生する場合がある。したがって、手持ち撮影により得られた画像を入力部201が入力する場合には、ステップS301で各参照画像を基準画像に位置合わせしてからステップS302〜S306の処理を行うようにしてもよい。
Further, in the present embodiment, a pixel having the same coordinates as the pixel of interest is selected as the reference image from the reference image, but the present invention is not limited to this. For example, a large displacement may occur in an image obtained by handheld shooting. Therefore, when the
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
Claims (9)
前記基準画像の各画素がエッジ領域に属するか非エッジ領域に属するかを判定する領域判定手段と、
前記基準画像の前記エッジ領域に対応する前記合成画像内の画素に対して非等方フィルタを適用し、前記基準画像の前記非エッジ領域に対応する前記合成画像内の画素に対して等方フィルタを適用することで、前記合成画像に含まれるノイズを低減する第2のノイズ低減処理を行う第2のノイズ低減手段と、を備える
ことを特徴とする画像処理装置。 Of a plurality of images obtained by photographing the same subject, one image is used as a reference image, an image other than the one image is used as a reference image, and a composite image obtained by synthesizing the reference image with the reference image is generated. The first noise reduction means for executing the first noise reduction processing for reducing the noise included in the reference image, and the first noise reduction means.
A region determination means for determining whether each pixel of the reference image belongs to an edge region or a non-edge region, and
An isotropic filter is applied to the pixels in the composite image corresponding to the edge region of the reference image, and the isotropic filter is applied to the pixels in the composite image corresponding to the non-edge region of the reference image. An image processing apparatus comprising the second noise reducing means for performing a second noise reducing process for reducing the noise included in the composite image by applying
前記基準画像について、着目画素と該着目画素の周辺画素とから成る局所領域ごとにエッジ強度を導出し、
導出した前記エッジ強度が第1の判定値以上である、前記基準画像の前記局所領域における着目画素を、前記エッジ領域に属する画素であると判定し、前記エッジ強度が前記第1の判定値より小さい、前記基準画像の前記局所領域における着目画素を、前記非エッジ領域に属する画素であると判定する
ことを特徴とする請求項1に記載の画像処理装置。 The area determination means
For the reference image, the edge strength is derived for each local region composed of the pixel of interest and the peripheral pixels of the pixel of interest.
It is determined that the pixel of interest in the local region of the reference image whose derived edge strength is equal to or higher than the first determination value is a pixel belonging to the edge region, and the edge strength is based on the first determination value. The image processing apparatus according to claim 1, wherein a small pixel of interest in the local region of the reference image is determined to be a pixel belonging to the non-edge region.
前記エッジ強度が前記第1の判定値以上である、前記基準画像の各局所領域のそれぞれが、該各局所領域のそれぞれに対応する前記参照画像内の領域と類似しているか否かを判定し、
類似していると判定された前記局所領域における着目画素を、非動体エッジ領域に属する画素であると判定し、類似していないと判定された前記局所領域における着目画素を、動体エッジ領域に属する画素であると判定する
ことを特徴とする請求項2に記載の画像処理装置。 The area determination means
It is determined whether or not each of the local regions of the reference image having the edge intensity equal to or higher than the first determination value is similar to the region in the reference image corresponding to each of the local regions. ,
The pixel of interest in the local region determined to be similar is determined to be a pixel belonging to the non-moving body edge region, and the pixel of interest in the local region determined to be dissimilar belongs to the moving body edge region. The image processing apparatus according to claim 2, wherein the image processing apparatus is determined to be a pixel.
前記エッジ強度が前記第1の判定値以上である、前記基準画像の前記局所領域と、該局所領域に対応する前記参照画像内の領域との両領域の差分絶対値和を導出し、
導出した前記差分絶対値和が第2の判定値より小さい場合に、両領域が類似していると判定し、前記差分絶対値和が前記第2の判定値以上である場合に、両領域が類似していないと判定する
ことを特徴とする請求項3に記載の画像処理装置。 The area determination means
The sum of the absolute values of the differences between the local region of the reference image and the region in the reference image corresponding to the local region, whose edge strength is equal to or higher than the first determination value, is derived.
When the derived absolute difference sum is smaller than the second determination value, it is determined that both regions are similar, and when the difference absolute sum is equal to or greater than the second determination value, both regions are determined to be similar. The image processing apparatus according to claim 3, wherein it is determined that they are not similar.
ことを特徴とする請求項3または請求項4に記載の画像処理装置。 The anisotropic filter applied to the pixels in the composite image corresponding to the moving body edge region of the reference image is applied to the pixels in the composite image corresponding to the non-moving body edge region of the reference image. The image processing apparatus according to claim 3 or 4, characterized in that the size in the edge direction is larger than that of the applied anisotropic filter.
前記基準画像の前記エッジ領域に属する各画素についてエッジ方向を判定し、
前記エッジ領域に属する各画素に対して、該各画素について判定した前記エッジ方向の非等方フィルタを適用する
ことを特徴とする請求項1から請求項5のいずれか1項に記載の画像処理装置。 The area determination means
The edge direction is determined for each pixel belonging to the edge region of the reference image, and the edge direction is determined.
The image processing according to any one of claims 1 to 5, wherein an anisotropic filter in the edge direction determined for each pixel is applied to each pixel belonging to the edge region. Device.
各参照画像内の、前記基準画像の一の画素に対応する画素と該画素の周辺画素とから成るブロックから、該一の画素に適用する合成候補画素を選択し、
前記基準画像の各画素について選択された前記合成候補画素を用いて、前記合成画像の各画素の画素値を決定し、
前記合成候補画素は、前記一の画素との類似度が高い順に、前記各参照画像内の前記ブロックから選択される所定の数の画素である
ことを特徴とする請求項1から請求項6のうちのいずれか1項に記載の画像処理装置。 The first noise reducing means is
A synthesis candidate pixel to be applied to the one pixel is selected from a block composed of a pixel corresponding to one pixel of the reference image and peripheral pixels of the pixel in each reference image.
Using the composite candidate pixels selected for each pixel of the reference image, the pixel value of each pixel of the composite image is determined.
Claims 1 to 6, wherein the composite candidate pixels are a predetermined number of pixels selected from the blocks in each reference image in descending order of similarity to the one pixel. The image processing apparatus according to any one of the items.
前記基準画像の各画素がエッジ領域に属するか非エッジ領域に属するかを判定する領域判定ステップと、
前記基準画像の前記エッジ領域に対応する前記合成画像内の画素に対して非等方フィルタを適用し、前記基準画像の前記非エッジ領域に対応する前記合成画像内の画素に対して等方フィルタを適用することで、前記合成画像に含まれるノイズを低減する第2のノイズ低減処理を行う第2のノイズ低減ステップと、を含む
ことを特徴とする画像処理方法。 Of a plurality of images obtained by photographing the same subject, one image is used as a reference image, an image other than the one image is used as a reference image, and a composite image obtained by synthesizing the reference image with the reference image is generated. The first noise reduction step of executing the first noise reduction processing for reducing the noise included in the reference image, and
A region determination step for determining whether each pixel of the reference image belongs to an edge region or a non-edge region, and
An isotropic filter is applied to the pixels in the composite image corresponding to the edge region of the reference image, and the isotropic filter is applied to the pixels in the composite image corresponding to the non-edge region of the reference image. An image processing method comprising a second noise reduction step of performing a second noise reduction process for reducing the noise included in the composite image by applying the above.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017166007A JP6938282B2 (en) | 2017-08-30 | 2017-08-30 | Image processing equipment, image processing methods and programs |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017166007A JP6938282B2 (en) | 2017-08-30 | 2017-08-30 | Image processing equipment, image processing methods and programs |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2019045981A JP2019045981A (en) | 2019-03-22 |
| JP2019045981A5 JP2019045981A5 (en) | 2020-08-27 |
| JP6938282B2 true JP6938282B2 (en) | 2021-09-22 |
Family
ID=65816440
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017166007A Active JP6938282B2 (en) | 2017-08-30 | 2017-08-30 | Image processing equipment, image processing methods and programs |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6938282B2 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111062878B (en) * | 2019-10-31 | 2023-04-18 | 深圳先进技术研究院 | Image denoising method and device and computer readable storage medium |
| CN113347490B (en) * | 2020-02-18 | 2022-08-16 | RealMe重庆移动通信有限公司 | Video processing method, terminal and storage medium |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008293425A (en) * | 2007-05-28 | 2008-12-04 | Olympus Corp | Noise removal device, program, and method |
| JP6253331B2 (en) * | 2012-10-25 | 2017-12-27 | キヤノン株式会社 | Image processing apparatus and image processing method |
| JP6594075B2 (en) * | 2015-07-22 | 2019-10-23 | キヤノン株式会社 | Image processing apparatus, imaging system, and image processing method |
-
2017
- 2017-08-30 JP JP2017166007A patent/JP6938282B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP2019045981A (en) | 2019-03-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5362878B2 (en) | Image processing apparatus and image processing method | |
| US7983511B1 (en) | Methods and apparatus for noise reduction in digital images | |
| JP6635799B2 (en) | Image processing apparatus, image processing method, and program | |
| JP2020129276A (en) | Image processing apparatus, image processing method, and program | |
| JP6818463B2 (en) | Image processing equipment, image processing methods and programs | |
| WO2016206087A1 (en) | Low-illumination image processing method and device | |
| US11145032B2 (en) | Image processing apparatus, method and storage medium for reducing color noise and false color | |
| JP2004214756A (en) | Image noise reduction | |
| JP7032913B2 (en) | Image processing device, image processing method, computer program | |
| JP6501452B2 (en) | IMAGE PROCESSING APPARATUS AND SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM | |
| CN111183630B (en) | A kind of photo processing method and processing device of intelligent terminal | |
| JP5653104B2 (en) | Image processing apparatus, image processing method, and program | |
| CN107767356B (en) | Image processing method and device | |
| JP7328096B2 (en) | Image processing device, image processing method, and program | |
| CN105227826A (en) | Image processing apparatus, image processing method and image processing program | |
| US7751641B2 (en) | Method and system for digital image enhancement | |
| JP5765893B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
| EP3438923B1 (en) | Image processing apparatus and image processing method | |
| JP6957665B2 (en) | Image processing equipment, image processing methods and programs | |
| JP4241774B2 (en) | Image processing apparatus, image processing method, and program | |
| JP6938282B2 (en) | Image processing equipment, image processing methods and programs | |
| WO2016113805A1 (en) | Image processing method, image processing apparatus, image pickup apparatus, program, and storage medium | |
| JP2016201037A (en) | Image processing apparatus, image processing method, and program | |
| US20250097367A1 (en) | Color noise reduction based on guided filter using luminance information | |
| CN104504667B (en) | image processing method and device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200716 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200716 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210803 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210901 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6938282 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |