+

JP2010226314A - Movie processing apparatus, movie processing method, and movie processing program - Google Patents

Movie processing apparatus, movie processing method, and movie processing program Download PDF

Info

Publication number
JP2010226314A
JP2010226314A JP2009070139A JP2009070139A JP2010226314A JP 2010226314 A JP2010226314 A JP 2010226314A JP 2009070139 A JP2009070139 A JP 2009070139A JP 2009070139 A JP2009070139 A JP 2009070139A JP 2010226314 A JP2010226314 A JP 2010226314A
Authority
JP
Japan
Prior art keywords
moving image
motion
image data
frames
filter coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009070139A
Other languages
Japanese (ja)
Inventor
Atsushi Muraki
淳 村木
Hiroshi Shimizu
博 清水
Hiroyuki Hoshino
博之 星野
Hiroyasu Katagawa
浩靖 形川
Erina Ichikawa
英里奈 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009070139A priority Critical patent/JP2010226314A/en
Publication of JP2010226314A publication Critical patent/JP2010226314A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)

Abstract

【課題】本発明は、フレーム周期と比較して露光時間が極端に短い場合に生じうる、再生時に不連続な印象を与える動きの原因となるブレ経路を緩和する。
【解決手段】本発明の動画処理装置は、動画データからフレーム間の動きを検出する動き検出部と、前記動き検出部の検出結果に基づいてフィルタ係数を生成するフィルタ係数生成部と、前記フィルタ係数により、前記動画データをフィルタリングすることにより、前記フレーム間の動きの経路で、前記動画データの画素値を平均値化するフィルタとを有する。
【選択図】図2
The present invention alleviates a blurring path that causes a motion that gives a discontinuous impression during reproduction, which may occur when an exposure time is extremely short compared to a frame period.
A moving image processing apparatus according to the present invention includes a motion detecting unit that detects a motion between frames from moving image data, a filter coefficient generating unit that generates a filter coefficient based on a detection result of the motion detecting unit, and the filter A filter that averages pixel values of the moving image data in a path of movement between the frames by filtering the moving image data by a coefficient.
[Selection] Figure 2

Description

本発明は、動画像の処理に関し、例えば、不連続な印象を与える動きを緩和する動画処理装置、動画処理方法及び動画処理プログラムに関する。   The present invention relates to moving image processing, and relates to, for example, a moving image processing apparatus, a moving image processing method, and a moving image processing program that alleviate a motion that gives a discontinuous impression.

従来、デジタルカメラは、動画像を撮影する場合、動きの滑らかな再生画質を確保するため、露光時間(電荷蓄積時間)をほぼフレーム周期いっぱいに設定してきた。   Conventionally, when capturing a moving image, a digital camera has set the exposure time (charge accumulation time) to almost the full frame period in order to ensure smooth reproduction image quality.

また、動画像の処理において、動きベクトルを用いて連続するフレーム間の画像データを生成し、動画像のフレームレートを変換する方法が提案されている(例えば、特許文献1参照)。   In addition, in moving image processing, a method has been proposed in which image data between successive frames is generated using a motion vector and the frame rate of the moving image is converted (see, for example, Patent Document 1).

特開2007−166198号公報JP 2007-166198 A

ところで、露光時間をほぼフレーム周期いっぱいに設定するためには、光量を制限するため、特殊な絞り装置を用いてガルバノ式と呼ばれる絞り調節により露光制御を行う必要がある。このため、絞りの調節による露光制御に代えて、露光時間を調節して光量を制御する、すなわち、露光時間の調節により露光制御を行えば、絞りに関連する構成部品を削減でき、デジタルカメラの全体構成も簡略化できる。また、動画像を撮影するための露光時間を静止画像を撮影する程度に短くすることができれば、動画像の1コマ1コマをぶれの少ない静止画像として記録することも可能になる。しかしながら、露光時間の調節による露光制御を行う場合、フレーム周期と比較して露光時間が極端に短くなる場合も想定され、動画像の動きが不連続で不自然な印象を与える可能性がある。   By the way, in order to set the exposure time to almost the full frame period, it is necessary to perform exposure control by aperture adjustment called a galvano system using a special aperture device in order to limit the amount of light. For this reason, instead of exposure control by adjusting the aperture, the exposure time is adjusted to control the amount of light, that is, if exposure control is performed by adjusting the exposure time, the components related to the aperture can be reduced, and the digital camera The overall configuration can also be simplified. Further, if the exposure time for capturing a moving image can be shortened to such an extent that a still image is captured, it is possible to record each frame of a moving image as a still image with little blur. However, when performing exposure control by adjusting the exposure time, it may be assumed that the exposure time becomes extremely short compared to the frame period, and the motion of the moving image may be discontinuous and give an unnatural impression.

また、動きベクトルを用いて連続するフレーム間の画像データを生成し、動画像のフレームレートを変換する方法においては、フレーム間を補間する画像データを生成する必要があることから必然的にデータ量は多くなり、さらに、画像データを用いて補間する処理が複雑になるという課題があった。   In addition, in the method of generating image data between successive frames using a motion vector and converting the frame rate of a moving image, it is necessary to generate image data that interpolates between frames, so that the amount of data is inevitably generated. In addition, there is a problem that the process of interpolating using image data becomes complicated.

本発明は以上の点を考慮してなされたもので、フレーム周期と比較して露光時間が極端に短い場合に生じうる、不連続な印象を与える動きを緩和することができる動画処理装置、動画処理方法及び動画処理プログラムを提供することを目的とする。   The present invention has been made in consideration of the above points, and a moving image processing apparatus and moving image that can alleviate the motion of giving a discontinuous impression that may occur when the exposure time is extremely short compared to the frame period. It is an object to provide a processing method and a moving image processing program.

上記の課題を解決するため請求項1の発明は、動画処理装置に適用して、動画データからフレーム間の動きを検出する動き検出部と、前記動き検出部の検出結果に基づいてフィルタ係数を生成するフィルタ係数生成部と、前記フィルタ係数により、前記動画データをフィルタリングすることにより、前記フレーム間の動きの経路で、前記動画データの画素値を平均値化するフィルタとを有する。   In order to solve the above problems, the invention of claim 1 is applied to a moving image processing apparatus, and a motion detection unit that detects a motion between frames from moving image data, and a filter coefficient based on a detection result of the motion detection unit. A filter coefficient generation unit that generates the image data, and a filter that averages pixel values of the moving image data along a path of movement between the frames by filtering the moving image data using the filter coefficient.

また請求項2の発明は、請求項1の構成において、前記フィルタから出力される動画データを記録すると共に、前記動画データの1コマを静止画像により記録する記録部を有する。   According to a second aspect of the present invention, in the configuration of the first aspect, the moving image data output from the filter is recorded, and a recording unit that records one frame of the moving image data as a still image.

また請求項3の発明は、請求項1、又は請求項2の構成において、前記動き検出部は、前記動画データのグローバル動きベクトルを検出して前記フレーム間の動きを検出する。   According to a third aspect of the present invention, in the configuration according to the first or second aspect, the motion detecting unit detects a motion between the frames by detecting a global motion vector of the moving image data.

また請求項4の発明は、請求項1の構成において、前記動き検出部は、少なくとも前フレームにおける前々フレームからの動きと、現フレームにおける前フレームからの動きと、次フレームにおける現フレームからの動きとを曲線近似して、前記フレーム間の動きを検出する。   According to a fourth aspect of the present invention, in the configuration of the first aspect, the motion detection unit includes at least a motion from the previous frame in the previous frame, a motion from the previous frame in the current frame, and a current frame from the current frame. The motion is approximated by a curve to detect the motion between the frames.

また請求項5の発明は、請求項1の構成において、前記動き検出部は、前記フレーム間の動きをジャイロセンサにより検出する。   According to a fifth aspect of the present invention, in the configuration of the first aspect, the motion detecting unit detects a motion between the frames by a gyro sensor.

また請求項6の発明は、請求項5の構成において、前記動き検出部は、前記動画データのフレーム周期より短い時間間隔で繰り返し前記動画データの動きを検出し、検出結果を曲線近似して前記フレーム間の動きを検出する。   According to a sixth aspect of the present invention, in the configuration of the fifth aspect, the motion detection unit repeatedly detects a motion of the moving image data at a time interval shorter than a frame period of the moving image data, and approximates the detection result to a curve. Detect motion between frames.

また請求項7の発明は、請求項1から請求項6までのいずれかの構成において、前記動画データの前フレームとの差分情報を検出する差分算出部と、前記差分情報に応じて前記フィルタ係数を補正する係数補正部とを有する。   According to a seventh aspect of the present invention, in any one of the first to sixth aspects, the difference calculation unit that detects difference information from the previous frame of the moving image data, and the filter coefficient according to the difference information And a coefficient correction unit for correcting.

また請求項8の発明は、請求項1から請求項7までのいずれかの構成において、動画データから高周波成分を除去する高周波成分除去部を有し、前記動き検出部は、前記高周波成分除去部によって高周波成分を除去された動画データからフレーム間の動きを検出する。   The invention according to claim 8 is the structure according to any one of claims 1 to 7, further comprising a high frequency component removing unit that removes a high frequency component from the moving image data, wherein the motion detecting unit is the high frequency component removing unit. The motion between frames is detected from the moving image data from which the high-frequency components have been removed.

また請求項9の発明は、動画処理方法に適用して、動画データからフレーム間の動きを検出する動き検出ステップと、前記動き検出ステップの検出結果に基づいてフィルタ係数を生成するフィルタ係数生成ステップと、前記フィルタ係数により、前記動画データをフィルタリングすることにより、前記フレーム間の動きの経路で、前記動画データの画素値を平均値化するフィルタリングステップとを有する。   The invention according to claim 9 is applied to a moving image processing method to detect a motion between frames from moving image data, and a filter coefficient generation step to generate a filter coefficient based on the detection result of the motion detection step. And a filtering step of averaging the pixel values of the moving image data in the path of movement between the frames by filtering the moving image data with the filter coefficient.

また請求項10の発明は、動画処理方法のプログラムに適用して、動画データからフレーム間の動きを検出する動き検出ステップと、前記動き検出ステップの検出結果に基づいてフィルタ係数を生成するフィルタ係数生成ステップと、前記フィルタ係数により、前記動画データをフィルタリングすることにより、前記フレーム間の動きの経路で、前記動画データの画素値を平均値化するフィルタリングステップとを有する。   The invention of claim 10 is applied to a program for a moving image processing method to detect a motion between frames from moving image data, and a filter coefficient for generating a filter coefficient based on a detection result of the motion detection step. A generating step; and a filtering step of averaging pixel values of the moving image data along a movement path between the frames by filtering the moving image data using the filter coefficient.

本発明によれば、フレーム周期と比較して露光時間が極端に短い場合に生じうる、再生時に不連続な印象を与える動きの原因となるブレ経路を緩和することができる。   According to the present invention, it is possible to alleviate a blurring path that causes a motion that gives a discontinuous impression during reproduction, which may occur when the exposure time is extremely short compared to the frame period.

本発明の第1の実施の形態に係るデジタルカメラを示すブロック図である。1 is a block diagram illustrating a digital camera according to a first embodiment of the present invention. 図1のデジタルカメラにおけるCPUの機能ブロック図である。It is a functional block diagram of CPU in the digital camera of FIG. 図1のデジタルカメラにおける画像処理を説明する図である。It is a figure explaining the image processing in the digital camera of FIG. 本発明の第2の実施の形態に係るデジタルカメラにおけるCPUの機能ブロック図である。It is a functional block diagram of CPU in the digital camera which concerns on the 2nd Embodiment of this invention. 図4のデジタルカメラにおける画像処理を説明する図である。It is a figure explaining the image processing in the digital camera of FIG. 図4のデジタルカメラにおけるフィルタ係数を説明する図である。It is a figure explaining the filter coefficient in the digital camera of FIG. 本発明の第3の実施の形態に係るデジタルカメラを示すブロック図である。It is a block diagram which shows the digital camera which concerns on the 3rd Embodiment of this invention. 図7のデジタルカメラの画像処理を説明する図である。It is a figure explaining the image processing of the digital camera of FIG. 本発明の第4の実施の形態に係るデジタルカメラにおけるCPUの機能ブロック図である。It is a functional block diagram of CPU in the digital camera which concerns on the 4th Embodiment of this invention.

以下、適宜図面を参照しながら本発明の実施の形態を詳述する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate.

(1)第1の実施の形態   (1) First embodiment

<第1の実施の形態>
図1は、本発明の第1の実施の形態の撮像装置の実施の形態であるデジタルカメラの電気的構成を示したブロック図である。このデジタルカメラは、基本となる動作モードとして撮影を行うための記録モードと、撮影した画像を再生するための再生モードとが設けられている。
<First Embodiment>
FIG. 1 is a block diagram showing an electrical configuration of a digital camera which is an embodiment of the imaging apparatus according to the first embodiment of the present invention. This digital camera is provided with a recording mode for shooting as a basic operation mode and a playback mode for playing back a shot image.

デジタルカメラ1は、カメラ部2、記憶媒体3、バス4、CPU(Central Processing Unit)5、バッファメモリ6、画像表示部7、メモリ8、キー入力部9、被写体検出部17、SRAM18、マッチング部19、画像変形合成加算部20等を有し、カメラ部2から出力される動画データを記録、再生する。   The digital camera 1 includes a camera unit 2, a storage medium 3, a bus 4, a CPU (Central Processing Unit) 5, a buffer memory 6, an image display unit 7, a memory 8, a key input unit 9, a subject detection unit 17, an SRAM 18, and a matching unit. 19. An image deformation synthesis adding unit 20 and the like are provided, and moving image data output from the camera unit 2 is recorded and reproduced.

ここでカメラ部2は、レンズ駆動ブロック10、レンズ11、絞り12、撮像素子13、ドライバ14、TG(Timing Generator)15、信号処理部16等を有し、動画データD1を出力する。すなわちカメラ部2は、バス4を介したCPU5の制御により、レンズ駆動ブロック10でレンズ11のフォーカス、倍率を設定し、レンズ10により撮像素子13の撮像面に入射光を集光する。撮像素子13は、CCD(Charge Coupled Device)、CMOS(Complementary Metal−Oxide Semiconductor)等の固体撮像素子であり、撮像面に形成された光学像を光電変換処理する。信号処理部16は、撮像素子13の出力信号を相関二重サンプリング処理(CDS:Correlated Double Sampling)した後、自動利得調整(AGC:Automatic Gain Control)、アナログデジタル変換処理(AD:Analog to Digital converter)し、動画データD1をバス4に出力する。TG15は、バス4を介したCPU5の制御により各部にタイミング信号を出力し、ドライバ14は、TG15から出力されるタイミング信号から撮像素子13の駆動信号を生成する。   Here, the camera unit 2 includes a lens driving block 10, a lens 11, an aperture 12, an image sensor 13, a driver 14, a TG (Timing Generator) 15, a signal processing unit 16, and the like, and outputs moving image data D1. That is, the camera unit 2 sets the focus and magnification of the lens 11 with the lens driving block 10 under the control of the CPU 5 via the bus 4, and condenses incident light on the imaging surface of the imaging device 13 with the lens 10. The imaging device 13 is a solid-state imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor), and photoelectrically converts an optical image formed on the imaging surface. The signal processing unit 16 performs correlated double sampling processing (CDS: Correlated Double Sampling) on the output signal of the image sensor 13, and then performs automatic gain adjustment (AGC) and analog-to-digital conversion processing (AD: Analog to Digital converter). The moving image data D1 is output to the bus 4. The TG 15 outputs a timing signal to each unit under the control of the CPU 5 via the bus 4, and the driver 14 generates a drive signal for the image sensor 13 from the timing signal output from the TG 15.

CPU5は、メモリ8に格納したプログラムを実行する演算処理手段あり、キー入力部9の操作に応動してこのデジタルカメラ1の制御、動画データの処理等を実行する。すなわちCPU5は、キー入力部9で再生モードが選択されると、記録媒体3から動画データ、静止画像データを再生してデータ伸張し、画像表示部7で表示する。ここで記録媒体3は、例えばメモリカードであり、画像表示部7は、例えば液晶表示装置である。またキー入力部9で記録モードが選択されると、カメラ部2から出力される動画データD1をYUVデータに変換した後、例えばMPEGによりデータ圧縮して記憶媒体3に記録する。また動画像を撮影している際に、キー入力部9の所定の操作子が操作されると、動画データD1の1コマをJPEGによりデータ圧縮して静止画像ファイルとして記憶媒体3に記録する。記録媒体3は記録部を構成する。なおバッファメモリ6は、CPU5の作業用の領域であり、カメラ部2から出力される動画データD1、データ圧縮、伸張した動画データ等が一時的に格納される。   The CPU 5 is arithmetic processing means for executing a program stored in the memory 8, and executes control of the digital camera 1, processing of moving image data, etc. in response to an operation of the key input unit 9. That is, when the reproduction mode is selected by the key input unit 9, the CPU 5 reproduces moving image data and still image data from the recording medium 3, decompresses the data, and displays them on the image display unit 7. Here, the recording medium 3 is, for example, a memory card, and the image display unit 7 is, for example, a liquid crystal display device. When the recording mode is selected by the key input unit 9, the moving image data D 1 output from the camera unit 2 is converted into YUV data, and then compressed into, for example, MPEG and recorded in the storage medium 3. When a predetermined operator of the key input unit 9 is operated while shooting a moving image, one frame of the moving image data D1 is compressed by JPEG and recorded in the storage medium 3 as a still image file. The recording medium 3 constitutes a recording unit. The buffer memory 6 is a work area for the CPU 5 and temporarily stores moving image data D1 output from the camera unit 2, data compression, decompressed moving image data, and the like.

このデジタルカメラ1では、カメラ部2の絞り12が、静止画カメラで使用する程度に簡易に構成され、例えばユーザのマニュアル操作により段階的に開口量を切り換えて撮像素子13の入射光量を制限する。   In this digital camera 1, the diaphragm 12 of the camera unit 2 is configured to be simple enough to be used in a still image camera. For example, the amount of incident light on the image sensor 13 is limited by switching the aperture step by step by a user's manual operation. .

またこの絞り12の構成に対応して、CPU5は、露光時間の調節により露光制御する。すなわちCPU5は、カメラ部2から出力される画像データD1から輝度レベルを検出して露光制御用の評価値を検出し、この露光制御用の評価値が所定値となるように、TG15から出力するタイミング信号を調節してドライバ14による撮像素子13の駆動を制御する。なおこの露光制御用の評価値生成方法は、中央重点測光、スポット測光等、各種の測光方式による評価値生成手法を適用することができる。   Corresponding to the configuration of the diaphragm 12, the CPU 5 controls exposure by adjusting the exposure time. That is, the CPU 5 detects the brightness level from the image data D1 output from the camera unit 2 to detect an evaluation value for exposure control, and outputs it from the TG 15 so that the evaluation value for exposure control becomes a predetermined value. The drive of the image sensor 13 by the driver 14 is controlled by adjusting the timing signal. Note that this evaluation value generation method for exposure control can be applied to an evaluation value generation method based on various photometry methods such as center-weighted photometry and spot photometry.

従ってカメラ部2から出力される画像データD1は、被写体が明るい場合、フレーム周期と比較して露光時間が極端に短くなり、動きがカクカクとした不連続な感じになる。このためこのデジタルカメラ1では、キー入力部9で選択可能に、記録モードにおける動作モードの1つとして流し撮りモードが設けられる。デジタルカメラ1では、この流し撮りモードにおいて、動画データD1をCPU5で画像処理し、カクカクした動きを緩和する。また静止画像を記録する場合には、画像処理前の動画データD1を記憶媒体3に記録し、動きボケの少ない鮮鋭な静止画像を記録する。   Accordingly, when the subject is bright, the image data D1 output from the camera unit 2 has an extremely short exposure time compared to the frame period, and the motion is jerky and discontinuous. Therefore, in the digital camera 1, a panning mode is provided as one of the operation modes in the recording mode so as to be selectable by the key input unit 9. In the digital camera 1, in the panning mode, the moving image data D1 is image-processed by the CPU 5 to relieve the jerky movement. When a still image is recorded, the moving image data D1 before image processing is recorded on the storage medium 3, and a sharp still image with little motion blur is recorded.

さらに、CPU5には、被写体検出部17、SRAM18、マッチング部19、画像変形合成加算部20が接続されている。   Furthermore, the subject detection unit 17, SRAM 18, matching unit 19, and image deformation synthesis addition unit 20 are connected to the CPU 5.

被写体検出部17は、被写体画像のうち、メインの被写体とメインの被写体以外の背景とを分離して検出する本発明の検出手段として機能する。メインの被写体は、流し撮りに際して撮影者がフレーム内の中央部分に位置させるようにしてシャッターキーの半押しをした時に認識された物体や、各ブロック毎に検出される動きベクトルによって、動きの量が小さいと認識された物体を特徴部として認識する。なお、CPU5は、撮像した被写体画像から特徴部を検出する処理を検出用プログラムを実行させるようにして行ってもよく、ロバーツフィルタ等のフィルタリング処理によって行うことができる。被写体検出部17は、本発明の動き検出部を構成する。   The subject detection unit 17 functions as a detection unit of the present invention that separately detects a main subject and a background other than the main subject from the subject image. The main subject is the amount of movement based on the object recognized when the photographer presses the shutter key halfway so that the photographer is positioned at the center of the frame during panning, and the motion vector detected for each block. An object recognized as having a small is recognized as a feature. Note that the CPU 5 may perform the process of detecting the feature portion from the captured subject image by causing the detection program to be executed, or may be performed by a filtering process such as a Roberts filter. The subject detection unit 17 constitutes a motion detection unit of the present invention.

マッチング部19は、記録モードでの撮影に際して、SRAM18を作業メモリとして使用し、撮像素子13により撮像された被写体画像同士との間でマッチングを行い、時間的に前後する変化前の被写体画像と変化後の被写体画像の相対的な変化量及び変化方向を示す動きベクトルを取得してCPU5に出力する。マッチングは、被写体画像を3×3や4×4等の複数ブロックに分割した各ブロック毎に行う。   When shooting in the recording mode, the matching unit 19 uses the SRAM 18 as a working memory, performs matching between subject images captured by the image sensor 13, and changes with the subject image before and after the change before and after the change. A motion vector indicating the relative change amount and change direction of the subsequent subject image is acquired and output to the CPU 5. The matching is performed for each block obtained by dividing the subject image into a plurality of blocks such as 3 × 3 and 4 × 4.

画像変形合成加算部20は、CPU5の指示に応じ、撮像素子13により撮像された被写体画像にフィルタリングなどをして変形を加えて流し撮り画像を生成する本発明の画像生成処理手段である。画像変形合成加算部20は、ローパスフィルタであるLPF5A〜5Dを有する。画像変形合成加算部20は、本発明のフィルタを構成する。LPF5A〜5Dは高周波成分除去部を構成し、CPU5と画像変形合成加算部20はフィルタ係数生成部を構成する。   The image deformation synthesis adding unit 20 is an image generation processing unit according to the present invention that generates a panning image by applying a deformation to the subject image captured by the image sensor 13 in accordance with an instruction from the CPU 5 and applying deformation. The image deformation synthesis adding unit 20 includes LPFs 5A to 5D that are low-pass filters. The image deformation synthesis adding unit 20 constitutes a filter of the present invention. The LPFs 5A to 5D constitute a high-frequency component removal unit, and the CPU 5 and the image deformation synthesis addition unit 20 constitute a filter coefficient generation unit.

次に、以上の構成からなるデジタルカメラにおいて、例えば、記録モードの下位モードである流し撮りモードが設定されているときの動作について説明する。   Next, in the digital camera having the above configuration, for example, an operation when the panning mode which is a lower mode of the recording mode is set will be described.

図2は、本発明の第1の実施の形態のデジタルカメラにおけるCPU5の機能ブロック図である。ここでは、記録モードが設定されているとき撮影者によって流し撮りモードが設定されている場合に、CPU5が画像変形合成加算部20を制御して、画像変形合成加算部20が有するローパスフィルタを用いて前フレーム画像と現フレーム画像の動画データD1A及びD1Bを含む2枚以上の画像に対して行う処理を中心として説明する。   FIG. 2 is a functional block diagram of the CPU 5 in the digital camera according to the first embodiment of this invention. Here, when the panning mode is set by the photographer when the recording mode is set, the CPU 5 controls the image deformation / synthesis adding unit 20 and uses the low-pass filter included in the image deformation / synthesis adding unit 20. A description will be given centering on processing performed on two or more images including moving image data D1A and D1B of the previous frame image and the current frame image.

CPU5は、画像変形合成加算部20を制御して、LPFで示す、ローパスフィルタ5A、5Bにより前フレーム画像と現フレーム画像の動画データD1A及びD1Bを帯域制限して高周波成分を除去して、低周波成分からなる前フレームLPF画像D2Aと現フレームLPF画像D2Bを生成する。ローパスフィルタにより高周波成分を除去された動画データD2A及びD2Bは、動画データD1A及びD1Bに含まれている被写体のエッジなどの細部の情報が削減される。したがって、ローパスフィルタにより処理することによって、CPU5は、動画データD2A及びD2B間の動画像の動きを滑らかにできる。また、画像の細部の微細な空間的な変化は動きとして誤検出されやすい。したがって、微細な空間的な変化に起因する動きの誤検出なども低減できる。なお、理解を容易にするため、前フレーム画像と現フレーム画像の処理について説明しているが、動画データは連続して処理される。したがって、CPU5は、前フレームLPF画像D2Aとして、直前のフレームで作成した現フレームLPF画像D2Bを使用するようにして常時更新しながら処理を続けていく。   The CPU 5 controls the image deformation synthesis adder 20 to band-limit the moving image data D1A and D1B of the previous frame image and the current frame image by the low-pass filters 5A and 5B indicated by LPF to remove high-frequency components, A previous frame LPF image D2A and a current frame LPF image D2B composed of frequency components are generated. In the moving image data D2A and D2B from which the high-frequency component has been removed by the low-pass filter, detailed information such as the edge of the subject included in the moving image data D1A and D1B is reduced. Therefore, by processing with the low-pass filter, the CPU 5 can smooth the motion of the moving image between the moving image data D2A and D2B. In addition, a minute spatial change in the details of an image is likely to be erroneously detected as a motion. Accordingly, it is possible to reduce false detection of motion caused by minute spatial changes. In order to facilitate understanding, the processing of the previous frame image and the current frame image has been described, but moving image data is processed continuously. Therefore, the CPU 5 continues processing while constantly updating the current frame LPF image D2B created in the immediately preceding frame as the previous frame LPF image D2A.

CPU5は、動画データD1のフレーム毎に、フレーム間の動きを検出する。またこの動きに応じてフィルタの特性を設定して動画データD1をフィルタリング処理し、後に詳述するように、フレーム間の動きの経路(以下、ブレ経路と呼ぶ)に基づいて画素値を平均値化する。これによりCPU5は、ブレ経路に沿って画ぶれしたブレ画像を作成し、再生時に不連続な印象を与える動きの原因となるブレ経路を緩和して動画像の動きを滑らかにする。   The CPU 5 detects the movement between frames for each frame of the moving image data D1. Further, the moving image data D1 is subjected to filtering processing by setting the filter characteristics in accordance with the movement, and the pixel value is averaged based on the movement path between frames (hereinafter referred to as blurring path) as will be described in detail later. Turn into. As a result, the CPU 5 creates a blurred image blurred along the blurring path, and smoothes the motion of the moving image by relaxing the blurring path that causes a motion that gives a discontinuous impression during reproduction.

このデジタルカメラ1では、このフレーム間の動きを、前フレームから現フレームのズレ量を示すグローバル動きベクトルを用いて検出し、グローバル動きベクトル自体をブレ経路として設定する。また平均値化の処理に単純平均の処理を適用する。   In the digital camera 1, the motion between the frames is detected using a global motion vector indicating the amount of deviation from the previous frame to the current frame, and the global motion vector itself is set as a blur path. A simple averaging process is applied to the averaging process.

CPU5は、この前フレームLPF画像D2A及び現フレームLPF画像D2Bからフレーム間GMV(GMV:グローバル動きベクトル)を算出する(5C)。なおフレーム間GMVの算出手法は、例えばブロック単位でマッチング処理して動きベクトルを算出するブロックマッチング法、代表点のマッチングにより動きベクトルを算出する代表点マッチング法等、種々の算出手法を適用することができる。   The CPU 5 calculates an inter-frame GMV (GMV: global motion vector) from the previous frame LPF image D2A and the current frame LPF image D2B (5C). For the calculation method of inter-frame GMV, various calculation methods such as a block matching method that calculates a motion vector by performing a matching process in units of blocks, a representative point matching method that calculates a motion vector by matching representative points, and the like are applied. Can do.

CPU5は、このブレ経路に応じてフィルタ係数を設定し(5D)、このフィルタ係数により現フレームの画像データD1Bをフィルタリング処理して記録媒体3に記録する(5E、D3)。   The CPU 5 sets a filter coefficient in accordance with the blur path (5D), filters the image data D1B of the current frame with the filter coefficient, and records it on the recording medium 3 (5E, D3).

ここでブレ経路は、前フレームから現フレームまでの動きの経路であることから、撮像素子13の各画素には、前フレームから現フレームまでの間、ブレ経路に存在する画素の入射光が順次入射していることになる。従って露光時間がフレーム周期である場合、現フレームの画像データD1は、これらブレ経路に存在する画素の入射光が露光され、その結果、滑らかな動きが確保されることになる。   Here, since the blur path is a path of movement from the previous frame to the current frame, the incident light of the pixels existing in the blur path is sequentially applied to each pixel of the image sensor 13 from the previous frame to the current frame. It is incident. Therefore, when the exposure time is a frame period, the image data D1 of the current frame is exposed to incident light of pixels existing in these blur paths, and as a result, smooth movement is ensured.

これに対して露光時間がフレーム周期と比較して極端に短い場合、ブレ経路に存在する画素の入射光のうち、近傍画素の入射光のみ選択的に露光されることになり、その結果、動きがカクカクとした感じとなる。従ってブレ経路の画素値を平均値化すれば、カクカクとした感じの動きを緩和することができる。   On the other hand, when the exposure time is extremely short compared with the frame period, only the incident light of the neighboring pixels among the incident light of the pixels existing in the blur path is selectively exposed, and as a result, the motion It feels crisp. Therefore, if the pixel values of the blur path are averaged, the jerky movement can be alleviated.

具体的に、図3に示すように、ブレ経路が「水平方向右向き10画素」であったとする。この場合、現フレームの特定画素Aに対応する撮像素子13の画素には、前フレームから現フレームまでの間、「水平方向右向き10画素」分の入射光が順次入射することになる。従って露光時間がフレーム周期である場合、これら「水平方向右向き10画素」分の入射光までも露光されることになる。   Specifically, as shown in FIG. 3, it is assumed that the blurring path is “10 pixels rightward in the horizontal direction”. In this case, incident light for “10 pixels horizontally rightward” sequentially enters the pixels of the image sensor 13 corresponding to the specific pixel A of the current frame from the previous frame to the current frame. Therefore, when the exposure time is a frame period, even the incident light corresponding to “10 pixels rightward in the horizontal direction” is exposed.

これに対して露光時間がフレーム周期より極端に短い場合、これら「水平方向右向き10画素」のうちの近傍画素の入射光のみ露光されることになる。従ってこの場合、現フレームにおける特定画素Aからこれら「水平方向右向き10画素」の画素値を平均値化すれば、カクカクとした不連続な感じの動きを緩和し、動きの滑らかな動画像を得ることができる。   On the other hand, when the exposure time is extremely shorter than the frame period, only the incident light of the neighboring pixels among these “horizontal rightward 10 pixels” is exposed. Therefore, in this case, by averaging the pixel values of the “horizontal rightward 10 pixels” from the specific pixel A in the current frame, the discontinuous motion that is jerky is relieved, and a moving image with smooth motion is obtained. be able to.

これよりCPU5は、処理対象画素を中心に設定した2次元のフィルタによる畳み込み演算により現フレームの動画データをフィルタリング処理する。このフィルタの係数を、ブレ経路の画素値を単純平均する係数に設定する。従ってこの図3の例では、処理対象画素Aから水平方向、10画素分のタップ係数を、係数行列Coef=(1111111111)/10で表されるタップ係数に設定し、残りのタップ係数を値0に設定する。   Thus, the CPU 5 performs the filtering process on the moving image data of the current frame by a convolution operation using a two-dimensional filter centered on the processing target pixel. The coefficient of this filter is set to a coefficient that simply averages the pixel values of the blur path. Therefore, in the example of FIG. 3, the tap coefficients for 10 pixels in the horizontal direction from the processing target pixel A are set to the tap coefficients represented by the coefficient matrix Coef = (1111111111) / 10, and the remaining tap coefficients are set to the value 0. Set to.

またCPU5は、流し撮りモードにおいて、静止画像を記録する場合には、フィルタリング処理前の現フレーム画像D1Bを現フレーム静止画像DMにより記憶媒体3に記録するようにしてフィルタを適用しない。   In addition, when recording a still image in the panning mode, the CPU 5 does not apply a filter so that the current frame image D1B before the filtering process is recorded on the storage medium 3 with the current frame still image DM.

本実施の形態によれば、フレーム間の動きを検出し、この動きに応じてフィルタ係数を設定して動きの経路で現フレームの画素値を平均化することにより、露光時間がフレーム周期と比較して極端に短い場合でも、再生時に不連続な印象を与える動きの原因となるブレ経路を画像処理により緩和し、動きの滑らかな動画像を撮影することができる。   According to this embodiment, the exposure time is compared with the frame period by detecting the motion between frames, setting the filter coefficient according to this motion, and averaging the pixel values of the current frame in the motion path Even in an extremely short time, a blurring path that causes a motion that gives a discontinuous impression during reproduction can be relaxed by image processing, and a moving image with smooth motion can be captured.

また本実施の形態によれば、さらに露光時間の調節により露光制御することにより、絞りの構成を簡略化して滑らかな動きの動画像を得ることができるので、絞りに関連する構成部品を削減でき、デジタルカメラの全体構成も簡略化できる。   In addition, according to the present embodiment, by further controlling exposure by adjusting the exposure time, it is possible to simplify the configuration of the aperture and obtain a moving image with smooth motion, so that the components related to the aperture can be reduced. The overall configuration of the digital camera can be simplified.

また本実施の形態によれば、画像処理前の動画像の1コマを静止画像として記録することより、動きぼけの少ない鮮鋭な静止画像を併せて記録することができ、鮮鋭な静止画像の記録と、動きの滑らかな動画像の記録とを同時に実現することができる。   Further, according to the present embodiment, by recording one frame of a moving image before image processing as a still image, it is possible to record a sharp still image with little motion blur, and to record a sharp still image. And recording of a moving image with smooth motion can be realized at the same time.

また本実施の形態によれば、さらに動画データの処理によりフレーム間の動きを検出することにより、ジャイロ等の動き検出のための特別な構成を設ける必要もなく、動きの滑らかな動画像を撮影することができる。   Further, according to the present embodiment, it is possible to capture a moving image with smooth motion by detecting motion between frames by processing moving image data, without requiring a special configuration for motion detection such as a gyro. can do.

以上、第1の実施の形態のデジタルカメラについて説明したが、本発明はこれに限定されない。上述の実施の形態では、例えば、ブレ経路が線形の場合について説明したが、ブレ経路は非線形でもよい。これについて次の実施の形態で説明する。   The digital camera according to the first embodiment has been described above, but the present invention is not limited to this. In the above-described embodiment, for example, the case where the blur path is linear has been described, but the blur path may be nonlinear. This will be described in the next embodiment.

(2)第2の実施の形態   (2) Second embodiment

図4は、本発明の第2の実施の形態のデジタルカメラにおけるCPU5の機能ブロック図である。ここでも、記録モードが設定されているとき撮影者によって流し撮りモードが設定されている場合に、CPU5が画像変形合成加算部20を制御して、画像変形合成加算部20が有するローパスフィルタを用いて前フレーム画像と現フレーム画像の動画データD1A及びD1Bを含む2枚以上の画像に対して行う処理を中心として説明する。   FIG. 4 is a functional block diagram of the CPU 5 in the digital camera according to the second embodiment of the present invention. Also in this case, when the panning mode is set by the photographer when the recording mode is set, the CPU 5 controls the image deformation / synthesis adding unit 20 and uses the low-pass filter included in the image deformation / synthesis adding unit 20. A description will be given centering on processing performed on two or more images including moving image data D1A and D1B of the previous frame image and the current frame image.

本実施の形態のデジタルカメラは、第1の実施の形態のデジタルカメラと、図4に示す構成が異なる点を除いて、第1の実施の形態と同様である。同様の構成には同様の符号を付して説明を省略する。   The digital camera of this embodiment is the same as that of the first embodiment except that the configuration shown in FIG. 4 is different from the digital camera of the first embodiment. Similar components are denoted by the same reference numerals, and description thereof is omitted.

本実施の形態では、ブレ経路は線形に限定されず、曲線でもよい。このため連続するフレームで検出されるフレーム間GMVを曲線近似してブレ経路を算出する。本実施の形態では、この曲線近似にスプライン関数を適用する。CPU5は、連続するフレームで検出されるフレーム間GMVをスプライン補間してブレ経路を算出する。なお近似曲線には、例えばベジェ曲線、二次関数曲線等、種々の曲線を適用することができる。   In the present embodiment, the blur path is not limited to a linear shape, and may be a curved line. For this reason, the blur path is calculated by approximating the inter-frame GMV detected in successive frames. In the present embodiment, a spline function is applied to this curve approximation. The CPU 5 calculates the blurring path by performing spline interpolation on the inter-frame GMV detected in successive frames. Note that various curves such as a Bezier curve and a quadratic function curve can be applied to the approximate curve.

このためCPU5は、ローパスフィルタ5A、5B、5C、5Dにより示すように、前々フレーム画像(フレーム(i−2)画像)、前フレーム画像(フレーム(i−1)画像)、現フレーム画像(フレーム(i)画像)、次フレーム画像(フレーム(i+1)画像)の動画データD1A、D1B、D1C、D1Dを帯域制限して高周波成分を除去して、低周波成分からなるフレーム(i−2)LPF画像D2A、フレーム(i−1)LPF画像D2B、フレーム(i)LPF画像D2C、フレーム(i+1)LPF画像D2Dを生成する。   Therefore, as shown by the low-pass filters 5A, 5B, 5C, and 5D, the CPU 5 detects the previous frame image (frame (i-2) image), the previous frame image (frame (i-1) image), and the current frame image ( Frame (i-2) consisting of low-frequency components by band-limiting the moving image data D1A, D1B, D1C, D1D of the frame (i) image) and the next frame image (frame (i + 1) image) An LPF image D2A, a frame (i-1) LPF image D2B, a frame (i) LPF image D2C, and a frame (i + 1) LPF image D2D are generated.

CPU5は、これら4つのLPF画像D2A〜D2D間でフレーム間GMV0、フレーム間GMV1、フレーム間GMV2を算出する(5E、5F、5G)。   The CPU 5 calculates an interframe GMV0, an interframe GMV1, and an interframe GMV2 among these four LPF images D2A to D2D (5E, 5F, and 5G).

さらに図5に示すように、CPU5は、前フレーム画像及び現フレーム画像から求めたフレーム間GMV1を用いて前フレームと現フレームとの間の相対位置を算出する。また前フレーム及び現フレームにおけるブレ経路の傾きを、前々フレーム及び前フレームのフレーム間GMVの平均値((GMV0+GMV1)/2)、現フレーム及び次フレームのフレーム間GMVの平均値((GMV1+GMV2)/2)により算出する。CPU5は、これらの相対位置、傾きを用いたスプライン補間によりブレ経路を算出する(5H)。   Further, as shown in FIG. 5, the CPU 5 calculates the relative position between the previous frame and the current frame using the inter-frame GMV1 obtained from the previous frame image and the current frame image. In addition, the gradient of the blur path in the previous frame and the current frame is expressed by an average value of GMV between frames of the previous frame and the previous frame ((GMV0 + GMV1) / 2), and an average value of GMV between frames of the current frame and the next frame ((GMV1 + GMV2)). / 2). The CPU 5 calculates a blur path by spline interpolation using these relative positions and inclinations (5H).

さらに図6に示すように、図5を参照して説明したブレ経路の画素値を単純平均により平均値化してフィルタ係数を設定し(5I)、このフィルタ係数により現フレームの動画データをフィルタリング処理してブレ画像を作成し(5J)、このブレ画像を記録する(D3)。   Further, as shown in FIG. 6, the pixel value of the blur path described with reference to FIG. 5 is averaged by a simple average to set a filter coefficient (5I), and the moving image data of the current frame is filtered by this filter coefficient Then, a blurred image is created (5J), and this blurred image is recorded (D3).

またCPU5は、流し撮りモードにおいて、静止画像を記録する場合には、フィルタリング処理前の現フレーム画像D1Cを現フレーム静止画像DMにより記憶媒体3に記録するようにしてフィルタを適用しない。   In addition, when recording a still image in the panning mode, the CPU 5 does not apply the filter so that the current frame image D1C before the filtering process is recorded on the storage medium 3 by the current frame still image DM.

本実施の形態においては、連続するフレームで検出されるフレーム間の動きを、フレーム間の動きが線形に限らず、非線形の場合であっても、曲線近似することにより、連続するブレ画像をスムーズにつなげて動きの自然な動画像を作成することができるので、一層動きの滑らかな動画像を提供することができる。   In the present embodiment, the motion between frames detected in consecutive frames is not limited to a linear motion, and even if the motion between frames is non-linear, continuous blur images can be smoothed by approximating the curve. Therefore, it is possible to create a moving image with a smooth movement, so that a moving image with a smoother movement can be provided.

以上、第1及び第2の実施の形態のデジタルカメラについて説明したが、本発明はこれに限定されない。上述の実施の形態では、ブレ経路を、動きベクトルを用いて検出したが、例えば、ジャイロセンサなどの測定器を用いて検出してもよい。これについて次の実施の形態で説明する。   The digital camera according to the first and second embodiments has been described above, but the present invention is not limited to this. In the above-described embodiment, the blur path is detected using the motion vector, but may be detected using a measuring device such as a gyro sensor, for example. This will be described in the next embodiment.

(3)第3の実施の形態   (3) Third embodiment

図7は、本発明の第3の実施の形態に係わるデジタルカメラを示すブロック図である。本実施の形態のデジタルカメラは、ジャイロセンサ22を有し、このジャイロセンサ22を用いてデジタルカメラの動きを検出してブレ経路を算出する。また、本実施の形態のデジタルカメラは、このジャイロセンサを用いた動き検出の処理を、1フレーム周期より短い時間間隔で繰り返し実行してブレ経路を曲線近似する。このように本実施の形態のデジタルカメラは、このブレ経路の検出及び動き検出処理に関する構成が異なる点を除いて、第1又は第2の実施の形態のデジタルカメラと同様である。同様の構成には同様の符号を付して説明を省略する。   FIG. 7 is a block diagram showing a digital camera according to the third embodiment of the present invention. The digital camera according to the present embodiment has a gyro sensor 22, and uses this gyro sensor 22 to detect the movement of the digital camera and calculate a blur path. Further, the digital camera according to the present embodiment repeatedly performs the motion detection process using the gyro sensor at a time interval shorter than one frame period to approximate the blurring path with a curve. As described above, the digital camera according to the present embodiment is the same as the digital camera according to the first or second embodiment except that the configuration regarding the blur path detection and the motion detection process is different. Similar components are denoted by the same reference numerals, and description thereof is omitted.

図7に示すように、ジャイロセンサはバス4を介してCPU5に接続し、またこのカメラの動きから動画像の動きを検出してブレ経路を計算する。なおこのジャイロセンサを用いて動画像の動きを検出する処理は、手ブレ補正の際の処理を適用することができる。   As shown in FIG. 7, the gyro sensor is connected to the CPU 5 via the bus 4, and detects the movement of the moving image from the movement of the camera to calculate the blur path. In addition, the process at the time of camera-shake correction | amendment is applicable to the process which detects the motion of a moving image using this gyro sensor.

図8は、このブレ経路の算出処理を説明する図である。このデジタルカメラでは、例えばフレーム周期を8等分してジャイロセンサの出力信号を処理し、それぞれカメラの動きを検出する。   FIG. 8 is a diagram for explaining the blur path calculation process. In this digital camera, for example, the frame period is divided into eight equal parts, the output signal of the gyro sensor is processed, and the movement of the camera is detected respectively.

本実施の形態ではジャイロセンサを用いてフレーム間の動きを検出することにより、動画データの処理を一層簡略化して上述の実施の形態と同様の効果を得ることができる。   In the present embodiment, by detecting a motion between frames using a gyro sensor, it is possible to further simplify the processing of moving image data and obtain the same effect as that of the above-described embodiment.

またフレーム周期より短い時間間隔で動きを繰り返し検出してブレ経路を曲線近似することにより、フレーム周期内の細かな動きをフィルタ係数の設定に反映し、実際のカメラの動きに近いブレ画像を生成することができる。   In addition, by repeatedly detecting motion at time intervals shorter than the frame period and approximating the blur path with a curve, the fine motion within the frame period is reflected in the filter coefficient setting, and a blur image close to the actual camera motion is generated. can do.

(4)第4の実施の形態   (4) Fourth embodiment

図9は、本発明の第4の実施の形態のデジタルカメラにおけるCPU5の機能ブロック図である。本実施の形態のデジタルカメラは、この図9に示す構成が異なる点を除いて、第1の実施の形態と同一に構成される。   FIG. 9 is a functional block diagram of the CPU 5 in the digital camera according to the fourth embodiment of the present invention. The digital camera of the present embodiment is configured in the same way as the first embodiment except that the configuration shown in FIG. 9 is different.

ここで例えば流し撮りにより被写体の動きを追跡した場合、被写体を撮影した画素ではフレーム間差分値が小さくなり、この画素に上述の実施の形態に係るブレ経路によるフィルタリング処理を実行したのでは、この被写体がボケることになる。従ってこの場合は、フィルタリングの強度を弱くして画質を向上することができる。   Here, for example, when the movement of the subject is tracked by panning, the inter-frame difference value is small in the pixel where the subject is photographed, and the filtering process using the blur path according to the above-described embodiment is performed on this pixel. The subject will be blurred. Therefore, in this case, the image quality can be improved by reducing the filtering strength.

これに対して背景を撮影した画素ではフレーム間差分値が大きくなり、上述した実施の形態に係るブレ経路によるフィルタリング処理を実行して、再生時に不連続な印象を与える動きの原因となるブレ経路を緩和することができる。   On the other hand, the inter-frame difference value is large in the pixel that has captured the background, and the blurring path that causes the motion that gives the discontinuous impression at the time of reproduction by executing the filtering process by the blurring path according to the above-described embodiment Can be relaxed.

そこで本実施の形態では、前フレームとの差分情報を計算し(5F)、この差分情報により重み係数を生成してフィルタ係数を補正する(5G、5H)。より具体的には、差分値が小さい場合程、注目画素以外のブレ経路の画素に割り当てるフィルタ係数を値0に近づけ、フィルタリングの強度を弱くする。またこれとは逆に、差分値が大きい場合程、各画素に割り当てるフィルタ係数を値1に近づけて単純平均による処理に近づけ、フィルタリングの強度を強くする。なおフィルタリング処理に供する画素数の調節によりフィルタリング強度を調節しても良い。またブレ画像を作成した後、差分情報による重み付け係数によりブレ画像と元の現フレーム画像とを重み付け加算し、間接的にフィルタリング強度を調節しても良い。CPU5は、本発明の差分算出部及び係数補正部を構成する。   Therefore, in the present embodiment, difference information with respect to the previous frame is calculated (5F), a weighting coefficient is generated based on this difference information, and the filter coefficient is corrected (5G, 5H). More specifically, the smaller the difference value is, the closer the filter coefficient assigned to the blur path pixels other than the target pixel is to the value 0, thereby reducing the filtering strength. On the contrary, as the difference value is larger, the filter coefficient assigned to each pixel is brought closer to the value 1 and closer to the process by simple averaging, and the filtering strength is increased. The filtering strength may be adjusted by adjusting the number of pixels used for the filtering process. Alternatively, after the blur image is created, the filtering strength may be indirectly adjusted by weighted addition of the blur image and the original current frame image using a weighting coefficient based on the difference information. The CPU 5 constitutes a difference calculation unit and a coefficient correction unit of the present invention.

本実施の形態では、前フレームとの差分情報によりフィルタリングの強度を調節することにより、流し撮りした場合のように、主要被写体とデジタルカメラとの位置関係が変化しない場合に、主要被写体のぼけを防止して動きの滑らかな動画像を記録することができる。   In this embodiment, by adjusting the filtering strength based on the difference information from the previous frame, the blur of the main subject is reduced when the positional relationship between the main subject and the digital camera does not change as in the case of panning. It is possible to record a moving image with smooth motion.

(5)他の実施の形態   (5) Other embodiments

なお上述の実施の形態では、フレーム毎にフレーム間の動きを算出してフィルタ係数を設定する場合について述べたが、本発明はこれに限らず、複数フレーム毎に、1画面を分割して生成されたブロック毎に、さらには画素毎にフレーム間の動きを算出してフィルタ係数を設定するようにしてもよい。   In the above-described embodiment, the case where the motion between frames is calculated and the filter coefficient is set for each frame has been described. However, the present invention is not limited to this, and one screen is divided and generated for each of a plurality of frames. The filter coefficient may be set by calculating the motion between frames for each block and further for each pixel.

なお例えばブロック毎にフィルタ係数を設定する場合には、前フレームとの相関検出によりブロック毎に各ブロックを代表する動きベクトルを検出し、この動きベクトルによりブロック毎にブレ経路を算出してフィルタ係数を設定すれば良い。また画素毎にフィルタ係数を設定する場合には、画素毎に動きベクトルを検出し、この動きベクトルにより画素毎にブレ経路を算出してフィルタ係数を設定すれば良い。   For example, when a filter coefficient is set for each block, a motion vector representing each block is detected for each block by detecting a correlation with the previous frame, and a blur path is calculated for each block based on the motion vector. Should be set. When setting a filter coefficient for each pixel, a motion vector may be detected for each pixel, and a blur path may be calculated for each pixel using this motion vector to set the filter coefficient.

また上述の実施の形態では、2次元のフィルタによりフィルタリング処理する場合について述べたが、本発明はこれに限らず、動画像では水平方向の動きが多いことから、水平方向についてのみブレ経路を算出してフィルタリング処理しても良い。このように水平方向についてのみフィルタリング処理すれば、連続するブレ画像を滑らかにつなぎ合わせて、一段と動きの滑らかな動画像を得ることができる。また構成を簡略化して実用上充分に再生時に不連続な印象を与える動きの原因となるブレ経路を緩和することができる。   In the above-described embodiment, the case where the filtering process is performed by the two-dimensional filter has been described. However, the present invention is not limited to this, and a moving image has a lot of movement in the horizontal direction. Then, filtering processing may be performed. If the filtering process is performed only in the horizontal direction as described above, continuous blurred images can be smoothly connected to obtain a moving image with smoother motion. In addition, it is possible to simplify the structure and relax a blurring path that causes a motion that gives a discontinuous impression during reproduction sufficiently in practice.

また上述の実施の形態では、単純平均により、又は差分情報に応じた重み付け平均により、ボケ画像を生成する場合について述べたが、本発明はこれに限らず、例えばフレーム周期に対する露光時間によりフィルタの特性を調節する場合等、種々の撮影の条件によりフィルタリングの特性を調節しても良い。   In the above-described embodiment, the case where a blurred image is generated by simple averaging or by weighted averaging according to difference information has been described. However, the present invention is not limited to this, and for example, the filter is determined by the exposure time with respect to the frame period. The filtering characteristics may be adjusted according to various shooting conditions, such as when adjusting the characteristics.

すなわち動画像の再生時に不連続な印象を与える動きは、フレーム周期と比較して露光時間が短くなればなる程、激しくなり、露光時間がほぼフレーム周期の場合、殆んど発生しない。従って単に、単純平均等によりフィルタリング処理したのでは、過度にフィルタリング処理する場合も発生する。そこでフレーム周期に対する露光時間によりフィルタの特性を調節すれば、過度のフィルタリング処理を防止して一段と画質を向上することができる。   That is, a motion that gives a discontinuous impression when a moving image is reproduced becomes more intense as the exposure time becomes shorter than the frame period, and hardly occurs when the exposure time is approximately the frame period. Therefore, if the filtering process is simply performed by a simple average or the like, an excessive filtering process may occur. Therefore, if the filter characteristics are adjusted according to the exposure time with respect to the frame period, excessive filtering processing can be prevented and the image quality can be further improved.

また上述の実施の形態では、前フレームから現フレームまでの動きの経路により現フレームをフィルタリング処理する場合について述べたが、本発明はこれに限らず、現フレームから次フレームまでの動きの経路により現フレームをフィルタリング処理しても良く、さらには前フレームから現フレームまでの動きの経路の現フレーム側1/2の動きの経路と、現フレームから次フレームまでの動きの経路の現フレーム側1/2の動きの経路とにより現フレームをフィルタリング処理しても良い。   In the above-described embodiment, the case where the current frame is filtered by the motion path from the previous frame to the current frame has been described. However, the present invention is not limited to this, and the motion path from the current frame to the next frame is used. The current frame may be subjected to filtering processing, and further, the movement path on the current frame side 1/2 of the movement path from the previous frame to the current frame, and the current frame side 1 of the movement path from the current frame to the next frame The current frame may be filtered according to the / 2 motion path.

また上述の実施の形態では、露光時間の調節により露光制御する場合について述べたが、本発明はこれに限らず、絞りの調節により露光制御する場合にも広く適用することができる。また、説明を容易にするため、流し撮り撮影の場合を例に説明したが、本発明は流し撮り撮影に限定されず、動画像の処理に適用可能である。   In the above-described embodiment, the case where the exposure control is performed by adjusting the exposure time has been described. However, the present invention is not limited to this and can be widely applied to the case where the exposure control is performed by adjusting the aperture. For ease of explanation, the case of panning shot shooting has been described as an example. However, the present invention is not limited to panning shot shooting but can be applied to processing of moving images.

また上述の実施の形態では、本発明をデジタルカメラに適用して、カメラ部から動画データを入力して処理する場合について述べたが、本発明はこれに限らず、例えばネットワーク、各種記録媒体から動画データを入力して表示する場合等にも広く適用することができる。   In the above-described embodiment, the case where the present invention is applied to a digital camera and moving image data is input and processed from the camera unit has been described. However, the present invention is not limited to this, for example, from a network or various recording media. The present invention can be widely applied to a case where moving image data is input and displayed.

また、上述の実施の形態では、本発明をデジタルカメラに適用して、撮像系から入力する動画データD1を処理する場合について説明したが、本発明はこれに限定されず、例えばネットワーク、各種記録媒体により提供される動画データD1をハードディスク等の記録媒体に記録する場合等にも広く適用することができる。また、CPUとメモリを含む、撮像装置が有するコンピュータを上述した各手段として機能させる動画処理プログラムによって動作させることができる。動画処理プログラムは、通信回線を介して配布することも可能であるし、CD−ROM等の記録媒体に書き込んで配布することも可能である。   Further, in the above-described embodiment, the case where the present invention is applied to a digital camera and the moving image data D1 input from the imaging system is processed has been described. However, the present invention is not limited to this. The present invention can be widely applied to a case where moving image data D1 provided by a medium is recorded on a recording medium such as a hard disk. Further, it can be operated by a moving image processing program that causes a computer included in an imaging apparatus including a CPU and a memory to function as each unit described above. The moving image processing program can be distributed via a communication line, or can be distributed by writing on a recording medium such as a CD-ROM.

また本発明は、上述の実施の形態に限定されるものでは無く、その趣旨を逸脱しない範囲で、上述の実施の形態を種々に組み合わせることができ、さらには上述の実施の形態に種々に変形を加えた形態とすることができる。   The present invention is not limited to the above-described embodiments, and the above-described embodiments can be variously combined and various modifications can be made to the above-described embodiments without departing from the spirit of the present invention. It can be set as the form which added.

本発明は、例えばデジタルカメラに適用することができる。     The present invention can be applied to, for example, a digital camera.

1‥‥デジタルカメラ、2‥‥カメラ部、3‥‥記憶媒体、5‥‥CPU、6‥‥バッファメモリ、13‥‥撮像素子、16‥‥信号処理部   DESCRIPTION OF SYMBOLS 1 ... Digital camera, 2 ... Camera part, 3 ... Storage medium, 5 ... CPU, 6 ... Buffer memory, 13 ... Image sensor, 16 ... Signal processing part

Claims (10)

動画データからフレーム間の動きを検出する動き検出部と、
前記動き検出部の検出結果に基づいてフィルタ係数を生成するフィルタ係数生成部と、
前記フィルタ係数により、前記動画データをフィルタリングすることにより、前記フレーム間の動きの経路で、前記動画データの画素値を平均値化するフィルタとを有することを特徴とする動画処理装置。
A motion detector for detecting motion between frames from the video data;
A filter coefficient generation unit that generates a filter coefficient based on a detection result of the motion detection unit;
A moving image processing apparatus comprising: a filter that averages pixel values of the moving image data in a path of movement between the frames by filtering the moving image data with the filter coefficient.
前記フィルタから出力される動画データを記録すると共に、前記動画データの1コマを静止画像により記録する記録部を有することを特徴とする請求項1に記載の動画処理装置。   The moving image processing apparatus according to claim 1, further comprising a recording unit that records moving image data output from the filter and records one frame of the moving image data as a still image. 前記動き検出部は、前記動画データのグローバル動きベクトルを検出して前記フレーム間の動きを検出することを特徴とする請求項1、又は請求項2に記載の動画処理装置。   The moving image processing apparatus according to claim 1, wherein the motion detection unit detects a motion between the frames by detecting a global motion vector of the moving image data. 前記動き検出部は、少なくとも前フレームにおける前々フレームからの動きと、現フレームにおける前フレームからの動きと、次フレームにおける現フレームからの動きとを曲線近似して、前記フレーム間の動きを検出することを特徴とする請求項3に記載の動画処理装置。   The motion detection unit detects the motion between the frames by approximating at least the motion from the previous frame in the previous frame, the motion from the previous frame in the current frame, and the motion from the current frame in the next frame. The moving image processing apparatus according to claim 3, wherein: 前記動き検出部は、前記フレーム間の動きをジャイロセンサにより検出することを特徴とする請求項1に記載の動画処理装置。   The moving image processing apparatus according to claim 1, wherein the motion detection unit detects a motion between the frames by a gyro sensor. 前記動き検出部は、前記動画データのフレーム周期より短い時間間隔で繰り返し前記動画データの動きを検出し、検出結果を曲線近似して前記フレーム間の動きを検出することを特徴とする請求項5に記載の動画処理装置。   6. The motion detection unit repeatedly detects motion of the moving image data at a time interval shorter than a frame period of the moving image data, and detects a motion between the frames by approximating a detection result to a curve. The moving image processing apparatus described in 1. 前記動画データの前フレームとの差分情報を検出する差分算出部と、
前記差分情報に応じて前記フィルタ係数を補正する係数補正部とを有する、請求項1から請求項6までのいずれかに記載の動画処理装置。
A difference calculating unit for detecting difference information from the previous frame of the moving image data;
The moving image processing apparatus according to claim 1, further comprising: a coefficient correction unit that corrects the filter coefficient according to the difference information.
動画データから高周波成分を除去する高周波成分除去部を有し、
前記動き検出部は、前記高周波成分除去部によって高周波成分を除去された動画データからフレーム間の動きを検出する、請求項1から請求項7までのいずれかに記載の動画処理装置。
It has a high frequency component removal unit that removes high frequency components from video data,
The moving image processing apparatus according to claim 1, wherein the motion detection unit detects a motion between frames from the moving image data from which the high frequency component is removed by the high frequency component removal unit.
動画データからフレーム間の動きを検出する動き検出ステップと、
前記動き検出ステップの検出結果に基づいてフィルタ係数を生成するフィルタ係数生成ステップと、
前記フィルタ係数により、前記動画データをフィルタリングすることにより、前記フレーム間の動きの経路で、前記動画データの画素値を平均値化するフィルタリングステップとを有することを特徴とする動画処理方法。
A motion detection step for detecting motion between frames from video data;
A filter coefficient generation step for generating a filter coefficient based on the detection result of the motion detection step;
And a filtering step of averaging pixel values of the moving image data along a path of motion between the frames by filtering the moving image data with the filter coefficient.
動画データからフレーム間の動きを検出する動き検出ステップと、
前記動き検出ステップの検出結果に基づいてフィルタ係数を生成するフィルタ係数生成ステップと、
前記フィルタ係数により、前記動画データをフィルタリングすることにより、前記フレーム間の動きの経路で、前記動画データの画素値を平均値化するフィルタリングステップとを演算処理手段に実行させることを特徴とする動画処理プログラム。
A motion detection step for detecting motion between frames from video data;
A filter coefficient generation step for generating a filter coefficient based on the detection result of the motion detection step;
A moving image characterized by causing the arithmetic processing means to perform a filtering step of averaging pixel values of the moving image data in a path of movement between the frames by filtering the moving image data with the filter coefficient. Processing program.
JP2009070139A 2009-03-23 2009-03-23 Movie processing apparatus, movie processing method, and movie processing program Pending JP2010226314A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009070139A JP2010226314A (en) 2009-03-23 2009-03-23 Movie processing apparatus, movie processing method, and movie processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009070139A JP2010226314A (en) 2009-03-23 2009-03-23 Movie processing apparatus, movie processing method, and movie processing program

Publications (1)

Publication Number Publication Date
JP2010226314A true JP2010226314A (en) 2010-10-07

Family

ID=43043040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009070139A Pending JP2010226314A (en) 2009-03-23 2009-03-23 Movie processing apparatus, movie processing method, and movie processing program

Country Status (1)

Country Link
JP (1) JP2010226314A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012114572A (en) * 2010-11-22 2012-06-14 Olympus Corp Image processing device, image processing method, and image processing program
USRE48821E1 (en) 2009-10-12 2021-11-16 Powercloud Systems, Inc. Apparatus and methods for protecting network resources

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005311575A (en) * 2004-04-20 2005-11-04 Matsushita Electric Ind Co Ltd Frame cyclic noise reduction method
JP2007028251A (en) * 2005-07-19 2007-02-01 Seiko Epson Corp Image processing apparatus, image processing method, program, and recording medium
JP2007088828A (en) * 2005-09-22 2007-04-05 Sanyo Electric Co Ltd Camera shake correction device
JP2008182476A (en) * 2007-01-24 2008-08-07 Canon Inc Change predicted value calculation apparatus and IP conversion processing apparatus
WO2008096818A1 (en) * 2007-02-07 2008-08-14 Sony Corporation Image processing device, image picking-up device, image processing method, and program
JP2009042482A (en) * 2007-08-08 2009-02-26 Canon Inc Image processing apparatus and control method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005311575A (en) * 2004-04-20 2005-11-04 Matsushita Electric Ind Co Ltd Frame cyclic noise reduction method
JP2007028251A (en) * 2005-07-19 2007-02-01 Seiko Epson Corp Image processing apparatus, image processing method, program, and recording medium
JP2007088828A (en) * 2005-09-22 2007-04-05 Sanyo Electric Co Ltd Camera shake correction device
JP2008182476A (en) * 2007-01-24 2008-08-07 Canon Inc Change predicted value calculation apparatus and IP conversion processing apparatus
WO2008096818A1 (en) * 2007-02-07 2008-08-14 Sony Corporation Image processing device, image picking-up device, image processing method, and program
JP2009042482A (en) * 2007-08-08 2009-02-26 Canon Inc Image processing apparatus and control method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE48821E1 (en) 2009-10-12 2021-11-16 Powercloud Systems, Inc. Apparatus and methods for protecting network resources
JP2012114572A (en) * 2010-11-22 2012-06-14 Olympus Corp Image processing device, image processing method, and image processing program
US8964055B2 (en) 2010-11-22 2015-02-24 Olympus Corporation Combining images based on position offset detection of a series of images

Similar Documents

Publication Publication Date Title
JP6497382B2 (en) Imaging apparatus, image data output method and program
JP4473363B2 (en) Camera shake correction apparatus and correction method thereof
US9374519B2 (en) Image processing apparatus, image processing method, and program
JP4964541B2 (en) Imaging apparatus, image processing apparatus, imaging system, and image processing program
JP4674620B2 (en) Image processing apparatus, image processing method, and program
JP2004242113A (en) Image recording and reproducing device, image photographing device and chromatic aberration correcting method
JP4891647B2 (en) camera
JP5525592B2 (en) Video signal processing device
US20050157188A1 (en) Image capturing apparatus and method of performing noise process on moving picture
JP5780764B2 (en) Imaging device
JP2009111596A (en) Imaging apparatus
JP2008209577A (en) Camera
JP2005269130A (en) Imaging device with camera shake correcting function
JP2015195582A (en) Image processing device, control method thereof, imaging apparatus, control method thereof, and recording medium
JP2007195122A (en) Imaging apparatus, image processor and image processing method
JP5497420B2 (en) Image processing apparatus and imaging apparatus
JP2010226314A (en) Movie processing apparatus, movie processing method, and movie processing program
JP2004328606A (en) Imaging device
JP5621265B2 (en) Camera shake correction apparatus, imaging processing method, and program
JP5760654B2 (en) Image processing apparatus, image processing method, and program
JP2005210216A (en) Image pickup device and method of processing noise in motion image
JP2011135537A (en) Imaging apparatus and control method of the same
JP2009022044A (en) Image processing apparatus and image processing program
JP4687454B2 (en) Image processing apparatus and imaging apparatus
JP2005051393A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131112

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载