+

JP4158479B2 - Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method - Google Patents

Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method Download PDF

Info

Publication number
JP4158479B2
JP4158479B2 JP2002304830A JP2002304830A JP4158479B2 JP 4158479 B2 JP4158479 B2 JP 4158479B2 JP 2002304830 A JP2002304830 A JP 2002304830A JP 2002304830 A JP2002304830 A JP 2002304830A JP 4158479 B2 JP4158479 B2 JP 4158479B2
Authority
JP
Japan
Prior art keywords
picture
image signal
pixel data
signal
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002304830A
Other languages
Japanese (ja)
Other versions
JP2004140694A (en
Inventor
哲二郎 近藤
勉 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002304830A priority Critical patent/JP4158479B2/en
Publication of JP2004140694A publication Critical patent/JP2004140694A/en
Application granted granted Critical
Publication of JP4158479B2 publication Critical patent/JP4158479B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、画像信号の処理装置および処理方法、それに使用される係数データの生成装置および生成方法、並びに各方法を実行するためのプログラムに関する。
【0002】
詳しくは、この発明は、符号化されたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、複数の画素データからなる第2の画像信号に変換して符号化雑音を軽減する際、第1の画像信号の他に、符号化情報が軽減された第2の画像信号に基づいて第2の画像信号における注目位置に対して時間方向および空間方向の周辺に位置する複数の第1の画素データを選択し、この複数の第1の画素データを用いて第2の画像信号における注目位置の画素データを生成することによって、第2の画像信号の品質の向上を図り、符号化雑音を良好に軽減できるようにした画像信号処理装置等に係るものである。
【0003】
【従来の技術】
画像信号の圧縮符号化方式として、DCT(Discrete Cosine Transform)を用いたMPEG2(Moving Picture Experts Group 2)による符号化方式がある。この符号化方式では、ブロック毎に動き補償予測符号化が行われる。
【0004】
DCTは、ブロック内の画素に対して離散コサイン変換を施し、その離散コサイン変換により得られた係数データを再量子化し、さらにこの再量子化された係数データを可変長符号化するものである。この可変長符号化には、ハフマン符号等のエントロピー符号化が用いられることが多い。画像信号は直交変換されることにより、低周波から高周波までの多数の周波数データに分割される。
【0005】
この分割された周波数データに再量子化を施す場合、人間の視覚特性を考慮し、重要度の高い低周波データに関しては、細かく量子化を施し、重要度の低い高周波のデータに関しては、粗く量子化を施すことで、高画質を保持し、しかも効率が良い圧縮が実現されるという特長を有している。
【0006】
従来のDCTを用いた復号は、各周波数成分毎の量子化データをそのコードの代表値に変換し、それらの成分に対して逆DCT(IDCT:Inverce DCT)を施すことにより、再生データを得る。この代表値へ変換する時には、符号化時の量子化ステップ幅が使用される。
【0007】
【発明が解決しようとする課題】
上述のように、DCTを用いたMPEGによる符号化方式では、人間の視覚特性を考慮した符号化を行うことにより、高画質を保持し、高効率の圧縮が実現できるという特長がある。
【0008】
しかし、DCTを行う符号化はブロックを単位とした処理であることから、圧縮率が高くなるに従い、ブロック状の雑音、いわゆるブロック雑音(ブロック歪み)が発生することがある。また、エッジ等の急激な輝度変化がある部分には、高周波成分を粗く量子化したことによるざわざわとした雑音、いわゆるモスキート雑音が発生する。
【0009】
このような符号化雑音は、MPEG2による符号化方式だけでなく、その他の符号化方式によっても発生する。
【0010】
この発明の目的は、符号化されたデジタル画像信号を復号化することによって得られた画像信号の符号化雑音を良好に軽減することにある。
【0011】
【課題を解決するための手段】
この発明に係る画像信号処理装置は、MPEG方式に符号化されたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号のうちIピクチャの第1の画像信号に対して変換処理を行って符号化に伴う歪みを低減したIピクチャの第2の画像信号を生成する第1の処理部と、上記第1の画像信号のうちPピクチャおよびBピクチャに対して変換処理を行って符号化に伴う歪みを低減したPピクチャおよびBピクチャの第2の画像信号を生成する第2の処理部と、上記第1の処理部で得られたIピクチャの第2の画像信号および上記第2の処理部で得られたPピクチャの第2の画像信号を格納するメモリとを備え、上記第1の処理部は、上記Iピクチャの第1の画像信号から、上記Iピクチャの第2の画像信号における注目位置の周辺に位置する複数の画素データを選択し、選択された画素データのレベル分布からクラスを生成する第1のクラス検出部と、上記第1のクラス検出部で検出されたクラス毎に予め求められ、上記Iピクチャの第1の画像信号に対応して符号化歪みを含む生徒信号と上記Iピクチャの第2の画像信号に対応して符号化歪みを含まない教師信号との誤差を最小にする係数データを発生する第1の係数データ発生部と、上記Iピクチャの第1の画像信号から、上記Iピクチャの第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第1の予測タップ選択部と、上記第1の係数データ発生部で発生された係数データおよび上記第1の予測タップ選択部で選択された複数の画素データを演算して上記Iピクチャの第2の画像信号における注目位置の画素データを得る第1の演算部とを有し、上記第2の処理部は、上記Pピクチャ又はBピクチャの第1の画像信号と上記メモリに格納されたIピクチャ又はPピクチャの第2の画像信号から、上記Pピクチャ又はBピクチャの第2の画像信号における注目位置の周辺に位置する複数の画素データを選択し、選択された画素データのレベル分布からクラスを生成する第2のクラス検出部と、上記第2のクラス検出部で検出されたクラス毎に予め求められ、上記Pピクチャ又はBピクチャの第1の画像信号に対応して符号化歪みを含む生徒信号と上記Pピクチャ又はBピクチャの第2の画像信号に対応して符号化歪みを含まない教師信号との誤差を最小にする係数データを発生する第2の係数データ発生部と、上記Pピクチャ又はBピクチャの第1の画像信号と上記メモリに格納されたIピクチャ又はPピクチャの第2の画像信号から、上記Pピクチャ又はBピクチャの第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第2の予測タップ選択部と、上記第2の係数データ発生部で発生された係数データおよび上記第2の予測タップ選択部で選択された複数の画素データを演算して上記Pピクチャ又はBピクチャの第2の画像信号における注目位置の画素データを得る第2の演算部とを有するものである。
【0012】
また、この発明に係る画像信号処理方法は、MPEG方式に符号化されたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号のうちIピクチャの第1の画像信号に対して変換処理を行って符号化に伴う歪みを低減したIピクチャの第2の画像信号を生成する第1のステップと、上記第1の画像信号のうちPピクチャおよびBピクチャに対して変換処理を行って符号化に伴う歪みを低減したPピクチャおよびBピクチャの第2の画像信号を生成する第2のステップと、上記第1のステップで得られたIピクチャの第2の画像信号および上記第2のステップで得られたPピクチャの第2の画像信号をメモリに格納する第3のステップとを備え、上記第1のステップでは、上記Iピクチャの第1の画像信号から、上記Iピクチャの第2の画像信号における注目位置の周辺に位置する複数の画素データを選択し、選択された画素データのレベル分布からクラスを生成する第4のステップと、上記第4のステップで検出されたクラス毎に予め求められ、上記Iピクチャの第1の画像信号に対応して符号化歪みを含む生徒信号と上記Iピクチャの第2の画像信号に対応して符号化歪みを含まない教師信号との誤差を最小にする係数データを発生する第5のステップと、上記Iピクチャの第1の画像信号から、上記Iピクチャの第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第6のステップと、上記第5のステップで発生された係数データおよび上記第6のステップで選択された複数の画素データを演算して上記Iピクチャの第2の画像信号における注目位置の画素データを得る第7のステップとを有し、上記第2のステップでは、上記Pピクチャ又はBピクチャの第1の画像信号と上記メモリに格納されたIピクチャ又はPピクチャの第2の画像信号から、上記Pピクチャ又はBピクチャの第2の画像信号における注目位置の周辺に位置する複数の画素データを選択し、選択された画素データのレベル分布からクラスを生成する第8のステップと、上記第8のステップで検出されたクラス毎に予め求められ、上記Pピクチャ又はBピクチャの第1の画像信号に対応して符号化歪みを含む生徒信号と上記Pピクチャ又はBピクチャの第2の画像信号に対応して符号化歪みを含まない教師信号との誤差を最小にする係数データを発生する第9のステップと、上記Pピクチャ又はBピクチャの第1の画像信号と上記メモリに格納されたIピクチャ又はPピクチャの第2の画像信号から、上記Pピクチャ又はBピクチャの第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第10のステップと、上記第9のステップで発生された係数データおよび上記第10のステップで選択された複数の画素データを演算して上記Pピクチャ又はBピクチャの第2の画像信号における注目位置の画素データを得る第11のステップとを有するものである。
【0013】
また、この発明に係るプログラムは、上述の画像信号処理方法をコンピュータに実行させるためのものである。
【0014】
この発明において、複数の画素データからなる第1の画像信号は、符号化されたデジタル画像信号を復号化することによって生成されたものである。例えば、デジタル画像信号は、MPEG方式の符号化が行われたものである。
【0015】
この第1の画像信号および第2の画像信号に基づいて、第2の画像信号における注目位置に対応して時間方向および空間方向の周辺に位置する複数の第1の画素データが選択される。そして、この複数の第1の画素データを用いて第2の画像信号における注目位置の画素データが生成される。
【0016】
例えば、デジタル画像信号がMPEG方式の符号化が行われたものである場合、以下のように複数の第1の画素データが選択される。すなわち、第2の画像信号における注目位置に対応した第1の画像信号の画素データがIピクチャに係る画素データであるとき、第1の画像信号に基づいて複数の第1の画素データが選択される。また、第2の画像信号における注目位置に対応した第1の画像信号の画素データがPピクチャまたはBピクチャに係る画素データであるとき、第1の画像信号およびPピクチャまたはBピクチャの画素データを得る際に使用された第1の画像信号に対応した第2の画像信号に基づいて複数の第1の画素データが選択される。
【0017】
このように複数の第1の画像データを用いて第2の画像信号における注目位置の画素データを生成するものであり、第2の画像信号として符号化雑音が軽減されたものを得ることが可能となる。
【0018】
例えば、第1の画像信号および第2の画像信号に基づいて、第2の画像信号における注目位置に対して時間方向および空間方向の周辺に位置する複数の第2の画素データが選択され、この複数の第2の画素データに基づいて、その注目位置の画素データが属するクラスが検出される。そして、検出されたクラスに対応して発生された係数データおよび複数の第1の画素データを用いて、推定式に基づいて、第2の画像信号における注目位置の画素データが算出される。
【0019】
係数データとして、第1の画像信号に対応しこの第1の画像信号と同様の符号化雑音を含む生徒信号と第2の画像信号に対応した符号化雑音を含まない教師信号とを用いた学習によって得られた係数データを用いることで、第2の画像信号として第1の画像信号に比べて符号化雑音を軽減したものを得ることできる。
【0020】
また、複数の第1の画素データは、第1の画像信号の他に符号化雑音が軽減された第2の画像信号からも選択されるものであり、第2の画像信号の品質の向上を図ることができ、符号化雑音を良好に軽減できる。
【0021】
なお、第2の画像信号に対して第1の画像信号を基準とした動き補償を行い、複数の第1の画素データを選択する際の第2の画像信号として、この動き補償された第2の画像信号を用いるようにしてもよい。第2の画像信号に動き補償が行われることで、時間方向に存在する各画面の画像信号から選択される複数の第1の画素データは相関が高いものとなり、この複数の第1の画素データを用いて生成される第2の画像信号における注目位置の画素データの品質を高めることができる。
【0022】
この発明に係る係数データ生成装置は、MPEG方式に符号化されたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号のうちIピクチャの第1の画像信号に対して変換処理を行って符号化に伴う歪みを低減したIピクチャの第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記Iピクチャの第1の画像信号に対応した生徒信号を得る第1の復号化と、上記Iピクチャの生徒信号から、上記Iピクチャの教師信号における注目位置の周辺に位置する複数の画素データを選択し、選択された画素データのレベル分布からクラスを生成する第1のクラス検出部と、上記Iピクチャの生徒信号から、上記Iピクチャの教師信号における注目位置の周辺に位置する複数の画素データを選択する第1の予測タップ選択部と、上記第1のクラス検出部で検出されたクラス、上記第1の予測タップ選択部で選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記Iピクチャの生徒信号に係る複数の画素データと上記Iピクチャの教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第1の演算部と、MPEG方式に符号化されたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号のうちPピクチャ又はBピクチャの第1の画像信号に対して変換処理を行って符号化に伴う歪みを低減したPピクチャ又はBピクチャの第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記Pピクチャ又はBピクチャの第1の画像信号に対応した生徒信号を得る第2の復号化部と、上記IピクチャおよびPピクチャの教師信号を格納するメモリと、上記Pピクチャ又はBピクチャの生徒信号と上記メモリに格納されたIピクチャ又はPピクチャの教師信号から、上記Pピクチャ又はBピクチャの教師信号における注目位置の周辺に位置する複数の画素データを選択し、選択された画素データのレベル分布からクラスを生成する第2のクラス検出部と、上記Pピクチャ又はBピクチャの生徒信号と上記メモリに格納されたIピクチャ又はPピクチャの教師信号から、上記Pピクチャ又はBピクチャの教師信号における注目位置の周辺に位置する複数の画素データを選択する第2の予測タップ選択部と、上記第2のクラス検出部で検出されたクラス、上記第2の予測タップ選択部で選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記Pピクチャ又はBピクチャの生徒信号に係る複数の画素データと上記Pピクチャ又はBピクチャの教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第2の演算部とを備えものである。
【0023】
また、この発明に係る係数データ生成方法は、MPEG方式に符号化されたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号のうちIピクチャの第1の画像信号に対して変換処理を行って符号化に伴う歪みを低減したIピクチャの第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記Iピクチャの第1の画像信号に対応した生徒信号を得る第1のステップと、上記Iピクチャの生徒信号から、上記Iピクチャの教師信号における注目位置の周辺に位置する複数の画素データを選択し、選択された画素データのレベル分布からクラスを生成する第2のステップと、上記Iピクチャの生徒信号から、上記Iピクチャの教師信号における注目位置の周辺に位置する複数の画素データを選択する第3のステップと、上記第2のステップで検出されたクラス、上記第3のステップで選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記Iピクチャの生徒信号に係る複数の画素データと上記Iピクチャの教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第4のステップと、MPEG方式に符号化されたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号のうちPピクチャ又はBピクチャの第1の画像信号に対して変換処理を行って符号化に伴う歪みを低減したPピクチャ又はBピクチャの第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記Pピクチャ又はBピクチャの第1の画像信号に対応した生徒信号を得る第5のステップと、上記IピクチャおよびPピクチャの教師信号をメモリに格納する第6のステップと、上記Pピクチャ又はBピクチャの生徒信号と上記メモリに格納されたIピクチャ又はPピクチャの教師信号から、上記Pピクチャ又はBピクチャの教師信号における注目位置の周辺に位置する複数の画素データを選択し、選択された画素データのレベル分布からクラスを生成する第7のステップと、上記Pピクチャ又はBピクチャの生徒信号と上記メモリに格納されたIピクチャ又はPピクチャの教師信号から、上記Pピクチャ又はBピクチャの教師信号における注目位置の周辺に位置する複数の画素データを選択する第8のステップと、上記第7のステップで検出されたクラス、上記第8のステップで選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記Pピクチャ又はBピクチャの生徒信号に係る複数の画素データと上記Pピクチャ又はBピクチャの教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第9のステップとを備えものである。
【0024】
また、この発明に係るプログラムは、上述の係数データ生成方法をコンピュータに実行させるためのものである。
【0025】
この発明において、複数の画素データからなる第1の画像信号は、符号化されたデジタル画像信号を復号化することによって生成されたものである。この発明は、この第1の画像信号を、複数の画素データからなる第2の画像信号に変換する際に使用される推定式の係数データを生成するものである。
【0026】
第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号がさらに復号化されて第1の画像信号に対応する生徒信号が得られる。この生徒信号および教師信号に基づいて、教師信号における注目位置に対して時間方向および空間方向の周辺に位置する複数の画素データが選択される。そして、この複数の画素データおよび教師信号における注目位置の画素データを用いて、係数データが求められる。
【0027】
上述したようにして第1の画像信号を第2の画像信号に変換する際に使用される推定式の係数データが生成されるが、第1の画像信号から第2の画像信号に変換する際には、その係数データが使用されて、推定式により、第2の画像信号における注目位置の画素データが算出される。これにより、推定式を使用して第1の画像信号から第2の画像信号に変換する場合に、符号化されたデジタル画像信号を復号化して得られた画像信号の符号化雑音を良好に軽減できるようになる。
【0028】
【発明の実施の形態】
以下、図面を参照しながら、この発明の実施の形態について説明する。図1は、実施の形態としてのデジタル放送受信機100の構成を示している。
【0029】
このデジタル放送受信機100は、マイクロコンピュータを備え、システム全体の動作を制御するためのシステムコントローラ101と、リモートコントロール信号RMを受信するリモコン信号受信回路102とを有している。リモコン信号受信回路102は、システムコントローラ101に接続され、リモコン送信機200よりユーザの操作に応じて出力されるリモートコントロール信号RMを受信し、その信号RMに対応する操作信号をシステムコントローラ101に供給するように構成されている。
【0030】
また、デジタル放送受信機100は、受信アンテナ105と、この受信アンテナ105で捕らえられた放送信号(RF変調信号)が供給され、選局処理、復調処理および誤り訂正処理等を行って、所定番組に係る符号化された画像信号としてのMPEG2ストリームを得るチューナ部106とを有している。
【0031】
また、デジタル放送受信機100は、このチューナ部106より出力されるMPEG2ストリームを復号化して画像信号Vaを得るMPEG2復号化器107と、このMPEG2復号化器107より出力される画像信号Vaを一時的に格納するバッファメモリ108とを有している。
【0032】
なお、本実施の形態において、MPEG2復号化器107からは、画像信号Vaを構成する各画素データの他に、ピクチャ情報PI,動き補償用ベクトル情報MIも出力される。バッファメモリ108には、各画素データと対にして情報PI,MIも格納される。
【0033】
ピクチャ情報PIは、出力される画素データがIピクチャ(Intra-Picture)、Pピクチャ(Predictive-Picture)、Bピクチャ(Bidirectionally predictive-Picture)のいずれのピクチャに係るものであったかを示す情報である。動き補償用ベクトル情報MIは、出力される画素データがPピクチャ、Bピクチャに係るものである場合、その画素データを復号する際の参照画像信号がどのように動き補償されたかを示す情報である。
【0034】
図2は、MPEG2復号化器107の構成を示している。
この復号化器107は、MPEG2ストリームが入力される入力端子71と、この入力端子71に入力されたMPEG2ストリームを一時的に格納するストリームバッファ72とを有している。
【0035】
また、この復号化器107は、ストリームバッファ72に格納されているMPEG2ストリームより周波数係数としてのDCT(Discrete Cosine Transform:離散コサイン変換)係数を抽出する抽出回路73と、この抽出回路73で抽出された可変長符号化、例えばハフマン符号化されているDCT係数に対して可変長復号化を行う可変長復号化回路74とを有している。
【0036】
また、この復号化器107は、ストリームバッファ72に格納されているMPEG2ストリームより量子化特性指定情報QIを抽出する抽出回路75と、この量子化特性指定情報QIに基づいて、可変長復号化回路74より出力される量子化DCT係数に対して逆量子化を行う逆量子化回路76と、この逆量子化回路76より出力されるDCT係数に対して逆DCTを行う逆DCT回路77とを有している。
【0037】
また、復号化器107は、IピクチャおよびPピクチャの画像信号をメモリ(図示せず)に記憶すると共に、これらの画像信号を用いて逆DCT回路77からPピクチャまたはBピクチャの差分画像信号が出力されるとき、対応する参照画像信号Vrefを生成して出力する予測メモリ回路78を有している。
【0038】
また、復号化器107は、逆DCT回路77からPピクチャまたはBピクチャの差分画像信号が出力されるとき、その差分画像信号に予測メモリ回路78で生成された参照画像信号Vrefを加算する加算回路79と、加算回路79より出力される各ピクチャの画像信号Vaを出力する出力端子81とを有している。
【0039】
なお、逆DCT回路77からIピクチャの画像信号が出力されるとき、予測メモリ回路78から加算回路79に参照画像信号Vrefは供給されず、従って加算回路79からは逆DCT回路77より出力されるIピクチャの画像信号がそのまま出力される。
【0040】
ここで、MPEG方式の符号化では、従来周知のように、実際のフレーム/フィールドの順番とは異なる順番で符号化が行われている。すなわち、Iピクチャ、Pピクチャの画像信号が先に符号化され、それらの間に挟まれたBピクチャの画像信号はその後に符号化される。出力端子81には、その符号化の順番で各ピクチャの画像信号Vaが出力される。
【0041】
また、復号化器107は、ストリームバッファ72に格納されているMPEG2ストリームより符号化制御情報、すなわちピクチャ情報PI、動き補償用ベクトル情報MIを抽出する抽出回路82と、これらの情報PI,MIを出力する出力端子83とを有している。
【0042】
抽出回路82で抽出される動き補償用ベクトル情報MIは予測メモリ回路78に供給され、この予測メモリ回路78ではこの動き補償用ベクトル情報MIを用いて参照画像信号Vrefを生成する際に動き補償が行われる。抽出回路82で抽出されるピクチャ情報PIも予測メモリ回路78に供給される。予測メモリ回路78ではこのピクチャ情報PIに基づいてピクチャの識別が行われる。
【0043】
図2に示すMPEG2復号化器107の動作を説明する。
ストリームバッファ72に記憶されているMPEG2ストリームが抽出回路73に供給されて周波数係数としてのDCT係数が抽出される。このDCT係数は可変長符号化されており、このDCT係数は可変長復号化回路74に供給されて復号化される。そして、この可変長復号化回路74より出力される各DCTブロックの量子化DCT係数が逆量子化回路76に供給されて逆量子化が施される。
【0044】
逆量子化回路76より出力される各DCTブロックのDCT係数に対して逆DCT回路77で逆DCTが施されて各ピクチャの画像信号が得られる。この各ピクチャの画像信号は加算回路79を介して出力端子81に出力される。この場合、逆DCT回路77からPピクチャまたはBピクチャの差分画像信号が出力されるとき、加算回路79で予測メモリ回路78より出力される参照画像信号Vrefが加算される。
【0045】
なお、出力端子81より出力される画像信号Vaを構成する各画素データと対となって、出力端子83に動き補償用ベクトル情報MIおよびピクチャ情報PIが出力される。
【0046】
図1に戻って、また、デジタル放送受信機100は、バッファメモリ108に記憶されている画像信号Vaを、ブロック雑音(ブロック歪み)やモスキート雑音などの符号化雑音(符号化歪み)が低減された画像信号Vbに変換する画像信号処理部110と、この画像信号処理部110より出力される画像信号Vbによる画像を表示するディスプレイ部111とを有している。ディスプレイ部111は、例えばCRT(Cathode-Ray Tube)ディスプレイ、あるいはLCD(Liquid Crystal Display)等の表示器で構成されている。
【0047】
図1に示すデジタル放送受信機100の動作を説明する。
【0048】
チューナ部106より出力されるMPEG2ストリームはMPEG2復号化器107に供給されて復号化される。そして、この復号化器107より出力される画像信号Vaは、バッファメモリ108に供給されて一時的に格納される。この場合、復号器107からは、画像信号Vaの各画素データと対となって、動き補償用ベクトル情報MIおよびピクチャ情報PIも出力される。これらの情報MI,PIもバッファメモリ108に一時的に格納される。
【0049】
このようにバッファメモリ108に記憶されている画像信号Vaは画像信号処理部110に供給され、符号化雑音(符号化歪み)が低減された画像信号Vbに変換される。この画像信号処理部110では、画像信号Vaを構成する画素データから、画像信号Vbを構成する画素データが得られる。この画像信号処理部110では、バッファメモリ108に格納されている動き補償用ベクトル情報MIおよびピクチャ情報PIが用いられて変換処理が行われる。
【0050】
画像信号処理部110より出力される画像信号Vbはディスプレイ部111に供給され、このディスプレイ部111の画面上にはその画像信号Vbによる画像が表示される。
【0051】
次に、画像信号処理部110の詳細を説明する。
画像信号処理部110は、バッファメモリ108に記憶されている画像信号VaのうちIピクチャの画像信号に対して変換処理を行う第1の処理部121と、バッファメモリ108に記憶されている画像信号VaのうちPピクチャおよびBピクチャに対して変換処理を行う第2の処理部122と、第1の処理部121で得られたIピクチャの画像信号Vb(I)および第2の処理部122で得られたPピクチャの画像信号Vb(P)を一時的に格納するバッファメモリ123とを有している。これら第1の処理部121および第2の処理部122の詳細を説明する図3は、第1の処理部121の構成を示している。この第1の処理部121は、予測タップ選択回路131およびクラスタップ選択回路132を有している。予測タップ選択回路131は、バッファメモリ108に格納されているIピクチャの画像信号Va(I)に基づいて、予測に使用する予測タップの複数の画素データを選択的に取り出すものである。クラスタップ選択回路132は、バッファメモリ108に格納されているIピクチャの画像信号Va(I)に基づいて、クラス分類に使用するクラスタップの複数の画素データを選択的に取り出すものである。
【0052】
予測タップおよびクラスタップの画素データは、それぞれIピクチャの画像信号Vb(I)における注目位置に対して空間方向(水平方向、垂直方向)の周辺に位置する画素データである。
【0053】
また、第1の処理部121は、クラスタップ選択回路132で選択的に取り出されるクラスタップの画素データから空間クラスを示すクラスコードCL1を生成するクラス生成回路133を有している。このクラス生成回路133は、クラスタップの画素データに1ビットのADRC(Adaptive Dynamic Range Coding)等の処理を施すことによって、空間クラスを示すクラスコードCL1を生成する。
【0054】
ADRCは、クラスタップの複数の画素データの最大値および最小値を求め、最大値と最小値の差であるダイナミックレンジを求め、ダイナミックレンジに適応して各画素値を再量子化するものである。1ビットのADRCの場合、クラスタップの複数の画素値の平均値より大きいか、小さいかでその画素値が1ビットに変換される。ADRC処理は、画素値のレベル分布を表すクラスの数を比較的小さなものにするための処理である。したがって、ADRCに限らず、VQ(ベクトル量子化)等の画素値のビット数を圧縮する符号化を使用するようにしてもよい。
【0055】
また、第1の処理部121は、係数メモリ134を有している。この係数メモリ134は、後述する推定予測演算回路135で使用される推定式で用いられる係数データWi(i=1〜n、nは予測タップの個数)を、クラス毎に、格納するものである。
【0056】
この係数データWiは、画像信号Va(I)を画像信号Vb(I)に変換するための情報である。この係数メモリ134に格納される係数データWiは、予め画像信号Va(I)に対応した生徒信号と画像信号Vb(I)に対応した教師信号との間の学習によって生成される。この係数メモリ134には上述したクラス生成回路133で生成されるクラスコードCL1が読み出しアドレス情報として供給される。この係数メモリ134からはクラスコードCL1に対応した推定式の係数データWiが読み出されて、推定予測演算回路135に供給される。係数データWiの生成方法については後述する。
【0057】
また、第1の処理部121は、予測タップ選択回路131で選択的に取り出される予測タップの画素データxiと、係数メモリ134より読み出される係数データWiとから、(1)式の推定式によって、作成すべき画像信号Vb(I)における注目位置の画素データyを演算する推定予測演算回路135を有している。
【0058】
【数1】

Figure 0004158479
【0059】
この第1の処理部121の動作を説明する。
バッファメモリ108に記憶されているIピクチャの画像信号Va(I)に基づいて、クラスタップ選択回路132で、作成すべきIピクチャの画像信号Vb(I)における注目位置に対して空間方向の周辺に位置するクラスタップの画素データが選択的に取り出される。このクラスタップの画素データはクラス生成回路133に供給される。このクラス生成回路133では、クラスタップの画素データに1ビットのADRC等の処理が施されて、空間クラスを示すクラスコードCL1が生成される。
【0060】
このクラスコードCL1は、画像信号Vb(I)における注目位置の画素データが属するクラスの検出結果を表している。このクラスコードCL1は、係数メモリ134に読み出しアドレス情報として供給される。この係数メモリ134からクラスコードCL1に対応した係数データWiが読み出されて、推定予測演算回路135に供給される。
【0061】
また、バッファメモリ108に記憶されているIピクチャの画像信号Va(I)に基づいて、予測タップ選択回路131で、作成すべきIピクチャの画像信号Vb(I)における注目位置に対して空間方向の周辺に位置する予測タップの画素データが選択的に取り出される。
【0062】
推定予測演算回路135では、予測タップの画素データxiと、係数メモリ134より読み出される係数データWiとを用いて、上述の(1)式に示す推定式に基づいて、作成すべきIピクチャの画像信号Vb(I)における注目位置の画素データyが求められる。
【0063】
このように第1の処理部121では、Iピクチャの画像信号Va(I)から係数データWiを用いてIピクチャの画像信号Vb(I)が得られる。この場合、画像信号Va(I)に基づいて選択された、画像信号Vb(I)における注目位置の周辺に位置する複数の画素データ(予測タップの画素データ)、およびこの画像信号Vb(I)における注目位置の画素データが属するクラスCL1に対応した係数データWiを用いて、推定式に基づいて画像信号Vb(I)における注目位置の画素データyを生成するものである。
【0064】
したがって、係数データWiとして、画像信号Va(I)に対応しこの画像信号Va(I)と同様の符号化雑音を含む生徒信号と画像信号Vb(I)に対応した符号化雑音を含まない教師信号とを用いた学習によって得られた係数データWiを用いることで、画像信号Vb(I)として画像信号Va(I)に比べて符号化雑音が軽減されたものを得ることができる。
【0065】
図4は、第2の処理部122の構成を示している。この第2の処理部122は、予測に使用する予測タップの複数の画素データを選択的に取り出す予測タップ選択回路141と、クラス分類に使用するクラスタップの複数の画素データを選択的に取り出すクラスタップ選択回路142とを有している。
【0066】
タップ選択回路141,142には、システムコントローラ101から、PピクチャまたはBピクチャの画像信号Vb(P)/Vb(B)における注目位置に対応した画像信号Va(P)/Va(B)の画素データと対となっている動き補償用ベクトル情報MIおよびピクチャ情報PIが、動作制御情報として供給される。予測タップおよびクラスタップの画素データは、それぞれ、画像信号Vb(P)/Vb(B)における注目位置に対して空間方向(水平方向、垂直方向)および時間方向(フレーム方向)の周辺に位置する画素データである。
【0067】
タップ選択回路141,142は、それぞれ、バッファメモリ108に格納されているPピクチャまたはBピクチャの画像信号Va(P)/Va(B)、およびバッファメモリ123に格納されている、そのピクチャの画像信号Va(P)/Va(B)を得る際に使用されたIピクチャ、Pピクチャの画像信号Va(I),Va(P)に対応した、既に符号化雑音が軽減されたIピクチャ、Pピクチャの画像信号Vb(I),Vb(P)に基づいて、複数の画素データを選択的に取り出す。
【0068】
ここで、タップ選択回路141,142は、動き補償用ベクトル情報MIに基づき、画像信号Vb(I),Vb(P)に対して、画像信号Va(P)/Va(B)を基準とした動き補償を行う。
【0069】
図5は、動き補償の一例を示している。この例は、Pピクチャの画像信号Vb(P)における注目位置に対して空間方向および時間方向の周辺に位置する画素データを取り出す場合であって、Pピクチャの画像信号Va(P)およびIピクチャの画像信号Vb(I)が、画素データの選択対象である場合を示している。
【0070】
この場合、画像信号Vb(I)に対して、画像信号Va(P)を基準とした動き補償が行われる。ここで、図5に示すように、ベクトル情報MIが(−2,+1)であったとき、タップ選択回路は、画像信号Va(P)からx1〜x13の画素データを選択的に取り出し、画像信号Vb(I)から(−2,+1)だけずれた位置にあるx1〜x13の画素データを選択的に取り出す。
【0071】
このように、予測タップ選択回路141において、動き補償を行って予測タップの画素データを選択的に取り出すようにしたことで、予測タップの画素データは相関が高いものとなる。そのため、この予測タップの画素データを用いて後述するように生成される画像信号Va(P)/Va(B)における注目位置の画素データの品質を高めることができる。
【0072】
また、クラスタップ選択回路142において、動き補償を行ってクラスタップの画素データを選択的に取り出すようにしたことで、上述したように予測タップ選択回路141で動き補償が行われて選択された予測タップの画素データに対応した時空間クラスを良好に検出できる。
【0073】
また、第2の処理部122は、クラスタップ選択回路142で選択的に取り出されるクラスタップの画素データから時空間クラスを示すクラスコードCL2を生成するクラス生成回路143を有している。このクラス生成回路143は、上記した第1の処理部121のクラス生成回路133と同様に、クラスタップの画素データに1ビットのADRC等の処理を施すことによって、空間クラスを示すクラスコードCL2を生成する。
【0074】
また、第1の処理部122は、係数メモリ144を有している。この係数メモリ144は、後述する推定予測演算回路145で使用される推定式で用いられる係数データWi(i=1〜n、nは予測タップの個数)を、クラス毎に、格納するものである。
【0075】
この係数メモリ144には、Pピクチャの画像信号Va(P)をPピクチャの画像信号Vb(P)に変換するためのPピクチャ用の係数データWiと、Bピクチャの画像信号Va(B)をBピクチャの画像信号Vb(B)に変換するためのBピクチャ用の係数データWiとが別個のアドレスに格納されている。この係数メモリ144には、システムコントローラ101からピクチャ情報PIが読み出し制御情報として供給される。
【0076】
この係数メモリ144に格納される係数データWiは、予め画像信号Va(P)/Va(B)に対応した生徒信号と画像信号Vb(P)/Vb(B)に対応した教師信号との間の学習によって生成される。この係数メモリ144には上述したクラス生成回路143で生成されるクラスコードCL2が読み出しアドレス情報として供給される。この係数メモリ144からはクラスコードCL2に対応した推定式の係数データWiが読み出されて、推定予測演算回路145に供給される。係数データWiの生成方法については後述する。
【0077】
また、第2の処理部122は、予測タップ選択回路141で選択的に取り出される予測タップの画素データxiと、係数メモリ144より読み出される係数データWiとから、上述の(1)式の推定式によって、作成すべき画像信号Vb(P)/Vb(B)における注目位置の画素データyを演算する推定予測演算回路145を有している。
【0078】
この第2の処理部122の動作を説明する。
バッファメモリ108に格納されているPピクチャまたはBピクチャの画像信号Va(P)/Va(B)、およびバッファメモリ123に格納されているその画像信号Va(P)/Va(B)を得る際に使用されたIピクチャ、Pピクチャの画像信号Va(I),Va(P)に対応した、Iピクチャ、Pピクチャの画像信号Vb(I),Vb(P)に基づいて、クラスタップ選択回路142で、作成すべきPピクチャまたはBピクチャの画像信号Vb(P)/Vb(B)における注目位置に対して空間方向および時間方向の周辺に位置するクラスタップの画素データが選択的に取り出される。この場合、動き補償用ベクトル情報MIに基づき、画像信号Vb(I),Vb(P)に対して、画像信号Va(P)/Va(B)を基準とした動き補償が行われる。
【0079】
クラスタップ選択回路142で取り出されるクラスタップの画素データはクラス生成回路143に供給される。このクラス生成回路143では、クラスタップの画素データに1ビットのADRC等の処理が施されて、時空間クラスを示すクラスコードCL2が生成される。このクラスコードCL2は、画像信号Vb(P)/Vb(I)における注目位置の画素データが属するクラスの検出結果を表している。このクラスコードCL2は、係数メモリ144に読み出しアドレス情報として供給される。
【0080】
この係数メモリ144からクラスコードCL2に対応した係数データWiが読み出されて、推定予測演算回路145に供給される。この場合、ピクチャ情報PIに基づいて、Pピクチャの画像信号Vb(P)を作成する場合にはPピクチャ用の係数データWiが読み出され、Bピクチャの画像信号Vb(B)を作成する場合にはBピクチャ用の係数データWiが読み出される。
【0081】
また、バッファメモリ108に格納されているPピクチャまたはBピクチャの画像信号Va(P)/Va(B)、およびバッファメモリ123に格納されているその画像信号Va(P)/Va(B)を得る際に使用されたIピクチャ、Pピクチャの画像信号Va(I),Va(P)に対応した、Iピクチャ、Pピクチャの画像信号Vb(I),Vb(P)に基づいて、予測タップ選択回路141で、作成すべきPピクチャまたはBピクチャの画像信号Vb(P)/Vb(B)における注目位置に対して空間方向および時間方向の周辺に位置する予測タップの画素データが選択的に取り出される。この場合、動き補償用ベクトル情報MIに基づき、画像信号Vb(I),Vb(P)に対して、画像信号Va(P)/Va(B)を基準とした動き補償が行われる。
【0082】
推定予測演算回路145では、予測タップの画素データxiと、係数メモリ144より読み出される係数データWiとを用いて、上述の(1)式に示す推定式に基づいて、作成すべきPピクチャまたはBピクチャの画像信号Vb(P)/Vb(I)における注目位置の画素データyが求められる。
【0083】
このように第2の処理部122では、PピクチャまたはBピクチャの画像信号Va(P)/Va(B)から、係数データWiを用いて、PピクチャまたはBピクチャの画像信号Vb(P)/Vb(B)が得られる。この場合、画像信号Va(P)/Va(B)およびVb(I)、Vb(P)に基づいて選択された、画像信号Vb(P)/Vb(B)における注目位置の周辺に位置する複数の画素データ(予測タップの画素データ)、およびこの画像信号Vb(P)/Vb(B)における注目位置の画素データが属するクラスCL2に対応した係数データWiを用いて、推定式に基づいて画像信号Vb(P)/Vb(B)における注目位置の画素データyを生成するものである。
【0084】
したがって、係数データWiとして、画像信号Va(P)/Va(B)に対応しこの画像信号Va(P)/Va(B)と同様の符号化雑音を含む生徒信号と画像信号Vb(P)/Vb(B)に対応した符号化雑音を含まない教師信号とを用いた学習によって得られた係数データWiを用いることで、画像信号Vb(P)/Vb(B)として画像信号Va(P)/Va(B)に比べて符号化雑音が軽減されたものを得ることができる。
【0085】
また、予測タップの画素データは、画像信号Va(P)/Va(B)から選択される他に、符号化雑音が軽減された画像信号Vb(I)、Vb(P)からも選択されるものであり、画像信号Vb(P)/Vb(B)の品質の向上を図ることができ、それらに含まれる符号化雑音を良好に軽減できる。
【0086】
図1に戻って、また、画像信号処理部110は、第1の処理部121より出力されるIピクチャの画像信号Vb(I)および第2の処理部122より出力されるPピクチャ、Bピクチャの画像信号Vb(P),Vb(B)を、実際のフレーム/フィールドの順番に並べ換え、画像信号Vbとして出力する並べ換え部124を有している。並べ換え部124は、バッファメモリ125を利用して並べ換え処理を行う。
【0087】
画像信号処理部110の動作を説明する。
バッファメモリ108に格納されている画像信号VaのうちIピクチャの画像信号Va(I)は第1の処理部121に供給される。第1の処理部121は、このIピクチャの画像信号Va(I)から、係数データWiを用いて、符号化雑音を軽減したIピクチャの画像信号Vb(I)を生成する。
【0088】
この場合、画像信号Va(I)に基づいて選択された、画像信号Vb(I)における注目位置の周辺に位置する複数の画素データ(予測タップの画素データ)、およびこの画像信号Vb(I)における注目位置の画素データが属するクラスCL1に対応した係数データWiを用いて、推定式に基づいて画像信号Vb(I)における注目位置の画素データyを生成する。
【0089】
第1の処理部121で生成されたIピクチャの画像信号Vb(I)は、並べ換え部124に供給されると共に、バッファメモリ123に供給されて一時的に格納される。このようにバッファメモリ123に格納されたIピクチャの画像信号Vb(I)は、第2の処理部122で、Pピクチャの画像信号Vb(P)を生成する際に用いられる。
【0090】
また、バッファメモリ108に格納されている画像信号VaのうちPピクチャまたはBピクチャの画像信号Va(P)/Va(I)は第2の処理部122に供給される。第2の処理部122は、この画像信号Va(P)/Va(B)およびバッファメモリ123に格納されているIピクチャ、Pピクチャの画像信号Vb(I),Vb(P)から、係数データWiを用いて、符号化雑音を軽減したPピクチャまたはBピクチャの画像信号Vb(P)/Vb(B)を生成する。
【0091】
この場合、画像信号Va(P)/Va(B)およびVb(I)、Vb(P)に基づいて選択された、画像信号Vb(P)/Vb(B)における注目位置の周辺に位置する複数の画素データ(予測タップの画素データ)、およびこの画像信号Vb(P)/Vb(B)における注目位置の画素データが属するクラスCL2に対応した係数データWiを用いて、推定式に基づいて画像信号Vb(P)/Vb(B)における注目位置の画素データyを生成する。
【0092】
第2の処理部122で生成されたPピクチャ、Bピクチャの画像信号Vb(P),Vb(B)は、並べ換え部124に供給される。また、第2の処理部122で生成されたPピクチャの画像信号Vb(P)は、バッファメモリ123に供給されて一時的に格納される。このようにバッファメモリ123に格納されたPピクチャの画像信号Vb(I)は、第2の処理部122で、Bピクチャの画像信号Vb(B)を生成する際に用いられる。
【0093】
並べ換え部124は、第1の処理部121より出力されるIピクチャの画像信号Vb(I)および第2の処理部122より出力されるPピクチャ、Bピクチャの画像信号Vb(P),Vb(B)を、符号化の順番から実際のフレーム/フィールドの順番に並べ換え、画像信号Vbとして順次出力する。
【0094】
このように画像信号処理部110では、画像信号Vaから係数データWiを用いて画像信号Vbが得られる。したがって、係数データWiとして、画像信号Vaに対応しこの画像信号Vaと同様の符号化雑音を含む生徒信号と画像信号Vbに対応した符号化雑音を含まない教師信号とを用いた学習によって得られた係数データWiを用いることで、画像信号Vbとして画像信号Vaに比べて符号化雑音が軽減されたものを得ることができる。
【0095】
また、Pピクチャ、Bピクチャの画像信号Vb(P),Vb(B)を得る際に、第2の処理部122では、予測タップの画素データを画像信号Va(P)/Va(B)から選択する他に、符号化雑音が軽減された画像信号Vb(I)、Vb(P)からも選択するものである。したがって、Pピクチャ、Bピクチャの画像信号Vb(P),Vb(B)の品質の向上を図ることができ、それらに含まれる符号化雑音を良好に軽減できる。
【0096】
また、第2の処理部122では、画像信号Vb(I)、Vb(P)に対して画像信号Va(P)/Va(B)を基準とした動き補償を行って予測タップの画素データを選択的に取り出すものである。したがって、画像信号Va(P)/Va(B)における注目位置の画素データを生成するための予測タップの画素データは相関が高いものとなり、画像信号Vb(P)/Vb(B)の品質を高めることができる。
【0097】
次に、第1の処理部121(図3参照)の係数メモリ134、第2の処理部122(図4参照)の係数メモリ144に記憶される係数データWiの生成方法について説明する。この係数データWiは、予め学習によって生成されたものである。
【0098】
まず、この学習方法について説明する。上述の、(1)式において、学習前は係数データW1,W2,‥‥,Wnは未定係数である。学習は、クラス毎に、複数の信号データに対して行う。学習データ数がmの場合、(1)式に従って、以下に示す(2)式が設定される。nは予測タップの数を示している。
k=W1×xk1+W2×xk2+‥‥+Wn×xkn ・・・(2)
(k=1,2,‥‥,m)
【0099】
m>nの場合、係数データW1,W2,‥‥,Wnは、一意に決まらないので、誤差ベクトルeの要素ekを、以下の式(3)で定義して、(4)式のe2を最小にする係数データを求める。いわゆる最小2乗法によって係数データを一意に定める。
k=yk−{W1×xk1+W2×xk2+‥‥+Wn×xkn} ・・・(3)
(k=1,2,‥‥m)
【0100】
【数2】
Figure 0004158479
【0101】
(4)式のe2を最小とする係数データを求めるための実際的な計算方法としては、まず、(5)式に示すように、e2を係数データWi(i=1,2,・・・,n)で偏微分し、iの各値について偏微分値が0となるように係数データWiを求めればよい。
【0102】
【数3】
Figure 0004158479
【0103】
(5)式から係数データWiを求める具体的な手順について説明する。(6)式、(7)式のようにXji,Yiを定義すると、(5)式は、(8)式の行列式の形に書くことができる。
【0104】
【数4】
Figure 0004158479
【0105】
【数5】
Figure 0004158479
【0106】
(8)式は、一般に正規方程式と呼ばれるものである。この正規方程式を掃き出し法(Gauss-Jordanの消去法)等の一般解法で解くことにより、係数データWi(i=1,2,・・・,n)を求めることができる。
【0107】
図6は、第1の処理部121の係数メモリ134に格納すべき係数データWiを生成する係数データ生成装置150の構成を示している。
【0108】
この係数データ生成装置150は、画像信号Vbに対応した教師信号STが入力される入力端子151と、この教師信号STに対して符号化を行ってMPEG2ストリームを得るMPEG2符号化器152と、このMPEG2ストリームに対して復号化を行って画像信号Vaに対応した生徒信号SSを得るMPEG2復号化器153とを有している。ここで、MPEG2復号化器153は、図1に示すデジタル放送受信機100におけるMPEG2復号化器107およびバッファメモリ108に対応したものである。
【0109】
また、係数データ生成装置150は、復号化器153より出力されるIピクチャの生徒信号SS(I)に基づいて、予測に使用する予測タップの複数の画素データを選択的に取り出す予測タップ選択回路154と、同様に、復号化器153より出力されるIピクチャの生徒信号SS(I)に基づいて、クラス分類に使用するクラスタップの複数の画素データを選択的に取り出すクラスタップ選択回路154とを有している。これらのタップ選択回路154,155は、第1の処理部121のタップ選択回路131,132と同様に構成される。予測タップおよびクラスタップの画素データは、それぞれ、Iピクチャの教師信号ST(I)における注目位置に対して空間方向(水平方向、垂直方向)の周辺に位置する画素データである。
【0110】
また、係数データ生成装置150は、クラスタップ選択回路154で選択的に取り出されるクラスタップの画素データから空間クラスを示すクラスコードCL1を生成するクラス生成回路156を有している。このクラス生成回路156は、第1の処理部121のクラス生成回路133と同様に構成される。
【0111】
また、係数データ生成装置150は、入力端子151に供給される教師信号STの時間調整を行うための遅延回路157と、この遅延回路157で時間調整されたIピクチャの教師信号ST(I)より得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して予測タップ選択回路155で選択的に取り出される予測タップの画素データxiと、各注目位置の画素データyにそれぞれ対応してクラス生成回路156で生成されるクラスコードCL1とから、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式(上述の(8)式参照)を生成する正規方程式生成部158を有している。
【0112】
この場合、1個の画素データyとそれに対応するn個の予測タップの画素データxiとの組み合わせで1個の学習データが生成されるが、教師信号ST(I)と生徒信号SS(I)との間で、クラス毎に、多くの学習データが生成されていく。これにより、正規方程式生成部158では、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式が生成される。
【0113】
また、係数データ生成装置150は、正規方程式生成部158で生成された正規方程式のデータが供給され、その正規方程式を解いて、各クラスの係数データWiを求める係数データ決定部159と、この求められた各クラスの係数データWiを格納する係数メモリ160とを有している。
【0114】
次に、図6に示す係数データ生成装置150の動作を説明する。
入力端子151には画像信号Vbに対応した教師信号STが供給され、そしてMPEG2符号化器152で、この教師信号STに対して符号化が施されて、MPEG2ストリームが生成される。このMPEG2ストリームは、MPEG2復号化器153に供給される。MPEG2復号化器153で、このMPEG2ストリームに対して復号化が施されて、画像信号Vaに対応した生徒信号SSが生成される。
【0115】
復号化器153で生成されたIピクチャの生徒信号SS(I)に基づいて、クラスタップ選択回路155で、Iピクチャの教師信号ST(I)における注目位置に対して空間方向の周辺に位置するクラスタップの画素データが選択的に取り出される。このクラスタップの画素データはクラス生成回路156に供給される。このクラス生成回路156では、クラスタップの画素データに1ビットのADRC等の処理が施されて、空間クラスを示すクラスコードCL1が生成される。
【0116】
また、復号化器153で生成されたIピクチャの生徒信号SS(I)に基づいて、予測タップ選択回路154で、Iピクチャの教師信号ST(I)における注目位置に対して空間方向の周辺に位置する予測タップの画素データが選択的に取り出される。
【0117】
そして、遅延回路157で時間調整された教師信号ST(I)から得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して予測タップ選択回路154で選択的に取り出される予測タップの画素データxiと、各注目位置の画素データyにそれぞれ対応してクラス生成回路156で生成されるクラスコードCL1とを用いて、正規方程式生成部158では、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式((8)式参照)が生成される。この正規方程式は係数データ決定部159で解かれて各クラスの係数データWiが求められ、その係数データWiは係数メモリ160に格納される。
【0118】
このように、図6に示す係数データ生成装置150においては、第1の処理部121の係数メモリ134に格納される各クラスの係数データWiを生成することができる。
【0119】
生徒信号SSは、教師信号STに対して符号化を施してMPEG2ストリームを生成し、その後このMPEG2ストリームに対して復号化を施して得たものである。したがって、この生徒信号SSは、画像信号Vaと同様の符号化雑音を含んだものとなる。そのため、第1の処理部121において、画像信号Va(I)からこの係数データWiを用いて得られる画像信号Vb(I)は、画像信号Va(I)に比べて符号化雑音が軽減されたものとなる。
【0120】
図7は、第2の処理部122の係数メモリ144に格納すべき係数データWiを生成する係数データ生成装置170の構成を示している。
この係数データ生成装置170は、画像信号Vbに対応した教師信号STが入力される入力端子171と、この教師信号STを一時的に格納するバッファメモリ172とを有している。
【0121】
また、係数データ生成装置170は、バッファメモリ172に一時的に格納さた教師信号STに対して符号化を行ってMPEG2ストリームを得るMPEG2符号化器173と、このMPEG2ストリームに対して復号化を行って画像信号Vaに対応した生徒信号SSを得るMPEG2復号化器174とを有している。ここで、MPEG2復号化器174は、図1に示すデジタル放送受信機100におけるMPEG2復号化器107およびバッファメモリ108に対応したものである。
【0122】
また、係数データ生成装置170は、予測に使用する予測タップの複数の画素データを選択的に取り出す予測タップ選択回路175と、クラス分類に使用するクラスタップの複数の画素データを選択的に取り出すクラスタップ選択回路176とを有している。これらのタップ選択回路175,176は、第2の処理部122のタップ選択回路141,142と同様に構成される。
【0123】
タップ選択回路175,176には、復号化器174から、PピクチャまたはBピクチャの教師信号ST(P)/ST(B)における注目位置に対応した生徒信号SS(P)/SS(I)の画素データと対となっている動き補償用ベクトル情報MIおよびピクチャ情報PIが、動作制御情報として供給される。予測タップおよびクラスタップの画素データは、それぞれ、PピクチャまたはBピクチャの教師信号ST(P)/ST(B)における注目位置に対して空間方向(水平方向、垂直方向)および時間方向(フレーム方向)の周辺に位置する画素データである。
【0124】
タップ選択回路175,176は、それぞれ、復号化器174で得られるPピクチャまたはBピクチャの生徒信号SS(P)/SS(B)、およびバッファメモリ172に格納されている、そのピクチャの生徒信号SS(P)/SS(B)を得る際に使用されたIピクチャ、Pピクチャの生徒信号SS(I),SS(P)に対応した、Iピクチャ、Pピクチャの教師信号ST(I),ST(P)に基づいて、複数の画素データを選択的に取り出す。
【0125】
ここで、タップ選択回路175,176は、動き補償用ベクトル情報MIに基づき、教師信号ST(I),ST(P)に対して、生徒信号SS(P)/SS(B)を基準とした動き補償を行う。
【0126】
また、係数データ生成装置170は、クラスタップ選択回路176で選択的に取り出されるクラスタップの画素データから時空間クラスを示すクラスコードCL2を生成するクラス生成回路177を有している。このクラス生成回路177は、第2の処理部122のクラス生成回路143と同様に構成される。
【0127】
また、係数データ生成装置170は、バッファメモリ172より読み出される教師信号STの時間調整を行うための遅延回路178と、この遅延回路178で時間調整されたPピクチャまたはBピクチャの教師信号ST(P)/ST(B)より得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して予測タップ選択回路175で選択的に取り出される予測タップの画素データxiと、各注目位置の画素データyにそれぞれ対応してクラス生成回路177で生成されるクラスコードCL2とから、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式(上述の(8)式参照)を生成する正規方程式生成部179を有している。
【0128】
この場合、1個の画素データyとそれに対応するn個の予測タップの画素データxiとの組み合わせで1個の学習データが生成されるが、教師信号ST(P)/ST(B)と生徒信号SS(P)/SS(B)との間で、クラス毎に、多くの学習データが生成されていく。これにより、正規方程式生成部179では、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式が生成される。
【0129】
また、係数データ生成装置170は、正規方程式生成部179で生成された正規方程式のデータが供給され、その正規方程式を解いて、各クラスの係数データWiを求める係数データ決定部180と、この求められた各クラスの係数データWiを格納する係数メモリ181とを有している。
【0130】
次に、図7に示す係数データ生成装置170の動作を説明する。
入力端子171には画像信号Vbに対応した教師信号STが供給され、この教師信号STはバッファメモリ172に一時的に格納される。そして、このようにバッファメモリ172に一時的に格納された教師信号STに対して、MPEG2符号化器173で符号化が施されて、MPEG2ストリームが生成される。このMPEG2ストリームは、MPEG2復号化器174に供給される。MPEG2復号化器174で、このMPEG2ストリームに対して復号化が施されて、画像信号Vaに対応した生徒信号SSが生成される。
【0131】
教師信号ST(P)/ST(B)の注目位置に対応した生徒信号SS(P)/SS(B)の画素データと対となっている動き補償用ベクトル情報MIおよびピクチャ情報PIが、復号化器174から予測タップ選択回路175およびクラスタップ選択回路176に、動作制御情報として供給される。
【0132】
復号化器174で生成されたPピクチャまたはBピクチャの生徒信号SS(P)/SS(B)、およびバッファメモリ172に格納されている、そのピクチャの生徒信号SS(P)/SS(B)を得る際に使用されたIピクチャ、Pピクチャの生徒信号SS(I),SS(P)に対応した、Iピクチャ、Pピクチャの教師信号ST(I),ST(P)に基づいて、クラスタップ選択回路176で、PピクチャまたはBピクチャの教師信号ST(P)/ST(B)における注目位置に対して空間方向および時間方向の周辺に位置するクラスタップの画素データが選択的に取り出される。この場合、動き補償用ベクトル情報MIに基づき、教師信号ST(I),ST(P)に対して、生徒信号SS(P)/SS(B)を基準とした動き補償が行われる。
【0133】
クラスタップ選択回路176で選択的に取り出されたクラスタップの画素データはクラス生成回路177に供給される。このクラス生成回路177では、クラスタップの画素データに1ビットのADRC等の処理が施されて、時空間クラスを示すクラスコードCL2が生成される。
【0134】
また、復号化器174で生成されたPピクチャまたはBピクチャの生徒信号SS(P)/SS(B)、およびバッファメモリ172に格納されている、そのピクチャの生徒信号SS(P)/SS(B)を得る際に使用されたIピクチャ、Pピクチャの生徒信号SS(I),SS(P)に対応した、Iピクチャ、Pピクチャの教師信号ST(I),ST(P)に基づいて、予測タップ選択回路175で、PピクチャまたはBピクチャの教師信号ST(P)/ST(B)における注目位置に対して空間方向および時間方向の周辺に位置する予測タップの画素データが選択的に取り出される。この場合、動き補償用ベクトル情報MIに基づき、教師信号ST(I),ST(P)に対して、生徒信号SS(P)/SS(B)を基準とした動き補償が行われる。
【0135】
そして、遅延回路178で時間調整された教師信号ST(P)/ST(B)から得られる各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して予測タップ選択回路175で選択的に取り出される予測タップの画素データxiと、各注目位置の画素データyにそれぞれ対応してクラス生成回路177で生成されるクラスコードCL2とを用いて、正規方程式生成部179では、クラス毎に、係数データWi(i=1〜n)を得るための正規方程式((8)式参照)が生成される。この正規方程式は係数データ決定部180で解かれて各クラスの係数データWiが求められ、その係数データWiは係数メモリ181に格納される。
【0136】
このように、図7に示す係数データ生成装置170においては、第2の処理部122の係数メモリ144に格納される各クラスの係数データWiを生成することができる。
【0137】
生徒信号SSは、教師信号STに対して符号化を施してMPEG2ストリームを生成し、その後このMPEG2ストリームに対して復号化を施して得たものである。したがって、この生徒信号SSは、画像信号Vaと同様の符号化雑音を含んだものとなる。そのため、第2の処理部122において、画像信号Va(P)/Va(B)等からこの係数データWiを用いて得られる画像信号Vb(P)/Vb(B)は、画像信号Va(P)/Va(B)に比べて符号化雑音が軽減されたものとなる。
【0138】
なお、図1の画像信号処理部110における処理を、例えば図8に示すような画像信号処理装置300によって、ソフトウェアで実現することも可能である。
【0139】
まず、図17に示す画像信号処理装置300について説明する。この画像信号処理装置300は、装置全体の動作を制御するCPU301と、このCPU301の制御プログラムや係数データ等が格納されたROM(Read Only Memory)302と、CPU301の作業領域を構成するRAM(Random Access Memory)303とを有している。これらCPU301、ROM302およびRAM303は、それぞれバス304に接続されている。
【0140】
また、画像信号処理装置300は、外部記憶装置としてのハードディスクドライブ(HDD)305と、フロッピー(登録商標)ディスク306をドライブするドライブ(FDD)307とを有している。これらドライブ305,307は、それぞれバス304に接続されている。
【0141】
また、画像信号処理装置300は、インターネット等の通信網400に有線または無線で接続する通信部308を有している。この通信部308は、インタフェース309を介してバス304に接続されている。
【0142】
また、画像信号処理装置300は、ユーザインタフェース部を備えている。このユーザインタフェース部は、リモコン送信機200からのリモコン信号RMを受信するリモコン信号受信回路310と、LCD(Liquid Crystal Display)等からなるディスプレイ311とを有している。受信回路310はインタフェース312を介してバス304に接続され、同様にディスプレイ311はインタフェース313を介してバス304に接続されている。
【0143】
また、画像信号処理装置300は、画像信号Vaを入力するための入力端子314と、画像信号Vbを出力するための出力端子315とを有している。入力端子314はインタフェース316を介してバス304に接続され、同様に出力端子315はインタフェース317を介してバス304に接続される。
【0144】
ここで、上述したようにROM302に制御プログラムや係数データ等を予め格納しておく代わりに、例えばインターネットなどの通信網400より通信部308を介してダウンロードし、ハードディスクやRAM303に蓄積して使用することもできる。また、これら制御プログラムや係数データ等をフロッピー(登録商標)ディスク306で提供するようにしてもよい。
【0145】
また、処理すべき画像信号Vaを入力端子314より入力する代わりに、予めハードディスクに記録しておき、あるいはインターネットなどの通信網400より通信部308を介してダウンロードしてもよい。また、処理後の画像信号Vbを出力端子315に出力する代わり、あるいはそれと並行してディスプレイ311に供給して画像表示をしたり、さらにはハードディスクに格納したり、通信部308を介してインターネットなどの通信網400に送出するようにしてもよい。
【0146】
図9のフローチャートを参照して、図8に示す画像信号処理装置300における、画像信号Vaより画像信号Vbを得るため処理手順を説明する。
まず、ステップST21で、処理を開始し、ステップS22で、例えば入力端子314より装置内に1GOP(Group Of Picture)分の画像信号Vaを入力する。この場合、画像信号Vaの画素データと対となっている動き補償用ベクトル情報MIおよびピクチャ情報PIも入力する。
【0147】
このように入力端子314より入力される画像信号Va等はRAM303に一時的に格納される。なお、この画像信号Va等が装置内のハードディスクドライブ305に予め記録されている場合には、このドライブ305からこの画像信号Va等を読み出し、この画像信号Va等をRAM303に一時的に格納する。
【0148】
そして、ステップST23で、画像信号Vaの全てのGOPの処理が終わっているか否かを判定する。処理が終わっているときは、ステップST24で、処理を終了する。一方、処理が終わっていないときは、ステップST25に進む。
【0149】
このステップST25では、ステップST22で入力されたIピクチャの画像信号Va(I)に基づいて、Iピクチャの画像信号Vb(I)における注目位置に対して空間方向の周辺に位置する複数の画素データ(クラスタップの画素データ)を選択的に取り出し、このクラスタップの画素データを用いてIピクチャの画像信号Vb(I)における注目位置の画素データが属するクラスを示すクラスコードCL1を生成する。
【0150】
次に、ステップST26で、ステップST22で入力されたIピクチャの画像信号Va(I)に基づいて、Iピクチャの画像信号Vb(I)における注目位置に対して空間方向の周辺に位置する複数の画素データ(予測タップの画素データ)を取得する。そして、ステップST27で、ステップST25で生成されたクラスコードCL1に対応した係数データWiとステップST26で取得された予測タップの画素データxiを使用して、(1)式の推定式に基づいて、Iピクチャの画像信号Vb(I)における注目位置の画素データyを生成する。このように生成される画像データからなるIピクチャの画像信号Vb(I)は、RAM303に一時的に格納される。
【0151】
そして、ステップST28で、Iピクチャの処理が終了したか否かを判定する。終了していないときは、ステップST25に戻って、次の注目位置についての処理に移る。一方処理が終了しているときは、ステップST29に進み、PピクチャおよびBピクチャの画像信号Vb(P),Vb(B)を得る処理に移る。
【0152】
これらの画像信号Vb(P),Vb(B)を得る処理は、上述したIピクチャの画像信号Vb(I)を得るステップST25〜ステップST28までの処理と同様に行われる。ただし、予測タップおよびクラスタップの画素データは、ステップST22で入力されたPピクチャ、Bピクチャの画像信号Va(P),Va(B)の他に、生成されたIピクチャ、Pピクチャの画像信号Vb(I)、Vb(P)からも選択的に取り出される。また、画像信号Va(P),Va(B)を基準として、画像信号Vb(I)、Vb(P)に対して、動き補償用ベクトル情報MIに基づいて動き補償が行われる。
【0153】
ステップST29で、所定のPピクチャまたはBピクチャの処理が終了したとき、ステップST30で、処理すべき次のピクチャがあるか否かを判定する。次のピクチャがあるときは、ステップST29に戻って、そのピクチャの画像信号を得る処理に移る。一方、処理すべき次のピクチャがないときは、ステップST31に進む。
【0154】
ステップST31では、生成された1GOP分の画像信号Vb(I),Vb(P),Vb(B)を、符号化の順番から、実際のフレーム/フィールドの順番に並べ換えて、出力端子315に出力する。そして、その後、ステップST22に戻って、次の1GOP分の画像信号Vaの入力処理に移る。
【0155】
このように、図9に示すフローチャートに沿って処理をすることで、入力された画像信号Vaの画素データを処理して、画像信号Vbの画素データを得ることができる。上述したように、このように処理して得られた画像信号Vbは出力端子315に出力されたり、ディスプレイ311に供給されてそれによる画像が表示されたり、さらにはハードディスクドライブ305に供給されてハードディスクに記録されたりする。
【0156】
また、処理装置の図示は省略するが、図6の係数データ生成装置150における処理も、ソフトウェアで実現可能である。
【0157】
図10のフローチャートを参照して、係数データを生成するための処理手順を説明する。
まず、ステップST31で、処理を開始し、ステップST32で、教師信号STを1GOP分だけ入力する。そして、ステップST33で、教師信号STの全てのGOPの処理が終了したか否かを判定する。終了していないときは、ステップST34で、ステップST32で入力された教師信号STから生徒信号SSを生成する。
【0158】
次に、ステップST35で、ステップST34で生成されたIピクチャの生徒信号SS(I)に基づいて、Iピクチャの教師信号ST(I)における注目位置に対して空間方向の周辺に位置する複数の画素データ(クラスタップの画素データ)を選択的に取り出し、このクラスタップの画素データを用いてIピクチャの教師信号ST(I)における注目位置の画素データが属するクラスを示すクラスコードCL1を生成する。
【0159】
次に、ステップST36で、ステップST34で生成されたIピクチャの生徒信号SS(I)に基づいて、Iピクチャの教師信号ST(I)における注目位置に対して空間方向の周辺に位置する複数の画素データ(予測タップの画素データ)を取得する。
【0160】
そして、ステップST37で、ステップST35で生成されたクラスコードCL1、ステップST36で取得された予測タップの画素データxiおよび教師信号ST(I)における注目位置の画素データyを用いて、クラス毎に、(8)式に示す正規方程式を得るための加算をする((6)式、(7)式参照)。
【0161】
次に、ステップST38で、ステップST32で入力されたIピクチャの教師信号ST(I)の画素データの全領域において学習処理が終了したか否かを判定する。学習処理を終了しているときは、ステップST32に戻って、次の1GOP分の教師信号STの入力を行って、上述したと同様の処理を繰り返す。一方、学習処理を終了していないときは、ステップST35に戻って、次の注目位置についての処理に移る。
【0162】
上述したステップST33で、処理が終了したときは、ステップST39で、上述のステップST37の加算処理によって生成された、各クラスの正規方程式を掃き出し法などで解いて、各クラスの係数データWiを算出する。そして、ステップST40で、各クラスの係数データWiをメモリに保存し、その後にステップST41で、処理を終了する。
【0163】
このように、図10に示すフローチャートに沿って処理をすることで、図6に示す係数データ生成装置150と同様の手法によって、Iピクチャに係る各クラスの係数データWiを得ることができる。
【0164】
なお、詳細説明は省略するが、図7の係数データ生成装置170における処理も、上述した図6の係数データ生成装置150における処理と同様に、ソフトウェアで実現可能である。
【0165】
その場合、Iピクチャの教師信号ST(I)、生徒信号SS(I)の代わりに、Pピクチャの教師信号ST(P)、生徒信号SS(P)またはBピクチャの教師信号ST(B)、生徒信号SS(B)が用いられる。また、クラスタップ、予測タップの画素データを得る際には、生徒信号SS(P)/SS(B)の他に、この生徒信号SS(P)/SS(B)を得る際に使用された生徒信号SS(I),SS(P)に対応した教師信号ST(I),ST(P)も用いられる。これにより、PピクチャまたはBピクチャに係る各クラスの係数データWiを得ることができる。
【0166】
なお、上述実施の形態においては、DCTを伴うMPEG2ストリームを取り扱うものを示したが、この発明は、その他の符号化されたデジタル画像信号を取り扱うものにも同様に適用することができる。また、DCTの代わりに、ウォーブレット変換、離散サイン変換などのその他の直交変換を伴う符号化であってもよい。符号化雑音軽減後の画像信号(第2の画像信号)をも用いて、第2の画像信号における注目位置の画素データを生成することで、第2の画像信号の品質の向上を図ることができ、符号化雑音を良好に軽減できる。
【0167】
また、上述の図1に示す画像信号処理部110の第2の処理部122では、MPEG2ストリームより抽出された動き補償用ベクトル情報MIを用いて動き補償を行うものを示したが、画像信号Vaから動きベクトル情報を検出し、その検出された動き補償ベクトル情報を用いて動き補償を行うようにしてもよい。
【0168】
【発明の効果】
この発明によれば、符号化されたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号を、複数の画素データからなる第2の画像信号に変換して符号化雑音を軽減する際、第1の画像信号の他に、符号化雑音が軽減された第2の画像信号に基づいて第2の画像信号における注目位置に対して時間方向および空間方向の周辺に位置する複数の第1の画素データを選択し、この複数の第1の画素データを用いて第2の画像信号における注目位置の画素データを生成するものであり、第2の画像信号の品質の向上を図ることができ、符号化雑音を良好に軽減できる。
【図面の簡単な説明】
【図1】実施の形態としてのデジタル放送受信機の構成を示すブロック図である。
【図2】MPEG2復号化器の構成を示すブロック図である。
【図3】第1の処理部の構成を示すブロック図である。
【図4】第2の処理部の構成を示すブロック図である。
【図5】動き補償を説明するための図である。
【図6】係数データ生成装置の構成を示すブロック図である。
【図7】係数データ生成装置の構成を示すブロック図である。
【図8】ソフトウェアで実現するための画像信号処理装置の構成例を示すブロック図である。
【図9】画像信号処理を示すフローチャートである。
【図10】係数データ生成処理を示すフローチャートである。
【符号の説明】
100・・・デジタル放送受信機、101・・・システムコントローラ、102・・・リモコン信号受信回路、105・・・受信アンテナ、106・・・チューナ部、107・・・MPEG2復号化器、108,123,125・・・バッファメモリ、110・・・画像信号処理部、111・・・ディスプレイ部、121・・・第1の処理部、122・・・第2の処理部、124・・・並べ換え部、131,141・・・予測タップ選択回路、132,142・・・クラスタップ選択回路、133,143・・・クラス生成回路、134,144・・・係数メモリ、135,145・・・推定予測演算回路、150,170・・・係数データ生成装置、300・・・画像信号処理装置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image signal processing device and processing method, a coefficient data generating device and generating method used therefor, and a program for executing each method.
[0002]
More specifically, the present invention converts a first image signal composed of a plurality of pixel data, which is generated by decoding an encoded digital image signal, into a second image signal composed of a plurality of pixel data. When the coding noise is reduced, the temporal direction and the spatial direction with respect to the target position in the second image signal based on the second image signal in which the coding information is reduced in addition to the first image signal. A plurality of first pixel data located in the vicinity of the second image signal is selected, and pixel data at the position of interest in the second image signal is generated using the plurality of first pixel data. The present invention relates to an image signal processing apparatus or the like that can improve quality and reduce coding noise satisfactorily.
[0003]
[Prior art]
As an image signal compression encoding method, there is an MPEG2 (Moving Picture Experts Group 2) encoding method using DCT (Discrete Cosine Transform). In this encoding method, motion compensation prediction encoding is performed for each block.
[0004]
DCT performs discrete cosine transform on pixels in a block, requantizes coefficient data obtained by the discrete cosine transform, and further variable-length-encodes the requantized coefficient data. For this variable length coding, entropy coding such as Huffman code is often used. The image signal is orthogonally transformed to be divided into a large number of frequency data from low frequency to high frequency.
[0005]
When re-quantization is performed on this divided frequency data, human visual characteristics are taken into consideration, and low frequency data with high importance is finely quantized, and high frequency data with low importance is roughly quantized. By providing the above, it has a feature that high quality is maintained and efficient compression is realized.
[0006]
In conventional decoding using DCT, quantized data for each frequency component is converted into a representative value of the code, and reproduction data is obtained by applying inverse DCT (IDCT: Inverce DCT) to these components. . When converting to this representative value, the quantization step width at the time of encoding is used.
[0007]
[Problems to be solved by the invention]
As described above, the MPEG encoding method using DCT has the advantage that high-quality compression can be realized while maintaining high image quality by performing encoding in consideration of human visual characteristics.
[0008]
However, since coding for performing DCT is processing in units of blocks, block noise, so-called block noise (block distortion), may occur as the compression rate increases. In addition, in a portion where there is a rapid luminance change such as an edge, a noise that is a result of coarse quantization of high-frequency components, so-called mosquito noise, is generated.
[0009]
Such encoding noise is generated not only by the MPEG2 encoding method but also by other encoding methods.
[0010]
An object of the present invention is to satisfactorily reduce coding noise of an image signal obtained by decoding an encoded digital image signal.
[0011]
[Means for Solving the Problems]
An image signal processing apparatus according to the present invention is as follows. The first image signal of the I picture among the first image signals composed of a plurality of pixel data generated by decoding the digital image signal encoded in the MPEG system is converted and encoded. A first processing unit that generates a second image signal of an I picture with reduced distortion caused by encoding, and a conversion process that is performed on a P picture and a B picture of the first image signal to accompany encoding A second processing unit that generates a second image signal of a P picture and a B picture with reduced distortion; a second image signal of an I picture obtained by the first processing unit; and the second processing unit And a memory for storing the second image signal of the P picture obtained in step (1), wherein the first processing unit draws attention from the first image signal of the I picture to the second image signal of the I picture. Around the position A first class detection unit that selects a plurality of pixel data to be generated, generates a class from the level distribution of the selected pixel data, and is obtained in advance for each class detected by the first class detection unit. Coefficient data that minimizes an error between a student signal including coding distortion corresponding to the first image signal of the picture and a teacher signal not including coding distortion corresponding to the second image signal of the I picture; A first prediction for selecting a plurality of pixel data located around a position of interest in the second image signal of the I picture from the first coefficient data generation unit to be generated and the first image signal of the I picture; The coefficient data generated by the tap selection unit, the first coefficient data generation unit, and the plurality of pixel data selected by the first prediction tap selection unit are calculated to obtain the second image signal of the I picture. Oh A first arithmetic unit that obtains pixel data at a target position, and the second processing unit includes a first image signal of the P picture or B picture and an I picture or P picture stored in the memory. A plurality of pieces of pixel data located around the position of interest in the second image signal of the P picture or the B picture are selected from the second image signal, and a class is generated from the level distribution of the selected pixel data. 2 class detection units, a student signal that is obtained in advance for each class detected by the second class detection unit and includes coding distortion corresponding to the first image signal of the P picture or B picture, and the above A second coefficient data generation unit that generates coefficient data that minimizes an error from a teacher signal that does not include coding distortion corresponding to the second image signal of the P picture or B picture, and the P picture or B A plurality of pixels located around the position of interest in the second image signal of the P picture or B picture from the first image signal of the picture and the second image signal of the I picture or P picture stored in the memory A second prediction tap selection unit for selecting data; coefficient data generated by the second coefficient data generation unit; and a plurality of pixel data selected by the second prediction tap selection unit to calculate the P A second calculation unit that obtains pixel data of a target position in a second image signal of a picture or B picture Is.
[0012]
An image signal processing method according to the present invention includes: The first image signal of the I picture among the first image signals composed of a plurality of pixel data generated by decoding the digital image signal encoded in the MPEG system is converted and encoded. A first step of generating a second image signal of an I picture in which distortion caused by encoding is reduced, and distortion caused by encoding by performing conversion processing on a P picture and a B picture of the first image signal The second step of generating the second image signal of the P picture and B picture with reduced I, the second image signal of the I picture obtained in the first step, and the second step obtained in the second step A second step of storing the second image signal of the P picture in a memory, wherein in the first step, the second image signal of the I picture is derived from the first image signal of the I picture. A fourth step of selecting a plurality of pixel data located around the attention position in FIG. 5 and generating a class from the level distribution of the selected pixel data, and a class obtained in advance for each class detected in the fourth step The error between the student signal including coding distortion corresponding to the first image signal of the I picture and the teacher signal not including coding distortion corresponding to the second image signal of the I picture is minimized. A fifth step of generating coefficient data, and a sixth step of selecting a plurality of pixel data located around the position of interest in the second image signal of the I picture from the first image signal of the I picture And a position of interest in the second image signal of the I picture by calculating the coefficient data generated in the fifth step and the plurality of pixel data selected in the sixth step. A seventh step of obtaining pixel data, wherein in the second step, the first image signal of the P picture or B picture and the second image signal of the I picture or P picture stored in the memory An eighth step of selecting a plurality of pixel data located around the position of interest in the second image signal of the P picture or B picture, and generating a class from the level distribution of the selected pixel data; A student signal obtained in advance for each class detected in the eighth step and including a coding distortion corresponding to the first image signal of the P picture or B picture and the second image of the P picture or B picture A ninth step of generating coefficient data that minimizes an error from a teacher signal that does not include coding distortion corresponding to the signal; and a first image signal of the P picture or B picture. And a second image signal of the I picture or P picture stored in the memory, and a plurality of pixel data located around the position of interest in the second image signal of the P picture or B picture are selected. And the pixel data at the target position in the second image signal of the P picture or B picture by calculating the coefficient data generated in the ninth step and the plurality of pixel data selected in the tenth step. An eleventh step of obtaining data Is.
[0013]
A program according to the present invention is for causing a computer to execute the above-described image signal processing method.
[0014]
In the present invention, the first image signal including a plurality of pixel data is generated by decoding the encoded digital image signal. For example, the digital image signal has been subjected to MPEG encoding.
[0015]
Based on the first image signal and the second image signal, a plurality of first pixel data located in the periphery in the time direction and the spatial direction corresponding to the target position in the second image signal are selected. Then, pixel data of the target position in the second image signal is generated using the plurality of first pixel data.
[0016]
For example, when the digital image signal has been subjected to MPEG encoding, a plurality of first pixel data are selected as follows. That is, when the pixel data of the first image signal corresponding to the target position in the second image signal is pixel data related to the I picture, a plurality of first pixel data are selected based on the first image signal. The Further, when the pixel data of the first image signal corresponding to the position of interest in the second image signal is pixel data related to the P picture or B picture, the pixel data of the first image signal and P picture or B picture are A plurality of first pixel data is selected based on the second image signal corresponding to the first image signal used in the acquisition.
[0017]
In this way, pixel data at the position of interest in the second image signal is generated using the plurality of first image data, and it is possible to obtain the second image signal with reduced coding noise. It becomes.
[0018]
For example, based on the first image signal and the second image signal, a plurality of second pixel data located around the time position and the spatial direction with respect to the target position in the second image signal are selected. Based on the plurality of second pixel data, the class to which the pixel data at the target position belongs is detected. Then, using the coefficient data generated corresponding to the detected class and the plurality of first pixel data, the pixel data of the target position in the second image signal is calculated based on the estimation formula.
[0019]
Learning using a student signal corresponding to the first image signal and including the same coding noise as the first image signal and a teacher signal corresponding to the second image signal and not including the coding noise as coefficient data By using the coefficient data obtained by the above, it is possible to obtain a second image signal with reduced coding noise compared to the first image signal.
[0020]
In addition to the first image signal, the plurality of first pixel data is also selected from the second image signal in which the coding noise is reduced, and improves the quality of the second image signal. Therefore, encoding noise can be reduced satisfactorily.
[0021]
Note that motion compensation is performed on the second image signal based on the first image signal, and the second image signal when the plurality of first pixel data is selected is used as the second image signal. These image signals may be used. By performing motion compensation on the second image signal, the plurality of first pixel data selected from the image signals of the respective screens existing in the time direction have high correlation, and the plurality of first pixel data The quality of the pixel data at the target position in the second image signal generated using can be improved.
[0022]
The coefficient data generation device according to the present invention is: The first image signal of the I picture among the first image signals composed of a plurality of pixel data generated by decoding the digital image signal encoded in the MPEG system is converted and encoded. Compatible with the second image signal of I picture with reduced distortion Decoding the digital image signal obtained by encoding the teacher signal I picture A student signal corresponding to the first image signal is obtained. First Decryption Part When, A first class detection unit that selects a plurality of pixel data located around a target position in the teacher signal of the I picture from the student signal of the I picture, and generates a class from the level distribution of the selected pixel data; The first prediction tap selection unit that selects a plurality of pixel data located around the target position in the teacher signal of the I picture from the student signal of the I picture, and the first class detection unit A plurality of pixel data related to the student signal of the I picture and the I picture for each class from the class, the plurality of pixel data selected by the first prediction tap selection unit, and the pixel data of the target position in the teacher signal A first arithmetic unit that obtains coefficient data that minimizes an error from pixel data of a target position in the teacher signal of Distortion accompanying encoding by performing conversion processing on the first image signal of P picture or B picture among the first image signals composed of a plurality of pixel data generated by decoding the digital image signal A student corresponding to the first image signal of the P picture or B picture by decoding the digital image signal obtained by encoding the teacher signal corresponding to the second image signal of the P picture or B picture with reduced P A second decoding unit for obtaining a signal; a memory for storing a teacher signal for the I picture and the P picture; a student signal for the P picture or B picture; and a teacher signal for the I picture or P picture stored in the memory To select a plurality of pixel data located around the position of interest in the teacher signal of the P picture or B picture, and the level of the selected pixel data In the teacher signal of the P picture or B picture, the second class detection unit for generating a class from the cloth, the student signal of the P picture or B picture and the teacher signal of the I picture or P picture stored in the memory A second prediction tap selection unit that selects a plurality of pixel data located around the target position, a class detected by the second class detection unit, and a plurality of selections selected by the second prediction tap selection unit For each class, a plurality of pixel data related to the P picture or B picture student signal and pixel data of the target position in the P picture or B picture teacher signal from the pixel data and the pixel data of the target position in the teacher signal A second arithmetic unit for obtaining coefficient data that minimizes the error of With Ru Is.
[0023]
The coefficient data generation method according to the present invention includes: The first image signal of the I picture among the first image signals composed of a plurality of pixel data generated by decoding the digital image signal encoded in the MPEG system is converted and encoded. Compatible with the second image signal of I picture with reduced distortion Decoding the digital image signal obtained by encoding the teacher signal I picture A student signal corresponding to the first image signal is obtained. First step When, A second step of selecting a plurality of pixel data located around a target position in the teacher signal of the I picture from the student signal of the I picture, and generating a class from the level distribution of the selected pixel data; A third step of selecting a plurality of pixel data located around a target position in the teacher signal of the I picture from the student signal of the I picture, the class detected in the second step, and the third step A plurality of pixel data related to the student signal of the I picture and pixel data of the target position in the teacher signal of the I picture, for each class, from the plurality of pixel data selected in the above and the pixel data of the target position in the teacher signal A fourth step for obtaining coefficient data that minimizes the error of the image and decoding the digital image signal encoded in the MPEG system A P picture or a P picture in which distortion caused by encoding is reduced by performing a conversion process on the first image signal of a P picture or a B picture among the first image signals composed of a plurality of pixel data generated by A fifth image signal is obtained by decoding a digital image signal obtained by encoding a teacher signal corresponding to a second image signal of a B picture to obtain a student signal corresponding to the first image signal of the P picture or B picture. A step of storing a teacher signal of the I picture and the P picture in a memory; a student signal of the P picture or a B picture; and a teacher signal of the I picture or the P picture stored in the memory; Select a plurality of pixel data located around the target position in the teacher signal of P picture or B picture, and whether the level distribution of the selected pixel data The seventh step of generating a class, and the vicinity of the target position in the teacher signal of the P picture or B picture from the student signal of the P picture or B picture and the teacher signal of the I picture or P picture stored in the memory An eighth step of selecting a plurality of pixel data located in the position, a class detected in the seventh step, a plurality of pixel data selected in the eighth step, and a pixel data of a target position in the teacher signal For each class, coefficient data that minimizes an error between a plurality of pixel data related to the student signal of the P picture or B picture and the pixel data of the target position in the teacher signal of the P picture or B picture is obtained. Steps and With Ru Is.
[0024]
A program according to the present invention is for causing a computer to execute the coefficient data generation method described above.
[0025]
In the present invention, the first image signal including a plurality of pixel data is generated by decoding the encoded digital image signal. The present invention generates coefficient data of an estimation formula used when converting the first image signal into a second image signal composed of a plurality of pixel data.
[0026]
The digital image signal obtained by encoding the teacher signal corresponding to the second image signal is further decoded to obtain the student signal corresponding to the first image signal. Based on the student signal and the teacher signal, a plurality of pixel data located in the periphery in the time direction and the spatial direction with respect to the target position in the teacher signal are selected. Then, coefficient data is obtained using the plurality of pixel data and the pixel data of the target position in the teacher signal.
[0027]
As described above, coefficient data of the estimation formula used when converting the first image signal to the second image signal is generated. When converting from the first image signal to the second image signal, The pixel data at the position of interest in the second image signal is calculated by the estimation formula using the coefficient data. Thereby, when converting from the first image signal to the second image signal using the estimation formula, the encoding noise of the image signal obtained by decoding the encoded digital image signal is reduced well. become able to.
[0028]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration of a digital broadcast receiver 100 as an embodiment.
[0029]
The digital broadcast receiver 100 includes a microcomputer, and includes a system controller 101 for controlling the operation of the entire system, and a remote control signal receiving circuit 102 for receiving a remote control signal RM. The remote control signal receiving circuit 102 is connected to the system controller 101, receives a remote control signal RM output from the remote control transmitter 200 according to a user operation, and supplies an operation signal corresponding to the signal RM to the system controller 101. Is configured to do.
[0030]
Also, the digital broadcast receiver 100 is supplied with a receiving antenna 105 and a broadcast signal (RF modulated signal) captured by the receiving antenna 105, performs channel selection processing, demodulation processing, error correction processing, etc. And a tuner unit 106 that obtains an MPEG2 stream as an encoded image signal.
[0031]
The digital broadcast receiver 100 also temporarily decodes the MPEG2 decoder 107 that decodes the MPEG2 stream output from the tuner unit 106 to obtain the image signal Va, and the image signal Va output from the MPEG2 decoder 107. A buffer memory 108 for storing the data.
[0032]
In the present embodiment, the MPEG2 decoder 107 outputs picture information PI and motion compensation vector information MI in addition to the pixel data constituting the image signal Va. The buffer memory 108 also stores information PI and MI in pairs with each pixel data.
[0033]
The picture information PI is information indicating whether the output pixel data relates to an I picture (Intra-Picture), a P picture (Predictive-Picture), or a B picture (Bidirectionally predictive-Picture). The motion compensation vector information MI is information indicating how the reference image signal at the time of decoding the pixel data is motion compensated when the output pixel data relates to a P picture and a B picture. .
[0034]
FIG. 2 shows the configuration of the MPEG2 decoder 107.
The decoder 107 has an input terminal 71 to which an MPEG2 stream is input, and a stream buffer 72 that temporarily stores the MPEG2 stream input to the input terminal 71.
[0035]
The decoder 107 extracts the DCT (Discrete Cosine Transform) coefficient as a frequency coefficient from the MPEG2 stream stored in the stream buffer 72 and the extraction circuit 73 extracts the DCT coefficient. A variable-length decoding circuit 74 that performs variable-length decoding on DCT coefficients that have been subjected to variable-length coding, for example, Huffman coding.
[0036]
The decoder 107 also includes an extraction circuit 75 that extracts quantization characteristic designation information QI from the MPEG2 stream stored in the stream buffer 72, and a variable length decoding circuit based on the quantization characteristic designation information QI. 74 has an inverse quantization circuit 76 that performs inverse quantization on the quantized DCT coefficient output from 74, and an inverse DCT circuit 77 that performs inverse DCT on the DCT coefficient output from the inverse quantization circuit 76. is doing.
[0037]
In addition, the decoder 107 stores the image signals of the I picture and the P picture in a memory (not shown), and uses these image signals to generate a differential picture signal of the P picture or B picture from the inverse DCT circuit 77. A prediction memory circuit 78 that generates and outputs a corresponding reference image signal Vref when output is provided.
[0038]
In addition, when the inverse picture signal of P picture or B picture is output from the inverse DCT circuit 77, the decoder 107 adds the reference picture signal Vref generated by the prediction memory circuit 78 to the difference picture signal. 79 and an output terminal 81 for outputting an image signal Va of each picture output from the adder circuit 79.
[0039]
Note that when the image signal of the I picture is output from the inverse DCT circuit 77, the reference image signal Vref is not supplied from the prediction memory circuit 78 to the adder circuit 79, and accordingly, is output from the adder circuit 79 from the inverse DCT circuit 77. The image signal of the I picture is output as it is.
[0040]
Here, in MPEG encoding, encoding is performed in an order different from the actual frame / field order, as is conventionally known. That is, the image signal of the I picture and the P picture is encoded first, and the image signal of the B picture sandwiched between them is encoded thereafter. The image signal Va of each picture is output to the output terminal 81 in the encoding order.
[0041]
In addition, the decoder 107 extracts the encoding control information, that is, the picture information PI and the motion compensation vector information MI from the MPEG2 stream stored in the stream buffer 72, and the information PI and MI. And an output terminal 83 for outputting.
[0042]
The motion compensation vector information MI extracted by the extraction circuit 82 is supplied to the prediction memory circuit 78. The prediction memory circuit 78 performs motion compensation when generating the reference image signal Vref using the motion compensation vector information MI. Done. The picture information PI extracted by the extraction circuit 82 is also supplied to the prediction memory circuit 78. The prediction memory circuit 78 identifies a picture based on the picture information PI.
[0043]
The operation of the MPEG2 decoder 107 shown in FIG. 2 will be described.
The MPEG2 stream stored in the stream buffer 72 is supplied to the extraction circuit 73 to extract DCT coefficients as frequency coefficients. This DCT coefficient is variable length encoded, and this DCT coefficient is supplied to the variable length decoding circuit 74 and decoded. The quantized DCT coefficient of each DCT block output from the variable length decoding circuit 74 is supplied to the inverse quantization circuit 76 and subjected to inverse quantization.
[0044]
The inverse DCT circuit 77 performs inverse DCT on the DCT coefficient of each DCT block output from the inverse quantization circuit 76, thereby obtaining an image signal of each picture. The image signal of each picture is output to the output terminal 81 via the adding circuit 79. In this case, when a differential picture signal of P picture or B picture is output from the inverse DCT circuit 77, the reference picture signal Vref output from the prediction memory circuit 78 is added by the adding circuit 79.
[0045]
Note that the motion compensation vector information MI and the picture information PI are output to the output terminal 83 in pairs with the pixel data constituting the image signal Va output from the output terminal 81.
[0046]
Returning to FIG. 1, the digital broadcast receiver 100 also reduces coding noise (coding distortion) such as block noise (block distortion) and mosquito noise from the image signal Va stored in the buffer memory 108. The image signal processing unit 110 that converts the image signal Vb into the image signal Vb and the display unit 111 that displays an image based on the image signal Vb output from the image signal processing unit 110 are provided. The display unit 111 includes a display such as a CRT (Cathode-Ray Tube) display or an LCD (Liquid Crystal Display).
[0047]
The operation of the digital broadcast receiver 100 shown in FIG. 1 will be described.
[0048]
The MPEG2 stream output from the tuner unit 106 is supplied to the MPEG2 decoder 107 and decoded. The image signal Va output from the decoder 107 is supplied to the buffer memory 108 and temporarily stored. In this case, the decoder 107 also outputs motion compensation vector information MI and picture information PI in pairs with each pixel data of the image signal Va. These pieces of information MI and PI are also temporarily stored in the buffer memory 108.
[0049]
Thus, the image signal Va stored in the buffer memory 108 is supplied to the image signal processing unit 110 and converted into the image signal Vb in which the encoding noise (encoding distortion) is reduced. In the image signal processing unit 110, pixel data constituting the image signal Vb is obtained from the pixel data constituting the image signal Va. In the image signal processing unit 110, conversion processing is performed using the motion compensation vector information MI and the picture information PI stored in the buffer memory 108.
[0050]
The image signal Vb output from the image signal processing unit 110 is supplied to the display unit 111, and an image based on the image signal Vb is displayed on the screen of the display unit 111.
[0051]
Next, details of the image signal processing unit 110 will be described.
The image signal processing unit 110 includes a first processing unit 121 that performs conversion processing on an I-picture image signal among the image signals Va stored in the buffer memory 108, and an image signal stored in the buffer memory 108. A second processing unit 122 that performs conversion processing on a P picture and a B picture of Va, an image signal Vb (I) of an I picture obtained by the first processing unit 121, and a second processing unit 122 And a buffer memory 123 that temporarily stores the image signal Vb (P) of the obtained P picture. FIG. 3 for explaining the details of the first processing unit 121 and the second processing unit 122 shows the configuration of the first processing unit 121. The first processing unit 121 includes a prediction tap selection circuit 131 and a class tap selection circuit 132. The prediction tap selection circuit 131 selectively extracts a plurality of pixel data of prediction taps used for prediction based on the image signal Va (I) of the I picture stored in the buffer memory 108. The class tap selection circuit 132 selectively extracts a plurality of pixel data of class taps used for class classification based on the I picture image signal Va (I) stored in the buffer memory 108.
[0052]
The pixel data of the prediction tap and the class tap are pixel data located around the spatial direction (horizontal direction and vertical direction) with respect to the target position in the image signal Vb (I) of the I picture, respectively.
[0053]
The first processing unit 121 includes a class generation circuit 133 that generates a class code CL1 indicating a space class from the pixel data of the class tap selectively extracted by the class tap selection circuit 132. The class generation circuit 133 generates a class code CL1 indicating a space class by performing processing such as 1-bit ADRC (Adaptive Dynamic Range Coding) on the pixel data of the class tap.
[0054]
ADRC calculates the maximum value and minimum value of a plurality of pixel data of a class tap, calculates a dynamic range that is the difference between the maximum value and the minimum value, and requantizes each pixel value in accordance with the dynamic range. . In the case of 1-bit ADRC, the pixel value is converted to 1 bit depending on whether it is larger or smaller than the average value of the plurality of pixel values of the class tap. The ADRC process is a process for making the number of classes representing the level distribution of pixel values relatively small. Therefore, not limited to ADRC, encoding that compresses the number of bits of a pixel value such as VQ (vector quantization) may be used.
[0055]
The first processing unit 121 has a coefficient memory 134. The coefficient memory 134 stores coefficient data Wi (i = 1 to n, n is the number of prediction taps) used for an estimation formula used in an estimation prediction calculation circuit 135 described later for each class. .
[0056]
The coefficient data Wi is information for converting the image signal Va (I) into the image signal Vb (I). The coefficient data Wi stored in the coefficient memory 134 is generated in advance by learning between a student signal corresponding to the image signal Va (I) and a teacher signal corresponding to the image signal Vb (I). The coefficient memory 134 is supplied with the class code CL1 generated by the class generation circuit 133 described above as read address information. Coefficient data Wi of the estimation formula corresponding to the class code CL 1 is read from the coefficient memory 134 and supplied to the estimated prediction calculation circuit 135. A method for generating the coefficient data Wi will be described later.
[0057]
In addition, the first processing unit 121 uses the estimation equation (1) from the prediction tap pixel data xi selectively extracted by the prediction tap selection circuit 131 and the coefficient data Wi read from the coefficient memory 134. It has an estimated prediction calculation circuit 135 for calculating pixel data y at the position of interest in the image signal Vb (I) to be created.
[0058]
[Expression 1]
Figure 0004158479
[0059]
The operation of the first processing unit 121 will be described.
Based on the image signal Va (I) of the I picture stored in the buffer memory 108, the class tap selection circuit 132 performs a peripheral in the spatial direction with respect to the target position in the image signal Vb (I) of the I picture to be created. The pixel data of the class tap located at is selectively extracted. The pixel data of the class tap is supplied to the class generation circuit 133. In this class generation circuit 133, processing such as 1-bit ADRC is performed on the pixel data of the class tap, and a class code CL1 indicating the space class is generated.
[0060]
This class code CL1 represents the detection result of the class to which the pixel data at the target position in the image signal Vb (I) belongs. The class code CL1 is supplied to the coefficient memory 134 as read address information. The coefficient data Wi corresponding to the class code CL1 is read from the coefficient memory 134 and supplied to the estimated prediction calculation circuit 135.
[0061]
Further, based on the image signal Va (I) of the I picture stored in the buffer memory 108, the prediction tap selection circuit 131 performs a spatial direction with respect to the target position in the image signal Vb (I) of the I picture to be created. The pixel data of the prediction tap located in the vicinity of is selectively extracted.
[0062]
The estimated prediction calculation circuit 135 uses the pixel data xi of the prediction tap and the coefficient data Wi read from the coefficient memory 134, and based on the estimation expression shown in the above equation (1), the image of the I picture to be created Pixel data y at the target position in the signal Vb (I) is obtained.
[0063]
As described above, the first processing unit 121 obtains the I-picture image signal Vb (I) from the I-picture image signal Va (I) using the coefficient data Wi. In this case, a plurality of pixel data (prediction tap pixel data) located around the target position in the image signal Vb (I), selected based on the image signal Va (I), and the image signal Vb (I). The pixel data y of the target position in the image signal Vb (I) is generated based on the estimation formula using the coefficient data Wi corresponding to the class CL1 to which the pixel data of the target position in FIG.
[0064]
Accordingly, the coefficient data Wi corresponds to the image signal Va (I) and includes a student signal including encoding noise similar to the image signal Va (I) and a teacher not including encoding noise corresponding to the image signal Vb (I). By using the coefficient data Wi obtained by learning using the signal, it is possible to obtain the image signal Vb (I) with reduced coding noise compared to the image signal Va (I).
[0065]
FIG. 4 shows the configuration of the second processing unit 122. The second processing unit 122 includes a prediction tap selection circuit 141 that selectively extracts a plurality of pixel data of prediction taps used for prediction, and a class that selectively extracts a plurality of pixel data of class taps used for class classification. And a tap selection circuit 142.
[0066]
The tap selection circuits 141 and 142 are supplied from the system controller 101 with pixels of the image signals Va (P) / Va (B) corresponding to the positions of interest in the image signals Vb (P) / Vb (B) of the P picture or B picture. Motion compensation vector information MI and picture information PI paired with the data are supplied as motion control information. The pixel data of the prediction tap and the class tap are located around the spatial direction (horizontal direction, vertical direction) and the temporal direction (frame direction) with respect to the target position in the image signals Vb (P) / Vb (B), respectively. Pixel data.
[0067]
The tap selection circuits 141 and 142 are respectively the P picture or B picture image signal Va (P) / Va (B) stored in the buffer memory 108 and the picture image stored in the buffer memory 123. I picture used for obtaining the signals Va (P) / Va (B), I picture corresponding to the picture signals Va (I), Va (P) of the P picture, P picture already reduced in coding noise, P A plurality of pixel data are selectively extracted based on the picture signals Vb (I) and Vb (P) of the picture.
[0068]
Here, the tap selection circuits 141 and 142 are based on the image signal Va (P) / Va (B) with respect to the image signals Vb (I) and Vb (P) based on the motion compensation vector information MI. Perform motion compensation.
[0069]
FIG. 5 shows an example of motion compensation. This example is a case where pixel data located in the spatial direction and the temporal direction are extracted from the target position in the P-picture image signal Vb (P), and the P-picture image signal Va (P) and I-picture are extracted. The image signal Vb (I) is a pixel data selection target.
[0070]
In this case, motion compensation based on the image signal Va (P) is performed on the image signal Vb (I). Here, as shown in FIG. 5, when the vector information MI is (−2, +1), the tap selection circuit uses the image signal Va (P) to x 1 ~ X 13 Pixel data is selectively extracted and x at a position shifted by (−2, +1) from the image signal Vb (I). 1 ~ X 13 Are selectively extracted.
[0071]
As described above, the prediction tap selection circuit 141 performs motion compensation to selectively extract the pixel data of the prediction tap, so that the pixel data of the prediction tap has a high correlation. Therefore, the quality of the pixel data at the target position in the image signals Va (P) / Va (B) generated as described later using the pixel data of the prediction tap can be improved.
[0072]
In addition, since the class tap selection circuit 142 performs motion compensation to selectively extract pixel data of the class tap, the prediction selected by performing the motion compensation in the prediction tap selection circuit 141 as described above. The spatiotemporal class corresponding to the pixel data of the tap can be detected well.
[0073]
In addition, the second processing unit 122 includes a class generation circuit 143 that generates a class code CL2 indicating a spatiotemporal class from the pixel data of the class tap selectively extracted by the class tap selection circuit 142. Similar to the class generation circuit 133 of the first processing unit 121 described above, the class generation circuit 143 performs a process such as 1-bit ADRC on the pixel data of the class tap to generate a class code CL2 indicating the space class. Generate.
[0074]
The first processing unit 122 has a coefficient memory 144. The coefficient memory 144 stores coefficient data Wi (i = 1 to n, where n is the number of prediction taps) used in an estimation formula used in the estimation prediction calculation circuit 145 described later for each class. .
[0075]
In this coefficient memory 144, coefficient data Wi for P picture for converting the image signal Va (P) of the P picture into the image signal Vb (P) of the P picture and the image signal Va (B) of the B picture are stored. B picture coefficient data Wi for conversion into the B picture image signal Vb (B) is stored in a separate address. The coefficient memory 144 is supplied with picture information PI from the system controller 101 as read control information.
[0076]
The coefficient data Wi stored in the coefficient memory 144 is obtained in advance between a student signal corresponding to the image signal Va (P) / Va (B) and a teacher signal corresponding to the image signal Vb (P) / Vb (B). Generated by learning. The coefficient memory 144 is supplied with the class code CL2 generated by the class generation circuit 143 described above as read address information. Coefficient data Wi of the estimation formula corresponding to the class code CL2 is read from the coefficient memory 144 and supplied to the estimated prediction calculation circuit 145. A method for generating the coefficient data Wi will be described later.
[0077]
Further, the second processing unit 122 uses the prediction tap pixel circuit xi selectively extracted by the prediction tap selection circuit 141 and the coefficient data Wi read from the coefficient memory 144 to estimate the above equation (1). Thus, an estimated prediction calculation circuit 145 that calculates pixel data y at the target position in the image signals Vb (P) / Vb (B) to be generated is provided.
[0078]
The operation of the second processing unit 122 will be described.
When obtaining the image signal Va (P) / Va (B) of the P picture or B picture stored in the buffer memory 108 and the image signal Va (P) / Va (B) stored in the buffer memory 123 Class tap selection circuit based on I picture and P picture image signals Vb (I) and Vb (P) corresponding to I picture and P picture image signals Va (I) and Va (P) In 142, pixel data of class taps located in the periphery in the spatial direction and the temporal direction with respect to the target position in the image signal Vb (P) / Vb (B) of the P picture or B picture to be created is selectively extracted. . In this case, motion compensation based on the image signals Va (P) / Va (B) is performed on the image signals Vb (I) and Vb (P) based on the motion compensation vector information MI.
[0079]
The pixel data of the class tap extracted by the class tap selection circuit 142 is supplied to the class generation circuit 143. In the class generation circuit 143, processing such as 1-bit ADRC is performed on the pixel data of the class tap, and a class code CL2 indicating a spatiotemporal class is generated. This class code CL2 represents the detection result of the class to which the pixel data of the target position in the image signal Vb (P) / Vb (I) belongs. The class code CL2 is supplied to the coefficient memory 144 as read address information.
[0080]
The coefficient data Wi corresponding to the class code CL2 is read from the coefficient memory 144 and supplied to the estimated prediction calculation circuit 145. In this case, when the P picture image signal Vb (P) is created based on the picture information PI, the P picture coefficient data Wi is read out and the B picture image signal Vb (B) is created. The coefficient data Wi for B picture is read out.
[0081]
Further, the P picture or B picture image signal Va (P) / Va (B) stored in the buffer memory 108 and the image signal Va (P) / Va (B) stored in the buffer memory 123 are used. Prediction tap based on image signals Vb (I) and Vb (P) of I picture and P picture corresponding to the image signals Va (I) and Va (P) of I picture and P picture used for obtaining The selection circuit 141 selectively selects pixel data of prediction taps located in the periphery in the spatial direction and the temporal direction with respect to the target position in the image signal Vb (P) / Vb (B) of the P picture or B picture to be created. It is taken out. In this case, motion compensation based on the image signals Va (P) / Va (B) is performed on the image signals Vb (I) and Vb (P) based on the motion compensation vector information MI.
[0082]
The estimated prediction calculation circuit 145 uses the prediction tap pixel data xi and the coefficient data Wi read from the coefficient memory 144 to generate a P picture or B to be created based on the estimation expression shown in the above equation (1). Pixel data y at the target position in the picture signal Vb (P) / Vb (I) of the picture is obtained.
[0083]
As described above, the second processing unit 122 uses the coefficient data Wi from the image signal Va (P) / Va (B) of the P picture or B picture, and the image signal Vb (P) / V of the P picture or B picture. Vb (B) is obtained. In this case, it is located around the position of interest in the image signals Vb (P) / Vb (B) selected based on the image signals Va (P) / Va (B) and Vb (I), Vb (P). A plurality of pixel data (prediction tap pixel data) and coefficient data Wi corresponding to the class CL2 to which the pixel data of the target position in the image signals Vb (P) / Vb (B) belongs, and based on the estimation formula Pixel data y at the target position in the image signal Vb (P) / Vb (B) is generated.
[0084]
Accordingly, as the coefficient data Wi, the student signal and the image signal Vb (P) corresponding to the image signal Va (P) / Va (B) and containing the same coding noise as the image signal Va (P) / Va (B). By using coefficient data Wi obtained by learning using a teacher signal that does not include coding noise corresponding to / Vb (B), the image signal Va (P) is obtained as the image signal Vb (P) / Vb (B). ) / Va (B) can be obtained with reduced coding noise.
[0085]
Further, the pixel data of the prediction tap is selected not only from the image signal Va (P) / Va (B) but also from the image signals Vb (I) and Vb (P) with reduced coding noise. Therefore, the quality of the image signals Vb (P) / Vb (B) can be improved, and the encoding noise included in them can be reduced well.
[0086]
Returning to FIG. 1, the image signal processing unit 110 also includes the I picture image signal Vb (I) output from the first processing unit 121 and the P picture and B picture output from the second processing unit 122. The image signal Vb (P) and Vb (B) are rearranged in the actual frame / field order, and the image signal Vb is output as the image signal Vb. The rearrangement unit 124 performs rearrangement processing using the buffer memory 125.
[0087]
The operation of the image signal processing unit 110 will be described.
Of the image signal Va stored in the buffer memory 108, the I-picture image signal Va (I) is supplied to the first processing unit 121. The first processing unit 121 generates an I-picture image signal Vb (I) with reduced coding noise from the I-picture image signal Va (I) using the coefficient data Wi.
[0088]
In this case, a plurality of pixel data (prediction tap pixel data) located around the target position in the image signal Vb (I), selected based on the image signal Va (I), and the image signal Vb (I). The pixel data y of the target position in the image signal Vb (I) is generated based on the estimation formula using the coefficient data Wi corresponding to the class CL1 to which the pixel data of the target position in FIG.
[0089]
The image signal Vb (I) of the I picture generated by the first processing unit 121 is supplied to the rearrangement unit 124 and also supplied to the buffer memory 123 to be temporarily stored. The image signal Vb (I) of the I picture stored in the buffer memory 123 is used when the second processing unit 122 generates the image signal Vb (P) of the P picture.
[0090]
In addition, the image signal Va (P) / Va (I) of the P picture or the B picture among the image signals Va stored in the buffer memory 108 is supplied to the second processing unit 122. The second processing unit 122 generates coefficient data from the image signals Va (P) / Va (B) and the I-picture and P-picture image signals Vb (I) and Vb (P) stored in the buffer memory 123. Using Wi, an image signal Vb (P) / Vb (B) of P picture or B picture with reduced coding noise is generated.
[0091]
In this case, it is located around the position of interest in the image signals Vb (P) / Vb (B) selected based on the image signals Va (P) / Va (B) and Vb (I), Vb (P). A plurality of pixel data (prediction tap pixel data) and coefficient data Wi corresponding to the class CL2 to which the pixel data of the target position in the image signals Vb (P) / Vb (B) belongs, and based on the estimation formula Pixel data y at the target position in the image signal Vb (P) / Vb (B) is generated.
[0092]
The P picture and B picture image signals Vb (P) and Vb (B) generated by the second processing unit 122 are supplied to the rearrangement unit 124. Further, the image signal Vb (P) of the P picture generated by the second processing unit 122 is supplied to the buffer memory 123 and temporarily stored. The image signal Vb (I) of the P picture stored in the buffer memory 123 in this way is used when the second processing unit 122 generates the image signal Vb (B) of the B picture.
[0093]
The rearrangement unit 124 outputs the I-picture image signal Vb (I) output from the first processing unit 121 and the P-picture and B-picture image signals Vb (P) and Vb ( B) is rearranged from the encoding order to the actual frame / field order, and sequentially output as an image signal Vb.
[0094]
As described above, the image signal processing unit 110 obtains the image signal Vb from the image signal Va using the coefficient data Wi. Therefore, the coefficient data Wi is obtained by learning using a student signal corresponding to the image signal Va and including coding noise similar to the image signal Va and a teacher signal corresponding to the image signal Vb and not including coding noise. By using the obtained coefficient data Wi, it is possible to obtain the image signal Vb with reduced coding noise compared to the image signal Va.
[0095]
Further, when obtaining the image signals Vb (P) and Vb (B) of the P picture and the B picture, the second processing unit 122 obtains the pixel data of the prediction tap from the image signals Va (P) / Va (B). In addition to selection, selection is also made from image signals Vb (I) and Vb (P) with reduced coding noise. Therefore, the quality of the image signals Vb (P) and Vb (B) of the P picture and B picture can be improved, and the encoding noise included in them can be reduced well.
[0096]
Further, the second processing unit 122 performs motion compensation on the basis of the image signals Va (P) / Va (B) on the image signals Vb (I) and Vb (P) to obtain pixel data of the prediction tap. Selective extraction. Therefore, the pixel data of the prediction tap for generating the pixel data of the target position in the image signal Va (P) / Va (B) has high correlation, and the quality of the image signal Vb (P) / Vb (B) is improved. Can be increased.
[0097]
Next, a method for generating coefficient data Wi stored in the coefficient memory 134 of the first processing unit 121 (see FIG. 3) and the coefficient memory 144 of the second processing unit 122 (see FIG. 4) will be described. The coefficient data Wi is generated in advance by learning.
[0098]
First, this learning method will be described. In the above equation (1), before learning, coefficient data W 1 , W 2 , ..., W n Is an undetermined coefficient. Learning is performed on a plurality of signal data for each class. When the number of learning data is m, the following equation (2) is set according to the equation (1). n indicates the number of prediction taps.
y k = W 1 X k1 + W 2 X k2 + ... + W n X kn ... (2)
(K = 1, 2,..., M)
[0099]
If m> n, coefficient data W 1 , W 2 , ..., W n Is not uniquely determined, so the element e of the error vector e k Is defined by the following equation (3), and e in equation (4) 2 Find coefficient data that minimizes. Coefficient data is uniquely determined by a so-called least square method.
e k = Y k -{W 1 X k1 + W 2 X k2 + ... + W n X kn } (3)
(K = 1, 2, ... m)
[0100]
[Expression 2]
Figure 0004158479
[0101]
E in equation (4) 2 As a practical calculation method for obtaining coefficient data that minimizes the value, first, as shown in equation (5), e 2 Is partially differentiated with the coefficient data Wi (i = 1, 2,..., N), and the coefficient data Wi may be obtained so that the partial differential value becomes 0 for each value of i.
[0102]
[Equation 3]
Figure 0004158479
[0103]
A specific procedure for obtaining the coefficient data Wi from the equation (5) will be described. If Xji and Yi are defined as in the equations (6) and (7), the equation (5) can be written in the form of the determinant of the equation (8).
[0104]
[Expression 4]
Figure 0004158479
[0105]
[Equation 5]
Figure 0004158479
[0106]
Equation (8) is generally called a normal equation. Coefficient data Wi (i = 1, 2,..., N) can be obtained by solving this normal equation by a general solution method such as a sweep-out method (Gauss-Jordan elimination method).
[0107]
FIG. 6 shows a configuration of a coefficient data generation device 150 that generates coefficient data Wi to be stored in the coefficient memory 134 of the first processing unit 121.
[0108]
The coefficient data generation device 150 includes an input terminal 151 to which a teacher signal ST corresponding to the image signal Vb is input, an MPEG2 encoder 152 that encodes the teacher signal ST to obtain an MPEG2 stream, An MPEG2 decoder 153 that decodes the MPEG2 stream to obtain a student signal SS corresponding to the image signal Va. Here, the MPEG2 decoder 153 corresponds to the MPEG2 decoder 107 and the buffer memory 108 in the digital broadcast receiver 100 shown in FIG.
[0109]
Also, the coefficient data generation device 150 selectively extracts a plurality of pixel data of prediction taps used for prediction based on the student signal SS (I) of the I picture output from the decoder 153. Similarly, a class tap selection circuit 154 that selectively extracts a plurality of pixel data of class taps used for class classification based on the student signal SS (I) of the I picture output from the decoder 153, and have. These tap selection circuits 154 and 155 are configured in the same manner as the tap selection circuits 131 and 132 of the first processing unit 121. The pixel data of the prediction tap and the class tap are pixel data located around the spatial direction (horizontal direction and vertical direction) with respect to the target position in the teacher signal ST (I) of the I picture.
[0110]
The coefficient data generation device 150 includes a class generation circuit 156 that generates a class code CL1 indicating a space class from the class tap pixel data selectively extracted by the class tap selection circuit 154. The class generation circuit 156 is configured in the same manner as the class generation circuit 133 of the first processing unit 121.
[0111]
Further, the coefficient data generation device 150 uses a delay circuit 157 for adjusting the time of the teacher signal ST supplied to the input terminal 151, and an I picture teacher signal ST (I) adjusted in time by the delay circuit 157. The pixel data y of each target position obtained, the pixel data xi of the prediction tap selectively extracted by the prediction tap selection circuit 155 in correspondence with the pixel data y of each target position, and the pixel data y of each target position A normal equation (see equation (8) above) for generating coefficient data Wi (i = 1 to n) is generated for each class from the class code CL1 generated by the class generation circuit 156 corresponding to each A normal equation generation unit 158 for
[0112]
In this case, one piece of learning data is generated by a combination of one piece of pixel data y and pixel data xi of n prediction taps corresponding thereto, but the teacher signal ST (I) and the student signal SS (I) A lot of learning data is generated for each class. As a result, the normal equation generation unit 158 generates a normal equation for obtaining coefficient data Wi (i = 1 to n) for each class.
[0113]
The coefficient data generation device 150 is supplied with the data of the normal equation generated by the normal equation generation unit 158, solves the normal equation, and obtains the coefficient data Wi of each class, and the coefficient data determination unit 159. And a coefficient memory 160 for storing the obtained coefficient data Wi of each class.
[0114]
Next, the operation of the coefficient data generation device 150 shown in FIG. 6 will be described.
A teacher signal ST corresponding to the image signal Vb is supplied to the input terminal 151, and the MPEG2 encoder 152 encodes the teacher signal ST to generate an MPEG2 stream. This MPEG2 stream is supplied to the MPEG2 decoder 153. The MPEG2 decoder 153 decodes the MPEG2 stream to generate a student signal SS corresponding to the image signal Va.
[0115]
Based on the student signal SS (I) of the I picture generated by the decoder 153, the class tap selection circuit 155 is positioned around the position of interest in the teacher signal ST (I) of the I picture in the spatial direction. The pixel data of the class tap is selectively extracted. The pixel data of this class tap is supplied to the class generation circuit 156. In this class generation circuit 156, processing such as 1-bit ADRC is performed on the pixel data of the class tap, and a class code CL1 indicating the space class is generated.
[0116]
Further, based on the student signal SS (I) of the I picture generated by the decoder 153, the prediction tap selection circuit 154 moves the spatial position around the target position in the teacher signal ST (I) of the I picture. Pixel data of the prediction tap that is located is selectively extracted.
[0117]
Then, the pixel data y of each target position obtained from the teacher signal ST (I) time-adjusted by the delay circuit 157 and the prediction tap selection circuit 154 selectively corresponding to the pixel data y of each target position. The normal equation generation unit 158 uses a coefficient for each class by using the pixel data xi of the prediction tap to be extracted and the class code CL1 generated by the class generation circuit 156 corresponding to the pixel data y of each target position. A normal equation (see equation (8)) for obtaining data Wi (i = 1 to n) is generated. This normal equation is solved by the coefficient data determination unit 159 to obtain the coefficient data Wi of each class, and the coefficient data Wi is stored in the coefficient memory 160.
[0118]
As described above, in the coefficient data generation device 150 illustrated in FIG. 6, the coefficient data Wi of each class stored in the coefficient memory 134 of the first processing unit 121 can be generated.
[0119]
The student signal SS is obtained by encoding the teacher signal ST to generate an MPEG2 stream and then decoding the MPEG2 stream. Therefore, the student signal SS includes the same coding noise as the image signal Va. Therefore, in the first processing unit 121, the encoding noise of the image signal Vb (I) obtained from the image signal Va (I) using the coefficient data Wi is reduced compared to the image signal Va (I). It will be a thing.
[0120]
FIG. 7 shows a configuration of the coefficient data generation device 170 that generates coefficient data Wi to be stored in the coefficient memory 144 of the second processing unit 122.
The coefficient data generation device 170 includes an input terminal 171 to which a teacher signal ST corresponding to the image signal Vb is input, and a buffer memory 172 that temporarily stores the teacher signal ST.
[0121]
The coefficient data generation apparatus 170 encodes the teacher signal ST temporarily stored in the buffer memory 172 to obtain an MPEG2 stream, and decodes the MPEG2 stream. And an MPEG2 decoder 174 for obtaining a student signal SS corresponding to the image signal Va. Here, the MPEG2 decoder 174 corresponds to the MPEG2 decoder 107 and the buffer memory 108 in the digital broadcast receiver 100 shown in FIG.
[0122]
The coefficient data generation device 170 also includes a prediction tap selection circuit 175 that selectively extracts a plurality of pixel data of prediction taps used for prediction, and a class that selectively extracts a plurality of pixel data of class taps used for class classification. And a tap selection circuit 176. These tap selection circuits 175 and 176 are configured in the same manner as the tap selection circuits 141 and 142 of the second processing unit 122.
[0123]
The tap selection circuits 175 and 176 receive the student signals SS (P) / SS (I) from the decoder 174 corresponding to the positions of interest in the teacher signals ST (P) / ST (B) of the P picture or B picture. Motion compensation vector information MI and picture information PI paired with pixel data are supplied as operation control information. The pixel data of the prediction tap and the class tap are respectively in the spatial direction (horizontal direction and vertical direction) and the temporal direction (frame direction) with respect to the target position in the teacher signal ST (P) / ST (B) of the P picture or B picture. ) Is pixel data located in the vicinity.
[0124]
The tap selection circuits 175 and 176 respectively receive the student signal SS (P) / SS (B) of the P picture or B picture obtained by the decoder 174 and the student signal of the picture stored in the buffer memory 172. Teacher signals ST (I), I and P pictures corresponding to the student signals SS (I) and SS (P) of the I picture and P picture used to obtain SS (P) / SS (B) A plurality of pixel data are selectively extracted based on ST (P).
[0125]
Here, the tap selection circuits 175 and 176 are based on the student signals SS (P) / SS (B) with respect to the teacher signals ST (I) and ST (P) based on the motion compensation vector information MI. Perform motion compensation.
[0126]
Further, the coefficient data generation device 170 includes a class generation circuit 177 that generates a class code CL2 indicating a spatiotemporal class from the pixel data of the class tap selectively extracted by the class tap selection circuit 176. The class generation circuit 177 is configured in the same manner as the class generation circuit 143 of the second processing unit 122.
[0127]
The coefficient data generating apparatus 170 also includes a delay circuit 178 for adjusting the time of the teacher signal ST read from the buffer memory 172, and a teacher signal ST (P for a P picture or B picture that has been adjusted by the delay circuit 178. ) / ST (B) pixel data y at each position of interest, and pixel data xi of the prediction tap selectively extracted by the prediction tap selection circuit 175 in correspondence with the pixel data y at each position of interest, A normal equation for obtaining coefficient data Wi (i = 1 to n) for each class from the class code CL2 generated by the class generation circuit 177 corresponding to each pixel data y at each target position (described above ( 8) has a normal equation generation unit 179 that generates (see equation).
[0128]
In this case, one piece of learning data is generated by a combination of one piece of pixel data y and pixel data xi of n prediction taps corresponding thereto, but teacher signals ST (P) / ST (B) and students A lot of learning data is generated for each class between the signals SS (P) / SS (B). As a result, the normal equation generation unit 179 generates a normal equation for obtaining coefficient data Wi (i = 1 to n) for each class.
[0129]
The coefficient data generation device 170 is supplied with the data of the normal equation generated by the normal equation generation unit 179, solves the normal equation, and obtains the coefficient data Wi of each class, and the coefficient data determination unit 180. And a coefficient memory 181 for storing the coefficient data Wi of each class.
[0130]
Next, the operation of the coefficient data generation apparatus 170 shown in FIG. 7 will be described.
A teacher signal ST corresponding to the image signal Vb is supplied to the input terminal 171, and this teacher signal ST is temporarily stored in the buffer memory 172. The teacher signal ST temporarily stored in the buffer memory 172 is encoded by the MPEG2 encoder 173 to generate an MPEG2 stream. This MPEG2 stream is supplied to the MPEG2 decoder 174. The MPEG2 decoder 174 decodes the MPEG2 stream to generate a student signal SS corresponding to the image signal Va.
[0131]
Motion compensation vector information MI and picture information PI paired with pixel data of the student signal SS (P) / SS (B) corresponding to the target position of the teacher signal ST (P) / ST (B) are decoded. The controller 174 supplies the prediction tap selection circuit 175 and the class tap selection circuit 176 as operation control information.
[0132]
The student signal SS (P) / SS (B) of the P picture or B picture generated by the decoder 174 and the student signal SS (P) / SS (B) of the picture stored in the buffer memory 172 Class based on the teacher signals ST (I) and ST (P) of the I picture and P picture corresponding to the student signals SS (I) and SS (P) of the I picture and P picture used when obtaining The tap selection circuit 176 selectively extracts pixel data of class taps located around the spatial direction and the temporal direction with respect to the target position in the teacher signal ST (P) / ST (B) of the P picture or B picture. . In this case, based on the motion compensation vector information MI, motion compensation is performed on the teacher signals ST (I) and ST (P) with reference to the student signals SS (P) / SS (B).
[0133]
The pixel data of the class tap selectively extracted by the class tap selection circuit 176 is supplied to the class generation circuit 177. In the class generation circuit 177, processing such as 1-bit ADRC is performed on the pixel data of the class tap, and a class code CL2 indicating a spatiotemporal class is generated.
[0134]
Further, the student signal SS (P) / SS (B) of the P picture or B picture generated by the decoder 174 and the student signal SS (P) / SS (of the picture stored in the buffer memory 172 Based on the teacher signals ST (I) and ST (P) of the I picture and P picture corresponding to the student signals SS (I) and SS (P) of I picture and P picture used when obtaining B) The prediction tap selection circuit 175 selectively selects pixel data of prediction taps located in the spatial direction and the temporal direction around the target position in the teacher signal ST (P) / ST (B) of the P picture or B picture. It is taken out. In this case, based on the motion compensation vector information MI, motion compensation is performed on the teacher signals ST (I) and ST (P) with reference to the student signals SS (P) / SS (B).
[0135]
Then, the pixel data y of each target position obtained from the teacher signals ST (P) / ST (B) time-adjusted by the delay circuit 178, and the prediction tap selection circuit corresponding to the pixel data y of each target position, respectively. The normal equation generation unit 179 uses the prediction tap pixel data xi selectively extracted in 175 and the class code CL2 generated by the class generation circuit 177 corresponding to the pixel data y of each target position. For each class, a normal equation (see equation (8)) for generating coefficient data Wi (i = 1 to n) is generated. This normal equation is solved by the coefficient data determination unit 180 to obtain the coefficient data Wi of each class, and the coefficient data Wi is stored in the coefficient memory 181.
[0136]
As described above, in the coefficient data generation apparatus 170 illustrated in FIG. 7, the coefficient data Wi of each class stored in the coefficient memory 144 of the second processing unit 122 can be generated.
[0137]
The student signal SS is obtained by encoding the teacher signal ST to generate an MPEG2 stream and then decoding the MPEG2 stream. Therefore, the student signal SS includes the same coding noise as the image signal Va. Therefore, the image signal Vb (P) / Vb (B) obtained by using the coefficient data Wi from the image signal Va (P) / Va (B) or the like in the second processing unit 122 is the image signal Va (P ) / Va (B), the coding noise is reduced.
[0138]
Note that the processing in the image signal processing unit 110 in FIG. 1 can be realized by software, for example, by an image signal processing apparatus 300 as shown in FIG.
[0139]
First, the image signal processing apparatus 300 shown in FIG. 17 will be described. The image signal processing apparatus 300 includes a CPU 301 that controls the operation of the entire apparatus, a ROM (Read Only Memory) 302 that stores a control program of the CPU 301, coefficient data, and the like, and a RAM (Random) that constitutes a work area of the CPU 301. Access Memory) 303. These CPU 301, ROM 302, and RAM 303 are each connected to a bus 304.
[0140]
The image signal processing apparatus 300 also includes a hard disk drive (HDD) 305 as an external storage device and a drive (FDD) 307 that drives a floppy (registered trademark) disk 306. These drives 305 and 307 are each connected to a bus 304.
[0141]
In addition, the image signal processing apparatus 300 includes a communication unit 308 that is connected to a communication network 400 such as the Internet by wire or wirelessly. The communication unit 308 is connected to the bus 304 via the interface 309.
[0142]
In addition, the image signal processing device 300 includes a user interface unit. The user interface unit includes a remote control signal receiving circuit 310 that receives a remote control signal RM from the remote control transmitter 200, and a display 311 that includes an LCD (Liquid Crystal Display) or the like. The receiving circuit 310 is connected to the bus 304 via the interface 312, and similarly the display 311 is connected to the bus 304 via the interface 313.
[0143]
Further, the image signal processing apparatus 300 has an input terminal 314 for inputting the image signal Va and an output terminal 315 for outputting the image signal Vb. The input terminal 314 is connected to the bus 304 via the interface 316, and similarly, the output terminal 315 is connected to the bus 304 via the interface 317.
[0144]
Here, instead of storing the control program and coefficient data in the ROM 302 in advance as described above, for example, they are downloaded from the communication network 400 such as the Internet via the communication unit 308 and stored in the hard disk or RAM 303 for use. You can also. These control programs, coefficient data, and the like may be provided on a floppy (registered trademark) disk 306.
[0145]
Further, instead of inputting the image signal Va to be processed from the input terminal 314, it may be recorded in advance on a hard disk or downloaded from the communication network 400 such as the Internet via the communication unit 308. Further, instead of outputting the processed image signal Vb to the output terminal 315 or in parallel therewith, it is supplied to the display 311 to display an image, further stored in a hard disk, the Internet via the communication unit 308, etc. It may be sent to the communication network 400.
[0146]
A processing procedure for obtaining the image signal Vb from the image signal Va in the image signal processing apparatus 300 shown in FIG. 8 will be described with reference to the flowchart of FIG.
First, in step ST21, processing is started, and in step S22, for example, an image signal Va for 1 GOP (Group Of Picture) is input into the apparatus from the input terminal 314. In this case, motion compensation vector information MI and picture information PI paired with the pixel data of the image signal Va are also input.
[0147]
Thus, the image signal Va and the like input from the input terminal 314 are temporarily stored in the RAM 303. When the image signal Va or the like is recorded in advance in the hard disk drive 305 in the apparatus, the image signal Va or the like is read from the drive 305 and the image signal Va or the like is temporarily stored in the RAM 303.
[0148]
In step ST23, it is determined whether or not all GOPs of the image signal Va have been processed. When the process is finished, the process ends in step ST24. On the other hand, when the process is not finished, the process proceeds to step ST25.
[0149]
In this step ST25, based on the image signal Va (I) of the I picture input in step ST22, a plurality of pixel data located in the periphery in the spatial direction with respect to the target position in the image signal Vb (I) of the I picture (Class tap pixel data) is selectively extracted, and a class code CL1 indicating the class to which the pixel data of the target position in the image signal Vb (I) of the I picture belongs is generated using the class tap pixel data.
[0150]
Next, in step ST26, based on the image signal Va (I) of the I picture input in step ST22, a plurality of positions positioned in the spatial direction around the target position in the image signal Vb (I) of the I picture. Pixel data (pixel data of prediction tap) is acquired. Then, in step ST27, using the coefficient data Wi corresponding to the class code CL1 generated in step ST25 and the pixel data xi of the prediction tap acquired in step ST26, based on the estimation formula of formula (1), Pixel data y at the target position in the image signal Vb (I) of the I picture is generated. The image signal Vb (I) of the I picture composed of the image data generated in this way is temporarily stored in the RAM 303.
[0151]
In step ST28, it is determined whether or not the processing of the I picture has been completed. If not completed, the process returns to step ST25 to move to the process for the next target position. On the other hand, when the process is completed, the process proceeds to step ST29, and the process proceeds to a process of obtaining image signals Vb (P) and Vb (B) of P picture and B picture.
[0152]
The processing for obtaining these image signals Vb (P) and Vb (B) is performed in the same manner as the processing from step ST25 to step ST28 for obtaining the image signal Vb (I) of the I picture described above. However, the pixel data of the prediction tap and the class tap include the generated I picture and P picture image signals in addition to the P picture and B picture image signals Va (P) and Va (B) input in step ST22. It is also selectively extracted from Vb (I) and Vb (P). Also, motion compensation is performed on the image signals Vb (I) and Vb (P) based on the motion compensation vector information MI with the image signals Va (P) and Va (B) as a reference.
[0153]
When processing of a predetermined P picture or B picture is completed in step ST29, it is determined in step ST30 whether there is a next picture to be processed. If there is a next picture, the process returns to step ST29 to shift to a process for obtaining an image signal of the picture. On the other hand, when there is no next picture to be processed, the process proceeds to step ST31.
[0154]
In step ST31, the generated image signals Vb (I), Vb (P), and Vb (B) for 1 GOP are rearranged from the encoding order to the actual frame / field order and output to the output terminal 315. To do. Thereafter, the process returns to step ST22, and the process proceeds to input processing of the image signal Va for the next 1 GOP.
[0155]
In this way, by performing processing according to the flowchart shown in FIG. 9, the pixel data of the input image signal Va can be processed to obtain the pixel data of the image signal Vb. As described above, the image signal Vb obtained by such processing is output to the output terminal 315, supplied to the display 311 to display an image, and further supplied to the hard disk drive 305 to be supplied to the hard disk. Or is recorded.
[0156]
Further, although illustration of the processing device is omitted, the processing in the coefficient data generation device 150 in FIG. 6 can also be realized by software.
[0157]
A processing procedure for generating coefficient data will be described with reference to the flowchart of FIG.
First, in step ST31, the process is started, and in step ST32, the teacher signal ST is input by 1 GOP. In step ST33, it is determined whether or not all GOPs of the teacher signal ST have been processed. If not finished, in step ST34, the student signal SS is generated from the teacher signal ST input in step ST32.
[0158]
Next, in step ST35, based on the student signal SS (I) of the I picture generated in step ST34, a plurality of positions positioned in the spatial direction around the target position in the teacher signal ST (I) of the I picture. Pixel data (class tap pixel data) is selectively extracted, and a class code CL1 indicating a class to which the pixel data at the target position in the I-picture teacher signal ST (I) belongs is generated using the class tap pixel data. .
[0159]
Next, in step ST36, based on the student signal SS (I) of the I picture generated in step ST34, a plurality of positions located in the spatial direction around the target position in the teacher signal ST (I) of the I picture. Pixel data (pixel data of prediction tap) is acquired.
[0160]
In step ST37, the class code CL1 generated in step ST35, the pixel data xi of the prediction tap acquired in step ST36, and the pixel data y of the target position in the teacher signal ST (I) are used for each class. Addition is performed to obtain the normal equation shown in equation (8) (see equations (6) and (7)).
[0161]
Next, in step ST38, it is determined whether or not the learning process has been completed in the entire area of the pixel data of the teacher signal ST (I) of the I picture input in step ST32. When the learning process is finished, the process returns to step ST32, the next 1 GOP of teacher signal ST is input, and the same process as described above is repeated. On the other hand, when the learning process is not finished, the process returns to step ST35 and moves to the process for the next attention position.
[0162]
When the process is completed in step ST33 described above, in step ST39, the normal equation of each class generated by the addition process in step ST37 described above is solved by a sweeping method or the like to calculate the coefficient data Wi of each class. To do. In step ST40, the coefficient data Wi of each class is stored in the memory, and then the process ends in step ST41.
[0163]
As described above, by performing processing according to the flowchart shown in FIG. 10, the coefficient data Wi of each class related to the I picture can be obtained by the same method as the coefficient data generation device 150 shown in FIG.
[0164]
Although detailed description is omitted, the processing in the coefficient data generation device 170 in FIG. 7 can also be realized by software in the same manner as the processing in the coefficient data generation device 150 in FIG. 6 described above.
[0165]
In this case, instead of the I-picture teacher signal ST (I) and the student signal SS (I), the P-picture teacher signal ST (P), the student signal SS (P), or the B-picture teacher signal ST (B), A student signal SS (B) is used. Also, when obtaining pixel data of class taps and prediction taps, it was used to obtain the student signals SS (P) / SS (B) in addition to the student signals SS (P) / SS (B). Teacher signals ST (I) and ST (P) corresponding to the student signals SS (I) and SS (P) are also used. Thereby, the coefficient data Wi of each class related to the P picture or B picture can be obtained.
[0166]
In the above-described embodiment, an MPEG2 stream with DCT is shown. However, the present invention can be similarly applied to other types that handle encoded digital image signals. Further, instead of DCT, encoding with other orthogonal transforms such as a wavelet transform and a discrete sine transform may be used. The quality of the second image signal can be improved by generating pixel data at the position of interest in the second image signal also using the image signal after reducing the coding noise (second image signal). Encoding noise can be reduced satisfactorily.
[0167]
In the second processing unit 122 of the image signal processing unit 110 shown in FIG. 1 described above, motion compensation is performed using the motion compensation vector information MI extracted from the MPEG2 stream. Alternatively, motion vector information may be detected from the motion vector, and motion compensation may be performed using the detected motion compensation vector information.
[0168]
【The invention's effect】
According to the present invention, the first image signal composed of a plurality of pixel data generated by decoding the encoded digital image signal is converted into the second image signal composed of the plurality of pixel data. When the coding noise is reduced by using the second image signal in which the coding noise is reduced in addition to the first image signal, the temporal position and the spatial direction with respect to the target position in the second image signal are reduced. A plurality of first pixel data located in the periphery is selected, and pixel data of a target position in the second image signal is generated using the plurality of first pixel data. Quality can be improved and coding noise can be reduced well.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a digital broadcast receiver as an embodiment.
FIG. 2 is a block diagram showing a configuration of an MPEG2 decoder.
FIG. 3 is a block diagram illustrating a configuration of a first processing unit.
FIG. 4 is a block diagram showing a configuration of a second processing unit.
FIG. 5 is a diagram for explaining motion compensation.
FIG. 6 is a block diagram illustrating a configuration of a coefficient data generation device.
FIG. 7 is a block diagram illustrating a configuration of a coefficient data generation device.
FIG. 8 is a block diagram illustrating a configuration example of an image signal processing device to be realized by software.
FIG. 9 is a flowchart showing image signal processing.
FIG. 10 is a flowchart showing coefficient data generation processing.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 100 ... Digital broadcast receiver, 101 ... System controller, 102 ... Remote control signal receiving circuit, 105 ... Receiving antenna, 106 ... Tuner part, 107 ... MPEG2 decoder, 108, 123, 125: Buffer memory, 110: Image signal processing unit, 111: Display unit, 121: First processing unit, 122: Second processing unit, 124: Rearrangement 131, 141 ... Predictive tap selection circuit, 132, 142 ... Class tap selection circuit, 133, 143 ... Class generation circuit, 134, 144 ... Coefficient memory, 135, 145 ... Estimation Prediction operation circuit, 150, 170 ... coefficient data generation device, 300 ... image signal processing device

Claims (8)

MPEG方式に符号化されたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号のうちIピクチャの第1の画像信号に対して変換処理を行って符号化に伴う歪みを低減したIピクチャの第2の画像信号を生成する第1の処理部と、
上記第1の画像信号のうちPピクチャおよびBピクチャに対して変換処理を行って符号化に伴う歪みを低減したPピクチャおよびBピクチャの第2の画像信号を生成する第2の処理部と、
上記第1の処理部で得られたIピクチャの第2の画像信号および上記第2の処理部で得られたPピクチャの第2の画像信号を格納するメモリとを備え、
上記第1の処理部は、
上記Iピクチャの第1の画像信号から、上記Iピクチャの第2の画像信号における注目位置の周辺に位置する複数の画素データを選択し、選択された画素データのレベル分布からクラスを生成する第1のクラス検出部と、
上記第1のクラス検出部で検出されたクラス毎に予め求められ、上記Iピクチャの第1の画像信号に対応して符号化歪みを含む生徒信号と上記Iピクチャの第2の画像信号に対応して符号化歪みを含まない教師信号との誤差を最小にする係数データを発生する第1の係数データ発生部と、
上記Iピクチャの第1の画像信号から、上記Iピクチャの第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第1の予測タップ選択部と、
上記第1の係数データ発生部で発生された係数データおよび上記第1の予測タップ選択部で選択された複数の画素データを演算して上記Iピクチャの第2の画像信号における注目位置の画素データを得る第1の演算部とを有し、
上記第2の処理部は、
上記Pピクチャ又はBピクチャの第1の画像信号と上記メモリに格納されたIピクチャ又はPピクチャの第2の画像信号から、上記Pピクチャ又はBピクチャの第2の画像信号における注目位置の周辺に位置する複数の画素データを選択し、選択された画素データのレベル分布からクラスを生成する第2のクラス検出部と、
上記第2のクラス検出部で検出されたクラス毎に予め求められ、上記Pピクチャ又はBピクチャの第1の画像信号に対応して符号化歪みを含む生徒信号と上記Pピクチャ又はBピクチャの第2の画像信号に対応して符号化歪みを含まない教師信号との誤差を最小にする係数データを発生する第2の係数データ発生部と、
上記Pピクチャ又はBピクチャの第1の画像信号と上記メモリに格納されたIピクチャ又はPピクチャの第2の画像信号から、上記Pピクチャ又はBピクチャの第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第2の予測タップ選択部と、
上記第2の係数データ発生部で発生された係数データおよび上記第2の予測タップ選択部で選択された複数の画素データを演算して上記Pピクチャ又はBピクチャの第2の画像信号における注目位置の画素データを得る第2の演算部とを有する画像信号処理装置。
The first image signal of the I picture among the first image signals composed of a plurality of pixel data generated by decoding the digital image signal encoded in the MPEG system is converted and encoded. A first processing unit for generating a second image signal of an I picture with reduced distortion caused by the conversion to
A second processing unit that generates a second image signal of the P picture and the B picture by performing transformation processing on the P picture and the B picture in the first image signal to reduce distortion caused by encoding;
A memory for storing the second image signal of the I picture obtained by the first processing unit and the second image signal of the P picture obtained by the second processing unit;
The first processing unit includes:
A plurality of pixel data located around the target position in the second image signal of the I picture are selected from the first image signal of the I picture, and a class is generated from the level distribution of the selected pixel data 1 class detector;
Corresponding to a student signal including coding distortion corresponding to the first image signal of the I picture and a second image signal of the I picture, which is obtained in advance for each class detected by the first class detection unit. A first coefficient data generation unit that generates coefficient data that minimizes an error from a teacher signal that does not include coding distortion;
A first prediction tap selection unit that selects, from the first image signal of the I picture, a plurality of pixel data located around the position of interest in the second image signal of the I picture;
Pixel data of the target position in the second image signal of the I picture by calculating the coefficient data generated by the first coefficient data generation unit and the plurality of pixel data selected by the first prediction tap selection unit A first arithmetic unit for obtaining
The second processing unit includes:
From the first image signal of the P picture or B picture and the second image signal of the I picture or P picture stored in the memory, around the position of interest in the second image signal of the P picture or B picture A second class detection unit that selects a plurality of pixel data positioned and generates a class from the level distribution of the selected pixel data;
A student signal which is obtained in advance for each class detected by the second class detection unit and includes coding distortion corresponding to the first image signal of the P picture or B picture and the first of the P picture or B picture. A second coefficient data generation unit that generates coefficient data that minimizes an error from a teacher signal that does not include encoding distortion corresponding to the image signal of 2;
From the first image signal of the P picture or B picture and the second image signal of the I picture or P picture stored in the memory, around the position of interest in the second image signal of the P picture or B picture A second prediction tap selection unit that selects a plurality of pixel data located;
The position of interest in the second image signal of the P picture or B picture by calculating the coefficient data generated by the second coefficient data generation unit and the plurality of pixel data selected by the second prediction tap selection unit And a second arithmetic unit that obtains the pixel data .
上記第2のクラス検出部及び第2の予測タップ選択部は、上記Pピクチャ又はBピクチャの第2の画像信号における注目位置に対応したPピクチャ又はBピクチャの第1の画像信号の画素データと対になっている動き補償用ベクトル情報およびピクチャ情報が供給され、当該動き補償用ベクトル情報に基づき、上記メモリに格納されたIピクチャ又はPピクチャの第2の画像信号の画素データを選択する請求項1に記載の画像信号処理装置。 The second class detection unit and the second prediction tap selection unit include pixel data of the first image signal of the P picture or B picture corresponding to the position of interest in the second image signal of the P picture or B picture, A pair of motion compensation vector information and picture information is supplied, and pixel data of a second image signal of an I picture or P picture stored in the memory is selected based on the motion compensation vector information. Item 2. The image signal processing device according to Item 1. 上記第1の処理部より出力されるIピクチャの第2の画像信号および上記第2の処理部より出力されるPピクチャ又はBピクチャの第2の画像信号を、フレーム又はフィールドの順番に並べ換えて、第3の画像信号として出力する並べ換え部を備える請求項1に記載の画像信号処理装置。  The second image signal of I picture output from the first processing unit and the second image signal of P picture or B picture output from the second processing unit are rearranged in the order of frames or fields. The image signal processing apparatus according to claim 1, further comprising a rearrangement unit that outputs the third image signal. MPEG方式に符号化されたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号のうちIピクチャの第1の画像信号に対して変換処理を行って符号化に伴う歪みを低減したIピクチャの第2の画像信号を生成する第1のステップと、
上記第1の画像信号のうちPピクチャおよびBピクチャに対して変換処理を行って符号化に伴う歪みを低減したPピクチャおよびBピクチャの第2の画像信号を生成する第2のステップと、
上記第1のステップで得られたIピクチャの第2の画像信号および上記第2のステップで得られたPピクチャの第2の画像信号をメモリに格納する第3のステップとを備え、
上記第1のステップでは、
上記Iピクチャの第1の画像信号から、上記Iピクチャの第2の画像信号における注目位置の周辺に位置する複数の画素データを選択し、選択された画素データのレベル分布からクラスを生成する第4のステップと、
上記第4のステップで検出されたクラス毎に予め求められ、上記Iピクチャの第1の画像信号に対応して符号化歪みを含む生徒信号と上記Iピクチャの第2の画像信号に対応して符号化歪みを含まない教師信号との誤差を最小にする係数データを発生する第5のステップと、
上記Iピクチャの第1の画像信号から、上記Iピクチャの第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第6のステップと、
上記第5のステップで発生された係数データおよび上記第6のステップで選択された複数の画素データを演算して上記Iピクチャの第2の画像信号における注目位置の画素データを得る第7のステップとを有し、
上記第2のステップでは、
上記Pピクチャ又はBピクチャの第1の画像信号と上記メモリに格納されたIピクチャ又はPピクチャの第2の画像信号から、上記Pピクチャ又はBピクチャの第2の画像信号における注目位置の周辺に位置する複数の画素データを選択し、選択された画素データのレベル分布からクラスを生成する第8のステップと、
上記第8のステップで検出されたクラス毎に予め求められ、上記Pピクチャ又はBピクチャの第1の画像信号に対応して符号化歪みを含む生徒信号と上記Pピクチャ又はBピクチャの第2の画像信号に対応して符号化歪みを含まない教師信号との誤差を最小にする係数データを発生する第9のステップと、
上記Pピクチャ又はBピクチャの第1の画像信号と上記メモリに格納されたIピクチャ又はPピクチャの第2の画像信号から、上記Pピクチャ又はBピクチャの第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第10のステップと、
上記第9のステップで発生された係数データおよび上記第10のステップで選択された複数の画素データを演算して上記Pピクチャ又はBピクチャの第2の画像信号における注目位置の画素データを得る第11のステップとを有する画像信号処理方法。
The first image signal of the I picture among the first image signals composed of a plurality of pixel data generated by decoding the digital image signal encoded in the MPEG system is converted and encoded. A first step of generating a second image signal of an I picture with reduced distortion associated with
A second step of generating a second image signal of the P picture and the B picture by performing transformation processing on the P picture and the B picture in the first image signal to reduce distortion caused by encoding;
A third step of storing in a memory the second image signal of the I picture obtained in the first step and the second image signal of the P picture obtained in the second step,
In the first step,
A plurality of pixel data located around the target position in the second image signal of the I picture are selected from the first image signal of the I picture, and a class is generated from the level distribution of the selected pixel data 4 steps,
Corresponding to the student signal including coding distortion corresponding to the first image signal of the I picture and the second image signal of the I picture, which is obtained in advance for each class detected in the fourth step. A fifth step of generating coefficient data that minimizes an error from a teacher signal that does not include coding distortion;
A sixth step of selecting, from the first image signal of the I picture, a plurality of pixel data located around the position of interest in the second image signal of the I picture;
A seventh step of obtaining pixel data of a target position in the second image signal of the I picture by calculating the coefficient data generated in the fifth step and the plurality of pixel data selected in the sixth step And
In the second step,
From the first image signal of the P picture or B picture and the second image signal of the I picture or P picture stored in the memory, around the position of interest in the second image signal of the P picture or B picture An eighth step of selecting a plurality of pixel data located and generating a class from the level distribution of the selected pixel data;
A student signal that is obtained in advance for each class detected in the eighth step and includes coding distortion corresponding to the first image signal of the P picture or B picture and the second of the P picture or B picture. A ninth step of generating coefficient data that minimizes an error from a teacher signal corresponding to an image signal and not including coding distortion;
From the first image signal of the P picture or B picture and the second image signal of the I picture or P picture stored in the memory, around the position of interest in the second image signal of the P picture or B picture A tenth step of selecting a plurality of pixel data located;
The pixel data at the target position in the second image signal of the P picture or B picture is obtained by calculating the coefficient data generated in the ninth step and the plurality of pixel data selected in the tenth step. An image signal processing method comprising 11 steps .
MPEG方式に符号化されたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号のうちIピクチャの第1の画像信号に対して変換処理を行って符号化に伴う歪みを低減したIピクチャの第2の画像信号を生成する第1のステップと、
上記第1の画像信号のうちPピクチャおよびBピクチャに対して変換処理を行って符号化に伴う歪みを低減したPピクチャおよびBピクチャの第2の画像信号を生成する第2のステップと、
上記第1のステップで得られたIピクチャの第2の画像信号および上記第2のステップで得られたPピクチャの第2の画像信号をメモリに格納する第3のステップとを備え、
上記第1のステップでは、
上記Iピクチャの第1の画像信号から、上記Iピクチャの第2の画像信号における注目位置の周辺に位置する複数の画素データを選択し、選択された画素データのレベル分布からクラスを生成する第4のステップと、
上記第4のステップで検出されたクラス毎に予め求められ、上記Iピクチャの第1の画像信号に対応して符号化歪みを含む生徒信号と上記Iピクチャの第2の画像信号に対応して符号化歪みを含まない教師信号との誤差を最小にする係数データを発生する第5のステップと、
上記Iピクチャの第1の画像信号から、上記Iピクチャの第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第6のステップと、
上記第5のステップで発生された係数データおよび上記第6のステップで選択された複数の画素データを演算して上記Iピクチャの第2の画像信号における注目位置の画素データを得る第7のステップとを有し、
上記第2のステップでは、
上記Pピクチャ又はBピクチャの第1の画像信号と上記メモリに格納されたIピクチャ又はPピクチャの第2の画像信号から、上記Pピクチャ又はBピクチャの第2の画像信号における注目位置の周辺に位置する複数の画素データを選択し、選択された画素データのレベル分布からクラスを生成する第8のステップと、
上記第8のステップで検出されたクラス毎に予め求められ、上記Pピクチャ又はBピクチャの第1の画像信号に対応して符号化歪みを含む生徒信号と上記Pピクチャ又はBピクチャの第2の画像信号に対応して符号化歪みを含まない教師信号との誤差を最小にする係数データを発生する第9のステップと、
上記Pピクチャ又はBピクチャの第1の画像信号と上記メモリに格納されたIピクチャ又はPピクチャの第2の画像信号から、上記Pピクチャ又はBピクチャの第2の画像信号における注目位置の周辺に位置する複数の画素データを選択する第10のステップと、
上記第9のステップで発生された係数データおよび上記第10のステップで選択された複数の画素データを演算して上記Pピクチャ又はBピクチャの第2の画像信号における注目位置の画素データを得る第11のステップとを有する画像信号処理方法をコンピュータに実行させるためのプログラム。
The first image signal of the I picture among the first image signals composed of a plurality of pixel data generated by decoding the digital image signal encoded in the MPEG system is converted and encoded. A first step of generating a second image signal of an I picture with reduced distortion associated with
A second step of generating a second image signal of the P picture and the B picture by performing transformation processing on the P picture and the B picture in the first image signal to reduce distortion caused by encoding;
A third step of storing in a memory the second image signal of the I picture obtained in the first step and the second image signal of the P picture obtained in the second step,
In the first step,
A plurality of pixel data located around the target position in the second image signal of the I picture are selected from the first image signal of the I picture, and a class is generated from the level distribution of the selected pixel data 4 steps,
Corresponding to the student signal including coding distortion corresponding to the first image signal of the I picture and the second image signal of the I picture, which is obtained in advance for each class detected in the fourth step. A fifth step of generating coefficient data that minimizes an error from a teacher signal that does not include coding distortion;
A sixth step of selecting, from the first image signal of the I picture, a plurality of pixel data located around the position of interest in the second image signal of the I picture;
A seventh step of obtaining pixel data of a target position in the second image signal of the I picture by calculating the coefficient data generated in the fifth step and the plurality of pixel data selected in the sixth step And
In the second step,
From the first image signal of the P picture or B picture and the second image signal of the I picture or P picture stored in the memory, around the position of interest in the second image signal of the P picture or B picture An eighth step of selecting a plurality of pixel data located and generating a class from the level distribution of the selected pixel data;
A student signal that is obtained in advance for each class detected in the eighth step and includes coding distortion corresponding to the first image signal of the P picture or B picture and the second of the P picture or B picture. A ninth step of generating coefficient data that minimizes an error from a teacher signal corresponding to an image signal and not including coding distortion;
From the first image signal of the P picture or B picture and the second image signal of the I picture or P picture stored in the memory, around the position of interest in the second image signal of the P picture or B picture A tenth step of selecting a plurality of pixel data located;
The coefficient data generated in the ninth step and the plurality of pixel data selected in the tenth step are calculated to obtain pixel data at the target position in the second image signal of the P picture or B picture. A program for causing a computer to execute an image signal processing method having 11 steps .
MPEG方式に符号化されたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号のうちIピクチャの第1の画像信号に対して変換処理を行って符号化に伴う歪みを低減したIピクチャの第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記Iピクチャの第1の画像信号に対応した生徒信号を得る第1の復号化と、
上記Iピクチャの生徒信号から、上記Iピクチャの教師信号における注目位置の周辺に位置する複数の画素データを選択し、選択された画素データのレベル分布からクラスを生成する第1のクラス検出部と、
上記Iピクチャの生徒信号から、上記Iピクチャの教師信号における注目位置の周辺に位置する複数の画素データを選択する第1の予測タップ選択部と、
上記第1のクラス検出部で検出されたクラス、上記第1の予測タップ選択部で選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記Iピクチャの生徒信号に係る複数の画素データと上記Iピクチャの教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第1の演算部と、
MPEG方式に符号化されたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号のうちPピクチャ又はBピクチャの第1の画像信号に対して変換処理を行って符号化に伴う歪みを低減したPピクチャ又はBピクチャの第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記Pピクチャ又はBピクチャの第1の画像信号に対応した生徒信号を得る第2の復号化部と、
上記IピクチャおよびPピクチャの教師信号を格納するメモリと、
上記Pピクチャ又はBピクチャの生徒信号と上記メモリに格納されたIピクチャ又はPピクチャの教師信号から、上記Pピクチャ又はBピクチャの教師信号における注目位置の周辺に位置する複数の画素データを選択し、選択された画素データのレベル分布からクラスを生成する第2のクラス検出部と、
上記Pピクチャ又はBピクチャの生徒信号と上記メモリに格納されたIピクチャ又はPピクチャの教師信号から、上記Pピクチャ又はBピクチャの教師信号における注目位置の周辺に位置する複数の画素データを選択する第2の予測タップ選択部と、
上記第2のクラス検出部で検出されたクラス、上記第2の予測タップ選択部で選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記Pピクチャ又はBピクチャの生徒信号に係る複数の画素データと上記Pピクチャ又はBピクチャの教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第2の演算部とを備える係数データ生成装置。
The first image signal of the I picture among the first image signals composed of a plurality of pixel data generated by decoding the digital image signal encoded in the MPEG system is converted and encoded. The digital image signal obtained by encoding the teacher signal corresponding to the second image signal of the I picture in which distortion caused by the conversion is reduced is decoded, and the student signal corresponding to the first image signal of the I picture is decoded. A first decoding unit to obtain;
A first class detection unit that selects a plurality of pixel data located around a target position in the teacher signal of the I picture from the student signal of the I picture, and generates a class from the level distribution of the selected pixel data; ,
A first prediction tap selection unit that selects, from the student signal of the I picture, a plurality of pixel data located around the position of interest in the teacher signal of the I picture;
The I picture student for each class from the class detected by the first class detection unit, the plurality of pixel data selected by the first prediction tap selection unit, and the pixel data of the target position in the teacher signal A first calculation unit that obtains coefficient data that minimizes an error between a plurality of pixel data related to the signal and pixel data at a target position in the teacher signal of the I picture;
Conversion processing is performed on the first image signal of the P picture or B picture among the first image signals composed of a plurality of pixel data generated by decoding the digital image signal encoded in the MPEG system. The first picture of the P picture or B picture is decoded by decoding the digital picture signal obtained by coding the teacher signal corresponding to the second picture signal of the P picture or B picture that is reduced in distortion caused by the coding. A second decoding unit for obtaining a student signal corresponding to the image signal of
A memory for storing teacher signals of the I picture and the P picture;
A plurality of pixel data located around a target position in the teacher signal of the P picture or B picture is selected from the student signal of the P picture or B picture and the teacher signal of the I picture or P picture stored in the memory. A second class detection unit for generating a class from the level distribution of the selected pixel data;
A plurality of pixel data located around the position of interest in the teacher signal of the P picture or B picture is selected from the student signal of the P picture or B picture and the teacher signal of the I picture or P picture stored in the memory. A second prediction tap selection unit;
The P picture or B for each class from the class detected by the second class detection unit, the plurality of pixel data selected by the second prediction tap selection unit, and the pixel data of the target position in the teacher signal. a plurality of pixel data and the P-picture or the second and engaging number data generation Ru having an arithmetic unit for obtaining the coefficient data that minimizes the error between the target position of the pixel data in the teacher signal of the B picture according to the student signal of the picture apparatus.
MPEG方式に符号化されたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号のうちIピクチャの第1の画像信号に対して変換処理を行って符号化に伴う歪みを低減したIピクチャの第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記Iピクチャの第1の画像信号に対応した生徒信号を得る第1のステップと、
上記Iピクチャの生徒信号から、上記Iピクチャの教師信号における注目位置の周辺に位置する複数の画素データを選択し、選択された画素データのレベル分布からクラスを生成する第2のステップと、
上記Iピクチャの生徒信号から、上記Iピクチャの教師信号における注目位置の周辺に位置する複数の画素データを選択する第3のステップと、
上記第2のステップで検出されたクラス、上記第3のステップで選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記Iピクチャの生徒信号に係る複数の画素データと上記Iピクチャの教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第4のステップと、
MPEG方式に符号化されたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号のうちPピクチャ又はBピクチャの第1の画像信号に対して変換処理を行って符号化に伴う歪みを低減したPピクチャ又はBピクチャの第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記Pピクチャ又はBピクチャの第1の画像信号に対応した生徒信号を得る第5のステップと、
上記IピクチャおよびPピクチャの教師信号をメモリに格納する第6のステップと、
上記Pピクチャ又はBピクチャの生徒信号と上記メモリに格納されたIピクチャ又はPピクチャの教師信号から、上記Pピクチャ又はBピクチャの教師信号における注目位置の周辺に位置する複数の画素データを選択し、選択された画素データのレベル分布からクラスを生成する第7のステップと、
上記Pピクチャ又はBピクチャの生徒信号と上記メモリに格納されたIピクチャ又はPピクチャの教師信号から、上記Pピクチャ又はBピクチャの教師信号における注目位置の周辺に位置する複数の画素データを選択する第8のステップと、
上記第7のステップで検出されたクラス、上記第8のステップで選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記Pピクチャ又はBピクチャの生徒信号に係る複数の画素データと上記Pピクチャ又はBピクチャの教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第9のステップとを備える係数データ生成方法。
The first image signal of the I picture among the first image signals composed of a plurality of pixel data generated by decoding the digital image signal encoded in the MPEG system is converted and encoded. And decoding a digital image signal obtained by encoding a teacher signal corresponding to the second image signal of the I picture with reduced distortion caused by the conversion into a student signal corresponding to the first image signal of the I picture . A first step of obtaining
A second step of selecting a plurality of pixel data located around a target position in the teacher signal of the I picture from the student signal of the I picture and generating a class from the level distribution of the selected pixel data;
A third step of selecting a plurality of pixel data located around a target position in the teacher signal of the I picture from the student signal of the I picture;
From the class detected in the second step, the plurality of pixel data selected in the third step, and the pixel data of the target position in the teacher signal, a plurality of classes related to the student signal of the I picture for each class. A fourth step of obtaining coefficient data that minimizes an error between the pixel data and the pixel data at the target position in the teacher signal of the I picture;
Conversion processing is performed on the first image signal of the P picture or B picture among the first image signals composed of a plurality of pixel data generated by decoding the digital image signal encoded in the MPEG system. The first image of the P picture or B picture is decoded by decoding the digital image signal obtained by encoding the teacher signal corresponding to the second image signal of the P picture or B picture that has been reduced in distortion caused by encoding. A fifth step of obtaining a student signal corresponding to the image signal of
A sixth step of storing the I picture and P picture teacher signals in a memory;
A plurality of pixel data located around a target position in the teacher signal of the P picture or B picture is selected from the student signal of the P picture or B picture and the teacher signal of the I picture or P picture stored in the memory. A seventh step of generating a class from the level distribution of the selected pixel data;
A plurality of pixel data located around the position of interest in the teacher signal of the P picture or B picture is selected from the student signal of the P picture or B picture and the teacher signal of the I picture or P picture stored in the memory. An eighth step;
From the class detected in the seventh step, the plurality of pixel data selected in the eighth step, and the pixel data at the position of interest in the teacher signal, the student signal of the P picture or B picture for each class. a plurality of pixel data and the P-picture or B ninth step and engaging number data generation process of Ru with a seeking coefficient data that minimizes the error between the target position of the pixel data in the teacher signal of the picture according.
MPEG方式に符号化されたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号のうちIピクチャの第1の画像信号に対して変換処理を行って符号化に伴う歪みを低減したIピクチャの第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記Iピクチャの第1の画像信号に対応した生徒信号を得る第1のステップと、
上記Iピクチャの生徒信号から、上記Iピクチャの教師信号における注目位置の周辺に位置する複数の画素データを選択し、選択された画素データのレベル分布からクラスを生成する第2のステップと、
上記Iピクチャの生徒信号から、上記Iピクチャの教師信号における注目位置の周辺に 位置する複数の画素データを選択する第3のステップと、
上記第2のステップで検出されたクラス、上記第3のステップで選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記Iピクチャの生徒信号に係る複数の画素データと上記Iピクチャの教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第4のステップと、
MPEG方式に符号化されたデジタル画像信号を復号化することによって生成される、複数の画素データからなる第1の画像信号のうちPピクチャ又はBピクチャの第1の画像信号に対して変換処理を行って符号化に伴う歪みを低減したPピクチャ又はBピクチャの第2の画像信号に対応する教師信号が符号化されて得られたデジタル画像信号を復号化して上記Pピクチャ又はBピクチャの第1の画像信号に対応した生徒信号を得る第5のステップと、
上記IピクチャおよびPピクチャの教師信号をメモリに格納する第6のステップと、
上記Pピクチャ又はBピクチャの生徒信号と上記メモリに格納されたIピクチャ又はPピクチャの教師信号から、上記Pピクチャ又はBピクチャの教師信号における注目位置の周辺に位置する複数の画素データを選択し、選択された画素データのレベル分布からクラスを生成する第7のステップと、
上記Pピクチャ又はBピクチャの生徒信号と上記メモリに格納されたIピクチャ又はPピクチャの教師信号から、上記Pピクチャ又はBピクチャの教師信号における注目位置の周辺に位置する複数の画素データを選択する第8のステップと、
上記第7のステップで検出されたクラス、上記第8のステップで選択された複数の画素データおよび上記教師信号における注目位置の画素データから上記クラス毎に、上記Pピクチャ又はBピクチャの生徒信号に係る複数の画素データと上記Pピクチャ又はBピクチャの教師信号における注目位置の画素データとの誤差を最小にする係数データを求める第9のステップとを備える係数データ生成方法をコンピュータに実行させるためのプログラム。
The first image signal of the I picture among the first image signals composed of a plurality of pixel data generated by decoding the digital image signal encoded in the MPEG system is converted and encoded. And decoding a digital image signal obtained by encoding a teacher signal corresponding to the second image signal of the I picture with reduced distortion caused by the conversion into a student signal corresponding to the first image signal of the I picture . A first step of obtaining
A second step of selecting a plurality of pixel data located around a target position in the teacher signal of the I picture from the student signal of the I picture and generating a class from the level distribution of the selected pixel data;
A third step of selecting a plurality of pixel data located around a target position in the teacher signal of the I picture from the student signal of the I picture ;
From the class detected in the second step, the plurality of pixel data selected in the third step, and the pixel data of the target position in the teacher signal, a plurality of classes related to the student signal of the I picture for each class. A fourth step of obtaining coefficient data that minimizes an error between the pixel data and the pixel data at the target position in the teacher signal of the I picture;
Conversion processing is performed on the first image signal of the P picture or B picture among the first image signals composed of a plurality of pixel data generated by decoding the digital image signal encoded in the MPEG system. The first image of the P picture or B picture is decoded by decoding the digital image signal obtained by encoding the teacher signal corresponding to the second image signal of the P picture or B picture that has been reduced in distortion caused by encoding. A fifth step of obtaining a student signal corresponding to the image signal of
A sixth step of storing the I picture and P picture teacher signals in a memory;
A plurality of pixel data located around a target position in the teacher signal of the P picture or B picture is selected from the student signal of the P picture or B picture and the teacher signal of the I picture or P picture stored in the memory. A seventh step of generating a class from the level distribution of the selected pixel data;
A plurality of pixel data located around the position of interest in the teacher signal of the P picture or B picture is selected from the student signal of the P picture or B picture and the teacher signal of the I picture or P picture stored in the memory. An eighth step;
From the class detected in the seventh step, the plurality of pixel data selected in the eighth step, and the pixel data of the target position in the teacher signal, the student signal of the P picture or B picture for each class. executing a plurality of pixel data and the P-picture or the ninth step and the engaging speed data generating method Ru comprising the obtaining coefficient data that minimizes the error between the target position of the pixel data in the teacher signal of B picture in the computer according Program for.
JP2002304830A 2002-10-18 2002-10-18 Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method Expired - Fee Related JP4158479B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002304830A JP4158479B2 (en) 2002-10-18 2002-10-18 Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002304830A JP4158479B2 (en) 2002-10-18 2002-10-18 Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method

Publications (2)

Publication Number Publication Date
JP2004140694A JP2004140694A (en) 2004-05-13
JP4158479B2 true JP4158479B2 (en) 2008-10-01

Family

ID=32452142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002304830A Expired - Fee Related JP4158479B2 (en) 2002-10-18 2002-10-18 Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method

Country Status (1)

Country Link
JP (1) JP4158479B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3785176B2 (en) 2004-05-11 2006-06-14 コナミ株式会社 GAME DEVICE, GAME CONTROL METHOD, AND PROGRAM
JPWO2017191749A1 (en) * 2016-05-02 2019-03-07 ソニー株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2004140694A (en) 2004-05-13

Similar Documents

Publication Publication Date Title
JP4462823B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
JP4114885B2 (en) Image encoding apparatus, method, and program
JP4847076B2 (en) Method and transcoder for estimating output macroblocks and motion vectors for transcoding
JP4078906B2 (en) Image signal processing apparatus and processing method, image display apparatus, coefficient data generating apparatus and generating method used therefor, program for executing each method, and computer-readable medium storing the program
CN103069798B (en) Method and apparatus for encoding and decoding at least one image in performing transform domain estimation
JP4158479B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
JP4140259B2 (en) Information signal processing apparatus, information signal processing method, program, and computer-readable medium
US7991054B2 (en) Information signal processing device, information signal processing method, image signal processing device, image displaying device, device and method for producing correction data used in them, device and method for producing coefficient data, programs for executing these methods, and computer-readable medium for storing the program
US8848793B2 (en) Method and system for video compression with integrated picture rate up-conversion
Martins et al. A unified approach to restoration, deinterlacing and resolution enhancement in decoding MPEG-2 video
JP4206730B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
JP4158476B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
JP4158474B2 (en) Image signal processing apparatus and processing method, coefficient data generating apparatus and generating method used therefor, and program for executing each method
JP4140662B2 (en) Coefficient seed data generation apparatus and coefficient data generation apparatus
JP4154961B2 (en) Image signal processing apparatus and processing method, image display apparatus, coefficient data generating apparatus and generating method used therefor, program for executing each method, and computer-readable medium storing the program
JP4505729B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP3991800B2 (en) INFORMATION SIGNAL PROCESSING DEVICE, INFORMATION SIGNAL PROCESSING METHOD, IMAGE SIGNAL PROCESSING DEVICE AND IMAGE DISPLAY DEVICE, CORRECTION DATA GENERATION DEVICE AND GENERATION METHOD USED FOR THE SAME, PROGRAM FOR EXECUTING each METHOD, AND COMPUTER READABLE RECORDING THE PROGRAM Medium
JP2014027409A (en) Image selection method, image selection device, encoder, image selection system, image selection program, encoding program and image encoding selection program
JP2004173013A (en) Motion vector detector and detection method, image signal processor using the method and processing method, coeeficient data generator for use in the processor and generation method, and program for implementing these methods
JP2002142222A (en) Screen resizing device for compressed images
JP2005184495A (en) Moving picture coding apparatus and method
JPH09154061A (en) Special effect device and image transmission system
JP2001285870A (en) Device and method for processing digital signal and device and method for processing digital picture signal
JP2002064826A (en) Apparatus and method for converting resolution of compressed image
JP2005294967A (en) Video encoder

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050929

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080401

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080624

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080707

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110725

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120725

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130725

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees
点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载