+

WO2007116551A1 - 画像符号化装置及び画像符号化方法並びに画像復号化装置及び画像復号化方法 - Google Patents

画像符号化装置及び画像符号化方法並びに画像復号化装置及び画像復号化方法 Download PDF

Info

Publication number
WO2007116551A1
WO2007116551A1 PCT/JP2006/320876 JP2006320876W WO2007116551A1 WO 2007116551 A1 WO2007116551 A1 WO 2007116551A1 JP 2006320876 W JP2006320876 W JP 2006320876W WO 2007116551 A1 WO2007116551 A1 WO 2007116551A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
bit
pixel
information
accuracy
Prior art date
Application number
PCT/JP2006/320876
Other languages
English (en)
French (fr)
Inventor
Reiko Noda
Takeshi Chujoh
Original Assignee
Kabushiki Kaisha Toshiba
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kabushiki Kaisha Toshiba filed Critical Kabushiki Kaisha Toshiba
Priority to BRPI0709853-7A priority Critical patent/BRPI0709853A2/pt
Priority to CN201110243637XA priority patent/CN102256132A/zh
Priority to JP2008508675A priority patent/JP5254004B2/ja
Priority to RU2008138706/09A priority patent/RU2433562C2/ru
Priority to EP20070740633 priority patent/EP2003897A4/en
Priority to KR1020087023440A priority patent/KR101067955B1/ko
Priority to CN2007800112005A priority patent/CN101411202B/zh
Priority to AU2007232828A priority patent/AU2007232828B2/en
Priority to CA 2645931 priority patent/CA2645931A1/en
Priority to PCT/JP2007/057197 priority patent/WO2007114368A1/ja
Priority to MX2008012516A priority patent/MX2008012516A/es
Priority to KR1020117001539A priority patent/KR101110517B1/ko
Publication of WO2007116551A1 publication Critical patent/WO2007116551A1/ja
Priority to NO20084509A priority patent/NO20084509L/no
Priority to HR20080553A priority patent/HRP20080553A2/xx
Priority to JP2012110972A priority patent/JP2012191642A/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2389Multiplex stream processing, e.g. multiplex stream encrypting
    • H04N21/23892Multiplex stream processing, e.g. multiplex stream encrypting involving embedding information at multiplex stream level, e.g. embedding a watermark at packet level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/467Embedding additional information in the video signal during the compression process characterised by the embedded information being invisible, e.g. watermarking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8358Generation of protective data, e.g. certificates involving watermark

Definitions

  • Image coding apparatus image coding method, image decoding apparatus, and image decoding method
  • the present invention relates to an image encoding device and an image encoding method for a moving image or a still image, and an image decoding apparatus and an image decoding method.
  • H. 264 which is a typical moving image coding standard method, is a discrete code for a prediction error signal between an input image signal and a prediction image signal created by performing intra prediction or motion compensation. After performing orthogonal transformation such as sine transformation (DCT) and performing such transformation on the frequency axis, the transform coefficient is subjected to compression processing by quantization and coding to obtain a coded image. It is a lossless compression method.
  • an interpolation filter for in-screen prediction and motion compensation adds a filter coefficient to a plurality of pixels and then rounds them to the same precision as the pixel bit length of the input image. Is going.
  • Japanese Patent Laid-Open No. 2003-283872 can slightly reduce the above-described rounding error by expanding the dynamic range of the input image.
  • the expansion of the dynamic range in Japanese Patent Laid-Open No. 2003-283872 is performed only within the range of the bit accuracy of the input image, and a rounding error occurs when the dynamic range is expanded. The calculation accuracy cannot be improved.
  • the present invention provides an image coding apparatus, an image coding method, an image decoding apparatus, and an image decoding for improving the coding efficiency by sufficiently increasing the accuracy of intra prediction and motion compensation.
  • the purpose is to provide a conversion method.
  • the first aspect of the present invention is a pixel that generates a converted input image with different bit precision by converting the bit precision of each pixel of the input image, and outputs bit conversion information indicating conversion with respect to the bit precision.
  • a bit precision converter ; an image encoder that encodes the input conversion power image and outputs image encoding information; and a multiplexer that multiplexes the bit conversion information and the image encoding information.
  • An image encoding device is provided.
  • the second aspect of the present invention is a pixel bit accuracy for converting the bit accuracy of each pixel of an input image composed of a plurality of pixels each having N bit accuracy to M bits larger (N + M) bit accuracy.
  • a prediction image generator that generates a prediction image of (N + M) bit accuracy from the reference image of (N + M) bit accuracy for the transformation and the input image of (N + M) bit accuracy;
  • N (+ M) A subtractor that obtains a difference signal between the input image with bit accuracy and the prediction image with (N + M) bit accuracy, and an encoder that encodes the difference signal and outputs image coding information.
  • a decoder that outputs a decoded differential image based on the image encoding information, and (N + M) bit accuracy by adding the prediction image with (N + M) bit accuracy and the decoded differential image
  • An adder that outputs a decoded image of (N + M) bit accuracy as the reference image
  • An image encoding device including a reference image storage memory to be stored is provided.
  • a third aspect of the present invention is a multiplexing separator for inputting image information obtained by multiplexing bit conversion information and image coding information and separating the image information into bit conversion information and image code information;
  • An image decoder that decodes the image encoding information and outputs a decoded image; and a pixel bit accuracy conversion that converts a value of each pixel of the decoded image to a bit accuracy with different bit accuracy based on the bit conversion information
  • an image decoding device comprising:
  • a decoder for decoding input code key image information into a (N + M) bit-accuracy decoded differential image
  • a prediction image creator that creates a prediction image with (N + M) bit accuracy from a reference image with (N + M) bit accuracy using the encoded image information, and adds the decoded difference image and the prediction image.
  • An adder that obtains (N + M) bit-accurate decoded images, and (N + M) bit-accurate
  • a reference image storage memory for storing the decoded image as the reference image, and a pixel bit accuracy for converting each pixel of the decoded image with (N + M) bit accuracy to N bit accuracy and outputting a decoded image with N bit accuracy
  • an image decoding device including the converter.
  • FIG. 1A is a block diagram showing a configuration example of an image encoding device according to the first embodiment of the present invention.
  • FIG. 1B is a flowchart showing an operation of the image encoding device shown in FIG. 1A.
  • FIG. 2 is a block diagram showing a configuration of a pixel bit length expander.
  • FIG. 3 is a diagram showing an example of a syntax structure used in the embodiment.
  • FIG. 4 is a diagram showing a structure of sequence parameter set syntax used in the same embodiment.
  • FIG. 5 is a diagram showing the structure of supplemental syntax used in the same embodiment.
  • FIG. 6 is a diagram showing the structure of supplemental syntax used in the same embodiment.
  • FIG. 7A is a block diagram showing a configuration example of an image decoding apparatus according to the embodiment.
  • FIG. 7B is a flowchart showing an operation of the image decoding apparatus in FIG. 7A.
  • FIG. 8 is a block diagram showing a configuration of the pixel bit length reducer of FIG.
  • FIG. 9A is a block diagram showing a configuration example of an image encoding device according to the second embodiment of the present invention.
  • FIG. 9B is a flowchart showing the operation of the image decoding apparatus in FIG. 9A.
  • FIG. 10A is a block diagram showing a configuration example of an image decoding apparatus according to the embodiment.
  • FIG. 10B is a flowchart showing the operation of the image decoding apparatus in FIG. 10A.
  • FIG. 11A is a block diagram showing a configuration example of an image encoding device according to a third embodiment.
  • FIG. 11B is a flowchart showing the operation of the image encoding device shown in FIG. 11A.
  • FIG. 12 is a block diagram showing a configuration of the pixel bit length converter of FIG. 11.
  • FIG. 13 shows the structure of sequence parameter set syntax used in the same embodiment. It is a figure.
  • FIG. 14 is a diagram showing a structure of picture parameter set syntax used in the embodiment.
  • FIG. 15 is a diagram showing a structure of slice level syntax used in the embodiment.
  • FIG. 16 is a diagram showing a structure of macroblock level syntax used in the embodiment.
  • FIG. 17A is a block diagram showing a configuration example of an image decoding apparatus according to the embodiment.
  • FIG. 17B is a flowchart showing an operation of the image decoding apparatus in FIG. 17A.
  • FIG. 18A is a block diagram showing a configuration example of an image encoding apparatus according to the fourth embodiment of the present invention.
  • FIG. 18B is a flowchart showing the operation of the image encoding device shown in FIG. 18A.
  • FIG. 19A is a block diagram showing a configuration example of an image decoding apparatus according to the embodiment.
  • FIG. 19B is a flowchart showing the operation of the image decoding apparatus in FIG. 19A.
  • FIG. 20A is a block diagram showing a configuration example of an image encoding device according to the fifth embodiment.
  • FIG. 20B is a flowchart showing an operation of the image encoding device in FIG. 20A.
  • FIG. 21A is a block diagram showing a configuration example of an image decoding apparatus according to the embodiment.
  • FIG. 21B is a flowchart showing the operation of the image decoding apparatus in FIG. 21A.
  • FIG. 22 is a block diagram of a predicted image creator on the encoder side.
  • FIG. 23 is a block diagram of a prediction image creator on the decoder side.
  • FIG. 24 is a block diagram showing a configuration of an inter-frame predictor.
  • FIG. 25 is a block diagram showing another configuration of the inter-frame predictor.
  • FIG. 26 is a block diagram showing another configuration of the inter-frame predictor.
  • FIG. 27 is a block diagram showing a configuration of a loop filter on the encoder side.
  • FIG. 28 is a block diagram showing a configuration of a decoding-side loop filter.
  • FIG. 29 is a block diagram showing another configuration of the pixel bit length expander.
  • FIG. 30 is a block diagram of a filter processing unit.
  • FIG. 31 is a flowchart of the operation of the filter processing unit.
  • FIG. 32 is a block diagram of a pixel bit length reducer.
  • FIG. 33A is a block diagram of an image coding apparatus according to a sixth embodiment.
  • FIG. 33B is a flowchart showing an operation of the image encoding device shown in FIG. 33A.
  • FIG. 34A is a block diagram of an image decoding apparatus according to a sixth embodiment.
  • FIG. 34B is a flowchart showing the operation of the image decoding apparatus in FIG. 34A.
  • FIG. 35A is a block diagram of an image encoding device according to a seventh embodiment.
  • FIG. 35B is a flowchart showing the operation of the image encoding device shown in FIG. 35A.
  • FIG. 36 is a diagram showing sequence parameter set syntax.
  • FIG. 37 is a diagram showing sequence parameter set syntax.
  • FIG. 38 is a diagram showing a setting example of control flags used in the processing of the image encoding device.
  • FIG. 39A is a block diagram showing a configuration of an image decoding apparatus according to the seventh embodiment.
  • FIG. 39B is a flowchart showing the operation of the image decoding apparatus in FIG. 39A.
  • FIG. 40 is a diagram showing setting of control flags included in bit conversion information.
  • FIG. 41 is a diagram for explaining a difference in rounding error caused by the presence or absence of bit precision extension.
  • FIG. 42 is a diagram showing predicted pixel values with half-pixel accuracy.
  • FIG. 43 is a diagram showing conversion characteristics in pixel bit length extension and pixel bit length reduction according to the embodiment of the present invention.
  • This image encoding apparatus is supplied with an input image signal 100 and receives a pixel bit.
  • a pixel bit length extender (that is, a pixel bit precision conversion for converting the pixel bit precision) 1001 and an image encoder 10 connected to the output of the image bit length extender 1001,
  • a multiplexer 12 connected to the output of the image encoder 10 and a bit length conversion controller 1002 connected to the other output of the image bit length extender 1 001 and supplying the bit extension information to the multiplexer 12 It is equipped with.
  • a moving image signal is input to the image encoding device in units of frames as the input image signal 100 (Sl l).
  • the pixel bit length expander 1001 performs processing for converting each pixel of the input N-bit precision image signal 100 to (N + M) bit precision larger than N bits by M bits. That is, in the pixel bit length extender 1001 shown in FIG. 2, whether to extend the bit length of each pixel of the input N-bit precision image signal 100 is selected by the switch E0 based on the bit length extension information 1003. (S12). Connect switch E0 to the ON side for expansion, and OFF for no expansion.
  • the switch E0 When the switch E0 is set to ON, the image signal is input to the pixel bit length extension conversion (pixel bit precision conversion) E01, and the pixel bit length conversion described later is performed (S13).
  • switch E0 When switch E0 is OFF, the image signal is output as it is without being converted to pixel bit length.
  • the value of a certain pixel of the input image signal is K
  • the pixel value K ′ after the pixel value K is expanded by M bits is calculated as the following formula (1).
  • the pixel value K ′ is calculated as shown in the following equation (11).
  • K ' INT [[ ⁇ K / ((1 «N)-l) ⁇ 7 X ((l ⁇ M) — l)] + offset] (1— 1)
  • K, INT [[ ⁇ (K-Min) / (Max-Min) ⁇ 7 X ((l « ⁇ ) — 1)] + offset] INT indicates processing for rounding to an integer.
  • the offset in the formulas (1 1) and (1 2) indicates an offset when rounding, and is an arbitrary value from 0 to 1.
  • the input image is a color image signal composed of a plurality of components such as RGB
  • the bit length of each pixel of each component is expanded to a bit accuracy larger by M bits, and then each component is changed to a different color.
  • each pixel R, G, B of each component of the N-bit input image is converted to Y, Co, Cg after extending the value of each pixel to a bit precision larger by M bits.
  • Round (A) is the process of rounding A to an integer.
  • the number of bits M to be expanded is set to 2 or more, it is possible to perform color conversion without causing a rounding error in the rounding process.
  • the color conversion shown here is merely an example, and any process may be performed as long as it is a process for performing color conversion.
  • the above example is an example of conversion performed by the pixel bit length expander 1001, and the process of expanding the value of each pixel to a bit precision larger by M bits is not limited to the above example. Any processing that can be expanded is possible.
  • bit extended input image signal 1009 that has been bit extended as described above is guided to the image encoder 10.
  • bit conversion information 1010 such as the number of bits M to be expanded, the bit length N of the input image signal, and other gamma values, pixel maximum values, minimum values, and histograms necessary for conversion is generated (S14).
  • Controller (bit precision conversion controller) 1002 The bit extension information 1003 is led to the multiplexing unit 12.
  • the image encoder 10 encodes the input bit-extended input image signal 1009 and outputs it to the multiplexing unit 12 as image code key data 11 (S15).
  • the multiplexing unit 12 multiplexes the encoded image data 11 and the bit extension information 1003 (S16), and sends the encoded data 117 to the transmission system or storage system (not shown) (S17).
  • FIG. 3 shows an example of the syntax structure used in the present embodiment.
  • the high-level syntax (401) is packed with syntax information of higher layers above the slice.
  • the slice level syntax (402) information required for each slice is specified, and in the macro block level syntax (403), a change value of the quantization parameter required for each macro block and mode information are specified. Has been.
  • Each syntax is composed of more detailed syntax.
  • the high level syntax (401) is composed of sequence and picture level syntax such as sequence parameter set syntax (404) and picture parameter set syntax (405).
  • the slice level syntax (402) includes a slice header syntax (406), a slice data syntax (407), and the like.
  • the macroblock level syntax (403) is composed of macroblock header syntax (408), macroblock data syntax (409) and more! RU
  • syntax is an indispensable component at the time of decoding, and if the syntax information is missing, data cannot be correctly restored at the time of decoding.
  • sub-subscript syntax (410) as auxiliary syntax for multiplexing information that is not necessarily required at the time of decoding.
  • Supplemental syntax is prepared to send information indicating instructions for processing that can be executed independently on the decoding side.
  • ex_seq_bit_extention_flag shown in the sequence parameter set syntax of Fig. 4 is a flag indicating whether or not to perform bit extension.
  • the flag power is STRUE, whether or not to perform bit extension is determined in sequence units. It is possible to switch. If the flag is FALSE, no bit expansion is performed in the sequence.
  • ex_seq_bit_extention_flag is TRUE, ex_seq_shift_bits indicating how many more bits to extend is transmitted. For example, ONZOFF of the switch E0 in the pixel bit length extender 1001 shown in FIG. 2 is determined by TRUEZFALSE of the flag.
  • ex_bit_transform_type indicating what kind of transformation has been performed may be transmitted.
  • ex_bit_transform_type is, for example, a value BIT_EXT_TRANS indicating a simple bit extension transformation expressed by Equation (1), GAMMA_TRANS indicating that ⁇ conversion indicated by Equation (1 1) has been performed, and Equation (1 2).
  • DR_TRANS etc. indicating that dynamic range conversion has been performed is stored!
  • ex_bit_transform_type is GAMMA_TRANS
  • gamma_value indicating what kind of gamma value is used for conversion is transmitted.
  • ex_bit_transform_type is DR_TRANS further max_ Va lue respectively indicate the maximum value and the minimum value of the pixel of the input image signal, min- value Chikaraoku is o
  • Figure 5 shows an example of transmitting the bit accuracy of the output image signal on the decoding side using supplemental syntax.
  • Ex_ se i_bit_extention_flag shown in supplemental syntax is a flag indicating whether to change the bit accuracy of the output image signal, when the flag force STRUE indicates that changing the bit precision of the output image signal. When the flag is FALSE, the bit precision of the output image signal is not changed. When the flag is TRUE, bit_depth_of_decoded_image is further transmitted.
  • bit_depth_of_decodedjmage is a value indicating the bit precision of the output image signal.
  • bit_depth_of_decoded_mage It is possible to output the decoded image with the bit precision indicated by bit_depth_of_decoded_image by enlarging or reducing the bit precision of the decoded image according to the value.
  • bit accuracy indicated by bit_depth_of_decoded jmage is not necessarily used when decoding an image signal with a decoder, or even if it has the ability to decode by performing bit expansion or reduction. It is also possible to output the decoded bit as it is without needing to output the decoded image.
  • FIG. 6 shows a color space of the output image signal on the decoding side using the supplemental syntax 410.
  • ex-sei-bit-extention-flag, bit-depth-of-decoded-image is the same as the example in Fig. 4 above.
  • ex_color_transform_flag indicated in the supplemental syntax is a flag indicating whether or not to transform the color space of the output image signal.
  • the flag power is STRUE
  • the color space of each component of the output image signal is changed. It shows that.
  • the flag is FALSE, it indicates that the color space of each component of the output image signal is not changed.
  • color_space_of_decoded jmage is also sent.
  • color_space_of_decodedjmage is a value indicating the color space of the output image signal, and has the ability to perform decoding by performing bit expansion or reduction on the decoding side described later.
  • the image decoding apparatus includes a demultiplexing unit 21 to which encoded data is input, an image decoder 20 connected to the output of the demultiplexing unit 21, and an image decoding unit.
  • the bit extension information is received from the pixel bit length reducer (pixel bit precision reduction converter) 2001 connected to the output of the converter 20 and the demultiplexing unit 21, and the bit conversion information is input to the pixel bit length reducer 2001.
  • a bit length conversion controller bit precision conversion controller
  • the code key data 117 encoded by the image code key device of FIG. 1A is input to the demultiplexing unit 21 (S21).
  • the demultiplexer 21 demultiplexes the code key data 117 into bit extension information 2004 and image code key data 11 (S22).
  • the bit extension information 2004 is input to the bit length conversion controller 2002, and the image encoded data 11 is input to the image decoder 20.
  • the encoded image data 11 is decoded by a procedure reverse to the encoding performed by the image encoder 10 to be a bit extended decoded image signal 203 (S23).
  • the bit extended decoded image signal 203 is input to the pixel bit length reducer 2001.
  • the input N-bit precision image signal 100 reduces the bit length of each pixel by the switch E2 based on the bit conversion information 2003. Whether or not to do so is selected (S24).
  • Switch E2 is connected to the ON side when reduction is performed, and is connected to the OFF side when reduction is not performed.
  • the image signal is input to the pixel bit length reduction conversion E02, and the pixel bit length conversion described later is performed (S25).
  • switch E2 is OFF, the image signal is output as it is without pixel bit length conversion.
  • ex_seq_bit_extention_flag is TRUE, indicating that the bit length of each pixel has been extended! If this is the case, set the switch to the ON side, and if it is FALSE, set the switch to the OFF side.
  • Bit conversion information 2003 power For example, when M_bit extended by ex_seq_shift_bits and B_IT_EXT_TRANS indicating that the transformation represented by equation (1) has been performed by ex_bit_transform_type, for example, pixel bit length reduction Bit extension input to device 2001
  • the decoded image signal 203 reduces the value of each pixel by M bits. For example, when the value of a certain pixel in the bit extended decoded image signal 203 is K, the pixel value K after being reduced by M bits is calculated as follows.
  • the reduction conversion method here is, for example, that the offset is set to an arbitrary value from 0 to (1 ⁇ M).
  • any conversion method can be used as long as the bit length is reduced.
  • ex_seq_shift_bits is extended by M bits
  • ex_bit_transform_type indicates GAMMA_TRANS indicating that the gamma transformation represented by, for example, Equation (11) has been performed.
  • gamma_value indicates that the gamma value is ⁇
  • the bit extended decoded image signal 203 input to the pixel bit length reducer 2001 reduces the value of each pixel by ⁇ bits. For example, when the value of a certain pixel in the bit extended decoded image signal 203 is ⁇ , the pixel value ⁇ after bit reduction is calculated as follows.
  • ⁇ , ⁇ [[ ⁇ / ((1 « ⁇ )-1) ⁇ 1 / ⁇ X ((l « ⁇ ) — 1)] + offset]
  • Bit conversion information 2003 is DR_TRANS indicating that, for example, the dynamic range conversion shown in Equation (12) has been performed by ex_bit_transform_type, which is M bits extended by ex_seq_shift_bits, and min.value and maxvalue If the minimum value and the maximum value of the pixels of the input image are indicated as Max and Min, respectively, the bit extended decoded image signal 203 input to the pixel bit length reducer 2001 is Reduce value by M bits. For example, if the value of a certain pixel in the bit extended decoded image signal 203 is K, the pixel value K after being reduced by M bits is calculated as follows.
  • K, INT [[ ⁇ (K- (Min «M)) / ((Max-Min)« ⁇ ) ⁇ 7 X ((l «N) — 1)] + offset]
  • INT indicates processing for rounding to an integer.
  • the offset in the formulas (2-1) and (2-2) indicates the offset when rounding, and is an arbitrary value between 0 and 1.
  • Bit conversion information 2003 power For example, ex_seq_shift_bits is extended by M bits, and the color space of the decoded image signal is specified in the supplemental syntax shown in FIG. 5, for example! /, Specified in color_space_of_decoded_image! If the color space is different from the color space, each pixel of each component of the decoded image is converted to the color space specified by color_space_of_decoded_image, and the bit length is reduced by M bits.
  • RGB color_space_of_decode djmage
  • Bit reduction and color space conversion are performed according to (2-3), and each pixel of each component is converted to R, G, and B, respectively.
  • R ' Cliply (B' + (Co- (l «(N + M-1))))
  • Cliply (A) outputs A as it is when A satisfies 0 ⁇ A ⁇ (K ⁇ (N + M)), and 0 when A ⁇ 0, A ⁇ (K ⁇ (N + M)) represents (1 (N + M)) — a process of outputting 1.
  • This is an example of a method of reducing the pixel value to a bit length smaller by M bits using rounding.
  • the reduction conversion method here uses, for example, an offset of 0 to (1 ⁇ M). Any conversion method may be used as long as it is a method of reducing bits.
  • the color space of the decoded image signal is specified in supplemental syntax and specified by collor_space_of_decoded_image. Even if the color space of the decoded image signal is specified in the same way as the example shown in supplemental syntax in 401, color conversion processing is performed when color conversion processing is performed in the process of outputting the decoded image. After that, reduce the pixel value to a bit length smaller by M bits. It can be small.
  • the color conversion shown here is only an example, and any process that performs color conversion can be performed.
  • the decoded image 202 having the same N-bit accuracy as the input image input to the image encoding device is output from the pixel bit length reducer 2001 (S25).
  • image encoding and image decoding can be performed with a bit accuracy that is M bits larger than the bit accuracy of the input image, and code efficiency can be improved.
  • this image encoding device is composed of a pixel bit length extender (pixel bit precision conversion) 1001, a bit length conversion controller (bit precision conversion controller) 1002, a subtractor 101, and an orthogonal transformer 104.
  • the output of the pixel bit length extender 1 001 receiving the input image signal is connected to the entropy encoder 108 via the subtractor 101, the orthogonal transformation 104 and the quantizer 106.
  • the output of the quantizer 106 is connected to a predicted image generator 115 via an inverse quantizer 109, an inverse orthogonal transformer 110, an adder 111, a loop filter 113, and a frame memory 114.
  • the predicted image signal from the predicted image generator 115 is input to the subtracter 101 and the adder 111.
  • the motion vector Z prediction mode information from the prediction image creator 115 is input to the entropy encoder 108.
  • the bit length conversion controller 1002 inputs the bit conversion information to the pixel bit length extender 1001 and inputs the bit extension information to the entropy code encoder 108.
  • the pixel bit length expander 1001 receives each pixel of the input N-bit precision image signal 100.
  • the process of extending the value of N to M bits larger than N bits (N + M) is performed (S32). For example, if the value of a pixel in the input image signal is K, M bit expansion
  • the pixel value K ′ after the extension is calculated by, for example, Equation (1), Equation (1-1), (1-2), (1 3), and the like.
  • Conversion information such as the number of extended bits ⁇ is guided to the entropy encoder 108 by the bit length conversion controller 1002 as bit expansion information 1003 (S33).
  • bit expansion information 1003 As an example of the configuration of the pixel bit length expander 1 001, the configuration of FIG. 2 may be used, and processing for controlling whether to extend the bit length of each pixel with a flag may be performed as in the first embodiment. .
  • a difference from the predicted image signal 102 created with (N + M) bit accuracy is taken, and a prediction error signal 103 with (N + M) bit accuracy is generated (S34).
  • the generated prediction error signal 103 is subjected to orthogonal transformation (for example, discrete cosine transformation (DCT)) by orthogonal transformation 104 (S35).
  • orthogonal transformation for example, discrete cosine transformation (DCT)
  • orthogonal transformation 104 for example, discrete cosine transformation (DCT)
  • orthogonal transform coefficient information 105 for example, DCT coefficient information
  • the orthogonal transform coefficient information 105 is quantized by the quantizer 106, and the quantized orthogonal transform coefficient information 107 is input to the entropy encoder 108 and the inverse quantizer 109.
  • Quantization Orthogonal transform coefficient information 107 is subjected to a process reverse to the process of the quantizer 106 and the orthogonal transformer 104 by the inverse quantizer 109 and the inverse orthogonal transformer 110, that is, locally decoded, and is predicted error signal Is converted into a signal similar to the above, that is, a local decoding error signal.
  • This local decoding error signal is added to the predicted image signal 102 with (N + M) bit accuracy by an adder 111, thereby generating a local decoded image signal 112 with (N + M) bit accuracy. That is, the quantized orthogonal transform coefficient information 107 is locally decoded (S36).
  • the locally decoded image signal 112 is stored in the frame memory 114 after being filtered by the loop filter 113 as necessary.
  • the predicted image generator 115 includes an input image signal 100 in which the bit length is extended to (N + M) bit accuracy, and a locally decoded image signal 1 (12) with (N + M) bit accuracy stored in the frame memory 114. Then, a prediction image signal with (N + M) bit accuracy based on certain prediction mode information is generated. At this time, the locally decoded image signal 112 with (N + M) bit accuracy from the adder 111 is stored in the frame memory 114. Matching between (N + M) bit precision input image signal 100 and (N + M) bit precision local decoded image signal 112 stored in frame memory 114 for each block in the frame (eg, block matching) To detect the motion vector. (S37).
  • a predicted image signal with (N + M) bit accuracy is created using the local image signal with (N + M) bit accuracy compensated by this motion vector (S38).
  • the predicted image signal 102 with (N + M) bit accuracy generated here is output from the predicted image generator 115 together with the motion vector information Z prediction mode information 116 of the selected predicted image signal.
  • the quantized orthogonal transform coefficient information 107 the motion vector information / prediction mode information 116, and the bit extension information 1003 are entropy-encoded (S39).
  • Data 117 is sent to a transmission system or storage system (not shown).
  • the sign key method for the number of bits M to be expanded is the same as in the first embodiment. Further, in the present embodiment, it is possible to use data multiplexed in supplemental syntax as in the first embodiment.
  • This image decoding apparatus includes an entropy decoder 200, an inverse quantizer 109, an inverse orthogonal transformer 110, an adder 111, a loop filter 113, a frame memory 114, a predicted image generator 115, a pixel bit length reducer (pixel Bit precision conversion) 2001, bit length conversion controller (bit accuracy conversion controller) 2002.
  • the coefficient information output of the entropy decoder 200 that receives the code key data is connected to the pixel bit length reducer 2001 via an inverse quantizer 109, an inverse orthogonal transformer 110, an adder 111, and a loop filter 113.
  • the output of the loop filter 113 is connected to one input of the prediction image generator 115 via the frame memory 114.
  • the other input of the prediction image generator 115 receives motion vector Z prediction mode information from the prediction image generator 115.
  • the output of the predicted image creator 115 is connected to the adder 111.
  • the bit extension information output of the entropy decoder 200 is connected to the field bit length reducer 2001 via the bit length conversion controller 2002.
  • the operation of the image decoding apparatus will be described with reference to FIG. 10B.
  • the entropy decoder 200 converts the code key data 117 into the entropy code key.
  • Decoding is performed according to the reverse procedure (S42), and quantized orthogonal transform coefficient information 107, motion vector Z prediction mode information 116, and bit extension information 2004 are obtained.
  • Quantized orthogonal transform coefficient information 107 is sequentially processed by the inverse quantizer 109 and the inverse orthogonal transformer 110, and is subjected to processing reverse to the processing of the quantizer 106 and the orthogonal transformation 104, and (N + M) bits. It is converted into an accuracy residual signal 201 (S43).
  • the motion vector Z prediction mode information 116 is input to the prediction image generator 115 and is based on the motion vector Z prediction mode information 116 from the bit extended decoded image signal 203 with (N + M) bit precision stored in the frame memory 114 ( The predicted image signal 102 with N + M) bit accuracy is generated (S44).
  • the (N + M) bit precision residual signal 201 and the (N + M) bit precision prediction image signal 102 are added by an adder 111 to generate a decoded image signal (S45).
  • the decoded image signal is subjected to filter processing as necessary by the loop filter 113, output as a bit extended decoded image signal 203 with (N + M) bit precision, and stored in the frame memory 114.
  • the bit extension information 2004 output from the entropy decoder 200 is input to the bit length conversion controller 2002, the bit conversion information 2003 indicating how many bits the decoded image has been extended from the bit length conversion controller 2002 is obtained. Is output.
  • the bit extended decoded image signal 203 input to the pixel bit length reducer 2001 is, for example, expressed by Equation (2), Equation (2-1), (2-2), (2 — The same processing as in the first embodiment is performed based on 3), and the value of each pixel is reduced by M bits (S46).
  • the pixel bit length reducer 2001 has the configuration shown in FIG. 8, and control may be performed to switch whether to reduce the bit length of each pixel with a flag, as in the first embodiment.
  • the decoded image signal 202 having the same N-bit accuracy as the input image input to the image encoding device is output from the pixel bit length reducer 2001 (S47).
  • the predicted image signal is generated with an accuracy that is M bits larger than the input image signal, it is possible to improve the accuracy of motion compensation filters, loop filters, intra prediction, and the like. As a result, the prediction error signal can be reduced, so that the coding efficiency can be improved.
  • FIG. 11A shows the configuration of an image code encoder for a moving image encoder according to the third embodiment of the present invention.
  • This image encoding device has a pixel bit length variation of 1005 in the preceding stage of the force frame memory 114, which has almost the same configuration as the configuration example shown in the second embodiment (FIG. 9A). The difference is that a pixel bit length conversion (pixel bit precision conversion) 1006 is provided in the subsequent stage of the frame memory 114.
  • a moving image signal is input to the image encoding apparatus in units of frames as the image signal 100 (S51).
  • the pixel bit length extender (pixel bit precision converter) 1001 performs the same processing as that of the second embodiment, so that the value of each pixel of the input N-bit precision image signal 100 is N bits.
  • the processing is expanded to a bit accuracy (N + M) that is M bits larger than the default (S52).
  • the extended bit number M is guided to the entropy encoder 108 as bit extension information 1003 by the bit length conversion controller 1002.
  • the pixel bit length expander 1001 has the configuration shown in FIG. 2, and performs the process of controlling the pixel bit length by switching whether to extend the bit length of each pixel with a flag, as in the first embodiment. .
  • a difference from the predicted image signal 102 created with (N + M) bit accuracy is taken, and a prediction error signal 103 with (N + M) bit accuracy is generated (S53).
  • the generated prediction error signal 103 is subjected to orthogonal transform (for example, discrete cosine transform (DCT)) by an orthogonal transformer 104.
  • orthogonal transform for example, discrete cosine transform (DCT)
  • orthogonal transformation coefficient information 105 for example, DCT coefficient information
  • the orthogonal transform coefficient information 105 is quantized by the quantizer 106. That is, the prediction error signal 103 is orthogonally transformed and quantized (S54).
  • the quantized orthogonal transform coefficient information 107 is guided to an entropy encoder 108 and an inverse quantizer 109.
  • Quantized orthogonal transform coefficient information 107 is subjected to sequential processing reverse to the processing of quantizer 106 and orthogonal transformer 104 by inverse quantizer 109 and inverse orthogonal transformer 110, and converted into a local decoded error signal. Then, the adder 111 adds the predicted image signal 102 with (N + M) bit accuracy. As a result, a locally decoded image signal 112 with (N + M) bit accuracy is generated. That is, the quantized orthogonal transform coefficient information 107 is locally encoded (S55).
  • the locally decoded image signal 112 with (N + M) -bit accuracy is filtered by the loop filter 113 as necessary, and then input to the pixel bit length variable ⁇ 1005, and the value of each pixel is set to L bits.
  • the value of a pixel in the locally decoded image signal 112 with (N + M) bit accuracy When is K, the pixel value ⁇ , after L-bit reduction is calculated as follows.
  • the number of bits L to be reduced is an integer satisfying 0 ⁇ L ⁇ M.
  • the bit length of each pixel of the locally decoded image signal 112 is (N + M ⁇ L) bits.
  • the reduction conversion method here may be any conversion method as long as the bit length is reduced, for example, by setting offset to an arbitrary value from 0 to (1 ⁇ L).
  • the value of each pixel is enlarged and converted to a large value (-L) bits, for example, if the value of a pixel in the bit-enhanced decoded image signal is K, it is extended by (1 L) bits.
  • the subsequent pixel value K ′ is calculated as follows, for example.
  • the number L of bits to be expanded is an integer satisfying 0 (one L).
  • the bit length of each pixel of the locally decoded image signal 112 is (N + M ⁇ L) bits.
  • FIG. 12 shows a configuration example of the pixel bit length converter 1005. Whether or not to extend the bit length of each pixel is selected by the switch ⁇ 3 based on the bit length extension information 1003 for the input ⁇ bit precision image signal 100. Switch ⁇ 3 is connected to the ON side when expansion is performed and to the OFF side when expansion is not performed. When switch E3 is set to ON, the image signal input to pixel bit length conversion 1005 is
  • the pixel bit length is converted.
  • switch E3 When switch E3 is OFF, the image signal is output without being converted into pixel bit length.
  • the locally decoded image signal 112 with the bit length reduced or expanded is stored in the frame memory 114 (S57).
  • the locally decoded image signal 112 with (N + M ⁇ L) bit accuracy stored in the frame memory 114 is guided to the pixel bit length conversion 1006 before being input to the prediction image generator 1 15, and L> 0
  • the bit length of each pixel is extended and converted to a bit precision larger by L bits (S58). For example, if the value of a certain pixel in the locally decoded image signal 112 with (N + M ⁇ L) -bit accuracy is K, the pixel value K ′ after L-bit expansion is calculated as follows, for example.
  • the reduction conversion method here may be any conversion method as long as the bit length is reduced, for example, by setting the offset to an arbitrary value from 0 to (1 (one L)).
  • the pixel bit length converter 1006 is configured as shown in FIG. 12 in the same manner as the pixel bit length change 1005, and may perform control to switch whether or not to convert the bit length of each pixel with a flag. By performing such conversion, the bit accuracy of the locally decoded image signal 112 output to the predicted image generator 115 becomes (N + M) bit accuracy.
  • the bit length U to be reduced Z before and after the frame memory 114 is an integer satisfying L ⁇ M, and the number of bits to be reduced Z enlarged before and after the frame memory 114 may be equal.
  • L 0, there is a case where data is stored in the frame memory 114! /, And bit expansion when outputting from the frame memory 114 is not performed.
  • the conversion performed by the pixel bit length converter 1005 and the pixel bit length conversion 1006 is not limited to the above formulas (3) to (6), but may be a conversion in which enlargement / reduction is performed by a specified bit length. For example, any conversion may be performed.
  • This bit number L is also led to the entropy encoder 108 as bit extension information 1003 by the bit length conversion controller 1002.
  • the prediction image generator 115 is based on prediction mode information from the input image signal 100 in which the bit length is extended to (N + M) bit accuracy and the local decoded image signal 112 having (N + M) bit accuracy.
  • a prediction image signal with (N + M) bit accuracy is generated.
  • matching between the input image signal 100 with (N + M) bit accuracy and the locally decoded image signal 112 expanded to (N + M) bit accuracy by pixel bit length conversion 1005 is performed.
  • a motion vector is detected (for example, block matching) (S59). Using the local image signal with (N + M) bit accuracy compensated by this motion vector, a predicted image signal with (N + M) bit accuracy is created (S60).
  • the predicted image signal 102 with (N + M) bit accuracy generated here is output from the predicted image generator 115 together with the motion vector information Z prediction mode information 116 of the selected predicted image signal.
  • the quantized orthogonal transform coefficient information 107, the motion vector information / prediction mode information 116, and the bit extension information 1003 are entropy-encoded (S61), and the code signal generated thereby is encoded.
  • Data 117 is sent to a transmission system or storage system (not shown).
  • the number of bits to be expanded is included in the sequence parameter set syntax (404), the picture one parameter set syntax (405), the slice level syntax (402), and the macro block level syntax (403) for transmission. It is possible. Each syntax is described below.
  • ex_seq_bit_extention_flag shown in the sequence parameter set syntax of Fig. 13 is a flag indicating whether or not to perform bit extension. When this flag is TRUE, whether or not to perform bit extension is switched in sequence units. It is possible. On the other hand, if the flag is FALSE, no bit expansion is performed in the sequence.
  • ex_seq_bit_ext When ention_flag is TRUE, ex_seq_shift_bits indicating how many more bits to extend may be sent.
  • ex_framemem_bitdepth indicating the bit accuracy when stored in the frame memory 114 may be transmitted.
  • it is stored in N + ML force Sex_framemem_bitdepth and transmitted.
  • the number of bits to be extended can be further included in the picture parameter set syntax (405), slice level syntax (402), and macroblock level syntax (403) for transmission.
  • ex_pic_bit_extention_flag shown in the picture parameter set syntax of Fig. 14 is a flag indicating whether or not to change bit extension for each picture.
  • this flag is TRUE, it is possible to switch whether to perform bit expansion on a picture-by-picture basis.
  • the flag power is SFALSE, it is not possible to change whether or not to perform bit expansion for each picture.
  • ex_pic_bit_extention_flag is TRUE In this case, ex_pi shift_bits indicating how many bits will be extended is transmitted.
  • ex_pi shift_bits may be given priority as the number of bits to be extended, and the number of bits to extend ex_seq_shift_bits Or ex_seq_shift_bits + ex_pic_shift_bits may be used as the number of bits. It is preferable to decide in advance which will be given priority.
  • Flags ex_bit_extention_in_slice_flag and ex_bit_extentionjn_mb_flag may exist in the picture parameter set syntax. Each of these flags indicates whether there is a flag for changing whether or not to perform bit extension at the slice level and the macroblock level.
  • ex_slice_shift_bits is transmitted, and it is possible to switch the number of bits to be extended in units of slices.
  • S may be given priority as the number of bits to be extended
  • ex_slice_shift_bits may be used as the number of bits to extend. You may give priority, or you may give priority to the number of bits that extend S + ex_slice_shift_bits. It is preferable to decide in advance which is to be prioritized.
  • ex_bit_extentionjn_slice_flag is FALSE, ex_slice_shift_bits is not transmitted.
  • ex_bit_extention_in_mb_flag when ex_bit_extention_in_mb_flag is TRUE, ex_mb_shift_bits is transmitted, and it is possible to switch and transmit the number of bits to be expanded in macroblock units.
  • S may be given priority as the number of bits to be expanded, and ex_mb_shift_bits You may give priority to the number of bits to extend, or you may give priority to the number of bits to extend S + ex_mb_shift_bits. It is preferable to decide in advance which should be prioritized.
  • ex- bit- extention- in- mb- flag power SFALSE ex- slice- shift- bit s is not transmitted.
  • This image decoding apparatus has substantially the same configuration as that of the configuration example shown in the second embodiment (FIG. 10A), but the pixel bit length reducer 2001 is placed after the adder 111 (and the loop filter 113). Instead, the pixel bit length conversion (pixel bit precision conversion) 2007 is provided, and the frame memory 114 is connected to the subsequent stage of the pixel bit length converter 2 007 which does not follow the adder 111 (and the loop filter 113), and The difference is that a pixel bit length change 2008 is connected to the subsequent stage of the frame memory 114.
  • the entropy decoder 200 converts the encoded data 117 into the reverse of the entropy encoding.
  • Quantized orthogonal transform coefficient information 107, motion vector Z prediction mode information 116, and bit extension information 2004 are obtained (S72).
  • the quantized orthogonal transform coefficient information 107 is subjected to (N + M) bits by the inverse quantizer 109 and the inverse orthogonal transformer 110, which are sequentially subjected to processing reverse to the processing of the quantizer 106 and the orthogonal transformation 104. It is converted into an accuracy residual signal 201 (S73) (S74).
  • bit extension information 2004 output from the entropy decoder 200 is input to the bit length conversion controller 2002, the number of bits M indicating how many bits the decoded image has been extended, and the frame memory Bit conversion information 2003 indicating the number of bits L to be reduced when stored is output from the bit length conversion controller 2002.
  • the pixel bit length change ⁇ 2008 is, for example, based on the bit conversion information 2003 with respect to the decoded image signal 202 of (N + M ⁇ L) bit precision stored in the frame memory 114 in the procedure described later. If L> 0, perform the same process as Equation (5) to extend the pixel bit length to L bits (S75). If L> 0, Equation (6) Same as Thus, the pixel bit length is reduced and reduced by (1 L) bits, and the bit extended reference image signal 204 with (N + M) bit precision is output (S75).
  • the motion vector Z prediction mode information 116 is input to the prediction image generator 115, and is based on the motion vector Z prediction mode information 116 from the bit extended reference image signal 204 with (N + M) bit accuracy (N + M).
  • the predicted image signal 102 with bit accuracy is generated (S77).
  • the adder 111 adds the (N + M) bit precision residual signal 201 and the (N + M) bit precision predicted image signal 102.
  • the added signal is subjected to filter processing as necessary by the loop filter 113, and a bit extended decoded image signal 203 with (N + M) bit precision is output (S78).
  • the bit extended decoded image signal 203 is input to the pixel bit length converter 2007, and based on the bit conversion information 2003, the image decoding of the first embodiment such as Equation (2) is performed on the value of each pixel.
  • the pixel bit length is reduced and converted to a smaller value of M bits (S79), the same as the input image input to the image encoding device
  • a decoded image 202 with N-bit precision is obtained (S80).
  • the pixel bit length converter 2007 has the configuration shown in FIG. 12, and controls whether to reduce the bit length of each pixel with a flag.
  • the decoded image signal 202 with N-bit accuracy is stored in the frame memory 114 as it is.
  • M ⁇ L and L> for example, the same processing as in Equation (3) is performed for each pixel on the bit extended decoded image signal 203 with (N + M) bit precision, A bit-accurate decoded image with a bit length reduced by O (N + ML) is created and stored in the frame memory 114.
  • L the same processing as in equation (4) is performed on each pixel, and the bit length is reduced by (1 L) bits (N + ML).
  • An image is created and stored in the frame memory 114.
  • the predicted image signal is generated with an accuracy that is M bits larger than the input image signal, it is possible to improve the accuracy of motion compensation filters, loop filters, and in-screen prediction. As a result, the prediction error signal can be reduced, so that the coding efficiency can be improved. Also, unlike the first and second embodiments, when 0 ⁇ L ⁇ M, the reference image signal stored in the frame memory is used as the input image signal with an extended bit length. It can be stored with a bit length smaller than that of the predicted image signal, and the amount of frame memory used can be reduced while maintaining the effect of improving accuracy, such as motion compensation filters, loop filters, and intra prediction.
  • this image encoding apparatus does not include a pixel bit length expander that expands the pixel bit length of the input image, and the frame memory 114 (and The pixel bit length extender (pixel bit precision extension variable 1001) is provided in the previous stage of the loop filter 113), and the pixel bit length reducer (pixel bit precision reduction variable ⁇ ) 1004 is provided in the subsequent stage of the prediction image creator 115.
  • pixel bit length expander pixel bit precision extension variable 1001
  • pixel bit length reducer pixel bit precision reduction variable ⁇
  • a moving image signal with an accuracy of each pixel for example, an N-bit accuracy is input as an input image signal 100 to the image encoding apparatus (S81).
  • the subtracter 101 calculates the difference between the input image signal 100 and the predicted image signal 102 with N-bit accuracy, and generates a prediction error signal 103 with N-bit accuracy (S82).
  • a method of generating the predicted image signal 102 with N-bit accuracy will be described later.
  • the generated prediction error signal 103 is subjected to orthogonal transform (for example, discrete cosine transform (DCT)) by an orthogonal transformer 104, and the orthogonal transformer 104 performs orthogonal transform coefficient information 105 (for example, DCT coefficient information). ) Is obtained (S83).
  • orthogonal transform coefficient information 105 is quantized by the quantizer 106, and the quantized orthogonal transform coefficient information 107 is guided to the entry-port encoder 108 and the inverse quantizer 109.
  • Quantized orthogonal transform coefficient information 107 is subjected to sequential processing reverse to the processing of quantizer 106 and orthogonal transformer 104 by inverse quantizer 109 and inverse orthogonal transformer 110, and converted into a local decoded error signal. Is done.
  • This local decoding error signal is added to the predicted image signal 102 with N-bit accuracy by an adder 111, thereby generating a local decoded image signal 112 with N-bit accuracy. (S84).
  • the local decoded image signal 112 is filtered by the loop filter 113 as necessary, and then input to the pixel bit length extender 1001, and the value of each pixel is extended and converted to a value larger by M bits (S85). ).
  • M bits For example, when the value of a certain pixel in the bit extended decoded image signal is K, the pixel value K ′ after being reduced by M bits is calculated in the same manner as Expression (1) of the first embodiment.
  • the locally decoded image signal 112 whose bit precision is expanded to (N + M) bits is stored in the frame memory 114 (S86).
  • the locally decoded image signal 112 with (N + M) bit accuracy stored in the frame memory 114 is input to the predicted image generator 115.
  • the pixel bit length expander 1001 may be configured as shown in FIG. 2, and may perform a process of controlling the bit length by switching with a flag whether or not to extend the bit length of each pixel, as in the first embodiment.
  • the prediction image creator 115 generates a prediction image signal with (N + M) bit accuracy based on certain prediction mode information from the locally decoded image signal 112 with (N + M) bit accuracy.
  • an image signal obtained by extending each pixel of the input image signal 100 to (N + M) bit accuracy for each block in the frame, and a locally decoded image signal 112 expanded to (N + M) bit accuracy Matching is performed (for example, block matching), and a motion vector is detected (S87).
  • an extended prediction image signal 117 with (N + M) bit accuracy is created (S89).
  • the (N + M) bit accuracy extended prediction image signal 117 generated here is output from the prediction image generator 115 together with the motion vector information Z prediction mode information 116 of the selected prediction image signal.
  • the extended prediction image signal 117 with (N + M) bit accuracy is input to the pixel bit length reducer 1004 and converted into an image signal in which the bit length of each pixel is reduced by M bits (S90).
  • This conversion is performed, for example, by the same processing as the formula (2) shown in the first embodiment.
  • the number of bits M to be reduced and the number of bits M to be enlarged in the pixel bit length extender 1001 are the same value, and the bit length conversion controller 1002 uses the entropy as the bit extension information 1003. It is guided to the encoder 108.
  • the pixel bit length reducer 1004 has the configuration shown in FIG. 8, and performs the process of controlling the bit length by switching whether to extend the bit length of each pixel with a flag, as in the first embodiment. ⁇ .
  • quantized orthogonal transform coefficient information 107 quantized orthogonal transform coefficient information 107
  • motion vector information The / prediction mode information 116 and the bit extension information 1003 are entropy encoded (S91), and the generated code data 117 is sent to a transmission system or storage system (not shown).
  • the sign key method for the number of bits M to be extended is the same as in the first embodiment. Further, in the present embodiment, it is possible to use data multiplexed in the supplemental syntax as in the first embodiment.
  • this image decoding apparatus includes a pixel bit length expander 2005 in the previous stage of the frame memory 114 (and the loop filter 113), so that the predicted image
  • a pixel bit length reducer (pixel bit precision conversion) 2006 is provided after the generator 115.
  • the entropy decoder 200 converts the encoded data 117 into the entropy code key.
  • quantized orthogonal transform coefficient information 107 is converted into an N-bit residual signal 201 by sequentially receiving the inverse processing of the quantizer 106 and the orthogonal transformer 104 by the inverse quantizer 109 and the inverse orthogonal transformer 110. (S103).
  • bit extension information 2004 output from the entropy decoder 200 is input to the bit length conversion controller 2002, the bit conversion information 2003 indicating how many bits the decoded image has been expanded! Output from the controller 2002 (S104).
  • the motion vector Z prediction mode information 116 is input to the prediction image generator 115, the motion vector Z prediction mode information 116 is converted from the bit extended decoded image signal 203 stored in the frame memory 114 in the procedure described later. Based on the (N + M) bit accuracy extended prediction image signal 205 is generated (S105).
  • the pixel bit length reducer 2006 applies the image restoration of the first embodiment such as Equation (2) based on the bit conversion information 2003 to the extended prediction image signal 205 with (N + M) bit accuracy. Pixel bit by applying the same processing as the pixel bit reduction variable ⁇ A process of reducing the length to M bits is performed (S106), and a predicted image signal 102 with N bit precision is output.
  • the pixel bit length reducer 2006 may be configured as shown in FIG. 8, and may perform processing for controlling the bit length by switching with a flag whether or not to extend the bit length of each pixel, as in the first embodiment.
  • the N-bit precision residual signal 201 and the N-bit precision prediction image signal 102 are added by an adder 111 to generate a reduced decoded image signal (S 107).
  • the pixel bit length expander 2005 uses the image code of the first embodiment such as Equation (1) based on the bit conversion information 2003.
  • the pixel bit length is reduced by performing the same processing as that performed by the pixel bit length extender in the dredge device.
  • the signal output from the pixel bit length extender 2005 is subjected to filter processing as necessary by the loop filter 113, and an extended decoded image signal 203 with bit (N + M) bit accuracy is output (S109), and the frame memory.
  • S109 an extended decoded image signal 203 with bit (N + M) bit accuracy is output (S109), and the frame memory.
  • the pixel bit length expander 2005 may be configured as shown in FIG. 2, and may perform a process of controlling the bit length by switching whether to extend the bit length of each pixel with a flag, as in the first embodiment. Yes.
  • bit extended decoded image signal 203 with (N + M) bit precision is input to the pixel bit length reducer 2001, and based on the bit conversion information 2003, the value of each pixel is expressed by, for example, Equation (2)
  • a decoded image 202 having the same N-bit accuracy as the input image input to the image encoding apparatus is obtained.
  • the prediction error signal and residual signal conversion 'quantization processing can be performed with an accuracy corresponding to the bit accuracy of the input image. While maintaining the effect of increasing the accuracy such as filters and in-screen prediction, it is possible to reduce the bit accuracy of transform and quantization and reduce the operation scale.
  • this image coding apparatus does not include a pixel bit length expander that expands the pixel bit length of the input image, and the predicted image generator 115
  • the pixel bit length extender (Pixel bit precision expansion / conversion) 10 01 is included in the first stage of the image, and the pixel bit length reducer (Pixel bit precision reduction / translation) 1004 is provided after the prediction image creator 115 .
  • a moving image signal in which the accuracy of each pixel is, for example, an N-bit accuracy is input as an input image signal 100 to the image encoding device (S121).
  • the subtracter 101 calculates the difference between the input image signal 100 and the predicted image signal 102 with N-bit accuracy, and generates a prediction error signal 103 with N-bit accuracy (S122).
  • a method for generating the predicted image signal 102 with N-bit accuracy will be described later.
  • the generated prediction error signal 103 is subjected to orthogonal transformation, for example, discrete cosine transformation (DCT), by orthogonal transformation l04, and the orthogonal transformer 104 obtains orthogonal transformation coefficient information 105, for example, DCT coefficient information ( S123).
  • orthogonal transform coefficient information 105 is quantized by the quantizer 106, and the quantized orthogonal transform coefficient information 107 is guided to the entropy encoder 108 and the inverse quantizer 109.
  • Quantized orthogonal transform coefficient information 107 is subjected to sequential processing reverse to the processing of quantizer 106 and orthogonal transformer 104 by inverse quantizer 109 and inverse orthogonal transformer 110, and converted into a local decoded error signal. Is done.
  • This local decoding error signal is added to the predicted image signal 102 with N-bit accuracy by the adder 111, thereby generating a local decoded image signal 112 with N-bit accuracy (S124).
  • the locally decoded image signal 112 with N-bit accuracy is filtered by the loop filter 113 as necessary, and then stored in the frame memory 114 (S125).
  • the locally decoded image signal 112 with N-bit precision stored in the frame memory 114 is input to the pixel bit length expander 1001, and the value of each pixel is extended and converted to a value larger by M bits (S126). For example, when the value of a certain pixel in the bit extended decoded image signal is K, the pixel value K ′ after being reduced by M bits is calculated in the same manner as the equation (1) of the first embodiment.
  • Bit precision is (N + M) bits
  • the locally decoded image signal 112 extended to is input to the predicted image generator 115.
  • the pixel bit length expander 1001 may be configured as shown in FIG. 2, and may perform a process of controlling the bit length by switching with a flag whether to extend the bit length of each pixel, as in the first embodiment. .
  • the predicted image generator 115 generates a predicted image signal with (N + M) bit accuracy based on certain prediction mode information from the locally decoded image signal 112 with (N + M) bit accuracy.
  • each pixel of the input image signal 100 is expanded to (N + M) bit accuracy for each block in the frame, and the locally decoded image signal 112 expanded to (N + M) bit accuracy.
  • Matching for example, block matching
  • S127 a motion vector is detected
  • an extended prediction image signal 117 with (N + M) bit accuracy is created (S128).
  • the (N + M) bit-accuracy extended prediction image signal 117 generated here is output from the prediction image generator 115 together with the motion vector information Z prediction mode information 116 of the selected prediction image signal.
  • the extended prediction image signal 117 is input to the pixel bit length reducer 1004 and converted so that the bit length of each pixel is reduced to M bits (S129). This conversion is performed, for example, by performing processing similar to Equation (2) shown in the image decoder of the first embodiment.
  • the bit number M to be reduced and the bit number M to be enlarged in the pixel bit length extender 1001 are the same value, and the bit length conversion controller 1002 uses the entropy code as the bit extension information 1003.
  • the pixel bit length reducer 1004 has the configuration shown in FIG. 8, and performs processing for controlling whether to extend the bit length of each pixel with a flag, as in the first embodiment.
  • the quantized orthogonal transform coefficient information 107, the motion vector information Z prediction mode information 116, and the bit extension information 1003 are entropy-encoded (S130).
  • Data 117 is sent to a transmission system or storage system (not shown).
  • this image decoding apparatus does not include a pixel bit reducer after the adder 111 (and the loop filter 113), and the adder 111 ( And the loop filter 113) the decoded image signal 202 is output, and a predictive image generator 115 is provided with a pixel bit length extender (pixel bit precision extension and transformation) 2005 before the predictive image generator 115.
  • a pixel bit length reducer pixel bit precision reduction converter 2001 is provided in the subsequent stage.
  • the pixel bit length expander 2005 performs, for example, a first equation such as Equation (1) on the decoded image signal 202 with N-bit precision stored in the frame memory 114 in the procedure described later, based on the bit conversion information 2003.
  • the pixel bit length is converted to M bits by performing processing equivalent to the processing performed by the pixel bit length expander in the image encoding device of the first embodiment, and (N + M) bit precision is achieved.
  • the bit extended reference image signal 204 is output.
  • the pixel bit length extender 2005 may be configured as shown in FIG. 2, and may perform a process of switching whether or not to extend the bit length of each pixel with a flag as in the first embodiment.
  • the motion vector Z prediction mode information 116 is input to the prediction image generator 115, and is based on the motion vector Z prediction mode information 11 6 from the bit extended reference image signal 204 with (N + M) bit accuracy (N + M ) An extended prediction image signal 205 with bit accuracy is generated (S145).
  • the pixel bit length reducer 2001 applies the image decoding device of the first embodiment such as Equation (2) based on the bit conversion information 2003 to the extended predicted image signal 205 with (N + M) bit accuracy.
  • the pixel bit length is converted to M bits by performing processing equivalent to the pixel bit reduction change in the image, and the predicted image signal 102 with N-bit accuracy is output (S146).
  • the pixel bit length reducer 2001 may be configured as shown in FIG. 8, and may perform a process of switching whether or not to extend the bit length of each pixel with a flag as in the first embodiment.
  • the N-bit accuracy residual signal 201 and the N-bit accuracy prediction image signal 102 are added by an adder 111.
  • the added signal is subjected to filter processing as required by the loop filter 113, and an N-bit precision decoded image signal 202 is output (S147) and stored in the frame memory 114.
  • the decoded image signal 202 obtained here has the same N-bit accuracy as the input image input to the image encoding device.
  • the predicted image signal is generated with an accuracy that is M bits larger than the input image signal, it is possible to improve the accuracy of motion compensation filters, loop filters, intra prediction, and the like. . Therefore, since the prediction error signal can be reduced as a result, the coding efficiency can be improved.
  • the reference image signal stored in the frame memory can be stored with a bit length smaller than that of the input image signal or the predicted image signal whose bit length is extended. Therefore, it is possible to reduce the amount of frame memory used while maintaining the effect of improving accuracy such as motion compensation filters, loop filters, and intra prediction. Furthermore, it is possible to perform conversion and quantization processing of the prediction error signal and the residual signal with an accuracy corresponding to the bit accuracy of the input image. As a result, it is possible to reduce the bit precision of the conversion and quantization and reduce the operation scale while maintaining the effect of improving the accuracy such as the motion compensation filter, loop filter, and intra prediction.
  • the predicted image generator 115 can be configured as shown in FIG.
  • the intra-frame predictor B101 performs intra-frame prediction from the locally decoded image signal 112 in the area already encoded in the frame in the frame memory 114. Create a predicted image signal based on it.
  • the inter-frame predictor B103 performs motion compensation on the locally decoded image signal 112 in the frame memory 114 based on the motion vector detected by the motion vector detector B102. Prediction based on inter-frame prediction using adaptive filter information generated by input image signal 101, local decoded image signal 112, and motion vector force by adaptive filter information generation unit B104 An image signal 102 is created.
  • the intra-frame predictor B101 has M (M is plural) intra-frame prediction modes, and the inter-frame predictor B103 has N (N is plural) inter-frame prediction modes.
  • a mode determiner B105 is connected to the outputs of the inter-frame predictor B103 and the intra-frame predictor B101.
  • the mode determiner B105 is a prediction image signal based on one prediction mode selected from N inter-frame prediction modes or a prediction image signal based on one prediction mode selected from M intra-frame prediction modes.
  • 102 is output.
  • Motion vector Z prediction mode information Z adaptive filter information 116 that is, motion vector output from motion vector detector B102 and prediction mode information indicating the prediction mode selected by the mode determiner and adaptive filter information 116 are Then, it is sent to the entropy encoder 117 and included in the encoded data 117 and sent to the decoding side.
  • the motion vector and adaptive filter information are output from the motion vector detector B102 only when the inter-frame prediction mode is selected.
  • the switch B201 selects a predictor based on the prediction mode information 116.
  • the intra-frame predictor B202 creates a predicted image signal 102 based on intra-frame prediction from the decoded image signal 203 of the area already encoded in the frame in the frame memory 114.
  • the inter-frame predictor B203 performs motion compensation on the decoded image signal 203 in the frame memory 114 based on the motion vector, and performs inter-frame prediction using the adaptive filter information 116. Based on this, a predicted image signal 102 is generated.
  • Fig. 24 illustrates a configuration example of the inter-frame predictor B103.
  • the inter-frame predictor B103 generates a motion vector, a locally decoded image signal, and an adaptive filter coefficient information power inter-frame predicted image signal 102.
  • the integer pixel weight Z offset correction unit B301 performs processing for performing so-called weighted prediction of integer pixel values.
  • a predicted image signal 102 of integer pixels is created according to the following formula (7).
  • W is a weighting factor
  • L is a shift factor
  • O is an offset factor
  • adaptive filter coefficient information It is included in the news.
  • Equation (8) is an example of the weight Z offset processing when bi-directional prediction is performed.
  • the weighting factor for pixel value X is W
  • the offset factor is O
  • Weighting factor is W, offset factor is O, and L is a shift factor, which is included in the adaptive filter coefficient information.
  • luminance correction and color correction can be performed.
  • the switch B301 is switched to create a decimal pixel adaptive interpolation image.
  • the bit length of the code Z decoding process is set to be longer than the pixel bit length of the input image signal, the calculation accuracy of the weight Z offset correction process can be ensured, and higher accuracy can be achieved.
  • the weight / offset correction can be performed.
  • the interpolation of the decimal point pixel position is performed from the integer pixel value using the interpolation filter coefficient in the adaptive filter information. Pixel values are generated, and a predicted image signal 102 is generated.
  • the bit length of the encoding Z decoding processing is set to be longer than the pixel bit length of the input image signal, the calculation accuracy of the interpolation filter processing can be ensured, and a better decimal point pixel can be secured. A value can be obtained.
  • FIG. 25 illustrates another configuration example of the inter-frame predictor B103.
  • the inter-frame predictor generates an inter-frame prediction image signal 102 from the motion vector, the locally decoded image signal, and adaptive filter coefficient information.
  • the interpolation pixel value at the decimal point pixel position is calculated from the integer pixel value using the interpolation filter coefficient in the adaptive filter information.
  • a predicted image signal 102 is generated.
  • bit length of the code Z decoding process is set longer than the pixel bit length of the input image signal, the calculation accuracy of the interpolation filter process can be ensured, and a better decimal point can be secured. Pixel values can be obtained.
  • the weight Z offset correction unit B403 performs processing for so-called weighted prediction of the pixel value of the predicted image signal.
  • the predicted image signal 102 is created according to the above formula (7) or formula (8).
  • the bit length of the code Z decoding process is set longer than the pixel bit length of the input image signal, the calculation accuracy of the weight Z offset correction process can be ensured and the accuracy is increased. High weight Z offset correction can be performed.
  • FIG. 26 shows another configuration example of the inter-frame predictor.
  • This inter-frame predictor generates motion vectors, reconstructed image signals, and adaptive filter coefficient information power inter-frame predicted image signals.
  • the switch B501 when the motion vector indicates the decimal point pixel position, the switch B501 is connected to the decimal pixel adaptive interpolation Z offset correction image creation unit B502, and the reproduced image signal is the decimal pixel adaptive interpolation Z offset correction image. Processed by creation unit B502.
  • the switch B501 is connected to the integer pixel weight Z offset correction image creation unit B503, and the reproduced image signal is processed by the integer pixel weight Z offset correction image creation unit B503.
  • Equation (9) is used when performing the following one-way prediction
  • Equation (10) is used when performing bidirectional prediction.
  • the Wi, j force interpolation filter coefficient for the reproduced image signal Xi, j, 0 is the offset coefficient
  • Y is the predicted image signal
  • W (Q) i, j for the reproduced image signal X (Q) i, j is an interpolation filter coefficient
  • O (0) is an offset coefficient
  • u is The interpolation filter coefficient
  • 0 (1) is the offset coefficient
  • Y is the predicted image signal.
  • Integer pixel weight Z offset correction section B503 performs processing for performing so-called weighted prediction of pixel values of a predicted image signal.
  • a predicted image signal is created according to the above formula (7) or formula (8).
  • the offset correction coefficient at this time a coefficient with an accuracy equal to or greater than the input pixel bit length is used.
  • the calculation bit length of the encoding Z decoding process is set longer than the pixel bit length of the input image signal, the calculation accuracy of the interpolation filter process can be ensured, and a better predicted pixel value is obtained. Can be obtained.
  • the bit length of the code Z decoding process is set longer than the pixel bit length of the input image signal, the calculation accuracy of the weight Z offset correction process can be ensured and the accuracy is increased. High weight Z offset correction can be performed.
  • the loop filter 113 can be configured as shown in FIG.
  • FIG. 27 shows the configuration of the loop filter 113 on the encoder side.
  • the filter coefficient determination unit C101 receives the input image signal 101 and the local decoded image signal 112 as input signals, and when the local decoded image signal 112 is subjected to filter processing, for example, the least square error with the input image signal 101 is the largest. A filter coefficient that is small is calculated, and the calculated filter coefficient is output to the filter processing unit C102 and also output to the entropy code unit 108 as filter coefficient information C103.
  • filters that are limited to this example may be prepared in advance, and they may be switched adaptively, and the selected filter may be output as the filter coefficient information C103.
  • each filter It is possible to apply various modes that can perform processing such as adaptive determination.
  • a signal having the same pixel bit length as that of the local image decoded signal 112 input to the loop filter is used according to each embodiment.
  • the filter processing unit C102 performs filter processing on each pixel of the locally decoded image signal using the filter coefficient input from the filter coefficient determination unit C101, and outputs the result to the frame memory 114 and the like.
  • the filter coefficient information 103 output to the entropy coding unit 108 is entropy-coded by the entropy coding unit 108, and is included in the encoded data 117 and transmitted.
  • FIG. 28 shows a configuration example of the loop filter 113 on the decoding side.
  • the filter processing unit C102 Based on the filter coefficient information C103 output from the entropy decoding unit 200, the filter processing unit C102 performs filter processing on each pixel of the decoded image signal.
  • the decoded image signal subjected to the filter processing is output to the frame memory 114 and the pixel bit length reducer or is output as it is as a decoded image signal according to each embodiment.
  • the pixel bit length expander 1001 for converting the pixel bit length of the input image signal 101 can be configured as shown in FIG. is there.
  • the input image signal input to the pixel bit length expander 1001 extends the bit length of each pixel to a bit accuracy that is M bits larger than N bits (N + M) in the same procedure as in the first embodiment.
  • the filter processing unit 7000 After performing the above processing, it is guided to the filter processing unit 7000, and the filter processing is performed on each pixel.
  • the filtering process performed here uses, for example, a spatial filter that adds the filter coefficients to adjacent pixels in the frame and adds them up.
  • a spatial filter for example, an epsilon filter is used, and the filter processing unit 7000 force S is shown in FIG.
  • the filter processing unit 7000 when the input pixel value is P [t] and the output pixel value is Q [t], t indicates the pixel position.
  • the input pixel value P [t] and the previous output pixel value Q [t-1] stored in the temporary memory A04 are added to the adder A01.
  • Lookup table A02 with this difference d And F (d) is determined.
  • This value F (d) is input to the adder A03 and subtracted from the input pixel value P [t]. This operation is expressed as follows.
  • the contents of the lookup table A02 should be stored in advance as a table with the value calculated by the function F. For example, if the pixel value is n bits, the value of d is —2 n + l to + 2 n — 1, and the lookup table has 2 n + 1 — l arrays. Good.
  • u is a parameter of the filter. The larger u is, the stronger the filter is applied. The computational amount of this filter is only two additions to the filter processing for one pixel.
  • FIG. 31 is a specific flowchart of the filter processing unit 7000 using the filter of FIG.
  • This filter processing unit 7000 performs four-way force filtering for the frame. First, post-filter processing (S101) from right to left of the frame is performed. Next, post filter processing (S102) from left to right in the opposite direction is performed. Similarly, this time, top-to-bottom post-filter processing (S 103) is performed, and then top-to-bottom post-filter processing in the opposite direction is performed. This process is performed for each YCb Cr signal. By performing opposite direction force filtering in this way, the phase shift, which is a drawback of cyclic filters, can be canceled.
  • a time filter may be used in which the corresponding pixels of a plurality of frames are multiplied by a filter coefficient and then added.
  • a time filter with motion compensation may be applied.
  • the time filter with motion compensation for example, a method described in Japanese Patent Application No. 2006-36206 is used.
  • the filtering process in this configuration is not limited to the filtering process described here, and any filtering process may be performed.
  • the input image signal 101 is encoded without being converted in pixel bit length, but the input image signal 101 is directly subjected to the prefiltering described here. The force and sign may be applied.
  • the pixel bit length reducers 2001 and And 2007 can be configured as shown in Fig. 32.
  • the bit extended decoded image signal 2003 input to the pixel bit length expanders 2001 and 2007 is input to the filter processing unit 7001, and after the filter processing is performed on each pixel, the first implementation is performed.
  • the bit length of each pixel is reduced to N-bit accuracy, which is M bits smaller than (N + M) bits, in the same procedure as in form 1, and output as an N-bit decoded image signal.
  • a spatial filter may be used such that the adjacent pixels in the frame are multiplied by the filter coefficient and then added together, or the corresponding pixels in a plurality of frames are multiplied by the filter coefficient.
  • a time filter that adds back and forth.
  • the pixel bit length expander 1001 is combined with a configuration that performs filter processing, and the reverse of the filter processing performed by the filter processing unit 7000 in the pixel bit length expander 1001 is performed. It is also possible to perform the filter processing by the filter processing unit in the pixel bit length reducer 2001. For example, in the filter processing unit 7000, when two pixel values corresponding between two frames are set as X and y as input pixel values and a and b are respectively corresponding output pixel values, the following equation (14) is given. Apply processing.
  • the processing of equation (14) is the power of performing division processing by 2-bit right shift. For example, when pixel bit extension by 2-bit left shift is performed in the pixel bit length expander 1001, the filter processing represented by equation A4 There is no rounding error and the input image information is not lost.
  • the filter processing unit 7001 on the decoding side the pixel values of two points corresponding to two frames of the decoded image signal as input pixels are a ′, and the corresponding output pixel values are ⁇ ′, y ′.
  • the processing shown in Equation (15) is performed.
  • Equation (15) is the power of performing division processing by 3-bit right shift.
  • the filter expressed by Equation (14) As with processing, no rounding error occurs. That is, encoding and Assuming that the quantization error caused by the decoding process is 0, the filter and the inverse filter according to Equation (14) and Equation (15) are reversible filters. Equation (14) performs the process of bringing the corresponding two pixel values between two frames closer to each other, so that motion compensation makes prediction more quickly and the prediction residual becomes smaller. Therefore, the code amount can be reduced. Furthermore, by performing pixel bit extension, it is possible to perform filter processing to return to the original input image on the decoding side, except for quantization errors, so that it is possible to improve code efficiency. .
  • the filters used in the filter processing units 7000 and 7001 are not limited to the examples described here, and any filter may be used. Of course, it is needless to say that the accuracy of prediction and the like can be further improved by using a reversible filter corresponding to the number M of bits expanded in the pixel bit expansion unit 1001. Further, in the example described here, the power for filtering two points corresponding to two frames is not limited to this example. For example, pixels of two or more frames may be used. Also, two adjacent points in one frame or a plurality of pixels at two or more points may be subject to filtering. In addition, it is possible to use various types of filtering, such as two pixel values corresponding to the top field and bottom field in the interlaced image.
  • the coefficients of the reversible filter used in the filter processing units 7000 and 7001 can be output to the entropy code unit 108 and included in the code data 117. In this way, it is possible to select a filter coefficient that is highly effective in improving the accuracy of prediction and the like for each frame and perform coding.
  • This image coding apparatus is different in that it has a power pixel bit length expander 1001 that is substantially the same as the configuration example shown in the second embodiment (FIG. 9) and includes an information embedder 3000. ing.
  • a moving image signal is input to the encoding device in units of frames as the image signal 100 (S151).
  • the pixel bit length extender (pixel bit precision conversion) 1001 performs the same processing as in the second embodiment, so that the value of each pixel of the input N-bit precision image signal 100 is calculated from N bits to M
  • a process of expanding to bit precision (N + M) bit precision is performed (S152).
  • the expanded bit number M is guided to the entropy encoder 108 as bit extension information 1003 by a bit length conversion controller (bit precision conversion controller) 1002.
  • a data string generated based on the parameters set in advance is converted into each pixel of the input image signal 100. For example, it is embedded in the lower bits (S153).
  • the generated data string has a word length of M bits or less, which is the extended bit length.
  • the subtracter 101 and the input image signal 100 with the bit length extended to (N + M) bit precision are generated by the subtracter 101 and (N + M )
  • the difference from the predicted image signal 102 created with bit accuracy is obtained.
  • a prediction error signal 103 with (N + M) bit accuracy is generated (S154).
  • the generated prediction error signal 103 is subjected to orthogonal transform (for example, discrete cosine transform (DCT)) by the orthogonal transformer 104, and the orthogonal transformer 104 performs orthogonal transform coefficient information 105 (for example, DCT coefficient information). Is obtained (S155).
  • the orthogonal transform coefficient information 105 is quantized by the quantizer 106, and the quantized orthogonal transform coefficient information 107 is guided to the entropy encoder 108 and the inverse quantizer 109.
  • the quantized orthogonal transform coefficient information 107 is a signal similar to the prediction error signal by the inverse quantizer 109 and the inverse orthogonal transformer 110 sequentially receiving the reverse processing of the quantizer 106 and the orthogonal transformation 104. That is, a local decoding error signal is generated. This local decoding error signal is added to the predicted image signal 102 with (N + M) bit accuracy by the calorie calculator 111, thereby generating a local decoded image signal 112 with (N + M) bit accuracy (S156). ). The local decoded image signal 112 with (N + M) bit precision is stored in the frame memory 114 after being filtered by the loop filter 113 as necessary. The local decoded image signal 112 stored in the frame memory 114 is input to the predicted image generator 115.
  • the prediction image creator 115 is an input image signal whose bit length is extended to (N + M) bit precision.
  • a prediction image signal with (N + M) bit accuracy based on certain prediction mode information is generated from the local decoded image signal 112 with 100 and (N + M) bit accuracy.
  • a motion vector is detected by taking (for example, block matching) (S157).
  • a predicted image signal with (N + M) bit accuracy is created using the local image signal with (N + M) bit accuracy compensated by this motion vector (S157).
  • the (N + M) bit-accurate predicted image signal 102 generated here is output from the predicted image creator 115 together with the motion vector information Z prediction mode information 116 of the selected predicted image signal.
  • the quantized orthogonal transform coefficient information 107, the motion vector information Z prediction mode information 116, and the bit extension information 1003 are entropy-encoded (S159).
  • Data 117 is sent to a transmission system or storage system (not shown).
  • This image decoding apparatus is provided between the force loop filter 113 and the pixel bit length reducer 2001 (pixel bit accuracy variable ⁇ ), which has almost the same configuration as the configuration example shown in the second embodiment (FIG. 10A). The difference is that a watermark detector 3002 is connected.
  • the quantized orthogonal transform coefficient information 107 is sequentially processed by the inverse quantizer 109 and the inverse orthogonal transformer 110 in the reverse order of the processing of the quantizer 106 and the orthogonal transform 104 (N + M) bits. It is converted into an accuracy residual signal 201 (S163).
  • the bit extension information 2004 output from the entropy decoder 200 is input to the bit length conversion controller 2002, and then the decoded image is Bit conversion information 2003 indicating the number of bits M indicating how many bits are expanded is output.
  • the motion vector Z prediction mode information 116 is input to the prediction image generator 115, and based on the motion vector Z prediction mode information 11 6 from the bit extended reference image signal 204 with (N + M) bit accuracy (N + M).
  • the predicted image signal 102 with bit accuracy is generated (S164).
  • the adder 11 1 adds the (N + M) bit precision residual signal 201 and the (N + M) bit precision prediction image signal 102.
  • the added signal is subjected to filter processing as necessary by the loop filter 113, and a bit extended decoded image signal 203 with (N + M) bit precision is output (S165).
  • the bit extended decoded image signal 203 is stored in the frame memory 114 and also input to the watermark detection unit 3002.
  • the watermark detection unit 3002 determines whether or not the watermark data in which, for example, the lower bits of each pixel of the bit extended decoded image 203 are embedded, and watermark detection information 3003 indicating whether or not the data includes a transparent data. Is output (S166). Whether the data is watermark data is determined by, for example, calculating the correlation coefficient of the known watermark pattern and the lower M bits of the bit-enhanced decoded image 203, for example, and the value is above a certain threshold. In such a case, use a method such as determining that the data is permeability data.
  • the bit extended decoded image signal 203 is input to the pixel bit length conversion 2007, and based on the bit conversion information 2003, the image decoding of the first embodiment such as Expression (2) is performed on the value of each pixel.
  • the pixel bit length is reduced and converted to a smaller value of M bits (S167), and the same as the input image input to the image encoding device A decoded image 202 with N-bit precision is obtained (S168).
  • the predicted image signal is generated with an accuracy that is M bits larger than the input image signal, it is possible to improve the accuracy of motion compensation filters, loop filters, intra prediction, and the like. . As a result, the prediction error signal can be reduced, so that the coding efficiency can be improved. In addition, by using the extended lower bits to embed information with transparency, it is possible to embed the permeability information without changing the input image signal.
  • the number of bits M to be expanded or reduced is entropy-coded as bit expansion information and included in the code key data.
  • the image decoding device Does not necessarily include the number of bits M in the sign key data.
  • the bit length is expanded or reduced by a predetermined number, it is also possible to include only a flag indicating whether expansion or reduction is performed in the code data. In this case, if the flag is TRUE, the pixel bit length expander 1001 or the pixel bit length reducer 2001 or the pixel bit length converter 2007 in the second to sixth embodiments is turned on. Connected to. On the other hand, when the flag is FALSE, the switch is connected to the OFF side.
  • the number of bits L to be reduced is necessarily the same as M, and L must be included in the code key data. There is no.
  • M and L are the same value or different values, it is not always necessary to include the number of bits M and L in the sign key data if the number is a predetermined number.
  • Extending the pixel bit length of the input image, the locally decoded image signal, and the decoded image is equivalent to improving the arithmetic accuracy of the integer operation in the process of encoding and decoding. It is also possible to vary the calculation accuracy at any point in the processing process and include a flag or information indicating the calculation accuracy in the sign key data.
  • a flag indicating whether or not to extend the pixel bit precision stored in the frame memory, and orthogonal transform Z quantization A flag indicating whether to extend the pixel bit length of the input prediction residual, that is, whether to extend the arithmetic accuracy of orthogonal transform Z quantization, is included in the encoded data. Depending on whether these flags are ON or OFF, whether or not to expand the accuracy of the pixel bits stored in the frame memory by the encoder and decoder, and the pixel bits of the prediction residual input to the orthogonal transform Z quantization Whether to extend the length may be switched.
  • data indicating how many bits are expanded / reduced may be included in the code data.
  • the flag indicating whether or not to extend the calculation accuracy of one process of the encoding / decoding process and the data indicating the number of bits to be expanded include only the frame memory and the orthogonal transformation / quantization shown here.
  • a flag for a loop filter or data indicating the number of extension bits may be added. If the process is part of the encoding 'decoding process, then that process, or multiple processes, are combined into one It is possible to set a flag indicating whether or not to extend the operation accuracy and data indicating the number of extended bits to include in the encoded data.
  • FIG. 35A The configuration of the image coding apparatus according to the seventh embodiment will be described with reference to FIG. 35A.
  • This embodiment basically has the same configuration as that of the embodiment of FIG. 11, but a pixel bit length reducer (pixel bit precision reduction / transformation) 1004 is provided between the prediction image creation unit 115 and the subtractor 101.
  • a pixel bit length extender (pixel bit precision extension variable) 1007 is provided between the adder 111 and the loop filter 112, which is different from the embodiment of FIG.
  • a moving image signal is input to the image encoding device in units of frames as the image signal 100 (S171).
  • the pixel bit length extender 1001 is configured as shown in FIG. 2, and the value of each pixel of the input N-bit precision image signal 100 based on a control flag F1001 based on syntax information described later included in the bit conversion information 1010. It is determined whether or not to extend to N bits (M + M) bits precision larger than N bits (S172).
  • the switch E0 in the pixel bit length extender 1001 is set to ON, and the bit length of each pixel of the local decoded image signal 112 is set to the pixel bit in the first embodiment. Extension is performed by the same processing as that performed by the length converter 1001 (S173). For example, if the value of a pixel in the input image signal is K, the pixel value K ′ after M-bit expansion is expressed by, for example, Equation (1), Equation (1—1), (1-2), (1 It is calculated by processing such as 3).
  • control flag F1001 When the control flag F1001 is OFF, the switch E0 is connected to the OFF side, and the process of extending the bit length of each pixel is not performed.
  • the conversion information such as the number of bits M to be extended is guided to the entropy encoder 108 as the bit extension information 1003 by the bit length conversion controller 1002.
  • the subtracter 101 calculates a difference between the input image signal 100 and the predicted image signal 102, and generates a predicted residual signal 103 (S174).
  • the generated prediction error signal 103 is subjected to orthogonal transformation (for example, discrete cosine transformation (DCT)) by orthogonal transformation 104, and the orthogonal transformer 104 provides orthogonal transformation coefficient information 105 (for example, DCT coefficient information). Is obtained (S 175).
  • the orthogonal transform coefficient information 105 is quantized by the quantizer 106, and the quantized orthogonal transform coefficient Information 107 is routed to entropy encoder 108 and inverse quantizer 109.
  • the quantized orthogonal transform coefficient information 107 is a signal similar to the prediction error signal by the inverse quantizer 109 and the inverse orthogonal transformer 110 sequentially receiving the reverse processing of the quantizer 106 and the orthogonal transformation l04. That is, it is converted into a local decoding error signal.
  • This local decoding error signal is added to the predicted image signal 102 by the adder 111, thereby generating a local decoded image signal 112 (S176).
  • the local decoded image signal 112 is input to the pixel bit length extender 1007, and based on a control flag F1007 based on syntax information described later included in the bit conversion information 1010, each pixel of the local decoded image signal 112 is displayed.
  • the local decoded image signal 112 output from the pixel bit length extender 1007 is subjected to filter processing by the loop filter 113 as necessary, and then input to the pixel bit length converter 1005.
  • the pixel bit length conversion 1005 it is determined whether or not to convert the bit length of each pixel of the locally decoded image signal 112 based on a control flag F1005 based on syntax information described later included in the bit conversion information 1010 ( S179).
  • the control flag F1005 is ON
  • the switch E3 in the pixel bit length extender 1005 is set to ON, and the bit length of each pixel of the local decoded image signal 112 is set to the pixel bit in the third embodiment.
  • the length converter 1005 is expanded by the same processing as that performed by the length converter 1005 (S180).
  • the control flag F1005 is OFF, the process of converting the bit length of the pixel is not performed.
  • the local image signal 112 output from the pixel bit length converter 1005 is stored in the frame memory 114 (the local image signal stored in the S18 Do frame memory 114 is further input to the pixel bit length change 006.
  • Pixel bit length conversion 1006 determines whether or not to convert the bit length of each pixel of the locally decoded image signal 112 based on a control flag F1006 based on syntax information described later included in the bit conversion information 1010.
  • switch E3 in the pixel bit length extender 1006 is set to ON.
  • the bit length of each pixel of the locally decoded image signal 112 is expanded by the same process as the process performed in the pixel bit length conversion 1006 in the third embodiment (S183).
  • the control flag F1006 is OFF, the process of converting the pixel bit length is not performed.
  • the local decoded image signal 112 output from the pixel bit length conversion 1006 is input to the prediction image generator 115.
  • the predicted image creator 115 generates a predicted image signal based on certain prediction mode information from the input image signal 100 and the locally decoded image signal 112 stored in the frame memory 114 (S184). At this time, the locally decoded image signal 112 from the adder 111 is stored and stored in the frame memory 114, and between the input image signal 100 and the locally decoded image signal 112 stored in the frame memory 114 for each block in the frame. Matching (for example, block matching) is performed, a motion vector is detected, and a predicted image signal is generated using a local image signal compensated by the motion vector. The predicted image signal 102 generated here is output from the predicted image generator 115 together with the motion vector information Z prediction mode information 116 of the selected predicted image signal.
  • Matching for example, block matching
  • the predicted image signal 102 output from the predicted image signal generator 115 is input to the pixel bit length reducer 1004.
  • the pixel bit length reducer 1004 determines whether to convert the bit length of each pixel of the predicted image signal 102 based on a control flag F1004 included in the bit conversion information 1010 and based on syntax information described later. (S185). When the control flag F1004 is ON, the switch E2 in the pixel bit length expander 1004 is set to ON, and the bit length of each pixel of the predicted image signal 102 is reduced by the same process as in the fourth embodiment. (S186). When the control flag F1004 is OFF, the process of converting the bit length of the pixel is not performed.
  • the quantized orthogonal transform coefficient information 107, the motion vector information Z prediction mode information 116, and the bit extension information 1003 are entropy-encoded (S187), and the code signal generated thereby is encoded.
  • Data 117 is sent to a transmission system or storage system (not shown).
  • ex_seq_all_bit_extention_flag shown in the sequence parameter set syntax of Fig. 36 is a flag indicating whether or not to perform bit extension.
  • the flag power is TRUE
  • the flag is FALSE
  • this flag does not perform encoding 'decoding' using an image signal in which the bit length of each pixel is extended in all the data paths inside the encoding and decoding keys.
  • encoding / decoding is performed using an image signal in which the bit length of each pixel is extended.
  • ex_seq_bit_extention_flag When the force is TRUE, ex_seq_shift_bits indicating how many bits to extend may be further transmitted.
  • ex_seq_all_bit_extention_flag FALSE
  • a flag eex_seq_partial_bit_extention_flag indicating whether or not to extend the pixel bit length of the image signal input to the prediction image generation unit in the encoding and decoding may be further transmitted.
  • the flag When the flag is TRUE, it indicates that an image signal in which the bit length of each pixel is extended at the time of prediction image creation in encoding / decoding internal processing is used.
  • the flag is FALSE, this flag indicates that the image signal in which the bit length of each pixel is extended is not used in all of the data nodes inside the code and decoding keys. .
  • ex_ Se q showing further ⁇ this, whether a pixel bit length of the image signal input to the prediction image generator 112, as compared with the pixel bit depth of the input image signal to expand many bits larger — Partial— shift— bits send 1
  • ex_seq_partial_bit_extention_flag When ex_seq_partial_bit_extention_flag is TRUE, a flag indicating whether or not to use an image signal in which the bit length of each pixel is extended in a certain part of the data path within the encoding and decoding may be transmitted.
  • a flag ex_seq_framemem_bit_extent ionjag indicating whether or not to extend the pixel bit length of the reference image signal stored in the frame memory 114, and an orthogonal transform unit and a quantization unit (orthogonal transformer 104, quantizer 106).
  • ex_seq_framemem_bit_extention_flag When ex_seq_framemem_bit_extention_flag is TRUE, this flag indicates that the pixel bit length of the reference image signal stored in the frame memory is extended. When the flag is FALSE, it indicates that the pixel bit length of the reference image signal stored in the frame memory is the same as the input image. If ex_seq_framemem_bit_extention_flag is TRUE, ex_seq_framemem_shift_bits indicating how many bits the pixel bit length of the image signal stored in the frame memory is extended compared to the pixel bit length of the input image signal may be transmitted .
  • the flag is input to or output from the orthogonal transform unit and the quantization unit (orthogonal transformer 104, quantizer 106, inverse quantizer 109, and inverse orthogonal transformer 110).
  • the predicted residual signal is a difference signal between the predicted image signal and the input image signal with the same bit accuracy as the input image signal.
  • ex_seq_trans_and_quant_bit_extention _flag When ex_seq_trans_and_quant_bit_extention _flag is TRUE, it is further input to or output from the orthogonal transformer and quantizer (orthogonal transformer 104, quantizer 106, inverse quantizer 109, and inverse orthogonal transformer 1 10) Ex— seq—trans, which indicates how many bits the pixel bit lengths of the input image signal and the predicted image signal are larger than the pixel bit length of the input image signal when generating the predicted residual signal — And— quant— shift— bits may be sent 1 g.
  • the number of bits to be expanded or contracted is set with a preset number of bits. As shown in FIG. 37, only a flag indicating whether or not to convert the pixel bit length of the image signal may be transmitted.
  • the F1001, F1007, F1005, F1006, and F1004 columns of the control flag indicate the value of the control flag that is set based on the value of each syntax. 1 indicates ON, 0 indicates OFF! For example, in the case of ex_seq_all_bit_extention_flag force TRUE, only the control flag F1001 is turned on, and the remaining flags are turned off.
  • FIG. 40 shows the setting flag [J] for the control flags F2001, F2005, F2006, F2007, and F2008 used in the processing of the image decoding apparatus to be described later.
  • the values are the same as in FIG. In the present embodiment, it is possible to use data multiplexed in the supplemental syntax as in the first embodiment.
  • the image decoding apparatus includes an entropy decoder 200, an inverse quantizer 109, an inverse orthogonal transformer 110, an adder 111, a loop filter 113, a frame memory 114, a predicted image creator 115, Pixel bit length reducer (Pixel bit precision reduction converter) 2001, 2006, Pixel bit length extender (Pixel bit precision extension conversion) 2005, Pixel bit length conversion (Pixel bit precision conversion) 2007, 2008, A bit length conversion controller 2002 is provided.
  • the coefficient information output of the entropy decoder 200 is connected to the adder 111 via the inverse quantizer 109 and the inverse orthogonal transformation 110.
  • the motion vector ⁇ prediction mode information output of the entropy decoder 200 is connected to the prediction image generator 115, and its bit extension information output is connected to the bit length conversion controller 2002.
  • the output of the predicted image generator 115 is connected to the other input of the adder 111 via a pixel bit length reducer.
  • the output of the adder 111 is connected to the frame memory 114 via a pixel bit length extender 2005, a loop filter 113, and a pixel bit length converter 2007.
  • the other output of the loop filter 113 is connected to the input of the pixel bit length reducer 2001.
  • the output of the frame memory 114 is connected to the pixel bit length converter 2008 together with the output to the bit length conversion controller 2002.
  • Pixel bit length converter 2008 output is predicted image Connected to other inputs of the image creator 115.
  • the output of the bit length conversion controller 2002 is the other input of the pixel bit length reducer 2001, the pixel bit length extender 2005, the pixel bit length reducer 2006, the pixel bit length converter 2007, and the pixel bit length converter 2008. Connected to.
  • the bit length conversion controller 2002 When the bit extension information 2004 is input to the bit length conversion controller 2002, the bit length conversion controller 2002 includes the pixel bit length reducer 2001, 2006, the pixel bit length extender 2005, the pixel bit length change ⁇ 2007, Bit conversion information 2003 including a control flag indicating whether or not to perform pixel bit length conversion in 2008 and information indicating the bit length to be expanded or reduced is output.
  • the control flag included in this bit conversion information is set as shown in FIG. 40 based on the value of the status (FIG. 36) multiplexed as, for example, the bit extension information 2004 in the code key data 117. Included in conversion information 2003.
  • the quantized orthogonal transform coefficient information 107 is subjected to sequential processing reverse to the processing of the quantizer 106 and the orthogonal transformation 104 by the inverse quantizer 109 and the inverse orthogonal transformer 110, and converted into the residual signal 201. (S203).
  • the motion vector / prediction mode information 116 is input to the prediction image generator 115, stored in the frame memory 114, and from the decoded image signal 203 in which the bit length of each pixel is converted as necessary by the pixel bit length change ⁇ 2008.
  • a predicted image signal 102 based on the motion vector Z prediction mode information 116 is generated (S204).
  • the predicted image signal 102 is input to the pixel bit length reducer 2006, and based on the control flag F2006 included in the bit conversion information 2003, whether or not to convert the bit length of each pixel of the predicted image signal 102 is determined. Determination is made (S205). When the control flag F2006 is ON, the switch E2 in the pixel bit length extender 2006 is set to ON, and the bit length of each pixel of the predicted image signal 102 is set to the pixel bit length extension in the fourth embodiment. Reduction is performed by the same process as that performed in the vessel 2006 (S206). When the control flag F2006 is OFF, the process of converting the bit length of the pixel is not performed.
  • the predicted image signal 102 and the residual signal 201 output from the pixel bit length reducer 2006 are added by the adder 111 to generate a decoded image signal (S207).
  • the decoded image signal 203 is input to the pixel bit length expander 2005.
  • the pixel bit length converter 2005 determines whether to extend the bit length of each pixel of the decoded image signal 203 based on the control flag F2005 included in the bit conversion information 2003 (S208).
  • the control flag F2005 is ON, the switch E1 in the pixel bit length extender 2005 is set to ON, and the bit length of each pixel of the decoded image signal 203 is changed to the pixel bit length converter 2005 in the fourth embodiment.
  • the process is expanded by the same process as that performed in (S209).
  • the control flag F2005 is OFF, the process of converting the pixel bit length is not performed.
  • the decoded image signal 203 output from the pixel bit length expander 2005 is output after being filtered by the loop filter 113 as necessary.
  • the pixel bit length reducer 2001 and the pixel bit length change ⁇ 2007 Is output.
  • the pixel bit length converter 2007 When the decoded image signal 203 is input to the pixel bit length converter 2007, the pixel bit length converter 2007 outputs the decoded image signal 203 based on the control flag F2007 included in the bit conversion information 2003. It is determined whether the bit length of each pixel is to be converted (S210). When the control flag F2007 is ON, the switch E3 in the pixel bit length extender 2007 is set to ON, and the bit length of each pixel of the decoded image signal 203 is the pixel bit length in the third embodiment. Conversion is performed by the same processing as that performed in ⁇ 2007 (S211). When the control flag F2007 is OFF, the process of converting the pixel bit length is not performed.
  • the decoded image signal 203 output from the pixel bit length converter 2007 is stored in the frame memory 114 (S 212).
  • the pixel bit length change ⁇ 2008 is determined based on the control flag F2008 included in the bit conversion information 2003. Then, it is determined whether or not the bit length of each pixel of the decoded image signal 203 is to be converted (S213).
  • the control flag F2008 is ON
  • the switch E3 in the pixel bit length extender 2008 is set to ON, and the bit length of each pixel of the decoded image signal 203 is converted to the pixel bit length conversion in the third embodiment.
  • the decoded image signal 203 is filtered by the loop filter 113 as necessary, and is output to the pixel bit length reducer 2001.
  • the pixel bit length reducer 2001 converts each pixel of the decoded image signal 203 based on the control flag F2001 included in the bit conversion information 2003. It is determined whether to convert the bit length (S216).
  • the control flag F2001 is ON, the switch E2 in the pixel bit length expander 2001 is set to ON, and the bit length of each pixel of the decoded image signal 203 is set to the pixel bit length reducer 2001 in the first embodiment. (S2 17).
  • the control flag F2001 is OFF, the process of converting the pixel bit length is not performed, and the decoded image signal 202 is output as it is.
  • the decoded image 202 having the same N-bit accuracy as the input image input to the image encoding device is output from the pixel bit length reducer 2001 (S218).
  • the pixel bit length extender, the pixel bit length reducer, and the pixel bit length converter are partially omitted, and the configuration shown in the second to fifth embodiments is used, and the pixel bit length extension is performed.
  • ex_seq_all_bit_extention_flag is determined according to the If TRUE, control the pixel bit length expander, pixel bit length reducer, and pixel bit length conversion in each configuration to convert the bit length of each pixel. If FALSE, control to perform no conversion processing. It can also be done.
  • FIG. 41 is a table showing the predicted pixel value of 8-bit accuracy according to H.264 and the predicted pixel value of 12-bit accuracy according to the present embodiment for the input pixel value (8 bits) at each pixel position. Is a graph of this (interpolation filters at half-pixel positions are 6 types ⁇ 1Z32,-5/32, 20/32, 20/32,-5/32, 1,32 ⁇ ).
  • the predicted image signal is created with the same 8 bits as the input image signal (Fig. 42 (represented by a rhombus plot), the pixel value of the pixel interpolated at the half-pixel position has a rounding error.
  • bit expansion as described in the present embodiment is performed to create a 12-bit predicted image (represented by a circular plot in FIG. 42)
  • the half-pixel position is set. The rounding error of the pixel value of the interpolated pixel is reduced.
  • bit extension is performed, the bit accuracy of the residual is expanded to 12 bits compared to before bit extension.
  • the bit accuracy can be larger by M bits than the bit accuracy of the input image, and the predicted image signal has accuracy that is M bits larger than the input image signal. Therefore, the accuracy of motion compensation filters, loop filters, intra prediction, and the like can be improved. As a result, the prediction error signal can be reduced, so that the coding efficiency can be improved.
  • the present invention can be applied not only to video devices but also to audio devices.
  • the present invention is not limited to the above-described embodiments as they are, but can be embodied by modifying the constituent elements without departing from the spirit of the invention in the implementation stage.
  • Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiments. For example, some components such as all the components shown in the embodiment may be deleted. Furthermore, constituent elements over different embodiments may be appropriately combined.
  • the present invention can be applied to encoding and decoding of moving images, still images, voices, and the like in various fields such as video, audio devices, mopile devices, broadcasting, information terminals, and networks.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 画像符号化装置は、入力画像の各画素のビット精度を変換することによって変換入力画像を出力すると共に変換により変更されたビット数を表すビット変換情報を出力する画素ビット長拡張変換器(1001)と、入変換力画像を符号化し画像符号化情報を出力する画像符号化器(10)と、ビット変換情報と画像符号化情報とを多重化する多重化器(12)とを具備する。

Description

明 細 書
画像符号化装置及び画像符号化方法並びに画像復号化装置及び画像 復号化方法
技術分野
[0001] 本発明は、動画像又は静止画像のための画像符号化装置及び画像符号化方法 並びに画像復号ィ匕装置及び画像復号ィ匕方法に関する。
背景技術
[0002] 代表的な動画像符号化標準方式である H. 264は、入力画像信号と、画面内予測 や動き補償を行うことで作成された予測画像信号との予測誤差信号に対して離散コ サイン変換 (DCT)等の直交変換を行い、このような周波軸上への変換を行った後、 変換係数に対して量子化及び符号化による圧縮処理を行って符号化画像を得ると いう非可逆圧縮方式である。予測画像信号を作成する際には、画面内予測や動き補 償の補間フィルタにおいて、複数画素にフィルタ係数をかけて足し合わせた後、入力 画像の画素ビット長と同じ精度に丸めを行う処理を行っている。
[0003] 特開 2003— 283872号公報では、入力画像の 1フレーム毎に各色信号のダイナミ ックレンジを拡大した画像を入力として符号ィ匕し、復号後に元のダイナミックレンジに 復元することにより、表示装置の補正による符号化歪の強調を抑制する手法が示さ れている。
[0004] H. 264では、予測信号を作成する際の丸め処理の過程において丸め誤差が発生 するため、画面内予測や動き補償の補間フィルタにお 、て十分な精度で処理を行う ことができず、予測誤差信号の増大を招き、結果的に符号ィ匕効率が低下する。これ に対し、特開 2003— 283872号公報では、入力画像のダイナミックレンジを拡大す ることにより、前述の丸め誤差を若干少なくすることが可能である。しかし、特開 2003 — 283872号公報におけるダイナミックレンジの拡大は、入力画像のビット精度の範 囲内で行われるだけであり、また、ダイナミックレンジの拡大の際にも丸め誤差が発生 することから、十分に計算精度を向上させることはできない。
発明の開示 [0005] 本発明は、画面内予測や動き補償の精度を十分高めることによって符号ィ匕効率を 向上させるための画像符号ィ匕装置及び画像符号ィ匕方法並びに画像復号ィ匕装置及 び画像復号化方法を提供することを目的とする。
[0006] 本発明の第 1の形態は、入力画像の各画素のビット精度を変換することによって異 なるビット精度の変換入力画像を生成し、ビット精度に対する変換を示すビット変換 情報を出力する画素ビット精度変換器と、前記入変換力画像を符号化し画像符号化 情報を出力する画像符号化器と、前記ビット変換情報と前記画像符号化情報とを多 重化する多重化器とを備えた画像符号化装置を提供する。
[0007] 本発明の第 2の形態は、 Nビット精度をそれぞれ持つ複数の画素により構成される 入力画像の各画素のビット精度を Mビット大きな (N + M)ビット精度に変換する画素 ビット精度変翻と、(N + M)ビット精度の前記入力画像に対する (N + M)ビット精 度の予測画像を、(N + M)ビット精度の参照画像から作成する予測画像作成器と、 ( N + M)ビット精度の前記入力画像と (N + M)ビット精度の前記予測画像との差分信 号を求める減算器と、前記差分信号を符号化して画像符号化情報を出力する符号 ィ匕器と、前記画像符号化情報に基づいて復号差分画像を出力する復号化器と、(N + M)ビット精度の前記予測画像と前記復号差分画像とを加算して (N + M)ビット精 度の復号画像を出力する加算器と、(N + M)ビット精度の前記復号画像を前記参照 画像として保存する参照画像格納メモリとを備えた画像符号化装置を提供する。
[0008] 本発明の第 3の形態は、ビット変換情報と画像符号化情報とが多重化された画像 情報を入力してビット変換情報と画像符号ィ匕情報に分離する多重化分離器と、前記 画像符号化情報を復号化し復号画像を出力する画像復号化器と、前記ビット変換情 報に基づいて前記復号画像の各画素の値をビット精度が異なるビット精度に変換す る画素ビット精度変換器と、を備えた画像復号化装置を提供する。
本発明の第 4の形態は、入力符号ィ匕画像情報を (N + M)ビット精度の復号差分画 像に復号する復号化器と、
前記符号化画像情報を用いて (N + M)ビット精度の参照画像から (N + M)ビット 精度の予測画像を作成する予測画像作成器と、前記復号差分画像と前記予測画像 とを加算して (N + M)ビット精度の復号画像を得る加算器と、(N + M)ビット精度の 前記復号画像を前記参照画像として保存する参照画像格納メモリと、 (N + M)ビット 精度の前記復号画像の各画素を Nビット精度に変換し Nビット精度の復号画像を出 力する画素ビット精度変換器と、を備えた画像復号化装置を提供する。
図面の簡単な説明
[図 1A]図 1Aは本発明の第 1の実施形態に係る画像符号ィ匕装置の構成例を示すプロ ック図である。
[図 1B]図 1Bは図 1Aの画像符号ィ匕装置の動作を示すフローチャートである。
[図 2]図 2は画素ビット長拡張器の構成を示すブロック図である。
[図 3]図 3は同実施形態で用いるシンタクスの構造の一例を示す図である。
[図 4]図 4は同実施形態で用いるシーケンスパラメータセットシンタクスの構造を示す 図である。
[図 5]図 5は同実施形態で用いるサプリメンタルシンタクスの構造を示す図である。
[図 6]図 6は同実施形態で用いるサプリメンタルシンタクスの構造を示す図である。
[図 7A]図 7Aは同実施形態に係る画像復号ィ匕装置の構成例を示すブロック図である
[図 7B]図 7Bは図 7Aの画像復号ィ匕装置の動作を示すフローチャートである。
[図 8]図 8は図 7の画素ビット長縮小器の構成を示すブロック図である。
[図 9A]図 9Aは本発明の第 2の実施形態に係る画像符号ィ匕装置の構成例を示すブ ロック図である。
[図 9B]図 9Bは図 9Aの画像復号ィ匕装置の動作を示すフローチャートである。
[図 10A]図 10Aは同実施形態に係る画像復号ィ匕装置の構成例を示すブロック図であ る。
[図 10B]図 10Bは図 10Aの画像復号ィ匕装置の動作を示すフローチャートである。
[図 11A]図 11Aは第 3の実施形態に係る画像符号ィ匕装置の構成例を示すブロック図 である。
[図 11B]図 11Bは図 11 Aの画像符号ィ匕装置の動作を示すフローチャートである。
[図 12]図 12は図 11の画素ビット長変換器の構成を示すブロック図である。
[図 13]図 13は同実施形態で用いるシーケンスパラメータセットシンタクスの構造を示 す図である。
[図 14]図 14は同実施形態で用いるピクチャーパラメータセットシンタクスの構造を示 す図である。
[図 15]図 15は同実施形態で用いるスライスレベルシンタクスの構造を示す図である。
[図 16]図 16は同実施形態で用いるマクロブロックレベルシンタクスの構造を示す図で ある。
[図 17A]図 17Aは同実施形態に係る画像復号ィ匕装置の構成例を示すブロック図であ る。
[図 17B]図 17Bは図 17Aの画像復号ィ匕装置の動作を示すフローチャートである。 圆 18A]図 18Aは本発明の第 4の実施形態に係る画像符号ィ匕装置の構成例を示す ブロック図である。
[図 18B]図 18Bは図 18Aの画像符号ィ匕装置の動作を示すフローチャートである。
[図 19A]図 19Aは同実施形態に係る画像復号ィ匕装置の構成例を示すブロック図であ る。
[図 19B]図 19Bは図 19Aの画像復号ィ匕装置の動作を示すフローチャートである。 圆 20A]図 20Aは第 5の実施形態に係る画像符号ィ匕装置の構成例を示すブロック図 である。
[図 20B]図 20Bは図 20Aの画像符号化装置の動作を示すフローチャートである。
[図 21A]図 21Aは同実施形態に係る画像復号ィ匕装置の構成例を示すブロック図であ る。
[図 21B]図 21Bは図 21Aの画像復号ィ匕装置の動作を示すフローチャートである。
[図 22]図 22はエンコーダ側の予測画像作成器のブロック図である。
[図 23]図 23はデコーダ側の予測画像作成器のブロック図である。
[図 24]図 24はフレーム間予測器の構成を示すブロック図である。
[図 25]図 25はフレーム間予測器の別の構成を示すブロック図である。
[図 26]図 26はフレーム間予測器の別の構成を示すブロック図である。
[図 27]図 27はエンコーダ側のループフィルタの構成を示すブロック図である。
[図 28]図 28は復号側のループフィルタの構成を示すブロック図である。 [図 29]図 29は画素ビット長拡張器の他の構成を示すブロック図である。
[図 30]図 30はフィルタ処理部のブロック図である。
[図 31]図 31はフィルタ処理部の動作の流れ図である。
[図 32]図 32は画素ビット長縮小器のブロック図である。
[図 33A]図 33Aは第 6の実施形態に係る画像符号ィ匕装置のブロック図である。
[図 33B]図 33Bは図 33Aの画像符号ィ匕装置の動作を示すフローチャートである。
[図 34A]図 34Aは第 6の実施形態に係る画像復号ィ匕装置のブロック図である。
[図 34B]図 34Bは図 34Aの画像復号ィ匕装置の動作を示すフローチャートである。
[図 35A]図 35Aは第 7の実施形態に係る画像符号ィ匕装置のブロック図である。
[図 35B]図 35Bは図 35Aの画像符号ィ匕装置の動作を示すフローチャートである。
[図 36]図 36はシーケンスパラメータセットシンタクスを示す図である。
[図 37]図 37はシーケンスパラメータセットシンタクスを示す図である。
[図 38]図 38は画像符号ィ匕装置の処理において使用される制御フラグの設定例を示 す図である。
[図 39A]図 39Aは第 7の実施形態に係る画像復号ィ匕装置の構成を示すブロック図で ある。
[図 39B]図 39Bは図 39Aの画像復号ィ匕装置の動作を示すフローチャートである。
[図 40]図 40はビット変換情報に含まれる制御フラグの設定を示す図である。
[図 41]図 41はビット精度の拡張の有無によって生じる丸め誤差の相違について説明 するための図である。
[図 42]図 42は半画素精度の予測画素値を示す図である。
[図 43]図 43は本発明の実施の形態の画素ビット長拡張および画素ビット長縮小にお ける変換特性を示す図である。
発明を実施するための最良の形態
[0010] 以下、図面を参照しながら本発明の実施形態について説明する。
[0011] (第 1の実施形態)
図 1Aを参照して第 1の実施形態に係る動画像符号化のための画像符号化装置の 構成を説明する。この画像符号化装置は、入力画像信号 100が供給され、画素ビッ ト長を拡張する画素ビット長拡張器 (即ち、画素ビット精度を変換する画素ビット精度 変翻) 1001と、この画像ビット長拡張器 1001の出力に接続される画像符号化器 1 0と、この画像符号化器 10の出力に接続される多重化器 12と、画像ビット長拡張器 1 001の他の出力に接続され、ビット拡張情報を多重化部 12に供給するビット長変換 制御器 1002とを備えて 、る。
図 1Bのフローチャートを参照して画像符号ィ匕装置の動作を説明する。この画像符 号化装置には、入力画像信号 100として例えばフレーム単位で動画像信号が入力さ れる(Sl l)。画素ビット長拡張器 1001は、入力された Nビット精度の画像信号 100 の各画素を Nビットより Mビット大きな (N + M)ビット精度に変換する処理を行う。即ち 、図 2に示される画素ビット長拡張器 1001において、入力された Nビット精度の画像 信号 100の各画素のビット長を拡張するかどうかがビット長拡張情報 1003に基づい てスィッチ E0によって選択される(S12)。拡張を行う場合は、スィッチ E0を ON側に、 拡張を行わない場合は OFF側に接続する。スィッチ E0を ONとした場合は、画像信号 は画素ビット長拡張変翻 (画素ビット精度変翻) E01に入力され、後述の画素ビッ ト長変換が行われる(S 13)。スィッチ E0が OFFの場合は、画像信号は画素ビット長変 換されず、そのまま出力される。例えば、入力画像信号のある画素の値が Kであった 場合、その画素値 Kを Mビット拡張した後の画素値 K'は、以下の数式(1)のように計 算される。
K' =K « Μ (1)
また、例えば、表示装置の特性に合わせて、画素をガンマ変換することも可能であ る。拡張するビット数を Μ、ガンマ値を γとすると、以下の数式(1 1)のように画素値 K'が計算される。
K' =INT [ [{K/ ((1 « N)- l)}7 X ((l《 M)— l)〕+ offset] (1— 1)
また、以下の数式(1 2)のように、さらに入力画像の画素の最小値 Min、最大値
Maxを求め、ダイナミックレンジを広げつつ Mビット大きなビット精度に画素を拡張す ることち可會である。
K, =INT [ [{(K-Min) / (Max-Min)}7 X ((l « Μ)— 1)〕 + offset] INTは整数に丸めを行う処理を示す。数式(1 1) , (1 2)での offsetは、丸めを 行うときのオフセットを示し、 0〜1の任意の値である。
[0013] さらには、上記のような拡張を行った入力画像の系列に対し、ヒストグラム平滑ィ匕を 行ったり、時空間にフィルタを施したりすることも可能である。
[0014] 入力画像が例えば RGBなどの複数のコンポーネントからなるカラー画像信号であ る場合には、各コンポーネントの各画素のビット長を Mビット大きなビット精度に拡張 した後に、各コンポーネントを別の色空間のコンポーネント信号に変換してもよい。例 えば、 RGBから YCoCgに変換する場合には以下の数式(1— 3)で変換する。この例 では、 Nビットの入力画像の各コンポーネントの各画素 R, G, Bが、各画素の値を M ビット大きなビット精度に拡張した後、 Y, Co, Cgに変換される。
R, = (R « M)
G, = (G « M)
B' = (B « M)
Y=Round (0.5 * G' +0.25 * (R,+B,))
Co = Round (0.5 * G ' - 0.25 * (R,+B,)) + (l « (N + M—l) ) Cg = Round (0.5 * (R,— B,)) + (l « (N + M—l) )
(1 - 3)
ここで、 Round (A)は Aを四捨五入して整数に丸める処理である。数式(1— 3)によ る変換例では、拡張するビット数 Mを 2以上にすれば、丸め処理において丸め誤差 が発生することなく色変換することが可能である。なお、ここで示した色変換は一例で あり、色変換を行う処理であればどのような処理を行ってもよい。
[0015] 以上の例は画素ビット長拡張器 1001が行う変換の一例であり、各画素の値を Mビ ット大きなビット精度に拡張する処理は、上記の例に限るものではなぐビット長を拡 大する処理であればどのような処理を行ってもょ 、。
[0016] 上記のようにしてビット拡張が行われたビット拡張入力画像信号 1009は、画像符号 ィ匕器 10に導かれる。また、拡張されるビット数 M、入力画像信号のビット長 Nおよび その他変換に必要なガンマ値、画素最大値、最小値、ヒストグラムなどのビット変換情 報 1010が生成され (S14)、ビット長変換制御器 (ビット精度変換制御器) 1002によ りビット拡張情報 1003として多重化部 12に導かれる。
[0017] 画像符号化器 10は、入力されたビット拡張入力画像信号 1009を符号化し、画像 符号ィ匕データ 11として多重化部 12に出力する(S15)。多重化部 12は、画像符号化 データ 11およびビット拡張情報 1003を多重化し (S16)、符号ィ匕データ 117として図 示しない伝送系または蓄積系へ送出する(S 17)。
[0018] 次に、拡張するビット数 Mなどの変換に必要なビット拡張情報 1003の多重化方法 について説明する。
[0019] 図 3に、本実施形態で用いられるシンタクスの構造の例を示す。
このシンタクス構造例において、ハイレベルシンタクス(401)には、スライス以上の 上位レイヤのシンタクス情報が詰め込まれて 、る。スライスレベルシンタクス(402)で は、スライス毎に必要な情報が明記されており、マクロブロックレベルシンタクス (403 )では、マクロブロック毎に必要とされる量子化パラメータの変更値やモード情報など が明記されている。
[0020] 各シンタクスは、さらに詳細なシンタクスで構成されて 、る。ハイレベルシンタクス(4 01)では、シーケンスパラメータセットシンタクス(404)とピクチャーパラメータセットシ ンタクス(405)などのシーケンスおよびピクチヤレベルのシンタクスから構成されて!ヽ る。スライスレべノレシンタクス (402)では、スライスヘッダーシンタクス(406)、スライス データシンタクス(407)などから構成されている。さらに、マクロブロックレベルシンタ タス(403)は、マクロブロックヘッダーシンタクス (408)、マクロブロックデータシンタク ス (409)など力 構成されて!、る。
[0021] 上述したシンタクスは復号ィヒ時に必要不可欠な構成要素であり、これらのシンタク ス情報が欠けると復号ィ匕時に正しくデータを復元できなくなる。一方、復号化時に必 ずしも必要とされない情報を多重化するための補助的なシンタクスとしてサブリメンタ ルシンタクス (410)が存在する。サプリメンタルシンタクスは、復号側で独立に実行可 能な処理に対する指示を示す情報を送る役割として用意されている。
[0022] 本実施形態では、拡張するビット数をシーケンスパラメータセットシンタクス (404)に 含めてこのシンタクスを送信することが可能である。それぞれのシンタクスを以下で説 明する。 [0023] 図 4のシーケンスパラメータセットシンタクス内に示される ex_seq_bit_extention_flagは 、ビット拡張を行うかどうかを示すフラグであり、当該フラグ力 STRUEであるときは、ビッ ト拡張を行うか否かをシーケンス単位で切り替えることが可能である。フラグが FALSE であるときは、シーケンス内ではビット拡張は行われな 、。 ex_seq_bit_extention_flagが TRUEのときは更に何ビット拡張を行うかを示す ex_seq_shift_bitsが送信される。当該フ ラグの TRUEZFALSEによって例えば図 2で示される画素ビット長拡張器 1001内の スィッチ E0の ONZOFFが決定される。
[0024] シーケンスパラメータセットシンタクス内には、さらに、どのような変換を行つたかを示 す ex_bit_transform_typeを含めて送信してもよ ヽ。 ex_bit_transform_typeは、例えば数 式( 1)で示される単純なビット拡張変換を示す値 BIT_EXT_TRANSや、数式( 1 1)で 示される γ変換が行われたことを示す GAMMA_TRANS、数式(1 2)で示されるダイ ナミックレンジ変換が行われたことを示す DR_TRANSなどが格納されて!、る。 ex_bit_tr ansform_typeが GAMMA_TRANSである場合には、さらにどのようなガンマ値で変換を 行つたかを示す gamma_valueが送信される。 ex_bit_transform_typeが DR_TRANSである 場合には、さらにそれぞれ入力画像信号の画素の最大値と最小値を示す max_Value , min— value力送 れる o
[0025] 本実施形態においては、サプリメンタルシンタクス (410)に多重化されたデータを 利用することが可能である。図 5にサプリメンタルシンタクスを用いて復号側の出力画 像信号のビット精度を送信する例を示す。サプリメンタルシンタクス内に示される ex_se i_bit_extention_flagは、出力画像信号のビット精度を変更するかどうかを示すフラグで あり、当該フラグ力 STRUEのときは、出力画像信号のビット精度を変更することを示す。 フラグが FALSEであるときは、出力画像信号のビット精度の変更を行わな 、ことを示 す。当該フラグが TRUEであるときは、さらに bit_depth_of_decoded_imageが送信される 。 bit_depth_of_decodedjmageは、出力画像信号のビット精度を示す値であり、後述の 復号側でビット拡張あるいは縮小を行って復号ィ匕する能力のある復号化器で画像信 号を復号化する場合は、 bit_depth_of_decoded_imageの値に従って、復号画像のビット 精度を拡大あるいは縮小して bit_depth_of_decoded_imageで示されたビット精度の復 号画像を出力することが可能である。 [0026] ただし、ビット拡張あるいは縮小を行って復号ィ匕する能力がな 、復号化器で画像信 号を復号化する場合や、あるいは能力があつたとしても必ずしも bit_depth_of_decoded jmageで示されたビット精度の復号画像を出力する必要はなぐ復号されたビット精 度のまま出力することも可能である。
[0027] また、図 6に、サプリメンタルシンタクス 410を用いて復号側の出力画像信号の色空 [¾ 送 1§する 1列 す。 ex— sei— bit— extention— flag, bit— depth— of— decoded— imageにつ 、 ては前述の図 4の例と同様である。
[0028] サプリメンタルシンタクス内に示される ex_color_transform_flagは、出力画像信号の色 空間を変換するかどうかを示すフラグであり、当該フラグ力 STRUEのときは、出力画像 信号の各コンポーネントの色空間を変更することを示す。一方、フラグが FALSEで あるときは、出力画像信号の各コンポーネントの色空間の変更を行わないことを示す 。当該フラグが TRUEであるときは、さらに color_space_of_decoded jmageが送信される 。 color_space_of_decodedjmageは、出力画像信号の色空間を示す値であり、後述の 復号側でビット拡張あるいは縮小を行って復号ィ匕する能力がある。 color_space_of_dec odedjmageの値で指定される色空間に変換する能力のある復号化器で画像信号を 復号化する場合は、出力画像信号の各コンポーネントを color_space_of_decodedjmag eの値で指定される色空間に変換した後、 bit_depth_of_decoded_imageの値に従って、 復号画像のビット精度を拡大あるいは縮小して bit_depth_of_decoded_imageで示され たビット精度の復号画像を出力することが可能である。
[0029] ただし、 color_space_of_decodedjmageの値で指定される色空間に出力画像信号の 各コンポーネントを変換する能力がない復号化器で復号する場合や、あるいは能力 があったとしても、必ずし color_space_of_decoded_imageの値で指定される色空間に変 換した復号画像を出力する必要はない。復号された色空間のまま復号画像を出力し た後に、 bit_depth_of_decoded_imageで示されたビット精度にコンポーネントを変換する ことも可能である。また、ビット拡張あるいは縮小を行って復号ィ匕する能力がない復号 ィ匕器で画像信号を復号化する場合や、あるいは能力があつたとしても必ずしも bit_de pth_of_decoded_imageで示されたビット精度の復号画像を出力する必要はなぐ復号 されたビット精度のまま出力することも可能である。 [0030] 次に、図 7A、図 7Bを参照して本実施形態に係る画像復号ィ匕装置を説明する。図 7 Aに示すように、この画像復号ィ匕装置は、符号化データが入力される多重化分離部 21と、多重化分離部 21の出力に接続される画像復号化器 20と、画像復号化器 20 の出力に接続される画素ビット長縮小器 (画素ビット精度縮小変換器) 2001と、多重 化分離部 21からビット拡張情報を受け、ビット変換情報を画素ビット長縮小器 2001 に入力するビット長変換制御器 (ビット精度変換制御器) 2002とを備えて 、る。
[0031] 図 7Bのフローチャートに示すように、まず、図 1Aの画像符号ィ匕装置によって符号 ィ匕された符号ィ匕データ 117が多重化分離部 21に入力される(S21)。多重化分離部 21にお 、て、符号ィ匕データ 117がビット拡張情報 2004および画像符号ィ匕データ 11 に分離される(S22)。ビット拡張情報 2004はビット長変換制御器 2002に入力され、 画像符号化データ 11は画像復号化器 20に入力される。画像符号化データ 11は、 画像符号化器 10で行われた符号化と逆の手順で復号化され、ビット拡張復号画像 信号 203とされる(S23)。ビット拡張復号画像信号 203は画素ビット長縮小器 2001 に入力される。ビット拡張情報 2004が、ビット長変換制御器 2002に入力されると、ビ ット長変換制御器 2002は復号画像が何ビット拡張されて 、る力、および変換に必要 な情報を示すビット変換情報 2003を出力する。
[0032] 図 8に示すように画素ビット長縮小器 2001においては、入力された Nビット精度の 画像信号 100はビット変換情報 2003に基づ 、てスィッチ E2によって、各画素のビッ ト長を縮小するかどうかが選択される(S24)。スィッチ E2は縮小を行う場合は、 ON側 に、縮小を行わない場合は OFF側に接続する。スィッチ E2を ONとした場合は、画像 信号は画素ビット長縮小変翻 E02に入力され、後述の画素ビット長変換が行われる (S25)。スィッチ E2が OFFの場合は、画像信号は画素ビット長変換されず、そのまま 出力される。例えば、 ex_seq_bit_extention_flagが TRUEであり、各画素のビット長が拡 張されて!、ることを示して 、る場合はスィッチを ON側に、 FALSEの場合は OFF側に する。
[0033] ビット変換情報 2003力 例えば、 ex_seq_shift_bitsによって Mビット拡張されており、 ex_bit_transform_typeによって例えば数式(1)で示される変換が行われたことを示す B IT_EXT_TRANSを示して 、た場合、画素ビット長縮小器 2001に入力されたビット拡張 復号画像信号 203は、各画素の値を Mビット縮小する。例えば、ビット拡張復号画像 信号 203のある画素の値が Kであった場合、 Mビット縮小した後の画素値 K,は以下 のように計算される。
K, = (K + offset)》 M
offset= (l〈〈(M— 1) ) (2)
これは四捨五入を用いて、画素値を Mビット小さ 、ビット長に縮小する方法の一例 であり、ここでの縮小変換方法は、例えば、 offsetを 0〜(1〈〈M)の任意の値にするな ど、ビット長を小さくする方法であれば、どのような変換方法でもよい。
ビット変換情報 2003力 例えば、 ex_seq_shift_bitsによって Mビット拡張されており、 ex_bit_transform_typeによって例えば数式(1 1)で示されるガンマ変換が行われた ことを示す GAMMA_TRANSを示している。 gamma_valueによってガンマ値が γである ことが示されている場合には、画素ビット長縮小器 2001に入力されたビット拡張復号 画像信号 203は、各画素の値を Μビット縮小する。例えば、ビット拡張復号画像信号 203のある画素の値が Κであった場合、 Μビット縮小した後の画素値 Κ,は以下のよう に計算される。
Κ, =ΙΝΤ [ [{Κ/ ((1 « Μ)- 1)}1/γ X ((l « Ν)— 1)〕 + offset]
(2- 1)
ビット変換情報 2003が、例えば、 ex_seq_shift_bitsによって Mビット拡張されており、 ex_bit_transform_typeによって例えば数式(1 2)で示されるダイナミックレンジ変換 が行われたことを示す DR_TRANSを示しており、 min.value, maxvalueによって入力画 像の画素の最小値と最大値がそれぞれ Max, Minであることが示されて 、る場合に は、画素ビット長縮小器 2001に入力されたビット拡張復号画像信号 203は、各画素 の値を Mビット縮小する。例えば、ビット拡張復号画像信号 203のある画素の値が K であった場合、 Mビット縮小した後の画素値 K,は以下のように計算される。
K, =INT [ [{ (K-(Min «M)) / ((Max-Min) «Μ)} 7 X ((l « N)— 1)〕 + offset]
(2- 2)
INTは整数に丸めを行う処理を示す。数式(2— 1) , (2— 2)での offsetは、丸めを行 うときのオフセットを示し、 0〜1の任意の値である。 [0035] ビット変換情報 2003力 例えば、 ex_seq_shift_bitsによって Mビット拡張されており、 復号画像信号のカラースペースが例えば図 5に示すサプリメンタルシンタクス内で指 定されて!/、る color_space_of_decoded_imageで指定されて!、る色空間とは異なる色空 間であった場合には復号画像の各コンポーネントの各画素を color_space_of_decoded_ imageで指定されている色空間に変換した後、ビット長を Mビット縮小する。例えば、 入力画像が RGBから YCoCgに変換されて符号化されており、 color_space_of_decode djmageに RGBが指定されている場合には、復号画像の各コンポーネントの各画素 Y , Co, Cgに対し、以下の数式(2— 3)によりビット縮小と色空間変換が行われ、各コ ンポーネントの各画素がそれぞれ R, G, Bに変換される。
t=(Y-((Cg-(l « (N + M-1))) » 1))
G'=Cliply(t+(Cg-(l « (N+M-1))))
B'=Cliply(t-((Co-(l « (N + M— 1)))》 1))
R'=Cliply(B' + (Co-(l « (N + M-1))))
offset=(l〈〈(M— 1))
R=(R,+offset)》 M
G= (G, + offset)》 M
B= (B, + offset)》 M
(2-3)
ここで、 Cliply(A)は Aが 0<A< (Kく(N + M))を満たす場合には Aをそのまま出 力し、 A〈0ならば 0を、 A≥(Kく(N+M))なら(1くく(N + M))— 1を出力する処理 を表している。これは四捨五入を用いて、画素値を Mビット小さいビット長に縮小する 方法の一例であり、ここでの縮小変換方法は、例えば、 offsetを 0〜(1<<M)の任意 の値にするなど、ビット小さくする方法であれば、どのような変換方法でもよい。
[0036] ここでは復号画像信号の色空間がサプリメンタルシンタクス内で指定されて 、る colo r_space_of_decoded_imageで指定されて!ヽる例を示した力 このような指定がな!、場合 や、ハイレベルシンタクス 401にサプリメンタルシンタクスで示した例と同様に復号画 像信号の色空間を指定して ヽる場合でも、復号画像を出力する過程で色変換処理 が行われる場合には、色変換処理を行った後、画素値を Mビット小さいビット長に縮 小してもよい。また、ここで示した色変換は一例であり、色変換を行う処理であればど のような処理を行ってもょ 、。
[0037] 以上に示した縮小変換は一例であり、ビット長を小さくする方法であれば、どのよう な変換方法でもよい。
[0038] 以上のようにして、画像符号化装置に入力された入力画像と同じ Nビット精度の復 号画像 202が画素ビット長縮小器 2001より出力される(S25)。
[0039] 以上の構成によれば、画像符号化および画像復号化が、入力画像のビット精度より も Mビット大きなビット精度で行うことができ、符号ィ匕効率を向上させることができる。
[0040] (第 2の実施形態)
図 9Aを参照して第 2の実施形態に係る動画像符号化のための画像符号化装置の 構成を説明する。図 9Aに示すように、この画像符号化装置は、画素ビット長拡張器( 画素ビット精度変翻) 1001、ビット長変換制御器 (ビット精度変換制御器) 1002、 減算器 101、直交変換器 104、量子化器 106、逆量子化器 109、逆直交変換器 11 0、加算器 111、ループフィルタ 113、フレームメモリ 114、予測画像作成器 115、ェ ントロピー符号化器 108を備えて 、る。入力画像信号を受ける画素ビット長拡張器 1 001の出力は減算器 101、直交変翻 104および量子化器 106を介してエントロピ 一符号化器 108に接続される。量子化器 106の出力は逆量子化器 109,逆直交変 換器 110,加算器 111,ループフィルタ 113、フレームメモリ 114を介して予測画像作 成器 115に接続される。予測画像作成器 115からの予測画像信号は減算器 101お よび加算器 111に入力される。予測画像作成器 115からの動きベクトル Z予測モー ド情報はエントロピー符号化器 108に入力される。ビット長変換制御器 1002はビット 変換情報を画素ビット長拡張器 1001に入力し、ビット拡張情報をエントロピー符号ィ匕 器 108に入力する。
[0041] 上記構成の画像符号ィ匕装置の動作を図 9Bのフローチャートを参照して説明する。
画像符号ィ匕装置に、入力画像信号 100として例えばフレーム単位で動画像信号が 入力されると(S31)、画素ビット長拡張器 1001は、入力された Nビット精度の画像信 号 100の各画素の値を Nビットより Mビット大きな (N + M)ビット精度に拡張する処理 を行う(S32)。例えば、入力画像信号のある画素の値が Kであった場合、 Mビット拡 張した後の画素値 K'は例えば数式(1)や数式(1— 1) , (1 - 2) , (1 3)などによつ て計算される。
[0042] 拡張されるビット数 Μなどの変換情報は、ビット長変換制御器 1002によりビット拡張 情報 1003としてエントロピー符号化器 108に導かれる(S33)。画素ビット長拡張器 1 001の構成例として、図 2の構成をとり、第 1の実施形態と同様に各画素のビット長を 拡張するかどうかをフラグで切り替えて制御する処理を行ってもよい。
[0043] 減算器 101により、(N + M)ビット精度にビット長が拡張された入力画像信号 100と
(N + M)ビット精度で作成された予測画像信号 102との差分がとられ、(N + M)ビッ ト精度の予測誤差信号 103が生成される(S34)。生成された予測誤差信号 103は、 直交変 l04により直交変換 (例えば、離散コサイン変換 (DCT) )される(S35)。 直交変換器 104では、直交変換係数情報 105 (例えば、 DCT係数情報)が得られる 。直交変換係数情報 105は、量子化器 106により量子化され、量子化直交変換係数 情報 107はエントロピー符号化器 108および逆量子化器 109に入力される。量子化 直交変換係数情報 107は逆量子化器 109及び逆直交変換器 110により、量子化器 106及び直交変換器 104の処理と逆の処理を順次受けて、即ち局部復号化されて 予測誤差信号と同様の信号、即ち局部復号誤差信号に変換される。この局部復号 誤差信号は加算器 111で (N + M)ビット精度の予測画像信号 102と加算されること により、(N + M)ビット精度の局部復号画像信号 112が生成される。即ち、量子化直 交変換係数情報 107が局部復号化される(S36)。局部復号画像信号 112は、必要 に応じてループフィルタ 113によりフィルタ処理がなされた後、フレームメモリ 114に 格納される。
[0044] 予測画像作成器 115は、(N + M)ビット精度にビット長が拡張された入力画像信号 100及びフレームメモリ 114に格納された (N + M)ビット精度の局部復号画像信号 1 12から、ある予測モード情報に基づく(N + M)ビット精度の予測画像信号を生成す る。この際、加算器 111からの(N + M)ビット精度の局部復号画像信号 112はフレー ムメモリ 114にー且蓄えられる。フレーム内のブロック毎に(N + M)ビット精度の入力 画像信号 100とフレームメモリ 114に蓄えられた (N + M)ビット精度の局部復号画像 信号 112との間のマッチング (例えば、ブロックマッチング)により、動きベクトルが検 出される(S37)。この動きベクトルで補償された (N+M)ビット精度の局部画像信号 を用いて (N + M)ビット精度の予測画像信号を作成する(S38)。ここで生成された( N + M)ビット精度の予測画像信号 102は、選択された予測画像信号の動きベクトル 情報 Z予測モード情報 116とともに予測画像作成器 115より出力される。
[0045] エントロピー符号化器 108では、量子化直交変換係数情報 107、動きベクトル情報 /予測モード情報 116およびビット拡張情報 1003がエントロピー符号化され (S39) 、これによつて生成された符号ィ匕データ 117は、図示しない伝送系または蓄積系へ 送出される。
[0046] なお、拡張するビット数 Mの符号ィ匕方法については、第 1の実施形態と同様である 。また、本実施形態においては、第 1の実施形態と同様にサプリメンタルシンタクスに 多重化されたデータを利用することが可能である。
[0047] 次に、図 10Aを参照して、本実施形態に係る画像復号化装置の構成を説明する。
この画像復号化装置は、エントロピー復号化器 200、逆量子化器 109、逆直交変換 器 110、加算器 111、ループフィルタ 113、フレームメモリ 114、予測画像作成器 115 、画素ビット長縮小器 (画素ビット精度変翻) 2001、ビット長変換制御器 (ビット精 度変換制御器) 2002を備えている。符号ィ匕データを受けるエントロピー復号化器 20 0の係数情報出力は逆量子化器 109、逆直交変換器 110、加算器 111、ループフィ ルタ 113を介して画素ビット長縮小器 2001に接続される。ループフィルタ 113の出 力はフレームメモリ 114を介して予測画像作成器 115の一方入力に接続される。予 測画像作成器 115の他方入力は予測画像作成器 115から動きベクトル Z予測モー ド情報を受けている。予測画像作成器 115の出力は加算器 111に接続される。ェン トロピー復号化器 200のビット拡張情報出力はビット長変換制御器 2002を介して場 素ビット長縮小器 2001に接続される。
[0048] 図 10Bを参照して画像復号化装置の動作を説明する。画像復号化装置に図 9Aの 画像符号ィ匕装置によって符号化された符号ィ匕データ 117が入力されると (S41)、ェ ントロピー復号化器 200において、符号ィ匕データ 117がエントロピー符号ィ匕の逆の手 順に従って復号化され (S42)、量子化直交変換係数情報 107、動きベクトル Z予測 モード情報 116、ビット拡張情報 2004が得られる。 [0049] 量子化直交変換係数情報 107は、逆量子化器 109及び逆直交変換器 110により、 量子ィ匕器 106及び直交変 104の処理と逆の処理を順次受けて (N + M)ビット 精度の残差信号 201に変換される(S43)。動きベクトル Z予測モード情報 116は予 測画像作成器 115に入力され、フレームメモリ 114に格納された (N + M)ビット精度 のビット拡張復号画像信号 203から動きベクトル Z予測モード情報 116に基づく(N + M)ビット精度の予測画像信号 102が生成される(S44)。(N+M)ビット精度の残 差信号 201と (N + M)ビット精度の予測画像信号 102は、加算器 111によって加算 され、復号画像信号が生成される(S45)。この復号画像信号はループフィルタ 113 で必要に応じてフィルタ処理がなされ、(N+M)ビット精度のビット拡張復号画像信 号 203として出力され、フレームメモリ 114に格納される。エントロピー復号化器 200 力も出力されたビット拡張情報 2004は、ビット長変換制御器 2002に入力されると、 ビット長変換制御器 2002から復号画像が何ビット拡張されているかを示すビット変換 情報 2003が出力される。
[0050] 画素ビット長縮小器 2001に入力されたビット拡張復号画像信号 203は、ビット変換 情報 2003に基づいて、例えば数式(2)や数式(2—1) , (2- 2) , (2— 3)などに基 づいて第 1の実施形態と同様の処理を受け、各画素の値を Mビット縮小する(S46)。 画素ビット長縮小器 2001は、図 8に示される構成とし、第 1の実施形態と同様に各画 素のビット長を縮小するかどうかをフラグで切り替える制御が行われてもよい。
[0051] 以上のようにして、画像符号化装置に入力された入力画像と同じ Nビット精度の復 号画像信号 202が画素ビット長縮小器 2001より出力される(S47)。
[0052] 以上の構成によれば、予測画像信号が入力画像信号より Mビット大きな精度をもつ て作成されるため、動き補償のフィルタやループフィルタ、画面内予測など精度を高 めることができ、結果的に予測誤差信号を小さくすることができるため、符号化効率を 向上させることができる。
[0053] (第 3の実施形態)
図 11Aに、本発明の第 3の実施形態に係る動画像符号ィ匕のための画像符号ィ匕装 置の構成を示す。この画像符号ィ匕装置は、第 2の実施形態で示した構成例(図 9A) とほぼ同様の構成である力 フレームメモリ 114の前段に画素ビット長変 ^1005を 備え、フレームメモリ 114の後段に画素ビット長変翻 (画素ビット精度変翻) 1006 を備える点が異なっている。
[0054] 図 11Bを参照してこの画像符号化装置の動作を説明する。この画像符号化装置に は、画像信号 100として例えばフレーム単位で動画像信号が入力される(S51)。画 素ビット長拡張器 (画素ビット精度変換器) 1001は、第 2の実施形態と同様の処理を 行うことにより、入力された Nビット精度の画像信号 100の各画素の値について、 Nビ ットより Mビット大きな (N + M)ビット精度に拡張する処理を行う(S52)。拡張されたビ ット数 Mは、ビット長変換制御器 1002によりビット拡張情報 1003としてエントロピー 符号化器 108に導かれる。画素ビット長拡張器 1001は、図 2の構成とし、第 1の実施 形態と同様に各画素のビット長を拡張するかどうかをフラグで切り替えて画素ビット長 を制御する処理を行ってもょ 、。
[0055] 減算器 101により、(N + M)ビット精度にビット長が拡張された入力画像信号 100と
(N + M)ビット精度で作成された予測画像信号 102との差分がとられ、(N + M)ビッ ト精度の予測誤差信号 103が生成される(S53)。生成された予測誤差信号 103は、 直交変換器 104により直交変換 (例えば、離散コサイン変換 (DCT) )される。直交変 翻 104では、直交変換係数情報 105 (例えば、 DCT係数情報)が得られる。直交 変換係数情報 105は、量子化器 106により量子化される。即ち、予測誤差信号 103 は直交変換され、量子化される(S54)。量子化直交変換係数情報 107はエントロピ 一符号化器 108および逆量子化器 109に導かれる。
[0056] 量子化直交変換係数情報 107は、逆量子化器 109及び逆直交変換器 110により、 量子化器 106及び直交変換器 104の処理と逆の処理を順次受けて局部復号誤差 信号に変換され、加算器 111で (N + M)ビット精度の予測画像信号 102と加算され る。これにより、(N + M)ビット精度の局部復号画像信号 112が生成される。即ち、量 子化直交変換係数情報 107は、局部符号化される(S55)。
[0057] (N+M)ビット精度の局部復号画像信号 112は、必要に応じてループフィルタ 113 によりフィルタ処理がなされた後、画素ビット長変 ^1005に入力され、各画素の値 を Lビット小さな値に縮小変換し、あるいは各画素の値を Lビット大きな値に拡大変換 する(S56)。例えば、(N + M)ビット精度の局部復号画像信号 112のある画素の値 が Kであった場合、 Lビット縮小した後の画素値 Κ,は以下のように計算される。
K' = (K + olFset) » L
offset= (l〈く(L 1) ) (3)
ここで、縮小するビット数 Lは、 0< L≤Mを満たす整数である。ビット長を縮小した結 果、局部復号画像信号 112の各画素のビット長は (N + M— L)ビットとなる。
[0058] ここでの縮小変換方法は、例えば、 offsetを 0〜(1〈く L)の任意の値にするなど、ビッ ト長を小さくする方法であれば、どのような変換方法でもよい。逆に、各画素の値を( —L)ビット大きな値に拡大変換する場合には、例えば、ビット拡張復号画像信号のあ る画素の値が Kであった場合、(一 L)ビット拡張した後の画素値 K'は例えば以下の ように計算される。
K,=K « (一 L) (4)
ここで、拡大するビット数 Lは 0く(一 L)を満たす整数である。ビット長を拡大した結 果、局部復号画像信号 112の各画素のビット長は (N + M— L)ビットとなる。
[0059] 図 12に画素ビット長変換器 1005の構成例を示す。入力された Νビット精度の画像 信号 100はビット長拡張情報 1003に基づいてスィッチ Ε3によって、各画素のビット 長を拡張するかどうかを選択される。スィッチ Ε3は拡張を行う場合は、 ON側に、拡 張を行わない場合は OFF側に接続する。スィッチ E3を ONとした場合、画素ビット長 変翻1005に入力された画像信号は、
Figure imgf000021_0001
れ、画素ビット長変換される。スィッチ E3が OFFの場合は、画像信号は画素ビット長 変換されず、そのまま出力される。このように、ビット長を縮小あるいは拡大された局 部復号画像信号 112は、フレームメモリ 114に格納される(S57)。フレームメモリ 114 に格納された (N+M- L)ビット精度の局部復号画像信号 112は、予測画像作成器 1 15に入力される前に、画素ビット長変翻 1006に導かれ、 L>0の場合には各画素 のビット長を Lビット大きなビット精度に拡張変換する(S58)。例えば、(N+M— L)ビッ ト精度の局部復号画像信号 112のある画素の値が Kであった場合、 Lビット拡張した 後の画素値 K'は例えば以下のように計算される。
K' =K « L (5)
一方、 Lく 0の場合には、各画素のビット長を(一 L)ビット小さなビット精度に縮小変 換する。例えば、ビット拡張復号画像信号のある画素の値が Kであった場合、 (-L) ビット縮小した後の画素値 K'は例えば以下のように計算される。
K, = (K + offset)》 (-L)
offset= (l〈く(一 L 1) ) (6)
ここでの縮小変換方法は、例えば、 offsetを 0〜(1くく(一 L) )の任意の値にするなど 、ビット長を小さくする方法であれば、どのような変換方法でもよい。画素ビット長変換 器 1006は、画素ビット長変 1005と同様の図 12に示す構成とし、各画素のビット 長を変換するかどうかの処理をフラグで切り替える制御を行ってもょ 、。このような変 換を行うことによって、予測画像作成器 115に出力される局部復号画像信号 112の ビット精度は、(N+M)ビット精度となる。
[0060] フレームメモリ 114の前後で縮小 Z拡大されるビット長 Uま、 L≤Mを満たす整数で あり、かつフレームメモリ 114の前後で縮小 Z拡大されるビット数が等しければよい。 L = 0の場合は、フレームメモリ 114に格納する際ある!/、はフレームメモリ 114から出 力する際のビット拡張 Zビット縮小は行われない。画素ビット長変換器 1005および画 素ビット長変翻 1006で行われる変換は、前述の数式(3)〜(6)に限るものではな ぐ指定のビット長だけ拡大 Z縮小が行われる変換であれば、どのような変換を行つ てもよい。このビット数 Lについても、ビット長変換制御器 1002によりビット拡張情報 1 003としてエントロピー符号化器 108に導かれる。
[0061] 予測画像作成器 115は、(N + M)ビット精度にビット長が拡張された入力画像信号 100及び (N+M)ビット精度の局部復号画像信号 112からある予測モード情報に基 づく(N+M)ビット精度の予測画像信号を生成する。この際、フレーム内のブロック 毎に (N + M)ビット精度の入力画像信号 100と画素ビット長変翻 1005によって (N + M)ビット精度に拡大された局部復号画像信号 112との間のマッチング (例えば、 ブロックマッチング)をとり、動きベクトルを検出する(S59)。この動きベクトルで補償さ れた (N + M)ビット精度の局部画像信号を用いて (N + M)ビット精度の予測画像信 号を作成する(S60)。ここで生成された (N + M)ビット精度の予測画像信号 102は、 選択された予測画像信号の動きべ外ル情報 Z予測モード情報 116とともに予測画 像作成器 115より出力される。 [0062] エントロピー符号化器 108では、量子化直交変換係数情報 107、動きベクトル情報 /予測モード情報 116およびビット拡張情報 1003がエントロピー符号化され (S61) 、これによつて生成された符号ィ匕データ 117は、図示しない伝送系または蓄積系へ 送出される。
[0063] 次に、拡張するビット数 Mおよび Lの符号化方法にっ 、て説明する。本実施形態で 使用されるシンタクスの構造の例は、第 1の実施形態で用いた図 3と同様である。本 実施形態では、拡張するビット数をシーケンスパラメータセットシンタクス (404)、ピク チヤ一パラメータセットシンタクス(405)、スライスレベルシンタクス(402)、および、マ クロブロックレベルシンタクス(403)に含めて送信することが可能である。それぞれの シンタクスを以下で説明する。
[0064] 図 13のシーケンスパラメータセットシンタクス内に示される ex_seq_bit_extention_flag は、ビット拡張を行うかどうかを示すフラグであり、当該フラグが TRUEであるときは、 ビット拡張を行うか否力をシーケンス単位で切り替えることが可能である。一方、フラ グが FALSEであるときは、シーケンス内ではビット拡張は行われな 、。 ex_seq_bit_ext ention_flagが TRUEのときは更に何ビット拡張を行うかを示す ex_seq_shift_bitsを送信 してちよい。
[0065] ex_seq_bit_extention_flagが TRUEのときは更にフレームメモリ 114に格納される際の ビット精度を示す ex_framemem_bitdepthを送信してもよい。本実施形態では、例えば N + M L力 Sex_framemem_bitdepthに格納されて送信されることになる。
[0066] 本実施形態では、任意の符号ィ匕単位でビット拡張を行うか否かを切り替えたり、拡 張するビット数を切り替えたりすることも可能である。この場合には、拡張するビット数 をさらにピクチャーパラメータセットシンタクス(405)、スライスレベルシンタクス(402) 、および、マクロブロックレベルシンタクス(403)に含めて送信することが可能である。
[0067] 図 14のピクチャーパラメータセットシンタクス内に示される ex_pic_bit_extention_flagは 、ピクチャ毎にビット拡張を行うかどうかを変更するかどうかを示すフラグである。当該 フラグが TRUEであるときは、ピクチャ単位でビット拡張を行うどうかを切り替えること が可能である。一方、フラグ力 SFALSEであるときは、ピクチャ毎にピクチャ単位でビッ ト拡張を行うどうかを変更することが出来ない。 ex_pic_bit_extention_flagが TRUEのと きは更に何ビット拡張を行うかを示す ex_pi shift_bitsが送信される。ここで、シーケン スパラメータシンタクス内の ex_seq_shift_bitsでシーケンスレベルで拡張するビット数が 指定されて ヽた場合には、 ex_pi shift_bitsを拡張するビット数として優先してもよ 、し 、 ex_seq_shift_bitsを拡張するビット数として優先してもよ 、し、 ex_seq_shift_bits + ex_pic _shift_bitsを拡張するビット数としてもよい。いずれを優先するかは、予め取り決めてお くのが好ましい。
[0068] ピクチャーパラメータセットシンタクス内には、 ex_bit_extention_in_slice_flag、 ex_bit_ex tentionjn_mb_flagというフラグが存在していてもよい。これらのフラグはそれぞれ、スラ イスレベル、マクロブロックレベルでビット拡張を行うかどうかを変更するフラグが存在 するかどうかを示すフラグである。
[0069] 図 15〖こ示すとおり、スライスレベルシンタクス内では、 ex_bit_extention_in_slice_flagが TRUEのときは、 ex_slice_shift_bitsが送信され、スライス単位で拡張するビット数を切 り替えて送信することが可能である。ここで、すでにシーケンスパラメータセットシンタ タス、ピクチャパラメータシンタクスによって拡張するビット数 Sが指定されて 、る場合 には、 Sを拡張するビット数として優先してもよいし、 ex_slice_shift_bitsを拡張するビット 数として優先してもよいし、 S+ ex_slice_shift_bitsを拡張するビット数として優先してもよ い。なお、いずれを優先するかは、予め取り決めておくのが好ましい。一方、 ex_bit_ex tentionjn_slice_flagが FALSEの場合には、 ex_slice_shift_bitsは送信されない。
[0070] 図 16に示すとおり、マクロブロックレベルシンタクス内では、 ex_bit_extention_in_mb_fl agが TRUEのときは、 ex_mb_shift_bitsが送信され、マクロブロック単位で拡張するビッ ト数を切り替えて送信することが可能である。ここで、すでにシーケンスパラメータセッ トシンタクス、ピクチャパラメータシンタクス、スライスレベルシンタクスによって拡張す るビット数 Sが指定されて 、る場合には、 Sを拡張するビット数として優先してもよ 、し、 ex_mb_shift_bitsを拡張するビット数として優先してもよいし、 S+ ex_mb_ shift_bitsを拡張 するビット数として優先してもよい。いずれを優先するかは、予め取り決めておくのが 好まし ヽ。一方、 ex— bit— extention— in— mb— flag力 SFALSEの場合に ίま、 ex— slice— shift— bit sは送信されない。
[0071] 上述のように、任意の符号ィ匕単位でビット拡張を行うか否かを切り替える場合、ある いは、拡張するビット数を切り替える場合には、フレームメモリ 114に格納される局部 復号画像信号のビット精度がシーケンスパラメータセットシンタクス内に示される ex_fra memem_bitdepthになるよつに Lが疋められる。
本実施形態においては、第 1の実施形態と同様にサプリメンタルシンタクスに多重 ィ匕されたデータを利用することが可能である。
[0072] 次に、図 17Aを参照して本実施形態に係る画像復号化装置の構成を説明する。こ の画像復号化装置は、第 2の実施形態で示した構成例(図 10A)とほぼ同様の構成 であるが、加算器 111 (及びループフィルタ 113)の後段に画素ビット長縮小器 2001 の代わりに画素ビット長変翻 (画素ビット精度変翻) 2007を備え、フレームメモリ 114は加算器 111 (及びループフィルタ 113)の後段ではなぐ画素ビット長変換器 2 007の後段に接続され、さらに、フレームメモリ 114の後段に画素ビット長変 200 8が接続されて ヽる点が異なる。
[0073] 図 17Bのフローチャートを参照して画像復号化装置の動作を説明する。画像復号 化装置に図 11Aの画像符号ィ匕装置によって符号化された符号ィ匕データ 117が入力 されると(S71)、エントロピー復号化器 200において、符号化データ 117がエントロピ 一符号化の逆の手順で復号化され、量子化直交変換係数情報 107、動きベクトル Z 予測モード情報 116、ビット拡張情報 2004が得られる(S72)。
[0074] 量子化直交変換係数情報 107は、逆量子化器 109及び逆直交変換器 110により、 量子ィ匕器 106及び直交変 104の処理と逆の処理を順次受けて (N + M)ビット 精度の残差信号 201に変換される(S73) (S74)。
[0075] エントロピー復号化器 200から出力されたビット拡張情報 2004は、ビット長変換制 御器 2002に入力されると、復号画像が何ビット拡張されているかを示すビット数 Mと 、フレームメモリに格納される際に縮小するビット数 Lを示すビット変換情報 2003をビ ット長変換制御器 2002から出力する。
[0076] 画素ビット長変^ ^2008は、後述の手順でフレームメモリ 114に格納された (N + M—L)ビット精度の復号画像信号 202に対し、ビット変換情報 2003に基づいて、例 えば L>0の場合には、数式(5)などと同等の処理を施すことによって画素ビット長を Lビット大きく拡張変換する処理を行い(S75)、 Lく 0の場合には、数式 (6)などと同 等の処理を施すことによって画素ビット長を(一 L)ビット小さく縮小変換する処理を行 い、(N + M)ビット精度のビット拡張参照画像信号 204を出力する(S75)。
[0077] 動きベクトル Z予測モード情報 116は予測画像作成器 115に入力され、上記 (N + M)ビット精度のビット拡張参照画像信号 204から動きベクトル Z予測モード情報 11 6に基づく(N + M)ビット精度の予測画像信号 102が生成される(S77)。(N + M)ビ ット精度の残差信号 201と (N + M)ビット精度の予測画像信号 102は、加算器 111 によって加算される。加算された信号は、ループフィルタ 113で必要に応じてフィルタ 処理がなされ、(N + M)ビット精度のビット拡張復号画像信号 203が出力される(S7 8)。
[0078] ビット拡張復号画像信号 203は、画素ビット長変換器 2007に入力され、ビット変換 情報 2003に基づいて各画素の値に対し例えば数式(2)などの第 1の実施形態の画 像復号ィ匕装置における画素ビット長縮小器と同等の処理を施されることにより、 Mビッ ト小さな値に画素ビット長が縮小変換され (S79)、画像符号化装置に入力された入 力画像と同じ Nビット精度の復号画像 202を得る(S80)。
画素ビット長変換器 2007は、図 12の構成とし、各画素のビット長を縮小するかどう かをフラグで切り替える制御を行ってもょ 、。
[0079] M=Lの場合には、 Nビット精度の復号画像信号 202はそのままフレームメモリ 114 に格納される。 M≠Lであり、 L>0の場合には、(N + M)ビット精度のビット拡張復号 画像信号 203に対して、例えば数式(3)と同様の処理を各画素毎に行うことで、 O ットだけビット長が縮小された (N + M-L)ビット精度の復号画像を作成し、フレーム メモリ 114に格納する。逆に Lく 0の場合には、数式 (4)と同様の処理を各画素に対 して行うことで、(一 L)ビットだけビット長が縮小された (N + M-L)ビット精度の復号 画像を作成し、フレームメモリ 114に格納する。
[0080] 以上の構成によれば、予測画像信号が入力画像信号より Mビット大きな精度をもつ て作成されるため、動き補償のフィルタやループフィルタ、画面内予測など精度を高 めることができ、結果的に予測誤差信号を小さくすることができるため、符号化効率を 向上させることができる。また、第 1、第 2の実施形態と異なり、 0<L≤Mの場合には 、フレームメモリに格納される参照画像信号を、ビット長が拡張された入力画像信号 や予測画像信号より小さなビット長で格納することができ、動き補償のフィルタやルー プフィルタ、画面内予測など精度を高める効果を保ったまま、フレームメモリの使用量 を削減することが可能となる。
[0081] 以上の構成によれば、任意の符号ィ匕単位でビット拡張を行うか否かを切り替えたり 、拡張するビット数を切り替えたりすることができ、任意の符号ィ匕単位ごとに最も符号 化効率のよい拡張ビット数を選択して符号ィ匕することができるため、さらに符号ィ匕効 率を高めることも可能である。
[0082] (第 4の実施形態)
図 18Aを参照して第 4の実施形態に係る動画像符号ィ匕のための画像符号ィ匕装置 の構成を説明する。この画像符号化装置は、第 2の実施形態で示した構成例(図 9A )と比較して、入力画像に対し画素ビット長を拡大する画素ビット長拡張器を備えず、 フレームメモリ 114 (及びループフィルタ 113)の前段に画素ビット長拡張器(画素ビッ ト精度拡張変 1001を備え、予測画像作成器 115の後段に画素ビット長縮小器 (画素ビット精度縮小変^^) 1004を備える点が異なって 、る。
[0083] 図 18Bのフローチャートを参照して画像符号ィ匕装置の動作を説明する。この画像 符号化装置には、入力画像信号 100として例えばフレーム単位で各画素の精度が 例えば Nビット精度の動画像信号が入力される(S81)。減算器 101により入力画像 信号 100と Nビット精度の予測画像信号 102との差分がとられ、 Nビット精度の予測 誤差信号 103が生成される(S82)。 Nビット精度の予測画像信号 102の生成方法に ついては後述する。生成された予測誤差信号 103に対して、直交変換器 104により 直交変換 (例えば、離散コサイン変換 (DCT) )が施され、直交変換器 104では、直 交変換係数情報 105 (例えば、 DCT係数情報)が得られる(S83)。直交変換係数情 報 105は、量子化器 106により量子化され、量子化直交変換係数情報 107はェント 口ピー符号化器 108および逆量子化器 109に導かれる。
[0084] 量子化直交変換係数情報 107は、逆量子化器 109及び逆直交変換器 110により、 量子化器 106及び直交変換器 104の処理と逆の処理を順次受けて局部復号誤差 信号に変換される。この局部復号誤差信号は加算器 111で Nビット精度の予測画像 信号 102と加算されることにより、 Nビット精度の局部復号画像信号 112が生成される (S84)。
[0085] 局部復号画像信号 112は、必要に応じてループフィルタ 113によりフィルタ処理が なされた後、画素ビット長拡張器 1001に入力され、各画素の値を Mビット大きな値に 拡張変換する(S85)。例えば、ビット拡張復号画像信号のある画素の値が Kであつ た場合、 Mビット縮小した後の画素値 K'は第 1の実施形態の数式(1)と同様に計算 される。ビット精度が (N + M)ビットに拡大された局部復号画像信号 112は、フレーム メモリ 114に格納される(S86)。フレームメモリ 114に格納された(N + M)ビット精度 の局部復号画像信号 112は、予測画像作成器 115に入力される。画素ビット長拡張 器 1001は、図 2の構成とし、第 1の実施形態と同様に各画素のビット長を拡張するか どうかをフラグで切り替えてビット長を制御する処理を行ってもよい。
[0086] 予測画像作成器 115は、(N + M)ビット精度の局部復号画像信号 112からある予 測モード情報に基づく(N+M)ビット精度の予測画像信号を生成する。この際、フレ ーム内のブロック毎に入力画像信号 100の各画素を (N + M)ビット精度に拡張した 画像信号と、(N + M)ビット精度に拡大された局部復号画像信号 112との間のマツ チング (例えば、ブロックマッチング)をとり、動きベクトルを検出する(S87)。この動き ベクトルで補償された (N + M)ビット精度の局部画像信号を用いて (N + M)ビット精 度の拡張予測画像信号 117を作成する(S89)。ここで生成された (N + M)ビット精 度の拡張予測画像信号 117は、選択された予測画像信号の動きべ外ル情報 Z予 測モード情報 116とともに予測画像作成器 115より出力される。
[0087] (N+M)ビット精度の拡張予測画像信号 117は、画素ビット長縮小器 1004に入力 され、各画素のビット長が Mビット小さくなる画像信号に変換される(S90)。この変換 は、例えば第 1の実施形態で示した数式 (2)と同様の処理により行われる。ここで、縮 小されるビット数 M、および画素ビット長拡張器 1001にお 、て拡大されるビット数 M は、ともに同じ値であり、ビット長変換制御器 1002によりビット拡張情報 1003としてェ ントロピー符号化器 108に導かれる。画素ビット長縮小器 1004は、図 8の構成とし、 第 1の実施形態と同様に各画素のビット長を拡張するかどうかをフラグで切り替えてビ ット長を制御する処理を行ってもょ ヽ。
[0088] エントロピー符号化器 108では、量子化直交変換係数情報 107、動きベクトル情報 /予測モード情報 116およびビット拡張情報 1003がエントロピー符号化され (S91) 、これによつて生成された符号ィ匕データ 117は、図示しない伝送系または蓄積系へ 送出される。
[0089] 拡張するビット数 Mの符号ィ匕方法は、第 1の実施形態と同様である。また、本実施 形態においては、第 1の実施形態と同様にサプリメンタルシンタクスに多重化された データを利用することが可能である。
[0090] 次に、図 19Aを参照して本実施形態に係る画像復号化装置の構成を説明する。こ の画像復号化装置は、第 2の実施形態で示した構成(図 10A)と比較して、フレーム メモリ 114 (及びループフィルタ 113)の前段に画素ビット長拡張器 2005を備え、予 測画像作成器 115の後段に画素ビット長縮小器 (画素ビット精度変翻) 2006を備 える点が異なっている。
[0091] 図 19Bのフローチャートを参照して画像復号化装置の動作を説明する。画像復号 化装置に図 18Aの画像符号ィ匕装置によって符号化された符号ィ匕データ 117が入力 されると(S101)、エントロピー復号化器 200において、符号化データ 117がェントロ ピー符号ィ匕の逆の手順で復号化され、量子化直交変換係数情報 107、動きベクトル Z予測モード情報 116、ビット拡張情報 2004が得られる(S102)。量子化直交変換 係数情報 107は逆量子化器 109及び逆直交変換器 110により、量子化器 106及び 直交変換器 104の処理と逆の処理を順次受けて Nビット精度の残差信号 201に変換 される(S103)。エントロピー復号化器 200から出力されたビット拡張情報 2004は、 ビット長変換制御器 2002に入力されると、復号画像が何ビット拡張されて!ヽるかを示 すビット変換情報 2003をビット長変換制御器 2002から出力する (S104)。
[0092] 動きベクトル Z予測モード情報 116が予測画像作成器 115に入力されると、後述の 手順でフレームメモリ 114に格納されたビット拡張復号画像信号 203から動きべタト ル Z予測モード情報 116に基づく(N + M)ビット精度の拡張予測画像信号 205が生 成される(S105)。
[0093] 画素ビット長縮小器 2006は、(N + M)ビット精度の拡張予測画像信号 205に対し 、ビット変換情報 2003に基づいて、例えば数式 (2)などの第 1の実施形態の画像復 号ィ匕装置における画素ビット縮小変^^と同等の処理を施すことによって画素ビット 長を Mビット縮小変換する処理を行い(S106)、 Nビット精度の予測画像信号 102を 出力する。画素ビット長縮小器 2006は、図 8の構成とし、実施の形態 1と同様に各画 素のビット長を拡張するかどうかをフラグで切り替えてビット長を制御する処理を行つ てもよい。
[0094] Nビット精度の残差信号 201と Nビット精度の予測画像信号 102は加算器 111によ つて加算され、縮小復号画像信号が生成される (S 107)。縮小復号画像信号は画素 ビット長拡張器 2005に入力されると、画素ビット長拡張器 2005は、ビット変換情報 2 003に基づいて、例えば数式(1)などの第 1の実施形態の画像符号ィ匕装置における 画素ビット長拡張器で行われる処理と同等の処理を施すことによって画素ビット長を
Mビット拡張する処理を行う(S108)。画素ビット長拡張器 2005から出力された信号 は、ループフィルタ 113で必要に応じてフィルタ処理がなされ、ビット(N + M)ビット 精度の拡張復号画像信号 203が出力され (S 109)、フレームメモリ 114に格納される 。画素ビット長拡張器 2005は、図 2の構成とし、第 1の実施形態と同様に各画素のビ ット長を拡張するかどうかをフラグで切り替えてビット長を制御する処理を行ってもよ い。
[0095] (N+M)ビット精度のビット拡張復号画像信号 203は、画素ビット長縮小器 2001に 入力され、ビット変換情報 2003に基づ 、て各画素の値に対し例えば数式(2)などの 第 1の実施形態の画像復号ィ匕装置における画素ビット縮小変^^と同等の処理を施 されることにより、画像符号化装置に入力された入力画像と同じ Nビット精度の復号 画像 202を得る(S110) (Sl l l)。
[0096] 以上の構成によれば、予測画像信号が入力画像信号より Mビット大きな精度をもつ て作成されるため、動き補償のフィルタやループフィルタ、画面内予測など精度を高 めることができる。従って、結果的に予測誤差信号を小さくすることができるため、符 号ィ匕効率を向上させることができる。また、第 1〜3の実施形態と異なり、予測誤差信 号および残差信号の変換 '量子化の処理を入力画像のビット精度に対応した精度で 行うことが可能となり、動き補償のフィルタやループフィルタ、画面内予測など精度を 高める効果を保ったまま、変換'量子化のビット精度を削減し、演算規模を小さくする ことが可能となる。 [0097] (第 5の実施形態)
図 20Aを参照して第 5の実施形態に係る動画像符号ィ匕のための画像符号ィ匕装置 の構成を説明する。この画像符号化装置は、第 2の実施形態で示した構成例(図 9A )と比較して、入力画像に対し画素ビット長を拡大する画素ビット長拡張器を備えず、 予測画像作成器 115の前段に画素ビット長拡張器 (画素ビット精度拡張変翻) 10 01を備え、予測画像作成器 115の後段に画素ビット長縮小器 (画素ビット精度縮小 変翻) 1004を備える点が異なっている。
[0098] 図 20Bのフローチャートを参照して画像符号ィ匕装置の動作を説明する。この画像 符号化装置には、入力画像信号 100として例えばフレーム単位で各画素の精度が 例えば Nビット精度の動画像信号が入力される(S121)。減算器 101により入力画像 信号 100と Nビット精度の予測画像信号 102との差分がとられ、 Nビット精度の予測 誤差信号 103が生成される(S122)。 Nビット精度の予測画像信号 102の生成方法 については後述する。生成された予測誤差信号 103に対して、直交変 l04によ り直交変換、例えば離散コサイン変換 (DCT)が施され、直交変換器 104では直交 変換係数情報 105、例えば DCT係数情報が得られる(S123)。直交変換係数情報 105は量子化器 106により量子化され、量子化直交変換係数情報 107は、ェントロ ピー符号化器 108および逆量子化器 109に導かれる。
[0099] 量子化直交変換係数情報 107は、逆量子化器 109及び逆直交変換器 110により、 量子化器 106及び直交変換器 104の処理と逆の処理を順次受けて局部復号誤差 信号に変換される。この局部復号誤差信号は加算器 111で Nビット精度の予測画像 信号 102と加算されることにより、 Nビット精度の局部復号画像信号 112が生成される (S124)。
[0100] Nビット精度の局部復号画像信号 112は、必要に応じてループフィルタ 113により フィルタ処理がなされた後、フレームメモリ 114に格納される(S125)。フレームメモリ 114に格納された Nビット精度の局部復号画像信号 112は、画素ビット長拡張器 100 1に入力され、各画素の値を Mビット大きな値に拡張変換する(S 126)。例えば、ビッ ト拡張復号画像信号のある画素の値が Kであった場合、 Mビット縮小した後の画素 値 K'は第 1の実施形態の数式(1)と同様に計算される。ビット精度が (N + M)ビット に拡張された局部復号画像信号 112は、予測画像作成器 115に入力される。画素ビ ット長拡張器 1001は、図 2の構成とし、実施の形態 1と同様に各画素のビット長を拡 張するかどうかをフラグで切り替えてビット長を制御する処理を行ってもよい。
[0101] 予測画像作成器 115は、(N + M)ビット精度の局部復号画像信号 112からある予 測モード情報に基づく(N+M)ビット精度の予測画像信号を生成する。この際、フレ ーム内のブロック毎に入力画像信号 100の各画素を (N + M)ビット精度に拡張した ものと、(N + M)ビット精度に拡大された局部復号画像信号 112との間のマッチング (例えば、ブロックマッチング)をとり、動きベクトルを検出する(S127)。この動きべタト ルで補償された (N + M)ビット精度の局部画像信号を用いて (N + M)ビット精度の 拡張予測画像信号 117を作成する(S128)。ここで生成された (N + M)ビット精度の 拡張予測画像信号 117は、選択された予測画像信号の動きベクトル情報 Z予測モ ード情報 116とともに予測画像作成器 115より出力される。
[0102] 拡張予測画像信号 117は、画素ビット長縮小器 1004に入力され、各画素のビット 長が Mビット小さくなるよう変換が施される(S129)。この変換は、例えば第 1の実施 形態の画像復号化器で示した数式 (2)と同様の処理を施すことで行われる。ここで、 縮小されるビット数 M、および画素ビット長拡張器 1001にお 、て拡大されるビット数 Mは、ともに同じ値であり、ビット長変換制御器 1002によりビット拡張情報 1003とし てエントロピー符号化器 108に導かれる。画素ビット長縮小器 1004は、図 8の構成と し、実施の形態 1と同様に各画素のビット長を拡張するかどうかをフラグで切り替えて 制御する処理を行ってもょ 、。
[0103] エントロピー符号化器 108では、量子化直交変換係数情報 107、動きベクトル情報 Z予測モード情報 116およびビット拡張情報 1003がエントロピー符号化され (S130 )、これによつて生成された符号ィ匕データ 117は、図示しない伝送系または蓄積系へ 送出される。
[0104] 拡張するビット数 Mの符号ィ匕方法は、第 1の実施形態と同様である。本実施形態に おいては、第 1の実施形態と同様にサプリメンタルシンタクスに多重化されたデータを 利用することが可能である。
[0105] 次に、図 21Aを参照して本実施形態に係る画像復号化装置の構成を説明する。こ の画像復号化装置は、第 2の実施形態で示した構成例(図 10A)と比較して、加算器 111 (及びループフィルタ 113)の後段に画素ビット縮小器を備えず、加算器 111 (及 びループフィルタ 113)力ゝら復号画像信号 202が出力されるとともに、予測画像作成 器 115の前段に画素ビット長拡張器 (画素ビット精度拡張変翻) 2005を備え、予 測画像作成器 115の後段に画素ビット長縮小器 (画素ビット精度縮小変換器) 2001 を備える点が異なっている。
[0106] 図 21Bのフローチャートを参照して画像復号ィ匕装置の動作を説明する。画像復号 化装置に図 20Aの画像符号ィ匕装置によって符号化された符号ィ匕データ 117が入力 されると(S141)、エントロピー復号化器 200において、符号化データ 117がェントロ ピー符号ィ匕の逆の手順で復号化され、量子化直交変換係数情報 107、動きベクトル Z予測モード情報 116、ビット拡張情報 2004が得られる(S142)。量子化直交変換 係数情報 107は逆量子化器 109及び逆直交変換器 110により、量子化器 106及び 直交変換器 104の処理と逆の処理を順次受けて Nビット精度の残差信号 201に変換 される(S143)。エントロピー復号化器 200から出力されたビット拡張情報 2004が、 ビット長変換制御器 2002に入力されると、復号画像が何ビット拡張されて!ヽるかを示 すビット変換情報 2003をビット長変換制御器 2002から出力する (S144)。
[0107] 画素ビット長拡張器 2005は、後述の手順でフレームメモリ 114に格納された Nビッ ト精度の復号画像信号 202に対し、ビット変換情報 2003に基づいて、例えば数式(1 )などの第 1の実施形態の画像符号ィ匕装置における画素ビット長拡張器で行われる 処理と同等の処理を施すことによって画素ビット長を Mビット拡張変換する処理を行 い、(N + M)ビット精度のビット拡張参照画像信号 204を出力する。画素ビット長拡 張器 2005は、図 2の構成とし、実施の形態 1と同様に各画素のビット長を拡張するか どうかをフラグで切り替えて制御する処理を行ってもよい。
[0108] 動きベクトル Z予測モード情報 116は予測画像作成器 115に入力され、上記 (N + M)ビット精度のビット拡張参照画像信号 204から動きベクトル Z予測モード情報 11 6に基づく(N + M)ビット精度の拡張予測画像信号 205が生成される(S 145)。画素 ビット長縮小器 2001は、(N + M)ビット精度の拡張予測画像信号 205に対し、ビット 変換情報 2003に基づいて、例えば数式 (2)などの第 1の実施形態の画像復号ィ匕装 置における画素ビット縮小変^^と同等の処理を施すことによって画素ビット長を M ビット縮小変換する処理を行い、 Nビット精度の予測画像信号 102を出力する(S146 )。画素ビット長縮小器 2001は、図 8の構成とし、実施の形態 1と同様に各画素のビッ ト長を拡張するかどうかをフラグで切り替えて制御する処理を行ってもよい。
[0109] Nビット精度の残差信号 201と Nビット精度の予測画像信号 102は加算器 111によ つて加算される。加算された信号は、ループフィルタ 113で必要に応じてフィルタ処 理がなされ、 Nビット精度の復号画像信号 202が出力され (S147)、フレームメモリ 1 14に格納される。ここで得られる復号画像信号 202は、画像符号化装置に入力され た入力画像と同じ Nビット精度となる。
[0110] 以上の構成によれば、予測画像信号が入力画像信号より Mビット大きな精度をもつ て作成されるため、動き補償のフィルタやループフィルタ、画面内予測など精度を高 めることができる。従って、結果的に予測誤差信号を小さくすることができるため、符 号ィ匕効率を向上させることができる。また、フレームメモリに格納される参照画像信号 を、ビット長が拡張された入力画像信号や予測画像信号より小さなビット長で格納す ることができる。故に、動き補償のフィルタやループフィルタ、画面内予測など精度を 高める効果を保ったまま、フレームメモリの使用量を削減することが可能となる。さら に、予測誤差信号および残差信号の変換'量子化の処理を入力画像のビット精度に 対応した精度で行うことが可能となる。これにより、動き補償のフィルタやループフィル タ、画面内予測など精度を高める効果を保ったまま、変換'量子化のビット精度を削 減し、演算規模を小さくすることが可能となる。
[0111] 第 2から第 5の実施形態においては、予測画像作成器 115を図 22のような構成とす ることも可能である。図 22に示すエンコーダ側の予測画像作成器 115によると、フレ ーム内予測器 B101は、フレームメモリ 114内のフレーム内で既に符号ィ匕された領域 の局部復号画像信号 112からフレーム内予測に基づく予測画像信号を作成する。 一方、フレーム間予測器 B103は、動きベクトル検出器 B102で検出された動きべタト ルに基づ 、てフレームメモリ 114内の局部復号画像信号 112に対して動き補償を施 す。適応フィルタ情報生成部 B104で入力画像信号 101と局部復号画像信号 112と 動きベクトル力 生成された適応フィルタ情報を用いたフレーム間予測に基づく予測 画像信号 102を作成する。
[0112] フレーム内予測器 B101は M個(Mは複数)のフレーム内予測モードを有し、フレー ム間予測器 B103は N個(Nは複数)のフレーム間予測モードを有する。フレーム間 予測器 B103及びフレーム内予測器 B101の出力に、モード判定器 B105が接続さ れる。モード判定器 B105は、 N個のフレーム間予測モードから選択された一つの予 測モードに基づく予測画像信号、あるいは M個のフレーム内予測モードから選択さ れた一つの予測モードに基づく予測画像信号 102を出力する。
[0113] 動きベクトル Z予測モード情報 Z適応フィルタ情報 116、すなわち動きベクトル検 出器 B102から出力される動きベクトルとモード判定器によって選択された予測モー ドを示す予測モード情報と適応フィルタ情報 116は、エントロピー符号化器 117に送 られ、符号化データ 117に含めて復号側に送信される。動きベクトルと適応フィルタ 情報は、フレーム間予測モードが選択された場合にのみ動きベクトル検出器 B102か ら出力される。
[0114] 図 23を参照してデコーダ側の予測画像作成器 115を説明する。この予測画像作 成器 115によると、切り替え器 B201は、予測モード情報 116に基づき予測器を選択 する。フレーム内予測器 B202は、選択された場合、フレームメモリ 114内のフレーム 内で既に符号化された領域の復号画像信号 203からフレーム内予測に基づく予測 画像信号 102を作成する。一方、フレーム間予測器 B203は、選択された場合、動き ベクトルに基づ 、てフレームメモリ 114内の復号画像信号 203に対して動き補償を施 し、適応フィルタ情報 116を用いたフレーム間予測に基づく予測画像信号 102を作 成する。
[0115] 図 24は、フレーム間予測器 B103の構成例を示している。フレーム間予測器 B103 では、動きベクトルと局部復号画像信号と適応フィルタ係数情報力 フレーム間予測 画像信号 102を生成する。整数画素重み Zオフセット補正部 B301では、整数画素 値のいわゆる重みつき予測を行うための処理を行う。具体例としては、以下の数式(7 )にしたがって、整数画素の予測画像信号 102を作成する。
[0116] Y= (WXX+ (1 < < (L- 1) ) > >L) +0 (7)
ここで、 Wが重み係数、 Lはシフト係数、 Oはオフセット係数で、適応フィルタ係数情 報に含まれるものである。画素値 Xに対して数式(7)に基づく処理を行い Yの値に変 換することにより、輝度の補正や色の補正が可能となる。
[0117] 数式 (8)は、双方向予測を行う場合の重み Zオフセット処理の例である。
Y= (W XX +W XX + (1 < < (L- 1) ) > >L) + ( (O +0 ) > > 1)
1 1 2 2 1 2
(8)
ここで、画素値 Xに対する重み係数が W、オフセット係数が O、画素値 Xに対する
1 1 1 2 重み係数が W、オフセット係数が O、 Lはシフト係数で、適応フィルタ係数情報に含
2 2
まれるものである。画素値 X、 Xに対して数式 B2の処理を行い Yの値に変換するこ
1 2
とにより、輝度の補正や色の補正が可能となる。
適応フィルタ情報 116により、重み Zオフセット補正処理を行う必要がない場合は、 スィッチ B301を切り替えて、小数点画素適応補間画像を作成する。
[0118] 本発明では、入力画像信号の画素ビット長よりも符号ィ匕 Z復号ィ匕処理のビット長が 長く設定されるため、重み Zオフセット補正処理の計算精度が確保でき、より精度の 高 、重み/オフセット補正を行うことが可能となる。
[0119] 小数画素適応補間画像作成部 B303では、動きベクトルが、小数点画素位置を示 していた場合、適応フィルタ情報の中の補間フィルタ係数を用いて、整数画素値から 、小数点画素位置の補間画素値を生成し、予測画像信号 102を生成する。この処理 に関しても、本発明では、入力画像信号の画素ビット長よりも符号化 Z復号化処理の ビット長が長く設定されるため、補間フィルタ処理の計算精度が確保でき、より良い小 数点画素値を得ることが可能となる。
[0120] 図 25は、フレーム間予測器 B103の別の構成例を示している。同様にこのフレーム 間予測器では、動きベクトルと局部復号画像信号と適応フィルタ係数情報からフレー ム間予測画像信号 102を生成する。小数画素適応補間画像作成部 B401では、動 きベクトルが、小数点画素位置を示していた場合、適応フィルタ情報の中の補間フィ ルタ係数を用いて、整数画素値から、小数点画素位置の補間画素値を生成し、予測 画像信号 102を生成する。
[0121] 本実施形態では、入力画像信号の画素ビット長よりも符号ィ匕 Z復号ィ匕処理のビット 長が長く設定されるため、補間フィルタ処理の計算精度が確保でき、より良い小数点 画素値を得ることが可能となる。
[0122] 重み Zオフセット補正部 B403では、予測画像信号の画素値のいわゆる重みつき 予測を行うための処理を行う。具体的な例としては、上記の数式(7)あるいは数式 (8 )にしたがって、予測画像信号 102を作成する。
[0123] 本実施形態では、入力画像信号の画素ビット長よりも符号ィ匕 Z復号ィ匕処理のビット 長が長く設定されるため、重み Zオフセット補正処理の計算精度が確保でき、より精 度の高い重み Zオフセット補正を行うことが可能となる。
[0124] 図 26は、フレーム間予測器の別の構成例を示している。このフレーム間予測器で は、動きベクトルと再生画像信号と適応フィルタ係数情報力 フレーム間予測画像信 号を生成する。これ〖こよると、動きベクトルが小数点画素位置を示していた場合、スィ ツチ B501は小数画素適応補間 Zオフセット補正画像作成部 B502に接続され、再 生画像信号は小数画素適応補間 Zオフセット補正画像作成部 B502によって処理さ れる。整数画素を示していた場合、スィッチ B501は整数画素重み Zオフセット補正 画像作成部 B503に接続され、再生画像信号は整数画素重み Zオフセット補正画像 作成部 B503によって処理される。
[0125] 小数画素適応補間 Zオフセット補正画像作成部 B502では、動きベクトル力 小数 点画素位置を示して 、た場合、適応フィルタ情報の中の補間フィルタ係数とオフセッ ト補正係数を用いて、整数画素値から、小数点画素位置の補間画素値を生成し、予 測画像信号を生成する。具体的な例として、下記の片方予測を行う場合は、数式 (9) 、双方向予測を行う場合は、数式(10)を用いる。
[数 1] y = ^j∑∑^^ ( 9)
[0126] ここで、再生画像信号 Xi,jに対する Wi,j力 補間フィルタ係数、 0がオフセット係数、 Y が予測画像信号である。
[数 2] γ = (。)" ί (°)" + 1)" έ )". + (び。) +び1)) / 2
( 1 0)
[0127] ここで、再生画像信号 X(Q)i,jに対する W(Q)i,jは、補間フィルタ係数、 O(0)がオフセット 係数、再生画像信号 x(1)uに対するの は、補間フィルタ係数、 0(1)がオフセット係 数、 Yが予測画像信号である。
[0128] 整数画素重み Zオフセット補正部 B503では、予測画像信号の画素値のいわゆる重 みつき予測を行うための処理を行う。具体的な例としては、上記の数式(7)あるいは 数式 (8)にしたがって、予測画像信号を作成する。この時のオフセット補正係数は、 入力画素ビット長以上の精度の係数を用いる。
[0129] 本実施形態では、入力画像信号の画素ビット長よりも符号化 Z復号化処理の演算 ビット長が長く設定されるため、補間フィルタ処理の計算精度が確保でき、より良い予 測画素値を得ることが可能となる。
[0130] 本実施形態では、入力画像信号の画素ビット長よりも符号ィ匕 Z復号ィ匕処理のビット 長が長く設定されるため、重み Zオフセット補正処理の計算精度が確保でき、より精 度の高い重み Zオフセット補正を行うことが可能となる。
[0131] (第 1の変形例)
第 2から第 5の実施形態においては、ループフィルタ 113を図 27のような構成とする ことも可能である。
図 27はエンコーダ側のループフィルタ 113の構成を示して!/、る。フィルタ係数決定 部 C101は、入力画像信号 101および局部復号画像信号 112を入力信号とし、局部 復号画像信号 112に対してフィルタ処理を施した際に例えば入力画像信号 101と最 小 2乗誤差が最も小さくなるようなフィルタ係数を算出し、算出されたフィルタ係数をフ ィルタ処理部 C102に出力するとともに、フィルタ係数情報 C103としてエントロピー符 号ィ匕部 108に出力する。ここでのフィルタ係数の決定方法については、この例に限る ルタをあらカゝじめ用意しておき、それらを適応的に切り替え、選択されたフィルタをフ ィルタ係数情報 C103として出力してもよぐあるいは各フィルタを適用するかどうかを 適応的に判定するなどの処理を行ってもよぐ様々な態様を適用することが可能であ る。入力される入力画像信号 101は、各実施の形態に応じて、ループフィルタに入力 される局部画像復号信号 112と同じ画素ビット長とした信号を用いる。
[0132] フィルタ処理部 C102では、フィルタ係数決定部 C101より入力されたフィルタ係数 を用いて局部復号画像信号の各画素に対してフィルタ処理を施した後、フレームメモ リ 114等に出力する。
[0133] エントロピー符号ィ匕部 108に出力されたフィルタ係数情報 103はエントロピー符号 化部 108にてエントロピー符号化され、符号化データ 117に含められて送信される。
[0134] 図 28は復号側のループフィルタ 113の構成例を示している。エントロピー復号ィ匕部 2 00より出力されたフィルタ係数情報 C103を基にフィルタ処理部 C102において復号画 像信号の各画素に対してフィルタ処理を施す。フィルタ処理が行われた復号画像信 号は各々の実施の形態に応じて、フレームメモリ 114や画素ビット長縮小器に出力さ れるか、ある!/、は復号画像信号としてそのまま出力される。
[0135] 以上の構成によれば、入力画像信号の画素ビット長よりも符号ィ匕 Z復号ィ匕処理の ビット長が長く設定されるため、ループフィルタ 113内で行われるフィルタ処理の計算 精度が確保でき、より精度の高 ヽループフィルタ処理を行うことが可能となる。
[0136] (第 2の変形例) 第 1から第 3の実施形態において、入力画像信号 101の画素ビット 長を変換する画素ビット長拡張器 1001を図 29のような構成とすることも可能である。 この構成では、画素ビット長拡張器 1001に入力された入力画像信号は、第 1の実施 形態と同様の手順で各画素のビット長を Nビットより Mビット大きな (N + M)ビット精度 に拡張する処理を行った後、フィルタ処理部 7000に導かれ、各画素に対してフィル タ処理が行われる。ここで行われるフィルタ処理は、例えばフレーム内の隣接画素に フィルタ係数を掛けた後足し合わせるような空間フィルタを用いる。空間フィルタとし て、例えばィプシロンフィルタを用 、たフィルタ処理部 7000力 S図 30に示されて!/、る。
[0137] このフィルタ処理部 7000によると、入力画素値を P[t] , 出力画素値を Q [t]とすると , tは画素の位置を示している。 tの位置の画素にフィルタをかける場合には,入力画 素値 P[t]と一時メモリ A04に蓄えてあったその一つ手前の出力画素値 Q [t— 1]とを 加算器 A01に入力し,差分 dが求められる。この差分 dでルックアップテーブル A02 を引き, F (d)が決定される。この値 F (d)を加算器 A03に入力して,入力画素値 P[t ]から引く。この動作を数式で示すと次のようになる。
[0138] Q[t] = P[t] F (P[t]— Q[t— 1]) (11)
関数 Fは式(12)によって表され, (int)は, 0方向への整数化処理とする。
[0139] F (d) = (int)(d/ (d X d/ (u X u) + 1. 0) (12)
d= P[t] Q[t- 1] (13)
ルックアップテーブル A02の中身は,関数 Fで計算される値が予めテーブルとして 記憶しておけばよい。例えば,画素値が nビットならば, dの値は, —2n+ l〜 + 2n— 1となって,ルックアップテーブルは, 2n+1— l個の配列を用意しておけばよい。ここで , uはフィルタのパラメータで, uが大きいほど強くフィルタがかかる。このフィルタの演 算量は, 1画素のフィルタ処理に加算 2回のみである。
[0140] 図 31は,図 30のフィルタを使ったフィルタ処理部 7000の具体的な流れ図である。
このフィルタ処理部 7000では,フレームの 4方向力 フィルタ処理を行う。まず,フレ ームの右から左のポストフィルタ処理(S101)を行う。次は,反対方向の左から右のポ ストフィルタ処理(S 102)を行う。同様に今度は,上から下のポストフィルタ処理(S 10 3)を行い,次に反対方向の下からの上のポストフィルタ処理を行う。この処理を YCb Crそれぞれの信号に対して行う。このように互いに反対方向力 フィルタ処理を行う ことによって,巡回型フィルタの欠点である位相のずれを打ち消すことができる。
[0141] また、フィルタ処理として、複数のフレームの対応する画素に対してフィルタ係数を 掛けた後足し合わせるような時間フィルタを用いてもよい。また、動き補償を伴う時間 フィルタを施してもよい。動き補償を伴う時間フィルタは、例えば、特願 2006— 3620 6などに記載されている方法を用いる。
[0142] 本構成におけるフィルタ処理はここで述べたフィルタ処理に限るわけではなぐフィ ルタ処理であればどのような処理を行ってもよい。また、第 4および第 5実施の形態に ついては、入力画像信号 101は画素ビット長が変換されずに符号ィ匕が行われるが、 入力画像信号 101に直接、ここで述べたプレフィルタ処理を施して力も符号ィ匕を行つ てもよい。
[0143] (第 3の変形例) 第 1から第 5の実施形態において、画素ビット長縮小器 2001およ び 2007を図 32のような構成とすることも可能である。この構成では、画素ビット長拡 張器 2001および 2007に入力されたビット拡張復号画像信号 2003は、フィルタ処理 部 7001に入力され、各画素に対してフィルタ処理が行われた後、第 1の実施形態 1 と同様の手順で各画素のビット長を (N+M)ビットより Mビット小さな Nビット精度に縮 小処理が行われ、 Nビットの復号画像信号として出力される。ここで行われるフィルタ 処理は、例えばフレーム内の隣接画素にフィルタ係数を掛けた後足し合わせるような 空間フィルタを用いてもよいし、複数のフレームの対応する画素に対してフィルタ係 数を掛けた後足し合わせるような時間フィルタを用いてもょ 、。
[0144] (第 4の変形例) 本構成では、上記の画素ビット長拡張器 1001をフィルタ処理を 行う構成と組み合わせ、画素ビット長拡張器 1001内のフィルタ処理部 7000で行わ れるフィルタ処理の逆フィルタ処理を画素ビット長縮小器 2001内のフィルタ処理部で 行うことも可能である。例えば、フィルタ処理部 7000において、入力画素値として 2フ レーム間で対応する 2点の画素値をそれぞれ X, yとして、対応する出力画素値を a, b とした場合に数式(14)に示す処理を施す。
[0145] a = (3x+y+2)»2
b = (x+3y+2)»2 (14)
数式(14)の処理は 2ビットの右シフトによる除算処理を行っている力 例えば画素 ビット長拡張器 1001において 2ビット左シフトによる画素ビット拡張を行っている場合 、数式 A4で示されるフィルタ処理では丸め誤差が生じず、入力画像の情報を失わず にすむ。
[0146] 一方、復号側のフィルタ処理部 7001において、入力画素として復号画像信号の 2 フレーム間で対応する 2点の画素値を a', とし、対応する出力画素値を χ' , y'とした 場合に数式(15)に示す処理を施す。
[0147] x' = (3a' -b' +4)»3
y' = (3b' -a" +4)»3 (15)
数式(15)の処理は 3ビットの右シフトによる除算処理を行っている力 例えば画素 ビット長拡張器 1001において 2ビット左シフトによる画素ビット拡張を行っている場合 、数式(14)で示されるフィルタ処理と同様に丸め誤差が発生しない。即ち、符号化と 復号化の処理によって生じる量子化誤差が 0と仮定すると、数式(14)および数式(1 5)によるフィルタと逆フィルタは、可逆なフィルタとなる。数式(14)は 2フレーム間の 対応する 2点の画素値をそれぞれ近づける処理を行うため、動き補償が予測をよりあ たりやすぐ予測残差が小さくなる。従って符号量を削減することが可能となる。さらに 、画素ビット拡張をおこなっていることにより、量子化誤差を除けば復号側で元の入 力画像に戻すフィルタ処理を行うことが可能となるため、符号ィ匕効率を高めることが 可能である。
[0148] フィルタ処理部 7000および 7001にお!/、て用いるフィルタはここで述べた例に限定 されるものではなぐどのようなフィルタを用いてもよい。もちろん、画素ビット拡張部 1 001において拡張されるビット数 Mに応じた可逆フィルタを用いることでさらに予測な どの精度を高めることが可能であることは言うまでもない。また、ここで述べた例では 2 フレーム間で対応する 2点をフィルタ処理の対象とした力 この例に限定されるもので はなぐ例えば 2フレーム以上のフレームの画素を用いてもよい。また、 1フレーム内 の隣接する 2点や 2点以上の複数の点の画素をフィルタ処理の対象としてもよい。更 に、インタレース画像においてトップフィールドとボトムフィールドの対応する 2点の画 素値をフィルタ処理の対象とするなど、様々な形態のフィルタ処理を用いることが可 能である。
[0149] フィルタ処理部 7000および 7001にお!/、て用いた可逆フィルタの係数をエントロピ 一符号ィ匕部 108に出力し、符号ィ匕データ 117に含めることも可能である。このように することで、フレームごとに予測などの精度を高める効果が高いフィルタ係数を選択 して符号ィ匕を行うことができる。
[0150] (第 6の実施形態)
図 33Aを参照して第 6の実施形態に係る動画像符号ィ匕のための画像符号ィ匕装置 の構成を説明する。
この画像符号化装置は、第 2の実施形態で示した構成例(図 9)とほぼ同様の構成 である力 画素ビット長拡張器 1001の後段に透力し情報埋め込み器 3000を備える 点が異なっている。
[0151] 図 33Bのフローチャートを参照して画像符号ィ匕装置の動作を説明する。この画像 符号化装置には、画像信号 100として例えばフレーム単位で動画像信号が入力され る(S151)。画素ビット長拡張器 (画素ビット精度変翻) 1001は、第 2の実施形態と 同様の処理を行うことにより、入力された Nビット精度の画像信号 100の各画素の値 について、 Nビットより Mビット大きな (N + M)ビット精度に拡張する処理を行う(S15 2)。拡張されたビット数 Mは、ビット長変換制御器 (ビット精度変換制御器) 1002によ りビット拡張情報 1003としてエントロピー符号化器 108に導かれる。
[0152] ビット長が拡張された入力画像信号 100は透力 データ埋め込み器 3000に入力さ れると、あら力じめ設定されたパラメータに基づいて生成されたデータ列が入力画像 信号 100の各画素の例えば下位ビットに埋め込まれる(S153)。ここで、生成された データ列は拡張されたビット長である Mビット以下の語長とする。
[0153] データ列が埋め込まれた入力画像 100は減算器 101に導かれると、減算器 101に より、(N + M)ビット精度にビット長が拡張された入力画像信号 100と (N + M)ビット 精度で作成された予測画像信号 102との差分が求められる。これにより、(N + M)ビ ット精度の予測誤差信号 103が生成される (S154)。生成された予測誤差信号 103 に対して、直交変換器 104により直交変換 (例えば、離散コサイン変換 (DCT) )が施 され、直交変換器 104では、直交変換係数情報 105 (例えば、 DCT係数情報)が得 られる(S155)。直交変換係数情報 105は、量子化器 106により量子化され、量子化 直交変換係数情報 107が、エントロピー符号化器 108および逆量子化器 109に導か れる。
[0154] 量子化直交変換係数情報 107は、逆量子化器 109及び逆直交変換器 110により、 量子化器 106及び直交変 l04の処理と逆の処理を順次受けて予測誤差信号と 同様の信号、即ち局部復号誤差信号が生成される。この局部復号誤差信号が、カロ 算器 111で (N + M)ビット精度の予測画像信号 102と加算されることにより、(N + M )ビット精度の局部復号画像信号 112が生成される(S156)。(N+M)ビット精度の 局部復号画像信号 112は、必要に応じてループフィルタ 113によりフィルタ処理がな された後、フレームメモリ 114に格納される。フレームメモリ 114に格納された局部復 号画像信号 112は、予測画像作成器 115に入力される。
[0155] 予測画像作成器 115は、(N + M)ビット精度にビット長が拡張された入力画像信号 100及び (N+M)ビット精度の局部復号画像信号 112からある予測モード情報に基 づく(N + M)ビット精度の予測画像信号を生成する。この際、フレーム内のブロック 毎に (N + M)ビット精度の入力画像信号 100と画素ビット長変翻 1005によって (N + M)ビット精度に拡大された局部復号画像信号 112との間のマッチング (例えば、 ブロックマッチング)をとり、動きベクトルを検出する(S157)。この動きベクトルで補償 された (N + M)ビット精度の局部画像信号を用いて (N + M)ビット精度の予測画像 信号を作成する(S157)。ここで生成された (N + M)ビット精度の予測画像信号 102 は、選択された予測画像信号の動きベクトル情報 Z予測モード情報 116とともに予測 画像作成器 115より出力される。
[0156] エントロピー符号化器 108では、量子化直交変換係数情報 107、動きベクトル情報 Z予測モード情報 116およびビット拡張情報 1003がエントロピー符号化され (S159 )、これによつて生成された符号ィ匕データ 117は、図示しない伝送系または蓄積系へ 送出される。
本実施形態においては、第 1の実施形態と同様にサプリメンタルシンタクスに多重 ィ匕されたデータを利用することが可能である。
[0157] 次に、図 34Aを参照して、本実施形態に係る画像復号化装置の構成を説明する。
この画像復号化装置は、第 2の実施形態で示した構成例(図 10A)とほぼ同様の構 成である力 ループフィルタ 113と画素ビット長縮小器 2001 (画素ビット精度変^^) の間に透かし検出器 3002が接続されている点が異なる。
[0158] 図 34Bのフローチャートを参照して画像復号ィ匕装置の動作を説明する。画像復号 化装置に図 11Aの画像符号ィ匕装置によって符号化された符号ィ匕データ 117が入力 されると(S161)、エントロピー復号化器 200において、符号化データ 117がェントロ ピー符号ィ匕の逆の手順で復号化され、量子化直交変換係数情報 107、動きベクトル Z予測モード情報 116、ビット拡張情報 2004が得られる(S162)。
[0159] 量子化直交変換係数情報 107は、逆量子化器 109及び逆直交変換器 110により、 量子ィ匕器 106及び直交変 104の処理と逆の処理を順次受けて (N + M)ビット 精度の残差信号 201に変換される(S 163)。エントロピー復号化器 200から出力され たビット拡張情報 2004は、ビット長変換制御器 2002に入力された後、復号画像が 何ビット拡張されているかを示すビット数 Mを示すビット変換情報 2003を出力する。
[0160] 動きベクトル Z予測モード情報 116は予測画像作成器 115に入力され、上記 (N + M)ビット精度のビット拡張参照画像信号 204から動きベクトル Z予測モード情報 11 6に基づく(N + M)ビット精度の予測画像信号 102が生成される(S164)。(N + M) ビット精度の残差信号 201と (N + M)ビット精度の予測画像信号 102は、加算器 11 1によって加算される。加算された信号は、ループフィルタ 113で必要に応じてフィル タ処理がなされ、(N + M)ビット精度のビット拡張復号画像信号 203が出力される (S 165)。
[0161] ビット拡張復号画像信号 203は、フレームメモリ 114に格納されるとともに、すかし検 出部 3002に入力される。すかし検出部 3002では、ビット拡張復号画像 203の各画 素の例えば下位ビットが埋め込まれた透かしデータであるかどうかの判定を行 、、透 力しデータを含む力どうかを示す透かし検出情報 3003を出力する(S166)。透かし データであるかどうかの判定は、例えばあら力じめ既知の透かしパターンと、ビット拡 張復号画像 203の例えば下位 Mビットの相関係数を計算し、その値が一定の閾値以 上であった場合は透力 データであると判定するなどの方法を用いて行う。
[0162] ビット拡張復号画像信号 203は、画素ビット長変翻 2007に入力され、ビット変換 情報 2003に基づいて各画素の値に対し例えば数式(2)などの第 1の実施形態の画 像復号ィ匕装置における画素ビット長縮小器と同等の処理を施されることにより、 Mビッ ト小さな値に画素ビット長が縮小変換され (S167)、画像符号化装置に入力された入 力画像と同じ Nビット精度の復号画像 202を得る(S 168)。
[0163] 以上の構成によれば、予測画像信号が入力画像信号より Mビット大きな精度をもつ て作成されるため、動き補償のフィルタやループフィルタ、画面内予測など精度を高 めることができる。結果的に予測誤差信号を小さくすることができるため、符号化効率 を向上させることができる。また、拡張した下位ビットを利用して透力し情報を埋め込 むことで、入力画像信号を変化させずに透力 情報を埋め込むことが可能となる。
[0164] 第 2〜6の実施形態にぉ 、て、拡張あるいは縮小を行うビット数 Mはビット拡張情報 としてエントロピー符号化されて符号ィ匕データに含められているが、画像符号ィ匕装置 と画像復号ィ匕装置であらかじめ決まった数だけビット長を拡張あるいは縮小する場合 には、必ずしもビット数 Mを符号ィ匕データに含める必要はない。また、あら力じめ決ま つた数だけビット長を拡張あるいは縮小する場合には、拡張ある 、は縮小を行うかど うかを示すフラグだけを符号ィ匕データに含めることも可能である。この場合、フラグが TRUEの場合には、第 2〜第 6の実施形態内の画素ビット長拡張器 1001あるいは画 素ビット長縮小器 2001あるいは画素ビット長変換器 2007にお 、てスィッチが ON側 に接続される。一方、フラグが FALSEの場合には、スィッチが OFF側に接続される。
[0165] 第 2、第 3の実施形態において局部復号画像信号をフレームメモリに格納する際に 縮小するビット数 Lについては、 Mと同じ値である場合は必ずしも Lを符号ィ匕データに 含める必要はない。また、 M、 Lが同じ値であっても異なる値であっても、あらかじめ 決まった数である場合には、必ずしもビット数 M、 Lを符号ィ匕データに含める必要は ない。
[0166] 入力画像や局部復号画像信号および復号画像の画素ビット長を拡張するということ は、符号化'復号ィ匕の処理過程の整数演算の演算精度を向上させていることに等し い。処理過程の任意の箇所の演算精度を可変とし、それらの演算精度を示すフラグ あるいは情報を符号ィ匕データに含めることも可能である。例えば、第 2〜第 5の実施 形態を組み合わせ、符号化 '複号化の処理過程において、フレームメモリに格納され る画素ビット精度を拡張するか否かを示すフラグと、直交変換 Z量子化に入力される 予測残差の画素ビット長を拡張するかどうか、すなわち直交変換 Z量子化の演算精 度を拡張するか否かを示すフラグを符号化データに含めておく。これらのフラグの ON ZOFFに応じて,符号化装置および復号装置でフレームメモリに格納される画素ビッ ト精度を拡張するか否かや、直交変換 Z量子化に入力される予測残差の画素ビット 長を拡張するかどうかを切り替えてもよい。さらには、これらのフラグが ONとなってい る場合には、何ビット拡張/あるいは縮小するかを示すデータを符号ィ匕データに含 めてもよい。また、これらの符号化'復号ィ匕の処理の一過程の演算精度を拡張するか どうかを示すフラグや拡張するビット数を示すデータは、ここで示したフレームメモリや 直交変換 ·量子化だけを対象とするものではなぐ例えばループフィルタに対するフ ラグや拡張ビット数を示すデータを追加してもよい。処理が符号化 '復号化の処理過 程の一部であれば、その処理、あるいは複数の処理を 1つにまとめて、それぞれに対 して演算精度を拡張するかどうかを示すフラグや拡張ビット数を示すデータを設定し て符号化データに含めてもょ ヽ。
[0167] (第 7の実施形態)
図 35Aを参照して第 7の実施形態の画像符号ィ匕装置の構成を説明する。この実施 形態は基本的には図 11の実施形態と同様な構成を持つが、予測画像作成部 115と 減算器 101との間に画素ビット長縮小器 (画素ビット精度縮小変翻) 1004が設けら れ、加算器 111とループフィルタ 112との間に画素ビット長拡張器 (画素ビット精度拡 張変 ) 1007が設けられて 、る点が図 11の実施形態と異なって!/、る。
[0168] 図 35Bのフローチャートを参照して画像符号ィ匕装置の動作を説明する。この画像 符号化装置には、画像信号 100として例えばフレーム単位で動画像信号が入力され る(S171)。画素ビット長拡張器 1001は図 2の構成とし、ビット変換情報 1010に含ま れている後述のシンタクス情報に基づく制御フラグ F1001に基づいて、入力された N ビット精度の画像信号 100の各画素の値力 Nビットより Mビット大きな (N + M)ビット 精度に拡張するかどうかを判定する(S172)。ここで、制御フラグ F1001が ONの場 合は、画素ビット長拡張器 1001内のスィッチ E0を ONに設定し、局部復号画像信号 112の各画素のビット長を、第 1の実施形態における画素ビット長変換器 1001で行 われる処理と同様の処理によって拡張する(S173)。例えば、入力画像信号のある 画素の値が Kであった場合、 Mビット拡張した後の画素値 K'は例えば数式(1)や数 式(1— 1) , (1 - 2) , (1 3)などの処理によって計算される。
[0169] 制御フラグ F1001が OFFの場合には、スィッチ E0が OFF側に接続され、各画素 のビット長を拡張する処理は行わない。拡張されるビット数 Mなどの変換情報は、ビッ ト長変換制御器 1002によりビット拡張情報 1003としてエントロピー符号化器 108に 導かれる。
[0170] 減算器 101により、入力画像信号 100と予測画像信号 102との差分がとられ、予測 残差信号 103が生成される(S174)。生成された予測誤差信号 103に対して、直交 変翻 104により直交変換 (例えば、離散コサイン変換 (DCT) )が施され、直交変換 器 104では、直交変換係数情報 105 (例えば、 DCT係数情報)が得られる(S 175)。 直交変換係数情報 105は、量子化器 106により量子化され、量子化直交変換係数 情報 107は、エントロピー符号化器 108および逆量子化器 109に導かれる。
[0171] 量子化直交変換係数情報 107は、逆量子化器 109及び逆直交変換器 110により、 量子化器 106及び直交変 l04の処理と逆の処理を順次受けて予測誤差信号と 同様の信号、即ち局部復号誤差信号に変換される。この局部復号誤差信号は加算 器 111で予測画像信号 102と加算されることにより、局部復号画像信号 112が生成さ れる(S176)。局部復号画像信号 112は、画素ビット長拡張器 1007に入力され、ビ ット変換情報 1010に含まれている後述のシンタクス情報に基づく制御フラグ F1007 に基づいて、局部復号画像信号 112の各画素のビット長を拡張するかどうかを判定 する(S177)。制御フラグ F1007が ONの場合には、画素ビット長拡張器 1007内の スィッチ E0を ONに設定し、局部復号画像信号 112の各画素のビット長を、第 4の実 施形態における画素ビット長変 ^1007で行われる処理と同様の処理によって拡 張する(S178)。制御フラグ F1007が OFFの場合には画素のビット長を拡張する処 理は行わない。
[0172] 画素ビット長拡張器 1007から出力された局部復号画像信号 112は必要に応じて ループフィルタ 113によりフィルタ処理がなされた後、画素ビット長変換器 1005に入 力される。画素ビット長変翻1005では、ビット変換情報 1010に含まれている後述 のシンタクス情報に基づく制御フラグ F1005に基づいて、局部復号画像信号 112の 各画素のビット長を変換するかどうかを判定する(S179)。ここで、制御フラグ F1005 が ONの場合には、画素ビット長拡張器 1005内のスィッチ E3を ONに設定し、局部 復号画像信号 112の各画素のビット長を、第 3の実施形態における画素ビット長変換 器 1005で行われる処理と同様の処理によって拡張する(S180)。制御フラグ F100 5が OFFの場合には画素のビット長を変換する処理は行わな 、。画素ビット長変換 器 1005から出力された局部画像信号 112は、フレームメモリ 114に格納される (S18 D oフレームメモリ 114に格納された局部画像信号は、さらに、画素ビット長変 006に入力される。画素ビット長変翻 1006では、ビット変換情報 1010に含まれて いる後述のシンタクス情報に基づく制御フラグ F1006に基づいて、局部復号画像信 号 112の各画素のビット長を変換するかどうかを判定する(S182)。ここで、制御フラ グ F1006が ONの場合には、画素ビット長拡張器 1006内のスィッチ E3を ONに設定 し、局部復号画像信号 112の各画素のビット長を、第 3の実施形態における画素ビッ ト長変翻 1006で行われる処理と同様の処理によって拡張する(S183)。制御フラ グ F1006が OFFの場合には画素のビット長を変換する処理は行わない。画素ビット 長変翻1006から出力される局部復号画像信号 112は、予測画像作成器 115〖こ 入力される。
[0173] 予測画像作成器 115は、入力画像信号 100及びフレームメモリ 114に格納された 局部復号画像信号 112から、ある予測モード情報に基づく予測画像信号を生成する (S184)。この際、加算器 111からの局部復号画像信号 112はフレームメモリ 114に ー且蓄えられ、フレーム内のブロック毎に入力画像信号 100とフレームメモリ 114に 蓄えられた局部復号画像信号 112との間のマッチング (例えば、ブロックマッチング) をとり、動きベクトルを検出し、この動きベクトルで補償された局部画像信号を用いて 予測画像信号を作成する。ここで生成された予測画像信号 102は、選択された予測 画像信号の動きベクトル情報 Z予測モード情報 116とともに予測画像作成器 115よ り出力される。
[0174] 予測画像信号作成器 115から出力された予測画像信号 102は画素ビット長縮小器 1004に入力される。画素ビット長縮小器 1004では、ビット変換情報 1010に含まれ て 、る後述のシンタクス情報に基づく制御フラグ F1004に基づ 、て、予測画像信号 102の各画素のビット長を変換するかどうかを判定する(S185)。制御フラグ F1004 が ONの場合には、画素ビット長拡張器 1004内のスィッチ E2を ONに設定し、予測 画像信号 102の各画素のビット長を、第 4の実施形態と同様の処理によって縮小する (S186)。制御フラグ F1004が OFFの場合には画素のビット長を変換する処理は行 わない。
[0175] エントロピー符号化器 108では、量子化直交変換係数情報 107、動きベクトル情報 Z予測モード情報 116およびビット拡張情報 1003がエントロピー符号化され (S187 )、これによつて生成された符号ィ匕データ 117は、図示しない伝送系または蓄積系へ 送出される。
[0176] 次に、ビット長の拡張 '縮小'変換を行うかどうかを制御する制御フラグの符号ィ匕方 法について説明する。 [0177] 本実施形態では、ビット長の拡張 '縮小'変換を行うかどうかを制御する制御フラグ や拡張するビット数をシーケンスパラメータセットシンタクス (404)に含めて送信する ことが可能である。それぞれのシンタクスを以下で説明する。
[0178] 図 36のシーケンスパラメータセットシンタクス内に示される ex_seq_all_bit_extention_fl agは、ビット拡張を行うかどうかを示すフラグであり、当該フラグ力TRUEであるときは、 符号ィ匕および復号ィ匕の内部のデータパスすべてにおいて、各画素のビット長が拡張 されたデータを用いて符号化および復号化を行うことを示す。フラグが FALSEである ときは、このフラグは、符号ィ匕および復号ィ匕の内部のデータパスのすべてにおいて各 画素のビット長が拡張された画像信号を用いて符号化'復号ィ匕を行わないか、一部 のデータパスでのみ、各画素のビット長が拡張された画像信号を用いて符号化'復 号化が行われることをしめす。 ex_seq_bit_extention_flag力TRUEのときは、更に何ビット 拡張を行うかを示す ex_seq_shift_bitsをさらに送信してもよい。
[0179] ex_seq_all_bit_extention_flagが FALSEのときには、さらに符号化および復号化内部に おける、予測画像作成部に入力される画像信号の画素ビット長を拡張するかどうかを 示すフラグ eex_seq_partial_bit_extention _flagをさらに送信してもよ 、。当該フラグが TR UEの場合は、符号化'復号化内部処理における、予測画像作成時に各画素のビット 長が拡張された画像信号を用いることを示す。一方、フラグが FALSEであるときは、こ のフラグは、符号ィ匕および復号ィ匕の内部のデータノ スのすべてにおいて各画素のビ ット長が拡張された画像信号を用いな 、ことを示す。 ex_seq_partial_bit_extention_flag が TRUEのときには、さら〖こ、予測画像作成部 112に入力される画像信号の画素ビッ ト長を、入力画像信号の画素ビット長と比較して何ビット大きく拡張するかを示す ex_Se q— partial— shift— bits 送 1 してもよ ヽ。
[0180] ex_seq_partial_bit_extention_flagが TRUEのときには、さらに符号化 '復号化内部のデ ータパスのある一部分で各画素のビット長が拡張された画像信号を用いるかを示す フラグを送信してもよい。図 36に示した例では、フレームメモリ 114に格納する参照 画像信号の画素ビット長を拡張するかどうかを示すフラグ ex_seq_framemem_bit_extent ionjag,および直交変換部と量子化部(直交変換器 104、量子化器 106、逆量子化 器 109および逆直交変 10)に入力あるいは出力される予測残差信号の画素ビ ット長を拡張する力どう力を示すフラグ ex_seq_trans_and_quant_bit_extention _flagを送 信している。
[0181] ex_seq_framemem_bit_extention_flagが TRUEの場合には、このフラグはフレームメモリ に格納する参照画像信号の画素ビット長を拡張することを示す。フラグが FALSEの場 合には、それはフレームメモリに格納する参照画像信号の画素ビット長を入力画像と 同じ画素ビット長とすることを示す。 ex_seq_framemem_bit_extention_flagが TRUEの場 合にはさらに、フレームメモリに格納される画像信号の画素ビット長を、入力画像信号 の画素ビット長と比較して何ビット大きく拡張するかを示す ex_seq_framemem_shift_bits を送信してもよい。
[0182] ex_seq_trans_and_quant_bit_extention_flagが TRUEの場合には、このフラグは直交変 換部と量子化部 (直交変換器 104、量子化器 106、逆量子化器 109および逆直交変 ^no)に入力あるいは出力される予測残差信号の画素ビット長が拡張されている ことを示す。すなわち、入力画像信号と予測画像信号の各画素のビット長が拡張され ており、予測残差信号は、各画素のビット長が拡張された入力画像信号と予測画像 信号の差分信号であることを示して 、る。
[0183] 当該フラグが FALSEの場合には、このフラグは直交変換部と量子化部(直交変 104、量子化器 106、逆量子化器 109および逆直交変換器 110)に入力あるいは出 力される予測残差信号が入力画像信号と同じビット精度の予測画像信号と入力画像 信号の差分信号であることを示す。
[0184] ex_seq_trans_and_quant_bit_extention _flagが TRUEの場合にはさら〖こ、直交変換部と 量子化部 (直交変換器 104、量子化器 106、逆量子化器 109および逆直交変換器 1 10)に入力あるいは出力される予測残差信号の生成時における、入力画像信号と予 測画像信号の画素ビット長が、入力画像信号の画素ビット長と比較して何ビット大きく ぉム する力を示す ex— seq— trans— and— quant— shift— bitsを送 1 gしてもよい。
[0185] 符号ィ匕側と復号ィ匕側にぉ 、て、各フラグ力TRUEであった場合に、何ビット拡張ある いは縮小するかをあら力じめ設定されたビット数で行う場合には、図 37に示すとおり 、画像信号の画素ビット長を変換するかどうかを示すフラグのみを送信してもよ 、。
[0186] これらのシンタクスの値を元に、図 35で示した画像符号ィ匕装置の処理において使 用される制御フラグ F1001、 F1007、 F1005、 F1006、 F1004の設定例を図 38に 示す。図 38において、 allの列は ex_seq_all_bit_extention_flagの値を示している。同様 に、 part、 ftn、 t/q、の歹 Uiま ex— seq— partial— bit— extention— flag、 ex— seq— framemem— bit— exte ntion— flag、 ex— seq— trans— and— quant— bit— extention— flagの値 それぞれ不して 、る。 0は FALSEを、 1は TRUEを示し、一はシンタクスが存在しないことを示している。制御フ ラグの F1001, F1007, F1005, F1006, F1004の列はそれぞれのシンタクスの値 に基づ 、て設定される制御フラグの値を示して 、る。 1は ONを 0は OFFを示して!/、る 。例えば、 ex_seq_all_bit_extention_flag力TRUEの場合には、制御フラグ F1001のみ O Nとし、残りのフラグは OFFとすることを示している。
[0187] 図 40は後述の画像復号化装置の処理において用いる制御フラグ F2001、 F2005 、 F2006、 F2007、 F2008の設定伊 [Jを示して!/ヽる。それぞれ、図 38と同様の値を示 している。本実施形態においては、第 1の実施形態と同様にサプリメンタルシンタクス に多重化されたデータを利用することが可能である。
[0188] 図 39Aを参照して本実施形態に係る画像復号化装置の構成を説明する。図 39A に示すように、この画像復号化装置は、エントロピー復号化器 200、逆量子化器 109 、逆直交変 110、加算器 111、ループフィルタ 113、フレームメモリ 114、予測画 像作成器 115、画素ビット長縮小器 (画素ビット精度縮小変換器) 2001、 2006、画 素ビット長拡張器 (画素ビット精度拡張変翻) 2005、画素ビット長変翻 (画素ビッ ト精度変翻) 2007、 2008、ビット長変換制御器 2002を備えている。即ち、ェントロ ピー復号化器 200の係数情報出力は逆量子化器 109および逆直交変翻 110を 介して加算器 111に接続される。エントロピー復号化器 200の動きベクトル Ζ予測モ ード情報出力は予測画像作成器 115に接続され、そのビット拡張情報出力はビット 長変換制御器 2002に接続される。予測画像作成器 115の出力は画素ビット長縮小 器を介して加算器 111の他の入力に接続される。加算器 111の出力は画素ビット長 拡張器 2005,ループフィルタ 113,画素ビット長変換器 2007を介してフレームメモリ 114に接続される。ループフィルタ 113の他の出力は画素ビット長縮小器 2001の入 力に接続される。フレームメモリ 114の出力はビット長変換制御器 2002に出力と共に 画素ビット長変換器 2008に接続される。画素ビット長変換器 2008の出力は予測画 像作成器 115の他の入力に接続される。ビット長変換制御器 2002の出力は画素ビ ット長縮小器 2001,画素ビット長拡張器 2005、画素ビット長縮小器 2006,画素ビッ ト長変換器 2007および画素ビット長変換器 2008の他の入力に接続される。
[0189] 図 39Bのフローチャートを参照して画像復号ィ匕装置の動作を説明する。図 9の画像 符号化装置によって符号化された符号化データ 117が画像復号化装置に入力され ると(S201)、エントロピー復号化器 200によってエントロピー符号ィ匕の逆の手順に従 つて復号化され、量子化直交変換係数情報 107、動きベクトル Z予測モード情報 11 6、ビット拡張情報 2004が生成される(S202)。ビット拡張情報 2004がビット長変換 制御器 2002に入力されると、ビット長変換制御器 2002は画素ビット長縮小器 2001 , 2006、画素ビッ卜長拡張器 2005、画素ビッ卜長変^^ 2007、 2008での画素ビッ ト長変換を行うかどうかの制御フラグや、拡張あるいは縮小するビット長を示す情報な どを含むビット変換情報 2003を出力する。このビット変換情報に含まれる制御フラグ は、たとえば符号ィ匕データ 117にビット拡張情報 2004として多重化されているシンタ タス(図 36)の値に基づいて、図 40のようにそれぞれ設定され、ビット変換情報 2003 に含められる。
[0190] 量子化直交変換係数情報 107は、逆量子化器 109及び逆直交変換器 110により、 量子化器 106及び直交変翻104の処理と逆の処理を順次受けて残差信号 201に 変換される(S203)。動きベクトル/予測モード情報 116は予測画像作成器 115に 入力され、フレームメモリ 114に格納され、画素ビット長変^ ^2008によって必要に 応じて各画素のビット長が変換された復号画像信号 203から動きベクトル Z予測モ ード情報 116に基づく予測画像信号 102が生成される(S204)。
[0191] 予測画像信号 102は画素ビット長縮小器 2006に入力され、ビット変換情報 2003 に含まれている制御フラグ F2006に基づいて、予測画像信号 102の各画素のビット 長を変換するかどうかを判定する(S205)。制御フラグ F2006が ONの場合には、画 素ビット長拡張器 2006内のスィッチ E2を ONに設定し、予測画像信号 102の各画 素のビット長を、第 4の実施形態における画素ビット長拡張器 2006で行われる処理と 同様の処理によって縮小する(S206)。制御フラグ F2006が OFFの場合には画素 のビット長を変換する処理は行わな 、。 [0192] 画素ビット長縮小器 2006から出力された予測画像信号 102と残差信号 201は、加 算器 111によって加算され、復号画像信号が生成される (S207)。復号画像信号 20 3は画素ビット長拡張器 2005に入力される。画素ビット長変換器 2005では、ビット変 換情報 2003に含まれて 、る制御フラグ F2005に基づ 、て、復号画像信号 203の各 画素のビット長を拡張するかどうかを判定する(S208)。制御フラグ F2005が ONの 場合には、画素ビット長拡張器 2005内のスィッチ E1を ONに設定し、復号画像信号 203の各画素のビット長を、第 4の実施形態における画素ビット長変換器 2005で行 われる処理と同様の処理によって拡張する(S209)。制御フラグ F2005が OFFの場 合には画素のビット長を変換する処理は行わない。
[0193] 画素ビット長拡張器 2005から出力された復号画像信号 203はループフィルタ 113 で必要に応じてフィルタ処理がなされた後出力され、画素ビット長縮小器 2001およ び画素ビット長変 ^2007に出力される。
[0194] 画素ビット長変換器 2007に復号画像信号 203が入力されると、画素ビット長変換 器 2007は、ビット変換情報 2003に含まれている制御フラグ F2007に基づいて、復 号画像信号 203の各画素のビット長を変換するかどうかを判定する(S210)。制御フ ラグ F2007が ONの場合には、画素ビット長拡張器 2007内のスィッチ E3が ONに設 定され、復号画像信号 203の各画素のビット長が、第 3の実施形態における画素ビッ ト長変 ^2007で行われる処理と同様の処理によって変換される(S211)。制御フ ラグ F2007が OFFの場合には画素のビット長を変換する処理は行わない。
[0195] 画素ビット長変換器 2007から出力された復号画像信号 203はフレームメモリ 114 に格納される(S 212)。フレームメモリ 114に格納された復号画像信号 203が画素ビ ット長変 ^^2008に入力されると、画素ビット長変 ^^2008はビット変換情報 2003 に含まれている制御フラグ F2008に基づいて、復号画像信号 203の各画素のビット 長を変換するかどうかを判定する(S213)。制御フラグ F2008が ONの場合には、画 素ビット長拡張器 2008内のスィッチ E3を ONに設定し、復号画像信号 203の各画 素のビット長を、第 3の実施形態における画素ビット長変換器 2008で行われる処理と 同様の処理によって変換する(S214)。制御フラグ F2008が OFFの場合には画素 のビット長を変換する処理は行わな 、。画素ビット長変 ^^2008から出力された画 像信号は予測画像作成器 115に入力される (S215)。
[0196] 復号画像信号 203はループフィルタ 113で必要に応じてフィルタ処理され、画素ビ ット長縮小器 2001に出力される。画素ビット長縮小器 2001に復号画像信号 203が 入力されると、画素ビット長縮小器 2001は、ビット変換情報 2003に含まれている制 御フラグ F2001に基づいて、復号画像信号 203の各画素のビット長を変換するかど うかを判定する(S216)。制御フラグ F2001が ONの場合には、画素ビット長拡張器 2001内のスィッチ E2を ONに設定し、復号画像信号 203の各画素のビット長を、第 1の実施形態における画素ビット長縮小器 2001と同様の処理によって縮小する(S2 17)。制御フラグ F2001が OFFの場合には画素のビット長を変換する処理は行わず 、そのまま復号画像信号 202として出力される。
[0197] 以上のようにして、画像符号化装置に入力された入力画像と同じ Nビット精度の復 号画像 202が画素ビット長縮小器 2001より出力される(S218)。
[0198] 以上のような図 35、 39のような構成においては、符号化データに含まれるシンタク ス情報に基づいて、フレームメモリ、直交変換および量子化の演算精度をフラグによ つてそれぞれ切り替えることができ、符号化器側、あるいは復号化器側の演算コスト の制約に応じて、適切な演算精度で符号ィ匕を行うことが可能となる。この構成におい ては、いずれかの制御フラグが ONとなっていれば、予測画像作成器に入力される画 像信号の画素ビット長は、入力画像信号 100より大きな精度で入力されるため、予測 画像作成の演算精度を高めることができ、符号ィ匕効率を向上させることができる。
[0199] 図 35、 39において画素ビット長拡張器、画素ビット長縮小器、画素ビット長変換器 の一部を省略し、第 2〜第 5の実施形態で示した構成とし、画素ビット長拡張器、画 素ビット長縮小器、画素ビット長変翻において、ビット長の変換を行うかどうかを例 えば図 36で示したシンタクスにおける ex_seq_all_bit_extention _flagで指定されて!、る 値に従って決定し、 ex_seq_all_bit_extention_flagが TRUEならば、各構成における画素 ビット長拡張器、画素ビット長縮小器、画素ビット長変翻において各画素のビット長 を変換する処理を行 ヽ、 FALSEなら変換処理を行わな ヽような制御を行うことも可能 である。
[0200] 量子化 Z逆量子化を行う際、入力画像が Nビット相当の場合に量子化する量子化 ステップ幅を Qstepとした場合、第 2、第 3の実施形態における量子化 Z逆量子化で 用いる量子化ステップ幅 Qstep'は、ビット精度を Mビット拡大'縮小すると、残差の精 度が(N + M)ビットに拡大されて 、ることを考慮し、以下の式で計算される Qstep,を 用いてもよい。
Qstep' = Qstep « M (16)
これによつて、 Nビット同等の入力画像をそのまま符号ィ匕した場合とほぼ同等の符 号量の符号ィ匕データを得ることができる。このように、量子化ステップ幅を拡張するビ ット長に応じて変化させた場合に、符号ィ匕効率が向上する理由を図 41, 42を用いて 説明する。図 41は各画素位置での、入力画素値(8bit)に対する、 H. 264による 8bi t精度の予測画素値と、本実施形態による 12bit精度の予測画素値とを示すテープ ルであり、図 42はこれをグラフにしたものである(半画素位置の補間フィルタは、 6タツ プ { 1Z32, - 5/32, 20/32, 20/32, - 5/32, 1,32}とする)。
[0201] 前述のとおり、入力画像信号が 8ビットであった場合(図 42では正方形のプロットで 表わされている)に、予測画像信号を入力画像信号と同じ 8ビットで作成した場合 (図 42ではひし形のプロットで表されている)には、半画素位置に補間される画素の画素 値は丸め誤差が生じる。これに対して、例えば本実施形態で述べたようなビット拡張 を行い、例えば 12ビットの予測画像を作成した場合(図 42では円形のプロットで表さ れている)には、半画素位置に補間される画素の画素値の丸め誤差は小さくなる。ビ ット拡張を行った場合には、ビット拡張を行う前と比較して残差のビット精度が 12ビッ トに拡大するため、ビット拡張を行わずに 8ビットで残差を求めた場合と比較して残差 の絶対値は大きくなるが、丸め誤差が小さくなつているため、数式(16)で示した量子 ィ匕ステップ幅で量子化し、ほぼ同じ符号量とした際の誤差力 、さくなり、結果として符 号ィ匕効率を向上させることが可能となる。
[0202] 本実施形態では、図 43に示すように、入力画像のビット精度よりも Mビット大きなビ ット精度で行うことができ、予測画像信号が入力画像信号より Mビット大きな精度をも つて作成されるため、動き補償のフィルタやループフィルタ、画面内予測などの精度 を高めることができ、結果的に予測誤差信号を小さくすることができるため、符号化効 率を向上させることができる。 [0203] 本発明は、ビデオ装置に限らず、オーディオ装置に適用することができる。
[0204] なお、本発明は上記実施形態そのままに限定されるものではなぐ実施段階ではそ の要旨を逸脱しない範囲で構成要素を変形して具体ィ匕できる。また、上記実施形態 に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成で きる。例えば、実施形態に示される全構成要素カゝら幾つかの構成要素を削除しても よい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
[0205] 本発明によれば、画面内予測や動き補償の精度を十分高めることによって符号ィ匕 効率を向上させことが可能になる。
産業上の利用可能性
[0206] ビデオ、オーディオ装置、モパイル機器、放送、情報端末、ネットワークなどの各分 野に渡り動画像、静止画像、音声などの符号化及び復号化に適用できる。

Claims

請求の範囲
[1] 入力画像の各画素のビット精度を変換することによって異なるビット精度の変換入 力画像を生成し、ビット精度に対する変換を示すビット変換情報を出力する画素ビッ ト精度変換器と、
前記入力変換画像を符号化し画像符号化情報を出力する画像符号化器と、 前記ビット変換情報と前記画像符号ィ匕情報とを多重化する多重化器とを備えた画 像符号化装置。
[2] Nビット精度をそれぞれ持つ複数の画素により構成される入力画像の各画素のビッ ト精度を Mビット大きな (N + M)ビット精度に変換する画素ビット精度変翻と、
(N + M)ビット精度の前記入力画像に対する (N + M)ビット精度の予測画像を、 ( N + M)ビット精度の参照画像から作成する予測画像作成器と、
(N + M)ビット精度の前記入力画像と (N + M)ビット精度の前記予測画像との差分 信号を求める減算器と、
前記差分信号を符号化して画像符号化情報を出力する符号化器と、
前記画像符号化情報に基づいて復号差分画像を出力する復号化器と、
(N + M)ビット精度の前記予測画像と前記復号差分画像とを加算して (N + M)ビ ット精度の復号画像を出力する加算器と、
(N + M)ビット精度の前記復号画像を前記参照画像として保存する参照画像格納 メモリとを備えた画像符号ィ匕装置。
[3] 前記画像符号化装置は、前記参照画像格納メモリの前段に、(N + M)ビット精度 の前記復号画像の各画素を (N + M— L) (ただし、 Lは L≤Mを満たす整数)ビット精 度に変換する第 1の画素ビット精度変翻を更に備え、
前記参照画像格納メモリは、(N + M— L)ビット精度の前記復号画像を前記参照 画像として保存し、
前記画像符号化装置は、前記参照画像格納メモリの後段に、(N + M— L)ビット精 度の前記参照画像の各画素を (N + M)ビット精度に変換する第 2の画素ビット精度 変換器を更に備えた請求の範囲第 2項に記載の画像符号ィ匕装置。
[4] Nビット精度の入力画像に対し、(N + M)ビット精度の予測画像を (N + M)ビット精 度の参照画像から作成する予測画像作成器と、
(N + M)ビット精度の前記予測画像の各画素を Nビット精度に縮小変換する画素 ビット精度縮小変翻と、
Nビット精度の前記入力画像と Nビット精度に変換された前記予測画像との差分信 号を求める減算器と、
前記差分信号を符号化して画像符号化情報を出力する符号化器と、
前記画像符号化情報に基づいて復号差分画像を出力する復号化器と、
Nビット精度に変換された前記予測画像と前記復号差分画像とを加算して Nビット 精度の復号画像を出力する加算器と、
Nビット精度の前記復号画像の各画素の値を Mビット大きな (N + M)ビット精度に 変換する画素ビット精度変翻と、
(N + M)ビット精度の前記復号画像を前記参照画像として保存する参照画像格納 メモリとを備えた画像符号ィ匕装置。
Nビット精度の入力画像に対し、(N + M)ビット精度の予測画像を (N + M)ビット精 度の参照画像から作成する予測画像作成器と、
(N + M)ビット精度の前記予測画像の各画素を Nビット精度の画素に変換する画 素ビット精度変換器と、
Nビット精度の前記入力画像と Nビット精度の前記予測画像との差分信号を求める 減算器と、
前記差分信号を符号化して画像符号化情報を出力する符号化器と、
前記画像符号化情報に基づいて復号差分画像を出力する復号化器と、
Nビット精度の前記予測画像と前記復号差分画像とを加算して Nビット精度の復号 画像を出力する加算器と、
Nビット精度の前記復号画像を前記参照画像として保存する参照画像格納メモリと 前記参照画像格納メモリに格納された Nビット精度の前記参照画像の各画素を M ビット大きな (N + M)ビット精度に拡張変換する画素ビット精度変翻と、を備えた画 像符号化装置。 [6] 前記画像符号化情報は、ビット変換情報として、任意の符号化単位毎に、拡張する ビット数 Mを示すデータを含む、請求の範囲第 1項ないし第 5項のいずれか 1項に記 載の画像符号化装置。
[7] 前記画像符号化情報は、ビット変換情報として、任意の符号化単位毎に、前記参 照画像格納メモリのビット精度 (N + M— L)を示すデータを含む、請求の範囲第 3項 に記載の画像符号ィ匕装置。
[8] 前記画像符号化情報は、ビット変換情報として、任意の符号化単位毎に、復号画 像を出力する際のビット精度 Nを示すデータを含む、請求の範囲第 2項ないし第 5項 の!、ずれか 1項に記載の画像符号化装置。
[9] 前記画素ビット精度変換器は、前記入力画像の各画素の値をビット精度が異なる 値に変換した後に、該入力画像の各コンポーネントを異なる色空間に変換する、請 求の範囲第 1項に記載の画像符号化装置。
[10] 前記画素ビット精度変換器は、 Nビット精度の前記画像の各画素の値を Mビット大 きな (N + M)ビット精度に変換した後に、該画像の各コンポーネントを異なる色空間 に変換する、請求の範囲第 2項ないし第 5項のいずれか 1項に記載の画像符号ィ匕装 置。
[11] 前記画像符号化情報は、ビット変換情報として、任意の符号化単位毎に、拡張する ビット数 Mを示すデータと前記復号画像を出力する際の色空間を示すデータを含む 、請求の範囲第 9項または第 10項に記載の画像符号ィ匕装置。
[12] 前記画像符号化情報は、ビット変換情報として、任意の符号化単位毎に、前記復 号画像を出力する際のビット精度 Nと前記復号画像を出力する際の色空間を示すデ ータを含む、請求の範囲第 9項または第 10項に記載の画像符号ィ匕装置。
[13] 前記予測画像作成器は、適応補間フィルタ情報に基づ 、て予測画像を生成し、前 記画像符号化情報は、前記適応補間フィルタ情報を含む、請求の範囲第 2項ないし 第 5項の 、ずれか 1項に記載の画像符号化装置。
[14] 前記画像符号化装置は、前記復号画像に対し、フィルタ処理情報に基づ!ヽてフィ ルタ処理を行うフィルタを参照画像メモリの前段にさらに備え、前記画像符号化情報 は、前記フィルタ処理情報を含む、請求の範囲第 2項ないし第 5項のいずれか 1項に 記載の画像符号化装置。
[15] 前記画素ビット精度変換器は、各画素のビット精度が Nビットの入力画像の各画素 を Mビット大きな (N + M)ビット精度に変換した後に、前記入力画像にフィルタ処理 情報に基づ 、たフィルタ処理を行うフィルタをさらに備える、請求の範囲第 1項な 、し 第 3項の 、ずれか 1項に記載の画像符号化装置。
[16] 前記画素ビット精度変換器は、 Nビット精度の入力画像の各画素を Mビット大きな( N + M)ビット精度の画素に変換した後に、前記入力画像にフィルタ処理情報に基づ いたフィルタ処理を行うフィルタをさらに備え、前記画像符号化情報は、前記フィルタ 処理情報を含む、請求の範囲第 1項ないし第 3項のいずれか 1項に記載の画像符号 化装置。
[17] 前記画素ビット精度変換器は、 Nビット精度の入力画像の各画素を Mビット大きな( N + M)ビット精度の画素に変換した後に、前記入力画像に Mビット以下の語長の透 力し情報を付加する透力し情報埋込器をさらに備える、請求の範囲第 14項に記載の 画像符号化装置。
[18] 前記画像符号化情報は、ビット変換情報として、任意の符号化単位毎に、画像信 号の各画素のビット精度を Mビット拡張するかどうかのフラグを含む、請求の範囲第 1 項な ヽし第 5項の 、ずれか 1項に記載の画像符号化装置。
[19] 前記画像符号化情報は、ビット変換情報として、任意の符号化単位毎に、画像信 号の各画素のビット精度を Mビット拡張するかどうかのフラグを含み、さらに拡張する ビット数 Mを示すデータを含む、請求の範囲第 1項ないし第 5項のいずれか 1項に記 載の画像符号化装置。
[20] ビット変換情報と画像符号ィ匕情報とが多重化された画像情報を入力してビット変換 情報と画像符号化情報に分離する多重化分離器と、
前記画像符号化情報を復号化し復号画像を出力する画像復号化器と、 前記ビット変換情報に基づいて前記復号画像の各画素の値をビット精度が異なる ビット精度に変換する画素ビット精度変換器と、を備えた画像復号化装置。
[21] 入力符号化画像情報を (N + M)ビット精度の復号差分画像に復号する復号化器と 前記符号化画像情報を用いて (N + M)ビット精度の参照画像から (N + M)ビット 精度の予測画像を作成する予測画像作成器と、
前記復号差分画像と前記予測画像とを加算して (N + M)ビット精度の復号画像を 得る加算器と、
(N + M)ビット精度の前記復号画像を前記参照画像として保存する参照画像格納 メモリと、
(N + M)ビット精度の前記復号画像の各画素を Nビット精度に変換し Nビット精度 の復号画像を出力する画素ビット精度変換器と、を備えた画像復号化装置。
[22] 符号ィ匕画像情報を入力して (N + M)ビット精度の復号差分画像を出力する復号化 器と、
(N + M -L)ビット精度の参照画像の各画素を (N + M)ビット精度の画素に変換し (N + M)ビット精度の復号画像を出力する画素ビット精度拡張変翻と、 前記符号化画像情報を用いて (N + M)ビット精度の参照画像から (N + M)ビット 精度の予測画像を作成する予測画像作成器と、
前記復号差分画像と前記予測画像とを加算して (N + M)ビット精度の復号画像を 得る加算器と、
(N + M)ビット精度の前記復号画像の各画素を (N + M— L)ビット精度の画素に 変換し (N + M— L)ビット精度の復号画像を出力するとともに、(N + M)ビット精度の 前記復号画像の各画素を Nビット精度の画素に変換し、 Nビット精度の復号画像を 出力する画素ビット精度縮小変翻と、
(N + M— L)ビット精度の前記復号画像を前記参照画像として保存する参照画像 格納メモリと、を備えた画像復号化装置。
[23] 符号化画像情報を入力して Nビット精度の復号差分画像を出力する復号化器と、 前記符号化された画像情報を用いて (N + M)ビット精度の参照画像から (N + M) ビット精度の予測画像を作成する予測画像作成器と、
(N + M)ビット精度の前記予測画像の各画素を Nビット精度の画素に変換し Nビッ ト精度の予測画像を出力する画素ビット精度変換器と、
前記復号差分画像と前記予測画像とを加算して Nビット精度の復号画像を得る加 算器と、
Nビット精度の前記復号画像の各画素を (N + M)ビット精度の画素に変換し (N + M)ビット精度の復号画像を出力する画素ビット精度拡張変翻と、
(N + M)ビット精度の前記復号画像を前記参照画像として保存する参照画像格納 メモリと、を備えた画像復号化装置。
[24] 符号化画像情報を入力して Nビット精度の復号差分画像を出力する復号化器と、
Nビット精度の参照画像の各画素を (N + M)ビット精度の画素に変換し (N + M)ビ ット精度の参照画像を出力する画素ビット精度変翻と、
前記符号化された画像情報を用いて (N + M)ビット精度の前記参照画像から (N + M)ビット精度の予測画像を作成する予測画像作成器と、
(N + M)ビット精度の前記予測画像の各画素を Nビット精度の画素に変換し Nビッ ト精度の予測画像を出力する画素ビット精度変換器と、
前記復号差分画像と前記予測画像とを加算して Nビット精度の復号画像を得る加 算器と、
Nビット精度の前記復号画像を前記参照画像として保存する参照画像格納メモリと を備えた、画像復号化装置。
[25] 前記符号化画像情報は、ビット変換情報として、任意の符号化単位毎に、拡張する ビット数 Mを示すビット変換情報を含み、
前記変換器は、前記ビット変換情報に基づいて、前記画像の各画素のビット精度の 拡張又は縮小を行う、請求の範囲第 20項ないし第 24項のいずれか 1項に記載の画 像復号化装置。
[26] 前記符号化画像情報は、ビット変換情報として、任意の符号化単位毎に、前記参 照画像格納メモリのビット精度 (N + M— L)を示すデータを含み、
前記画素ビット精度拡張変換器及び前記画素ビット精度縮小変換器は、前記ビット 変換情報に基づいて前記拡張変換及び前記縮小変換を行い、(N + M— L)ビット精 度の前記参照画像として参照画像格納メモリに格納する、請求の範囲第 22項に記 載の画像復号化装置。
[27] 前記符号化された画像情報は、ビット変換情報として、任意の符号化単位毎に、復 号画像を出力する際のビット精度 Nを示すビット変換情報を含み、
前記ビット変換情報に基づいて、前記復号画像のビット精度を、前記復号画像を出 力する際のビット精度 Nと同じ精度を持つものに変換する、請求の範囲第 20項ない し第 24項のいずれか 1項に記載の画像復号ィ匕装置。
[28] 前記画素ビット精度変換器は、前記復号画像の各コンポーネントを異なる色空間に 変換した後に、該復号画像の各コンポーネントの各画素を異なるビット精度に変換す る、請求の範囲第 20項に記載の画像復号化装置。
[29] 前記画素ビット精度縮小変換器は、(N + M)ビット精度の前記画像の各コンポーネ ントを異なる色空間に変換した後に、該画像の各コンポーネントの各画素を Nビット精 度の画素に変換する、請求の範囲第 21項ないし第 24項のいずれか 1項に記載の画 像復号化装置。
[30] 前記符号化された画像情報は、ビット変換情報として、任意の符号化単位毎に、拡 張するビット数 Mを示すビット変換情報と復号画像を出力する際の色空間を示すデ ータを含み、
前記変換器は、前記ビット変換情報に基づいて、前記復号画像を、前記復号画像 を出力する際の色空間を示すデータに色変換した後に、該色変換された復号画像 の各画素のビット精度の拡張及び縮小を行うことを特徴とする請求の範囲第 28項ま たは第 29項に記載の画像復号ィ匕装置。
[31] 前記符号化画像情報は、ビット変換情報として、任意の符号化単位毎に、復号画 像を出力する際の入力画像のビット精度 Nを示すビット変換情報と復号画像を出力 する際の色空間を示すデータを含み、
前記ビット変換情報に基づいて、前記復号画像を、前記復号画像を出力する際の 色空間を示すデータに色変換した後に、該色変換された復号画像を、前記復号画 像を出力する際のビット精度 Nと同じ精度を持つ画素に変換する、請求の範囲第 28 項または第 29項に記載の画像復号ィ匕装置。
[32] 前記符号化画像情報は、適応補間フィルタ情報を含み、前記予測画像作成器は、 前記適応補間フィルタ情報に基づいて、予測画像を作成する、請求の範囲第 20項 な!ヽし第 24項の 、ずれか 1項に記載の画像復号化装置。 [33] 前記符号化された画像情報は、フィルタ処理情報を含み、前記画像復号化装置は 、前記復号画像に対し、前記フィルタ処理情報に基づいてフィルタ処理を行うフィル タをさらに備える、請求の範囲第 20項ないし第 24項のいずれか 1項に記載の画像復 号化装置。
[34] 前記画素ビット精度変換器は、前記復号画像に対しフィルタ処理を行うフィルタをさ らに備え、前記フィルタが前記復号画像に対しフィルタ処理を行った後に、(N + M) ビット精度の前記復号画像の各画素を Nビット精度の画素に変換し Nビット精度の復 号画像を出力する、請求の範囲第 20項ないし第 24項のいずれか 1項に記載の画像 復号化装置。
[35] 前記符号化画像情報は、フィルタ処理情報を含み、前記画素ビット精度変換器は、 前記復号画像に対し前記フィルタ処理情報に基づいてフィルタ処理を行うフィルタを さらに備え、前記フィルタが前記復号画像に対しフィルタ処理を行った後に、(N + M )ビット精度の前記復号画像の各画素を Nビット精度の画素に変換し Nビット精度の 復号画像を出力する、請求の範囲第 20項ないし第 24項のいずれか 1項に記載の画 像復号化装置。
[36] 前記画像復号化装置は、前記加算器の後段に復号画像に埋め込まれた透かし情 報を検出する透かし検出器をさらに備える、請求の範囲第 20項に記載の画像復号 化装置。
[37] 前記画像符号化情報は、ビット変換情報として、任意の符号化単位毎に、 Mビット 拡張するかどうかのフラグを含み、前記フラグが FALSEの場合には前記変換器は変 換を行わず、前記フラグ力 STRUEの場合には、前記変翻は、前記ビット変換情報に 基づいて、前記画像の各画素のビット精度の拡張又は縮小を行う、請求の範囲第 20 項な 、し第 24項の 、ずれか 1項に記載の画像復号化装置。
[38] 前記画像符号化情報は、ビット変換情報として、任意の符号化単位毎に、 Mビット 拡張するかどうかのフラグと、拡張するビット数 Mを示すデータを含み、前記フラグが FALSEの場合には前記変 は変換を行わず、前記フラグ力 STRUEの場合には、前 記変換器は、前記ビット変換情報に基づいて、前記画像の各画素のビット精度の拡 張又は縮小を行う、請求の範囲第 20項な 、し第 24項の 、ずれか 1項に記載の画像 復号化装置。
[39] 入力画像の各画素のビット精度を変換することによって異なるビット精度の変換入 力画像を生成するステップと、
変換を示すビット変換情報を出力するステップと、
前記入変換力画像を符号ィ匕し画像符号ィ匕情報を出力するステップと、 前記ビット変換情報と前記画像符号ィ匕情報とを多重化するステップと、を有する画 像符号化方法。
[40] Nビット精度をそれぞれ持つ複数の画素により構成される入力画像の各画素のビッ ト精度を Mビット大きな (N + M)ビット精度に変換するステップと、
(N + M)ビット精度の前記入力画像に対する (N + M)ビット精度の予測画像を、 (
N + M)ビット精度の参照画像から作成するステップと、
(N + M)ビット精度の前記入力画像と (N + M)ビット精度の前記予測画像との差分 信号を求めるステップと、
前記差分信号を符号化して画像符号化情報を出力するステップと、
前記画像符号ィ匕情報に基づいて復号差分画像を出力するステップと、 (N + M)ビット精度の前記予測画像と前記復号差分画像とを加算して (N + M)ビ ット精度の復号画像を出力するステップと、
(N + M)ビット精度の前記復号画像を前記参照画像として参照画像格納メモリ〖こ 保存するステップと、を含む画像符号化方法。
[41] ビット変換情報と画像符号ィ匕情報とが多重化された入力画像情報をビット変換情報 と画像符号化情報に分離するステップと、
前記画像符号化情報を復号化し復号画像を生成するステップと、
前記ビット変換情報に基づいて前記復号画像の各画素をビット精度が異なる画素 に変換するステップと、を有する画像復号化方法。
[42] 入力符号ィ匕画像情報を (N + M)ビット精度の復号差分画像に復号するステップと 前記入力符号化画像情報を用いて (N + M)ビット精度の参照画像から (N + M)ビ ット精度の予測画像を生成するステップと、 前記復号差分画像と前記予測画像とを加算して (N + M)ビット精度の復号画像を 生成するステップと、
(N + M)ビット精度の前記復号画像を前記参照画像として保存するステップと、 (N + M)ビット精度の前記復号画像の各画素の値を Nビット精度に変換し Nビット 精度の復号画像を生成するステップとを有する、画像復号化方法。
PCT/JP2006/320876 2006-03-30 2006-10-19 画像符号化装置及び画像符号化方法並びに画像復号化装置及び画像復号化方法 WO2007116551A1 (ja)

Priority Applications (15)

Application Number Priority Date Filing Date Title
PCT/JP2007/057197 WO2007114368A1 (ja) 2006-03-30 2007-03-30 画像符号化装置及び方法並びに画像復号化装置及び方法
CN2007800112005A CN101411202B (zh) 2006-03-30 2007-03-30 图像编码装置和方法以及图像解码装置和方法
JP2008508675A JP5254004B2 (ja) 2006-03-30 2007-03-30 画像符号化装置及び方法
RU2008138706/09A RU2433562C2 (ru) 2006-03-30 2007-03-30 Устройство и способ кодирования изображений и устройство и способ декодирования изображений
EP20070740633 EP2003897A4 (en) 2006-03-30 2007-03-30 IMAGE ENCODING APPARATUS AND METHOD, AND IMAGE DECODING APPARATUS AND METHOD
KR1020087023440A KR101067955B1 (ko) 2006-03-30 2007-03-30 화상 부호화 장치 및 방법과, 화상 복호화 장치 및 방법
AU2007232828A AU2007232828B2 (en) 2006-03-30 2007-03-30 Image coding apparatus and method, and image decoding apparatus and method
BRPI0709853-7A BRPI0709853A2 (pt) 2006-03-30 2007-03-30 aparelho e mÉtodo de codificaÇço de imagem e aparelho e mÉtodo de decodificaÇço de imagem
CA 2645931 CA2645931A1 (en) 2006-03-30 2007-03-30 Image encoding apparatus and method and image decoding apparatus and method
CN201110243637XA CN102256132A (zh) 2006-03-30 2007-03-30 图像解码装置
MX2008012516A MX2008012516A (es) 2006-03-30 2007-03-30 Aparato y metodo de codificacion de imagen y aparato y metodo de descodificacion de imagen.
KR1020117001539A KR101110517B1 (ko) 2006-03-30 2007-03-30 동화상 부호화 장치 및 방법과, 동화상 복호화 장치 및 방법
NO20084509A NO20084509L (no) 2006-03-30 2008-10-27 Bildekoding og bildedekoding
HR20080553A HRP20080553A2 (en) 2006-03-30 2008-10-29 Image coding apparatus and method, and image decoding apparatus and method
JP2012110972A JP2012191642A (ja) 2006-03-30 2012-05-14 画像復号化装置及び方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006095597 2006-03-30
JP2006-095597 2006-03-30

Publications (1)

Publication Number Publication Date
WO2007116551A1 true WO2007116551A1 (ja) 2007-10-18

Family

ID=38580854

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/320876 WO2007116551A1 (ja) 2006-03-30 2006-10-19 画像符号化装置及び画像符号化方法並びに画像復号化装置及び画像復号化方法

Country Status (14)

Country Link
US (1) US8606028B2 (ja)
EP (1) EP2003897A4 (ja)
JP (2) JP5254004B2 (ja)
KR (2) KR101110517B1 (ja)
CN (2) CN102256132A (ja)
AU (1) AU2007232828B2 (ja)
BR (1) BRPI0709853A2 (ja)
CA (1) CA2645931A1 (ja)
HR (1) HRP20080553A2 (ja)
MX (1) MX2008012516A (ja)
NO (1) NO20084509L (ja)
RU (1) RU2433562C2 (ja)
WO (1) WO2007116551A1 (ja)
ZA (1) ZA200807977B (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011509594A (ja) * 2008-01-08 2011-03-24 テレフオンアクチーボラゲット エル エム エリクソン(パブル) ビデオ符号化及び復号においてdc変化パラメータを使用するシステム及び方法
WO2012008130A1 (ja) * 2010-07-13 2012-01-19 日本電気株式会社 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法及びプログラム
CN102474621A (zh) * 2009-07-09 2012-05-23 高通股份有限公司 视频编码中的非零舍入与预测模式选择技术
JP2013524554A (ja) * 2010-04-09 2013-06-17 シャープ株式会社 高効率な動画符号化のための符号語の制約
JP2014131172A (ja) * 2012-12-28 2014-07-10 Canon Inc 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
WO2014156707A1 (ja) * 2013-03-29 2014-10-02 ソニー株式会社 画像符号化装置および方法、並びに、画像復号装置および方法
US8995526B2 (en) 2009-07-09 2015-03-31 Qualcomm Incorporated Different weights for uni-directional prediction and bi-directional prediction in video coding
JP2017200191A (ja) * 2017-05-25 2017-11-02 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
JP2018142969A (ja) * 2018-04-11 2018-09-13 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
CN110620935A (zh) * 2018-06-19 2019-12-27 杭州海康慧影科技有限公司 图像处理方法及装置
JP2020092455A (ja) * 2013-04-08 2020-06-11 ドルビー・インターナショナル・アーベー ルックアップ・テーブルを符号化する方法および復号する方法、並びに対応する装置
WO2020162293A1 (ja) * 2019-02-06 2020-08-13 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法および画像処理システム
CN114402610A (zh) * 2019-09-13 2022-04-26 北京字节跳动网络技术有限公司 视频编解码中的加权样点双向预测

Families Citing this family (115)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8194997B2 (en) * 2006-03-24 2012-06-05 Sharp Laboratories Of America, Inc. Methods and systems for tone mapping messaging
US8208560B2 (en) * 2007-10-15 2012-06-26 Intel Corporation Bit depth enhancement for scalable video coding
US8204333B2 (en) 2007-10-15 2012-06-19 Intel Corporation Converting video and image signal bit depths
KR101365444B1 (ko) * 2007-11-19 2014-02-21 삼성전자주식회사 영상의 해상도의 조정을 통하여 동영상을 효율적으로부호화/복호화하는 방법 및 장치
JP5697301B2 (ja) 2008-10-01 2015-04-08 株式会社Nttドコモ 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、動画像復号プログラム、及び動画像符号化・復号システム
KR101619448B1 (ko) * 2008-11-18 2016-05-10 엘지전자 주식회사 영상 신호 처리 방법 및 장치
JP5640253B2 (ja) * 2008-12-01 2014-12-17 マーベル ワールド トレード リミテッド ビット解像度の向上のための装置及び方法
CN102273216A (zh) * 2009-01-08 2011-12-07 日本电气株式会社 分发系统、方法以及变换装置
US8860745B2 (en) * 2009-06-01 2014-10-14 Stmicroelectronics, Inc. System and method for color gamut mapping
US8711930B2 (en) * 2009-07-09 2014-04-29 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
KR101474756B1 (ko) * 2009-08-13 2014-12-19 삼성전자주식회사 큰 크기의 변환 단위를 이용한 영상 부호화, 복호화 방법 및 장치
JP5604825B2 (ja) * 2009-08-19 2014-10-15 ソニー株式会社 画像処理装置および方法
JP2011050001A (ja) * 2009-08-28 2011-03-10 Sony Corp 画像処理装置および方法
EP2494780B1 (en) * 2009-10-29 2020-09-02 Vestel Elektronik Sanayi ve Ticaret A.S. Method and device for processing a video sequence
EP2504814B1 (en) * 2009-11-24 2017-05-03 Telefonaktiebolaget LM Ericsson (publ) Decoding system and method operable on encoded texture element blocks
KR101743482B1 (ko) * 2010-01-22 2017-06-07 삼성전자주식회사 영역 기반의 부호화/복호화 장치 및 방법
JP5660361B2 (ja) * 2010-03-26 2015-01-28 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP5323252B2 (ja) 2010-03-30 2013-10-23 株式会社東芝 動画像符号化方法、復号化方法、符号化装置および復号化装置
US9369736B2 (en) 2010-04-05 2016-06-14 Samsung Electronics Co., Ltd. Low complexity entropy-encoding/decoding method and apparatus
WO2011126283A2 (en) * 2010-04-05 2011-10-13 Samsung Electronics Co., Ltd. Method and apparatus for encoding video based on internal bit depth increment, and method and apparatus for decoding video based on internal bit depth increment
WO2011126272A2 (en) * 2010-04-05 2011-10-13 Samsung Electronics Co., Ltd. Method and apparatus for encoding video by using dynamic-range transformation, and method and apparatus for decoding video by using dynamic-range transformation
KR101710623B1 (ko) * 2010-04-05 2017-03-09 삼성전자주식회사 컨텐트에 기반한 다이나믹 레인지 변환을 이용하는 비디오 부호화 방법과 그 장치, 및 컨텐트에 기반한 다이나믹 레인지 변환을 이용하는 비디오 복호화 방법과 그 장치
EP2559239A2 (en) * 2010-04-13 2013-02-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus for intra predicting a block, apparatus for reconstructing a block of a picture, apparatus for reconstructing a block of a picture by intra prediction
JP5073004B2 (ja) 2010-04-23 2012-11-14 株式会社東芝 画像符号化装置及び画像符号化方法並びに画像復号化装置及び画像復号化方法
US9094658B2 (en) * 2010-05-10 2015-07-28 Mediatek Inc. Method and apparatus of adaptive loop filtering
US8861617B2 (en) 2010-10-05 2014-10-14 Mediatek Inc Method and apparatus of region-based adaptive loop filtering
EP2445214A1 (en) * 2010-10-19 2012-04-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Video coding using temporally coherent dynamic range mapping
BR112013011053A8 (pt) * 2010-11-10 2016-08-23 Sony Corp Dispositivo e método de processamento de imagem
CN105791856B (zh) 2010-11-23 2019-07-12 Lg电子株式会社 由编码装置和解码装置执行的间预测方法
WO2012093377A1 (en) 2011-01-07 2012-07-12 Nokia Corporation Motion prediction in video coding
US8923389B1 (en) * 2011-01-13 2014-12-30 Zenverge, Inc. Unified scaling with differential coding for internal bit depth extension and reference frame compression
KR20120082606A (ko) * 2011-01-14 2012-07-24 삼성전자주식회사 깊이 영상의 부호화/복호화 장치 및 방법
US8786899B2 (en) 2011-01-28 2014-07-22 Ricoh Production Print Solutions LLC Conversion arrays for print image data transformation
BR112013003102B1 (pt) 2011-02-22 2022-04-19 Sun Patent Trust Método de codificação de imagem, método de decodificação de imagem, aparelho de codificação de imagem, e aparelho de decodificação de imagem
CN105245904B (zh) 2011-02-22 2018-09-18 太格文-Ii有限责任公司 图像编码解码装置
BR122020013613B1 (pt) 2011-03-11 2023-02-23 Sony Corporation Aparelho e método de processamento de imagem
US9521434B2 (en) * 2011-06-09 2016-12-13 Qualcomm Incorporated Internal bit depth increase in video coding
JP5552093B2 (ja) * 2011-06-13 2014-07-16 日本電信電話株式会社 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム
PT4135322T (pt) 2011-06-23 2024-09-17 Huawei Tech Co Ltd Dispositivo de descodificação de desvios, dispositivo de codificação de desvios, dispositivo de filtro de imagem e estrutura de dados
DK3313074T3 (da) 2011-06-28 2021-10-25 Sony Group Corp Anordning til billedbehandling, fremgangsmåde til billedbehandling
EP3661201B1 (en) 2011-07-19 2021-02-17 Tagivan Ii Llc Filtering method, moving image decoding method, moving image encoding method, moving image decoding apparatus, moving image encoding apparatus, and moving image encoding/decoding apparatus
CN106878732B (zh) * 2011-08-11 2019-09-17 太阳专利托管公司 图像解码方法及图像解码装置
US9510020B2 (en) 2011-10-20 2016-11-29 Qualcomm Incorporated Intra pulse code modulation (IPCM) and lossless coding mode deblocking for video coding
GB201119206D0 (en) 2011-11-07 2011-12-21 Canon Kk Method and device for providing compensation offsets for a set of reconstructed samples of an image
US9392235B2 (en) 2011-11-18 2016-07-12 Google Technology Holdings LLC Explicit way for signaling a collocated reference picture for video coding
US9445090B2 (en) 2011-11-18 2016-09-13 Google Technology Holdings LLC Explicit way for signaling a collocated picture for high efficicency video coding (HEVC) using reference list0 and list1
US9386311B2 (en) * 2011-12-01 2016-07-05 Intel Corporation Motion estimation methods for residual prediction
BR122020014280B1 (pt) * 2011-12-28 2022-05-10 JVC Kenwood Corporation Dispositivo codificador de vídeo, método codificador de vídeo, dispositivo decodificador de vídeo, e método decodificador de vídeo
US10616581B2 (en) 2012-01-19 2020-04-07 Huawei Technologies Co., Ltd. Modified coding for a transform skipped block for CABAC in HEVC
US20130188736A1 (en) 2012-01-19 2013-07-25 Sharp Laboratories Of America, Inc. High throughput significance map processing for cabac in hevc
US9860527B2 (en) 2012-01-19 2018-01-02 Huawei Technologies Co., Ltd. High throughput residual coding for a transform skipped block for CABAC in HEVC
US9743116B2 (en) 2012-01-19 2017-08-22 Huawei Technologies Co., Ltd. High throughput coding for CABAC in HEVC
US9654139B2 (en) 2012-01-19 2017-05-16 Huawei Technologies Co., Ltd. High throughput binarization (HTB) method for CABAC in HEVC
WO2013109879A1 (en) * 2012-01-19 2013-07-25 Cisco Technology Inc. Digital video compression system, method and computer readable medium
WO2013154674A1 (en) 2012-04-11 2013-10-17 Motorola Mobility Llc Evaluation of signaling of collocated reference picture for temporal prediction
RU2510944C2 (ru) * 2012-07-03 2014-04-10 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ кодирования/декодирования многоракурсной видео последовательности на основе адаптивной локальной коррекции яркости опорных кадров без передачи дополнительных параметров (варианты)
RU2643658C2 (ru) 2012-07-16 2018-02-02 Самсунг Электроникс Ко., Лтд. Способ кодирования видео и устройство кодирования видео и способ декодирования видео и устройство декодирования видео для сигнализации параметров sao
US9319681B2 (en) 2012-07-18 2016-04-19 Google Technology Holdings LLC Signaling of temporal motion vector predictor (MVP) enable flag
US20140056356A1 (en) * 2012-08-21 2014-02-27 Motorola Mobility Llc Method and apparatus for efficient signaling of weighted prediction in advanced coding schemes
KR101917224B1 (ko) * 2012-09-18 2018-11-13 엘지이노텍 주식회사 영상데이터 전송장치
CA2889671C (en) * 2012-11-27 2017-08-15 Lg Electroncs Inc. Signal transceiving apparatus and signal transceiving method
US20140301447A1 (en) * 2013-04-08 2014-10-09 Research In Motion Limited Methods for reconstructing an encoded video at a bit-depth lower than at which it was encoded
US9674538B2 (en) * 2013-04-08 2017-06-06 Blackberry Limited Methods for reconstructing an encoded video at a bit-depth lower than at which it was encoded
JP2015015595A (ja) * 2013-07-04 2015-01-22 富士通株式会社 動画像符号化装置、符号化モード判定方法及び符号化プログラム
EP3761641A1 (en) 2013-11-15 2021-01-06 MediaTek Inc. Method of block-based adaptive loop filtering
US10171833B2 (en) * 2014-03-04 2019-01-01 Microsoft Technology Licensing, Llc Adaptive switching of color spaces, color sampling rates and/or bit depths
WO2015131330A1 (en) 2014-03-04 2015-09-11 Microsoft Technology Licensing, Llc Encoding strategies for adaptive switching of color spaces, color sampling rates and/or bit depths
KR102216600B1 (ko) 2014-03-27 2021-02-16 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 컬러 공간 전환시의 양자화/스케일링 및 역 양자화/스케일링의 조정
EP2958329B1 (en) 2014-06-16 2018-12-05 Thomson Licensing Method for encoding and decoding an image block based on dynamic range extension, encoder and decoder
KR102184884B1 (ko) * 2014-06-26 2020-12-01 엘지디스플레이 주식회사 유기발광표시장치의 데이터 처리장치
JP6194427B2 (ja) * 2014-10-06 2017-09-06 テレフオンアクチーボラゲット エルエム エリクソン(パブル) 量子化パラメータのコーディング及び導出
US10687069B2 (en) 2014-10-08 2020-06-16 Microsoft Technology Licensing, Llc Adjustments to encoding and decoding when switching color spaces
KR20160061172A (ko) 2014-11-21 2016-05-31 삼성전자주식회사 디코더, 상기 디코더를 포함하는 디코딩 시스템, 및 상기 디코더의 동작 방법
WO2016140439A1 (ko) * 2015-03-02 2016-09-09 엘지전자(주) 향상된 예측 필터를 이용하여 비디오 신호를 인코딩, 디코딩하는 방법 및 장치
US9569816B2 (en) 2015-04-15 2017-02-14 Apple Inc. Debanding image data using bit depth expansion
WO2016182266A1 (ko) * 2015-05-12 2016-11-17 삼성전자 주식회사 영상의 부호화, 복호화 방법 및 장치
KR102252298B1 (ko) * 2016-10-21 2021-05-14 삼성전자주식회사 표정 인식 방법 및 장치
US10897269B2 (en) 2017-09-14 2021-01-19 Apple Inc. Hierarchical point cloud compression
US11818401B2 (en) 2017-09-14 2023-11-14 Apple Inc. Point cloud geometry compression using octrees and binary arithmetic encoding with adaptive look-up tables
US10861196B2 (en) 2017-09-14 2020-12-08 Apple Inc. Point cloud compression
US11113845B2 (en) 2017-09-18 2021-09-07 Apple Inc. Point cloud compression using non-cubic projections and masks
US10909725B2 (en) 2017-09-18 2021-02-02 Apple Inc. Point cloud compression
US10607373B2 (en) 2017-11-22 2020-03-31 Apple Inc. Point cloud compression with closed-loop color conversion
US10699444B2 (en) 2017-11-22 2020-06-30 Apple Inc Point cloud occupancy map compression
US11109046B2 (en) * 2018-02-14 2021-08-31 Sony Corporation Image processing apparatus and image processing method
KR102494880B1 (ko) * 2018-02-14 2023-02-06 소니그룹주식회사 화상 처리 장치 및 방법
US10909726B2 (en) 2018-04-10 2021-02-02 Apple Inc. Point cloud compression
US10867414B2 (en) 2018-04-10 2020-12-15 Apple Inc. Point cloud attribute transfer algorithm
US10939129B2 (en) 2018-04-10 2021-03-02 Apple Inc. Point cloud compression
US10909727B2 (en) 2018-04-10 2021-02-02 Apple Inc. Hierarchical point cloud compression with smoothing
US11010928B2 (en) 2018-04-10 2021-05-18 Apple Inc. Adaptive distance based point cloud compression
EP3554082A1 (en) 2018-04-11 2019-10-16 InterDigital VC Holdings, Inc. A method and device for coding the geometry of a point cloud
US11017566B1 (en) 2018-07-02 2021-05-25 Apple Inc. Point cloud compression with adaptive filtering
US11044478B2 (en) * 2018-07-02 2021-06-22 Apple Inc. Compression with multi-level encoding
US11202098B2 (en) 2018-07-05 2021-12-14 Apple Inc. Point cloud compression with multi-resolution video encoding
US11012713B2 (en) 2018-07-12 2021-05-18 Apple Inc. Bit stream structure for compressed point cloud data
US11386524B2 (en) 2018-09-28 2022-07-12 Apple Inc. Point cloud compression image padding
US11367224B2 (en) 2018-10-02 2022-06-21 Apple Inc. Occupancy map block-to-patch information compression
US11430155B2 (en) 2018-10-05 2022-08-30 Apple Inc. Quantized depths for projection point cloud compression
US11057564B2 (en) 2019-03-28 2021-07-06 Apple Inc. Multiple layer flexure for supporting a moving image sensor
CN112085183B (zh) * 2019-06-12 2024-04-02 上海寒武纪信息科技有限公司 一种神经网络运算方法及装置以及相关产品
CN114424547A (zh) * 2019-07-05 2022-04-29 威诺瓦国际有限公司 视频译码中的残差的量化
US11562507B2 (en) 2019-09-27 2023-01-24 Apple Inc. Point cloud compression using video encoding with time consistent patches
US11627314B2 (en) 2019-09-27 2023-04-11 Apple Inc. Video-based point cloud compression with non-normative smoothing
US11538196B2 (en) 2019-10-02 2022-12-27 Apple Inc. Predictive coding for point cloud compression
US11895307B2 (en) 2019-10-04 2024-02-06 Apple Inc. Block-based predictive coding for point cloud compression
US11798196B2 (en) 2020-01-08 2023-10-24 Apple Inc. Video-based point cloud compression with predicted patches
US11475605B2 (en) 2020-01-09 2022-10-18 Apple Inc. Geometry encoding of duplicate points
US11620768B2 (en) 2020-06-24 2023-04-04 Apple Inc. Point cloud geometry compression using octrees with multiple scan orders
US11615557B2 (en) 2020-06-24 2023-03-28 Apple Inc. Point cloud compression using octrees with slicing
EP4272446A4 (en) * 2020-12-29 2024-12-04 Guangdong Oppo Mobile Telecommunications Corp., Ltd. METHOD AND APPARATUS FOR INCREASING ACCURACY OF WEIGHTED PREDICTION FOR HIGH BIT DEPTH VVC CODING
US11838551B2 (en) * 2020-12-30 2023-12-05 Ofinno, Llc Adaptive block level bit-depth prediction
CN112788338B (zh) * 2020-12-31 2022-08-26 展讯通信(天津)有限公司 图像压缩及解压缩方法、设备、装置和存储介质
US11948338B1 (en) 2021-03-29 2024-04-02 Apple Inc. 3D volumetric content encoding using 2D videos and simplified 3D meshes
WO2022198144A1 (en) * 2021-03-30 2022-09-22 Innopeak Technology, Inc. Weighted prediction for video coding

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04326667A (ja) * 1991-04-26 1992-11-16 Konica Corp 画像データの圧縮伸張装置
JPH06311506A (ja) * 1992-12-25 1994-11-04 Mitsubishi Electric Corp フレーム間符号化処理方式及びフレーム間符号化処理方法及び符号化制御方式
JPH09205647A (ja) * 1996-01-24 1997-08-05 Fuji Xerox Co Ltd 画像符号化装置、画像復号化装置および画像処理装置
JPH1127673A (ja) * 1997-06-27 1999-01-29 Victor Co Of Japan Ltd ディジタル画像信号圧縮装置及びディジタル画像信号記録装置
JP2003333603A (ja) * 2002-04-10 2003-11-21 Microsoft Corp コンピュータ実施される方法、システムおよびコンピュータ可読媒体
JP2005503734A (ja) * 2001-09-17 2005-02-03 ノキア コーポレイション サブピクセル値補間方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08237669A (ja) 1995-02-28 1996-09-13 Sony Corp 画像信号処理装置、画像信号処理方法および画像信号復号化装置
JP3552811B2 (ja) * 1995-09-29 2004-08-11 三菱電機株式会社 ディジタル映像信号符号化装置および復号化装置
GB2333657B (en) * 1998-01-22 2002-08-21 Snell & Wilcox Ltd Video signal compression
JP2000023195A (ja) 1998-06-26 2000-01-21 Sony Corp 画像符号化装置及び方法、並びに画像復号装置及び方法、並びに符号化データ提供媒体
US8374237B2 (en) 2001-03-02 2013-02-12 Dolby Laboratories Licensing Corporation High precision encoding and decoding of video images
US6697521B2 (en) 2001-06-15 2004-02-24 Nokia Mobile Phones Ltd. Method and system for achieving coding gains in wavelet-based image codecs
JP3923898B2 (ja) * 2002-01-18 2007-06-06 株式会社東芝 画像符号化方法及び装置
GB2387054A (en) 2002-01-25 2003-10-01 Snell & Wilcox Ltd Video encoder for producing coded quantised signals
JP2003283872A (ja) 2002-03-26 2003-10-03 Matsushita Electric Ind Co Ltd 画像圧縮伸長処理装置
US7620109B2 (en) * 2002-04-10 2009-11-17 Microsoft Corporation Sub-pixel interpolation in motion estimation and compensation
JP2005051483A (ja) * 2003-07-28 2005-02-24 Sony Corp 画像処理装置、画像処理方法、画像表示装置および信号処理装置
JP4427713B2 (ja) 2003-09-03 2010-03-10 ソニー株式会社 符号化装置および符号化方法、撮像装置および画像処理方法、並びに、プログラム
EP1555832A3 (en) 2004-01-14 2011-05-18 Samsung Electronics Co., Ltd. Adaptive loop filtering for reducing blocking artifacts
US20050259729A1 (en) 2004-05-21 2005-11-24 Shijun Sun Video coding with quality scalability
JP4241517B2 (ja) * 2004-06-15 2009-03-18 キヤノン株式会社 画像符号化装置及び画像復号装置
CA2566349A1 (en) * 2004-07-13 2006-02-16 Dolby Laboratories Licensing Corporation Unbiased rounding for video compression
US8218634B2 (en) * 2005-01-13 2012-07-10 Ntt Docomo, Inc. Nonlinear, in-the-loop, denoising filter for quantization noise removal for hybrid video compression
EP3484154A1 (en) * 2006-10-25 2019-05-15 GE Video Compression, LLC Quality scalable coding
US8509316B2 (en) * 2007-01-09 2013-08-13 Core Wireless Licensing, S.a.r.l. Adaptive interpolation filters for video coding

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04326667A (ja) * 1991-04-26 1992-11-16 Konica Corp 画像データの圧縮伸張装置
JPH06311506A (ja) * 1992-12-25 1994-11-04 Mitsubishi Electric Corp フレーム間符号化処理方式及びフレーム間符号化処理方法及び符号化制御方式
JPH09205647A (ja) * 1996-01-24 1997-08-05 Fuji Xerox Co Ltd 画像符号化装置、画像復号化装置および画像処理装置
JPH1127673A (ja) * 1997-06-27 1999-01-29 Victor Co Of Japan Ltd ディジタル画像信号圧縮装置及びディジタル画像信号記録装置
JP2005503734A (ja) * 2001-09-17 2005-02-03 ノキア コーポレイション サブピクセル値補間方法
JP2003333603A (ja) * 2002-04-10 2003-11-21 Microsoft Corp コンピュータ実施される方法、システムおよびコンピュータ可読媒体

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011509594A (ja) * 2008-01-08 2011-03-24 テレフオンアクチーボラゲット エル エム エリクソン(パブル) ビデオ符号化及び復号においてdc変化パラメータを使用するシステム及び方法
US8995526B2 (en) 2009-07-09 2015-03-31 Qualcomm Incorporated Different weights for uni-directional prediction and bi-directional prediction in video coding
US9609357B2 (en) 2009-07-09 2017-03-28 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
CN102474621A (zh) * 2009-07-09 2012-05-23 高通股份有限公司 视频编码中的非零舍入与预测模式选择技术
US9161057B2 (en) 2009-07-09 2015-10-13 Qualcomm Incorporated Non-zero rounding and prediction mode selection techniques in video encoding
CN102474621B (zh) * 2009-07-09 2015-08-26 高通股份有限公司 视频编码中的非零舍入与预测模式选择技术
JP2013524554A (ja) * 2010-04-09 2013-06-17 シャープ株式会社 高効率な動画符号化のための符号語の制約
US9532073B2 (en) 2010-07-13 2016-12-27 Nec Corporation Video encoding device, video decoding device, video decoding method, video decoding method, and program
US10097847B2 (en) 2010-07-13 2018-10-09 Nec Corporation Video encoding device, video decoding device, video encoding method, video decoding method, and program
KR101513507B1 (ko) 2010-07-13 2015-04-21 닛본 덴끼 가부시끼가이샤 영상 복호 장치, 영상 복호 방법 및 프로그램을 저장한 컴퓨터 판독가능한 정보 기록 매체
KR101538362B1 (ko) * 2010-07-13 2015-07-22 닛본 덴끼 가부시끼가이샤 영상 복호 장치, 영상 복호 방법 및 영상 복호 프로그램을 저장한 컴퓨터 판독 가능한 저장 매체
KR101435095B1 (ko) * 2010-07-13 2014-08-28 닛본 덴끼 가부시끼가이샤 영상 부호화 장치, 영상 복호 장치, 영상 부호화 방법, 영상 복호 방법 및 프로그램을 기록한 컴퓨터 판독 가능한 정보 기록 매체
JP5807638B2 (ja) * 2010-07-13 2015-11-10 日本電気株式会社 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法及びプログラム
US9210427B2 (en) 2010-07-13 2015-12-08 Nec Corporation Video encoding device, video decoding device, video encoding method, video decoding method, and program
US9510011B2 (en) 2010-07-13 2016-11-29 Nec Corporation Video encoding device, video decoding device, video encoding method, video decoding method, and program
WO2012008130A1 (ja) * 2010-07-13 2012-01-19 日本電気株式会社 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法及びプログラム
JP2014239531A (ja) * 2010-07-13 2014-12-18 日本電気株式会社 映像復号装置、映像復号方法及びプログラム
US9936212B2 (en) 2010-07-13 2018-04-03 Nec Corporation Video encoding device, video decoding device, video encoding method, video decoding method, and program
JP2014131172A (ja) * 2012-12-28 2014-07-10 Canon Inc 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
WO2014156707A1 (ja) * 2013-03-29 2014-10-02 ソニー株式会社 画像符号化装置および方法、並びに、画像復号装置および方法
US11153605B2 (en) 2013-04-08 2021-10-19 Dolby Laboratories Licensing Corporation Method for encoding and method for decoding a LUT and corresponding devices
JP7233501B2 (ja) 2013-04-08 2023-03-06 ドルビー・インターナショナル・アーベー ルックアップ・テーブルを符号化する方法および復号する方法、並びに対応する装置
JP2020092455A (ja) * 2013-04-08 2020-06-11 ドルビー・インターナショナル・アーベー ルックアップ・テーブルを符号化する方法および復号する方法、並びに対応する装置
US12034971B2 (en) 2013-04-08 2024-07-09 Dolby Laboratories Licensing Corporation Method for encoding and method for decoding a LUT and corresponding devices
JP2022003824A (ja) * 2013-04-08 2022-01-11 ドルビー・インターナショナル・アーベー ルックアップ・テーブルを符号化する方法および復号する方法、並びに対応する装置
JP2017200191A (ja) * 2017-05-25 2017-11-02 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
JP2018142969A (ja) * 2018-04-11 2018-09-13 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
CN110620935A (zh) * 2018-06-19 2019-12-27 杭州海康慧影科技有限公司 图像处理方法及装置
CN110620935B (zh) * 2018-06-19 2022-04-08 杭州海康慧影科技有限公司 图像处理方法及装置
WO2020162293A1 (ja) * 2019-02-06 2020-08-13 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法および画像処理システム
JP7190661B2 (ja) 2019-02-06 2022-12-16 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法および画像処理システム
JP2020127169A (ja) * 2019-02-06 2020-08-20 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法および画像処理システム
CN114402610A (zh) * 2019-09-13 2022-04-26 北京字节跳动网络技术有限公司 视频编解码中的加权样点双向预测
US12063348B2 (en) 2019-09-13 2024-08-13 Beijing Bytedance Network Technology Co., Ltd Weighted sample bi-prediction in video coding

Also Published As

Publication number Publication date
CN101411202A (zh) 2009-04-15
EP2003897A9 (en) 2009-05-06
CA2645931A1 (en) 2007-10-11
JPWO2007114368A1 (ja) 2009-08-20
HRP20080553A2 (en) 2009-06-30
KR20110013577A (ko) 2011-02-09
RU2008138706A (ru) 2010-04-10
CN102256132A (zh) 2011-11-23
BRPI0709853A2 (pt) 2011-07-26
KR20080107436A (ko) 2008-12-10
MX2008012516A (es) 2008-11-28
NO20084509L (no) 2008-12-19
ZA200807977B (en) 2009-06-24
KR101067955B1 (ko) 2011-09-26
EP2003897A2 (en) 2008-12-17
EP2003897A4 (en) 2012-08-29
JP5254004B2 (ja) 2013-08-07
KR101110517B1 (ko) 2012-02-08
US20090087111A1 (en) 2009-04-02
JP2012191642A (ja) 2012-10-04
AU2007232828B2 (en) 2011-03-10
US8606028B2 (en) 2013-12-10
AU2007232828A1 (en) 2007-10-11
RU2433562C2 (ru) 2011-11-10
CN101411202B (zh) 2011-12-28

Similar Documents

Publication Publication Date Title
WO2007116551A1 (ja) 画像符号化装置及び画像符号化方法並びに画像復号化装置及び画像復号化方法
WO2007114368A1 (ja) 画像符号化装置及び方法並びに画像復号化装置及び方法
CN110024387B (zh) 编码装置、解码装置、编码方法和解码方法
JP6626295B2 (ja) 画像符号化装置、画像処理装置、画像符号化方法
US7783119B2 (en) Image encoding apparatus, image decoding apparatus and control method therefor
JP6532467B2 (ja) ビデオ符号化および復号におけるシンタックス要素符号化方法および装置
JPWO2009041215A1 (ja) 動画像符号化装置及び動画像復号装置
JP4360416B2 (ja) 画像圧縮方法、画像圧縮装置およびプログラム
JP2011233972A (ja) 画像符号化装置及び画像符号化方法並びに画像復号化装置及び画像復号化方法
JP4829019B2 (ja) 通信端末装置
JP2005151391A (ja) 動画像符号化方法、動画像符号化装置およびプログラム
JP7533609B2 (ja) ビデオデータの符号化および復号
JP2024522854A (ja) データの符号化及び復号化
KR101715007B1 (ko) 매크로 블록 가변 크기 분할 방식의 인트라 프리딕션을 적용한 인코딩 방법 및 장치
JP5388977B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、及びプログラム
CN102215384A (zh) 图像压缩方法和系统
JP4262144B2 (ja) 画像符号化装置及び方法
KR100771138B1 (ko) 촬영 장치 및 영상 보정 방법
JP4939460B2 (ja) 画像処理装置
JP2009095066A (ja) 動画像復号化装置、動画像復号化方法、動画像符号化装置、および動画像符号化方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 06812054

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 06812054

Country of ref document: EP

Kind code of ref document: A1

点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载