+

WO2004008775A1 - 動画像符号化方法及び復号化方法 - Google Patents

動画像符号化方法及び復号化方法 Download PDF

Info

Publication number
WO2004008775A1
WO2004008775A1 PCT/JP2003/008843 JP0308843W WO2004008775A1 WO 2004008775 A1 WO2004008775 A1 WO 2004008775A1 JP 0308843 W JP0308843 W JP 0308843W WO 2004008775 A1 WO2004008775 A1 WO 2004008775A1
Authority
WO
WIPO (PCT)
Prior art keywords
prediction
motion vector
block
mode
frame
Prior art date
Application number
PCT/JP2003/008843
Other languages
English (en)
French (fr)
Inventor
Yoshinori Suzuki
Original Assignee
Hitachi, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to AU2003281133A priority Critical patent/AU2003281133A1/en
Priority to JP2004521194A priority patent/JP4363326B2/ja
Priority to US10/506,428 priority patent/US7970058B2/en
Application filed by Hitachi, Ltd. filed Critical Hitachi, Ltd.
Publication of WO2004008775A1 publication Critical patent/WO2004008775A1/ja
Priority to US11/932,110 priority patent/US7936823B2/en
Priority to US11/931,908 priority patent/US7936821B2/en
Priority to US11/932,071 priority patent/US7936822B2/en
Priority to US11/931,978 priority patent/US8036272B2/en
Priority to US13/152,763 priority patent/US8320459B2/en
Priority to US13/207,795 priority patent/US8340190B2/en
Priority to US13/207,812 priority patent/US8571107B2/en
Priority to US13/207,823 priority patent/US8571108B2/en
Priority to US13/207,842 priority patent/US8325816B2/en
Priority to US13/551,810 priority patent/US8837594B2/en
Priority to US15/791,695 priority patent/US10110906B2/en
Priority to US15/791,701 priority patent/US10104383B2/en
Priority to US16/138,450 priority patent/US10327004B2/en
Priority to US16/138,445 priority patent/US10349062B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/109Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Definitions

  • the present invention relates to an encoding / decoding technique for compressed moving image data, and more particularly to an encoding / decoding technique in units of blocks.
  • FIG. 3 shows the structure of a macroblock.
  • the macro block is composed of one Y signal block 30 of 16 ⁇ 16 pixels, and a Cr signal block 31 and a Cb signal block 31 of 8 ⁇ 8 pixels that spatially match the Y signal block 30.
  • Intra mode intra coding
  • inter mode predictive coding method
  • Intra-coding is an error macroblock that takes the difference between the input macroblock image or the predicted macroblock image generated by performing spatial prediction on the input macroblock image or the input macroblock image.
  • This is a spatial direction data compression method that applies DCT to an image and quantizes and encodes each transform coefficient.
  • This intra coding is arranged in a macro block (including the first coded frame) where there is no part similar to the previous frame, or in a part where it is desired to eliminate an accumulation operation error caused by DCT.
  • Motion compensation is a temporal compression technique that searches a reference frame for a part similar to the contents of the target macroblock and encodes the amount of motion (motion vector). Normally, a macroblock is further divided into small blocks, and the motion vector is calculated for each small block.
  • the macroblock division type luminance component
  • Fig.7 There are basically four types, Type 51 to Type 54. In the case of the type 54, each of the four 8 ⁇ 8 blocks 54-0 to 543 is configured to be further selected from five types of types 54a, 54b, 54c, 54d and intra-code.
  • FIG. 4 shows the processing structure of motion compensation in one block.
  • FIG. 4 is a diagram showing a prediction block 75 and a motion vector 76 on a previous frame 73 (reference frame) for a luminance signal block 72 of a current frame 71 surrounded by a thick frame.
  • the motion vector 76 is the amount of movement from the block 74 (broken line) on the previous frame, which spatially corresponds to the thick frame block of the current frame, to the predicted block 75 area on the previous frame.
  • the motion vector length for the chrominance signal is half of the luminance signal, and no coding is performed.
  • DCT is performed on an error macroblock image obtained by taking a difference between a prediction macroblock image composed of a plurality of prediction blocks and an input macroblock image, and each transform coefficient is quantized.
  • the motion vector in the detected macro block is also encoded. Since the motion vector between adjacent blocks has a similar value, the difference value between the motion vector of the adjacent block and the motion vector is usually encoded.
  • a motion compensation method for predictive coding refer to temporally past frames.
  • forward predictive coding which performs MC as a system
  • bidirectional predictive coding which performs MC using temporally past and future frames as reference frames.
  • forward prediction coding In the motion compensation of the forward prediction coding described above, only the forward prediction is performed.
  • the backward prediction In the motion compensation of the bidirectional coding, in addition to the forward prediction (Forward Prediction), the backward prediction (Backward Prediction) and the forward prediction are performed.
  • Block and backward prediction Bi-directional prediction (bi-directional prediction), in which each pixel in the block is subjected to interpolation processing to generate an interpolation prediction block, and a motion vector from a future frame to a past frame in time.
  • Direct direct prediction
  • the motion vector corresponding to the forward motion vector the motion vector corresponding to the backward motion vector
  • the forward motion vector and the backward motion vector Each motion vector corresponding to the motion vector is encoded, but in this Direct mode, no motion vector encoding is required.
  • Figure 9 shows the concept of prediction in Direct mode. As shown in the figure, first, a forward motion vector 132 of a block (131, collocated-block) on a backward reference frame 130, which is spatially the same as the prediction target block 121 on the current frame 120, is temporally calculated. Is converted into a forward motion vector 122 and a backward motion vector 123 at the ratio of a typical frame position. Then, using these converted motion vectors, the same interpolation processing as in C bidirectional prediction is performed.
  • I-picture is a frame to which intra coding is applied to all macroblocks
  • P-picture is a frame composed of forward prediction coding or intra coding, bidirectional coding or intra coding. Is called a B-picture.
  • the number of reference frames used for motion compensation is one P-picture, In've been past frame 1 to arm the (forward reference picture) and two future frames (backward reference picture).
  • a plurality of reference frames are prepared for the past direction and the future direction, and different reference frames are selected in macroblock units or small block units obtained by dividing the macroblock.
  • the reference frame is an I-picture or a P-picture, but it is also possible to select a B-picture as a reference picture.
  • temporally backward frames as candidates for backward reference pictures in multiple reference frames.
  • This method also allows the backward reference picture to be a temporally backward frame. Therefore, the term “bi-predictive” is used as a generic term instead of bi-directional.
  • the two reference frames 140 and 150 are both temporally past frames or both future frames, the encoding method of the motion vector 127 for the reference frame 150 far from the current frame is changed. As shown in FIG. 10, a motion vector 124 for a reference frame 140 close to the current frame 121 is converted by a ratio of a temporal frame position to a motion vector 125 and a difference vector 126 between the motion vector 127 and the motion vector 125. Is encoded for each horizontal and vertical component.
  • the processing order of each frame is the display order of I-picture and P-picture, and the discontinuous B_picture located between the two I / P-pictures in time is the direct of the latter I / P-picture. It followed the format of Figure 11 that follows.
  • the processing order is not limited as long as the display delay is within the allowable range.
  • B-pictures can occur even when there is no reference frame for backward prediction.
  • the above display order is coded as data header information of video data, or is a high-level concept of video data, and is a communication layer that controls synchronization processing of video data and audio / audio data, divisional distribution of data, and the like. File format is managed Therefore, the problem of display shift due to the change of the code / decoding processing order does not occur.
  • the display position information may not match the time information included in the communication packet file format that is actually applied at the time of display. In order to avoid this problem, a method of managing each frame of video data using only the processing number is being studied.
  • the video coding / decoding method that introduces a new function, if there is no backward reference frame used for direct mode, or it is set by default from multiple backward reference frames.
  • the backward reference frame may not be the future frame.
  • Direct mode is not applicable for such frames.
  • the management of each frame is managed by the decoding order number, it cannot be determined whether or not the backward reference frame can be used.
  • B-picture is selected as the backward reference frame used in the direct mode, the collocated block may not have a forward motion vector. For such blocks, direct mode is not applicable.
  • an object of the present invention is to provide an encoding / decoding method that can efficiently apply direct mode. Disclosure of the invention
  • It provides the decoder with information indicating whether the default backward reference frame is available for direct mode. If the collocated block does not have a forward motion vector available, it provides a switching procedure and a price method that can be applied to the case.
  • Encoding and decoding methods A plurality of block modes including a mode in which the motion compensation does not involve decoding of a motion vector are selected. And selecting motion vector information to be used in the prediction mode.
  • the prediction mode should be performed based on whether or not a block adjacent to the current block has a motion vector.
  • a reference frame one reference frame is selected from a plurality of reference frames identified by an index number, and when a plurality of adjacent blocks apply prediction in the prediction direction.
  • a reference frame to be used by any of the adjacent blocks, and if only one of the adjacent blocks applies prediction in the prediction direction, the index to which the one adjacent block applies It discloses that a reference frame with a number is selected, and when the adjacent block does not adopt the selected prediction mode, a reference frame with an index number of 0 is selected. Also disclosed is a method of including, in a header attached to each of the plurality of blocks, information for determining a prediction procedure when a mode not involving decoding of the motion vector is selected as a block mode.
  • the determination as to whether or not the direct mode can be applied becomes clear.
  • the direct mode and the substitute mode can be effectively used, so that the prediction efficiency can be improved and the data amount can be reduced.
  • FIG. 1 is a diagram showing an example of picture header data syntax in the present invention.
  • FIG. 2 is a diagram showing a second example of picture header data syntax in the present invention.
  • Figure 3 is a diagram illustrating macroblock division
  • Figure 4 illustrates the principle of motion compensation.
  • FIG. 5 is used to encode the presence or absence of significant DCT coefficients included in the macroblock.
  • FIG. 6 is a diagram showing a macro block configuration showing a block unit for performing DCT processing and encoding processing
  • FIG. 7 is a diagram illustrating a configuration of a luminance block indicating a block unit for performing motion compensation
  • FIG. 8 is a diagram illustrating a generation unit of a predicted motion vector
  • Figure 9 is a diagram showing a motion vector generation method for bidirectional prediction in Direct mode.
  • FIG. 10 is a diagram showing a motion vector calculation method using two forward reference frames
  • FIG. 11 is a diagram showing a comparison example of the decoding order and the display order
  • FIG. 12 is a diagram showing an example of a procedure for switching the prediction method according to the present invention
  • FIG. 13 is a diagram showing a second example of a procedure for switching the prediction method according to the present invention
  • FIG. FIG. 3 is a diagram showing an entire configuration of a substitute mode in the invention
  • FIG. 15 is a diagram showing a prediction mode selection process of the substitute mode in the present invention
  • FIG. 16 is a diagram showing a reference frame selection process of the substitute mode in the present invention
  • FIG. 17 is a substitute mode in the present invention
  • Fig. 18 is a diagram showing an example of the data syntax of a prediction frame.
  • FIG. 19 is a diagram showing a configuration example of a universal coding table.
  • FIG. 20 is a diagram showing an example of a macroblock type code table and a code table of an 8 ⁇ 8 block division type in a P-picture,
  • FIG. 21 is a diagram showing an example of a macroblock type code table and an 8 ⁇ 8 block division type code table in B-picture,
  • FIG. 22 is a diagram showing an example of a block diagram of the encoding process in the present invention
  • FIG. 23 is a diagram showing an example of a block diagram of the decoding process in the present invention
  • FIG. 7 is a diagram showing a third example of the picture header data syntax in FIG.
  • FIG. 25 is a diagram showing a third example of the switching procedure of the prediction method according to the present invention
  • FIG. 26 is a diagram illustrating an example of a prediction parameter calculator in an encoding device that performs the encoding method of the present invention.
  • FIG. 27 is a diagram illustrating an example of a prediction parameter calculator in a decoding device that performs the decoding method of the present invention.
  • FIG. 28 is a diagram showing an example of a software encoder for implementing the encoding method of the present invention.
  • FIG. 29 is a diagram showing an example of a software decoder for implementing the decoding method of the present invention
  • FIG. 30 is an example of an optical disc on which an encoded bit stream generated by the encoding method of the present invention is recorded.
  • FIG. 31 is a diagram showing a specific example of an apparatus using the encoding / decoding method of the present invention.
  • Figure 1 shows an example of frame header information.
  • the following is an example of decoding picture header data in C language.
  • picture—structure20 indicates the scan structure (frame / fino redo) of each picture.
  • frame—number21 indicates the identification number of the frame.
  • reference_picture—selection layer indicates the frame number (reference icture set) of the reference frame used for motion compensation and processing of the current frame and its identification number. For example, when there are five reference frames, frame-numbers for index0 to index4 are assigned to the current picture of frame number 10 as follows.
  • the forward reference frame (forward In the case of reference picture set and B-picture, the frame-number of the forward and backward reference frames (forward reference picture set and backward reference picture set) is decoded. At this time, the number of reference frames in the forward direction and the backward direction can be set individually and may be different.
  • the picture type is I-picture or P-picture
  • the picture layer ends with byte line information (information for aligning data delimiters in byte units) following these reference picture set information. Subsequent picture header data is generated when the picture type is B-picture. In the present embodiment, it is assumed that the information is described in the layer including the higher-level network and communication-related information.
  • direct — mv — seal e_bwd — dir 28 is information indicating whether the backward reference frame specified for the direct mode is located in the past before the current frame.
  • the backward reference frame specified for direct mode is usually the backward reference picture assigned to index 0. If data 28 indicates that the backward reference frame (here, the backward reference picture assigned to indexO) is located in the past with respect to the current frame, direct mode cannot be used and data 28 Direct mode can be used to indicate that the current frame is located in the future relative to the reference frame. Therefore, in the data 28, the power of the backward reference picture at index 0 and the power that can be used in the Sdirect mode can be clearly cut by half.
  • the direct mode cannot be implemented, it is necessary to apply the substitute mode described later, and the efficiency of decoding work can be promoted in preparation for memory arrangement and the like. Further, when the frame_number has no time information, it is possible to efficiently transmit information indicating the relationship between the reference picture and the current picture. Some picture position information related to direct mode is used in addition to direct mode, and some is not used. For the latter, direct-mv-seal e_bwd-dir makes it possible to avoid encoding.
  • direct-mv-scale_bwd-dir force direct mode when indicating that the current frame is located in the future direction, Data 26, 27 and 29 are encoded, but are not encoded to indicate that direct mode is disabled.
  • direct—mv—scale_bwd29 is information indicating the frame interval between the current picture and the backward reference picture at index 0 (see FIG. 9).
  • direct_mv—scale-fwd—dir 26 is information indicating whether the forward reference frame is located in the future or in the past with respect to the current frame
  • direct-mv—scale—fwd27 is This information indicates the picture interval between forward reference pictures (see Fig. 9).
  • direct — mv — scale — fwd it is necessary to encode the number of forward reference pictures specified in reierence_picture — selection — layer (22).
  • the reference frame in the forward direction must be located in the past with respect to the current frame, so that direct—mv—scale_fwd—dir 26 indicates indej (for The direct-mv-scale-fwd 27 is omitted, and the direct-mv-scale-divider is information indicating the picture interval between index 0 Coackward reierence picture and iorward reference picture (see Fig. 9).
  • the picture layer ends with byte line information (information for aligning data delimiters in byte units).
  • Figure 2 shows the syntax.
  • each motion vector is individually encoded / decoded by the method of FIG.
  • the values of data 26 and 28 corresponding to the index numbers of the two reference pictures selected in the block are a combination of two reference frames located in the same direction with respect to the current frame, , About motion vectors away from the current frame Applies to the method of FIG.
  • the Backward reference picture used in direct mode 1 ⁇ mode has been described as index 0.
  • force, Sina force al, backward reference picture The set force 3 ⁇ 4 et al. 111 (16 ⁇ (nonzero number is also conceivable to choose as the backward reference picture for direct mode for example, in FIGS. 1 and 2 direct_reference-idx
  • the index number of the Dackward reference picture used for direct mode such as —bwd 24
  • the value "0" means that there is no backward reference frame available for direct mode in the backward reference picture set It becomes possible.
  • Coding methods include Universal VLC (UVLC), which uses only one type of variable length code table, and a combination of fixed length coding and variable length coding (a different code table is prepared for each code element). Coding method and arithmetic coding (Witten et al., "Arithmetic Coding for Data Compression", Comm. Of the ACM, 30 (6), 1987, pp. 520-541). In the example, UVLC and arithmetic coding will be described as examples. Table 81 in FIG. 11 shows the structure of the UVLC, and the value of Xn is '0' or '1,'.
  • Table 82 shows an example of an actual variable-length code table.
  • Table 82 shows an example of an actual variable-length code table.
  • a specific method of arithmetic coding consider a method in which the meaning of each code is replaced with binary data of several bits, and each bit is encoded according to an occurrence probability model that indicates the probability of occurrence of each 0 and 1 . This is called bit_, CABAC (ontext—based Adaptive Binary Arithmetic Coding).
  • FIG. 18 shows the syntax structure of macroblock data in B-picture. The macroblock data structure of B-picture and P-picture will be described with reference to FIG. Note that I-picture is included in the features of the present application. Since there is no description, the description is omitted.
  • run-length encoding of the number of consecutive SKIP modes (encodes the number of consecutive 0s, and if the type of the previous macroblock is not the SKIP mode, sets the number of consecutive SKIP modes to zero) This occurs only when UVLC is used as the method of event-to-peak coding in the data that has been processed.
  • the skip mode is a macro block type in which the prediction error signal is not encoded and the prediction block image is used as a reproduction block image as it is.
  • the predicted block image is synthesized in a method of cutting out a macroblock image corresponding to the predicted vector position from the forward reference picture power of index 0 in P-picture, and in direct mode in B-picture.
  • This SKIP mode is a mode that is frequently selected in low-rate coding, and is particularly likely to be selected in B-picture. Therefore, the prediction performance of direct mode directly affects the performance of low-rate coding.
  • the code I arsenide method using CABAC, mb- ski P _runll is not used, SKIP mode is also handled by mb-type 12 (see the column of code number The 0 in Table 91, 93). In mb_typel2, one mode is selected and encoded for each macro block from the macro block modes shown in Table 91 (P-picture) or Table 93 (B-picture).
  • M and N of IntraMXN shown in code numbers 6 and 7 indicate the small block size when performing spatial prediction, and MXN is the small block size when performing motion compensation (Fig. 7). Modes 1 to 4) are shown. However, the mode indicated by code number 5 is not used for CABAC.
  • Block 1 and Block 2 in Table 93 identify the two small blocks in Mode 2 or Mode 3 in Figure 7, and the prediction direction of each small block is Forward (forward prediction), Backward (backward prediction), Bi -Indicates whether it is predictive (bidirectional reference frame prediction).
  • the direct mode will be described.
  • mb skip—r plate 11 and mb type 12
  • the direct mode may not be applicable to the method that applies the function of multiple reference frames or the function of two reference frames. Therefore, in the present invention, as shown in FIG. 12, a procedure for switching the prediction method according to the conditions is used.
  • direct_mv_scale_bwd_dir
  • direct-mv-scale-bwd—dir [0] Fig. 2 in the picture header indicates whether direct mode is available for the current picture.
  • a predicted macroblock is created in a substitute mode (details will be described later) that does not require the forward MV of the collocated block (304). If it is determined that it can be used in process 301, a prediction method is selected for each 8x8 block.
  • the reason why the block is 8x8 is that the minimum unit of reference frame and prediction direction selection is 8x8 block in the block division method of FIG. Specifically, it is checked whether or not the prediction mode having forward MV is applied to the collocated block corresponding to the 8x8 block (302). When it is determined that the block is applied, a prediction block is created in the direct mode (303).
  • the prediction block is created in the substitute mode. (304).
  • the coll.ocated 8x8 block the prediction mode is intra mode Bok of 3 ⁇ 4 case, if the ⁇ direction force backward prediction, forward reference picture for Meo to direct one mv one scale one fwd-dir of [index] 1 ⁇ If the current picture indicates that it is located in the backward direction (future direction) or if it is not included in the forward reference picture set of the current picture or the forward reference picture set of the current picture, direct mode cannot be used. judge. In the processing 302 of FIG. 12, whether direct mode can be used is determined in units of 8 ⁇ 8 blocks, but it is also possible to determine this in units of macroblocks.
  • FIG. 13 shows a procedure for switching the prediction method when data 24 is added to the picture header structure.
  • Figure The difference from 12 is that the process 301 is changed to the process 305.
  • the index number of the direct—mv_scale_bwd_dir to be checked is set to the value set in the data 24 in FIG. It is a point.
  • an 8 ⁇ 8 partition 13 is generated for each of the four 8 ⁇ 8 small blocks 54-0 to 54-3 shown in mode 4 of FIG.
  • 8x8 Partition 18 one mode is selected for each 8x8 block from the 8x8 partition modes shown in Table 92 (P-picture) or Table 94 (B-picture) and encoded.
  • Table 92 Intra indicated by code number 4 indicates spatial prediction, and MXN indicates a small block size (8x8 partition 1 to 8x8 partition 4 in Fig. 7) when performing motion compensation.
  • MXN indicates the small block size (8x8 partition 1 to 8 ⁇ 8 partition 4 in Fig.
  • Prediction in Table 94 indicates whether the prediction direction of each small block belonging to mode 4 in FIG. 7 is Forward (forward prediction), Backward (backward prediction), or Bi-predictive (2 reference frame prediction). .
  • the prediction performance of direct mode in 8x8 Partition is not as important as direct mode MB. So it is possible to apply a simpler method. For example, if it is determined that the collocated block does not have a Forward MV in the process 302, instead of the process 304, the Forward MV is set to 0 solid, the forward reference picture and the index of the forward reference picture are set to 0. It is conceivable to generate the Root IJ block in the direct mode after setting. If there is no backward reference picture, the prediction block may be generated only by forward prediction.
  • a method that does not select the direct mode on the encoding side may be considered.
  • the encoding method of mb_typel2 and 8x8 Partition 13 when UVLC is used, the code corresponding to the code number in Tables 91 to 94 is selected from Table 82 and encoded.
  • the bit string shown in the Binarization column in Tables 91 to 94 is arithmetically encoded using a probability model of each bit.
  • ref-index-fwdl4 indicates the index number of the forward reference frame used for motion compensation, and is required for each divided block (51 to 54 in FIG. 7) in the macroblock.
  • the index number is selected from the forward reference picture set power. However, if the forward reference picture set includes only one reference frame, if the block type or macroblock type is Skip, direct or intra block, and if the block prediction is backward, this code It doesn't happen. Further, the 3 ⁇ 4 if P-picture at mb-type as was code number The 5 forces 3 ⁇ 4 Select Table 9 1, because it is automatically selected as a forward reference picture force reference frame index 0, the code generator Shinare. Consider an encoding method as an example where the forward reference picture set has a value of index 0 to index 4.
  • index 0 to index 4 are assigned to code numbers 0 to 4, respectively.
  • code corresponding to code numberO-4 is selected from Table 82 and encoded / decoded.
  • code numberO-4 binary data of ⁇ , 01 ', 001', 0001 ', and 00001' are assigned to code numberO-4, respectively, and arithmetic coding is performed using a bit string and a probability model of each bit.
  • ref-index-bwdl5 indicates the index number of the backward reference frame used for motion compensation, and is required for each divided block (51 to 54 in Fig. 7) in the macroblock. Index numbers are selected from the backward reference picture set.
  • this data is generated when mb—typel2 is: [ntraMXN, SKIP (P-picture) or direct (B-picture), or when 8x8 Partition 13 is intra or direct (B-picture). Shinarei. Also, this data does not occur when the block prediction is a backward split block (B-picture). Similarly, mvd-bwdl7 occurs when mb-type 12 and 8x8 Partition 13 force indicate that it is a macroblock with motion vectors associated with backward (including bi-predictive). The number of backward MVs is repeated.
  • this data does not occur when the picture type is P-picture, when mb-typel2 is IntraMXN, direct, or when 8x8 Partition 13 is intra or direct. Also, this data does not occur when the block prediction is a forward divided block.
  • CBP18 is coded data indicating whether or not 16 DCT coefficients (significant coefficients) other than '0' are included in the 24 DCT blocks shown in FIG.
  • Residual () 19 indicates encoded data of a significant quantized DCT coefficient. For blocks for which there is no significant coefficient in the CBP, the encoding process is omitted. Therefore, when CBP is 0, Residual () does not occur.
  • Blocks 51-0 of mode 1 (51) and small blocks 54a-0, 54b-0, 54b-1, 54c_0, 54c-1 and 54d-0 to 54d-3 of mode 4 (54) in Fig. 7 are as follows. The same prediction method is used. Assume that 50 small blocks are to be encoded in the motion vector.
  • the motion vectors of the three blocks located at adjacent positions A, B, and C are considered as candidates, and the intermediate value is calculated. Is the predicted motion vector.
  • the block at position C may be before encoding or may be located outside the image.
  • the motion vector of the block located at position D instead of position C is used as one of the candidate motion vectors.
  • the motion vector is set to '0' vector and prediction processing is performed, and the positions, D, B, and C are located outside the image. In this case, the prediction process is performed as the motion vector of the block at position A.
  • the remaining one candidate motion vector is used as the predicted motion vector.
  • the motion vector of the block located at the root is used as the predicted value.
  • the motion vector coding in this method only the motion vector of the same reference frame is used for prediction. Therefore, if the motion vector of the adjacent block is different from the reference frame selected in the coded block, it is treated as being located outside the image.
  • the motion vector for the chrominance component is not coded, and the motion vector for the luminance component is divided by 2.
  • the substitute mode (4x4 bi-predictive) that does not require the Forward MV of the collocated block will be described with reference to FIGS.
  • Direct mode and Skip mode in B-picture using Direct mode are important prediction methods for high selectivity and high coding performance.
  • a system such as MPEG-4 Part 10 that allows flexibility in the selection of reference frames and the encoding procedure of each frame, as described in Figs. 1 and 2 and Figs.
  • some frames and blocks do not function effectively in the conventional Direct mode.
  • This alternative mode has the effect of suppressing the deterioration of prediction performance and increasing prediction efficiency by switching to use when the conventional Direct mode does not function effectively.
  • this substitute mode uses the motion vector of the current frame, so that the motion mode is used for encoding / decoding of subsequent frames.
  • the process of storing vectors in memory becomes unnecessary, and memory This has the effect of reducing noise.
  • the decoding process is simplified because the scaling process of the motion vector shown in FIG. 9 is not required.
  • the prediction procedure of this substitute mode consists of four parts shown in Fig.14. First, the prediction direction is selected from bi-predictive, forward, and backward in units of 8x8 blocks (610). The selection is performed using the block B83 immediately above the target 8x8 block C81 and the block A82 directly to the left.
  • a reference frame required for performing the prediction mode selected in the process 610 is selected (620). Selection is performed using the block B83 immediately above the target 8x8 block C81 and the block A82 immediately to the left.
  • the motion vector corresponding to the selected prediction mode and reference frame is calculated in units of 4x4 blocks (630).
  • a 4x4 prediction block is synthesized with the prediction mode and reference frame selected in processings 610 and 620 and the motion vector calculated in processing 630.
  • the calculated motion vector and the index of the reference frame are saved for prediction motion vector prediction (640). In this way, by predicting each element data required for the prediction processing from information of surrounding blocks in the same frame, motion prediction according to local features becomes possible, and prediction efficiency is improved. Also, since only the data of the adjacent block in the frame is used, the amount of data to be stored for performing the substitute mode is reduced. The details of the processing are shown below.
  • FIG. 15 shows the prediction direction selection processing procedure of processing 610.
  • the bi-predictive prediction with the highest prediction efficiency is preferentially selected.
  • the prediction direction that is estimated to be optimal can be selected based on the information obtained from the surroundings.
  • control is performed so that the effect of selecting the Direct mode is higher than the other prediction modes, thereby contributing to an improvement in prediction efficiency.
  • indexO a cello motion vector using the forward reference and backward reference of the frameno most similar to the current frame as the reference frame
  • FIG. 16 shows the reference frame selection processing procedure of the processing 620. This process is performed individually for forward and dackward.
  • Figure 16 shows the case of selecting a forward reference picture, but the procedure is the same for a backward reference picture.
  • the 8x8 block immediately above or immediately to the left of the target 8x8 block determines whether the forward reference picture is It is checked whether or not it is used (622). If it is determined in processing 622 that any of the 8x8 blocks uses the forward reference picture, the used forward reference picture is selected (625). In process 622, if none of the 8x8 blocks uses the orward reference picture, index O is selected (624). In this way, control is performed so that a smaller value is selected from the Index numbers applied to the encoding of the adjacent block. This is because, when setting reference frame candidates, a frame with a high correlation with the current frame is given a small index number.
  • the method of setting Index number is automatically set, the n former there is a method of setting the time of coding, forward from the frame closest to the current frame Is given a small index number.
  • the latter is applied, for example, at the time of a scene change, and assigns a small index number to a previously encoded frame of the same camera andal in the past. As described above, by selecting a small index number, the possibility of selecting an image close to the frame to be processed is increased.
  • FIG. 17 illustrates the motion vector calculation processing procedure of the processing 630. This process is performed separately for forward and backward in units of 4x4 blocks. First, it is checked whether any of the 4x4 blocks directly above or immediately to the left is outside the image (631). If it is determined in the process 631 that any 4x4 block is located outside the image, the motion vector of the 4x4 block is set to a zero vector (625). If it is determined in process 631 that any of the 4x4 blocks are located in the image, then either the immediately above or immediately left 4x4 block is sent to the reference frame selected in process 620. It is checked whether there is a motion vector available (632).
  • the motion vector of the 4x4 block is set to zero vector (625). If it is determined in processing 632 that any 4x4 block has an available motion vector for the selected reference frame, any of the motion vectors in the 4x4 block immediately above or immediately to the left It is checked whether the vector is a zero vector to the reference frame selected in the process 620 (633). If the motion vector of any 4x4 block is determined to be the zero vector to the reference frame by the process 633, the motion vector of the 4x4 block is set to the zero vector (625).
  • the motion vector of any 4x4 block is not a zero vector to the reference frame
  • the motion vector is calculated by intermediate value prediction for the 4x4 block. The reason why the zero vector is preferentially selected is to cope with the fact that the Direct mode is particularly effective in the background.
  • the present invention includes the following modifications.
  • the use of the substitute mode is determined by the state of the collocated block as shown in Fig. 12, but the direct mode is completely switched to the substitute mode. You might also say that.
  • switching between the direct mode and the substitute mode is controlled in a frame unit or a slice unit (details are described in a modified example (4)) in a process 301.
  • This increases the number of selection candidates and improves the applicability to scenes with special effects, thus improving prediction efficiency.
  • the motion vector of the reference frame and the current frame in Fig. 9 is calculated by external processing, under conditions where there is a strong restriction on the amount of computation, as shown in Figs. It is effective to control the system switching.
  • the present invention also includes a method in which the description “either directly above or immediately to the left of 4x4 blocks” in processing 631 is changed to “if immediately above, both of the 4x4 blocks immediately above and to the left”.
  • the present invention also includes a method in which the number of blocks used when selecting a mode is changed from two to three (used for creating a prediction vector). This method of changing the number of blocks used from two to three when selecting the mode is effective under conditions where there is no strong restriction on the amount of arithmetic processing because it has good consistency with motion vector estimation and leads to improvement in prediction efficiency. It is.
  • direct—reference—usable 23 indicates that the backward reference frame specified for direct mode is located in the future relative to the current frame, and the forward reference frame specified for direct mode is earlier than the current frame. This is information that indicates whether it is located.
  • the backward reference frame specified for direct mode is usually the backward reference picture assigned to index 0, power S. At this point, the backward reference picture at index 0 is available for direct mode. Can be clearly determined.
  • the forward reference frame specified for direct mode is usually a forward reference picture assigned to index 0. 0
  • CD forward reference picture force can monkey Chikaraina force 3 ⁇ 4 mosquito clear (this half ij cross-sectional in Sdirect mode (this use.
  • This data 23 is 0, that is backward reference picture force ⁇ current before to the picture direction (in the past of the index 0 or are located in direction), or forward reference 1 of index 0) 1.1: 10 "6 months 3 ⁇ 4 (: 11: 1: 6111 : picture rice, located backward (future direction) and Na Since the direct mode cannot be implemented for a picture that is in use, it is not necessary to encode / decode the picture interval information required for applying the direct mode.
  • FIG. 25 shows the procedure. First, it is checked whether direct mode is available for the current picture by using direct-reference-usable23 in the picture header (306).
  • a prediction macro block is created in a substitute mode that does not require the forward MV of the collocated block (304). If it is determined in step 306 that it can be used, the prediction method is determined for each 8x8 block.
  • the reason why the block is set to 8x8 is that the minimum unit for selecting the reference frame and the prediction direction is set to 8x8 block in the block division method in FIG. Specifically, it is checked whether or not the prediction mode having the Forward MV is applied to the collocated block corresponding to the 8x8 block (307).
  • a prediction block is created in the direct mode (303). If it is determined that the block is not applied, the prediction block is created in the substitute mode. (304).
  • the prediction mode is the intra mode, when the prediction direction force is backward prediction, there is no forward reference picture current picture ⁇ D forward reference picture set included in the index O reference picture. In this case, it is determined that direct mode cannot be used.
  • the direct mode can be used in the process 307 for each macroblock. However, in this case, all the prediction blocks in the macroblock, and in the case of the block division method shown in FIG.
  • the data decoding procedure is determined by the information in the header of the slice layer. Therefore, the information of the present invention relating to the decoding procedure is required in the slice header section.
  • Information indicating which macro block belongs to one slice is indicated in a communication packet header or file format header that controls higher-level communication and network-related information, or in a sequence that determines the overall data configuration. There are cases such as shown in the illustration.
  • the method of switching between the direct mode and the substitute mode on a slice-by-slice basis increases the degree of freedom for selection and improves the prediction efficiency compared to the method of switching on a frame-by-frame basis.
  • Fig. 28 shows an example of a portable terminal using an application processor as an example of an embedded software encoder / decoder.
  • Host unit 2820 that mainly performs wireless communication processing
  • camera input processing unit 2830 that processes input signals from the camera
  • application processor unit 2800 that performs application processing such as video encoding / decoding, and processing of display data It consists of an output device 2840.
  • the image captured by the camera is first converted into a YUV signal as shown in Fig. 3 by the camera input processing unit 2830 and input to the application processor unit 2800 Is done.
  • the application processor unit 2800 encodes the input image into stream data as shown in FIG. 1 (or FIG. 2 or FIG. 24) and FIG.
  • the software (assembler code) for performing the encoding processing (including the operations shown in the flowcharts of FIGS. 14 to 17) by the processing unit 2811 in the general-purpose processor 2810 is provided. Is stored in the internal image 2812 or the external RAM 2830 in advance. In addition, data (a plurality of reference pictures, reference picture numbers of each macroblock, a prediction direction, and a motion vector) used for the prediction processing as shown in the flowcharts of FIGS. 14 to 17 are also stored in advance. Is allocated in the internal RAM 2812 or the external MM2830. The layout of the storage area for assembler code and data is designed based on the balance between processor capacity, bus speed, estimated access frequency to assembler code and data, and their capacity.
  • the internal RAM has a faster access speed than the external RAM, and the external RAM has a larger capacity than the internal RAM. Therefore, data storage areas and assembler codes with high access frequency and small capacity are allocated in the internal RAM. At this time, the assembler code may be divided into the internal RAM and the external RAM.
  • the encoded bit stream data is stored in the external image 2830 or the memory in the host unit 2820. Which is stored depends on the service for mobile terminals, such as the use of the coded bitstream 'data. At the time of decoding, the encoded bit stream data is supplied from the host unit 2820 or the external RAM 2830 to the application processor unit 2800.
  • the application processor unit 2800 decodes the input coded bit stream data, converts the YUV playback image into an RGB image, and outputs the RGB image to the output device 2840.
  • the YUV reproduced image may be stored in the frame memory in the internal AM while the external RAM may be stored in the frame memory.
  • software (assembler) for executing the decoding process (including the operations shown in the flowcharts of FIGS. 14 to 17) in the processing unit 2811 in the general-purpose processor 2810 is used.
  • the code is stored in the internal RAM 2812 or the external RAM 2830 in advance.
  • data (a plurality of reference pictures and reference pictures of each macroblock) used in the prediction processing as shown in the flowcharts of FIGS.
  • the number, prediction direction, and motion vector) are also stored in advance in the internal MM 2812 or the external RAM 2830.
  • Figure 29 shows examples of software encoders and decoders used for more general purposes.
  • the input image is stored in the frame memory 2950, and the general-purpose processor 2900 reads the information therefrom and performs an encoding process.
  • the program for driving this general-purpose processor (including the operations shown in the flowcharts of FIGS. 14 to 17) is read from a storage device 2930 using a hard disk or floppy disk and stored in the program memory 2920. Has been.
  • the encoded information output by the general-purpose processor is temporarily stored in the input / output buffer 2940 and then output as an encoded bit stream.
  • the processing memory 2910 stores data (multiple reference pictures, reference picture numbers of respective macroblocks, prediction directions, motion vectors) used for prediction processing as shown in the flowcharts of FIGS. 14 to 17. It is read by a general-purpose processor according to the processing of the program.
  • the general-purpose processor accumulates data in the processing memory according to the processing of the program.
  • the input coded bit stream is stored in the input / output buffer 2940, and the general-purpose processor 2900 reads from it and decodes it.
  • the program for driving this general-purpose processor (including the operations shown in the flowcharts of FIGS. 14 to 17) is read from a storage device 2930 such as a hard disk or a floppy disk and stored in the program memory 2920. Has been.
  • the decoded reproduced image is temporarily stored in the frame memory 2950, and then output to a device that performs output processing.
  • the processing memory 2910 stores data (multiple reference pictures, reference picture numbers of each macroblock, prediction direction, motion vector) used in the prediction processing as shown in the flowcharts of FIGS. It is read by a general-purpose processor according to the processing of the program.
  • the general-purpose processor stores data generated in accordance with the processing of the program in the processing memory.
  • Dedicated circuit ⁇ Figure 22 shows the configuration of an image encoding device that uses a dedicated chip. The flow of the encoding process of one macroblock process will be described.
  • the motion compensation between the input macroblock image 201 and the decoded image (reference frame) of the coded frame stored in the frame memory 210 is performed for all macroblock types (8x8 Partition type) and candidate reference frame combinations. This is performed by the motion compensator 211, and the optimal macroblock type and 8x8 Partition type are selected.
  • the optimal macroblock type and 8x8 Partition type are selected.
  • Figure 26 shows the internal structure of the MV predictor. Macro block type indicating Direct mode (8x8 Partition type), macro block position information (block position information) and direct mode type (direct / alternative, controlled by motion compensator, alternative prediction is shown in Fig.
  • the prediction mode selection unit 2641, the reference frame selection unit 2642, and the motion vector selection unit 2643 use the information stored in the internal memory 2610, respectively, as shown in FIGS. 6.
  • the processing shown in the flowchart of Fig. 17 is performed to calculate the prediction direction, reference frame number and motion vector. These prediction parameters are stored in the internal memory and notified to the motion compensator.
  • the detected motion vector is calculated using the MV predictor along with the macroblock type, prediction direction information (forward / backward / bi-predictive), and reference frame number. 215 is notified and the contents of internal memory 2610 are updated (if direct mode is selected) Is the macro block type or 8x8 Partition type only). If the block type is 8x8 Partition type is not direct, the motion vector predictor 2650 (started by the switcher 2620) performs the prediction process shown in Fig. 8 to calculate the differential motion vector. The calculated differential motion vector is output to the multiplexer 206 along with the macroblock type, the 8x8 Partition type, and the reference frame number.
  • the differential motion vector and the reference frame Numbers are not multiplexed.
  • the calculation of the differential motion vector is performed only for the optimal macroblock type (8x8 Partition type).
  • the value of the differential motion vector and the code amount thereof are calculated based on the optimal macroblock type (8x8 partition type). It may be used as an evaluation value when selecting (Partition type).
  • the MV predictor calculates the difference motion vector.
  • the predicted macro block image 213 extracted from the reference frame generated by the motion compensation is input to the Intra / Inter determination processing unit 214.
  • the Intra / Inter determination unit determines which of the intra mode and the inter mode is the final macroblock type, and notifies the multiplexer 206 and the MV predictor 215 of the determination information 218.
  • the MV predictor 215 updates the data stored in the internal memory.
  • the multiplexer uses the result of the intra / inter mode decision, the macro block type of the inter mode obtained from the W predictor, the 8x8 Partition type, and the reference frame number. In this case, the code shown in Fig. 18 is generated from the differential motion vector and the reference frame number, and multiplexed into the coded bit stream.
  • the predicted macroblock image is subjected to difference processing with the input macroblock image 201 of the current frame by the differentiator 202, A difference macroblock image is generated. At this time, the predicted macroblock image is output to the adder 209 at the same time. Selected by Intra / Inter judgment section When the selected macroblock type is the intra mode, the prediction macroblock is not output to the differentiator 202 and the adder 209.
  • the difference macroblock image or the input macroblock image output from the differentiator 202 is first DCT-transformed.
  • the DCT block size is generally 8 x 8 pixels in the conventional coding method.However, recently, DCT transform using 4x4 pixel size has been studied in MPEG-4 Part 10 (Advanced Video Coding), etc. Here, 4X4DCT will be described as an example.
  • the difference macroblock image is divided into 24 4 ⁇ 4 pixel blocks, and each is converted into 16 DCT coefficients by the DCT converter 203.
  • Each DCT coefficient is quantized by a quantizer 204 and encoded by a multiplexer 206.
  • the multiplexer 206 multiplexes the macroblock data information as shown in FIG. 18 together with the header information as shown in FIG.
  • the quantized DCT coefficients are decoded into a differential macroblock image or a macroblock image by the inverse quantizer 207 and the inverse DCT unit 208 of the local decoder 220.
  • the prediction mode of the macroblock is the inter mode
  • the difference macroblock image is added to the prediction macroblock image by the adder 209 and then synthesized into the frame memory 201.
  • the macroblock is in the intra mode
  • the restored macroblock image is combined with the frame memory 201.
  • intra prediction is not performed in the intra mode shown in FIG. 22, the present invention can be applied to a coding method that performs intra prediction.
  • intra prediction may be performed by the Intra / Inter determination unit, but this process may be incorporated into the motion compensation unit.
  • the apparatus configuration is simplified. Become. In this case, the motion compensation unit 211 always supplies the difference prediction macroblock image 213 to the difference unit 202 and the adder 209.
  • the macroblock type information includes the judgment information 218, the judgment information 218 can be deleted, and the internal memory update processing in the prediction unit 215 accompanying the input of the judgment information 218 is also omitted.
  • the DCT coefficient level Prediction is also conceivable. This case can be dealt with by incorporating prediction processing into the DCT converter 203 and the IDCT converter 208.
  • Dedicated circuit ⁇ Figure 23 shows the configuration of an image decoding device that uses a dedicated chip. The processing flow of the decoding processing of one macroblock processing will be described.
  • an encoding / decoding device 501 analyzes the input encoded data, and distributes motion vector related information and macroblock type information to an MV predictor 508, and quantized DCT coefficient information to an inverse quantizer 502. .
  • the block position information, macroblock type, 8x8 partition type, prediction direction information, reference frame number, and differential motion vector are input to the MV predictor 508 (macro
  • the block type is direct mode, only the macro block type and macro block position information are input, and when the 8x8 Partition type is direct, the reference frame number and differential motion vector are used for the 8x8 block. No torque is entered).
  • Figure 27 shows the internal structure of the MV predictor.
  • the direct mode type direct / alternative, motion capture
  • the switcher 2630 is activated through the switcher 2620.
  • the switcher 2630 switches the switch according to the type of the direct mode. If the type of direct mode is direct prediction, the motion vector calculation unit 2660 is started.
  • the motion vector calculation unit 2660 calculates the prediction parameters shown in FIG. 9 using the information stored in the internal memory 2710. The calculated parameters are stored in the internal memory and notified to the motion compensator 504.
  • the alternative prediction unit 2640 is activated. The alternative predictor performs the processing shown in Fig.14.
  • prediction mode selection unit 2641, reference frame selection The unit 2642 and the motion vector selecting unit 2643 execute the processing shown in the flowcharts of FIGS. 15, 16, and 17, respectively, using the information stored in the internal memory 2710, and perform the prediction direction. If it is a reference frame number, calculate the motion vector in ⁇ . These prediction parameters are stored in the internal memory 2710 and output to the motion compensator 504.
  • the macroblock type (8x8 Partition type) is not direct
  • the macroblock type (8x8 Partition type), macroblock position information (block position information), reference frame number, and differential motion vector are input, and the switcher 2620 moves the switch.
  • the vector predictor 2750 is activated.
  • the motion vector prediction unit 2750 performs the prediction process shown in FIG.
  • the motion compensator 504 generates a predicted macroblock image using the input data and the reference picture in the frame memory 507.
  • the coded data relating to the prediction error signal is subjected to inverse quantization and inverse DCT processing for each 4 ⁇ 4 pixel block in an inverse quantizer 502 and an inverse DCT unit 503 to reproduce a differential macroblock image.
  • the predicted macroblock image and the difference macroblock image are added by the adder 505 to reproduce the macroblock image.
  • the reproduced macroblock image is synthesized by the synthesizer 506 with the decoded frame image.
  • the decoded frame image is stored in the frame memory 507 for predicting the next frame.
  • the decoded quantized DCT coefficient information is inversely quantized for each 4 ⁇ 4 pixel block by the inverse quantizer 502 and the inverse DCT unit 503, and inverse DCT processing is performed. Play a macroblock image.
  • the contents of the internal memory 2710 in FIG. 27 are updated as the intra mode.
  • intra prediction is not performed, but the present invention can be applied to a coding scheme in which a plurality of intra prediction types are prepared, such as MPEG-4 Part 10 (Advanced Video Coding).
  • the motion compensation unit 504 includes a function of intra prediction, and the motion compensation unit always outputs a predicted macroblock image. '
  • FIG. 29 (Figs. 14 to 17) and the storage medium (Fig. 14) that stores the encoded bit stream generated by the encoder shown in Figs.
  • An example of the recording medium is shown in FIG.
  • a recording disk (magnetic disk ⁇ optical disk) 3000 that can record digital information, digital information is recorded concentrically.
  • a slice head including the direct mode and the substitute mode selection information (_ 6 1106-1 331 316) 3011, 3010, 31 (11 3 mode information (mb—skip—run) 3021, 3031, 3041, 3051, macroblock type information (mb—type, 8x8 partition) 3022, 3032, 3052, reference frame number and motion vector information (ref—index—a few, rei-index_bwd, mvd_fwd, mvd—bwd) 3023, 3053, DCT coefficients and coding block pattern information (CBP, residual 0) 3024, 3054.
  • the slice header is described below.
  • the combination of 3031, 3032, and 3035 indicates the encoded data of the macroblock whose macroblock type is direct, in which case the reference frame number and the motion vector are used.
  • the prediction direction and the reference frame number are determined by processing 2640 in FIGS. 14 to 17 in the software decoder and in FIG. 27 in the dedicated decoding device.
  • 3041 dynamic Kibeku torr is calculated is an example of a skip macro-block is a macro block type is direct, not DCT coefficient information is present.
  • the software decoder performs the processing 2640 shown in FIGS. 14 to 17 in the software decoder and the processing 2640 in FIG. 27 in the dedicated decoding device.
  • the prediction direction, the reference frame number, and the motion vector are calculated, and the predicted macroblock image synthesized with these data becomes the reproduced macroblock image as it is.
  • the code indicating the direct mode as the macroblock type in the storage medium efficiently, it is possible to synthesize a reproduced macroblock image with a small amount of information.
  • FIG. 31 shows a specific example of an apparatus for implementing the encoding method and the decoding method of the present invention.
  • the decoding method of the present invention can also be implemented in the reproducing device 3102 that performs the dangling. In this case, the reproduced video signal is displayed on the television monitor 310.
  • the encoding method of the present invention can be implemented in the recording / reproducing device 3 1 1 2.
  • the decoding method of the present invention can be implemented in a recording / reproducing device 3112 that decodes an encoded bit stream recorded on the optical disk 3113. In this case, the reproduced video signal is displayed on the television monitor 3114.
  • the software for the image encoding method and decoding method of the present invention into the personal computer 3 121, it is possible to utilize it as an image encoding / decoding device.
  • This software is recorded on some kind of storage media (optical disk, floppy disk, hard disk, etc.) 321 which is a computer-readable recording medium, which is read and used by a personal computer.
  • this bathocon by connecting this bathocon to any communication line, it can be used as a solar communication terminal.
  • the decoding method of the present invention can be implemented in a decoding device in a set-top box 3 1 3 2 connected to a cable 3 1 3 1 or an antenna of satellite digital broadcasting or terrestrial digital broadcasting, Digital broadcasting It is also conceivable to have a configuration in which the video is reproduced on the video monitor 3 1 3 3.
  • a decoding device including the decoding method of the present invention may be incorporated in a television monitor.
  • a device including the encoding method and decoding method of the present invention or a software encoding device and decoder can also be mounted on the digital portable terminal 3 1 4 1.
  • the mounting format there are three types of mounting formats: a transmitting / receiving terminal having both the encoding method and the decoding method, a transmitting terminal only for encoding, and a receiving terminal only for decoding.
  • the encoding device / decoding device of the present invention into a camera 315 for capturing a moving image.
  • the photographing camera has an encoding device and a recording device for recording the output from the encoding device on a recording medium, and records the encoded bit stream output from the encoding device on the recording medium.
  • the recording medium may be an optical disk. If the portable terminal has a camera, it is also possible to encode the captured image and transmit it through an antenna.
  • the encoding device / decoding device of the present invention into the video conference system 316 1 having a camera input.
  • the video input from the camera is encoded into an encoded bit stream by an encoding device, and is distributed to the network 316.
  • the encoded bit stream received from the network is decoded by the decoding device and displayed on the monitor.
  • means for realizing the decoding method in addition to the encoding method of the present invention may be a software encoder * decoder instead of the encoding device * decoding device.
  • the header information of the present invention makes it possible to clearly determine whether or not it can be used in the direct mode. Further, when the frame number has no time information, it is possible to efficiently send information indicating the relationship between the reference frame and the current frame. In addition, the substitute mode and its switching procedure of the present invention can improve the prediction performance when the direct mode cannot be applied. Industrial applicability

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

従来は、ブロックによって、Directモードを効果的に適応できないものがあった。そこで、デフォルトで設定される後方向の参照フレームがDirectモードに利用可能であるか否かを示す情報をデコーダに提供し、又、collocated blockが効果的に利用可能な前方向動きベクトルを持たない場合に適用できる代価方式への切り換え手順と代価方式を提供する。これにより、directモードに使用できるか否かか明確に判断できるようになる。さらに、フレーム番号が時刻情報を持たない場合において、参照フレームと現フレーム間の関係を示す情報を効率良く送ることが可能となる。また、本発明の代用モードとその切り換え手順により、directモードが適用できない場合の予測性能を向上させることが可能となる。

Description

明 細 書. 動画像符号化方法及び復号化方法 技術分野
本発明-は、 圧縮動画像データの符号ィヒ ·復号化技術に係り、 特にプロック単 位での符号 ·復号化の技術に関する。 背景技術
ブロック単位で符号化 ·復号化処理を行う動画像の符号化 .復号化方法の概 要について説明する。 動画像の 1フレームは、 図 3に示すように、 1個の輝度 信号 (Y信号: 61)と 2個の色差信号 (Cr信号: 62, Cb信号: 63)にて構成されてお り、色差信号の画像サイズは縦横とも輝度信号の 1/2となる。一般のビデオ規格 では、 動画像の各フレームを図 3に示すような小ブロックに分割し、 マクロブ ロックと呼ばれるプロック単位で S生処理を行う。 図 5にマクロブロックの構 造を示す。 マクロブロックは 16x16画素の 1個の Y信号ブロック 30と、 それと空 間的に一致する 8x8画素の Cr信号ブロック 31ならびに Cb信号ブロック 31にて構 成されている。
ビデオの符夸化は、 上記に示したマクロブロック単位で処理される。 符号ィ匕 方法には、大きく分けて 2種類あり、それぞれ、イントラ符号化(イントラモー ド)、予測符号ィ匕 (インターモード)と呼ばれている。イントラ符号化は、符号化 対象の入力マクロプロック画像に対して、 あるいは入力マクロプロック画像に 空間予測を施して生成した予測マクロプロック画像と入力マクロプロック画像 との間で差分を取った誤差マクロブロック画像に対して DCTを施し、各変換係数 を量子化 ·符号化する空間方向のデータ圧縮方法である。 このイントラ符号化 は、前フレームに似通った部分がないマク プロック(第 1符号化フレームも含 む)や、 DCTに伴う蓄積演算誤差を解消したい部分等に配置される。 予測符号化のアルゴリズムは、 MC- DCT (動き補償-離散コサイン変換)と呼ばれ ている。 動き補償とは、 参照フレームから対象マクロブロックの内容と似通つ た部分を検索し、 その動き量 (動きべクトル)を符号化する時間方向の圧縮技術 である。 通常は、 マクロブロックを更に小ブロックに分割し、 小ブロック毎に 動きべクトルを算出する。 例えば、 MPEG- 4 Part 10 (Advanced Video Coding) では、 動き補償を行う際のマクロブロック分割タイプ (輝度成分)を図 7のよう に考える。 基本はタイプ 51〜タイプ 54の 4種類である。 タイプ 54の場合には、 4個の 8 X 8ブロック 54- 0〜54 3それぞれについて、 更にタイプ 54a, 54b, 54c, 54dとイントラ符号ィ匕の 5種類から選択する構造となっている。各小ブロックに おける動きべクトルの検出方法としては、 ブロック内の予測誤差信号の絶対値 和あるいは 2乗誤差和が小さレ、部分を選択する。 演算速度を重要とする場合に は絶対値和、 符号化効率を追求する場合には 2乗誤差和を使用する。 さらに、 符号化効率を追求する場合には符号量を 2乗誤差和の評価値に換算し、 予測誤 差と符号量の両者を用いて最適な符号化モードと動き量を計算する方法が適用 されることもある。 図 4に 1ブロックにおける動き補償の処理構造を示す。 図 4は、 太枠で囲んだ現フレーム 71の輝度信号ブロック 72について、 前フレーム 73 (参照フレーム)上の予測ブロック 75と動きべク トル 76を示した図である。 動 きべクトノレ 76とは、 現フレームの太枠ブロックに対して空間的に同位置に相当 する前フレーム上のブロック 74 (破線)から、 前フレーム上の予測ブロック 75領 域までの移動分を示している (色差信号用の動きべク トル長は、 輝度信号の半 分とし、符号ィ匕はしない)。 この動き補償の後、複数の予測ブロックから構成さ れる予測マクロブロック画像と入力マクロブロック画像との間で差分を取つた 誤差マクロプロック画像に対して DCTを施し、各変換係数を量子化'符号化する。 さらに検出したマクロブロック内の動きべクトルも符号ィ匕される。 隣接するブ ロック間の動きベク トルは近い値を持っため、 通常、 隣接ブロックの動きべク トルとの差分値を符号化する。
予測符号化の動きネt償方法としては、 時間的に過去のフレームを参照フレー ムとして MCを行う前方向予測符号化のほかに、 時間的に過去と未来のフレーム を参照フレームとして MCを行う双方向予測符号ィヒがある。 上記に示した前方向 予測符号化の動き補償では、 前方予測のみを极うが、 双方向符号化の動き補償 では、前方予測(Forward Prediction)の他に、後方予測(Backward Prediction)、 前方予測プロックと後方予測プロック内の各画素に内挿処理を施して内挿予測 ブロックを生成する双方向予測(bi-directional Prediction)、ならびに時間的 に未来のフレームから過去のフレームへの動きべクトルを利用して双方向予測 を行う直接予測 (Direct)を扱う。 前方予測、 後方予測ならびに双方向予測モー ドでは、 前方向の動きべクトルに対応する動きべクトル、 後方向の動きべクト ルに対応する動きべクトル、 前方向の動きべクトルと後方向の動きべクトルに 対応する動きベク トルを、 それぞれ符号化するが、 この Directモードでは動き ベク トルの符号化は必要としない。 図 9に Directモードの予測概念を示す。 図 に示すように、 まず、 現フレーム 120上の予測対象ブロック 121と空間的に同一 位置にあたる後方向の参照フレーム 130上のプロック(131, collocated- block) の前方向動きべク トル 132を時間的なフレーム位置の割合で前方向動きべクト ル 122と後方向動きベクトル 123に-換算する。 そして、 これらの換算動きべタト ルを用い: C双方向予測と同様の内挿処理を施す。
全てのマクロブロックに対してィントラ符号化を適用したフ レームを I - picture、前方向予測符号ィ匕あるいはイントラ符号ィヒにて構成されるフレーム を P- picture、双方向符号化あるいはイントラ符号化にて構成されるフレームを B- pictureと呼ぶ。
ここまでは、 一般的な符号化 ·復号化方法について説明してきたが、 近年の 符号化,復号化方法では、 選択の自由度を広げる機能が適用されている。 以下 に、 新しい機能についていくつか説明する。 これらの機能は、 MPEG-4 Part 10 (Advanced Video Coding)でも検討されている。
1. 複数参照フレーム
上記では、 動き補償に用いる参照フレームの数を P-pictureで 1枚、 B- picture で過去フレ1 ~ム (forward reference picture) と未来フ レーム (backward reference picture)の 2枚としてきた。 しかしながら、 過去方向と未来方向の 参照フレームとして、 それぞれ複数枚を用意し、 マクロブロック単位やマク口 ブロックを分割した小ブロック単位で異なる参照フレームを選択する方法があ る。また、従来は、参照フレームは、 I- pictureか P- pictureであったが、 B- picture を reference pictureとして選択することも可能とされている。
2. 2方向参照フレーム予測
複数参照フレームにおける backward reference pictureの候補に、 時間的に過 去方向のフレームを含めることを可能とする。 この方法では backward reference pictureがすべて時間的に過去方向のフレームであることも許され る。 そのため、総称として Bi-directionalの替わりに、 Bi- predictiveとレ、う言 葉が用いられる。 2個の参照フレーム 140, 150が共に時間的に過去のフレーム または共に未来のフレームの場合には、 現フレームから遠い参照フレーム 150 に対する動きべクトル 127の符号化方法が変更される。図 1 0に示すように、現 フレーム 121に近い参照フレーム 140に対する動きべクトル 124を時間的なフレ ーム位置の割合で換算した動きべクトル 125と動きべクトル 127との差分べクト ル 126が水平 ·垂直成分毎に符号化される。
3. 符号化/複号化順序の変更 .
従来は、 各フレームの処理順序は I-pictureと P- pictureは表示順で、 時間的に 2個の I/P- picture間に位置する違続する B_pictureが後者の I/P- pictureの直 後に続くという図 1 1のフォーマットに従っていた。 しかしながら、 新しい機 能では、 許容される表示遅延の範囲であれば、 この処理順に限定されない。 ま た、 Bi- predictiveの概念を使用する場合には、 B- pictureは、 後方予測のため の参照フレームを持たない場合でも発生し得る。 なお、 上記の表示順序は、 ビ デォデータのデータヘッダ情報として符号化されるか、 あるいはビデオデータ の上位概念にあたり、 ビデオデータとオーディォ ·音声データの同期処理や、 データの分割配信を司る通信レイヤやファイルフォーマットが管理しているた め、 符号ィヒ ·復号化処理順序の変更に伴う表示ずれの問題は発生しない。
4. フレーム識別
従来は、'各フレームについて、 表示位置を示す情報が符号ィヒされていた。 しか しながら、 この表示位置情報は、 実際に表示時に適用される通信パケットゃフ アイルフォーマットに含まれる時刻情報と一致しない場合がある。 この問題を 避けるために、 ビデオデータでは、 各フレームを処理番号のみで管理する方法 も検討されている。
し力 し、 新しい機能を導入した動画像符号ィヒ ·復号化方式では、 directモー ドに使用する後方向の参照フレームが存在しない場合や、 複数の後方向の参照 フレームからデフォルトで設定される後方向の参照フレームが未来のフレーム でない場合が考えられる。 このようなフレームでは、 directモードは適応でき ない。 また、 各フレームの管理が復号順の番号で管理されている場合には、 後 方向の参照フレームが利用可能か否かの判断ができない。 また、 directモード に使用する後方向の参照フレームとして B- pictureが選択されるような場合に は、 collocated blockが前方向の動きベクトルを持たない場合が考えられる。 このようなブロックでは、 directモードは適応できない。
以上の課題に鑑み、 本発明の目的は、 directモードを効率よく適用できる符 号化 ·複号化方法を提供することである。 発明の開示
(解決手段)
デフォルトで設定される後方向の参照フレームが directモードに利用可能で あるか否かを示す情報をデコーダに提供する。 collocated blockが利用可能な 前方向動きべクトルを持たなレ、場合に適用できる代価方式への切り換え手順と 代価方式を提供する。
さらに、 動きベク トルに関する情報を受け取り、 記録される参照画像と該動 きべクトルに関す情報とを用いて動き補償を行って予測画像を合成する動画像 の符号化及び復号化方法について。 動き補償が動きべクトルの復号を伴わない モードを含む複数のブロックモードを有し、 予測方向を表す予測モードを選択 し、 該予測モードにおける各予測方向の予測で参照するフレームを複数の参照 フレームの候補から選択し、 該予測モードで用いる動きべクトルの情報を選択 する方法。 特に、 上記予測モードを、 現在のブロックに隣接するブロックが動 きべクトルを有するか否かに基づいて行うこと。又、参照するフレームは、 index 番号にて識別された複数の参照フレームから 1個の参照フレームを選択するも のであって、 複数の上記隣接プロックが上記予測方向の予測を適用している場 合には何れかの上記隣接プロックの使用する参照フレームを選択し、 1個の上 記隣接プロックのみが上記予測方向の予測を適用している場合には該 1個の隣 接プロックが適用する index番号の参照フレームを選択し、上記隣接ブロックが 上記選択された予測モードを採用していない場合には index番号が 0番の参照 フレームを選択することを開示する。 又、 複数の上記ブロック単位に付される ヘッダに、 ブロックモードとして上記動きべクトルの復号を伴わないモードが 選択された場合の予測手順を決める情報を含める方法も開示する。
更に、 上記方法を適用した装置等も開示する。
本願の上記構成により、 directモードを適用できるか否かの判断が明確とな る。又、 directモードとその代用モードを有効的に利用することが可能となり、 予測効率が向上しデータ量を削減することもできる。 図面の簡単な説明
図 1は、本発明におけるピクチャヘッダデータシンタッタスの例を示した図、 図 2は、 本発明におけるピクチャへッダデータシンタックスの第 2の例を示 した図、
図 3は、 マクロブロック分割を説明する図、
図 4は、 動き補償の原理を説明する図、
図 5は、マクロプロックに含まれる有意 DCT係数の有無を符号化する際に利用 するプロック構成を示す図、
図 6は、 DCT処理ならびに符号化処理を行うブロック単位を示すマクロブロッ ク構成を示す図、
図 7は、 動き補償を行うブロック単位を示す輝度プロックの構成を示す図、 図 8は、 予測動きベク トルの生成手段を説明する図、
図 9は、 Directモードにおける双方向予測のための動きべクトル生成方法を 示した図、
図 1 0は、 2枚の前方向参照フレームを用いた動きべクトル算出方法を示し た図、
図 1 1は、 復号順と表示順の比較例を示した図、
図 1 2は、 本発明における予測方法の切り換え手順の例を示した図、 図 1 3は、本発明における予測方法の切り換え手順の第 2の例を示した図で、 図 1 4は、 本発明における代用モードの全体構成を示した図、
図 1 5は、 本発明における代用モードの予測モード選択処理を示した図、 図 1 6は、 本発明における代用モードの参照フレーム選択処理を示した図、 図 1 7は、本発明における代用モードの動きべクトルの選択処理を示した図、 図 1 8は、 予測フレームのデータシンタックスの例を示した図、
図 1 9は、 ユニバーサル符号化表の構成例を示した図、
図 2 0は、 P- pictureにおけるマクロブロックタイプの符号表と 8 X 8ブロック 分割タィプの符号表の例を示した図、
図 2 1は、 B- pictureにおけるマクロブロックタイプの符号表と 8 X 8ブロック 分割タイプの符号表の例を示した図、
図 2 2は、 本発明における符号ィ匕処理のブロック図の例を示した図、 図 2 3は、 本発明における復号化処理のブロック図の例を示した図、 図 2 4は、 本発明におけるピクチャヘッダデータシンタックスの第 3の例を 示した図、
図 2 5は、 本発明における予測方法の切り換え手順の第 3の例を示した図、 図 2 6は、 本発明の符号化方法を実施する符号化装置における予測パラメ一 タ算出器の例を示した図、
図 2 7は、 本発明の復号方法を実施する復号装置における予測パラメータ算 出器の例を示した図、
図 2 8は、 本発明の符号ィヒ方法を実施するソフトウエア符号ィ匕器の例を示し た図、
図 2 9は、本発明の復号方法を実施するソフトウヱァ復号器の例を示した図、 図 3 0は、 本発明の符号化方法により生成された符号化ビットス トリームを 記録した光ディスクの例を示した図、
図 3 1は、本発明の符号化'復号化方法を使用する装置の具体例を示した図、 を示す図である。 発明を実施するための最良の形態
(実施例 1 )
以下、 図を用いて本発明の実施の形態を説明する。
以下、 スレームヘッダからマクロブロックデータに至る処理の流れを順に説 明する。
図 1にフレームヘッダ情報の例を示す。また、以下に C言語によるピクチヤへ ッダデータのデコード処理例を示す。
picture一 layer ()
{
picture一 structure
frame一 numoer
reference— picture一 selection— layer ()
if (coding—type () B - picture) {
direct一 mv一 scale一 bwd—dir [index]
if (direct_mv scale— bwd—dir [index] ) { II未来方向 direct一 mv一 scale一 bwd [index]
for (index=0; indexく number of forward reference ; index++) {
direct— mv一 sea上 e— fwd— dir [index]
if (direct_mv_scale_f wd_dir [index] ) II過去方向
direct一 mv— scale— fwd [index]
}
}
picture— structure20では、 各 pictureのスキャン構造(フレーム/フィーノレド) が示される。 frame— number21には、 そのフレームの識別番号が示される。 この frame_numberの付け方には大きく 2種類ある。 1つは、 時刻情報を含む場合で ある。 この場合には、 I, P- pictureでは直前のェまたは P- pictureとのフレーム 間隔、 B- pictureでは時間的に過去の直前ェまたは P- pictureとのフレーム間隔が frame— numberとなる(一般には Temporal reference ; TRと呼ばれている)。 2つ めは、 単純に復号する順番を示す場合である。
reference_picture— selection一 layer ()では、現フレームの動き補賞.処理に使 用 言 な核数参照フレームの frame一 number (reference icture set) とその識 別番号が示される。 例えば、 参照フレームが 5枚の場合には、 frame number 10 の現 pictureの対して以下のように index0〜index4への frame— numberが割り当 てられる。
Index 0 : 9
Inde 1 : 8
Index 2: 7
Index 3 *· 6
Index 4: 5
なお、 ピクチャタイプ力 p_pictureの場合には、前方向の参照フレーム(forward reference picture set)、 B- pictureの場合には、 前方向と後方向の参照フレー ム (forward reference picture setと backward reference picture set)の frame— numberが復号される。 この際、 前方向と後方向の参照フレーム数は個別 に設定できるため、 異なる場合もある。 ピクチャタイプが I-pictureまたは P - pictureの場合には、 これらの reference picture set情報に続くバイトァラ イン情報 (データの区切りをバイ ト単位に併せるための情報)にてピクチャレイ ャは終了となる。以降のピクチャヘッダデータは、ピクチャタイプが B- picture の場合に発生する。 なお、 本実施例では、 上位のネットヮーグ ·通信関連情報 が含まれるレイヤに記載されているものと考える。 direct— mv— seal e_bwd—dir 28は、 directモード用に指定される後方参照フレームが現フレームに対して未 来に位置している力過去に位置しているかを示す情報である。 directモード用 に指定される後方参照フレームは、 通常、 index 0に割り当てられた backward reference pictureである。 データ 28が後方参照フレーム(ここでは、 indexOに 割り当てられた backward reference picture)が現フレームに対して過去に位置 していることを示している場合には direct modeが使用できず、データ 28が後方 参照フレームに対して現フレームが未来に位置していることを示している場合 には direct modeが使用できる。 したがって、 このデータ 28にて、 index 0の backward reference picture力 Sdirectモードに使用できる力否力、が明確に半 lj断 できる。 また、 directモードが実施できない場合には、 後述する代用モードを 適用する必要があり、 そのためのメモリ配置等の準備面で、 復号作業の効率化 が促進できる。 さらに、 frame_numberが時刻情報を持たない場合において、 reference picture t current picture間の関係を示す情幸艮を効率良く送ること が可能となる。 directモードに関するピクチャ位置情報には、 direct mode以外 にも使用されるものと、 使用されないものがある。 後者に関しては、 direct— mv— seal e_bwd—dirにより符号化を避けることが可能となる。
具体的には、図 1に示すように、 direct— mv—scale_bwd—dir力 directモード使 用可能、すなわち現フレームに対して未来方向に位置することを示すときには、 データ 26, 27, 29が符号化されるが、 directモード使用不可であることを示す ときにはこれらのデータは符号化されない。 direct— mv—scale_bwd29は、 current pictureと index 0の backward reference picture間のフレーム間隔を示す情報 である(図 9参照)。 direct_mv— scale一 fwd— dir 26は、 前方参照フレームが現フ レームに対して未来に位置しているか過去に位置しているかを示す情報であり、 direct一 mv— scale— fwd27は、 current pictureと forward reference picture間の ピクチャ間隔を示す情報である(図 9参照)。 direct— mv— scale— fwdについては、 reierence_picture— selection— layer (22)にて指定される forward reference pictureの数だけ符号ィヒされている必要がある。伹し、 directモードを使用する には、 前方向の参照フレームは現フレームに対して過去に位置している必要が あるため、 direct— mv一 scale_fwd—dir 26が未来方向を示す indej (については、 direct— mv一 scale— fwd 27は省略される。 direct一 mv— scale一 dividerは、 index 0 C oackward reierence picture iorward reference picture間のピクテャ間 を示す情報である(図 9参照)。 従って、 この情報も: forward reference picture の数だけ符号化されている必要があるが、 direct— mv— scale— fwdと direct_reference— bwdから算出できるため、 省略することも可能である。 この 情報も direct— mv_scale— fwd一 dir 26力 s未来方向を示す index につレ、ては、 direct_mv_scale_fwd 27は省略される。
B - pictureの場合においても、 バイトァライン情報(データの区切りをバイト 単位に併せるための情報)にてピクチャレイャは終了となる。
direct—mv—scale—iwdや direct— mv— scale一 bwd ま、 | | 1 0 に示 れる picture— distanceとしても使用できるため、 図 1を図 1 0の動きべクトル符号 化にも拡張したデータシンタックスを図 2に示す。
picture一 layer ()
{
picture— structure
frame numoer ref erence_picture_selection_layer ()
if (coding—type () == B- picture) {
for (index=0; indexく number of forward reference; index++) {
direct一 mv一 scale一 f wd— dir [index]
direct一 mv— scale— fwd [index]
j
for (index=0 ; indexく number of backward reference ; index++) {
direct一 mv一 scale一 bwd— dir [index]
direct一 mv一 scale— bwd [index]
}
}
}
B - pictureの場合について説明する。 この場合には、現フレームで使用可能な 全ての参照フレームについて、データ 26〜29が符号化/復号化されるが、 これら のデータは図 1 0に示した動きべク トルの符号化処理に利用する picture— distanceの情報としても利用される。この図 2でも図 1と同じように、 direct— mv_scale— bwd— dir [0]が directモードの使用可否を示す役割を果たすが、 図 2では、 さらにデータ 26と 28の組み合わせにより、 図 1 0の処理が使用可能 であるか否かを示す。 図 1 0の動きベクトル符号化は、 2本の動きベクトルに 対応する 2つの参照フレームが現フレームに対して同じ方向である場合に有効 となる。 そのため、 ブロックで選択された 2つの reference pictureの index番 号に対応するデータ 26と 28の値が、 現フレームに対して異なる方向に位置する 2つの参照フレームの組み合わせである場合には、 図 1 0の動きべクトル符号 化方法ではなく、各動きべクトルを図 8の方法で個別に符号化/復号化する。一 方、 ブロックで選択された 2つの reference pictureの index番号に対応するデ ータ 26と 28の値が、 現フレームに対して同じ方向に位置する 2つの参照フレー ムの組み合わせである場合には、 現フレームから離れた動きべクトルについて は、 図 1 0の方法が適用される。
ここまで ίま、 directモ1 ~~ドに使用する Backward reference pictureを index 0 として説 してきに。し力、しな力 ら、 backward reference picture set力 ¾ら:111(16}( 0以外の番号を directモードの backward reference pictureとして選択すること も考えられる。 例えば、 図 1と 2の direct_reference—idx—bwd 24のように、 directモー に 用する Dackward reference pictureの index番号 ヒクチャレ ィャで示すことにより、 フレーム単位で backward reference pictureを変更す ることが可能となる。 さらに、 direct— reference— idx—bwd 24を index番号その ものではなく、 index番号に 1を足した値とすることにより、値 "0"に directモ ードに使用できる後方参照フレームが backward reference picture setにない という意味を持たせることが可能となる。
次に図 Γ 8のマクロブロックレイヤシンタックス、 図 2 0、 2 1のマクロブ ロックタイプコード表を用いて、 マクロブロックデータの構造について説明す る。 符号化に使用する方法としては、 1種類の可変長符号表のみを用いる Universal VLC (UVLC)、 固定長符号化と可変長符号化(各符号ィヒ要素に異なる符 号表を用意)を組み合わせた符号化方法ならびに、算術符号化 (Witten et al., " Arithmetic Coding for Data Compression", Comm. of the ACM, 30 (6), 1987, pp. 520-541)などが考えられるが、本実施例では、 UVLCと算術符号ィ匕を例として 説明する。 図 1 1の表 81が UVLCの構成を示しており、 Xnの値は '0' または ' 1, となる。 表 82に、 実際の可変長符号表の例を示す。 算術符号化の具体的な方法 としては、 各符号の意味を数ビットのバイナリーデータに置き換え、 各ビット を各々の 0と 1の発生確率を示す生起確率モデルに応じて符号化する方法を考え る。 この方 fete_、 CABAC (し ontext— based Adaptive Binary Arithmetic Coding) と呼ばれている。 . 図 1 8は、 B - pictureにおけるマクロブロックデータのシンタックス構造を示 している。 この図を用いて、 B- pictureならびに P- pictureのマクロブロックデ ータ構造について説明する。 なお、 I- pictureについては、本願の特徴に含まれ ないため説明を省略する。
mb_skip_runllでは、連続する SKIPモード数をランレングス符号化(連続する 0 の数を符号化、 1つ前のマクロプロックのタイプが SKIPモードでない場合には、 連続する SKIPモードの数をゼロとする)したデータで、ェント口ピー符号化の方 法として UVLCを用いる場合にのみ発生する。 SKIPモードとは、 予測誤差信号を 符号化せず、 予測プロック画像をそのまま再生プロック画像とするマクロプロ ックタイプである。 予測ブロック画像は、 P- pictureでは index 0の forward reference picture力 ら予測べク トル位置に相当するマクロブロック画像を切 り出す方法、 B- pictureでは directモードにて合成される。 この SKIPモードは、 低レート符号化にて多く選択されるモードであり、特に B- pictureでは選択され る確率が高い。 従って、 directモードの予測性能は、 低レートの符号化性能に 直接影響する。 CABACを用いた符号ィヒ方法では、 mb— skiP_runllは使用せず、 SKIP モードも mb— type 12にて扱う (表 91, 93の code number 0の欄参照)。 mb_typel2 では、 表 91 (P- picture)または表 93 (B- picture)に示されるマクロブ口ックモー ドからマクロプロック毎に 1つのモードが選択され、符号化される。表 91では、 code number 6, 7に示されている IntraMXNの M, Nは空間予測を行う際の小ブロ ックサイズを示しており、MX Nは動き補償を行う際の小ブロックサイズ(図 7の モード 1〜モード 4)を示している。但し、 code number 5に示されるモードは CABAC の場合には使用しない。 表 93では、 code number 23, 24に示されている IntraM X Nの M, Nは空間予測を行う際の小プロックサイズ、 MXNは動き補償を行う際の 小ブロックサイズ (図 7のモード 1〜モード 4に対応)を示しており、 directは directモード(Direct (CBP==0)は、 CABAC適用時の SKIPモード)を示している。表 93の Block 1ならびに Block 2は、 図 7のモード 2またはモード 3における 2個の 小ブロックを識別しており、 各小ブロックの予測方向が Forward (前方予測)、 Backward (後方予測)、 Bi- predictive ( 2方向参照フレーム予測)のいずれであ るかを示している。
ここで、 directモードについて説明を加える。 mb— skip— r皿 11と mb type 12 の選択候捕に directモードが含まれているが、 複数参照フレーム機能や 2参照 フレームの機能を適用する方式では、 directモードが適用できないケースが考 えられる。 そこで、 本発明では図 1 2に示すように、 条件に応じて予測方法を 切 り 換え る 手順を用 レ、 る。 最初に、 ピ ク チ ャヘ ッ ダ内 の direct_mv_scale_bwd_dir (|¾ 1 )または direct一 mv一 scale一 bwd— dir [0」 (図 2 )に て、 current pictureに directモードが使用可能か否かをチェックする(301)。 処理 301にて使用不可と判定された場合には、 collocated blockの forward MV を必要としない代用モード (詳細は後述) にて予測マクロブロックを作成する (304)。処理 301にて使用可能と判定された場合には、 8x8プロック毎に予測方法 の選定を行う。 ここで 8x8ブロックとしたのは、 図 7のプロック分割方法では、 参照フレームと予測方向選択の最小単位が 8x8ブロックとされているためであ る。 具体的には、 8x8ブロックに対応する collocated blockに forward MVを持つ 予測モードが適用されているか否かをチ ックする(302)。そして、適用されて いると判定された場合には、 directモードにて予測ブロックを作成し(303)、適 用されていないと判定された場合には、 代用モードにて予測ブロックを作成す る(304)。 処理 302では、 coll.ocated 8x8 blockについて、 予測モードが intra モー卜の ¾合、 卞測方向力 backward predictionの場合、 forward reference pictureにメォする direct一 mv一 scale一 fwd—dir [index]の1 ί直 current pictureにナ して後方向 (未来方向) に位置することを示している場合、 あるいは forward reference picture力、 current pictureの forward reference picture setに含ま れていない場合に、 directモード使用不可と判定する。 なお、 図 1 2の処理 302 では、 8x8ブロック単位で directモードの使用可否判定を実施しているが、これ をマクロブロック単位で実施することも可能である。 但し、 この場合には、 マ クロプロック内のすべての予測ブロック、図 7のブロック分割方法の場合には 4 個の 8x8ブロックのすべてが、 directモード使用可能の状態である場合にのみ、 directモード使用可能と判定される。 図 1 3は、 ピクチャヘッダの構造にデー タ 24が追加された場合について、 予測方法を切り換える手順を示している。 図 1 2と異なる点は、処理 301が処理 305に変更されている点であり、具体的には、 チェックする direct— mv_scale_bwd_dirの index番号が図 1 3のデータ 24にて設 定した値とされている点である。
図 1 8の説明に戻る。
Figure imgf000018_0001
が選択された場合には、図 7 のモード 4に示される 4個の 8 X 8小ブロック 54- 0〜54 - 3について、それぞれ、 8x8 Partition 13が発生する。具体的には、 8x8 Partition 18では、表 92 (P-picture) または表 94 (B- picture)に示される 8x8 partitionモードから各 8x8ブロックに ついて 1つのモードが選択され、 符号化される。 表 92では、 code number 4に示 されている Intraは空間予測を示しており、 MXNは動き補償を行う際の小プロッ クサイズ(図 7の 8x8 partition l〜8x8 partition 4)を示している。 表 94では、 code number 13に示されている Intraは空間予測の適用、 MXNは動き補償を行う 際の小ブロックサイズ(図 7の 8x8 partition 1〜8χ8 partition 4)を示してお り、 directは directモードを示している。表 94の Predictionは、図 7のモード 4 に属する各小ブロックの予測方向が Forward (前方予測)、 Backward (後方予測)、 Bi - predictive ( 2参照フレーム予測)のいずれであるかを示している。
8x8 Partition 18にて directモードが選択された場合においても、 図 1 2ま たは図 1 3と同様の予測方法切り換え手順が適応できる。 しかしながら、 8x8 Partition内の directモードの予測性能は directモード MBほど重要ではない。そ こでより簡単な方法を適用することも可能である。 例えば、 処理 302にて collocated blockが Forward MVを持っていないと判定される場合に、 処理 304 の替つりに、 Forward MVを 0ベタ トゾレ、 forward reference pictureならび(こ backward reference pictureの indexを 0に設定した上で directモードにて予根 IJ ブロックを生成する方法が考えられる。 この際、 backward reference picture が存在しない場合には、 forward predictionのみで予測ブロックを生成すれば よい。 より簡単には、 処理 302にて collocated blockが Forward MVを持っていな いと判定されるケースでは、 符号化側にて directモードの選択しない方法が考 えら る。 mb_typel2と 8x8 Partition 13の符号化方法については、 UVLCを利用する場合 には、表 91〜94の code numberに対応するコードを表 82から選択して符号ィ匕する。 CABACを利用する場合には、表 91〜表 94の Binarizationの欄に示されているビッ ト列を各ビットの確率モデルを用レ、て算術符号化する。
ref—index— fwdl4は、 動き補償に使用する前方向の参照フレームの index番号 を示しており、 当該マクロブロック内の各分割ブロック(図 7の 51〜54)につい て必要とされる。 Index番号は forward reference picture set力 ら選択される。 但し、 forward reference picture setに含まれる参照フレームが 1枚のみの場 合、ブロックタイプぁるいはマクロブロックタイプが Skip, directまたは intra のブロックの場合、 ならびに block predictionが backwardの場合については、 このコードは発生しなレ、。 また、 P-pictureにて mb— typeとして表 9 1の code number 5力 ¾選択 れた ¾合には、 index 0の forward reference picture力参照 フレームとして自動的に選択されるため、 このコードは発生しなレ、。 forward reference picture setが index 0〜: index 4の値を持つ場合を例として、 符号化 方法を考える。 この例では、 index 0〜index 4がそれぞれ、 code number0〜4 に割り当てられる。 UVLCを利用する場合には、 code numberO- 4に対応するコー ドを表 82から選択して符号化/復号化される。 CABACを利用する場合には、 code numberO- 4に対して、 それぞれ Γ , 01' , 001', 0001' , 00001 'のバイナリーデー タを割り当て、 ビット列と各ビットの確率モデルを用いて算術符号化する。 ref— index— bwdl5は、 動き補償に使用する後ろ方向の参照フレームの index番 号を示しており、 当該マクロブロック内の各分割プロック(図 7の 51〜54)につ いて必要とされる。 Index番号は backward reference picture setから選択され る。但し、 ピクテャの種貝力 - pictureの場合、 backward reference picture set に含まれる参照フレームが 1枚のみの場合、 ブロヅクタイプあるいはマク口'ブ 口ックタイプが skip, directまたは intraのブロックの場合、 ならびに block prediction力 forwardの場合については、 このコードは発生しない。符号化方法 については、 ref index fwdと同じであるため、 説明は割愛する。 mvd— fwdl6は、 mb一 type 12と 8x8 Partition 13力 Sfonard (bi—: redictiveも含 む)に伴う動きべク トルを伴うマクロブロックであることを示す場合に発生し、 マクロブロック内の: orward MVの数だけ繰り返される。 また、 したがって、 mb— typel2が: [ntraMXN、 SKIP (P - picture)または direct (B- picture)の場合や、 8x8 Partition 13が intraまたは direct (B- picture)の場合にはこのデータは発 生しなレヽ。 また、 block predictionが backwardの分割ブロ ック の場合 (B - picture)にもこのデータは発生しない。 同様に mvd— bwdl7は、 mb— type 12と 8x8 Partition 13力 ^backward (bi— predictiveも含む) に伴う動きべク 卜ノレを伴 うマクロブロックであることを示す場合に発生し、 マクロブロック内の backward MVの数だけ繰り返される。 また、 したがって、 ピクチャタイプが P- pictureの場合、 mb— typel2が IntraMXN、 directの場合や、 8x8 Partition 13 力 S intraまたは directの場合にはこのデータは発生しない。 また、 block predictionが forwardの分割ブロックの場合にもこのデータは発生しない。 CBP18は、 図 6に示される 24個の DCTブロックについて、 '0'以外の量子化 DCT係 数(有意係数)が 16個係数に含まれているか否かを示す符号化データである。 Residual () 19は、 有意量子化 DCT係数の符号化データを示している。 CBPにて有 意係数が無いことが示されているプロックについては、 符号ィ匕処理が省略され る。 したがって、 CBPが 0の場合には、 Residual ()は発生しない。 さらに、 CBP18 と Residual O 19は、 mb— type 12が direct (CBP=0)のときには発生しない。 ここで、 図 7の分割タイプを例として、 上記に示した予測動きベク トル mvd— fwdl6ならびに mvd— bwdl7の生成方法を図 8に説明する。 図 7のモード 1 (51)のブロック 51-0, モード 4 (54)の小ブロック 54a- 0、 54b - 0、 54b - 1、 54c_0、 54c- 1ならびに 54d-0〜54d - 3については、同じ予測方法を用いる。動きべクトル を符号ィヒする対象の小ブロックを 50と仮定する。 これらの小ブロックでは、 動 きべクトルの水平 ·垂直成分それぞれについて、 隣接位置 A, B, Cに位置する 3 ブロックの動きべクトルを候補としてその中間値を計算し、 中間値の動きべク トルを予測動きベク トルとする。 但し、 符号化順序やマクロブロック位置の関 係で位置 Cのプロックが符号化前の場合や画像の外に位置する場合が考えられ る。 この場合には、 位置 Cのかわりに位置 Dに位置するブロックの動きベク トル を候補動きベクトルの 1つとして用いる。 なお、 位置 Aと Dのブロックが画像の 外に位置する場合には、 その動きべクトルを '0 'ベタ トルとして予測処理を行 い、 位置、 Dと Bと Cが画像の外に位置する場合には、 位置 Aのブロックの動きべ タトルとして予測処理を行う。 この際、 3個の候補ブロックのうち 2個が動き べクトルを持たない場合には、 残りの 1つの候補動きべクトルを予測動きべク トルとする。 モード 2 (52)の 2個の小ブロック(52- 0, 52-1)、 モード 3 (53)の 2個の小ブロック(53-0, 53-1)については、 図 8に示す矢印の根元に位置する ブロックの動きベクトルを予測値とする。 なお、 この方法における動きべクト ル符号化では、 同じ参照フレームの動きベクトルのみが予測に用いられる。 し たがって、 隣接ブロックの動きべクトルが符号化ブロックにて選択された参照 フレームと異なる場合には、 画像の外に位置するものとして扱う。 色差成分用 の動きべク トルについては符号化せず、 輝度成分の動きべク トルを 2で割って 使用する。
図 1 4〜1 7を用いて collocated blockの Forward MVを必要としない代用モ 一ド(4x4 bi - predictive)について説明する。 Directモードならびに Directモー ドを使用する B- pictureにおける Skipモードは、選択率が高く符号化性能を高め るために重要な予測方式である。 しかしながら、 MPEG - 4 Part 10のように、 参 照フレームの選択や各フレームの符号化手順に自由度を持たせた方式では、 図 1、 2ならびに図 1 2、 1 3の説明で示したように、 従来の Directモードが有 効に機能しないフレームやブロックが発生する。 この代用モードは、 従来の Directモードが有効に機能しない場合に切り替えて使用することにより、 予測 性能の低下を抑制したり、 予測効率を高める効果がある。 また、 従来の Direct モードが参照フレームの動きベク トルを使用するのに対して、 この代用モード は現フレームの動きべクトルを利用するため、以降のフレームの符号化/復号処 理のために動きべクトルをメモリに蓄積する処理が不必要となり、 メモリサイ ズを削減する効果がある。 さらに、 代用モードでは、 図 9に示す動きベクトル のスケーリング処理が必要ないため、 復号処理が簡易となる。 この代用モード の予測手順は、 図 1 4に示す 4パートから構成される。 まず、 8x8ブロック単位 で予測方向を bi- predictive, forward, backwardから選択する(610)。選択には、 対象 8x8プロック C 81の直上プロック B 83と直左プロック A 82を用いて実施する。 次に処理 610にて選択した予測モードの実施に必要となる参照フレームの選択 を実施する(620)。 選択には、 対象 8x8ブロック C 81の直上ブロック B 83と直左 ブロック A 82を用いて実施する。 次に 4x4ブロック単位で、 選択した予測モード と参照フレームに対応する動きべクトルの算出処理を実施する(630)。最後に処 理 610と 620にて選択した予測モードと参照フレームと処理 630にて算出した動 きべクトルにて 4x4予測ブロックを合成する。そして算出した動きべクトルと参 照フレームの indexを予測動きべク トル予測用に保存する(640)。 このように、 同一フレーム内の周囲ブロックの情報から予測処理に必要とされる各要素デー タを予測することにより、 局所的な特徴に応じた動き予測が可能となり、 予測 効率が向上する。また、フレーム内の隣接ブロックのデータのみを用いるため、 この代用モード実施のために保存するデータ量が削減される。 以降に処理の詳 細を示す。
図 1 5に処理 610の予測方向選択処理手順を示す。 まず、 対象 8x8ブロックの 直上ならびに直左の 8x8ブロックの何れかが Forward MVを持っているか否かを チェックする(611)。 次に同様に、 対象 8x8ブロックの直上ならぴに直左の 8x8 ブロックの何れかが Backward MVを持っているか否かをチェックする(612)。 そ して、 直上または直左の 8x8ブロックの何れかが forward MVと backward MVを持 つている場合と、直上と直左の 8x8ブロックのいずれも forward MVも backward MV を持っていない場合には、 bi- predictiveを選択する(615)。 直上ならびに直左 の 8x8ブロックが forward MVのみを持っている場合には forward MV (616)、 backward MVのみを持っている場合には backward MV (617)を選択する。 この手順 によれば、予測効率が最も高い bi - predictive予測が優先的に選択される。また、 bi - predictiveを効率良く実施するために必要な情報が周囲プロックから得ら れない場合には、 周囲から得られる情報に基づいて最適と推測される予測方向 が選択できる。 さらに、 周囲から情報が十分な得られない場合には、 他の予測 モードに対して Directモードを選択する効果が高い状態となるように制御する ことで、 予測効率の向上に貢献する。 具体的には、 以降に説明する図 1 6と図 1 7の処理と組み合わせることにより、 indexO (現フレームに最も似通ったフレ 一ムノの forward reference, backward referenceを参照フレームとしたセロ動 きべクトルの bi- predictive予測を選択するような手順となっている。
図 1 6に処理 620の参照フレーム選択処理手順を示す。 この処理は、 forward と Dackwardについて個另Iに実 ¾される。 図 1 6は、 forward reference picture 選択の場合を示しているが、 backward reference pictureについても手順は同 じである。 まず、 対象 8x8ブロックの直上ならぴに直左の 8x8ブロックが何れも forward reference pictureを禾 ll用してレヽる力 ¾ 力をテエックする (621)。 何れ の 8x8ブロックとも forward reference pictureを利用していると判定された場 合には、 2個の 8x8ブロックで使用された forward reference pictureのうち index番号の小さい方を選択する(623)。 処理 621にて少なくとも何れかの 8x8ブ ロックが forward reference pictureを利用していないと判定された場合には、 次に、 対象 8x8ブロックの直上または直左の 8x8ブロックが何れかが forward reference pictureを利用しているか否かをチェックする(622)。 処理 622にて、 ィ可れかの 8x8プロックが forward reference pictureを利用していると判断され た場合には、 利用した forward reference pictureを選択する(625)。 処理 622 にて、 何れの 8x8ブロックも: orward reference pictureを利用していない場合 には、 index Oを選択する (624)。 このように、 隣接ブロックの符号化に適用さ れた Index番号のうち、小さい値を選択するように制御する。 これは、参照フレ ーム候補の設定において、 現フレームとの相関が高いフレームに小さレ、 index 番号を与えためである。 Index番号の設定方法には、自動的に設定される方法と、 符号化時に設定する方法がある n 前者では、 現フレームに近いフレームから順 に小さい index番号が与えられる。後者は、例えばシーンチェンジ時などに適用 され、 以前に符号化した過去の同じカメラアンダルのフレームに小さレ、index 番号を割り当てる。 このように、小さい index番号を選択することにより、処理 対象のフレームに近い画像を選択する可能性が高くなる。
図 1 7に処理 630の動きベク トル算出処理手順を説明する。 この処理は、 4x4 ブロック単位で、 forward, backwardについて個別に実施する。 まず、 直上また は直左の 4x4ブロックの何れかが画像の外に位置しているか否かをチェックす る(631)。処理 631にて、何れかの 4x4ブロックが画像の外に位置していると判定 される場合には、 4x4ブロックの動きベクトルをゼロベクトルとする(625)。 処 理 631にて何れの 4x4ブロックも画像内に位置していると判定される場合には、 次に、 直上または直左の 4x4ブロックの何れかが処理 620にて選択した参照フレ ームへの利用可能な動きべクトルを持っているか否かをチェックする(632)。処 理 632にて何れの 4x4ブロックも選択した参照フレームへの利用可能な動きべク トルを持っていないと判定される場合には、 4x4ブロックの動きべク トルをゼロ ベタトルとする(625)。処理 632にて何れかの 4x4ブロックが選択した参照フレー ムへの利用可能な動きべクトルを持っていると判定される場合には、 直上また は直左の 4x4ブロックが有する何れかの動きべク トルが、 処理 620にて選択した 参照フレームへのゼロべクトルであるか否かをチェックする(633)。 処理 633に て何れかの 4x4ブロックの動きべク トルが参照フレームへのゼロべク トルと判 定された場合には、 4x4ブロックの動きベクトルをゼロベクトルとする(625)。 処理 633にて何れの 4x4ブロックの動きべク トルも参照フレームへのゼロべク ト ルではなレヽと判定された場合には、 4x4ブロックに対する中間値予測により動き ベク トルを算出する。 このように、 ゼロベク トルを優先的に選択するのは、 Directモードが背景部分で特に効果が高いことに対応するためである。
本発明には次のような変形も含まれる。
(1) 本実施例では、 代用モードの使用を図 1 2のように collocated blockの状 況によって決定しているが、 directモードを代用モードに完全に切り換えるこ とも考えられる。 この方法では、処理 301にてフレーム単位あるいはスライス単 位(詳細は変形例(4)に記載)で directモードと代用モードの切り替えを制御す る。 これにより、 選択候補が増え、 特殊効果を施したシーンへの適用性が向上 するため、 予測効率も向上する。 但し、 参照フレームと現フレーム図 9の動き ベク トルの算出を外揷処理にて行う可能性が生じるため、 演算処理量に強い制 約がある条件では図 1 2、 1 3に示すように 2方式の切り替え制御を実施する 方法が有効である。
(2) 図 1 4〜1 7については、 予測方向、 参照フレーム、 動きべクトルを周囲 のブロックから生成するという全体処理が一致してレ、れば細力^、条件について は限定されない。 例えば、 処理 631にて 「直上または直左の 4x4ブロックの何れ 力」 という記述を「直上ならぴに直左の 4x4ブロックの両者が」 に変更した方法 も本願に含まれる。また、モード選択時に利用するプロックを 2個から 3個(予 測ベク トルの作成に使用する) に変えた方法も本願に含まれる。 このモード選 択時に利用するブロックを 2個から 3個に変える方法は、 動きべクトル推定と の整合性が良く、 予測効率の向上にもつながるため、 演算処理量に強い制約が ない条件では有効である。
(3) 図 1、 2ならびに図 1 2、 1 3では collocated blockが現フレームに対し て前方向の forward MVを持っていれば、 その forward MVに対する forward reference pictureの index番号に関わりず directモードを適用する方法にっレ、 て示してきた。 しかしながら、 directモードは、 forward MVに対する forward reference pictureが現フレームから離れると効果が低くなる傾向がある。そこ で、 forward MVに対する forward reference pictureの index番号;^ 0の場合のみ directモードを適応する方法も有効と考えられる。 図 2 4と図 2 5にてその方 法を説明する。 図 2 4にピクチャレイヤのデータシンタックスを示す。
picture—layer ()
{
picture structure , frarae_number
reference_picture_selection_layer ()
if (coding— type () == B- picture) {
direct— reference— usable
if (direct— reference—usable) {
direc t_mv_s cal e一 b wd
direct一 mv_scale—fwd
}
for (index=0 ; index<number of forward reference ; index++) {
picture— distance_fwd—dir [index]
picture distance fwd [index] for (index=0 ; indexく number of backward reference ; index++) {
picture一 distance一 bwd—dir [index]
picture— distance一 bwd [index]
}
ピ ク チ ャ タ イ プ.が B- picture の 場 合 に つ い て 説 明 す る 。 direct— reference— usable 23は、 directモード用に指定される後方参照フレー ムが現フレームよりも未来に位置しているおり、 かつ directモード用に指定さ れる前方参照フレームが現フレームよりも過去に位置しているかを示す情報で ある。 directモード用に指定される後方参照フレームは、 通常、 index 0に割り 当てら た backward reference pictureである力 S、 この十肯3|¾にて、 index 0の backward reference pictureが directモードに使用できるか否かが明確に判断 できる。 また、 directモード用に指定される前方参照フレームは、 通常、 index 0に割り当てられた forward reference pictureであるが、 この情報にて、 index 0 CD forward reference picture力 Sdirectモー (こ使用でさる力否力 ¾カ明確 (こ半 ij 断できる。 このデータ 23が 0、 すなわち index 0の backward reference picture 力 ^ current pictureに対して前方向(過去方向)に位置しているか、 あるいは index 0の forward reference 1)1。1:10"6カ¾(:11:1: 6111: pictureこメ、ナして後方向 (未来 方向)に位置しているピクチヤについては、 directモードが実施できないため、 directモードの適用のために必要とされるピクチャ間隔情報は符号化/復号化 する必要はない。 従って、 この場合には、 current pictureと index 0の forward reference pictureの時間間 praを不す direct— mv一 scale— fwd 2427と current picture と index 0の backward reference pictureの時間間隔を示す directjnv— scale— bwd 2429の符号化/複号化は省略される。データ 26〜29は図 1 0に示す bi - predictiveの動きべクトル符号化に用いるデータである。利用方法 については、 図 2のところで説明したため、 ここでは割愛する。 なお、 direct— reference_usable 23は、 directモード用に指定される後方参照フレー ムが現フレームよりも未来に位置しているか否かだけを示す情報とし、 direct— mv— scale一: wdのィ 不す情幸艮 (direct一 mv一 scale— fwd—dir)をテータ 2427の前に符号化/復号化する方法も考えられる。 図 9で forward reference pictureが、 current pictureよりも後方にある状態のときには、 2つの動きべ ク トル 122と 121は、 外挿計算にてより算出される。
図 2 5の場合について、 directモードの扱いについて説明する。 図 1 2、 1 3の説明で示したように、 図 1 8の mb— skip— run 11と mb— type 12の選択候補に directモードが選択された場合でも、 複数参照フレーム機能や 2参照フレーム の機能を適用する方式では、 directモードが適用できないケースが考えられる。 そこで、 本発明では条件に応じて予測方法を切り換える手順を用いる。 その手 順を図 2 5に示す。 最初に、 ピクチャヘッダ内の direct— reference一 usable 23 にて、 current pictureに directモードが使用可能か否かをチェックする(306)。 に対して時間的に未来に位置しているかあるいは index 0の backward reference 力 ^current pictureに対して時間的に過去に位置していると判定された場合に は、 collocated blockの forward MVを必要としない代用モードにて予測マクロ ブロックを作成する(304)。 処理 306にて使用可能と判定された場合には、 8x8 ブロック毎に予測方法の判定を行う。 ここで 8x8ブロックとしたのは、図 7のブ ロック分割方法では、参照フレームと予測方向選択の最小単位が 8x8ブロックと されているためである。 具体的には、 8x8ブロックに対応する collocated block に Forward MVを持つ予測モードが適用されているか否かをチェックする(307)。 そして、 適用されていると判定された場合には、 directモードにて予測ブロッ クを作成し(303)、適用されていないと判定された場合には、代用モードにて予 測ブロックを作成する(304)。 処理 307では、 collocated 8x8 blockについて、 予測モードが intraモードの場合、 予測方向力 backward predictionの場合、 あ レヽ fま forward reference picture current picture <D forward reference picture setに含まれる index O reference pictureでなレヽ場合に、 directモー ド使用不可と判定する。 なお、 図 1 2の場合と同様に、処理 307の directモード の使用可否判定をマクロブロック単位で実施することも可能である。 但し、 こ の場合には、 マクロブロック内のすべての予測ブロック、 図 7のブロック分割 方法の場合には 4個の 8x8プロックのすべてが、 directモード使用可能の状態で ある場合にのみ、 directモード使用可能と判定される。 なお、 図 2 4の説明で 不し 7こよつに、 direct— reference一 usable 23力 index 0の forward : reference力 s current pictureに対して時間的に未来に位置しているか否かという条件のみ を示している場合も考えられる。 この場合には、 図 9の directモード予測にて 図 2 4の説明で示した外揷計算による動きべクトルの算出が実施される可能性 がある。 さらに、 上記変形例(1)で示したように、 direct— reference— usable 23 にて、 directモードの使用判定条件のみを示している場合も考えられる。 この 場合も、 directモードの使用が指定されており、 かつ forward referenceが時間 的に未来に位置しているか、 あるレ、は backward referenceが時間的に未来に位 置している場合には、 図 9の directモード予測に用いる動きべクトルは外挿計 算にて算出する。
(4) 図 1、 2ならびに図 2 4では、 ピクチャヘッダのデータ構造に限定して説 明しているが、 複数のマクロブロックをまとめたグループであるスライスレイ ャのへッダ部にこれらの情報が記載される場合にも本発明のデータ構造は適用 できる。
圧縮データをスライス単位でデータパケット化して伝送する方式では、 スライ スレイヤのヘッダ部の情報でデータの復号手順を決める。 そのため、 復号化手 順に関連する本発明の情報はスライスへッダ部に必要となる。 1つのスライス にどのマクロプロックが属するかを示す情報は、 上位の通信 ·ネットワーク関 連情報を司る通信パケットヘッダやファイルフォーマツトのヘッダ部にて示さ れる場合や、 データ全体の構成を決めるシーケンスへッダに示される場合など がある。 このスライス単位で Directモードと代用モードを切り替える方法は、 フレーム単位で切り替える方法に比較して、 選択の自由度が向上し、 予測効率 が向上する。 但し、 予測効率向上のためには、 スライス単位での選択制御が必 要となるため、 演算量が増大する。 したがって、 リアルタイム処理を必要とす るアプリケーションでは、 フレーム構造によるフレーム単位での切り替え制御 が有効と言える。 ' ここまで説明した本発明の方式は、 専用回路 ·専用チップを用いる画像符号 化装置 ·画像復号化装置や、 汎用プロセッサを用いるソフトウ ア画像符号ィ匕 装置 · ソフトウユア画像復号化装置に適用できる。
図 2 8に組み込み型のソフトウエア符号器 ·復号器の例として、 アプリケー シヨンプロセッサを用いた携帯端末の例を示す。 主に無線通信処理を行うホス ト部 2820、 カメラからの入力信号を処理するカメラ入力処理部 2830、 映像符号 化/復号化などのアプリケーション処理を実施するアプリケーションプロセッ サ部 2800、 表示データを処理する出力デバイス 2840にて構成されている。 符号 化時には、 カメラにて撮影された画像は、 まず、 カメラ入力処理部 2830にて図 3に示すような YUV信号に変換され、アプリケーションプロセッサ部 2800に入力 される。 アプリケーションプロセッサ部 2800は、 入力画像を図 1 (または図 2 または図 2 4 ) と図 1 8に示すようなストリームデータに符号化する。 組み込 み型の場合には、 汎用プロセッサ 2810内の処理部 2811にて符号化処理 (図 1 4 〜1 7のフローチャートに示す動作を含む)を実施するためのソフトウエア(ァ センブラコード)は、内部画 2812または外部 RAM2830に予め格納されている。ま た、 図 1 4〜1 7のフローチャートに示されるような予測処理に利用されるデ 一タ(複数の参照ピクチャや各マクロブロックの参照ピクチャ番号、予測方向、 動きベク トル) も、 予め格納する領域が内部 RAM2812または外部 MM2830に確保 されている。アセンブラコードや各データの格納領域配置は、プロセッサ能力、 バス速度、 アセンブラコードや各データへの推定アクセス頻度とそれらの容量 のバランスで設計される。通常、内部 RAMは外部 RAMよりもアクセス速度が速く、 外部 RAMは内部 RAMよりも搭載容量が多い。 従って、 アクセス頻度が高く、 容量 が少ないデータ格納領域やアセンブラコードを内部 RAMに配置する。 この際、ァ センブラコードは内部 RAMと外部 RAMに分割されて配置される場合もある。 符号 化されたビットストリームデータは、外部画 2830あるいはホスト部 2820内のメ モリに保存される。 何れに保存されるかは、 符号ィヒビットストリーム'データの 用途など、 携帯端末向けのサービスにより異なる。 復号時には、 ホスト部 2820 あるいは外部 RAM2830からアプリケーションプロセッサ部 2800に符号化ビット ストリームデータが供給される。 アプリケーションプロセッサ部 2800は、 入力 された符号化ビッ トストリームデータを復号し、 YUV再生画像を RGB画像に変換 したのち出力デバイス 2840に出力する。 この際、 YUV再生画像はー且外部 RAMあ るレヽは内部 AM内のフレームメモリに蓄積される場合もある。符号化処理の場合 と同様に、 復号処理においても、 汎用プロセッサ 2810内の処理部 2811にて復号 処理 (図 1 4〜 1 7のフローチャートに示す動作を含む) を実施するためのソ フトウェア(アセンブラコード)は、 内部 RAM2812または外部 RAM2830に予め格納 されている。 また、 図 1 4〜1 7のフローチャートに示されるような予測処理 に利用されるデータ (複数の参照ピクチャや各マクロブロックの参照ピクチャ 番号、 予測方向、 動きべクトル) も、 予め格納する領域が内部 MM2812または外 部 RAM2830に確保されている。
図 2 9には、 より汎用的な用途で用いられるソフトウエア符号器 ·復号器の 例を示す。 符号化時には、 入力画像はフレームメモリ 2950に蓄えられ、 汎用プ 口セッサ 2900はここから情報を読み込んで符号化処理を行う。 この汎用プロセ ッサを駆動するためのプログラム(図 1 4〜1 7のフローチヤ一トに示す動作 を含む) はハードディスクゃフロッピーディスクなどによる蓄積デバィス 2930 カ ら読み出されてプログラム用メモリ 2920に蓄えられている。 汎用プロセッサ が出力する符号化情報は一旦入出力バッファ 2940に蓄えられた後、 符号化ビッ トストリームとして出力される。 処理メモリ 2910には、 図 1 4〜1 7のフロー チャートに示されるような予測処理に利用されるデータ (複数の参照ピクチャ や各マクロブロックの参照ピクチャ番号、 予測方向、 動きベクトル) が蓄積さ れており、プログラムの処理に従つて汎用プロセッサにて読み込まれる。また、 汎用プロセッサは、プログラムの処理に従ってデータを処理メモリに蓄積する。 復号時には、 入力された符号化ビットストリームは一且入出力バッファ 2940に 蓄えられ、 汎用プロセッサ 2900はここから読み込んで復号する。 この汎用プロ セッサを駆動するためのプログラム(図 1 4〜1 7のフローチヤ一トに示す動 作を含む) は、 ハードディスクやフロッピーディスクなどによる蓄積デバイス 2930から読み出されてプログラム用メモリ 2920に蓄えられている。 復号された 再生画像は一旦フレームメモリ 2950に蓄えられた後、 出力処理を実施するデバ イスに出力される。 処理メモリ 2910には、 図 1 4〜1 7のフローチャートに示 されるような予測処理に利用されるデータ (複数の参照ピクチャや各マクロブ ロックの参照ピクチャ番号、 予測方向、 動きベク トル) が蓄積されており、 プ ログラムの処理に従って汎用プロセッサにて読み込まれる。 また、 汎用プロセ ッサは、プログラムの処理に従って生成されたデータを処理メモリに蓄積する。 専用回路 ·専用チップを用いる画像符号化装置の構成を図 2 2に示す。 1個 のマクロブロック処理の符号化処理について、 処理の流れを説明する。 まず、 入力マクロブロック画像 201とフレームメモリ 210に蓄積されている符号ィヒ済み フレームの復号画像(参照フレーム)間の動き補償処理が全てのマクロブロック タイプ (8x8 Partitionタイプ) と候補参照フレームの組み合わせについて、 動 き補償器 211にて行われ、 最適なマクロブロックタイプと 8x8 Partitionタイプ が選択される。 この際、 Directモードの動き捕償を行う場合には、 MV予測器 215 力 ら予測方向、 参照フレーム番号、 動きベク トル情報を取得する必要がある。 図 2 6に MV予測器の内部構造を示す。 Directモードを示すマクロブロックタイ プ (8x8 Part it ionタイブ)、 マクロブロック位置情報 (ブロック位置情報) な らびに directモードのタイプ(direct/alternative , 動き補償器にて制御、 alternative予測は図 1 4〜図 1 7に示す代用モード)が入力されるとスィッチ ャ 2620を通してスィッチャ 2630が起動される。 スィッチャ 2630は、 directモー ドのタイプにしたがってスィツチを切り替える。 directモードのタイプが direct予測の場合には、 動きべクトル計算部 2660が起動される。 動きべクトル 計算部 2660は内部メモリ 2610に保存されている情報を用いて、 図 9に示す予測 パラメータを算出する。 算出されたパラメータは、 内部メモリに保存されると ともに動き補償器に通知される。 directモードのタイプが alternative予測の場 合には、 alternative予測部 2640が起動される。 alternative予測部は、 図 1 4 に示す処理を実施する。 具体的には、 予測モード選択部 2641, 参照フレーム選 択部 2642, 動きベク トル選択部 2643が、 内部メモリ 2610に保存されている情報 を用いて、 ぞれぞれ、 図 1 5、 図 1 6、 図 1 7のフローチャートに示す処理を 実施し、 予測方向、 参照フレーム番号ならびに動きベク トルを算出する。 これ らの予測パラメータは内部メモリに保存されるとともに動き補償器に通知され る。
動き補償器の説明に戻る。 最適なマクロブロックタイプ選択後、 検出された 動 き べ ク ト ノレは、 マ ク ロ ブ ロ ッ ク タ イ プ、 予測方向情報 (forward/backward/bi- predictive)、参照フレーム番号と共に MV予測器 215に通 知され、 内部メモリ 2610の内容が更新される (directモードが選択された場合 には、 マクロブロックタイプあるいは 8x8 Partitionタイプのみ)。 マクロブロ ツクタイプならぴに 8x8 Partitionタイプが directでないブロックについては、 動きベク トル予測部 2650 (スィッチャ 2620にて起動) にて図 8に示す予測処理 を実施し、 差分動きベクトルを算出する。 算出された差分動きベクトルは、 マ クロブロックタイプ、 8x8 Partitionタイプならびに参照フレーム番号と共に多 重化器 206に出力される (directモードが選択された場合には、差分動きべク ト ルと参照フレーム番号は多重化されない)。 なお、 ここでは、差分動きべクトル の算出を最適なマクロブロックタイプ(8x8 Partitionタイプ)についてのみに ついて行うものとしているが、 差分動きべクトルの値やその符号量を最適マク ロブロックタイプ(8x8 Partitionタイプ)選択時の評価値として利用する場合 も考えられる。この場合には、それぞれのマクロブロックタイプ(8x8 Partition タイプ) や参照フレームの組み合わせについて、 MV予測器にて差分動きべタト ルを算出する。
動き補償により生成された参照フレームから抜き出された予測マクロプロッ ク画像 213は、 Intra/Inter判定処理部 214に入力される。 Intra/Inter判定部で は、 イントラモードとインターモードのいずれを最終的なマクロブロックタイ プとするかを決定し、判定情報 218を多重化器 206ならびに MV予測器 215に通知す る。 MV予測器 215は、 判定情報 218がイントラモードの場合、 内部メモリ内の保 存データを更新する。 多重化器は、 イントラ/インターモード判定結果と、 W 予測器から得られたインターモードのマクロブロックタイプ、 8x8 Partition タイプ、 参照フレーム番号ならぴに差分動きベク トル (directモードが選択さ れた場合には、 差分動きベクトルと参照フレーム番号はなし) から図 1 8に示 す符号を生成し、符号化ビッ トストリームに多重化する。 Intra/Inter判定部に て選択されたマクロブロックタイプがィンタ一モードの場合には、 予測マク口 ブロック画像は、 現フレームの入力マクロブロック画像 201との間で差分器 202 にて差分処理され、 差分マクロブロック画像が生成される。 この際、 同時に、 予測マク口プロック画像は加算器 209に出力される。 Intra/Inter判定部にて選 択されたマク口プロックタイプがィントラモードの場合には、差分器 202ならび に加算器 209には予測マクロブロックは出力されない。
差分器 202から出力される差分マクロブロック画像あるいは入力マクロプロ ック画像は、 まず、 DCT変換される。 DCTのブロックサイズは従来の符号化方式 では 8 X 8画素が一般的であるが、 最近では、 MPEG- 4 Part 10 (Advanced Video Coding)などで 4x4画素サイズによる DCT変換も検討されているため、 ここでは、 4 X 4DCTを例に説明する。差分マクロプロック画像は、 図 6に示すように、 2 4 個の 4x4画素ブロックに分割され、 DCT変換器 203にてそれぞれ 16個の DCT係数に 変換される。各 DCT係数は、量子化器 204にて量子化され、多重化器 206にて符号 ィヒされる。多重化器 206では、 図 1、図 2あるいは図 2 4に示すようなヘッダ情 報と共に図 1 8に示すようなマクロブロックデータ情報を多重化し、 符号化ビ ットストリームを生成する。量子化 DCT係数は、局部復号器 220の逆量子化器 207 と逆 DCT器 208にて、 差分マクロブロック画像あるいはマクロブロック画像に復 号される。 'そのマクロブロックの予測モードがインターモードの場合には、 差 分マクロブロック画像が加算器 209にて予測マクロブロック画像と加算した後、 フレームメモリ 201に合成される。そのマクロプロックがイントラモードの場合 には、 復元されたマクロブロック画像がフレームメモリ 201に合成される。 図 2 2のイントラモードではイントラ予測を実施していないが、 イントラ予 測を実施する符号化方式でも、 本発明は適用できる。 この場合、 Intra/Inter 判定部にてイントラ予測を実施してもよいが、 この処理を動き補償部に組み込 む場合も考えられる。 特に MPEG- 4 Part 10 (Advanced Video Coding)のように 複数のィントラ予測タイプを準備している符号ィ匕方式では、 ィンター予測タイ プと同列にイントラ予測タイプを极えるため、 装置構成が簡易となる。 この場 合には、 動き補償部 211か 常に差分予測マクロプロック画像 213が差分器 202 と加算器 209に供給される。 また、 マクロブロックタイプ情報に判定情報 218が 含まれているため、 判定情報 218は削除でき、 判定情報 218の入力に伴う 予測 部 215での内部メモリ更新処理も省略される。 また、 DCT係数レベルでィントラ 予測を行う場合も考えられる。 この場合は、 DCT変換部 203ならびに IDCT変換部 208に予測処理を組み込むことで対応できる。
専用回路 ·専用チップを用いる画像復号装置の構成を図 2 3に示す。 1個の マクロブロック処理の復号処理について、 処理の流れを説明する。 まず、 符号 化解読器 501にて、入力された符号化データを解析し、動きべクトル関連情報と マクロブロックタイプ情報を MV予測器 508に、 量子化 DCT係数情報を逆量子化器 502に振り分ける。
マクロブロックの予測モードがィンターモードの場合には、 MV予測器 508に、 ブロック位置情報、 マクロブロックタイプ、 8x8 Partitionタイプ、 予測方向情 報、 参照フレーム番号ならびに差分動きベクトルが入力される (マクロブロッ クタイプが directモードの場合には、 マクロプロックタイプとマクロブロック 位置情報のみが入力される。 また、 8x8 Partitionタイプが directのときは、 そ の 8x8ブロックについては、参照フレーム番号ならびに差分動きべク トルは入力 されない)。図 2 7に MV予測器の内部構造を示す。マクロブロックタイプあるい は 8x8 Partitionタイプが directのときには、マクロブロック位置情報あるいは ブロック位置情報と共に符号化解読器 501で復号されたスライスへッダ情報内 の directモードのタイプ(direct/alternative, 動き捕償器にて制御)が入力さ れる。 マクロブロック位置情報 (ブロック位置情報) ならびに directモードの タイプ (direct/alternative, 動き補償器にて制御)が入力されるとスィッチヤ 2620を通してスィッチャ 2630が起動される。 スィッチャ 2630は、 directモード のタイプにしたがってスィツチを切り替える。 directモードのタイプが direct 予測の場合には、 動きべク トル計算部 2660が起動される。 動きべク トル計算部 2660は内部メモリ 2710に保存されている情報を用いて、 図 9に示す予測パラメ ータを算出する。 算出されたパラメータは、 内部メモリに保存されるとともに 動き補償器 504に通知される。 directモードのタイプが alternative予測の場合 には、 alternative予測部 2640が起動される。 alternative予測部は、 図 1 4に 示す処理を実施する。 具体的には、 予測モード選択部 2641, 参照フレーム選択 部 2642, 動きベクトル選択部 2643が、 内部メモリ 2710に保存されている情報を 用いて、 ぞれぞれ、 図 1 5、 図 1 6、 図 1 7のフローチャートに示す処理を実 施し、 予測方向、 参照フレーム番号ならぴに動きベクトルを算出する。 これら の予測パラメータは内部メモリ 2710に保存されるとともに動き補償器 504に出 力される。マクロブロックタイプ(8x8 Partitionタイプ)が directでない時には、 マクロブロックタイプ(8x8 Partitionタイプ)と共に、マクロブロック位置情報 (プロック位置情報)、参照フレーム番号ならびに差分動きべクトルが入力され、 スィッチャ 2620により動きべクトル予測器 2750が起動される。 動きべクトル予 測部 2750では、 内部メモリ 2710の内容と入力データを用いて図 8に示す予測処 理を実施し、 動きべクトルを復元する。 復元された動きべクトルは、 予測方向 情報、 参照フレーム番号と共に内部メモリ 2710と動き補償器 504に出力される。 動き補償器 504では、 入力されたデータとフレームメモリ 507内の参照ピクチャ を用いて予測マクロブロック画像を生成する。 次に、 予測誤差信号に関する符 号化データを、 逆量子化器 502と逆 DCT器 503において、 4 X 4画素ブロック毎に、 逆量子化 ·逆 DCT処理し、差分マクロプロック画像を再生する。 そして、予測マ クロプロック画像と差分マクロプロック画像を加算器 505にて加算処理し、マク ロブロック画像を再生する。再生されたマクロブロック画像は、合成器 506にて 復号フレーム画像に合成される。 また、 復号フレーム画像は、 次フレームの予 測用にフレームメモリ 507に蓄積される。
マクロブロックタイプがイントラモードであった場合には、 復号した量子化 DCT係数情報を、 逆量子化器 502と逆 DCT器 503において、 4 X 4画素ブロック毎に 逆量子化.逆 DCT処理し、 マクロブロック画像を再生する。 この際、 図 2 7の内 部メモリ 2710の内容は、 イントラモードとして更新される。 この図では、 イン トラ予測は実施されないが、 MPEG- 4 Part 10 (Advanced Video Coding)のよう に複数のイントラ予測タイプを準備している符号ィ匕方式でも、 本発明は適用で きる。 この場合には、動き補償部 504がイントラ予測の機能を含まれ、動き補償 部からは常に予測マクロブロック画像が出力される。 ' 図 2 8や図 2 9に示すソフトウェア符号化器 (図 1 4〜図 1 7 ) ならびに図 2 2と図 2 6の符号化装置により生成される符号化ビッ トストリームを記録し た蓄積メディア(記録媒体)の例を図 3 0に示す。 デジタル情報を記録すること ができる記録デイスク(磁気デイスクゃ光ディスク) 3000には、 同心円上にデジ タル情報が記録されている。 このディスクに記録されているデジタル情報の一 部 3001 を取 り 出す と 、 directモ ー ド と 代用モー ドの選択情報 ( _ 6 1106—1 331316) 3011を含むスラィスへッダ情幸艮3010、31(113モード情 報(mb— skip— run) 3021、 3031、 3041、 3051、マクロブロックタイプ情報(mb— type, 8x8 partition) 3022、 3032、 3052、 参照フレームの番号と動きベク トルの情報 (ref— index— few, rei一 index_bwd, mvd_fwd, mvd— bwd) 3023、 3053、 DCT係数なら びに符号化プロックパターン情報(CBP, residual 0) 3024、 3054が記録されてい る。 以下、 スライスヘッダにて、 フレームタイプ力 ¾ - picture、 directモードが 代用モードとされた場合について、 データの構成を説明する。 3021〜3024なら びに 3051〜3054は、 マクロブロックタイプが Directではないマクロブロックの 符号化データを示している。 なお、 8x8 Partitionに directが含まれる場合もこ のデータ構成となる。 但し、 この場合、 8x8 Partition typeが directとなる 8x8 ブロックに関する参照フレームの番号と動きべタ トルの情報は符号化されない ため、 これらの情報は 3023や 3053には含まれず、 復号時には、 ソフトウェア復 号器では図 1 4〜図 1 7、専用復号装置では図 2 7の処理 2640にて、予測方向、 参照フレーム番号ならぴに動きベク トルが算出される。 3031、 3032、 3035の糸且 み合わせはマクロブロックタイプが directとなるマクロブロックの符号化デー タを示している。 この場合には、 参照フレームの番号と動きベク トルの情報は 符号化されない。 復号時には、 ソフトウェア復号器では図 1 4〜図 1 7、 専用 復号装置では図 2 7の処理 2640にて、 予測方向、 参照フレーム番号ならぴに動 きべク トルが算出される。 3041は、 スキップマクロブロックの例であり、 マク ロブロックタイプが directであり、 DCT係数情報は存在しない。 復号時には、 ソ フトウヱァ復号器では図 1 4〜図 1 7、 専用復号装置では図 2 7の処理 2640に て、 予測方向、 参照フレーム番号ならびに動きベクトルが算出され、 これらの データにて合成された予測マクロブロック画像がそのまま再生マクロブロック 画像となる。 このように、 蓄積メディアにマクロブロックタイプとして direct モードを示す符号を効率良く埋め込むことにより、 少ない情報で再生マク口ブ ロック画像を合成することが可能となる。
図 3 1に、 本発明の符号化方法,復号方法を実現する装置の具体例を示す。 記録媒体である光デイクス 3 1 0 1 (DVD-ROM, DVD-R, BD-ROM: Blu - ray Disc ROM, CD- ROM/CD-Rなど)に記録した符号化ビットストリームを読み取り、復号ィ匕 する再生装置 3 1 0 2にも本発明の複号化方法を実装することが可能である。 この場合、 再生された映像信号はテレビモニタ 3 1 0 3に表示される。
アンテナ 3 1 1 1から受信した地上デジタル放送あるいは衛星デジタル放送 を符号化し、 光ディスク 3 1 1 3 (DVD-RAM, DVD - RW、 BD- RAM、 CD - RWなど) に 符号化ビットストリームを記録する記録/再生装置 3 1 1 2にも本発明の符号 化方法を実装することが可能である。 また、 光ディスク 3 1 1 3に記録した符 号化ビットストリームを復号化する記録/再生装置 3 1 1 2にて、本発明の復号 化方法も実装することが可能である。 この場合、 再生された映像信号はテレビ モニタ 3 1 1 4に表示される。
パソコン 3 1 2 1に本発明の画像符号化方法 ·復号化方法用のソフトウエア を組み込むことにより、 画像符号ィヒ ·復号化装置として活用することが可能で ある。 このソフトウェアはコンピュータ読み取り可能な記録媒体である何らか の蓄積メディア (光ディスク、 フロッピーディスク、 ハードディスクなど) 3 1 2 2に記録されており、 これをパソコンが読み込んで使用する。 また、 さら に何らかの通信回線にこのバソコンを接続することにより、 日 像通信端末とし て活用することも可能となる。
ケーブルテレビ用のケーブル 3 1 3 1または衛星デジタル放送あるいは地上 デジタル放送のアンテナに接続されたセットトップボックス 3 1 3 2内の復号 装置にも本発明の復号方法を実装することが可能であり、 デジタル放送をテレ ビモニタ 3 1 3 3で再生する構成も考えられる。 セットトップボックスではな く、 テレビモニタ内に本発明の復号方法を含む復号装置を組み込んでも良い。 デジタル携帯端末 3 1 4 1にも本発明の符号化方法 ·復号方法を含む装置あ るいはソフトウエア符号ィヒ器 ·復号器が実装可能である。 実装形式としては、 符号方法 '復号方法を両方持つ送受信型の端末の他に、符号化のみの送信端末、 複号化のみの受信端末の 3通りの実装形式が考えられる。
動画像撮影用のカメラ 3 1 5 1の中に本発明の符号化装置 ·復号装置を組み 込むことも可能である。 この場合撮影用カメラは符号化装置と該符号化装置か らの出力を記録媒体に記録する記録装置とを持ち、 符号化装置から出力された 符号化ビッ トストリームを記録媒体に記録する。 記録媒体は光デイクスの場合 もある。 尚、 上記携帯端末にカメラがついている場合は撮像したものを符号化 してアンテナを介して送出するようにすることもできる。
カメラ入力を持つ TV会議システム 3 1 6 1の中に本発明の符号化装置 ·復号 装置を組み込むごとも可能である。 カメラから入力された映像は符号化装置に て符号化ビットストリームに符号化され、ネットワーク 3 1 6 2に配信される。 ネットワークから受信した符号化ビットストリームは復号装置にて復号され、 モニタに表示される。 この場合、 本発明の符号化方法ならぴに復号方法を実現 する手段は、 符号化装置 *復号装置ではなく、 ソフトウェア符号化器 *復号器 の場合もある。
これらの装置に本発明の符号化方法ならびに復号方法を組み込むことにより、 directモードとその代用モードを有効的に利用することが可能となり、 予測性 能が向上する。
本発明のヘッダ情報により directモードに使用できるか否かが明確に判断で きるようになる。 さらに、 フレーム番号が時刻情報を持たない場合において、 参照フレームと現フレーム間の関係を示す情報を効率良く送ることが可能とな る。 また、 本発明の代用モードとその切り換え手順により、 directモードが適 用できない場合の予測性能を向上させることが可能となる。 産業上の利用可能性
本願は、 動画像の符号ィ匕 ·復号化に適用できる c

Claims

請 求 の 範 囲
1 . 動きベク トルに関する情報を受け取り、 記録される参照画像と該動きべ クトルに関す情報とを用いて動き補償を行って予測画像を合成する動画像の復 号化方法であって、
上記動き補償は、 動きべクトルの復号を伴わないモードを含む複数のブロック モードを有し、
予測方向を表す予測モードを選択するステツプと、
該予測モードにおける各予測方向の予測で参照するフレームを複数の参照フレ —ムの候補から選択するステップと、
該予測モードで用いる動きべクトルの情報を選択するステップとを有すること を特徴とする動画像の復号化方法。
2 . 上記予測モードの選択のステップあとに、 上記参照フレームの選択のス テップを行うことを特徴とする請求項 1記載の動画像の復号ィヒ方法。
3 . 上記予測モードを選択するステップは、 現在のプロックに隣接するプロ ックが動きべクトルを有するか否かに基づいて行うことを特@ [とする請求項 1 記載の動画像の復号化方法。
4 . 上記予測モードの選択は、 上記隣接するプロックが時間方向に 2方向の 動きべクトルを有する場合及び動きべクトルを有しない場合には 2方向予測を、 上記隣接するプロックが時間方向に 1方向の動きべクトルを有する場合には前 方向予測又は後方向予測を選択することを特徴とする請求項 3記載の動画像の 復号化方法。
5 . 上記予測方向の予測で参照するフレームを選択するステップは、 index 番号にて識別された複数の参照フレームから 1個の参照フレームを選択する手 順であり、 複数の上記隣接プロックが上記予測方向の予測を適用している場合 には何れかの上記隣接ブロックの使用する参照フレームを選択し、 1個の上記 隣接プロックのみが上記予測方向の予測を適用している場合には該 1個の隣接 ブロックが適用する index番号の参照フレームを選択し、上記隣接ブロックが上 記選択された予測モードを採用していない場合には index番号が 0番の参照フ レームを選択することを特徴とする請求項 1記載の動画像の複号化方法。
6 . 上記複数の上記隣接プロックが上記予測方向の予測を適用している場合 には、 適用されている参照フレームのうち i n d e X番号の小さいものを選択 することを特徴とする請求項 5記載の動画像の復号化方法。.
7 . 上記隣接プロックとして、 3つのブロックを候補プロックとすることを 特徴とする請求項 3に記載の動画像の復号化方法。
8 . 上記隣接ブロックとして、 3つのブロックを候補ブロックとすることを 特徴とする請求項 4に記載の動画像の復号化方法。
9 . 上記動きべタトルの選択ステツプと上記参照するフレームの選択ステッ プとは異なる大きさのブロックに対して行うことを特徴とする請求項 1記載の 動画像の復号化方法。
1 0 . 複数の上記ブロック単位に付されるヘッダに、 ブロックモードとして 上記動きべクトルの復号を伴わないモードが選択された場合の予測手順を決め る情報を含めて受け取ることを特徴とする請求項 1に記載の動画像の復号化方 法。
1 1 . 上記予測手順を決める情報は、 上記動きべクトルの復号を伴わないモ 一ドを複数ある予測方法の何れを用レヽるかブロックごとに選択する情報である ことを特徴とする請求項 1 0に記載の動画像の復号化方法。
1 2 . 動き補償を用いて合成された予測画像と入力画像の差分に関する情報 と、 前記動き補償によって求められた動きべクトルに関する情報を多重化する 動画像の符号化方法であって、
上記動き捕償は、 動きべクトルの符号化を伴わないモードを含む複数のプロッ クモードを有し、
予測方向を表す予測モードを選択するステップと、
該予測モードにおける各予測方向の予測で参照するフレームを複数の参照フレ 一ムの候補から選択するステップと、
該予測モードで用いる動きべクトルの情報を選択するステップとを有すること を特徴とする動画像の符号化方法。
.1 3 . 上記予測モードを選択するステップは、 現在のプロックに隣接するブ ロックが動きべクトルを有するか否かに基づいて行うことを特徴とする請求項 1 2記載の動画像の符;^ィヒ方法。
1 4 . 上記予測モードの選択は、 上記隣接するブロックが時間方向に 2方向 の動きべクトルを有する場合及び動きべクトルを有しない場合には 2方向予測 を、 上記隣接するブロックが時間方向に 1方向の動きべクトルを有する場合に は前方向予測又は後方向予測を選択することを特徴とする請求項 1 3記載の動 画像の符号化方法。
1 5 . 上記予測方向の予測で参照するフレームを選択するステップは、 index 番号にて識別された複数の参照フレームから 1個の参照フレームを選択する手 順であり、 複数の上記隣接プロックが上記予測方向の予測を適用している場合 には何れかの上記隣接プロックの使用する参照フレームを選択し、 1個の上記 隣接プロックのみが上記予測方向の予測を適用している場合には該 1個の隣接 ブロックが適用する index番号の参照フレームを選択し、上記隣接ブロックが上 記選択された予測モードを採用していない場合には index番号が 0.番の参照フ レームを選択することを特徴とする請求項 1 2記載の動画像の符号化方法。
1 6 . 上記複数の上記隣接ブロックが上記予測方向の予測を適用している場 合には、 適用されている参照フレームのうち i n d e x番号の小さいものを選 択することを特徴とする請求項 1 5記載の動画像の符号化方法。
1 7 . 上記隣接ブロックとして、 3つのプロックを候補ブロックすることを 特徴とする請求項 1 3に記載の動画像の符号化方法。
1 8 . 上記動きべタトルの選択ステツプと上記参照するフレームの選択ステ ップとは異なる大きさのブロックに対して行うことを特徴とする請求項 1 2記 載の動画像の符号化方法。
1 9 . 複数の上記ブロック単位に付されるヘッダに、 ブロックモードとして 上記動きべクトルの符号ィヒを伴わないモードが選択された場合の予測手順を決 める情報を含めて多重化することを特徴とする請求項 1 2に記載の動画像の符 号化方法。
PCT/JP2003/008843 2002-07-15 2003-07-11 動画像符号化方法及び復号化方法 WO2004008775A1 (ja)

Priority Applications (17)

Application Number Priority Date Filing Date Title
AU2003281133A AU2003281133A1 (en) 2002-07-15 2003-07-11 Moving picture encoding method and decoding method
JP2004521194A JP4363326B2 (ja) 2002-07-15 2003-07-11 動画像復号化方法
US10/506,428 US7970058B2 (en) 2002-07-15 2003-07-11 Moving picture encoding method and decoding method
US11/932,110 US7936823B2 (en) 2002-07-15 2007-10-31 Moving picture encoding method and decoding method
US11/931,908 US7936821B2 (en) 2002-07-15 2007-10-31 Moving picture encoding method and decoding method
US11/932,071 US7936822B2 (en) 2002-07-15 2007-10-31 Moving picture encoding method and decoding method
US11/931,978 US8036272B2 (en) 2002-07-15 2007-10-31 Moving picture encoding method and decoding method
US13/152,763 US8320459B2 (en) 2002-07-15 2011-06-03 Moving picture encoding method and decoding method
US13/207,842 US8325816B2 (en) 2002-07-15 2011-08-11 Moving picture encoding method and decoding method
US13/207,795 US8340190B2 (en) 2002-07-15 2011-08-11 Moving picture encoding method and decoding method
US13/207,812 US8571107B2 (en) 2002-07-15 2011-08-11 Moving picture encoding method and decoding method
US13/207,823 US8571108B2 (en) 2002-07-15 2011-08-11 Moving picture encoding method and decoding method
US13/551,810 US8837594B2 (en) 2002-07-15 2012-07-18 Moving picture encoding method and decoding method considering motion vectors of blocks adjacent to target block
US15/791,695 US10110906B2 (en) 2002-07-15 2017-10-24 Moving picture encoding method and decoding method considering motion vectors of blocks adjacent to target block
US15/791,701 US10104383B2 (en) 2002-07-15 2017-10-24 Moving picture encoding method and decoding method considering motion vectors of blocks adjacent to target block
US16/138,450 US10327004B2 (en) 2002-07-15 2018-09-21 Moving picture encoding method and decoding method considering motion vectors of blocks adjacent to target block
US16/138,445 US10349062B2 (en) 2002-07-15 2018-09-21 Moving picture encoding method and decoding method considering motion vectors of blocks adjacent to target block

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002205001 2002-07-15
JP2002-205001 2002-07-15

Related Child Applications (8)

Application Number Title Priority Date Filing Date
US10/506,426 A-371-Of-International US8962343B2 (en) 2002-03-05 2003-03-05 Method and device for parallel analysis of bio molecules
US10508428 A-371-Of-International 2003-07-11
US10/506,428 A-371-Of-International US7970058B2 (en) 2002-07-15 2003-07-11 Moving picture encoding method and decoding method
US11/931,908 Continuation US7936821B2 (en) 2002-07-15 2007-10-31 Moving picture encoding method and decoding method
US11/932,110 Continuation US7936823B2 (en) 2002-07-15 2007-10-31 Moving picture encoding method and decoding method
US11/932,071 Continuation US7936822B2 (en) 2002-07-15 2007-10-31 Moving picture encoding method and decoding method
US11/931,978 Continuation US8036272B2 (en) 2002-07-15 2007-10-31 Moving picture encoding method and decoding method
US13/152,763 Continuation US8320459B2 (en) 2002-07-15 2011-06-03 Moving picture encoding method and decoding method

Publications (1)

Publication Number Publication Date
WO2004008775A1 true WO2004008775A1 (ja) 2004-01-22

Family

ID=30112744

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/008843 WO2004008775A1 (ja) 2002-07-15 2003-07-11 動画像符号化方法及び復号化方法

Country Status (5)

Country Link
US (16) US7970058B2 (ja)
JP (12) JP4363326B2 (ja)
CN (8) CN101043626B (ja)
AU (1) AU2003281133A1 (ja)
WO (1) WO2004008775A1 (ja)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070206673A1 (en) * 2005-12-08 2007-09-06 Stephen Cipolli Systems and methods for error resilience and random access in video communication systems
WO2007116709A1 (ja) 2006-03-29 2007-10-18 Mitsui Chemicals, Inc. プロピレン系ランダムブロック共重合体、該共重合体を含む樹脂組成物およびそれからなる成形体
WO2007132647A1 (ja) * 2006-05-12 2007-11-22 Panasonic Corporation 動画像復号化装置
CN100362869C (zh) * 2005-09-14 2008-01-16 南京大学 多帧运动估计中的基于模式继承的自适应参考帧选择方法
WO2008078807A1 (ja) 2006-12-27 2008-07-03 Panasonic Corporation 動画像復号化装置
US7844355B2 (en) 2005-02-18 2010-11-30 Panasonic Corporation Stream reproduction device and stream supply device
WO2012046637A1 (ja) * 2010-10-06 2012-04-12 株式会社エヌ・ティ・ティ・ドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
WO2012070235A1 (ja) * 2010-11-24 2012-05-31 パナソニック株式会社 動きベクトル算出方法、画像符号化方法、画像復号方法、動きベクトル算出装置および画像符号化復号装置
JP2013016935A (ja) * 2011-06-30 2013-01-24 Jvc Kenwood Corp 画像復号装置、画像復号方法及び画像復号プログラム
JP2013016934A (ja) * 2011-06-30 2013-01-24 Jvc Kenwood Corp 画像符号化装置、画像符号化方法及び画像符号化プログラム
WO2013058363A1 (ja) * 2011-10-20 2013-04-25 ソニー株式会社 画像処理装置および方法
US8470449B2 (en) 2007-12-27 2013-06-25 Mitsui Chemicals, Inc. Propylene-based polymer composition
CN103200408A (zh) * 2013-04-23 2013-07-10 华录出版传媒有限公司 一种视频编解码方法
JPWO2012172668A1 (ja) * 2011-06-15 2015-02-23 株式会社東芝 動画像符号化方法及び装置並びに動画復号化方法及び装置
JP2015128252A (ja) * 2013-12-27 2015-07-09 日本電信電話株式会社 予測画像生成方法、予測画像生成装置、予測画像生成プログラム及び記録媒体
US9083981B2 (en) 2011-01-12 2015-07-14 Panasonic Intellectual Property Corporation Of America Moving picture coding method and moving picture decoding method using a determination whether or not a reference block has two reference motion vectors that refer forward in display order with respect to a current picture
US9210440B2 (en) 2011-03-03 2015-12-08 Panasonic Intellectual Property Corporation Of America Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus
US9270939B2 (en) 2006-03-03 2016-02-23 Vidyo, Inc. System and method for providing error resilience, random access and rate control in scalable video communications
CN105791820A (zh) * 2012-01-18 2016-07-20 Jvc建伍株式会社 动图像解码装置以及动图像解码方法
CN107948658A (zh) * 2011-03-21 2018-04-20 Lg 电子株式会社 选择运动矢量预测值的方法和使用其的设备
US10072171B2 (en) 2013-06-07 2018-09-11 Mitsui Chemicals, Inc. Olefin-based paint containing propylene/α-olefin copolymer
JP2019017087A (ja) * 2009-12-16 2019-01-31 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 適応的映像符号化装置及び方法
US10404998B2 (en) 2011-02-22 2019-09-03 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, and moving picture decoding apparatus
JP2021536689A (ja) * 2018-08-28 2021-12-27 華為技術有限公司Huawei Technologies Co., Ltd. ピクチャパーティショニング方法及び機器

Families Citing this family (136)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003053066A1 (en) 2001-12-17 2003-06-26 Microsoft Corporation Skip macroblock coding
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
US20040001546A1 (en) * 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US7154952B2 (en) * 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
US8064520B2 (en) 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US7590059B2 (en) * 2004-05-21 2009-09-15 Broadcom Corp. Multistandard video decoder
US8649436B2 (en) * 2004-08-20 2014-02-11 Sigma Designs Inc. Methods for efficient implementation of skip/direct modes in digital video compression algorithms
ITTO20040781A1 (it) * 2004-11-09 2005-02-09 St Microelectronics Srl Procedimento per adattare in modo dinamico il bit-rate di un segnale digitale alla larghezza di banda disponibile, relativi dispositivi e prodotto informatico corrispondente
ITTO20040780A1 (it) 2004-11-09 2005-02-09 St Microelectronics Srl Procedimento e sistema per il trattamento di segnali a descrizioni multiple, relativo prodotto informatico
US8488889B2 (en) * 2005-07-22 2013-07-16 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recorded with image encoding program and computer readable recording medium recorded with image decoding program
US8509551B2 (en) * 2005-07-22 2013-08-13 Mitsubishi Electric Corporation Image encoder and image decoder, image encoding method and image decoding method, image encoding program and image decoding program, and computer readable recording medium recording with image encoding program and computer readable recording medium recorded with image decoding program
CN101218830B (zh) * 2005-07-22 2011-10-12 三菱电机株式会社 图像编码装置和方法、以及图像解码装置和方法
KR100714698B1 (ko) * 2005-08-29 2007-05-07 삼성전자주식회사 향상된 움직임 추정 방법, 상기 방법을 이용한 비디오인코딩 방법 및 장치
US20070088633A1 (en) * 2005-10-19 2007-04-19 Mod Systems Method and system for optimal or near-optimal selection of content for broadcast in a commercial environment
US20070088659A1 (en) * 2005-10-19 2007-04-19 Mod Systems Distribution of selected digitally-encoded content to a storage device, user device, or other distribution target with concurrent rendering of selected content
JP2007116351A (ja) * 2005-10-19 2007-05-10 Ntt Docomo Inc 画像予測符号化装置、画像予測復号装置、画像予測符号化方法、画像予測復号方法、画像予測符号化プログラム、及び画像予測復号プログラム
KR100873636B1 (ko) 2005-11-14 2008-12-12 삼성전자주식회사 단일 부호화 모드를 이용하는 영상 부호화/복호화 방법 및장치
EP1801979B1 (en) * 2005-12-22 2010-06-09 Microsoft Corporation Encoding and decoding optimisations for network coding
US7965774B2 (en) * 2006-01-06 2011-06-21 International Business Machines Corporation Method for visual signal extrapolation or interpolation
US9137537B2 (en) * 2006-02-01 2015-09-15 Flextronics Ap, Llc Dynamic reference frame decision method and system
US20070239722A1 (en) * 2006-03-30 2007-10-11 Phillips Mark E Distributed user-profile data structure
JPWO2007136088A1 (ja) * 2006-05-24 2009-10-01 パナソニック株式会社 画像符号化装置、画像符号化方法、及び画像符号化用集積回路
JP4624321B2 (ja) * 2006-08-04 2011-02-02 株式会社メガチップス トランスコーダおよび符号化画像変換方法
KR100842557B1 (ko) * 2006-10-20 2008-07-01 삼성전자주식회사 동영상 처리 장치에서 메모리 액세스 방법
TWI355205B (en) * 2007-01-24 2011-12-21 Lg Electronics Inc A method and an apparatus for processing a video s
US20080229374A1 (en) * 2007-02-22 2008-09-18 Mick Colin K Video network including method and apparatus for high speed distribution of digital files over a network
US20080222155A1 (en) * 2007-03-08 2008-09-11 Phillips Mark E Method and apparatus for partial publication and inventory maintenance of media objects in a region
BRPI0809512A2 (pt) * 2007-04-12 2016-03-15 Thomson Licensing método e aparelho para mesclagem dependente de contexto para modos salto-direto para codificação e decodificação de vídeo
US20080279281A1 (en) * 2007-05-08 2008-11-13 Draper Stark C Method and System for Compound Conditional Source Coding
US8488668B2 (en) 2007-06-15 2013-07-16 Qualcomm Incorporated Adaptive coefficient scanning for video coding
US8571104B2 (en) * 2007-06-15 2013-10-29 Qualcomm, Incorporated Adaptive coefficient scanning in video coding
US7991237B2 (en) * 2007-06-28 2011-08-02 Mitsubishi Electric Corporation Image encoding device, image decoding device, image encoding method and image decoding method
ES2711203T3 (es) * 2007-06-29 2019-04-30 Velos Media Int Ltd Dispositivo de codificación de imágenes y dispositivo de decodificación de imágenes
US8254455B2 (en) * 2007-06-30 2012-08-28 Microsoft Corporation Computing collocated macroblock information for direct mode macroblocks
US8514939B2 (en) * 2007-10-31 2013-08-20 Broadcom Corporation Method and system for motion compensated picture rate up-conversion of digital video using picture boundary processing
EP2229782A2 (en) * 2008-01-14 2010-09-22 Thomson Licensing Methods and apparatus for de-artifact filtering using multi-lattice sparsity-based filtering
KR101442608B1 (ko) * 2008-02-05 2014-09-25 삼성전자주식회사 영상을 효율적으로 부호화/복호화하는 방법 및 장치
KR100939917B1 (ko) 2008-03-07 2010-02-03 에스케이 텔레콤주식회사 움직임 예측을 통한 부호화 시스템 및 움직임 예측을 통한부호화 방법
US20090279614A1 (en) * 2008-05-10 2009-11-12 Samsung Electronics Co., Ltd. Apparatus and method for managing reference frame buffer in layered video coding
KR101633443B1 (ko) 2008-08-19 2016-06-24 톰슨 라이센싱 휘도 평가
KR101612729B1 (ko) * 2008-08-19 2016-04-15 톰슨 라이센싱 전파 맵
WO2010021699A1 (en) * 2008-08-19 2010-02-25 Thomson Licensing Context-based adaptive binary arithmetic coding (cabac) video stream compliance
KR101611375B1 (ko) * 2008-08-19 2016-04-11 톰슨 라이센싱 압축된 비디오에서 구문 요소의 cabac/avc 준수 워터마킹
KR101635898B1 (ko) * 2008-08-20 2016-07-04 톰슨 라이센싱 압축된 비디오의 워터마킹을 위한 워터마크들의 선택
JP5680283B2 (ja) * 2008-09-19 2015-03-04 株式会社Nttドコモ 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び動画像復号プログラム
CN102210152A (zh) 2008-10-06 2011-10-05 Lg电子株式会社 用于处理视频信号的方法和设备
US9066107B2 (en) * 2009-01-28 2015-06-23 France Telecom Methods for encoding and decoding sequence implementing a motion compensation, corresponding encoding and decoding devices, signal and computer programs
TWI383688B (zh) * 2009-03-11 2013-01-21 Quanta Comp Inc 視訊壓縮電路與其方法
US20100232511A1 (en) * 2009-03-12 2010-09-16 Himax Media Soltuions, Inc. Motion compensator, motion compensating method, and motion-compensated video decoder implementing the same
KR102032771B1 (ko) 2009-03-23 2019-10-16 가부시키가이샤 엔.티.티.도코모 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 복호 장치, 및 화상 예측 복호 방법
KR101379185B1 (ko) 2009-04-14 2014-03-31 에스케이 텔레콤주식회사 예측 모드 선택 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
US9001893B2 (en) * 2009-05-13 2015-04-07 Panasonic Intellectual Property Management Co., Ltd. Image decoding apparatus, integrated circuit, image decoding method, and image decoding system
US8600179B2 (en) * 2009-09-17 2013-12-03 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding image based on skip mode
KR101611437B1 (ko) * 2009-10-28 2016-04-26 삼성전자주식회사 복수의 프레임을 참조하여 영상을 부호화, 복호화하는 방법 및 장치
CN101729898B (zh) * 2009-11-16 2011-06-15 中国人民解放军国防科学技术大学 视频编码、解码方法与视频编码、解码装置
WO2011100048A1 (en) 2010-02-09 2011-08-18 Thomson Licensing Watermark detection using a propagation map
US9609342B2 (en) * 2010-02-19 2017-03-28 Skype Compression for frames of a video signal using selected candidate blocks
US8913661B2 (en) * 2010-02-19 2014-12-16 Skype Motion estimation using block matching indexing
US9313526B2 (en) 2010-02-19 2016-04-12 Skype Data compression for video
US9078009B2 (en) * 2010-02-19 2015-07-07 Skype Data compression for video utilizing non-translational motion information
US9819358B2 (en) * 2010-02-19 2017-11-14 Skype Entropy encoding based on observed frequency
CN102783037B (zh) * 2010-03-03 2015-05-13 三菱电机株式会社 数据压缩装置和数据压缩方法
JP5583439B2 (ja) * 2010-03-17 2014-09-03 パナソニック株式会社 画像符号化装置及びカメラシステム
KR101750495B1 (ko) * 2010-04-16 2017-06-27 에스케이텔레콤 주식회사 인터 예측 방법 및 그 인터 예측 방법을 이용한 동영상 부호화/복호화 방법
US9491483B2 (en) * 2010-04-16 2016-11-08 Sk Telecom Co., Ltd. Inter-prediction method and video encoding/decoding method using the inter-prediction method
US9510009B2 (en) * 2010-05-20 2016-11-29 Thomson Licensing Methods and apparatus for adaptive motion vector candidate ordering for video encoding and decoding
JP2011259204A (ja) * 2010-06-09 2011-12-22 Sony Corp 画像復号化装置と画像符号装置およびその方法とプログラム
US9456111B2 (en) 2010-06-15 2016-09-27 Mediatek Inc. System and method for content adaptive clipping
KR20130069726A (ko) * 2010-07-15 2013-06-26 미쓰비시덴키 가부시키가이샤 동영상 부호화 장치, 동영상 복호 장치, 동영상 부호화 방법 및 동영상 복호 방법
KR101809187B1 (ko) 2010-07-20 2017-12-14 가부시키가이샤 엔.티.티.도코모 화상 예측 복호 장치 및 화상 예측 복호 방법
CN105592317B (zh) 2010-09-24 2018-08-28 太阳专利托管公司 图像解码方法及图像解码装置
PL3675501T3 (pl) 2010-09-27 2021-09-06 Lg Electronics Inc. Sposób podziału bloku oraz urządzenie do dekodowania
EP2661080A4 (en) 2010-12-31 2016-06-29 Korea Electronics Telecomm METHOD FOR CODING VIDEO INFORMATION AND METHOD FOR DECODING VIDEO INFORMATION AND DEVICE THEREFOR
US10362327B2 (en) * 2011-01-14 2019-07-23 Sony Corporation B-picture syntax change for generalized bi-prediction in high efficiency video coding (HEVC)
KR20120088103A (ko) * 2011-01-31 2012-08-08 삼성전자주식회사 영상 처리 장치
GB2488816A (en) * 2011-03-09 2012-09-12 Canon Kk Mapping motion vectors from a plurality of reference frames to a single reference frame
MX2013010231A (es) 2011-04-12 2013-10-25 Panasonic Corp Metodo de codificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento.
PL2717573T3 (pl) 2011-05-24 2018-09-28 Velos Media International Limited Sposób kodowania obrazu, urządzenie do kodowania obrazu, sposób dekodowania obrazu, urządzenie do dekodowania obrazu oraz urządzenie do kodowania/dekodowania obrazu
US9485518B2 (en) 2011-05-27 2016-11-01 Sun Patent Trust Decoding method and apparatus with candidate motion vectors
DK2717575T3 (en) 2011-05-27 2019-01-28 Sun Patent Trust PICTURE CODING PROCEDURE AND PICTURE CODES
SG194746A1 (en) 2011-05-31 2013-12-30 Kaba Gmbh Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device
TW201304552A (zh) 2011-05-31 2013-01-16 Panasonic Corp 動態圖像編碼方法、動態圖像編碼裝置、動態圖像解碼方法、動態圖像解碼裝置、及動態圖像編碼解碼裝置
CA2830046C (en) * 2011-06-24 2018-09-04 Panasonic Corporation Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
PT3282707T (pt) * 2011-06-27 2018-11-21 Samsung Electronics Co Ltd Método para descodificar informação de movimento
CA2836063C (en) 2011-06-30 2020-06-16 Panasonic Corporation Image encoding and decoding method and device for generating predictor sets in high-efficiency video coding
MX2014000159A (es) 2011-07-02 2014-02-19 Samsung Electronics Co Ltd Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada.
GB2493212B (en) * 2011-07-29 2015-03-11 Canon Kk Method and device for error concealment in motion estimation of video data
MX341415B (es) 2011-08-03 2016-08-19 Panasonic Ip Corp America Metodo de codificacion de video, aparato de codificacion de video, metodo de decodificacion de video, aparato de decodificacion de video y aparato de codificacion/decodificacion de video.
KR101887424B1 (ko) * 2011-08-22 2018-08-10 한국전자통신연구원 Acm 기반의 사이멀캐스트 송수신 장치 및 방법
CN107396099B (zh) 2011-09-09 2020-03-06 株式会社Kt 用于解码视频信号的方法
US9131245B2 (en) 2011-09-23 2015-09-08 Qualcomm Incorporated Reference picture list construction for video coding
KR101711355B1 (ko) * 2011-09-28 2017-02-28 가부시키가이샤 제이브이씨 켄우드 동영상 디코딩 장치, 동영상 디코딩 방법 및 동영상 디코딩 프로그램을 저장한 기록매체
US20140240472A1 (en) * 2011-10-11 2014-08-28 Panasonic Corporation 3d subtitle process device and 3d subtitle process method
BR112014008403B1 (pt) 2011-10-19 2022-05-10 Sun Patent Trust Método de codificação de imagem, aparelho de codificação de imagem, método de decodificação de imagem, e aparelho de decodificação de imagem
US9264717B2 (en) 2011-10-31 2016-02-16 Qualcomm Incorporated Random access with advanced decoded picture buffer (DPB) management in video coding
US9451287B2 (en) 2011-11-08 2016-09-20 Qualcomm Incorporated Context reduction for context adaptive binary arithmetic coding
US9392235B2 (en) * 2011-11-18 2016-07-12 Google Technology Holdings LLC Explicit way for signaling a collocated reference picture for video coding
CN107347160B (zh) * 2011-11-18 2020-04-28 谷歌技术控股有限责任公司 针对高效率视频代码化用信号发送并置图片的显式方式
BR112014012038A2 (pt) 2011-11-18 2017-05-30 Motorola Mobility Llc armazenamento eficiente de informação de movimento para codificação de vídeo de alta eficiência
EP2783510A1 (en) 2011-11-21 2014-10-01 Motorola Mobility LLC Implicit determination and combined implicit and explicit determination of collocated picture for temporal prediction
EP3965425A3 (en) * 2011-12-23 2022-06-08 Electronics And Telecommunications Research Institute Method and apparatus for setting reference picture index of temporal merging candidate
CN104303500B (zh) * 2011-12-26 2018-04-13 谷歌技术控股有限责任公司 对于时间预测的并列图片的隐式确定
RU2628185C9 (ru) * 2011-12-28 2018-02-06 ДжейВиСи КЕНВУД КОРПОРЕЙШН Устройство декодирования движущегося изображения, способ декодирования движущегося изображения и программа декодирования движущегося изображения
BR122020008353B1 (pt) * 2011-12-28 2022-05-10 JVC Kenwood Corporation Dispositivo de codificação de foto em movimento e método de codificação de foto em movimento
JP6078927B2 (ja) * 2012-01-10 2017-02-15 サン パテント トラスト 動画像符号化方法、動画像符号化装置、動画像復号方法、及び、動画像復号装置
US8867852B2 (en) 2012-01-19 2014-10-21 Sharp Kabushiki Kaisha Decoding a picture based on a reference picture set on an electronic device
US8693793B2 (en) * 2012-01-19 2014-04-08 Sharp Laboratories Of America, Inc. Reducing reference picture set signal overhead on an electronic device
KR20130085088A (ko) * 2012-01-19 2013-07-29 한국전자통신연구원 스케일러블 비디오 코딩에서의 고속 모드 결정 방법 및 그 장치
JP6480185B2 (ja) * 2012-01-19 2019-03-06 ヴィド スケール インコーポレイテッド 映像符号化参照ピクチャリストをシグナリングおよび構築する方法および装置
CA3081964A1 (en) 2012-01-20 2013-07-25 Ge Video Compression, Llc Coding concept allowing parallel processing, transport demultiplexer and video bitstream
WO2013154673A1 (en) 2012-04-11 2013-10-17 Motorola Mobility Llc Signaling of temporal motion vector predictor (mvp) flag for temporal prediction
US9549177B2 (en) 2012-04-11 2017-01-17 Google Technology Holdings LLC Evaluation of signaling of collocated reference picture for temporal prediction
EP2839654A4 (en) 2012-04-20 2015-11-18 Intel Corp EFFICIENT FRACTIONAL MOTION ESTIMATION IN TERMS OF PERFORMANCE AND BANDWIDTH
US9319681B2 (en) 2012-07-18 2016-04-19 Google Technology Holdings LLC Signaling of temporal motion vector predictor (MVP) enable flag
US9106793B2 (en) * 2013-01-03 2015-08-11 Cisco Technology, Inc. Method and apparatus for motion based participant switching in multipoint video conferences
US20150117515A1 (en) * 2013-10-25 2015-04-30 Microsoft Corporation Layered Encoding Using Spatial and Temporal Analysis
US9609338B2 (en) * 2013-10-25 2017-03-28 Microsoft Technology Licensing, Llc Layered video encoding and decoding
CN104717512B (zh) * 2013-12-16 2019-07-23 浙江大学 一种前向双假设编码图像块的编解码方法和装置
US20150208082A1 (en) * 2014-01-21 2015-07-23 Vixs Systems, Inc. Video encoder with reference picture prediction and methods for use therewith
CN106576152A (zh) * 2014-03-13 2017-04-19 华为技术有限公司 改进的屏幕内容编码方法
US10306229B2 (en) 2015-01-26 2019-05-28 Qualcomm Incorporated Enhanced multiple transforms for prediction residual
CN106303544B (zh) 2015-05-26 2019-06-11 华为技术有限公司 一种视频编解码方法、编码器和解码器
US10623774B2 (en) 2016-03-22 2020-04-14 Qualcomm Incorporated Constrained block-level optimization and signaling for video coding tools
JP6918661B2 (ja) * 2017-09-22 2021-08-11 キヤノン株式会社 符号化装置、符号化方法及びプログラム
SG11202003925XA (en) * 2017-11-01 2020-05-28 Vid Scale Inc Sub-block motion derivation and decoder-side motion vector refinement for merge mode
US10368071B2 (en) * 2017-11-03 2019-07-30 Arm Limited Encoding data arrays
US20190364295A1 (en) * 2018-05-25 2019-11-28 Tencent America LLC Method and apparatus for video coding
CN110536135B (zh) * 2018-05-25 2021-11-05 腾讯美国有限责任公司 用于视频编解码的方法和设备
KR102582887B1 (ko) * 2018-07-06 2023-09-25 미쓰비시덴키 가부시키가이샤 동화상 부호화 장치, 동화상 복호 장치, 동화상 부호화 방법 및 동화상 복호 방법
JP6958499B2 (ja) 2018-07-09 2021-11-02 三菱電機株式会社 半導体装置および電力変換装置
US11665365B2 (en) * 2018-09-14 2023-05-30 Google Llc Motion prediction coding with coframe motion vectors
US11412225B2 (en) * 2018-09-27 2022-08-09 Electronics And Telecommunications Research Institute Method and apparatus for image processing using context-adaptive entropy model
US11323748B2 (en) 2018-12-19 2022-05-03 Qualcomm Incorporated Tree-based transform unit (TU) partition for video coding
CN112770113B (zh) * 2019-11-05 2024-08-23 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
CN112312131B (zh) * 2020-12-31 2021-04-06 腾讯科技(深圳)有限公司 一种帧间预测方法、装置、设备及计算机可读存储介质
CN113079376B (zh) * 2021-04-02 2022-08-19 北京数码视讯软件技术发展有限公司 对静止区域的视频编码方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02134085A (ja) * 1988-11-15 1990-05-23 Kokusai Denshin Denwa Co Ltd <Kdd> 動き補償符号化方法
JPH03217185A (ja) * 1990-01-23 1991-09-24 Victor Co Of Japan Ltd 動きベクトル情報の伝送方法及びその送信機並びに受信機
JPH05336510A (ja) * 1992-06-03 1993-12-17 Matsushita Electric Ind Co Ltd 動き補償符号化装置と動き補償復号化装置
JPH1175191A (ja) * 1997-03-07 1999-03-16 Nextlevel Syst Inc インターレースされたデジタルビデオ用の双方向予測ビデオオブジェクト平面の予測及び符号化
WO2001033864A1 (en) * 1999-10-29 2001-05-10 Koninklijke Philips Electronics N.V. Video encoding-method

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5210005A (en) * 1988-08-16 1993-05-11 Fuji Photo Film Co., Ltd. Method and apparatus for developing photosensitive lithographic plate
GB2248361B (en) * 1990-09-28 1994-06-01 Sony Broadcast & Communication Motion dependent video signal processing
US5467136A (en) * 1991-05-31 1995-11-14 Kabushiki Kaisha Toshiba Video decoder for determining a motion vector from a scaled vector and a difference vector
US5210605A (en) * 1991-06-11 1993-05-11 Trustees Of Princeton University Method and apparatus for determining motion vectors for image sequences
US5737022A (en) * 1993-02-26 1998-04-07 Kabushiki Kaisha Toshiba Motion picture error concealment using simplified motion compensation
US5398068A (en) * 1993-09-02 1995-03-14 Trustees Of Princeton University Method and apparatus for determining motion vectors for image sequences
EP1274252A3 (en) 1995-08-29 2005-10-05 Sharp Kabushiki Kaisha Video coding device and video decoding device with a motion compensated interframe prediction
JP3347954B2 (ja) * 1995-11-02 2002-11-20 三菱電機株式会社 動画像符号化装置及び動画像復号化装置
US6957350B1 (en) * 1996-01-30 2005-10-18 Dolby Laboratories Licensing Corporation Encrypted and watermarked temporal and resolution layering in advanced television
US5796434A (en) * 1996-06-07 1998-08-18 Lsi Logic Corporation System and method for performing motion estimation in the DCT domain with improved efficiency
US6535558B1 (en) * 1997-01-24 2003-03-18 Sony Corporation Picture signal encoding method and apparatus, picture signal decoding method and apparatus and recording medium
CN1297147C (zh) * 1997-03-07 2007-01-24 通用仪器公司 对交错数字视频的双向预测的视频目标平面的预测和编码
US6005980A (en) * 1997-03-07 1999-12-21 General Instrument Corporation Motion estimation and compensation of video object planes for interlaced digital video
GB2333656B (en) 1998-01-22 2002-08-14 British Broadcasting Corp Compressed signals
US6195389B1 (en) * 1998-04-16 2001-02-27 Scientific-Atlanta, Inc. Motion estimation system and methods
US6591015B1 (en) * 1998-07-29 2003-07-08 Matsushita Electric Industrial Co., Ltd. Video coding method and apparatus with motion compensation and motion vector estimator
US6983018B1 (en) 1998-11-30 2006-01-03 Microsoft Corporation Efficient motion vector coding for video compression
JP2001016595A (ja) * 1999-04-30 2001-01-19 Fujitsu Ltd 動画像符号化装置および復号装置
EP2369842B1 (en) * 2000-03-13 2015-08-19 Sony Corporation Supplying, generating, converting and reading video content
JP4348851B2 (ja) 2000-09-21 2009-10-21 ソニー株式会社 記録媒体、ディスク記録装置および方法、並びにディスク再生装置及び方法
JP2002148218A (ja) 2000-11-08 2002-05-22 Mac Science Co Ltd X線回折装置
CN1156168C (zh) * 2001-01-12 2004-06-30 北京航空航天大学 快速视频运动估计方法
US6782052B2 (en) * 2001-03-16 2004-08-24 Sharp Laboratories Of America, Inc. Reference frame prediction and block mode prediction for fast motion searching in advanced video coding
US6721362B2 (en) * 2001-03-30 2004-04-13 Redrock Semiconductor, Ltd. Constrained discrete-cosine-transform coefficients for better error detection in a corrupted MPEG-4 bitstreams
DE60141961D1 (de) * 2001-09-10 2010-06-10 Texas Instruments Inc Verfahren und Vorrichtung zur Bewegungsvektorenabschätzung
EP2099228B1 (en) 2001-09-14 2014-11-12 NTT DoCoMo, Inc. Coding method, decoding method, coding apparatus, decoding apparatus, image processing system, coding program, and decoding program
US20030123738A1 (en) * 2001-11-30 2003-07-03 Per Frojdh Global motion compensation for video pictures
WO2003053066A1 (en) * 2001-12-17 2003-06-26 Microsoft Corporation Skip macroblock coding
JP2004007379A (ja) 2002-04-10 2004-01-08 Toshiba Corp 動画像符号化方法及び動画像復号化方法
US7003035B2 (en) * 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
WO2003077567A1 (en) * 2002-03-14 2003-09-18 Matsushita Electric Industrial Co., Ltd. Motion vector detection method
EP1347649A1 (en) * 2002-03-18 2003-09-24 Lg Electronics Inc. B picture mode determining method and apparatus in video coding system
EP3525465B1 (en) 2002-04-19 2021-03-17 Panasonic Intellectual Property Corporation of America Picture decoding method and apparatus
JP2004208259A (ja) 2002-04-19 2004-07-22 Matsushita Electric Ind Co Ltd 動きベクトル計算方法
CN1277419C (zh) 2002-04-19 2006-09-27 松下电器产业株式会社 运动矢量的计算方法
US20040190615A1 (en) 2002-05-22 2004-09-30 Kiyofumi Abe Moving image encoding method, moving image decoding method, and data recording medium
JP2004048711A (ja) 2002-05-22 2004-02-12 Matsushita Electric Ind Co Ltd 動画像の符号化方法および復号化方法およびデータ記録媒体
US20040001546A1 (en) * 2002-06-03 2004-01-01 Alexandros Tourapis Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation
US7154952B2 (en) * 2002-07-19 2006-12-26 Microsoft Corporation Timestamp-independent motion vector prediction for predictive (P) and bidirectionally predictive (B) pictures
MXPA05003464A (es) * 2002-10-01 2005-07-05 Thomson Licensing Sa Ponderacion implicita de imagenes de referencia en un codificador de video.
AU2003290895A1 (en) 2002-12-04 2004-06-30 Thomson Licensing S.A. Encoding of video cross-fades using weighted prediction
JP3671965B2 (ja) 2002-12-27 2005-07-13 ユーハ味覚糖株式会社 糖衣したキャンディ及びその製造方法
US7269836B2 (en) * 2003-03-24 2007-09-11 International Business Machines Corporation System and method for providing multiplexing and remultiplexing of MPEG-2 streams
US7349490B2 (en) * 2003-04-16 2008-03-25 Powerwave Technologies, Inc. Additive digital predistortion system employing parallel path coordinate conversion

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02134085A (ja) * 1988-11-15 1990-05-23 Kokusai Denshin Denwa Co Ltd <Kdd> 動き補償符号化方法
JPH03217185A (ja) * 1990-01-23 1991-09-24 Victor Co Of Japan Ltd 動きベクトル情報の伝送方法及びその送信機並びに受信機
JPH05336510A (ja) * 1992-06-03 1993-12-17 Matsushita Electric Ind Co Ltd 動き補償符号化装置と動き補償復号化装置
JPH1175191A (ja) * 1997-03-07 1999-03-16 Nextlevel Syst Inc インターレースされたデジタルビデオ用の双方向予測ビデオオブジェクト平面の予測及び符号化
WO2001033864A1 (en) * 1999-10-29 2001-05-10 Koninklijke Philips Electronics N.V. Video encoding-method

Cited By (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7844355B2 (en) 2005-02-18 2010-11-30 Panasonic Corporation Stream reproduction device and stream supply device
CN100362869C (zh) * 2005-09-14 2008-01-16 南京大学 多帧运动估计中的基于模式继承的自适应参考帧选择方法
US20070206673A1 (en) * 2005-12-08 2007-09-06 Stephen Cipolli Systems and methods for error resilience and random access in video communication systems
US9077964B2 (en) * 2005-12-08 2015-07-07 Layered Media Systems and methods for error resilience and random access in video communication systems
US9179160B2 (en) 2005-12-08 2015-11-03 Vidyo, Inc. Systems and methods for error resilience and random access in video communication systems
US9270939B2 (en) 2006-03-03 2016-02-23 Vidyo, Inc. System and method for providing error resilience, random access and rate control in scalable video communications
US9307199B2 (en) 2006-03-03 2016-04-05 Vidyo, Inc. System and method for providing error resilience, random access and rate control in scalable video communications
WO2007116709A1 (ja) 2006-03-29 2007-10-18 Mitsui Chemicals, Inc. プロピレン系ランダムブロック共重合体、該共重合体を含む樹脂組成物およびそれからなる成形体
US8270492B2 (en) 2006-05-12 2012-09-18 Panasonic Corporation Moving picture decoding device
WO2007132647A1 (ja) * 2006-05-12 2007-11-22 Panasonic Corporation 動画像復号化装置
JP5155157B2 (ja) * 2006-05-12 2013-02-27 パナソニック株式会社 動画像復号化装置
WO2008078807A1 (ja) 2006-12-27 2008-07-03 Panasonic Corporation 動画像復号化装置
US8265159B2 (en) 2006-12-27 2012-09-11 Panasonic Corporation Moving picture decoding apparatus
US8755439B2 (en) 2006-12-27 2014-06-17 Panasonic Corporation Moving picture decoding apparatus
US8470449B2 (en) 2007-12-27 2013-06-25 Mitsui Chemicals, Inc. Propylene-based polymer composition
US11659159B2 (en) 2009-12-16 2023-05-23 Electronics And Telecommunications Research Institute Adaptive image encoding device and method
US10708580B2 (en) 2009-12-16 2020-07-07 Electronics And Telecommunications Research Institute Adaptive image encoding device and method
US11805243B2 (en) 2009-12-16 2023-10-31 Electronics And Telecommunications Research Institute Adaptive image encoding device and method
US11812012B2 (en) 2009-12-16 2023-11-07 Electronics And Telecommunications Research Institute Adaptive image encoding device and method
US10728541B2 (en) 2009-12-16 2020-07-28 Electronics And Telecommunications Research Institute Adaptive image encoding device and method
JP2019017087A (ja) * 2009-12-16 2019-01-31 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 適応的映像符号化装置及び方法
US12212739B2 (en) 2009-12-16 2025-01-28 Electronics And Telecommunications Research Institute Adaptive video encoding device and method, and appartus using same
US12206843B2 (en) 2009-12-16 2025-01-21 Electronics And Telecommunications Research Institute Adaptive video decoding and encoding method, and apparatus using same
JP2020162174A (ja) * 2010-10-06 2020-10-01 株式会社Nttドコモ 画像予測復号方法
US10554998B2 (en) 2010-10-06 2020-02-04 Ntt Docomo, Inc. Image predictive encoding and decoding system
JP2019205189A (ja) * 2010-10-06 2019-11-28 株式会社Nttドコモ 画像予測復号方法
US10440383B2 (en) 2010-10-06 2019-10-08 Ntt Docomo, Inc. Image predictive encoding and decoding system
US8873874B2 (en) 2010-10-06 2014-10-28 NTT DoMoCo, Inc. Image predictive encoding and decoding system
JP5575910B2 (ja) * 2010-10-06 2014-08-20 株式会社Nttドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
WO2012046637A1 (ja) * 2010-10-06 2012-04-12 株式会社エヌ・ティ・ティ・ドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
RU2580942C2 (ru) * 2010-10-06 2016-04-10 Нтт Докомо, Инк. Устройство прогнозирующего кодирования изображений, способ прогнозирующего кодирования изображений, программа прогнозирующего кодирования изображений, устройство прогнозирующего декодирования изображений, способ прогнозирующего декодирования изображений и программа прогнозирующего декодирования изображений
JPWO2012070235A1 (ja) * 2010-11-24 2014-05-19 パナソニック株式会社 動きベクトル導出方法および動きベクトル導出装置
US10218997B2 (en) 2010-11-24 2019-02-26 Velos Media, Llc Motion vector calculation method, picture coding method, picture decoding method, motion vector calculation apparatus, and picture coding and decoding apparatus
US9300961B2 (en) 2010-11-24 2016-03-29 Panasonic Intellectual Property Corporation Of America Motion vector calculation method, picture coding method, picture decoding method, motion vector calculation apparatus, and picture coding and decoding apparatus
WO2012070235A1 (ja) * 2010-11-24 2012-05-31 パナソニック株式会社 動きベクトル算出方法、画像符号化方法、画像復号方法、動きベクトル算出装置および画像符号化復号装置
JP5755243B2 (ja) * 2010-11-24 2015-07-29 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 動きベクトル導出方法および動きベクトル導出装置
US9877038B2 (en) 2010-11-24 2018-01-23 Velos Media, Llc Motion vector calculation method, picture coding method, picture decoding method, motion vector calculation apparatus, and picture coding and decoding apparatus
US10778996B2 (en) 2010-11-24 2020-09-15 Velos Media, Llc Method and apparatus for decoding a video block
CN103069804A (zh) * 2010-11-24 2013-04-24 松下电器产业株式会社 运动矢量计算方法、图像编码方法、图像解码方法、运动矢量计算装置及图像编解码装置
US11317112B2 (en) 2011-01-12 2022-04-26 Sun Patent Trust Moving picture coding method and moving picture decoding method using a determination whether or not a reference block has two reference motion vectors that refer forward in display order with respect to a current picture
US10904556B2 (en) 2011-01-12 2021-01-26 Sun Patent Trust Moving picture coding method and moving picture decoding method using a determination whether or not a reference block has two reference motion vectors that refer forward in display order with respect to a current picture
US11838534B2 (en) 2011-01-12 2023-12-05 Sun Patent Trust Moving picture coding method and moving picture decoding method using a determination whether or not a reference block has two reference motion vectors that refer forward in display order with respect to a current picture
US10237569B2 (en) 2011-01-12 2019-03-19 Sun Patent Trust Moving picture coding method and moving picture decoding method using a determination whether or not a reference block has two reference motion vectors that refer forward in display order with respect to a current picture
US9083981B2 (en) 2011-01-12 2015-07-14 Panasonic Intellectual Property Corporation Of America Moving picture coding method and moving picture decoding method using a determination whether or not a reference block has two reference motion vectors that refer forward in display order with respect to a current picture
US10404998B2 (en) 2011-02-22 2019-09-03 Sun Patent Trust Moving picture coding method, moving picture coding apparatus, moving picture decoding method, and moving picture decoding apparatus
US11284102B2 (en) 2011-03-03 2022-03-22 Sun Patent Trust Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus
US9210440B2 (en) 2011-03-03 2015-12-08 Panasonic Intellectual Property Corporation Of America Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus
US10771804B2 (en) 2011-03-03 2020-09-08 Sun Patent Trust Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus
US10237570B2 (en) 2011-03-03 2019-03-19 Sun Patent Trust Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus
US9832480B2 (en) 2011-03-03 2017-11-28 Sun Patent Trust Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus
CN107979758A (zh) * 2011-03-21 2018-05-01 Lg 电子株式会社 选择运动矢量预测值的方法和使用其的设备
US10999598B2 (en) 2011-03-21 2021-05-04 Lg Electronics Inc. Method for selecting motion vector predictor and device using same
CN107979759A (zh) * 2011-03-21 2018-05-01 Lg 电子株式会社 选择运动矢量预测值的方法和使用其的设备
CN107948657A (zh) * 2011-03-21 2018-04-20 Lg 电子株式会社 选择运动矢量预测值的方法和使用其的设备
CN107948658A (zh) * 2011-03-21 2018-04-20 Lg 电子株式会社 选择运动矢量预测值的方法和使用其的设备
JPWO2012172668A1 (ja) * 2011-06-15 2015-02-23 株式会社東芝 動画像符号化方法及び装置並びに動画復号化方法及び装置
JP2013016935A (ja) * 2011-06-30 2013-01-24 Jvc Kenwood Corp 画像復号装置、画像復号方法及び画像復号プログラム
JP2013016934A (ja) * 2011-06-30 2013-01-24 Jvc Kenwood Corp 画像符号化装置、画像符号化方法及び画像符号化プログラム
WO2013058363A1 (ja) * 2011-10-20 2013-04-25 ソニー株式会社 画像処理装置および方法
CN103891285A (zh) * 2011-10-20 2014-06-25 索尼公司 图像处理装置和方法
CN105791820A (zh) * 2012-01-18 2016-07-20 Jvc建伍株式会社 动图像解码装置以及动图像解码方法
CN105791820B (zh) * 2012-01-18 2018-03-13 Jvc 建伍株式会社 动图像解码装置以及动图像解码方法
CN103200408A (zh) * 2013-04-23 2013-07-10 华录出版传媒有限公司 一种视频编解码方法
CN103200408B (zh) * 2013-04-23 2016-03-30 华录出版传媒有限公司 一种视频编解码方法
US10072171B2 (en) 2013-06-07 2018-09-11 Mitsui Chemicals, Inc. Olefin-based paint containing propylene/α-olefin copolymer
JP2015128252A (ja) * 2013-12-27 2015-07-09 日本電信電話株式会社 予測画像生成方法、予測画像生成装置、予測画像生成プログラム及び記録媒体
US11758134B2 (en) 2018-08-28 2023-09-12 Huawei Technologies Co., Ltd. Picture partitioning method and apparatus
JP7204891B2 (ja) 2018-08-28 2023-01-16 華為技術有限公司 ピクチャパーティショニング方法及び機器
JP2021536689A (ja) * 2018-08-28 2021-12-27 華為技術有限公司Huawei Technologies Co., Ltd. ピクチャパーティショニング方法及び機器
US12219135B2 (en) 2018-08-28 2025-02-04 Huawei Technologies Co., Ltd Picture partitioning method and apparatus

Also Published As

Publication number Publication date
US10349062B2 (en) 2019-07-09
JP2011097651A (ja) 2011-05-12
JP2012090331A (ja) 2012-05-10
US10104383B2 (en) 2018-10-16
US8571107B2 (en) 2013-10-29
CN101039423A (zh) 2007-09-19
CN1312927C (zh) 2007-04-25
US20180048898A1 (en) 2018-02-15
JP2014003664A (ja) 2014-01-09
CN1640135A (zh) 2005-07-13
JP5470495B2 (ja) 2014-04-16
US20110293008A1 (en) 2011-12-01
JP2014003661A (ja) 2014-01-09
US20190028715A1 (en) 2019-01-24
US20110299600A1 (en) 2011-12-08
US7970058B2 (en) 2011-06-28
US20150003533A1 (en) 2015-01-01
US7936821B2 (en) 2011-05-03
CN101039426A (zh) 2007-09-19
US20110293016A1 (en) 2011-12-01
US20110293017A1 (en) 2011-12-01
JP5977718B2 (ja) 2016-08-24
AU2003281133A1 (en) 2004-02-02
CN101039424A (zh) 2007-09-19
CN101039427B (zh) 2010-06-16
CN101039428A (zh) 2007-09-19
US20080069225A1 (en) 2008-03-20
CN101043626A (zh) 2007-09-26
CN100553338C (zh) 2009-10-21
CN100553339C (zh) 2009-10-21
US20080063072A1 (en) 2008-03-13
JP5869635B2 (ja) 2016-02-24
US20080063071A1 (en) 2008-03-13
JPWO2004008775A1 (ja) 2005-11-17
JP2017085590A (ja) 2017-05-18
JP2014003663A (ja) 2014-01-09
JP2014225921A (ja) 2014-12-04
US8571108B2 (en) 2013-10-29
JP6336017B2 (ja) 2018-06-06
US20190028716A1 (en) 2019-01-24
US8340190B2 (en) 2012-12-25
CN101039424B (zh) 2010-05-26
JP5470365B2 (ja) 2014-04-16
US20110280310A1 (en) 2011-11-17
JP6513847B2 (ja) 2019-05-15
US10327004B2 (en) 2019-06-18
JP6336228B1 (ja) 2018-06-06
CN100566420C (zh) 2009-12-02
JP5470494B2 (ja) 2014-04-16
JP5470496B2 (ja) 2014-04-16
JP6122931B2 (ja) 2017-04-26
US20080075171A1 (en) 2008-03-27
JP2016034142A (ja) 2016-03-10
JP2018129834A (ja) 2018-08-16
US8036272B2 (en) 2011-10-11
US20180048899A1 (en) 2018-02-15
US7936822B2 (en) 2011-05-03
CN101039425A (zh) 2007-09-19
JP2014003662A (ja) 2014-01-09
JP5017464B2 (ja) 2012-09-05
US8325816B2 (en) 2012-12-04
CN101043626B (zh) 2010-06-09
JP2018129835A (ja) 2018-08-16
US20050152452A1 (en) 2005-07-14
US8320459B2 (en) 2012-11-27
US9832473B2 (en) 2017-11-28
US8837594B2 (en) 2014-09-16
CN101039428B (zh) 2013-04-10
US7936823B2 (en) 2011-05-03
JP4363326B2 (ja) 2009-11-11
US10110906B2 (en) 2018-10-23
US20120281763A1 (en) 2012-11-08
CN101039427A (zh) 2007-09-19

Similar Documents

Publication Publication Date Title
JP6513847B2 (ja) 動画像符号化方法
JP4895995B2 (ja) 動画像復号化方法
JP5017086B2 (ja) 動画像復号化方法
JP4363484B2 (ja) 動画像復号化方法
JP5017087B2 (ja) 動画像復号化方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AU BA BB BR BZ CA CN CO CR CU DM DZ EC GD GE HR HU ID IL IN IS JP KP KR LC LK LR LT LV MA MG MK MN MX NO NZ OM PH PL PT RO SC SE SG TN TT UA US UZ VC VN YU ZA

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 20038050412

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2004521194

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 10506428

Country of ref document: US

122 Ep: pct application non-entry in european phase
点击 这是indexloc提供的php浏览器服务,不要输入任何密码和下载