[cvs] / xvidcore / src / image / image.c Repository:
ViewVC logotype

Diff of /xvidcore/src/image/image.c

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

revision 1.20.2.5, Sun Oct 6 07:05:51 2002 UTC revision 1.34, Sat Dec 17 12:04:52 2005 UTC
# Line 1  Line 1 
1  /**************************************************************************  /**************************************************************************
2   *   *
3   *      XVID MPEG-4 VIDEO CODEC   *      XVID MPEG-4 VIDEO CODEC
4   *      image stuff   *  - Image management functions -
5   *   *
6   *      This program is an implementation of a part of one or more MPEG-4   *  Copyright(C) 2001-2004 Peter Ross <pross@xvid.org>
  *      Video tools as specified in ISO/IEC 14496-2 standard.  Those intending  
  *      to use this software module in hardware or software products are  
  *      advised that its use may infringe existing patents or copyrights, and  
  *      any such use would be at such party's own risk.  The original  
  *      developer of this software module and his/her company, and subsequent  
  *      editors and their companies, will have no liability for use of this  
  *      software or modifications or derivatives thereof.  
7   *   *
8   *      This program is free software; you can redistribute it and/or modify   *      This program is free software; you can redistribute it and/or modify
9   *      it under the terms of the GNU General Public License as published by   *      it under the terms of the GNU General Public License as published by
# Line 24  Line 17 
17   *   *
18   *      You should have received a copy of the GNU General Public License   *      You should have received a copy of the GNU General Public License
19   *      along with this program; if not, write to the Free Software   *      along with this program; if not, write to the Free Software
20   *      Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.   *  Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
21   *   *
22   *************************************************************************/   * $Id$
   
 /**************************************************************************  
  *  
  *      History:  
23   *   *
24   *  05.10.2002  support for interpolated images in qpel mode - Isibaar   ****************************************************************************/
  *      01.05.2002      BFRAME image-based u,v interpolation  
  *  22.04.2002  added some B-frame support  
  *      14.04.2002      added image_dump_yuvpgm(), added image_mad()  
  *              XVID_CSP_USER input support  
  *  09.04.2002  PSNR calculations - Isibaar  
  *      06.04.2002      removed interlaced edging from U,V blocks (as per spec)  
  *  26.03.2002  interlacing support (field-based edging in set_edges)  
  *      26.01.2002      rgb555, rgb565  
  *      07.01.2001      commented u,v interpolation (not required for uv-block-based)  
  *  23.12.2001  removed #ifdefs, added function pointers + init_common()  
  *      22.12.2001      cpu #ifdefs  
  *  19.12.2001  image_dump(); useful for debugging  
  *       6.12.2001      inital version; (c)2001 peter ross <pross@cs.rmit.edu.au>  
  *  
  *************************************************************************/  
25    
26  #include <stdlib.h>  #include <stdlib.h>
27  #include <string.h>                             // memcpy, memset  #include <string.h>                             /* memcpy, memset */
28  #include <math.h>  #include <math.h>
   
29  #include "../portab.h"  #include "../portab.h"
30  #include "../xvid.h"                    // XVID_CSP_XXX's  #include "../global.h"                  /* XVID_CSP_XXX's */
31    #include "../xvid.h"                    /* XVID_CSP_XXX's */
32  #include "image.h"  #include "image.h"
33  #include "colorspace.h"  #include "colorspace.h"
34  #include "interpolate8x8.h"  #include "interpolate8x8.h"
 #include "../divx4.h"  
35  #include "../utils/mem_align.h"  #include "../utils/mem_align.h"
36    #include "../motion/sad.h"
37    
38    #include "font.h"               /* XXX: remove later */
39    
40  #define SAFETY  64  #define SAFETY  64
41  #define EDGE_SIZE2  (EDGE_SIZE/2)  #define EDGE_SIZE2  (EDGE_SIZE/2)
# Line 72  Line 48 
48  {  {
49          const uint32_t edged_width2 = edged_width / 2;          const uint32_t edged_width2 = edged_width / 2;
50          const uint32_t edged_height2 = edged_height / 2;          const uint32_t edged_height2 = edged_height / 2;
         uint32_t i;  
51    
52          image->y =          image->y =
53                  xvid_malloc(edged_width * (edged_height + 1) + SAFETY, CACHE_LINE);                  xvid_malloc(edged_width * (edged_height + 1) + SAFETY, CACHE_LINE);
54          if (image->y == NULL) {          if (image->y == NULL) {
55                  return -1;                  return -1;
56          }          }
57            memset(image->y, 0, edged_width * (edged_height + 1) + SAFETY);
         for (i = 0; i < edged_width * edged_height + SAFETY; i++) {  
                 image->y[i] = 0;  
         }  
58    
59          image->u = xvid_malloc(edged_width2 * edged_height2 + SAFETY, CACHE_LINE);          image->u = xvid_malloc(edged_width2 * edged_height2 + SAFETY, CACHE_LINE);
60          if (image->u == NULL) {          if (image->u == NULL) {
61                  xvid_free(image->y);                  xvid_free(image->y);
62                    image->y = NULL;
63                  return -1;                  return -1;
64          }          }
65            memset(image->u, 0, edged_width2 * edged_height2 + SAFETY);
66    
67          image->v = xvid_malloc(edged_width2 * edged_height2 + SAFETY, CACHE_LINE);          image->v = xvid_malloc(edged_width2 * edged_height2 + SAFETY, CACHE_LINE);
68          if (image->v == NULL) {          if (image->v == NULL) {
69                  xvid_free(image->u);                  xvid_free(image->u);
70                    image->u = NULL;
71                  xvid_free(image->y);                  xvid_free(image->y);
72                    image->y = NULL;
73                  return -1;                  return -1;
74          }          }
75            memset(image->v, 0, edged_width2 * edged_height2 + SAFETY);
76    
77          image->y += EDGE_SIZE * edged_width + EDGE_SIZE;          image->y += EDGE_SIZE * edged_width + EDGE_SIZE;
78          image->u += EDGE_SIZE2 * edged_width2 + EDGE_SIZE2;          image->u += EDGE_SIZE2 * edged_width2 + EDGE_SIZE2;
# Line 114  Line 92 
92    
93          if (image->y) {          if (image->y) {
94                  xvid_free(image->y - (EDGE_SIZE * edged_width + EDGE_SIZE));                  xvid_free(image->y - (EDGE_SIZE * edged_width + EDGE_SIZE));
95                    image->y = NULL;
96          }          }
97          if (image->u) {          if (image->u) {
98                  xvid_free(image->u - (EDGE_SIZE2 * edged_width2 + EDGE_SIZE2));                  xvid_free(image->u - (EDGE_SIZE2 * edged_width2 + EDGE_SIZE2));
99                    image->u = NULL;
100          }          }
101          if (image->v) {          if (image->v) {
102                  xvid_free(image->v - (EDGE_SIZE2 * edged_width2 + EDGE_SIZE2));                  xvid_free(image->v - (EDGE_SIZE2 * edged_width2 + EDGE_SIZE2));
103                    image->v = NULL;
104          }          }
105  }  }
106    
# Line 128  Line 109 
109  image_swap(IMAGE * image1,  image_swap(IMAGE * image1,
110                     IMAGE * image2)                     IMAGE * image2)
111  {  {
112          uint8_t *tmp;      SWAP(uint8_t*, image1->y, image2->y);
113        SWAP(uint8_t*, image1->u, image2->u);
114          tmp = image1->y;      SWAP(uint8_t*, image1->v, image2->v);
         image1->y = image2->y;  
         image2->y = tmp;  
   
         tmp = image1->u;  
         image1->u = image2->u;  
         image2->u = tmp;  
   
         tmp = image1->v;  
         image1->v = image2->v;  
         image2->v = tmp;  
115  }  }
116    
117    
# Line 155  Line 126 
126          memcpy(image1->v, image2->v, edged_width * height / 4);          memcpy(image1->v, image2->v, edged_width * height / 4);
127  }  }
128    
129    /* setedges bug was fixed in this BS version */
130    #define SETEDGES_BUG_BEFORE             18
131    
132  void  void
133  image_setedges(IMAGE * image,  image_setedges(IMAGE * image,
134                             uint32_t edged_width,                             uint32_t edged_width,
135                             uint32_t edged_height,                             uint32_t edged_height,
136                             uint32_t width,                             uint32_t width,
137                             uint32_t height)                             uint32_t height,
138                               int bs_version)
139  {  {
140          const uint32_t edged_width2 = edged_width / 2;          const uint32_t edged_width2 = edged_width / 2;
141          const uint32_t width2 = width / 2;          uint32_t width2;
142          uint32_t i;          uint32_t i;
143          uint8_t *dst;          uint8_t *dst;
144          uint8_t *src;          uint8_t *src;
145    
   
146          dst = image->y - (EDGE_SIZE + EDGE_SIZE * edged_width);          dst = image->y - (EDGE_SIZE + EDGE_SIZE * edged_width);
147          src = image->y;          src = image->y;
148    
149            /* According to the Standard Clause 7.6.4, padding is done starting at 16
150             * pixel width and height multiples. This was not respected in old xvids */
151            if (bs_version == 0 || bs_version >= SETEDGES_BUG_BEFORE) {
152                    width  = (width+15)&~15;
153                    height = (height+15)&~15;
154            }
155    
156            width2 = width/2;
157    
158          for (i = 0; i < EDGE_SIZE; i++) {          for (i = 0; i < EDGE_SIZE; i++) {
159                  memset(dst, *src, EDGE_SIZE);                  memset(dst, *src, EDGE_SIZE);
160                  memcpy(dst + EDGE_SIZE, src, width);                  memcpy(dst + EDGE_SIZE, src, width);
# Line 198  Line 180 
180          }          }
181    
182    
183  //U          /* U */
184          dst = image->u - (EDGE_SIZE2 + EDGE_SIZE2 * edged_width2);          dst = image->u - (EDGE_SIZE2 + EDGE_SIZE2 * edged_width2);
185          src = image->u;          src = image->u;
186    
# Line 226  Line 208 
208          }          }
209    
210    
211  // V          /* V */
212          dst = image->v - (EDGE_SIZE2 + EDGE_SIZE2 * edged_width2);          dst = image->v - (EDGE_SIZE2 + EDGE_SIZE2 * edged_width2);
213          src = image->v;          src = image->v;
214    
# Line 254  Line 236 
236          }          }
237  }  }
238    
 // bframe encoding requires image-based u,v interpolation  
239  void  void
240  image_interpolate(const IMAGE * refn,  image_interpolate(const uint8_t * refn,
241                                    IMAGE * refh,                                    uint8_t * refh,
242                                    IMAGE * refv,                                    uint8_t * refv,
243                                    IMAGE * refhv,                                    uint8_t * refhv,
244                                    uint32_t edged_width,                                    uint32_t edged_width,
245                                    uint32_t edged_height,                                    uint32_t edged_height,
246                                    uint32_t quarterpel,                                    uint32_t quarterpel,
247                                    uint32_t rounding)                                    uint32_t rounding)
248  {  {
249          const uint32_t offset = EDGE_SIZE * (edged_width + 1);          const uint32_t offset = EDGE_SIZE2 * (edged_width + 1); /* we only interpolate half of the edge area */
250          const uint32_t stride_add = 7 * edged_width;          const uint32_t stride_add = 7 * edged_width;
251    
252  #ifdef BFRAMES          uint8_t *n_ptr;
253          const uint32_t edged_width2 = edged_width / 2;          uint8_t *h_ptr, *v_ptr, *hv_ptr;
         const uint32_t edged_height2 = edged_height / 2;  
         const uint32_t offset2 = EDGE_SIZE2 * (edged_width2 + 1);  
         const uint32_t stride_add2 = 7 * edged_width2;  
 #endif  
   
         uint8_t *n_ptr, *h_ptr, *v_ptr, *hv_ptr;  
254          uint32_t x, y;          uint32_t x, y;
255    
256            n_ptr = (uint8_t*)refn;
257          n_ptr = refn->y;          h_ptr = refh;
258          h_ptr = refh->y;          v_ptr = refhv;
         v_ptr = refv->y;  
         hv_ptr = refhv->y;  
259    
260          n_ptr -= offset;          n_ptr -= offset;
261          h_ptr -= offset;          h_ptr -= offset;
262          v_ptr -= offset;          v_ptr -= offset;
         hv_ptr -= offset;  
263    
264            /* Note we initialize the hv pointer later, as we can optimize code a bit
265             * doing it down to up in quarterpel and up to down in halfpel */
266          if(quarterpel) {          if(quarterpel) {
267    
268                  for (y = 0; y < edged_height; y += 8) {                  for (y = 0; y < (edged_height - EDGE_SIZE); y += 8) {
269                          for (x = 0; x < edged_width; x += 8) {                          for (x = 0; x < (edged_width - EDGE_SIZE); x += 8) {
270                                  interpolate8x8_6tap_lowpass_h(h_ptr, n_ptr, edged_width, rounding);                                  interpolate8x8_6tap_lowpass_h(h_ptr, n_ptr, edged_width, rounding);
271                                  interpolate8x8_6tap_lowpass_v(v_ptr, n_ptr, edged_width, rounding);                                  interpolate8x8_6tap_lowpass_v(v_ptr, n_ptr, edged_width, rounding);
272    
# Line 301  Line 275 
275                                  v_ptr += 8;                                  v_ptr += 8;
276                          }                          }
277    
278                            n_ptr += EDGE_SIZE;
279                            h_ptr += EDGE_SIZE;
280                            v_ptr += EDGE_SIZE;
281    
282                          h_ptr += stride_add;                          h_ptr += stride_add;
283                          v_ptr += stride_add;                          v_ptr += stride_add;
284                          n_ptr += stride_add;                          n_ptr += stride_add;
285                  }                  }
286    
287                  h_ptr = refh->y;                  h_ptr = refh + (edged_height - EDGE_SIZE - EDGE_SIZE2)*edged_width - EDGE_SIZE2;
288                  h_ptr -= offset;                  hv_ptr = refhv + (edged_height - EDGE_SIZE - EDGE_SIZE2)*edged_width - EDGE_SIZE2;
289    
290                  for (y = 0; y < edged_height; y = y + 8) {                  for (y = 0; y < (edged_height - EDGE_SIZE); y = y + 8) {
291                          for (x = 0; x < edged_width; x = x + 8) {                          hv_ptr -= stride_add;
292                            h_ptr -= stride_add;
293                            hv_ptr -= EDGE_SIZE;
294                            h_ptr -= EDGE_SIZE;
295    
296                            for (x = 0; x < (edged_width - EDGE_SIZE); x = x + 8) {
297                                    hv_ptr -= 8;
298                                    h_ptr -= 8;
299                                  interpolate8x8_6tap_lowpass_v(hv_ptr, h_ptr, edged_width, rounding);                                  interpolate8x8_6tap_lowpass_v(hv_ptr, h_ptr, edged_width, rounding);
                                 hv_ptr += 8;  
                                 h_ptr += 8;  
300                          }                          }
                         hv_ptr += stride_add;  
                         h_ptr += stride_add;  
301                  }                  }
302          }          } else {
303          else {  
304                    hv_ptr = refhv;
305                    hv_ptr -= offset;
306    
307                  for (y = 0; y < edged_height; y += 8) {                  for (y = 0; y < (edged_height - EDGE_SIZE); y += 8) {
308                          for (x = 0; x < edged_width; x += 8) {                          for (x = 0; x < (edged_width - EDGE_SIZE); x += 8) {
309                                  interpolate8x8_halfpel_h(h_ptr, n_ptr, edged_width, rounding);                                  interpolate8x8_halfpel_h(h_ptr, n_ptr, edged_width, rounding);
310                                  interpolate8x8_halfpel_v(v_ptr, n_ptr, edged_width, rounding);                                  interpolate8x8_halfpel_v(v_ptr, n_ptr, edged_width, rounding);
311                                  interpolate8x8_halfpel_hv(hv_ptr, n_ptr, edged_width, rounding);                                  interpolate8x8_halfpel_hv(hv_ptr, n_ptr, edged_width, rounding);
# Line 333  Line 316 
316                                  hv_ptr += 8;                                  hv_ptr += 8;
317                          }                          }
318    
319                            h_ptr += EDGE_SIZE;
320                            v_ptr += EDGE_SIZE;
321                            hv_ptr += EDGE_SIZE;
322                            n_ptr += EDGE_SIZE;
323    
324                          h_ptr += stride_add;                          h_ptr += stride_add;
325                          v_ptr += stride_add;                          v_ptr += stride_add;
326                          hv_ptr += stride_add;                          hv_ptr += stride_add;
327                          n_ptr += stride_add;                          n_ptr += stride_add;
328                  }                  }
329          }          }
330    }
331    
332    
333  /*  /*
334  #ifdef BFRAMES  chroma optimize filter, invented by mf
335          n_ptr = refn->u;  a chroma pixel is average from the surrounding pixels, when the
336          h_ptr = refh->u;  correpsonding luma pixels are pure black or white.
337          v_ptr = refv->u;  */
         hv_ptr = refhv->u;  
   
         n_ptr -= offset2;  
         h_ptr -= offset2;  
         v_ptr -= offset2;  
         hv_ptr -= offset2;  
   
         for (y = 0; y < edged_height2; y += 8) {  
                 for (x = 0; x < edged_width2; x += 8) {  
                         interpolate8x8_halfpel_h(h_ptr, n_ptr, edged_width2, rounding);  
                         interpolate8x8_halfpel_v(v_ptr, n_ptr, edged_width2, rounding);  
                         interpolate8x8_halfpel_hv(hv_ptr, n_ptr, edged_width2, rounding);  
338    
339                          n_ptr += 8;  void
340                          h_ptr += 8;  image_chroma_optimize(IMAGE * img, int width, int height, int edged_width)
341                          v_ptr += 8;  {
342                          hv_ptr += 8;          int x,y;
343            int pixels = 0;
344    
345            for (y = 1; y < height/2 - 1; y++)
346            for (x = 1; x < width/2 - 1; x++)
347            {
348    #define IS_PURE(a)  ((a)<=16||(a)>=235)
349    #define IMG_Y(Y,X)      img->y[(Y)*edged_width + (X)]
350    #define IMG_U(Y,X)      img->u[(Y)*edged_width/2 + (X)]
351    #define IMG_V(Y,X)      img->v[(Y)*edged_width/2 + (X)]
352    
353                    if (IS_PURE(IMG_Y(y*2  ,x*2  )) &&
354                            IS_PURE(IMG_Y(y*2  ,x*2+1)) &&
355                            IS_PURE(IMG_Y(y*2+1,x*2  )) &&
356                            IS_PURE(IMG_Y(y*2+1,x*2+1)))
357                    {
358                            IMG_U(y,x) = (IMG_U(y,x-1) + IMG_U(y-1, x) + IMG_U(y, x+1) + IMG_U(y+1, x)) / 4;
359                            IMG_V(y,x) = (IMG_V(y,x-1) + IMG_V(y-1, x) + IMG_V(y, x+1) + IMG_V(y+1, x)) / 4;
360                            pixels++;
361                  }                  }
                 h_ptr += stride_add2;  
                 v_ptr += stride_add2;  
                 hv_ptr += stride_add2;  
                 n_ptr += stride_add2;  
         }  
   
         n_ptr = refn->v;  
         h_ptr = refh->v;  
         v_ptr = refv->v;  
         hv_ptr = refhv->v;  
   
         n_ptr -= offset2;  
         h_ptr -= offset2;  
         v_ptr -= offset2;  
         hv_ptr -= offset2;  
   
         for (y = 0; y < edged_height2; y = y + 8) {  
                 for (x = 0; x < edged_width2; x = x + 8) {  
                         interpolate8x8_halfpel_h(h_ptr, n_ptr, edged_width2, rounding);  
                         interpolate8x8_halfpel_v(v_ptr, n_ptr, edged_width2, rounding);  
                         interpolate8x8_halfpel_hv(hv_ptr, n_ptr, edged_width2, rounding);  
362    
363                          n_ptr += 8;  #undef IS_PURE
364                          h_ptr += 8;  #undef IMG_Y
365                          v_ptr += 8;  #undef IMG_U
366                          hv_ptr += 8;  #undef IMG_V
367                  }                  }
368                  h_ptr += stride_add2;  
369                  v_ptr += stride_add2;          DPRINTF(XVID_DEBUG_DEBUG,"chroma_optimized_pixels = %i/%i\n", pixels, width*height/4);
                 hv_ptr += stride_add2;  
                 n_ptr += stride_add2;  
370          }          }
371  #endif  
372  */  
373    
374    
375    
376          /*          /*
377             interpolate_halfpel_h(    perform safe packed colorspace conversion, by splitting
378             refh->y - offset,    the image up into an optimized area (pixel width divisible by 16),
379             refn->y - offset,    and two unoptimized/plain-c areas (pixel width divisible by 2)
            edged_width, edged_height,  
            rounding);  
   
            interpolate_halfpel_v(  
            refv->y - offset,  
            refn->y - offset,  
            edged_width, edged_height,  
            rounding);  
   
            interpolate_halfpel_hv(  
            refhv->y - offset,  
            refn->y - offset,  
            edged_width, edged_height,  
            rounding);  
380           */           */
381    
382          /* uv-image-based compensation  static void
383             offset = EDGE_SIZE2 * (edged_width / 2 + 1);  safe_packed_conv(uint8_t * x_ptr, int x_stride,
384                                     uint8_t * y_ptr, uint8_t * u_ptr, uint8_t * v_ptr,
385                                     int y_stride, int uv_stride,
386                                     int width, int height, int vflip,
387                                     packedFunc * func_opt, packedFunc func_c, int size)
388    {
389            int width_opt, width_c;
390    
391             interpolate_halfpel_h(          if (func_opt != func_c && x_stride < size*((width+15)/16)*16)
392             refh->u - offset,          {
393             refn->u - offset,                  width_opt = width & (~15);
394             edged_width / 2, edged_height / 2,                  width_c = width - width_opt;
            rounding);  
   
            interpolate_halfpel_v(  
            refv->u - offset,  
            refn->u - offset,  
            edged_width / 2, edged_height / 2,  
            rounding);  
   
            interpolate_halfpel_hv(  
            refhv->u - offset,  
            refn->u - offset,  
            edged_width / 2, edged_height / 2,  
            rounding);  
   
   
            interpolate_halfpel_h(  
            refh->v - offset,  
            refn->v - offset,  
            edged_width / 2, edged_height / 2,  
            rounding);  
   
            interpolate_halfpel_v(  
            refv->v - offset,  
            refn->v - offset,  
            edged_width / 2, edged_height / 2,  
            rounding);  
   
            interpolate_halfpel_hv(  
            refhv->v - offset,  
            refn->v - offset,  
            edged_width / 2, edged_height / 2,  
            rounding);  
          */  
395  }  }
396            else
397            {
398                    width_opt = width;
399                    width_c = 0;
400            }
401    
402            func_opt(x_ptr, x_stride,
403                            y_ptr, u_ptr, v_ptr, y_stride, uv_stride,
404                            width_opt, height, vflip);
405    
406            if (width_c)
407            {
408                    func_c(x_ptr + size*width_opt, x_stride,
409                            y_ptr + width_opt, u_ptr + width_opt/2, v_ptr + width_opt/2,
410                            y_stride, uv_stride, width_c, height, vflip);
411            }
412    }
413    
414    
415    
416  int  int
# Line 464  Line 418 
418                          uint32_t width,                          uint32_t width,
419                          int height,                          int height,
420                          uint32_t edged_width,                          uint32_t edged_width,
421                          uint8_t * src,                          uint8_t * src[4],
422                          int csp)                          int src_stride[4],
423  {                          int csp,
424                            int interlacing)
425  /*      if (csp & XVID_CSP_VFLIP)  {
426          {          const int edged_width2 = edged_width/2;
427                  height = -height;          const int width2 = width/2;
428          }          const int height2 = height/2;
429  */  #if 0
430            const int height_signed = (csp & XVID_CSP_VFLIP) ? -height : height;
431    #endif
432    
433          switch (csp & ~XVID_CSP_VFLIP) {          switch (csp & ~XVID_CSP_VFLIP) {
434          case XVID_CSP_RGB555:          case XVID_CSP_RGB555:
435                  rgb555_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
436                                             edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
437                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
438                            interlacing?rgb555i_to_yv12  :rgb555_to_yv12,
439                            interlacing?rgb555i_to_yv12_c:rgb555_to_yv12_c, 2);
440                    break;
441    
442          case XVID_CSP_RGB565:          case XVID_CSP_RGB565:
443                  rgb565_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
444                                             edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
445                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
446                            interlacing?rgb565i_to_yv12  :rgb565_to_yv12,
447                            interlacing?rgb565i_to_yv12_c:rgb565_to_yv12_c, 2);
448                    break;
449    
450    
451          case XVID_CSP_RGB24:          case XVID_CSP_BGR:
452                  rgb24_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
453                                            edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
454                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
455                            interlacing?bgri_to_yv12  :bgr_to_yv12,
456                            interlacing?bgri_to_yv12_c:bgr_to_yv12_c, 3);
457                    break;
458    
459          case XVID_CSP_RGB32:          case XVID_CSP_BGRA:
460                  rgb32_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
461                                            edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
462                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
463                            interlacing?bgrai_to_yv12  :bgra_to_yv12,
464                            interlacing?bgrai_to_yv12_c:bgra_to_yv12_c, 4);
465                    break;
466    
467          case XVID_CSP_I420:          case XVID_CSP_ABGR :
468                  yuv_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
469                                          edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
470                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
471                            interlacing?abgri_to_yv12  :abgr_to_yv12,
472                            interlacing?abgri_to_yv12_c:abgr_to_yv12_c, 4);
473                    break;
474    
475          case XVID_CSP_YV12:             /* u/v swapped */          case XVID_CSP_RGBA :
476                  yuv_to_yv12(image->y, image->v, image->u, src, width, height,                  safe_packed_conv(
477                                          edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
478                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
479                            interlacing?rgbai_to_yv12  :rgba_to_yv12,
480                            interlacing?rgbai_to_yv12_c:rgba_to_yv12_c, 4);
481                    break;
482    
483            case XVID_CSP_ARGB:
484                    safe_packed_conv(
485                            src[0], src_stride[0], image->y, image->u, image->v,
486                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
487                            interlacing?argbi_to_yv12  : argb_to_yv12,
488                            interlacing?argbi_to_yv12_c: argb_to_yv12_c, 4);
489                    break;
490    
491          case XVID_CSP_YUY2:          case XVID_CSP_YUY2:
492                  yuyv_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
493                                           edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
494                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
495                            interlacing?yuyvi_to_yv12  :yuyv_to_yv12,
496                            interlacing?yuyvi_to_yv12_c:yuyv_to_yv12_c, 2);
497                    break;
498    
499          case XVID_CSP_YVYU:             /* u/v swapped */          case XVID_CSP_YVYU:             /* u/v swapped */
500                  yuyv_to_yv12(image->y, image->v, image->u, src, width, height,                  safe_packed_conv(
501                                           edged_width);                          src[0], src_stride[0], image->y, image->v, image->u,
502                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
503                            interlacing?yuyvi_to_yv12  :yuyv_to_yv12,
504                            interlacing?yuyvi_to_yv12_c:yuyv_to_yv12_c, 2);
505                    break;
506    
507          case XVID_CSP_UYVY:          case XVID_CSP_UYVY:
508                  uyvy_to_yv12(image->y, image->u, image->v, src, width, height,                  safe_packed_conv(
509                                           edged_width);                          src[0], src_stride[0], image->y, image->u, image->v,
510                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
511                            interlacing?uyvyi_to_yv12  :uyvy_to_yv12,
512                            interlacing?uyvyi_to_yv12_c:uyvy_to_yv12_c, 2);
513                    break;
514    
515          case XVID_CSP_USER:          case XVID_CSP_I420:     /* YCbCr == YUV == internal colorspace for MPEG */
516                  user_to_yuv_c(image->y, image->u, image->v, edged_width,                  yv12_to_yv12(image->y, image->u, image->v, edged_width, edged_width2,
517                                            (DEC_PICTURE *) src, width, height);                          src[0], src[0] + src_stride[0]*height, src[0] + src_stride[0]*height + (src_stride[0]/2)*height2,
518                  return 0;                          src_stride[0], src_stride[0]/2, width, height, (csp & XVID_CSP_VFLIP));
519                    break;
520    
521          case XVID_CSP_NULL:          case XVID_CSP_YV12: /* YCrCb == YVA == U and V plane swapped */
522                    yv12_to_yv12(image->y, image->v, image->u, edged_width, edged_width2,
523                            src[0], src[0] + src_stride[0]*height, src[0] + src_stride[0]*height + (src_stride[0]/2)*height2,
524                            src_stride[0], src_stride[0]/2, width, height, (csp & XVID_CSP_VFLIP));
525                  break;                  break;
526    
527          }          case XVID_CSP_PLANAR:  /* YCbCr with arbitrary pointers and different strides for Y and UV */
528                    yv12_to_yv12(image->y, image->u, image->v, edged_width, edged_width2,
529                            src[0], src[1], src[2], src_stride[0], src_stride[1],  /* v: dst_stride[2] not yet supported */
530                            width, height, (csp & XVID_CSP_VFLIP));
531                    break;
532    
533            case XVID_CSP_NULL:
534                    break;
535    
536            default :
537          return -1;          return -1;
538  }  }
539    
540    
541            /* pad out image when the width and/or height is not a multiple of 16 */
542    
543  int          if (width & 15)
 image_output(IMAGE * image,  
                          uint32_t width,  
                          int height,  
                          uint32_t edged_width,  
                          uint8_t * dst,  
                          uint32_t dst_stride,  
                          int csp)  
544  {  {
545          if (csp & XVID_CSP_VFLIP) {                  int i;
546                  height = -height;                  int pad_width = 16 - (width&15);
547                    for (i = 0; i < height; i++)
548                    {
549                            memset(image->y + i*edged_width + width,
550                                     *(image->y + i*edged_width + width - 1), pad_width);
551          }          }
552                    for (i = 0; i < height/2; i++)
         // --- xvid 2.1 compatiblity patch ---  
         // --- remove when xvid_dec_frame->stride equals real stride  
         if ((csp & ~XVID_CSP_VFLIP) == XVID_CSP_RGB555 ||  
                 (csp & ~XVID_CSP_VFLIP) == XVID_CSP_RGB565 ||  
                 (csp & ~XVID_CSP_VFLIP) == XVID_CSP_YUY2 ||  
                 (csp & ~XVID_CSP_VFLIP) == XVID_CSP_YVYU ||  
                 (csp & ~XVID_CSP_VFLIP) == XVID_CSP_UYVY)  
553          {          {
554                  dst_stride *= 2;                          memset(image->u + i*edged_width2 + width2,
555                                     *(image->u + i*edged_width2 + width2 - 1),pad_width/2);
556                            memset(image->v + i*edged_width2 + width2,
557                                     *(image->v + i*edged_width2 + width2 - 1),pad_width/2);
558          }          }
559          else if ((csp & ~XVID_CSP_VFLIP) == XVID_CSP_RGB24)          }
560    
561            if (height & 15)
562            {
563                    int pad_height = 16 - (height&15);
564                    int length = ((width+15)/16)*16;
565                    int i;
566                    for (i = 0; i < pad_height; i++)
567          {          {
568                  dst_stride *= 3;                          memcpy(image->y + (height+i)*edged_width,
569                                       image->y + (height-1)*edged_width,length);
570          }          }
571          else if ((csp & ~XVID_CSP_VFLIP) == XVID_CSP_RGB32 ||  
572                  (csp & ~XVID_CSP_VFLIP) == XVID_CSP_ABGR ||                  for (i = 0; i < pad_height/2; i++)
                 (csp & ~XVID_CSP_VFLIP) == XVID_CSP_RGBA)  
573          {          {
574                  dst_stride *= 4;                          memcpy(image->u + (height2+i)*edged_width2,
575                                       image->u + (height2-1)*edged_width2,length/2);
576                            memcpy(image->v + (height2+i)*edged_width2,
577                                       image->v + (height2-1)*edged_width2,length/2);
578                    }
579          }          }
580          // ^--- xvid 2.1 compatiblity fix ---^  
581    /*
582            if (interlacing)
583                    image_printf(image, edged_width, height, 5,5, "[i]");
584            image_dump_yuvpgm(image, edged_width, ((width+15)/16)*16, ((height+15)/16)*16, "\\encode.pgm");
585    */
586            return 0;
587    }
588    
589    
590    
591    int
592    image_output(IMAGE * image,
593                             uint32_t width,
594                             int height,
595                             uint32_t edged_width,
596                             uint8_t * dst[4],
597                             int dst_stride[4],
598                             int csp,
599                             int interlacing)
600    {
601            const int edged_width2 = edged_width/2;
602            int height2 = height/2;
603    
604    /*
605            if (interlacing)
606                    image_printf(image, edged_width, height, 5,100, "[i]=%i,%i",width,height);
607            image_dump_yuvpgm(image, edged_width, width, height, "\\decode.pgm");
608    */
609    
610          switch (csp & ~XVID_CSP_VFLIP) {          switch (csp & ~XVID_CSP_VFLIP) {
611          case XVID_CSP_RGB555:          case XVID_CSP_RGB555:
612                  yv12_to_rgb555(dst, dst_stride, image->y, image->u, image->v,                  safe_packed_conv(
613                                             edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->u, image->v,
614                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
615                            interlacing?yv12_to_rgb555i  :yv12_to_rgb555,
616                            interlacing?yv12_to_rgb555i_c:yv12_to_rgb555_c, 2);
617                  return 0;                  return 0;
618    
619          case XVID_CSP_RGB565:          case XVID_CSP_RGB565:
620                  yv12_to_rgb565(dst, dst_stride, image->y, image->u, image->v,                  safe_packed_conv(
621                                             edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->u, image->v,
622                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
623                            interlacing?yv12_to_rgb565i  :yv12_to_rgb565,
624          case XVID_CSP_RGB24:                          interlacing?yv12_to_rgb565i_c:yv12_to_rgb565_c, 2);
625                  yv12_to_rgb24(dst, dst_stride, image->y, image->u, image->v,                  return 0;
626                                            edged_width, edged_width / 2, width, height);  
627                  return 0;      case XVID_CSP_BGR:
628                    safe_packed_conv(
629          case XVID_CSP_RGB32:                          dst[0], dst_stride[0], image->y, image->u, image->v,
630                  yv12_to_rgb32(dst, dst_stride, image->y, image->u, image->v,                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
631                                            edged_width, edged_width / 2, width, height);                          interlacing?yv12_to_bgri  :yv12_to_bgr,
632                            interlacing?yv12_to_bgri_c:yv12_to_bgr_c, 3);
633                    return 0;
634    
635            case XVID_CSP_BGRA:
636                    safe_packed_conv(
637                            dst[0], dst_stride[0], image->y, image->u, image->v,
638                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
639                            interlacing?yv12_to_bgrai  :yv12_to_bgra,
640                            interlacing?yv12_to_bgrai_c:yv12_to_bgra_c, 4);
641                  return 0;                  return 0;
642    
643          case XVID_CSP_ABGR:          case XVID_CSP_ABGR:
644                  yv12_to_abgr(dst, dst_stride, image->y, image->u, image->v,                  safe_packed_conv(
645                                            edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->u, image->v,
646                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
647                            interlacing?yv12_to_abgri  :yv12_to_abgr,
648                            interlacing?yv12_to_abgri_c:yv12_to_abgr_c, 4);
649                  return 0;                  return 0;
650    
651          case XVID_CSP_RGBA:          case XVID_CSP_RGBA:
652                  yv12_to_rgba(dst, dst_stride, image->y, image->u, image->v,                  safe_packed_conv(
653                                            edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->u, image->v,
654                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
655                            interlacing?yv12_to_rgbai  :yv12_to_rgba,
656                            interlacing?yv12_to_rgbai_c:yv12_to_rgba_c, 4);
657                  return 0;                  return 0;
658    
659          case XVID_CSP_I420:          case XVID_CSP_ARGB:
660                  yv12_to_yuv(dst, dst_stride, image->y, image->u, image->v, edged_width,                  safe_packed_conv(
661                                          edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->u, image->v,
662                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
663                            interlacing?yv12_to_argbi  :yv12_to_argb,
664          case XVID_CSP_YV12:             // u,v swapped                          interlacing?yv12_to_argbi_c:yv12_to_argb_c, 4);
                 yv12_to_yuv(dst, dst_stride, image->y, image->v, image->u, edged_width,  
                                         edged_width / 2, width, height);  
665                  return 0;                  return 0;
666    
667          case XVID_CSP_YUY2:          case XVID_CSP_YUY2:
668                  yv12_to_yuyv(dst, dst_stride, image->y, image->u, image->v,                  safe_packed_conv(
669                                           edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->u, image->v,
670                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
671                            interlacing?yv12_to_yuyvi  :yv12_to_yuyv,
672                            interlacing?yv12_to_yuyvi_c:yv12_to_yuyv_c, 2);
673                  return 0;                  return 0;
674    
675          case XVID_CSP_YVYU:             // u,v swapped          case XVID_CSP_YVYU:             /* u,v swapped */
676                  yv12_to_yuyv(dst, dst_stride, image->y, image->v, image->u,                  safe_packed_conv(
677                                           edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->v, image->u,
678                            edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
679                            interlacing?yv12_to_yuyvi  :yv12_to_yuyv,
680                            interlacing?yv12_to_yuyvi_c:yv12_to_yuyv_c, 2);
681                  return 0;                  return 0;
682    
683          case XVID_CSP_UYVY:          case XVID_CSP_UYVY:
684                  yv12_to_uyvy(dst, dst_stride, image->y, image->u, image->v,                  safe_packed_conv(
685                                           edged_width, edged_width / 2, width, height);                          dst[0], dst_stride[0], image->y, image->u, image->v,
686                  return 0;                          edged_width, edged_width2, width, height, (csp & XVID_CSP_VFLIP),
687                            interlacing?yv12_to_uyvyi  :yv12_to_uyvy,
688          case XVID_CSP_USER:                          interlacing?yv12_to_uyvyi_c:yv12_to_uyvy_c, 2);
689                  ((DEC_PICTURE *) dst)->y = image->y;                  return 0;
690                  ((DEC_PICTURE *) dst)->u = image->u;  
691                  ((DEC_PICTURE *) dst)->v = image->v;          case XVID_CSP_I420: /* YCbCr == YUV == internal colorspace for MPEG */
692                  ((DEC_PICTURE *) dst)->stride_y = edged_width;                  yv12_to_yv12(dst[0], dst[0] + dst_stride[0]*height, dst[0] + dst_stride[0]*height + (dst_stride[0]/2)*height2,
693                  ((DEC_PICTURE *) dst)->stride_uv = edged_width / 2;                          dst_stride[0], dst_stride[0]/2,
694                            image->y, image->u, image->v, edged_width, edged_width2,
695                            width, height, (csp & XVID_CSP_VFLIP));
696                    return 0;
697    
698            case XVID_CSP_YV12:     /* YCrCb == YVU == U and V plane swapped */
699                    yv12_to_yv12(dst[0], dst[0] + dst_stride[0]*height, dst[0] + dst_stride[0]*height + (dst_stride[0]/2)*height2,
700                            dst_stride[0], dst_stride[0]/2,
701                            image->y, image->v, image->u, edged_width, edged_width2,
702                            width, height, (csp & XVID_CSP_VFLIP));
703                    return 0;
704    
705            case XVID_CSP_PLANAR:  /* YCbCr with arbitrary pointers and different strides for Y and UV */
706                    yv12_to_yv12(dst[0], dst[1], dst[2],
707                            dst_stride[0], dst_stride[1],   /* v: dst_stride[2] not yet supported */
708                            image->y, image->u, image->v, edged_width, edged_width2,
709                            width, height, (csp & XVID_CSP_VFLIP));
710                    return 0;
711    
712            case XVID_CSP_INTERNAL :
713                    dst[0] = image->y;
714                    dst[1] = image->u;
715                    dst[2] = image->v;
716                    dst_stride[0] = edged_width;
717                    dst_stride[1] = edged_width/2;
718                    dst_stride[2] = edged_width/2;
719                  return 0;                  return 0;
720    
721          case XVID_CSP_NULL:          case XVID_CSP_NULL:
722          case XVID_CSP_EXTERN:          case XVID_CSP_SLICE:
723                  return 0;                  return 0;
724    
725          }          }
# Line 677  Line 759 
759          return psnr_y;          return psnr_y;
760  }  }
761    
762  /*  
763    float sse_to_PSNR(long sse, int pixels)
764    {
765            if (sse==0)
766                    return 99.99F;
767    
768            return 48.131F - 10*(float)log10((float)sse/(float)(pixels));   /* log10(255*255)=4.8131 */
769    
770    }
771    
772    long plane_sse(uint8_t *orig,
773                               uint8_t *recon,
774                               uint16_t stride,
775                               uint16_t width,
776                               uint16_t height)
777    {
778            int y, bwidth, bheight;
779            long sse = 0;
780    
781            bwidth  = width  & (~0x07);
782            bheight = height & (~0x07);
783    
784            /* Compute the 8x8 integer part */
785            for (y = 0; y<bheight; y += 8) {
786                    int x;
787    
788                    /* Compute sse for the band */
789                    for (x = 0; x<bwidth; x += 8)
790                            sse += sse8_8bit(orig  + x, recon + x, stride);
791    
792                    /* remaining pixels of the 8 pixels high band */
793                    for (x = bwidth; x < width; x++) {
794                            int diff;
795                            diff = *(orig + 0*stride + x) - *(recon + 0*stride + x);
796                            sse += diff * diff;
797                            diff = *(orig + 1*stride + x) - *(recon + 1*stride + x);
798                            sse += diff * diff;
799                            diff = *(orig + 2*stride + x) - *(recon + 2*stride + x);
800                            sse += diff * diff;
801                            diff = *(orig + 3*stride + x) - *(recon + 3*stride + x);
802                            sse += diff * diff;
803                            diff = *(orig + 4*stride + x) - *(recon + 4*stride + x);
804                            sse += diff * diff;
805                            diff = *(orig + 5*stride + x) - *(recon + 5*stride + x);
806                            sse += diff * diff;
807                            diff = *(orig + 6*stride + x) - *(recon + 6*stride + x);
808                            sse += diff * diff;
809                            diff = *(orig + 7*stride + x) - *(recon + 7*stride + x);
810                            sse += diff * diff;
811                    }
812    
813                    orig  += 8*stride;
814                    recon += 8*stride;
815            }
816    
817            /* Compute the down rectangle sse */
818            for (y = bheight; y < height; y++) {
819                    int x;
820                    for (x = 0; x < width; x++) {
821                            int diff;
822                            diff = *(orig + x) - *(recon + x);
823                            sse += diff * diff;
824                    }
825                    orig += stride;
826                    recon += stride;
827            }
828    
829            return (sse);
830    }
831    
832    #if 0
833    
834  #include <stdio.h>  #include <stdio.h>
835  #include <string.h>  #include <string.h>
# Line 701  Line 853 
853  }  }
854    
855    
856  // dump image+edges to yuv pgm files  /* dump image+edges to yuv pgm files */
857    
858  int image_dump(IMAGE * image, uint32_t edged_width, uint32_t edged_height, char * path, int number)  int image_dump(IMAGE * image, uint32_t edged_width, uint32_t edged_height, char * path, int number)
859  {  {
# Line 724  Line 876 
876    
877          return 0;          return 0;
878  }  }
879  */  #endif
880    
881    
882    
# Line 773  Line 925 
925  }  }
926    
927    
 #define ABS(X)    (((X)>0)?(X):-(X))  
928  float  float
929  image_mad(const IMAGE * img1,  image_mad(const IMAGE * img1,
930                    const IMAGE * img2,                    const IMAGE * img2,
# Line 790  Line 941 
941    
942          for (y = 0; y < height; y++)          for (y = 0; y < height; y++)
943                  for (x = 0; x < width; x++)                  for (x = 0; x < width; x++)
944                          sum += ABS(img1->y[x + y * stride] - img2->y[x + y * stride]);                          sum += abs(img1->y[x + y * stride] - img2->y[x + y * stride]);
945    
946          for (y = 0; y < height2; y++)          for (y = 0; y < height2; y++)
947                  for (x = 0; x < width2; x++)                  for (x = 0; x < width2; x++)
948                          sum += ABS(img1->u[x + y * stride2] - img2->u[x + y * stride2]);                          sum += abs(img1->u[x + y * stride2] - img2->u[x + y * stride2]);
949    
950          for (y = 0; y < height2; y++)          for (y = 0; y < height2; y++)
951                  for (x = 0; x < width2; x++)                  for (x = 0; x < width2; x++)
952                          sum += ABS(img1->v[x + y * stride2] - img2->v[x + y * stride2]);                          sum += abs(img1->v[x + y * stride2] - img2->v[x + y * stride2]);
953    
954          return (float) sum / (width * height * 3 / 2);          return (float) sum / (width * height * 3 / 2);
955  }  }
956    
957  void  void
958  output_slice(IMAGE * cur, int std, int width, XVID_DEC_PICTURE* out_frm, int mbx, int mby,int mbl) {  output_slice(IMAGE * cur, int stride, int width, xvid_image_t* out_frm, int mbx, int mby,int mbl) {
959    uint8_t *dY,*dU,*dV,*sY,*sU,*sV;    uint8_t *dY,*dU,*dV,*sY,*sU,*sV;
960    int std2 = std >> 1;    int stride2 = stride >> 1;
961    int w = mbl << 4, w2,i;    int w = mbl << 4, w2,i;
962    
963    if(w > width)    if(w > width)
964      w = width;      w = width;
965    w2 = w >> 1;    w2 = w >> 1;
966    
967    dY = (uint8_t*)out_frm->y + (mby << 4) * out_frm->stride_y + (mbx << 4);    dY = (uint8_t*)out_frm->plane[0] + (mby << 4) * out_frm->stride[0] + (mbx << 4);
968    dU = (uint8_t*)out_frm->u + (mby << 3) * out_frm->stride_u + (mbx << 3);    dU = (uint8_t*)out_frm->plane[1] + (mby << 3) * out_frm->stride[1] + (mbx << 3);
969    dV = (uint8_t*)out_frm->v + (mby << 3) * out_frm->stride_v + (mbx << 3);    dV = (uint8_t*)out_frm->plane[2] + (mby << 3) * out_frm->stride[2] + (mbx << 3);
970    sY = cur->y + (mby << 4) * std + (mbx << 4);    sY = cur->y + (mby << 4) * stride + (mbx << 4);
971    sU = cur->u + (mby << 3) * std2 + (mbx << 3);    sU = cur->u + (mby << 3) * stride2 + (mbx << 3);
972    sV = cur->v + (mby << 3) * std2 + (mbx << 3);    sV = cur->v + (mby << 3) * stride2 + (mbx << 3);
973    
974    for(i = 0 ; i < 16 ; i++) {    for(i = 0 ; i < 16 ; i++) {
975      memcpy(dY,sY,w);      memcpy(dY,sY,w);
976      dY += out_frm->stride_y;      dY += out_frm->stride[0];
977      sY += std;      sY += stride;
978    }    }
979    for(i = 0 ; i < 8 ; i++) {    for(i = 0 ; i < 8 ; i++) {
980      memcpy(dU,sU,w2);      memcpy(dU,sU,w2);
981      dU += out_frm->stride_u;      dU += out_frm->stride[1];
982      sU += std2;      sU += stride2;
983    }    }
984    for(i = 0 ; i < 8 ; i++) {    for(i = 0 ; i < 8 ; i++) {
985      memcpy(dV,sV,w2);      memcpy(dV,sV,w2);
986      dV += out_frm->stride_v;      dV += out_frm->stride[2];
987      sV += std2;      sV += stride2;
988      }
989    }
990    
991    
992    void
993    image_clear(IMAGE * img, int width, int height, int edged_width,
994                                            int y, int u, int v)
995    {
996            uint8_t * p;
997            int i;
998    
999            p = img->y;
1000            for (i = 0; i < height; i++) {
1001                    memset(p, y, width);
1002                    p += edged_width;
1003            }
1004    
1005            p = img->u;
1006            for (i = 0; i < height/2; i++) {
1007                    memset(p, u, width/2);
1008                    p += edged_width/2;
1009            }
1010    
1011            p = img->v;
1012            for (i = 0; i < height/2; i++) {
1013                    memset(p, v, width/2);
1014                    p += edged_width/2;
1015    }    }
1016  }  }

Legend:
Removed from v.1.20.2.5  
changed lines
  Added in v.1.34

No admin address has been configured
ViewVC Help
Powered by ViewVC 1.0.4