[cvs] / xvidcore / src / image / interpolate8x8.h Repository:
ViewVC logotype

Diff of /xvidcore/src/image/interpolate8x8.h

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

revision 1.5.2.6, Wed Nov 20 19:53:12 2002 UTC revision 1.13, Tue Aug 10 21:58:55 2004 UTC
# Line 1  Line 1 
1    /*****************************************************************************
2     *
3     *  XVID MPEG-4 VIDEO CODEC
4     *  - Interpolation related header  -
5     *
6     *  Copyright(C) 2001-2003 Peter Ross <pross@xvid.org>
7     *
8     *  This program is free software ; you can redistribute it and/or modify
9     *  it under the terms of the GNU General Public License as published by
10     *  the Free Software Foundation ; either version 2 of the License, or
11     *  (at your option) any later version.
12     *
13     *  This program is distributed in the hope that it will be useful,
14     *  but WITHOUT ANY WARRANTY ; without even the implied warranty of
15     *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
16     *  GNU General Public License for more details.
17     *
18     *  You should have received a copy of the GNU General Public License
19     *  along with this program ; if not, write to the Free Software
20     *  Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
21     *
22     * $Id$
23     *
24     ****************************************************************************/
25    
26  #ifndef _INTERPOLATE8X8_H_  #ifndef _INTERPOLATE8X8_H_
27  #define _INTERPOLATE8X8_H_  #define _INTERPOLATE8X8_H_
28    
# Line 48  Line 73 
73    
74  typedef INTERPOLATE8X8_6TAP_LOWPASS *INTERPOLATE8X8_6TAP_LOWPASS_PTR;  typedef INTERPOLATE8X8_6TAP_LOWPASS *INTERPOLATE8X8_6TAP_LOWPASS_PTR;
75    
76    /* These function do: dst = interpolate(src) */
77  extern INTERPOLATE8X8_PTR interpolate8x8_halfpel_h;  extern INTERPOLATE8X8_PTR interpolate8x8_halfpel_h;
78  extern INTERPOLATE8X8_PTR interpolate8x8_halfpel_v;  extern INTERPOLATE8X8_PTR interpolate8x8_halfpel_v;
79  extern INTERPOLATE8X8_PTR interpolate8x8_halfpel_hv;  extern INTERPOLATE8X8_PTR interpolate8x8_halfpel_hv;
80    
81    /* These functions do: dst = (dst+interpolate(src) + 1)/2
82     * Suitable for direct/interpolated bvop prediction block
83     * building w/o the need for intermediate interpolated result
84     * storing/reading
85     * NB: the rounding applies to the interpolation, but not
86     *     the averaging step which will always use rounding=0 */
87    extern INTERPOLATE8X8_PTR interpolate8x8_halfpel_add;
88    extern INTERPOLATE8X8_PTR interpolate8x8_halfpel_h_add;
89    extern INTERPOLATE8X8_PTR interpolate8x8_halfpel_v_add;
90    extern INTERPOLATE8X8_PTR interpolate8x8_halfpel_hv_add;
91    
92  extern INTERPOLATE8X8_AVG2_PTR interpolate8x8_avg2;  extern INTERPOLATE8X8_AVG2_PTR interpolate8x8_avg2;
93  extern INTERPOLATE8X8_AVG4_PTR interpolate8x8_avg4;  extern INTERPOLATE8X8_AVG4_PTR interpolate8x8_avg4;
94    
# Line 70  Line 107 
107  INTERPOLATE8X8 interpolate8x8_halfpel_h_c;  INTERPOLATE8X8 interpolate8x8_halfpel_h_c;
108  INTERPOLATE8X8 interpolate8x8_halfpel_v_c;  INTERPOLATE8X8 interpolate8x8_halfpel_v_c;
109  INTERPOLATE8X8 interpolate8x8_halfpel_hv_c;  INTERPOLATE8X8 interpolate8x8_halfpel_hv_c;
110    INTERPOLATE8X8 interpolate8x8_halfpel_add_c;
111    INTERPOLATE8X8 interpolate8x8_halfpel_h_add_c;
112    INTERPOLATE8X8 interpolate8x8_halfpel_v_add_c;
113    INTERPOLATE8X8 interpolate8x8_halfpel_hv_add_c;
114    
115    #ifdef ARCH_IS_IA32
116  INTERPOLATE8X8 interpolate8x8_halfpel_h_mmx;  INTERPOLATE8X8 interpolate8x8_halfpel_h_mmx;
117  INTERPOLATE8X8 interpolate8x8_halfpel_v_mmx;  INTERPOLATE8X8 interpolate8x8_halfpel_v_mmx;
118  INTERPOLATE8X8 interpolate8x8_halfpel_hv_mmx;  INTERPOLATE8X8 interpolate8x8_halfpel_hv_mmx;
119    
120    INTERPOLATE8X8 interpolate8x8_halfpel_add_mmx;
121    INTERPOLATE8X8 interpolate8x8_halfpel_h_add_mmx;
122    INTERPOLATE8X8 interpolate8x8_halfpel_v_add_mmx;
123    INTERPOLATE8X8 interpolate8x8_halfpel_hv_add_mmx;
124    
125  INTERPOLATE8X8 interpolate8x8_halfpel_h_xmm;  INTERPOLATE8X8 interpolate8x8_halfpel_h_xmm;
126  INTERPOLATE8X8 interpolate8x8_halfpel_v_xmm;  INTERPOLATE8X8 interpolate8x8_halfpel_v_xmm;
127  INTERPOLATE8X8 interpolate8x8_halfpel_hv_xmm;  INTERPOLATE8X8 interpolate8x8_halfpel_hv_xmm;
128    
129    INTERPOLATE8X8 interpolate8x8_halfpel_add_xmm;
130    INTERPOLATE8X8 interpolate8x8_halfpel_h_add_xmm;
131    INTERPOLATE8X8 interpolate8x8_halfpel_v_add_xmm;
132    INTERPOLATE8X8 interpolate8x8_halfpel_hv_add_xmm;
133    
134  INTERPOLATE8X8 interpolate8x8_halfpel_h_3dn;  INTERPOLATE8X8 interpolate8x8_halfpel_h_3dn;
135  INTERPOLATE8X8 interpolate8x8_halfpel_v_3dn;  INTERPOLATE8X8 interpolate8x8_halfpel_v_3dn;
136  INTERPOLATE8X8 interpolate8x8_halfpel_hv_3dn;  INTERPOLATE8X8 interpolate8x8_halfpel_hv_3dn;
137    
138    INTERPOLATE8X8 interpolate8x8_halfpel_h_3dne;
139    INTERPOLATE8X8 interpolate8x8_halfpel_v_3dne;
140    INTERPOLATE8X8 interpolate8x8_halfpel_hv_3dne;
141    #endif
142    
143    #ifdef ARCH_IS_IA64
144  INTERPOLATE8X8 interpolate8x8_halfpel_h_ia64;  INTERPOLATE8X8 interpolate8x8_halfpel_h_ia64;
145  INTERPOLATE8X8 interpolate8x8_halfpel_v_ia64;  INTERPOLATE8X8 interpolate8x8_halfpel_v_ia64;
146  INTERPOLATE8X8 interpolate8x8_halfpel_hv_ia64;  INTERPOLATE8X8 interpolate8x8_halfpel_hv_ia64;
147    #endif
148    
149    #ifdef ARCH_IS_PPC
150    INTERPOLATE8X8 interpolate8x8_halfpel_h_altivec_c;
151    INTERPOLATE8X8 interpolate8x8_halfpel_v_altivec_c;
152    INTERPOLATE8X8 interpolate8x8_halfpel_hv_altivec_c;
153    #endif
154    
155  INTERPOLATE8X8_AVG2 interpolate8x8_avg2_c;  INTERPOLATE8X8_AVG2 interpolate8x8_avg2_c;
156  INTERPOLATE8X8_AVG4 interpolate8x8_avg4_c;  INTERPOLATE8X8_AVG4 interpolate8x8_avg4_c;
157    
158    #ifdef ARCH_IS_IA32
159  INTERPOLATE8X8_AVG2 interpolate8x8_avg2_mmx;  INTERPOLATE8X8_AVG2 interpolate8x8_avg2_mmx;
160  INTERPOLATE8X8_AVG4 interpolate8x8_avg4_mmx;  INTERPOLATE8X8_AVG4 interpolate8x8_avg4_mmx;
161    #endif
162    
163    #ifdef ARCH_IS_PPC
164    INTERPOLATE8X8_AVG2 interpolate8x8_avg2_altivec_c;
165    INTERPOLATE8X8_AVG4 interpolate8x8_avg4_altivec_c;
166    #endif
167    
168  INTERPOLATE_LOWPASS interpolate8x8_lowpass_h_c;  INTERPOLATE_LOWPASS interpolate8x8_lowpass_h_c;
169  INTERPOLATE_LOWPASS interpolate8x8_lowpass_v_c;  INTERPOLATE_LOWPASS interpolate8x8_lowpass_v_c;
# Line 105  Line 177 
177  INTERPOLATE8X8_6TAP_LOWPASS interpolate8x8_6tap_lowpass_h_c;  INTERPOLATE8X8_6TAP_LOWPASS interpolate8x8_6tap_lowpass_h_c;
178  INTERPOLATE8X8_6TAP_LOWPASS interpolate8x8_6tap_lowpass_v_c;  INTERPOLATE8X8_6TAP_LOWPASS interpolate8x8_6tap_lowpass_v_c;
179    
180    #ifdef ARCH_IS_IA32
181  INTERPOLATE8X8_6TAP_LOWPASS interpolate8x8_6tap_lowpass_h_mmx;  INTERPOLATE8X8_6TAP_LOWPASS interpolate8x8_6tap_lowpass_h_mmx;
182  INTERPOLATE8X8_6TAP_LOWPASS interpolate8x8_6tap_lowpass_v_mmx;  INTERPOLATE8X8_6TAP_LOWPASS interpolate8x8_6tap_lowpass_v_mmx;
183    #endif
184    
185    #ifdef ARCH_IS_PPC
186    INTERPOLATE8X8_6TAP_LOWPASS interpolate8x8_6tap_lowpass_h_altivec_c;
187    #endif
188    
189  static __inline void  static __inline void
190  interpolate8x8_switch(uint8_t * const cur,  interpolate8x8_switch(uint8_t * const cur,
# Line 118  Line 196 
196                                            const uint32_t stride,                                            const uint32_t stride,
197                                            const uint32_t rounding)                                            const uint32_t rounding)
198  {  {
         int32_t ddx, ddy;  
199    
200          switch (((dx & 1) << 1) + (dy & 1))     // ((dx%2)?2:0)+((dy%2)?1:0)          const uint8_t * const src = refn + (int)((y + (dy>>1)) * stride + x + (dx>>1));
201          {          uint8_t * const dst = cur + (int)(y * stride + x);
202    
203            switch (((dx & 1) << 1) + (dy & 1))     { /* ((dx%2)?2:0)+((dy%2)?1:0) */
204          case 0:          case 0:
205                  ddx = dx / 2;                  transfer8x8_copy(dst, src, stride);
                 ddy = dy / 2;  
                 transfer8x8_copy(cur + y * stride + x,  
                                                  refn + (int)((y + ddy) * stride + x + ddx), stride);  
206                  break;                  break;
   
207          case 1:          case 1:
208                  ddx = dx / 2;                  interpolate8x8_halfpel_v(dst, src, stride, rounding);
                 ddy = (dy - 1) / 2;  
                 interpolate8x8_halfpel_v(cur + y * stride + x,  
                                                                  refn + (int)((y + ddy) * stride + x + ddx), stride,  
                                                                  rounding);  
209                  break;                  break;
   
210          case 2:          case 2:
211                  ddx = (dx - 1) / 2;                  interpolate8x8_halfpel_h(dst, src, stride, rounding);
                 ddy = dy / 2;  
                 interpolate8x8_halfpel_h(cur + y * stride + x,  
                                                                  refn + (int)((y + ddy) * stride + x + ddx), stride,  
                                                                  rounding);  
212                  break;                  break;
   
213          default:          default:
214                  ddx = (dx - 1) / 2;                  interpolate8x8_halfpel_hv(dst, src, stride, rounding);
                 ddy = (dy - 1) / 2;  
                 interpolate8x8_halfpel_hv(cur + y * stride + x,  
                                                                  refn + (int)((y + ddy) * stride + x + ddx), stride,  
                                                                   rounding);  
215                  break;                  break;
216          }          }
217  }  }
218    
219  static __inline uint8_t *  static __inline void
220  interpolate8x8_switch2(uint8_t * const buffer,  interpolate8x8_add_switch(uint8_t * const cur,
221                                            const uint8_t * const refn,                                            const uint8_t * const refn,
222                                            const uint32_t x,                                            const uint32_t x,
223                                            const uint32_t y,                                            const uint32_t y,
# Line 165  Line 226 
226                                            const uint32_t stride,                                            const uint32_t stride,
227                                            const uint32_t rounding)                                            const uint32_t rounding)
228  {  {
         int32_t ddx, ddy;  
229    
230          switch (((dx & 1) << 1) + (dy & 1))     // ((dx%2)?2:0)+((dy%2)?1:0)          const uint8_t * const src = refn + (int)((y + (dy>>1)) * stride + x + (dx>>1));
231          {          uint8_t * const dst = cur + (int)(y * stride + x);
         case 0:  
                 return (uint8_t *)refn + (int)((y + dy/2) * stride + x + dx/2);  
232    
233            switch (((dx & 1) << 1) + (dy & 1))     { /* ((dx%2)?2:0)+((dy%2)?1:0) */
234            case 0:
235                    interpolate8x8_halfpel_add(dst, src, stride, rounding);
236                    break;
237          case 1:          case 1:
238                  ddx = dx / 2;                  interpolate8x8_halfpel_v_add(dst, src, stride, rounding);
                 ddy = (dy - 1) / 2;  
                 interpolate8x8_halfpel_v(buffer,  
                                                                  refn + (int)((y + ddy) * stride + x + ddx), stride,  
                                                                  rounding);  
239                  break;                  break;
   
240          case 2:          case 2:
241                  ddx = (dx - 1) / 2;                  interpolate8x8_halfpel_h_add(dst, src, stride, rounding);
                 ddy = dy / 2;  
                 interpolate8x8_halfpel_h(buffer,  
                                                                  refn + (int)((y + ddy) * stride + x + ddx), stride,  
                                                                  rounding);  
242                  break;                  break;
   
243          default:          default:
244                  ddx = (dx - 1) / 2;                  interpolate8x8_halfpel_hv_add(dst, src, stride, rounding);
                 ddy = (dy - 1) / 2;  
                 interpolate8x8_halfpel_hv(buffer,  
                                                                  refn + (int)((y + ddy) * stride + x + ddx), stride,  
                                                                   rounding);  
245                  break;                  break;
246          }          }
         return buffer;  
247  }  }
248    
249  static __inline void interpolate8x8_quarterpel(uint8_t * const cur,  static __inline void
250                                       uint8_t * const refn,  interpolate16x16_switch(uint8_t * const cur,
251                                           uint8_t * const refh,                                            const uint8_t * const refn,
252                                           uint8_t * const refv,                                            const uint32_t x,
253                                           uint8_t * const refhv,                                            const uint32_t y,
254                                       const uint32_t x, const uint32_t y,                                            const int32_t dx,
255                                           const int32_t dx,  const int dy,                                            const int dy,
256                                           const uint32_t stride,                                           const uint32_t stride,
257                                           const uint32_t rounding)                                           const uint32_t rounding)
258  {  {
259          const int32_t xRef = x*4 + dx;          interpolate8x8_switch(cur, refn, x,   y,   dx, dy, stride, rounding);
260          const int32_t yRef = y*4 + dy;          interpolate8x8_switch(cur, refn, x+8, y,   dx, dy, stride, rounding);
261            interpolate8x8_switch(cur, refn, x,   y+8, dx, dy, stride, rounding);
262          uint8_t *src, *dst;          interpolate8x8_switch(cur, refn, x+8, y+8, dx, dy, stride, rounding);
         uint8_t *halfpel_h, *halfpel_v, *halfpel_hv;  
         int32_t x_int, y_int, x_frac, y_frac;  
   
         x_int = xRef/4;  
         if (xRef < 0 && xRef % 4)  
                 x_int--;  
   
         x_frac = xRef - (4*x_int);  
   
         y_int  = yRef/4;  
         if (yRef < 0 && yRef % 4)  
                 y_int--;  
   
         y_frac = yRef - (4*y_int);  
   
         src = refn + y_int * stride + x_int;  
         halfpel_h = refh;  
         halfpel_v = refv;  
         halfpel_hv = refhv;  
   
         dst = cur + y * stride + x;  
   
         switch((y_frac << 2) | (x_frac)) {  
   
         case 0:  
                 transfer8x8_copy(dst, src, stride);  
                 break;  
   
         case 1:  
                 interpolate8x8_lowpass_h(halfpel_h, src, stride, rounding);  
                 interpolate8x8_avg2(dst, src, halfpel_h, stride, rounding, 9);  
                 break;  
   
         case 2:  
             interpolate8x8_lowpass_h(dst, src, stride, rounding);  
                 break;  
   
         case 3:  
                 interpolate8x8_lowpass_h(halfpel_h, src, stride, rounding);  
                 interpolate8x8_avg2(dst, src + 1, halfpel_h, stride, rounding, 9);  
                 break;  
   
         case 4:  
                 interpolate8x8_lowpass_v(halfpel_v, src, stride, rounding);  
                 interpolate8x8_avg2(dst, src, halfpel_v, stride, rounding, 9);  
                 break;  
   
         case 5:  
                 interpolate8x8_lowpass_h(halfpel_h, src, stride, rounding);  
                 interpolate8x8_avg2(halfpel_v, src, halfpel_h, stride, rounding, 9);  
                 interpolate8x8_lowpass_v(halfpel_hv, halfpel_v, stride, rounding);  
                 interpolate8x8_avg2(dst, halfpel_v, halfpel_hv, stride, rounding, 9);  
                 break;  
   
         case 6:  
                 interpolate8x8_lowpass_hv(halfpel_hv, halfpel_h, src, stride, rounding);  
                 interpolate8x8_avg2(dst, halfpel_h, halfpel_hv, stride, rounding, 9);  
                 break;  
   
         case 7:  
                 interpolate8x8_lowpass_h(halfpel_h, src, stride, rounding);  
                 interpolate8x8_avg2(halfpel_v, src + 1, halfpel_h, stride, rounding, 9);  
                 interpolate8x8_lowpass_v(halfpel_hv, halfpel_v, stride, rounding);  
                 interpolate8x8_avg2(dst, halfpel_v, halfpel_hv, stride, rounding, 9);  
                 break;  
   
         case 8:  
             interpolate8x8_lowpass_v(dst, src, stride, rounding);  
                 break;  
   
         case 9:  
                 interpolate8x8_lowpass_h(halfpel_h, src, stride, rounding);  
                 interpolate8x8_avg2(halfpel_v, src, halfpel_h, stride, rounding, 9);  
                 interpolate8x8_lowpass_v(dst, halfpel_v, stride, rounding);  
                 break;  
   
         case 10:  
                 interpolate8x8_lowpass_hv(dst, halfpel_h, src, stride, rounding);  
                 break;  
   
         case 11:  
                 interpolate8x8_lowpass_h(halfpel_h, src, stride, rounding);  
                 interpolate8x8_avg2(halfpel_v, src + 1, halfpel_h, stride, rounding, 9);  
                 interpolate8x8_lowpass_v(dst, halfpel_v, stride, rounding);  
                 break;  
   
         case 12:  
                 interpolate8x8_lowpass_v(halfpel_v, src, stride, rounding);  
                 interpolate8x8_avg2(dst, src+stride, halfpel_v, stride, rounding, 9);  
                 break;  
   
         case 13:  
                 interpolate8x8_lowpass_h(halfpel_h, src, stride, rounding);  
                 interpolate8x8_avg2(halfpel_v, src, halfpel_h, stride, rounding, 9);  
                 interpolate8x8_lowpass_v(halfpel_hv, halfpel_v, stride, rounding);  
                 interpolate8x8_avg2(dst, halfpel_v+stride, halfpel_hv, stride, rounding, 9);  
                 break;  
   
         case 14:  
                 interpolate8x8_lowpass_hv(halfpel_hv, halfpel_h, src, stride, rounding);  
                 interpolate8x8_avg2(dst, halfpel_h+stride, halfpel_hv, stride, rounding, 9);  
                 break;  
   
         case 15:  
                 interpolate8x8_lowpass_h(halfpel_h, src, stride, rounding);  
                 interpolate8x8_avg2(halfpel_v, src + 1, halfpel_h, stride, rounding, 9);  
                 interpolate8x8_lowpass_v(halfpel_hv, halfpel_v, stride, rounding);  
                 interpolate8x8_avg2(dst, halfpel_hv, halfpel_v + stride, stride, rounding, 9);  
                 break;  
         }  
263  }  }
264    
265  static __inline void interpolate16x16_quarterpel(uint8_t * const cur,  static __inline void
266                                       uint8_t * const refn,  interpolate16x16_add_switch(uint8_t * const cur,
267                                           uint8_t * const refh,                                            const uint8_t * const refn,
268                                           uint8_t * const refv,                                            const uint32_t x,
269                                           uint8_t * const refhv,                                            const uint32_t y,
270                                       const uint32_t x, const uint32_t y,                                            const int32_t dx,
271                                           const int32_t dx,  const int dy,                                            const int dy,
272                                           const uint32_t stride,                                           const uint32_t stride,
273                                           const uint32_t rounding)                                           const uint32_t rounding)
274  {  {
275          const int32_t xRef = x*4 + dx;          interpolate8x8_add_switch(cur, refn, x,   y,   dx, dy, stride, rounding);
276          const int32_t yRef = y*4 + dy;          interpolate8x8_add_switch(cur, refn, x+8, y,   dx, dy, stride, rounding);
277            interpolate8x8_add_switch(cur, refn, x,   y+8, dx, dy, stride, rounding);
278          uint8_t *src, *dst;          interpolate8x8_add_switch(cur, refn, x+8, y+8, dx, dy, stride, rounding);
279          uint8_t *halfpel_h, *halfpel_v, *halfpel_hv;  }
         int32_t x_int, y_int, x_frac, y_frac;  
   
         x_int = xRef/4;  
         if (xRef < 0 && xRef % 4)  
                 x_int--;  
   
         x_frac = xRef - (4*x_int);  
   
         y_int  = yRef/4;  
         if (yRef < 0 && yRef % 4)  
                 y_int--;  
280    
281          y_frac = yRef - (4*y_int);  static __inline void
282    interpolate32x32_switch(uint8_t * const cur,
283                                              const uint8_t * const refn,
284                                              const uint32_t x,
285                                              const uint32_t y,
286                                              const int32_t dx,
287                                              const int dy,
288                                              const uint32_t stride,
289                                              const uint32_t rounding)
290    {
291            interpolate16x16_switch(cur, refn, x,    y,    dx, dy, stride, rounding);
292            interpolate16x16_switch(cur, refn, x+16, y,    dx, dy, stride, rounding);
293            interpolate16x16_switch(cur, refn, x,    y+16, dx, dy, stride, rounding);
294            interpolate16x16_switch(cur, refn, x+16, y+16, dx, dy, stride, rounding);
295    }
296    
297          src = refn + y_int * stride + x_int;  static __inline void
298          halfpel_h = refh;  interpolate32x32_add_switch(uint8_t * const cur,
299          halfpel_v = refv;                                            const uint8_t * const refn,
300          halfpel_hv = refhv;                                            const uint32_t x,
301                                              const uint32_t y,
302                                              const int32_t dx,
303                                              const int dy,
304                                              const uint32_t stride,
305                                              const uint32_t rounding)
306    {
307            interpolate16x16_add_switch(cur, refn, x,    y,    dx, dy, stride, rounding);
308            interpolate16x16_add_switch(cur, refn, x+16, y,    dx, dy, stride, rounding);
309            interpolate16x16_add_switch(cur, refn, x,    y+16, dx, dy, stride, rounding);
310            interpolate16x16_add_switch(cur, refn, x+16, y+16, dx, dy, stride, rounding);
311    }
312    
313          dst = cur + y * stride + x;  static __inline uint8_t *
314    interpolate8x8_switch2(uint8_t * const buffer,
315                                              const uint8_t * const refn,
316                                              const int x,
317                                              const int y,
318                                              const int dx,
319                                              const int dy,
320                                              const uint32_t stride,
321                                              const uint32_t rounding)
322    {
323    
324          switch((y_frac << 2) | (x_frac)) {          const uint8_t * const src = refn + (int)((y + (dy>>1)) * stride + x + (dx>>1));
325    
326            switch (((dx & 1) << 1) + (dy & 1))     { /* ((dx%2)?2:0)+((dy%2)?1:0) */
327          case 0:          case 0:
328                  transfer8x8_copy(dst, src, stride);                  return (uint8_t *)src;
                 transfer8x8_copy(dst+8, src+8, stride);  
                 transfer8x8_copy(dst+8*stride, src+8*stride, stride);  
                 transfer8x8_copy(dst+8*stride+8, src+8*stride+8, stride);  
                 break;  
   
329          case 1:          case 1:
330                  interpolate16x16_lowpass_h(halfpel_h, src, stride, rounding);                  interpolate8x8_halfpel_v(buffer, src, stride, rounding);
                 interpolate8x8_avg2(dst, src, halfpel_h, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8, src+8, halfpel_h+8, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8*stride, src+8*stride, halfpel_h+8*stride, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8*stride+8, src+8*stride+8, halfpel_h+8*stride+8, stride, rounding, 9);  
331                  break;                  break;
   
332          case 2:          case 2:
333              interpolate16x16_lowpass_h(dst, src, stride, rounding);                  interpolate8x8_halfpel_h(buffer, src, stride, rounding);
334                  break;                  break;
335            default:
336          case 3:                  interpolate8x8_halfpel_hv(buffer, src, stride, rounding);
                 interpolate16x16_lowpass_h(halfpel_h, src, stride, rounding);  
                 interpolate8x8_avg2(dst, src + 1, halfpel_h, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8, src + 8 + 1, halfpel_h+8, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8*stride, src + 8*stride + 1, halfpel_h+8*stride, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8*stride+8, src+8*stride+8 + 1, halfpel_h+8*stride+8, stride, rounding, 9);  
                 break;  
   
         case 4:  
                 interpolate16x16_lowpass_v(halfpel_v, src, stride, rounding);  
                 interpolate8x8_avg2(dst, src, halfpel_v, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8, src+8, halfpel_v+8, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8*stride, src+8*stride, halfpel_v+8*stride, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8*stride+8, src+8*stride+8, halfpel_v+8*stride+8, stride, rounding, 9);  
                 break;  
   
         case 5:  
                 interpolate16x16_lowpass_h(halfpel_h, src, stride, rounding);  
                 interpolate8x8_avg2(halfpel_v, src, halfpel_h, stride, rounding, 9);  
                 interpolate8x8_avg2(halfpel_v+8, src + 8, halfpel_h+8, stride, rounding, 9);  
                 interpolate8x8_avg2(halfpel_v+8*stride, src + 8*stride, halfpel_h+8*stride, stride, rounding, 9);  
                 interpolate8x8_avg2(halfpel_v+8*stride+8, src+8*stride+8, halfpel_h+8*stride+8, stride, rounding, 9);  
   
                 interpolate16x16_lowpass_v(halfpel_hv, halfpel_v, stride, rounding);  
                 interpolate8x8_avg2(dst, halfpel_hv, halfpel_v, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8, halfpel_hv+8, halfpel_v+8, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8*stride, halfpel_hv+8*stride, halfpel_v+8*stride, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8*stride+8, halfpel_hv+8*stride+8, halfpel_v+8*stride+8, stride, rounding, 9);  
                 break;  
   
         case 6:  
                 interpolate16x16_lowpass_hv(halfpel_hv, halfpel_h, src, stride, rounding);  
                 interpolate8x8_avg2(dst, halfpel_h, halfpel_hv, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8, halfpel_h+8, halfpel_hv+8, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8*stride, halfpel_h+8*stride, halfpel_hv+8*stride, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8*stride+8, halfpel_h+8*stride+8, halfpel_hv+8*stride+8, stride, rounding, 9);  
                 break;  
   
         case 7:  
                 interpolate16x16_lowpass_h(halfpel_h, src, stride, rounding);  
                 interpolate8x8_avg2(halfpel_v, src+1, halfpel_h, stride, rounding, 9);  
                 interpolate8x8_avg2(halfpel_v+8, src+1 + 8, halfpel_h+8, stride, rounding, 9);  
                 interpolate8x8_avg2(halfpel_v+8*stride, src+1 + 8*stride, halfpel_h+8*stride, stride, rounding, 9);  
                 interpolate8x8_avg2(halfpel_v+8*stride+8, src+1+8*stride+8, halfpel_h+8*stride+8, stride, rounding, 9);  
   
                 interpolate16x16_lowpass_v(halfpel_hv, halfpel_v, stride, rounding);  
                 interpolate8x8_avg2(dst, halfpel_hv, halfpel_v, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8, halfpel_hv+8, halfpel_v+8, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8*stride, halfpel_hv+8*stride, halfpel_v+8*stride, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8*stride+8, halfpel_hv+8*stride+8, halfpel_v+8*stride+8, stride, rounding, 9);  
                 break;  
   
         case 8:  
             interpolate16x16_lowpass_v(dst, src, stride, rounding);  
                 break;  
   
         case 9:  
                 interpolate16x16_lowpass_h(halfpel_h, src, stride, rounding);  
                 interpolate8x8_avg2(halfpel_v, src, halfpel_h, stride, rounding, 9);  
                 interpolate8x8_avg2(halfpel_v+8, src + 8, halfpel_h+8, stride, rounding, 9);  
                 interpolate8x8_avg2(halfpel_v+8*stride, src + 8*stride, halfpel_h+8*stride, stride, rounding, 9);  
                 interpolate8x8_avg2(halfpel_v+8*stride+8, src+8*stride+8, halfpel_h+8*stride+8, stride, rounding, 9);  
                 interpolate16x16_lowpass_v(dst, halfpel_v, stride, rounding);  
                 break;  
   
         case 10:  
                 interpolate16x16_lowpass_hv(dst, halfpel_h, src, stride, rounding);  
                 break;  
   
         case 11:  
                 interpolate16x16_lowpass_h(halfpel_h, src, stride, rounding);  
                 interpolate8x8_avg2(halfpel_v, src+1, halfpel_h, stride, rounding, 9);  
                 interpolate8x8_avg2(halfpel_v+8, src+1 + 8, halfpel_h+8, stride, rounding, 9);  
                 interpolate8x8_avg2(halfpel_v+8*stride, src+1 + 8*stride, halfpel_h+8*stride, stride, rounding, 9);  
                 interpolate8x8_avg2(halfpel_v+8*stride+8, src+1+8*stride+8, halfpel_h+8*stride+8, stride, rounding, 9);  
                 interpolate16x16_lowpass_v(dst, halfpel_v, stride, rounding);  
                 break;  
   
         case 12:  
                 interpolate16x16_lowpass_v(halfpel_v, src, stride, rounding);  
                 interpolate8x8_avg2(dst, src+stride, halfpel_v, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8, src+stride+8, halfpel_v+8, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8*stride, src+stride+8*stride, halfpel_v+8*stride, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8*stride+8, src+stride+8*stride+8, halfpel_v+8*stride+8, stride, rounding, 9);  
                 break;  
   
         case 13:  
                 interpolate16x16_lowpass_h(halfpel_h, src, stride, rounding);  
                 interpolate8x8_avg2(halfpel_v, src, halfpel_h, stride, rounding, 9);  
                 interpolate8x8_avg2(halfpel_v+8, src + 8, halfpel_h+8, stride, rounding, 9);  
                 interpolate8x8_avg2(halfpel_v+8*stride, src + 8*stride, halfpel_h+8*stride, stride, rounding, 9);  
                 interpolate8x8_avg2(halfpel_v+8*stride+8, src+8*stride+8, halfpel_h+8*stride+8, stride, rounding, 9);  
   
                 interpolate16x16_lowpass_v(halfpel_hv, halfpel_v, stride, rounding);  
                 interpolate8x8_avg2(dst, halfpel_hv, halfpel_v+stride, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8, halfpel_hv+8, halfpel_v+stride+8, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8*stride, halfpel_hv+8*stride, halfpel_v+stride+8*stride, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8*stride+8, halfpel_hv+8*stride+8, halfpel_v+stride+8*stride+8, stride, rounding, 9);  
                 break;  
   
         case 14:  
                 interpolate16x16_lowpass_hv(halfpel_hv, halfpel_h, src, stride, rounding);  
                 interpolate8x8_avg2(dst, halfpel_h+stride, halfpel_hv, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8, halfpel_h+stride+8, halfpel_hv+8, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8*stride, halfpel_h+stride+8*stride, halfpel_hv+8*stride, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8*stride+8, halfpel_h+stride+8*stride+8, halfpel_hv+8*stride+8, stride, rounding, 9);  
                 break;  
   
         case 15:  
                 interpolate16x16_lowpass_h(halfpel_h, src, stride, rounding);  
                 interpolate8x8_avg2(halfpel_v, src+1, halfpel_h, stride, rounding, 9);  
                 interpolate8x8_avg2(halfpel_v+8, src+1 + 8, halfpel_h+8, stride, rounding, 9);  
                 interpolate8x8_avg2(halfpel_v+8*stride, src+1 + 8*stride, halfpel_h+8*stride, stride, rounding, 9);  
                 interpolate8x8_avg2(halfpel_v+8*stride+8, src+1+8*stride+8, halfpel_h+8*stride+8, stride, rounding, 9);  
   
                 interpolate16x16_lowpass_v(halfpel_hv, halfpel_v, stride, rounding);  
                 interpolate8x8_avg2(dst, halfpel_hv, halfpel_v+stride, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8, halfpel_hv+8, halfpel_v+stride+8, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8*stride, halfpel_hv+8*stride, halfpel_v+stride+8*stride, stride, rounding, 9);  
                 interpolate8x8_avg2(dst+8*stride+8, halfpel_hv+8*stride+8, halfpel_v+stride+8*stride+8, stride, rounding, 9);  
337                  break;                  break;
338          }          }
339            return buffer;
340  }  }
341    
342  #endif  #endif

Legend:
Removed from v.1.5.2.6  
changed lines
  Added in v.1.13

No admin address has been configured
ViewVC Help
Powered by ViewVC 1.0.4