[cvs] / xvidcore / src / utils / x86_asm / mem_transfer_3dne.asm Repository:
ViewVC logotype

Diff of /xvidcore/src/utils/x86_asm/mem_transfer_3dne.asm

Parent Directory Parent Directory | Revision Log Revision Log | View Patch Patch

revision 1.2, Sat Feb 15 15:22:19 2003 UTC revision 1.9, Tue Aug 19 09:06:48 2008 UTC
# Line 1  Line 1 
1  ;/**************************************************************************  ;/****************************************************************************
2  ; *  ; *
3  ; *     XVID MPEG-4 VIDEO CODEC  ; *     XVID MPEG-4 VIDEO CODEC
4  ; *     mmx 8bit<->16bit transfers  ; *  - 8<->16 bit transfer functions -
5  ; *  ; *
6  ; *     This program is an implementation of a part of one or more MPEG-4  ; *  Copyright (C) 2002 Jaan Kalda
 ; *     Video tools as specified in ISO/IEC 14496-2 standard.  Those intending  
 ; *     to use this software module in hardware or software products are  
 ; *     advised that its use may infringe existing patents or copyrights, and  
 ; *     any such use would be at such party's own risk.  The original  
 ; *     developer of this software module and his/her company, and subsequent  
 ; *     editors and their companies, will have no liability for use of this  
 ; *     software or modifications or derivatives thereof.  
7  ; *  ; *
8  ; *     This program is free software; you can redistribute it and/or modify  ; *     This program is free software; you can redistribute it and/or modify
9  ; *     it under the terms of the GNU General Public License as published by  ; *     it under the terms of the GNU General Public License as published by
# Line 24  Line 17 
17  ; *  ; *
18  ; *     You should have received a copy of the GNU General Public License  ; *     You should have received a copy of the GNU General Public License
19  ; *     along with this program; if not, write to the Free Software  ; *     along with this program; if not, write to the Free Software
20  ; *     Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.  ; *  Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
21  ; *  ; *
22  ; *************************************************************************/  ; * $Id$
23    ; *
24  ; these 3dne functions are compatible with iSSE, but are optimized specifically for  ; ***************************************************************************/
 ; K7 pipelines  
 ;  
 ;------------------------------------------------------------------------------  
 ; 09.12.2002  Athlon optimizations contributed by Jaan Kalda  
 ;------------------------------------------------------------------------------  
   
   
 bits 32  
 %ifdef FORMAT_COFF  
 section .data data  
 %else  
 section .data data align=16  
 %endif  
   
25    
26  align 8  ; these 3dne functions are compatible with iSSE, but are optimized specifically
27  mm_zero:  ; for K7 pipelines
 dd 0,0  
28    
29    BITS 32
30    
31  %macro cglobal 1  %macro cglobal 1
32          %ifdef PREFIX          %ifdef PREFIX
33                    %ifdef MARK_FUNCS
34                            global _%1:function %1.endfunc-%1
35                            %define %1 _%1:function %1.endfunc-%1
36                    %else
37                  global _%1                  global _%1
38                  %define %1 _%1                  %define %1 _%1
39                    %endif
40            %else
41                    %ifdef MARK_FUNCS
42                            global %1:function %1.endfunc-%1
43          %else          %else
44                  global %1                  global %1
45          %endif          %endif
46            %endif
47  %endmacro  %endmacro
48    
49    ;=============================================================================
50    ; Read only data
51    ;=============================================================================
52    
53    %ifdef FORMAT_COFF
54    SECTION .rodata
55    %else
56    SECTION .rodata align=16
57    %endif
58    
59    ALIGN 8
60    mm_zero:
61            dd 0,0
62    ;=============================================================================
63    ; Macros
64    ;=============================================================================
65    
66  %macro nop4 0  %macro nop4 0
67  DB 08Dh,074h,026h,0          db 08Dh, 074h, 026h, 0
68  %endmacro  %endmacro
69    
70  section .text  ;=============================================================================
71    ; Code
72    ;=============================================================================
73    
74    SECTION .text
75    
76  cglobal transfer_8to16copy_3dne  cglobal transfer_8to16copy_3dne
77  cglobal transfer_16to8copy_3dne  cglobal transfer_16to8copy_3dne
# Line 70  Line 80 
80  cglobal transfer_8to16sub2_3dne  cglobal transfer_8to16sub2_3dne
81  cglobal transfer_16to8add_3dne  cglobal transfer_16to8add_3dne
82  cglobal transfer8x8_copy_3dne  cglobal transfer8x8_copy_3dne
83    cglobal transfer8x4_copy_3dne
84    
85  ;===========================================================================  ;-----------------------------------------------------------------------------
86  ;  ;
87  ; void transfer_8to16copy_3dne(int16_t * const dst,  ; void transfer_8to16copy_3dne(int16_t * const dst,
88  ;                                                       const uint8_t * const src,  ;                                                       const uint8_t * const src,
89  ;                                                       uint32_t stride);  ;                                                       uint32_t stride);
90  ;  ;
91  ;===========================================================================  ;-----------------------------------------------------------------------------
92    
93  align 16  ALIGN 16
94  transfer_8to16copy_3dne:  transfer_8to16copy_3dne:
95    
96    mov eax, [esp+ 8] ; Src    mov eax, [esp+ 8] ; Src
# Line 138  Line 149 
149    movq [byte ecx+1*64+48], mm6    movq [byte ecx+1*64+48], mm6
150    movq [ecx+1*64+40], mm7    movq [ecx+1*64+40], mm7
151  ret  ret
152    .endfunc
153    
154    
155    ;-----------------------------------------------------------------------------
 ;===========================================================================  
156  ;  ;
157  ; void transfer_16to8copy_3dne(uint8_t * const dst,  ; void transfer_16to8copy_3dne(uint8_t * const dst,
158  ;                                                       const int16_t * const src,  ;                                                       const int16_t * const src,
159  ;                                                       uint32_t stride);  ;                                                       uint32_t stride);
160  ;  ;
161  ;===========================================================================  ;-----------------------------------------------------------------------------
162    
163  align 16  ALIGN 16
164  transfer_16to8copy_3dne:  transfer_16to8copy_3dne:
165    
166    mov eax, [esp+ 8] ; Src    mov eax, [esp+ 8] ; Src
# Line 184  Line 195 
195    movq [eax+4*edx], mm7    movq [eax+4*edx], mm7
196    movq [ecx+2*edx], mm6    movq [ecx+2*edx], mm6
197    ret    ret
198    .endfunc
199    
200  ;===========================================================================  ;-----------------------------------------------------------------------------
201  ;  ;
202  ; void transfer_8to16sub_3dne(int16_t * const dct,  ; void transfer_8to16sub_3dne(int16_t * const dct,
203  ;                               uint8_t * const cur,  ;                               uint8_t * const cur,
204  ;                               const uint8_t * const ref,  ;                               const uint8_t * const ref,
205  ;                               const uint32_t stride);  ;                               const uint32_t stride);
206  ;  ;
207  ;===========================================================================  ;-----------------------------------------------------------------------------
 ;/**************************************************************************  
 ; *  
 ; *     History:  
 ; *  
 ; * 27.12.2001  renamed from 'compensate' to 'transfer_8to16sub'  
 ; * 02.12.2001  loop unrolled, code runs 10% faster now (Isibaar)  
 ; * 30.11.2001  16 pixels are processed per iteration (Isibaar)  
 ; * 30.11.2001  .text missing  
 ; *     06.11.2001      inital version; (c)2001 peter ross <pross@cs.rmit.edu.au>  
 ; *  
 ; *************************************************************************/  
208    
209  ; when second argument == 1, reference (ebx) block is to current (eax)  ; when second argument == 1, reference (ebx) block is to current (eax)
210  %macro COPY_8_TO_16_SUB 2  %macro COPY_8_TO_16_SUB 2
# Line 217  Line 218 
218    punpckhbw mm1, mm7    punpckhbw mm1, mm7
219    punpckhbw mm6, mm7    punpckhbw mm6, mm7
220    punpcklbw mm4, mm7    punpcklbw mm4, mm7
221  align 8  ALIGN 8
222    movq mm2, [byte eax+edx]    movq mm2, [byte eax+edx]
223    punpcklbw mm0, mm7    punpcklbw mm0, mm7
224    movq mm3, [byte eax+edx]    movq mm3, [byte eax+edx]
# Line 248  Line 249 
249    movq [edi+%1*32+24], mm3    movq [edi+%1*32+24], mm3
250  %endmacro  %endmacro
251    
252  align 16  ALIGN 16
253  transfer_8to16sub_3dne:  transfer_8to16sub_3dne:
254    mov eax, [esp + 8] ; Cur    mov eax, [esp + 8] ; Cur
255    mov ecx, [esp +12] ; Ref    mov ecx, [esp +12] ; Ref
256    push edi    push edi
257    mov edx, [dword esp+4+16] ; Stride    mov edx, [esp+4+16] ; Stride
258    mov edi, [esp+4+ 4] ; Dst    mov edi, [esp+4+ 4] ; Dst
259    pxor mm7, mm7    pxor mm7, mm7
260    nop    nop
261  align 4  ALIGN 4
262    COPY_8_TO_16_SUB 0, 1    COPY_8_TO_16_SUB 0, 1
263    COPY_8_TO_16_SUB 1, 1    COPY_8_TO_16_SUB 1, 1
264    COPY_8_TO_16_SUB 2, 1    COPY_8_TO_16_SUB 2, 1
265    COPY_8_TO_16_SUB 3, 1    COPY_8_TO_16_SUB 3, 1
266    mov edi,ecx    mov edi,ecx
267    ret    ret
268    .endfunc
269    
270  align 16  ALIGN 16
271  transfer_8to16subro_3dne:  transfer_8to16subro_3dne:
272    mov eax, [esp + 8] ; Cur    mov eax, [esp + 8] ; Cur
273    mov ecx, [esp +12] ; Ref    mov ecx, [esp +12] ; Ref
274    push edi    push edi
275    mov edx, [dword esp+4+16] ; Stride    mov edx, [esp+4+16] ; Stride
276    mov edi, [esp+4+ 4] ; Dst    mov edi, [esp+4+ 4] ; Dst
277    pxor mm7, mm7    pxor mm7, mm7
278    nop    nop
279  align 4  ALIGN 4
280    COPY_8_TO_16_SUB 0, 0    COPY_8_TO_16_SUB 0, 0
281    COPY_8_TO_16_SUB 1, 0    COPY_8_TO_16_SUB 1, 0
282    COPY_8_TO_16_SUB 2, 0    COPY_8_TO_16_SUB 2, 0
283    COPY_8_TO_16_SUB 3, 0    COPY_8_TO_16_SUB 3, 0
284    mov edi,ecx    mov edi,ecx
285    ret    ret
286    .endfunc
287    
288    
289  ;===========================================================================  ;-----------------------------------------------------------------------------
290  ;  ;
291  ; void transfer_8to16sub2_3dne(int16_t * const dct,  ; void transfer_8to16sub2_3dne(int16_t * const dct,
292  ;                               uint8_t * const cur,  ;                               uint8_t * const cur,
# Line 291  Line 294 
294  ;                               const uint8_t * ref2,  ;                               const uint8_t * ref2,
295  ;                               const uint32_t stride)  ;                               const uint32_t stride)
296  ;  ;
297  ;===========================================================================  ;-----------------------------------------------------------------------------
298    
299  %macro COPY_8_TO_16_SUB2_SSE 1  %macro COPY_8_TO_16_SUB2_SSE 1
300   db 0Fh, 6Fh, 44h, 20h, 00  ;movq mm0, [byte eax]      ; cur   db 0Fh, 6Fh, 44h, 20h, 00  ;movq mm0, [byte eax]      ; cur
# Line 305  Line 308 
308    
309    movq mm4, [byte ebx]      ; ref1    movq mm4, [byte ebx]      ; ref1
310    pavgb mm4, [byte esi]     ; ref2    pavgb mm4, [byte esi]     ; ref2
311      movq [eax], mm4
312    movq mm5, [ebx+edx]  ; ref    movq mm5, [ebx+edx]  ; ref
313    pavgb mm5, [esi+edx] ; ref2    pavgb mm5, [esi+edx] ; ref2
314      movq [eax+edx], mm5
315    movq mm6, mm4    movq mm6, mm4
316    punpcklbw mm4, mm7    punpcklbw mm4, mm7
317    punpckhbw mm6, mm7    punpckhbw mm6, mm7
# Line 332  Line 337 
337    movq [ecx+%1*32+24], mm3    movq [ecx+%1*32+24], mm3
338  %endmacro  %endmacro
339    
340  align 16  ALIGN 16
341  transfer_8to16sub2_3dne:  transfer_8to16sub2_3dne:
342    mov edx, [esp +20] ; Stride    mov edx, [esp +20] ; Stride
343    mov ecx, [esp  + 4] ; Dst    mov ecx, [esp  + 4] ; Dst
# Line 350  Line 355 
355    COPY_8_TO_16_SUB2_SSE 3    COPY_8_TO_16_SUB2_SSE 3
356    
357    ret    ret
358    .endfunc
359    
360    
361  ;===========================================================================  ;-----------------------------------------------------------------------------
362  ;  ;
363  ; void transfer_16to8add_3dne(uint8_t * const dst,  ; void transfer_16to8add_3dne(uint8_t * const dst,
364  ;                                               const int16_t * const src,  ;                                               const int16_t * const src,
365  ;                                               uint32_t stride);  ;                                               uint32_t stride);
366  ;  ;
367  ;===========================================================================  ;-----------------------------------------------------------------------------
368    
369  %macro COPY_16_TO_8_ADD 1  %macro COPY_16_TO_8_ADD 1
370    db 0Fh, 6Fh, 44h, 21h, 00 ;movq mm0, [byte ecx]    db 0Fh, 6Fh, 44h, 21h, 00 ;movq mm0, [byte ecx]
# Line 381  Line 387 
387  %endmacro  %endmacro
388    
389    
390  align 16  ALIGN 16
391  transfer_16to8add_3dne:  transfer_16to8add_3dne:
392    mov ecx, [esp+ 4] ; Dst    mov ecx, [esp+ 4] ; Dst
393    mov edx, [esp+12] ; Stride    mov edx, [esp+12] ; Stride
# Line 397  Line 403 
403    lea ecx,[byte ecx+2*edx]    lea ecx,[byte ecx+2*edx]
404    COPY_16_TO_8_ADD 3    COPY_16_TO_8_ADD 3
405    ret    ret
406    .endfunc
407    
408  ;===========================================================================  ;-----------------------------------------------------------------------------
409  ;  ;
410  ; void transfer8x8_copy_3dne(uint8_t * const dst,  ; void transfer8x8_copy_3dne(uint8_t * const dst,
411  ;                                       const uint8_t * const src,  ;                                       const uint8_t * const src,
412  ;                                       const uint32_t stride);  ;                                       const uint32_t stride);
413  ;  ;
414  ;  ;
415  ;===========================================================================  ;-----------------------------------------------------------------------------
416    
417  %macro COPY_8_TO_8 0  %macro COPY_8_TO_8 0
418    movq mm0, [byte  eax]    movq mm0, [byte  eax]
# Line 415  Line 422 
422    movq [ecx+edx], mm1    movq [ecx+edx], mm1
423  %endmacro  %endmacro
424    
425  align 16  ALIGN 16
426  transfer8x8_copy_3dne:  transfer8x8_copy_3dne:
427    mov eax, [esp+ 8] ; Src    mov eax, [esp+ 8] ; Src
428    mov edx, [esp+12] ; Stride    mov edx, [esp+12] ; Stride
# Line 429  Line 436 
436    lea ecx,[byte ecx+2*edx]    lea ecx,[byte ecx+2*edx]
437    COPY_8_TO_8    COPY_8_TO_8
438    ret    ret
439    .endfunc
440    
441    ;-----------------------------------------------------------------------------
442    ;
443    ; void transfer8x4_copy_3dne(uint8_t * const dst,
444    ;                                       const uint8_t * const src,
445    ;                                       const uint32_t stride);
446    ;
447    ;
448    ;-----------------------------------------------------------------------------
449    
450    ALIGN 16
451    transfer8x4_copy_3dne:
452      mov eax, [esp+ 8] ; Src
453      mov edx, [esp+12] ; Stride
454      mov ecx, [esp+ 4] ; Dst
455    
456      COPY_8_TO_8
457      lea ecx,[byte ecx+2*edx]
458      COPY_8_TO_8
459      ret
460    .endfunc
461    
462    
463    %ifidn __OUTPUT_FORMAT__,elf
464    section ".note.GNU-stack" noalloc noexec nowrite progbits
465    %endif
466    

Legend:
Removed from v.1.2  
changed lines
  Added in v.1.9

No admin address has been configured
ViewVC Help
Powered by ViewVC 1.0.4