You've already forked FFmpeg
mirror of
https://github.com/FFmpeg/FFmpeg.git
synced 2025-08-15 14:13:16 +02:00
x86: h264: Convert 8-bit QPEL inline assembly to YASM
Signed-off-by: Diego Biurrun <diego@biurrun.de>
This commit is contained in:
committed by
Diego Biurrun
parent
ad01ba6cea
commit
610e00b359
@@ -51,7 +51,8 @@ YASM-OBJS-$(CONFIG_H264DSP) += x86/h264_deblock.o \
|
|||||||
x86/h264_weight_10bit.o
|
x86/h264_weight_10bit.o
|
||||||
YASM-OBJS-$(CONFIG_H264PRED) += x86/h264_intrapred.o \
|
YASM-OBJS-$(CONFIG_H264PRED) += x86/h264_intrapred.o \
|
||||||
x86/h264_intrapred_10bit.o
|
x86/h264_intrapred_10bit.o
|
||||||
YASM-OBJS-$(CONFIG_H264QPEL) += x86/h264_qpel_10bit.o
|
YASM-OBJS-$(CONFIG_H264QPEL) += x86/h264_qpel_8bit.o \
|
||||||
|
x86/h264_qpel_10bit.o
|
||||||
YASM-OBJS-$(CONFIG_MPEGAUDIODSP) += x86/imdct36.o
|
YASM-OBJS-$(CONFIG_MPEGAUDIODSP) += x86/imdct36.o
|
||||||
YASM-OBJS-$(CONFIG_PNG_DECODER) += x86/pngdsp.o
|
YASM-OBJS-$(CONFIG_PNG_DECODER) += x86/pngdsp.o
|
||||||
YASM-OBJS-$(CONFIG_PRORES_DECODER) += x86/proresdsp.o
|
YASM-OBJS-$(CONFIG_PRORES_DECODER) += x86/proresdsp.o
|
||||||
|
@@ -1354,3 +1354,234 @@ BSWAP32_BUF
|
|||||||
|
|
||||||
INIT_XMM ssse3
|
INIT_XMM ssse3
|
||||||
BSWAP32_BUF
|
BSWAP32_BUF
|
||||||
|
|
||||||
|
%macro op_avgh 3
|
||||||
|
movh %3, %2
|
||||||
|
pavgb %1, %3
|
||||||
|
movh %2, %1
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
%macro op_avg 2
|
||||||
|
pavgb %1, %2
|
||||||
|
mova %2, %1
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
%macro op_puth 2-3
|
||||||
|
movh %2, %1
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
%macro op_put 2
|
||||||
|
mova %2, %1
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
; void pixels4_l2_mmxext(uint8_t *dst, uint8_t *src1, uint8_t *src2, int dstStride, int src1Stride, int h)
|
||||||
|
%macro PIXELS4_L2 1
|
||||||
|
%define OP op_%1h
|
||||||
|
cglobal %1_pixels4_l2, 6,6
|
||||||
|
movsxdifnidn r3, r3d
|
||||||
|
movsxdifnidn r4, r4d
|
||||||
|
test r5d, 1
|
||||||
|
je .loop
|
||||||
|
movd m0, [r1]
|
||||||
|
movd m1, [r2]
|
||||||
|
add r1, r4
|
||||||
|
add r2, 4
|
||||||
|
pavgb m0, m1
|
||||||
|
OP m0, [r0], m3
|
||||||
|
add r0, r3
|
||||||
|
dec r5d
|
||||||
|
.loop:
|
||||||
|
mova m0, [r1]
|
||||||
|
mova m1, [r1+r4]
|
||||||
|
lea r1, [r1+2*r4]
|
||||||
|
pavgb m0, [r2]
|
||||||
|
pavgb m1, [r2+4]
|
||||||
|
OP m0, [r0], m3
|
||||||
|
OP m1, [r0+r3], m3
|
||||||
|
lea r0, [r0+2*r3]
|
||||||
|
mova m0, [r1]
|
||||||
|
mova m1, [r1+r4]
|
||||||
|
lea r1, [r1+2*r4]
|
||||||
|
pavgb m0, [r2+8]
|
||||||
|
pavgb m1, [r2+12]
|
||||||
|
OP m0, [r0], m3
|
||||||
|
OP m1, [r0+r3], m3
|
||||||
|
lea r0, [r0+2*r3]
|
||||||
|
add r2, 16
|
||||||
|
sub r5d, 4
|
||||||
|
jne .loop
|
||||||
|
REP_RET
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
INIT_MMX mmxext
|
||||||
|
PIXELS4_L2 put
|
||||||
|
PIXELS4_L2 avg
|
||||||
|
|
||||||
|
; void pixels8_l2_mmxext(uint8_t *dst, uint8_t *src1, uint8_t *src2, int dstStride, int src1Stride, int h)
|
||||||
|
%macro PIXELS8_L2 1
|
||||||
|
%define OP op_%1
|
||||||
|
cglobal %1_pixels8_l2, 6,6
|
||||||
|
movsxdifnidn r3, r3d
|
||||||
|
movsxdifnidn r4, r4d
|
||||||
|
test r5d, 1
|
||||||
|
je .loop
|
||||||
|
mova m0, [r1]
|
||||||
|
mova m1, [r2]
|
||||||
|
add r1, r4
|
||||||
|
add r2, 8
|
||||||
|
pavgb m0, m1
|
||||||
|
OP m0, [r0]
|
||||||
|
add r0, r3
|
||||||
|
dec r5d
|
||||||
|
.loop:
|
||||||
|
mova m0, [r1]
|
||||||
|
mova m1, [r1+r4]
|
||||||
|
lea r1, [r1+2*r4]
|
||||||
|
pavgb m0, [r2]
|
||||||
|
pavgb m1, [r2+8]
|
||||||
|
OP m0, [r0]
|
||||||
|
OP m1, [r0+r3]
|
||||||
|
lea r0, [r0+2*r3]
|
||||||
|
mova m0, [r1]
|
||||||
|
mova m1, [r1+r4]
|
||||||
|
lea r1, [r1+2*r4]
|
||||||
|
pavgb m0, [r2+16]
|
||||||
|
pavgb m1, [r2+24]
|
||||||
|
OP m0, [r0]
|
||||||
|
OP m1, [r0+r3]
|
||||||
|
lea r0, [r0+2*r3]
|
||||||
|
add r2, 32
|
||||||
|
sub r5d, 4
|
||||||
|
jne .loop
|
||||||
|
REP_RET
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
INIT_MMX mmxext
|
||||||
|
PIXELS8_L2 put
|
||||||
|
PIXELS8_L2 avg
|
||||||
|
|
||||||
|
; void pixels16_l2_mmxext(uint8_t *dst, uint8_t *src1, uint8_t *src2, int dstStride, int src1Stride, int h)
|
||||||
|
%macro PIXELS16_L2 1
|
||||||
|
%define OP op_%1
|
||||||
|
cglobal %1_pixels16_l2, 6,6
|
||||||
|
movsxdifnidn r3, r3d
|
||||||
|
movsxdifnidn r4, r4d
|
||||||
|
test r5d, 1
|
||||||
|
je .loop
|
||||||
|
mova m0, [r1]
|
||||||
|
mova m1, [r1+8]
|
||||||
|
pavgb m0, [r2]
|
||||||
|
pavgb m1, [r2+8]
|
||||||
|
add r1, r4
|
||||||
|
add r2, 16
|
||||||
|
OP m0, [r0]
|
||||||
|
OP m1, [r0+8]
|
||||||
|
add r0, r3
|
||||||
|
dec r5d
|
||||||
|
.loop:
|
||||||
|
mova m0, [r1]
|
||||||
|
mova m1, [r1+8]
|
||||||
|
add r1, r4
|
||||||
|
pavgb m0, [r2]
|
||||||
|
pavgb m1, [r2+8]
|
||||||
|
OP m0, [r0]
|
||||||
|
OP m1, [r0+8]
|
||||||
|
add r0, r3
|
||||||
|
mova m0, [r1]
|
||||||
|
mova m1, [r1+8]
|
||||||
|
add r1, r4
|
||||||
|
pavgb m0, [r2+16]
|
||||||
|
pavgb m1, [r2+24]
|
||||||
|
OP m0, [r0]
|
||||||
|
OP m1, [r0+8]
|
||||||
|
add r0, r3
|
||||||
|
add r2, 32
|
||||||
|
sub r5d, 2
|
||||||
|
jne .loop
|
||||||
|
REP_RET
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
INIT_MMX mmxext
|
||||||
|
PIXELS16_L2 put
|
||||||
|
PIXELS16_L2 avg
|
||||||
|
|
||||||
|
INIT_MMX mmxext
|
||||||
|
; void pixels(uint8_t *block, const uint8_t *pixels, int line_size, int h)
|
||||||
|
%macro PIXELS48 2
|
||||||
|
%if %2 == 4
|
||||||
|
%define OP movh
|
||||||
|
%else
|
||||||
|
%define OP mova
|
||||||
|
%endif
|
||||||
|
cglobal %1_pixels%2, 4,5
|
||||||
|
movsxdifnidn r2, r2d
|
||||||
|
lea r4, [r2*3]
|
||||||
|
.loop:
|
||||||
|
OP m0, [r1]
|
||||||
|
OP m1, [r1+r2]
|
||||||
|
OP m2, [r1+r2*2]
|
||||||
|
OP m3, [r1+r4]
|
||||||
|
lea r1, [r1+r2*4]
|
||||||
|
%ifidn %1, avg
|
||||||
|
pavgb m0, [r0]
|
||||||
|
pavgb m1, [r0+r2]
|
||||||
|
pavgb m2, [r0+r2*2]
|
||||||
|
pavgb m3, [r0+r4]
|
||||||
|
%endif
|
||||||
|
OP [r0], m0
|
||||||
|
OP [r0+r2], m1
|
||||||
|
OP [r0+r2*2], m2
|
||||||
|
OP [r0+r4], m3
|
||||||
|
sub r3d, 4
|
||||||
|
lea r0, [r0+r2*4]
|
||||||
|
jne .loop
|
||||||
|
RET
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
PIXELS48 put, 4
|
||||||
|
PIXELS48 avg, 4
|
||||||
|
PIXELS48 put, 8
|
||||||
|
PIXELS48 avg, 8
|
||||||
|
|
||||||
|
INIT_XMM sse2
|
||||||
|
; void put_pixels16_sse2(uint8_t *block, const uint8_t *pixels, int line_size, int h)
|
||||||
|
cglobal put_pixels16, 4,5,4
|
||||||
|
movsxdifnidn r2, r2d
|
||||||
|
lea r4, [r2*3]
|
||||||
|
.loop:
|
||||||
|
movu m0, [r1]
|
||||||
|
movu m1, [r1+r2]
|
||||||
|
movu m2, [r1+r2*2]
|
||||||
|
movu m3, [r1+r4]
|
||||||
|
lea r1, [r1+r2*4]
|
||||||
|
mova [r0], m0
|
||||||
|
mova [r0+r2], m1
|
||||||
|
mova [r0+r2*2], m2
|
||||||
|
mova [r0+r4], m3
|
||||||
|
sub r3d, 4
|
||||||
|
lea r0, [r0+r2*4]
|
||||||
|
jnz .loop
|
||||||
|
REP_RET
|
||||||
|
|
||||||
|
; void avg_pixels16_sse2(uint8_t *block, const uint8_t *pixels, int line_size, int h)
|
||||||
|
cglobal avg_pixels16, 4,5,4
|
||||||
|
movsxdifnidn r2, r2d
|
||||||
|
lea r4, [r2*3]
|
||||||
|
.loop:
|
||||||
|
movu m0, [r1]
|
||||||
|
movu m1, [r1+r2]
|
||||||
|
movu m2, [r1+r2*2]
|
||||||
|
movu m3, [r1+r4]
|
||||||
|
lea r1, [r1+r2*4]
|
||||||
|
pavgb m0, [r0]
|
||||||
|
pavgb m1, [r0+r2]
|
||||||
|
pavgb m2, [r0+r2*2]
|
||||||
|
pavgb m3, [r0+r4]
|
||||||
|
mova [r0], m0
|
||||||
|
mova [r0+r2], m1
|
||||||
|
mova [r0+r2*2], m2
|
||||||
|
mova [r0+r4], m3
|
||||||
|
sub r3d, 4
|
||||||
|
lea r0, [r0+r2*4]
|
||||||
|
jnz .loop
|
||||||
|
REP_RET
|
||||||
|
@@ -56,57 +56,6 @@ static void DEF(put_pixels8_x2)(uint8_t *block, const uint8_t *pixels, int line_
|
|||||||
}
|
}
|
||||||
|
|
||||||
#ifndef SKIP_FOR_3DNOW
|
#ifndef SKIP_FOR_3DNOW
|
||||||
static void DEF(put_pixels4_l2)(uint8_t *dst, uint8_t *src1, uint8_t *src2, int dstStride, int src1Stride, int h)
|
|
||||||
{
|
|
||||||
__asm__ volatile(
|
|
||||||
"testl $1, %0 \n\t"
|
|
||||||
" jz 1f \n\t"
|
|
||||||
"movd (%1), %%mm0 \n\t"
|
|
||||||
"movd (%2), %%mm1 \n\t"
|
|
||||||
"add %4, %1 \n\t"
|
|
||||||
"add $4, %2 \n\t"
|
|
||||||
PAVGB" %%mm1, %%mm0 \n\t"
|
|
||||||
"movd %%mm0, (%3) \n\t"
|
|
||||||
"add %5, %3 \n\t"
|
|
||||||
"decl %0 \n\t"
|
|
||||||
"1: \n\t"
|
|
||||||
"movd (%1), %%mm0 \n\t"
|
|
||||||
"add %4, %1 \n\t"
|
|
||||||
"movd (%1), %%mm1 \n\t"
|
|
||||||
"movd (%2), %%mm2 \n\t"
|
|
||||||
"movd 4(%2), %%mm3 \n\t"
|
|
||||||
"add %4, %1 \n\t"
|
|
||||||
PAVGB" %%mm2, %%mm0 \n\t"
|
|
||||||
PAVGB" %%mm3, %%mm1 \n\t"
|
|
||||||
"movd %%mm0, (%3) \n\t"
|
|
||||||
"add %5, %3 \n\t"
|
|
||||||
"movd %%mm1, (%3) \n\t"
|
|
||||||
"add %5, %3 \n\t"
|
|
||||||
"movd (%1), %%mm0 \n\t"
|
|
||||||
"add %4, %1 \n\t"
|
|
||||||
"movd (%1), %%mm1 \n\t"
|
|
||||||
"movd 8(%2), %%mm2 \n\t"
|
|
||||||
"movd 12(%2), %%mm3 \n\t"
|
|
||||||
"add %4, %1 \n\t"
|
|
||||||
PAVGB" %%mm2, %%mm0 \n\t"
|
|
||||||
PAVGB" %%mm3, %%mm1 \n\t"
|
|
||||||
"movd %%mm0, (%3) \n\t"
|
|
||||||
"add %5, %3 \n\t"
|
|
||||||
"movd %%mm1, (%3) \n\t"
|
|
||||||
"add %5, %3 \n\t"
|
|
||||||
"add $16, %2 \n\t"
|
|
||||||
"subl $4, %0 \n\t"
|
|
||||||
"jnz 1b \n\t"
|
|
||||||
#if !HAVE_EBX_AVAILABLE //Note "+bm" and "+mb" are buggy too (with gcc 3.2.2 at least) and cannot be used
|
|
||||||
:"+m"(h), "+a"(src1), "+c"(src2), "+d"(dst)
|
|
||||||
#else
|
|
||||||
:"+b"(h), "+a"(src1), "+c"(src2), "+d"(dst)
|
|
||||||
#endif
|
|
||||||
:"S"((x86_reg)src1Stride), "D"((x86_reg)dstStride)
|
|
||||||
:"memory");
|
|
||||||
}
|
|
||||||
|
|
||||||
|
|
||||||
static void DEF(put_pixels8_l2)(uint8_t *dst, uint8_t *src1, uint8_t *src2, int dstStride, int src1Stride, int h)
|
static void DEF(put_pixels8_l2)(uint8_t *dst, uint8_t *src1, uint8_t *src2, int dstStride, int src1Stride, int h)
|
||||||
{
|
{
|
||||||
__asm__ volatile(
|
__asm__ volatile(
|
||||||
@@ -227,58 +176,6 @@ static void DEF(put_no_rnd_pixels8_l2)(uint8_t *dst, uint8_t *src1, uint8_t *src
|
|||||||
:"memory");*/
|
:"memory");*/
|
||||||
}
|
}
|
||||||
|
|
||||||
static void DEF(avg_pixels4_l2)(uint8_t *dst, uint8_t *src1, uint8_t *src2, int dstStride, int src1Stride, int h)
|
|
||||||
{
|
|
||||||
__asm__ volatile(
|
|
||||||
"testl $1, %0 \n\t"
|
|
||||||
" jz 1f \n\t"
|
|
||||||
"movd (%1), %%mm0 \n\t"
|
|
||||||
"movd (%2), %%mm1 \n\t"
|
|
||||||
"add %4, %1 \n\t"
|
|
||||||
"add $4, %2 \n\t"
|
|
||||||
PAVGB" %%mm1, %%mm0 \n\t"
|
|
||||||
PAVGB" (%3), %%mm0 \n\t"
|
|
||||||
"movd %%mm0, (%3) \n\t"
|
|
||||||
"add %5, %3 \n\t"
|
|
||||||
"decl %0 \n\t"
|
|
||||||
"1: \n\t"
|
|
||||||
"movd (%1), %%mm0 \n\t"
|
|
||||||
"add %4, %1 \n\t"
|
|
||||||
"movd (%1), %%mm1 \n\t"
|
|
||||||
"add %4, %1 \n\t"
|
|
||||||
PAVGB" (%2), %%mm0 \n\t"
|
|
||||||
PAVGB" 4(%2), %%mm1 \n\t"
|
|
||||||
PAVGB" (%3), %%mm0 \n\t"
|
|
||||||
"movd %%mm0, (%3) \n\t"
|
|
||||||
"add %5, %3 \n\t"
|
|
||||||
PAVGB" (%3), %%mm1 \n\t"
|
|
||||||
"movd %%mm1, (%3) \n\t"
|
|
||||||
"add %5, %3 \n\t"
|
|
||||||
"movd (%1), %%mm0 \n\t"
|
|
||||||
"add %4, %1 \n\t"
|
|
||||||
"movd (%1), %%mm1 \n\t"
|
|
||||||
"add %4, %1 \n\t"
|
|
||||||
PAVGB" 8(%2), %%mm0 \n\t"
|
|
||||||
PAVGB" 12(%2), %%mm1 \n\t"
|
|
||||||
PAVGB" (%3), %%mm0 \n\t"
|
|
||||||
"movd %%mm0, (%3) \n\t"
|
|
||||||
"add %5, %3 \n\t"
|
|
||||||
PAVGB" (%3), %%mm1 \n\t"
|
|
||||||
"movd %%mm1, (%3) \n\t"
|
|
||||||
"add %5, %3 \n\t"
|
|
||||||
"add $16, %2 \n\t"
|
|
||||||
"subl $4, %0 \n\t"
|
|
||||||
"jnz 1b \n\t"
|
|
||||||
#if !HAVE_EBX_AVAILABLE //Note "+bm" and "+mb" are buggy too (with gcc 3.2.2 at least) and cannot be used
|
|
||||||
:"+m"(h), "+a"(src1), "+c"(src2), "+d"(dst)
|
|
||||||
#else
|
|
||||||
:"+b"(h), "+a"(src1), "+c"(src2), "+d"(dst)
|
|
||||||
#endif
|
|
||||||
:"S"((x86_reg)src1Stride), "D"((x86_reg)dstStride)
|
|
||||||
:"memory");
|
|
||||||
}
|
|
||||||
|
|
||||||
|
|
||||||
static void DEF(avg_pixels8_l2)(uint8_t *dst, uint8_t *src1, uint8_t *src2, int dstStride, int src1Stride, int h)
|
static void DEF(avg_pixels8_l2)(uint8_t *dst, uint8_t *src1, uint8_t *src2, int dstStride, int src1Stride, int h)
|
||||||
{
|
{
|
||||||
__asm__ volatile(
|
__asm__ volatile(
|
||||||
@@ -876,33 +773,6 @@ static void DEF(avg_pixels8_xy2)(uint8_t *block, const uint8_t *pixels, int line
|
|||||||
:"%"REG_a, "memory");
|
:"%"REG_a, "memory");
|
||||||
}
|
}
|
||||||
|
|
||||||
#ifndef SKIP_FOR_3DNOW
|
|
||||||
static void DEF(avg_pixels4)(uint8_t *block, const uint8_t *pixels, int line_size, int h)
|
|
||||||
{
|
|
||||||
do {
|
|
||||||
__asm__ volatile(
|
|
||||||
"movd (%1), %%mm0 \n\t"
|
|
||||||
"movd (%1, %2), %%mm1 \n\t"
|
|
||||||
"movd (%1, %2, 2), %%mm2 \n\t"
|
|
||||||
"movd (%1, %3), %%mm3 \n\t"
|
|
||||||
PAVGB" (%0), %%mm0 \n\t"
|
|
||||||
PAVGB" (%0, %2), %%mm1 \n\t"
|
|
||||||
PAVGB" (%0, %2, 2), %%mm2 \n\t"
|
|
||||||
PAVGB" (%0, %3), %%mm3 \n\t"
|
|
||||||
"movd %%mm0, (%1) \n\t"
|
|
||||||
"movd %%mm1, (%1, %2) \n\t"
|
|
||||||
"movd %%mm2, (%1, %2, 2) \n\t"
|
|
||||||
"movd %%mm3, (%1, %3) \n\t"
|
|
||||||
::"S"(pixels), "D"(block),
|
|
||||||
"r" ((x86_reg)line_size), "r"((x86_reg)3L*line_size)
|
|
||||||
:"memory");
|
|
||||||
block += 4*line_size;
|
|
||||||
pixels += 4*line_size;
|
|
||||||
h -= 4;
|
|
||||||
} while(h > 0);
|
|
||||||
}
|
|
||||||
#endif /* SKIP_FOR_3DNOW */
|
|
||||||
|
|
||||||
//FIXME the following could be optimized too ...
|
//FIXME the following could be optimized too ...
|
||||||
static void DEF(put_no_rnd_pixels16_x2)(uint8_t *block, const uint8_t *pixels, int line_size, int h){
|
static void DEF(put_no_rnd_pixels16_x2)(uint8_t *block, const uint8_t *pixels, int line_size, int h){
|
||||||
DEF(put_no_rnd_pixels8_x2)(block , pixels , line_size, h);
|
DEF(put_no_rnd_pixels8_x2)(block , pixels , line_size, h);
|
||||||
|
@@ -366,33 +366,6 @@ void ff_add_pixels_clamped_mmx(const DCTELEM *block, uint8_t *pixels,
|
|||||||
} while (--i);
|
} while (--i);
|
||||||
}
|
}
|
||||||
|
|
||||||
static void put_pixels4_mmx(uint8_t *block, const uint8_t *pixels,
|
|
||||||
int line_size, int h)
|
|
||||||
{
|
|
||||||
__asm__ volatile (
|
|
||||||
"lea (%3, %3), %%"REG_a" \n\t"
|
|
||||||
".p2align 3 \n\t"
|
|
||||||
"1: \n\t"
|
|
||||||
"movd (%1 ), %%mm0 \n\t"
|
|
||||||
"movd (%1, %3), %%mm1 \n\t"
|
|
||||||
"movd %%mm0, (%2) \n\t"
|
|
||||||
"movd %%mm1, (%2, %3) \n\t"
|
|
||||||
"add %%"REG_a", %1 \n\t"
|
|
||||||
"add %%"REG_a", %2 \n\t"
|
|
||||||
"movd (%1 ), %%mm0 \n\t"
|
|
||||||
"movd (%1, %3), %%mm1 \n\t"
|
|
||||||
"movd %%mm0, (%2) \n\t"
|
|
||||||
"movd %%mm1, (%2, %3) \n\t"
|
|
||||||
"add %%"REG_a", %1 \n\t"
|
|
||||||
"add %%"REG_a", %2 \n\t"
|
|
||||||
"subl $4, %0 \n\t"
|
|
||||||
"jnz 1b \n\t"
|
|
||||||
: "+g"(h), "+r"(pixels), "+r"(block)
|
|
||||||
: "r"((x86_reg)line_size)
|
|
||||||
: "%"REG_a, "memory"
|
|
||||||
);
|
|
||||||
}
|
|
||||||
|
|
||||||
static void put_pixels8_mmx(uint8_t *block, const uint8_t *pixels,
|
static void put_pixels8_mmx(uint8_t *block, const uint8_t *pixels,
|
||||||
int line_size, int h)
|
int line_size, int h)
|
||||||
{
|
{
|
||||||
@@ -455,56 +428,6 @@ static void put_pixels16_mmx(uint8_t *block, const uint8_t *pixels,
|
|||||||
);
|
);
|
||||||
}
|
}
|
||||||
|
|
||||||
static void put_pixels16_sse2(uint8_t *block, const uint8_t *pixels,
|
|
||||||
int line_size, int h)
|
|
||||||
{
|
|
||||||
__asm__ volatile (
|
|
||||||
"1: \n\t"
|
|
||||||
"movdqu (%1 ), %%xmm0 \n\t"
|
|
||||||
"movdqu (%1, %3 ), %%xmm1 \n\t"
|
|
||||||
"movdqu (%1, %3, 2), %%xmm2 \n\t"
|
|
||||||
"movdqu (%1, %4 ), %%xmm3 \n\t"
|
|
||||||
"lea (%1, %3, 4), %1 \n\t"
|
|
||||||
"movdqa %%xmm0, (%2) \n\t"
|
|
||||||
"movdqa %%xmm1, (%2, %3) \n\t"
|
|
||||||
"movdqa %%xmm2, (%2, %3, 2) \n\t"
|
|
||||||
"movdqa %%xmm3, (%2, %4) \n\t"
|
|
||||||
"subl $4, %0 \n\t"
|
|
||||||
"lea (%2, %3, 4), %2 \n\t"
|
|
||||||
"jnz 1b \n\t"
|
|
||||||
: "+g"(h), "+r"(pixels), "+r"(block)
|
|
||||||
: "r"((x86_reg)line_size), "r"((x86_reg)3L * line_size)
|
|
||||||
: "memory"
|
|
||||||
);
|
|
||||||
}
|
|
||||||
|
|
||||||
static void avg_pixels16_sse2(uint8_t *block, const uint8_t *pixels,
|
|
||||||
int line_size, int h)
|
|
||||||
{
|
|
||||||
__asm__ volatile (
|
|
||||||
"1: \n\t"
|
|
||||||
"movdqu (%1 ), %%xmm0 \n\t"
|
|
||||||
"movdqu (%1, %3 ), %%xmm1 \n\t"
|
|
||||||
"movdqu (%1, %3, 2), %%xmm2 \n\t"
|
|
||||||
"movdqu (%1, %4 ), %%xmm3 \n\t"
|
|
||||||
"lea (%1, %3, 4), %1 \n\t"
|
|
||||||
"pavgb (%2 ), %%xmm0 \n\t"
|
|
||||||
"pavgb (%2, %3 ), %%xmm1 \n\t"
|
|
||||||
"pavgb (%2, %3, 2), %%xmm2 \n\t"
|
|
||||||
"pavgb (%2, %4), %%xmm3 \n\t"
|
|
||||||
"movdqa %%xmm0, (%2) \n\t"
|
|
||||||
"movdqa %%xmm1, (%2, %3) \n\t"
|
|
||||||
"movdqa %%xmm2, (%2, %3, 2) \n\t"
|
|
||||||
"movdqa %%xmm3, (%2, %4) \n\t"
|
|
||||||
"subl $4, %0 \n\t"
|
|
||||||
"lea (%2, %3, 4), %2 \n\t"
|
|
||||||
"jnz 1b \n\t"
|
|
||||||
: "+g"(h), "+r"(pixels), "+r"(block)
|
|
||||||
: "r"((x86_reg)line_size), "r"((x86_reg)3L * line_size)
|
|
||||||
: "memory"
|
|
||||||
);
|
|
||||||
}
|
|
||||||
|
|
||||||
#define CLEAR_BLOCKS(name, n) \
|
#define CLEAR_BLOCKS(name, n) \
|
||||||
static void name(DCTELEM *blocks) \
|
static void name(DCTELEM *blocks) \
|
||||||
{ \
|
{ \
|
||||||
@@ -2381,27 +2304,23 @@ static void dsputil_init_mmxext(DSPContext *c, AVCodecContext *avctx,
|
|||||||
}
|
}
|
||||||
#endif /* HAVE_INLINE_ASM */
|
#endif /* HAVE_INLINE_ASM */
|
||||||
|
|
||||||
|
#if HAVE_MMXEXT_EXTERNAL
|
||||||
if (CONFIG_H264QPEL) {
|
if (CONFIG_H264QPEL) {
|
||||||
#if HAVE_INLINE_ASM
|
|
||||||
SET_QPEL_FUNCS(put_qpel, 0, 16, mmxext, );
|
SET_QPEL_FUNCS(put_qpel, 0, 16, mmxext, );
|
||||||
SET_QPEL_FUNCS(put_qpel, 1, 8, mmxext, );
|
SET_QPEL_FUNCS(put_qpel, 1, 8, mmxext, );
|
||||||
SET_QPEL_FUNCS(put_no_rnd_qpel, 0, 16, mmxext, );
|
SET_QPEL_FUNCS(put_no_rnd_qpel, 0, 16, mmxext, );
|
||||||
SET_QPEL_FUNCS(put_no_rnd_qpel, 1, 8, mmxext, );
|
SET_QPEL_FUNCS(put_no_rnd_qpel, 1, 8, mmxext, );
|
||||||
SET_QPEL_FUNCS(avg_qpel, 0, 16, mmxext, );
|
SET_QPEL_FUNCS(avg_qpel, 0, 16, mmxext, );
|
||||||
SET_QPEL_FUNCS(avg_qpel, 1, 8, mmxext, );
|
SET_QPEL_FUNCS(avg_qpel, 1, 8, mmxext, );
|
||||||
#endif /* HAVE_INLINE_ASM */
|
|
||||||
|
|
||||||
if (!high_bit_depth) {
|
if (!high_bit_depth) {
|
||||||
#if HAVE_INLINE_ASM
|
|
||||||
SET_QPEL_FUNCS(put_h264_qpel, 0, 16, mmxext, );
|
SET_QPEL_FUNCS(put_h264_qpel, 0, 16, mmxext, );
|
||||||
SET_QPEL_FUNCS(put_h264_qpel, 1, 8, mmxext, );
|
SET_QPEL_FUNCS(put_h264_qpel, 1, 8, mmxext, );
|
||||||
SET_QPEL_FUNCS(put_h264_qpel, 2, 4, mmxext, );
|
SET_QPEL_FUNCS(put_h264_qpel, 2, 4, mmxext, );
|
||||||
SET_QPEL_FUNCS(avg_h264_qpel, 0, 16, mmxext, );
|
SET_QPEL_FUNCS(avg_h264_qpel, 0, 16, mmxext, );
|
||||||
SET_QPEL_FUNCS(avg_h264_qpel, 1, 8, mmxext, );
|
SET_QPEL_FUNCS(avg_h264_qpel, 1, 8, mmxext, );
|
||||||
SET_QPEL_FUNCS(avg_h264_qpel, 2, 4, mmxext, );
|
SET_QPEL_FUNCS(avg_h264_qpel, 2, 4, mmxext, );
|
||||||
#endif /* HAVE_INLINE_ASM */
|
|
||||||
} else if (bit_depth == 10) {
|
} else if (bit_depth == 10) {
|
||||||
#if HAVE_YASM
|
|
||||||
#if !ARCH_X86_64
|
#if !ARCH_X86_64
|
||||||
SET_QPEL_FUNCS(avg_h264_qpel, 0, 16, 10_mmxext, ff_);
|
SET_QPEL_FUNCS(avg_h264_qpel, 0, 16, 10_mmxext, ff_);
|
||||||
SET_QPEL_FUNCS(put_h264_qpel, 0, 16, 10_mmxext, ff_);
|
SET_QPEL_FUNCS(put_h264_qpel, 0, 16, 10_mmxext, ff_);
|
||||||
@@ -2410,18 +2329,14 @@ static void dsputil_init_mmxext(DSPContext *c, AVCodecContext *avctx,
|
|||||||
#endif
|
#endif
|
||||||
SET_QPEL_FUNCS(put_h264_qpel, 2, 4, 10_mmxext, ff_);
|
SET_QPEL_FUNCS(put_h264_qpel, 2, 4, 10_mmxext, ff_);
|
||||||
SET_QPEL_FUNCS(avg_h264_qpel, 2, 4, 10_mmxext, ff_);
|
SET_QPEL_FUNCS(avg_h264_qpel, 2, 4, 10_mmxext, ff_);
|
||||||
#endif /* HAVE_YASM */
|
|
||||||
}
|
}
|
||||||
|
|
||||||
#if HAVE_INLINE_ASM
|
|
||||||
SET_QPEL_FUNCS(put_2tap_qpel, 0, 16, mmxext, );
|
SET_QPEL_FUNCS(put_2tap_qpel, 0, 16, mmxext, );
|
||||||
SET_QPEL_FUNCS(put_2tap_qpel, 1, 8, mmxext, );
|
SET_QPEL_FUNCS(put_2tap_qpel, 1, 8, mmxext, );
|
||||||
SET_QPEL_FUNCS(avg_2tap_qpel, 0, 16, mmxext, );
|
SET_QPEL_FUNCS(avg_2tap_qpel, 0, 16, mmxext, );
|
||||||
SET_QPEL_FUNCS(avg_2tap_qpel, 1, 8, mmxext, );
|
SET_QPEL_FUNCS(avg_2tap_qpel, 1, 8, mmxext, );
|
||||||
#endif /* HAVE_INLINE_ASM */
|
|
||||||
}
|
}
|
||||||
|
|
||||||
#if HAVE_YASM
|
|
||||||
if (!high_bit_depth && CONFIG_H264CHROMA) {
|
if (!high_bit_depth && CONFIG_H264CHROMA) {
|
||||||
c->avg_h264_chroma_pixels_tab[0] = ff_avg_h264_chroma_mc8_rnd_mmxext;
|
c->avg_h264_chroma_pixels_tab[0] = ff_avg_h264_chroma_mc8_rnd_mmxext;
|
||||||
c->avg_h264_chroma_pixels_tab[1] = ff_avg_h264_chroma_mc4_mmxext;
|
c->avg_h264_chroma_pixels_tab[1] = ff_avg_h264_chroma_mc4_mmxext;
|
||||||
@@ -2447,7 +2362,7 @@ static void dsputil_init_mmxext(DSPContext *c, AVCodecContext *avctx,
|
|||||||
} else {
|
} else {
|
||||||
c->apply_window_int16 = ff_apply_window_int16_round_mmxext;
|
c->apply_window_int16 = ff_apply_window_int16_round_mmxext;
|
||||||
}
|
}
|
||||||
#endif /* HAVE_YASM */
|
#endif /* HAVE_MMXEXT_EXTERNAL */
|
||||||
}
|
}
|
||||||
|
|
||||||
static void dsputil_init_3dnow(DSPContext *c, AVCodecContext *avctx,
|
static void dsputil_init_3dnow(DSPContext *c, AVCodecContext *avctx,
|
||||||
@@ -2546,17 +2461,16 @@ static void dsputil_init_sse(DSPContext *c, AVCodecContext *avctx, int mm_flags)
|
|||||||
static void dsputil_init_sse2(DSPContext *c, AVCodecContext *avctx,
|
static void dsputil_init_sse2(DSPContext *c, AVCodecContext *avctx,
|
||||||
int mm_flags)
|
int mm_flags)
|
||||||
{
|
{
|
||||||
|
#if HAVE_SSE2_EXTERNAL
|
||||||
const int bit_depth = avctx->bits_per_raw_sample;
|
const int bit_depth = avctx->bits_per_raw_sample;
|
||||||
|
|
||||||
#if HAVE_INLINE_ASM
|
|
||||||
const int high_bit_depth = bit_depth > 8;
|
const int high_bit_depth = bit_depth > 8;
|
||||||
|
|
||||||
if (!(mm_flags & AV_CPU_FLAG_SSE2SLOW)) {
|
if (!(mm_flags & AV_CPU_FLAG_SSE2SLOW)) {
|
||||||
// these functions are slower than mmx on AMD, but faster on Intel
|
// these functions are slower than mmx on AMD, but faster on Intel
|
||||||
if (!high_bit_depth) {
|
if (!high_bit_depth) {
|
||||||
c->put_pixels_tab[0][0] = put_pixels16_sse2;
|
c->put_pixels_tab[0][0] = ff_put_pixels16_sse2;
|
||||||
c->put_no_rnd_pixels_tab[0][0] = put_pixels16_sse2;
|
c->put_no_rnd_pixels_tab[0][0] = ff_put_pixels16_sse2;
|
||||||
c->avg_pixels_tab[0][0] = avg_pixels16_sse2;
|
c->avg_pixels_tab[0][0] = ff_avg_pixels16_sse2;
|
||||||
if (CONFIG_H264QPEL)
|
if (CONFIG_H264QPEL)
|
||||||
H264_QPEL_FUNCS(0, 0, sse2);
|
H264_QPEL_FUNCS(0, 0, sse2);
|
||||||
}
|
}
|
||||||
@@ -2583,9 +2497,7 @@ static void dsputil_init_sse2(DSPContext *c, AVCodecContext *avctx,
|
|||||||
c->idct = ff_idct_xvid_sse2;
|
c->idct = ff_idct_xvid_sse2;
|
||||||
c->idct_permutation_type = FF_SSE2_IDCT_PERM;
|
c->idct_permutation_type = FF_SSE2_IDCT_PERM;
|
||||||
}
|
}
|
||||||
#endif /* HAVE_INLINE_ASM */
|
|
||||||
|
|
||||||
#if HAVE_YASM
|
|
||||||
if (bit_depth == 10) {
|
if (bit_depth == 10) {
|
||||||
if (CONFIG_H264QPEL) {
|
if (CONFIG_H264QPEL) {
|
||||||
SET_QPEL_FUNCS(put_h264_qpel, 0, 16, 10_sse2, ff_);
|
SET_QPEL_FUNCS(put_h264_qpel, 0, 16, 10_sse2, ff_);
|
||||||
@@ -2615,16 +2527,16 @@ static void dsputil_init_sse2(DSPContext *c, AVCodecContext *avctx,
|
|||||||
c->apply_window_int16 = ff_apply_window_int16_round_sse2;
|
c->apply_window_int16 = ff_apply_window_int16_round_sse2;
|
||||||
}
|
}
|
||||||
c->bswap_buf = ff_bswap32_buf_sse2;
|
c->bswap_buf = ff_bswap32_buf_sse2;
|
||||||
#endif /* HAVE_YASM */
|
#endif /* HAVE_SSE2_EXTERNAL */
|
||||||
}
|
}
|
||||||
|
|
||||||
static void dsputil_init_ssse3(DSPContext *c, AVCodecContext *avctx,
|
static void dsputil_init_ssse3(DSPContext *c, AVCodecContext *avctx,
|
||||||
int mm_flags)
|
int mm_flags)
|
||||||
{
|
{
|
||||||
|
#if HAVE_SSSE3_EXTERNAL
|
||||||
const int high_bit_depth = avctx->bits_per_raw_sample > 8;
|
const int high_bit_depth = avctx->bits_per_raw_sample > 8;
|
||||||
const int bit_depth = avctx->bits_per_raw_sample;
|
const int bit_depth = avctx->bits_per_raw_sample;
|
||||||
|
|
||||||
#if HAVE_SSSE3_INLINE
|
|
||||||
if (!high_bit_depth && CONFIG_H264QPEL) {
|
if (!high_bit_depth && CONFIG_H264QPEL) {
|
||||||
H264_QPEL_FUNCS(1, 0, ssse3);
|
H264_QPEL_FUNCS(1, 0, ssse3);
|
||||||
H264_QPEL_FUNCS(1, 1, ssse3);
|
H264_QPEL_FUNCS(1, 1, ssse3);
|
||||||
@@ -2639,9 +2551,6 @@ static void dsputil_init_ssse3(DSPContext *c, AVCodecContext *avctx,
|
|||||||
H264_QPEL_FUNCS(3, 2, ssse3);
|
H264_QPEL_FUNCS(3, 2, ssse3);
|
||||||
H264_QPEL_FUNCS(3, 3, ssse3);
|
H264_QPEL_FUNCS(3, 3, ssse3);
|
||||||
}
|
}
|
||||||
#endif /* HAVE_SSSE3_INLINE */
|
|
||||||
|
|
||||||
#if HAVE_SSSE3_EXTERNAL
|
|
||||||
if (bit_depth == 10 && CONFIG_H264QPEL) {
|
if (bit_depth == 10 && CONFIG_H264QPEL) {
|
||||||
H264_QPEL_FUNCS_10(1, 0, ssse3_cache64);
|
H264_QPEL_FUNCS_10(1, 0, ssse3_cache64);
|
||||||
H264_QPEL_FUNCS_10(2, 0, ssse3_cache64);
|
H264_QPEL_FUNCS_10(2, 0, ssse3_cache64);
|
||||||
|
File diff suppressed because it is too large
Load Diff
862
libavcodec/x86/h264_qpel_8bit.asm
Normal file
862
libavcodec/x86/h264_qpel_8bit.asm
Normal file
@@ -0,0 +1,862 @@
|
|||||||
|
;*****************************************************************************
|
||||||
|
;* MMX/SSE2/SSSE3-optimized H.264 QPEL code
|
||||||
|
;*****************************************************************************
|
||||||
|
;* Copyright (c) 2004-2005 Michael Niedermayer, Loren Merritt
|
||||||
|
;* Copyright (C) 2012 Daniel Kang
|
||||||
|
;*
|
||||||
|
;* Authors: Daniel Kang <daniel.d.kang@gmail.com>
|
||||||
|
;*
|
||||||
|
;* This file is part of Libav.
|
||||||
|
;*
|
||||||
|
;* Libav is free software; you can redistribute it and/or
|
||||||
|
;* modify it under the terms of the GNU Lesser General Public
|
||||||
|
;* License as published by the Free Software Foundation; either
|
||||||
|
;* version 2.1 of the License, or (at your option) any later version.
|
||||||
|
;*
|
||||||
|
;* Libav is distributed in the hope that it will be useful,
|
||||||
|
;* but WITHOUT ANY WARRANTY; without even the implied warranty of
|
||||||
|
;* MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the GNU
|
||||||
|
;* Lesser General Public License for more details.
|
||||||
|
;*
|
||||||
|
;* You should have received a copy of the GNU Lesser General Public
|
||||||
|
;* License along with Libav; if not, write to the Free Software
|
||||||
|
;* Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
|
||||||
|
;******************************************************************************
|
||||||
|
|
||||||
|
%include "libavutil/x86/x86util.asm"
|
||||||
|
|
||||||
|
SECTION_RODATA 32
|
||||||
|
|
||||||
|
cextern pw_16
|
||||||
|
cextern pw_5
|
||||||
|
cextern pb_0
|
||||||
|
|
||||||
|
SECTION .text
|
||||||
|
|
||||||
|
|
||||||
|
%macro op_avgh 3
|
||||||
|
movh %3, %2
|
||||||
|
pavgb %1, %3
|
||||||
|
movh %2, %1
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
%macro op_avg 2-3
|
||||||
|
pavgb %1, %2
|
||||||
|
mova %2, %1
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
%macro op_puth 2-3
|
||||||
|
movh %2, %1
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
%macro op_put 2-3
|
||||||
|
mova %2, %1
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
%macro QPEL4_H_LOWPASS_OP 1
|
||||||
|
cglobal %1_h264_qpel4_h_lowpass, 4,5 ; dst, src, dstStride, srcStride
|
||||||
|
movsxdifnidn r2, r2d
|
||||||
|
movsxdifnidn r3, r3d
|
||||||
|
pxor m7, m7
|
||||||
|
mova m4, [pw_5]
|
||||||
|
mova m5, [pw_16]
|
||||||
|
mov r4d, 4
|
||||||
|
.loop:
|
||||||
|
movh m1, [r1-1]
|
||||||
|
movh m2, [r1+0]
|
||||||
|
movh m3, [r1+1]
|
||||||
|
movh m0, [r1+2]
|
||||||
|
punpcklbw m1, m7
|
||||||
|
punpcklbw m2, m7
|
||||||
|
punpcklbw m3, m7
|
||||||
|
punpcklbw m0, m7
|
||||||
|
paddw m1, m0
|
||||||
|
paddw m2, m3
|
||||||
|
movh m0, [r1-2]
|
||||||
|
movh m3, [r1+3]
|
||||||
|
punpcklbw m0, m7
|
||||||
|
punpcklbw m3, m7
|
||||||
|
paddw m0, m3
|
||||||
|
psllw m2, 2
|
||||||
|
psubw m2, m1
|
||||||
|
pmullw m2, m4
|
||||||
|
paddw m0, m5
|
||||||
|
paddw m0, m2
|
||||||
|
psraw m0, 5
|
||||||
|
packuswb m0, m0
|
||||||
|
op_%1h m0, [r0], m6
|
||||||
|
add r0, r2
|
||||||
|
add r1, r3
|
||||||
|
dec r4d
|
||||||
|
jg .loop
|
||||||
|
REP_RET
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
INIT_MMX mmxext
|
||||||
|
QPEL4_H_LOWPASS_OP put
|
||||||
|
QPEL4_H_LOWPASS_OP avg
|
||||||
|
|
||||||
|
%macro QPEL8_H_LOWPASS_OP 1
|
||||||
|
cglobal %1_h264_qpel8_h_lowpass, 4,5 ; dst, src, dstStride, srcStride
|
||||||
|
movsxdifnidn r2, r2d
|
||||||
|
movsxdifnidn r3, r3d
|
||||||
|
mov r4d, 8
|
||||||
|
pxor m7, m7
|
||||||
|
mova m6, [pw_5]
|
||||||
|
.loop:
|
||||||
|
mova m0, [r1]
|
||||||
|
mova m2, [r1+1]
|
||||||
|
mova m1, m0
|
||||||
|
mova m3, m2
|
||||||
|
punpcklbw m0, m7
|
||||||
|
punpckhbw m1, m7
|
||||||
|
punpcklbw m2, m7
|
||||||
|
punpckhbw m3, m7
|
||||||
|
paddw m0, m2
|
||||||
|
paddw m1, m3
|
||||||
|
psllw m0, 2
|
||||||
|
psllw m1, 2
|
||||||
|
mova m2, [r1-1]
|
||||||
|
mova m4, [r1+2]
|
||||||
|
mova m3, m2
|
||||||
|
mova m5, m4
|
||||||
|
punpcklbw m2, m7
|
||||||
|
punpckhbw m3, m7
|
||||||
|
punpcklbw m4, m7
|
||||||
|
punpckhbw m5, m7
|
||||||
|
paddw m2, m4
|
||||||
|
paddw m5, m3
|
||||||
|
psubw m0, m2
|
||||||
|
psubw m1, m5
|
||||||
|
pmullw m0, m6
|
||||||
|
pmullw m1, m6
|
||||||
|
movd m2, [r1-2]
|
||||||
|
movd m5, [r1+7]
|
||||||
|
punpcklbw m2, m7
|
||||||
|
punpcklbw m5, m7
|
||||||
|
paddw m2, m3
|
||||||
|
paddw m4, m5
|
||||||
|
mova m5, [pw_16]
|
||||||
|
paddw m2, m5
|
||||||
|
paddw m4, m5
|
||||||
|
paddw m0, m2
|
||||||
|
paddw m1, m4
|
||||||
|
psraw m0, 5
|
||||||
|
psraw m1, 5
|
||||||
|
packuswb m0, m1
|
||||||
|
op_%1 m0, [r0], m4
|
||||||
|
add r0, r2
|
||||||
|
add r1, r3
|
||||||
|
dec r4d
|
||||||
|
jg .loop
|
||||||
|
REP_RET
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
INIT_MMX mmxext
|
||||||
|
QPEL8_H_LOWPASS_OP put
|
||||||
|
QPEL8_H_LOWPASS_OP avg
|
||||||
|
|
||||||
|
%macro QPEL8_H_LOWPASS_OP_XMM 1
|
||||||
|
cglobal %1_h264_qpel8_h_lowpass, 4,5,7 ; dst, src, dstStride, srcStride
|
||||||
|
movsxdifnidn r2, r2d
|
||||||
|
movsxdifnidn r3, r3d
|
||||||
|
mov r4d, 8
|
||||||
|
pxor m7, m7
|
||||||
|
mova m6, [pw_5]
|
||||||
|
.loop:
|
||||||
|
movu m1, [r1-2]
|
||||||
|
mova m0, m1
|
||||||
|
punpckhbw m1, m7
|
||||||
|
punpcklbw m0, m7
|
||||||
|
mova m2, m1
|
||||||
|
mova m3, m1
|
||||||
|
mova m4, m1
|
||||||
|
mova m5, m1
|
||||||
|
palignr m4, m0, 2
|
||||||
|
palignr m3, m0, 4
|
||||||
|
palignr m2, m0, 6
|
||||||
|
palignr m1, m0, 8
|
||||||
|
palignr m5, m0, 10
|
||||||
|
paddw m0, m5
|
||||||
|
paddw m2, m3
|
||||||
|
paddw m1, m4
|
||||||
|
psllw m2, 2
|
||||||
|
psubw m2, m1
|
||||||
|
paddw m0, [pw_16]
|
||||||
|
pmullw m2, m6
|
||||||
|
paddw m2, m0
|
||||||
|
psraw m2, 5
|
||||||
|
packuswb m2, m2
|
||||||
|
op_%1h m2, [r0], m4
|
||||||
|
add r1, r3
|
||||||
|
add r0, r2
|
||||||
|
dec r4d
|
||||||
|
jne .loop
|
||||||
|
REP_RET
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
INIT_XMM ssse3
|
||||||
|
QPEL8_H_LOWPASS_OP_XMM put
|
||||||
|
QPEL8_H_LOWPASS_OP_XMM avg
|
||||||
|
|
||||||
|
|
||||||
|
%macro QPEL4_H_LOWPASS_L2_OP 1
|
||||||
|
cglobal %1_h264_qpel4_h_lowpass_l2, 5,6 ; dst, src, src2, dstStride, srcStride
|
||||||
|
movsxdifnidn r3, r3d
|
||||||
|
movsxdifnidn r4, r4d
|
||||||
|
pxor m7, m7
|
||||||
|
mova m4, [pw_5]
|
||||||
|
mova m5, [pw_16]
|
||||||
|
mov r5d, 4
|
||||||
|
.loop:
|
||||||
|
movh m1, [r1-1]
|
||||||
|
movh m2, [r1+0]
|
||||||
|
movh m3, [r1+1]
|
||||||
|
movh m0, [r1+2]
|
||||||
|
punpcklbw m1, m7
|
||||||
|
punpcklbw m2, m7
|
||||||
|
punpcklbw m3, m7
|
||||||
|
punpcklbw m0, m7
|
||||||
|
paddw m1, m0
|
||||||
|
paddw m2, m3
|
||||||
|
movh m0, [r1-2]
|
||||||
|
movh m3, [r1+3]
|
||||||
|
punpcklbw m0, m7
|
||||||
|
punpcklbw m3, m7
|
||||||
|
paddw m0, m3
|
||||||
|
psllw m2, 2
|
||||||
|
psubw m2, m1
|
||||||
|
pmullw m2, m4
|
||||||
|
paddw m0, m5
|
||||||
|
paddw m0, m2
|
||||||
|
movh m3, [r2]
|
||||||
|
psraw m0, 5
|
||||||
|
packuswb m0, m0
|
||||||
|
pavgb m0, m3
|
||||||
|
op_%1h m0, [r0], m6
|
||||||
|
add r0, r3
|
||||||
|
add r1, r3
|
||||||
|
add r2, r4
|
||||||
|
dec r5d
|
||||||
|
jg .loop
|
||||||
|
REP_RET
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
INIT_MMX mmxext
|
||||||
|
QPEL4_H_LOWPASS_L2_OP put
|
||||||
|
QPEL4_H_LOWPASS_L2_OP avg
|
||||||
|
|
||||||
|
|
||||||
|
%macro QPEL8_H_LOWPASS_L2_OP 1
|
||||||
|
cglobal %1_h264_qpel8_h_lowpass_l2, 5,6 ; dst, src, src2, dstStride, srcStride
|
||||||
|
movsxdifnidn r3, r3d
|
||||||
|
movsxdifnidn r4, r4d
|
||||||
|
mov r5d, 8
|
||||||
|
pxor m7, m7
|
||||||
|
mova m6, [pw_5]
|
||||||
|
.loop:
|
||||||
|
mova m0, [r1]
|
||||||
|
mova m2, [r1+1]
|
||||||
|
mova m1, m0
|
||||||
|
mova m3, m2
|
||||||
|
punpcklbw m0, m7
|
||||||
|
punpckhbw m1, m7
|
||||||
|
punpcklbw m2, m7
|
||||||
|
punpckhbw m3, m7
|
||||||
|
paddw m0, m2
|
||||||
|
paddw m1, m3
|
||||||
|
psllw m0, 2
|
||||||
|
psllw m1, 2
|
||||||
|
mova m2, [r1-1]
|
||||||
|
mova m4, [r1+2]
|
||||||
|
mova m3, m2
|
||||||
|
mova m5, m4
|
||||||
|
punpcklbw m2, m7
|
||||||
|
punpckhbw m3, m7
|
||||||
|
punpcklbw m4, m7
|
||||||
|
punpckhbw m5, m7
|
||||||
|
paddw m2, m4
|
||||||
|
paddw m5, m3
|
||||||
|
psubw m0, m2
|
||||||
|
psubw m1, m5
|
||||||
|
pmullw m0, m6
|
||||||
|
pmullw m1, m6
|
||||||
|
movd m2, [r1-2]
|
||||||
|
movd m5, [r1+7]
|
||||||
|
punpcklbw m2, m7
|
||||||
|
punpcklbw m5, m7
|
||||||
|
paddw m2, m3
|
||||||
|
paddw m4, m5
|
||||||
|
mova m5, [pw_16]
|
||||||
|
paddw m2, m5
|
||||||
|
paddw m4, m5
|
||||||
|
paddw m0, m2
|
||||||
|
paddw m1, m4
|
||||||
|
psraw m0, 5
|
||||||
|
psraw m1, 5
|
||||||
|
mova m4, [r2]
|
||||||
|
packuswb m0, m1
|
||||||
|
pavgb m0, m4
|
||||||
|
op_%1 m0, [r0], m4
|
||||||
|
add r0, r3
|
||||||
|
add r1, r3
|
||||||
|
add r2, r4
|
||||||
|
dec r5d
|
||||||
|
jg .loop
|
||||||
|
REP_RET
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
INIT_MMX mmxext
|
||||||
|
QPEL8_H_LOWPASS_L2_OP put
|
||||||
|
QPEL8_H_LOWPASS_L2_OP avg
|
||||||
|
|
||||||
|
|
||||||
|
%macro QPEL8_H_LOWPASS_L2_OP_XMM 1
|
||||||
|
cglobal %1_h264_qpel8_h_lowpass_l2, 5,6,7 ; dst, src, src2, dstStride, src2Stride
|
||||||
|
movsxdifnidn r3, r3d
|
||||||
|
movsxdifnidn r4, r4d
|
||||||
|
mov r5d, 8
|
||||||
|
pxor m7, m7
|
||||||
|
mova m6, [pw_5]
|
||||||
|
.loop:
|
||||||
|
lddqu m1, [r1-2]
|
||||||
|
mova m0, m1
|
||||||
|
punpckhbw m1, m7
|
||||||
|
punpcklbw m0, m7
|
||||||
|
mova m2, m1
|
||||||
|
mova m3, m1
|
||||||
|
mova m4, m1
|
||||||
|
mova m5, m1
|
||||||
|
palignr m4, m0, 2
|
||||||
|
palignr m3, m0, 4
|
||||||
|
palignr m2, m0, 6
|
||||||
|
palignr m1, m0, 8
|
||||||
|
palignr m5, m0, 10
|
||||||
|
paddw m0, m5
|
||||||
|
paddw m2, m3
|
||||||
|
paddw m1, m4
|
||||||
|
psllw m2, 2
|
||||||
|
movh m3, [r2]
|
||||||
|
psubw m2, m1
|
||||||
|
paddw m0, [pw_16]
|
||||||
|
pmullw m2, m6
|
||||||
|
paddw m2, m0
|
||||||
|
psraw m2, 5
|
||||||
|
packuswb m2, m2
|
||||||
|
pavgb m2, m3
|
||||||
|
op_%1h m2, [r0], m4
|
||||||
|
add r1, r3
|
||||||
|
add r0, r3
|
||||||
|
add r2, r4
|
||||||
|
dec r5d
|
||||||
|
jg .loop
|
||||||
|
REP_RET
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
INIT_XMM ssse3
|
||||||
|
QPEL8_H_LOWPASS_L2_OP_XMM put
|
||||||
|
QPEL8_H_LOWPASS_L2_OP_XMM avg
|
||||||
|
|
||||||
|
|
||||||
|
; All functions that call this are required to have function arguments of
|
||||||
|
; dst, src, dstStride, srcStride
|
||||||
|
%macro FILT_V 1
|
||||||
|
mova m6, m2
|
||||||
|
movh m5, [r1]
|
||||||
|
paddw m6, m3
|
||||||
|
psllw m6, 2
|
||||||
|
psubw m6, m1
|
||||||
|
psubw m6, m4
|
||||||
|
punpcklbw m5, m7
|
||||||
|
pmullw m6, [pw_5]
|
||||||
|
paddw m0, [pw_16]
|
||||||
|
add r1, r3
|
||||||
|
paddw m0, m5
|
||||||
|
paddw m6, m0
|
||||||
|
psraw m6, 5
|
||||||
|
packuswb m6, m6
|
||||||
|
op_%1h m6, [r0], m0 ; 1
|
||||||
|
add r0, r2
|
||||||
|
SWAP 0, 1, 2, 3, 4, 5
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
%macro QPEL4_V_LOWPASS_OP 1
|
||||||
|
cglobal %1_h264_qpel4_v_lowpass, 4,4 ; dst, src, dstStride, srcStride
|
||||||
|
movsxdifnidn r2, r2d
|
||||||
|
movsxdifnidn r3, r3d
|
||||||
|
sub r1, r3
|
||||||
|
sub r1, r3
|
||||||
|
pxor m7, m7
|
||||||
|
movh m0, [r1]
|
||||||
|
movh m1, [r1+r3]
|
||||||
|
lea r1, [r1+2*r3]
|
||||||
|
movh m2, [r1]
|
||||||
|
movh m3, [r1+r3]
|
||||||
|
lea r1, [r1+2*r3]
|
||||||
|
movh m4, [r1]
|
||||||
|
add r1, r3
|
||||||
|
punpcklbw m0, m7
|
||||||
|
punpcklbw m1, m7
|
||||||
|
punpcklbw m2, m7
|
||||||
|
punpcklbw m3, m7
|
||||||
|
punpcklbw m4, m7
|
||||||
|
FILT_V %1
|
||||||
|
FILT_V %1
|
||||||
|
FILT_V %1
|
||||||
|
FILT_V %1
|
||||||
|
RET
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
INIT_MMX mmxext
|
||||||
|
QPEL4_V_LOWPASS_OP put
|
||||||
|
QPEL4_V_LOWPASS_OP avg
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
|
%macro QPEL8OR16_V_LOWPASS_OP 1
|
||||||
|
%if cpuflag(sse2)
|
||||||
|
cglobal %1_h264_qpel8or16_v_lowpass, 5,5,7 ; dst, src, dstStride, srcStride, h
|
||||||
|
movsxdifnidn r2, r2d
|
||||||
|
movsxdifnidn r3, r3d
|
||||||
|
sub r1, r3
|
||||||
|
sub r1, r3
|
||||||
|
%else
|
||||||
|
cglobal %1_h264_qpel8or16_v_lowpass_op, 5,5,7 ; dst, src, dstStride, srcStride, h
|
||||||
|
movsxdifnidn r2, r2d
|
||||||
|
movsxdifnidn r3, r3d
|
||||||
|
%endif
|
||||||
|
pxor m7, m7
|
||||||
|
movh m0, [r1]
|
||||||
|
movh m1, [r1+r3]
|
||||||
|
lea r1, [r1+2*r3]
|
||||||
|
movh m2, [r1]
|
||||||
|
movh m3, [r1+r3]
|
||||||
|
lea r1, [r1+2*r3]
|
||||||
|
movh m4, [r1]
|
||||||
|
add r1, r3
|
||||||
|
punpcklbw m0, m7
|
||||||
|
punpcklbw m1, m7
|
||||||
|
punpcklbw m2, m7
|
||||||
|
punpcklbw m3, m7
|
||||||
|
punpcklbw m4, m7
|
||||||
|
FILT_V %1
|
||||||
|
FILT_V %1
|
||||||
|
FILT_V %1
|
||||||
|
FILT_V %1
|
||||||
|
FILT_V %1
|
||||||
|
FILT_V %1
|
||||||
|
FILT_V %1
|
||||||
|
FILT_V %1
|
||||||
|
cmp r4d, 16
|
||||||
|
jne .end
|
||||||
|
FILT_V %1
|
||||||
|
FILT_V %1
|
||||||
|
FILT_V %1
|
||||||
|
FILT_V %1
|
||||||
|
FILT_V %1
|
||||||
|
FILT_V %1
|
||||||
|
FILT_V %1
|
||||||
|
FILT_V %1
|
||||||
|
.end:
|
||||||
|
REP_RET
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
INIT_MMX mmxext
|
||||||
|
QPEL8OR16_V_LOWPASS_OP put
|
||||||
|
QPEL8OR16_V_LOWPASS_OP avg
|
||||||
|
|
||||||
|
INIT_XMM sse2
|
||||||
|
QPEL8OR16_V_LOWPASS_OP put
|
||||||
|
QPEL8OR16_V_LOWPASS_OP avg
|
||||||
|
|
||||||
|
|
||||||
|
; All functions that use this are required to have args:
|
||||||
|
; src, tmp, srcSize
|
||||||
|
%macro FILT_HV 1 ; offset
|
||||||
|
mova m6, m2
|
||||||
|
movh m5, [r0]
|
||||||
|
paddw m6, m3
|
||||||
|
psllw m6, 2
|
||||||
|
paddw m0, [pw_16]
|
||||||
|
psubw m6, m1
|
||||||
|
psubw m6, m4
|
||||||
|
punpcklbw m5, m7
|
||||||
|
pmullw m6, [pw_5]
|
||||||
|
paddw m0, m5
|
||||||
|
add r0, r2
|
||||||
|
paddw m6, m0
|
||||||
|
mova [r1+%1], m6
|
||||||
|
SWAP 0, 1, 2, 3, 4, 5
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
%macro QPEL4_HV1_LOWPASS_OP 1
|
||||||
|
cglobal %1_h264_qpel4_hv_lowpass_v, 3,3 ; src, tmp, srcStride
|
||||||
|
movsxdifnidn r2, r2d
|
||||||
|
pxor m7, m7
|
||||||
|
movh m0, [r0]
|
||||||
|
movh m1, [r0+r2]
|
||||||
|
lea r0, [r0+2*r2]
|
||||||
|
movh m2, [r0]
|
||||||
|
movh m3, [r0+r2]
|
||||||
|
lea r0, [r0+2*r2]
|
||||||
|
movh m4, [r0]
|
||||||
|
add r0, r2
|
||||||
|
punpcklbw m0, m7
|
||||||
|
punpcklbw m1, m7
|
||||||
|
punpcklbw m2, m7
|
||||||
|
punpcklbw m3, m7
|
||||||
|
punpcklbw m4, m7
|
||||||
|
FILT_HV 0*24
|
||||||
|
FILT_HV 1*24
|
||||||
|
FILT_HV 2*24
|
||||||
|
FILT_HV 3*24
|
||||||
|
RET
|
||||||
|
|
||||||
|
cglobal %1_h264_qpel4_hv_lowpass_h, 3,4 ; tmp, dst, dstStride
|
||||||
|
movsxdifnidn r2, r2d
|
||||||
|
mov r3d, 4
|
||||||
|
.loop:
|
||||||
|
mova m0, [r0]
|
||||||
|
paddw m0, [r0+10]
|
||||||
|
mova m1, [r0+2]
|
||||||
|
paddw m1, [r0+8]
|
||||||
|
mova m2, [r0+4]
|
||||||
|
paddw m2, [r0+6]
|
||||||
|
psubw m0, m1
|
||||||
|
psraw m0, 2
|
||||||
|
psubw m0, m1
|
||||||
|
paddsw m0, m2
|
||||||
|
psraw m0, 2
|
||||||
|
paddw m0, m2
|
||||||
|
psraw m0, 6
|
||||||
|
packuswb m0, m0
|
||||||
|
op_%1h m0, [r1], m7
|
||||||
|
add r0, 24
|
||||||
|
add r1, r2
|
||||||
|
dec r3d
|
||||||
|
jnz .loop
|
||||||
|
REP_RET
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
INIT_MMX mmxext
|
||||||
|
QPEL4_HV1_LOWPASS_OP put
|
||||||
|
QPEL4_HV1_LOWPASS_OP avg
|
||||||
|
|
||||||
|
%macro QPEL8OR16_HV1_LOWPASS_OP 1
|
||||||
|
cglobal %1_h264_qpel8or16_hv1_lowpass_op, 4,4,7 ; src, tmp, srcStride, size
|
||||||
|
movsxdifnidn r2, r2d
|
||||||
|
pxor m7, m7
|
||||||
|
movh m0, [r0]
|
||||||
|
movh m1, [r0+r2]
|
||||||
|
lea r0, [r0+2*r2]
|
||||||
|
movh m2, [r0]
|
||||||
|
movh m3, [r0+r2]
|
||||||
|
lea r0, [r0+2*r2]
|
||||||
|
movh m4, [r0]
|
||||||
|
add r0, r2
|
||||||
|
punpcklbw m0, m7
|
||||||
|
punpcklbw m1, m7
|
||||||
|
punpcklbw m2, m7
|
||||||
|
punpcklbw m3, m7
|
||||||
|
punpcklbw m4, m7
|
||||||
|
FILT_HV 0*48
|
||||||
|
FILT_HV 1*48
|
||||||
|
FILT_HV 2*48
|
||||||
|
FILT_HV 3*48
|
||||||
|
FILT_HV 4*48
|
||||||
|
FILT_HV 5*48
|
||||||
|
FILT_HV 6*48
|
||||||
|
FILT_HV 7*48
|
||||||
|
cmp r3d, 16
|
||||||
|
jne .end
|
||||||
|
FILT_HV 8*48
|
||||||
|
FILT_HV 9*48
|
||||||
|
FILT_HV 10*48
|
||||||
|
FILT_HV 11*48
|
||||||
|
FILT_HV 12*48
|
||||||
|
FILT_HV 13*48
|
||||||
|
FILT_HV 14*48
|
||||||
|
FILT_HV 15*48
|
||||||
|
.end:
|
||||||
|
REP_RET
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
INIT_MMX mmxext
|
||||||
|
QPEL8OR16_HV1_LOWPASS_OP put
|
||||||
|
QPEL8OR16_HV1_LOWPASS_OP avg
|
||||||
|
|
||||||
|
INIT_XMM sse2
|
||||||
|
QPEL8OR16_HV1_LOWPASS_OP put
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
|
%macro QPEL8OR16_HV2_LOWPASS_OP 1
|
||||||
|
; unused is to match ssse3 and mmxext args
|
||||||
|
cglobal %1_h264_qpel8or16_hv2_lowpass_op, 5,5 ; dst, tmp, dstStride, unused, h
|
||||||
|
movsxdifnidn r2, r2d
|
||||||
|
.loop:
|
||||||
|
mova m0, [r1]
|
||||||
|
mova m3, [r1+8]
|
||||||
|
mova m1, [r1+2]
|
||||||
|
mova m4, [r1+10]
|
||||||
|
paddw m0, m4
|
||||||
|
paddw m1, m3
|
||||||
|
paddw m3, [r1+18]
|
||||||
|
paddw m4, [r1+16]
|
||||||
|
mova m2, [r1+4]
|
||||||
|
mova m5, [r1+12]
|
||||||
|
paddw m2, [r1+6]
|
||||||
|
paddw m5, [r1+14]
|
||||||
|
psubw m0, m1
|
||||||
|
psubw m3, m4
|
||||||
|
psraw m0, 2
|
||||||
|
psraw m3, 2
|
||||||
|
psubw m0, m1
|
||||||
|
psubw m3, m4
|
||||||
|
paddsw m0, m2
|
||||||
|
paddsw m3, m5
|
||||||
|
psraw m0, 2
|
||||||
|
psraw m3, 2
|
||||||
|
paddw m0, m2
|
||||||
|
paddw m3, m5
|
||||||
|
psraw m0, 6
|
||||||
|
psraw m3, 6
|
||||||
|
packuswb m0, m3
|
||||||
|
op_%1 m0, [r0], m7
|
||||||
|
add r1, 48
|
||||||
|
add r0, r2
|
||||||
|
dec r4d
|
||||||
|
jne .loop
|
||||||
|
REP_RET
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
INIT_MMX mmxext
|
||||||
|
QPEL8OR16_HV2_LOWPASS_OP put
|
||||||
|
QPEL8OR16_HV2_LOWPASS_OP avg
|
||||||
|
|
||||||
|
%macro QPEL8OR16_HV2_LOWPASS_OP_XMM 1
|
||||||
|
cglobal %1_h264_qpel8or16_hv2_lowpass, 5,5,7 ; dst, tmp, dstStride, tmpStride, size
|
||||||
|
movsxdifnidn r2, r2d
|
||||||
|
movsxdifnidn r3, r3d
|
||||||
|
cmp r4d, 16
|
||||||
|
je .op16
|
||||||
|
.loop8:
|
||||||
|
mova m1, [r1+16]
|
||||||
|
mova m0, [r1]
|
||||||
|
mova m2, m1
|
||||||
|
mova m3, m1
|
||||||
|
mova m4, m1
|
||||||
|
mova m5, m1
|
||||||
|
palignr m5, m0, 10
|
||||||
|
palignr m4, m0, 8
|
||||||
|
palignr m3, m0, 6
|
||||||
|
palignr m2, m0, 4
|
||||||
|
palignr m1, m0, 2
|
||||||
|
paddw m0, m5
|
||||||
|
paddw m1, m4
|
||||||
|
paddw m2, m3
|
||||||
|
psubw m0, m1
|
||||||
|
psraw m0, 2
|
||||||
|
psubw m0, m1
|
||||||
|
paddw m0, m2
|
||||||
|
psraw m0, 2
|
||||||
|
paddw m0, m2
|
||||||
|
psraw m0, 6
|
||||||
|
packuswb m0, m0
|
||||||
|
op_%1h m0, [r0], m7
|
||||||
|
add r1, 48
|
||||||
|
add r0, r2
|
||||||
|
dec r4d
|
||||||
|
jne .loop8
|
||||||
|
jmp .done
|
||||||
|
.op16:
|
||||||
|
mova m4, [r1+32]
|
||||||
|
mova m5, [r1+16]
|
||||||
|
mova m7, [r1]
|
||||||
|
mova m3, m4
|
||||||
|
mova m2, m4
|
||||||
|
mova m1, m4
|
||||||
|
mova m0, m4
|
||||||
|
palignr m0, m5, 10
|
||||||
|
palignr m1, m5, 8
|
||||||
|
palignr m2, m5, 6
|
||||||
|
palignr m3, m5, 4
|
||||||
|
palignr m4, m5, 2
|
||||||
|
paddw m0, m5
|
||||||
|
paddw m1, m4
|
||||||
|
paddw m2, m3
|
||||||
|
mova m6, m5
|
||||||
|
mova m4, m5
|
||||||
|
mova m3, m5
|
||||||
|
palignr m4, m7, 8
|
||||||
|
palignr m6, m7, 2
|
||||||
|
palignr m3, m7, 10
|
||||||
|
paddw m4, m6
|
||||||
|
mova m6, m5
|
||||||
|
palignr m5, m7, 6
|
||||||
|
palignr m6, m7, 4
|
||||||
|
paddw m3, m7
|
||||||
|
paddw m5, m6
|
||||||
|
psubw m0, m1
|
||||||
|
psubw m3, m4
|
||||||
|
psraw m0, 2
|
||||||
|
psraw m3, 2
|
||||||
|
psubw m0, m1
|
||||||
|
psubw m3, m4
|
||||||
|
paddw m0, m2
|
||||||
|
paddw m3, m5
|
||||||
|
psraw m0, 2
|
||||||
|
psraw m3, 2
|
||||||
|
paddw m0, m2
|
||||||
|
paddw m3, m5
|
||||||
|
psraw m0, 6
|
||||||
|
psraw m3, 6
|
||||||
|
packuswb m3, m0
|
||||||
|
op_%1 m3, [r0], m7
|
||||||
|
add r1, 48
|
||||||
|
add r0, r2
|
||||||
|
dec r4d
|
||||||
|
jne .op16
|
||||||
|
.done:
|
||||||
|
REP_RET
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
INIT_XMM ssse3
|
||||||
|
QPEL8OR16_HV2_LOWPASS_OP_XMM put
|
||||||
|
QPEL8OR16_HV2_LOWPASS_OP_XMM avg
|
||||||
|
|
||||||
|
|
||||||
|
%macro PIXELS4_L2_SHIFT5 1
|
||||||
|
cglobal %1_pixels4_l2_shift5,6,6 ; dst, src16, src8, dstStride, src8Stride, h
|
||||||
|
movsxdifnidn r3, r3d
|
||||||
|
movsxdifnidn r4, r4d
|
||||||
|
mova m0, [r1]
|
||||||
|
mova m1, [r1+24]
|
||||||
|
psraw m0, 5
|
||||||
|
psraw m1, 5
|
||||||
|
packuswb m0, m0
|
||||||
|
packuswb m1, m1
|
||||||
|
pavgb m0, [r2]
|
||||||
|
pavgb m1, [r2+r4]
|
||||||
|
op_%1h m0, [r0], m4
|
||||||
|
op_%1h m1, [r0+r3], m5
|
||||||
|
lea r2, [r2+r4*2]
|
||||||
|
lea r0, [r0+r3*2]
|
||||||
|
mova m0, [r1+48]
|
||||||
|
mova m1, [r1+72]
|
||||||
|
psraw m0, 5
|
||||||
|
psraw m1, 5
|
||||||
|
packuswb m0, m0
|
||||||
|
packuswb m1, m1
|
||||||
|
pavgb m0, [r2]
|
||||||
|
pavgb m1, [r2+r4]
|
||||||
|
op_%1h m0, [r0], m4
|
||||||
|
op_%1h m1, [r0+r3], m5
|
||||||
|
RET
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
INIT_MMX mmxext
|
||||||
|
PIXELS4_L2_SHIFT5 put
|
||||||
|
PIXELS4_L2_SHIFT5 avg
|
||||||
|
|
||||||
|
|
||||||
|
%macro PIXELS8_L2_SHIFT5 1
|
||||||
|
cglobal %1_pixels8_l2_shift5, 6, 6 ; dst, src16, src8, dstStride, src8Stride, h
|
||||||
|
movsxdifnidn r3, r3d
|
||||||
|
movsxdifnidn r4, r4d
|
||||||
|
.loop:
|
||||||
|
mova m0, [r1]
|
||||||
|
mova m1, [r1+8]
|
||||||
|
mova m2, [r1+48]
|
||||||
|
mova m3, [r1+48+8]
|
||||||
|
psraw m0, 5
|
||||||
|
psraw m1, 5
|
||||||
|
psraw m2, 5
|
||||||
|
psraw m3, 5
|
||||||
|
packuswb m0, m1
|
||||||
|
packuswb m2, m3
|
||||||
|
pavgb m0, [r2]
|
||||||
|
pavgb m2, [r2+r4]
|
||||||
|
op_%1 m0, [r0], m4
|
||||||
|
op_%1 m2, [r0+r3], m5
|
||||||
|
lea r2, [r2+2*r4]
|
||||||
|
add r1, 48*2
|
||||||
|
lea r0, [r0+2*r3]
|
||||||
|
sub r5d, 2
|
||||||
|
jne .loop
|
||||||
|
REP_RET
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
INIT_MMX mmxext
|
||||||
|
PIXELS8_L2_SHIFT5 put
|
||||||
|
PIXELS8_L2_SHIFT5 avg
|
||||||
|
|
||||||
|
|
||||||
|
%if ARCH_X86_64
|
||||||
|
%macro QPEL16_H_LOWPASS_L2_OP 1
|
||||||
|
cglobal %1_h264_qpel16_h_lowpass_l2, 5, 6, 16 ; dst, src, src2, dstStride, src2Stride
|
||||||
|
movsxdifnidn r3, r3d
|
||||||
|
movsxdifnidn r4, r4d
|
||||||
|
mov r5d, 16
|
||||||
|
pxor m15, m15
|
||||||
|
mova m14, [pw_5]
|
||||||
|
mova m13, [pw_16]
|
||||||
|
.loop:
|
||||||
|
lddqu m1, [r1+6]
|
||||||
|
lddqu m7, [r1-2]
|
||||||
|
mova m0, m1
|
||||||
|
punpckhbw m1, m15
|
||||||
|
punpcklbw m0, m15
|
||||||
|
punpcklbw m7, m15
|
||||||
|
mova m2, m1
|
||||||
|
mova m6, m0
|
||||||
|
mova m3, m1
|
||||||
|
mova m8, m0
|
||||||
|
mova m4, m1
|
||||||
|
mova m9, m0
|
||||||
|
mova m12, m0
|
||||||
|
mova m11, m1
|
||||||
|
palignr m11, m0, 10
|
||||||
|
palignr m12, m7, 10
|
||||||
|
palignr m4, m0, 2
|
||||||
|
palignr m9, m7, 2
|
||||||
|
palignr m3, m0, 4
|
||||||
|
palignr m8, m7, 4
|
||||||
|
palignr m2, m0, 6
|
||||||
|
palignr m6, m7, 6
|
||||||
|
paddw m11, m0
|
||||||
|
palignr m1, m0, 8
|
||||||
|
palignr m0, m7, 8
|
||||||
|
paddw m7, m12
|
||||||
|
paddw m2, m3
|
||||||
|
paddw m6, m8
|
||||||
|
paddw m1, m4
|
||||||
|
paddw m0, m9
|
||||||
|
psllw m2, 2
|
||||||
|
psllw m6, 2
|
||||||
|
psubw m2, m1
|
||||||
|
psubw m6, m0
|
||||||
|
paddw m11, m13
|
||||||
|
paddw m7, m13
|
||||||
|
pmullw m2, m14
|
||||||
|
pmullw m6, m14
|
||||||
|
lddqu m3, [r2]
|
||||||
|
paddw m2, m11
|
||||||
|
paddw m6, m7
|
||||||
|
psraw m2, 5
|
||||||
|
psraw m6, 5
|
||||||
|
packuswb m6, m2
|
||||||
|
pavgb m6, m3
|
||||||
|
op_%1 m6, [r0], m11
|
||||||
|
add r1, r3
|
||||||
|
add r0, r3
|
||||||
|
add r2, r4
|
||||||
|
dec r5d
|
||||||
|
jg .loop
|
||||||
|
REP_RET
|
||||||
|
%endmacro
|
||||||
|
|
||||||
|
INIT_XMM ssse3
|
||||||
|
QPEL16_H_LOWPASS_L2_OP put
|
||||||
|
QPEL16_H_LOWPASS_L2_OP avg
|
||||||
|
%endif
|
Reference in New Issue
Block a user