blob: 0ad973cd07fe51ae01eda8d6fa9fe7eb9dc7451a [file] [log] [blame]
# Check instructions with optimized encoding
.allow_index_reg
.text
_start:
testl $0x7f, %eax
testw $0x7f, %ax
testb $0x7f, %al
test $0x7f, %ebx
test $0x7f, %bx
test $0x7f, %bl
test $0x7f, %edi
test $0x7f, %di
and %cl, %cl
and %dx, %dx
and %ebx, %ebx
or %ah, %ah
or %bp, %bp
or %esi, %esi
vandnpd %zmm1, %zmm1, %zmm5
vmovdqa32 %xmm1, %xmm2
vmovdqa64 %xmm1, %xmm2
vmovdqu8 %xmm1, %xmm2
vmovdqu16 %xmm1, %xmm2
vmovdqu32 %xmm1, %xmm2
vmovdqu64 %xmm1, %xmm2
vmovdqa32 127(%eax), %xmm2
vmovdqa64 127(%eax), %xmm2
vmovdqu8 127(%eax), %xmm2
vmovdqu16 127(%eax), %xmm2
vmovdqu32 127(%eax), %xmm2
vmovdqu64 127(%eax), %xmm2
vmovdqa32 %xmm1, 128(%eax)
vmovdqa64 %xmm1, 128(%eax)
vmovdqu8 %xmm1, 128(%eax)
vmovdqu16 %xmm1, 128(%eax)
vmovdqu32 %xmm1, 128(%eax)
vmovdqu64 %xmm1, 128(%eax)
vmovdqa32 %ymm1, %ymm2
vmovdqa64 %ymm1, %ymm2
vmovdqu8 %ymm1, %ymm2
vmovdqu16 %ymm1, %ymm2
vmovdqu32 %ymm1, %ymm2
vmovdqu64 %ymm1, %ymm2
vmovdqa32 127(%eax), %ymm2
vmovdqa64 127(%eax), %ymm2
vmovdqu8 127(%eax), %ymm2
vmovdqu16 127(%eax), %ymm2
vmovdqu32 127(%eax), %ymm2
vmovdqu64 127(%eax), %ymm2
vmovdqa32 %ymm1, 128(%eax)
vmovdqa64 %ymm1, 128(%eax)
vmovdqu8 %ymm1, 128(%eax)
vmovdqu16 %ymm1, 128(%eax)
vmovdqu32 %ymm1, 128(%eax)
vmovdqu64 %ymm1, 128(%eax)
vmovdqa32 %zmm1, %zmm2
vmovdqa64 %zmm1, %zmm2
vmovdqu8 %zmm1, %zmm2
vmovdqu16 %zmm1, %zmm2
vmovdqu32 %zmm1, %zmm2
vmovdqu64 %zmm1, %zmm2
{evex} vmovdqa32 %ymm1, %ymm2
{evex} vmovdqa64 %ymm1, %ymm2
{evex} vmovdqu8 %xmm1, %xmm2
{evex} vmovdqu16 %xmm1, %xmm2
{evex} vmovdqu32 %xmm1, %xmm2
{evex} vmovdqu64 %xmm1, %xmm2
vmovdqa32 %ymm1, %ymm2{%k1}
vmovdqa64 %ymm1, %ymm2{%k1}
vmovdqu8 %xmm1, %xmm2{%k1}
vmovdqu16 %xmm1, %xmm2{%k1}
vmovdqu32 %xmm1, %xmm2{%k1}
vmovdqu64 %xmm1, %xmm2{%k1}
vmovdqa32 (%eax), %ymm2{%k1}
vmovdqa64 (%eax), %ymm2{%k1}
vmovdqu8 (%eax), %xmm2{%k1}
vmovdqu16 (%eax), %xmm2{%k1}
vmovdqu32 (%eax), %xmm2{%k1}
vmovdqu64 (%eax), %xmm2{%k1}
vmovdqa32 %ymm1, (%eax){%k1}
vmovdqa64 %ymm1, (%eax){%k1}
vmovdqu8 %xmm1, (%eax){%k1}
vmovdqu16 %xmm1, (%eax){%k1}
vmovdqu32 %xmm1, (%eax){%k1}
vmovdqu64 %xmm1, (%eax){%k1}
vmovdqa32 %xmm1, %xmm2{%k1}{z}
vmovdqa64 %xmm1, %xmm2{%k1}{z}
vmovdqu8 %xmm1, %xmm2{%k1}{z}
vmovdqu16 %xmm1, %xmm2{%k1}{z}
vmovdqu32 %xmm1, %xmm2{%k1}{z}
vmovdqu64 %xmm1, %xmm2{%k1}{z}
vpandd %xmm2, %xmm3, %xmm4
vpandq %xmm2, %xmm3, %xmm4
vpandnd %xmm2, %xmm3, %xmm4
vpandnq %xmm2, %xmm3, %xmm4
vpord %xmm2, %xmm3, %xmm4
vporq %xmm2, %xmm3, %xmm4
vpxord %xmm2, %xmm3, %xmm4
vpxorq %xmm2, %xmm3, %xmm4
vpandd %ymm2, %ymm3, %ymm4
vpandq %ymm2, %ymm3, %ymm4
vpandnd %ymm2, %ymm3, %ymm4
vpandnq %ymm2, %ymm3, %ymm4
vpord %ymm2, %ymm3, %ymm4
vporq %ymm2, %ymm3, %ymm4
vpxord %ymm2, %ymm3, %ymm4
vpxorq %ymm2, %ymm3, %ymm4
vpandd 112(%eax), %xmm2, %xmm3
vpandq 112(%eax), %xmm2, %xmm3
vpandnd 112(%eax), %xmm2, %xmm3
vpandnq 112(%eax), %xmm2, %xmm3
vpord 112(%eax), %xmm2, %xmm3
vporq 112(%eax), %xmm2, %xmm3
vpxord 112(%eax), %xmm2, %xmm3
vpxorq 112(%eax), %xmm2, %xmm3
vpandd 128(%eax), %xmm2, %xmm3
vpandq 128(%eax), %xmm2, %xmm3
vpandnd 128(%eax), %xmm2, %xmm3
vpandnq 128(%eax), %xmm2, %xmm3
vpord 128(%eax), %xmm2, %xmm3
vporq 128(%eax), %xmm2, %xmm3
vpxord 128(%eax), %xmm2, %xmm3
vpxorq 128(%eax), %xmm2, %xmm3
vpandd 96(%eax), %ymm2, %ymm3
vpandq 96(%eax), %ymm2, %ymm3
vpandnd 96(%eax), %ymm2, %ymm3
vpandnq 96(%eax), %ymm2, %ymm3
vpord 96(%eax), %ymm2, %ymm3
vporq 96(%eax), %ymm2, %ymm3
vpxord 96(%eax), %ymm2, %ymm3
vpxorq 96(%eax), %ymm2, %ymm3
vpandd 128(%eax), %ymm2, %ymm3
vpandq 128(%eax), %ymm2, %ymm3
vpandnd 128(%eax), %ymm2, %ymm3
vpandnq 128(%eax), %ymm2, %ymm3
vpord 128(%eax), %ymm2, %ymm3
vporq 128(%eax), %ymm2, %ymm3
vpxord 128(%eax), %ymm2, %ymm3
vpxorq 128(%eax), %ymm2, %ymm3
vpandd %xmm2, %xmm3, %xmm4{%k5}
vpandq %ymm2, %ymm3, %ymm4{%k5}
vpandnd %ymm2, %ymm3, %ymm4{%k5}
vpandnq %xmm2, %xmm3, %xmm4{%k5}
vpord %xmm2, %xmm3, %xmm4{%k5}
vporq %ymm2, %ymm3, %ymm4{%k5}
vpxord %ymm2, %ymm3, %ymm4{%k5}
vpxorq %xmm2, %xmm3, %xmm4{%k5}
vpandd (%eax){1to8}, %ymm2, %ymm3
vpandq (%eax){1to2}, %xmm2, %xmm3
vpandnd (%eax){1to4}, %xmm2, %xmm3
vpandnq (%eax){1to4}, %ymm2, %ymm3
vpord (%eax){1to8}, %ymm2, %ymm3
vporq (%eax){1to2}, %xmm2, %xmm3
vpxord (%eax){1to4}, %xmm2, %xmm3
vpxorq (%eax){1to4}, %ymm2, %ymm3