| # Check instructions with optimized encoding |
| |
| .allow_index_reg |
| .text |
| _start: |
| vandnpd %zmm1, %zmm1, %zmm5{%k7} |
| vandnpd %ymm1, %ymm1, %ymm5 {%k7} {z} |
| vandnpd %zmm1, %zmm1, %zmm5 |
| vandnpd %ymm1, %ymm1, %ymm5 |
| |
| vandnps %zmm1, %zmm1, %zmm5{%k7} |
| vandnps %ymm1, %ymm1, %ymm5{z}{%k7} |
| vandnps %zmm1, %zmm1, %zmm5 |
| vandnps %ymm1, %ymm1, %ymm5 |
| |
| vpandn %ymm1, %ymm1, %ymm5 |
| |
| vpandnd %zmm1, %zmm1, %zmm5{%k7} |
| vpandnd %ymm1, %ymm1, %ymm5{z}{%k7} |
| vpandnd %zmm1, %zmm1, %zmm5 |
| vpandnd %ymm1, %ymm1, %ymm5 |
| |
| vpandnq %zmm1, %zmm1, %zmm5{%k7} |
| vpandnq %ymm1, %ymm1, %ymm5{z}{%k7} |
| vpandnq %zmm1, %zmm1, %zmm5 |
| vpandnq %ymm1, %ymm1, %ymm5 |
| |
| vxorpd %zmm1, %zmm1, %zmm5{%k7} |
| vxorpd %ymm1, %ymm1, %ymm5{z}{%k7} |
| vxorpd %zmm1, %zmm1, %zmm5 |
| vxorpd %ymm1, %ymm1, %ymm5 |
| |
| vxorps %zmm1, %zmm1, %zmm5{%k7} |
| vxorps %ymm1, %ymm1, %ymm5{z}{%k7} |
| vxorps %zmm1, %zmm1, %zmm5 |
| vxorps %ymm1, %ymm1, %ymm5 |
| |
| vpxor %ymm1, %ymm1, %ymm5 |
| |
| vpxord %zmm1, %zmm1, %zmm5{%k7} |
| vpxord %ymm1, %ymm1, %ymm5{z}{%k7} |
| vpxord %zmm1, %zmm1, %zmm5 |
| vpxord %ymm1, %ymm1, %ymm5 |
| |
| vpxorq %zmm1, %zmm1, %zmm5{%k7} |
| vpxorq %ymm1, %ymm1, %ymm5{z}{%k7} |
| vpxorq %zmm1, %zmm1, %zmm5 |
| vpxorq %ymm1, %ymm1, %ymm5 |
| |
| vpsubb %zmm1, %zmm1, %zmm5{%k7} |
| vpsubb %ymm1, %ymm1, %ymm5{z}{%k7} |
| vpsubb %zmm1, %zmm1, %zmm5 |
| vpsubb %ymm1, %ymm1, %ymm5 |
| |
| vpsubw %zmm1, %zmm1, %zmm5{%k7} |
| vpsubw %ymm1, %ymm1, %ymm5{z}{%k7} |
| vpsubw %zmm1, %zmm1, %zmm5 |
| vpsubw %ymm1, %ymm1, %ymm5 |
| |
| vpsubd %zmm1, %zmm1, %zmm5{%k7} |
| vpsubd %ymm1, %ymm1, %ymm5{z}{%k7} |
| vpsubd %zmm1, %zmm1, %zmm5 |
| vpsubd %ymm1, %ymm1, %ymm5 |
| |
| vpsubq %zmm1, %zmm1, %zmm5{%k7} |
| vpsubq %ymm1, %ymm1, %ymm5{z}{%k7} |
| vpsubq %zmm1, %zmm1, %zmm5 |
| vpsubq %ymm1, %ymm1, %ymm5 |
| |
| kxord %k1, %k1, %k5 |
| kxorq %k1, %k1, %k5 |
| |
| kandnd %k1, %k1, %k5 |
| kandnq %k1, %k1, %k5 |
| |
| vmovdqa32 %xmm1, %xmm2 |
| vmovdqa64 %xmm1, %xmm2 |
| vmovdqu8 %xmm1, %xmm2 |
| vmovdqu16 %xmm1, %xmm2 |
| vmovdqu32 %xmm1, %xmm2 |
| vmovdqu64 %xmm1, %xmm2 |
| |
| vmovdqa32 127(%eax), %xmm2 |
| vmovdqa64 127(%eax), %xmm2 |
| vmovdqu8 127(%eax), %xmm2 |
| vmovdqu16 127(%eax), %xmm2 |
| vmovdqu32 127(%eax), %xmm2 |
| vmovdqu64 127(%eax), %xmm2 |
| |
| vmovdqa32 %xmm1, 128(%eax) |
| vmovdqa64 %xmm1, 128(%eax) |
| vmovdqu8 %xmm1, 128(%eax) |
| vmovdqu16 %xmm1, 128(%eax) |
| vmovdqu32 %xmm1, 128(%eax) |
| vmovdqu64 %xmm1, 128(%eax) |
| |
| vmovdqa32 %ymm1, %ymm2 |
| vmovdqa64 %ymm1, %ymm2 |
| vmovdqu8 %ymm1, %ymm2 |
| vmovdqu16 %ymm1, %ymm2 |
| vmovdqu32 %ymm1, %ymm2 |
| vmovdqu64 %ymm1, %ymm2 |
| |
| vmovdqa32 127(%eax), %ymm2 |
| vmovdqa64 127(%eax), %ymm2 |
| vmovdqu8 127(%eax), %ymm2 |
| vmovdqu16 127(%eax), %ymm2 |
| vmovdqu32 127(%eax), %ymm2 |
| vmovdqu64 127(%eax), %ymm2 |
| |
| vmovdqa32 %ymm1, 128(%eax) |
| vmovdqa64 %ymm1, 128(%eax) |
| vmovdqu8 %ymm1, 128(%eax) |
| vmovdqu16 %ymm1, 128(%eax) |
| vmovdqu32 %ymm1, 128(%eax) |
| vmovdqu64 %ymm1, 128(%eax) |
| |
| vmovdqa32 (%eax), %zmm2 |
| |
| vpandd %xmm2, %xmm3, %xmm4 |
| vpandq %xmm2, %xmm3, %xmm4 |
| vpandnd %xmm2, %xmm3, %xmm4 |
| vpandnq %xmm2, %xmm3, %xmm4 |
| vpord %xmm2, %xmm3, %xmm4 |
| vporq %xmm2, %xmm3, %xmm4 |
| vpxord %xmm2, %xmm3, %xmm4 |
| vpxorq %xmm2, %xmm3, %xmm4 |
| |
| vpandd %ymm2, %ymm3, %ymm4 |
| vpandq %ymm2, %ymm3, %ymm4 |
| vpandnd %ymm2, %ymm3, %ymm4 |
| vpandnq %ymm2, %ymm3, %ymm4 |
| vpord %ymm2, %ymm3, %ymm4 |
| vporq %ymm2, %ymm3, %ymm4 |
| vpxord %ymm2, %ymm3, %ymm4 |
| vpxorq %ymm2, %ymm3, %ymm4 |
| |
| vpandd 112(%eax), %xmm2, %xmm3 |
| vpandq 112(%eax), %xmm2, %xmm3 |
| vpandnd 112(%eax), %xmm2, %xmm3 |
| vpandnq 112(%eax), %xmm2, %xmm3 |
| vpord 112(%eax), %xmm2, %xmm3 |
| vporq 112(%eax), %xmm2, %xmm3 |
| vpxord 112(%eax), %xmm2, %xmm3 |
| vpxorq 112(%eax), %xmm2, %xmm3 |
| |
| vpandd 128(%eax), %xmm2, %xmm3 |
| vpandq 128(%eax), %xmm2, %xmm3 |
| vpandnd 128(%eax), %xmm2, %xmm3 |
| vpandnq 128(%eax), %xmm2, %xmm3 |
| vpord 128(%eax), %xmm2, %xmm3 |
| vporq 128(%eax), %xmm2, %xmm3 |
| vpxord 128(%eax), %xmm2, %xmm3 |
| vpxorq 128(%eax), %xmm2, %xmm3 |
| |
| vpandd 96(%eax), %ymm2, %ymm3 |
| vpandq 96(%eax), %ymm2, %ymm3 |
| vpandnd 96(%eax), %ymm2, %ymm3 |
| vpandnq 96(%eax), %ymm2, %ymm3 |
| vpord 96(%eax), %ymm2, %ymm3 |
| vporq 96(%eax), %ymm2, %ymm3 |
| vpxord 96(%eax), %ymm2, %ymm3 |
| vpxorq 96(%eax), %ymm2, %ymm3 |
| |
| vpandd 128(%eax), %ymm2, %ymm3 |
| vpandq 128(%eax), %ymm2, %ymm3 |
| vpandnd 128(%eax), %ymm2, %ymm3 |
| vpandnq 128(%eax), %ymm2, %ymm3 |
| vpord 128(%eax), %ymm2, %ymm3 |
| vporq 128(%eax), %ymm2, %ymm3 |
| vpxord 128(%eax), %ymm2, %ymm3 |
| vpxorq 128(%eax), %ymm2, %ymm3 |