| # Check 64bit instructions with optimized encoding |
| |
| .allow_index_reg |
| .text |
| _start: |
| vandnpd %zmm1, %zmm1, %zmm15{%k7} |
| vandnpd %ymm1, %ymm1, %ymm15 {%k7} {z} |
| vandnpd %zmm1, %zmm1, %zmm15 |
| vandnpd %ymm1, %ymm1, %ymm15 |
| vandnpd %zmm1, %zmm1, %zmm16 |
| vandnpd %ymm1, %ymm1, %ymm16 |
| vandnpd %zmm17, %zmm17, %zmm1 |
| vandnpd %ymm17, %ymm17, %ymm1 |
| |
| vandnps %zmm1, %zmm1, %zmm15{%k7} |
| vandnps %ymm1, %ymm1, %ymm15{z}{%k7} |
| vandnps %zmm1, %zmm1, %zmm15 |
| vandnps %ymm1, %ymm1, %ymm15 |
| vandnps %zmm1, %zmm1, %zmm16 |
| vandnps %ymm1, %ymm1, %ymm16 |
| vandnps %zmm17, %zmm17, %zmm1 |
| vandnps %ymm17, %ymm17, %ymm1 |
| |
| vpandn %ymm1, %ymm1, %ymm15 |
| |
| vpandnd %zmm1, %zmm1, %zmm15{%k7} |
| vpandnd %ymm1, %ymm1, %ymm15{z}{%k7} |
| vpandnd %zmm1, %zmm1, %zmm15 |
| vpandnd %ymm1, %ymm1, %ymm15 |
| vpandnd %zmm1, %zmm1, %zmm16 |
| vpandnd %ymm1, %ymm1, %ymm16 |
| vpandnd %zmm17, %zmm17, %zmm1 |
| vpandnd %ymm17, %ymm17, %ymm1 |
| |
| vpandnq %zmm1, %zmm1, %zmm15{%k7} |
| vpandnq %ymm1, %ymm1, %ymm15{z}{%k7} |
| vpandnq %zmm1, %zmm1, %zmm15 |
| vpandnq %ymm1, %ymm1, %ymm15 |
| vpandnq %zmm1, %zmm1, %zmm16 |
| vpandnq %ymm1, %ymm1, %ymm16 |
| vpandnq %zmm17, %zmm17, %zmm1 |
| vpandnq %ymm17, %ymm17, %ymm1 |
| |
| vxorpd %zmm1, %zmm1, %zmm15{%k7} |
| vxorpd %ymm1, %ymm1, %ymm15{z}{%k7} |
| vxorpd %zmm1, %zmm1, %zmm15 |
| vxorpd %ymm1, %ymm1, %ymm15 |
| vxorpd %zmm1, %zmm1, %zmm16 |
| vxorpd %ymm1, %ymm1, %ymm16 |
| vxorpd %zmm17, %zmm17, %zmm1 |
| vxorpd %ymm17, %ymm17, %ymm1 |
| |
| vxorps %zmm1, %zmm1, %zmm15{%k7} |
| vxorps %ymm1, %ymm1, %ymm15{z}{%k7} |
| vxorps %zmm1, %zmm1, %zmm15 |
| vxorps %ymm1, %ymm1, %ymm15 |
| vxorps %zmm1, %zmm1, %zmm16 |
| vxorps %ymm1, %ymm1, %ymm16 |
| vxorps %zmm17, %zmm17, %zmm1 |
| vxorps %ymm17, %ymm17, %ymm1 |
| |
| vpxor %ymm1, %ymm1, %ymm15 |
| |
| vpxord %zmm1, %zmm1, %zmm15{%k7} |
| vpxord %ymm1, %ymm1, %ymm15{z}{%k7} |
| vpxord %zmm1, %zmm1, %zmm15 |
| vpxord %ymm1, %ymm1, %ymm15 |
| vpxord %zmm1, %zmm1, %zmm16 |
| vpxord %ymm1, %ymm1, %ymm16 |
| vpxord %zmm17, %zmm17, %zmm1 |
| vpxord %ymm17, %ymm17, %ymm1 |
| |
| vpxorq %zmm1, %zmm1, %zmm15{%k7} |
| vpxorq %ymm1, %ymm1, %ymm15{z}{%k7} |
| vpxorq %zmm1, %zmm1, %zmm15 |
| vpxorq %ymm1, %ymm1, %ymm15 |
| vpxorq %zmm1, %zmm1, %zmm16 |
| vpxorq %ymm1, %ymm1, %ymm16 |
| vpxorq %zmm17, %zmm17, %zmm1 |
| vpxorq %ymm17, %ymm17, %ymm1 |
| |
| vpsubb %zmm1, %zmm1, %zmm15{%k7} |
| vpsubb %ymm1, %ymm1, %ymm15{z}{%k7} |
| vpsubb %zmm1, %zmm1, %zmm15 |
| vpsubb %ymm1, %ymm1, %ymm15 |
| vpsubb %zmm1, %zmm1, %zmm16 |
| vpsubb %ymm1, %ymm1, %ymm16 |
| vpsubb %zmm17, %zmm17, %zmm1 |
| vpsubb %ymm17, %ymm17, %ymm1 |
| |
| vpsubw %zmm1, %zmm1, %zmm15{%k7} |
| vpsubw %ymm1, %ymm1, %ymm15{z}{%k7} |
| vpsubw %zmm1, %zmm1, %zmm15 |
| vpsubw %ymm1, %ymm1, %ymm15 |
| vpsubw %zmm1, %zmm1, %zmm16 |
| vpsubw %ymm1, %ymm1, %ymm16 |
| vpsubw %zmm17, %zmm17, %zmm1 |
| vpsubw %ymm17, %ymm17, %ymm1 |
| |
| vpsubd %zmm1, %zmm1, %zmm15{%k7} |
| vpsubd %ymm1, %ymm1, %ymm15{z}{%k7} |
| vpsubd %zmm1, %zmm1, %zmm15 |
| vpsubd %ymm1, %ymm1, %ymm15 |
| vpsubd %zmm1, %zmm1, %zmm16 |
| vpsubd %ymm1, %ymm1, %ymm16 |
| vpsubd %zmm17, %zmm17, %zmm1 |
| vpsubd %ymm17, %ymm17, %ymm1 |
| |
| vpsubq %zmm1, %zmm1, %zmm15{%k7} |
| vpsubq %ymm1, %ymm1, %ymm15{z}{%k7} |
| vpsubq %zmm1, %zmm1, %zmm15 |
| vpsubq %ymm1, %ymm1, %ymm15 |
| vpsubq %zmm1, %zmm1, %zmm16 |
| vpsubq %ymm1, %ymm1, %ymm16 |
| vpsubq %zmm17, %zmm17, %zmm1 |
| vpsubq %ymm17, %ymm17, %ymm1 |
| |
| vmovdqa32 %xmm1, %xmm2 |
| vmovdqa64 %xmm1, %xmm2 |
| vmovdqu8 %xmm1, %xmm2 |
| vmovdqu16 %xmm1, %xmm2 |
| vmovdqu32 %xmm1, %xmm2 |
| vmovdqu64 %xmm1, %xmm2 |
| |
| vmovdqa32 %xmm11, %xmm12 |
| vmovdqa64 %xmm11, %xmm12 |
| vmovdqu8 %xmm11, %xmm12 |
| vmovdqu16 %xmm11, %xmm12 |
| vmovdqu32 %xmm11, %xmm12 |
| vmovdqu64 %xmm11, %xmm12 |
| |
| vmovdqa32 127(%rax), %xmm2 |
| vmovdqa64 127(%rax), %xmm2 |
| vmovdqu8 127(%rax), %xmm2 |
| vmovdqu16 127(%rax), %xmm2 |
| vmovdqu32 127(%rax), %xmm2 |
| vmovdqu64 127(%rax), %xmm2 |
| |
| vmovdqa32 %xmm1, 128(%rax) |
| vmovdqa64 %xmm1, 128(%rax) |
| vmovdqu8 %xmm1, 128(%rax) |
| vmovdqu16 %xmm1, 128(%rax) |
| vmovdqu32 %xmm1, 128(%rax) |
| vmovdqu64 %xmm1, 128(%rax) |
| |
| vmovdqa32 %ymm1, %ymm2 |
| vmovdqa64 %ymm1, %ymm2 |
| vmovdqu8 %ymm1, %ymm2 |
| vmovdqu16 %ymm1, %ymm2 |
| vmovdqu32 %ymm1, %ymm2 |
| vmovdqu64 %ymm1, %ymm2 |
| |
| vmovdqa32 %ymm11, %ymm12 |
| vmovdqa64 %ymm11, %ymm12 |
| vmovdqu8 %ymm11, %ymm12 |
| vmovdqu16 %ymm11, %ymm12 |
| vmovdqu32 %ymm11, %ymm12 |
| vmovdqu64 %ymm11, %ymm12 |
| |
| vmovdqa32 127(%rax), %ymm2 |
| vmovdqa64 127(%rax), %ymm2 |
| vmovdqu8 127(%rax), %ymm2 |
| vmovdqu16 127(%rax), %ymm2 |
| vmovdqu32 127(%rax), %ymm2 |
| vmovdqu64 127(%rax), %ymm2 |
| |
| vmovdqa32 %ymm1, 128(%rax) |
| vmovdqa64 %ymm1, 128(%rax) |
| vmovdqu8 %ymm1, 128(%rax) |
| vmovdqu16 %ymm1, 128(%rax) |
| vmovdqu32 %ymm1, 128(%rax) |
| vmovdqu64 %ymm1, 128(%rax) |
| |
| vmovdqa32 (%rax), %zmm2 |
| |
| vpandd %xmm2, %xmm3, %xmm4 |
| vpandq %xmm12, %xmm3, %xmm4 |
| vpandnd %xmm2, %xmm13, %xmm4 |
| vpandnq %xmm2, %xmm3, %xmm14 |
| vpord %xmm2, %xmm3, %xmm4 |
| vporq %xmm12, %xmm3, %xmm4 |
| vpxord %xmm2, %xmm13, %xmm4 |
| vpxorq %xmm2, %xmm3, %xmm14 |
| |
| vpandd %ymm2, %ymm3, %ymm4 |
| vpandq %ymm12, %ymm3, %ymm4 |
| vpandnd %ymm2, %ymm13, %ymm4 |
| vpandnq %ymm2, %ymm3, %ymm14 |
| vpord %ymm2, %ymm3, %ymm4 |
| vporq %ymm12, %ymm3, %ymm4 |
| vpxord %ymm2, %ymm13, %ymm4 |
| vpxorq %ymm2, %ymm3, %ymm14 |
| |
| vpandd 112(%rax), %xmm2, %xmm3 |
| vpandq 112(%rax), %xmm2, %xmm3 |
| vpandnd 112(%rax), %xmm2, %xmm3 |
| vpandnq 112(%rax), %xmm2, %xmm3 |
| vpord 112(%rax), %xmm2, %xmm3 |
| vporq 112(%rax), %xmm2, %xmm3 |
| vpxord 112(%rax), %xmm2, %xmm3 |
| vpxorq 112(%rax), %xmm2, %xmm3 |
| |
| vpandd 128(%rax), %xmm2, %xmm3 |
| vpandq 128(%rax), %xmm2, %xmm3 |
| vpandnd 128(%rax), %xmm2, %xmm3 |
| vpandnq 128(%rax), %xmm2, %xmm3 |
| vpord 128(%rax), %xmm2, %xmm3 |
| vporq 128(%rax), %xmm2, %xmm3 |
| vpxord 128(%rax), %xmm2, %xmm3 |
| vpxorq 128(%rax), %xmm2, %xmm3 |
| |
| vpandd 96(%rax), %ymm2, %ymm3 |
| vpandq 96(%rax), %ymm2, %ymm3 |
| vpandnd 96(%rax), %ymm2, %ymm3 |
| vpandnq 96(%rax), %ymm2, %ymm3 |
| vpord 96(%rax), %ymm2, %ymm3 |
| vporq 96(%rax), %ymm2, %ymm3 |
| vpxord 96(%rax), %ymm2, %ymm3 |
| vpxorq 96(%rax), %ymm2, %ymm3 |
| |
| vpandd 128(%rax), %ymm2, %ymm3 |
| vpandq 128(%rax), %ymm2, %ymm3 |
| vpandnd 128(%rax), %ymm2, %ymm3 |
| vpandnq 128(%rax), %ymm2, %ymm3 |
| vpord 128(%rax), %ymm2, %ymm3 |
| vporq 128(%rax), %ymm2, %ymm3 |
| vpxord 128(%rax), %ymm2, %ymm3 |
| vpxorq 128(%rax), %ymm2, %ymm3 |