| /* Arm MVE intrinsics include file. |
| |
| Copyright (C) 2019-2022 Free Software Foundation, Inc. |
| Contributed by Arm. |
| |
| This file is part of GCC. |
| |
| GCC is free software; you can redistribute it and/or modify it |
| under the terms of the GNU General Public License as published |
| by the Free Software Foundation; either version 3, or (at your |
| option) any later version. |
| |
| GCC is distributed in the hope that it will be useful, but WITHOUT |
| ANY WARRANTY; without even the implied warranty of MERCHANTABILITY |
| or FITNESS FOR A PARTICULAR PURPOSE. See the GNU General Public |
| License for more details. |
| |
| You should have received a copy of the GNU General Public License |
| along with GCC; see the file COPYING3. If not see |
| <http://www.gnu.org/licenses/>. */ |
| |
| #ifndef _GCC_ARM_MVE_H |
| #define _GCC_ARM_MVE_H |
| |
| #if __ARM_BIG_ENDIAN |
| #error "MVE intrinsics are not supported in Big-Endian mode." |
| #elif !__ARM_FEATURE_MVE |
| #error "MVE feature not supported" |
| #else |
| |
| #include <stdint.h> |
| #ifndef __cplusplus |
| #include <stdbool.h> |
| #endif |
| #include "arm_mve_types.h" |
| |
| #ifndef __ARM_MVE_PRESERVE_USER_NAMESPACE |
| #define vst4q(__addr, __value) __arm_vst4q(__addr, __value) |
| #define vdupq_n(__a) __arm_vdupq_n(__a) |
| #define vabsq(__a) __arm_vabsq(__a) |
| #define vclsq(__a) __arm_vclsq(__a) |
| #define vclzq(__a) __arm_vclzq(__a) |
| #define vnegq(__a) __arm_vnegq(__a) |
| #define vaddlvq(__a) __arm_vaddlvq(__a) |
| #define vaddvq(__a) __arm_vaddvq(__a) |
| #define vmovlbq(__a) __arm_vmovlbq(__a) |
| #define vmovltq(__a) __arm_vmovltq(__a) |
| #define vmvnq(__a) __arm_vmvnq(__a) |
| #define vrev16q(__a) __arm_vrev16q(__a) |
| #define vrev32q(__a) __arm_vrev32q(__a) |
| #define vrev64q(__a) __arm_vrev64q(__a) |
| #define vqabsq(__a) __arm_vqabsq(__a) |
| #define vqnegq(__a) __arm_vqnegq(__a) |
| #define vshrq(__a, __imm) __arm_vshrq(__a, __imm) |
| #define vaddlvq_p(__a, __p) __arm_vaddlvq_p(__a, __p) |
| #define vcmpneq(__a, __b) __arm_vcmpneq(__a, __b) |
| #define vshlq(__a, __b) __arm_vshlq(__a, __b) |
| #define vsubq(__a, __b) __arm_vsubq(__a, __b) |
| #define vrmulhq(__a, __b) __arm_vrmulhq(__a, __b) |
| #define vrhaddq(__a, __b) __arm_vrhaddq(__a, __b) |
| #define vqsubq(__a, __b) __arm_vqsubq(__a, __b) |
| #define vqaddq(__a, __b) __arm_vqaddq(__a, __b) |
| #define vorrq(__a, __b) __arm_vorrq(__a, __b) |
| #define vornq(__a, __b) __arm_vornq(__a, __b) |
| #define vmulq(__a, __b) __arm_vmulq(__a, __b) |
| #define vmulltq_int(__a, __b) __arm_vmulltq_int(__a, __b) |
| #define vmullbq_int(__a, __b) __arm_vmullbq_int(__a, __b) |
| #define vmulhq(__a, __b) __arm_vmulhq(__a, __b) |
| #define vmladavq(__a, __b) __arm_vmladavq(__a, __b) |
| #define vminvq(__a, __b) __arm_vminvq(__a, __b) |
| #define vminq(__a, __b) __arm_vminq(__a, __b) |
| #define vmaxvq(__a, __b) __arm_vmaxvq(__a, __b) |
| #define vmaxq(__a, __b) __arm_vmaxq(__a, __b) |
| #define vhsubq(__a, __b) __arm_vhsubq(__a, __b) |
| #define vhaddq(__a, __b) __arm_vhaddq(__a, __b) |
| #define veorq(__a, __b) __arm_veorq(__a, __b) |
| #define vcmphiq(__a, __b) __arm_vcmphiq(__a, __b) |
| #define vcmpeqq(__a, __b) __arm_vcmpeqq(__a, __b) |
| #define vcmpcsq(__a, __b) __arm_vcmpcsq(__a, __b) |
| #define vcaddq_rot90(__a, __b) __arm_vcaddq_rot90(__a, __b) |
| #define vcaddq_rot270(__a, __b) __arm_vcaddq_rot270(__a, __b) |
| #define vbicq(__a, __b) __arm_vbicq(__a, __b) |
| #define vandq(__a, __b) __arm_vandq(__a, __b) |
| #define vaddvq_p(__a, __p) __arm_vaddvq_p(__a, __p) |
| #define vaddvaq(__a, __b) __arm_vaddvaq(__a, __b) |
| #define vaddq(__a, __b) __arm_vaddq(__a, __b) |
| #define vabdq(__a, __b) __arm_vabdq(__a, __b) |
| #define vshlq_r(__a, __b) __arm_vshlq_r(__a, __b) |
| #define vrshlq(__a, __b) __arm_vrshlq(__a, __b) |
| #define vqshlq(__a, __b) __arm_vqshlq(__a, __b) |
| #define vqshlq_r(__a, __b) __arm_vqshlq_r(__a, __b) |
| #define vqrshlq(__a, __b) __arm_vqrshlq(__a, __b) |
| #define vminavq(__a, __b) __arm_vminavq(__a, __b) |
| #define vminaq(__a, __b) __arm_vminaq(__a, __b) |
| #define vmaxavq(__a, __b) __arm_vmaxavq(__a, __b) |
| #define vmaxaq(__a, __b) __arm_vmaxaq(__a, __b) |
| #define vbrsrq(__a, __b) __arm_vbrsrq(__a, __b) |
| #define vshlq_n(__a, __imm) __arm_vshlq_n(__a, __imm) |
| #define vrshrq(__a, __imm) __arm_vrshrq(__a, __imm) |
| #define vqshlq_n(__a, __imm) __arm_vqshlq_n(__a, __imm) |
| #define vcmpltq(__a, __b) __arm_vcmpltq(__a, __b) |
| #define vcmpleq(__a, __b) __arm_vcmpleq(__a, __b) |
| #define vcmpgtq(__a, __b) __arm_vcmpgtq(__a, __b) |
| #define vcmpgeq(__a, __b) __arm_vcmpgeq(__a, __b) |
| #define vqshluq(__a, __imm) __arm_vqshluq(__a, __imm) |
| #define vqrdmulhq(__a, __b) __arm_vqrdmulhq(__a, __b) |
| #define vqdmulhq(__a, __b) __arm_vqdmulhq(__a, __b) |
| #define vmlsdavxq(__a, __b) __arm_vmlsdavxq(__a, __b) |
| #define vmlsdavq(__a, __b) __arm_vmlsdavq(__a, __b) |
| #define vmladavxq(__a, __b) __arm_vmladavxq(__a, __b) |
| #define vhcaddq_rot90(__a, __b) __arm_vhcaddq_rot90(__a, __b) |
| #define vhcaddq_rot270(__a, __b) __arm_vhcaddq_rot270(__a, __b) |
| #define vqmovntq(__a, __b) __arm_vqmovntq(__a, __b) |
| #define vqmovnbq(__a, __b) __arm_vqmovnbq(__a, __b) |
| #define vmulltq_poly(__a, __b) __arm_vmulltq_poly(__a, __b) |
| #define vmullbq_poly(__a, __b) __arm_vmullbq_poly(__a, __b) |
| #define vmovntq(__a, __b) __arm_vmovntq(__a, __b) |
| #define vmovnbq(__a, __b) __arm_vmovnbq(__a, __b) |
| #define vmlaldavq(__a, __b) __arm_vmlaldavq(__a, __b) |
| #define vqmovuntq(__a, __b) __arm_vqmovuntq(__a, __b) |
| #define vqmovunbq(__a, __b) __arm_vqmovunbq(__a, __b) |
| #define vshlltq(__a, __imm) __arm_vshlltq(__a, __imm) |
| #define vshllbq(__a, __imm) __arm_vshllbq(__a, __imm) |
| #define vqdmulltq(__a, __b) __arm_vqdmulltq(__a, __b) |
| #define vqdmullbq(__a, __b) __arm_vqdmullbq(__a, __b) |
| #define vmlsldavxq(__a, __b) __arm_vmlsldavxq(__a, __b) |
| #define vmlsldavq(__a, __b) __arm_vmlsldavq(__a, __b) |
| #define vmlaldavxq(__a, __b) __arm_vmlaldavxq(__a, __b) |
| #define vrmlaldavhq(__a, __b) __arm_vrmlaldavhq(__a, __b) |
| #define vaddlvaq(__a, __b) __arm_vaddlvaq(__a, __b) |
| #define vrmlsldavhxq(__a, __b) __arm_vrmlsldavhxq(__a, __b) |
| #define vrmlsldavhq(__a, __b) __arm_vrmlsldavhq(__a, __b) |
| #define vrmlaldavhxq(__a, __b) __arm_vrmlaldavhxq(__a, __b) |
| #define vabavq(__a, __b, __c) __arm_vabavq(__a, __b, __c) |
| #define vbicq_m_n(__a, __imm, __p) __arm_vbicq_m_n(__a, __imm, __p) |
| #define vqrshrnbq(__a, __b, __imm) __arm_vqrshrnbq(__a, __b, __imm) |
| #define vqrshrunbq(__a, __b, __imm) __arm_vqrshrunbq(__a, __b, __imm) |
| #define vrmlaldavhaq(__a, __b, __c) __arm_vrmlaldavhaq(__a, __b, __c) |
| #define vshlcq(__a, __b, __imm) __arm_vshlcq(__a, __b, __imm) |
| #define vpselq(__a, __b, __p) __arm_vpselq(__a, __b, __p) |
| #define vrev64q_m(__inactive, __a, __p) __arm_vrev64q_m(__inactive, __a, __p) |
| #define vqrdmlashq(__a, __b, __c) __arm_vqrdmlashq(__a, __b, __c) |
| #define vqrdmlahq(__a, __b, __c) __arm_vqrdmlahq(__a, __b, __c) |
| #define vqdmlashq(__a, __b, __c) __arm_vqdmlashq(__a, __b, __c) |
| #define vqdmlahq(__a, __b, __c) __arm_vqdmlahq(__a, __b, __c) |
| #define vmvnq_m(__inactive, __a, __p) __arm_vmvnq_m(__inactive, __a, __p) |
| #define vmlasq(__a, __b, __c) __arm_vmlasq(__a, __b, __c) |
| #define vmlaq(__a, __b, __c) __arm_vmlaq(__a, __b, __c) |
| #define vmladavq_p(__a, __b, __p) __arm_vmladavq_p(__a, __b, __p) |
| #define vmladavaq(__a, __b, __c) __arm_vmladavaq(__a, __b, __c) |
| #define vminvq_p(__a, __b, __p) __arm_vminvq_p(__a, __b, __p) |
| #define vmaxvq_p(__a, __b, __p) __arm_vmaxvq_p(__a, __b, __p) |
| #define vdupq_m(__inactive, __a, __p) __arm_vdupq_m(__inactive, __a, __p) |
| #define vcmpneq_m(__a, __b, __p) __arm_vcmpneq_m(__a, __b, __p) |
| #define vcmphiq_m(__a, __b, __p) __arm_vcmphiq_m(__a, __b, __p) |
| #define vcmpeqq_m(__a, __b, __p) __arm_vcmpeqq_m(__a, __b, __p) |
| #define vcmpcsq_m(__a, __b, __p) __arm_vcmpcsq_m(__a, __b, __p) |
| #define vcmpcsq_m_n(__a, __b, __p) __arm_vcmpcsq_m_n(__a, __b, __p) |
| #define vclzq_m(__inactive, __a, __p) __arm_vclzq_m(__inactive, __a, __p) |
| #define vaddvaq_p(__a, __b, __p) __arm_vaddvaq_p(__a, __b, __p) |
| #define vsriq(__a, __b, __imm) __arm_vsriq(__a, __b, __imm) |
| #define vsliq(__a, __b, __imm) __arm_vsliq(__a, __b, __imm) |
| #define vshlq_m_r(__a, __b, __p) __arm_vshlq_m_r(__a, __b, __p) |
| #define vrshlq_m_n(__a, __b, __p) __arm_vrshlq_m_n(__a, __b, __p) |
| #define vqshlq_m_r(__a, __b, __p) __arm_vqshlq_m_r(__a, __b, __p) |
| #define vqrshlq_m_n(__a, __b, __p) __arm_vqrshlq_m_n(__a, __b, __p) |
| #define vminavq_p(__a, __b, __p) __arm_vminavq_p(__a, __b, __p) |
| #define vminaq_m(__a, __b, __p) __arm_vminaq_m(__a, __b, __p) |
| #define vmaxavq_p(__a, __b, __p) __arm_vmaxavq_p(__a, __b, __p) |
| #define vmaxaq_m(__a, __b, __p) __arm_vmaxaq_m(__a, __b, __p) |
| #define vcmpltq_m(__a, __b, __p) __arm_vcmpltq_m(__a, __b, __p) |
| #define vcmpleq_m(__a, __b, __p) __arm_vcmpleq_m(__a, __b, __p) |
| #define vcmpgtq_m(__a, __b, __p) __arm_vcmpgtq_m(__a, __b, __p) |
| #define vcmpgeq_m(__a, __b, __p) __arm_vcmpgeq_m(__a, __b, __p) |
| #define vqnegq_m(__inactive, __a, __p) __arm_vqnegq_m(__inactive, __a, __p) |
| #define vqabsq_m(__inactive, __a, __p) __arm_vqabsq_m(__inactive, __a, __p) |
| #define vnegq_m(__inactive, __a, __p) __arm_vnegq_m(__inactive, __a, __p) |
| #define vmlsdavxq_p(__a, __b, __p) __arm_vmlsdavxq_p(__a, __b, __p) |
| #define vmlsdavq_p(__a, __b, __p) __arm_vmlsdavq_p(__a, __b, __p) |
| #define vmladavxq_p(__a, __b, __p) __arm_vmladavxq_p(__a, __b, __p) |
| #define vclsq_m(__inactive, __a, __p) __arm_vclsq_m(__inactive, __a, __p) |
| #define vabsq_m(__inactive, __a, __p) __arm_vabsq_m(__inactive, __a, __p) |
| #define vqrdmlsdhxq(__inactive, __a, __b) __arm_vqrdmlsdhxq(__inactive, __a, __b) |
| #define vqrdmlsdhq(__inactive, __a, __b) __arm_vqrdmlsdhq(__inactive, __a, __b) |
| #define vqrdmladhxq(__inactive, __a, __b) __arm_vqrdmladhxq(__inactive, __a, __b) |
| #define vqrdmladhq(__inactive, __a, __b) __arm_vqrdmladhq(__inactive, __a, __b) |
| #define vqdmlsdhxq(__inactive, __a, __b) __arm_vqdmlsdhxq(__inactive, __a, __b) |
| #define vqdmlsdhq(__inactive, __a, __b) __arm_vqdmlsdhq(__inactive, __a, __b) |
| #define vqdmladhxq(__inactive, __a, __b) __arm_vqdmladhxq(__inactive, __a, __b) |
| #define vqdmladhq(__inactive, __a, __b) __arm_vqdmladhq(__inactive, __a, __b) |
| #define vmlsdavaxq(__a, __b, __c) __arm_vmlsdavaxq(__a, __b, __c) |
| #define vmlsdavaq(__a, __b, __c) __arm_vmlsdavaq(__a, __b, __c) |
| #define vmladavaxq(__a, __b, __c) __arm_vmladavaxq(__a, __b, __c) |
| #define vrmlaldavhaxq(__a, __b, __c) __arm_vrmlaldavhaxq(__a, __b, __c) |
| #define vrmlsldavhaq(__a, __b, __c) __arm_vrmlsldavhaq(__a, __b, __c) |
| #define vrmlsldavhaxq(__a, __b, __c) __arm_vrmlsldavhaxq(__a, __b, __c) |
| #define vaddlvaq_p(__a, __b, __p) __arm_vaddlvaq_p(__a, __b, __p) |
| #define vrev16q_m(__inactive, __a, __p) __arm_vrev16q_m(__inactive, __a, __p) |
| #define vrmlaldavhq_p(__a, __b, __p) __arm_vrmlaldavhq_p(__a, __b, __p) |
| #define vrmlaldavhxq_p(__a, __b, __p) __arm_vrmlaldavhxq_p(__a, __b, __p) |
| #define vrmlsldavhq_p(__a, __b, __p) __arm_vrmlsldavhq_p(__a, __b, __p) |
| #define vrmlsldavhxq_p(__a, __b, __p) __arm_vrmlsldavhxq_p(__a, __b, __p) |
| #define vorrq_m_n(__a, __imm, __p) __arm_vorrq_m_n(__a, __imm, __p) |
| #define vqrshrntq(__a, __b, __imm) __arm_vqrshrntq(__a, __b, __imm) |
| #define vqshrnbq(__a, __b, __imm) __arm_vqshrnbq(__a, __b, __imm) |
| #define vqshrntq(__a, __b, __imm) __arm_vqshrntq(__a, __b, __imm) |
| #define vrshrnbq(__a, __b, __imm) __arm_vrshrnbq(__a, __b, __imm) |
| #define vrshrntq(__a, __b, __imm) __arm_vrshrntq(__a, __b, __imm) |
| #define vshrnbq(__a, __b, __imm) __arm_vshrnbq(__a, __b, __imm) |
| #define vshrntq(__a, __b, __imm) __arm_vshrntq(__a, __b, __imm) |
| #define vmlaldavaq(__a, __b, __c) __arm_vmlaldavaq(__a, __b, __c) |
| #define vmlaldavaxq(__a, __b, __c) __arm_vmlaldavaxq(__a, __b, __c) |
| #define vmlsldavaq(__a, __b, __c) __arm_vmlsldavaq(__a, __b, __c) |
| #define vmlsldavaxq(__a, __b, __c) __arm_vmlsldavaxq(__a, __b, __c) |
| #define vmlaldavq_p(__a, __b, __p) __arm_vmlaldavq_p(__a, __b, __p) |
| #define vmlaldavxq_p(__a, __b, __p) __arm_vmlaldavxq_p(__a, __b, __p) |
| #define vmlsldavq_p(__a, __b, __p) __arm_vmlsldavq_p(__a, __b, __p) |
| #define vmlsldavxq_p(__a, __b, __p) __arm_vmlsldavxq_p(__a, __b, __p) |
| #define vmovlbq_m(__inactive, __a, __p) __arm_vmovlbq_m(__inactive, __a, __p) |
| #define vmovltq_m(__inactive, __a, __p) __arm_vmovltq_m(__inactive, __a, __p) |
| #define vmovnbq_m(__a, __b, __p) __arm_vmovnbq_m(__a, __b, __p) |
| #define vmovntq_m(__a, __b, __p) __arm_vmovntq_m(__a, __b, __p) |
| #define vqmovnbq_m(__a, __b, __p) __arm_vqmovnbq_m(__a, __b, __p) |
| #define vqmovntq_m(__a, __b, __p) __arm_vqmovntq_m(__a, __b, __p) |
| #define vrev32q_m(__inactive, __a, __p) __arm_vrev32q_m(__inactive, __a, __p) |
| #define vqrshruntq(__a, __b, __imm) __arm_vqrshruntq(__a, __b, __imm) |
| #define vqshrunbq(__a, __b, __imm) __arm_vqshrunbq(__a, __b, __imm) |
| #define vqshruntq(__a, __b, __imm) __arm_vqshruntq(__a, __b, __imm) |
| #define vqmovunbq_m(__a, __b, __p) __arm_vqmovunbq_m(__a, __b, __p) |
| #define vqmovuntq_m(__a, __b, __p) __arm_vqmovuntq_m(__a, __b, __p) |
| #define vsriq_m(__a, __b, __imm, __p) __arm_vsriq_m(__a, __b, __imm, __p) |
| #define vsubq_m(__inactive, __a, __b, __p) __arm_vsubq_m(__inactive, __a, __b, __p) |
| #define vqshluq_m(__inactive, __a, __imm, __p) __arm_vqshluq_m(__inactive, __a, __imm, __p) |
| #define vabavq_p(__a, __b, __c, __p) __arm_vabavq_p(__a, __b, __c, __p) |
| #define vshlq_m(__inactive, __a, __b, __p) __arm_vshlq_m(__inactive, __a, __b, __p) |
| #define vabdq_m(__inactive, __a, __b, __p) __arm_vabdq_m(__inactive, __a, __b, __p) |
| #define vaddq_m(__inactive, __a, __b, __p) __arm_vaddq_m(__inactive, __a, __b, __p) |
| #define vandq_m(__inactive, __a, __b, __p) __arm_vandq_m(__inactive, __a, __b, __p) |
| #define vbicq_m(__inactive, __a, __b, __p) __arm_vbicq_m(__inactive, __a, __b, __p) |
| #define vbrsrq_m(__inactive, __a, __b, __p) __arm_vbrsrq_m(__inactive, __a, __b, __p) |
| #define vcaddq_rot270_m(__inactive, __a, __b, __p) __arm_vcaddq_rot270_m(__inactive, __a, __b, __p) |
| #define vcaddq_rot90_m(__inactive, __a, __b, __p) __arm_vcaddq_rot90_m(__inactive, __a, __b, __p) |
| #define veorq_m(__inactive, __a, __b, __p) __arm_veorq_m(__inactive, __a, __b, __p) |
| #define vhaddq_m(__inactive, __a, __b, __p) __arm_vhaddq_m(__inactive, __a, __b, __p) |
| #define vhcaddq_rot270_m(__inactive, __a, __b, __p) __arm_vhcaddq_rot270_m(__inactive, __a, __b, __p) |
| #define vhcaddq_rot90_m(__inactive, __a, __b, __p) __arm_vhcaddq_rot90_m(__inactive, __a, __b, __p) |
| #define vhsubq_m(__inactive, __a, __b, __p) __arm_vhsubq_m(__inactive, __a, __b, __p) |
| #define vmaxq_m(__inactive, __a, __b, __p) __arm_vmaxq_m(__inactive, __a, __b, __p) |
| #define vminq_m(__inactive, __a, __b, __p) __arm_vminq_m(__inactive, __a, __b, __p) |
| #define vmladavaq_p(__a, __b, __c, __p) __arm_vmladavaq_p(__a, __b, __c, __p) |
| #define vmladavaxq_p(__a, __b, __c, __p) __arm_vmladavaxq_p(__a, __b, __c, __p) |
| #define vmlaq_m(__a, __b, __c, __p) __arm_vmlaq_m(__a, __b, __c, __p) |
| #define vmlasq_m(__a, __b, __c, __p) __arm_vmlasq_m(__a, __b, __c, __p) |
| #define vmlsdavaq_p(__a, __b, __c, __p) __arm_vmlsdavaq_p(__a, __b, __c, __p) |
| #define vmlsdavaxq_p(__a, __b, __c, __p) __arm_vmlsdavaxq_p(__a, __b, __c, __p) |
| #define vmulhq_m(__inactive, __a, __b, __p) __arm_vmulhq_m(__inactive, __a, __b, __p) |
| #define vmullbq_int_m(__inactive, __a, __b, __p) __arm_vmullbq_int_m(__inactive, __a, __b, __p) |
| #define vmulltq_int_m(__inactive, __a, __b, __p) __arm_vmulltq_int_m(__inactive, __a, __b, __p) |
| #define vmulq_m(__inactive, __a, __b, __p) __arm_vmulq_m(__inactive, __a, __b, __p) |
| #define vornq_m(__inactive, __a, __b, __p) __arm_vornq_m(__inactive, __a, __b, __p) |
| #define vorrq_m(__inactive, __a, __b, __p) __arm_vorrq_m(__inactive, __a, __b, __p) |
| #define vqaddq_m(__inactive, __a, __b, __p) __arm_vqaddq_m(__inactive, __a, __b, __p) |
| #define vqdmladhq_m(__inactive, __a, __b, __p) __arm_vqdmladhq_m(__inactive, __a, __b, __p) |
| #define vqdmlashq_m(__a, __b, __c, __p) __arm_vqdmlashq_m(__a, __b, __c, __p) |
| #define vqdmladhxq_m(__inactive, __a, __b, __p) __arm_vqdmladhxq_m(__inactive, __a, __b, __p) |
| #define vqdmlahq_m(__a, __b, __c, __p) __arm_vqdmlahq_m(__a, __b, __c, __p) |
| #define vqdmlsdhq_m(__inactive, __a, __b, __p) __arm_vqdmlsdhq_m(__inactive, __a, __b, __p) |
| #define vqdmlsdhxq_m(__inactive, __a, __b, __p) __arm_vqdmlsdhxq_m(__inactive, __a, __b, __p) |
| #define vqdmulhq_m(__inactive, __a, __b, __p) __arm_vqdmulhq_m(__inactive, __a, __b, __p) |
| #define vqrdmladhq_m(__inactive, __a, __b, __p) __arm_vqrdmladhq_m(__inactive, __a, __b, __p) |
| #define vqrdmladhxq_m(__inactive, __a, __b, __p) __arm_vqrdmladhxq_m(__inactive, __a, __b, __p) |
| #define vqrdmlahq_m(__a, __b, __c, __p) __arm_vqrdmlahq_m(__a, __b, __c, __p) |
| #define vqrdmlashq_m(__a, __b, __c, __p) __arm_vqrdmlashq_m(__a, __b, __c, __p) |
| #define vqrdmlsdhq_m(__inactive, __a, __b, __p) __arm_vqrdmlsdhq_m(__inactive, __a, __b, __p) |
| #define vqrdmlsdhxq_m(__inactive, __a, __b, __p) __arm_vqrdmlsdhxq_m(__inactive, __a, __b, __p) |
| #define vqrdmulhq_m(__inactive, __a, __b, __p) __arm_vqrdmulhq_m(__inactive, __a, __b, __p) |
| #define vqrshlq_m(__inactive, __a, __b, __p) __arm_vqrshlq_m(__inactive, __a, __b, __p) |
| #define vqshlq_m_n(__inactive, __a, __imm, __p) __arm_vqshlq_m_n(__inactive, __a, __imm, __p) |
| #define vqshlq_m(__inactive, __a, __b, __p) __arm_vqshlq_m(__inactive, __a, __b, __p) |
| #define vqsubq_m(__inactive, __a, __b, __p) __arm_vqsubq_m(__inactive, __a, __b, __p) |
| #define vrhaddq_m(__inactive, __a, __b, __p) __arm_vrhaddq_m(__inactive, __a, __b, __p) |
| #define vrmulhq_m(__inactive, __a, __b, __p) __arm_vrmulhq_m(__inactive, __a, __b, __p) |
| #define vrshlq_m(__inactive, __a, __b, __p) __arm_vrshlq_m(__inactive, __a, __b, __p) |
| #define vrshrq_m(__inactive, __a, __imm, __p) __arm_vrshrq_m(__inactive, __a, __imm, __p) |
| #define vshlq_m_n(__inactive, __a, __imm, __p) __arm_vshlq_m_n(__inactive, __a, __imm, __p) |
| #define vshrq_m(__inactive, __a, __imm, __p) __arm_vshrq_m(__inactive, __a, __imm, __p) |
| #define vsliq_m(__a, __b, __imm, __p) __arm_vsliq_m(__a, __b, __imm, __p) |
| #define vmlaldavaq_p(__a, __b, __c, __p) __arm_vmlaldavaq_p(__a, __b, __c, __p) |
| #define vmlaldavaxq_p(__a, __b, __c, __p) __arm_vmlaldavaxq_p(__a, __b, __c, __p) |
| #define vmlsldavaq_p(__a, __b, __c, __p) __arm_vmlsldavaq_p(__a, __b, __c, __p) |
| #define vmlsldavaxq_p(__a, __b, __c, __p) __arm_vmlsldavaxq_p(__a, __b, __c, __p) |
| #define vmullbq_poly_m(__inactive, __a, __b, __p) __arm_vmullbq_poly_m(__inactive, __a, __b, __p) |
| #define vmulltq_poly_m(__inactive, __a, __b, __p) __arm_vmulltq_poly_m(__inactive, __a, __b, __p) |
| #define vqdmullbq_m(__inactive, __a, __b, __p) __arm_vqdmullbq_m(__inactive, __a, __b, __p) |
| #define vqdmulltq_m(__inactive, __a, __b, __p) __arm_vqdmulltq_m(__inactive, __a, __b, __p) |
| #define vqrshrnbq_m(__a, __b, __imm, __p) __arm_vqrshrnbq_m(__a, __b, __imm, __p) |
| #define vqrshrntq_m(__a, __b, __imm, __p) __arm_vqrshrntq_m(__a, __b, __imm, __p) |
| #define vqrshrunbq_m(__a, __b, __imm, __p) __arm_vqrshrunbq_m(__a, __b, __imm, __p) |
| #define vqrshruntq_m(__a, __b, __imm, __p) __arm_vqrshruntq_m(__a, __b, __imm, __p) |
| #define vqshrnbq_m(__a, __b, __imm, __p) __arm_vqshrnbq_m(__a, __b, __imm, __p) |
| #define vqshrntq_m(__a, __b, __imm, __p) __arm_vqshrntq_m(__a, __b, __imm, __p) |
| #define vqshrunbq_m(__a, __b, __imm, __p) __arm_vqshrunbq_m(__a, __b, __imm, __p) |
| #define vqshruntq_m(__a, __b, __imm, __p) __arm_vqshruntq_m(__a, __b, __imm, __p) |
| #define vrmlaldavhaq_p(__a, __b, __c, __p) __arm_vrmlaldavhaq_p(__a, __b, __c, __p) |
| #define vrmlaldavhaxq_p(__a, __b, __c, __p) __arm_vrmlaldavhaxq_p(__a, __b, __c, __p) |
| #define vrmlsldavhaq_p(__a, __b, __c, __p) __arm_vrmlsldavhaq_p(__a, __b, __c, __p) |
| #define vrmlsldavhaxq_p(__a, __b, __c, __p) __arm_vrmlsldavhaxq_p(__a, __b, __c, __p) |
| #define vrshrnbq_m(__a, __b, __imm, __p) __arm_vrshrnbq_m(__a, __b, __imm, __p) |
| #define vrshrntq_m(__a, __b, __imm, __p) __arm_vrshrntq_m(__a, __b, __imm, __p) |
| #define vshllbq_m(__inactive, __a, __imm, __p) __arm_vshllbq_m(__inactive, __a, __imm, __p) |
| #define vshlltq_m(__inactive, __a, __imm, __p) __arm_vshlltq_m(__inactive, __a, __imm, __p) |
| #define vshrnbq_m(__a, __b, __imm, __p) __arm_vshrnbq_m(__a, __b, __imm, __p) |
| #define vshrntq_m(__a, __b, __imm, __p) __arm_vshrntq_m(__a, __b, __imm, __p) |
| #define vstrbq_scatter_offset(__base, __offset, __value) __arm_vstrbq_scatter_offset(__base, __offset, __value) |
| #define vstrbq(__addr, __value) __arm_vstrbq(__addr, __value) |
| #define vstrwq_scatter_base(__addr, __offset, __value) __arm_vstrwq_scatter_base(__addr, __offset, __value) |
| #define vldrbq_gather_offset(__base, __offset) __arm_vldrbq_gather_offset(__base, __offset) |
| #define vstrbq_p(__addr, __value, __p) __arm_vstrbq_p(__addr, __value, __p) |
| #define vstrbq_scatter_offset_p(__base, __offset, __value, __p) __arm_vstrbq_scatter_offset_p(__base, __offset, __value, __p) |
| #define vstrwq_scatter_base_p(__addr, __offset, __value, __p) __arm_vstrwq_scatter_base_p(__addr, __offset, __value, __p) |
| #define vldrbq_gather_offset_z(__base, __offset, __p) __arm_vldrbq_gather_offset_z(__base, __offset, __p) |
| #define vld1q(__base) __arm_vld1q(__base) |
| #define vldrhq_gather_offset(__base, __offset) __arm_vldrhq_gather_offset(__base, __offset) |
| #define vldrhq_gather_offset_z(__base, __offset, __p) __arm_vldrhq_gather_offset_z(__base, __offset, __p) |
| #define vldrhq_gather_shifted_offset(__base, __offset) __arm_vldrhq_gather_shifted_offset(__base, __offset) |
| #define vldrhq_gather_shifted_offset_z(__base, __offset, __p) __arm_vldrhq_gather_shifted_offset_z(__base, __offset, __p) |
| #define vldrdq_gather_offset(__base, __offset) __arm_vldrdq_gather_offset(__base, __offset) |
| #define vldrdq_gather_offset_z(__base, __offset, __p) __arm_vldrdq_gather_offset_z(__base, __offset, __p) |
| #define vldrdq_gather_shifted_offset(__base, __offset) __arm_vldrdq_gather_shifted_offset(__base, __offset) |
| #define vldrdq_gather_shifted_offset_z(__base, __offset, __p) __arm_vldrdq_gather_shifted_offset_z(__base, __offset, __p) |
| #define vldrwq_gather_offset(__base, __offset) __arm_vldrwq_gather_offset(__base, __offset) |
| #define vldrwq_gather_offset_z(__base, __offset, __p) __arm_vldrwq_gather_offset_z(__base, __offset, __p) |
| #define vldrwq_gather_shifted_offset(__base, __offset) __arm_vldrwq_gather_shifted_offset(__base, __offset) |
| #define vldrwq_gather_shifted_offset_z(__base, __offset, __p) __arm_vldrwq_gather_shifted_offset_z(__base, __offset, __p) |
| #define vst1q(__addr, __value) __arm_vst1q(__addr, __value) |
| #define vstrhq_scatter_offset(__base, __offset, __value) __arm_vstrhq_scatter_offset(__base, __offset, __value) |
| #define vstrhq_scatter_offset_p(__base, __offset, __value, __p) __arm_vstrhq_scatter_offset_p(__base, __offset, __value, __p) |
| #define vstrhq_scatter_shifted_offset(__base, __offset, __value) __arm_vstrhq_scatter_shifted_offset(__base, __offset, __value) |
| #define vstrhq_scatter_shifted_offset_p(__base, __offset, __value, __p) __arm_vstrhq_scatter_shifted_offset_p(__base, __offset, __value, __p) |
| #define vstrhq(__addr, __value) __arm_vstrhq(__addr, __value) |
| #define vstrhq_p(__addr, __value, __p) __arm_vstrhq_p(__addr, __value, __p) |
| #define vstrwq(__addr, __value) __arm_vstrwq(__addr, __value) |
| #define vstrwq_p(__addr, __value, __p) __arm_vstrwq_p(__addr, __value, __p) |
| #define vstrdq_scatter_base_p(__addr, __offset, __value, __p) __arm_vstrdq_scatter_base_p(__addr, __offset, __value, __p) |
| #define vstrdq_scatter_base(__addr, __offset, __value) __arm_vstrdq_scatter_base(__addr, __offset, __value) |
| #define vstrdq_scatter_offset_p(__base, __offset, __value, __p) __arm_vstrdq_scatter_offset_p(__base, __offset, __value, __p) |
| #define vstrdq_scatter_offset(__base, __offset, __value) __arm_vstrdq_scatter_offset(__base, __offset, __value) |
| #define vstrdq_scatter_shifted_offset_p(__base, __offset, __value, __p) __arm_vstrdq_scatter_shifted_offset_p(__base, __offset, __value, __p) |
| #define vstrdq_scatter_shifted_offset(__base, __offset, __value) __arm_vstrdq_scatter_shifted_offset(__base, __offset, __value) |
| #define vstrwq_scatter_offset_p(__base, __offset, __value, __p) __arm_vstrwq_scatter_offset_p(__base, __offset, __value, __p) |
| #define vstrwq_scatter_offset(__base, __offset, __value) __arm_vstrwq_scatter_offset(__base, __offset, __value) |
| #define vstrwq_scatter_shifted_offset_p(__base, __offset, __value, __p) __arm_vstrwq_scatter_shifted_offset_p(__base, __offset, __value, __p) |
| #define vstrwq_scatter_shifted_offset(__base, __offset, __value) __arm_vstrwq_scatter_shifted_offset(__base, __offset, __value) |
| #define vuninitializedq(__v) __arm_vuninitializedq(__v) |
| #define vreinterpretq_s16(__a) __arm_vreinterpretq_s16(__a) |
| #define vreinterpretq_s32(__a) __arm_vreinterpretq_s32(__a) |
| #define vreinterpretq_s64(__a) __arm_vreinterpretq_s64(__a) |
| #define vreinterpretq_s8(__a) __arm_vreinterpretq_s8(__a) |
| #define vreinterpretq_u16(__a) __arm_vreinterpretq_u16(__a) |
| #define vreinterpretq_u32(__a) __arm_vreinterpretq_u32(__a) |
| #define vreinterpretq_u64(__a) __arm_vreinterpretq_u64(__a) |
| #define vreinterpretq_u8(__a) __arm_vreinterpretq_u8(__a) |
| #define vddupq_m(__inactive, __a, __imm, __p) __arm_vddupq_m(__inactive, __a, __imm, __p) |
| #define vddupq_u8(__a, __imm) __arm_vddupq_u8(__a, __imm) |
| #define vddupq_u32(__a, __imm) __arm_vddupq_u32(__a, __imm) |
| #define vddupq_u16(__a, __imm) __arm_vddupq_u16(__a, __imm) |
| #define vdwdupq_m(__inactive, __a, __b, __imm, __p) __arm_vdwdupq_m(__inactive, __a, __b, __imm, __p) |
| #define vdwdupq_u8(__a, __b, __imm) __arm_vdwdupq_u8(__a, __b, __imm) |
| #define vdwdupq_u32(__a, __b, __imm) __arm_vdwdupq_u32(__a, __b, __imm) |
| #define vdwdupq_u16(__a, __b, __imm) __arm_vdwdupq_u16(__a, __b, __imm) |
| #define vidupq_m(__inactive, __a, __imm, __p) __arm_vidupq_m(__inactive, __a, __imm, __p) |
| #define vidupq_u8(__a, __imm) __arm_vidupq_u8(__a, __imm) |
| #define vidupq_u32(__a, __imm) __arm_vidupq_u32(__a, __imm) |
| #define vidupq_u16(__a, __imm) __arm_vidupq_u16(__a, __imm) |
| #define viwdupq_m(__inactive, __a, __b, __imm, __p) __arm_viwdupq_m(__inactive, __a, __b, __imm, __p) |
| #define viwdupq_u8(__a, __b, __imm) __arm_viwdupq_u8(__a, __b, __imm) |
| #define viwdupq_u32(__a, __b, __imm) __arm_viwdupq_u32(__a, __b, __imm) |
| #define viwdupq_u16(__a, __b, __imm) __arm_viwdupq_u16(__a, __b, __imm) |
| #define vstrdq_scatter_base_wb(__addr, __offset, __value) __arm_vstrdq_scatter_base_wb(__addr, __offset, __value) |
| #define vstrdq_scatter_base_wb_p(__addr, __offset, __value, __p) __arm_vstrdq_scatter_base_wb_p(__addr, __offset, __value, __p) |
| #define vstrwq_scatter_base_wb_p(__addr, __offset, __value, __p) __arm_vstrwq_scatter_base_wb_p(__addr, __offset, __value, __p) |
| #define vstrwq_scatter_base_wb(__addr, __offset, __value) __arm_vstrwq_scatter_base_wb(__addr, __offset, __value) |
| #define vddupq_x_u8(__a, __imm, __p) __arm_vddupq_x_u8(__a, __imm, __p) |
| #define vddupq_x_u16(__a, __imm, __p) __arm_vddupq_x_u16(__a, __imm, __p) |
| #define vddupq_x_u32(__a, __imm, __p) __arm_vddupq_x_u32(__a, __imm, __p) |
| #define vdwdupq_x_u8(__a, __b, __imm, __p) __arm_vdwdupq_x_u8(__a, __b, __imm, __p) |
| #define vdwdupq_x_u16(__a, __b, __imm, __p) __arm_vdwdupq_x_u16(__a, __b, __imm, __p) |
| #define vdwdupq_x_u32(__a, __b, __imm, __p) __arm_vdwdupq_x_u32(__a, __b, __imm, __p) |
| #define vidupq_x_u8(__a, __imm, __p) __arm_vidupq_x_u8(__a, __imm, __p) |
| #define vidupq_x_u16(__a, __imm, __p) __arm_vidupq_x_u16(__a, __imm, __p) |
| #define vidupq_x_u32(__a, __imm, __p) __arm_vidupq_x_u32(__a, __imm, __p) |
| #define viwdupq_x_u8(__a, __b, __imm, __p) __arm_viwdupq_x_u8(__a, __b, __imm, __p) |
| #define viwdupq_x_u16(__a, __b, __imm, __p) __arm_viwdupq_x_u16(__a, __b, __imm, __p) |
| #define viwdupq_x_u32(__a, __b, __imm, __p) __arm_viwdupq_x_u32(__a, __b, __imm, __p) |
| #define vminq_x(__a, __b, __p) __arm_vminq_x(__a, __b, __p) |
| #define vmaxq_x(__a, __b, __p) __arm_vmaxq_x(__a, __b, __p) |
| #define vabdq_x(__a, __b, __p) __arm_vabdq_x(__a, __b, __p) |
| #define vabsq_x(__a, __p) __arm_vabsq_x(__a, __p) |
| #define vaddq_x(__a, __b, __p) __arm_vaddq_x(__a, __b, __p) |
| #define vclsq_x(__a, __p) __arm_vclsq_x(__a, __p) |
| #define vclzq_x(__a, __p) __arm_vclzq_x(__a, __p) |
| #define vnegq_x(__a, __p) __arm_vnegq_x(__a, __p) |
| #define vmulhq_x(__a, __b, __p) __arm_vmulhq_x(__a, __b, __p) |
| #define vmullbq_poly_x(__a, __b, __p) __arm_vmullbq_poly_x(__a, __b, __p) |
| #define vmullbq_int_x(__a, __b, __p) __arm_vmullbq_int_x(__a, __b, __p) |
| #define vmulltq_poly_x(__a, __b, __p) __arm_vmulltq_poly_x(__a, __b, __p) |
| #define vmulltq_int_x(__a, __b, __p) __arm_vmulltq_int_x(__a, __b, __p) |
| #define vmulq_x(__a, __b, __p) __arm_vmulq_x(__a, __b, __p) |
| #define vsubq_x(__a, __b, __p) __arm_vsubq_x(__a, __b, __p) |
| #define vcaddq_rot90_x(__a, __b, __p) __arm_vcaddq_rot90_x(__a, __b, __p) |
| #define vcaddq_rot270_x(__a, __b, __p) __arm_vcaddq_rot270_x(__a, __b, __p) |
| #define vhaddq_x(__a, __b, __p) __arm_vhaddq_x(__a, __b, __p) |
| #define vhcaddq_rot90_x(__a, __b, __p) __arm_vhcaddq_rot90_x(__a, __b, __p) |
| #define vhcaddq_rot270_x(__a, __b, __p) __arm_vhcaddq_rot270_x(__a, __b, __p) |
| #define vhsubq_x(__a, __b, __p) __arm_vhsubq_x(__a, __b, __p) |
| #define vrhaddq_x(__a, __b, __p) __arm_vrhaddq_x(__a, __b, __p) |
| #define vrmulhq_x(__a, __b, __p) __arm_vrmulhq_x(__a, __b, __p) |
| #define vandq_x(__a, __b, __p) __arm_vandq_x(__a, __b, __p) |
| #define vbicq_x(__a, __b, __p) __arm_vbicq_x(__a, __b, __p) |
| #define vbrsrq_x(__a, __b, __p) __arm_vbrsrq_x(__a, __b, __p) |
| #define veorq_x(__a, __b, __p) __arm_veorq_x(__a, __b, __p) |
| #define vmovlbq_x(__a, __p) __arm_vmovlbq_x(__a, __p) |
| #define vmovltq_x(__a, __p) __arm_vmovltq_x(__a, __p) |
| #define vmvnq_x(__a, __p) __arm_vmvnq_x(__a, __p) |
| #define vornq_x(__a, __b, __p) __arm_vornq_x(__a, __b, __p) |
| #define vorrq_x(__a, __b, __p) __arm_vorrq_x(__a, __b, __p) |
| #define vrev16q_x(__a, __p) __arm_vrev16q_x(__a, __p) |
| #define vrev32q_x(__a, __p) __arm_vrev32q_x(__a, __p) |
| #define vrev64q_x(__a, __p) __arm_vrev64q_x(__a, __p) |
| #define vrshlq_x(__a, __b, __p) __arm_vrshlq_x(__a, __b, __p) |
| #define vshllbq_x(__a, __imm, __p) __arm_vshllbq_x(__a, __imm, __p) |
| #define vshlltq_x(__a, __imm, __p) __arm_vshlltq_x(__a, __imm, __p) |
| #define vshlq_x(__a, __b, __p) __arm_vshlq_x(__a, __b, __p) |
| #define vshlq_x_n(__a, __imm, __p) __arm_vshlq_x_n(__a, __imm, __p) |
| #define vrshrq_x(__a, __imm, __p) __arm_vrshrq_x(__a, __imm, __p) |
| #define vshrq_x(__a, __imm, __p) __arm_vshrq_x(__a, __imm, __p) |
| #define vadciq(__a, __b, __carry_out) __arm_vadciq(__a, __b, __carry_out) |
| #define vadciq_m(__inactive, __a, __b, __carry_out, __p) __arm_vadciq_m(__inactive, __a, __b, __carry_out, __p) |
| #define vadcq(__a, __b, __carry) __arm_vadcq(__a, __b, __carry) |
| #define vadcq_m(__inactive, __a, __b, __carry, __p) __arm_vadcq_m(__inactive, __a, __b, __carry, __p) |
| #define vsbciq(__a, __b, __carry_out) __arm_vsbciq(__a, __b, __carry_out) |
| #define vsbciq_m(__inactive, __a, __b, __carry_out, __p) __arm_vsbciq_m(__inactive, __a, __b, __carry_out, __p) |
| #define vsbcq(__a, __b, __carry) __arm_vsbcq(__a, __b, __carry) |
| #define vsbcq_m(__inactive, __a, __b, __carry, __p) __arm_vsbcq_m(__inactive, __a, __b, __carry, __p) |
| #define vst1q_p(__addr, __value, __p) __arm_vst1q_p(__addr, __value, __p) |
| #define vst2q(__addr, __value) __arm_vst2q(__addr, __value) |
| #define vld1q_z(__base, __p) __arm_vld1q_z(__base, __p) |
| #define vld2q(__addr) __arm_vld2q(__addr) |
| #define vld4q(__addr) __arm_vld4q(__addr) |
| #define vsetq_lane(__a, __b, __idx) __arm_vsetq_lane(__a, __b, __idx) |
| #define vgetq_lane(__a, __idx) __arm_vgetq_lane(__a, __idx) |
| #define vshlcq_m(__a, __b, __imm, __p) __arm_vshlcq_m(__a, __b, __imm, __p) |
| #define vrndxq(__a) __arm_vrndxq(__a) |
| #define vrndq(__a) __arm_vrndq(__a) |
| #define vrndpq(__a) __arm_vrndpq(__a) |
| #define vrndnq(__a) __arm_vrndnq(__a) |
| #define vrndmq(__a) __arm_vrndmq(__a) |
| #define vrndaq(__a) __arm_vrndaq(__a) |
| #define vcvttq_f32(__a) __arm_vcvttq_f32(__a) |
| #define vcvtbq_f32(__a) __arm_vcvtbq_f32(__a) |
| #define vcvtq(__a) __arm_vcvtq(__a) |
| #define vcvtq_n(__a, __imm6) __arm_vcvtq_n(__a, __imm6) |
| #define vminnmvq(__a, __b) __arm_vminnmvq(__a, __b) |
| #define vminnmq(__a, __b) __arm_vminnmq(__a, __b) |
| #define vminnmavq(__a, __b) __arm_vminnmavq(__a, __b) |
| #define vminnmaq(__a, __b) __arm_vminnmaq(__a, __b) |
| #define vmaxnmvq(__a, __b) __arm_vmaxnmvq(__a, __b) |
| #define vmaxnmq(__a, __b) __arm_vmaxnmq(__a, __b) |
| #define vmaxnmavq(__a, __b) __arm_vmaxnmavq(__a, __b) |
| #define vmaxnmaq(__a, __b) __arm_vmaxnmaq(__a, __b) |
| #define vcmulq_rot90(__a, __b) __arm_vcmulq_rot90(__a, __b) |
| #define vcmulq_rot270(__a, __b) __arm_vcmulq_rot270(__a, __b) |
| #define vcmulq_rot180(__a, __b) __arm_vcmulq_rot180(__a, __b) |
| #define vcmulq(__a, __b) __arm_vcmulq(__a, __b) |
| #define vcvtaq_m(__inactive, __a, __p) __arm_vcvtaq_m(__inactive, __a, __p) |
| #define vcvtq_m(__inactive, __a, __p) __arm_vcvtq_m(__inactive, __a, __p) |
| #define vcvtbq_m(__a, __b, __p) __arm_vcvtbq_m(__a, __b, __p) |
| #define vcvttq_m(__a, __b, __p) __arm_vcvttq_m(__a, __b, __p) |
| #define vcmlaq(__a, __b, __c) __arm_vcmlaq(__a, __b, __c) |
| #define vcmlaq_rot180(__a, __b, __c) __arm_vcmlaq_rot180(__a, __b, __c) |
| #define vcmlaq_rot270(__a, __b, __c) __arm_vcmlaq_rot270(__a, __b, __c) |
| #define vcmlaq_rot90(__a, __b, __c) __arm_vcmlaq_rot90(__a, __b, __c) |
| #define vfmaq(__a, __b, __c) __arm_vfmaq(__a, __b, __c) |
| #define vfmasq(__a, __b, __c) __arm_vfmasq(__a, __b, __c) |
| #define vfmsq(__a, __b, __c) __arm_vfmsq(__a, __b, __c) |
| #define vcvtmq_m(__inactive, __a, __p) __arm_vcvtmq_m(__inactive, __a, __p) |
| #define vcvtnq_m(__inactive, __a, __p) __arm_vcvtnq_m(__inactive, __a, __p) |
| #define vcvtpq_m(__inactive, __a, __p) __arm_vcvtpq_m(__inactive, __a, __p) |
| #define vmaxnmaq_m(__a, __b, __p) __arm_vmaxnmaq_m(__a, __b, __p) |
| #define vmaxnmavq_p(__a, __b, __p) __arm_vmaxnmavq_p(__a, __b, __p) |
| #define vmaxnmvq_p(__a, __b, __p) __arm_vmaxnmvq_p(__a, __b, __p) |
| #define vminnmaq_m(__a, __b, __p) __arm_vminnmaq_m(__a, __b, __p) |
| #define vminnmavq_p(__a, __b, __p) __arm_vminnmavq_p(__a, __b, __p) |
| #define vminnmvq_p(__a, __b, __p) __arm_vminnmvq_p(__a, __b, __p) |
| #define vrndaq_m(__inactive, __a, __p) __arm_vrndaq_m(__inactive, __a, __p) |
| #define vrndmq_m(__inactive, __a, __p) __arm_vrndmq_m(__inactive, __a, __p) |
| #define vrndnq_m(__inactive, __a, __p) __arm_vrndnq_m(__inactive, __a, __p) |
| #define vrndpq_m(__inactive, __a, __p) __arm_vrndpq_m(__inactive, __a, __p) |
| #define vrndq_m(__inactive, __a, __p) __arm_vrndq_m(__inactive, __a, __p) |
| #define vrndxq_m(__inactive, __a, __p) __arm_vrndxq_m(__inactive, __a, __p) |
| #define vcvtq_m_n(__inactive, __a, __imm6, __p) __arm_vcvtq_m_n(__inactive, __a, __imm6, __p) |
| #define vcmlaq_m(__a, __b, __c, __p) __arm_vcmlaq_m(__a, __b, __c, __p) |
| #define vcmlaq_rot180_m(__a, __b, __c, __p) __arm_vcmlaq_rot180_m(__a, __b, __c, __p) |
| #define vcmlaq_rot270_m(__a, __b, __c, __p) __arm_vcmlaq_rot270_m(__a, __b, __c, __p) |
| #define vcmlaq_rot90_m(__a, __b, __c, __p) __arm_vcmlaq_rot90_m(__a, __b, __c, __p) |
| #define vcmulq_m(__inactive, __a, __b, __p) __arm_vcmulq_m(__inactive, __a, __b, __p) |
| #define vcmulq_rot180_m(__inactive, __a, __b, __p) __arm_vcmulq_rot180_m(__inactive, __a, __b, __p) |
| #define vcmulq_rot270_m(__inactive, __a, __b, __p) __arm_vcmulq_rot270_m(__inactive, __a, __b, __p) |
| #define vcmulq_rot90_m(__inactive, __a, __b, __p) __arm_vcmulq_rot90_m(__inactive, __a, __b, __p) |
| #define vfmaq_m(__a, __b, __c, __p) __arm_vfmaq_m(__a, __b, __c, __p) |
| #define vfmasq_m(__a, __b, __c, __p) __arm_vfmasq_m(__a, __b, __c, __p) |
| #define vfmsq_m(__a, __b, __c, __p) __arm_vfmsq_m(__a, __b, __c, __p) |
| #define vmaxnmq_m(__inactive, __a, __b, __p) __arm_vmaxnmq_m(__inactive, __a, __b, __p) |
| #define vminnmq_m(__inactive, __a, __b, __p) __arm_vminnmq_m(__inactive, __a, __b, __p) |
| #define vreinterpretq_f16(__a) __arm_vreinterpretq_f16(__a) |
| #define vreinterpretq_f32(__a) __arm_vreinterpretq_f32(__a) |
| #define vminnmq_x(__a, __b, __p) __arm_vminnmq_x(__a, __b, __p) |
| #define vmaxnmq_x(__a, __b, __p) __arm_vmaxnmq_x(__a, __b, __p) |
| #define vcmulq_x(__a, __b, __p) __arm_vcmulq_x(__a, __b, __p) |
| #define vcmulq_rot90_x(__a, __b, __p) __arm_vcmulq_rot90_x(__a, __b, __p) |
| #define vcmulq_rot180_x(__a, __b, __p) __arm_vcmulq_rot180_x(__a, __b, __p) |
| #define vcmulq_rot270_x(__a, __b, __p) __arm_vcmulq_rot270_x(__a, __b, __p) |
| #define vcvtq_x(__a, __p) __arm_vcvtq_x(__a, __p) |
| #define vcvtq_x_n(__a, __imm6, __p) __arm_vcvtq_x_n(__a, __imm6, __p) |
| #define vrndq_x(__a, __p) __arm_vrndq_x(__a, __p) |
| #define vrndnq_x(__a, __p) __arm_vrndnq_x(__a, __p) |
| #define vrndmq_x(__a, __p) __arm_vrndmq_x(__a, __p) |
| #define vrndpq_x(__a, __p) __arm_vrndpq_x(__a, __p) |
| #define vrndaq_x(__a, __p) __arm_vrndaq_x(__a, __p) |
| #define vrndxq_x(__a, __p) __arm_vrndxq_x(__a, __p) |
| |
| |
| #define vst4q_s8( __addr, __value) __arm_vst4q_s8( __addr, __value) |
| #define vst4q_s16( __addr, __value) __arm_vst4q_s16( __addr, __value) |
| #define vst4q_s32( __addr, __value) __arm_vst4q_s32( __addr, __value) |
| #define vst4q_u8( __addr, __value) __arm_vst4q_u8( __addr, __value) |
| #define vst4q_u16( __addr, __value) __arm_vst4q_u16( __addr, __value) |
| #define vst4q_u32( __addr, __value) __arm_vst4q_u32( __addr, __value) |
| #define vst4q_f16( __addr, __value) __arm_vst4q_f16( __addr, __value) |
| #define vst4q_f32( __addr, __value) __arm_vst4q_f32( __addr, __value) |
| #define vrndxq_f16(__a) __arm_vrndxq_f16(__a) |
| #define vrndxq_f32(__a) __arm_vrndxq_f32(__a) |
| #define vrndq_f16(__a) __arm_vrndq_f16(__a) |
| #define vrndq_f32(__a) __arm_vrndq_f32(__a) |
| #define vrndpq_f16(__a) __arm_vrndpq_f16(__a) |
| #define vrndpq_f32(__a) __arm_vrndpq_f32(__a) |
| #define vrndnq_f16(__a) __arm_vrndnq_f16(__a) |
| #define vrndnq_f32(__a) __arm_vrndnq_f32(__a) |
| #define vrndmq_f16(__a) __arm_vrndmq_f16(__a) |
| #define vrndmq_f32(__a) __arm_vrndmq_f32(__a) |
| #define vrndaq_f16(__a) __arm_vrndaq_f16(__a) |
| #define vrndaq_f32(__a) __arm_vrndaq_f32(__a) |
| #define vrev64q_f16(__a) __arm_vrev64q_f16(__a) |
| #define vrev64q_f32(__a) __arm_vrev64q_f32(__a) |
| #define vnegq_f16(__a) __arm_vnegq_f16(__a) |
| #define vnegq_f32(__a) __arm_vnegq_f32(__a) |
| #define vdupq_n_f16(__a) __arm_vdupq_n_f16(__a) |
| #define vdupq_n_f32(__a) __arm_vdupq_n_f32(__a) |
| #define vabsq_f16(__a) __arm_vabsq_f16(__a) |
| #define vabsq_f32(__a) __arm_vabsq_f32(__a) |
| #define vrev32q_f16(__a) __arm_vrev32q_f16(__a) |
| #define vcvttq_f32_f16(__a) __arm_vcvttq_f32_f16(__a) |
| #define vcvtbq_f32_f16(__a) __arm_vcvtbq_f32_f16(__a) |
| #define vcvtq_f16_s16(__a) __arm_vcvtq_f16_s16(__a) |
| #define vcvtq_f32_s32(__a) __arm_vcvtq_f32_s32(__a) |
| #define vcvtq_f16_u16(__a) __arm_vcvtq_f16_u16(__a) |
| #define vcvtq_f32_u32(__a) __arm_vcvtq_f32_u32(__a) |
| #define vdupq_n_s8(__a) __arm_vdupq_n_s8(__a) |
| #define vdupq_n_s16(__a) __arm_vdupq_n_s16(__a) |
| #define vdupq_n_s32(__a) __arm_vdupq_n_s32(__a) |
| #define vabsq_s8(__a) __arm_vabsq_s8(__a) |
| #define vabsq_s16(__a) __arm_vabsq_s16(__a) |
| #define vabsq_s32(__a) __arm_vabsq_s32(__a) |
| #define vclsq_s8(__a) __arm_vclsq_s8(__a) |
| #define vclsq_s16(__a) __arm_vclsq_s16(__a) |
| #define vclsq_s32(__a) __arm_vclsq_s32(__a) |
| #define vclzq_s8(__a) __arm_vclzq_s8(__a) |
| #define vclzq_s16(__a) __arm_vclzq_s16(__a) |
| #define vclzq_s32(__a) __arm_vclzq_s32(__a) |
| #define vnegq_s8(__a) __arm_vnegq_s8(__a) |
| #define vnegq_s16(__a) __arm_vnegq_s16(__a) |
| #define vnegq_s32(__a) __arm_vnegq_s32(__a) |
| #define vaddlvq_s32(__a) __arm_vaddlvq_s32(__a) |
| #define vaddvq_s8(__a) __arm_vaddvq_s8(__a) |
| #define vaddvq_s16(__a) __arm_vaddvq_s16(__a) |
| #define vaddvq_s32(__a) __arm_vaddvq_s32(__a) |
| #define vmovlbq_s8(__a) __arm_vmovlbq_s8(__a) |
| #define vmovlbq_s16(__a) __arm_vmovlbq_s16(__a) |
| #define vmovltq_s8(__a) __arm_vmovltq_s8(__a) |
| #define vmovltq_s16(__a) __arm_vmovltq_s16(__a) |
| #define vmvnq_s8(__a) __arm_vmvnq_s8(__a) |
| #define vmvnq_s16(__a) __arm_vmvnq_s16(__a) |
| #define vmvnq_s32(__a) __arm_vmvnq_s32(__a) |
| #define vmvnq_n_s16( __imm) __arm_vmvnq_n_s16( __imm) |
| #define vmvnq_n_s32( __imm) __arm_vmvnq_n_s32( __imm) |
| #define vrev16q_s8(__a) __arm_vrev16q_s8(__a) |
| #define vrev32q_s8(__a) __arm_vrev32q_s8(__a) |
| #define vrev32q_s16(__a) __arm_vrev32q_s16(__a) |
| #define vrev64q_s8(__a) __arm_vrev64q_s8(__a) |
| #define vrev64q_s16(__a) __arm_vrev64q_s16(__a) |
| #define vrev64q_s32(__a) __arm_vrev64q_s32(__a) |
| #define vqabsq_s8(__a) __arm_vqabsq_s8(__a) |
| #define vqabsq_s16(__a) __arm_vqabsq_s16(__a) |
| #define vqabsq_s32(__a) __arm_vqabsq_s32(__a) |
| #define vqnegq_s8(__a) __arm_vqnegq_s8(__a) |
| #define vqnegq_s16(__a) __arm_vqnegq_s16(__a) |
| #define vqnegq_s32(__a) __arm_vqnegq_s32(__a) |
| #define vcvtaq_s16_f16(__a) __arm_vcvtaq_s16_f16(__a) |
| #define vcvtaq_s32_f32(__a) __arm_vcvtaq_s32_f32(__a) |
| #define vcvtnq_s16_f16(__a) __arm_vcvtnq_s16_f16(__a) |
| #define vcvtnq_s32_f32(__a) __arm_vcvtnq_s32_f32(__a) |
| #define vcvtpq_s16_f16(__a) __arm_vcvtpq_s16_f16(__a) |
| #define vcvtpq_s32_f32(__a) __arm_vcvtpq_s32_f32(__a) |
| #define vcvtmq_s16_f16(__a) __arm_vcvtmq_s16_f16(__a) |
| #define vcvtmq_s32_f32(__a) __arm_vcvtmq_s32_f32(__a) |
| #define vcvtq_s16_f16(__a) __arm_vcvtq_s16_f16(__a) |
| #define vcvtq_s32_f32(__a) __arm_vcvtq_s32_f32(__a) |
| #define vrev64q_u8(__a) __arm_vrev64q_u8(__a) |
| #define vrev64q_u16(__a) __arm_vrev64q_u16(__a) |
| #define vrev64q_u32(__a) __arm_vrev64q_u32(__a) |
| #define vmvnq_u8(__a) __arm_vmvnq_u8(__a) |
| #define vmvnq_u16(__a) __arm_vmvnq_u16(__a) |
| #define vmvnq_u32(__a) __arm_vmvnq_u32(__a) |
| #define vdupq_n_u8(__a) __arm_vdupq_n_u8(__a) |
| #define vdupq_n_u16(__a) __arm_vdupq_n_u16(__a) |
| #define vdupq_n_u32(__a) __arm_vdupq_n_u32(__a) |
| #define vclzq_u8(__a) __arm_vclzq_u8(__a) |
| #define vclzq_u16(__a) __arm_vclzq_u16(__a) |
| #define vclzq_u32(__a) __arm_vclzq_u32(__a) |
| #define vaddvq_u8(__a) __arm_vaddvq_u8(__a) |
| #define vaddvq_u16(__a) __arm_vaddvq_u16(__a) |
| #define vaddvq_u32(__a) __arm_vaddvq_u32(__a) |
| #define vrev32q_u8(__a) __arm_vrev32q_u8(__a) |
| #define vrev32q_u16(__a) __arm_vrev32q_u16(__a) |
| #define vmovltq_u8(__a) __arm_vmovltq_u8(__a) |
| #define vmovltq_u16(__a) __arm_vmovltq_u16(__a) |
| #define vmovlbq_u8(__a) __arm_vmovlbq_u8(__a) |
| #define vmovlbq_u16(__a) __arm_vmovlbq_u16(__a) |
| #define vmvnq_n_u16( __imm) __arm_vmvnq_n_u16( __imm) |
| #define vmvnq_n_u32( __imm) __arm_vmvnq_n_u32( __imm) |
| #define vrev16q_u8(__a) __arm_vrev16q_u8(__a) |
| #define vaddlvq_u32(__a) __arm_vaddlvq_u32(__a) |
| #define vcvtq_u16_f16(__a) __arm_vcvtq_u16_f16(__a) |
| #define vcvtq_u32_f32(__a) __arm_vcvtq_u32_f32(__a) |
| #define vcvtpq_u16_f16(__a) __arm_vcvtpq_u16_f16(__a) |
| #define vcvtpq_u32_f32(__a) __arm_vcvtpq_u32_f32(__a) |
| #define vcvtnq_u16_f16(__a) __arm_vcvtnq_u16_f16(__a) |
| #define vcvtnq_u32_f32(__a) __arm_vcvtnq_u32_f32(__a) |
| #define vcvtmq_u16_f16(__a) __arm_vcvtmq_u16_f16(__a) |
| #define vcvtmq_u32_f32(__a) __arm_vcvtmq_u32_f32(__a) |
| #define vcvtaq_u16_f16(__a) __arm_vcvtaq_u16_f16(__a) |
| #define vcvtaq_u32_f32(__a) __arm_vcvtaq_u32_f32(__a) |
| #define vctp16q(__a) __arm_vctp16q(__a) |
| #define vctp32q(__a) __arm_vctp32q(__a) |
| #define vctp64q(__a) __arm_vctp64q(__a) |
| #define vctp8q(__a) __arm_vctp8q(__a) |
| #define vpnot(__a) __arm_vpnot(__a) |
| #define vsubq_n_f16(__a, __b) __arm_vsubq_n_f16(__a, __b) |
| #define vsubq_n_f32(__a, __b) __arm_vsubq_n_f32(__a, __b) |
| #define vbrsrq_n_f16(__a, __b) __arm_vbrsrq_n_f16(__a, __b) |
| #define vbrsrq_n_f32(__a, __b) __arm_vbrsrq_n_f32(__a, __b) |
| #define vcvtq_n_f16_s16(__a, __imm6) __arm_vcvtq_n_f16_s16(__a, __imm6) |
| #define vcvtq_n_f32_s32(__a, __imm6) __arm_vcvtq_n_f32_s32(__a, __imm6) |
| #define vcvtq_n_f16_u16(__a, __imm6) __arm_vcvtq_n_f16_u16(__a, __imm6) |
| #define vcvtq_n_f32_u32(__a, __imm6) __arm_vcvtq_n_f32_u32(__a, __imm6) |
| #define vcreateq_f16(__a, __b) __arm_vcreateq_f16(__a, __b) |
| #define vcreateq_f32(__a, __b) __arm_vcreateq_f32(__a, __b) |
| #define vcvtq_n_s16_f16(__a, __imm6) __arm_vcvtq_n_s16_f16(__a, __imm6) |
| #define vcvtq_n_s32_f32(__a, __imm6) __arm_vcvtq_n_s32_f32(__a, __imm6) |
| #define vcvtq_n_u16_f16(__a, __imm6) __arm_vcvtq_n_u16_f16(__a, __imm6) |
| #define vcvtq_n_u32_f32(__a, __imm6) __arm_vcvtq_n_u32_f32(__a, __imm6) |
| #define vcreateq_u8(__a, __b) __arm_vcreateq_u8(__a, __b) |
| #define vcreateq_u16(__a, __b) __arm_vcreateq_u16(__a, __b) |
| #define vcreateq_u32(__a, __b) __arm_vcreateq_u32(__a, __b) |
| #define vcreateq_u64(__a, __b) __arm_vcreateq_u64(__a, __b) |
| #define vcreateq_s8(__a, __b) __arm_vcreateq_s8(__a, __b) |
| #define vcreateq_s16(__a, __b) __arm_vcreateq_s16(__a, __b) |
| #define vcreateq_s32(__a, __b) __arm_vcreateq_s32(__a, __b) |
| #define vcreateq_s64(__a, __b) __arm_vcreateq_s64(__a, __b) |
| #define vshrq_n_s8(__a, __imm) __arm_vshrq_n_s8(__a, __imm) |
| #define vshrq_n_s16(__a, __imm) __arm_vshrq_n_s16(__a, __imm) |
| #define vshrq_n_s32(__a, __imm) __arm_vshrq_n_s32(__a, __imm) |
| #define vshrq_n_u8(__a, __imm) __arm_vshrq_n_u8(__a, __imm) |
| #define vshrq_n_u16(__a, __imm) __arm_vshrq_n_u16(__a, __imm) |
| #define vshrq_n_u32(__a, __imm) __arm_vshrq_n_u32(__a, __imm) |
| #define vaddlvq_p_s32(__a, __p) __arm_vaddlvq_p_s32(__a, __p) |
| #define vaddlvq_p_u32(__a, __p) __arm_vaddlvq_p_u32(__a, __p) |
| #define vcmpneq_s8(__a, __b) __arm_vcmpneq_s8(__a, __b) |
| #define vcmpneq_s16(__a, __b) __arm_vcmpneq_s16(__a, __b) |
| #define vcmpneq_s32(__a, __b) __arm_vcmpneq_s32(__a, __b) |
| #define vcmpneq_u8(__a, __b) __arm_vcmpneq_u8(__a, __b) |
| #define vcmpneq_u16(__a, __b) __arm_vcmpneq_u16(__a, __b) |
| #define vcmpneq_u32(__a, __b) __arm_vcmpneq_u32(__a, __b) |
| #define vshlq_s8(__a, __b) __arm_vshlq_s8(__a, __b) |
| #define vshlq_s16(__a, __b) __arm_vshlq_s16(__a, __b) |
| #define vshlq_s32(__a, __b) __arm_vshlq_s32(__a, __b) |
| #define vshlq_u8(__a, __b) __arm_vshlq_u8(__a, __b) |
| #define vshlq_u16(__a, __b) __arm_vshlq_u16(__a, __b) |
| #define vshlq_u32(__a, __b) __arm_vshlq_u32(__a, __b) |
| #define vsubq_u8(__a, __b) __arm_vsubq_u8(__a, __b) |
| #define vsubq_n_u8(__a, __b) __arm_vsubq_n_u8(__a, __b) |
| #define vrmulhq_u8(__a, __b) __arm_vrmulhq_u8(__a, __b) |
| #define vrhaddq_u8(__a, __b) __arm_vrhaddq_u8(__a, __b) |
| #define vqsubq_u8(__a, __b) __arm_vqsubq_u8(__a, __b) |
| #define vqsubq_n_u8(__a, __b) __arm_vqsubq_n_u8(__a, __b) |
| #define vqaddq_u8(__a, __b) __arm_vqaddq_u8(__a, __b) |
| #define vqaddq_n_u8(__a, __b) __arm_vqaddq_n_u8(__a, __b) |
| #define vorrq_u8(__a, __b) __arm_vorrq_u8(__a, __b) |
| #define vornq_u8(__a, __b) __arm_vornq_u8(__a, __b) |
| #define vmulq_u8(__a, __b) __arm_vmulq_u8(__a, __b) |
| #define vmulq_n_u8(__a, __b) __arm_vmulq_n_u8(__a, __b) |
| #define vmulltq_int_u8(__a, __b) __arm_vmulltq_int_u8(__a, __b) |
| #define vmullbq_int_u8(__a, __b) __arm_vmullbq_int_u8(__a, __b) |
| #define vmulhq_u8(__a, __b) __arm_vmulhq_u8(__a, __b) |
| #define vmladavq_u8(__a, __b) __arm_vmladavq_u8(__a, __b) |
| #define vminvq_u8(__a, __b) __arm_vminvq_u8(__a, __b) |
| #define vminq_u8(__a, __b) __arm_vminq_u8(__a, __b) |
| #define vmaxvq_u8(__a, __b) __arm_vmaxvq_u8(__a, __b) |
| #define vmaxq_u8(__a, __b) __arm_vmaxq_u8(__a, __b) |
| #define vhsubq_u8(__a, __b) __arm_vhsubq_u8(__a, __b) |
| #define vhsubq_n_u8(__a, __b) __arm_vhsubq_n_u8(__a, __b) |
| #define vhaddq_u8(__a, __b) __arm_vhaddq_u8(__a, __b) |
| #define vhaddq_n_u8(__a, __b) __arm_vhaddq_n_u8(__a, __b) |
| #define veorq_u8(__a, __b) __arm_veorq_u8(__a, __b) |
| #define vcmpneq_n_u8(__a, __b) __arm_vcmpneq_n_u8(__a, __b) |
| #define vcmphiq_u8(__a, __b) __arm_vcmphiq_u8(__a, __b) |
| #define vcmphiq_n_u8(__a, __b) __arm_vcmphiq_n_u8(__a, __b) |
| #define vcmpeqq_u8(__a, __b) __arm_vcmpeqq_u8(__a, __b) |
| #define vcmpeqq_n_u8(__a, __b) __arm_vcmpeqq_n_u8(__a, __b) |
| #define vcmpcsq_u8(__a, __b) __arm_vcmpcsq_u8(__a, __b) |
| #define vcmpcsq_n_u8(__a, __b) __arm_vcmpcsq_n_u8(__a, __b) |
| #define vcaddq_rot90_u8(__a, __b) __arm_vcaddq_rot90_u8(__a, __b) |
| #define vcaddq_rot270_u8(__a, __b) __arm_vcaddq_rot270_u8(__a, __b) |
| #define vbicq_u8(__a, __b) __arm_vbicq_u8(__a, __b) |
| #define vandq_u8(__a, __b) __arm_vandq_u8(__a, __b) |
| #define vaddvq_p_u8(__a, __p) __arm_vaddvq_p_u8(__a, __p) |
| #define vaddvaq_u8(__a, __b) __arm_vaddvaq_u8(__a, __b) |
| #define vaddq_n_u8(__a, __b) __arm_vaddq_n_u8(__a, __b) |
| #define vabdq_u8(__a, __b) __arm_vabdq_u8(__a, __b) |
| #define vshlq_r_u8(__a, __b) __arm_vshlq_r_u8(__a, __b) |
| #define vrshlq_u8(__a, __b) __arm_vrshlq_u8(__a, __b) |
| #define vrshlq_n_u8(__a, __b) __arm_vrshlq_n_u8(__a, __b) |
| #define vqshlq_u8(__a, __b) __arm_vqshlq_u8(__a, __b) |
| #define vqshlq_r_u8(__a, __b) __arm_vqshlq_r_u8(__a, __b) |
| #define vqrshlq_u8(__a, __b) __arm_vqrshlq_u8(__a, __b) |
| #define vqrshlq_n_u8(__a, __b) __arm_vqrshlq_n_u8(__a, __b) |
| #define vminavq_s8(__a, __b) __arm_vminavq_s8(__a, __b) |
| #define vminaq_s8(__a, __b) __arm_vminaq_s8(__a, __b) |
| #define vmaxavq_s8(__a, __b) __arm_vmaxavq_s8(__a, __b) |
| #define vmaxaq_s8(__a, __b) __arm_vmaxaq_s8(__a, __b) |
| #define vbrsrq_n_u8(__a, __b) __arm_vbrsrq_n_u8(__a, __b) |
| #define vshlq_n_u8(__a, __imm) __arm_vshlq_n_u8(__a, __imm) |
| #define vrshrq_n_u8(__a, __imm) __arm_vrshrq_n_u8(__a, __imm) |
| #define vqshlq_n_u8(__a, __imm) __arm_vqshlq_n_u8(__a, __imm) |
| #define vcmpneq_n_s8(__a, __b) __arm_vcmpneq_n_s8(__a, __b) |
| #define vcmpltq_s8(__a, __b) __arm_vcmpltq_s8(__a, __b) |
| #define vcmpltq_n_s8(__a, __b) __arm_vcmpltq_n_s8(__a, __b) |
| #define vcmpleq_s8(__a, __b) __arm_vcmpleq_s8(__a, __b) |
| #define vcmpleq_n_s8(__a, __b) __arm_vcmpleq_n_s8(__a, __b) |
| #define vcmpgtq_s8(__a, __b) __arm_vcmpgtq_s8(__a, __b) |
| #define vcmpgtq_n_s8(__a, __b) __arm_vcmpgtq_n_s8(__a, __b) |
| #define vcmpgeq_s8(__a, __b) __arm_vcmpgeq_s8(__a, __b) |
| #define vcmpgeq_n_s8(__a, __b) __arm_vcmpgeq_n_s8(__a, __b) |
| #define vcmpeqq_s8(__a, __b) __arm_vcmpeqq_s8(__a, __b) |
| #define vcmpeqq_n_s8(__a, __b) __arm_vcmpeqq_n_s8(__a, __b) |
| #define vqshluq_n_s8(__a, __imm) __arm_vqshluq_n_s8(__a, __imm) |
| #define vaddvq_p_s8(__a, __p) __arm_vaddvq_p_s8(__a, __p) |
| #define vsubq_s8(__a, __b) __arm_vsubq_s8(__a, __b) |
| #define vsubq_n_s8(__a, __b) __arm_vsubq_n_s8(__a, __b) |
| #define vshlq_r_s8(__a, __b) __arm_vshlq_r_s8(__a, __b) |
| #define vrshlq_s8(__a, __b) __arm_vrshlq_s8(__a, __b) |
| #define vrshlq_n_s8(__a, __b) __arm_vrshlq_n_s8(__a, __b) |
| #define vrmulhq_s8(__a, __b) __arm_vrmulhq_s8(__a, __b) |
| #define vrhaddq_s8(__a, __b) __arm_vrhaddq_s8(__a, __b) |
| #define vqsubq_s8(__a, __b) __arm_vqsubq_s8(__a, __b) |
| #define vqsubq_n_s8(__a, __b) __arm_vqsubq_n_s8(__a, __b) |
| #define vqshlq_s8(__a, __b) __arm_vqshlq_s8(__a, __b) |
| #define vqshlq_r_s8(__a, __b) __arm_vqshlq_r_s8(__a, __b) |
| #define vqrshlq_s8(__a, __b) __arm_vqrshlq_s8(__a, __b) |
| #define vqrshlq_n_s8(__a, __b) __arm_vqrshlq_n_s8(__a, __b) |
| #define vqrdmulhq_s8(__a, __b) __arm_vqrdmulhq_s8(__a, __b) |
| #define vqrdmulhq_n_s8(__a, __b) __arm_vqrdmulhq_n_s8(__a, __b) |
| #define vqdmulhq_s8(__a, __b) __arm_vqdmulhq_s8(__a, __b) |
| #define vqdmulhq_n_s8(__a, __b) __arm_vqdmulhq_n_s8(__a, __b) |
| #define vqaddq_s8(__a, __b) __arm_vqaddq_s8(__a, __b) |
| #define vqaddq_n_s8(__a, __b) __arm_vqaddq_n_s8(__a, __b) |
| #define vorrq_s8(__a, __b) __arm_vorrq_s8(__a, __b) |
| #define vornq_s8(__a, __b) __arm_vornq_s8(__a, __b) |
| #define vmulq_s8(__a, __b) __arm_vmulq_s8(__a, __b) |
| #define vmulq_n_s8(__a, __b) __arm_vmulq_n_s8(__a, __b) |
| #define vmulltq_int_s8(__a, __b) __arm_vmulltq_int_s8(__a, __b) |
| #define vmullbq_int_s8(__a, __b) __arm_vmullbq_int_s8(__a, __b) |
| #define vmulhq_s8(__a, __b) __arm_vmulhq_s8(__a, __b) |
| #define vmlsdavxq_s8(__a, __b) __arm_vmlsdavxq_s8(__a, __b) |
| #define vmlsdavq_s8(__a, __b) __arm_vmlsdavq_s8(__a, __b) |
| #define vmladavxq_s8(__a, __b) __arm_vmladavxq_s8(__a, __b) |
| #define vmladavq_s8(__a, __b) __arm_vmladavq_s8(__a, __b) |
| #define vminvq_s8(__a, __b) __arm_vminvq_s8(__a, __b) |
| #define vminq_s8(__a, __b) __arm_vminq_s8(__a, __b) |
| #define vmaxvq_s8(__a, __b) __arm_vmaxvq_s8(__a, __b) |
| #define vmaxq_s8(__a, __b) __arm_vmaxq_s8(__a, __b) |
| #define vhsubq_s8(__a, __b) __arm_vhsubq_s8(__a, __b) |
| #define vhsubq_n_s8(__a, __b) __arm_vhsubq_n_s8(__a, __b) |
| #define vhcaddq_rot90_s8(__a, __b) __arm_vhcaddq_rot90_s8(__a, __b) |
| #define vhcaddq_rot270_s8(__a, __b) __arm_vhcaddq_rot270_s8(__a, __b) |
| #define vhaddq_s8(__a, __b) __arm_vhaddq_s8(__a, __b) |
| #define vhaddq_n_s8(__a, __b) __arm_vhaddq_n_s8(__a, __b) |
| #define veorq_s8(__a, __b) __arm_veorq_s8(__a, __b) |
| #define vcaddq_rot90_s8(__a, __b) __arm_vcaddq_rot90_s8(__a, __b) |
| #define vcaddq_rot270_s8(__a, __b) __arm_vcaddq_rot270_s8(__a, __b) |
| #define vbrsrq_n_s8(__a, __b) __arm_vbrsrq_n_s8(__a, __b) |
| #define vbicq_s8(__a, __b) __arm_vbicq_s8(__a, __b) |
| #define vandq_s8(__a, __b) __arm_vandq_s8(__a, __b) |
| #define vaddvaq_s8(__a, __b) __arm_vaddvaq_s8(__a, __b) |
| #define vaddq_n_s8(__a, __b) __arm_vaddq_n_s8(__a, __b) |
| #define vabdq_s8(__a, __b) __arm_vabdq_s8(__a, __b) |
| #define vshlq_n_s8(__a, __imm) __arm_vshlq_n_s8(__a, __imm) |
| #define vrshrq_n_s8(__a, __imm) __arm_vrshrq_n_s8(__a, __imm) |
| #define vqshlq_n_s8(__a, __imm) __arm_vqshlq_n_s8(__a, __imm) |
| #define vsubq_u16(__a, __b) __arm_vsubq_u16(__a, __b) |
| #define vsubq_n_u16(__a, __b) __arm_vsubq_n_u16(__a, __b) |
| #define vrmulhq_u16(__a, __b) __arm_vrmulhq_u16(__a, __b) |
| #define vrhaddq_u16(__a, __b) __arm_vrhaddq_u16(__a, __b) |
| #define vqsubq_u16(__a, __b) __arm_vqsubq_u16(__a, __b) |
| #define vqsubq_n_u16(__a, __b) __arm_vqsubq_n_u16(__a, __b) |
| #define vqaddq_u16(__a, __b) __arm_vqaddq_u16(__a, __b) |
| #define vqaddq_n_u16(__a, __b) __arm_vqaddq_n_u16(__a, __b) |
| #define vorrq_u16(__a, __b) __arm_vorrq_u16(__a, __b) |
| #define vornq_u16(__a, __b) __arm_vornq_u16(__a, __b) |
| #define vmulq_u16(__a, __b) __arm_vmulq_u16(__a, __b) |
| #define vmulq_n_u16(__a, __b) __arm_vmulq_n_u16(__a, __b) |
| #define vmulltq_int_u16(__a, __b) __arm_vmulltq_int_u16(__a, __b) |
| #define vmullbq_int_u16(__a, __b) __arm_vmullbq_int_u16(__a, __b) |
| #define vmulhq_u16(__a, __b) __arm_vmulhq_u16(__a, __b) |
| #define vmladavq_u16(__a, __b) __arm_vmladavq_u16(__a, __b) |
| #define vminvq_u16(__a, __b) __arm_vminvq_u16(__a, __b) |
| #define vminq_u16(__a, __b) __arm_vminq_u16(__a, __b) |
| #define vmaxvq_u16(__a, __b) __arm_vmaxvq_u16(__a, __b) |
| #define vmaxq_u16(__a, __b) __arm_vmaxq_u16(__a, __b) |
| #define vhsubq_u16(__a, __b) __arm_vhsubq_u16(__a, __b) |
| #define vhsubq_n_u16(__a, __b) __arm_vhsubq_n_u16(__a, __b) |
| #define vhaddq_u16(__a, __b) __arm_vhaddq_u16(__a, __b) |
| #define vhaddq_n_u16(__a, __b) __arm_vhaddq_n_u16(__a, __b) |
| #define veorq_u16(__a, __b) __arm_veorq_u16(__a, __b) |
| #define vcmpneq_n_u16(__a, __b) __arm_vcmpneq_n_u16(__a, __b) |
| #define vcmphiq_u16(__a, __b) __arm_vcmphiq_u16(__a, __b) |
| #define vcmphiq_n_u16(__a, __b) __arm_vcmphiq_n_u16(__a, __b) |
| #define vcmpeqq_u16(__a, __b) __arm_vcmpeqq_u16(__a, __b) |
| #define vcmpeqq_n_u16(__a, __b) __arm_vcmpeqq_n_u16(__a, __b) |
| #define vcmpcsq_u16(__a, __b) __arm_vcmpcsq_u16(__a, __b) |
| #define vcmpcsq_n_u16(__a, __b) __arm_vcmpcsq_n_u16(__a, __b) |
| #define vcaddq_rot90_u16(__a, __b) __arm_vcaddq_rot90_u16(__a, __b) |
| #define vcaddq_rot270_u16(__a, __b) __arm_vcaddq_rot270_u16(__a, __b) |
| #define vbicq_u16(__a, __b) __arm_vbicq_u16(__a, __b) |
| #define vandq_u16(__a, __b) __arm_vandq_u16(__a, __b) |
| #define vaddvq_p_u16(__a, __p) __arm_vaddvq_p_u16(__a, __p) |
| #define vaddvaq_u16(__a, __b) __arm_vaddvaq_u16(__a, __b) |
| #define vaddq_n_u16(__a, __b) __arm_vaddq_n_u16(__a, __b) |
| #define vabdq_u16(__a, __b) __arm_vabdq_u16(__a, __b) |
| #define vshlq_r_u16(__a, __b) __arm_vshlq_r_u16(__a, __b) |
| #define vrshlq_u16(__a, __b) __arm_vrshlq_u16(__a, __b) |
| #define vrshlq_n_u16(__a, __b) __arm_vrshlq_n_u16(__a, __b) |
| #define vqshlq_u16(__a, __b) __arm_vqshlq_u16(__a, __b) |
| #define vqshlq_r_u16(__a, __b) __arm_vqshlq_r_u16(__a, __b) |
| #define vqrshlq_u16(__a, __b) __arm_vqrshlq_u16(__a, __b) |
| #define vqrshlq_n_u16(__a, __b) __arm_vqrshlq_n_u16(__a, __b) |
| #define vminavq_s16(__a, __b) __arm_vminavq_s16(__a, __b) |
| #define vminaq_s16(__a, __b) __arm_vminaq_s16(__a, __b) |
| #define vmaxavq_s16(__a, __b) __arm_vmaxavq_s16(__a, __b) |
| #define vmaxaq_s16(__a, __b) __arm_vmaxaq_s16(__a, __b) |
| #define vbrsrq_n_u16(__a, __b) __arm_vbrsrq_n_u16(__a, __b) |
| #define vshlq_n_u16(__a, __imm) __arm_vshlq_n_u16(__a, __imm) |
| #define vrshrq_n_u16(__a, __imm) __arm_vrshrq_n_u16(__a, __imm) |
| #define vqshlq_n_u16(__a, __imm) __arm_vqshlq_n_u16(__a, __imm) |
| #define vcmpneq_n_s16(__a, __b) __arm_vcmpneq_n_s16(__a, __b) |
| #define vcmpltq_s16(__a, __b) __arm_vcmpltq_s16(__a, __b) |
| #define vcmpltq_n_s16(__a, __b) __arm_vcmpltq_n_s16(__a, __b) |
| #define vcmpleq_s16(__a, __b) __arm_vcmpleq_s16(__a, __b) |
| #define vcmpleq_n_s16(__a, __b) __arm_vcmpleq_n_s16(__a, __b) |
| #define vcmpgtq_s16(__a, __b) __arm_vcmpgtq_s16(__a, __b) |
| #define vcmpgtq_n_s16(__a, __b) __arm_vcmpgtq_n_s16(__a, __b) |
| #define vcmpgeq_s16(__a, __b) __arm_vcmpgeq_s16(__a, __b) |
| #define vcmpgeq_n_s16(__a, __b) __arm_vcmpgeq_n_s16(__a, __b) |
| #define vcmpeqq_s16(__a, __b) __arm_vcmpeqq_s16(__a, __b) |
| #define vcmpeqq_n_s16(__a, __b) __arm_vcmpeqq_n_s16(__a, __b) |
| #define vqshluq_n_s16(__a, __imm) __arm_vqshluq_n_s16(__a, __imm) |
| #define vaddvq_p_s16(__a, __p) __arm_vaddvq_p_s16(__a, __p) |
| #define vsubq_s16(__a, __b) __arm_vsubq_s16(__a, __b) |
| #define vsubq_n_s16(__a, __b) __arm_vsubq_n_s16(__a, __b) |
| #define vshlq_r_s16(__a, __b) __arm_vshlq_r_s16(__a, __b) |
| #define vrshlq_s16(__a, __b) __arm_vrshlq_s16(__a, __b) |
| #define vrshlq_n_s16(__a, __b) __arm_vrshlq_n_s16(__a, __b) |
| #define vrmulhq_s16(__a, __b) __arm_vrmulhq_s16(__a, __b) |
| #define vrhaddq_s16(__a, __b) __arm_vrhaddq_s16(__a, __b) |
| #define vqsubq_s16(__a, __b) __arm_vqsubq_s16(__a, __b) |
| #define vqsubq_n_s16(__a, __b) __arm_vqsubq_n_s16(__a, __b) |
| #define vqshlq_s16(__a, __b) __arm_vqshlq_s16(__a, __b) |
| #define vqshlq_r_s16(__a, __b) __arm_vqshlq_r_s16(__a, __b) |
| #define vqrshlq_s16(__a, __b) __arm_vqrshlq_s16(__a, __b) |
| #define vqrshlq_n_s16(__a, __b) __arm_vqrshlq_n_s16(__a, __b) |
| #define vqrdmulhq_s16(__a, __b) __arm_vqrdmulhq_s16(__a, __b) |
| #define vqrdmulhq_n_s16(__a, __b) __arm_vqrdmulhq_n_s16(__a, __b) |
| #define vqdmulhq_s16(__a, __b) __arm_vqdmulhq_s16(__a, __b) |
| #define vqdmulhq_n_s16(__a, __b) __arm_vqdmulhq_n_s16(__a, __b) |
| #define vqaddq_s16(__a, __b) __arm_vqaddq_s16(__a, __b) |
| #define vqaddq_n_s16(__a, __b) __arm_vqaddq_n_s16(__a, __b) |
| #define vorrq_s16(__a, __b) __arm_vorrq_s16(__a, __b) |
| #define vornq_s16(__a, __b) __arm_vornq_s16(__a, __b) |
| #define vmulq_s16(__a, __b) __arm_vmulq_s16(__a, __b) |
| #define vmulq_n_s16(__a, __b) __arm_vmulq_n_s16(__a, __b) |
| #define vmulltq_int_s16(__a, __b) __arm_vmulltq_int_s16(__a, __b) |
| #define vmullbq_int_s16(__a, __b) __arm_vmullbq_int_s16(__a, __b) |
| #define vmulhq_s16(__a, __b) __arm_vmulhq_s16(__a, __b) |
| #define vmlsdavxq_s16(__a, __b) __arm_vmlsdavxq_s16(__a, __b) |
| #define vmlsdavq_s16(__a, __b) __arm_vmlsdavq_s16(__a, __b) |
| #define vmladavxq_s16(__a, __b) __arm_vmladavxq_s16(__a, __b) |
| #define vmladavq_s16(__a, __b) __arm_vmladavq_s16(__a, __b) |
| #define vminvq_s16(__a, __b) __arm_vminvq_s16(__a, __b) |
| #define vminq_s16(__a, __b) __arm_vminq_s16(__a, __b) |
| #define vmaxvq_s16(__a, __b) __arm_vmaxvq_s16(__a, __b) |
| #define vmaxq_s16(__a, __b) __arm_vmaxq_s16(__a, __b) |
| #define vhsubq_s16(__a, __b) __arm_vhsubq_s16(__a, __b) |
| #define vhsubq_n_s16(__a, __b) __arm_vhsubq_n_s16(__a, __b) |
| #define vhcaddq_rot90_s16(__a, __b) __arm_vhcaddq_rot90_s16(__a, __b) |
| #define vhcaddq_rot270_s16(__a, __b) __arm_vhcaddq_rot270_s16(__a, __b) |
| #define vhaddq_s16(__a, __b) __arm_vhaddq_s16(__a, __b) |
| #define vhaddq_n_s16(__a, __b) __arm_vhaddq_n_s16(__a, __b) |
| #define veorq_s16(__a, __b) __arm_veorq_s16(__a, __b) |
| #define vcaddq_rot90_s16(__a, __b) __arm_vcaddq_rot90_s16(__a, __b) |
| #define vcaddq_rot270_s16(__a, __b) __arm_vcaddq_rot270_s16(__a, __b) |
| #define vbrsrq_n_s16(__a, __b) __arm_vbrsrq_n_s16(__a, __b) |
| #define vbicq_s16(__a, __b) __arm_vbicq_s16(__a, __b) |
| #define vandq_s16(__a, __b) __arm_vandq_s16(__a, __b) |
| #define vaddvaq_s16(__a, __b) __arm_vaddvaq_s16(__a, __b) |
| #define vaddq_n_s16(__a, __b) __arm_vaddq_n_s16(__a, __b) |
| #define vabdq_s16(__a, __b) __arm_vabdq_s16(__a, __b) |
| #define vshlq_n_s16(__a, __imm) __arm_vshlq_n_s16(__a, __imm) |
| #define vrshrq_n_s16(__a, __imm) __arm_vrshrq_n_s16(__a, __imm) |
| #define vqshlq_n_s16(__a, __imm) __arm_vqshlq_n_s16(__a, __imm) |
| #define vsubq_u32(__a, __b) __arm_vsubq_u32(__a, __b) |
| #define vsubq_n_u32(__a, __b) __arm_vsubq_n_u32(__a, __b) |
| #define vrmulhq_u32(__a, __b) __arm_vrmulhq_u32(__a, __b) |
| #define vrhaddq_u32(__a, __b) __arm_vrhaddq_u32(__a, __b) |
| #define vqsubq_u32(__a, __b) __arm_vqsubq_u32(__a, __b) |
| #define vqsubq_n_u32(__a, __b) __arm_vqsubq_n_u32(__a, __b) |
| #define vqaddq_u32(__a, __b) __arm_vqaddq_u32(__a, __b) |
| #define vqaddq_n_u32(__a, __b) __arm_vqaddq_n_u32(__a, __b) |
| #define vorrq_u32(__a, __b) __arm_vorrq_u32(__a, __b) |
| #define vornq_u32(__a, __b) __arm_vornq_u32(__a, __b) |
| #define vmulq_u32(__a, __b) __arm_vmulq_u32(__a, __b) |
| #define vmulq_n_u32(__a, __b) __arm_vmulq_n_u32(__a, __b) |
| #define vmulltq_int_u32(__a, __b) __arm_vmulltq_int_u32(__a, __b) |
| #define vmullbq_int_u32(__a, __b) __arm_vmullbq_int_u32(__a, __b) |
| #define vmulhq_u32(__a, __b) __arm_vmulhq_u32(__a, __b) |
| #define vmladavq_u32(__a, __b) __arm_vmladavq_u32(__a, __b) |
| #define vminvq_u32(__a, __b) __arm_vminvq_u32(__a, __b) |
| #define vminq_u32(__a, __b) __arm_vminq_u32(__a, __b) |
| #define vmaxvq_u32(__a, __b) __arm_vmaxvq_u32(__a, __b) |
| #define vmaxq_u32(__a, __b) __arm_vmaxq_u32(__a, __b) |
| #define vhsubq_u32(__a, __b) __arm_vhsubq_u32(__a, __b) |
| #define vhsubq_n_u32(__a, __b) __arm_vhsubq_n_u32(__a, __b) |
| #define vhaddq_u32(__a, __b) __arm_vhaddq_u32(__a, __b) |
| #define vhaddq_n_u32(__a, __b) __arm_vhaddq_n_u32(__a, __b) |
| #define veorq_u32(__a, __b) __arm_veorq_u32(__a, __b) |
| #define vcmpneq_n_u32(__a, __b) __arm_vcmpneq_n_u32(__a, __b) |
| #define vcmphiq_u32(__a, __b) __arm_vcmphiq_u32(__a, __b) |
| #define vcmphiq_n_u32(__a, __b) __arm_vcmphiq_n_u32(__a, __b) |
| #define vcmpeqq_u32(__a, __b) __arm_vcmpeqq_u32(__a, __b) |
| #define vcmpeqq_n_u32(__a, __b) __arm_vcmpeqq_n_u32(__a, __b) |
| #define vcmpcsq_u32(__a, __b) __arm_vcmpcsq_u32(__a, __b) |
| #define vcmpcsq_n_u32(__a, __b) __arm_vcmpcsq_n_u32(__a, __b) |
| #define vcaddq_rot90_u32(__a, __b) __arm_vcaddq_rot90_u32(__a, __b) |
| #define vcaddq_rot270_u32(__a, __b) __arm_vcaddq_rot270_u32(__a, __b) |
| #define vbicq_u32(__a, __b) __arm_vbicq_u32(__a, __b) |
| #define vandq_u32(__a, __b) __arm_vandq_u32(__a, __b) |
| #define vaddvq_p_u32(__a, __p) __arm_vaddvq_p_u32(__a, __p) |
| #define vaddvaq_u32(__a, __b) __arm_vaddvaq_u32(__a, __b) |
| #define vaddq_n_u32(__a, __b) __arm_vaddq_n_u32(__a, __b) |
| #define vabdq_u32(__a, __b) __arm_vabdq_u32(__a, __b) |
| #define vshlq_r_u32(__a, __b) __arm_vshlq_r_u32(__a, __b) |
| #define vrshlq_u32(__a, __b) __arm_vrshlq_u32(__a, __b) |
| #define vrshlq_n_u32(__a, __b) __arm_vrshlq_n_u32(__a, __b) |
| #define vqshlq_u32(__a, __b) __arm_vqshlq_u32(__a, __b) |
| #define vqshlq_r_u32(__a, __b) __arm_vqshlq_r_u32(__a, __b) |
| #define vqrshlq_u32(__a, __b) __arm_vqrshlq_u32(__a, __b) |
| #define vqrshlq_n_u32(__a, __b) __arm_vqrshlq_n_u32(__a, __b) |
| #define vminavq_s32(__a, __b) __arm_vminavq_s32(__a, __b) |
| #define vminaq_s32(__a, __b) __arm_vminaq_s32(__a, __b) |
| #define vmaxavq_s32(__a, __b) __arm_vmaxavq_s32(__a, __b) |
| #define vmaxaq_s32(__a, __b) __arm_vmaxaq_s32(__a, __b) |
| #define vbrsrq_n_u32(__a, __b) __arm_vbrsrq_n_u32(__a, __b) |
| #define vshlq_n_u32(__a, __imm) __arm_vshlq_n_u32(__a, __imm) |
| #define vrshrq_n_u32(__a, __imm) __arm_vrshrq_n_u32(__a, __imm) |
| #define vqshlq_n_u32(__a, __imm) __arm_vqshlq_n_u32(__a, __imm) |
| #define vcmpneq_n_s32(__a, __b) __arm_vcmpneq_n_s32(__a, __b) |
| #define vcmpltq_s32(__a, __b) __arm_vcmpltq_s32(__a, __b) |
| #define vcmpltq_n_s32(__a, __b) __arm_vcmpltq_n_s32(__a, __b) |
| #define vcmpleq_s32(__a, __b) __arm_vcmpleq_s32(__a, __b) |
| #define vcmpleq_n_s32(__a, __b) __arm_vcmpleq_n_s32(__a, __b) |
| #define vcmpgtq_s32(__a, __b) __arm_vcmpgtq_s32(__a, __b) |
| #define vcmpgtq_n_s32(__a, __b) __arm_vcmpgtq_n_s32(__a, __b) |
| #define vcmpgeq_s32(__a, __b) __arm_vcmpgeq_s32(__a, __b) |
| #define vcmpgeq_n_s32(__a, __b) __arm_vcmpgeq_n_s32(__a, __b) |
| #define vcmpeqq_s32(__a, __b) __arm_vcmpeqq_s32(__a, __b) |
| #define vcmpeqq_n_s32(__a, __b) __arm_vcmpeqq_n_s32(__a, __b) |
| #define vqshluq_n_s32(__a, __imm) __arm_vqshluq_n_s32(__a, __imm) |
| #define vaddvq_p_s32(__a, __p) __arm_vaddvq_p_s32(__a, __p) |
| #define vsubq_s32(__a, __b) __arm_vsubq_s32(__a, __b) |
| #define vsubq_n_s32(__a, __b) __arm_vsubq_n_s32(__a, __b) |
| #define vshlq_r_s32(__a, __b) __arm_vshlq_r_s32(__a, __b) |
| #define vrshlq_s32(__a, __b) __arm_vrshlq_s32(__a, __b) |
| #define vrshlq_n_s32(__a, __b) __arm_vrshlq_n_s32(__a, __b) |
| #define vrmulhq_s32(__a, __b) __arm_vrmulhq_s32(__a, __b) |
| #define vrhaddq_s32(__a, __b) __arm_vrhaddq_s32(__a, __b) |
| #define vqsubq_s32(__a, __b) __arm_vqsubq_s32(__a, __b) |
| #define vqsubq_n_s32(__a, __b) __arm_vqsubq_n_s32(__a, __b) |
| #define vqshlq_s32(__a, __b) __arm_vqshlq_s32(__a, __b) |
| #define vqshlq_r_s32(__a, __b) __arm_vqshlq_r_s32(__a, __b) |
| #define vqrshlq_s32(__a, __b) __arm_vqrshlq_s32(__a, __b) |
| #define vqrshlq_n_s32(__a, __b) __arm_vqrshlq_n_s32(__a, __b) |
| #define vqrdmulhq_s32(__a, __b) __arm_vqrdmulhq_s32(__a, __b) |
| #define vqrdmulhq_n_s32(__a, __b) __arm_vqrdmulhq_n_s32(__a, __b) |
| #define vqdmulhq_s32(__a, __b) __arm_vqdmulhq_s32(__a, __b) |
| #define vqdmulhq_n_s32(__a, __b) __arm_vqdmulhq_n_s32(__a, __b) |
| #define vqaddq_s32(__a, __b) __arm_vqaddq_s32(__a, __b) |
| #define vqaddq_n_s32(__a, __b) __arm_vqaddq_n_s32(__a, __b) |
| #define vorrq_s32(__a, __b) __arm_vorrq_s32(__a, __b) |
| #define vornq_s32(__a, __b) __arm_vornq_s32(__a, __b) |
| #define vmulq_s32(__a, __b) __arm_vmulq_s32(__a, __b) |
| #define vmulq_n_s32(__a, __b) __arm_vmulq_n_s32(__a, __b) |
| #define vmulltq_int_s32(__a, __b) __arm_vmulltq_int_s32(__a, __b) |
| #define vmullbq_int_s32(__a, __b) __arm_vmullbq_int_s32(__a, __b) |
| #define vmulhq_s32(__a, __b) __arm_vmulhq_s32(__a, __b) |
| #define vmlsdavxq_s32(__a, __b) __arm_vmlsdavxq_s32(__a, __b) |
| #define vmlsdavq_s32(__a, __b) __arm_vmlsdavq_s32(__a, __b) |
| #define vmladavxq_s32(__a, __b) __arm_vmladavxq_s32(__a, __b) |
| #define vmladavq_s32(__a, __b) __arm_vmladavq_s32(__a, __b) |
| #define vminvq_s32(__a, __b) __arm_vminvq_s32(__a, __b) |
| #define vminq_s32(__a, __b) __arm_vminq_s32(__a, __b) |
| #define vmaxvq_s32(__a, __b) __arm_vmaxvq_s32(__a, __b) |
| #define vmaxq_s32(__a, __b) __arm_vmaxq_s32(__a, __b) |
| #define vhsubq_s32(__a, __b) __arm_vhsubq_s32(__a, __b) |
| #define vhsubq_n_s32(__a, __b) __arm_vhsubq_n_s32(__a, __b) |
| #define vhcaddq_rot90_s32(__a, __b) __arm_vhcaddq_rot90_s32(__a, __b) |
| #define vhcaddq_rot270_s32(__a, __b) __arm_vhcaddq_rot270_s32(__a, __b) |
| #define vhaddq_s32(__a, __b) __arm_vhaddq_s32(__a, __b) |
| #define vhaddq_n_s32(__a, __b) __arm_vhaddq_n_s32(__a, __b) |
| #define veorq_s32(__a, __b) __arm_veorq_s32(__a, __b) |
| #define vcaddq_rot90_s32(__a, __b) __arm_vcaddq_rot90_s32(__a, __b) |
| #define vcaddq_rot270_s32(__a, __b) __arm_vcaddq_rot270_s32(__a, __b) |
| #define vbrsrq_n_s32(__a, __b) __arm_vbrsrq_n_s32(__a, __b) |
| #define vbicq_s32(__a, __b) __arm_vbicq_s32(__a, __b) |
| #define vandq_s32(__a, __b) __arm_vandq_s32(__a, __b) |
| #define vaddvaq_s32(__a, __b) __arm_vaddvaq_s32(__a, __b) |
| #define vaddq_n_s32(__a, __b) __arm_vaddq_n_s32(__a, __b) |
| #define vabdq_s32(__a, __b) __arm_vabdq_s32(__a, __b) |
| #define vshlq_n_s32(__a, __imm) __arm_vshlq_n_s32(__a, __imm) |
| #define vrshrq_n_s32(__a, __imm) __arm_vrshrq_n_s32(__a, __imm) |
| #define vqshlq_n_s32(__a, __imm) __arm_vqshlq_n_s32(__a, __imm) |
| #define vqmovntq_u16(__a, __b) __arm_vqmovntq_u16(__a, __b) |
| #define vqmovnbq_u16(__a, __b) __arm_vqmovnbq_u16(__a, __b) |
| #define vmulltq_poly_p8(__a, __b) __arm_vmulltq_poly_p8(__a, __b) |
| #define vmullbq_poly_p8(__a, __b) __arm_vmullbq_poly_p8(__a, __b) |
| #define vmovntq_u16(__a, __b) __arm_vmovntq_u16(__a, __b) |
| #define vmovnbq_u16(__a, __b) __arm_vmovnbq_u16(__a, __b) |
| #define vmlaldavq_u16(__a, __b) __arm_vmlaldavq_u16(__a, __b) |
| #define vqmovuntq_s16(__a, __b) __arm_vqmovuntq_s16(__a, __b) |
| #define vqmovunbq_s16(__a, __b) __arm_vqmovunbq_s16(__a, __b) |
| #define vshlltq_n_u8(__a, __imm) __arm_vshlltq_n_u8(__a, __imm) |
| #define vshllbq_n_u8(__a, __imm) __arm_vshllbq_n_u8(__a, __imm) |
| #define vorrq_n_u16(__a, __imm) __arm_vorrq_n_u16(__a, __imm) |
| #define vbicq_n_u16(__a, __imm) __arm_vbicq_n_u16(__a, __imm) |
| #define vcmpneq_n_f16(__a, __b) __arm_vcmpneq_n_f16(__a, __b) |
| #define vcmpneq_f16(__a, __b) __arm_vcmpneq_f16(__a, __b) |
| #define vcmpltq_n_f16(__a, __b) __arm_vcmpltq_n_f16(__a, __b) |
| #define vcmpltq_f16(__a, __b) __arm_vcmpltq_f16(__a, __b) |
| #define vcmpleq_n_f16(__a, __b) __arm_vcmpleq_n_f16(__a, __b) |
| #define vcmpleq_f16(__a, __b) __arm_vcmpleq_f16(__a, __b) |
| #define vcmpgtq_n_f16(__a, __b) __arm_vcmpgtq_n_f16(__a, __b) |
| #define vcmpgtq_f16(__a, __b) __arm_vcmpgtq_f16(__a, __b) |
| #define vcmpgeq_n_f16(__a, __b) __arm_vcmpgeq_n_f16(__a, __b) |
| #define vcmpgeq_f16(__a, __b) __arm_vcmpgeq_f16(__a, __b) |
| #define vcmpeqq_n_f16(__a, __b) __arm_vcmpeqq_n_f16(__a, __b) |
| #define vcmpeqq_f16(__a, __b) __arm_vcmpeqq_f16(__a, __b) |
| #define vsubq_f16(__a, __b) __arm_vsubq_f16(__a, __b) |
| #define vqmovntq_s16(__a, __b) __arm_vqmovntq_s16(__a, __b) |
| #define vqmovnbq_s16(__a, __b) __arm_vqmovnbq_s16(__a, __b) |
| #define vqdmulltq_s16(__a, __b) __arm_vqdmulltq_s16(__a, __b) |
| #define vqdmulltq_n_s16(__a, __b) __arm_vqdmulltq_n_s16(__a, __b) |
| #define vqdmullbq_s16(__a, __b) __arm_vqdmullbq_s16(__a, __b) |
| #define vqdmullbq_n_s16(__a, __b) __arm_vqdmullbq_n_s16(__a, __b) |
| #define vorrq_f16(__a, __b) __arm_vorrq_f16(__a, __b) |
| #define vornq_f16(__a, __b) __arm_vornq_f16(__a, __b) |
| #define vmulq_n_f16(__a, __b) __arm_vmulq_n_f16(__a, __b) |
| #define vmulq_f16(__a, __b) __arm_vmulq_f16(__a, __b) |
| #define vmovntq_s16(__a, __b) __arm_vmovntq_s16(__a, __b) |
| #define vmovnbq_s16(__a, __b) __arm_vmovnbq_s16(__a, __b) |
| #define vmlsldavxq_s16(__a, __b) __arm_vmlsldavxq_s16(__a, __b) |
| #define vmlsldavq_s16(__a, __b) __arm_vmlsldavq_s16(__a, __b) |
| #define vmlaldavxq_s16(__a, __b) __arm_vmlaldavxq_s16(__a, __b) |
| #define vmlaldavq_s16(__a, __b) __arm_vmlaldavq_s16(__a, __b) |
| #define vminnmvq_f16(__a, __b) __arm_vminnmvq_f16(__a, __b) |
| #define vminnmq_f16(__a, __b) __arm_vminnmq_f16(__a, __b) |
| #define vminnmavq_f16(__a, __b) __arm_vminnmavq_f16(__a, __b) |
| #define vminnmaq_f16(__a, __b) __arm_vminnmaq_f16(__a, __b) |
| #define vmaxnmvq_f16(__a, __b) __arm_vmaxnmvq_f16(__a, __b) |
| #define vmaxnmq_f16(__a, __b) __arm_vmaxnmq_f16(__a, __b) |
| #define vmaxnmavq_f16(__a, __b) __arm_vmaxnmavq_f16(__a, __b) |
| #define vmaxnmaq_f16(__a, __b) __arm_vmaxnmaq_f16(__a, __b) |
| #define veorq_f16(__a, __b) __arm_veorq_f16(__a, __b) |
| #define vcmulq_rot90_f16(__a, __b) __arm_vcmulq_rot90_f16(__a, __b) |
| #define vcmulq_rot270_f16(__a, __b) __arm_vcmulq_rot270_f16(__a, __b) |
| #define vcmulq_rot180_f16(__a, __b) __arm_vcmulq_rot180_f16(__a, __b) |
| #define vcmulq_f16(__a, __b) __arm_vcmulq_f16(__a, __b) |
| #define vcaddq_rot90_f16(__a, __b) __arm_vcaddq_rot90_f16(__a, __b) |
| #define vcaddq_rot270_f16(__a, __b) __arm_vcaddq_rot270_f16(__a, __b) |
| #define vbicq_f16(__a, __b) __arm_vbicq_f16(__a, __b) |
| #define vandq_f16(__a, __b) __arm_vandq_f16(__a, __b) |
| #define vaddq_n_f16(__a, __b) __arm_vaddq_n_f16(__a, __b) |
| #define vabdq_f16(__a, __b) __arm_vabdq_f16(__a, __b) |
| #define vshlltq_n_s8(__a, __imm) __arm_vshlltq_n_s8(__a, __imm) |
| #define vshllbq_n_s8(__a, __imm) __arm_vshllbq_n_s8(__a, __imm) |
| #define vorrq_n_s16(__a, __imm) __arm_vorrq_n_s16(__a, __imm) |
| #define vbicq_n_s16(__a, __imm) __arm_vbicq_n_s16(__a, __imm) |
| #define vqmovntq_u32(__a, __b) __arm_vqmovntq_u32(__a, __b) |
| #define vqmovnbq_u32(__a, __b) __arm_vqmovnbq_u32(__a, __b) |
| #define vmulltq_poly_p16(__a, __b) __arm_vmulltq_poly_p16(__a, __b) |
| #define vmullbq_poly_p16(__a, __b) __arm_vmullbq_poly_p16(__a, __b) |
| #define vmovntq_u32(__a, __b) __arm_vmovntq_u32(__a, __b) |
| #define vmovnbq_u32(__a, __b) __arm_vmovnbq_u32(__a, __b) |
| #define vmlaldavq_u32(__a, __b) __arm_vmlaldavq_u32(__a, __b) |
| #define vqmovuntq_s32(__a, __b) __arm_vqmovuntq_s32(__a, __b) |
| #define vqmovunbq_s32(__a, __b) __arm_vqmovunbq_s32(__a, __b) |
| #define vshlltq_n_u16(__a, __imm) __arm_vshlltq_n_u16(__a, __imm) |
| #define vshllbq_n_u16(__a, __imm) __arm_vshllbq_n_u16(__a, __imm) |
| #define vorrq_n_u32(__a, __imm) __arm_vorrq_n_u32(__a, __imm) |
| #define vbicq_n_u32(__a, __imm) __arm_vbicq_n_u32(__a, __imm) |
| #define vcmpneq_n_f32(__a, __b) __arm_vcmpneq_n_f32(__a, __b) |
| #define vcmpneq_f32(__a, __b) __arm_vcmpneq_f32(__a, __b) |
| #define vcmpltq_n_f32(__a, __b) __arm_vcmpltq_n_f32(__a, __b) |
| #define vcmpltq_f32(__a, __b) __arm_vcmpltq_f32(__a, __b) |
| #define vcmpleq_n_f32(__a, __b) __arm_vcmpleq_n_f32(__a, __b) |
| #define vcmpleq_f32(__a, __b) __arm_vcmpleq_f32(__a, __b) |
| #define vcmpgtq_n_f32(__a, __b) __arm_vcmpgtq_n_f32(__a, __b) |
| #define vcmpgtq_f32(__a, __b) __arm_vcmpgtq_f32(__a, __b) |
| #define vcmpgeq_n_f32(__a, __b) __arm_vcmpgeq_n_f32(__a, __b) |
| #define vcmpgeq_f32(__a, __b) __arm_vcmpgeq_f32(__a, __b) |
| #define vcmpeqq_n_f32(__a, __b) __arm_vcmpeqq_n_f32(__a, __b) |
| #define vcmpeqq_f32(__a, __b) __arm_vcmpeqq_f32(__a, __b) |
| #define vsubq_f32(__a, __b) __arm_vsubq_f32(__a, __b) |
| #define vqmovntq_s32(__a, __b) __arm_vqmovntq_s32(__a, __b) |
| #define vqmovnbq_s32(__a, __b) __arm_vqmovnbq_s32(__a, __b) |
| #define vqdmulltq_s32(__a, __b) __arm_vqdmulltq_s32(__a, __b) |
| #define vqdmulltq_n_s32(__a, __b) __arm_vqdmulltq_n_s32(__a, __b) |
| #define vqdmullbq_s32(__a, __b) __arm_vqdmullbq_s32(__a, __b) |
| #define vqdmullbq_n_s32(__a, __b) __arm_vqdmullbq_n_s32(__a, __b) |
| #define vorrq_f32(__a, __b) __arm_vorrq_f32(__a, __b) |
| #define vornq_f32(__a, __b) __arm_vornq_f32(__a, __b) |
| #define vmulq_n_f32(__a, __b) __arm_vmulq_n_f32(__a, __b) |
| #define vmulq_f32(__a, __b) __arm_vmulq_f32(__a, __b) |
| #define vmovntq_s32(__a, __b) __arm_vmovntq_s32(__a, __b) |
| #define vmovnbq_s32(__a, __b) __arm_vmovnbq_s32(__a, __b) |
| #define vmlsldavxq_s32(__a, __b) __arm_vmlsldavxq_s32(__a, __b) |
| #define vmlsldavq_s32(__a, __b) __arm_vmlsldavq_s32(__a, __b) |
| #define vmlaldavxq_s32(__a, __b) __arm_vmlaldavxq_s32(__a, __b) |
| #define vmlaldavq_s32(__a, __b) __arm_vmlaldavq_s32(__a, __b) |
| #define vminnmvq_f32(__a, __b) __arm_vminnmvq_f32(__a, __b) |
| #define vminnmq_f32(__a, __b) __arm_vminnmq_f32(__a, __b) |
| #define vminnmavq_f32(__a, __b) __arm_vminnmavq_f32(__a, __b) |
| #define vminnmaq_f32(__a, __b) __arm_vminnmaq_f32(__a, __b) |
| #define vmaxnmvq_f32(__a, __b) __arm_vmaxnmvq_f32(__a, __b) |
| #define vmaxnmq_f32(__a, __b) __arm_vmaxnmq_f32(__a, __b) |
| #define vmaxnmavq_f32(__a, __b) __arm_vmaxnmavq_f32(__a, __b) |
| #define vmaxnmaq_f32(__a, __b) __arm_vmaxnmaq_f32(__a, __b) |
| #define veorq_f32(__a, __b) __arm_veorq_f32(__a, __b) |
| #define vcmulq_rot90_f32(__a, __b) __arm_vcmulq_rot90_f32(__a, __b) |
| #define vcmulq_rot270_f32(__a, __b) __arm_vcmulq_rot270_f32(__a, __b) |
| #define vcmulq_rot180_f32(__a, __b) __arm_vcmulq_rot180_f32(__a, __b) |
| #define vcmulq_f32(__a, __b) __arm_vcmulq_f32(__a, __b) |
| #define vcaddq_rot90_f32(__a, __b) __arm_vcaddq_rot90_f32(__a, __b) |
| #define vcaddq_rot270_f32(__a, __b) __arm_vcaddq_rot270_f32(__a, __b) |
| #define vbicq_f32(__a, __b) __arm_vbicq_f32(__a, __b) |
| #define vandq_f32(__a, __b) __arm_vandq_f32(__a, __b) |
| #define vaddq_n_f32(__a, __b) __arm_vaddq_n_f32(__a, __b) |
| #define vabdq_f32(__a, __b) __arm_vabdq_f32(__a, __b) |
| #define vshlltq_n_s16(__a, __imm) __arm_vshlltq_n_s16(__a, __imm) |
| #define vshllbq_n_s16(__a, __imm) __arm_vshllbq_n_s16(__a, __imm) |
| #define vorrq_n_s32(__a, __imm) __arm_vorrq_n_s32(__a, __imm) |
| #define vbicq_n_s32(__a, __imm) __arm_vbicq_n_s32(__a, __imm) |
| #define vrmlaldavhq_u32(__a, __b) __arm_vrmlaldavhq_u32(__a, __b) |
| #define vctp8q_m(__a, __p) __arm_vctp8q_m(__a, __p) |
| #define vctp64q_m(__a, __p) __arm_vctp64q_m(__a, __p) |
| #define vctp32q_m(__a, __p) __arm_vctp32q_m(__a, __p) |
| #define vctp16q_m(__a, __p) __arm_vctp16q_m(__a, __p) |
| #define vaddlvaq_u32(__a, __b) __arm_vaddlvaq_u32(__a, __b) |
| #define vrmlsldavhxq_s32(__a, __b) __arm_vrmlsldavhxq_s32(__a, __b) |
| #define vrmlsldavhq_s32(__a, __b) __arm_vrmlsldavhq_s32(__a, __b) |
| #define vrmlaldavhxq_s32(__a, __b) __arm_vrmlaldavhxq_s32(__a, __b) |
| #define vrmlaldavhq_s32(__a, __b) __arm_vrmlaldavhq_s32(__a, __b) |
| #define vcvttq_f16_f32(__a, __b) __arm_vcvttq_f16_f32(__a, __b) |
| #define vcvtbq_f16_f32(__a, __b) __arm_vcvtbq_f16_f32(__a, __b) |
| #define vaddlvaq_s32(__a, __b) __arm_vaddlvaq_s32(__a, __b) |
| #define vabavq_s8(__a, __b, __c) __arm_vabavq_s8(__a, __b, __c) |
| #define vabavq_s16(__a, __b, __c) __arm_vabavq_s16(__a, __b, __c) |
| #define vabavq_s32(__a, __b, __c) __arm_vabavq_s32(__a, __b, __c) |
| #define vbicq_m_n_s16(__a, __imm, __p) __arm_vbicq_m_n_s16(__a, __imm, __p) |
| #define vbicq_m_n_s32(__a, __imm, __p) __arm_vbicq_m_n_s32(__a, __imm, __p) |
| #define vbicq_m_n_u16(__a, __imm, __p) __arm_vbicq_m_n_u16(__a, __imm, __p) |
| #define vbicq_m_n_u32(__a, __imm, __p) __arm_vbicq_m_n_u32(__a, __imm, __p) |
| #define vcmpeqq_m_f16(__a, __b, __p) __arm_vcmpeqq_m_f16(__a, __b, __p) |
| #define vcmpeqq_m_f32(__a, __b, __p) __arm_vcmpeqq_m_f32(__a, __b, __p) |
| #define vcvtaq_m_s16_f16(__inactive, __a, __p) __arm_vcvtaq_m_s16_f16(__inactive, __a, __p) |
| #define vcvtaq_m_u16_f16(__inactive, __a, __p) __arm_vcvtaq_m_u16_f16(__inactive, __a, __p) |
| #define vcvtaq_m_s32_f32(__inactive, __a, __p) __arm_vcvtaq_m_s32_f32(__inactive, __a, __p) |
| #define vcvtaq_m_u32_f32(__inactive, __a, __p) __arm_vcvtaq_m_u32_f32(__inactive, __a, __p) |
| #define vcvtq_m_f16_s16(__inactive, __a, __p) __arm_vcvtq_m_f16_s16(__inactive, __a, __p) |
| #define vcvtq_m_f16_u16(__inactive, __a, __p) __arm_vcvtq_m_f16_u16(__inactive, __a, __p) |
| #define vcvtq_m_f32_s32(__inactive, __a, __p) __arm_vcvtq_m_f32_s32(__inactive, __a, __p) |
| #define vcvtq_m_f32_u32(__inactive, __a, __p) __arm_vcvtq_m_f32_u32(__inactive, __a, __p) |
| #define vqrshrnbq_n_s16(__a, __b, __imm) __arm_vqrshrnbq_n_s16(__a, __b, __imm) |
| #define vqrshrnbq_n_u16(__a, __b, __imm) __arm_vqrshrnbq_n_u16(__a, __b, __imm) |
| #define vqrshrnbq_n_s32(__a, __b, __imm) __arm_vqrshrnbq_n_s32(__a, __b, __imm) |
| #define vqrshrnbq_n_u32(__a, __b, __imm) __arm_vqrshrnbq_n_u32(__a, __b, __imm) |
| #define vqrshrunbq_n_s16(__a, __b, __imm) __arm_vqrshrunbq_n_s16(__a, __b, __imm) |
| #define vqrshrunbq_n_s32(__a, __b, __imm) __arm_vqrshrunbq_n_s32(__a, __b, __imm) |
| #define vrmlaldavhaq_s32(__a, __b, __c) __arm_vrmlaldavhaq_s32(__a, __b, __c) |
| #define vrmlaldavhaq_u32(__a, __b, __c) __arm_vrmlaldavhaq_u32(__a, __b, __c) |
| #define vshlcq_s8(__a, __b, __imm) __arm_vshlcq_s8(__a, __b, __imm) |
| #define vshlcq_u8(__a, __b, __imm) __arm_vshlcq_u8(__a, __b, __imm) |
| #define vshlcq_s16(__a, __b, __imm) __arm_vshlcq_s16(__a, __b, __imm) |
| #define vshlcq_u16(__a, __b, __imm) __arm_vshlcq_u16(__a, __b, __imm) |
| #define vshlcq_s32(__a, __b, __imm) __arm_vshlcq_s32(__a, __b, __imm) |
| #define vshlcq_u32(__a, __b, __imm) __arm_vshlcq_u32(__a, __b, __imm) |
| #define vabavq_u8(__a, __b, __c) __arm_vabavq_u8(__a, __b, __c) |
| #define vabavq_u16(__a, __b, __c) __arm_vabavq_u16(__a, __b, __c) |
| #define vabavq_u32(__a, __b, __c) __arm_vabavq_u32(__a, __b, __c) |
| #define vpselq_u8(__a, __b, __p) __arm_vpselq_u8(__a, __b, __p) |
| #define vpselq_s8(__a, __b, __p) __arm_vpselq_s8(__a, __b, __p) |
| #define vrev64q_m_u8(__inactive, __a, __p) __arm_vrev64q_m_u8(__inactive, __a, __p) |
| #define vmvnq_m_u8(__inactive, __a, __p) __arm_vmvnq_m_u8(__inactive, __a, __p) |
| #define vmlasq_n_u8(__a, __b, __c) __arm_vmlasq_n_u8(__a, __b, __c) |
| #define vmlaq_n_u8(__a, __b, __c) __arm_vmlaq_n_u8(__a, __b, __c) |
| #define vmladavq_p_u8(__a, __b, __p) __arm_vmladavq_p_u8(__a, __b, __p) |
| #define vmladavaq_u8(__a, __b, __c) __arm_vmladavaq_u8(__a, __b, __c) |
| #define vminvq_p_u8(__a, __b, __p) __arm_vminvq_p_u8(__a, __b, __p) |
| #define vmaxvq_p_u8(__a, __b, __p) __arm_vmaxvq_p_u8(__a, __b, __p) |
| #define vdupq_m_n_u8(__inactive, __a, __p) __arm_vdupq_m_n_u8(__inactive, __a, __p) |
| #define vcmpneq_m_u8(__a, __b, __p) __arm_vcmpneq_m_u8(__a, __b, __p) |
| #define vcmpneq_m_n_u8(__a, __b, __p) __arm_vcmpneq_m_n_u8(__a, __b, __p) |
| #define vcmphiq_m_u8(__a, __b, __p) __arm_vcmphiq_m_u8(__a, __b, __p) |
| #define vcmphiq_m_n_u8(__a, __b, __p) __arm_vcmphiq_m_n_u8(__a, __b, __p) |
| #define vcmpeqq_m_u8(__a, __b, __p) __arm_vcmpeqq_m_u8(__a, __b, __p) |
| #define vcmpeqq_m_n_u8(__a, __b, __p) __arm_vcmpeqq_m_n_u8(__a, __b, __p) |
| #define vcmpcsq_m_u8(__a, __b, __p) __arm_vcmpcsq_m_u8(__a, __b, __p) |
| #define vcmpcsq_m_n_u8(__a, __b, __p) __arm_vcmpcsq_m_n_u8(__a, __b, __p) |
| #define vclzq_m_u8(__inactive, __a, __p) __arm_vclzq_m_u8(__inactive, __a, __p) |
| #define vaddvaq_p_u8(__a, __b, __p) __arm_vaddvaq_p_u8(__a, __b, __p) |
| #define vsriq_n_u8(__a, __b, __imm) __arm_vsriq_n_u8(__a, __b, __imm) |
| #define vsliq_n_u8(__a, __b, __imm) __arm_vsliq_n_u8(__a, __b, __imm) |
| #define vshlq_m_r_u8(__a, __b, __p) __arm_vshlq_m_r_u8(__a, __b, __p) |
| #define vrshlq_m_n_u8(__a, __b, __p) __arm_vrshlq_m_n_u8(__a, __b, __p) |
| #define vqshlq_m_r_u8(__a, __b, __p) __arm_vqshlq_m_r_u8(__a, __b, __p) |
| #define vqrshlq_m_n_u8(__a, __b, __p) __arm_vqrshlq_m_n_u8(__a, __b, __p) |
| #define vminavq_p_s8(__a, __b, __p) __arm_vminavq_p_s8(__a, __b, __p) |
| #define vminaq_m_s8(__a, __b, __p) __arm_vminaq_m_s8(__a, __b, __p) |
| #define vmaxavq_p_s8(__a, __b, __p) __arm_vmaxavq_p_s8(__a, __b, __p) |
| #define vmaxaq_m_s8(__a, __b, __p) __arm_vmaxaq_m_s8(__a, __b, __p) |
| #define vcmpneq_m_s8(__a, __b, __p) __arm_vcmpneq_m_s8(__a, __b, __p) |
| #define vcmpneq_m_n_s8(__a, __b, __p) __arm_vcmpneq_m_n_s8(__a, __b, __p) |
| #define vcmpltq_m_s8(__a, __b, __p) __arm_vcmpltq_m_s8(__a, __b, __p) |
| #define vcmpltq_m_n_s8(__a, __b, __p) __arm_vcmpltq_m_n_s8(__a, __b, __p) |
| #define vcmpleq_m_s8(__a, __b, __p) __arm_vcmpleq_m_s8(__a, __b, __p) |
| #define vcmpleq_m_n_s8(__a, __b, __p) __arm_vcmpleq_m_n_s8(__a, __b, __p) |
| #define vcmpgtq_m_s8(__a, __b, __p) __arm_vcmpgtq_m_s8(__a, __b, __p) |
| #define vcmpgtq_m_n_s8(__a, __b, __p) __arm_vcmpgtq_m_n_s8(__a, __b, __p) |
| #define vcmpgeq_m_s8(__a, __b, __p) __arm_vcmpgeq_m_s8(__a, __b, __p) |
| #define vcmpgeq_m_n_s8(__a, __b, __p) __arm_vcmpgeq_m_n_s8(__a, __b, __p) |
| #define vcmpeqq_m_s8(__a, __b, __p) __arm_vcmpeqq_m_s8(__a, __b, __p) |
| #define vcmpeqq_m_n_s8(__a, __b, __p) __arm_vcmpeqq_m_n_s8(__a, __b, __p) |
| #define vshlq_m_r_s8(__a, __b, __p) __arm_vshlq_m_r_s8(__a, __b, __p) |
| #define vrshlq_m_n_s8(__a, __b, __p) __arm_vrshlq_m_n_s8(__a, __b, __p) |
| #define vrev64q_m_s8(__inactive, __a, __p) __arm_vrev64q_m_s8(__inactive, __a, __p) |
| #define vqshlq_m_r_s8(__a, __b, __p) __arm_vqshlq_m_r_s8(__a, __b, __p) |
| #define vqrshlq_m_n_s8(__a, __b, __p) __arm_vqrshlq_m_n_s8(__a, __b, __p) |
| #define vqnegq_m_s8(__inactive, __a, __p) __arm_vqnegq_m_s8(__inactive, __a, __p) |
| #define vqabsq_m_s8(__inactive, __a, __p) __arm_vqabsq_m_s8(__inactive, __a, __p) |
| #define vnegq_m_s8(__inactive, __a, __p) __arm_vnegq_m_s8(__inactive, __a, __p) |
| #define vmvnq_m_s8(__inactive, __a, __p) __arm_vmvnq_m_s8(__inactive, __a, __p) |
| #define vmlsdavxq_p_s8(__a, __b, __p) __arm_vmlsdavxq_p_s8(__a, __b, __p) |
| #define vmlsdavq_p_s8(__a, __b, __p) __arm_vmlsdavq_p_s8(__a, __b, __p) |
| #define vmladavxq_p_s8(__a, __b, __p) __arm_vmladavxq_p_s8(__a, __b, __p) |
| #define vmladavq_p_s8(__a, __b, __p) __arm_vmladavq_p_s8(__a, __b, __p) |
| #define vminvq_p_s8(__a, __b, __p) __arm_vminvq_p_s8(__a, __b, __p) |
| #define vmaxvq_p_s8(__a, __b, __p) __arm_vmaxvq_p_s8(__a, __b, __p) |
| #define vdupq_m_n_s8(__inactive, __a, __p) __arm_vdupq_m_n_s8(__inactive, __a, __p) |
| #define vclzq_m_s8(__inactive, __a, __p) __arm_vclzq_m_s8(__inactive, __a, __p) |
| #define vclsq_m_s8(__inactive, __a, __p) __arm_vclsq_m_s8(__inactive, __a, __p) |
| #define vaddvaq_p_s8(__a, __b, __p) __arm_vaddvaq_p_s8(__a, __b, __p) |
| #define vabsq_m_s8(__inactive, __a, __p) __arm_vabsq_m_s8(__inactive, __a, __p) |
| #define vqrdmlsdhxq_s8(__inactive, __a, __b) __arm_vqrdmlsdhxq_s8(__inactive, __a, __b) |
| #define vqrdmlsdhq_s8(__inactive, __a, __b) __arm_vqrdmlsdhq_s8(__inactive, __a, __b) |
| #define vqrdmlashq_n_s8(__a, __b, __c) __arm_vqrdmlashq_n_s8(__a, __b, __c) |
| #define vqrdmlahq_n_s8(__a, __b, __c) __arm_vqrdmlahq_n_s8(__a, __b, __c) |
| #define vqrdmladhxq_s8(__inactive, __a, __b) __arm_vqrdmladhxq_s8(__inactive, __a, __b) |
| #define vqrdmladhq_s8(__inactive, __a, __b) __arm_vqrdmladhq_s8(__inactive, __a, __b) |
| #define vqdmlsdhxq_s8(__inactive, __a, __b) __arm_vqdmlsdhxq_s8(__inactive, __a, __b) |
| #define vqdmlsdhq_s8(__inactive, __a, __b) __arm_vqdmlsdhq_s8(__inactive, __a, __b) |
| #define vqdmlahq_n_s8(__a, __b, __c) __arm_vqdmlahq_n_s8(__a, __b, __c) |
| #define vqdmlashq_n_s8(__a, __b, __c) __arm_vqdmlashq_n_s8(__a, __b, __c) |
| #define vqdmladhxq_s8(__inactive, __a, __b) __arm_vqdmladhxq_s8(__inactive, __a, __b) |
| #define vqdmladhq_s8(__inactive, __a, __b) __arm_vqdmladhq_s8(__inactive, __a, __b) |
| #define vmlsdavaxq_s8(__a, __b, __c) __arm_vmlsdavaxq_s8(__a, __b, __c) |
| #define vmlsdavaq_s8(__a, __b, __c) __arm_vmlsdavaq_s8(__a, __b, __c) |
| #define vmlasq_n_s8(__a, __b, __c) __arm_vmlasq_n_s8(__a, __b, __c) |
| #define vmlaq_n_s8(__a, __b, __c) __arm_vmlaq_n_s8(__a, __b, __c) |
| #define vmladavaxq_s8(__a, __b, __c) __arm_vmladavaxq_s8(__a, __b, __c) |
| #define vmladavaq_s8(__a, __b, __c) __arm_vmladavaq_s8(__a, __b, __c) |
| #define vsriq_n_s8(__a, __b, __imm) __arm_vsriq_n_s8(__a, __b, __imm) |
| #define vsliq_n_s8(__a, __b, __imm) __arm_vsliq_n_s8(__a, __b, __imm) |
| #define vpselq_u16(__a, __b, __p) __arm_vpselq_u16(__a, __b, __p) |
| #define vpselq_s16(__a, __b, __p) __arm_vpselq_s16(__a, __b, __p) |
| #define vrev64q_m_u16(__inactive, __a, __p) __arm_vrev64q_m_u16(__inactive, __a, __p) |
| #define vmvnq_m_u16(__inactive, __a, __p) __arm_vmvnq_m_u16(__inactive, __a, __p) |
| #define vmlasq_n_u16(__a, __b, __c) __arm_vmlasq_n_u16(__a, __b, __c) |
| #define vmlaq_n_u16(__a, __b, __c) __arm_vmlaq_n_u16(__a, __b, __c) |
| #define vmladavq_p_u16(__a, __b, __p) __arm_vmladavq_p_u16(__a, __b, __p) |
| #define vmladavaq_u16(__a, __b, __c) __arm_vmladavaq_u16(__a, __b, __c) |
| #define vminvq_p_u16(__a, __b, __p) __arm_vminvq_p_u16(__a, __b, __p) |
| #define vmaxvq_p_u16(__a, __b, __p) __arm_vmaxvq_p_u16(__a, __b, __p) |
| #define vdupq_m_n_u16(__inactive, __a, __p) __arm_vdupq_m_n_u16(__inactive, __a, __p) |
| #define vcmpneq_m_u16(__a, __b, __p) __arm_vcmpneq_m_u16(__a, __b, __p) |
| #define vcmpneq_m_n_u16(__a, __b, __p) __arm_vcmpneq_m_n_u16(__a, __b, __p) |
| #define vcmphiq_m_u16(__a, __b, __p) __arm_vcmphiq_m_u16(__a, __b, __p) |
| #define vcmphiq_m_n_u16(__a, __b, __p) __arm_vcmphiq_m_n_u16(__a, __b, __p) |
| #define vcmpeqq_m_u16(__a, __b, __p) __arm_vcmpeqq_m_u16(__a, __b, __p) |
| #define vcmpeqq_m_n_u16(__a, __b, __p) __arm_vcmpeqq_m_n_u16(__a, __b, __p) |
| #define vcmpcsq_m_u16(__a, __b, __p) __arm_vcmpcsq_m_u16(__a, __b, __p) |
| #define vcmpcsq_m_n_u16(__a, __b, __p) __arm_vcmpcsq_m_n_u16(__a, __b, __p) |
| #define vclzq_m_u16(__inactive, __a, __p) __arm_vclzq_m_u16(__inactive, __a, __p) |
| #define vaddvaq_p_u16(__a, __b, __p) __arm_vaddvaq_p_u16(__a, __b, __p) |
| #define vsriq_n_u16(__a, __b, __imm) __arm_vsriq_n_u16(__a, __b, __imm) |
| #define vsliq_n_u16(__a, __b, __imm) __arm_vsliq_n_u16(__a, __b, __imm) |
| #define vshlq_m_r_u16(__a, __b, __p) __arm_vshlq_m_r_u16(__a, __b, __p) |
| #define vrshlq_m_n_u16(__a, __b, __p) __arm_vrshlq_m_n_u16(__a, __b, __p) |
| #define vqshlq_m_r_u16(__a, __b, __p) __arm_vqshlq_m_r_u16(__a, __b, __p) |
| #define vqrshlq_m_n_u16(__a, __b, __p) __arm_vqrshlq_m_n_u16(__a, __b, __p) |
| #define vminavq_p_s16(__a, __b, __p) __arm_vminavq_p_s16(__a, __b, __p) |
| #define vminaq_m_s16(__a, __b, __p) __arm_vminaq_m_s16(__a, __b, __p) |
| #define vmaxavq_p_s16(__a, __b, __p) __arm_vmaxavq_p_s16(__a, __b, __p) |
| #define vmaxaq_m_s16(__a, __b, __p) __arm_vmaxaq_m_s16(__a, __b, __p) |
| #define vcmpneq_m_s16(__a, __b, __p) __arm_vcmpneq_m_s16(__a, __b, __p) |
| #define vcmpneq_m_n_s16(__a, __b, __p) __arm_vcmpneq_m_n_s16(__a, __b, __p) |
| #define vcmpltq_m_s16(__a, __b, __p) __arm_vcmpltq_m_s16(__a, __b, __p) |
| #define vcmpltq_m_n_s16(__a, __b, __p) __arm_vcmpltq_m_n_s16(__a, __b, __p) |
| #define vcmpleq_m_s16(__a, __b, __p) __arm_vcmpleq_m_s16(__a, __b, __p) |
| #define vcmpleq_m_n_s16(__a, __b, __p) __arm_vcmpleq_m_n_s16(__a, __b, __p) |
| #define vcmpgtq_m_s16(__a, __b, __p) __arm_vcmpgtq_m_s16(__a, __b, __p) |
| #define vcmpgtq_m_n_s16(__a, __b, __p) __arm_vcmpgtq_m_n_s16(__a, __b, __p) |
| #define vcmpgeq_m_s16(__a, __b, __p) __arm_vcmpgeq_m_s16(__a, __b, __p) |
| #define vcmpgeq_m_n_s16(__a, __b, __p) __arm_vcmpgeq_m_n_s16(__a, __b, __p) |
| #define vcmpeqq_m_s16(__a, __b, __p) __arm_vcmpeqq_m_s16(__a, __b, __p) |
| #define vcmpeqq_m_n_s16(__a, __b, __p) __arm_vcmpeqq_m_n_s16(__a, __b, __p) |
| #define vshlq_m_r_s16(__a, __b, __p) __arm_vshlq_m_r_s16(__a, __b, __p) |
| #define vrshlq_m_n_s16(__a, __b, __p) __arm_vrshlq_m_n_s16(__a, __b, __p) |
| #define vrev64q_m_s16(__inactive, __a, __p) __arm_vrev64q_m_s16(__inactive, __a, __p) |
| #define vqshlq_m_r_s16(__a, __b, __p) __arm_vqshlq_m_r_s16(__a, __b, __p) |
| #define vqrshlq_m_n_s16(__a, __b, __p) __arm_vqrshlq_m_n_s16(__a, __b, __p) |
| #define vqnegq_m_s16(__inactive, __a, __p) __arm_vqnegq_m_s16(__inactive, __a, __p) |
| #define vqabsq_m_s16(__inactive, __a, __p) __arm_vqabsq_m_s16(__inactive, __a, __p) |
| #define vnegq_m_s16(__inactive, __a, __p) __arm_vnegq_m_s16(__inactive, __a, __p) |
| #define vmvnq_m_s16(__inactive, __a, __p) __arm_vmvnq_m_s16(__inactive, __a, __p) |
| #define vmlsdavxq_p_s16(__a, __b, __p) __arm_vmlsdavxq_p_s16(__a, __b, __p) |
| #define vmlsdavq_p_s16(__a, __b, __p) __arm_vmlsdavq_p_s16(__a, __b, __p) |
| #define vmladavxq_p_s16(__a, __b, __p) __arm_vmladavxq_p_s16(__a, __b, __p) |
| #define vmladavq_p_s16(__a, __b, __p) __arm_vmladavq_p_s16(__a, __b, __p) |
| #define vminvq_p_s16(__a, __b, __p) __arm_vminvq_p_s16(__a, __b, __p) |
| #define vmaxvq_p_s16(__a, __b, __p) __arm_vmaxvq_p_s16(__a, __b, __p) |
| #define vdupq_m_n_s16(__inactive, __a, __p) __arm_vdupq_m_n_s16(__inactive, __a, __p) |
| #define vclzq_m_s16(__inactive, __a, __p) __arm_vclzq_m_s16(__inactive, __a, __p) |
| #define vclsq_m_s16(__inactive, __a, __p) __arm_vclsq_m_s16(__inactive, __a, __p) |
| #define vaddvaq_p_s16(__a, __b, __p) __arm_vaddvaq_p_s16(__a, __b, __p) |
| #define vabsq_m_s16(__inactive, __a, __p) __arm_vabsq_m_s16(__inactive, __a, __p) |
| #define vqrdmlsdhxq_s16(__inactive, __a, __b) __arm_vqrdmlsdhxq_s16(__inactive, __a, __b) |
| #define vqrdmlsdhq_s16(__inactive, __a, __b) __arm_vqrdmlsdhq_s16(__inactive, __a, __b) |
| #define vqrdmlashq_n_s16(__a, __b, __c) __arm_vqrdmlashq_n_s16(__a, __b, __c) |
| #define vqrdmlahq_n_s16(__a, __b, __c) __arm_vqrdmlahq_n_s16(__a, __b, __c) |
| #define vqrdmladhxq_s16(__inactive, __a, __b) __arm_vqrdmladhxq_s16(__inactive, __a, __b) |
| #define vqrdmladhq_s16(__inactive, __a, __b) __arm_vqrdmladhq_s16(__inactive, __a, __b) |
| #define vqdmlsdhxq_s16(__inactive, __a, __b) __arm_vqdmlsdhxq_s16(__inactive, __a, __b) |
| #define vqdmlsdhq_s16(__inactive, __a, __b) __arm_vqdmlsdhq_s16(__inactive, __a, __b) |
| #define vqdmlashq_n_s16(__a, __b, __c) __arm_vqdmlashq_n_s16(__a, __b, __c) |
| #define vqdmlahq_n_s16(__a, __b, __c) __arm_vqdmlahq_n_s16(__a, __b, __c) |
| #define vqdmladhxq_s16(__inactive, __a, __b) __arm_vqdmladhxq_s16(__inactive, __a, __b) |
| #define vqdmladhq_s16(__inactive, __a, __b) __arm_vqdmladhq_s16(__inactive, __a, __b) |
| #define vmlsdavaxq_s16(__a, __b, __c) __arm_vmlsdavaxq_s16(__a, __b, __c) |
| #define vmlsdavaq_s16(__a, __b, __c) __arm_vmlsdavaq_s16(__a, __b, __c) |
| #define vmlasq_n_s16(__a, __b, __c) __arm_vmlasq_n_s16(__a, __b, __c) |
| #define vmlaq_n_s16(__a, __b, __c) __arm_vmlaq_n_s16(__a, __b, __c) |
| #define vmladavaxq_s16(__a, __b, __c) __arm_vmladavaxq_s16(__a, __b, __c) |
| #define vmladavaq_s16(__a, __b, __c) __arm_vmladavaq_s16(__a, __b, __c) |
| #define vsriq_n_s16(__a, __b, __imm) __arm_vsriq_n_s16(__a, __b, __imm) |
| #define vsliq_n_s16(__a, __b, __imm) __arm_vsliq_n_s16(__a, __b, __imm) |
| #define vpselq_u32(__a, __b, __p) __arm_vpselq_u32(__a, __b, __p) |
| #define vpselq_s32(__a, __b, __p) __arm_vpselq_s32(__a, __b, __p) |
| #define vrev64q_m_u32(__inactive, __a, __p) __arm_vrev64q_m_u32(__inactive, __a, __p) |
| #define vmvnq_m_u32(__inactive, __a, __p) __arm_vmvnq_m_u32(__inactive, __a, __p) |
| #define vmlasq_n_u32(__a, __b, __c) __arm_vmlasq_n_u32(__a, __b, __c) |
| #define vmlaq_n_u32(__a, __b, __c) __arm_vmlaq_n_u32(__a, __b, __c) |
| #define vmladavq_p_u32(__a, __b, __p) __arm_vmladavq_p_u32(__a, __b, __p) |
| #define vmladavaq_u32(__a, __b, __c) __arm_vmladavaq_u32(__a, __b, __c) |
| #define vminvq_p_u32(__a, __b, __p) __arm_vminvq_p_u32(__a, __b, __p) |
| #define vmaxvq_p_u32(__a, __b, __p) __arm_vmaxvq_p_u32(__a, __b, __p) |
| #define vdupq_m_n_u32(__inactive, __a, __p) __arm_vdupq_m_n_u32(__inactive, __a, __p) |
| #define vcmpneq_m_u32(__a, __b, __p) __arm_vcmpneq_m_u32(__a, __b, __p) |
| #define vcmpneq_m_n_u32(__a, __b, __p) __arm_vcmpneq_m_n_u32(__a, __b, __p) |
| #define vcmphiq_m_u32(__a, __b, __p) __arm_vcmphiq_m_u32(__a, __b, __p) |
| #define vcmphiq_m_n_u32(__a, __b, __p) __arm_vcmphiq_m_n_u32(__a, __b, __p) |
| #define vcmpeqq_m_u32(__a, __b, __p) __arm_vcmpeqq_m_u32(__a, __b, __p) |
| #define vcmpeqq_m_n_u32(__a, __b, __p) __arm_vcmpeqq_m_n_u32(__a, __b, __p) |
| #define vcmpcsq_m_u32(__a, __b, __p) __arm_vcmpcsq_m_u32(__a, __b, __p) |
| #define vcmpcsq_m_n_u32(__a, __b, __p) __arm_vcmpcsq_m_n_u32(__a, __b, __p) |
| #define vclzq_m_u32(__inactive, __a, __p) __arm_vclzq_m_u32(__inactive, __a, __p) |
| #define vaddvaq_p_u32(__a, __b, __p) __arm_vaddvaq_p_u32(__a, __b, __p) |
| #define vsriq_n_u32(__a, __b, __imm) __arm_vsriq_n_u32(__a, __b, __imm) |
| #define vsliq_n_u32(__a, __b, __imm) __arm_vsliq_n_u32(__a, __b, __imm) |
| #define vshlq_m_r_u32(__a, __b, __p) __arm_vshlq_m_r_u32(__a, __b, __p) |
| #define vrshlq_m_n_u32(__a, __b, __p) __arm_vrshlq_m_n_u32(__a, __b, __p) |
| #define vqshlq_m_r_u32(__a, __b, __p) __arm_vqshlq_m_r_u32(__a, __b, __p) |
| #define vqrshlq_m_n_u32(__a, __b, __p) __arm_vqrshlq_m_n_u32(__a, __b, __p) |
| #define vminavq_p_s32(__a, __b, __p) __arm_vminavq_p_s32(__a, __b, __p) |
| #define vminaq_m_s32(__a, __b, __p) __arm_vminaq_m_s32(__a, __b, __p) |
| #define vmaxavq_p_s32(__a, __b, __p) __arm_vmaxavq_p_s32(__a, __b, __p) |
| #define vmaxaq_m_s32(__a, __b, __p) __arm_vmaxaq_m_s32(__a, __b, __p) |
| #define vcmpneq_m_s32(__a, __b, __p) __arm_vcmpneq_m_s32(__a, __b, __p) |
| #define vcmpneq_m_n_s32(__a, __b, __p) __arm_vcmpneq_m_n_s32(__a, __b, __p) |
| #define vcmpltq_m_s32(__a, __b, __p) __arm_vcmpltq_m_s32(__a, __b, __p) |
| #define vcmpltq_m_n_s32(__a, __b, __p) __arm_vcmpltq_m_n_s32(__a, __b, __p) |
| #define vcmpleq_m_s32(__a, __b, __p) __arm_vcmpleq_m_s32(__a, __b, __p) |
| #define vcmpleq_m_n_s32(__a, __b, __p) __arm_vcmpleq_m_n_s32(__a, __b, __p) |
| #define vcmpgtq_m_s32(__a, __b, __p) __arm_vcmpgtq_m_s32(__a, __b, __p) |
| #define vcmpgtq_m_n_s32(__a, __b, __p) __arm_vcmpgtq_m_n_s32(__a, __b, __p) |
| #define vcmpgeq_m_s32(__a, __b, __p) __arm_vcmpgeq_m_s32(__a, __b, __p) |
| #define vcmpgeq_m_n_s32(__a, __b, __p) __arm_vcmpgeq_m_n_s32(__a, __b, __p) |
| #define vcmpeqq_m_s32(__a, __b, __p) __arm_vcmpeqq_m_s32(__a, __b, __p) |
| #define vcmpeqq_m_n_s32(__a, __b, __p) __arm_vcmpeqq_m_n_s32(__a, __b, __p) |
| #define vshlq_m_r_s32(__a, __b, __p) __arm_vshlq_m_r_s32(__a, __b, __p) |
| #define vrshlq_m_n_s32(__a, __b, __p) __arm_vrshlq_m_n_s32(__a, __b, __p) |
| #define vrev64q_m_s32(__inactive, __a, __p) __arm_vrev64q_m_s32(__inactive, __a, __p) |
| #define vqshlq_m_r_s32(__a, __b, __p) __arm_vqshlq_m_r_s32(__a, __b, __p) |
| #define vqrshlq_m_n_s32(__a, __b, __p) __arm_vqrshlq_m_n_s32(__a, __b, __p) |
| #define vqnegq_m_s32(__inactive, __a, __p) __arm_vqnegq_m_s32(__inactive, __a, __p) |
| #define vqabsq_m_s32(__inactive, __a, __p) __arm_vqabsq_m_s32(__inactive, __a, __p) |
| #define vnegq_m_s32(__inactive, __a, __p) __arm_vnegq_m_s32(__inactive, __a, __p) |
| #define vmvnq_m_s32(__inactive, __a, __p) __arm_vmvnq_m_s32(__inactive, __a, __p) |
| #define vmlsdavxq_p_s32(__a, __b, __p) __arm_vmlsdavxq_p_s32(__a, __b, __p) |
| #define vmlsdavq_p_s32(__a, __b, __p) __arm_vmlsdavq_p_s32(__a, __b, __p) |
| #define vmladavxq_p_s32(__a, __b, __p) __arm_vmladavxq_p_s32(__a, __b, __p) |
| #define vmladavq_p_s32(__a, __b, __p) __arm_vmladavq_p_s32(__a, __b, __p) |
| #define vminvq_p_s32(__a, __b, __p) __arm_vminvq_p_s32(__a, __b, __p) |
| #define vmaxvq_p_s32(__a, __b, __p) __arm_vmaxvq_p_s32(__a, __b, __p) |
| #define vdupq_m_n_s32(__inactive, __a, __p) __arm_vdupq_m_n_s32(__inactive, __a, __p) |
| #define vclzq_m_s32(__inactive, __a, __p) __arm_vclzq_m_s32(__inactive, __a, __p) |
| #define vclsq_m_s32(__inactive, __a, __p) __arm_vclsq_m_s32(__inactive, __a, __p) |
| #define vaddvaq_p_s32(__a, __b, __p) __arm_vaddvaq_p_s32(__a, __b, __p) |
| #define vabsq_m_s32(__inactive, __a, __p) __arm_vabsq_m_s32(__inactive, __a, __p) |
| #define vqrdmlsdhxq_s32(__inactive, __a, __b) __arm_vqrdmlsdhxq_s32(__inactive, __a, __b) |
| #define vqrdmlsdhq_s32(__inactive, __a, __b) __arm_vqrdmlsdhq_s32(__inactive, __a, __b) |
| #define vqrdmlashq_n_s32(__a, __b, __c) __arm_vqrdmlashq_n_s32(__a, __b, __c) |
| #define vqrdmlahq_n_s32(__a, __b, __c) __arm_vqrdmlahq_n_s32(__a, __b, __c) |
| #define vqrdmladhxq_s32(__inactive, __a, __b) __arm_vqrdmladhxq_s32(__inactive, __a, __b) |
| #define vqrdmladhq_s32(__inactive, __a, __b) __arm_vqrdmladhq_s32(__inactive, __a, __b) |
| #define vqdmlsdhxq_s32(__inactive, __a, __b) __arm_vqdmlsdhxq_s32(__inactive, __a, __b) |
| #define vqdmlsdhq_s32(__inactive, __a, __b) __arm_vqdmlsdhq_s32(__inactive, __a, __b) |
| #define vqdmlashq_n_s32(__a, __b, __c) __arm_vqdmlashq_n_s32(__a, __b, __c) |
| #define vqdmlahq_n_s32(__a, __b, __c) __arm_vqdmlahq_n_s32(__a, __b, __c) |
| #define vqdmladhxq_s32(__inactive, __a, __b) __arm_vqdmladhxq_s32(__inactive, __a, __b) |
| #define vqdmladhq_s32(__inactive, __a, __b) __arm_vqdmladhq_s32(__inactive, __a, __b) |
| #define vmlsdavaxq_s32(__a, __b, __c) __arm_vmlsdavaxq_s32(__a, __b, __c) |
| #define vmlsdavaq_s32(__a, __b, __c) __arm_vmlsdavaq_s32(__a, __b, __c) |
| #define vmlasq_n_s32(__a, __b, __c) __arm_vmlasq_n_s32(__a, __b, __c) |
| #define vmlaq_n_s32(__a, __b, __c) __arm_vmlaq_n_s32(__a, __b, __c) |
| #define vmladavaxq_s32(__a, __b, __c) __arm_vmladavaxq_s32(__a, __b, __c) |
| #define vmladavaq_s32(__a, __b, __c) __arm_vmladavaq_s32(__a, __b, __c) |
| #define vsriq_n_s32(__a, __b, __imm) __arm_vsriq_n_s32(__a, __b, __imm) |
| #define vsliq_n_s32(__a, __b, __imm) __arm_vsliq_n_s32(__a, __b, __imm) |
| #define vpselq_u64(__a, __b, __p) __arm_vpselq_u64(__a, __b, __p) |
| #define vpselq_s64(__a, __b, __p) __arm_vpselq_s64(__a, __b, __p) |
| #define vrmlaldavhaxq_s32(__a, __b, __c) __arm_vrmlaldavhaxq_s32(__a, __b, __c) |
| #define vrmlsldavhaq_s32(__a, __b, __c) __arm_vrmlsldavhaq_s32(__a, __b, __c) |
| #define vrmlsldavhaxq_s32(__a, __b, __c) __arm_vrmlsldavhaxq_s32(__a, __b, __c) |
| #define vaddlvaq_p_s32(__a, __b, __p) __arm_vaddlvaq_p_s32(__a, __b, __p) |
| #define vcvtbq_m_f16_f32(__a, __b, __p) __arm_vcvtbq_m_f16_f32(__a, __b, __p) |
| #define vcvtbq_m_f32_f16(__inactive, __a, __p) __arm_vcvtbq_m_f32_f16(__inactive, __a, __p) |
| #define vcvttq_m_f16_f32(__a, __b, __p) __arm_vcvttq_m_f16_f32(__a, __b, __p) |
| #define vcvttq_m_f32_f16(__inactive, __a, __p) __arm_vcvttq_m_f32_f16(__inactive, __a, __p) |
| #define vrev16q_m_s8(__inactive, __a, __p) __arm_vrev16q_m_s8(__inactive, __a, __p) |
| #define vrev32q_m_f16(__inactive, __a, __p) __arm_vrev32q_m_f16(__inactive, __a, __p) |
| #define vrmlaldavhq_p_s32(__a, __b, __p) __arm_vrmlaldavhq_p_s32(__a, __b, __p) |
| #define vrmlaldavhxq_p_s32(__a, __b, __p) __arm_vrmlaldavhxq_p_s32(__a, __b, __p) |
| #define vrmlsldavhq_p_s32(__a, __b, __p) __arm_vrmlsldavhq_p_s32(__a, __b, __p) |
| #define vrmlsldavhxq_p_s32(__a, __b, __p) __arm_vrmlsldavhxq_p_s32(__a, __b, __p) |
| #define vaddlvaq_p_u32(__a, __b, __p) __arm_vaddlvaq_p_u32(__a, __b, __p) |
| #define vrev16q_m_u8(__inactive, __a, __p) __arm_vrev16q_m_u8(__inactive, __a, __p) |
| #define vrmlaldavhq_p_u32(__a, __b, __p) __arm_vrmlaldavhq_p_u32(__a, __b, __p) |
| #define vmvnq_m_n_s16(__inactive, __imm, __p) __arm_vmvnq_m_n_s16(__inactive, __imm, __p) |
| #define vorrq_m_n_s16(__a, __imm, __p) __arm_vorrq_m_n_s16(__a, __imm, __p) |
| #define vqrshrntq_n_s16(__a, __b, __imm) __arm_vqrshrntq_n_s16(__a, __b, __imm) |
| #define vqshrnbq_n_s16(__a, __b, __imm) __arm_vqshrnbq_n_s16(__a, __b, __imm) |
| #define vqshrntq_n_s16(__a, __b, __imm) __arm_vqshrntq_n_s16(__a, __b, __imm) |
| #define vrshrnbq_n_s16(__a, __b, __imm) __arm_vrshrnbq_n_s16(__a, __b, __imm) |
| #define vrshrntq_n_s16(__a, __b, __imm) __arm_vrshrntq_n_s16(__a, __b, __imm) |
| #define vshrnbq_n_s16(__a, __b, __imm) __arm_vshrnbq_n_s16(__a, __b, __imm) |
| #define vshrntq_n_s16(__a, __b, __imm) __arm_vshrntq_n_s16(__a, __b, __imm) |
| #define vcmlaq_f16(__a, __b, __c) __arm_vcmlaq_f16(__a, __b, __c) |
| #define vcmlaq_rot180_f16(__a, __b, __c) __arm_vcmlaq_rot180_f16(__a, __b, __c) |
| #define vcmlaq_rot270_f16(__a, __b, __c) __arm_vcmlaq_rot270_f16(__a, __b, __c) |
| #define vcmlaq_rot90_f16(__a, __b, __c) __arm_vcmlaq_rot90_f16(__a, __b, __c) |
| #define vfmaq_f16(__a, __b, __c) __arm_vfmaq_f16(__a, __b, __c) |
| #define vfmaq_n_f16(__a, __b, __c) __arm_vfmaq_n_f16(__a, __b, __c) |
| #define vfmasq_n_f16(__a, __b, __c) __arm_vfmasq_n_f16(__a, __b, __c) |
| #define vfmsq_f16(__a, __b, __c) __arm_vfmsq_f16(__a, __b, __c) |
| #define vmlaldavaq_s16(__a, __b, __c) __arm_vmlaldavaq_s16(__a, __b, __c) |
| #define vmlaldavaxq_s16(__a, __b, __c) __arm_vmlaldavaxq_s16(__a, __b, __c) |
| #define vmlsldavaq_s16(__a, __b, __c) __arm_vmlsldavaq_s16(__a, __b, __c) |
| #define vmlsldavaxq_s16(__a, __b, __c) __arm_vmlsldavaxq_s16(__a, __b, __c) |
| #define vabsq_m_f16(__inactive, __a, __p) __arm_vabsq_m_f16(__inactive, __a, __p) |
| #define vcvtmq_m_s16_f16(__inactive, __a, __p) __arm_vcvtmq_m_s16_f16(__inactive, __a, __p) |
| #define vcvtnq_m_s16_f16(__inactive, __a, __p) __arm_vcvtnq_m_s16_f16(__inactive, __a, __p) |
| #define vcvtpq_m_s16_f16(__inactive, __a, __p) __arm_vcvtpq_m_s16_f16(__inactive, __a, __p) |
| #define vcvtq_m_s16_f16(__inactive, __a, __p) __arm_vcvtq_m_s16_f16(__inactive, __a, __p) |
| #define vdupq_m_n_f16(__inactive, __a, __p) __arm_vdupq_m_n_f16(__inactive, __a, __p) |
| #define vmaxnmaq_m_f16(__a, __b, __p) __arm_vmaxnmaq_m_f16(__a, __b, __p) |
| #define vmaxnmavq_p_f16(__a, __b, __p) __arm_vmaxnmavq_p_f16(__a, __b, __p) |
| #define vmaxnmvq_p_f16(__a, __b, __p) __arm_vmaxnmvq_p_f16(__a, __b, __p) |
| #define vminnmaq_m_f16(__a, __b, __p) __arm_vminnmaq_m_f16(__a, __b, __p) |
| #define vminnmavq_p_f16(__a, __b, __p) __arm_vminnmavq_p_f16(__a, __b, __p) |
| #define vminnmvq_p_f16(__a, __b, __p) __arm_vminnmvq_p_f16(__a, __b, __p) |
| #define vmlaldavq_p_s16(__a, __b, __p) __arm_vmlaldavq_p_s16(__a, __b, __p) |
| #define vmlaldavxq_p_s16(__a, __b, __p) __arm_vmlaldavxq_p_s16(__a, __b, __p) |
| #define vmlsldavq_p_s16(__a, __b, __p) __arm_vmlsldavq_p_s16(__a, __b, __p) |
| #define vmlsldavxq_p_s16(__a, __b, __p) __arm_vmlsldavxq_p_s16(__a, __b, __p) |
| #define vmovlbq_m_s8(__inactive, __a, __p) __arm_vmovlbq_m_s8(__inactive, __a, __p) |
| #define vmovltq_m_s8(__inactive, __a, __p) __arm_vmovltq_m_s8(__inactive, __a, __p) |
| #define vmovnbq_m_s16(__a, __b, __p) __arm_vmovnbq_m_s16(__a, __b, __p) |
| #define vmovntq_m_s16(__a, __b, __p) __arm_vmovntq_m_s16(__a, __b, __p) |
| #define vnegq_m_f16(__inactive, __a, __p) __arm_vnegq_m_f16(__inactive, __a, __p) |
| #define vpselq_f16(__a, __b, __p) __arm_vpselq_f16(__a, __b, __p) |
| #define vqmovnbq_m_s16(__a, __b, __p) __arm_vqmovnbq_m_s16(__a, __b, __p) |
| #define vqmovntq_m_s16(__a, __b, __p) __arm_vqmovntq_m_s16(__a, __b, __p) |
| #define vrev32q_m_s8(__inactive, __a, __p) __arm_vrev32q_m_s8(__inactive, __a, __p) |
| #define vrev64q_m_f16(__inactive, __a, __p) __arm_vrev64q_m_f16(__inactive, __a, __p) |
| #define vrndaq_m_f16(__inactive, __a, __p) __arm_vrndaq_m_f16(__inactive, __a, __p) |
| #define vrndmq_m_f16(__inactive, __a, __p) __arm_vrndmq_m_f16(__inactive, __a, __p) |
| #define vrndnq_m_f16(__inactive, __a, __p) __arm_vrndnq_m_f16(__inactive, __a, __p) |
| #define vrndpq_m_f16(__inactive, __a, __p) __arm_vrndpq_m_f16(__inactive, __a, __p) |
| #define vrndq_m_f16(__inactive, __a, __p) __arm_vrndq_m_f16(__inactive, __a, __p) |
| #define vrndxq_m_f16(__inactive, __a, __p) __arm_vrndxq_m_f16(__inactive, __a, __p) |
| #define vcmpeqq_m_n_f16(__a, __b, __p) __arm_vcmpeqq_m_n_f16(__a, __b, __p) |
| #define vcmpgeq_m_f16(__a, __b, __p) __arm_vcmpgeq_m_f16(__a, __b, __p) |
| #define vcmpgeq_m_n_f16(__a, __b, __p) __arm_vcmpgeq_m_n_f16(__a, __b, __p) |
| #define vcmpgtq_m_f16(__a, __b, __p) __arm_vcmpgtq_m_f16(__a, __b, __p) |
| #define vcmpgtq_m_n_f16(__a, __b, __p) __arm_vcmpgtq_m_n_f16(__a, __b, __p) |
| #define vcmpleq_m_f16(__a, __b, __p) __arm_vcmpleq_m_f16(__a, __b, __p) |
| #define vcmpleq_m_n_f16(__a, __b, __p) __arm_vcmpleq_m_n_f16(__a, __b, __p) |
| #define vcmpltq_m_f16(__a, __b, __p) __arm_vcmpltq_m_f16(__a, __b, __p) |
| #define vcmpltq_m_n_f16(__a, __b, __p) __arm_vcmpltq_m_n_f16(__a, __b, __p) |
| #define vcmpneq_m_f16(__a, __b, __p) __arm_vcmpneq_m_f16(__a, __b, __p) |
| #define vcmpneq_m_n_f16(__a, __b, __p) __arm_vcmpneq_m_n_f16(__a, __b, __p) |
| #define vmvnq_m_n_u16(__inactive, __imm, __p) __arm_vmvnq_m_n_u16(__inactive, __imm, __p) |
| #define vorrq_m_n_u16(__a, __imm, __p) __arm_vorrq_m_n_u16(__a, __imm, __p) |
| #define vqrshruntq_n_s16(__a, __b, __imm) __arm_vqrshruntq_n_s16(__a, __b, __imm) |
| #define vqshrunbq_n_s16(__a, __b, __imm) __arm_vqshrunbq_n_s16(__a, __b, __imm) |
| #define vqshruntq_n_s16(__a, __b, __imm) __arm_vqshruntq_n_s16(__a, __b, __imm) |
| #define vcvtmq_m_u16_f16(__inactive, __a, __p) __arm_vcvtmq_m_u16_f16(__inactive, __a, __p) |
| #define vcvtnq_m_u16_f16(__inactive, __a, __p) __arm_vcvtnq_m_u16_f16(__inactive, __a, __p) |
| #define vcvtpq_m_u16_f16(__inactive, __a, __p) __arm_vcvtpq_m_u16_f16(__inactive, __a, __p) |
| #define vcvtq_m_u16_f16(__inactive, __a, __p) __arm_vcvtq_m_u16_f16(__inactive, __a, __p) |
| #define vqmovunbq_m_s16(__a, __b, __p) __arm_vqmovunbq_m_s16(__a, __b, __p) |
| #define vqmovuntq_m_s16(__a, __b, __p) __arm_vqmovuntq_m_s16(__a, __b, __p) |
| #define vqrshrntq_n_u16(__a, __b, __imm) __arm_vqrshrntq_n_u16(__a, __b, __imm) |
| #define vqshrnbq_n_u16(__a, __b, __imm) __arm_vqshrnbq_n_u16(__a, __b, __imm) |
| #define vqshrntq_n_u16(__a, __b, __imm) __arm_vqshrntq_n_u16(__a, __b, __imm) |
| #define vrshrnbq_n_u16(__a, __b, __imm) __arm_vrshrnbq_n_u16(__a, __b, __imm) |
| #define vrshrntq_n_u16(__a, __b, __imm) __arm_vrshrntq_n_u16(__a, __b, __imm) |
| #define vshrnbq_n_u16(__a, __b, __imm) __arm_vshrnbq_n_u16(__a, __b, __imm) |
| #define vshrntq_n_u16(__a, __b, __imm) __arm_vshrntq_n_u16(__a, __b, __imm) |
| #define vmlaldavaq_u16(__a, __b, __c) __arm_vmlaldavaq_u16(__a, __b, __c) |
| #define vmlaldavq_p_u16(__a, __b, __p) __arm_vmlaldavq_p_u16(__a, __b, __p) |
| #define vmovlbq_m_u8(__inactive, __a, __p) __arm_vmovlbq_m_u8(__inactive, __a, __p) |
| #define vmovltq_m_u8(__inactive, __a, __p) __arm_vmovltq_m_u8(__inactive, __a, __p) |
| #define vmovnbq_m_u16(__a, __b, __p) __arm_vmovnbq_m_u16(__a, __b, __p) |
| #define vmovntq_m_u16(__a, __b, __p) __arm_vmovntq_m_u16(__a, __b, __p) |
| #define vqmovnbq_m_u16(__a, __b, __p) __arm_vqmovnbq_m_u16(__a, __b, __p) |
| #define vqmovntq_m_u16(__a, __b, __p) __arm_vqmovntq_m_u16(__a, __b, __p) |
| #define vrev32q_m_u8(__inactive, __a, __p) __arm_vrev32q_m_u8(__inactive, __a, __p) |
| #define vmvnq_m_n_s32(__inactive, __imm, __p) __arm_vmvnq_m_n_s32(__inactive, __imm, __p) |
| #define vorrq_m_n_s32(__a, __imm, __p) __arm_vorrq_m_n_s32(__a, __imm, __p) |
| #define vqrshrntq_n_s32(__a, __b, __imm) __arm_vqrshrntq_n_s32(__a, __b, __imm) |
| #define vqshrnbq_n_s32(__a, __b, __imm) __arm_vqshrnbq_n_s32(__a, __b, __imm) |
| #define vqshrntq_n_s32(__a, __b, __imm) __arm_vqshrntq_n_s32(__a, __b, __imm) |
| #define vrshrnbq_n_s32(__a, __b, __imm) __arm_vrshrnbq_n_s32(__a, __b, __imm) |
| #define vrshrntq_n_s32(__a, __b, __imm) __arm_vrshrntq_n_s32(__a, __b, __imm) |
| #define vshrnbq_n_s32(__a, __b, __imm) __arm_vshrnbq_n_s32(__a, __b, __imm) |
| #define vshrntq_n_s32(__a, __b, __imm) __arm_vshrntq_n_s32(__a, __b, __imm) |
| #define vcmlaq_f32(__a, __b, __c) __arm_vcmlaq_f32(__a, __b, __c) |
| #define vcmlaq_rot180_f32(__a, __b, __c) __arm_vcmlaq_rot180_f32(__a, __b, __c) |
| #define vcmlaq_rot270_f32(__a, __b, __c) __arm_vcmlaq_rot270_f32(__a, __b, __c) |
| #define vcmlaq_rot90_f32(__a, __b, __c) __arm_vcmlaq_rot90_f32(__a, __b, __c) |
| #define vfmaq_f32(__a, __b, __c) __arm_vfmaq_f32(__a, __b, __c) |
| #define vfmaq_n_f32(__a, __b, __c) __arm_vfmaq_n_f32(__a, __b, __c) |
| #define vfmasq_n_f32(__a, __b, __c) __arm_vfmasq_n_f32(__a, __b, __c) |
| #define vfmsq_f32(__a, __b, __c) __arm_vfmsq_f32(__a, __b, __c) |
| #define vmlaldavaq_s32(__a, __b, __c) __arm_vmlaldavaq_s32(__a, __b, __c) |
| #define vmlaldavaxq_s32(__a, __b, __c) __arm_vmlaldavaxq_s32(__a, __b, __c) |
| #define vmlsldavaq_s32(__a, __b, __c) __arm_vmlsldavaq_s32(__a, __b, __c) |
| #define vmlsldavaxq_s32(__a, __b, __c) __arm_vmlsldavaxq_s32(__a, __b, __c) |
| #define vabsq_m_f32(__inactive, __a, __p) __arm_vabsq_m_f32(__inactive, __a, __p) |
| #define vcvtmq_m_s32_f32(__inactive, __a, __p) __arm_vcvtmq_m_s32_f32(__inactive, __a, __p) |
| #define vcvtnq_m_s32_f32(__inactive, __a, __p) __arm_vcvtnq_m_s32_f32(__inactive, __a, __p) |
| #define vcvtpq_m_s32_f32(__inactive, __a, __p) __arm_vcvtpq_m_s32_f32(__inactive, __a, __p) |
| #define vcvtq_m_s32_f32(__inactive, __a, __p) __arm_vcvtq_m_s32_f32(__inactive, __a, __p) |
| #define vdupq_m_n_f32(__inactive, __a, __p) __arm_vdupq_m_n_f32(__inactive, __a, __p) |
| #define vmaxnmaq_m_f32(__a, __b, __p) __arm_vmaxnmaq_m_f32(__a, __b, __p) |
| #define vmaxnmavq_p_f32(__a, __b, __p) __arm_vmaxnmavq_p_f32(__a, __b, __p) |
| #define vmaxnmvq_p_f32(__a, __b, __p) __arm_vmaxnmvq_p_f32(__a, __b, __p) |
| #define vminnmaq_m_f32(__a, __b, __p) __arm_vminnmaq_m_f32(__a, __b, __p) |
| #define vminnmavq_p_f32(__a, __b, __p) __arm_vminnmavq_p_f32(__a, __b, __p) |
| #define vminnmvq_p_f32(__a, __b, __p) __arm_vminnmvq_p_f32(__a, __b, __p) |
| #define vmlaldavq_p_s32(__a, __b, __p) __arm_vmlaldavq_p_s32(__a, __b, __p) |
| #define vmlaldavxq_p_s32(__a, __b, __p) __arm_vmlaldavxq_p_s32(__a, __b, __p) |
| #define vmlsldavq_p_s32(__a, __b, __p) __arm_vmlsldavq_p_s32(__a, __b, __p) |
| #define vmlsldavxq_p_s32(__a, __b, __p) __arm_vmlsldavxq_p_s32(__a, __b, __p) |
| #define vmovlbq_m_s16(__inactive, __a, __p) __arm_vmovlbq_m_s16(__inactive, __a, __p) |
| #define vmovltq_m_s16(__inactive, __a, __p) __arm_vmovltq_m_s16(__inactive, __a, __p) |
| #define vmovnbq_m_s32(__a, __b, __p) __arm_vmovnbq_m_s32(__a, __b, __p) |
| #define vmovntq_m_s32(__a, __b, __p) __arm_vmovntq_m_s32(__a, __b, __p) |
| #define vnegq_m_f32(__inactive, __a, __p) __arm_vnegq_m_f32(__inactive, __a, __p) |
| #define vpselq_f32(__a, __b, __p) __arm_vpselq_f32(__a, __b, __p) |
| #define vqmovnbq_m_s32(__a, __b, __p) __arm_vqmovnbq_m_s32(__a, __b, __p) |
| #define vqmovntq_m_s32(__a, __b, __p) __arm_vqmovntq_m_s32(__a, __b, __p) |
| #define vrev32q_m_s16(__inactive, __a, __p) __arm_vrev32q_m_s16(__inactive, __a, __p) |
| #define vrev64q_m_f32(__inactive, __a, __p) __arm_vrev64q_m_f32(__inactive, __a, __p) |
| #define vrndaq_m_f32(__inactive, __a, __p) __arm_vrndaq_m_f32(__inactive, __a, __p) |
| #define vrndmq_m_f32(__inactive, __a, __p) __arm_vrndmq_m_f32(__inactive, __a, __p) |
| #define vrndnq_m_f32(__inactive, __a, __p) __arm_vrndnq_m_f32(__inactive, __a, __p) |
| #define vrndpq_m_f32(__inactive, __a, __p) __arm_vrndpq_m_f32(__inactive, __a, __p) |
| #define vrndq_m_f32(__inactive, __a, __p) __arm_vrndq_m_f32(__inactive, __a, __p) |
| #define vrndxq_m_f32(__inactive, __a, __p) __arm_vrndxq_m_f32(__inactive, __a, __p) |
| #define vcmpeqq_m_n_f32(__a, __b, __p) __arm_vcmpeqq_m_n_f32(__a, __b, __p) |
| #define vcmpgeq_m_f32(__a, __b, __p) __arm_vcmpgeq_m_f32(__a, __b, __p) |
| #define vcmpgeq_m_n_f32(__a, __b, __p) __arm_vcmpgeq_m_n_f32(__a, __b, __p) |
| #define vcmpgtq_m_f32(__a, __b, __p) __arm_vcmpgtq_m_f32(__a, __b, __p) |
| #define vcmpgtq_m_n_f32(__a, __b, __p) __arm_vcmpgtq_m_n_f32(__a, __b, __p) |
| #define vcmpleq_m_f32(__a, __b, __p) __arm_vcmpleq_m_f32(__a, __b, __p) |
| #define vcmpleq_m_n_f32(__a, __b, __p) __arm_vcmpleq_m_n_f32(__a, __b, __p) |
| #define vcmpltq_m_f32(__a, __b, __p) __arm_vcmpltq_m_f32(__a, __b, __p) |
| #define vcmpltq_m_n_f32(__a, __b, __p) __arm_vcmpltq_m_n_f32(__a, __b, __p) |
| #define vcmpneq_m_f32(__a, __b, __p) __arm_vcmpneq_m_f32(__a, __b, __p) |
| #define vcmpneq_m_n_f32(__a, __b, __p) __arm_vcmpneq_m_n_f32(__a, __b, __p) |
| #define vmvnq_m_n_u32(__inactive, __imm, __p) __arm_vmvnq_m_n_u32(__inactive, __imm, __p) |
| #define vorrq_m_n_u32(__a, __imm, __p) __arm_vorrq_m_n_u32(__a, __imm, __p) |
| #define vqrshruntq_n_s32(__a, __b, __imm) __arm_vqrshruntq_n_s32(__a, __b, __imm) |
| #define vqshrunbq_n_s32(__a, __b, __imm) __arm_vqshrunbq_n_s32(__a, __b, __imm) |
| #define vqshruntq_n_s32(__a, __b, __imm) __arm_vqshruntq_n_s32(__a, __b, __imm) |
| #define vcvtmq_m_u32_f32(__inactive, __a, __p) __arm_vcvtmq_m_u32_f32(__inactive, __a, __p) |
| #define vcvtnq_m_u32_f32(__inactive, __a, __p) __arm_vcvtnq_m_u32_f32(__inactive, __a, __p) |
| #define vcvtpq_m_u32_f32(__inactive, __a, __p) __arm_vcvtpq_m_u32_f32(__inactive, __a, __p) |
| #define vcvtq_m_u32_f32(__inactive, __a, __p) __arm_vcvtq_m_u32_f32(__inactive, __a, __p) |
| #define vqmovunbq_m_s32(__a, __b, __p) __arm_vqmovunbq_m_s32(__a, __b, __p) |
| #define vqmovuntq_m_s32(__a, __b, __p) __arm_vqmovuntq_m_s32(__a, __b, __p) |
| #define vqrshrntq_n_u32(__a, __b, __imm) __arm_vqrshrntq_n_u32(__a, __b, __imm) |
| #define vqshrnbq_n_u32(__a, __b, __imm) __arm_vqshrnbq_n_u32(__a, __b, __imm) |
| #define vqshrntq_n_u32(__a, __b, __imm) __arm_vqshrntq_n_u32(__a, __b, __imm) |
| #define vrshrnbq_n_u32(__a, __b, __imm) __arm_vrshrnbq_n_u32(__a, __b, __imm) |
| #define vrshrntq_n_u32(__a, __b, __imm) __arm_vrshrntq_n_u32(__a, __b, __imm) |
| #define vshrnbq_n_u32(__a, __b, __imm) __arm_vshrnbq_n_u32(__a, __b, __imm) |
| #define vshrntq_n_u32(__a, __b, __imm) __arm_vshrntq_n_u32(__a, __b, __imm) |
| #define vmlaldavaq_u32(__a, __b, __c) __arm_vmlaldavaq_u32(__a, __b, __c) |
| #define vmlaldavq_p_u32(__a, __b, __p) __arm_vmlaldavq_p_u32(__a, __b, __p) |
| #define vmovlbq_m_u16(__inactive, __a, __p) __arm_vmovlbq_m_u16(__inactive, __a, __p) |
| #define vmovltq_m_u16(__inactive, __a, __p) __arm_vmovltq_m_u16(__inactive, __a, __p) |
| #define vmovnbq_m_u32(__a, __b, __p) __arm_vmovnbq_m_u32(__a, __b, __p) |
| #define vmovntq_m_u32(__a, __b, __p) __arm_vmovntq_m_u32(__a, __b, __p) |
| #define vqmovnbq_m_u32(__a, __b, __p) __arm_vqmovnbq_m_u32(__a, __b, __p) |
| #define vqmovntq_m_u32(__a, __b, __p) __arm_vqmovntq_m_u32(__a, __b, __p) |
| #define vrev32q_m_u16(__inactive, __a, __p) __arm_vrev32q_m_u16(__inactive, __a, __p) |
| #define vsriq_m_n_s8(__a, __b, __imm, __p) __arm_vsriq_m_n_s8(__a, __b, __imm, __p) |
| #define vsubq_m_s8(__inactive, __a, __b, __p) __arm_vsubq_m_s8(__inactive, __a, __b, __p) |
| #define vcvtq_m_n_f16_u16(__inactive, __a, __imm6, __p) __arm_vcvtq_m_n_f16_u16(__inactive, __a, __imm6, __p) |
| #define vqshluq_m_n_s8(__inactive, __a, __imm, __p) __arm_vqshluq_m_n_s8(__inactive, __a, __imm, __p) |
| #define vabavq_p_s8(__a, __b, __c, __p) __arm_vabavq_p_s8(__a, __b, __c, __p) |
| #define vsriq_m_n_u8(__a, __b, __imm, __p) __arm_vsriq_m_n_u8(__a, __b, __imm, __p) |
| #define vshlq_m_u8(__inactive, __a, __b, __p) __arm_vshlq_m_u8( |