| /* { dg-do compile } */ |
| /* { dg-options "-maltivec -mabi=altivec -std=gnu99 -mno-vsx -Wno-deprecated -flax-vector-conversions" } */ |
| #include <altivec.h> |
| #include <stdlib.h> |
| extern char * *var_char_ptr; |
| extern float * *var_float_ptr; |
| extern int * *var_int_ptr; |
| extern int *var_cc24f; |
| extern int *var_cc24fd; |
| extern int *var_cc24fr; |
| extern int *var_cc24t; |
| extern int *var_cc24td; |
| extern int *var_cc24tr; |
| extern int *var_cc26f; |
| extern int *var_cc26fd; |
| extern int *var_cc26fr; |
| extern int *var_cc26t; |
| extern int *var_cc26td; |
| extern int *var_cc26tr; |
| extern int *var_int; |
| extern short * *var_short_ptr; |
| extern signed char * *var_signed_char_ptr; |
| extern unsigned char * *var_unsigned_char_ptr; |
| extern unsigned int * *var_unsigned_int_ptr; |
| extern unsigned short * *var_unsigned_short_ptr; |
| extern vector bool char * *var_vec_b8_ptr; |
| extern vector bool char *var_vec_b8; |
| extern vector bool int * *var_vec_b32_ptr; |
| extern vector bool int *var_vec_b32; |
| extern vector bool short * *var_vec_b16_ptr; |
| extern vector bool short *var_vec_b16; |
| extern vector float * *var_vec_f32_ptr; |
| extern vector float *var_vec_f32; |
| extern vector pixel * *var_vec_p16_ptr; |
| extern vector pixel *var_vec_p16; |
| extern vector signed char * *var_vec_s8_ptr; |
| extern vector signed char *var_vec_s8; |
| extern vector signed int * *var_vec_s32_ptr; |
| extern vector signed int *var_vec_s32; |
| extern vector signed short * *var_vec_s16_ptr; |
| extern vector signed short *var_vec_s16; |
| extern vector unsigned char * *var_vec_u8_ptr; |
| extern vector unsigned char *var_vec_u8; |
| extern vector unsigned int * *var_vec_u32_ptr; |
| extern vector unsigned int *var_vec_u32; |
| extern vector unsigned short * *var_vec_u16_ptr; |
| extern vector unsigned short *var_vec_u16; |
| extern vector unsigned short *var_volatile_vec_u16; |
| void f0() { |
| *var_cc24f++ = vec_any_le(var_vec_b16[0], var_vec_s16[1]); |
| *var_cc24f++ = vec_any_le(var_vec_b16[0], var_vec_u16[1]); |
| *var_cc24f++ = vec_any_le(var_vec_b32[0], var_vec_s32[1]); |
| *var_cc24f++ = vec_any_le(var_vec_b32[0], var_vec_u32[1]); |
| *var_cc24f++ = vec_any_le(var_vec_b8[0], var_vec_s8[1]); |
| *var_cc24f++ = vec_any_le(var_vec_b8[0], var_vec_u8[1]); |
| *var_cc24f++ = vec_any_le(var_vec_s16[0], var_vec_b16[1]); |
| *var_cc24f++ = vec_any_le(var_vec_s16[0], var_vec_s16[1]); |
| *var_cc24f++ = vec_any_le(var_vec_s32[0], var_vec_b32[1]); |
| *var_cc24f++ = vec_any_le(var_vec_s32[0], var_vec_s32[1]); |
| *var_cc24f++ = vec_any_le(var_vec_s8[0], var_vec_b8[1]); |
| *var_cc24f++ = vec_any_le(var_vec_s8[0], var_vec_s8[1]); |
| *var_cc24f++ = vec_any_le(var_vec_u16[0], var_vec_b16[1]); |
| *var_cc24f++ = vec_any_le(var_vec_u16[0], var_vec_u16[1]); |
| *var_cc24f++ = vec_any_le(var_vec_u32[0], var_vec_b32[1]); |
| *var_cc24f++ = vec_any_le(var_vec_u32[0], var_vec_u32[1]); |
| *var_cc24f++ = vec_any_le(var_vec_u8[0], var_vec_b8[1]); |
| *var_cc24f++ = vec_any_le(var_vec_u8[0], var_vec_u8[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_b16[0], var_vec_b16[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_b16[0], var_vec_s16[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_b16[0], var_vec_u16[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_b32[0], var_vec_b32[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_b32[0], var_vec_s32[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_b32[0], var_vec_u32[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_b8[0], var_vec_b8[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_b8[0], var_vec_s8[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_b8[0], var_vec_u8[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_f32[0], var_vec_f32[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_p16[0], var_vec_p16[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_s16[0], var_vec_b16[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_s16[0], var_vec_s16[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_s32[0], var_vec_b32[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_s32[0], var_vec_s32[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_s8[0], var_vec_b8[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_s8[0], var_vec_s8[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_u16[0], var_vec_b16[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_u16[0], var_vec_u16[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_u32[0], var_vec_b32[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_u32[0], var_vec_u32[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_u8[0], var_vec_b8[1]); |
| *var_cc24f++ = vec_any_ne(var_vec_u8[0], var_vec_u8[1]); |
| *var_cc24f++ = vec_any_nge(var_vec_f32[0], var_vec_f32[1]); |
| *var_cc24f++ = vec_any_ngt(var_vec_f32[0], var_vec_f32[1]); |
| *var_cc24fd++ = vec_any_nan(var_vec_f32[0]); |
| *var_cc24fr++ = vec_any_ge(var_vec_b16[0], var_vec_s16[1]); |
| *var_cc24fr++ = vec_any_ge(var_vec_b16[0], var_vec_u16[1]); |
| *var_cc24fr++ = vec_any_ge(var_vec_b32[0], var_vec_s32[1]); |
| *var_cc24fr++ = vec_any_ge(var_vec_b32[0], var_vec_u32[1]); |
| *var_cc24fr++ = vec_any_ge(var_vec_b8[0], var_vec_s8[1]); |
| *var_cc24fr++ = vec_any_ge(var_vec_b8[0], var_vec_u8[1]); |
| *var_cc24fr++ = vec_any_ge(var_vec_s16[0], var_vec_b16[1]); |
| *var_cc24fr++ = vec_any_ge(var_vec_s16[0], var_vec_s16[1]); |
| *var_cc24fr++ = vec_any_ge(var_vec_s32[0], var_vec_b32[1]); |
| *var_cc24fr++ = vec_any_ge(var_vec_s32[0], var_vec_s32[1]); |
| *var_cc24fr++ = vec_any_ge(var_vec_s8[0], var_vec_b8[1]); |
| *var_cc24fr++ = vec_any_ge(var_vec_s8[0], var_vec_s8[1]); |
| *var_cc24fr++ = vec_any_ge(var_vec_u16[0], var_vec_b16[1]); |
| *var_cc24fr++ = vec_any_ge(var_vec_u16[0], var_vec_u16[1]); |
| *var_cc24fr++ = vec_any_ge(var_vec_u32[0], var_vec_b32[1]); |
| *var_cc24fr++ = vec_any_ge(var_vec_u32[0], var_vec_u32[1]); |
| *var_cc24fr++ = vec_any_ge(var_vec_u8[0], var_vec_b8[1]); |
| *var_cc24fr++ = vec_any_ge(var_vec_u8[0], var_vec_u8[1]); |
| *var_cc24fr++ = vec_any_nle(var_vec_f32[0], var_vec_f32[1]); |
| *var_cc24fr++ = vec_any_nlt(var_vec_f32[0], var_vec_f32[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_b16[0], var_vec_b16[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_b16[0], var_vec_s16[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_b16[0], var_vec_u16[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_b32[0], var_vec_b32[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_b32[0], var_vec_s32[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_b32[0], var_vec_u32[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_b8[0], var_vec_b8[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_b8[0], var_vec_s8[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_b8[0], var_vec_u8[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_f32[0], var_vec_f32[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_p16[0], var_vec_p16[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_s16[0], var_vec_b16[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_s16[0], var_vec_s16[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_s32[0], var_vec_b32[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_s32[0], var_vec_s32[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_s8[0], var_vec_b8[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_s8[0], var_vec_s8[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_u16[0], var_vec_b16[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_u16[0], var_vec_u16[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_u32[0], var_vec_b32[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_u32[0], var_vec_u32[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_u8[0], var_vec_b8[1]); |
| *var_cc24t++ = vec_all_eq(var_vec_u8[0], var_vec_u8[1]); |
| *var_cc24t++ = vec_all_ge(var_vec_f32[0], var_vec_f32[1]); |
| *var_cc24t++ = vec_all_gt(var_vec_b16[0], var_vec_s16[1]); |
| *var_cc24t++ = vec_all_gt(var_vec_b16[0], var_vec_u16[1]); |
| *var_cc24t++ = vec_all_gt(var_vec_b32[0], var_vec_s32[1]); |
| *var_cc24t++ = vec_all_gt(var_vec_b32[0], var_vec_u32[1]); |
| *var_cc24t++ = vec_all_gt(var_vec_b8[0], var_vec_s8[1]); |
| *var_cc24t++ = vec_all_gt(var_vec_b8[0], var_vec_u8[1]); |
| *var_cc24t++ = vec_all_gt(var_vec_f32[0], var_vec_f32[1]); |
| *var_cc24t++ = vec_all_gt(var_vec_s16[0], var_vec_b16[1]); |
| *var_cc24t++ = vec_all_gt(var_vec_s16[0], var_vec_s16[1]); |
| *var_cc24t++ = vec_all_gt(var_vec_s32[0], var_vec_b32[1]); |
| *var_cc24t++ = vec_all_gt(var_vec_s32[0], var_vec_s32[1]); |
| *var_cc24t++ = vec_all_gt(var_vec_s8[0], var_vec_b8[1]); |
| } |
| void f1() { |
| *var_cc24t++ = vec_all_gt(var_vec_s8[0], var_vec_s8[1]); |
| *var_cc24t++ = vec_all_gt(var_vec_u16[0], var_vec_b16[1]); |
| *var_cc24t++ = vec_all_gt(var_vec_u16[0], var_vec_u16[1]); |
| *var_cc24t++ = vec_all_gt(var_vec_u32[0], var_vec_b32[1]); |
| *var_cc24t++ = vec_all_gt(var_vec_u32[0], var_vec_u32[1]); |
| *var_cc24t++ = vec_all_gt(var_vec_u8[0], var_vec_b8[1]); |
| *var_cc24t++ = vec_all_gt(var_vec_u8[0], var_vec_u8[1]); |
| *var_cc24td++ = vec_all_numeric(var_vec_f32[0]); |
| *var_cc24tr++ = vec_all_le(var_vec_f32[0], var_vec_f32[1]); |
| *var_cc24tr++ = vec_all_lt(var_vec_b16[0], var_vec_s16[1]); |
| *var_cc24tr++ = vec_all_lt(var_vec_b16[0], var_vec_u16[1]); |
| *var_cc24tr++ = vec_all_lt(var_vec_b32[0], var_vec_s32[1]); |
| *var_cc24tr++ = vec_all_lt(var_vec_b32[0], var_vec_u32[1]); |
| *var_cc24tr++ = vec_all_lt(var_vec_b8[0], var_vec_s8[1]); |
| *var_cc24tr++ = vec_all_lt(var_vec_b8[0], var_vec_u8[1]); |
| *var_cc24tr++ = vec_all_lt(var_vec_f32[0], var_vec_f32[1]); |
| *var_cc24tr++ = vec_all_lt(var_vec_s16[0], var_vec_b16[1]); |
| *var_cc24tr++ = vec_all_lt(var_vec_s16[0], var_vec_s16[1]); |
| *var_cc24tr++ = vec_all_lt(var_vec_s32[0], var_vec_b32[1]); |
| *var_cc24tr++ = vec_all_lt(var_vec_s32[0], var_vec_s32[1]); |
| *var_cc24tr++ = vec_all_lt(var_vec_s8[0], var_vec_b8[1]); |
| *var_cc24tr++ = vec_all_lt(var_vec_s8[0], var_vec_s8[1]); |
| *var_cc24tr++ = vec_all_lt(var_vec_u16[0], var_vec_b16[1]); |
| *var_cc24tr++ = vec_all_lt(var_vec_u16[0], var_vec_u16[1]); |
| *var_cc24tr++ = vec_all_lt(var_vec_u32[0], var_vec_b32[1]); |
| *var_cc24tr++ = vec_all_lt(var_vec_u32[0], var_vec_u32[1]); |
| *var_cc24tr++ = vec_all_lt(var_vec_u8[0], var_vec_b8[1]); |
| *var_cc24tr++ = vec_all_lt(var_vec_u8[0], var_vec_u8[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_b16[0], var_vec_b16[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_b16[0], var_vec_s16[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_b16[0], var_vec_u16[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_b32[0], var_vec_b32[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_b32[0], var_vec_s32[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_b32[0], var_vec_u32[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_b8[0], var_vec_b8[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_b8[0], var_vec_s8[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_b8[0], var_vec_u8[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_f32[0], var_vec_f32[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_p16[0], var_vec_p16[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_s16[0], var_vec_b16[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_s16[0], var_vec_s16[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_s32[0], var_vec_b32[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_s32[0], var_vec_s32[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_s8[0], var_vec_b8[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_s8[0], var_vec_s8[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_u16[0], var_vec_b16[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_u16[0], var_vec_u16[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_u32[0], var_vec_b32[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_u32[0], var_vec_u32[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_u8[0], var_vec_b8[1]); |
| *var_cc26f++ = vec_any_eq(var_vec_u8[0], var_vec_u8[1]); |
| *var_cc26f++ = vec_any_ge(var_vec_f32[0], var_vec_f32[1]); |
| *var_cc26f++ = vec_any_gt(var_vec_b16[0], var_vec_s16[1]); |
| *var_cc26f++ = vec_any_gt(var_vec_b16[0], var_vec_u16[1]); |
| *var_cc26f++ = vec_any_gt(var_vec_b32[0], var_vec_s32[1]); |
| *var_cc26f++ = vec_any_gt(var_vec_b32[0], var_vec_u32[1]); |
| *var_cc26f++ = vec_any_gt(var_vec_b8[0], var_vec_s8[1]); |
| *var_cc26f++ = vec_any_gt(var_vec_b8[0], var_vec_u8[1]); |
| *var_cc26f++ = vec_any_gt(var_vec_f32[0], var_vec_f32[1]); |
| *var_cc26f++ = vec_any_gt(var_vec_s16[0], var_vec_b16[1]); |
| *var_cc26f++ = vec_any_gt(var_vec_s16[0], var_vec_s16[1]); |
| *var_cc26f++ = vec_any_gt(var_vec_s32[0], var_vec_b32[1]); |
| *var_cc26f++ = vec_any_gt(var_vec_s32[0], var_vec_s32[1]); |
| *var_cc26f++ = vec_any_gt(var_vec_s8[0], var_vec_b8[1]); |
| *var_cc26f++ = vec_any_gt(var_vec_s8[0], var_vec_s8[1]); |
| *var_cc26f++ = vec_any_gt(var_vec_u16[0], var_vec_b16[1]); |
| *var_cc26f++ = vec_any_gt(var_vec_u16[0], var_vec_u16[1]); |
| *var_cc26f++ = vec_any_gt(var_vec_u32[0], var_vec_b32[1]); |
| *var_cc26f++ = vec_any_gt(var_vec_u32[0], var_vec_u32[1]); |
| *var_cc26f++ = vec_any_gt(var_vec_u8[0], var_vec_b8[1]); |
| *var_cc26f++ = vec_any_gt(var_vec_u8[0], var_vec_u8[1]); |
| *var_cc26f++ = vec_any_out(var_vec_f32[0], var_vec_f32[1]); |
| *var_cc26fd++ = vec_any_numeric(var_vec_f32[0]); |
| *var_cc26fr++ = vec_any_le(var_vec_f32[0], var_vec_f32[1]); |
| *var_cc26fr++ = vec_any_lt(var_vec_b16[0], var_vec_s16[1]); |
| *var_cc26fr++ = vec_any_lt(var_vec_b16[0], var_vec_u16[1]); |
| *var_cc26fr++ = vec_any_lt(var_vec_b32[0], var_vec_s32[1]); |
| *var_cc26fr++ = vec_any_lt(var_vec_b32[0], var_vec_u32[1]); |
| *var_cc26fr++ = vec_any_lt(var_vec_b8[0], var_vec_s8[1]); |
| *var_cc26fr++ = vec_any_lt(var_vec_b8[0], var_vec_u8[1]); |
| *var_cc26fr++ = vec_any_lt(var_vec_f32[0], var_vec_f32[1]); |
| *var_cc26fr++ = vec_any_lt(var_vec_s16[0], var_vec_b16[1]); |
| *var_cc26fr++ = vec_any_lt(var_vec_s16[0], var_vec_s16[1]); |
| *var_cc26fr++ = vec_any_lt(var_vec_s32[0], var_vec_b32[1]); |
| *var_cc26fr++ = vec_any_lt(var_vec_s32[0], var_vec_s32[1]); |
| *var_cc26fr++ = vec_any_lt(var_vec_s8[0], var_vec_b8[1]); |
| *var_cc26fr++ = vec_any_lt(var_vec_s8[0], var_vec_s8[1]); |
| *var_cc26fr++ = vec_any_lt(var_vec_u16[0], var_vec_b16[1]); |
| *var_cc26fr++ = vec_any_lt(var_vec_u16[0], var_vec_u16[1]); |
| *var_cc26fr++ = vec_any_lt(var_vec_u32[0], var_vec_b32[1]); |
| *var_cc26fr++ = vec_any_lt(var_vec_u32[0], var_vec_u32[1]); |
| *var_cc26fr++ = vec_any_lt(var_vec_u8[0], var_vec_b8[1]); |
| *var_cc26fr++ = vec_any_lt(var_vec_u8[0], var_vec_u8[1]); |
| *var_cc26t++ = vec_all_in(var_vec_f32[0], var_vec_f32[1]); |
| *var_cc26t++ = vec_all_le(var_vec_b16[0], var_vec_s16[1]); |
| *var_cc26t++ = vec_all_le(var_vec_b16[0], var_vec_u16[1]); |
| *var_cc26t++ = vec_all_le(var_vec_b32[0], var_vec_s32[1]); |
| *var_cc26t++ = vec_all_le(var_vec_b32[0], var_vec_u32[1]); |
| *var_cc26t++ = vec_all_le(var_vec_b8[0], var_vec_s8[1]); |
| *var_cc26t++ = vec_all_le(var_vec_b8[0], var_vec_u8[1]); |
| } |
| void f2() { |
| *var_cc26t++ = vec_all_le(var_vec_s16[0], var_vec_b16[1]); |
| *var_cc26t++ = vec_all_le(var_vec_s16[0], var_vec_s16[1]); |
| *var_cc26t++ = vec_all_le(var_vec_s32[0], var_vec_b32[1]); |
| *var_cc26t++ = vec_all_le(var_vec_s32[0], var_vec_s32[1]); |
| *var_cc26t++ = vec_all_le(var_vec_s8[0], var_vec_b8[1]); |
| *var_cc26t++ = vec_all_le(var_vec_s8[0], var_vec_s8[1]); |
| *var_cc26t++ = vec_all_le(var_vec_u16[0], var_vec_b16[1]); |
| *var_cc26t++ = vec_all_le(var_vec_u16[0], var_vec_u16[1]); |
| *var_cc26t++ = vec_all_le(var_vec_u32[0], var_vec_b32[1]); |
| *var_cc26t++ = vec_all_le(var_vec_u32[0], var_vec_u32[1]); |
| *var_cc26t++ = vec_all_le(var_vec_u8[0], var_vec_b8[1]); |
| *var_cc26t++ = vec_all_le(var_vec_u8[0], var_vec_u8[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_b16[0], var_vec_b16[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_b16[0], var_vec_s16[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_b16[0], var_vec_u16[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_b32[0], var_vec_b32[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_b32[0], var_vec_s32[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_b32[0], var_vec_u32[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_b8[0], var_vec_b8[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_b8[0], var_vec_s8[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_b8[0], var_vec_u8[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_f32[0], var_vec_f32[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_p16[0], var_vec_p16[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_s16[0], var_vec_b16[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_s16[0], var_vec_s16[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_s32[0], var_vec_b32[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_s32[0], var_vec_s32[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_s8[0], var_vec_b8[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_s8[0], var_vec_s8[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_u16[0], var_vec_b16[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_u16[0], var_vec_u16[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_u32[0], var_vec_b32[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_u32[0], var_vec_u32[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_u8[0], var_vec_b8[1]); |
| *var_cc26t++ = vec_all_ne(var_vec_u8[0], var_vec_u8[1]); |
| *var_cc26t++ = vec_all_nge(var_vec_f32[0], var_vec_f32[1]); |
| *var_cc26t++ = vec_all_ngt(var_vec_f32[0], var_vec_f32[1]); |
| *var_cc26td++ = vec_all_nan(var_vec_f32[0]); |
| *var_cc26tr++ = vec_all_ge(var_vec_b16[0], var_vec_s16[1]); |
| *var_cc26tr++ = vec_all_ge(var_vec_b16[0], var_vec_u16[1]); |
| *var_cc26tr++ = vec_all_ge(var_vec_b32[0], var_vec_s32[1]); |
| *var_cc26tr++ = vec_all_ge(var_vec_b32[0], var_vec_u32[1]); |
| *var_cc26tr++ = vec_all_ge(var_vec_b8[0], var_vec_s8[1]); |
| *var_cc26tr++ = vec_all_ge(var_vec_b8[0], var_vec_u8[1]); |
| *var_cc26tr++ = vec_all_ge(var_vec_s16[0], var_vec_b16[1]); |
| *var_cc26tr++ = vec_all_ge(var_vec_s16[0], var_vec_s16[1]); |
| *var_cc26tr++ = vec_all_ge(var_vec_s32[0], var_vec_b32[1]); |
| *var_cc26tr++ = vec_all_ge(var_vec_s32[0], var_vec_s32[1]); |
| *var_cc26tr++ = vec_all_ge(var_vec_s8[0], var_vec_b8[1]); |
| *var_cc26tr++ = vec_all_ge(var_vec_s8[0], var_vec_s8[1]); |
| *var_cc26tr++ = vec_all_ge(var_vec_u16[0], var_vec_b16[1]); |
| *var_cc26tr++ = vec_all_ge(var_vec_u16[0], var_vec_u16[1]); |
| *var_cc26tr++ = vec_all_ge(var_vec_u32[0], var_vec_b32[1]); |
| *var_cc26tr++ = vec_all_ge(var_vec_u32[0], var_vec_u32[1]); |
| *var_cc26tr++ = vec_all_ge(var_vec_u8[0], var_vec_b8[1]); |
| *var_cc26tr++ = vec_all_ge(var_vec_u8[0], var_vec_u8[1]); |
| *var_cc26tr++ = vec_all_nle(var_vec_f32[0], var_vec_f32[1]); |
| *var_cc26tr++ = vec_all_nlt(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_b16++ = vec_and(var_vec_b16[0], var_vec_b16[1]); |
| *var_vec_b16++ = vec_andc(var_vec_b16[0], var_vec_b16[1]); |
| *var_vec_b16++ = vec_cmpeq(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_b16++ = vec_cmpeq(var_vec_u16[0], var_vec_u16[1]); |
| *var_vec_b16++ = vec_cmpgt(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_b16++ = vec_cmpgt(var_vec_u16[0], var_vec_u16[1]); |
| *var_vec_b16++ = vec_ld(var_int[0], var_vec_b16_ptr[1]); |
| *var_vec_b16++ = vec_ldl(var_int[0], var_vec_b16_ptr[1]); |
| *var_vec_b16++ = vec_lvx(var_int[0], var_vec_b16_ptr[1]); |
| *var_vec_b16++ = vec_lvxl(var_int[0], var_vec_b16_ptr[1]); |
| *var_vec_b16++ = vec_mergeh(var_vec_b16[0], var_vec_b16[1]); |
| *var_vec_b16++ = vec_mergel(var_vec_b16[0], var_vec_b16[1]); |
| *var_vec_b16++ = vec_nor(var_vec_b16[0], var_vec_b16[1]); |
| *var_vec_b16++ = vec_or(var_vec_b16[0], var_vec_b16[1]); |
| *var_vec_b16++ = vec_pack(var_vec_b32[0], var_vec_b32[1]); |
| *var_vec_b16++ = vec_perm(var_vec_b16[0], var_vec_b16[1], var_vec_u8[2]); |
| *var_vec_b16++ = vec_sel(var_vec_b16[0], var_vec_b16[1], var_vec_b16[2]); |
| *var_vec_b16++ = vec_sel(var_vec_b16[0], var_vec_b16[1], var_vec_u16[2]); |
| *var_vec_b16++ = vec_sll(var_vec_b16[0], var_vec_u16[1]); |
| *var_vec_b16++ = vec_sll(var_vec_b16[0], var_vec_u32[1]); |
| *var_vec_b16++ = vec_sll(var_vec_b16[0], var_vec_u8[1]); |
| *var_vec_b16++ = vec_splat(var_vec_b16[0], 0); |
| *var_vec_b16++ = vec_splat(var_vec_b16[0], 1); |
| *var_vec_b16++ = vec_splat(var_vec_b16[0], 2); |
| *var_vec_b16++ = vec_splat(var_vec_b16[0], 3); |
| *var_vec_b16++ = vec_splat(var_vec_b16[0], 4); |
| *var_vec_b16++ = vec_splat(var_vec_b16[0], 5); |
| *var_vec_b16++ = vec_splat(var_vec_b16[0], 6); |
| *var_vec_b16++ = vec_splat(var_vec_b16[0], 7); |
| } |
| void f3() { |
| *var_vec_b16++ = vec_srl(var_vec_b16[0], var_vec_u16[1]); |
| *var_vec_b16++ = vec_srl(var_vec_b16[0], var_vec_u32[1]); |
| *var_vec_b16++ = vec_srl(var_vec_b16[0], var_vec_u8[1]); |
| *var_vec_b16++ = vec_unpackh(var_vec_b8[0]); |
| *var_vec_b16++ = vec_unpackl(var_vec_b8[0]); |
| *var_vec_b16++ = vec_vand(var_vec_b16[0], var_vec_b16[1]); |
| *var_vec_b16++ = vec_vandc(var_vec_b16[0], var_vec_b16[1]); |
| *var_vec_b16++ = vec_vcmpequh(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_b16++ = vec_vcmpequh(var_vec_u16[0], var_vec_u16[1]); |
| *var_vec_b16++ = vec_vcmpgtsh(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_b16++ = vec_vcmpgtuh(var_vec_u16[0], var_vec_u16[1]); |
| *var_vec_b16++ = vec_vmrghh(var_vec_b16[0], var_vec_b16[1]); |
| *var_vec_b16++ = vec_vmrglh(var_vec_b16[0], var_vec_b16[1]); |
| *var_vec_b16++ = vec_vnor(var_vec_b16[0], var_vec_b16[1]); |
| *var_vec_b16++ = vec_vor(var_vec_b16[0], var_vec_b16[1]); |
| *var_vec_b16++ = vec_vperm(var_vec_b16[0], var_vec_b16[1], var_vec_u8[2]); |
| *var_vec_b16++ = vec_vpkuwum(var_vec_b32[0], var_vec_b32[1]); |
| *var_vec_b16++ = vec_vsel(var_vec_b16[0], var_vec_b16[1], var_vec_b16[2]); |
| *var_vec_b16++ = vec_vsel(var_vec_b16[0], var_vec_b16[1], var_vec_u16[2]); |
| *var_vec_b16++ = vec_vsl(var_vec_b16[0], var_vec_u16[1]); |
| *var_vec_b16++ = vec_vsl(var_vec_b16[0], var_vec_u32[1]); |
| *var_vec_b16++ = vec_vsl(var_vec_b16[0], var_vec_u8[1]); |
| *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 0); |
| *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 1); |
| *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 2); |
| *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 3); |
| *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 4); |
| *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 5); |
| *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 6); |
| *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 7); |
| *var_vec_b16++ = vec_vsr(var_vec_b16[0], var_vec_u16[1]); |
| *var_vec_b16++ = vec_vsr(var_vec_b16[0], var_vec_u32[1]); |
| *var_vec_b16++ = vec_vsr(var_vec_b16[0], var_vec_u8[1]); |
| *var_vec_b16++ = vec_vupkhsb(var_vec_b8[0]); |
| *var_vec_b16++ = vec_vupklsb(var_vec_b8[0]); |
| *var_vec_b16++ = vec_vxor(var_vec_b16[0], var_vec_b16[1]); |
| *var_vec_b16++ = vec_xor(var_vec_b16[0], var_vec_b16[1]); |
| *var_vec_b32++ = vec_and(var_vec_b32[0], var_vec_b32[1]); |
| *var_vec_b32++ = vec_andc(var_vec_b32[0], var_vec_b32[1]); |
| *var_vec_b32++ = vec_cmpeq(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_b32++ = vec_cmpeq(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_b32++ = vec_cmpeq(var_vec_u32[0], var_vec_u32[1]); |
| *var_vec_b32++ = vec_cmpge(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_b32++ = vec_cmpgt(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_b32++ = vec_cmpgt(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_b32++ = vec_cmpgt(var_vec_u32[0], var_vec_u32[1]); |
| *var_vec_b32++ = vec_ld(var_int[0], var_vec_b32_ptr[1]); |
| *var_vec_b32++ = vec_ldl(var_int[0], var_vec_b32_ptr[1]); |
| *var_vec_b32++ = vec_lvx(var_int[0], var_vec_b32_ptr[1]); |
| *var_vec_b32++ = vec_lvxl(var_int[0], var_vec_b32_ptr[1]); |
| *var_vec_b32++ = vec_mergeh(var_vec_b32[0], var_vec_b32[1]); |
| *var_vec_b32++ = vec_mergel(var_vec_b32[0], var_vec_b32[1]); |
| *var_vec_b32++ = vec_nor(var_vec_b32[0], var_vec_b32[1]); |
| *var_vec_b32++ = vec_or(var_vec_b32[0], var_vec_b32[1]); |
| *var_vec_b32++ = vec_perm(var_vec_b32[0], var_vec_b32[1], var_vec_u8[2]); |
| *var_vec_b32++ = vec_sel(var_vec_b32[0], var_vec_b32[1], var_vec_b32[2]); |
| *var_vec_b32++ = vec_sel(var_vec_b32[0], var_vec_b32[1], var_vec_u32[2]); |
| *var_vec_b32++ = vec_sll(var_vec_b32[0], var_vec_u16[1]); |
| *var_vec_b32++ = vec_sll(var_vec_b32[0], var_vec_u32[1]); |
| *var_vec_b32++ = vec_sll(var_vec_b32[0], var_vec_u8[1]); |
| *var_vec_b32++ = vec_splat(var_vec_b32[0], 0); |
| *var_vec_b32++ = vec_splat(var_vec_b32[0], 1); |
| *var_vec_b32++ = vec_splat(var_vec_b32[0], 2); |
| *var_vec_b32++ = vec_splat(var_vec_b32[0], 3); |
| } |
| void f4() { |
| *var_vec_b32++ = vec_srl(var_vec_b32[0], var_vec_u16[1]); |
| *var_vec_b32++ = vec_srl(var_vec_b32[0], var_vec_u32[1]); |
| *var_vec_b32++ = vec_srl(var_vec_b32[0], var_vec_u8[1]); |
| *var_vec_b32++ = vec_unpackh(var_vec_b16[0]); |
| *var_vec_b32++ = vec_unpackl(var_vec_b16[0]); |
| *var_vec_b32++ = vec_vand(var_vec_b32[0], var_vec_b32[1]); |
| *var_vec_b32++ = vec_vandc(var_vec_b32[0], var_vec_b32[1]); |
| *var_vec_b32++ = vec_vcmpeqfp(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_b32++ = vec_vcmpequw(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_b32++ = vec_vcmpequw(var_vec_u32[0], var_vec_u32[1]); |
| *var_vec_b32++ = vec_vcmpgefp(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_b32++ = vec_vcmpgtfp(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_b32++ = vec_vcmpgtsw(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_b32++ = vec_vcmpgtuw(var_vec_u32[0], var_vec_u32[1]); |
| *var_vec_b32++ = vec_vmrghw(var_vec_b32[0], var_vec_b32[1]); |
| *var_vec_b32++ = vec_vmrglw(var_vec_b32[0], var_vec_b32[1]); |
| *var_vec_b32++ = vec_vnor(var_vec_b32[0], var_vec_b32[1]); |
| *var_vec_b32++ = vec_vor(var_vec_b32[0], var_vec_b32[1]); |
| *var_vec_b32++ = vec_vperm(var_vec_b32[0], var_vec_b32[1], var_vec_u8[2]); |
| *var_vec_b32++ = vec_vsel(var_vec_b32[0], var_vec_b32[1], var_vec_b32[2]); |
| *var_vec_b32++ = vec_vsel(var_vec_b32[0], var_vec_b32[1], var_vec_u32[2]); |
| *var_vec_b32++ = vec_vsl(var_vec_b32[0], var_vec_u16[1]); |
| *var_vec_b32++ = vec_vsl(var_vec_b32[0], var_vec_u32[1]); |
| *var_vec_b32++ = vec_vsl(var_vec_b32[0], var_vec_u8[1]); |
| *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 0); |
| *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 1); |
| *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 2); |
| *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 3); |
| *var_vec_b32++ = vec_vsr(var_vec_b32[0], var_vec_u16[1]); |
| *var_vec_b32++ = vec_vsr(var_vec_b32[0], var_vec_u32[1]); |
| *var_vec_b32++ = vec_vsr(var_vec_b32[0], var_vec_u8[1]); |
| *var_vec_b32++ = vec_vupkhsh(var_vec_b16[0]); |
| *var_vec_b32++ = vec_vupklsh(var_vec_b16[0]); |
| *var_vec_b32++ = vec_vxor(var_vec_b32[0], var_vec_b32[1]); |
| *var_vec_b32++ = vec_xor(var_vec_b32[0], var_vec_b32[1]); |
| *var_vec_b8++ = vec_and(var_vec_b8[0], var_vec_b8[1]); |
| *var_vec_b8++ = vec_andc(var_vec_b8[0], var_vec_b8[1]); |
| *var_vec_b8++ = vec_cmpeq(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_b8++ = vec_cmpeq(var_vec_u8[0], var_vec_u8[1]); |
| *var_vec_b8++ = vec_cmpgt(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_b8++ = vec_cmpgt(var_vec_u8[0], var_vec_u8[1]); |
| *var_vec_b8++ = vec_ld(var_int[0], var_vec_b8_ptr[1]); |
| *var_vec_b8++ = vec_ldl(var_int[0], var_vec_b8_ptr[1]); |
| *var_vec_b8++ = vec_lvx(var_int[0], var_vec_b8_ptr[1]); |
| *var_vec_b8++ = vec_lvxl(var_int[0], var_vec_b8_ptr[1]); |
| } |
| void f5() { |
| *var_vec_b8++ = vec_mergeh(var_vec_b8[0], var_vec_b8[1]); |
| *var_vec_b8++ = vec_mergel(var_vec_b8[0], var_vec_b8[1]); |
| *var_vec_b8++ = vec_nor(var_vec_b8[0], var_vec_b8[1]); |
| *var_vec_b8++ = vec_or(var_vec_b8[0], var_vec_b8[1]); |
| *var_vec_b8++ = vec_pack(var_vec_b16[0], var_vec_b16[1]); |
| *var_vec_b8++ = vec_perm(var_vec_b8[0], var_vec_b8[1], var_vec_u8[2]); |
| *var_vec_b8++ = vec_sel(var_vec_b8[0], var_vec_b8[1], var_vec_b8[2]); |
| *var_vec_b8++ = vec_sel(var_vec_b8[0], var_vec_b8[1], var_vec_u8[2]); |
| *var_vec_b8++ = vec_sll(var_vec_b8[0], var_vec_u16[1]); |
| *var_vec_b8++ = vec_sll(var_vec_b8[0], var_vec_u32[1]); |
| *var_vec_b8++ = vec_sll(var_vec_b8[0], var_vec_u8[1]); |
| *var_vec_b8++ = vec_splat(var_vec_b8[0], 0); |
| *var_vec_b8++ = vec_splat(var_vec_b8[0], 1); |
| *var_vec_b8++ = vec_splat(var_vec_b8[0], 2); |
| *var_vec_b8++ = vec_splat(var_vec_b8[0], 3); |
| *var_vec_b8++ = vec_splat(var_vec_b8[0], 4); |
| *var_vec_b8++ = vec_splat(var_vec_b8[0], 5); |
| *var_vec_b8++ = vec_splat(var_vec_b8[0], 6); |
| *var_vec_b8++ = vec_splat(var_vec_b8[0], 7); |
| *var_vec_b8++ = vec_splat(var_vec_b8[0], 8); |
| *var_vec_b8++ = vec_splat(var_vec_b8[0], 9); |
| *var_vec_b8++ = vec_splat(var_vec_b8[0], 10); |
| *var_vec_b8++ = vec_splat(var_vec_b8[0], 11); |
| *var_vec_b8++ = vec_splat(var_vec_b8[0], 12); |
| *var_vec_b8++ = vec_splat(var_vec_b8[0], 13); |
| *var_vec_b8++ = vec_splat(var_vec_b8[0], 14); |
| *var_vec_b8++ = vec_splat(var_vec_b8[0], 15); |
| *var_vec_b8++ = vec_srl(var_vec_b8[0], var_vec_u16[1]); |
| *var_vec_b8++ = vec_srl(var_vec_b8[0], var_vec_u32[1]); |
| *var_vec_b8++ = vec_srl(var_vec_b8[0], var_vec_u8[1]); |
| *var_vec_b8++ = vec_vand(var_vec_b8[0], var_vec_b8[1]); |
| *var_vec_b8++ = vec_vandc(var_vec_b8[0], var_vec_b8[1]); |
| *var_vec_b8++ = vec_vcmpequb(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_b8++ = vec_vcmpequb(var_vec_u8[0], var_vec_u8[1]); |
| *var_vec_b8++ = vec_vcmpgtsb(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_b8++ = vec_vcmpgtub(var_vec_u8[0], var_vec_u8[1]); |
| *var_vec_b8++ = vec_vmrghb(var_vec_b8[0], var_vec_b8[1]); |
| *var_vec_b8++ = vec_vmrglb(var_vec_b8[0], var_vec_b8[1]); |
| *var_vec_b8++ = vec_vnor(var_vec_b8[0], var_vec_b8[1]); |
| *var_vec_b8++ = vec_vor(var_vec_b8[0], var_vec_b8[1]); |
| *var_vec_b8++ = vec_vperm(var_vec_b8[0], var_vec_b8[1], var_vec_u8[2]); |
| *var_vec_b8++ = vec_vpkuhum(var_vec_b16[0], var_vec_b16[1]); |
| *var_vec_b8++ = vec_vsel(var_vec_b8[0], var_vec_b8[1], var_vec_b8[2]); |
| *var_vec_b8++ = vec_vsel(var_vec_b8[0], var_vec_b8[1], var_vec_u8[2]); |
| *var_vec_b8++ = vec_vsl(var_vec_b8[0], var_vec_u16[1]); |
| *var_vec_b8++ = vec_vsl(var_vec_b8[0], var_vec_u32[1]); |
| *var_vec_b8++ = vec_vsl(var_vec_b8[0], var_vec_u8[1]); |
| *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 0); |
| *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 1); |
| *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 2); |
| *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 3); |
| *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 4); |
| *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 5); |
| *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 6); |
| *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 7); |
| *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 8); |
| *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 9); |
| *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 10); |
| *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 11); |
| *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 12); |
| *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 13); |
| *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 14); |
| *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 15); |
| *var_vec_b8++ = vec_vsr(var_vec_b8[0], var_vec_u16[1]); |
| *var_vec_b8++ = vec_vsr(var_vec_b8[0], var_vec_u32[1]); |
| *var_vec_b8++ = vec_vsr(var_vec_b8[0], var_vec_u8[1]); |
| *var_vec_b8++ = vec_vxor(var_vec_b8[0], var_vec_b8[1]); |
| *var_vec_b8++ = vec_xor(var_vec_b8[0], var_vec_b8[1]); |
| } |
| void f6() { |
| *var_vec_f32++ = vec_add(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_and(var_vec_b32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_and(var_vec_f32[0], var_vec_b32[1]); |
| *var_vec_f32++ = vec_and(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_andc(var_vec_b32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_andc(var_vec_f32[0], var_vec_b32[1]); |
| *var_vec_f32++ = vec_andc(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_ceil(var_vec_f32[0]); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 0); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 1); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 2); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 3); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 4); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 5); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 6); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 7); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 8); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 9); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 10); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 11); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 12); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 13); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 14); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 15); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 16); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 17); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 18); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 19); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 20); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 21); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 22); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 23); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 24); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 25); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 26); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 27); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 28); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 29); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 30); |
| *var_vec_f32++ = vec_ctf(var_vec_s32[0], 31); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 0); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 1); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 2); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 3); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 4); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 5); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 6); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 7); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 8); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 9); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 10); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 11); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 12); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 13); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 14); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 15); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 16); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 17); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 18); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 19); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 20); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 21); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 22); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 23); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 24); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 25); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 26); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 27); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 28); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 29); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 30); |
| *var_vec_f32++ = vec_ctf(var_vec_u32[0], 31); |
| *var_vec_f32++ = vec_expte(var_vec_f32[0]); |
| *var_vec_f32++ = vec_floor(var_vec_f32[0]); |
| *var_vec_f32++ = vec_ld(var_int[0], var_float_ptr[1]); |
| *var_vec_f32++ = vec_ld(var_int[0], var_vec_f32_ptr[1]); |
| *var_vec_f32++ = vec_lde(var_int[0], var_float_ptr[1]); |
| *var_vec_f32++ = vec_ldl(var_int[0], var_float_ptr[1]); |
| *var_vec_f32++ = vec_ldl(var_int[0], var_vec_f32_ptr[1]); |
| *var_vec_f32++ = vec_loge(var_vec_f32[0]); |
| *var_vec_f32++ = vec_lvewx(var_int[0], var_float_ptr[1]); |
| *var_vec_f32++ = vec_lvx(var_int[0], var_float_ptr[1]); |
| *var_vec_f32++ = vec_lvx(var_int[0], var_vec_f32_ptr[1]); |
| *var_vec_f32++ = vec_lvxl(var_int[0], var_float_ptr[1]); |
| *var_vec_f32++ = vec_lvxl(var_int[0], var_vec_f32_ptr[1]); |
| *var_vec_f32++ = vec_madd(var_vec_f32[0], var_vec_f32[1], var_vec_f32[2]); |
| *var_vec_f32++ = vec_max(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_mergeh(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_mergel(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_min(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_nmsub(var_vec_f32[0], var_vec_f32[1], var_vec_f32[2]); |
| *var_vec_f32++ = vec_nor(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_or(var_vec_b32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_or(var_vec_f32[0], var_vec_b32[1]); |
| *var_vec_f32++ = vec_or(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_perm(var_vec_f32[0], var_vec_f32[1], var_vec_u8[2]); |
| *var_vec_f32++ = vec_re(var_vec_f32[0]); |
| *var_vec_f32++ = vec_round(var_vec_f32[0]); |
| *var_vec_f32++ = vec_rsqrte(var_vec_f32[0]); |
| *var_vec_f32++ = vec_sel(var_vec_f32[0], var_vec_f32[1], var_vec_b32[2]); |
| } |
| void f7() { |
| *var_vec_f32++ = vec_sel(var_vec_f32[0], var_vec_f32[1], var_vec_u32[2]); |
| *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 0); |
| *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 1); |
| *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 2); |
| *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 3); |
| *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 4); |
| *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 5); |
| *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 6); |
| *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 7); |
| *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 8); |
| *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 9); |
| *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 10); |
| *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 11); |
| *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 12); |
| *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 13); |
| *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 14); |
| *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 15); |
| *var_vec_f32++ = vec_slo(var_vec_f32[0], var_vec_s8[1]); |
| *var_vec_f32++ = vec_slo(var_vec_f32[0], var_vec_u8[1]); |
| *var_vec_f32++ = vec_splat(var_vec_f32[0], 0); |
| *var_vec_f32++ = vec_splat(var_vec_f32[0], 1); |
| *var_vec_f32++ = vec_splat(var_vec_f32[0], 2); |
| *var_vec_f32++ = vec_splat(var_vec_f32[0], 3); |
| *var_vec_f32++ = vec_sro(var_vec_f32[0], var_vec_s8[1]); |
| *var_vec_f32++ = vec_sro(var_vec_f32[0], var_vec_u8[1]); |
| *var_vec_f32++ = vec_sub(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_trunc(var_vec_f32[0]); |
| *var_vec_f32++ = vec_vaddfp(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_vand(var_vec_b32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_vand(var_vec_f32[0], var_vec_b32[1]); |
| *var_vec_f32++ = vec_vand(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_vandc(var_vec_b32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_vandc(var_vec_f32[0], var_vec_b32[1]); |
| *var_vec_f32++ = vec_vandc(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 0); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 1); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 2); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 3); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 4); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 5); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 6); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 7); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 8); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 9); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 10); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 11); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 12); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 13); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 14); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 15); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 16); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 17); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 18); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 19); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 20); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 21); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 22); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 23); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 24); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 25); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 26); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 27); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 28); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 29); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 30); |
| *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 31); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 0); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 1); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 2); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 3); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 4); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 5); |
| } |
| void f8() { |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 6); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 7); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 8); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 9); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 10); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 11); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 12); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 13); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 14); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 15); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 16); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 17); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 18); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 19); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 20); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 21); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 22); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 23); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 24); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 25); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 26); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 27); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 28); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 29); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 30); |
| *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 31); |
| *var_vec_f32++ = vec_vexptefp(var_vec_f32[0]); |
| *var_vec_f32++ = vec_vlogefp(var_vec_f32[0]); |
| *var_vec_f32++ = vec_vmaddfp(var_vec_f32[0], var_vec_f32[1], var_vec_f32[2]); |
| *var_vec_f32++ = vec_vmaxfp(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_vminfp(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_vmrghw(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_vmrglw(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_vnmsubfp(var_vec_f32[0], var_vec_f32[1], var_vec_f32[2]); |
| *var_vec_f32++ = vec_vnor(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_vor(var_vec_b32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_vor(var_vec_f32[0], var_vec_b32[1]); |
| *var_vec_f32++ = vec_vor(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_vperm(var_vec_f32[0], var_vec_f32[1], var_vec_u8[2]); |
| *var_vec_f32++ = vec_vrefp(var_vec_f32[0]); |
| *var_vec_f32++ = vec_vrfim(var_vec_f32[0]); |
| *var_vec_f32++ = vec_vrfin(var_vec_f32[0]); |
| *var_vec_f32++ = vec_vrfip(var_vec_f32[0]); |
| *var_vec_f32++ = vec_vrfiz(var_vec_f32[0]); |
| *var_vec_f32++ = vec_vrsqrtefp(var_vec_f32[0]); |
| *var_vec_f32++ = vec_vsel(var_vec_f32[0], var_vec_f32[1], var_vec_b32[2]); |
| *var_vec_f32++ = vec_vsel(var_vec_f32[0], var_vec_f32[1], var_vec_u32[2]); |
| *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 0); |
| *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 1); |
| *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 2); |
| *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 3); |
| *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 4); |
| *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 5); |
| *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 6); |
| *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 7); |
| *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 8); |
| *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 9); |
| *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 10); |
| *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 11); |
| *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 12); |
| *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 13); |
| *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 14); |
| *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 15); |
| *var_vec_f32++ = vec_vslo(var_vec_f32[0], var_vec_s8[1]); |
| *var_vec_f32++ = vec_vslo(var_vec_f32[0], var_vec_u8[1]); |
| *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 0); |
| *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 1); |
| *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 2); |
| *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 3); |
| *var_vec_f32++ = vec_vsro(var_vec_f32[0], var_vec_s8[1]); |
| *var_vec_f32++ = vec_vsro(var_vec_f32[0], var_vec_u8[1]); |
| *var_vec_f32++ = vec_vsubfp(var_vec_f32[0], var_vec_f32[1]); |
| } |
| void f9() { |
| *var_vec_f32++ = vec_vxor(var_vec_b32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_vxor(var_vec_f32[0], var_vec_b32[1]); |
| *var_vec_f32++ = vec_vxor(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_xor(var_vec_b32[0], var_vec_f32[1]); |
| *var_vec_f32++ = vec_xor(var_vec_f32[0], var_vec_b32[1]); |
| *var_vec_f32++ = vec_xor(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_p16++ = vec_ld(var_int[0], var_vec_p16_ptr[1]); |
| *var_vec_p16++ = vec_ldl(var_int[0], var_vec_p16_ptr[1]); |
| *var_vec_p16++ = vec_lvx(var_int[0], var_vec_p16_ptr[1]); |
| *var_vec_p16++ = vec_lvxl(var_int[0], var_vec_p16_ptr[1]); |
| *var_vec_p16++ = vec_mergeh(var_vec_p16[0], var_vec_p16[1]); |
| *var_vec_p16++ = vec_mergel(var_vec_p16[0], var_vec_p16[1]); |
| *var_vec_p16++ = vec_packpx(var_vec_u32[0], var_vec_u32[1]); |
| *var_vec_p16++ = vec_perm(var_vec_p16[0], var_vec_p16[1], var_vec_u8[2]); |
| *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 0); |
| *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 1); |
| *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 2); |
| *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 3); |
| *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 4); |
| *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 5); |
| *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 6); |
| *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 7); |
| *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 8); |
| *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 9); |
| *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 10); |
| *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 11); |
| *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 12); |
| *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 13); |
| *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 14); |
| *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 15); |
| *var_vec_p16++ = vec_sll(var_vec_p16[0], var_vec_u16[1]); |
| *var_vec_p16++ = vec_sll(var_vec_p16[0], var_vec_u32[1]); |
| *var_vec_p16++ = vec_sll(var_vec_p16[0], var_vec_u8[1]); |
| *var_vec_p16++ = vec_slo(var_vec_p16[0], var_vec_s8[1]); |
| *var_vec_p16++ = vec_slo(var_vec_p16[0], var_vec_u8[1]); |
| *var_vec_p16++ = vec_splat(var_vec_p16[0], 0); |
| *var_vec_p16++ = vec_splat(var_vec_p16[0], 1); |
| *var_vec_p16++ = vec_splat(var_vec_p16[0], 2); |
| *var_vec_p16++ = vec_splat(var_vec_p16[0], 3); |
| *var_vec_p16++ = vec_splat(var_vec_p16[0], 4); |
| *var_vec_p16++ = vec_splat(var_vec_p16[0], 5); |
| *var_vec_p16++ = vec_splat(var_vec_p16[0], 6); |
| *var_vec_p16++ = vec_splat(var_vec_p16[0], 7); |
| *var_vec_p16++ = vec_srl(var_vec_p16[0], var_vec_u16[1]); |
| *var_vec_p16++ = vec_srl(var_vec_p16[0], var_vec_u32[1]); |
| *var_vec_p16++ = vec_srl(var_vec_p16[0], var_vec_u8[1]); |
| *var_vec_p16++ = vec_sro(var_vec_p16[0], var_vec_s8[1]); |
| *var_vec_p16++ = vec_sro(var_vec_p16[0], var_vec_u8[1]); |
| *var_vec_p16++ = vec_vmrghh(var_vec_p16[0], var_vec_p16[1]); |
| *var_vec_p16++ = vec_vmrglh(var_vec_p16[0], var_vec_p16[1]); |
| *var_vec_p16++ = vec_vperm(var_vec_p16[0], var_vec_p16[1], var_vec_u8[2]); |
| *var_vec_p16++ = vec_vpkpx(var_vec_u32[0], var_vec_u32[1]); |
| *var_vec_p16++ = vec_vsl(var_vec_p16[0], var_vec_u16[1]); |
| *var_vec_p16++ = vec_vsl(var_vec_p16[0], var_vec_u32[1]); |
| *var_vec_p16++ = vec_vsl(var_vec_p16[0], var_vec_u8[1]); |
| *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 0); |
| *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 1); |
| *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 2); |
| *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 3); |
| *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 4); |
| *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 5); |
| *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 6); |
| *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 7); |
| *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 8); |
| *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 9); |
| *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 10); |
| *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 11); |
| *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 12); |
| *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 13); |
| *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 14); |
| *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 15); |
| *var_vec_p16++ = vec_vslo(var_vec_p16[0], var_vec_s8[1]); |
| *var_vec_p16++ = vec_vslo(var_vec_p16[0], var_vec_u8[1]); |
| *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 0); |
| *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 1); |
| *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 2); |
| } |
| void f10() { |
| *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 3); |
| *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 4); |
| *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 5); |
| *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 6); |
| *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 7); |
| *var_vec_p16++ = vec_vsr(var_vec_p16[0], var_vec_u16[1]); |
| *var_vec_p16++ = vec_vsr(var_vec_p16[0], var_vec_u32[1]); |
| *var_vec_p16++ = vec_vsr(var_vec_p16[0], var_vec_u8[1]); |
| *var_vec_p16++ = vec_vsro(var_vec_p16[0], var_vec_s8[1]); |
| *var_vec_p16++ = vec_vsro(var_vec_p16[0], var_vec_u8[1]); |
| *var_vec_s16++ = vec_add(var_vec_b16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_add(var_vec_s16[0], var_vec_b16[1]); |
| *var_vec_s16++ = vec_add(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_adds(var_vec_b16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_adds(var_vec_s16[0], var_vec_b16[1]); |
| *var_vec_s16++ = vec_adds(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_and(var_vec_b16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_and(var_vec_s16[0], var_vec_b16[1]); |
| *var_vec_s16++ = vec_and(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_andc(var_vec_b16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_andc(var_vec_s16[0], var_vec_b16[1]); |
| *var_vec_s16++ = vec_andc(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_avg(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_ld(var_int[0], var_short_ptr[1]); |
| *var_vec_s16++ = vec_ld(var_int[0], var_vec_s16_ptr[1]); |
| *var_vec_s16++ = vec_lde(var_int[0], var_short_ptr[1]); |
| *var_vec_s16++ = vec_ldl(var_int[0], var_short_ptr[1]); |
| *var_vec_s16++ = vec_ldl(var_int[0], var_vec_s16_ptr[1]); |
| *var_vec_s16++ = vec_lvehx(var_int[0], var_short_ptr[1]); |
| *var_vec_s16++ = vec_lvx(var_int[0], var_short_ptr[1]); |
| *var_vec_s16++ = vec_lvx(var_int[0], var_vec_s16_ptr[1]); |
| *var_vec_s16++ = vec_lvxl(var_int[0], var_short_ptr[1]); |
| *var_vec_s16++ = vec_lvxl(var_int[0], var_vec_s16_ptr[1]); |
| *var_vec_s16++ = vec_madds(var_vec_s16[0], var_vec_s16[1], var_vec_s16[2]); |
| *var_vec_s16++ = vec_max(var_vec_b16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_max(var_vec_s16[0], var_vec_b16[1]); |
| *var_vec_s16++ = vec_max(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_mergeh(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_mergel(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_min(var_vec_b16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_min(var_vec_s16[0], var_vec_b16[1]); |
| *var_vec_s16++ = vec_min(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_mladd(var_vec_s16[0], var_vec_s16[1], var_vec_s16[2]); |
| *var_vec_s16++ = vec_mladd(var_vec_s16[0], var_vec_u16[1], var_vec_u16[2]); |
| *var_vec_s16++ = vec_mladd(var_vec_u16[0], var_vec_s16[1], var_vec_s16[2]); |
| *var_vec_s16++ = vec_mradds(var_vec_s16[0], var_vec_s16[1], var_vec_s16[2]); |
| *var_vec_s16++ = vec_mule(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s16++ = vec_mulo(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s16++ = vec_nor(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_or(var_vec_b16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_or(var_vec_s16[0], var_vec_b16[1]); |
| *var_vec_s16++ = vec_or(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_pack(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s16++ = vec_packs(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s16++ = vec_perm(var_vec_s16[0], var_vec_s16[1], var_vec_u8[2]); |
| *var_vec_s16++ = vec_rl(var_vec_s16[0], var_vec_u16[1]); |
| *var_vec_s16++ = vec_sel(var_vec_s16[0], var_vec_s16[1], var_vec_b16[2]); |
| *var_vec_s16++ = vec_sel(var_vec_s16[0], var_vec_s16[1], var_vec_u16[2]); |
| *var_vec_s16++ = vec_sl(var_vec_s16[0], var_vec_u16[1]); |
| *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 0); |
| *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 1); |
| *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 2); |
| *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 3); |
| *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 4); |
| *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 5); |
| *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 6); |
| *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 7); |
| *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 8); |
| *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 9); |
| *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 10); |
| *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 11); |
| *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 12); |
| *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 13); |
| *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 14); |
| *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 15); |
| *var_vec_s16++ = vec_sll(var_vec_s16[0], var_vec_u16[1]); |
| } |
| void f11() { |
| *var_vec_s16++ = vec_sll(var_vec_s16[0], var_vec_u32[1]); |
| *var_vec_s16++ = vec_sll(var_vec_s16[0], var_vec_u8[1]); |
| *var_vec_s16++ = vec_slo(var_vec_s16[0], var_vec_s8[1]); |
| *var_vec_s16++ = vec_slo(var_vec_s16[0], var_vec_u8[1]); |
| *var_vec_s16++ = vec_splat(var_vec_s16[0], 0); |
| *var_vec_s16++ = vec_splat(var_vec_s16[0], 1); |
| *var_vec_s16++ = vec_splat(var_vec_s16[0], 2); |
| *var_vec_s16++ = vec_splat(var_vec_s16[0], 3); |
| *var_vec_s16++ = vec_splat(var_vec_s16[0], 4); |
| *var_vec_s16++ = vec_splat(var_vec_s16[0], 5); |
| *var_vec_s16++ = vec_splat(var_vec_s16[0], 6); |
| *var_vec_s16++ = vec_splat(var_vec_s16[0], 7); |
| *var_vec_s16++ = vec_splat_s16( 0); |
| *var_vec_s16++ = vec_splat_s16( 1); |
| *var_vec_s16++ = vec_splat_s16( 2); |
| *var_vec_s16++ = vec_splat_s16( 3); |
| *var_vec_s16++ = vec_splat_s16( 4); |
| *var_vec_s16++ = vec_splat_s16( 5); |
| *var_vec_s16++ = vec_splat_s16( 6); |
| *var_vec_s16++ = vec_splat_s16( 7); |
| *var_vec_s16++ = vec_splat_s16( 8); |
| *var_vec_s16++ = vec_splat_s16( 9); |
| *var_vec_s16++ = vec_splat_s16( -1); |
| *var_vec_s16++ = vec_splat_s16( -2); |
| *var_vec_s16++ = vec_splat_s16( -3); |
| *var_vec_s16++ = vec_splat_s16( -4); |
| *var_vec_s16++ = vec_splat_s16( -5); |
| *var_vec_s16++ = vec_splat_s16( -6); |
| *var_vec_s16++ = vec_splat_s16( -7); |
| *var_vec_s16++ = vec_splat_s16( -8); |
| *var_vec_s16++ = vec_splat_s16( -9); |
| *var_vec_s16++ = vec_splat_s16( 10); |
| *var_vec_s16++ = vec_splat_s16( 11); |
| *var_vec_s16++ = vec_splat_s16( 12); |
| *var_vec_s16++ = vec_splat_s16( 13); |
| *var_vec_s16++ = vec_splat_s16( 14); |
| *var_vec_s16++ = vec_splat_s16( 15); |
| *var_vec_s16++ = vec_splat_s16(-10); |
| *var_vec_s16++ = vec_splat_s16(-11); |
| *var_vec_s16++ = vec_splat_s16(-12); |
| *var_vec_s16++ = vec_splat_s16(-13); |
| *var_vec_s16++ = vec_splat_s16(-14); |
| *var_vec_s16++ = vec_splat_s16(-15); |
| *var_vec_s16++ = vec_splat_s16(-16); |
| *var_vec_s16++ = vec_sr(var_vec_s16[0], var_vec_u16[1]); |
| *var_vec_s16++ = vec_sra(var_vec_s16[0], var_vec_u16[1]); |
| *var_vec_s16++ = vec_srl(var_vec_s16[0], var_vec_u16[1]); |
| *var_vec_s16++ = vec_srl(var_vec_s16[0], var_vec_u32[1]); |
| *var_vec_s16++ = vec_srl(var_vec_s16[0], var_vec_u8[1]); |
| *var_vec_s16++ = vec_sro(var_vec_s16[0], var_vec_s8[1]); |
| *var_vec_s16++ = vec_sro(var_vec_s16[0], var_vec_u8[1]); |
| *var_vec_s16++ = vec_sub(var_vec_b16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_sub(var_vec_s16[0], var_vec_b16[1]); |
| *var_vec_s16++ = vec_sub(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_subs(var_vec_b16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_subs(var_vec_s16[0], var_vec_b16[1]); |
| *var_vec_s16++ = vec_subs(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_unpackh(var_vec_s8[0]); |
| *var_vec_s16++ = vec_unpackl(var_vec_s8[0]); |
| *var_vec_s16++ = vec_vaddshs(var_vec_b16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vaddshs(var_vec_s16[0], var_vec_b16[1]); |
| *var_vec_s16++ = vec_vaddshs(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vadduhm(var_vec_b16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vadduhm(var_vec_s16[0], var_vec_b16[1]); |
| *var_vec_s16++ = vec_vadduhm(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vand(var_vec_b16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vand(var_vec_s16[0], var_vec_b16[1]); |
| *var_vec_s16++ = vec_vand(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vandc(var_vec_b16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vandc(var_vec_s16[0], var_vec_b16[1]); |
| *var_vec_s16++ = vec_vandc(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vavgsh(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vmaxsh(var_vec_b16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vmaxsh(var_vec_s16[0], var_vec_b16[1]); |
| } |
| void f12() { |
| *var_vec_s16++ = vec_vmaxsh(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vmhaddshs(var_vec_s16[0], var_vec_s16[1], var_vec_s16[2]); |
| *var_vec_s16++ = vec_vmhraddshs(var_vec_s16[0], var_vec_s16[1], var_vec_s16[2]); |
| *var_vec_s16++ = vec_vminsh(var_vec_b16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vminsh(var_vec_s16[0], var_vec_b16[1]); |
| *var_vec_s16++ = vec_vminsh(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vmladduhm(var_vec_s16[0], var_vec_s16[1], var_vec_s16[2]); |
| *var_vec_s16++ = vec_vmladduhm(var_vec_s16[0], var_vec_u16[1], var_vec_u16[2]); |
| *var_vec_s16++ = vec_vmladduhm(var_vec_u16[0], var_vec_s16[1], var_vec_s16[2]); |
| *var_vec_s16++ = vec_vmrghh(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vmrglh(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vmulesb(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s16++ = vec_vmulosb(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s16++ = vec_vnor(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vor(var_vec_b16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vor(var_vec_s16[0], var_vec_b16[1]); |
| *var_vec_s16++ = vec_vor(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vperm(var_vec_s16[0], var_vec_s16[1], var_vec_u8[2]); |
| *var_vec_s16++ = vec_vpkswss(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s16++ = vec_vpkuwum(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s16++ = vec_vrlh(var_vec_s16[0], var_vec_u16[1]); |
| *var_vec_s16++ = vec_vsel(var_vec_s16[0], var_vec_s16[1], var_vec_b16[2]); |
| *var_vec_s16++ = vec_vsel(var_vec_s16[0], var_vec_s16[1], var_vec_u16[2]); |
| *var_vec_s16++ = vec_vsl(var_vec_s16[0], var_vec_u16[1]); |
| *var_vec_s16++ = vec_vsl(var_vec_s16[0], var_vec_u32[1]); |
| *var_vec_s16++ = vec_vsl(var_vec_s16[0], var_vec_u8[1]); |
| *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 0); |
| *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 1); |
| *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 2); |
| *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 3); |
| *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 4); |
| *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 5); |
| *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 6); |
| *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 7); |
| *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 8); |
| *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 9); |
| *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 10); |
| *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 11); |
| *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 12); |
| *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 13); |
| *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 14); |
| *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 15); |
| *var_vec_s16++ = vec_vslh(var_vec_s16[0], var_vec_u16[1]); |
| *var_vec_s16++ = vec_vslo(var_vec_s16[0], var_vec_s8[1]); |
| *var_vec_s16++ = vec_vslo(var_vec_s16[0], var_vec_u8[1]); |
| *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 0); |
| *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 1); |
| *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 2); |
| *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 3); |
| *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 4); |
| *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 5); |
| *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 6); |
| *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 7); |
| *var_vec_s16++ = vec_vspltish( 0); |
| *var_vec_s16++ = vec_vspltish( 1); |
| *var_vec_s16++ = vec_vspltish( 2); |
| *var_vec_s16++ = vec_vspltish( 3); |
| *var_vec_s16++ = vec_vspltish( 4); |
| *var_vec_s16++ = vec_vspltish( 5); |
| *var_vec_s16++ = vec_vspltish( 6); |
| *var_vec_s16++ = vec_vspltish( 7); |
| *var_vec_s16++ = vec_vspltish( 8); |
| *var_vec_s16++ = vec_vspltish( 9); |
| *var_vec_s16++ = vec_vspltish( -1); |
| *var_vec_s16++ = vec_vspltish( -2); |
| *var_vec_s16++ = vec_vspltish( -3); |
| *var_vec_s16++ = vec_vspltish( -4); |
| *var_vec_s16++ = vec_vspltish( -5); |
| *var_vec_s16++ = vec_vspltish( -6); |
| *var_vec_s16++ = vec_vspltish( -7); |
| *var_vec_s16++ = vec_vspltish( -8); |
| *var_vec_s16++ = vec_vspltish( -9); |
| *var_vec_s16++ = vec_vspltish( 10); |
| *var_vec_s16++ = vec_vspltish( 11); |
| *var_vec_s16++ = vec_vspltish( 12); |
| *var_vec_s16++ = vec_vspltish( 13); |
| } |
| void f13() { |
| *var_vec_s16++ = vec_vspltish( 14); |
| *var_vec_s16++ = vec_vspltish( 15); |
| *var_vec_s16++ = vec_vspltish(-10); |
| *var_vec_s16++ = vec_vspltish(-11); |
| *var_vec_s16++ = vec_vspltish(-12); |
| *var_vec_s16++ = vec_vspltish(-13); |
| *var_vec_s16++ = vec_vspltish(-14); |
| *var_vec_s16++ = vec_vspltish(-15); |
| *var_vec_s16++ = vec_vspltish(-16); |
| *var_vec_s16++ = vec_vsr(var_vec_s16[0], var_vec_u16[1]); |
| *var_vec_s16++ = vec_vsr(var_vec_s16[0], var_vec_u32[1]); |
| *var_vec_s16++ = vec_vsr(var_vec_s16[0], var_vec_u8[1]); |
| *var_vec_s16++ = vec_vsrah(var_vec_s16[0], var_vec_u16[1]); |
| *var_vec_s16++ = vec_vsrh(var_vec_s16[0], var_vec_u16[1]); |
| *var_vec_s16++ = vec_vsro(var_vec_s16[0], var_vec_s8[1]); |
| *var_vec_s16++ = vec_vsro(var_vec_s16[0], var_vec_u8[1]); |
| *var_vec_s16++ = vec_vsubshs(var_vec_b16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vsubshs(var_vec_s16[0], var_vec_b16[1]); |
| *var_vec_s16++ = vec_vsubshs(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vsubuhm(var_vec_b16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vsubuhm(var_vec_s16[0], var_vec_b16[1]); |
| *var_vec_s16++ = vec_vsubuhm(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vupkhsb(var_vec_s8[0]); |
| *var_vec_s16++ = vec_vupklsb(var_vec_s8[0]); |
| *var_vec_s16++ = vec_vxor(var_vec_b16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_vxor(var_vec_s16[0], var_vec_b16[1]); |
| *var_vec_s16++ = vec_vxor(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_xor(var_vec_b16[0], var_vec_s16[1]); |
| *var_vec_s16++ = vec_xor(var_vec_s16[0], var_vec_b16[1]); |
| *var_vec_s16++ = vec_xor(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s32++ = vec_add(var_vec_b32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_add(var_vec_s32[0], var_vec_b32[1]); |
| *var_vec_s32++ = vec_add(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_adds(var_vec_b32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_adds(var_vec_s32[0], var_vec_b32[1]); |
| *var_vec_s32++ = vec_adds(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_and(var_vec_b32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_and(var_vec_s32[0], var_vec_b32[1]); |
| *var_vec_s32++ = vec_and(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_andc(var_vec_b32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_andc(var_vec_s32[0], var_vec_b32[1]); |
| *var_vec_s32++ = vec_andc(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_avg(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_cmpb(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 0); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 1); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 2); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 3); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 4); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 5); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 6); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 7); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 8); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 9); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 10); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 11); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 12); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 13); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 14); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 15); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 16); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 17); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 18); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 19); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 20); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 21); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 22); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 23); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 24); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 25); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 26); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 27); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 28); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 29); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 30); |
| *var_vec_s32++ = vec_cts(var_vec_f32[0], 31); |
| *var_vec_s32++ = vec_ld(var_int[0], var_int_ptr[1]); |
| *var_vec_s32++ = vec_ld(var_int[0], var_vec_s32_ptr[1]); |
| *var_vec_s32++ = vec_lde(var_int[0], var_int_ptr[1]); |
| *var_vec_s32++ = vec_ldl(var_int[0], var_int_ptr[1]); |
| *var_vec_s32++ = vec_ldl(var_int[0], var_vec_s32_ptr[1]); |
| *var_vec_s32++ = vec_lvewx(var_int[0], var_int_ptr[1]); |
| *var_vec_s32++ = vec_lvx(var_int[0], var_int_ptr[1]); |
| *var_vec_s32++ = vec_lvx(var_int[0], var_vec_s32_ptr[1]); |
| *var_vec_s32++ = vec_lvxl(var_int[0], var_int_ptr[1]); |
| *var_vec_s32++ = vec_lvxl(var_int[0], var_vec_s32_ptr[1]); |
| *var_vec_s32++ = vec_max(var_vec_b32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_max(var_vec_s32[0], var_vec_b32[1]); |
| *var_vec_s32++ = vec_max(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_mergeh(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_mergel(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_min(var_vec_b32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_min(var_vec_s32[0], var_vec_b32[1]); |
| *var_vec_s32++ = vec_min(var_vec_s32[0], var_vec_s32[1]); |
| } |
| void f14() { |
| *var_vec_s32++ = vec_msum(var_vec_s16[0], var_vec_s16[1], var_vec_s32[2]); |
| *var_vec_s32++ = vec_msum(var_vec_s8[0], var_vec_u8[1], var_vec_s32[2]); |
| *var_vec_s32++ = vec_msums(var_vec_s16[0], var_vec_s16[1], var_vec_s32[2]); |
| *var_vec_s32++ = vec_mule(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s32++ = vec_mulo(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s32++ = vec_nor(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_or(var_vec_b32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_or(var_vec_s32[0], var_vec_b32[1]); |
| *var_vec_s32++ = vec_or(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_perm(var_vec_s32[0], var_vec_s32[1], var_vec_u8[2]); |
| *var_vec_s32++ = vec_rl(var_vec_s32[0], var_vec_u32[1]); |
| *var_vec_s32++ = vec_sel(var_vec_s32[0], var_vec_s32[1], var_vec_b32[2]); |
| *var_vec_s32++ = vec_sel(var_vec_s32[0], var_vec_s32[1], var_vec_u32[2]); |
| *var_vec_s32++ = vec_sl(var_vec_s32[0], var_vec_u32[1]); |
| *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 0); |
| *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 1); |
| *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 2); |
| *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 3); |
| *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 4); |
| *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 5); |
| *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 6); |
| *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 7); |
| *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 8); |
| *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 9); |
| *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 10); |
| *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 11); |
| *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 12); |
| *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 13); |
| *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 14); |
| *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 15); |
| *var_vec_s32++ = vec_sll(var_vec_s32[0], var_vec_u16[1]); |
| *var_vec_s32++ = vec_sll(var_vec_s32[0], var_vec_u32[1]); |
| *var_vec_s32++ = vec_sll(var_vec_s32[0], var_vec_u8[1]); |
| *var_vec_s32++ = vec_slo(var_vec_s32[0], var_vec_s8[1]); |
| *var_vec_s32++ = vec_slo(var_vec_s32[0], var_vec_u8[1]); |
| *var_vec_s32++ = vec_splat(var_vec_s32[0], 0); |
| *var_vec_s32++ = vec_splat(var_vec_s32[0], 1); |
| *var_vec_s32++ = vec_splat(var_vec_s32[0], 2); |
| *var_vec_s32++ = vec_splat(var_vec_s32[0], 3); |
| *var_vec_s32++ = vec_splat_s32( 0); |
| *var_vec_s32++ = vec_splat_s32( 1); |
| *var_vec_s32++ = vec_splat_s32( 2); |
| *var_vec_s32++ = vec_splat_s32( 3); |
| *var_vec_s32++ = vec_splat_s32( 4); |
| *var_vec_s32++ = vec_splat_s32( 5); |
| *var_vec_s32++ = vec_splat_s32( 6); |
| *var_vec_s32++ = vec_splat_s32( 7); |
| *var_vec_s32++ = vec_splat_s32( 8); |
| *var_vec_s32++ = vec_splat_s32( 9); |
| *var_vec_s32++ = vec_splat_s32( -1); |
| *var_vec_s32++ = vec_splat_s32( -2); |
| *var_vec_s32++ = vec_splat_s32( -3); |
| *var_vec_s32++ = vec_splat_s32( -4); |
| *var_vec_s32++ = vec_splat_s32( -5); |
| *var_vec_s32++ = vec_splat_s32( -6); |
| *var_vec_s32++ = vec_splat_s32( -7); |
| *var_vec_s32++ = vec_splat_s32( -8); |
| *var_vec_s32++ = vec_splat_s32( -9); |
| *var_vec_s32++ = vec_splat_s32( 10); |
| *var_vec_s32++ = vec_splat_s32( 11); |
| *var_vec_s32++ = vec_splat_s32( 12); |
| *var_vec_s32++ = vec_splat_s32( 13); |
| *var_vec_s32++ = vec_splat_s32( 14); |
| *var_vec_s32++ = vec_splat_s32( 15); |
| *var_vec_s32++ = vec_splat_s32(-10); |
| *var_vec_s32++ = vec_splat_s32(-11); |
| *var_vec_s32++ = vec_splat_s32(-12); |
| *var_vec_s32++ = vec_splat_s32(-13); |
| *var_vec_s32++ = vec_splat_s32(-14); |
| *var_vec_s32++ = vec_splat_s32(-15); |
| *var_vec_s32++ = vec_splat_s32(-16); |
| *var_vec_s32++ = vec_sr(var_vec_s32[0], var_vec_u32[1]); |
| } |
| void f15() { |
| *var_vec_s32++ = vec_sra(var_vec_s32[0], var_vec_u32[1]); |
| *var_vec_s32++ = vec_srl(var_vec_s32[0], var_vec_u16[1]); |
| *var_vec_s32++ = vec_srl(var_vec_s32[0], var_vec_u32[1]); |
| *var_vec_s32++ = vec_srl(var_vec_s32[0], var_vec_u8[1]); |
| *var_vec_s32++ = vec_sro(var_vec_s32[0], var_vec_s8[1]); |
| *var_vec_s32++ = vec_sro(var_vec_s32[0], var_vec_u8[1]); |
| *var_vec_s32++ = vec_sub(var_vec_b32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_sub(var_vec_s32[0], var_vec_b32[1]); |
| *var_vec_s32++ = vec_sub(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_subs(var_vec_b32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_subs(var_vec_s32[0], var_vec_b32[1]); |
| *var_vec_s32++ = vec_subs(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_sum2s(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_sum4s(var_vec_s16[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_sum4s(var_vec_s8[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_sums(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_unpackh(var_vec_s16[0]); |
| *var_vec_s32++ = vec_unpackl(var_vec_s16[0]); |
| *var_vec_s32++ = vec_vaddsws(var_vec_b32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vaddsws(var_vec_s32[0], var_vec_b32[1]); |
| *var_vec_s32++ = vec_vaddsws(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vadduwm(var_vec_b32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vadduwm(var_vec_s32[0], var_vec_b32[1]); |
| *var_vec_s32++ = vec_vadduwm(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vand(var_vec_b32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vand(var_vec_s32[0], var_vec_b32[1]); |
| *var_vec_s32++ = vec_vand(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vandc(var_vec_b32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vandc(var_vec_s32[0], var_vec_b32[1]); |
| *var_vec_s32++ = vec_vandc(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vavgsw(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vcmpbfp(var_vec_f32[0], var_vec_f32[1]); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 0); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 1); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 2); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 3); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 4); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 5); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 6); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 7); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 8); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 9); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 10); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 11); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 12); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 13); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 14); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 15); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 16); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 17); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 18); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 19); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 20); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 21); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 22); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 23); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 24); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 25); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 26); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 27); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 28); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 29); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 30); |
| *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 31); |
| *var_vec_s32++ = vec_vmaxsw(var_vec_b32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vmaxsw(var_vec_s32[0], var_vec_b32[1]); |
| *var_vec_s32++ = vec_vmaxsw(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vminsw(var_vec_b32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vminsw(var_vec_s32[0], var_vec_b32[1]); |
| *var_vec_s32++ = vec_vminsw(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vmrghw(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vmrglw(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vmsummbm(var_vec_s8[0], var_vec_u8[1], var_vec_s32[2]); |
| *var_vec_s32++ = vec_vmsumshm(var_vec_s16[0], var_vec_s16[1], var_vec_s32[2]); |
| *var_vec_s32++ = vec_vmsumshs(var_vec_s16[0], var_vec_s16[1], var_vec_s32[2]); |
| *var_vec_s32++ = vec_vmulesh(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s32++ = vec_vmulosh(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s32++ = vec_vnor(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vor(var_vec_b32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vor(var_vec_s32[0], var_vec_b32[1]); |
| *var_vec_s32++ = vec_vor(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vperm(var_vec_s32[0], var_vec_s32[1], var_vec_u8[2]); |
| *var_vec_s32++ = vec_vrlw(var_vec_s32[0], var_vec_u32[1]); |
| *var_vec_s32++ = vec_vsel(var_vec_s32[0], var_vec_s32[1], var_vec_b32[2]); |
| *var_vec_s32++ = vec_vsel(var_vec_s32[0], var_vec_s32[1], var_vec_u32[2]); |
| *var_vec_s32++ = vec_vsl(var_vec_s32[0], var_vec_u16[1]); |
| *var_vec_s32++ = vec_vsl(var_vec_s32[0], var_vec_u32[1]); |
| *var_vec_s32++ = vec_vsl(var_vec_s32[0], var_vec_u8[1]); |
| *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 0); |
| *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 1); |
| *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 2); |
| *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 3); |
| *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 4); |
| *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 5); |
| *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 6); |
| *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 7); |
| *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 8); |
| *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 9); |
| } |
| void f16() { |
| *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 10); |
| *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 11); |
| *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 12); |
| *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 13); |
| *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 14); |
| *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 15); |
| *var_vec_s32++ = vec_vslo(var_vec_s32[0], var_vec_s8[1]); |
| *var_vec_s32++ = vec_vslo(var_vec_s32[0], var_vec_u8[1]); |
| *var_vec_s32++ = vec_vslw(var_vec_s32[0], var_vec_u32[1]); |
| *var_vec_s32++ = vec_vspltisw( 0); |
| *var_vec_s32++ = vec_vspltisw( 1); |
| *var_vec_s32++ = vec_vspltisw( 2); |
| *var_vec_s32++ = vec_vspltisw( 3); |
| *var_vec_s32++ = vec_vspltisw( 4); |
| *var_vec_s32++ = vec_vspltisw( 5); |
| *var_vec_s32++ = vec_vspltisw( 6); |
| *var_vec_s32++ = vec_vspltisw( 7); |
| *var_vec_s32++ = vec_vspltisw( 8); |
| *var_vec_s32++ = vec_vspltisw( 9); |
| *var_vec_s32++ = vec_vspltisw( -1); |
| *var_vec_s32++ = vec_vspltisw( -2); |
| *var_vec_s32++ = vec_vspltisw( -3); |
| *var_vec_s32++ = vec_vspltisw( -4); |
| *var_vec_s32++ = vec_vspltisw( -5); |
| *var_vec_s32++ = vec_vspltisw( -6); |
| *var_vec_s32++ = vec_vspltisw( -7); |
| *var_vec_s32++ = vec_vspltisw( -8); |
| *var_vec_s32++ = vec_vspltisw( -9); |
| *var_vec_s32++ = vec_vspltisw( 10); |
| *var_vec_s32++ = vec_vspltisw( 11); |
| *var_vec_s32++ = vec_vspltisw( 12); |
| *var_vec_s32++ = vec_vspltisw( 13); |
| *var_vec_s32++ = vec_vspltisw( 14); |
| *var_vec_s32++ = vec_vspltisw( 15); |
| *var_vec_s32++ = vec_vspltisw(-10); |
| *var_vec_s32++ = vec_vspltisw(-11); |
| *var_vec_s32++ = vec_vspltisw(-12); |
| *var_vec_s32++ = vec_vspltisw(-13); |
| *var_vec_s32++ = vec_vspltisw(-14); |
| *var_vec_s32++ = vec_vspltisw(-15); |
| *var_vec_s32++ = vec_vspltisw(-16); |
| *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 0); |
| *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 1); |
| *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 2); |
| *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 3); |
| *var_vec_s32++ = vec_vsr(var_vec_s32[0], var_vec_u16[1]); |
| *var_vec_s32++ = vec_vsr(var_vec_s32[0], var_vec_u32[1]); |
| *var_vec_s32++ = vec_vsr(var_vec_s32[0], var_vec_u8[1]); |
| *var_vec_s32++ = vec_vsraw(var_vec_s32[0], var_vec_u32[1]); |
| *var_vec_s32++ = vec_vsro(var_vec_s32[0], var_vec_s8[1]); |
| *var_vec_s32++ = vec_vsro(var_vec_s32[0], var_vec_u8[1]); |
| *var_vec_s32++ = vec_vsrw(var_vec_s32[0], var_vec_u32[1]); |
| *var_vec_s32++ = vec_vsubsws(var_vec_b32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vsubsws(var_vec_s32[0], var_vec_b32[1]); |
| *var_vec_s32++ = vec_vsubsws(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vsubuwm(var_vec_b32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vsubuwm(var_vec_s32[0], var_vec_b32[1]); |
| *var_vec_s32++ = vec_vsubuwm(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vsum2sws(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vsum4sbs(var_vec_s8[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vsum4shs(var_vec_s16[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vsumsws(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vupkhsh(var_vec_s16[0]); |
| *var_vec_s32++ = vec_vupklsh(var_vec_s16[0]); |
| *var_vec_s32++ = vec_vxor(var_vec_b32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_vxor(var_vec_s32[0], var_vec_b32[1]); |
| *var_vec_s32++ = vec_vxor(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_xor(var_vec_b32[0], var_vec_s32[1]); |
| *var_vec_s32++ = vec_xor(var_vec_s32[0], var_vec_b32[1]); |
| *var_vec_s32++ = vec_xor(var_vec_s32[0], var_vec_s32[1]); |
| *var_vec_s8++ = vec_add(var_vec_b8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_add(var_vec_s8[0], var_vec_b8[1]); |
| } |
| void f17() { |
| *var_vec_s8++ = vec_add(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_adds(var_vec_b8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_adds(var_vec_s8[0], var_vec_b8[1]); |
| *var_vec_s8++ = vec_adds(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_and(var_vec_b8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_and(var_vec_s8[0], var_vec_b8[1]); |
| *var_vec_s8++ = vec_and(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_andc(var_vec_b8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_andc(var_vec_s8[0], var_vec_b8[1]); |
| *var_vec_s8++ = vec_andc(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_avg(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_ld(var_int[0], var_signed_char_ptr[1]); |
| *var_vec_s8++ = vec_ld(var_int[0], var_vec_s8_ptr[1]); |
| *var_vec_s8++ = vec_lde(var_int[0], var_signed_char_ptr[1]); |
| *var_vec_s8++ = vec_ldl(var_int[0], var_signed_char_ptr[1]); |
| *var_vec_s8++ = vec_ldl(var_int[0], var_vec_s8_ptr[1]); |
| *var_vec_s8++ = vec_lvebx(var_int[0], var_signed_char_ptr[1]); |
| *var_vec_s8++ = vec_lvx(var_int[0], var_signed_char_ptr[1]); |
| *var_vec_s8++ = vec_lvx(var_int[0], var_vec_s8_ptr[1]); |
| *var_vec_s8++ = vec_lvxl(var_int[0], var_signed_char_ptr[1]); |
| *var_vec_s8++ = vec_lvxl(var_int[0], var_vec_s8_ptr[1]); |
| *var_vec_s8++ = vec_max(var_vec_b8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_max(var_vec_s8[0], var_vec_b8[1]); |
| *var_vec_s8++ = vec_max(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_mergeh(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_mergel(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_min(var_vec_b8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_min(var_vec_s8[0], var_vec_b8[1]); |
| *var_vec_s8++ = vec_min(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_nor(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_or(var_vec_b8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_or(var_vec_s8[0], var_vec_b8[1]); |
| *var_vec_s8++ = vec_or(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_pack(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s8++ = vec_packs(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s8++ = vec_perm(var_vec_s8[0], var_vec_s8[1], var_vec_u8[2]); |
| *var_vec_s8++ = vec_rl(var_vec_s8[0], var_vec_u8[1]); |
| *var_vec_s8++ = vec_sel(var_vec_s8[0], var_vec_s8[1], var_vec_b8[2]); |
| *var_vec_s8++ = vec_sel(var_vec_s8[0], var_vec_s8[1], var_vec_u8[2]); |
| *var_vec_s8++ = vec_sl(var_vec_s8[0], var_vec_u8[1]); |
| *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 0); |
| *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 1); |
| *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 2); |
| *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 3); |
| *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 4); |
| *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 5); |
| *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 6); |
| *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 7); |
| *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 8); |
| *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 9); |
| *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 10); |
| *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 11); |
| *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 12); |
| *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 13); |
| *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 14); |
| *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 15); |
| *var_vec_s8++ = vec_sll(var_vec_s8[0], var_vec_u16[1]); |
| *var_vec_s8++ = vec_sll(var_vec_s8[0], var_vec_u32[1]); |
| *var_vec_s8++ = vec_sll(var_vec_s8[0], var_vec_u8[1]); |
| *var_vec_s8++ = vec_slo(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_slo(var_vec_s8[0], var_vec_u8[1]); |
| *var_vec_s8++ = vec_splat(var_vec_s8[0], 0); |
| *var_vec_s8++ = vec_splat(var_vec_s8[0], 1); |
| *var_vec_s8++ = vec_splat(var_vec_s8[0], 2); |
| *var_vec_s8++ = vec_splat(var_vec_s8[0], 3); |
| *var_vec_s8++ = vec_splat(var_vec_s8[0], 4); |
| *var_vec_s8++ = vec_splat(var_vec_s8[0], 5); |
| *var_vec_s8++ = vec_splat(var_vec_s8[0], 6); |
| *var_vec_s8++ = vec_splat(var_vec_s8[0], 7); |
| *var_vec_s8++ = vec_splat(var_vec_s8[0], 8); |
| *var_vec_s8++ = vec_splat(var_vec_s8[0], 9); |
| *var_vec_s8++ = vec_splat(var_vec_s8[0], 10); |
| *var_vec_s8++ = vec_splat(var_vec_s8[0], 11); |
| *var_vec_s8++ = vec_splat(var_vec_s8[0], 12); |
| *var_vec_s8++ = vec_splat(var_vec_s8[0], 13); |
| *var_vec_s8++ = vec_splat(var_vec_s8[0], 14); |
| *var_vec_s8++ = vec_splat(var_vec_s8[0], 15); |
| *var_vec_s8++ = vec_splat_s8( 0); |
| *var_vec_s8++ = vec_splat_s8( 1); |
| *var_vec_s8++ = vec_splat_s8( 2); |
| *var_vec_s8++ = vec_splat_s8( 3); |
| *var_vec_s8++ = vec_splat_s8( 4); |
| *var_vec_s8++ = vec_splat_s8( 5); |
| *var_vec_s8++ = vec_splat_s8( 6); |
| } |
| void f18() { |
| *var_vec_s8++ = vec_splat_s8( 7); |
| *var_vec_s8++ = vec_splat_s8( 8); |
| *var_vec_s8++ = vec_splat_s8( 9); |
| *var_vec_s8++ = vec_splat_s8( -1); |
| *var_vec_s8++ = vec_splat_s8( -2); |
| *var_vec_s8++ = vec_splat_s8( -3); |
| *var_vec_s8++ = vec_splat_s8( -4); |
| *var_vec_s8++ = vec_splat_s8( -5); |
| *var_vec_s8++ = vec_splat_s8( -6); |
| *var_vec_s8++ = vec_splat_s8( -7); |
| *var_vec_s8++ = vec_splat_s8( -8); |
| *var_vec_s8++ = vec_splat_s8( -9); |
| *var_vec_s8++ = vec_splat_s8( 10); |
| *var_vec_s8++ = vec_splat_s8( 11); |
| *var_vec_s8++ = vec_splat_s8( 12); |
| *var_vec_s8++ = vec_splat_s8( 13); |
| *var_vec_s8++ = vec_splat_s8( 14); |
| *var_vec_s8++ = vec_splat_s8( 15); |
| *var_vec_s8++ = vec_splat_s8(-10); |
| *var_vec_s8++ = vec_splat_s8(-11); |
| *var_vec_s8++ = vec_splat_s8(-12); |
| *var_vec_s8++ = vec_splat_s8(-13); |
| *var_vec_s8++ = vec_splat_s8(-14); |
| *var_vec_s8++ = vec_splat_s8(-15); |
| *var_vec_s8++ = vec_splat_s8(-16); |
| *var_vec_s8++ = vec_sr(var_vec_s8[0], var_vec_u8[1]); |
| *var_vec_s8++ = vec_sra(var_vec_s8[0], var_vec_u8[1]); |
| *var_vec_s8++ = vec_srl(var_vec_s8[0], var_vec_u16[1]); |
| *var_vec_s8++ = vec_srl(var_vec_s8[0], var_vec_u32[1]); |
| *var_vec_s8++ = vec_srl(var_vec_s8[0], var_vec_u8[1]); |
| *var_vec_s8++ = vec_sro(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_sro(var_vec_s8[0], var_vec_u8[1]); |
| *var_vec_s8++ = vec_sub(var_vec_b8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_sub(var_vec_s8[0], var_vec_b8[1]); |
| *var_vec_s8++ = vec_sub(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_subs(var_vec_b8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_subs(var_vec_s8[0], var_vec_b8[1]); |
| *var_vec_s8++ = vec_subs(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vaddsbs(var_vec_b8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vaddsbs(var_vec_s8[0], var_vec_b8[1]); |
| *var_vec_s8++ = vec_vaddsbs(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vaddubm(var_vec_b8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vaddubm(var_vec_s8[0], var_vec_b8[1]); |
| *var_vec_s8++ = vec_vaddubm(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vand(var_vec_b8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vand(var_vec_s8[0], var_vec_b8[1]); |
| *var_vec_s8++ = vec_vand(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vandc(var_vec_b8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vandc(var_vec_s8[0], var_vec_b8[1]); |
| *var_vec_s8++ = vec_vandc(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vavgsb(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vmaxsb(var_vec_b8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vmaxsb(var_vec_s8[0], var_vec_b8[1]); |
| *var_vec_s8++ = vec_vmaxsb(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vminsb(var_vec_b8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vminsb(var_vec_s8[0], var_vec_b8[1]); |
| *var_vec_s8++ = vec_vminsb(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vmrghb(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vmrglb(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vnor(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vor(var_vec_b8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vor(var_vec_s8[0], var_vec_b8[1]); |
| *var_vec_s8++ = vec_vor(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vperm(var_vec_s8[0], var_vec_s8[1], var_vec_u8[2]); |
| *var_vec_s8++ = vec_vpkshss(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s8++ = vec_vpkuhum(var_vec_s16[0], var_vec_s16[1]); |
| *var_vec_s8++ = vec_vrlb(var_vec_s8[0], var_vec_u8[1]); |
| *var_vec_s8++ = vec_vsel(var_vec_s8[0], var_vec_s8[1], var_vec_b8[2]); |
| *var_vec_s8++ = vec_vsel(var_vec_s8[0], var_vec_s8[1], var_vec_u8[2]); |
| *var_vec_s8++ = vec_vsl(var_vec_s8[0], var_vec_u16[1]); |
| *var_vec_s8++ = vec_vsl(var_vec_s8[0], var_vec_u32[1]); |
| *var_vec_s8++ = vec_vsl(var_vec_s8[0], var_vec_u8[1]); |
| *var_vec_s8++ = vec_vslb(var_vec_s8[0], var_vec_u8[1]); |
| *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 0); |
| *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 1); |
| *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 2); |
| *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 3); |
| *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 4); |
| *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 5); |
| *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 6); |
| *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 7); |
| *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 8); |
| *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 9); |
| *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 10); |
| *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 11); |
| *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 12); |
| *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 13); |
| *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 14); |
| *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 15); |
| *var_vec_s8++ = vec_vslo(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vslo(var_vec_s8[0], var_vec_u8[1]); |
| *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 0); |
| *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 1); |
| *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 2); |
| *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 3); |
| *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 4); |
| *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 5); |
| *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 6); |
| *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 7); |
| *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 8); |
| } |
| void f19() { |
| *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 9); |
| *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 10); |
| *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 11); |
| *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 12); |
| *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 13); |
| *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 14); |
| *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 15); |
| *var_vec_s8++ = vec_vspltisb( 0); |
| *var_vec_s8++ = vec_vspltisb( 1); |
| *var_vec_s8++ = vec_vspltisb( 2); |
| *var_vec_s8++ = vec_vspltisb( 3); |
| *var_vec_s8++ = vec_vspltisb( 4); |
| *var_vec_s8++ = vec_vspltisb( 5); |
| *var_vec_s8++ = vec_vspltisb( 6); |
| *var_vec_s8++ = vec_vspltisb( 7); |
| *var_vec_s8++ = vec_vspltisb( 8); |
| *var_vec_s8++ = vec_vspltisb( 9); |
| *var_vec_s8++ = vec_vspltisb( -1); |
| *var_vec_s8++ = vec_vspltisb( -2); |
| *var_vec_s8++ = vec_vspltisb( -3); |
| *var_vec_s8++ = vec_vspltisb( -4); |
| *var_vec_s8++ = vec_vspltisb( -5); |
| *var_vec_s8++ = vec_vspltisb( -6); |
| *var_vec_s8++ = vec_vspltisb( -7); |
| *var_vec_s8++ = vec_vspltisb( -8); |
| *var_vec_s8++ = vec_vspltisb( -9); |
| *var_vec_s8++ = vec_vspltisb( 10); |
| *var_vec_s8++ = vec_vspltisb( 11); |
| *var_vec_s8++ = vec_vspltisb( 12); |
| *var_vec_s8++ = vec_vspltisb( 13); |
| *var_vec_s8++ = vec_vspltisb( 14); |
| *var_vec_s8++ = vec_vspltisb( 15); |
| *var_vec_s8++ = vec_vspltisb(-10); |
| *var_vec_s8++ = vec_vspltisb(-11); |
| *var_vec_s8++ = vec_vspltisb(-12); |
| *var_vec_s8++ = vec_vspltisb(-13); |
| *var_vec_s8++ = vec_vspltisb(-14); |
| *var_vec_s8++ = vec_vspltisb(-15); |
| *var_vec_s8++ = vec_vspltisb(-16); |
| *var_vec_s8++ = vec_vsr(var_vec_s8[0], var_vec_u16[1]); |
| *var_vec_s8++ = vec_vsr(var_vec_s8[0], var_vec_u32[1]); |
| *var_vec_s8++ = vec_vsr(var_vec_s8[0], var_vec_u8[1]); |
| *var_vec_s8++ = vec_vsrab(var_vec_s8[0], var_vec_u8[1]); |
| *var_vec_s8++ = vec_vsrb(var_vec_s8[0], var_vec_u8[1]); |
| *var_vec_s8++ = vec_vsro(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vsro(var_vec_s8[0], var_vec_u8[1]); |
| *var_vec_s8++ = vec_vsubsbs(var_vec_b8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vsubsbs(var_vec_s8[0], var_vec_b8[1]); |
| *var_vec_s8++ = vec_vsubsbs(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vsububm(var_vec_b8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vsububm(var_vec_s8[0], var_vec_b8[1]); |
| *var_vec_s8++ = vec_vsububm(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vxor(var_vec_b8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_vxor(var_vec_s8[0], var_vec_b8[1]); |
| *var_vec_s8++ = vec_vxor(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_xor(var_vec_b8[0], var_vec_s8[1]); |
| *var_vec_s8++ = vec_xor(var_vec_s8[0], var_vec_b8[1]); |
| *var_vec_s8++ = vec_xor(var_vec_s8[0], var_vec_s8[1]); |
| *var_vec_u16++ = vec_add(var_vec_b16[0], var_vec_u16[1]); |
| *var_vec_u16++ = vec_add(var_vec_u16[0], var_vec_b16[1]); |
| *var_vec_u16++ = vec_add(var_vec_u16[0], var_vec_u16[1]); |
| *var_vec_u16++ = vec_adds(var_vec_b16[0], var_vec_u16[1]); |
| *var_vec_u16++ = vec_adds(var_vec_u16[0], var_vec_b16[1]); |
| *var_vec_u16++ = vec_adds(var_vec_u16[0], var_vec_u16[1]); |
| *var_vec_u16++ = vec_and(var_vec_b16[0], var_vec_u16[1]); |
| *var_vec_u16++ = vec_and(var_vec_u16[0], var_vec_b16[1]); |
| *var_vec_u16++ = vec_and(var_vec_u16[0], var_vec_u16[1]); |
| *var_vec_u16++ = vec_andc(var_vec_b16[0], var_vec_u16[1]); |
| *var_vec_u16++ = vec_andc(var_vec_u16[0], var_vec_b16[1]); |
| *var_vec_u16++ = vec_andc(var_vec_u16[0], var_vec_u16[1]); |
| *var_vec_u16++ = vec_avg(var_vec_u16[0], var_vec_u16[1]); |
| *var_vec_u16++ = vec_ld(var_int[0], var_unsigned_short_ptr[1]); |
| *var_vec_u16++ = vec_ld(var_int[0], var_vec_u16_ptr[1]); |
| *var_vec_u16++ = vec_lde(var_int[0], var_unsigned_short_ptr[1]); |
|