@@ -58,7 +58,7 @@ simde_vmvnq_s8(simde_int8x16_t a) {
58
58
#elif defined(SIMDE_VECTOR_SUBSCRIPT_OPS )
59
59
r_ .values = ~a_ .values ;
60
60
#elif defined(SIMDE_RISCV_V_NATIVE )
61
- r_ .sv128 = __riscv_vnot_v_i8m1 (a_ .sv128 , b_ . sv128 , 16 );
61
+ r_ .sv128 = __riscv_vnot_v_i8m1 (a_ .sv128 , 16 );
62
62
#else
63
63
SIMDE_VECTORIZE
64
64
for (size_t i = 0 ; i < (sizeof (r_ .values ) / sizeof (r_ .values [0 ])) ; i ++ ) {
@@ -95,7 +95,7 @@ simde_vmvnq_s16(simde_int16x8_t a) {
95
95
#elif defined(SIMDE_VECTOR_SUBSCRIPT_OPS )
96
96
r_ .values = ~a_ .values ;
97
97
#elif defined(SIMDE_RISCV_V_NATIVE )
98
- r_ .sv128 = __riscv_vnot_v_i16m1 (a_ .sv128 , b_ . sv128 , 8 );
98
+ r_ .sv128 = __riscv_vnot_v_i16m1 (a_ .sv128 , 8 );
99
99
#else
100
100
SIMDE_VECTORIZE
101
101
for (size_t i = 0 ; i < (sizeof (r_ .values ) / sizeof (r_ .values [0 ])) ; i ++ ) {
@@ -132,7 +132,7 @@ simde_vmvnq_s32(simde_int32x4_t a) {
132
132
#elif defined(SIMDE_VECTOR_SUBSCRIPT_OPS )
133
133
r_ .values = ~a_ .values ;
134
134
#elif defined(SIMDE_RISCV_V_NATIVE )
135
- r_ .sv128 = __riscv_vnot_v_i32m1 (a_ .sv128 , b_ . sv128 , 4 );
135
+ r_ .sv128 = __riscv_vnot_v_i32m1 (a_ .sv128 , 4 );
136
136
#else
137
137
SIMDE_VECTORIZE
138
138
for (size_t i = 0 ; i < (sizeof (r_ .values ) / sizeof (r_ .values [0 ])) ; i ++ ) {
@@ -169,7 +169,7 @@ simde_vmvnq_u8(simde_uint8x16_t a) {
169
169
#elif defined(SIMDE_VECTOR_SUBSCRIPT_OPS )
170
170
r_ .values = ~a_ .values ;
171
171
#elif defined(SIMDE_RISCV_V_NATIVE )
172
- r_ .sv128 = __riscv_vnot_v_u8m1 (a_ .sv128 , b_ . sv128 , 16 );
172
+ r_ .sv128 = __riscv_vnot_v_u8m1 (a_ .sv128 , 16 );
173
173
#else
174
174
SIMDE_VECTORIZE
175
175
for (size_t i = 0 ; i < (sizeof (r_ .values ) / sizeof (r_ .values [0 ])) ; i ++ ) {
@@ -206,7 +206,7 @@ simde_vmvnq_u16(simde_uint16x8_t a) {
206
206
#elif defined(SIMDE_VECTOR_SUBSCRIPT_OPS )
207
207
r_ .values = ~a_ .values ;
208
208
#elif defined(SIMDE_RISCV_V_NATIVE )
209
- r_ .sv128 = __riscv_vnot_v_u16m1 (a_ .sv128 , b_ . sv128 , 8 );
209
+ r_ .sv128 = __riscv_vnot_v_u16m1 (a_ .sv128 , 8 );
210
210
#else
211
211
SIMDE_VECTORIZE
212
212
for (size_t i = 0 ; i < (sizeof (r_ .values ) / sizeof (r_ .values [0 ])) ; i ++ ) {
@@ -243,7 +243,7 @@ simde_vmvnq_u32(simde_uint32x4_t a) {
243
243
#elif defined(SIMDE_VECTOR_SUBSCRIPT_OPS )
244
244
r_ .values = ~a_ .values ;
245
245
#elif defined(SIMDE_RISCV_V_NATIVE )
246
- r_ .sv128 = __riscv_vnot_v_u32m1 (a_ .sv128 , b_ . sv128 , 4 );
246
+ r_ .sv128 = __riscv_vnot_v_u32m1 (a_ .sv128 , 4 );
247
247
#else
248
248
SIMDE_VECTORIZE
249
249
for (size_t i = 0 ; i < (sizeof (r_ .values ) / sizeof (r_ .values [0 ])) ; i ++ ) {
@@ -274,7 +274,7 @@ simde_vmvn_s8(simde_int8x8_t a) {
274
274
#elif defined(SIMDE_VECTOR_SUBSCRIPT_OPS )
275
275
r_ .values = ~a_ .values ;
276
276
#elif defined(SIMDE_RISCV_V_NATIVE )
277
- r_ .sv64 = __riscv_vnot_v_i8m1 (a_ .sv64 , b_ . sv64 , 8 );
277
+ r_ .sv64 = __riscv_vnot_v_i8m1 (a_ .sv64 , 8 );
278
278
#else
279
279
SIMDE_VECTORIZE
280
280
for (size_t i = 0 ; i < (sizeof (r_ .values ) / sizeof (r_ .values [0 ])) ; i ++ ) {
@@ -305,7 +305,7 @@ simde_vmvn_s16(simde_int16x4_t a) {
305
305
#elif defined(SIMDE_VECTOR_SUBSCRIPT_OPS )
306
306
r_ .values = ~a_ .values ;
307
307
#elif defined(SIMDE_RISCV_V_NATIVE )
308
- r_ .sv64 = __riscv_vnot_v_i16m1 (a_ .sv64 , b_ . sv64 , 4 );
308
+ r_ .sv64 = __riscv_vnot_v_i16m1 (a_ .sv64 , 4 );
309
309
#else
310
310
SIMDE_VECTORIZE
311
311
for (size_t i = 0 ; i < (sizeof (r_ .values ) / sizeof (r_ .values [0 ])) ; i ++ ) {
@@ -336,7 +336,7 @@ simde_vmvn_s32(simde_int32x2_t a) {
336
336
#elif defined(SIMDE_VECTOR_SUBSCRIPT_OPS )
337
337
r_ .values = ~a_ .values ;
338
338
#elif defined(SIMDE_RISCV_V_NATIVE )
339
- r_ .sv64 = __riscv_vnot_v_i32m1 (a_ .sv64 , b_ . sv64 , 2 );
339
+ r_ .sv64 = __riscv_vnot_v_i32m1 (a_ .sv64 , 2 );
340
340
#else
341
341
SIMDE_VECTORIZE
342
342
for (size_t i = 0 ; i < (sizeof (r_ .values ) / sizeof (r_ .values [0 ])) ; i ++ ) {
@@ -367,7 +367,7 @@ simde_vmvn_u8(simde_uint8x8_t a) {
367
367
#elif defined(SIMDE_VECTOR_SUBSCRIPT_OPS )
368
368
r_ .values = ~a_ .values ;
369
369
#elif defined(SIMDE_RISCV_V_NATIVE )
370
- r_ .sv64 = __riscv_vnot_v_u8m1 (a_ .sv64 , b_ . sv64 , 8 );
370
+ r_ .sv64 = __riscv_vnot_v_u8m1 (a_ .sv64 , 8 );
371
371
#else
372
372
SIMDE_VECTORIZE
373
373
for (size_t i = 0 ; i < (sizeof (r_ .values ) / sizeof (r_ .values [0 ])) ; i ++ ) {
@@ -398,7 +398,7 @@ simde_vmvn_u16(simde_uint16x4_t a) {
398
398
#elif defined(SIMDE_VECTOR_SUBSCRIPT_OPS )
399
399
r_ .values = ~a_ .values ;
400
400
#elif defined(SIMDE_RISCV_V_NATIVE )
401
- r_ .sv64 = __riscv_vnot_v_u16m1 (a_ .sv64 , b_ . sv64 , 4 );
401
+ r_ .sv64 = __riscv_vnot_v_u16m1 (a_ .sv64 , 4 );
402
402
#else
403
403
SIMDE_VECTORIZE
404
404
for (size_t i = 0 ; i < (sizeof (r_ .values ) / sizeof (r_ .values [0 ])) ; i ++ ) {
@@ -429,7 +429,7 @@ simde_vmvn_u32(simde_uint32x2_t a) {
429
429
#elif defined(SIMDE_VECTOR_SUBSCRIPT_OPS )
430
430
r_ .values = ~a_ .values ;
431
431
#elif defined(SIMDE_RISCV_V_NATIVE )
432
- r_ .sv64 = __riscv_vnot_v_u32m1 (a_ .sv64 , b_ . sv64 , 2 );
432
+ r_ .sv64 = __riscv_vnot_v_u32m1 (a_ .sv64 , 2 );
433
433
#else
434
434
SIMDE_VECTORIZE
435
435
for (size_t i = 0 ; i < (sizeof (r_ .values ) / sizeof (r_ .values [0 ])) ; i ++ ) {
0 commit comments