@@ -15,7 +15,7 @@ TEXT ·maskAsm(SB), NOSPLIT, $0-28
1515 CMP $64 , R1
1616 BLT less_than_64
1717
18- // TODO: allign memory like amd64
18+ // TODO: align memory like amd64
1919
2020loop_64:
2121 VLD1 (R0), [V1.B16, V2.B16, V3.B16, V4.B16]
@@ -29,41 +29,39 @@ loop_64:
2929 BGE loop_64
3030
3131less_than_64:
32- // quick end
33- CBZ R1, end
34- TBZ $5 , R1, less_than32
32+ TBZ $5 , R1, less_than_32
3533 VLD1 (R0), [V1.B16, V2.B16]
3634 VEOR V1.B16, V0.B16, V1.B16
3735 VEOR V2.B16, V0.B16, V2.B16
3836 VST1.P [V1.B16, V2.B16], 32 (R0)
3937
40- less_than32 :
41- TBZ $4 , R1, less_than16
38+ less_than_32 :
39+ TBZ $4 , R1, less_than_16
4240 LDP (R0), (R11, R12)
4341 EOR R11, R2, R11
4442 EOR R12, R2, R12
4543 STP.P (R11, R12), 16 (R0)
4644
47- less_than16 :
48- TBZ $3 , R1, less_than8
45+ less_than_16 :
46+ TBZ $3 , R1, less_than_8
4947 MOVD (R0), R11
5048 EOR R2, R11, R11
5149 MOVD .P R11, 8 (R0)
5250
53- less_than8 :
54- TBZ $2 , R1, less_than4
51+ less_than_8 :
52+ TBZ $2 , R1, less_than_4
5553 MOVWU (R0), R11
5654 EORW R2, R11, R11
5755 MOVWU.P R11, 4 (R0)
5856
59- less_than4 :
60- TBZ $1 , R1, less_than2
57+ less_than_4 :
58+ TBZ $1 , R1, less_than_2
6159 MOVHU (R0), R11
6260 EORW R3, R11, R11
6361 MOVHU.P R11, 2 (R0)
6462 RORW $16 , R3
6563
66- less_than2 :
64+ less_than_2 :
6765 TBZ $0 , R1, end
6866 MOVBU (R0), R11
6967 EORW R3, R11, R11
0 commit comments