Lines Matching refs:inp

120 my ($inp,$bits,$out,$ptr,$cnt,$rounds)=map("r$_",(3..8));
152 ${UCMP}i $inp,0
153 beq- Lenc_key_abort # if ($inp==0) return -1;
171 neg r9,$inp
172 lvx $in0,0,$inp
173 addi $inp,$inp,15 # 15 is not typo
177 lvx $in1,0,$inp
194 addi $inp,$inp,8
196 addi $inp,$inp,8
258 addi $inp,$out,15 # 15 is not typo
266 lvx $tmp,0,$inp
331 addi $inp,$out,15 # 15 is not typo
341 lvx $tmp,0,$inp
373 addi $inp,$out,15 # 15 is not typo
392 lvx $in1,0,$inp # redundant in aligned case
394 stvx $in1,0,$inp
418 subi $inp,$out,240 # first round key
420 add $out,$inp,$cnt # last round key
424 lwz r0, 0($inp)
425 lwz r6, 4($inp)
426 lwz r7, 8($inp)
427 lwz r8, 12($inp)
428 addi $inp,$inp,16
438 stw r9, -16($inp)
439 stw r10,-12($inp)
440 stw r11,-8($inp)
441 stw r12,-4($inp)
459 my ($inp,$out,$key,$rounds,$idx)=map("r$_",(3..7));
469 lvx v0,0,$inp
471 lvx v1,$idx,$inp
472 lvsl v2,0,$inp # inpperm
534 my ($inp,$out,$len,$key,$ivp,$enc,$rounds,$idx)=map("r$_",(3..10));
558 neg r11,$inp
563 lvx $inptail,0,$inp
564 addi $inp,$inp,15 # 15 is not typo
580 lvx $inptail,0,$inp
581 addi $inp,$inp,16
628 lvx $inptail,0,$inp
629 addi $inp,$inp,16
796 #lvx $inptail,0,$inp # "caller" already did this
797 #addi $inp,$inp,15 # 15 is not typo
798 subi $inp,$inp,15 # undo "caller"
801 lvx_u $in0,$x00,$inp # load first 8 "words"
804 lvx_u $in1,$x10,$inp
806 lvx_u $in2,$x20,$inp
808 lvx_u $in3,$x30,$inp
810 lvx_u $in4,$x40,$inp
813 lvx_u $in5,$x50,$inp
816 lvx_u $in6,$x60,$inp
819 lvx_u $in7,$x70,$inp
820 addi $inp,$inp,0x80
886 add $inp,$inp,r0 # $inp is adjusted in such
939 lvx_u $in0,$x00,$inp # load next input block
941 lvx_u $in1,$x10,$inp
944 lvx_u $in2,$x20,$inp
947 lvx_u $in3,$x30,$inp
950 lvx_u $in4,$x40,$inp
953 lvx_u $in5,$x50,$inp
956 lvx_u $in6,$x60,$inp
959 lvx_u $in7,$x70,$inp
960 addi $inp,$inp,0x80
1289 my ($inp,$out,$len,$key,$ivp,$x10,$rounds,$idx)=map("r$_",(3..10));
1316 neg r11,$inp
1321 lvx $inptail,0,$inp
1322 addi $inp,$inp,15 # 15 is not typo
1362 lvx $inptail,0,$inp
1363 addi $inp,$inp,16
1500 subi $inp,$inp,15 # undo "caller"
1596 lvx_u $in0,$x00,$inp # load input
1598 lvx_u $in1,$x10,$inp
1600 lvx_u $in2,$x20,$inp
1602 lvx_u $in3,$x30,$inp
1604 lvx_u $in4,$x40,$inp
1606 lvx_u $in5,$x50,$inp
1608 lvx_u $in6,$x60,$inp
1610 lvx_u $in7,$x70,$inp
1611 addi $inp,$inp,0x80
1630 add $inp,$inp,r0 # $inp is adjusted in such
1948 my ($inp,$out,$len,$key1,$key2,$ivp,$rounds,$idx) = map("r$_",(3..10));
1954 ($inp,$idx) = ($idx,$inp); # reassign
1958 mr $inp,r3 # reassign
1980 neg r11,$inp
1982 lvx $inout,0,$inp
1983 addi $inp,$inp,15 # 15 is not typo
2030 lvx $inptail,0,$inp
2031 addi $inp,$inp,16
2052 add $inp,$inp,r0
2096 lvx $inptail,0,$inp
2097 addi $inp,$inp,16
2105 add $inp,$inp,r0
2167 mr $inp,r3 # reassign
2194 neg r11,$inp
2196 lvx $inout,0,$inp
2197 addi $inp,$inp,15 # 15 is not typo
2245 lvx $inptail,0,$inp
2246 addi $inp,$inp,16
2307 lvx $inptail,0,$inp
2308 addi $inp,$inp,16
2337 subi $inp,$inp,16
2338 add $inp,$inp,$len
2368 lvx $inptail,0,$inp
2369 #addi $inp,$inp,16
2523 subi $inp,$inp,31 # undo "caller"
2532 lvx_u $in1,$x10,$inp
2542 lvx_u $in2,$x20,$inp
2553 lvx_u $in3,$x30,$inp
2564 lvx_u $in4,$x40,$inp
2575 lvx_u $in5,$x50,$inp
2576 addi $inp,$inp,0x60
2648 add $inp,$inp,r0 # $inp is adjusted in such
2708 lvx_u $in0,$x00,$inp # load next input block
2712 lvx_u $in1,$x10,$inp
2715 lvx_u $in2,$x20,$inp
2719 lvx_u $in3,$x30,$inp
2722 lvx_u $in4,$x40,$inp
2727 lvx_u $in5,$x50,$inp
2728 addi $inp,$inp,0x60
2871 add $inp,$inp,$taillen
2875 subi $inp,$inp,16
2881 lvx_u $in0,0,$inp
2911 add $inp,$inp,$taillen
2912 subi $inp,$inp,16
2913 lvx_u $in0,0,$inp
3020 add $inp,$inp,$taillen
3028 subi $inp,$inp,16
3045 lvx_u $in0,0,$inp
3175 subi $inp,$inp,31 # undo "caller"
3184 lvx_u $in1,$x10,$inp
3194 lvx_u $in2,$x20,$inp
3205 lvx_u $in3,$x30,$inp
3216 lvx_u $in4,$x40,$inp
3227 lvx_u $in5,$x50,$inp
3228 addi $inp,$inp,0x60
3300 add $inp,$inp,r0 # $inp is adjusted in such
3360 lvx_u $in0,$x00,$inp # load next input block
3364 lvx_u $in1,$x10,$inp
3367 lvx_u $in2,$x20,$inp
3371 lvx_u $in3,$x30,$inp
3374 lvx_u $in4,$x40,$inp
3378 lvx_u $in5,$x50,$inp
3379 addi $inp,$inp,0x60
3532 sub $inp,$inp,r0
3535 lvx_u $in0,0,$inp
3566 lvx_u $in0,0,$inp
3578 add $inp,$inp,$taillen
3584 lvx_u $in0,0,$inp
3724 sub $inp,$inp,r0
3733 lvx_u $in0,0,$inp