Newer
Older
2001
2002
2003
2004
2005
2006
2007
2008
2009
2010
2011
2012
2013
2014
2015
2016
2017
2018
2019
2020
2021
2022
2023
2024
2025
2026
2027
2028
2029
2030
2031
2032
2033
2034
2035
2036
2037
2038
2039
2040
2041
2042
2043
2044
2045
2046
2047
2048
2049
2050
2051
2052
2053
2054
2055
2056
2057
2058
2059
2060
2061
2062
2063
2064
2065
2066
2067
2068
2069
2070
2071
2072
2073
2074
2075
2076
2077
2078
2079
2080
2081
2082
2083
2084
2085
2086
2087
2088
2089
2090
2091
2092
2093
2094
2095
2096
2097
2098
2099
2100
2101
2102
2103
2104
2105
2106
2107
2108
2109
2110
2111
2112
2113
2114
2115
2116
2117
2118
2119
2120
2121
2122
2123
2124
2125
2126
2127
2128
2129
2130
2131
2132
2133
2134
2135
2136
2137
2138
2139
2140
2141
2142
2143
2144
2145
2146
2147
2148
2149
2150
2151
2152
2153
2154
2155
2156
2157
2158
2159
2160
2161
2162
2163
2164
2165
2166
2167
2168
2169
2170
2171
2172
2173
2174
2175
2176
2177
2178
2179
2180
2181
2182
2183
2184
2185
2186
2187
2188
2189
2190
2191
2192
2193
2194
2195
2196
2197
2198
2199
2200
2201
2202
2203
2204
2205
2206
2207
2208
2209
2210
2211
2212
2213
2214
2215
2216
2217
2218
2219
2220
2221
2222
2223
2224
2225
2226
2227
2228
2229
2230
2231
2232
2233
2234
2235
2236
2237
2238
2239
2240
2241
2242
2243
2244
2245
2246
2247
2248
2249
2250
2251
2252
2253
2254
2255
2256
2257
2258
2259
2260
2261
2262
2263
2264
2265
2266
2267
2268
2269
2270
2271
2272
2273
2274
2275
2276
2277
2278
2279
2280
2281
2282
2283
2284
2285
2286
2287
2288
2289
2290
2291
2292
2293
2294
2295
2296
2297
2298
2299
2300
2301
2302
2303
2304
2305
2306
2307
2308
2309
2310
2311
2312
2313
2314
2315
2316
2317
2318
2319
2320
2321
2322
2323
2324
2325
2326
2327
2328
2329
2330
2331
2332
2333
2334
2335
2336
2337
2338
2339
2340
2341
2342
2343
2344
2345
2346
2347
2348
2349
2350
2351
2352
2353
2354
2355
2356
2357
2358
2359
2360
2361
2362
2363
2364
2365
2366
2367
2368
2369
2370
2371
2372
2373
2374
2375
2376
2377
2378
2379
2380
2381
2382
2383
2384
2385
2386
2387
2388
2389
2390
2391
2392
2393
2394
2395
2396
2397
2398
2399
2400
2401
2402
2403
2404
2405
2406
2407
2408
2409
2410
2411
2412
2413
2414
2415
2416
2417
2418
2419
2420
2421
2422
2423
2424
2425
2426
2427
2428
2429
2430
2431
2432
2433
2434
2435
2436
2437
2438
2439
2440
2441
2442
2443
2444
2445
2446
2447
2448
2449
2450
2451
2452
2453
2454
2455
2456
2457
2458
2459
2460
2461
2462
2463
2464
2465
2466
2467
2468
2469
2470
2471
2472
2473
2474
2475
2476
2477
2478
2479
2480
2481
2482
2483
2484
2485
2486
2487
2488
2489
2490
2491
2492
2493
2494
2495
2496
2497
2498
2499
2500
2501
2502
2503
2504
2505
2506
2507
2508
2509
2510
2511
2512
2513
2514
2515
2516
2517
2518
2519
2520
2521
2522
2523
2524
2525
2526
2527
2528
2529
2530
2531
2532
2533
2534
2535
2536
2537
2538
2539
2540
2541
2542
2543
2544
2545
2546
2547
2548
2549
2550
2551
2552
2553
2554
2555
2556
2557
2558
2559
2560
2561
2562
2563
2564
2565
2566
2567
2568
2569
2570
2571
2572
2573
2574
2575
2576
2577
2578
2579
2580
2581
2582
2583
2584
2585
2586
2587
2588
2589
2590
2591
2592
2593
2594
2595
2596
2597
2598
2599
2600
2601
2602
2603
2604
2605
2606
2607
2608
2609
2610
2611
2612
2613
2614
2615
2616
2617
2618
2619
2620
2621
2622
2623
2624
2625
2626
2627
2628
2629
2630
2631
2632
2633
2634
2635
2636
2637
2638
2639
2640
2641
2642
2643
2644
2645
2646
2647
2648
2649
2650
2651
2652
2653
2654
2655
2656
2657
2658
2659
2660
2661
2662
2663
2664
2665
2666
2667
2668
2669
2670
2671
2672
2673
2674
2675
2676
2677
2678
2679
2680
2681
2682
2683
2684
2685
2686
2687
2688
2689
2690
2691
2692
2693
2694
2695
2696
2697
2698
2699
2700
2701
2702
2703
2704
2705
2706
2707
2708
2709
2710
2711
2712
2713
2714
2715
2716
2717
2718
2719
2720
2721
2722
2723
2724
2725
2726
2727
2728
2729
2730
2731
2732
2733
2734
2735
2736
2737
2738
vpor %xmm8,%xmm5,%xmm5
addl 28(%rsp),%eax
xorl %ebp,%edi
vmovdqa %xmm5,%xmm9
movl %ebx,%esi
shldl $5,%ebx,%ebx
xorl %edx,%edi
addl %ebx,%eax
shrdl $7,%ecx,%ecx
addl %edi,%eax
vpalignr $8,%xmm4,%xmm5,%xmm9
vpxor %xmm2,%xmm6,%xmm6
movl %ecx,%edi
vmovups 32(%r12),%xmm12
vxorps %xmm13,%xmm12,%xmm12
vmovups %xmm11,16(%r13,%r12,1)
vxorps %xmm12,%xmm11,%xmm11
vaesenc %xmm14,%xmm11,%xmm11
vmovups -80(%r15),%xmm15
xorl %edx,%ecx
addl 32(%rsp),%ebp
andl %edx,%edi
vpxor %xmm7,%xmm6,%xmm6
andl %ecx,%esi
shrdl $7,%ebx,%ebx
vmovdqa %xmm10,%xmm8
vpaddd %xmm5,%xmm10,%xmm10
addl %edi,%ebp
movl %eax,%edi
vpxor %xmm9,%xmm6,%xmm6
shldl $5,%eax,%eax
addl %esi,%ebp
xorl %edx,%ecx
addl %eax,%ebp
vpsrld $30,%xmm6,%xmm9
vmovdqa %xmm10,16(%rsp)
movl %ebx,%esi
xorl %ecx,%ebx
addl 36(%rsp),%edx
andl %ecx,%esi
vpslld $2,%xmm6,%xmm6
andl %ebx,%edi
shrdl $7,%eax,%eax
addl %esi,%edx
movl %ebp,%esi
shldl $5,%ebp,%ebp
vaesenc %xmm15,%xmm11,%xmm11
vmovups -64(%r15),%xmm14
addl %edi,%edx
xorl %ecx,%ebx
addl %ebp,%edx
vpor %xmm9,%xmm6,%xmm6
movl %eax,%edi
xorl %ebx,%eax
vmovdqa %xmm6,%xmm10
addl 40(%rsp),%ecx
andl %ebx,%edi
andl %eax,%esi
shrdl $7,%ebp,%ebp
addl %edi,%ecx
movl %edx,%edi
shldl $5,%edx,%edx
addl %esi,%ecx
xorl %ebx,%eax
addl %edx,%ecx
movl %ebp,%esi
xorl %eax,%ebp
addl 44(%rsp),%ebx
andl %eax,%esi
andl %ebp,%edi
vaesenc %xmm14,%xmm11,%xmm11
vmovups -48(%r15),%xmm15
shrdl $7,%edx,%edx
addl %esi,%ebx
movl %ecx,%esi
shldl $5,%ecx,%ecx
addl %edi,%ebx
xorl %eax,%ebp
addl %ecx,%ebx
vpalignr $8,%xmm5,%xmm6,%xmm10
vpxor %xmm3,%xmm7,%xmm7
movl %edx,%edi
xorl %ebp,%edx
addl 48(%rsp),%eax
andl %ebp,%edi
vpxor %xmm0,%xmm7,%xmm7
andl %edx,%esi
shrdl $7,%ecx,%ecx
vmovdqa 48(%r11),%xmm9
vpaddd %xmm6,%xmm8,%xmm8
addl %edi,%eax
movl %ebx,%edi
vpxor %xmm10,%xmm7,%xmm7
shldl $5,%ebx,%ebx
addl %esi,%eax
xorl %ebp,%edx
addl %ebx,%eax
vpsrld $30,%xmm7,%xmm10
vmovdqa %xmm8,32(%rsp)
movl %ecx,%esi
vaesenc %xmm15,%xmm11,%xmm11
vmovups -32(%r15),%xmm14
xorl %edx,%ecx
addl 52(%rsp),%ebp
andl %edx,%esi
vpslld $2,%xmm7,%xmm7
andl %ecx,%edi
shrdl $7,%ebx,%ebx
addl %esi,%ebp
movl %eax,%esi
shldl $5,%eax,%eax
addl %edi,%ebp
xorl %edx,%ecx
addl %eax,%ebp
vpor %xmm10,%xmm7,%xmm7
movl %ebx,%edi
xorl %ecx,%ebx
vmovdqa %xmm7,%xmm8
addl 56(%rsp),%edx
andl %ecx,%edi
andl %ebx,%esi
shrdl $7,%eax,%eax
addl %edi,%edx
movl %ebp,%edi
shldl $5,%ebp,%ebp
vaesenc %xmm14,%xmm11,%xmm11
vmovups -16(%r15),%xmm15
addl %esi,%edx
xorl %ecx,%ebx
addl %ebp,%edx
movl %eax,%esi
xorl %ebx,%eax
addl 60(%rsp),%ecx
andl %ebx,%esi
andl %eax,%edi
shrdl $7,%ebp,%ebp
addl %esi,%ecx
movl %edx,%esi
shldl $5,%edx,%edx
addl %edi,%ecx
xorl %ebx,%eax
addl %edx,%ecx
vpalignr $8,%xmm6,%xmm7,%xmm8
vpxor %xmm4,%xmm0,%xmm0
movl %ebp,%edi
xorl %eax,%ebp
addl 0(%rsp),%ebx
andl %eax,%edi
vpxor %xmm1,%xmm0,%xmm0
andl %ebp,%esi
vaesenc %xmm15,%xmm11,%xmm11
vmovups 0(%r15),%xmm14
shrdl $7,%edx,%edx
vmovdqa %xmm9,%xmm10
vpaddd %xmm7,%xmm9,%xmm9
addl %edi,%ebx
movl %ecx,%edi
vpxor %xmm8,%xmm0,%xmm0
shldl $5,%ecx,%ecx
addl %esi,%ebx
xorl %eax,%ebp
addl %ecx,%ebx
vpsrld $30,%xmm0,%xmm8
vmovdqa %xmm9,48(%rsp)
movl %edx,%esi
xorl %ebp,%edx
addl 4(%rsp),%eax
andl %ebp,%esi
vpslld $2,%xmm0,%xmm0
andl %edx,%edi
shrdl $7,%ecx,%ecx
addl %esi,%eax
movl %ebx,%esi
shldl $5,%ebx,%ebx
addl %edi,%eax
xorl %ebp,%edx
addl %ebx,%eax
vpor %xmm8,%xmm0,%xmm0
movl %ecx,%edi
vaesenc %xmm14,%xmm11,%xmm11
vmovups 16(%r15),%xmm15
xorl %edx,%ecx
vmovdqa %xmm0,%xmm9
addl 8(%rsp),%ebp
andl %edx,%edi
andl %ecx,%esi
shrdl $7,%ebx,%ebx
addl %edi,%ebp
movl %eax,%edi
shldl $5,%eax,%eax
addl %esi,%ebp
xorl %edx,%ecx
addl %eax,%ebp
movl %ebx,%esi
xorl %ecx,%ebx
addl 12(%rsp),%edx
andl %ecx,%esi
andl %ebx,%edi
shrdl $7,%eax,%eax
addl %esi,%edx
movl %ebp,%esi
shldl $5,%ebp,%ebp
vaesenc %xmm15,%xmm11,%xmm11
vmovups 32(%r15),%xmm14
addl %edi,%edx
xorl %ecx,%ebx
addl %ebp,%edx
vpalignr $8,%xmm7,%xmm0,%xmm9
vpxor %xmm5,%xmm1,%xmm1
movl %eax,%edi
xorl %ebx,%eax
addl 16(%rsp),%ecx
andl %ebx,%edi
vpxor %xmm2,%xmm1,%xmm1
andl %eax,%esi
shrdl $7,%ebp,%ebp
vmovdqa %xmm10,%xmm8
vpaddd %xmm0,%xmm10,%xmm10
addl %edi,%ecx
movl %edx,%edi
vpxor %xmm9,%xmm1,%xmm1
shldl $5,%edx,%edx
addl %esi,%ecx
xorl %ebx,%eax
addl %edx,%ecx
vpsrld $30,%xmm1,%xmm9
vmovdqa %xmm10,0(%rsp)
movl %ebp,%esi
xorl %eax,%ebp
addl 20(%rsp),%ebx
andl %eax,%esi
vpslld $2,%xmm1,%xmm1
andl %ebp,%edi
vaesenc %xmm14,%xmm11,%xmm11
vmovups 48(%r15),%xmm15
shrdl $7,%edx,%edx
addl %esi,%ebx
movl %ecx,%esi
shldl $5,%ecx,%ecx
addl %edi,%ebx
xorl %eax,%ebp
addl %ecx,%ebx
vpor %xmm9,%xmm1,%xmm1
movl %edx,%edi
xorl %ebp,%edx
vmovdqa %xmm1,%xmm10
addl 24(%rsp),%eax
andl %ebp,%edi
andl %edx,%esi
shrdl $7,%ecx,%ecx
addl %edi,%eax
movl %ebx,%edi
shldl $5,%ebx,%ebx
addl %esi,%eax
xorl %ebp,%edx
addl %ebx,%eax
movl %ecx,%esi
cmpl $11,%r8d
jb .Lvaesenclast3
vaesenc %xmm15,%xmm11,%xmm11
vmovups 64(%r15),%xmm14
vaesenc %xmm14,%xmm11,%xmm11
vmovups 80(%r15),%xmm15
je .Lvaesenclast3
vaesenc %xmm15,%xmm11,%xmm11
vmovups 96(%r15),%xmm14
vaesenc %xmm14,%xmm11,%xmm11
vmovups 112(%r15),%xmm15
.Lvaesenclast3:
vaesenclast %xmm15,%xmm11,%xmm11
vmovups 16-112(%r15),%xmm14
xorl %edx,%ecx
addl 28(%rsp),%ebp
andl %edx,%esi
andl %ecx,%edi
shrdl $7,%ebx,%ebx
addl %esi,%ebp
movl %eax,%esi
shldl $5,%eax,%eax
addl %edi,%ebp
xorl %edx,%ecx
addl %eax,%ebp
vpalignr $8,%xmm0,%xmm1,%xmm10
vpxor %xmm6,%xmm2,%xmm2
movl %ebx,%edi
xorl %ecx,%ebx
addl 32(%rsp),%edx
andl %ecx,%edi
vpxor %xmm3,%xmm2,%xmm2
andl %ebx,%esi
shrdl $7,%eax,%eax
vmovdqa %xmm8,%xmm9
vpaddd %xmm1,%xmm8,%xmm8
addl %edi,%edx
movl %ebp,%edi
vpxor %xmm10,%xmm2,%xmm2
shldl $5,%ebp,%ebp
vmovups 48(%r12),%xmm12
vxorps %xmm13,%xmm12,%xmm12
vmovups %xmm11,32(%r13,%r12,1)
vxorps %xmm12,%xmm11,%xmm11
vaesenc %xmm14,%xmm11,%xmm11
vmovups -80(%r15),%xmm15
addl %esi,%edx
xorl %ecx,%ebx
addl %ebp,%edx
vpsrld $30,%xmm2,%xmm10
vmovdqa %xmm8,16(%rsp)
movl %eax,%esi
xorl %ebx,%eax
addl 36(%rsp),%ecx
andl %ebx,%esi
vpslld $2,%xmm2,%xmm2
andl %eax,%edi
shrdl $7,%ebp,%ebp
addl %esi,%ecx
movl %edx,%esi
shldl $5,%edx,%edx
addl %edi,%ecx
xorl %ebx,%eax
addl %edx,%ecx
vpor %xmm10,%xmm2,%xmm2
movl %ebp,%edi
xorl %eax,%ebp
vmovdqa %xmm2,%xmm8
addl 40(%rsp),%ebx
andl %eax,%edi
andl %ebp,%esi
vaesenc %xmm15,%xmm11,%xmm11
vmovups -64(%r15),%xmm14
shrdl $7,%edx,%edx
addl %edi,%ebx
movl %ecx,%edi
shldl $5,%ecx,%ecx
addl %esi,%ebx
xorl %eax,%ebp
addl %ecx,%ebx
movl %edx,%esi
xorl %ebp,%edx
addl 44(%rsp),%eax
andl %ebp,%esi
andl %edx,%edi
shrdl $7,%ecx,%ecx
addl %esi,%eax
movl %ebx,%esi
shldl $5,%ebx,%ebx
addl %edi,%eax
xorl %ebp,%edx
addl %ebx,%eax
vpalignr $8,%xmm1,%xmm2,%xmm8
vpxor %xmm7,%xmm3,%xmm3
addl 48(%rsp),%ebp
vaesenc %xmm14,%xmm11,%xmm11
vmovups -48(%r15),%xmm15
xorl %edx,%esi
movl %eax,%edi
shldl $5,%eax,%eax
vpxor %xmm4,%xmm3,%xmm3
xorl %ecx,%esi
addl %eax,%ebp
vmovdqa %xmm9,%xmm10
vpaddd %xmm2,%xmm9,%xmm9
shrdl $7,%ebx,%ebx
addl %esi,%ebp
vpxor %xmm8,%xmm3,%xmm3
addl 52(%rsp),%edx
xorl %ecx,%edi
movl %ebp,%esi
shldl $5,%ebp,%ebp
vpsrld $30,%xmm3,%xmm8
vmovdqa %xmm9,32(%rsp)
xorl %ebx,%edi
addl %ebp,%edx
shrdl $7,%eax,%eax
addl %edi,%edx
vpslld $2,%xmm3,%xmm3
addl 56(%rsp),%ecx
xorl %ebx,%esi
movl %edx,%edi
shldl $5,%edx,%edx
xorl %eax,%esi
vaesenc %xmm15,%xmm11,%xmm11
vmovups -32(%r15),%xmm14
addl %edx,%ecx
shrdl $7,%ebp,%ebp
addl %esi,%ecx
vpor %xmm8,%xmm3,%xmm3
addl 60(%rsp),%ebx
xorl %eax,%edi
movl %ecx,%esi
shldl $5,%ecx,%ecx
xorl %ebp,%edi
addl %ecx,%ebx
shrdl $7,%edx,%edx
addl %edi,%ebx
addl 0(%rsp),%eax
vpaddd %xmm3,%xmm10,%xmm10
xorl %ebp,%esi
movl %ebx,%edi
shldl $5,%ebx,%ebx
xorl %edx,%esi
movdqa %xmm10,48(%rsp)
addl %ebx,%eax
shrdl $7,%ecx,%ecx
addl %esi,%eax
addl 4(%rsp),%ebp
vaesenc %xmm14,%xmm11,%xmm11
vmovups -16(%r15),%xmm15
xorl %edx,%edi
movl %eax,%esi
shldl $5,%eax,%eax
xorl %ecx,%edi
addl %eax,%ebp
shrdl $7,%ebx,%ebx
addl %edi,%ebp
addl 8(%rsp),%edx
xorl %ecx,%esi
movl %ebp,%edi
shldl $5,%ebp,%ebp
xorl %ebx,%esi
addl %ebp,%edx
shrdl $7,%eax,%eax
addl %esi,%edx
addl 12(%rsp),%ecx
xorl %ebx,%edi
movl %edx,%esi
shldl $5,%edx,%edx
xorl %eax,%edi
vaesenc %xmm15,%xmm11,%xmm11
vmovups 0(%r15),%xmm14
addl %edx,%ecx
shrdl $7,%ebp,%ebp
addl %edi,%ecx
cmpq %r14,%r10
je .Ldone_avx
vmovdqa 64(%r11),%xmm6
vmovdqa 0(%r11),%xmm9
vmovdqu 0(%r10),%xmm0
vmovdqu 16(%r10),%xmm1
vmovdqu 32(%r10),%xmm2
vmovdqu 48(%r10),%xmm3
vpshufb %xmm6,%xmm0,%xmm0
addq $64,%r10
addl 16(%rsp),%ebx
xorl %eax,%esi
vpshufb %xmm6,%xmm1,%xmm1
movl %ecx,%edi
shldl $5,%ecx,%ecx
vpaddd %xmm9,%xmm0,%xmm4
xorl %ebp,%esi
addl %ecx,%ebx
shrdl $7,%edx,%edx
addl %esi,%ebx
vmovdqa %xmm4,0(%rsp)
addl 20(%rsp),%eax
xorl %ebp,%edi
movl %ebx,%esi
shldl $5,%ebx,%ebx
xorl %edx,%edi
addl %ebx,%eax
shrdl $7,%ecx,%ecx
addl %edi,%eax
addl 24(%rsp),%ebp
vaesenc %xmm14,%xmm11,%xmm11
vmovups 16(%r15),%xmm15
xorl %edx,%esi
movl %eax,%edi
shldl $5,%eax,%eax
xorl %ecx,%esi
addl %eax,%ebp
shrdl $7,%ebx,%ebx
addl %esi,%ebp
addl 28(%rsp),%edx
xorl %ecx,%edi
movl %ebp,%esi
shldl $5,%ebp,%ebp
xorl %ebx,%edi
addl %ebp,%edx
shrdl $7,%eax,%eax
addl %edi,%edx
addl 32(%rsp),%ecx
xorl %ebx,%esi
vpshufb %xmm6,%xmm2,%xmm2
movl %edx,%edi
shldl $5,%edx,%edx
vpaddd %xmm9,%xmm1,%xmm5
xorl %eax,%esi
vaesenc %xmm15,%xmm11,%xmm11
vmovups 32(%r15),%xmm14
addl %edx,%ecx
shrdl $7,%ebp,%ebp
addl %esi,%ecx
vmovdqa %xmm5,16(%rsp)
addl 36(%rsp),%ebx
xorl %eax,%edi
movl %ecx,%esi
shldl $5,%ecx,%ecx
xorl %ebp,%edi
addl %ecx,%ebx
shrdl $7,%edx,%edx
addl %edi,%ebx
addl 40(%rsp),%eax
xorl %ebp,%esi
movl %ebx,%edi
shldl $5,%ebx,%ebx
xorl %edx,%esi
addl %ebx,%eax
shrdl $7,%ecx,%ecx
addl %esi,%eax
addl 44(%rsp),%ebp
vaesenc %xmm14,%xmm11,%xmm11
vmovups 48(%r15),%xmm15
xorl %edx,%edi
movl %eax,%esi
shldl $5,%eax,%eax
xorl %ecx,%edi
addl %eax,%ebp
shrdl $7,%ebx,%ebx
addl %edi,%ebp
addl 48(%rsp),%edx
xorl %ecx,%esi
vpshufb %xmm6,%xmm3,%xmm3
movl %ebp,%edi
shldl $5,%ebp,%ebp
vpaddd %xmm9,%xmm2,%xmm6
xorl %ebx,%esi
addl %ebp,%edx
shrdl $7,%eax,%eax
addl %esi,%edx
vmovdqa %xmm6,32(%rsp)
addl 52(%rsp),%ecx
xorl %ebx,%edi
movl %edx,%esi
shldl $5,%edx,%edx
xorl %eax,%edi
cmpl $11,%r8d
jb .Lvaesenclast4
vaesenc %xmm15,%xmm11,%xmm11
vmovups 64(%r15),%xmm14
vaesenc %xmm14,%xmm11,%xmm11
vmovups 80(%r15),%xmm15
je .Lvaesenclast4
vaesenc %xmm15,%xmm11,%xmm11
vmovups 96(%r15),%xmm14
vaesenc %xmm14,%xmm11,%xmm11
vmovups 112(%r15),%xmm15
.Lvaesenclast4:
vaesenclast %xmm15,%xmm11,%xmm11
vmovups 16-112(%r15),%xmm14
addl %edx,%ecx
shrdl $7,%ebp,%ebp
addl %edi,%ecx
addl 56(%rsp),%ebx
xorl %eax,%esi
movl %ecx,%edi
shldl $5,%ecx,%ecx
xorl %ebp,%esi
addl %ecx,%ebx
shrdl $7,%edx,%edx
addl %esi,%ebx
addl 60(%rsp),%eax
xorl %ebp,%edi
movl %ebx,%esi
shldl $5,%ebx,%ebx
xorl %edx,%edi
addl %ebx,%eax
shrdl $7,%ecx,%ecx
addl %edi,%eax
vmovups %xmm11,48(%r13,%r12,1)
leaq 64(%r12),%r12
addl 0(%r9),%eax
addl 4(%r9),%esi
addl 8(%r9),%ecx
addl 12(%r9),%edx
movl %eax,0(%r9)
addl 16(%r9),%ebp
movl %esi,4(%r9)
movl %esi,%ebx
movl %ecx,8(%r9)
movl %edx,12(%r9)
movl %ebp,16(%r9)
jmp .Loop_avx
.align 16
.Ldone_avx:
addl 16(%rsp),%ebx
xorl %eax,%esi
movl %ecx,%edi
shldl $5,%ecx,%ecx
xorl %ebp,%esi
addl %ecx,%ebx
shrdl $7,%edx,%edx
addl %esi,%ebx
addl 20(%rsp),%eax
xorl %ebp,%edi
movl %ebx,%esi
shldl $5,%ebx,%ebx
xorl %edx,%edi
addl %ebx,%eax
shrdl $7,%ecx,%ecx
addl %edi,%eax
addl 24(%rsp),%ebp
vaesenc %xmm14,%xmm11,%xmm11
vmovups 16(%r15),%xmm15
xorl %edx,%esi
movl %eax,%edi
shldl $5,%eax,%eax
xorl %ecx,%esi
addl %eax,%ebp
shrdl $7,%ebx,%ebx
addl %esi,%ebp
addl 28(%rsp),%edx
xorl %ecx,%edi
movl %ebp,%esi
shldl $5,%ebp,%ebp
xorl %ebx,%edi
addl %ebp,%edx
shrdl $7,%eax,%eax
addl %edi,%edx
addl 32(%rsp),%ecx
xorl %ebx,%esi
movl %edx,%edi
shldl $5,%edx,%edx
xorl %eax,%esi
vaesenc %xmm15,%xmm11,%xmm11
vmovups 32(%r15),%xmm14
addl %edx,%ecx
shrdl $7,%ebp,%ebp
addl %esi,%ecx
addl 36(%rsp),%ebx
xorl %eax,%edi
movl %ecx,%esi
shldl $5,%ecx,%ecx
xorl %ebp,%edi
addl %ecx,%ebx
shrdl $7,%edx,%edx
addl %edi,%ebx
addl 40(%rsp),%eax
xorl %ebp,%esi
movl %ebx,%edi
shldl $5,%ebx,%ebx
xorl %edx,%esi
addl %ebx,%eax
shrdl $7,%ecx,%ecx
addl %esi,%eax
addl 44(%rsp),%ebp
vaesenc %xmm14,%xmm11,%xmm11
vmovups 48(%r15),%xmm15
xorl %edx,%edi
movl %eax,%esi
shldl $5,%eax,%eax
xorl %ecx,%edi
addl %eax,%ebp
shrdl $7,%ebx,%ebx
addl %edi,%ebp
addl 48(%rsp),%edx
xorl %ecx,%esi
movl %ebp,%edi
shldl $5,%ebp,%ebp
xorl %ebx,%esi
addl %ebp,%edx
shrdl $7,%eax,%eax
addl %esi,%edx
addl 52(%rsp),%ecx
xorl %ebx,%edi
movl %edx,%esi
shldl $5,%edx,%edx
xorl %eax,%edi
cmpl $11,%r8d
jb .Lvaesenclast5
vaesenc %xmm15,%xmm11,%xmm11
vmovups 64(%r15),%xmm14
vaesenc %xmm14,%xmm11,%xmm11
vmovups 80(%r15),%xmm15
je .Lvaesenclast5
vaesenc %xmm15,%xmm11,%xmm11
vmovups 96(%r15),%xmm14
vaesenc %xmm14,%xmm11,%xmm11
vmovups 112(%r15),%xmm15
.Lvaesenclast5:
vaesenclast %xmm15,%xmm11,%xmm11
vmovups 16-112(%r15),%xmm14
addl %edx,%ecx
shrdl $7,%ebp,%ebp
addl %edi,%ecx
addl 56(%rsp),%ebx
xorl %eax,%esi
movl %ecx,%edi
shldl $5,%ecx,%ecx
xorl %ebp,%esi
addl %ecx,%ebx
shrdl $7,%edx,%edx
addl %esi,%ebx
addl 60(%rsp),%eax
xorl %ebp,%edi
movl %ebx,%esi
shldl $5,%ebx,%ebx
xorl %edx,%edi
addl %ebx,%eax
shrdl $7,%ecx,%ecx
addl %edi,%eax
vmovups %xmm11,48(%r13,%r12,1)
movq 88(%rsp),%r8
addl 0(%r9),%eax
addl 4(%r9),%esi
addl 8(%r9),%ecx
movl %eax,0(%r9)
addl 12(%r9),%edx
movl %esi,4(%r9)
addl 16(%r9),%ebp
movl %ecx,8(%r9)
movl %edx,12(%r9)
movl %ebp,16(%r9)
vmovups %xmm11,(%r8)
vzeroall
leaq 104(%rsp),%rsi
movq 0(%rsi),%r15
movq 8(%rsi),%r14
movq 16(%rsi),%r13
movq 24(%rsi),%r12
movq 32(%rsi),%rbp
movq 40(%rsi),%rbx
leaq 48(%rsi),%rsp
.Lepilogue_avx:
.byte 0xf3,0xc3
.size aesni_cbc_sha1_enc_avx,.-aesni_cbc_sha1_enc_avx
.align 64
K_XX_XX:
.long 0x5a827999,0x5a827999,0x5a827999,0x5a827999
.long 0x6ed9eba1,0x6ed9eba1,0x6ed9eba1,0x6ed9eba1
.long 0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc
.long 0xca62c1d6,0xca62c1d6,0xca62c1d6,0xca62c1d6
.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f
.byte 65,69,83,78,73,45,67,66,67,43,83,72,65,49,32,115,116,105,116,99,104,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0
.align 64