zfs/module/icp/asm-x86_64/sha2/sha512-x86_64.S

4012 lines
75 KiB
ArmAsm

/*
* Copyright 2004-2022 The OpenSSL Project Authors. All Rights Reserved.
*
* Licensed under the Apache License, Version 2.0 (the "License");
* you may not use this file except in compliance with the License.
* You may obtain a copy of the License at
*
* https://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/
/*
* Portions Copyright (c) 2022 Tino Reichardt <milky-zfs@mcmilk.de>
* - modified assembly to fit into OpenZFS
*/
#if defined(__x86_64)
#define _ASM
#include <sys/asm_linkage.h>
SECTION_STATIC
.balign 64
SET_OBJ(K512)
K512:
.quad 0x428a2f98d728ae22,0x7137449123ef65cd
.quad 0x428a2f98d728ae22,0x7137449123ef65cd
.quad 0xb5c0fbcfec4d3b2f,0xe9b5dba58189dbbc
.quad 0xb5c0fbcfec4d3b2f,0xe9b5dba58189dbbc
.quad 0x3956c25bf348b538,0x59f111f1b605d019
.quad 0x3956c25bf348b538,0x59f111f1b605d019
.quad 0x923f82a4af194f9b,0xab1c5ed5da6d8118
.quad 0x923f82a4af194f9b,0xab1c5ed5da6d8118
.quad 0xd807aa98a3030242,0x12835b0145706fbe
.quad 0xd807aa98a3030242,0x12835b0145706fbe
.quad 0x243185be4ee4b28c,0x550c7dc3d5ffb4e2
.quad 0x243185be4ee4b28c,0x550c7dc3d5ffb4e2
.quad 0x72be5d74f27b896f,0x80deb1fe3b1696b1
.quad 0x72be5d74f27b896f,0x80deb1fe3b1696b1
.quad 0x9bdc06a725c71235,0xc19bf174cf692694
.quad 0x9bdc06a725c71235,0xc19bf174cf692694
.quad 0xe49b69c19ef14ad2,0xefbe4786384f25e3
.quad 0xe49b69c19ef14ad2,0xefbe4786384f25e3
.quad 0x0fc19dc68b8cd5b5,0x240ca1cc77ac9c65
.quad 0x0fc19dc68b8cd5b5,0x240ca1cc77ac9c65
.quad 0x2de92c6f592b0275,0x4a7484aa6ea6e483
.quad 0x2de92c6f592b0275,0x4a7484aa6ea6e483
.quad 0x5cb0a9dcbd41fbd4,0x76f988da831153b5
.quad 0x5cb0a9dcbd41fbd4,0x76f988da831153b5
.quad 0x983e5152ee66dfab,0xa831c66d2db43210
.quad 0x983e5152ee66dfab,0xa831c66d2db43210
.quad 0xb00327c898fb213f,0xbf597fc7beef0ee4
.quad 0xb00327c898fb213f,0xbf597fc7beef0ee4
.quad 0xc6e00bf33da88fc2,0xd5a79147930aa725
.quad 0xc6e00bf33da88fc2,0xd5a79147930aa725
.quad 0x06ca6351e003826f,0x142929670a0e6e70
.quad 0x06ca6351e003826f,0x142929670a0e6e70
.quad 0x27b70a8546d22ffc,0x2e1b21385c26c926
.quad 0x27b70a8546d22ffc,0x2e1b21385c26c926
.quad 0x4d2c6dfc5ac42aed,0x53380d139d95b3df
.quad 0x4d2c6dfc5ac42aed,0x53380d139d95b3df
.quad 0x650a73548baf63de,0x766a0abb3c77b2a8
.quad 0x650a73548baf63de,0x766a0abb3c77b2a8
.quad 0x81c2c92e47edaee6,0x92722c851482353b
.quad 0x81c2c92e47edaee6,0x92722c851482353b
.quad 0xa2bfe8a14cf10364,0xa81a664bbc423001
.quad 0xa2bfe8a14cf10364,0xa81a664bbc423001
.quad 0xc24b8b70d0f89791,0xc76c51a30654be30
.quad 0xc24b8b70d0f89791,0xc76c51a30654be30
.quad 0xd192e819d6ef5218,0xd69906245565a910
.quad 0xd192e819d6ef5218,0xd69906245565a910
.quad 0xf40e35855771202a,0x106aa07032bbd1b8
.quad 0xf40e35855771202a,0x106aa07032bbd1b8
.quad 0x19a4c116b8d2d0c8,0x1e376c085141ab53
.quad 0x19a4c116b8d2d0c8,0x1e376c085141ab53
.quad 0x2748774cdf8eeb99,0x34b0bcb5e19b48a8
.quad 0x2748774cdf8eeb99,0x34b0bcb5e19b48a8
.quad 0x391c0cb3c5c95a63,0x4ed8aa4ae3418acb
.quad 0x391c0cb3c5c95a63,0x4ed8aa4ae3418acb
.quad 0x5b9cca4f7763e373,0x682e6ff3d6b2b8a3
.quad 0x5b9cca4f7763e373,0x682e6ff3d6b2b8a3
.quad 0x748f82ee5defb2fc,0x78a5636f43172f60
.quad 0x748f82ee5defb2fc,0x78a5636f43172f60
.quad 0x84c87814a1f0ab72,0x8cc702081a6439ec
.quad 0x84c87814a1f0ab72,0x8cc702081a6439ec
.quad 0x90befffa23631e28,0xa4506cebde82bde9
.quad 0x90befffa23631e28,0xa4506cebde82bde9
.quad 0xbef9a3f7b2c67915,0xc67178f2e372532b
.quad 0xbef9a3f7b2c67915,0xc67178f2e372532b
.quad 0xca273eceea26619c,0xd186b8c721c0c207
.quad 0xca273eceea26619c,0xd186b8c721c0c207
.quad 0xeada7dd6cde0eb1e,0xf57d4f7fee6ed178
.quad 0xeada7dd6cde0eb1e,0xf57d4f7fee6ed178
.quad 0x06f067aa72176fba,0x0a637dc5a2c898a6
.quad 0x06f067aa72176fba,0x0a637dc5a2c898a6
.quad 0x113f9804bef90dae,0x1b710b35131c471b
.quad 0x113f9804bef90dae,0x1b710b35131c471b
.quad 0x28db77f523047d84,0x32caab7b40c72493
.quad 0x28db77f523047d84,0x32caab7b40c72493
.quad 0x3c9ebe0a15c9bebc,0x431d67c49c100d4c
.quad 0x3c9ebe0a15c9bebc,0x431d67c49c100d4c
.quad 0x4cc5d4becb3e42b6,0x597f299cfc657e2a
.quad 0x4cc5d4becb3e42b6,0x597f299cfc657e2a
.quad 0x5fcb6fab3ad6faec,0x6c44198c4a475817
.quad 0x5fcb6fab3ad6faec,0x6c44198c4a475817
.quad 0x0001020304050607,0x08090a0b0c0d0e0f
.quad 0x0001020304050607,0x08090a0b0c0d0e0f
ENTRY_ALIGN(zfs_sha512_transform_x64, 16)
.cfi_startproc
ENDBR
movq %rsp,%rax
.cfi_def_cfa_register %rax
pushq %rbx
.cfi_offset %rbx,-16
pushq %rbp
.cfi_offset %rbp,-24
pushq %r12
.cfi_offset %r12,-32
pushq %r13
.cfi_offset %r13,-40
pushq %r14
.cfi_offset %r14,-48
pushq %r15
.cfi_offset %r15,-56
shlq $4,%rdx
subq $128+32,%rsp
leaq (%rsi,%rdx,8),%rdx
andq $-64,%rsp
movq %rdi,128+0(%rsp)
movq %rsi,128+8(%rsp)
movq %rdx,128+16(%rsp)
movq %rax,152(%rsp)
.cfi_escape 0x0f,0x06,0x77,0x98,0x01,0x06,0x23,0x08
.Lprologue:
movq 0(%rdi),%rax
movq 8(%rdi),%rbx
movq 16(%rdi),%rcx
movq 24(%rdi),%rdx
movq 32(%rdi),%r8
movq 40(%rdi),%r9
movq 48(%rdi),%r10
movq 56(%rdi),%r11
jmp .Lloop
.balign 16
.Lloop:
movq %rbx,%rdi
leaq K512(%rip),%rbp
xorq %rcx,%rdi
movq 0(%rsi),%r12
movq %r8,%r13
movq %rax,%r14
bswapq %r12
rorq $23,%r13
movq %r9,%r15
xorq %r8,%r13
rorq $5,%r14
xorq %r10,%r15
movq %r12,0(%rsp)
xorq %rax,%r14
andq %r8,%r15
rorq $4,%r13
addq %r11,%r12
xorq %r10,%r15
rorq $6,%r14
xorq %r8,%r13
addq %r15,%r12
movq %rax,%r15
addq (%rbp),%r12
xorq %rax,%r14
xorq %rbx,%r15
rorq $14,%r13
movq %rbx,%r11
andq %r15,%rdi
rorq $28,%r14
addq %r13,%r12
xorq %rdi,%r11
addq %r12,%rdx
addq %r12,%r11
leaq 8(%rbp),%rbp
addq %r14,%r11
movq 8(%rsi),%r12
movq %rdx,%r13
movq %r11,%r14
bswapq %r12
rorq $23,%r13
movq %r8,%rdi
xorq %rdx,%r13
rorq $5,%r14
xorq %r9,%rdi
movq %r12,8(%rsp)
xorq %r11,%r14
andq %rdx,%rdi
rorq $4,%r13
addq %r10,%r12
xorq %r9,%rdi
rorq $6,%r14
xorq %rdx,%r13
addq %rdi,%r12
movq %r11,%rdi
addq (%rbp),%r12
xorq %r11,%r14
xorq %rax,%rdi
rorq $14,%r13
movq %rax,%r10
andq %rdi,%r15
rorq $28,%r14
addq %r13,%r12
xorq %r15,%r10
addq %r12,%rcx
addq %r12,%r10
leaq 24(%rbp),%rbp
addq %r14,%r10
movq 16(%rsi),%r12
movq %rcx,%r13
movq %r10,%r14
bswapq %r12
rorq $23,%r13
movq %rdx,%r15
xorq %rcx,%r13
rorq $5,%r14
xorq %r8,%r15
movq %r12,16(%rsp)
xorq %r10,%r14
andq %rcx,%r15
rorq $4,%r13
addq %r9,%r12
xorq %r8,%r15
rorq $6,%r14
xorq %rcx,%r13
addq %r15,%r12
movq %r10,%r15
addq (%rbp),%r12
xorq %r10,%r14
xorq %r11,%r15
rorq $14,%r13
movq %r11,%r9
andq %r15,%rdi
rorq $28,%r14
addq %r13,%r12
xorq %rdi,%r9
addq %r12,%rbx
addq %r12,%r9
leaq 8(%rbp),%rbp
addq %r14,%r9
movq 24(%rsi),%r12
movq %rbx,%r13
movq %r9,%r14
bswapq %r12
rorq $23,%r13
movq %rcx,%rdi
xorq %rbx,%r13
rorq $5,%r14
xorq %rdx,%rdi
movq %r12,24(%rsp)
xorq %r9,%r14
andq %rbx,%rdi
rorq $4,%r13
addq %r8,%r12
xorq %rdx,%rdi
rorq $6,%r14
xorq %rbx,%r13
addq %rdi,%r12
movq %r9,%rdi
addq (%rbp),%r12
xorq %r9,%r14
xorq %r10,%rdi
rorq $14,%r13
movq %r10,%r8
andq %rdi,%r15
rorq $28,%r14
addq %r13,%r12
xorq %r15,%r8
addq %r12,%rax
addq %r12,%r8
leaq 24(%rbp),%rbp
addq %r14,%r8
movq 32(%rsi),%r12
movq %rax,%r13
movq %r8,%r14
bswapq %r12
rorq $23,%r13
movq %rbx,%r15
xorq %rax,%r13
rorq $5,%r14
xorq %rcx,%r15
movq %r12,32(%rsp)
xorq %r8,%r14
andq %rax,%r15
rorq $4,%r13
addq %rdx,%r12
xorq %rcx,%r15
rorq $6,%r14
xorq %rax,%r13
addq %r15,%r12
movq %r8,%r15
addq (%rbp),%r12
xorq %r8,%r14
xorq %r9,%r15
rorq $14,%r13
movq %r9,%rdx
andq %r15,%rdi
rorq $28,%r14
addq %r13,%r12
xorq %rdi,%rdx
addq %r12,%r11
addq %r12,%rdx
leaq 8(%rbp),%rbp
addq %r14,%rdx
movq 40(%rsi),%r12
movq %r11,%r13
movq %rdx,%r14
bswapq %r12
rorq $23,%r13
movq %rax,%rdi
xorq %r11,%r13
rorq $5,%r14
xorq %rbx,%rdi
movq %r12,40(%rsp)
xorq %rdx,%r14
andq %r11,%rdi
rorq $4,%r13
addq %rcx,%r12
xorq %rbx,%rdi
rorq $6,%r14
xorq %r11,%r13
addq %rdi,%r12
movq %rdx,%rdi
addq (%rbp),%r12
xorq %rdx,%r14
xorq %r8,%rdi
rorq $14,%r13
movq %r8,%rcx
andq %rdi,%r15
rorq $28,%r14
addq %r13,%r12
xorq %r15,%rcx
addq %r12,%r10
addq %r12,%rcx
leaq 24(%rbp),%rbp
addq %r14,%rcx
movq 48(%rsi),%r12
movq %r10,%r13
movq %rcx,%r14
bswapq %r12
rorq $23,%r13
movq %r11,%r15
xorq %r10,%r13
rorq $5,%r14
xorq %rax,%r15
movq %r12,48(%rsp)
xorq %rcx,%r14
andq %r10,%r15
rorq $4,%r13
addq %rbx,%r12
xorq %rax,%r15
rorq $6,%r14
xorq %r10,%r13
addq %r15,%r12
movq %rcx,%r15
addq (%rbp),%r12
xorq %rcx,%r14
xorq %rdx,%r15
rorq $14,%r13
movq %rdx,%rbx
andq %r15,%rdi
rorq $28,%r14
addq %r13,%r12
xorq %rdi,%rbx
addq %r12,%r9
addq %r12,%rbx
leaq 8(%rbp),%rbp
addq %r14,%rbx
movq 56(%rsi),%r12
movq %r9,%r13
movq %rbx,%r14
bswapq %r12
rorq $23,%r13
movq %r10,%rdi
xorq %r9,%r13
rorq $5,%r14
xorq %r11,%rdi
movq %r12,56(%rsp)
xorq %rbx,%r14
andq %r9,%rdi
rorq $4,%r13
addq %rax,%r12
xorq %r11,%rdi
rorq $6,%r14
xorq %r9,%r13
addq %rdi,%r12
movq %rbx,%rdi
addq (%rbp),%r12
xorq %rbx,%r14
xorq %rcx,%rdi
rorq $14,%r13
movq %rcx,%rax
andq %rdi,%r15
rorq $28,%r14
addq %r13,%r12
xorq %r15,%rax
addq %r12,%r8
addq %r12,%rax
leaq 24(%rbp),%rbp
addq %r14,%rax
movq 64(%rsi),%r12
movq %r8,%r13
movq %rax,%r14
bswapq %r12
rorq $23,%r13
movq %r9,%r15
xorq %r8,%r13
rorq $5,%r14
xorq %r10,%r15
movq %r12,64(%rsp)
xorq %rax,%r14
andq %r8,%r15
rorq $4,%r13
addq %r11,%r12
xorq %r10,%r15
rorq $6,%r14
xorq %r8,%r13
addq %r15,%r12
movq %rax,%r15
addq (%rbp),%r12
xorq %rax,%r14
xorq %rbx,%r15
rorq $14,%r13
movq %rbx,%r11
andq %r15,%rdi
rorq $28,%r14
addq %r13,%r12
xorq %rdi,%r11
addq %r12,%rdx
addq %r12,%r11
leaq 8(%rbp),%rbp
addq %r14,%r11
movq 72(%rsi),%r12
movq %rdx,%r13
movq %r11,%r14
bswapq %r12
rorq $23,%r13
movq %r8,%rdi
xorq %rdx,%r13
rorq $5,%r14
xorq %r9,%rdi
movq %r12,72(%rsp)
xorq %r11,%r14
andq %rdx,%rdi
rorq $4,%r13
addq %r10,%r12
xorq %r9,%rdi
rorq $6,%r14
xorq %rdx,%r13
addq %rdi,%r12
movq %r11,%rdi
addq (%rbp),%r12
xorq %r11,%r14
xorq %rax,%rdi
rorq $14,%r13
movq %rax,%r10
andq %rdi,%r15
rorq $28,%r14
addq %r13,%r12
xorq %r15,%r10
addq %r12,%rcx
addq %r12,%r10
leaq 24(%rbp),%rbp
addq %r14,%r10
movq 80(%rsi),%r12
movq %rcx,%r13
movq %r10,%r14
bswapq %r12
rorq $23,%r13
movq %rdx,%r15
xorq %rcx,%r13
rorq $5,%r14
xorq %r8,%r15
movq %r12,80(%rsp)
xorq %r10,%r14
andq %rcx,%r15
rorq $4,%r13
addq %r9,%r12
xorq %r8,%r15
rorq $6,%r14
xorq %rcx,%r13
addq %r15,%r12
movq %r10,%r15
addq (%rbp),%r12
xorq %r10,%r14
xorq %r11,%r15
rorq $14,%r13
movq %r11,%r9
andq %r15,%rdi
rorq $28,%r14
addq %r13,%r12
xorq %rdi,%r9
addq %r12,%rbx
addq %r12,%r9
leaq 8(%rbp),%rbp
addq %r14,%r9
movq 88(%rsi),%r12
movq %rbx,%r13
movq %r9,%r14
bswapq %r12
rorq $23,%r13
movq %rcx,%rdi
xorq %rbx,%r13
rorq $5,%r14
xorq %rdx,%rdi
movq %r12,88(%rsp)
xorq %r9,%r14
andq %rbx,%rdi
rorq $4,%r13
addq %r8,%r12
xorq %rdx,%rdi
rorq $6,%r14
xorq %rbx,%r13
addq %rdi,%r12
movq %r9,%rdi
addq (%rbp),%r12
xorq %r9,%r14
xorq %r10,%rdi
rorq $14,%r13
movq %r10,%r8
andq %rdi,%r15
rorq $28,%r14
addq %r13,%r12
xorq %r15,%r8
addq %r12,%rax
addq %r12,%r8
leaq 24(%rbp),%rbp
addq %r14,%r8
movq 96(%rsi),%r12
movq %rax,%r13
movq %r8,%r14
bswapq %r12
rorq $23,%r13
movq %rbx,%r15
xorq %rax,%r13
rorq $5,%r14
xorq %rcx,%r15
movq %r12,96(%rsp)
xorq %r8,%r14
andq %rax,%r15
rorq $4,%r13
addq %rdx,%r12
xorq %rcx,%r15
rorq $6,%r14
xorq %rax,%r13
addq %r15,%r12
movq %r8,%r15
addq (%rbp),%r12
xorq %r8,%r14
xorq %r9,%r15
rorq $14,%r13
movq %r9,%rdx
andq %r15,%rdi
rorq $28,%r14
addq %r13,%r12
xorq %rdi,%rdx
addq %r12,%r11
addq %r12,%rdx
leaq 8(%rbp),%rbp
addq %r14,%rdx
movq 104(%rsi),%r12
movq %r11,%r13
movq %rdx,%r14
bswapq %r12
rorq $23,%r13
movq %rax,%rdi
xorq %r11,%r13
rorq $5,%r14
xorq %rbx,%rdi
movq %r12,104(%rsp)
xorq %rdx,%r14
andq %r11,%rdi
rorq $4,%r13
addq %rcx,%r12
xorq %rbx,%rdi
rorq $6,%r14
xorq %r11,%r13
addq %rdi,%r12
movq %rdx,%rdi
addq (%rbp),%r12
xorq %rdx,%r14
xorq %r8,%rdi
rorq $14,%r13
movq %r8,%rcx
andq %rdi,%r15
rorq $28,%r14
addq %r13,%r12
xorq %r15,%rcx
addq %r12,%r10
addq %r12,%rcx
leaq 24(%rbp),%rbp
addq %r14,%rcx
movq 112(%rsi),%r12
movq %r10,%r13
movq %rcx,%r14
bswapq %r12
rorq $23,%r13
movq %r11,%r15
xorq %r10,%r13
rorq $5,%r14
xorq %rax,%r15
movq %r12,112(%rsp)
xorq %rcx,%r14
andq %r10,%r15
rorq $4,%r13
addq %rbx,%r12
xorq %rax,%r15
rorq $6,%r14
xorq %r10,%r13
addq %r15,%r12
movq %rcx,%r15
addq (%rbp),%r12
xorq %rcx,%r14
xorq %rdx,%r15
rorq $14,%r13
movq %rdx,%rbx
andq %r15,%rdi
rorq $28,%r14
addq %r13,%r12
xorq %rdi,%rbx
addq %r12,%r9
addq %r12,%rbx
leaq 8(%rbp),%rbp
addq %r14,%rbx
movq 120(%rsi),%r12
movq %r9,%r13
movq %rbx,%r14
bswapq %r12
rorq $23,%r13
movq %r10,%rdi
xorq %r9,%r13
rorq $5,%r14
xorq %r11,%rdi
movq %r12,120(%rsp)
xorq %rbx,%r14
andq %r9,%rdi
rorq $4,%r13
addq %rax,%r12
xorq %r11,%rdi
rorq $6,%r14
xorq %r9,%r13
addq %rdi,%r12
movq %rbx,%rdi
addq (%rbp),%r12
xorq %rbx,%r14
xorq %rcx,%rdi
rorq $14,%r13
movq %rcx,%rax
andq %rdi,%r15
rorq $28,%r14
addq %r13,%r12
xorq %r15,%rax
addq %r12,%r8
addq %r12,%rax
leaq 24(%rbp),%rbp
jmp .Lrounds_16_xx
.balign 16
.Lrounds_16_xx:
movq 8(%rsp),%r13
movq 112(%rsp),%r15
movq %r13,%r12
rorq $7,%r13
addq %r14,%rax
movq %r15,%r14
rorq $42,%r15
xorq %r12,%r13
shrq $7,%r12
rorq $1,%r13
xorq %r14,%r15
shrq $6,%r14
rorq $19,%r15
xorq %r13,%r12
xorq %r14,%r15
addq 72(%rsp),%r12
addq 0(%rsp),%r12
movq %r8,%r13
addq %r15,%r12
movq %rax,%r14
rorq $23,%r13
movq %r9,%r15
xorq %r8,%r13
rorq $5,%r14
xorq %r10,%r15
movq %r12,0(%rsp)
xorq %rax,%r14
andq %r8,%r15
rorq $4,%r13
addq %r11,%r12
xorq %r10,%r15
rorq $6,%r14
xorq %r8,%r13
addq %r15,%r12
movq %rax,%r15
addq (%rbp),%r12
xorq %rax,%r14
xorq %rbx,%r15
rorq $14,%r13
movq %rbx,%r11
andq %r15,%rdi
rorq $28,%r14
addq %r13,%r12
xorq %rdi,%r11
addq %r12,%rdx
addq %r12,%r11
leaq 8(%rbp),%rbp
movq 16(%rsp),%r13
movq 120(%rsp),%rdi
movq %r13,%r12
rorq $7,%r13
addq %r14,%r11
movq %rdi,%r14
rorq $42,%rdi
xorq %r12,%r13
shrq $7,%r12
rorq $1,%r13
xorq %r14,%rdi
shrq $6,%r14
rorq $19,%rdi
xorq %r13,%r12
xorq %r14,%rdi
addq 80(%rsp),%r12
addq 8(%rsp),%r12
movq %rdx,%r13
addq %rdi,%r12
movq %r11,%r14
rorq $23,%r13
movq %r8,%rdi
xorq %rdx,%r13
rorq $5,%r14
xorq %r9,%rdi
movq %r12,8(%rsp)
xorq %r11,%r14
andq %rdx,%rdi
rorq $4,%r13
addq %r10,%r12
xorq %r9,%rdi
rorq $6,%r14
xorq %rdx,%r13
addq %rdi,%r12
movq %r11,%rdi
addq (%rbp),%r12
xorq %r11,%r14
xorq %rax,%rdi
rorq $14,%r13
movq %rax,%r10
andq %rdi,%r15
rorq $28,%r14
addq %r13,%r12
xorq %r15,%r10
addq %r12,%rcx
addq %r12,%r10
leaq 24(%rbp),%rbp
movq 24(%rsp),%r13
movq 0(%rsp),%r15
movq %r13,%r12
rorq $7,%r13
addq %r14,%r10
movq %r15,%r14
rorq $42,%r15
xorq %r12,%r13
shrq $7,%r12
rorq $1,%r13
xorq %r14,%r15
shrq $6,%r14
rorq $19,%r15
xorq %r13,%r12
xorq %r14,%r15
addq 88(%rsp),%r12
addq 16(%rsp),%r12
movq %rcx,%r13
addq %r15,%r12
movq %r10,%r14
rorq $23,%r13
movq %rdx,%r15
xorq %rcx,%r13
rorq $5,%r14
xorq %r8,%r15
movq %r12,16(%rsp)
xorq %r10,%r14
andq %rcx,%r15
rorq $4,%r13
addq %r9,%r12
xorq %r8,%r15
rorq $6,%r14
xorq %rcx,%r13
addq %r15,%r12
movq %r10,%r15
addq (%rbp),%r12
xorq %r10,%r14
xorq %r11,%r15
rorq $14,%r13
movq %r11,%r9
andq %r15,%rdi
rorq $28,%r14
addq %r13,%r12
xorq %rdi,%r9
addq %r12,%rbx
addq %r12,%r9
leaq 8(%rbp),%rbp
movq 32(%rsp),%r13
movq 8(%rsp),%rdi
movq %r13,%r12
rorq $7,%r13
addq %r14,%r9
movq %rdi,%r14
rorq $42,%rdi
xorq %r12,%r13
shrq $7,%r12
rorq $1,%r13
xorq %r14,%rdi
shrq $6,%r14
rorq $19,%rdi
xorq %r13,%r12
xorq %r14,%rdi
addq 96(%rsp),%r12
addq 24(%rsp),%r12
movq %rbx,%r13
addq %rdi,%r12
movq %r9,%r14
rorq $23,%r13
movq %rcx,%rdi
xorq %rbx,%r13
rorq $5,%r14
xorq %rdx,%rdi
movq %r12,24(%rsp)
xorq %r9,%r14
andq %rbx,%rdi
rorq $4,%r13
addq %r8,%r12
xorq %rdx,%rdi
rorq $6,%r14
xorq %rbx,%r13
addq %rdi,%r12
movq %r9,%rdi
addq (%rbp),%r12
xorq %r9,%r14
xorq %r10,%rdi
rorq $14,%r13
movq %r10,%r8
andq %rdi,%r15
rorq $28,%r14
addq %r13,%r12
xorq %r15,%r8
addq %r12,%rax
addq %r12,%r8
leaq 24(%rbp),%rbp
movq 40(%rsp),%r13
movq 16(%rsp),%r15
movq %r13,%r12
rorq $7,%r13
addq %r14,%r8
movq %r15,%r14
rorq $42,%r15
xorq %r12,%r13
shrq $7,%r12
rorq $1,%r13
xorq %r14,%r15
shrq $6,%r14
rorq $19,%r15
xorq %r13,%r12
xorq %r14,%r15
addq 104(%rsp),%r12
addq 32(%rsp),%r12
movq %rax,%r13
addq %r15,%r12
movq %r8,%r14
rorq $23,%r13
movq %rbx,%r15
xorq %rax,%r13
rorq $5,%r14
xorq %rcx,%r15
movq %r12,32(%rsp)
xorq %r8,%r14
andq %rax,%r15
rorq $4,%r13
addq %rdx,%r12
xorq %rcx,%r15
rorq $6,%r14
xorq %rax,%r13
addq %r15,%r12
movq %r8,%r15
addq (%rbp),%r12
xorq %r8,%r14
xorq %r9,%r15
rorq $14,%r13
movq %r9,%rdx
andq %r15,%rdi
rorq $28,%r14
addq %r13,%r12
xorq %rdi,%rdx
addq %r12,%r11
addq %r12,%rdx
leaq 8(%rbp),%rbp
movq 48(%rsp),%r13
movq 24(%rsp),%rdi
movq %r13,%r12
rorq $7,%r13
addq %r14,%rdx
movq %rdi,%r14
rorq $42,%rdi
xorq %r12,%r13
shrq $7,%r12
rorq $1,%r13
xorq %r14,%rdi
shrq $6,%r14
rorq $19,%rdi
xorq %r13,%r12
xorq %r14,%rdi
addq 112(%rsp),%r12
addq 40(%rsp),%r12
movq %r11,%r13
addq %rdi,%r12
movq %rdx,%r14
rorq $23,%r13
movq %rax,%rdi
xorq %r11,%r13
rorq $5,%r14
xorq %rbx,%rdi
movq %r12,40(%rsp)
xorq %rdx,%r14
andq %r11,%rdi
rorq $4,%r13
addq %rcx,%r12
xorq %rbx,%rdi
rorq $6,%r14
xorq %r11,%r13
addq %rdi,%r12
movq %rdx,%rdi
addq (%rbp),%r12
xorq %rdx,%r14
xorq %r8,%rdi
rorq $14,%r13
movq %r8,%rcx
andq %rdi,%r15
rorq $28,%r14
addq %r13,%r12
xorq %r15,%rcx
addq %r12,%r10
addq %r12,%rcx
leaq 24(%rbp),%rbp
movq 56(%rsp),%r13
movq 32(%rsp),%r15
movq %r13,%r12
rorq $7,%r13
addq %r14,%rcx
movq %r15,%r14
rorq $42,%r15
xorq %r12,%r13
shrq $7,%r12
rorq $1,%r13
xorq %r14,%r15
shrq $6,%r14
rorq $19,%r15
xorq %r13,%r12
xorq %r14,%r15
addq 120(%rsp),%r12
addq 48(%rsp),%r12
movq %r10,%r13
addq %r15,%r12
movq %rcx,%r14
rorq $23,%r13
movq %r11,%r15
xorq %r10,%r13
rorq $5,%r14
xorq %rax,%r15
movq %r12,48(%rsp)
xorq %rcx,%r14
andq %r10,%r15
rorq $4,%r13
addq %rbx,%r12
xorq %rax,%r15
rorq $6,%r14
xorq %r10,%r13
addq %r15,%r12
movq %rcx,%r15
addq (%rbp),%r12
xorq %rcx,%r14
xorq %rdx,%r15
rorq $14,%r13
movq %rdx,%rbx
andq %r15,%rdi
rorq $28,%r14
addq %r13,%r12
xorq %rdi,%rbx
addq %r12,%r9
addq %r12,%rbx
leaq 8(%rbp),%rbp
movq 64(%rsp),%r13
movq 40(%rsp),%rdi
movq %r13,%r12
rorq $7,%r13
addq %r14,%rbx
movq %rdi,%r14
rorq $42,%rdi
xorq %r12,%r13
shrq $7,%r12
rorq $1,%r13
xorq %r14,%rdi
shrq $6,%r14
rorq $19,%rdi
xorq %r13,%r12
xorq %r14,%rdi
addq 0(%rsp),%r12
addq 56(%rsp),%r12
movq %r9,%r13
addq %rdi,%r12
movq %rbx,%r14
rorq $23,%r13
movq %r10,%rdi
xorq %r9,%r13
rorq $5,%r14
xorq %r11,%rdi
movq %r12,56(%rsp)
xorq %rbx,%r14
andq %r9,%rdi
rorq $4,%r13
addq %rax,%r12
xorq %r11,%rdi
rorq $6,%r14
xorq %r9,%r13
addq %rdi,%r12
movq %rbx,%rdi
addq (%rbp),%r12
xorq %rbx,%r14
xorq %rcx,%rdi
rorq $14,%r13
movq %rcx,%rax
andq %rdi,%r15
rorq $28,%r14
addq %r13,%r12
xorq %r15,%rax
addq %r12,%r8
addq %r12,%rax
leaq 24(%rbp),%rbp
movq 72(%rsp),%r13
movq 48(%rsp),%r15
movq %r13,%r12
rorq $7,%r13
addq %r14,%rax
movq %r15,%r14
rorq $42,%r15
xorq %r12,%r13
shrq $7,%r12
rorq $1,%r13
xorq %r14,%r15
shrq $6,%r14
rorq $19,%r15
xorq %r13,%r12
xorq %r14,%r15
addq 8(%rsp),%r12
addq 64(%rsp),%r12
movq %r8,%r13
addq %r15,%r12
movq %rax,%r14
rorq $23,%r13
movq %r9,%r15
xorq %r8,%r13
rorq $5,%r14
xorq %r10,%r15
movq %r12,64(%rsp)
xorq %rax,%r14
andq %r8,%r15
rorq $4,%r13
addq %r11,%r12
xorq %r10,%r15
rorq $6,%r14
xorq %r8,%r13
addq %r15,%r12
movq %rax,%r15
addq (%rbp),%r12
xorq %rax,%r14
xorq %rbx,%r15
rorq $14,%r13
movq %rbx,%r11
andq %r15,%rdi
rorq $28,%r14
addq %r13,%r12
xorq %rdi,%r11
addq %r12,%rdx
addq %r12,%r11
leaq 8(%rbp),%rbp
movq 80(%rsp),%r13
movq 56(%rsp),%rdi
movq %r13,%r12
rorq $7,%r13
addq %r14,%r11
movq %rdi,%r14
rorq $42,%rdi
xorq %r12,%r13
shrq $7,%r12
rorq $1,%r13
xorq %r14,%rdi
shrq $6,%r14
rorq $19,%rdi
xorq %r13,%r12
xorq %r14,%rdi
addq 16(%rsp),%r12
addq 72(%rsp),%r12
movq %rdx,%r13
addq %rdi,%r12
movq %r11,%r14
rorq $23,%r13
movq %r8,%rdi
xorq %rdx,%r13
rorq $5,%r14
xorq %r9,%rdi
movq %r12,72(%rsp)
xorq %r11,%r14
andq %rdx,%rdi
rorq $4,%r13
addq %r10,%r12
xorq %r9,%rdi
rorq $6,%r14
xorq %rdx,%r13
addq %rdi,%r12
movq %r11,%rdi
addq (%rbp),%r12
xorq %r11,%r14
xorq %rax,%rdi
rorq $14,%r13
movq %rax,%r10
andq %rdi,%r15
rorq $28,%r14
addq %r13,%r12
xorq %r15,%r10
addq %r12,%rcx
addq %r12,%r10
leaq 24(%rbp),%rbp
movq 88(%rsp),%r13
movq 64(%rsp),%r15
movq %r13,%r12
rorq $7,%r13
addq %r14,%r10
movq %r15,%r14
rorq $42,%r15
xorq %r12,%r13
shrq $7,%r12
rorq $1,%r13
xorq %r14,%r15
shrq $6,%r14
rorq $19,%r15
xorq %r13,%r12
xorq %r14,%r15
addq 24(%rsp),%r12
addq 80(%rsp),%r12
movq %rcx,%r13
addq %r15,%r12
movq %r10,%r14
rorq $23,%r13
movq %rdx,%r15
xorq %rcx,%r13
rorq $5,%r14
xorq %r8,%r15
movq %r12,80(%rsp)
xorq %r10,%r14
andq %rcx,%r15
rorq $4,%r13
addq %r9,%r12
xorq %r8,%r15
rorq $6,%r14
xorq %rcx,%r13
addq %r15,%r12
movq %r10,%r15
addq (%rbp),%r12
xorq %r10,%r14
xorq %r11,%r15
rorq $14,%r13
movq %r11,%r9
andq %r15,%rdi
rorq $28,%r14
addq %r13,%r12
xorq %rdi,%r9
addq %r12,%rbx
addq %r12,%r9
leaq 8(%rbp),%rbp
movq 96(%rsp),%r13
movq 72(%rsp),%rdi
movq %r13,%r12
rorq $7,%r13
addq %r14,%r9
movq %rdi,%r14
rorq $42,%rdi
xorq %r12,%r13
shrq $7,%r12
rorq $1,%r13
xorq %r14,%rdi
shrq $6,%r14
rorq $19,%rdi
xorq %r13,%r12
xorq %r14,%rdi
addq 32(%rsp),%r12
addq 88(%rsp),%r12
movq %rbx,%r13
addq %rdi,%r12
movq %r9,%r14
rorq $23,%r13
movq %rcx,%rdi
xorq %rbx,%r13
rorq $5,%r14
xorq %rdx,%rdi
movq %r12,88(%rsp)
xorq %r9,%r14
andq %rbx,%rdi
rorq $4,%r13
addq %r8,%r12
xorq %rdx,%rdi
rorq $6,%r14
xorq %rbx,%r13
addq %rdi,%r12
movq %r9,%rdi
addq (%rbp),%r12
xorq %r9,%r14
xorq %r10,%rdi
rorq $14,%r13
movq %r10,%r8
andq %rdi,%r15
rorq $28,%r14
addq %r13,%r12
xorq %r15,%r8
addq %r12,%rax
addq %r12,%r8
leaq 24(%rbp),%rbp
movq 104(%rsp),%r13
movq 80(%rsp),%r15
movq %r13,%r12
rorq $7,%r13
addq %r14,%r8
movq %r15,%r14
rorq $42,%r15
xorq %r12,%r13
shrq $7,%r12
rorq $1,%r13
xorq %r14,%r15
shrq $6,%r14
rorq $19,%r15
xorq %r13,%r12
xorq %r14,%r15
addq 40(%rsp),%r12
addq 96(%rsp),%r12
movq %rax,%r13
addq %r15,%r12
movq %r8,%r14
rorq $23,%r13
movq %rbx,%r15
xorq %rax,%r13
rorq $5,%r14
xorq %rcx,%r15
movq %r12,96(%rsp)
xorq %r8,%r14
andq %rax,%r15
rorq $4,%r13
addq %rdx,%r12
xorq %rcx,%r15
rorq $6,%r14
xorq %rax,%r13
addq %r15,%r12
movq %r8,%r15
addq (%rbp),%r12
xorq %r8,%r14
xorq %r9,%r15
rorq $14,%r13
movq %r9,%rdx
andq %r15,%rdi
rorq $28,%r14
addq %r13,%r12
xorq %rdi,%rdx
addq %r12,%r11
addq %r12,%rdx
leaq 8(%rbp),%rbp
movq 112(%rsp),%r13
movq 88(%rsp),%rdi
movq %r13,%r12
rorq $7,%r13
addq %r14,%rdx
movq %rdi,%r14
rorq $42,%rdi
xorq %r12,%r13
shrq $7,%r12
rorq $1,%r13
xorq %r14,%rdi
shrq $6,%r14
rorq $19,%rdi
xorq %r13,%r12
xorq %r14,%rdi
addq 48(%rsp),%r12
addq 104(%rsp),%r12
movq %r11,%r13
addq %rdi,%r12
movq %rdx,%r14
rorq $23,%r13
movq %rax,%rdi
xorq %r11,%r13
rorq $5,%r14
xorq %rbx,%rdi
movq %r12,104(%rsp)
xorq %rdx,%r14
andq %r11,%rdi
rorq $4,%r13
addq %rcx,%r12
xorq %rbx,%rdi
rorq $6,%r14
xorq %r11,%r13
addq %rdi,%r12
movq %rdx,%rdi
addq (%rbp),%r12
xorq %rdx,%r14
xorq %r8,%rdi
rorq $14,%r13
movq %r8,%rcx
andq %rdi,%r15
rorq $28,%r14
addq %r13,%r12
xorq %r15,%rcx
addq %r12,%r10
addq %r12,%rcx
leaq 24(%rbp),%rbp
movq 120(%rsp),%r13
movq 96(%rsp),%r15
movq %r13,%r12
rorq $7,%r13
addq %r14,%rcx
movq %r15,%r14
rorq $42,%r15
xorq %r12,%r13
shrq $7,%r12
rorq $1,%r13
xorq %r14,%r15
shrq $6,%r14
rorq $19,%r15
xorq %r13,%r12
xorq %r14,%r15
addq 56(%rsp),%r12
addq 112(%rsp),%r12
movq %r10,%r13
addq %r15,%r12
movq %rcx,%r14
rorq $23,%r13
movq %r11,%r15
xorq %r10,%r13
rorq $5,%r14
xorq %rax,%r15
movq %r12,112(%rsp)
xorq %rcx,%r14
andq %r10,%r15
rorq $4,%r13
addq %rbx,%r12
xorq %rax,%r15
rorq $6,%r14
xorq %r10,%r13
addq %r15,%r12
movq %rcx,%r15
addq (%rbp),%r12
xorq %rcx,%r14
xorq %rdx,%r15
rorq $14,%r13
movq %rdx,%rbx
andq %r15,%rdi
rorq $28,%r14
addq %r13,%r12
xorq %rdi,%rbx
addq %r12,%r9
addq %r12,%rbx
leaq 8(%rbp),%rbp
movq 0(%rsp),%r13
movq 104(%rsp),%rdi
movq %r13,%r12
rorq $7,%r13
addq %r14,%rbx
movq %rdi,%r14
rorq $42,%rdi
xorq %r12,%r13
shrq $7,%r12
rorq $1,%r13
xorq %r14,%rdi
shrq $6,%r14
rorq $19,%rdi
xorq %r13,%r12
xorq %r14,%rdi
addq 64(%rsp),%r12
addq 120(%rsp),%r12
movq %r9,%r13
addq %rdi,%r12
movq %rbx,%r14
rorq $23,%r13
movq %r10,%rdi
xorq %r9,%r13
rorq $5,%r14
xorq %r11,%rdi
movq %r12,120(%rsp)
xorq %rbx,%r14
andq %r9,%rdi
rorq $4,%r13
addq %rax,%r12
xorq %r11,%rdi
rorq $6,%r14
xorq %r9,%r13
addq %rdi,%r12
movq %rbx,%rdi
addq (%rbp),%r12
xorq %rbx,%r14
xorq %rcx,%rdi
rorq $14,%r13
movq %rcx,%rax
andq %rdi,%r15
rorq $28,%r14
addq %r13,%r12
xorq %r15,%rax
addq %r12,%r8
addq %r12,%rax
leaq 24(%rbp),%rbp
cmpb $0,7(%rbp)
jnz .Lrounds_16_xx
movq 128+0(%rsp),%rdi
addq %r14,%rax
leaq 128(%rsi),%rsi
addq 0(%rdi),%rax
addq 8(%rdi),%rbx
addq 16(%rdi),%rcx
addq 24(%rdi),%rdx
addq 32(%rdi),%r8
addq 40(%rdi),%r9
addq 48(%rdi),%r10
addq 56(%rdi),%r11
cmpq 128+16(%rsp),%rsi
movq %rax,0(%rdi)
movq %rbx,8(%rdi)
movq %rcx,16(%rdi)
movq %rdx,24(%rdi)
movq %r8,32(%rdi)
movq %r9,40(%rdi)
movq %r10,48(%rdi)
movq %r11,56(%rdi)
jb .Lloop
movq 152(%rsp),%rsi
.cfi_def_cfa %rsi,8
movq -48(%rsi),%r15
.cfi_restore %r15
movq -40(%rsi),%r14
.cfi_restore %r14
movq -32(%rsi),%r13
.cfi_restore %r13
movq -24(%rsi),%r12
.cfi_restore %r12
movq -16(%rsi),%rbp
.cfi_restore %rbp
movq -8(%rsi),%rbx
.cfi_restore %rbx
leaq (%rsi),%rsp
.cfi_def_cfa_register %rsp
.Lepilogue:
RET
.cfi_endproc
SET_SIZE(zfs_sha512_transform_x64)
ENTRY_ALIGN(zfs_sha512_transform_avx, 64)
.cfi_startproc
ENDBR
movq %rsp,%rax
.cfi_def_cfa_register %rax
pushq %rbx
.cfi_offset %rbx,-16
pushq %rbp
.cfi_offset %rbp,-24
pushq %r12
.cfi_offset %r12,-32
pushq %r13
.cfi_offset %r13,-40
pushq %r14
.cfi_offset %r14,-48
pushq %r15
.cfi_offset %r15,-56
shlq $4,%rdx
subq $160,%rsp
leaq (%rsi,%rdx,8),%rdx
andq $-64,%rsp
movq %rdi,128+0(%rsp)
movq %rsi,128+8(%rsp)
movq %rdx,128+16(%rsp)
movq %rax,152(%rsp)
.cfi_escape 0x0f,0x06,0x77,0x98,0x01,0x06,0x23,0x08
.Lprologue_avx:
vzeroupper
movq 0(%rdi),%rax
movq 8(%rdi),%rbx
movq 16(%rdi),%rcx
movq 24(%rdi),%rdx
movq 32(%rdi),%r8
movq 40(%rdi),%r9
movq 48(%rdi),%r10
movq 56(%rdi),%r11
jmp .Lloop_avx
.balign 16
.Lloop_avx:
vmovdqa K512+1280(%rip),%xmm11
vmovdqu 0(%rsi),%xmm0
leaq K512+128(%rip),%rbp
vmovdqu 16(%rsi),%xmm1
vmovdqu 32(%rsi),%xmm2
vpshufb %xmm11,%xmm0,%xmm0
vmovdqu 48(%rsi),%xmm3
vpshufb %xmm11,%xmm1,%xmm1
vmovdqu 64(%rsi),%xmm4
vpshufb %xmm11,%xmm2,%xmm2
vmovdqu 80(%rsi),%xmm5
vpshufb %xmm11,%xmm3,%xmm3
vmovdqu 96(%rsi),%xmm6
vpshufb %xmm11,%xmm4,%xmm4
vmovdqu 112(%rsi),%xmm7
vpshufb %xmm11,%xmm5,%xmm5
vpaddq -128(%rbp),%xmm0,%xmm8
vpshufb %xmm11,%xmm6,%xmm6
vpaddq -96(%rbp),%xmm1,%xmm9
vpshufb %xmm11,%xmm7,%xmm7
vpaddq -64(%rbp),%xmm2,%xmm10
vpaddq -32(%rbp),%xmm3,%xmm11
vmovdqa %xmm8,0(%rsp)
vpaddq 0(%rbp),%xmm4,%xmm8
vmovdqa %xmm9,16(%rsp)
vpaddq 32(%rbp),%xmm5,%xmm9
vmovdqa %xmm10,32(%rsp)
vpaddq 64(%rbp),%xmm6,%xmm10
vmovdqa %xmm11,48(%rsp)
vpaddq 96(%rbp),%xmm7,%xmm11
vmovdqa %xmm8,64(%rsp)
movq %rax,%r14
vmovdqa %xmm9,80(%rsp)
movq %rbx,%rdi
vmovdqa %xmm10,96(%rsp)
xorq %rcx,%rdi
vmovdqa %xmm11,112(%rsp)
movq %r8,%r13
jmp .Lavx_00_47
.balign 16
.Lavx_00_47:
addq $256,%rbp
vpalignr $8,%xmm0,%xmm1,%xmm8
shrdq $23,%r13,%r13
movq %r14,%rax
vpalignr $8,%xmm4,%xmm5,%xmm11
movq %r9,%r12
shrdq $5,%r14,%r14
vpsrlq $1,%xmm8,%xmm10
xorq %r8,%r13
xorq %r10,%r12
vpaddq %xmm11,%xmm0,%xmm0
shrdq $4,%r13,%r13
xorq %rax,%r14
vpsrlq $7,%xmm8,%xmm11
andq %r8,%r12
xorq %r8,%r13
vpsllq $56,%xmm8,%xmm9
addq 0(%rsp),%r11
movq %rax,%r15
vpxor %xmm10,%xmm11,%xmm8
xorq %r10,%r12
shrdq $6,%r14,%r14
vpsrlq $7,%xmm10,%xmm10
xorq %rbx,%r15
addq %r12,%r11
vpxor %xmm9,%xmm8,%xmm8
shrdq $14,%r13,%r13
andq %r15,%rdi
vpsllq $7,%xmm9,%xmm9
xorq %rax,%r14
addq %r13,%r11
vpxor %xmm10,%xmm8,%xmm8
xorq %rbx,%rdi
shrdq $28,%r14,%r14
vpsrlq $6,%xmm7,%xmm11
addq %r11,%rdx
addq %rdi,%r11
vpxor %xmm9,%xmm8,%xmm8
movq %rdx,%r13
addq %r11,%r14
vpsllq $3,%xmm7,%xmm10
shrdq $23,%r13,%r13
movq %r14,%r11
vpaddq %xmm8,%xmm0,%xmm0
movq %r8,%r12
shrdq $5,%r14,%r14
vpsrlq $19,%xmm7,%xmm9
xorq %rdx,%r13
xorq %r9,%r12
vpxor %xmm10,%xmm11,%xmm11
shrdq $4,%r13,%r13
xorq %r11,%r14
vpsllq $42,%xmm10,%xmm10
andq %rdx,%r12
xorq %rdx,%r13
vpxor %xmm9,%xmm11,%xmm11
addq 8(%rsp),%r10
movq %r11,%rdi
vpsrlq $42,%xmm9,%xmm9
xorq %r9,%r12
shrdq $6,%r14,%r14
vpxor %xmm10,%xmm11,%xmm11
xorq %rax,%rdi
addq %r12,%r10
vpxor %xmm9,%xmm11,%xmm11
shrdq $14,%r13,%r13
andq %rdi,%r15
vpaddq %xmm11,%xmm0,%xmm0
xorq %r11,%r14
addq %r13,%r10
vpaddq -128(%rbp),%xmm0,%xmm10
xorq %rax,%r15
shrdq $28,%r14,%r14
addq %r10,%rcx
addq %r15,%r10
movq %rcx,%r13
addq %r10,%r14
vmovdqa %xmm10,0(%rsp)
vpalignr $8,%xmm1,%xmm2,%xmm8
shrdq $23,%r13,%r13
movq %r14,%r10
vpalignr $8,%xmm5,%xmm6,%xmm11
movq %rdx,%r12
shrdq $5,%r14,%r14
vpsrlq $1,%xmm8,%xmm10
xorq %rcx,%r13
xorq %r8,%r12
vpaddq %xmm11,%xmm1,%xmm1
shrdq $4,%r13,%r13
xorq %r10,%r14
vpsrlq $7,%xmm8,%xmm11
andq %rcx,%r12
xorq %rcx,%r13
vpsllq $56,%xmm8,%xmm9
addq 16(%rsp),%r9
movq %r10,%r15
vpxor %xmm10,%xmm11,%xmm8
xorq %r8,%r12
shrdq $6,%r14,%r14
vpsrlq $7,%xmm10,%xmm10
xorq %r11,%r15
addq %r12,%r9
vpxor %xmm9,%xmm8,%xmm8
shrdq $14,%r13,%r13
andq %r15,%rdi
vpsllq $7,%xmm9,%xmm9
xorq %r10,%r14
addq %r13,%r9
vpxor %xmm10,%xmm8,%xmm8
xorq %r11,%rdi
shrdq $28,%r14,%r14
vpsrlq $6,%xmm0,%xmm11
addq %r9,%rbx
addq %rdi,%r9
vpxor %xmm9,%xmm8,%xmm8
movq %rbx,%r13
addq %r9,%r14
vpsllq $3,%xmm0,%xmm10
shrdq $23,%r13,%r13
movq %r14,%r9
vpaddq %xmm8,%xmm1,%xmm1
movq %rcx,%r12
shrdq $5,%r14,%r14
vpsrlq $19,%xmm0,%xmm9
xorq %rbx,%r13
xorq %rdx,%r12
vpxor %xmm10,%xmm11,%xmm11
shrdq $4,%r13,%r13
xorq %r9,%r14
vpsllq $42,%xmm10,%xmm10
andq %rbx,%r12
xorq %rbx,%r13
vpxor %xmm9,%xmm11,%xmm11
addq 24(%rsp),%r8
movq %r9,%rdi
vpsrlq $42,%xmm9,%xmm9
xorq %rdx,%r12
shrdq $6,%r14,%r14
vpxor %xmm10,%xmm11,%xmm11
xorq %r10,%rdi
addq %r12,%r8
vpxor %xmm9,%xmm11,%xmm11
shrdq $14,%r13,%r13
andq %rdi,%r15
vpaddq %xmm11,%xmm1,%xmm1
xorq %r9,%r14
addq %r13,%r8
vpaddq -96(%rbp),%xmm1,%xmm10
xorq %r10,%r15
shrdq $28,%r14,%r14
addq %r8,%rax
addq %r15,%r8
movq %rax,%r13
addq %r8,%r14
vmovdqa %xmm10,16(%rsp)
vpalignr $8,%xmm2,%xmm3,%xmm8
shrdq $23,%r13,%r13
movq %r14,%r8
vpalignr $8,%xmm6,%xmm7,%xmm11
movq %rbx,%r12
shrdq $5,%r14,%r14
vpsrlq $1,%xmm8,%xmm10
xorq %rax,%r13
xorq %rcx,%r12
vpaddq %xmm11,%xmm2,%xmm2
shrdq $4,%r13,%r13
xorq %r8,%r14
vpsrlq $7,%xmm8,%xmm11
andq %rax,%r12
xorq %rax,%r13
vpsllq $56,%xmm8,%xmm9
addq 32(%rsp),%rdx
movq %r8,%r15
vpxor %xmm10,%xmm11,%xmm8
xorq %rcx,%r12
shrdq $6,%r14,%r14
vpsrlq $7,%xmm10,%xmm10
xorq %r9,%r15
addq %r12,%rdx
vpxor %xmm9,%xmm8,%xmm8
shrdq $14,%r13,%r13
andq %r15,%rdi
vpsllq $7,%xmm9,%xmm9
xorq %r8,%r14
addq %r13,%rdx
vpxor %xmm10,%xmm8,%xmm8
xorq %r9,%rdi
shrdq $28,%r14,%r14
vpsrlq $6,%xmm1,%xmm11
addq %rdx,%r11
addq %rdi,%rdx
vpxor %xmm9,%xmm8,%xmm8
movq %r11,%r13
addq %rdx,%r14
vpsllq $3,%xmm1,%xmm10
shrdq $23,%r13,%r13
movq %r14,%rdx
vpaddq %xmm8,%xmm2,%xmm2
movq %rax,%r12
shrdq $5,%r14,%r14
vpsrlq $19,%xmm1,%xmm9
xorq %r11,%r13
xorq %rbx,%r12
vpxor %xmm10,%xmm11,%xmm11
shrdq $4,%r13,%r13
xorq %rdx,%r14
vpsllq $42,%xmm10,%xmm10
andq %r11,%r12
xorq %r11,%r13
vpxor %xmm9,%xmm11,%xmm11
addq 40(%rsp),%rcx
movq %rdx,%rdi
vpsrlq $42,%xmm9,%xmm9
xorq %rbx,%r12
shrdq $6,%r14,%r14
vpxor %xmm10,%xmm11,%xmm11
xorq %r8,%rdi
addq %r12,%rcx
vpxor %xmm9,%xmm11,%xmm11
shrdq $14,%r13,%r13
andq %rdi,%r15
vpaddq %xmm11,%xmm2,%xmm2
xorq %rdx,%r14
addq %r13,%rcx
vpaddq -64(%rbp),%xmm2,%xmm10
xorq %r8,%r15
shrdq $28,%r14,%r14
addq %rcx,%r10
addq %r15,%rcx
movq %r10,%r13
addq %rcx,%r14
vmovdqa %xmm10,32(%rsp)
vpalignr $8,%xmm3,%xmm4,%xmm8
shrdq $23,%r13,%r13
movq %r14,%rcx
vpalignr $8,%xmm7,%xmm0,%xmm11
movq %r11,%r12
shrdq $5,%r14,%r14
vpsrlq $1,%xmm8,%xmm10
xorq %r10,%r13
xorq %rax,%r12
vpaddq %xmm11,%xmm3,%xmm3
shrdq $4,%r13,%r13
xorq %rcx,%r14
vpsrlq $7,%xmm8,%xmm11
andq %r10,%r12
xorq %r10,%r13
vpsllq $56,%xmm8,%xmm9
addq 48(%rsp),%rbx
movq %rcx,%r15
vpxor %xmm10,%xmm11,%xmm8
xorq %rax,%r12
shrdq $6,%r14,%r14
vpsrlq $7,%xmm10,%xmm10
xorq %rdx,%r15
addq %r12,%rbx
vpxor %xmm9,%xmm8,%xmm8
shrdq $14,%r13,%r13
andq %r15,%rdi
vpsllq $7,%xmm9,%xmm9
xorq %rcx,%r14
addq %r13,%rbx
vpxor %xmm10,%xmm8,%xmm8
xorq %rdx,%rdi
shrdq $28,%r14,%r14
vpsrlq $6,%xmm2,%xmm11
addq %rbx,%r9
addq %rdi,%rbx
vpxor %xmm9,%xmm8,%xmm8
movq %r9,%r13
addq %rbx,%r14
vpsllq $3,%xmm2,%xmm10
shrdq $23,%r13,%r13
movq %r14,%rbx
vpaddq %xmm8,%xmm3,%xmm3
movq %r10,%r12
shrdq $5,%r14,%r14
vpsrlq $19,%xmm2,%xmm9
xorq %r9,%r13
xorq %r11,%r12
vpxor %xmm10,%xmm11,%xmm11
shrdq $4,%r13,%r13
xorq %rbx,%r14
vpsllq $42,%xmm10,%xmm10
andq %r9,%r12
xorq %r9,%r13
vpxor %xmm9,%xmm11,%xmm11
addq 56(%rsp),%rax
movq %rbx,%rdi
vpsrlq $42,%xmm9,%xmm9
xorq %r11,%r12
shrdq $6,%r14,%r14
vpxor %xmm10,%xmm11,%xmm11
xorq %rcx,%rdi
addq %r12,%rax
vpxor %xmm9,%xmm11,%xmm11
shrdq $14,%r13,%r13
andq %rdi,%r15
vpaddq %xmm11,%xmm3,%xmm3
xorq %rbx,%r14
addq %r13,%rax
vpaddq -32(%rbp),%xmm3,%xmm10
xorq %rcx,%r15
shrdq $28,%r14,%r14
addq %rax,%r8
addq %r15,%rax
movq %r8,%r13
addq %rax,%r14
vmovdqa %xmm10,48(%rsp)
vpalignr $8,%xmm4,%xmm5,%xmm8
shrdq $23,%r13,%r13
movq %r14,%rax
vpalignr $8,%xmm0,%xmm1,%xmm11
movq %r9,%r12
shrdq $5,%r14,%r14
vpsrlq $1,%xmm8,%xmm10
xorq %r8,%r13
xorq %r10,%r12
vpaddq %xmm11,%xmm4,%xmm4
shrdq $4,%r13,%r13
xorq %rax,%r14
vpsrlq $7,%xmm8,%xmm11
andq %r8,%r12
xorq %r8,%r13
vpsllq $56,%xmm8,%xmm9
addq 64(%rsp),%r11
movq %rax,%r15
vpxor %xmm10,%xmm11,%xmm8
xorq %r10,%r12
shrdq $6,%r14,%r14
vpsrlq $7,%xmm10,%xmm10
xorq %rbx,%r15
addq %r12,%r11
vpxor %xmm9,%xmm8,%xmm8
shrdq $14,%r13,%r13
andq %r15,%rdi
vpsllq $7,%xmm9,%xmm9
xorq %rax,%r14
addq %r13,%r11
vpxor %xmm10,%xmm8,%xmm8
xorq %rbx,%rdi
shrdq $28,%r14,%r14
vpsrlq $6,%xmm3,%xmm11
addq %r11,%rdx
addq %rdi,%r11
vpxor %xmm9,%xmm8,%xmm8
movq %rdx,%r13
addq %r11,%r14
vpsllq $3,%xmm3,%xmm10
shrdq $23,%r13,%r13
movq %r14,%r11
vpaddq %xmm8,%xmm4,%xmm4
movq %r8,%r12
shrdq $5,%r14,%r14
vpsrlq $19,%xmm3,%xmm9
xorq %rdx,%r13
xorq %r9,%r12
vpxor %xmm10,%xmm11,%xmm11
shrdq $4,%r13,%r13
xorq %r11,%r14
vpsllq $42,%xmm10,%xmm10
andq %rdx,%r12
xorq %rdx,%r13
vpxor %xmm9,%xmm11,%xmm11
addq 72(%rsp),%r10
movq %r11,%rdi
vpsrlq $42,%xmm9,%xmm9
xorq %r9,%r12
shrdq $6,%r14,%r14
vpxor %xmm10,%xmm11,%xmm11
xorq %rax,%rdi
addq %r12,%r10
vpxor %xmm9,%xmm11,%xmm11
shrdq $14,%r13,%r13
andq %rdi,%r15
vpaddq %xmm11,%xmm4,%xmm4
xorq %r11,%r14
addq %r13,%r10
vpaddq 0(%rbp),%xmm4,%xmm10
xorq %rax,%r15
shrdq $28,%r14,%r14
addq %r10,%rcx
addq %r15,%r10
movq %rcx,%r13
addq %r10,%r14
vmovdqa %xmm10,64(%rsp)
vpalignr $8,%xmm5,%xmm6,%xmm8
shrdq $23,%r13,%r13
movq %r14,%r10
vpalignr $8,%xmm1,%xmm2,%xmm11
movq %rdx,%r12
shrdq $5,%r14,%r14
vpsrlq $1,%xmm8,%xmm10
xorq %rcx,%r13
xorq %r8,%r12
vpaddq %xmm11,%xmm5,%xmm5
shrdq $4,%r13,%r13
xorq %r10,%r14
vpsrlq $7,%xmm8,%xmm11
andq %rcx,%r12
xorq %rcx,%r13
vpsllq $56,%xmm8,%xmm9
addq 80(%rsp),%r9
movq %r10,%r15
vpxor %xmm10,%xmm11,%xmm8
xorq %r8,%r12
shrdq $6,%r14,%r14
vpsrlq $7,%xmm10,%xmm10
xorq %r11,%r15
addq %r12,%r9
vpxor %xmm9,%xmm8,%xmm8
shrdq $14,%r13,%r13
andq %r15,%rdi
vpsllq $7,%xmm9,%xmm9
xorq %r10,%r14
addq %r13,%r9
vpxor %xmm10,%xmm8,%xmm8
xorq %r11,%rdi
shrdq $28,%r14,%r14
vpsrlq $6,%xmm4,%xmm11
addq %r9,%rbx
addq %rdi,%r9
vpxor %xmm9,%xmm8,%xmm8
movq %rbx,%r13
addq %r9,%r14
vpsllq $3,%xmm4,%xmm10
shrdq $23,%r13,%r13
movq %r14,%r9
vpaddq %xmm8,%xmm5,%xmm5
movq %rcx,%r12
shrdq $5,%r14,%r14
vpsrlq $19,%xmm4,%xmm9
xorq %rbx,%r13
xorq %rdx,%r12
vpxor %xmm10,%xmm11,%xmm11
shrdq $4,%r13,%r13
xorq %r9,%r14
vpsllq $42,%xmm10,%xmm10
andq %rbx,%r12
xorq %rbx,%r13
vpxor %xmm9,%xmm11,%xmm11
addq 88(%rsp),%r8
movq %r9,%rdi
vpsrlq $42,%xmm9,%xmm9
xorq %rdx,%r12
shrdq $6,%r14,%r14
vpxor %xmm10,%xmm11,%xmm11
xorq %r10,%rdi
addq %r12,%r8
vpxor %xmm9,%xmm11,%xmm11
shrdq $14,%r13,%r13
andq %rdi,%r15
vpaddq %xmm11,%xmm5,%xmm5
xorq %r9,%r14
addq %r13,%r8
vpaddq 32(%rbp),%xmm5,%xmm10
xorq %r10,%r15
shrdq $28,%r14,%r14
addq %r8,%rax
addq %r15,%r8
movq %rax,%r13
addq %r8,%r14
vmovdqa %xmm10,80(%rsp)
vpalignr $8,%xmm6,%xmm7,%xmm8
shrdq $23,%r13,%r13
movq %r14,%r8
vpalignr $8,%xmm2,%xmm3,%xmm11
movq %rbx,%r12
shrdq $5,%r14,%r14
vpsrlq $1,%xmm8,%xmm10
xorq %rax,%r13
xorq %rcx,%r12
vpaddq %xmm11,%xmm6,%xmm6
shrdq $4,%r13,%r13
xorq %r8,%r14
vpsrlq $7,%xmm8,%xmm11
andq %rax,%r12
xorq %rax,%r13
vpsllq $56,%xmm8,%xmm9
addq 96(%rsp),%rdx
movq %r8,%r15
vpxor %xmm10,%xmm11,%xmm8
xorq %rcx,%r12
shrdq $6,%r14,%r14
vpsrlq $7,%xmm10,%xmm10
xorq %r9,%r15
addq %r12,%rdx
vpxor %xmm9,%xmm8,%xmm8
shrdq $14,%r13,%r13
andq %r15,%rdi
vpsllq $7,%xmm9,%xmm9
xorq %r8,%r14
addq %r13,%rdx
vpxor %xmm10,%xmm8,%xmm8
xorq %r9,%rdi
shrdq $28,%r14,%r14
vpsrlq $6,%xmm5,%xmm11
addq %rdx,%r11
addq %rdi,%rdx
vpxor %xmm9,%xmm8,%xmm8
movq %r11,%r13
addq %rdx,%r14
vpsllq $3,%xmm5,%xmm10
shrdq $23,%r13,%r13
movq %r14,%rdx
vpaddq %xmm8,%xmm6,%xmm6
movq %rax,%r12
shrdq $5,%r14,%r14
vpsrlq $19,%xmm5,%xmm9
xorq %r11,%r13
xorq %rbx,%r12
vpxor %xmm10,%xmm11,%xmm11
shrdq $4,%r13,%r13
xorq %rdx,%r14
vpsllq $42,%xmm10,%xmm10
andq %r11,%r12
xorq %r11,%r13
vpxor %xmm9,%xmm11,%xmm11
addq 104(%rsp),%rcx
movq %rdx,%rdi
vpsrlq $42,%xmm9,%xmm9
xorq %rbx,%r12
shrdq $6,%r14,%r14
vpxor %xmm10,%xmm11,%xmm11
xorq %r8,%rdi
addq %r12,%rcx
vpxor %xmm9,%xmm11,%xmm11
shrdq $14,%r13,%r13
andq %rdi,%r15
vpaddq %xmm11,%xmm6,%xmm6
xorq %rdx,%r14
addq %r13,%rcx
vpaddq 64(%rbp),%xmm6,%xmm10
xorq %r8,%r15
shrdq $28,%r14,%r14
addq %rcx,%r10
addq %r15,%rcx
movq %r10,%r13
addq %rcx,%r14
vmovdqa %xmm10,96(%rsp)
vpalignr $8,%xmm7,%xmm0,%xmm8
shrdq $23,%r13,%r13
movq %r14,%rcx
vpalignr $8,%xmm3,%xmm4,%xmm11
movq %r11,%r12
shrdq $5,%r14,%r14
vpsrlq $1,%xmm8,%xmm10
xorq %r10,%r13
xorq %rax,%r12
vpaddq %xmm11,%xmm7,%xmm7
shrdq $4,%r13,%r13
xorq %rcx,%r14
vpsrlq $7,%xmm8,%xmm11
andq %r10,%r12
xorq %r10,%r13
vpsllq $56,%xmm8,%xmm9
addq 112(%rsp),%rbx
movq %rcx,%r15
vpxor %xmm10,%xmm11,%xmm8
xorq %rax,%r12
shrdq $6,%r14,%r14
vpsrlq $7,%xmm10,%xmm10
xorq %rdx,%r15
addq %r12,%rbx
vpxor %xmm9,%xmm8,%xmm8
shrdq $14,%r13,%r13
andq %r15,%rdi
vpsllq $7,%xmm9,%xmm9
xorq %rcx,%r14
addq %r13,%rbx
vpxor %xmm10,%xmm8,%xmm8
xorq %rdx,%rdi
shrdq $28,%r14,%r14
vpsrlq $6,%xmm6,%xmm11
addq %rbx,%r9
addq %rdi,%rbx
vpxor %xmm9,%xmm8,%xmm8
movq %r9,%r13
addq %rbx,%r14
vpsllq $3,%xmm6,%xmm10
shrdq $23,%r13,%r13
movq %r14,%rbx
vpaddq %xmm8,%xmm7,%xmm7
movq %r10,%r12
shrdq $5,%r14,%r14
vpsrlq $19,%xmm6,%xmm9
xorq %r9,%r13
xorq %r11,%r12
vpxor %xmm10,%xmm11,%xmm11
shrdq $4,%r13,%r13
xorq %rbx,%r14
vpsllq $42,%xmm10,%xmm10
andq %r9,%r12
xorq %r9,%r13
vpxor %xmm9,%xmm11,%xmm11
addq 120(%rsp),%rax
movq %rbx,%rdi
vpsrlq $42,%xmm9,%xmm9
xorq %r11,%r12
shrdq $6,%r14,%r14
vpxor %xmm10,%xmm11,%xmm11
xorq %rcx,%rdi
addq %r12,%rax
vpxor %xmm9,%xmm11,%xmm11
shrdq $14,%r13,%r13
andq %rdi,%r15
vpaddq %xmm11,%xmm7,%xmm7
xorq %rbx,%r14
addq %r13,%rax
vpaddq 96(%rbp),%xmm7,%xmm10
xorq %rcx,%r15
shrdq $28,%r14,%r14
addq %rax,%r8
addq %r15,%rax
movq %r8,%r13
addq %rax,%r14
vmovdqa %xmm10,112(%rsp)
cmpb $0,135(%rbp)
jne .Lavx_00_47
shrdq $23,%r13,%r13
movq %r14,%rax
movq %r9,%r12
shrdq $5,%r14,%r14
xorq %r8,%r13
xorq %r10,%r12
shrdq $4,%r13,%r13
xorq %rax,%r14
andq %r8,%r12
xorq %r8,%r13
addq 0(%rsp),%r11
movq %rax,%r15
xorq %r10,%r12
shrdq $6,%r14,%r14
xorq %rbx,%r15
addq %r12,%r11
shrdq $14,%r13,%r13
andq %r15,%rdi
xorq %rax,%r14
addq %r13,%r11
xorq %rbx,%rdi
shrdq $28,%r14,%r14
addq %r11,%rdx
addq %rdi,%r11
movq %rdx,%r13
addq %r11,%r14
shrdq $23,%r13,%r13
movq %r14,%r11
movq %r8,%r12
shrdq $5,%r14,%r14
xorq %rdx,%r13
xorq %r9,%r12
shrdq $4,%r13,%r13
xorq %r11,%r14
andq %rdx,%r12
xorq %rdx,%r13
addq 8(%rsp),%r10
movq %r11,%rdi
xorq %r9,%r12
shrdq $6,%r14,%r14
xorq %rax,%rdi
addq %r12,%r10
shrdq $14,%r13,%r13
andq %rdi,%r15
xorq %r11,%r14
addq %r13,%r10
xorq %rax,%r15
shrdq $28,%r14,%r14
addq %r10,%rcx
addq %r15,%r10
movq %rcx,%r13
addq %r10,%r14
shrdq $23,%r13,%r13
movq %r14,%r10
movq %rdx,%r12
shrdq $5,%r14,%r14
xorq %rcx,%r13
xorq %r8,%r12
shrdq $4,%r13,%r13
xorq %r10,%r14
andq %rcx,%r12
xorq %rcx,%r13
addq 16(%rsp),%r9
movq %r10,%r15
xorq %r8,%r12
shrdq $6,%r14,%r14
xorq %r11,%r15
addq %r12,%r9
shrdq $14,%r13,%r13
andq %r15,%rdi
xorq %r10,%r14
addq %r13,%r9
xorq %r11,%rdi
shrdq $28,%r14,%r14
addq %r9,%rbx
addq %rdi,%r9
movq %rbx,%r13
addq %r9,%r14
shrdq $23,%r13,%r13
movq %r14,%r9
movq %rcx,%r12
shrdq $5,%r14,%r14
xorq %rbx,%r13
xorq %rdx,%r12
shrdq $4,%r13,%r13
xorq %r9,%r14
andq %rbx,%r12
xorq %rbx,%r13
addq 24(%rsp),%r8
movq %r9,%rdi
xorq %rdx,%r12
shrdq $6,%r14,%r14
xorq %r10,%rdi
addq %r12,%r8
shrdq $14,%r13,%r13
andq %rdi,%r15
xorq %r9,%r14
addq %r13,%r8
xorq %r10,%r15
shrdq $28,%r14,%r14
addq %r8,%rax
addq %r15,%r8
movq %rax,%r13
addq %r8,%r14
shrdq $23,%r13,%r13
movq %r14,%r8
movq %rbx,%r12
shrdq $5,%r14,%r14
xorq %rax,%r13
xorq %rcx,%r12
shrdq $4,%r13,%r13
xorq %r8,%r14
andq %rax,%r12
xorq %rax,%r13
addq 32(%rsp),%rdx
movq %r8,%r15
xorq %rcx,%r12
shrdq $6,%r14,%r14
xorq %r9,%r15
addq %r12,%rdx
shrdq $14,%r13,%r13
andq %r15,%rdi
xorq %r8,%r14
addq %r13,%rdx
xorq %r9,%rdi
shrdq $28,%r14,%r14
addq %rdx,%r11
addq %rdi,%rdx
movq %r11,%r13
addq %rdx,%r14
shrdq $23,%r13,%r13
movq %r14,%rdx
movq %rax,%r12
shrdq $5,%r14,%r14
xorq %r11,%r13
xorq %rbx,%r12
shrdq $4,%r13,%r13
xorq %rdx,%r14
andq %r11,%r12
xorq %r11,%r13
addq 40(%rsp),%rcx
movq %rdx,%rdi
xorq %rbx,%r12
shrdq $6,%r14,%r14
xorq %r8,%rdi
addq %r12,%rcx
shrdq $14,%r13,%r13
andq %rdi,%r15
xorq %rdx,%r14
addq %r13,%rcx
xorq %r8,%r15
shrdq $28,%r14,%r14
addq %rcx,%r10
addq %r15,%rcx
movq %r10,%r13
addq %rcx,%r14
shrdq $23,%r13,%r13
movq %r14,%rcx
movq %r11,%r12
shrdq $5,%r14,%r14
xorq %r10,%r13
xorq %rax,%r12
shrdq $4,%r13,%r13
xorq %rcx,%r14
andq %r10,%r12
xorq %r10,%r13
addq 48(%rsp),%rbx
movq %rcx,%r15
xorq %rax,%r12
shrdq $6,%r14,%r14
xorq %rdx,%r15
addq %r12,%rbx
shrdq $14,%r13,%r13
andq %r15,%rdi
xorq %rcx,%r14
addq %r13,%rbx
xorq %rdx,%rdi
shrdq $28,%r14,%r14
addq %rbx,%r9
addq %rdi,%rbx
movq %r9,%r13
addq %rbx,%r14
shrdq $23,%r13,%r13
movq %r14,%rbx
movq %r10,%r12
shrdq $5,%r14,%r14
xorq %r9,%r13
xorq %r11,%r12
shrdq $4,%r13,%r13
xorq %rbx,%r14
andq %r9,%r12
xorq %r9,%r13
addq 56(%rsp),%rax
movq %rbx,%rdi
xorq %r11,%r12
shrdq $6,%r14,%r14
xorq %rcx,%rdi
addq %r12,%rax
shrdq $14,%r13,%r13
andq %rdi,%r15
xorq %rbx,%r14
addq %r13,%rax
xorq %rcx,%r15
shrdq $28,%r14,%r14
addq %rax,%r8
addq %r15,%rax
movq %r8,%r13
addq %rax,%r14
shrdq $23,%r13,%r13
movq %r14,%rax
movq %r9,%r12
shrdq $5,%r14,%r14
xorq %r8,%r13
xorq %r10,%r12
shrdq $4,%r13,%r13
xorq %rax,%r14
andq %r8,%r12
xorq %r8,%r13
addq 64(%rsp),%r11
movq %rax,%r15
xorq %r10,%r12
shrdq $6,%r14,%r14
xorq %rbx,%r15
addq %r12,%r11
shrdq $14,%r13,%r13
andq %r15,%rdi
xorq %rax,%r14
addq %r13,%r11
xorq %rbx,%rdi
shrdq $28,%r14,%r14
addq %r11,%rdx
addq %rdi,%r11
movq %rdx,%r13
addq %r11,%r14
shrdq $23,%r13,%r13
movq %r14,%r11
movq %r8,%r12
shrdq $5,%r14,%r14
xorq %rdx,%r13
xorq %r9,%r12
shrdq $4,%r13,%r13
xorq %r11,%r14
andq %rdx,%r12
xorq %rdx,%r13
addq 72(%rsp),%r10
movq %r11,%rdi
xorq %r9,%r12
shrdq $6,%r14,%r14
xorq %rax,%rdi
addq %r12,%r10
shrdq $14,%r13,%r13
andq %rdi,%r15
xorq %r11,%r14
addq %r13,%r10
xorq %rax,%r15
shrdq $28,%r14,%r14
addq %r10,%rcx
addq %r15,%r10
movq %rcx,%r13
addq %r10,%r14
shrdq $23,%r13,%r13
movq %r14,%r10
movq %rdx,%r12
shrdq $5,%r14,%r14
xorq %rcx,%r13
xorq %r8,%r12
shrdq $4,%r13,%r13
xorq %r10,%r14
andq %rcx,%r12
xorq %rcx,%r13
addq 80(%rsp),%r9
movq %r10,%r15
xorq %r8,%r12
shrdq $6,%r14,%r14
xorq %r11,%r15
addq %r12,%r9
shrdq $14,%r13,%r13
andq %r15,%rdi
xorq %r10,%r14
addq %r13,%r9
xorq %r11,%rdi
shrdq $28,%r14,%r14
addq %r9,%rbx
addq %rdi,%r9
movq %rbx,%r13
addq %r9,%r14
shrdq $23,%r13,%r13
movq %r14,%r9
movq %rcx,%r12
shrdq $5,%r14,%r14
xorq %rbx,%r13
xorq %rdx,%r12
shrdq $4,%r13,%r13
xorq %r9,%r14
andq %rbx,%r12
xorq %rbx,%r13
addq 88(%rsp),%r8
movq %r9,%rdi
xorq %rdx,%r12
shrdq $6,%r14,%r14
xorq %r10,%rdi
addq %r12,%r8
shrdq $14,%r13,%r13
andq %rdi,%r15
xorq %r9,%r14
addq %r13,%r8
xorq %r10,%r15
shrdq $28,%r14,%r14
addq %r8,%rax
addq %r15,%r8
movq %rax,%r13
addq %r8,%r14
shrdq $23,%r13,%r13
movq %r14,%r8
movq %rbx,%r12
shrdq $5,%r14,%r14
xorq %rax,%r13
xorq %rcx,%r12
shrdq $4,%r13,%r13
xorq %r8,%r14
andq %rax,%r12
xorq %rax,%r13
addq 96(%rsp),%rdx
movq %r8,%r15
xorq %rcx,%r12
shrdq $6,%r14,%r14
xorq %r9,%r15
addq %r12,%rdx
shrdq $14,%r13,%r13
andq %r15,%rdi
xorq %r8,%r14
addq %r13,%rdx
xorq %r9,%rdi
shrdq $28,%r14,%r14
addq %rdx,%r11
addq %rdi,%rdx
movq %r11,%r13
addq %rdx,%r14
shrdq $23,%r13,%r13
movq %r14,%rdx
movq %rax,%r12
shrdq $5,%r14,%r14
xorq %r11,%r13
xorq %rbx,%r12
shrdq $4,%r13,%r13
xorq %rdx,%r14
andq %r11,%r12
xorq %r11,%r13
addq 104(%rsp),%rcx
movq %rdx,%rdi
xorq %rbx,%r12
shrdq $6,%r14,%r14
xorq %r8,%rdi
addq %r12,%rcx
shrdq $14,%r13,%r13
andq %rdi,%r15
xorq %rdx,%r14
addq %r13,%rcx
xorq %r8,%r15
shrdq $28,%r14,%r14
addq %rcx,%r10
addq %r15,%rcx
movq %r10,%r13
addq %rcx,%r14
shrdq $23,%r13,%r13
movq %r14,%rcx
movq %r11,%r12
shrdq $5,%r14,%r14
xorq %r10,%r13
xorq %rax,%r12
shrdq $4,%r13,%r13
xorq %rcx,%r14
andq %r10,%r12
xorq %r10,%r13
addq 112(%rsp),%rbx
movq %rcx,%r15
xorq %rax,%r12
shrdq $6,%r14,%r14
xorq %rdx,%r15
addq %r12,%rbx
shrdq $14,%r13,%r13
andq %r15,%rdi
xorq %rcx,%r14
addq %r13,%rbx
xorq %rdx,%rdi
shrdq $28,%r14,%r14
addq %rbx,%r9
addq %rdi,%rbx
movq %r9,%r13
addq %rbx,%r14
shrdq $23,%r13,%r13
movq %r14,%rbx
movq %r10,%r12
shrdq $5,%r14,%r14
xorq %r9,%r13
xorq %r11,%r12
shrdq $4,%r13,%r13
xorq %rbx,%r14
andq %r9,%r12
xorq %r9,%r13
addq 120(%rsp),%rax
movq %rbx,%rdi
xorq %r11,%r12
shrdq $6,%r14,%r14
xorq %rcx,%rdi
addq %r12,%rax
shrdq $14,%r13,%r13
andq %rdi,%r15
xorq %rbx,%r14
addq %r13,%rax
xorq %rcx,%r15
shrdq $28,%r14,%r14
addq %rax,%r8
addq %r15,%rax
movq %r8,%r13
addq %rax,%r14
movq 128+0(%rsp),%rdi
movq %r14,%rax
addq 0(%rdi),%rax
leaq 128(%rsi),%rsi
addq 8(%rdi),%rbx
addq 16(%rdi),%rcx
addq 24(%rdi),%rdx
addq 32(%rdi),%r8
addq 40(%rdi),%r9
addq 48(%rdi),%r10
addq 56(%rdi),%r11
cmpq 128+16(%rsp),%rsi
movq %rax,0(%rdi)
movq %rbx,8(%rdi)
movq %rcx,16(%rdi)
movq %rdx,24(%rdi)
movq %r8,32(%rdi)
movq %r9,40(%rdi)
movq %r10,48(%rdi)
movq %r11,56(%rdi)
jb .Lloop_avx
movq 152(%rsp),%rsi
.cfi_def_cfa %rsi,8
vzeroupper
movq -48(%rsi),%r15
.cfi_restore %r15
movq -40(%rsi),%r14
.cfi_restore %r14
movq -32(%rsi),%r13
.cfi_restore %r13
movq -24(%rsi),%r12
.cfi_restore %r12
movq -16(%rsi),%rbp
.cfi_restore %rbp
movq -8(%rsi),%rbx
.cfi_restore %rbx
leaq (%rsi),%rsp
.cfi_def_cfa_register %rsp
.Lepilogue_avx:
RET
.cfi_endproc
SET_SIZE(zfs_sha512_transform_avx)
ENTRY_ALIGN(zfs_sha512_transform_avx2, 64)
.cfi_startproc
ENDBR
movq %rsp,%rax
.cfi_def_cfa_register %rax
pushq %rbx
.cfi_offset %rbx,-16
pushq %rbp
.cfi_offset %rbp,-24
pushq %r12
.cfi_offset %r12,-32
pushq %r13
.cfi_offset %r13,-40
pushq %r14
.cfi_offset %r14,-48
pushq %r15
.cfi_offset %r15,-56
subq $1312,%rsp
shlq $4,%rdx
andq $-2048,%rsp
leaq (%rsi,%rdx,8),%rdx
addq $1152,%rsp
movq %rdi,128+0(%rsp)
movq %rsi,128+8(%rsp)
movq %rdx,128+16(%rsp)
movq %rax,152(%rsp)
.cfi_escape 0x0f,0x06,0x77,0x98,0x01,0x06,0x23,0x08
.Lprologue_avx2:
vzeroupper
subq $-128,%rsi
movq 0(%rdi),%rax
movq %rsi,%r12
movq 8(%rdi),%rbx
cmpq %rdx,%rsi
movq 16(%rdi),%rcx
cmoveq %rsp,%r12
movq 24(%rdi),%rdx
movq 32(%rdi),%r8
movq 40(%rdi),%r9
movq 48(%rdi),%r10
movq 56(%rdi),%r11
jmp .Loop_avx2
.balign 16
.Loop_avx2:
vmovdqu -128(%rsi),%xmm0
vmovdqu -128+16(%rsi),%xmm1
vmovdqu -128+32(%rsi),%xmm2
leaq K512+128(%rip),%rbp
vmovdqu -128+48(%rsi),%xmm3
vmovdqu -128+64(%rsi),%xmm4
vmovdqu -128+80(%rsi),%xmm5
vmovdqu -128+96(%rsi),%xmm6
vmovdqu -128+112(%rsi),%xmm7
vmovdqa 1152(%rbp),%ymm10
vinserti128 $1,(%r12),%ymm0,%ymm0
vinserti128 $1,16(%r12),%ymm1,%ymm1
vpshufb %ymm10,%ymm0,%ymm0
vinserti128 $1,32(%r12),%ymm2,%ymm2
vpshufb %ymm10,%ymm1,%ymm1
vinserti128 $1,48(%r12),%ymm3,%ymm3
vpshufb %ymm10,%ymm2,%ymm2
vinserti128 $1,64(%r12),%ymm4,%ymm4
vpshufb %ymm10,%ymm3,%ymm3
vinserti128 $1,80(%r12),%ymm5,%ymm5
vpshufb %ymm10,%ymm4,%ymm4
vinserti128 $1,96(%r12),%ymm6,%ymm6
vpshufb %ymm10,%ymm5,%ymm5
vinserti128 $1,112(%r12),%ymm7,%ymm7
vpaddq -128(%rbp),%ymm0,%ymm8
vpshufb %ymm10,%ymm6,%ymm6
vpaddq -96(%rbp),%ymm1,%ymm9
vpshufb %ymm10,%ymm7,%ymm7
vpaddq -64(%rbp),%ymm2,%ymm10
vpaddq -32(%rbp),%ymm3,%ymm11
vmovdqa %ymm8,0(%rsp)
vpaddq 0(%rbp),%ymm4,%ymm8
vmovdqa %ymm9,32(%rsp)
vpaddq 32(%rbp),%ymm5,%ymm9
vmovdqa %ymm10,64(%rsp)
vpaddq 64(%rbp),%ymm6,%ymm10
vmovdqa %ymm11,96(%rsp)
movq 152(%rsp),%rdi
.cfi_def_cfa %rdi,8
leaq -128(%rsp),%rsp
movq %rdi,-8(%rsp)
.cfi_escape 0x0f,0x05,0x77,0x78,0x06,0x23,0x08
vpaddq 96(%rbp),%ymm7,%ymm11
vmovdqa %ymm8,0(%rsp)
xorq %r14,%r14
vmovdqa %ymm9,32(%rsp)
movq %rbx,%rdi
vmovdqa %ymm10,64(%rsp)
xorq %rcx,%rdi
vmovdqa %ymm11,96(%rsp)
movq %r9,%r12
addq $32*8,%rbp
jmp .Lavx2_00_47
.balign 16
.Lavx2_00_47:
leaq -128(%rsp),%rsp
.cfi_escape 0x0f,0x06,0x77,0xf8,0x00,0x06,0x23,0x08
pushq 128-8(%rsp)
.cfi_escape 0x0f,0x05,0x77,0x00,0x06,0x23,0x08
leaq 8(%rsp),%rsp
.cfi_escape 0x0f,0x05,0x77,0x78,0x06,0x23,0x08
vpalignr $8,%ymm0,%ymm1,%ymm8
addq 0+256(%rsp),%r11
andq %r8,%r12
rorxq $41,%r8,%r13
vpalignr $8,%ymm4,%ymm5,%ymm11
rorxq $18,%r8,%r15
leaq (%rax,%r14,1),%rax
leaq (%r11,%r12,1),%r11
vpsrlq $1,%ymm8,%ymm10
andnq %r10,%r8,%r12
xorq %r15,%r13
rorxq $14,%r8,%r14
vpaddq %ymm11,%ymm0,%ymm0
vpsrlq $7,%ymm8,%ymm11
leaq (%r11,%r12,1),%r11
xorq %r14,%r13
movq %rax,%r15
vpsllq $56,%ymm8,%ymm9
vpxor %ymm10,%ymm11,%ymm8
rorxq $39,%rax,%r12
leaq (%r11,%r13,1),%r11
xorq %rbx,%r15
vpsrlq $7,%ymm10,%ymm10
vpxor %ymm9,%ymm8,%ymm8
rorxq $34,%rax,%r14
rorxq $28,%rax,%r13
leaq (%rdx,%r11,1),%rdx
vpsllq $7,%ymm9,%ymm9
vpxor %ymm10,%ymm8,%ymm8
andq %r15,%rdi
xorq %r12,%r14
xorq %rbx,%rdi
vpsrlq $6,%ymm7,%ymm11
vpxor %ymm9,%ymm8,%ymm8
xorq %r13,%r14
leaq (%r11,%rdi,1),%r11
movq %r8,%r12
vpsllq $3,%ymm7,%ymm10
vpaddq %ymm8,%ymm0,%ymm0
addq 8+256(%rsp),%r10
andq %rdx,%r12
rorxq $41,%rdx,%r13
vpsrlq $19,%ymm7,%ymm9
vpxor %ymm10,%ymm11,%ymm11
rorxq $18,%rdx,%rdi
leaq (%r11,%r14,1),%r11
leaq (%r10,%r12,1),%r10
vpsllq $42,%ymm10,%ymm10
vpxor %ymm9,%ymm11,%ymm11
andnq %r9,%rdx,%r12
xorq %rdi,%r13
rorxq $14,%rdx,%r14
vpsrlq $42,%ymm9,%ymm9
vpxor %ymm10,%ymm11,%ymm11
leaq (%r10,%r12,1),%r10
xorq %r14,%r13
movq %r11,%rdi
vpxor %ymm9,%ymm11,%ymm11
rorxq $39,%r11,%r12
leaq (%r10,%r13,1),%r10
xorq %rax,%rdi
vpaddq %ymm11,%ymm0,%ymm0
rorxq $34,%r11,%r14
rorxq $28,%r11,%r13
leaq (%rcx,%r10,1),%rcx
vpaddq -128(%rbp),%ymm0,%ymm10
andq %rdi,%r15
xorq %r12,%r14
xorq %rax,%r15
xorq %r13,%r14
leaq (%r10,%r15,1),%r10
movq %rdx,%r12
vmovdqa %ymm10,0(%rsp)
vpalignr $8,%ymm1,%ymm2,%ymm8
addq 32+256(%rsp),%r9
andq %rcx,%r12
rorxq $41,%rcx,%r13
vpalignr $8,%ymm5,%ymm6,%ymm11
rorxq $18,%rcx,%r15
leaq (%r10,%r14,1),%r10
leaq (%r9,%r12,1),%r9
vpsrlq $1,%ymm8,%ymm10
andnq %r8,%rcx,%r12
xorq %r15,%r13
rorxq $14,%rcx,%r14
vpaddq %ymm11,%ymm1,%ymm1
vpsrlq $7,%ymm8,%ymm11
leaq (%r9,%r12,1),%r9
xorq %r14,%r13
movq %r10,%r15
vpsllq $56,%ymm8,%ymm9
vpxor %ymm10,%ymm11,%ymm8
rorxq $39,%r10,%r12
leaq (%r9,%r13,1),%r9
xorq %r11,%r15
vpsrlq $7,%ymm10,%ymm10
vpxor %ymm9,%ymm8,%ymm8
rorxq $34,%r10,%r14
rorxq $28,%r10,%r13
leaq (%rbx,%r9,1),%rbx
vpsllq $7,%ymm9,%ymm9
vpxor %ymm10,%ymm8,%ymm8
andq %r15,%rdi
xorq %r12,%r14
xorq %r11,%rdi
vpsrlq $6,%ymm0,%ymm11
vpxor %ymm9,%ymm8,%ymm8
xorq %r13,%r14
leaq (%r9,%rdi,1),%r9
movq %rcx,%r12
vpsllq $3,%ymm0,%ymm10
vpaddq %ymm8,%ymm1,%ymm1
addq 40+256(%rsp),%r8
andq %rbx,%r12
rorxq $41,%rbx,%r13
vpsrlq $19,%ymm0,%ymm9
vpxor %ymm10,%ymm11,%ymm11
rorxq $18,%rbx,%rdi
leaq (%r9,%r14,1),%r9
leaq (%r8,%r12,1),%r8
vpsllq $42,%ymm10,%ymm10
vpxor %ymm9,%ymm11,%ymm11
andnq %rdx,%rbx,%r12
xorq %rdi,%r13
rorxq $14,%rbx,%r14
vpsrlq $42,%ymm9,%ymm9
vpxor %ymm10,%ymm11,%ymm11
leaq (%r8,%r12,1),%r8
xorq %r14,%r13
movq %r9,%rdi
vpxor %ymm9,%ymm11,%ymm11
rorxq $39,%r9,%r12
leaq (%r8,%r13,1),%r8
xorq %r10,%rdi
vpaddq %ymm11,%ymm1,%ymm1
rorxq $34,%r9,%r14
rorxq $28,%r9,%r13
leaq (%rax,%r8,1),%rax
vpaddq -96(%rbp),%ymm1,%ymm10
andq %rdi,%r15
xorq %r12,%r14
xorq %r10,%r15
xorq %r13,%r14
leaq (%r8,%r15,1),%r8
movq %rbx,%r12
vmovdqa %ymm10,32(%rsp)
vpalignr $8,%ymm2,%ymm3,%ymm8
addq 64+256(%rsp),%rdx
andq %rax,%r12
rorxq $41,%rax,%r13
vpalignr $8,%ymm6,%ymm7,%ymm11
rorxq $18,%rax,%r15
leaq (%r8,%r14,1),%r8
leaq (%rdx,%r12,1),%rdx
vpsrlq $1,%ymm8,%ymm10
andnq %rcx,%rax,%r12
xorq %r15,%r13
rorxq $14,%rax,%r14
vpaddq %ymm11,%ymm2,%ymm2
vpsrlq $7,%ymm8,%ymm11
leaq (%rdx,%r12,1),%rdx
xorq %r14,%r13
movq %r8,%r15
vpsllq $56,%ymm8,%ymm9
vpxor %ymm10,%ymm11,%ymm8
rorxq $39,%r8,%r12
leaq (%rdx,%r13,1),%rdx
xorq %r9,%r15
vpsrlq $7,%ymm10,%ymm10
vpxor %ymm9,%ymm8,%ymm8
rorxq $34,%r8,%r14
rorxq $28,%r8,%r13
leaq (%r11,%rdx,1),%r11
vpsllq $7,%ymm9,%ymm9
vpxor %ymm10,%ymm8,%ymm8
andq %r15,%rdi
xorq %r12,%r14
xorq %r9,%rdi
vpsrlq $6,%ymm1,%ymm11
vpxor %ymm9,%ymm8,%ymm8
xorq %r13,%r14
leaq (%rdx,%rdi,1),%rdx
movq %rax,%r12
vpsllq $3,%ymm1,%ymm10
vpaddq %ymm8,%ymm2,%ymm2
addq 72+256(%rsp),%rcx
andq %r11,%r12
rorxq $41,%r11,%r13
vpsrlq $19,%ymm1,%ymm9
vpxor %ymm10,%ymm11,%ymm11
rorxq $18,%r11,%rdi
leaq (%rdx,%r14,1),%rdx
leaq (%rcx,%r12,1),%rcx
vpsllq $42,%ymm10,%ymm10
vpxor %ymm9,%ymm11,%ymm11
andnq %rbx,%r11,%r12
xorq %rdi,%r13
rorxq $14,%r11,%r14
vpsrlq $42,%ymm9,%ymm9
vpxor %ymm10,%ymm11,%ymm11
leaq (%rcx,%r12,1),%rcx
xorq %r14,%r13
movq %rdx,%rdi
vpxor %ymm9,%ymm11,%ymm11
rorxq $39,%rdx,%r12
leaq (%rcx,%r13,1),%rcx
xorq %r8,%rdi
vpaddq %ymm11,%ymm2,%ymm2
rorxq $34,%rdx,%r14
rorxq $28,%rdx,%r13
leaq (%r10,%rcx,1),%r10
vpaddq -64(%rbp),%ymm2,%ymm10
andq %rdi,%r15
xorq %r12,%r14
xorq %r8,%r15
xorq %r13,%r14
leaq (%rcx,%r15,1),%rcx
movq %r11,%r12
vmovdqa %ymm10,64(%rsp)
vpalignr $8,%ymm3,%ymm4,%ymm8
addq 96+256(%rsp),%rbx
andq %r10,%r12
rorxq $41,%r10,%r13
vpalignr $8,%ymm7,%ymm0,%ymm11
rorxq $18,%r10,%r15
leaq (%rcx,%r14,1),%rcx
leaq (%rbx,%r12,1),%rbx
vpsrlq $1,%ymm8,%ymm10
andnq %rax,%r10,%r12
xorq %r15,%r13
rorxq $14,%r10,%r14
vpaddq %ymm11,%ymm3,%ymm3
vpsrlq $7,%ymm8,%ymm11
leaq (%rbx,%r12,1),%rbx
xorq %r14,%r13
movq %rcx,%r15
vpsllq $56,%ymm8,%ymm9
vpxor %ymm10,%ymm11,%ymm8
rorxq $39,%rcx,%r12
leaq (%rbx,%r13,1),%rbx
xorq %rdx,%r15
vpsrlq $7,%ymm10,%ymm10
vpxor %ymm9,%ymm8,%ymm8
rorxq $34,%rcx,%r14
rorxq $28,%rcx,%r13
leaq (%r9,%rbx,1),%r9
vpsllq $7,%ymm9,%ymm9
vpxor %ymm10,%ymm8,%ymm8
andq %r15,%rdi
xorq %r12,%r14
xorq %rdx,%rdi
vpsrlq $6,%ymm2,%ymm11
vpxor %ymm9,%ymm8,%ymm8
xorq %r13,%r14
leaq (%rbx,%rdi,1),%rbx
movq %r10,%r12
vpsllq $3,%ymm2,%ymm10
vpaddq %ymm8,%ymm3,%ymm3
addq 104+256(%rsp),%rax
andq %r9,%r12
rorxq $41,%r9,%r13
vpsrlq $19,%ymm2,%ymm9
vpxor %ymm10,%ymm11,%ymm11
rorxq $18,%r9,%rdi
leaq (%rbx,%r14,1),%rbx
leaq (%rax,%r12,1),%rax
vpsllq $42,%ymm10,%ymm10
vpxor %ymm9,%ymm11,%ymm11
andnq %r11,%r9,%r12
xorq %rdi,%r13
rorxq $14,%r9,%r14
vpsrlq $42,%ymm9,%ymm9
vpxor %ymm10,%ymm11,%ymm11
leaq (%rax,%r12,1),%rax
xorq %r14,%r13
movq %rbx,%rdi
vpxor %ymm9,%ymm11,%ymm11
rorxq $39,%rbx,%r12
leaq (%rax,%r13,1),%rax
xorq %rcx,%rdi
vpaddq %ymm11,%ymm3,%ymm3
rorxq $34,%rbx,%r14
rorxq $28,%rbx,%r13
leaq (%r8,%rax,1),%r8
vpaddq -32(%rbp),%ymm3,%ymm10
andq %rdi,%r15
xorq %r12,%r14
xorq %rcx,%r15
xorq %r13,%r14
leaq (%rax,%r15,1),%rax
movq %r9,%r12
vmovdqa %ymm10,96(%rsp)
leaq -128(%rsp),%rsp
.cfi_escape 0x0f,0x06,0x77,0xf8,0x00,0x06,0x23,0x08
pushq 128-8(%rsp)
.cfi_escape 0x0f,0x05,0x77,0x00,0x06,0x23,0x08
leaq 8(%rsp),%rsp
.cfi_escape 0x0f,0x05,0x77,0x78,0x06,0x23,0x08
vpalignr $8,%ymm4,%ymm5,%ymm8
addq 0+256(%rsp),%r11
andq %r8,%r12
rorxq $41,%r8,%r13
vpalignr $8,%ymm0,%ymm1,%ymm11
rorxq $18,%r8,%r15
leaq (%rax,%r14,1),%rax
leaq (%r11,%r12,1),%r11
vpsrlq $1,%ymm8,%ymm10
andnq %r10,%r8,%r12
xorq %r15,%r13
rorxq $14,%r8,%r14
vpaddq %ymm11,%ymm4,%ymm4
vpsrlq $7,%ymm8,%ymm11
leaq (%r11,%r12,1),%r11
xorq %r14,%r13
movq %rax,%r15
vpsllq $56,%ymm8,%ymm9
vpxor %ymm10,%ymm11,%ymm8
rorxq $39,%rax,%r12
leaq (%r11,%r13,1),%r11
xorq %rbx,%r15
vpsrlq $7,%ymm10,%ymm10
vpxor %ymm9,%ymm8,%ymm8
rorxq $34,%rax,%r14
rorxq $28,%rax,%r13
leaq (%rdx,%r11,1),%rdx
vpsllq $7,%ymm9,%ymm9
vpxor %ymm10,%ymm8,%ymm8
andq %r15,%rdi
xorq %r12,%r14
xorq %rbx,%rdi
vpsrlq $6,%ymm3,%ymm11
vpxor %ymm9,%ymm8,%ymm8
xorq %r13,%r14
leaq (%r11,%rdi,1),%r11
movq %r8,%r12
vpsllq $3,%ymm3,%ymm10
vpaddq %ymm8,%ymm4,%ymm4
addq 8+256(%rsp),%r10
andq %rdx,%r12
rorxq $41,%rdx,%r13
vpsrlq $19,%ymm3,%ymm9
vpxor %ymm10,%ymm11,%ymm11
rorxq $18,%rdx,%rdi
leaq (%r11,%r14,1),%r11
leaq (%r10,%r12,1),%r10
vpsllq $42,%ymm10,%ymm10
vpxor %ymm9,%ymm11,%ymm11
andnq %r9,%rdx,%r12
xorq %rdi,%r13
rorxq $14,%rdx,%r14
vpsrlq $42,%ymm9,%ymm9
vpxor %ymm10,%ymm11,%ymm11
leaq (%r10,%r12,1),%r10
xorq %r14,%r13
movq %r11,%rdi
vpxor %ymm9,%ymm11,%ymm11
rorxq $39,%r11,%r12
leaq (%r10,%r13,1),%r10
xorq %rax,%rdi
vpaddq %ymm11,%ymm4,%ymm4
rorxq $34,%r11,%r14
rorxq $28,%r11,%r13
leaq (%rcx,%r10,1),%rcx
vpaddq 0(%rbp),%ymm4,%ymm10
andq %rdi,%r15
xorq %r12,%r14
xorq %rax,%r15
xorq %r13,%r14
leaq (%r10,%r15,1),%r10
movq %rdx,%r12
vmovdqa %ymm10,0(%rsp)
vpalignr $8,%ymm5,%ymm6,%ymm8
addq 32+256(%rsp),%r9
andq %rcx,%r12
rorxq $41,%rcx,%r13
vpalignr $8,%ymm1,%ymm2,%ymm11
rorxq $18,%rcx,%r15
leaq (%r10,%r14,1),%r10
leaq (%r9,%r12,1),%r9
vpsrlq $1,%ymm8,%ymm10
andnq %r8,%rcx,%r12
xorq %r15,%r13
rorxq $14,%rcx,%r14
vpaddq %ymm11,%ymm5,%ymm5
vpsrlq $7,%ymm8,%ymm11
leaq (%r9,%r12,1),%r9
xorq %r14,%r13
movq %r10,%r15
vpsllq $56,%ymm8,%ymm9
vpxor %ymm10,%ymm11,%ymm8
rorxq $39,%r10,%r12
leaq (%r9,%r13,1),%r9
xorq %r11,%r15
vpsrlq $7,%ymm10,%ymm10
vpxor %ymm9,%ymm8,%ymm8
rorxq $34,%r10,%r14
rorxq $28,%r10,%r13
leaq (%rbx,%r9,1),%rbx
vpsllq $7,%ymm9,%ymm9
vpxor %ymm10,%ymm8,%ymm8
andq %r15,%rdi
xorq %r12,%r14
xorq %r11,%rdi
vpsrlq $6,%ymm4,%ymm11
vpxor %ymm9,%ymm8,%ymm8
xorq %r13,%r14
leaq (%r9,%rdi,1),%r9
movq %rcx,%r12
vpsllq $3,%ymm4,%ymm10
vpaddq %ymm8,%ymm5,%ymm5
addq 40+256(%rsp),%r8
andq %rbx,%r12
rorxq $41,%rbx,%r13
vpsrlq $19,%ymm4,%ymm9
vpxor %ymm10,%ymm11,%ymm11
rorxq $18,%rbx,%rdi
leaq (%r9,%r14,1),%r9
leaq (%r8,%r12,1),%r8
vpsllq $42,%ymm10,%ymm10
vpxor %ymm9,%ymm11,%ymm11
andnq %rdx,%rbx,%r12
xorq %rdi,%r13
rorxq $14,%rbx,%r14
vpsrlq $42,%ymm9,%ymm9
vpxor %ymm10,%ymm11,%ymm11
leaq (%r8,%r12,1),%r8
xorq %r14,%r13
movq %r9,%rdi
vpxor %ymm9,%ymm11,%ymm11
rorxq $39,%r9,%r12
leaq (%r8,%r13,1),%r8
xorq %r10,%rdi
vpaddq %ymm11,%ymm5,%ymm5
rorxq $34,%r9,%r14
rorxq $28,%r9,%r13
leaq (%rax,%r8,1),%rax
vpaddq 32(%rbp),%ymm5,%ymm10
andq %rdi,%r15
xorq %r12,%r14
xorq %r10,%r15
xorq %r13,%r14
leaq (%r8,%r15,1),%r8
movq %rbx,%r12
vmovdqa %ymm10,32(%rsp)
vpalignr $8,%ymm6,%ymm7,%ymm8
addq 64+256(%rsp),%rdx
andq %rax,%r12
rorxq $41,%rax,%r13
vpalignr $8,%ymm2,%ymm3,%ymm11
rorxq $18,%rax,%r15
leaq (%r8,%r14,1),%r8
leaq (%rdx,%r12,1),%rdx
vpsrlq $1,%ymm8,%ymm10
andnq %rcx,%rax,%r12
xorq %r15,%r13
rorxq $14,%rax,%r14
vpaddq %ymm11,%ymm6,%ymm6
vpsrlq $7,%ymm8,%ymm11
leaq (%rdx,%r12,1),%rdx
xorq %r14,%r13
movq %r8,%r15
vpsllq $56,%ymm8,%ymm9
vpxor %ymm10,%ymm11,%ymm8
rorxq $39,%r8,%r12
leaq (%rdx,%r13,1),%rdx
xorq %r9,%r15
vpsrlq $7,%ymm10,%ymm10
vpxor %ymm9,%ymm8,%ymm8
rorxq $34,%r8,%r14
rorxq $28,%r8,%r13
leaq (%r11,%rdx,1),%r11
vpsllq $7,%ymm9,%ymm9
vpxor %ymm10,%ymm8,%ymm8
andq %r15,%rdi
xorq %r12,%r14
xorq %r9,%rdi
vpsrlq $6,%ymm5,%ymm11
vpxor %ymm9,%ymm8,%ymm8
xorq %r13,%r14
leaq (%rdx,%rdi,1),%rdx
movq %rax,%r12
vpsllq $3,%ymm5,%ymm10
vpaddq %ymm8,%ymm6,%ymm6
addq 72+256(%rsp),%rcx
andq %r11,%r12
rorxq $41,%r11,%r13
vpsrlq $19,%ymm5,%ymm9
vpxor %ymm10,%ymm11,%ymm11
rorxq $18,%r11,%rdi
leaq (%rdx,%r14,1),%rdx
leaq (%rcx,%r12,1),%rcx
vpsllq $42,%ymm10,%ymm10
vpxor %ymm9,%ymm11,%ymm11
andnq %rbx,%r11,%r12
xorq %rdi,%r13
rorxq $14,%r11,%r14
vpsrlq $42,%ymm9,%ymm9
vpxor %ymm10,%ymm11,%ymm11
leaq (%rcx,%r12,1),%rcx
xorq %r14,%r13
movq %rdx,%rdi
vpxor %ymm9,%ymm11,%ymm11
rorxq $39,%rdx,%r12
leaq (%rcx,%r13,1),%rcx
xorq %r8,%rdi
vpaddq %ymm11,%ymm6,%ymm6
rorxq $34,%rdx,%r14
rorxq $28,%rdx,%r13
leaq (%r10,%rcx,1),%r10
vpaddq 64(%rbp),%ymm6,%ymm10
andq %rdi,%r15
xorq %r12,%r14
xorq %r8,%r15
xorq %r13,%r14
leaq (%rcx,%r15,1),%rcx
movq %r11,%r12
vmovdqa %ymm10,64(%rsp)
vpalignr $8,%ymm7,%ymm0,%ymm8
addq 96+256(%rsp),%rbx
andq %r10,%r12
rorxq $41,%r10,%r13
vpalignr $8,%ymm3,%ymm4,%ymm11
rorxq $18,%r10,%r15
leaq (%rcx,%r14,1),%rcx
leaq (%rbx,%r12,1),%rbx
vpsrlq $1,%ymm8,%ymm10
andnq %rax,%r10,%r12
xorq %r15,%r13
rorxq $14,%r10,%r14
vpaddq %ymm11,%ymm7,%ymm7
vpsrlq $7,%ymm8,%ymm11
leaq (%rbx,%r12,1),%rbx
xorq %r14,%r13
movq %rcx,%r15
vpsllq $56,%ymm8,%ymm9
vpxor %ymm10,%ymm11,%ymm8
rorxq $39,%rcx,%r12
leaq (%rbx,%r13,1),%rbx
xorq %rdx,%r15
vpsrlq $7,%ymm10,%ymm10
vpxor %ymm9,%ymm8,%ymm8
rorxq $34,%rcx,%r14
rorxq $28,%rcx,%r13
leaq (%r9,%rbx,1),%r9
vpsllq $7,%ymm9,%ymm9
vpxor %ymm10,%ymm8,%ymm8
andq %r15,%rdi
xorq %r12,%r14
xorq %rdx,%rdi
vpsrlq $6,%ymm6,%ymm11
vpxor %ymm9,%ymm8,%ymm8
xorq %r13,%r14
leaq (%rbx,%rdi,1),%rbx
movq %r10,%r12
vpsllq $3,%ymm6,%ymm10
vpaddq %ymm8,%ymm7,%ymm7
addq 104+256(%rsp),%rax
andq %r9,%r12
rorxq $41,%r9,%r13
vpsrlq $19,%ymm6,%ymm9
vpxor %ymm10,%ymm11,%ymm11
rorxq $18,%r9,%rdi
leaq (%rbx,%r14,1),%rbx
leaq (%rax,%r12,1),%rax
vpsllq $42,%ymm10,%ymm10
vpxor %ymm9,%ymm11,%ymm11
andnq %r11,%r9,%r12
xorq %rdi,%r13
rorxq $14,%r9,%r14
vpsrlq $42,%ymm9,%ymm9
vpxor %ymm10,%ymm11,%ymm11
leaq (%rax,%r12,1),%rax
xorq %r14,%r13
movq %rbx,%rdi
vpxor %ymm9,%ymm11,%ymm11
rorxq $39,%rbx,%r12
leaq (%rax,%r13,1),%rax
xorq %rcx,%rdi
vpaddq %ymm11,%ymm7,%ymm7
rorxq $34,%rbx,%r14
rorxq $28,%rbx,%r13
leaq (%r8,%rax,1),%r8
vpaddq 96(%rbp),%ymm7,%ymm10
andq %rdi,%r15
xorq %r12,%r14
xorq %rcx,%r15
xorq %r13,%r14
leaq (%rax,%r15,1),%rax
movq %r9,%r12
vmovdqa %ymm10,96(%rsp)
leaq 256(%rbp),%rbp
cmpb $0,-121(%rbp)
jne .Lavx2_00_47
addq 0+128(%rsp),%r11
andq %r8,%r12
rorxq $41,%r8,%r13
rorxq $18,%r8,%r15
leaq (%rax,%r14,1),%rax
leaq (%r11,%r12,1),%r11
andnq %r10,%r8,%r12
xorq %r15,%r13
rorxq $14,%r8,%r14
leaq (%r11,%r12,1),%r11
xorq %r14,%r13
movq %rax,%r15
rorxq $39,%rax,%r12
leaq (%r11,%r13,1),%r11
xorq %rbx,%r15
rorxq $34,%rax,%r14
rorxq $28,%rax,%r13
leaq (%rdx,%r11,1),%rdx
andq %r15,%rdi
xorq %r12,%r14
xorq %rbx,%rdi
xorq %r13,%r14
leaq (%r11,%rdi,1),%r11
movq %r8,%r12
addq 8+128(%rsp),%r10
andq %rdx,%r12
rorxq $41,%rdx,%r13
rorxq $18,%rdx,%rdi
leaq (%r11,%r14,1),%r11
leaq (%r10,%r12,1),%r10
andnq %r9,%rdx,%r12
xorq %rdi,%r13
rorxq $14,%rdx,%r14
leaq (%r10,%r12,1),%r10
xorq %r14,%r13
movq %r11,%rdi
rorxq $39,%r11,%r12
leaq (%r10,%r13,1),%r10
xorq %rax,%rdi
rorxq $34,%r11,%r14
rorxq $28,%r11,%r13
leaq (%rcx,%r10,1),%rcx
andq %rdi,%r15
xorq %r12,%r14
xorq %rax,%r15
xorq %r13,%r14
leaq (%r10,%r15,1),%r10
movq %rdx,%r12
addq 32+128(%rsp),%r9
andq %rcx,%r12
rorxq $41,%rcx,%r13
rorxq $18,%rcx,%r15
leaq (%r10,%r14,1),%r10
leaq (%r9,%r12,1),%r9
andnq %r8,%rcx,%r12
xorq %r15,%r13
rorxq $14,%rcx,%r14
leaq (%r9,%r12,1),%r9
xorq %r14,%r13
movq %r10,%r15
rorxq $39,%r10,%r12
leaq (%r9,%r13,1),%r9
xorq %r11,%r15
rorxq $34,%r10,%r14
rorxq $28,%r10,%r13
leaq (%rbx,%r9,1),%rbx
andq %r15,%rdi
xorq %r12,%r14
xorq %r11,%rdi
xorq %r13,%r14
leaq (%r9,%rdi,1),%r9
movq %rcx,%r12
addq 40+128(%rsp),%r8
andq %rbx,%r12
rorxq $41,%rbx,%r13
rorxq $18,%rbx,%rdi
leaq (%r9,%r14,1),%r9
leaq (%r8,%r12,1),%r8
andnq %rdx,%rbx,%r12
xorq %rdi,%r13
rorxq $14,%rbx,%r14
leaq (%r8,%r12,1),%r8
xorq %r14,%r13
movq %r9,%rdi
rorxq $39,%r9,%r12
leaq (%r8,%r13,1),%r8
xorq %r10,%rdi
rorxq $34,%r9,%r14
rorxq $28,%r9,%r13
leaq (%rax,%r8,1),%rax
andq %rdi,%r15
xorq %r12,%r14
xorq %r10,%r15
xorq %r13,%r14
leaq (%r8,%r15,1),%r8
movq %rbx,%r12
addq 64+128(%rsp),%rdx
andq %rax,%r12
rorxq $41,%rax,%r13
rorxq $18,%rax,%r15
leaq (%r8,%r14,1),%r8
leaq (%rdx,%r12,1),%rdx
andnq %rcx,%rax,%r12
xorq %r15,%r13
rorxq $14,%rax,%r14
leaq (%rdx,%r12,1),%rdx
xorq %r14,%r13
movq %r8,%r15
rorxq $39,%r8,%r12
leaq (%rdx,%r13,1),%rdx
xorq %r9,%r15
rorxq $34,%r8,%r14
rorxq $28,%r8,%r13
leaq (%r11,%rdx,1),%r11
andq %r15,%rdi
xorq %r12,%r14
xorq %r9,%rdi
xorq %r13,%r14
leaq (%rdx,%rdi,1),%rdx
movq %rax,%r12
addq 72+128(%rsp),%rcx
andq %r11,%r12
rorxq $41,%r11,%r13
rorxq $18,%r11,%rdi
leaq (%rdx,%r14,1),%rdx
leaq (%rcx,%r12,1),%rcx
andnq %rbx,%r11,%r12
xorq %rdi,%r13
rorxq $14,%r11,%r14
leaq (%rcx,%r12,1),%rcx
xorq %r14,%r13
movq %rdx,%rdi
rorxq $39,%rdx,%r12
leaq (%rcx,%r13,1),%rcx
xorq %r8,%rdi
rorxq $34,%rdx,%r14
rorxq $28,%rdx,%r13
leaq (%r10,%rcx,1),%r10
andq %rdi,%r15
xorq %r12,%r14
xorq %r8,%r15
xorq %r13,%r14
leaq (%rcx,%r15,1),%rcx
movq %r11,%r12
addq 96+128(%rsp),%rbx
andq %r10,%r12
rorxq $41,%r10,%r13
rorxq $18,%r10,%r15
leaq (%rcx,%r14,1),%rcx
leaq (%rbx,%r12,1),%rbx
andnq %rax,%r10,%r12
xorq %r15,%r13
rorxq $14,%r10,%r14
leaq (%rbx,%r12,1),%rbx
xorq %r14,%r13
movq %rcx,%r15
rorxq $39,%rcx,%r12
leaq (%rbx,%r13,1),%rbx
xorq %rdx,%r15
rorxq $34,%rcx,%r14
rorxq $28,%rcx,%r13
leaq (%r9,%rbx,1),%r9
andq %r15,%rdi
xorq %r12,%r14
xorq %rdx,%rdi
xorq %r13,%r14
leaq (%rbx,%rdi,1),%rbx
movq %r10,%r12
addq 104+128(%rsp),%rax
andq %r9,%r12
rorxq $41,%r9,%r13
rorxq $18,%r9,%rdi
leaq (%rbx,%r14,1),%rbx
leaq (%rax,%r12,1),%rax
andnq %r11,%r9,%r12
xorq %rdi,%r13
rorxq $14,%r9,%r14
leaq (%rax,%r12,1),%rax
xorq %r14,%r13
movq %rbx,%rdi
rorxq $39,%rbx,%r12
leaq (%rax,%r13,1),%rax
xorq %rcx,%rdi
rorxq $34,%rbx,%r14
rorxq $28,%rbx,%r13
leaq (%r8,%rax,1),%r8
andq %rdi,%r15
xorq %r12,%r14
xorq %rcx,%r15
xorq %r13,%r14
leaq (%rax,%r15,1),%rax
movq %r9,%r12
addq 0(%rsp),%r11
andq %r8,%r12
rorxq $41,%r8,%r13
rorxq $18,%r8,%r15
leaq (%rax,%r14,1),%rax
leaq (%r11,%r12,1),%r11
andnq %r10,%r8,%r12
xorq %r15,%r13
rorxq $14,%r8,%r14
leaq (%r11,%r12,1),%r11
xorq %r14,%r13
movq %rax,%r15
rorxq $39,%rax,%r12
leaq (%r11,%r13,1),%r11
xorq %rbx,%r15
rorxq $34,%rax,%r14
rorxq $28,%rax,%r13
leaq (%rdx,%r11,1),%rdx
andq %r15,%rdi
xorq %r12,%r14
xorq %rbx,%rdi
xorq %r13,%r14
leaq (%r11,%rdi,1),%r11
movq %r8,%r12
addq 8(%rsp),%r10
andq %rdx,%r12
rorxq $41,%rdx,%r13
rorxq $18,%rdx,%rdi
leaq (%r11,%r14,1),%r11
leaq (%r10,%r12,1),%r10
andnq %r9,%rdx,%r12
xorq %rdi,%r13
rorxq $14,%rdx,%r14
leaq (%r10,%r12,1),%r10
xorq %r14,%r13
movq %r11,%rdi
rorxq $39,%r11,%r12
leaq (%r10,%r13,1),%r10
xorq %rax,%rdi
rorxq $34,%r11,%r14
rorxq $28,%r11,%r13
leaq (%rcx,%r10,1),%rcx
andq %rdi,%r15
xorq %r12,%r14
xorq %rax,%r15
xorq %r13,%r14
leaq (%r10,%r15,1),%r10
movq %rdx,%r12
addq 32(%rsp),%r9
andq %rcx,%r12
rorxq $41,%rcx,%r13
rorxq $18,%rcx,%r15
leaq (%r10,%r14,1),%r10
leaq (%r9,%r12,1),%r9
andnq %r8,%rcx,%r12
xorq %r15,%r13
rorxq $14,%rcx,%r14
leaq (%r9,%r12,1),%r9
xorq %r14,%r13
movq %r10,%r15
rorxq $39,%r10,%r12
leaq (%r9,%r13,1),%r9
xorq %r11,%r15
rorxq $34,%r10,%r14
rorxq $28,%r10,%r13
leaq (%rbx,%r9,1),%rbx
andq %r15,%rdi
xorq %r12,%r14
xorq %r11,%rdi
xorq %r13,%r14
leaq (%r9,%rdi,1),%r9
movq %rcx,%r12
addq 40(%rsp),%r8
andq %rbx,%r12
rorxq $41,%rbx,%r13
rorxq $18,%rbx,%rdi
leaq (%r9,%r14,1),%r9
leaq (%r8,%r12,1),%r8
andnq %rdx,%rbx,%r12
xorq %rdi,%r13
rorxq $14,%rbx,%r14
leaq (%r8,%r12,1),%r8
xorq %r14,%r13
movq %r9,%rdi
rorxq $39,%r9,%r12
leaq (%r8,%r13,1),%r8
xorq %r10,%rdi
rorxq $34,%r9,%r14
rorxq $28,%r9,%r13
leaq (%rax,%r8,1),%rax
andq %rdi,%r15
xorq %r12,%r14
xorq %r10,%r15
xorq %r13,%r14
leaq (%r8,%r15,1),%r8
movq %rbx,%r12
addq 64(%rsp),%rdx
andq %rax,%r12
rorxq $41,%rax,%r13
rorxq $18,%rax,%r15
leaq (%r8,%r14,1),%r8
leaq (%rdx,%r12,1),%rdx
andnq %rcx,%rax,%r12
xorq %r15,%r13
rorxq $14,%rax,%r14
leaq (%rdx,%r12,1),%rdx
xorq %r14,%r13
movq %r8,%r15
rorxq $39,%r8,%r12
leaq (%rdx,%r13,1),%rdx
xorq %r9,%r15
rorxq $34,%r8,%r14
rorxq $28,%r8,%r13
leaq (%r11,%rdx,1),%r11
andq %r15,%rdi
xorq %r12,%r14
xorq %r9,%rdi
xorq %r13,%r14
leaq (%rdx,%rdi,1),%rdx
movq %rax,%r12
addq 72(%rsp),%rcx
andq %r11,%r12
rorxq $41,%r11,%r13
rorxq $18,%r11,%rdi
leaq (%rdx,%r14,1),%rdx
leaq (%rcx,%r12,1),%rcx
andnq %rbx,%r11,%r12
xorq %rdi,%r13
rorxq $14,%r11,%r14
leaq (%rcx,%r12,1),%rcx
xorq %r14,%r13
movq %rdx,%rdi
rorxq $39,%rdx,%r12
leaq (%rcx,%r13,1),%rcx
xorq %r8,%rdi
rorxq $34,%rdx,%r14
rorxq $28,%rdx,%r13
leaq (%r10,%rcx,1),%r10
andq %rdi,%r15
xorq %r12,%r14
xorq %r8,%r15
xorq %r13,%r14
leaq (%rcx,%r15,1),%rcx
movq %r11,%r12
addq 96(%rsp),%rbx
andq %r10,%r12
rorxq $41,%r10,%r13
rorxq $18,%r10,%r15
leaq (%rcx,%r14,1),%rcx
leaq (%rbx,%r12,1),%rbx
andnq %rax,%r10,%r12
xorq %r15,%r13
rorxq $14,%r10,%r14
leaq (%rbx,%r12,1),%rbx
xorq %r14,%r13
movq %rcx,%r15
rorxq $39,%rcx,%r12
leaq (%rbx,%r13,1),%rbx
xorq %rdx,%r15
rorxq $34,%rcx,%r14
rorxq $28,%rcx,%r13
leaq (%r9,%rbx,1),%r9
andq %r15,%rdi
xorq %r12,%r14
xorq %rdx,%rdi
xorq %r13,%r14
leaq (%rbx,%rdi,1),%rbx
movq %r10,%r12
addq 104(%rsp),%rax
andq %r9,%r12
rorxq $41,%r9,%r13
rorxq $18,%r9,%rdi
leaq (%rbx,%r14,1),%rbx
leaq (%rax,%r12,1),%rax
andnq %r11,%r9,%r12
xorq %rdi,%r13
rorxq $14,%r9,%r14
leaq (%rax,%r12,1),%rax
xorq %r14,%r13
movq %rbx,%rdi
rorxq $39,%rbx,%r12
leaq (%rax,%r13,1),%rax
xorq %rcx,%rdi
rorxq $34,%rbx,%r14
rorxq $28,%rbx,%r13
leaq (%r8,%rax,1),%r8
andq %rdi,%r15
xorq %r12,%r14
xorq %rcx,%r15
xorq %r13,%r14
leaq (%rax,%r15,1),%rax
movq %r9,%r12
movq 1280(%rsp),%rdi
addq %r14,%rax
leaq 1152(%rsp),%rbp
addq 0(%rdi),%rax
addq 8(%rdi),%rbx
addq 16(%rdi),%rcx
addq 24(%rdi),%rdx
addq 32(%rdi),%r8
addq 40(%rdi),%r9
addq 48(%rdi),%r10
addq 56(%rdi),%r11
movq %rax,0(%rdi)
movq %rbx,8(%rdi)
movq %rcx,16(%rdi)
movq %rdx,24(%rdi)
movq %r8,32(%rdi)
movq %r9,40(%rdi)
movq %r10,48(%rdi)
movq %r11,56(%rdi)
cmpq 144(%rbp),%rsi
je .Ldone_avx2
xorq %r14,%r14
movq %rbx,%rdi
xorq %rcx,%rdi
movq %r9,%r12
jmp .Lower_avx2
.balign 16
.Lower_avx2:
addq 0+16(%rbp),%r11
andq %r8,%r12
rorxq $41,%r8,%r13
rorxq $18,%r8,%r15
leaq (%rax,%r14,1),%rax
leaq (%r11,%r12,1),%r11
andnq %r10,%r8,%r12
xorq %r15,%r13
rorxq $14,%r8,%r14
leaq (%r11,%r12,1),%r11
xorq %r14,%r13
movq %rax,%r15
rorxq $39,%rax,%r12
leaq (%r11,%r13,1),%r11
xorq %rbx,%r15
rorxq $34,%rax,%r14
rorxq $28,%rax,%r13
leaq (%rdx,%r11,1),%rdx
andq %r15,%rdi
xorq %r12,%r14
xorq %rbx,%rdi
xorq %r13,%r14
leaq (%r11,%rdi,1),%r11
movq %r8,%r12
addq 8+16(%rbp),%r10
andq %rdx,%r12
rorxq $41,%rdx,%r13
rorxq $18,%rdx,%rdi
leaq (%r11,%r14,1),%r11
leaq (%r10,%r12,1),%r10
andnq %r9,%rdx,%r12
xorq %rdi,%r13
rorxq $14,%rdx,%r14
leaq (%r10,%r12,1),%r10
xorq %r14,%r13
movq %r11,%rdi
rorxq $39,%r11,%r12
leaq (%r10,%r13,1),%r10
xorq %rax,%rdi
rorxq $34,%r11,%r14
rorxq $28,%r11,%r13
leaq (%rcx,%r10,1),%rcx
andq %rdi,%r15
xorq %r12,%r14
xorq %rax,%r15
xorq %r13,%r14
leaq (%r10,%r15,1),%r10
movq %rdx,%r12
addq 32+16(%rbp),%r9
andq %rcx,%r12
rorxq $41,%rcx,%r13
rorxq $18,%rcx,%r15
leaq (%r10,%r14,1),%r10
leaq (%r9,%r12,1),%r9
andnq %r8,%rcx,%r12
xorq %r15,%r13
rorxq $14,%rcx,%r14
leaq (%r9,%r12,1),%r9
xorq %r14,%r13
movq %r10,%r15
rorxq $39,%r10,%r12
leaq (%r9,%r13,1),%r9
xorq %r11,%r15
rorxq $34,%r10,%r14
rorxq $28,%r10,%r13
leaq (%rbx,%r9,1),%rbx
andq %r15,%rdi
xorq %r12,%r14
xorq %r11,%rdi
xorq %r13,%r14
leaq (%r9,%rdi,1),%r9
movq %rcx,%r12
addq 40+16(%rbp),%r8
andq %rbx,%r12
rorxq $41,%rbx,%r13
rorxq $18,%rbx,%rdi
leaq (%r9,%r14,1),%r9
leaq (%r8,%r12,1),%r8
andnq %rdx,%rbx,%r12
xorq %rdi,%r13
rorxq $14,%rbx,%r14
leaq (%r8,%r12,1),%r8
xorq %r14,%r13
movq %r9,%rdi
rorxq $39,%r9,%r12
leaq (%r8,%r13,1),%r8
xorq %r10,%rdi
rorxq $34,%r9,%r14
rorxq $28,%r9,%r13
leaq (%rax,%r8,1),%rax
andq %rdi,%r15
xorq %r12,%r14
xorq %r10,%r15
xorq %r13,%r14
leaq (%r8,%r15,1),%r8
movq %rbx,%r12
addq 64+16(%rbp),%rdx
andq %rax,%r12
rorxq $41,%rax,%r13
rorxq $18,%rax,%r15
leaq (%r8,%r14,1),%r8
leaq (%rdx,%r12,1),%rdx
andnq %rcx,%rax,%r12
xorq %r15,%r13
rorxq $14,%rax,%r14
leaq (%rdx,%r12,1),%rdx
xorq %r14,%r13
movq %r8,%r15
rorxq $39,%r8,%r12
leaq (%rdx,%r13,1),%rdx
xorq %r9,%r15
rorxq $34,%r8,%r14
rorxq $28,%r8,%r13
leaq (%r11,%rdx,1),%r11
andq %r15,%rdi
xorq %r12,%r14
xorq %r9,%rdi
xorq %r13,%r14
leaq (%rdx,%rdi,1),%rdx
movq %rax,%r12
addq 72+16(%rbp),%rcx
andq %r11,%r12
rorxq $41,%r11,%r13
rorxq $18,%r11,%rdi
leaq (%rdx,%r14,1),%rdx
leaq (%rcx,%r12,1),%rcx
andnq %rbx,%r11,%r12
xorq %rdi,%r13
rorxq $14,%r11,%r14
leaq (%rcx,%r12,1),%rcx
xorq %r14,%r13
movq %rdx,%rdi
rorxq $39,%rdx,%r12
leaq (%rcx,%r13,1),%rcx
xorq %r8,%rdi
rorxq $34,%rdx,%r14
rorxq $28,%rdx,%r13
leaq (%r10,%rcx,1),%r10
andq %rdi,%r15
xorq %r12,%r14
xorq %r8,%r15
xorq %r13,%r14
leaq (%rcx,%r15,1),%rcx
movq %r11,%r12
addq 96+16(%rbp),%rbx
andq %r10,%r12
rorxq $41,%r10,%r13
rorxq $18,%r10,%r15
leaq (%rcx,%r14,1),%rcx
leaq (%rbx,%r12,1),%rbx
andnq %rax,%r10,%r12
xorq %r15,%r13
rorxq $14,%r10,%r14
leaq (%rbx,%r12,1),%rbx
xorq %r14,%r13
movq %rcx,%r15
rorxq $39,%rcx,%r12
leaq (%rbx,%r13,1),%rbx
xorq %rdx,%r15
rorxq $34,%rcx,%r14
rorxq $28,%rcx,%r13
leaq (%r9,%rbx,1),%r9
andq %r15,%rdi
xorq %r12,%r14
xorq %rdx,%rdi
xorq %r13,%r14
leaq (%rbx,%rdi,1),%rbx
movq %r10,%r12
addq 104+16(%rbp),%rax
andq %r9,%r12
rorxq $41,%r9,%r13
rorxq $18,%r9,%rdi
leaq (%rbx,%r14,1),%rbx
leaq (%rax,%r12,1),%rax
andnq %r11,%r9,%r12
xorq %rdi,%r13
rorxq $14,%r9,%r14
leaq (%rax,%r12,1),%rax
xorq %r14,%r13
movq %rbx,%rdi
rorxq $39,%rbx,%r12
leaq (%rax,%r13,1),%rax
xorq %rcx,%rdi
rorxq $34,%rbx,%r14
rorxq $28,%rbx,%r13
leaq (%r8,%rax,1),%r8
andq %rdi,%r15
xorq %r12,%r14
xorq %rcx,%r15
xorq %r13,%r14
leaq (%rax,%r15,1),%rax
movq %r9,%r12
leaq -128(%rbp),%rbp
cmpq %rsp,%rbp
jae .Lower_avx2
movq 1280(%rsp),%rdi
addq %r14,%rax
leaq 1152(%rsp),%rsp
.cfi_escape 0x0f,0x06,0x77,0x98,0x01,0x06,0x23,0x08
addq 0(%rdi),%rax
addq 8(%rdi),%rbx
addq 16(%rdi),%rcx
addq 24(%rdi),%rdx
addq 32(%rdi),%r8
addq 40(%rdi),%r9
leaq 256(%rsi),%rsi
addq 48(%rdi),%r10
movq %rsi,%r12
addq 56(%rdi),%r11
cmpq 128+16(%rsp),%rsi
movq %rax,0(%rdi)
cmoveq %rsp,%r12
movq %rbx,8(%rdi)
movq %rcx,16(%rdi)
movq %rdx,24(%rdi)
movq %r8,32(%rdi)
movq %r9,40(%rdi)
movq %r10,48(%rdi)
movq %r11,56(%rdi)
jbe .Loop_avx2
leaq (%rsp),%rbp
.cfi_escape 0x0f,0x06,0x76,0x98,0x01,0x06,0x23,0x08
.Ldone_avx2:
movq 152(%rbp),%rsi
.cfi_def_cfa %rsi,8
vzeroupper
movq -48(%rsi),%r15
.cfi_restore %r15
movq -40(%rsi),%r14
.cfi_restore %r14
movq -32(%rsi),%r13
.cfi_restore %r13
movq -24(%rsi),%r12
.cfi_restore %r12
movq -16(%rsi),%rbp
.cfi_restore %rbp
movq -8(%rsi),%rbx
.cfi_restore %rbx
leaq (%rsi),%rsp
.cfi_def_cfa_register %rsp
.Lepilogue_avx2:
RET
.cfi_endproc
SET_SIZE(zfs_sha512_transform_avx2)
#if defined(__ELF__)
.section .note.GNU-stack,"",%progbits
#endif
#endif