From mboxrd@z Thu Jan 1 00:00:00 1970 Received: from mga03.intel.com (mga03.intel.com [134.134.136.65]) by mx.groups.io with SMTP id smtpd.web11.7874.1677203345475595773 for ; Thu, 23 Feb 2023 17:49:05 -0800 Authentication-Results: mx.groups.io; dkim=fail reason="unable to parse pub key" header.i=@intel.com header.s=intel header.b=HhHkshCa; spf=pass (domain: intel.com, ip: 134.134.136.65, mailfrom: w.sheng@intel.com) DKIM-Signature: v=1; a=rsa-sha256; c=relaxed/simple; d=intel.com; i=@intel.com; q=dns/txt; s=Intel; t=1677203345; x=1708739345; h=from:to:cc:subject:date:message-id:mime-version: content-transfer-encoding; bh=Mzpx48lhrYfDGIgvnKXtIPMeyjoJ6C5SNIjCyyhJZ3Y=; b=HhHkshCaRmX42h5AqJZkL/cOBDfJ8E2Wbxf2kseoRaM8pvw04b566CWw WXhPfeytxmN/MEMDsIuGhSXycN5ar70qH3VgVRq+dQflzMuSRlyQStOSf h9mi21e/3A2dknnHkT6mwnFk5phIWgfbmZyPQS7iwWah6zu5WLwFS++WH fEClI27II1TKZQiP9LE5cG8MT9OAFB2IkWITjrnv90vwesIWU4b3kTaT8 RLzBrjKc6BO/4KiNU+Ft/SA0O2Ht+P34ezdzwCIzXposIibrlWt/yzpga PGc3Ix9lVd3ias85NDLlZt22cp/Z8vbfy0HPMakKgjdqa9tfBCCMv/l7Q A==; X-IronPort-AV: E=McAfee;i="6500,9779,10630"; a="335610052" X-IronPort-AV: E=Sophos;i="5.97,322,1669104000"; d="scan'208";a="335610052" Received: from orsmga001.jf.intel.com ([10.7.209.18]) by orsmga103.jf.intel.com with ESMTP/TLS/ECDHE-RSA-AES256-GCM-SHA384; 23 Feb 2023 17:49:04 -0800 X-ExtLoop1: 1 X-IronPort-AV: E=McAfee;i="6500,9779,10630"; a="705096416" X-IronPort-AV: E=Sophos;i="5.97,322,1669104000"; d="scan'208";a="705096416" Received: from shwdesssddpdwei.ccr.corp.intel.com ([10.239.157.43]) by orsmga001.jf.intel.com with ESMTP; 23 Feb 2023 17:48:58 -0800 From: "Sheng Wei" To: devel@edk2.groups.io Cc: Jian J Wang , Jiewen Yao , Xiaoyu Lu , Guomin Jiang Subject: [PATCH] CryptoPkg/OpensslLib: Upgrade OpenSSL to 1.1.1t Date: Fri, 24 Feb 2023 09:48:54 +0800 Message-Id: <20230224014854.1104-1-w.sheng@intel.com> X-Mailer: git-send-email 2.26.2.windows.1 MIME-Version: 1.0 Content-Transfer-Encoding: quoted-printable Upgrade openssl to 1.1.1t Pick up bugfixes from the latest openssl release. Cc: Jian J Wang Cc: Jiewen Yao Cc: Xiaoyu Lu Cc: Guomin Jiang Signed-off-by: Sheng Wei --- CryptoPkg/Library/OpensslLib/OpensslLib.inf | 1 + .../Library/OpensslLib/OpensslLibAccel.inf | 1 + .../Library/OpensslLib/OpensslLibCrypto.inf | 1 + .../Library/OpensslLib/OpensslLibFull.inf | 1 + .../OpensslLib/OpensslLibFullAccel.inf | 1 + .../X64Gcc/crypto/aes/aesni-mb-x86_64.S | 552 -- .../X64Gcc/crypto/aes/aesni-sha1-x86_64.S | 1719 ------- .../X64Gcc/crypto/aes/aesni-sha256-x86_64.S | 69 - .../X64Gcc/crypto/aes/aesni-x86_64.S | 4484 ----------------- .../X64Gcc/crypto/aes/vpaes-x86_64.S | 863 ---- .../X64Gcc/crypto/modes/aesni-gcm-x86_64.S | 29 - .../X64Gcc/crypto/modes/ghash-x86_64.S | 1386 ----- .../X64Gcc/crypto/sha/sha1-mb-x86_64.S | 2962 ----------- .../X64Gcc/crypto/sha/sha1-x86_64.S | 2631 ---------- .../X64Gcc/crypto/sha/sha256-mb-x86_64.S | 3286 ------------ .../X64Gcc/crypto/sha/sha256-x86_64.S | 3097 ------------ .../X64Gcc/crypto/sha/sha512-x86_64.S | 1811 ------- .../OpensslLib/X64Gcc/crypto/x86_64cpuid.S | 491 -- CryptoPkg/Library/OpensslLib/openssl | 2 +- 19 files changed, 6 insertions(+), 23381 deletions(-) delete mode 100644 CryptoPkg/Library/OpensslLib/X64Gcc/crypto/aes/aesni-mb= -x86_64.S delete mode 100644 CryptoPkg/Library/OpensslLib/X64Gcc/crypto/aes/aesni-sh= a1-x86_64.S delete mode 100644 CryptoPkg/Library/OpensslLib/X64Gcc/crypto/aes/aesni-sh= a256-x86_64.S delete mode 100644 CryptoPkg/Library/OpensslLib/X64Gcc/crypto/aes/aesni-x8= 6_64.S delete mode 100644 CryptoPkg/Library/OpensslLib/X64Gcc/crypto/aes/vpaes-x8= 6_64.S delete mode 100644 CryptoPkg/Library/OpensslLib/X64Gcc/crypto/modes/aesni-= gcm-x86_64.S delete mode 100644 CryptoPkg/Library/OpensslLib/X64Gcc/crypto/modes/ghash-= x86_64.S delete mode 100644 CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha1-mb-= x86_64.S delete mode 100644 CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha1-x86= _64.S delete mode 100644 CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha256-m= b-x86_64.S delete mode 100644 CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha256-x= 86_64.S delete mode 100644 CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha512-x= 86_64.S delete mode 100644 CryptoPkg/Library/OpensslLib/X64Gcc/crypto/x86_64cpuid.S diff --git a/CryptoPkg/Library/OpensslLib/OpensslLib.inf b/CryptoPkg/Librar= y/OpensslLib/OpensslLib.inf index 60c6c24b0a..1474df8125 100644 --- a/CryptoPkg/Library/OpensslLib/OpensslLib.inf +++ b/CryptoPkg/Library/OpensslLib/OpensslLib.inf @@ -162,6 +162,7 @@ $(OPENSSL_PATH)/crypto/bn/bn_srp.c=0D $(OPENSSL_PATH)/crypto/bn/bn_word.c=0D $(OPENSSL_PATH)/crypto/bn/bn_x931p.c=0D + $(OPENSSL_PATH)/crypto/bn/rsa_sup_mul.c=0D $(OPENSSL_PATH)/crypto/buffer/buf_err.c=0D $(OPENSSL_PATH)/crypto/buffer/buffer.c=0D $(OPENSSL_PATH)/crypto/cmac/cm_ameth.c=0D diff --git a/CryptoPkg/Library/OpensslLib/OpensslLibAccel.inf b/CryptoPkg/L= ibrary/OpensslLib/OpensslLibAccel.inf index 103ef7bda2..3c5f6d5d17 100644 --- a/CryptoPkg/Library/OpensslLib/OpensslLibAccel.inf +++ b/CryptoPkg/Library/OpensslLib/OpensslLibAccel.inf @@ -163,6 +163,7 @@ $(OPENSSL_PATH)/crypto/bn/bn_srp.c=0D $(OPENSSL_PATH)/crypto/bn/bn_word.c=0D $(OPENSSL_PATH)/crypto/bn/bn_x931p.c=0D + $(OPENSSL_PATH)/crypto/bn/rsa_sup_mul.c=0D $(OPENSSL_PATH)/crypto/buffer/buf_err.c=0D $(OPENSSL_PATH)/crypto/buffer/buffer.c=0D $(OPENSSL_PATH)/crypto/cmac/cm_ameth.c=0D diff --git a/CryptoPkg/Library/OpensslLib/OpensslLibCrypto.inf b/CryptoPkg/= Library/OpensslLib/OpensslLibCrypto.inf index c4eaea888c..a9adb94720 100644 --- a/CryptoPkg/Library/OpensslLib/OpensslLibCrypto.inf +++ b/CryptoPkg/Library/OpensslLib/OpensslLibCrypto.inf @@ -163,6 +163,7 @@ $(OPENSSL_PATH)/crypto/bn/bn_srp.c=0D $(OPENSSL_PATH)/crypto/bn/bn_word.c=0D $(OPENSSL_PATH)/crypto/bn/bn_x931p.c=0D + $(OPENSSL_PATH)/crypto/bn/rsa_sup_mul.c=0D $(OPENSSL_PATH)/crypto/buffer/buf_err.c=0D $(OPENSSL_PATH)/crypto/buffer/buffer.c=0D $(OPENSSL_PATH)/crypto/cmac/cm_ameth.c=0D diff --git a/CryptoPkg/Library/OpensslLib/OpensslLibFull.inf b/CryptoPkg/Li= brary/OpensslLib/OpensslLibFull.inf index 309e43055c..4c2cbe9cf7 100644 --- a/CryptoPkg/Library/OpensslLib/OpensslLibFull.inf +++ b/CryptoPkg/Library/OpensslLib/OpensslLibFull.inf @@ -167,6 +167,7 @@ $(OPENSSL_PATH)/crypto/bn/bn_srp.c=0D $(OPENSSL_PATH)/crypto/bn/bn_word.c=0D $(OPENSSL_PATH)/crypto/bn/bn_x931p.c=0D + $(OPENSSL_PATH)/crypto/bn/rsa_sup_mul.c=0D $(OPENSSL_PATH)/crypto/buffer/buf_err.c=0D $(OPENSSL_PATH)/crypto/buffer/buffer.c=0D $(OPENSSL_PATH)/crypto/cmac/cm_ameth.c=0D diff --git a/CryptoPkg/Library/OpensslLib/OpensslLibFullAccel.inf b/CryptoP= kg/Library/OpensslLib/OpensslLibFullAccel.inf index 4eeeeb79bd..591c57fdc2 100644 --- a/CryptoPkg/Library/OpensslLib/OpensslLibFullAccel.inf +++ b/CryptoPkg/Library/OpensslLib/OpensslLibFullAccel.inf @@ -168,6 +168,7 @@ $(OPENSSL_PATH)/crypto/bn/bn_srp.c=0D $(OPENSSL_PATH)/crypto/bn/bn_word.c=0D $(OPENSSL_PATH)/crypto/bn/bn_x931p.c=0D + $(OPENSSL_PATH)/crypto/bn/rsa_sup_mul.c=0D $(OPENSSL_PATH)/crypto/buffer/buf_err.c=0D $(OPENSSL_PATH)/crypto/buffer/buffer.c=0D $(OPENSSL_PATH)/crypto/cmac/cm_ameth.c=0D diff --git a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/aes/aesni-mb-x86_64= .S b/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/aes/aesni-mb-x86_64.S deleted file mode 100644 index 7749fd685a..0000000000 --- a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/aes/aesni-mb-x86_64.S +++ /dev/null @@ -1,552 +0,0 @@ -# WARNING: do not edit!=0D -# Generated from openssl/crypto/aes/asm/aesni-mb-x86_64.pl=0D -#=0D -# Copyright 2013-2020 The OpenSSL Project Authors. All Rights Reserved.=0D -#=0D -# Licensed under the OpenSSL license (the "License"). You may not use=0D -# this file except in compliance with the License. You can obtain a copy= =0D -# in the file LICENSE in the source distribution or at=0D -# https://www.openssl.org/source/license.html=0D -=0D -.text=0D -=0D -=0D -=0D -.globl aesni_multi_cbc_encrypt=0D -.type aesni_multi_cbc_encrypt,@function=0D -.align 32=0D -aesni_multi_cbc_encrypt:=0D -.cfi_startproc=0D - movq %rsp,%rax=0D -.cfi_def_cfa_register %rax=0D - pushq %rbx=0D -.cfi_offset %rbx,-16=0D - pushq %rbp=0D -.cfi_offset %rbp,-24=0D - pushq %r12=0D -.cfi_offset %r12,-32=0D - pushq %r13=0D -.cfi_offset %r13,-40=0D - pushq %r14=0D -.cfi_offset %r14,-48=0D - pushq %r15=0D -.cfi_offset %r15,-56=0D -=0D -=0D -=0D -=0D -=0D -=0D - subq $48,%rsp=0D - andq $-64,%rsp=0D - movq %rax,16(%rsp)=0D -.cfi_escape 0x0f,0x05,0x77,0x10,0x06,0x23,0x08=0D -=0D -.Lenc4x_body:=0D - movdqu (%rsi),%xmm12=0D - leaq 120(%rsi),%rsi=0D - leaq 80(%rdi),%rdi=0D -=0D -.Lenc4x_loop_grande:=0D - movl %edx,24(%rsp)=0D - xorl %edx,%edx=0D - movl -64(%rdi),%ecx=0D - movq -80(%rdi),%r8=0D - cmpl %edx,%ecx=0D - movq -72(%rdi),%r12=0D - cmovgl %ecx,%edx=0D - testl %ecx,%ecx=0D - movdqu -56(%rdi),%xmm2=0D - movl %ecx,32(%rsp)=0D - cmovleq %rsp,%r8=0D - movl -24(%rdi),%ecx=0D - movq -40(%rdi),%r9=0D - cmpl %edx,%ecx=0D - movq -32(%rdi),%r13=0D - cmovgl %ecx,%edx=0D - testl %ecx,%ecx=0D - movdqu -16(%rdi),%xmm3=0D - movl %ecx,36(%rsp)=0D - cmovleq %rsp,%r9=0D - movl 16(%rdi),%ecx=0D - movq 0(%rdi),%r10=0D - cmpl %edx,%ecx=0D - movq 8(%rdi),%r14=0D - cmovgl %ecx,%edx=0D - testl %ecx,%ecx=0D - movdqu 24(%rdi),%xmm4=0D - movl %ecx,40(%rsp)=0D - cmovleq %rsp,%r10=0D - movl 56(%rdi),%ecx=0D - movq 40(%rdi),%r11=0D - cmpl %edx,%ecx=0D - movq 48(%rdi),%r15=0D - cmovgl %ecx,%edx=0D - testl %ecx,%ecx=0D - movdqu 64(%rdi),%xmm5=0D - movl %ecx,44(%rsp)=0D - cmovleq %rsp,%r11=0D - testl %edx,%edx=0D - jz .Lenc4x_done=0D -=0D - movups 16-120(%rsi),%xmm1=0D - pxor %xmm12,%xmm2=0D - movups 32-120(%rsi),%xmm0=0D - pxor %xmm12,%xmm3=0D - movl 240-120(%rsi),%eax=0D - pxor %xmm12,%xmm4=0D - movdqu (%r8),%xmm6=0D - pxor %xmm12,%xmm5=0D - movdqu (%r9),%xmm7=0D - pxor %xmm6,%xmm2=0D - movdqu (%r10),%xmm8=0D - pxor %xmm7,%xmm3=0D - movdqu (%r11),%xmm9=0D - pxor %xmm8,%xmm4=0D - pxor %xmm9,%xmm5=0D - movdqa 32(%rsp),%xmm10=0D - xorq %rbx,%rbx=0D - jmp .Loop_enc4x=0D -=0D -.align 32=0D -.Loop_enc4x:=0D - addq $16,%rbx=0D - leaq 16(%rsp),%rbp=0D - movl $1,%ecx=0D - subq %rbx,%rbp=0D -=0D -.byte 102,15,56,220,209=0D - prefetcht0 31(%r8,%rbx,1)=0D - prefetcht0 31(%r9,%rbx,1)=0D -.byte 102,15,56,220,217=0D - prefetcht0 31(%r10,%rbx,1)=0D - prefetcht0 31(%r10,%rbx,1)=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D - movups 48-120(%rsi),%xmm1=0D - cmpl 32(%rsp),%ecx=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D -.byte 102,15,56,220,224=0D - cmovgeq %rbp,%r8=0D - cmovgq %rbp,%r12=0D -.byte 102,15,56,220,232=0D - movups -56(%rsi),%xmm0=0D - cmpl 36(%rsp),%ecx=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D - cmovgeq %rbp,%r9=0D - cmovgq %rbp,%r13=0D -.byte 102,15,56,220,233=0D - movups -40(%rsi),%xmm1=0D - cmpl 40(%rsp),%ecx=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D -.byte 102,15,56,220,224=0D - cmovgeq %rbp,%r10=0D - cmovgq %rbp,%r14=0D -.byte 102,15,56,220,232=0D - movups -24(%rsi),%xmm0=0D - cmpl 44(%rsp),%ecx=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D - cmovgeq %rbp,%r11=0D - cmovgq %rbp,%r15=0D -.byte 102,15,56,220,233=0D - movups -8(%rsi),%xmm1=0D - movdqa %xmm10,%xmm11=0D -.byte 102,15,56,220,208=0D - prefetcht0 15(%r12,%rbx,1)=0D - prefetcht0 15(%r13,%rbx,1)=0D -.byte 102,15,56,220,216=0D - prefetcht0 15(%r14,%rbx,1)=0D - prefetcht0 15(%r15,%rbx,1)=0D -.byte 102,15,56,220,224=0D -.byte 102,15,56,220,232=0D - movups 128-120(%rsi),%xmm0=0D - pxor %xmm12,%xmm12=0D -=0D -.byte 102,15,56,220,209=0D - pcmpgtd %xmm12,%xmm11=0D - movdqu -120(%rsi),%xmm12=0D -.byte 102,15,56,220,217=0D - paddd %xmm11,%xmm10=0D - movdqa %xmm10,32(%rsp)=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D - movups 144-120(%rsi),%xmm1=0D -=0D - cmpl $11,%eax=0D -=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D -.byte 102,15,56,220,224=0D -.byte 102,15,56,220,232=0D - movups 160-120(%rsi),%xmm0=0D -=0D - jb .Lenc4x_tail=0D -=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D - movups 176-120(%rsi),%xmm1=0D -=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D -.byte 102,15,56,220,224=0D -.byte 102,15,56,220,232=0D - movups 192-120(%rsi),%xmm0=0D -=0D - je .Lenc4x_tail=0D -=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D - movups 208-120(%rsi),%xmm1=0D -=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D -.byte 102,15,56,220,224=0D -.byte 102,15,56,220,232=0D - movups 224-120(%rsi),%xmm0=0D - jmp .Lenc4x_tail=0D -=0D -.align 32=0D -.Lenc4x_tail:=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D - movdqu (%r8,%rbx,1),%xmm6=0D - movdqu 16-120(%rsi),%xmm1=0D -=0D -.byte 102,15,56,221,208=0D - movdqu (%r9,%rbx,1),%xmm7=0D - pxor %xmm12,%xmm6=0D -.byte 102,15,56,221,216=0D - movdqu (%r10,%rbx,1),%xmm8=0D - pxor %xmm12,%xmm7=0D -.byte 102,15,56,221,224=0D - movdqu (%r11,%rbx,1),%xmm9=0D - pxor %xmm12,%xmm8=0D -.byte 102,15,56,221,232=0D - movdqu 32-120(%rsi),%xmm0=0D - pxor %xmm12,%xmm9=0D -=0D - movups %xmm2,-16(%r12,%rbx,1)=0D - pxor %xmm6,%xmm2=0D - movups %xmm3,-16(%r13,%rbx,1)=0D - pxor %xmm7,%xmm3=0D - movups %xmm4,-16(%r14,%rbx,1)=0D - pxor %xmm8,%xmm4=0D - movups %xmm5,-16(%r15,%rbx,1)=0D - pxor %xmm9,%xmm5=0D -=0D - decl %edx=0D - jnz .Loop_enc4x=0D -=0D - movq 16(%rsp),%rax=0D -.cfi_def_cfa %rax,8=0D - movl 24(%rsp),%edx=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D - leaq 160(%rdi),%rdi=0D - decl %edx=0D - jnz .Lenc4x_loop_grande=0D -=0D -.Lenc4x_done:=0D - movq -48(%rax),%r15=0D -.cfi_restore %r15=0D - movq -40(%rax),%r14=0D -.cfi_restore %r14=0D - movq -32(%rax),%r13=0D -.cfi_restore %r13=0D - movq -24(%rax),%r12=0D -.cfi_restore %r12=0D - movq -16(%rax),%rbp=0D -.cfi_restore %rbp=0D - movq -8(%rax),%rbx=0D -.cfi_restore %rbx=0D - leaq (%rax),%rsp=0D -.cfi_def_cfa_register %rsp=0D -.Lenc4x_epilogue:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size aesni_multi_cbc_encrypt,.-aesni_multi_cbc_encrypt=0D -=0D -.globl aesni_multi_cbc_decrypt=0D -.type aesni_multi_cbc_decrypt,@function=0D -.align 32=0D -aesni_multi_cbc_decrypt:=0D -.cfi_startproc=0D - movq %rsp,%rax=0D -.cfi_def_cfa_register %rax=0D - pushq %rbx=0D -.cfi_offset %rbx,-16=0D - pushq %rbp=0D -.cfi_offset %rbp,-24=0D - pushq %r12=0D -.cfi_offset %r12,-32=0D - pushq %r13=0D -.cfi_offset %r13,-40=0D - pushq %r14=0D -.cfi_offset %r14,-48=0D - pushq %r15=0D -.cfi_offset %r15,-56=0D -=0D -=0D -=0D -=0D -=0D -=0D - subq $48,%rsp=0D - andq $-64,%rsp=0D - movq %rax,16(%rsp)=0D -.cfi_escape 0x0f,0x05,0x77,0x10,0x06,0x23,0x08=0D -=0D -.Ldec4x_body:=0D - movdqu (%rsi),%xmm12=0D - leaq 120(%rsi),%rsi=0D - leaq 80(%rdi),%rdi=0D -=0D -.Ldec4x_loop_grande:=0D - movl %edx,24(%rsp)=0D - xorl %edx,%edx=0D - movl -64(%rdi),%ecx=0D - movq -80(%rdi),%r8=0D - cmpl %edx,%ecx=0D - movq -72(%rdi),%r12=0D - cmovgl %ecx,%edx=0D - testl %ecx,%ecx=0D - movdqu -56(%rdi),%xmm6=0D - movl %ecx,32(%rsp)=0D - cmovleq %rsp,%r8=0D - movl -24(%rdi),%ecx=0D - movq -40(%rdi),%r9=0D - cmpl %edx,%ecx=0D - movq -32(%rdi),%r13=0D - cmovgl %ecx,%edx=0D - testl %ecx,%ecx=0D - movdqu -16(%rdi),%xmm7=0D - movl %ecx,36(%rsp)=0D - cmovleq %rsp,%r9=0D - movl 16(%rdi),%ecx=0D - movq 0(%rdi),%r10=0D - cmpl %edx,%ecx=0D - movq 8(%rdi),%r14=0D - cmovgl %ecx,%edx=0D - testl %ecx,%ecx=0D - movdqu 24(%rdi),%xmm8=0D - movl %ecx,40(%rsp)=0D - cmovleq %rsp,%r10=0D - movl 56(%rdi),%ecx=0D - movq 40(%rdi),%r11=0D - cmpl %edx,%ecx=0D - movq 48(%rdi),%r15=0D - cmovgl %ecx,%edx=0D - testl %ecx,%ecx=0D - movdqu 64(%rdi),%xmm9=0D - movl %ecx,44(%rsp)=0D - cmovleq %rsp,%r11=0D - testl %edx,%edx=0D - jz .Ldec4x_done=0D -=0D - movups 16-120(%rsi),%xmm1=0D - movups 32-120(%rsi),%xmm0=0D - movl 240-120(%rsi),%eax=0D - movdqu (%r8),%xmm2=0D - movdqu (%r9),%xmm3=0D - pxor %xmm12,%xmm2=0D - movdqu (%r10),%xmm4=0D - pxor %xmm12,%xmm3=0D - movdqu (%r11),%xmm5=0D - pxor %xmm12,%xmm4=0D - pxor %xmm12,%xmm5=0D - movdqa 32(%rsp),%xmm10=0D - xorq %rbx,%rbx=0D - jmp .Loop_dec4x=0D -=0D -.align 32=0D -.Loop_dec4x:=0D - addq $16,%rbx=0D - leaq 16(%rsp),%rbp=0D - movl $1,%ecx=0D - subq %rbx,%rbp=0D -=0D -.byte 102,15,56,222,209=0D - prefetcht0 31(%r8,%rbx,1)=0D - prefetcht0 31(%r9,%rbx,1)=0D -.byte 102,15,56,222,217=0D - prefetcht0 31(%r10,%rbx,1)=0D - prefetcht0 31(%r11,%rbx,1)=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D - movups 48-120(%rsi),%xmm1=0D - cmpl 32(%rsp),%ecx=0D -.byte 102,15,56,222,208=0D -.byte 102,15,56,222,216=0D -.byte 102,15,56,222,224=0D - cmovgeq %rbp,%r8=0D - cmovgq %rbp,%r12=0D -.byte 102,15,56,222,232=0D - movups -56(%rsi),%xmm0=0D - cmpl 36(%rsp),%ecx=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D - cmovgeq %rbp,%r9=0D - cmovgq %rbp,%r13=0D -.byte 102,15,56,222,233=0D - movups -40(%rsi),%xmm1=0D - cmpl 40(%rsp),%ecx=0D -.byte 102,15,56,222,208=0D -.byte 102,15,56,222,216=0D -.byte 102,15,56,222,224=0D - cmovgeq %rbp,%r10=0D - cmovgq %rbp,%r14=0D -.byte 102,15,56,222,232=0D - movups -24(%rsi),%xmm0=0D - cmpl 44(%rsp),%ecx=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D - cmovgeq %rbp,%r11=0D - cmovgq %rbp,%r15=0D -.byte 102,15,56,222,233=0D - movups -8(%rsi),%xmm1=0D - movdqa %xmm10,%xmm11=0D -.byte 102,15,56,222,208=0D - prefetcht0 15(%r12,%rbx,1)=0D - prefetcht0 15(%r13,%rbx,1)=0D -.byte 102,15,56,222,216=0D - prefetcht0 15(%r14,%rbx,1)=0D - prefetcht0 15(%r15,%rbx,1)=0D -.byte 102,15,56,222,224=0D -.byte 102,15,56,222,232=0D - movups 128-120(%rsi),%xmm0=0D - pxor %xmm12,%xmm12=0D -=0D -.byte 102,15,56,222,209=0D - pcmpgtd %xmm12,%xmm11=0D - movdqu -120(%rsi),%xmm12=0D -.byte 102,15,56,222,217=0D - paddd %xmm11,%xmm10=0D - movdqa %xmm10,32(%rsp)=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D - movups 144-120(%rsi),%xmm1=0D -=0D - cmpl $11,%eax=0D -=0D -.byte 102,15,56,222,208=0D -.byte 102,15,56,222,216=0D -.byte 102,15,56,222,224=0D -.byte 102,15,56,222,232=0D - movups 160-120(%rsi),%xmm0=0D -=0D - jb .Ldec4x_tail=0D -=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D - movups 176-120(%rsi),%xmm1=0D -=0D -.byte 102,15,56,222,208=0D -.byte 102,15,56,222,216=0D -.byte 102,15,56,222,224=0D -.byte 102,15,56,222,232=0D - movups 192-120(%rsi),%xmm0=0D -=0D - je .Ldec4x_tail=0D -=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D - movups 208-120(%rsi),%xmm1=0D -=0D -.byte 102,15,56,222,208=0D -.byte 102,15,56,222,216=0D -.byte 102,15,56,222,224=0D -.byte 102,15,56,222,232=0D - movups 224-120(%rsi),%xmm0=0D - jmp .Ldec4x_tail=0D -=0D -.align 32=0D -.Ldec4x_tail:=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D - pxor %xmm0,%xmm6=0D - pxor %xmm0,%xmm7=0D -.byte 102,15,56,222,233=0D - movdqu 16-120(%rsi),%xmm1=0D - pxor %xmm0,%xmm8=0D - pxor %xmm0,%xmm9=0D - movdqu 32-120(%rsi),%xmm0=0D -=0D -.byte 102,15,56,223,214=0D -.byte 102,15,56,223,223=0D - movdqu -16(%r8,%rbx,1),%xmm6=0D - movdqu -16(%r9,%rbx,1),%xmm7=0D -.byte 102,65,15,56,223,224=0D -.byte 102,65,15,56,223,233=0D - movdqu -16(%r10,%rbx,1),%xmm8=0D - movdqu -16(%r11,%rbx,1),%xmm9=0D -=0D - movups %xmm2,-16(%r12,%rbx,1)=0D - movdqu (%r8,%rbx,1),%xmm2=0D - movups %xmm3,-16(%r13,%rbx,1)=0D - movdqu (%r9,%rbx,1),%xmm3=0D - pxor %xmm12,%xmm2=0D - movups %xmm4,-16(%r14,%rbx,1)=0D - movdqu (%r10,%rbx,1),%xmm4=0D - pxor %xmm12,%xmm3=0D - movups %xmm5,-16(%r15,%rbx,1)=0D - movdqu (%r11,%rbx,1),%xmm5=0D - pxor %xmm12,%xmm4=0D - pxor %xmm12,%xmm5=0D -=0D - decl %edx=0D - jnz .Loop_dec4x=0D -=0D - movq 16(%rsp),%rax=0D -.cfi_def_cfa %rax,8=0D - movl 24(%rsp),%edx=0D -=0D - leaq 160(%rdi),%rdi=0D - decl %edx=0D - jnz .Ldec4x_loop_grande=0D -=0D -.Ldec4x_done:=0D - movq -48(%rax),%r15=0D -.cfi_restore %r15=0D - movq -40(%rax),%r14=0D -.cfi_restore %r14=0D - movq -32(%rax),%r13=0D -.cfi_restore %r13=0D - movq -24(%rax),%r12=0D -.cfi_restore %r12=0D - movq -16(%rax),%rbp=0D -.cfi_restore %rbp=0D - movq -8(%rax),%rbx=0D -.cfi_restore %rbx=0D - leaq (%rax),%rsp=0D -.cfi_def_cfa_register %rsp=0D -.Ldec4x_epilogue:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size aesni_multi_cbc_decrypt,.-aesni_multi_cbc_decrypt=0D diff --git a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/aes/aesni-sha1-x86_= 64.S b/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/aes/aesni-sha1-x86_64.S deleted file mode 100644 index ab763a2eec..0000000000 --- a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/aes/aesni-sha1-x86_64.S +++ /dev/null @@ -1,1719 +0,0 @@ -# WARNING: do not edit!=0D -# Generated from openssl/crypto/aes/asm/aesni-sha1-x86_64.pl=0D -#=0D -# Copyright 2011-2020 The OpenSSL Project Authors. All Rights Reserved.=0D -#=0D -# Licensed under the OpenSSL license (the "License"). You may not use=0D -# this file except in compliance with the License. You can obtain a copy= =0D -# in the file LICENSE in the source distribution or at=0D -# https://www.openssl.org/source/license.html=0D -=0D -.text=0D -=0D -=0D -.globl aesni_cbc_sha1_enc=0D -.type aesni_cbc_sha1_enc,@function=0D -.align 32=0D -aesni_cbc_sha1_enc:=0D -.cfi_startproc=0D -=0D - movl OPENSSL_ia32cap_P+0(%rip),%r10d=0D - movq OPENSSL_ia32cap_P+4(%rip),%r11=0D - btq $61,%r11=0D - jc aesni_cbc_sha1_enc_shaext=0D - jmp aesni_cbc_sha1_enc_ssse3=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size aesni_cbc_sha1_enc,.-aesni_cbc_sha1_enc=0D -.type aesni_cbc_sha1_enc_ssse3,@function=0D -.align 32=0D -aesni_cbc_sha1_enc_ssse3:=0D -.cfi_startproc=0D - movq 8(%rsp),%r10=0D -=0D -=0D - pushq %rbx=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %rbx,-16=0D - pushq %rbp=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %rbp,-24=0D - pushq %r12=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %r12,-32=0D - pushq %r13=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %r13,-40=0D - pushq %r14=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %r14,-48=0D - pushq %r15=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %r15,-56=0D - leaq -104(%rsp),%rsp=0D -.cfi_adjust_cfa_offset 104=0D -=0D -=0D - movq %rdi,%r12=0D - movq %rsi,%r13=0D - movq %rdx,%r14=0D - leaq 112(%rcx),%r15=0D - movdqu (%r8),%xmm2=0D - movq %r8,88(%rsp)=0D - shlq $6,%r14=0D - subq %r12,%r13=0D - movl 240-112(%r15),%r8d=0D - addq %r10,%r14=0D -=0D - leaq K_XX_XX(%rip),%r11=0D - movl 0(%r9),%eax=0D - movl 4(%r9),%ebx=0D - movl 8(%r9),%ecx=0D - movl 12(%r9),%edx=0D - movl %ebx,%esi=0D - movl 16(%r9),%ebp=0D - movl %ecx,%edi=0D - xorl %edx,%edi=0D - andl %edi,%esi=0D -=0D - movdqa 64(%r11),%xmm3=0D - movdqa 0(%r11),%xmm13=0D - movdqu 0(%r10),%xmm4=0D - movdqu 16(%r10),%xmm5=0D - movdqu 32(%r10),%xmm6=0D - movdqu 48(%r10),%xmm7=0D -.byte 102,15,56,0,227=0D -.byte 102,15,56,0,235=0D -.byte 102,15,56,0,243=0D - addq $64,%r10=0D - paddd %xmm13,%xmm4=0D -.byte 102,15,56,0,251=0D - paddd %xmm13,%xmm5=0D - paddd %xmm13,%xmm6=0D - movdqa %xmm4,0(%rsp)=0D - psubd %xmm13,%xmm4=0D - movdqa %xmm5,16(%rsp)=0D - psubd %xmm13,%xmm5=0D - movdqa %xmm6,32(%rsp)=0D - psubd %xmm13,%xmm6=0D - movups -112(%r15),%xmm15=0D - movups 16-112(%r15),%xmm0=0D - jmp .Loop_ssse3=0D -.align 32=0D -.Loop_ssse3:=0D - rorl $2,%ebx=0D - movups 0(%r12),%xmm14=0D - xorps %xmm15,%xmm14=0D - xorps %xmm14,%xmm2=0D - movups -80(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - pshufd $238,%xmm4,%xmm8=0D - xorl %edx,%esi=0D - movdqa %xmm7,%xmm12=0D - paddd %xmm7,%xmm13=0D - movl %eax,%edi=0D - addl 0(%rsp),%ebp=0D - punpcklqdq %xmm5,%xmm8=0D - xorl %ecx,%ebx=0D - roll $5,%eax=0D - addl %esi,%ebp=0D - psrldq $4,%xmm12=0D - andl %ebx,%edi=0D - xorl %ecx,%ebx=0D - pxor %xmm4,%xmm8=0D - addl %eax,%ebp=0D - rorl $7,%eax=0D - pxor %xmm6,%xmm12=0D - xorl %ecx,%edi=0D - movl %ebp,%esi=0D - addl 4(%rsp),%edx=0D - pxor %xmm12,%xmm8=0D - xorl %ebx,%eax=0D - roll $5,%ebp=0D - movdqa %xmm13,48(%rsp)=0D - addl %edi,%edx=0D - movups -64(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - andl %eax,%esi=0D - movdqa %xmm8,%xmm3=0D - xorl %ebx,%eax=0D - addl %ebp,%edx=0D - rorl $7,%ebp=0D - movdqa %xmm8,%xmm12=0D - xorl %ebx,%esi=0D - pslldq $12,%xmm3=0D - paddd %xmm8,%xmm8=0D - movl %edx,%edi=0D - addl 8(%rsp),%ecx=0D - psrld $31,%xmm12=0D - xorl %eax,%ebp=0D - roll $5,%edx=0D - addl %esi,%ecx=0D - movdqa %xmm3,%xmm13=0D - andl %ebp,%edi=0D - xorl %eax,%ebp=0D - psrld $30,%xmm3=0D - addl %edx,%ecx=0D - rorl $7,%edx=0D - por %xmm12,%xmm8=0D - xorl %eax,%edi=0D - movl %ecx,%esi=0D - addl 12(%rsp),%ebx=0D - movups -48(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - pslld $2,%xmm13=0D - pxor %xmm3,%xmm8=0D - xorl %ebp,%edx=0D - movdqa 0(%r11),%xmm3=0D - roll $5,%ecx=0D - addl %edi,%ebx=0D - andl %edx,%esi=0D - pxor %xmm13,%xmm8=0D - xorl %ebp,%edx=0D - addl %ecx,%ebx=0D - rorl $7,%ecx=0D - pshufd $238,%xmm5,%xmm9=0D - xorl %ebp,%esi=0D - movdqa %xmm8,%xmm13=0D - paddd %xmm8,%xmm3=0D - movl %ebx,%edi=0D - addl 16(%rsp),%eax=0D - punpcklqdq %xmm6,%xmm9=0D - xorl %edx,%ecx=0D - roll $5,%ebx=0D - addl %esi,%eax=0D - psrldq $4,%xmm13=0D - andl %ecx,%edi=0D - xorl %edx,%ecx=0D - pxor %xmm5,%xmm9=0D - addl %ebx,%eax=0D - rorl $7,%ebx=0D - movups -32(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - pxor %xmm7,%xmm13=0D - xorl %edx,%edi=0D - movl %eax,%esi=0D - addl 20(%rsp),%ebp=0D - pxor %xmm13,%xmm9=0D - xorl %ecx,%ebx=0D - roll $5,%eax=0D - movdqa %xmm3,0(%rsp)=0D - addl %edi,%ebp=0D - andl %ebx,%esi=0D - movdqa %xmm9,%xmm12=0D - xorl %ecx,%ebx=0D - addl %eax,%ebp=0D - rorl $7,%eax=0D - movdqa %xmm9,%xmm13=0D - xorl %ecx,%esi=0D - pslldq $12,%xmm12=0D - paddd %xmm9,%xmm9=0D - movl %ebp,%edi=0D - addl 24(%rsp),%edx=0D - psrld $31,%xmm13=0D - xorl %ebx,%eax=0D - roll $5,%ebp=0D - addl %esi,%edx=0D - movups -16(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - movdqa %xmm12,%xmm3=0D - andl %eax,%edi=0D - xorl %ebx,%eax=0D - psrld $30,%xmm12=0D - addl %ebp,%edx=0D - rorl $7,%ebp=0D - por %xmm13,%xmm9=0D - xorl %ebx,%edi=0D - movl %edx,%esi=0D - addl 28(%rsp),%ecx=0D - pslld $2,%xmm3=0D - pxor %xmm12,%xmm9=0D - xorl %eax,%ebp=0D - movdqa 16(%r11),%xmm12=0D - roll $5,%edx=0D - addl %edi,%ecx=0D - andl %ebp,%esi=0D - pxor %xmm3,%xmm9=0D - xorl %eax,%ebp=0D - addl %edx,%ecx=0D - rorl $7,%edx=0D - pshufd $238,%xmm6,%xmm10=0D - xorl %eax,%esi=0D - movdqa %xmm9,%xmm3=0D - paddd %xmm9,%xmm12=0D - movl %ecx,%edi=0D - addl 32(%rsp),%ebx=0D - movups 0(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - punpcklqdq %xmm7,%xmm10=0D - xorl %ebp,%edx=0D - roll $5,%ecx=0D - addl %esi,%ebx=0D - psrldq $4,%xmm3=0D - andl %edx,%edi=0D - xorl %ebp,%edx=0D - pxor %xmm6,%xmm10=0D - addl %ecx,%ebx=0D - rorl $7,%ecx=0D - pxor %xmm8,%xmm3=0D - xorl %ebp,%edi=0D - movl %ebx,%esi=0D - addl 36(%rsp),%eax=0D - pxor %xmm3,%xmm10=0D - xorl %edx,%ecx=0D - roll $5,%ebx=0D - movdqa %xmm12,16(%rsp)=0D - addl %edi,%eax=0D - andl %ecx,%esi=0D - movdqa %xmm10,%xmm13=0D - xorl %edx,%ecx=0D - addl %ebx,%eax=0D - rorl $7,%ebx=0D - movups 16(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - movdqa %xmm10,%xmm3=0D - xorl %edx,%esi=0D - pslldq $12,%xmm13=0D - paddd %xmm10,%xmm10=0D - movl %eax,%edi=0D - addl 40(%rsp),%ebp=0D - psrld $31,%xmm3=0D - xorl %ecx,%ebx=0D - roll $5,%eax=0D - addl %esi,%ebp=0D - movdqa %xmm13,%xmm12=0D - andl %ebx,%edi=0D - xorl %ecx,%ebx=0D - psrld $30,%xmm13=0D - addl %eax,%ebp=0D - rorl $7,%eax=0D - por %xmm3,%xmm10=0D - xorl %ecx,%edi=0D - movl %ebp,%esi=0D - addl 44(%rsp),%edx=0D - pslld $2,%xmm12=0D - pxor %xmm13,%xmm10=0D - xorl %ebx,%eax=0D - movdqa 16(%r11),%xmm13=0D - roll $5,%ebp=0D - addl %edi,%edx=0D - movups 32(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - andl %eax,%esi=0D - pxor %xmm12,%xmm10=0D - xorl %ebx,%eax=0D - addl %ebp,%edx=0D - rorl $7,%ebp=0D - pshufd $238,%xmm7,%xmm11=0D - xorl %ebx,%esi=0D - movdqa %xmm10,%xmm12=0D - paddd %xmm10,%xmm13=0D - movl %edx,%edi=0D - addl 48(%rsp),%ecx=0D - punpcklqdq %xmm8,%xmm11=0D - xorl %eax,%ebp=0D - roll $5,%edx=0D - addl %esi,%ecx=0D - psrldq $4,%xmm12=0D - andl %ebp,%edi=0D - xorl %eax,%ebp=0D - pxor %xmm7,%xmm11=0D - addl %edx,%ecx=0D - rorl $7,%edx=0D - pxor %xmm9,%xmm12=0D - xorl %eax,%edi=0D - movl %ecx,%esi=0D - addl 52(%rsp),%ebx=0D - movups 48(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - pxor %xmm12,%xmm11=0D - xorl %ebp,%edx=0D - roll $5,%ecx=0D - movdqa %xmm13,32(%rsp)=0D - addl %edi,%ebx=0D - andl %edx,%esi=0D - movdqa %xmm11,%xmm3=0D - xorl %ebp,%edx=0D - addl %ecx,%ebx=0D - rorl $7,%ecx=0D - movdqa %xmm11,%xmm12=0D - xorl %ebp,%esi=0D - pslldq $12,%xmm3=0D - paddd %xmm11,%xmm11=0D - movl %ebx,%edi=0D - addl 56(%rsp),%eax=0D - psrld $31,%xmm12=0D - xorl %edx,%ecx=0D - roll $5,%ebx=0D - addl %esi,%eax=0D - movdqa %xmm3,%xmm13=0D - andl %ecx,%edi=0D - xorl %edx,%ecx=0D - psrld $30,%xmm3=0D - addl %ebx,%eax=0D - rorl $7,%ebx=0D - cmpl $11,%r8d=0D - jb .Laesenclast1=0D - movups 64(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - movups 80(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - je .Laesenclast1=0D - movups 96(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - movups 112(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D -.Laesenclast1:=0D -.byte 102,15,56,221,209=0D - movups 16-112(%r15),%xmm0=0D - por %xmm12,%xmm11=0D - xorl %edx,%edi=0D - movl %eax,%esi=0D - addl 60(%rsp),%ebp=0D - pslld $2,%xmm13=0D - pxor %xmm3,%xmm11=0D - xorl %ecx,%ebx=0D - movdqa 16(%r11),%xmm3=0D - roll $5,%eax=0D - addl %edi,%ebp=0D - andl %ebx,%esi=0D - pxor %xmm13,%xmm11=0D - pshufd $238,%xmm10,%xmm13=0D - xorl %ecx,%ebx=0D - addl %eax,%ebp=0D - rorl $7,%eax=0D - pxor %xmm8,%xmm4=0D - xorl %ecx,%esi=0D - movl %ebp,%edi=0D - addl 0(%rsp),%edx=0D - punpcklqdq %xmm11,%xmm13=0D - xorl %ebx,%eax=0D - roll $5,%ebp=0D - pxor %xmm5,%xmm4=0D - addl %esi,%edx=0D - movups 16(%r12),%xmm14=0D - xorps %xmm15,%xmm14=0D - movups %xmm2,0(%r12,%r13,1)=0D - xorps %xmm14,%xmm2=0D - movups -80(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - andl %eax,%edi=0D - movdqa %xmm3,%xmm12=0D - xorl %ebx,%eax=0D - paddd %xmm11,%xmm3=0D - addl %ebp,%edx=0D - pxor %xmm13,%xmm4=0D - rorl $7,%ebp=0D - xorl %ebx,%edi=0D - movl %edx,%esi=0D - addl 4(%rsp),%ecx=0D - movdqa %xmm4,%xmm13=0D - xorl %eax,%ebp=0D - roll $5,%edx=0D - movdqa %xmm3,48(%rsp)=0D - addl %edi,%ecx=0D - andl %ebp,%esi=0D - xorl %eax,%ebp=0D - pslld $2,%xmm4=0D - addl %edx,%ecx=0D - rorl $7,%edx=0D - psrld $30,%xmm13=0D - xorl %eax,%esi=0D - movl %ecx,%edi=0D - addl 8(%rsp),%ebx=0D - movups -64(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - por %xmm13,%xmm4=0D - xorl %ebp,%edx=0D - roll $5,%ecx=0D - pshufd $238,%xmm11,%xmm3=0D - addl %esi,%ebx=0D - andl %edx,%edi=0D - xorl %ebp,%edx=0D - addl %ecx,%ebx=0D - addl 12(%rsp),%eax=0D - xorl %ebp,%edi=0D - movl %ebx,%esi=0D - roll $5,%ebx=0D - addl %edi,%eax=0D - xorl %edx,%esi=0D - rorl $7,%ecx=0D - addl %ebx,%eax=0D - pxor %xmm9,%xmm5=0D - addl 16(%rsp),%ebp=0D - movups -48(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - xorl %ecx,%esi=0D - punpcklqdq %xmm4,%xmm3=0D - movl %eax,%edi=0D - roll $5,%eax=0D - pxor %xmm6,%xmm5=0D - addl %esi,%ebp=0D - xorl %ecx,%edi=0D - movdqa %xmm12,%xmm13=0D - rorl $7,%ebx=0D - paddd %xmm4,%xmm12=0D - addl %eax,%ebp=0D - pxor %xmm3,%xmm5=0D - addl 20(%rsp),%edx=0D - xorl %ebx,%edi=0D - movl %ebp,%esi=0D - roll $5,%ebp=0D - movdqa %xmm5,%xmm3=0D - addl %edi,%edx=0D - xorl %ebx,%esi=0D - movdqa %xmm12,0(%rsp)=0D - rorl $7,%eax=0D - addl %ebp,%edx=0D - addl 24(%rsp),%ecx=0D - pslld $2,%xmm5=0D - xorl %eax,%esi=0D - movl %edx,%edi=0D - psrld $30,%xmm3=0D - roll $5,%edx=0D - addl %esi,%ecx=0D - movups -32(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - xorl %eax,%edi=0D - rorl $7,%ebp=0D - por %xmm3,%xmm5=0D - addl %edx,%ecx=0D - addl 28(%rsp),%ebx=0D - pshufd $238,%xmm4,%xmm12=0D - xorl %ebp,%edi=0D - movl %ecx,%esi=0D - roll $5,%ecx=0D - addl %edi,%ebx=0D - xorl %ebp,%esi=0D - rorl $7,%edx=0D - addl %ecx,%ebx=0D - pxor %xmm10,%xmm6=0D - addl 32(%rsp),%eax=0D - xorl %edx,%esi=0D - punpcklqdq %xmm5,%xmm12=0D - movl %ebx,%edi=0D - roll $5,%ebx=0D - pxor %xmm7,%xmm6=0D - addl %esi,%eax=0D - xorl %edx,%edi=0D - movdqa 32(%r11),%xmm3=0D - rorl $7,%ecx=0D - paddd %xmm5,%xmm13=0D - addl %ebx,%eax=0D - pxor %xmm12,%xmm6=0D - addl 36(%rsp),%ebp=0D - movups -16(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - xorl %ecx,%edi=0D - movl %eax,%esi=0D - roll $5,%eax=0D - movdqa %xmm6,%xmm12=0D - addl %edi,%ebp=0D - xorl %ecx,%esi=0D - movdqa %xmm13,16(%rsp)=0D - rorl $7,%ebx=0D - addl %eax,%ebp=0D - addl 40(%rsp),%edx=0D - pslld $2,%xmm6=0D - xorl %ebx,%esi=0D - movl %ebp,%edi=0D - psrld $30,%xmm12=0D - roll $5,%ebp=0D - addl %esi,%edx=0D - xorl %ebx,%edi=0D - rorl $7,%eax=0D - por %xmm12,%xmm6=0D - addl %ebp,%edx=0D - addl 44(%rsp),%ecx=0D - pshufd $238,%xmm5,%xmm13=0D - xorl %eax,%edi=0D - movl %edx,%esi=0D - roll $5,%edx=0D - addl %edi,%ecx=0D - movups 0(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - xorl %eax,%esi=0D - rorl $7,%ebp=0D - addl %edx,%ecx=0D - pxor %xmm11,%xmm7=0D - addl 48(%rsp),%ebx=0D - xorl %ebp,%esi=0D - punpcklqdq %xmm6,%xmm13=0D - movl %ecx,%edi=0D - roll $5,%ecx=0D - pxor %xmm8,%xmm7=0D - addl %esi,%ebx=0D - xorl %ebp,%edi=0D - movdqa %xmm3,%xmm12=0D - rorl $7,%edx=0D - paddd %xmm6,%xmm3=0D - addl %ecx,%ebx=0D - pxor %xmm13,%xmm7=0D - addl 52(%rsp),%eax=0D - xorl %edx,%edi=0D - movl %ebx,%esi=0D - roll $5,%ebx=0D - movdqa %xmm7,%xmm13=0D - addl %edi,%eax=0D - xorl %edx,%esi=0D - movdqa %xmm3,32(%rsp)=0D - rorl $7,%ecx=0D - addl %ebx,%eax=0D - addl 56(%rsp),%ebp=0D - movups 16(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - pslld $2,%xmm7=0D - xorl %ecx,%esi=0D - movl %eax,%edi=0D - psrld $30,%xmm13=0D - roll $5,%eax=0D - addl %esi,%ebp=0D - xorl %ecx,%edi=0D - rorl $7,%ebx=0D - por %xmm13,%xmm7=0D - addl %eax,%ebp=0D - addl 60(%rsp),%edx=0D - pshufd $238,%xmm6,%xmm3=0D - xorl %ebx,%edi=0D - movl %ebp,%esi=0D - roll $5,%ebp=0D - addl %edi,%edx=0D - xorl %ebx,%esi=0D - rorl $7,%eax=0D - addl %ebp,%edx=0D - pxor %xmm4,%xmm8=0D - addl 0(%rsp),%ecx=0D - xorl %eax,%esi=0D - punpcklqdq %xmm7,%xmm3=0D - movl %edx,%edi=0D - roll $5,%edx=0D - pxor %xmm9,%xmm8=0D - addl %esi,%ecx=0D - movups 32(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - xorl %eax,%edi=0D - movdqa %xmm12,%xmm13=0D - rorl $7,%ebp=0D - paddd %xmm7,%xmm12=0D - addl %edx,%ecx=0D - pxor %xmm3,%xmm8=0D - addl 4(%rsp),%ebx=0D - xorl %ebp,%edi=0D - movl %ecx,%esi=0D - roll $5,%ecx=0D - movdqa %xmm8,%xmm3=0D - addl %edi,%ebx=0D - xorl %ebp,%esi=0D - movdqa %xmm12,48(%rsp)=0D - rorl $7,%edx=0D - addl %ecx,%ebx=0D - addl 8(%rsp),%eax=0D - pslld $2,%xmm8=0D - xorl %edx,%esi=0D - movl %ebx,%edi=0D - psrld $30,%xmm3=0D - roll $5,%ebx=0D - addl %esi,%eax=0D - xorl %edx,%edi=0D - rorl $7,%ecx=0D - por %xmm3,%xmm8=0D - addl %ebx,%eax=0D - addl 12(%rsp),%ebp=0D - movups 48(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - pshufd $238,%xmm7,%xmm12=0D - xorl %ecx,%edi=0D - movl %eax,%esi=0D - roll $5,%eax=0D - addl %edi,%ebp=0D - xorl %ecx,%esi=0D - rorl $7,%ebx=0D - addl %eax,%ebp=0D - pxor %xmm5,%xmm9=0D - addl 16(%rsp),%edx=0D - xorl %ebx,%esi=0D - punpcklqdq %xmm8,%xmm12=0D - movl %ebp,%edi=0D - roll $5,%ebp=0D - pxor %xmm10,%xmm9=0D - addl %esi,%edx=0D - xorl %ebx,%edi=0D - movdqa %xmm13,%xmm3=0D - rorl $7,%eax=0D - paddd %xmm8,%xmm13=0D - addl %ebp,%edx=0D - pxor %xmm12,%xmm9=0D - addl 20(%rsp),%ecx=0D - xorl %eax,%edi=0D - movl %edx,%esi=0D - roll $5,%edx=0D - movdqa %xmm9,%xmm12=0D - addl %edi,%ecx=0D - cmpl $11,%r8d=0D - jb .Laesenclast2=0D - movups 64(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - movups 80(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - je .Laesenclast2=0D - movups 96(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - movups 112(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D -.Laesenclast2:=0D -.byte 102,15,56,221,209=0D - movups 16-112(%r15),%xmm0=0D - xorl %eax,%esi=0D - movdqa %xmm13,0(%rsp)=0D - rorl $7,%ebp=0D - addl %edx,%ecx=0D - addl 24(%rsp),%ebx=0D - pslld $2,%xmm9=0D - xorl %ebp,%esi=0D - movl %ecx,%edi=0D - psrld $30,%xmm12=0D - roll $5,%ecx=0D - addl %esi,%ebx=0D - xorl %ebp,%edi=0D - rorl $7,%edx=0D - por %xmm12,%xmm9=0D - addl %ecx,%ebx=0D - addl 28(%rsp),%eax=0D - pshufd $238,%xmm8,%xmm13=0D - rorl $7,%ecx=0D - movl %ebx,%esi=0D - xorl %edx,%edi=0D - roll $5,%ebx=0D - addl %edi,%eax=0D - xorl %ecx,%esi=0D - xorl %edx,%ecx=0D - addl %ebx,%eax=0D - pxor %xmm6,%xmm10=0D - addl 32(%rsp),%ebp=0D - movups 32(%r12),%xmm14=0D - xorps %xmm15,%xmm14=0D - movups %xmm2,16(%r13,%r12,1)=0D - xorps %xmm14,%xmm2=0D - movups -80(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - andl %ecx,%esi=0D - xorl %edx,%ecx=0D - rorl $7,%ebx=0D - punpcklqdq %xmm9,%xmm13=0D - movl %eax,%edi=0D - xorl %ecx,%esi=0D - pxor %xmm11,%xmm10=0D - roll $5,%eax=0D - addl %esi,%ebp=0D - movdqa %xmm3,%xmm12=0D - xorl %ebx,%edi=0D - paddd %xmm9,%xmm3=0D - xorl %ecx,%ebx=0D - pxor %xmm13,%xmm10=0D - addl %eax,%ebp=0D - addl 36(%rsp),%edx=0D - andl %ebx,%edi=0D - xorl %ecx,%ebx=0D - rorl $7,%eax=0D - movdqa %xmm10,%xmm13=0D - movl %ebp,%esi=0D - xorl %ebx,%edi=0D - movdqa %xmm3,16(%rsp)=0D - roll $5,%ebp=0D - addl %edi,%edx=0D - movups -64(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - xorl %eax,%esi=0D - pslld $2,%xmm10=0D - xorl %ebx,%eax=0D - addl %ebp,%edx=0D - psrld $30,%xmm13=0D - addl 40(%rsp),%ecx=0D - andl %eax,%esi=0D - xorl %ebx,%eax=0D - por %xmm13,%xmm10=0D - rorl $7,%ebp=0D - movl %edx,%edi=0D - xorl %eax,%esi=0D - roll $5,%edx=0D - pshufd $238,%xmm9,%xmm3=0D - addl %esi,%ecx=0D - xorl %ebp,%edi=0D - xorl %eax,%ebp=0D - addl %edx,%ecx=0D - addl 44(%rsp),%ebx=0D - andl %ebp,%edi=0D - xorl %eax,%ebp=0D - rorl $7,%edx=0D - movups -48(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - movl %ecx,%esi=0D - xorl %ebp,%edi=0D - roll $5,%ecx=0D - addl %edi,%ebx=0D - xorl %edx,%esi=0D - xorl %ebp,%edx=0D - addl %ecx,%ebx=0D - pxor %xmm7,%xmm11=0D - addl 48(%rsp),%eax=0D - andl %edx,%esi=0D - xorl %ebp,%edx=0D - rorl $7,%ecx=0D - punpcklqdq %xmm10,%xmm3=0D - movl %ebx,%edi=0D - xorl %edx,%esi=0D - pxor %xmm4,%xmm11=0D - roll $5,%ebx=0D - addl %esi,%eax=0D - movdqa 48(%r11),%xmm13=0D - xorl %ecx,%edi=0D - paddd %xmm10,%xmm12=0D - xorl %edx,%ecx=0D - pxor %xmm3,%xmm11=0D - addl %ebx,%eax=0D - addl 52(%rsp),%ebp=0D - movups -32(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - andl %ecx,%edi=0D - xorl %edx,%ecx=0D - rorl $7,%ebx=0D - movdqa %xmm11,%xmm3=0D - movl %eax,%esi=0D - xorl %ecx,%edi=0D - movdqa %xmm12,32(%rsp)=0D - roll $5,%eax=0D - addl %edi,%ebp=0D - xorl %ebx,%esi=0D - pslld $2,%xmm11=0D - xorl %ecx,%ebx=0D - addl %eax,%ebp=0D - psrld $30,%xmm3=0D - addl 56(%rsp),%edx=0D - andl %ebx,%esi=0D - xorl %ecx,%ebx=0D - por %xmm3,%xmm11=0D - rorl $7,%eax=0D - movl %ebp,%edi=0D - xorl %ebx,%esi=0D - roll $5,%ebp=0D - pshufd $238,%xmm10,%xmm12=0D - addl %esi,%edx=0D - movups -16(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - xorl %eax,%edi=0D - xorl %ebx,%eax=0D - addl %ebp,%edx=0D - addl 60(%rsp),%ecx=0D - andl %eax,%edi=0D - xorl %ebx,%eax=0D - rorl $7,%ebp=0D - movl %edx,%esi=0D - xorl %eax,%edi=0D - roll $5,%edx=0D - addl %edi,%ecx=0D - xorl %ebp,%esi=0D - xorl %eax,%ebp=0D - addl %edx,%ecx=0D - pxor %xmm8,%xmm4=0D - addl 0(%rsp),%ebx=0D - andl %ebp,%esi=0D - xorl %eax,%ebp=0D - rorl $7,%edx=0D - movups 0(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - punpcklqdq %xmm11,%xmm12=0D - movl %ecx,%edi=0D - xorl %ebp,%esi=0D - pxor %xmm5,%xmm4=0D - roll $5,%ecx=0D - addl %esi,%ebx=0D - movdqa %xmm13,%xmm3=0D - xorl %edx,%edi=0D - paddd %xmm11,%xmm13=0D - xorl %ebp,%edx=0D - pxor %xmm12,%xmm4=0D - addl %ecx,%ebx=0D - addl 4(%rsp),%eax=0D - andl %edx,%edi=0D - xorl %ebp,%edx=0D - rorl $7,%ecx=0D - movdqa %xmm4,%xmm12=0D - movl %ebx,%esi=0D - xorl %edx,%edi=0D - movdqa %xmm13,48(%rsp)=0D - roll $5,%ebx=0D - addl %edi,%eax=0D - xorl %ecx,%esi=0D - pslld $2,%xmm4=0D - xorl %edx,%ecx=0D - addl %ebx,%eax=0D - psrld $30,%xmm12=0D - addl 8(%rsp),%ebp=0D - movups 16(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - andl %ecx,%esi=0D - xorl %edx,%ecx=0D - por %xmm12,%xmm4=0D - rorl $7,%ebx=0D - movl %eax,%edi=0D - xorl %ecx,%esi=0D - roll $5,%eax=0D - pshufd $238,%xmm11,%xmm13=0D - addl %esi,%ebp=0D - xorl %ebx,%edi=0D - xorl %ecx,%ebx=0D - addl %eax,%ebp=0D - addl 12(%rsp),%edx=0D - andl %ebx,%edi=0D - xorl %ecx,%ebx=0D - rorl $7,%eax=0D - movl %ebp,%esi=0D - xorl %ebx,%edi=0D - roll $5,%ebp=0D - addl %edi,%edx=0D - movups 32(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - xorl %eax,%esi=0D - xorl %ebx,%eax=0D - addl %ebp,%edx=0D - pxor %xmm9,%xmm5=0D - addl 16(%rsp),%ecx=0D - andl %eax,%esi=0D - xorl %ebx,%eax=0D - rorl $7,%ebp=0D - punpcklqdq %xmm4,%xmm13=0D - movl %edx,%edi=0D - xorl %eax,%esi=0D - pxor %xmm6,%xmm5=0D - roll $5,%edx=0D - addl %esi,%ecx=0D - movdqa %xmm3,%xmm12=0D - xorl %ebp,%edi=0D - paddd %xmm4,%xmm3=0D - xorl %eax,%ebp=0D - pxor %xmm13,%xmm5=0D - addl %edx,%ecx=0D - addl 20(%rsp),%ebx=0D - andl %ebp,%edi=0D - xorl %eax,%ebp=0D - rorl $7,%edx=0D - movups 48(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - movdqa %xmm5,%xmm13=0D - movl %ecx,%esi=0D - xorl %ebp,%edi=0D - movdqa %xmm3,0(%rsp)=0D - roll $5,%ecx=0D - addl %edi,%ebx=0D - xorl %edx,%esi=0D - pslld $2,%xmm5=0D - xorl %ebp,%edx=0D - addl %ecx,%ebx=0D - psrld $30,%xmm13=0D - addl 24(%rsp),%eax=0D - andl %edx,%esi=0D - xorl %ebp,%edx=0D - por %xmm13,%xmm5=0D - rorl $7,%ecx=0D - movl %ebx,%edi=0D - xorl %edx,%esi=0D - roll $5,%ebx=0D - pshufd $238,%xmm4,%xmm3=0D - addl %esi,%eax=0D - xorl %ecx,%edi=0D - xorl %edx,%ecx=0D - addl %ebx,%eax=0D - addl 28(%rsp),%ebp=0D - cmpl $11,%r8d=0D - jb .Laesenclast3=0D - movups 64(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - movups 80(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - je .Laesenclast3=0D - movups 96(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - movups 112(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D -.Laesenclast3:=0D -.byte 102,15,56,221,209=0D - movups 16-112(%r15),%xmm0=0D - andl %ecx,%edi=0D - xorl %edx,%ecx=0D - rorl $7,%ebx=0D - movl %eax,%esi=0D - xorl %ecx,%edi=0D - roll $5,%eax=0D - addl %edi,%ebp=0D - xorl %ebx,%esi=0D - xorl %ecx,%ebx=0D - addl %eax,%ebp=0D - pxor %xmm10,%xmm6=0D - addl 32(%rsp),%edx=0D - andl %ebx,%esi=0D - xorl %ecx,%ebx=0D - rorl $7,%eax=0D - punpcklqdq %xmm5,%xmm3=0D - movl %ebp,%edi=0D - xorl %ebx,%esi=0D - pxor %xmm7,%xmm6=0D - roll $5,%ebp=0D - addl %esi,%edx=0D - movups 48(%r12),%xmm14=0D - xorps %xmm15,%xmm14=0D - movups %xmm2,32(%r13,%r12,1)=0D - xorps %xmm14,%xmm2=0D - movups -80(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - movdqa %xmm12,%xmm13=0D - xorl %eax,%edi=0D - paddd %xmm5,%xmm12=0D - xorl %ebx,%eax=0D - pxor %xmm3,%xmm6=0D - addl %ebp,%edx=0D - addl 36(%rsp),%ecx=0D - andl %eax,%edi=0D - xorl %ebx,%eax=0D - rorl $7,%ebp=0D - movdqa %xmm6,%xmm3=0D - movl %edx,%esi=0D - xorl %eax,%edi=0D - movdqa %xmm12,16(%rsp)=0D - roll $5,%edx=0D - addl %edi,%ecx=0D - xorl %ebp,%esi=0D - pslld $2,%xmm6=0D - xorl %eax,%ebp=0D - addl %edx,%ecx=0D - psrld $30,%xmm3=0D - addl 40(%rsp),%ebx=0D - andl %ebp,%esi=0D - xorl %eax,%ebp=0D - por %xmm3,%xmm6=0D - rorl $7,%edx=0D - movups -64(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - movl %ecx,%edi=0D - xorl %ebp,%esi=0D - roll $5,%ecx=0D - pshufd $238,%xmm5,%xmm12=0D - addl %esi,%ebx=0D - xorl %edx,%edi=0D - xorl %ebp,%edx=0D - addl %ecx,%ebx=0D - addl 44(%rsp),%eax=0D - andl %edx,%edi=0D - xorl %ebp,%edx=0D - rorl $7,%ecx=0D - movl %ebx,%esi=0D - xorl %edx,%edi=0D - roll $5,%ebx=0D - addl %edi,%eax=0D - xorl %edx,%esi=0D - addl %ebx,%eax=0D - pxor %xmm11,%xmm7=0D - addl 48(%rsp),%ebp=0D - movups -48(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - xorl %ecx,%esi=0D - punpcklqdq %xmm6,%xmm12=0D - movl %eax,%edi=0D - roll $5,%eax=0D - pxor %xmm8,%xmm7=0D - addl %esi,%ebp=0D - xorl %ecx,%edi=0D - movdqa %xmm13,%xmm3=0D - rorl $7,%ebx=0D - paddd %xmm6,%xmm13=0D - addl %eax,%ebp=0D - pxor %xmm12,%xmm7=0D - addl 52(%rsp),%edx=0D - xorl %ebx,%edi=0D - movl %ebp,%esi=0D - roll $5,%ebp=0D - movdqa %xmm7,%xmm12=0D - addl %edi,%edx=0D - xorl %ebx,%esi=0D - movdqa %xmm13,32(%rsp)=0D - rorl $7,%eax=0D - addl %ebp,%edx=0D - addl 56(%rsp),%ecx=0D - pslld $2,%xmm7=0D - xorl %eax,%esi=0D - movl %edx,%edi=0D - psrld $30,%xmm12=0D - roll $5,%edx=0D - addl %esi,%ecx=0D - movups -32(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - xorl %eax,%edi=0D - rorl $7,%ebp=0D - por %xmm12,%xmm7=0D - addl %edx,%ecx=0D - addl 60(%rsp),%ebx=0D - xorl %ebp,%edi=0D - movl %ecx,%esi=0D - roll $5,%ecx=0D - addl %edi,%ebx=0D - xorl %ebp,%esi=0D - rorl $7,%edx=0D - addl %ecx,%ebx=0D - addl 0(%rsp),%eax=0D - xorl %edx,%esi=0D - movl %ebx,%edi=0D - roll $5,%ebx=0D - paddd %xmm7,%xmm3=0D - addl %esi,%eax=0D - xorl %edx,%edi=0D - movdqa %xmm3,48(%rsp)=0D - rorl $7,%ecx=0D - addl %ebx,%eax=0D - addl 4(%rsp),%ebp=0D - movups -16(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - xorl %ecx,%edi=0D - movl %eax,%esi=0D - roll $5,%eax=0D - addl %edi,%ebp=0D - xorl %ecx,%esi=0D - rorl $7,%ebx=0D - addl %eax,%ebp=0D - addl 8(%rsp),%edx=0D - xorl %ebx,%esi=0D - movl %ebp,%edi=0D - roll $5,%ebp=0D - addl %esi,%edx=0D - xorl %ebx,%edi=0D - rorl $7,%eax=0D - addl %ebp,%edx=0D - addl 12(%rsp),%ecx=0D - xorl %eax,%edi=0D - movl %edx,%esi=0D - roll $5,%edx=0D - addl %edi,%ecx=0D - movups 0(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - xorl %eax,%esi=0D - rorl $7,%ebp=0D - addl %edx,%ecx=0D - cmpq %r14,%r10=0D - je .Ldone_ssse3=0D - movdqa 64(%r11),%xmm3=0D - movdqa 0(%r11),%xmm13=0D - movdqu 0(%r10),%xmm4=0D - movdqu 16(%r10),%xmm5=0D - movdqu 32(%r10),%xmm6=0D - movdqu 48(%r10),%xmm7=0D -.byte 102,15,56,0,227=0D - addq $64,%r10=0D - addl 16(%rsp),%ebx=0D - xorl %ebp,%esi=0D - movl %ecx,%edi=0D -.byte 102,15,56,0,235=0D - roll $5,%ecx=0D - addl %esi,%ebx=0D - xorl %ebp,%edi=0D - rorl $7,%edx=0D - paddd %xmm13,%xmm4=0D - addl %ecx,%ebx=0D - addl 20(%rsp),%eax=0D - xorl %edx,%edi=0D - movl %ebx,%esi=0D - movdqa %xmm4,0(%rsp)=0D - roll $5,%ebx=0D - addl %edi,%eax=0D - xorl %edx,%esi=0D - rorl $7,%ecx=0D - psubd %xmm13,%xmm4=0D - addl %ebx,%eax=0D - addl 24(%rsp),%ebp=0D - movups 16(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - xorl %ecx,%esi=0D - movl %eax,%edi=0D - roll $5,%eax=0D - addl %esi,%ebp=0D - xorl %ecx,%edi=0D - rorl $7,%ebx=0D - addl %eax,%ebp=0D - addl 28(%rsp),%edx=0D - xorl %ebx,%edi=0D - movl %ebp,%esi=0D - roll $5,%ebp=0D - addl %edi,%edx=0D - xorl %ebx,%esi=0D - rorl $7,%eax=0D - addl %ebp,%edx=0D - addl 32(%rsp),%ecx=0D - xorl %eax,%esi=0D - movl %edx,%edi=0D -.byte 102,15,56,0,243=0D - roll $5,%edx=0D - addl %esi,%ecx=0D - movups 32(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - xorl %eax,%edi=0D - rorl $7,%ebp=0D - paddd %xmm13,%xmm5=0D - addl %edx,%ecx=0D - addl 36(%rsp),%ebx=0D - xorl %ebp,%edi=0D - movl %ecx,%esi=0D - movdqa %xmm5,16(%rsp)=0D - roll $5,%ecx=0D - addl %edi,%ebx=0D - xorl %ebp,%esi=0D - rorl $7,%edx=0D - psubd %xmm13,%xmm5=0D - addl %ecx,%ebx=0D - addl 40(%rsp),%eax=0D - xorl %edx,%esi=0D - movl %ebx,%edi=0D - roll $5,%ebx=0D - addl %esi,%eax=0D - xorl %edx,%edi=0D - rorl $7,%ecx=0D - addl %ebx,%eax=0D - addl 44(%rsp),%ebp=0D - movups 48(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - xorl %ecx,%edi=0D - movl %eax,%esi=0D - roll $5,%eax=0D - addl %edi,%ebp=0D - xorl %ecx,%esi=0D - rorl $7,%ebx=0D - addl %eax,%ebp=0D - addl 48(%rsp),%edx=0D - xorl %ebx,%esi=0D - movl %ebp,%edi=0D -.byte 102,15,56,0,251=0D - roll $5,%ebp=0D - addl %esi,%edx=0D - xorl %ebx,%edi=0D - rorl $7,%eax=0D - paddd %xmm13,%xmm6=0D - addl %ebp,%edx=0D - addl 52(%rsp),%ecx=0D - xorl %eax,%edi=0D - movl %edx,%esi=0D - movdqa %xmm6,32(%rsp)=0D - roll $5,%edx=0D - addl %edi,%ecx=0D - cmpl $11,%r8d=0D - jb .Laesenclast4=0D - movups 64(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - movups 80(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - je .Laesenclast4=0D - movups 96(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - movups 112(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D -.Laesenclast4:=0D -.byte 102,15,56,221,209=0D - movups 16-112(%r15),%xmm0=0D - xorl %eax,%esi=0D - rorl $7,%ebp=0D - psubd %xmm13,%xmm6=0D - addl %edx,%ecx=0D - addl 56(%rsp),%ebx=0D - xorl %ebp,%esi=0D - movl %ecx,%edi=0D - roll $5,%ecx=0D - addl %esi,%ebx=0D - xorl %ebp,%edi=0D - rorl $7,%edx=0D - addl %ecx,%ebx=0D - addl 60(%rsp),%eax=0D - xorl %edx,%edi=0D - movl %ebx,%esi=0D - roll $5,%ebx=0D - addl %edi,%eax=0D - rorl $7,%ecx=0D - addl %ebx,%eax=0D - movups %xmm2,48(%r13,%r12,1)=0D - leaq 64(%r12),%r12=0D -=0D - addl 0(%r9),%eax=0D - addl 4(%r9),%esi=0D - addl 8(%r9),%ecx=0D - addl 12(%r9),%edx=0D - movl %eax,0(%r9)=0D - addl 16(%r9),%ebp=0D - movl %esi,4(%r9)=0D - movl %esi,%ebx=0D - movl %ecx,8(%r9)=0D - movl %ecx,%edi=0D - movl %edx,12(%r9)=0D - xorl %edx,%edi=0D - movl %ebp,16(%r9)=0D - andl %edi,%esi=0D - jmp .Loop_ssse3=0D -=0D -.Ldone_ssse3:=0D - addl 16(%rsp),%ebx=0D - xorl %ebp,%esi=0D - movl %ecx,%edi=0D - roll $5,%ecx=0D - addl %esi,%ebx=0D - xorl %ebp,%edi=0D - rorl $7,%edx=0D - addl %ecx,%ebx=0D - addl 20(%rsp),%eax=0D - xorl %edx,%edi=0D - movl %ebx,%esi=0D - roll $5,%ebx=0D - addl %edi,%eax=0D - xorl %edx,%esi=0D - rorl $7,%ecx=0D - addl %ebx,%eax=0D - addl 24(%rsp),%ebp=0D - movups 16(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - xorl %ecx,%esi=0D - movl %eax,%edi=0D - roll $5,%eax=0D - addl %esi,%ebp=0D - xorl %ecx,%edi=0D - rorl $7,%ebx=0D - addl %eax,%ebp=0D - addl 28(%rsp),%edx=0D - xorl %ebx,%edi=0D - movl %ebp,%esi=0D - roll $5,%ebp=0D - addl %edi,%edx=0D - xorl %ebx,%esi=0D - rorl $7,%eax=0D - addl %ebp,%edx=0D - addl 32(%rsp),%ecx=0D - xorl %eax,%esi=0D - movl %edx,%edi=0D - roll $5,%edx=0D - addl %esi,%ecx=0D - movups 32(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - xorl %eax,%edi=0D - rorl $7,%ebp=0D - addl %edx,%ecx=0D - addl 36(%rsp),%ebx=0D - xorl %ebp,%edi=0D - movl %ecx,%esi=0D - roll $5,%ecx=0D - addl %edi,%ebx=0D - xorl %ebp,%esi=0D - rorl $7,%edx=0D - addl %ecx,%ebx=0D - addl 40(%rsp),%eax=0D - xorl %edx,%esi=0D - movl %ebx,%edi=0D - roll $5,%ebx=0D - addl %esi,%eax=0D - xorl %edx,%edi=0D - rorl $7,%ecx=0D - addl %ebx,%eax=0D - addl 44(%rsp),%ebp=0D - movups 48(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - xorl %ecx,%edi=0D - movl %eax,%esi=0D - roll $5,%eax=0D - addl %edi,%ebp=0D - xorl %ecx,%esi=0D - rorl $7,%ebx=0D - addl %eax,%ebp=0D - addl 48(%rsp),%edx=0D - xorl %ebx,%esi=0D - movl %ebp,%edi=0D - roll $5,%ebp=0D - addl %esi,%edx=0D - xorl %ebx,%edi=0D - rorl $7,%eax=0D - addl %ebp,%edx=0D - addl 52(%rsp),%ecx=0D - xorl %eax,%edi=0D - movl %edx,%esi=0D - roll $5,%edx=0D - addl %edi,%ecx=0D - cmpl $11,%r8d=0D - jb .Laesenclast5=0D - movups 64(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - movups 80(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D - je .Laesenclast5=0D - movups 96(%r15),%xmm0=0D -.byte 102,15,56,220,209=0D - movups 112(%r15),%xmm1=0D -.byte 102,15,56,220,208=0D -.Laesenclast5:=0D -.byte 102,15,56,221,209=0D - movups 16-112(%r15),%xmm0=0D - xorl %eax,%esi=0D - rorl $7,%ebp=0D - addl %edx,%ecx=0D - addl 56(%rsp),%ebx=0D - xorl %ebp,%esi=0D - movl %ecx,%edi=0D - roll $5,%ecx=0D - addl %esi,%ebx=0D - xorl %ebp,%edi=0D - rorl $7,%edx=0D - addl %ecx,%ebx=0D - addl 60(%rsp),%eax=0D - xorl %edx,%edi=0D - movl %ebx,%esi=0D - roll $5,%ebx=0D - addl %edi,%eax=0D - rorl $7,%ecx=0D - addl %ebx,%eax=0D - movups %xmm2,48(%r13,%r12,1)=0D - movq 88(%rsp),%r8=0D -=0D - addl 0(%r9),%eax=0D - addl 4(%r9),%esi=0D - addl 8(%r9),%ecx=0D - movl %eax,0(%r9)=0D - addl 12(%r9),%edx=0D - movl %esi,4(%r9)=0D - addl 16(%r9),%ebp=0D - movl %ecx,8(%r9)=0D - movl %edx,12(%r9)=0D - movl %ebp,16(%r9)=0D - movups %xmm2,(%r8)=0D - leaq 104(%rsp),%rsi=0D -.cfi_def_cfa %rsi,56=0D - movq 0(%rsi),%r15=0D -.cfi_restore %r15=0D - movq 8(%rsi),%r14=0D -.cfi_restore %r14=0D - movq 16(%rsi),%r13=0D -.cfi_restore %r13=0D - movq 24(%rsi),%r12=0D -.cfi_restore %r12=0D - movq 32(%rsi),%rbp=0D -.cfi_restore %rbp=0D - movq 40(%rsi),%rbx=0D -.cfi_restore %rbx=0D - leaq 48(%rsi),%rsp=0D -.cfi_def_cfa %rsp,8=0D -.Lepilogue_ssse3:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size aesni_cbc_sha1_enc_ssse3,.-aesni_cbc_sha1_enc_ssse3=0D -.align 64=0D -K_XX_XX:=0D -.long 0x5a827999,0x5a827999,0x5a827999,0x5a827999=0D -.long 0x6ed9eba1,0x6ed9eba1,0x6ed9eba1,0x6ed9eba1=0D -.long 0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc=0D -.long 0xca62c1d6,0xca62c1d6,0xca62c1d6,0xca62c1d6=0D -.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f=0D -.byte 0xf,0xe,0xd,0xc,0xb,0xa,0x9,0x8,0x7,0x6,0x5,0x4,0x3,0x2,0x1,0x0=0D -=0D -.byte 65,69,83,78,73,45,67,66,67,43,83,72,65,49,32,115,116,105,116,99,10= 4,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89,80,84,79,71,65,77,83,= 32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,11= 4,103,62,0=0D -.align 64=0D -.type aesni_cbc_sha1_enc_shaext,@function=0D -.align 32=0D -aesni_cbc_sha1_enc_shaext:=0D -.cfi_startproc=0D - movq 8(%rsp),%r10=0D - movdqu (%r9),%xmm8=0D - movd 16(%r9),%xmm9=0D - movdqa K_XX_XX+80(%rip),%xmm7=0D -=0D - movl 240(%rcx),%r11d=0D - subq %rdi,%rsi=0D - movups (%rcx),%xmm15=0D - movups (%r8),%xmm2=0D - movups 16(%rcx),%xmm0=0D - leaq 112(%rcx),%rcx=0D -=0D - pshufd $27,%xmm8,%xmm8=0D - pshufd $27,%xmm9,%xmm9=0D - jmp .Loop_shaext=0D -=0D -.align 16=0D -.Loop_shaext:=0D - movups 0(%rdi),%xmm14=0D - xorps %xmm15,%xmm14=0D - xorps %xmm14,%xmm2=0D - movups -80(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D - movdqu (%r10),%xmm3=0D - movdqa %xmm9,%xmm12=0D -.byte 102,15,56,0,223=0D - movdqu 16(%r10),%xmm4=0D - movdqa %xmm8,%xmm11=0D - movups -64(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,0,231=0D -=0D - paddd %xmm3,%xmm9=0D - movdqu 32(%r10),%xmm5=0D - leaq 64(%r10),%r10=0D - pxor %xmm12,%xmm3=0D - movups -48(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D - pxor %xmm12,%xmm3=0D - movdqa %xmm8,%xmm10=0D -.byte 102,15,56,0,239=0D -.byte 69,15,58,204,193,0=0D -.byte 68,15,56,200,212=0D - movups -32(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D -.byte 15,56,201,220=0D - movdqu -16(%r10),%xmm6=0D - movdqa %xmm8,%xmm9=0D -.byte 102,15,56,0,247=0D - movups -16(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D -.byte 69,15,58,204,194,0=0D -.byte 68,15,56,200,205=0D - pxor %xmm5,%xmm3=0D -.byte 15,56,201,229=0D - movups 0(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movdqa %xmm8,%xmm10=0D -.byte 69,15,58,204,193,0=0D -.byte 68,15,56,200,214=0D - movups 16(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D -.byte 15,56,202,222=0D - pxor %xmm6,%xmm4=0D -.byte 15,56,201,238=0D - movups 32(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movdqa %xmm8,%xmm9=0D -.byte 69,15,58,204,194,0=0D -.byte 68,15,56,200,203=0D - movups 48(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D -.byte 15,56,202,227=0D - pxor %xmm3,%xmm5=0D -.byte 15,56,201,243=0D - cmpl $11,%r11d=0D - jb .Laesenclast6=0D - movups 64(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movups 80(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D - je .Laesenclast6=0D - movups 96(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movups 112(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D -.Laesenclast6:=0D -.byte 102,15,56,221,209=0D - movups 16-112(%rcx),%xmm0=0D - movdqa %xmm8,%xmm10=0D -.byte 69,15,58,204,193,0=0D -.byte 68,15,56,200,212=0D - movups 16(%rdi),%xmm14=0D - xorps %xmm15,%xmm14=0D - movups %xmm2,0(%rsi,%rdi,1)=0D - xorps %xmm14,%xmm2=0D - movups -80(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D -.byte 15,56,202,236=0D - pxor %xmm4,%xmm6=0D -.byte 15,56,201,220=0D - movups -64(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movdqa %xmm8,%xmm9=0D -.byte 69,15,58,204,194,1=0D -.byte 68,15,56,200,205=0D - movups -48(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D -.byte 15,56,202,245=0D - pxor %xmm5,%xmm3=0D -.byte 15,56,201,229=0D - movups -32(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movdqa %xmm8,%xmm10=0D -.byte 69,15,58,204,193,1=0D -.byte 68,15,56,200,214=0D - movups -16(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D -.byte 15,56,202,222=0D - pxor %xmm6,%xmm4=0D -.byte 15,56,201,238=0D - movups 0(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movdqa %xmm8,%xmm9=0D -.byte 69,15,58,204,194,1=0D -.byte 68,15,56,200,203=0D - movups 16(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D -.byte 15,56,202,227=0D - pxor %xmm3,%xmm5=0D -.byte 15,56,201,243=0D - movups 32(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movdqa %xmm8,%xmm10=0D -.byte 69,15,58,204,193,1=0D -.byte 68,15,56,200,212=0D - movups 48(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D -.byte 15,56,202,236=0D - pxor %xmm4,%xmm6=0D -.byte 15,56,201,220=0D - cmpl $11,%r11d=0D - jb .Laesenclast7=0D - movups 64(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movups 80(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D - je .Laesenclast7=0D - movups 96(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movups 112(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D -.Laesenclast7:=0D -.byte 102,15,56,221,209=0D - movups 16-112(%rcx),%xmm0=0D - movdqa %xmm8,%xmm9=0D -.byte 69,15,58,204,194,1=0D -.byte 68,15,56,200,205=0D - movups 32(%rdi),%xmm14=0D - xorps %xmm15,%xmm14=0D - movups %xmm2,16(%rsi,%rdi,1)=0D - xorps %xmm14,%xmm2=0D - movups -80(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D -.byte 15,56,202,245=0D - pxor %xmm5,%xmm3=0D -.byte 15,56,201,229=0D - movups -64(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movdqa %xmm8,%xmm10=0D -.byte 69,15,58,204,193,2=0D -.byte 68,15,56,200,214=0D - movups -48(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D -.byte 15,56,202,222=0D - pxor %xmm6,%xmm4=0D -.byte 15,56,201,238=0D - movups -32(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movdqa %xmm8,%xmm9=0D -.byte 69,15,58,204,194,2=0D -.byte 68,15,56,200,203=0D - movups -16(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D -.byte 15,56,202,227=0D - pxor %xmm3,%xmm5=0D -.byte 15,56,201,243=0D - movups 0(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movdqa %xmm8,%xmm10=0D -.byte 69,15,58,204,193,2=0D -.byte 68,15,56,200,212=0D - movups 16(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D -.byte 15,56,202,236=0D - pxor %xmm4,%xmm6=0D -.byte 15,56,201,220=0D - movups 32(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movdqa %xmm8,%xmm9=0D -.byte 69,15,58,204,194,2=0D -.byte 68,15,56,200,205=0D - movups 48(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D -.byte 15,56,202,245=0D - pxor %xmm5,%xmm3=0D -.byte 15,56,201,229=0D - cmpl $11,%r11d=0D - jb .Laesenclast8=0D - movups 64(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movups 80(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D - je .Laesenclast8=0D - movups 96(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movups 112(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D -.Laesenclast8:=0D -.byte 102,15,56,221,209=0D - movups 16-112(%rcx),%xmm0=0D - movdqa %xmm8,%xmm10=0D -.byte 69,15,58,204,193,2=0D -.byte 68,15,56,200,214=0D - movups 48(%rdi),%xmm14=0D - xorps %xmm15,%xmm14=0D - movups %xmm2,32(%rsi,%rdi,1)=0D - xorps %xmm14,%xmm2=0D - movups -80(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D -.byte 15,56,202,222=0D - pxor %xmm6,%xmm4=0D -.byte 15,56,201,238=0D - movups -64(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movdqa %xmm8,%xmm9=0D -.byte 69,15,58,204,194,3=0D -.byte 68,15,56,200,203=0D - movups -48(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D -.byte 15,56,202,227=0D - pxor %xmm3,%xmm5=0D -.byte 15,56,201,243=0D - movups -32(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movdqa %xmm8,%xmm10=0D -.byte 69,15,58,204,193,3=0D -.byte 68,15,56,200,212=0D -.byte 15,56,202,236=0D - pxor %xmm4,%xmm6=0D - movups -16(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D - movdqa %xmm8,%xmm9=0D -.byte 69,15,58,204,194,3=0D -.byte 68,15,56,200,205=0D -.byte 15,56,202,245=0D - movups 0(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movdqa %xmm12,%xmm5=0D - movdqa %xmm8,%xmm10=0D -.byte 69,15,58,204,193,3=0D -.byte 68,15,56,200,214=0D - movups 16(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D - movdqa %xmm8,%xmm9=0D -.byte 69,15,58,204,194,3=0D -.byte 68,15,56,200,205=0D - movups 32(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movups 48(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D - cmpl $11,%r11d=0D - jb .Laesenclast9=0D - movups 64(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movups 80(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D - je .Laesenclast9=0D - movups 96(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D - movups 112(%rcx),%xmm1=0D -.byte 102,15,56,220,208=0D -.Laesenclast9:=0D -.byte 102,15,56,221,209=0D - movups 16-112(%rcx),%xmm0=0D - decq %rdx=0D -=0D - paddd %xmm11,%xmm8=0D - movups %xmm2,48(%rsi,%rdi,1)=0D - leaq 64(%rdi),%rdi=0D - jnz .Loop_shaext=0D -=0D - pshufd $27,%xmm8,%xmm8=0D - pshufd $27,%xmm9,%xmm9=0D - movups %xmm2,(%r8)=0D - movdqu %xmm8,(%r9)=0D - movd %xmm9,16(%r9)=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size aesni_cbc_sha1_enc_shaext,.-aesni_cbc_sha1_enc_shaext=0D diff --git a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/aes/aesni-sha256-x8= 6_64.S b/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/aes/aesni-sha256-x86_64= .S deleted file mode 100644 index e257169287..0000000000 --- a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/aes/aesni-sha256-x86_64.S +++ /dev/null @@ -1,69 +0,0 @@ -# WARNING: do not edit!=0D -# Generated from openssl/crypto/aes/asm/aesni-sha256-x86_64.pl=0D -#=0D -# Copyright 2013-2020 The OpenSSL Project Authors. All Rights Reserved.=0D -#=0D -# Licensed under the OpenSSL license (the "License"). You may not use=0D -# this file except in compliance with the License. You can obtain a copy= =0D -# in the file LICENSE in the source distribution or at=0D -# https://www.openssl.org/source/license.html=0D -=0D -.text=0D -=0D -=0D -.globl aesni_cbc_sha256_enc=0D -.type aesni_cbc_sha256_enc,@function=0D -.align 16=0D -aesni_cbc_sha256_enc:=0D -.cfi_startproc=0D - xorl %eax,%eax=0D - cmpq $0,%rdi=0D - je .Lprobe=0D - ud2=0D -.Lprobe:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size aesni_cbc_sha256_enc,.-aesni_cbc_sha256_enc=0D -=0D -.align 64=0D -.type K256,@object=0D -K256:=0D -.long 0x428a2f98,0x71374491,0xb5c0fbcf,0xe9b5dba5=0D -.long 0x428a2f98,0x71374491,0xb5c0fbcf,0xe9b5dba5=0D -.long 0x3956c25b,0x59f111f1,0x923f82a4,0xab1c5ed5=0D -.long 0x3956c25b,0x59f111f1,0x923f82a4,0xab1c5ed5=0D -.long 0xd807aa98,0x12835b01,0x243185be,0x550c7dc3=0D -.long 0xd807aa98,0x12835b01,0x243185be,0x550c7dc3=0D -.long 0x72be5d74,0x80deb1fe,0x9bdc06a7,0xc19bf174=0D -.long 0x72be5d74,0x80deb1fe,0x9bdc06a7,0xc19bf174=0D -.long 0xe49b69c1,0xefbe4786,0x0fc19dc6,0x240ca1cc=0D -.long 0xe49b69c1,0xefbe4786,0x0fc19dc6,0x240ca1cc=0D -.long 0x2de92c6f,0x4a7484aa,0x5cb0a9dc,0x76f988da=0D -.long 0x2de92c6f,0x4a7484aa,0x5cb0a9dc,0x76f988da=0D -.long 0x983e5152,0xa831c66d,0xb00327c8,0xbf597fc7=0D -.long 0x983e5152,0xa831c66d,0xb00327c8,0xbf597fc7=0D -.long 0xc6e00bf3,0xd5a79147,0x06ca6351,0x14292967=0D -.long 0xc6e00bf3,0xd5a79147,0x06ca6351,0x14292967=0D -.long 0x27b70a85,0x2e1b2138,0x4d2c6dfc,0x53380d13=0D -.long 0x27b70a85,0x2e1b2138,0x4d2c6dfc,0x53380d13=0D -.long 0x650a7354,0x766a0abb,0x81c2c92e,0x92722c85=0D -.long 0x650a7354,0x766a0abb,0x81c2c92e,0x92722c85=0D -.long 0xa2bfe8a1,0xa81a664b,0xc24b8b70,0xc76c51a3=0D -.long 0xa2bfe8a1,0xa81a664b,0xc24b8b70,0xc76c51a3=0D -.long 0xd192e819,0xd6990624,0xf40e3585,0x106aa070=0D -.long 0xd192e819,0xd6990624,0xf40e3585,0x106aa070=0D -.long 0x19a4c116,0x1e376c08,0x2748774c,0x34b0bcb5=0D -.long 0x19a4c116,0x1e376c08,0x2748774c,0x34b0bcb5=0D -.long 0x391c0cb3,0x4ed8aa4a,0x5b9cca4f,0x682e6ff3=0D -.long 0x391c0cb3,0x4ed8aa4a,0x5b9cca4f,0x682e6ff3=0D -.long 0x748f82ee,0x78a5636f,0x84c87814,0x8cc70208=0D -.long 0x748f82ee,0x78a5636f,0x84c87814,0x8cc70208=0D -.long 0x90befffa,0xa4506ceb,0xbef9a3f7,0xc67178f2=0D -.long 0x90befffa,0xa4506ceb,0xbef9a3f7,0xc67178f2=0D -=0D -.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f=0D -.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f=0D -.long 0,0,0,0, 0,0,0,0, -1,-1,-1,-1=0D -.long 0,0,0,0, 0,0,0,0=0D -.byte 65,69,83,78,73,45,67,66,67,43,83,72,65,50,53,54,32,115,116,105,116= ,99,104,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89,80,84,79,71,65,= 77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,= 111,114,103,62,0=0D -.align 64=0D diff --git a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/aes/aesni-x86_64.S = b/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/aes/aesni-x86_64.S deleted file mode 100644 index 2bdb5cf251..0000000000 --- a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/aes/aesni-x86_64.S +++ /dev/null @@ -1,4484 +0,0 @@ -# WARNING: do not edit!=0D -# Generated from openssl/crypto/aes/asm/aesni-x86_64.pl=0D -#=0D -# Copyright 2009-2020 The OpenSSL Project Authors. All Rights Reserved.=0D -#=0D -# Licensed under the OpenSSL license (the "License"). You may not use=0D -# this file except in compliance with the License. You can obtain a copy= =0D -# in the file LICENSE in the source distribution or at=0D -# https://www.openssl.org/source/license.html=0D -=0D -.text=0D -=0D -.globl aesni_encrypt=0D -.type aesni_encrypt,@function=0D -.align 16=0D -aesni_encrypt:=0D -.cfi_startproc=0D - movups (%rdi),%xmm2=0D - movl 240(%rdx),%eax=0D - movups (%rdx),%xmm0=0D - movups 16(%rdx),%xmm1=0D - leaq 32(%rdx),%rdx=0D - xorps %xmm0,%xmm2=0D -.Loop_enc1_1:=0D -.byte 102,15,56,220,209=0D - decl %eax=0D - movups (%rdx),%xmm1=0D - leaq 16(%rdx),%rdx=0D - jnz .Loop_enc1_1=0D -.byte 102,15,56,221,209=0D - pxor %xmm0,%xmm0=0D - pxor %xmm1,%xmm1=0D - movups %xmm2,(%rsi)=0D - pxor %xmm2,%xmm2=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size aesni_encrypt,.-aesni_encrypt=0D -=0D -.globl aesni_decrypt=0D -.type aesni_decrypt,@function=0D -.align 16=0D -aesni_decrypt:=0D -.cfi_startproc=0D - movups (%rdi),%xmm2=0D - movl 240(%rdx),%eax=0D - movups (%rdx),%xmm0=0D - movups 16(%rdx),%xmm1=0D - leaq 32(%rdx),%rdx=0D - xorps %xmm0,%xmm2=0D -.Loop_dec1_2:=0D -.byte 102,15,56,222,209=0D - decl %eax=0D - movups (%rdx),%xmm1=0D - leaq 16(%rdx),%rdx=0D - jnz .Loop_dec1_2=0D -.byte 102,15,56,223,209=0D - pxor %xmm0,%xmm0=0D - pxor %xmm1,%xmm1=0D - movups %xmm2,(%rsi)=0D - pxor %xmm2,%xmm2=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size aesni_decrypt, .-aesni_decrypt=0D -.type _aesni_encrypt2,@function=0D -.align 16=0D -_aesni_encrypt2:=0D -.cfi_startproc=0D - movups (%rcx),%xmm0=0D - shll $4,%eax=0D - movups 16(%rcx),%xmm1=0D - xorps %xmm0,%xmm2=0D - xorps %xmm0,%xmm3=0D - movups 32(%rcx),%xmm0=0D - leaq 32(%rcx,%rax,1),%rcx=0D - negq %rax=0D - addq $16,%rax=0D -=0D -.Lenc_loop2:=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D - movups (%rcx,%rax,1),%xmm1=0D - addq $32,%rax=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D - movups -16(%rcx,%rax,1),%xmm0=0D - jnz .Lenc_loop2=0D -=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,221,208=0D -.byte 102,15,56,221,216=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size _aesni_encrypt2,.-_aesni_encrypt2=0D -.type _aesni_decrypt2,@function=0D -.align 16=0D -_aesni_decrypt2:=0D -.cfi_startproc=0D - movups (%rcx),%xmm0=0D - shll $4,%eax=0D - movups 16(%rcx),%xmm1=0D - xorps %xmm0,%xmm2=0D - xorps %xmm0,%xmm3=0D - movups 32(%rcx),%xmm0=0D - leaq 32(%rcx,%rax,1),%rcx=0D - negq %rax=0D - addq $16,%rax=0D -=0D -.Ldec_loop2:=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D - movups (%rcx,%rax,1),%xmm1=0D - addq $32,%rax=0D -.byte 102,15,56,222,208=0D -.byte 102,15,56,222,216=0D - movups -16(%rcx,%rax,1),%xmm0=0D - jnz .Ldec_loop2=0D -=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,223,208=0D -.byte 102,15,56,223,216=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size _aesni_decrypt2,.-_aesni_decrypt2=0D -.type _aesni_encrypt3,@function=0D -.align 16=0D -_aesni_encrypt3:=0D -.cfi_startproc=0D - movups (%rcx),%xmm0=0D - shll $4,%eax=0D - movups 16(%rcx),%xmm1=0D - xorps %xmm0,%xmm2=0D - xorps %xmm0,%xmm3=0D - xorps %xmm0,%xmm4=0D - movups 32(%rcx),%xmm0=0D - leaq 32(%rcx,%rax,1),%rcx=0D - negq %rax=0D - addq $16,%rax=0D -=0D -.Lenc_loop3:=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D - movups (%rcx,%rax,1),%xmm1=0D - addq $32,%rax=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D -.byte 102,15,56,220,224=0D - movups -16(%rcx,%rax,1),%xmm0=0D - jnz .Lenc_loop3=0D -=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,221,208=0D -.byte 102,15,56,221,216=0D -.byte 102,15,56,221,224=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size _aesni_encrypt3,.-_aesni_encrypt3=0D -.type _aesni_decrypt3,@function=0D -.align 16=0D -_aesni_decrypt3:=0D -.cfi_startproc=0D - movups (%rcx),%xmm0=0D - shll $4,%eax=0D - movups 16(%rcx),%xmm1=0D - xorps %xmm0,%xmm2=0D - xorps %xmm0,%xmm3=0D - xorps %xmm0,%xmm4=0D - movups 32(%rcx),%xmm0=0D - leaq 32(%rcx,%rax,1),%rcx=0D - negq %rax=0D - addq $16,%rax=0D -=0D -.Ldec_loop3:=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D - movups (%rcx,%rax,1),%xmm1=0D - addq $32,%rax=0D -.byte 102,15,56,222,208=0D -.byte 102,15,56,222,216=0D -.byte 102,15,56,222,224=0D - movups -16(%rcx,%rax,1),%xmm0=0D - jnz .Ldec_loop3=0D -=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,223,208=0D -.byte 102,15,56,223,216=0D -.byte 102,15,56,223,224=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size _aesni_decrypt3,.-_aesni_decrypt3=0D -.type _aesni_encrypt4,@function=0D -.align 16=0D -_aesni_encrypt4:=0D -.cfi_startproc=0D - movups (%rcx),%xmm0=0D - shll $4,%eax=0D - movups 16(%rcx),%xmm1=0D - xorps %xmm0,%xmm2=0D - xorps %xmm0,%xmm3=0D - xorps %xmm0,%xmm4=0D - xorps %xmm0,%xmm5=0D - movups 32(%rcx),%xmm0=0D - leaq 32(%rcx,%rax,1),%rcx=0D - negq %rax=0D -.byte 0x0f,0x1f,0x00=0D - addq $16,%rax=0D -=0D -.Lenc_loop4:=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D - movups (%rcx,%rax,1),%xmm1=0D - addq $32,%rax=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D -.byte 102,15,56,220,224=0D -.byte 102,15,56,220,232=0D - movups -16(%rcx,%rax,1),%xmm0=0D - jnz .Lenc_loop4=0D -=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D -.byte 102,15,56,221,208=0D -.byte 102,15,56,221,216=0D -.byte 102,15,56,221,224=0D -.byte 102,15,56,221,232=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size _aesni_encrypt4,.-_aesni_encrypt4=0D -.type _aesni_decrypt4,@function=0D -.align 16=0D -_aesni_decrypt4:=0D -.cfi_startproc=0D - movups (%rcx),%xmm0=0D - shll $4,%eax=0D - movups 16(%rcx),%xmm1=0D - xorps %xmm0,%xmm2=0D - xorps %xmm0,%xmm3=0D - xorps %xmm0,%xmm4=0D - xorps %xmm0,%xmm5=0D - movups 32(%rcx),%xmm0=0D - leaq 32(%rcx,%rax,1),%rcx=0D - negq %rax=0D -.byte 0x0f,0x1f,0x00=0D - addq $16,%rax=0D -=0D -.Ldec_loop4:=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D - movups (%rcx,%rax,1),%xmm1=0D - addq $32,%rax=0D -.byte 102,15,56,222,208=0D -.byte 102,15,56,222,216=0D -.byte 102,15,56,222,224=0D -.byte 102,15,56,222,232=0D - movups -16(%rcx,%rax,1),%xmm0=0D - jnz .Ldec_loop4=0D -=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D -.byte 102,15,56,223,208=0D -.byte 102,15,56,223,216=0D -.byte 102,15,56,223,224=0D -.byte 102,15,56,223,232=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size _aesni_decrypt4,.-_aesni_decrypt4=0D -.type _aesni_encrypt6,@function=0D -.align 16=0D -_aesni_encrypt6:=0D -.cfi_startproc=0D - movups (%rcx),%xmm0=0D - shll $4,%eax=0D - movups 16(%rcx),%xmm1=0D - xorps %xmm0,%xmm2=0D - pxor %xmm0,%xmm3=0D - pxor %xmm0,%xmm4=0D -.byte 102,15,56,220,209=0D - leaq 32(%rcx,%rax,1),%rcx=0D - negq %rax=0D -.byte 102,15,56,220,217=0D - pxor %xmm0,%xmm5=0D - pxor %xmm0,%xmm6=0D -.byte 102,15,56,220,225=0D - pxor %xmm0,%xmm7=0D - movups (%rcx,%rax,1),%xmm0=0D - addq $16,%rax=0D - jmp .Lenc_loop6_enter=0D -.align 16=0D -.Lenc_loop6:=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D -.Lenc_loop6_enter:=0D -.byte 102,15,56,220,233=0D -.byte 102,15,56,220,241=0D -.byte 102,15,56,220,249=0D - movups (%rcx,%rax,1),%xmm1=0D - addq $32,%rax=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D -.byte 102,15,56,220,224=0D -.byte 102,15,56,220,232=0D -.byte 102,15,56,220,240=0D -.byte 102,15,56,220,248=0D - movups -16(%rcx,%rax,1),%xmm0=0D - jnz .Lenc_loop6=0D -=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D -.byte 102,15,56,220,241=0D -.byte 102,15,56,220,249=0D -.byte 102,15,56,221,208=0D -.byte 102,15,56,221,216=0D -.byte 102,15,56,221,224=0D -.byte 102,15,56,221,232=0D -.byte 102,15,56,221,240=0D -.byte 102,15,56,221,248=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size _aesni_encrypt6,.-_aesni_encrypt6=0D -.type _aesni_decrypt6,@function=0D -.align 16=0D -_aesni_decrypt6:=0D -.cfi_startproc=0D - movups (%rcx),%xmm0=0D - shll $4,%eax=0D - movups 16(%rcx),%xmm1=0D - xorps %xmm0,%xmm2=0D - pxor %xmm0,%xmm3=0D - pxor %xmm0,%xmm4=0D -.byte 102,15,56,222,209=0D - leaq 32(%rcx,%rax,1),%rcx=0D - negq %rax=0D -.byte 102,15,56,222,217=0D - pxor %xmm0,%xmm5=0D - pxor %xmm0,%xmm6=0D -.byte 102,15,56,222,225=0D - pxor %xmm0,%xmm7=0D - movups (%rcx,%rax,1),%xmm0=0D - addq $16,%rax=0D - jmp .Ldec_loop6_enter=0D -.align 16=0D -.Ldec_loop6:=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D -.Ldec_loop6_enter:=0D -.byte 102,15,56,222,233=0D -.byte 102,15,56,222,241=0D -.byte 102,15,56,222,249=0D - movups (%rcx,%rax,1),%xmm1=0D - addq $32,%rax=0D -.byte 102,15,56,222,208=0D -.byte 102,15,56,222,216=0D -.byte 102,15,56,222,224=0D -.byte 102,15,56,222,232=0D -.byte 102,15,56,222,240=0D -.byte 102,15,56,222,248=0D - movups -16(%rcx,%rax,1),%xmm0=0D - jnz .Ldec_loop6=0D -=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D -.byte 102,15,56,222,241=0D -.byte 102,15,56,222,249=0D -.byte 102,15,56,223,208=0D -.byte 102,15,56,223,216=0D -.byte 102,15,56,223,224=0D -.byte 102,15,56,223,232=0D -.byte 102,15,56,223,240=0D -.byte 102,15,56,223,248=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size _aesni_decrypt6,.-_aesni_decrypt6=0D -.type _aesni_encrypt8,@function=0D -.align 16=0D -_aesni_encrypt8:=0D -.cfi_startproc=0D - movups (%rcx),%xmm0=0D - shll $4,%eax=0D - movups 16(%rcx),%xmm1=0D - xorps %xmm0,%xmm2=0D - xorps %xmm0,%xmm3=0D - pxor %xmm0,%xmm4=0D - pxor %xmm0,%xmm5=0D - pxor %xmm0,%xmm6=0D - leaq 32(%rcx,%rax,1),%rcx=0D - negq %rax=0D -.byte 102,15,56,220,209=0D - pxor %xmm0,%xmm7=0D - pxor %xmm0,%xmm8=0D -.byte 102,15,56,220,217=0D - pxor %xmm0,%xmm9=0D - movups (%rcx,%rax,1),%xmm0=0D - addq $16,%rax=0D - jmp .Lenc_loop8_inner=0D -.align 16=0D -.Lenc_loop8:=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.Lenc_loop8_inner:=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D -.byte 102,15,56,220,241=0D -.byte 102,15,56,220,249=0D -.byte 102,68,15,56,220,193=0D -.byte 102,68,15,56,220,201=0D -.Lenc_loop8_enter:=0D - movups (%rcx,%rax,1),%xmm1=0D - addq $32,%rax=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D -.byte 102,15,56,220,224=0D -.byte 102,15,56,220,232=0D -.byte 102,15,56,220,240=0D -.byte 102,15,56,220,248=0D -.byte 102,68,15,56,220,192=0D -.byte 102,68,15,56,220,200=0D - movups -16(%rcx,%rax,1),%xmm0=0D - jnz .Lenc_loop8=0D -=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D -.byte 102,15,56,220,241=0D -.byte 102,15,56,220,249=0D -.byte 102,68,15,56,220,193=0D -.byte 102,68,15,56,220,201=0D -.byte 102,15,56,221,208=0D -.byte 102,15,56,221,216=0D -.byte 102,15,56,221,224=0D -.byte 102,15,56,221,232=0D -.byte 102,15,56,221,240=0D -.byte 102,15,56,221,248=0D -.byte 102,68,15,56,221,192=0D -.byte 102,68,15,56,221,200=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size _aesni_encrypt8,.-_aesni_encrypt8=0D -.type _aesni_decrypt8,@function=0D -.align 16=0D -_aesni_decrypt8:=0D -.cfi_startproc=0D - movups (%rcx),%xmm0=0D - shll $4,%eax=0D - movups 16(%rcx),%xmm1=0D - xorps %xmm0,%xmm2=0D - xorps %xmm0,%xmm3=0D - pxor %xmm0,%xmm4=0D - pxor %xmm0,%xmm5=0D - pxor %xmm0,%xmm6=0D - leaq 32(%rcx,%rax,1),%rcx=0D - negq %rax=0D -.byte 102,15,56,222,209=0D - pxor %xmm0,%xmm7=0D - pxor %xmm0,%xmm8=0D -.byte 102,15,56,222,217=0D - pxor %xmm0,%xmm9=0D - movups (%rcx,%rax,1),%xmm0=0D - addq $16,%rax=0D - jmp .Ldec_loop8_inner=0D -.align 16=0D -.Ldec_loop8:=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.Ldec_loop8_inner:=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D -.byte 102,15,56,222,241=0D -.byte 102,15,56,222,249=0D -.byte 102,68,15,56,222,193=0D -.byte 102,68,15,56,222,201=0D -.Ldec_loop8_enter:=0D - movups (%rcx,%rax,1),%xmm1=0D - addq $32,%rax=0D -.byte 102,15,56,222,208=0D -.byte 102,15,56,222,216=0D -.byte 102,15,56,222,224=0D -.byte 102,15,56,222,232=0D -.byte 102,15,56,222,240=0D -.byte 102,15,56,222,248=0D -.byte 102,68,15,56,222,192=0D -.byte 102,68,15,56,222,200=0D - movups -16(%rcx,%rax,1),%xmm0=0D - jnz .Ldec_loop8=0D -=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D -.byte 102,15,56,222,241=0D -.byte 102,15,56,222,249=0D -.byte 102,68,15,56,222,193=0D -.byte 102,68,15,56,222,201=0D -.byte 102,15,56,223,208=0D -.byte 102,15,56,223,216=0D -.byte 102,15,56,223,224=0D -.byte 102,15,56,223,232=0D -.byte 102,15,56,223,240=0D -.byte 102,15,56,223,248=0D -.byte 102,68,15,56,223,192=0D -.byte 102,68,15,56,223,200=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size _aesni_decrypt8,.-_aesni_decrypt8=0D -.globl aesni_ecb_encrypt=0D -.type aesni_ecb_encrypt,@function=0D -.align 16=0D -aesni_ecb_encrypt:=0D -.cfi_startproc=0D - andq $-16,%rdx=0D - jz .Lecb_ret=0D -=0D - movl 240(%rcx),%eax=0D - movups (%rcx),%xmm0=0D - movq %rcx,%r11=0D - movl %eax,%r10d=0D - testl %r8d,%r8d=0D - jz .Lecb_decrypt=0D -=0D - cmpq $0x80,%rdx=0D - jb .Lecb_enc_tail=0D -=0D - movdqu (%rdi),%xmm2=0D - movdqu 16(%rdi),%xmm3=0D - movdqu 32(%rdi),%xmm4=0D - movdqu 48(%rdi),%xmm5=0D - movdqu 64(%rdi),%xmm6=0D - movdqu 80(%rdi),%xmm7=0D - movdqu 96(%rdi),%xmm8=0D - movdqu 112(%rdi),%xmm9=0D - leaq 128(%rdi),%rdi=0D - subq $0x80,%rdx=0D - jmp .Lecb_enc_loop8_enter=0D -.align 16=0D -.Lecb_enc_loop8:=0D - movups %xmm2,(%rsi)=0D - movq %r11,%rcx=0D - movdqu (%rdi),%xmm2=0D - movl %r10d,%eax=0D - movups %xmm3,16(%rsi)=0D - movdqu 16(%rdi),%xmm3=0D - movups %xmm4,32(%rsi)=0D - movdqu 32(%rdi),%xmm4=0D - movups %xmm5,48(%rsi)=0D - movdqu 48(%rdi),%xmm5=0D - movups %xmm6,64(%rsi)=0D - movdqu 64(%rdi),%xmm6=0D - movups %xmm7,80(%rsi)=0D - movdqu 80(%rdi),%xmm7=0D - movups %xmm8,96(%rsi)=0D - movdqu 96(%rdi),%xmm8=0D - movups %xmm9,112(%rsi)=0D - leaq 128(%rsi),%rsi=0D - movdqu 112(%rdi),%xmm9=0D - leaq 128(%rdi),%rdi=0D -.Lecb_enc_loop8_enter:=0D -=0D - call _aesni_encrypt8=0D -=0D - subq $0x80,%rdx=0D - jnc .Lecb_enc_loop8=0D -=0D - movups %xmm2,(%rsi)=0D - movq %r11,%rcx=0D - movups %xmm3,16(%rsi)=0D - movl %r10d,%eax=0D - movups %xmm4,32(%rsi)=0D - movups %xmm5,48(%rsi)=0D - movups %xmm6,64(%rsi)=0D - movups %xmm7,80(%rsi)=0D - movups %xmm8,96(%rsi)=0D - movups %xmm9,112(%rsi)=0D - leaq 128(%rsi),%rsi=0D - addq $0x80,%rdx=0D - jz .Lecb_ret=0D -=0D -.Lecb_enc_tail:=0D - movups (%rdi),%xmm2=0D - cmpq $0x20,%rdx=0D - jb .Lecb_enc_one=0D - movups 16(%rdi),%xmm3=0D - je .Lecb_enc_two=0D - movups 32(%rdi),%xmm4=0D - cmpq $0x40,%rdx=0D - jb .Lecb_enc_three=0D - movups 48(%rdi),%xmm5=0D - je .Lecb_enc_four=0D - movups 64(%rdi),%xmm6=0D - cmpq $0x60,%rdx=0D - jb .Lecb_enc_five=0D - movups 80(%rdi),%xmm7=0D - je .Lecb_enc_six=0D - movdqu 96(%rdi),%xmm8=0D - xorps %xmm9,%xmm9=0D - call _aesni_encrypt8=0D - movups %xmm2,(%rsi)=0D - movups %xmm3,16(%rsi)=0D - movups %xmm4,32(%rsi)=0D - movups %xmm5,48(%rsi)=0D - movups %xmm6,64(%rsi)=0D - movups %xmm7,80(%rsi)=0D - movups %xmm8,96(%rsi)=0D - jmp .Lecb_ret=0D -.align 16=0D -.Lecb_enc_one:=0D - movups (%rcx),%xmm0=0D - movups 16(%rcx),%xmm1=0D - leaq 32(%rcx),%rcx=0D - xorps %xmm0,%xmm2=0D -.Loop_enc1_3:=0D -.byte 102,15,56,220,209=0D - decl %eax=0D - movups (%rcx),%xmm1=0D - leaq 16(%rcx),%rcx=0D - jnz .Loop_enc1_3=0D -.byte 102,15,56,221,209=0D - movups %xmm2,(%rsi)=0D - jmp .Lecb_ret=0D -.align 16=0D -.Lecb_enc_two:=0D - call _aesni_encrypt2=0D - movups %xmm2,(%rsi)=0D - movups %xmm3,16(%rsi)=0D - jmp .Lecb_ret=0D -.align 16=0D -.Lecb_enc_three:=0D - call _aesni_encrypt3=0D - movups %xmm2,(%rsi)=0D - movups %xmm3,16(%rsi)=0D - movups %xmm4,32(%rsi)=0D - jmp .Lecb_ret=0D -.align 16=0D -.Lecb_enc_four:=0D - call _aesni_encrypt4=0D - movups %xmm2,(%rsi)=0D - movups %xmm3,16(%rsi)=0D - movups %xmm4,32(%rsi)=0D - movups %xmm5,48(%rsi)=0D - jmp .Lecb_ret=0D -.align 16=0D -.Lecb_enc_five:=0D - xorps %xmm7,%xmm7=0D - call _aesni_encrypt6=0D - movups %xmm2,(%rsi)=0D - movups %xmm3,16(%rsi)=0D - movups %xmm4,32(%rsi)=0D - movups %xmm5,48(%rsi)=0D - movups %xmm6,64(%rsi)=0D - jmp .Lecb_ret=0D -.align 16=0D -.Lecb_enc_six:=0D - call _aesni_encrypt6=0D - movups %xmm2,(%rsi)=0D - movups %xmm3,16(%rsi)=0D - movups %xmm4,32(%rsi)=0D - movups %xmm5,48(%rsi)=0D - movups %xmm6,64(%rsi)=0D - movups %xmm7,80(%rsi)=0D - jmp .Lecb_ret=0D -=0D -.align 16=0D -.Lecb_decrypt:=0D - cmpq $0x80,%rdx=0D - jb .Lecb_dec_tail=0D -=0D - movdqu (%rdi),%xmm2=0D - movdqu 16(%rdi),%xmm3=0D - movdqu 32(%rdi),%xmm4=0D - movdqu 48(%rdi),%xmm5=0D - movdqu 64(%rdi),%xmm6=0D - movdqu 80(%rdi),%xmm7=0D - movdqu 96(%rdi),%xmm8=0D - movdqu 112(%rdi),%xmm9=0D - leaq 128(%rdi),%rdi=0D - subq $0x80,%rdx=0D - jmp .Lecb_dec_loop8_enter=0D -.align 16=0D -.Lecb_dec_loop8:=0D - movups %xmm2,(%rsi)=0D - movq %r11,%rcx=0D - movdqu (%rdi),%xmm2=0D - movl %r10d,%eax=0D - movups %xmm3,16(%rsi)=0D - movdqu 16(%rdi),%xmm3=0D - movups %xmm4,32(%rsi)=0D - movdqu 32(%rdi),%xmm4=0D - movups %xmm5,48(%rsi)=0D - movdqu 48(%rdi),%xmm5=0D - movups %xmm6,64(%rsi)=0D - movdqu 64(%rdi),%xmm6=0D - movups %xmm7,80(%rsi)=0D - movdqu 80(%rdi),%xmm7=0D - movups %xmm8,96(%rsi)=0D - movdqu 96(%rdi),%xmm8=0D - movups %xmm9,112(%rsi)=0D - leaq 128(%rsi),%rsi=0D - movdqu 112(%rdi),%xmm9=0D - leaq 128(%rdi),%rdi=0D -.Lecb_dec_loop8_enter:=0D -=0D - call _aesni_decrypt8=0D -=0D - movups (%r11),%xmm0=0D - subq $0x80,%rdx=0D - jnc .Lecb_dec_loop8=0D -=0D - movups %xmm2,(%rsi)=0D - pxor %xmm2,%xmm2=0D - movq %r11,%rcx=0D - movups %xmm3,16(%rsi)=0D - pxor %xmm3,%xmm3=0D - movl %r10d,%eax=0D - movups %xmm4,32(%rsi)=0D - pxor %xmm4,%xmm4=0D - movups %xmm5,48(%rsi)=0D - pxor %xmm5,%xmm5=0D - movups %xmm6,64(%rsi)=0D - pxor %xmm6,%xmm6=0D - movups %xmm7,80(%rsi)=0D - pxor %xmm7,%xmm7=0D - movups %xmm8,96(%rsi)=0D - pxor %xmm8,%xmm8=0D - movups %xmm9,112(%rsi)=0D - pxor %xmm9,%xmm9=0D - leaq 128(%rsi),%rsi=0D - addq $0x80,%rdx=0D - jz .Lecb_ret=0D -=0D -.Lecb_dec_tail:=0D - movups (%rdi),%xmm2=0D - cmpq $0x20,%rdx=0D - jb .Lecb_dec_one=0D - movups 16(%rdi),%xmm3=0D - je .Lecb_dec_two=0D - movups 32(%rdi),%xmm4=0D - cmpq $0x40,%rdx=0D - jb .Lecb_dec_three=0D - movups 48(%rdi),%xmm5=0D - je .Lecb_dec_four=0D - movups 64(%rdi),%xmm6=0D - cmpq $0x60,%rdx=0D - jb .Lecb_dec_five=0D - movups 80(%rdi),%xmm7=0D - je .Lecb_dec_six=0D - movups 96(%rdi),%xmm8=0D - movups (%rcx),%xmm0=0D - xorps %xmm9,%xmm9=0D - call _aesni_decrypt8=0D - movups %xmm2,(%rsi)=0D - pxor %xmm2,%xmm2=0D - movups %xmm3,16(%rsi)=0D - pxor %xmm3,%xmm3=0D - movups %xmm4,32(%rsi)=0D - pxor %xmm4,%xmm4=0D - movups %xmm5,48(%rsi)=0D - pxor %xmm5,%xmm5=0D - movups %xmm6,64(%rsi)=0D - pxor %xmm6,%xmm6=0D - movups %xmm7,80(%rsi)=0D - pxor %xmm7,%xmm7=0D - movups %xmm8,96(%rsi)=0D - pxor %xmm8,%xmm8=0D - pxor %xmm9,%xmm9=0D - jmp .Lecb_ret=0D -.align 16=0D -.Lecb_dec_one:=0D - movups (%rcx),%xmm0=0D - movups 16(%rcx),%xmm1=0D - leaq 32(%rcx),%rcx=0D - xorps %xmm0,%xmm2=0D -.Loop_dec1_4:=0D -.byte 102,15,56,222,209=0D - decl %eax=0D - movups (%rcx),%xmm1=0D - leaq 16(%rcx),%rcx=0D - jnz .Loop_dec1_4=0D -.byte 102,15,56,223,209=0D - movups %xmm2,(%rsi)=0D - pxor %xmm2,%xmm2=0D - jmp .Lecb_ret=0D -.align 16=0D -.Lecb_dec_two:=0D - call _aesni_decrypt2=0D - movups %xmm2,(%rsi)=0D - pxor %xmm2,%xmm2=0D - movups %xmm3,16(%rsi)=0D - pxor %xmm3,%xmm3=0D - jmp .Lecb_ret=0D -.align 16=0D -.Lecb_dec_three:=0D - call _aesni_decrypt3=0D - movups %xmm2,(%rsi)=0D - pxor %xmm2,%xmm2=0D - movups %xmm3,16(%rsi)=0D - pxor %xmm3,%xmm3=0D - movups %xmm4,32(%rsi)=0D - pxor %xmm4,%xmm4=0D - jmp .Lecb_ret=0D -.align 16=0D -.Lecb_dec_four:=0D - call _aesni_decrypt4=0D - movups %xmm2,(%rsi)=0D - pxor %xmm2,%xmm2=0D - movups %xmm3,16(%rsi)=0D - pxor %xmm3,%xmm3=0D - movups %xmm4,32(%rsi)=0D - pxor %xmm4,%xmm4=0D - movups %xmm5,48(%rsi)=0D - pxor %xmm5,%xmm5=0D - jmp .Lecb_ret=0D -.align 16=0D -.Lecb_dec_five:=0D - xorps %xmm7,%xmm7=0D - call _aesni_decrypt6=0D - movups %xmm2,(%rsi)=0D - pxor %xmm2,%xmm2=0D - movups %xmm3,16(%rsi)=0D - pxor %xmm3,%xmm3=0D - movups %xmm4,32(%rsi)=0D - pxor %xmm4,%xmm4=0D - movups %xmm5,48(%rsi)=0D - pxor %xmm5,%xmm5=0D - movups %xmm6,64(%rsi)=0D - pxor %xmm6,%xmm6=0D - pxor %xmm7,%xmm7=0D - jmp .Lecb_ret=0D -.align 16=0D -.Lecb_dec_six:=0D - call _aesni_decrypt6=0D - movups %xmm2,(%rsi)=0D - pxor %xmm2,%xmm2=0D - movups %xmm3,16(%rsi)=0D - pxor %xmm3,%xmm3=0D - movups %xmm4,32(%rsi)=0D - pxor %xmm4,%xmm4=0D - movups %xmm5,48(%rsi)=0D - pxor %xmm5,%xmm5=0D - movups %xmm6,64(%rsi)=0D - pxor %xmm6,%xmm6=0D - movups %xmm7,80(%rsi)=0D - pxor %xmm7,%xmm7=0D -=0D -.Lecb_ret:=0D - xorps %xmm0,%xmm0=0D - pxor %xmm1,%xmm1=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size aesni_ecb_encrypt,.-aesni_ecb_encrypt=0D -.globl aesni_ccm64_encrypt_blocks=0D -.type aesni_ccm64_encrypt_blocks,@function=0D -.align 16=0D -aesni_ccm64_encrypt_blocks:=0D -.cfi_startproc=0D - movl 240(%rcx),%eax=0D - movdqu (%r8),%xmm6=0D - movdqa .Lincrement64(%rip),%xmm9=0D - movdqa .Lbswap_mask(%rip),%xmm7=0D -=0D - shll $4,%eax=0D - movl $16,%r10d=0D - leaq 0(%rcx),%r11=0D - movdqu (%r9),%xmm3=0D - movdqa %xmm6,%xmm2=0D - leaq 32(%rcx,%rax,1),%rcx=0D -.byte 102,15,56,0,247=0D - subq %rax,%r10=0D - jmp .Lccm64_enc_outer=0D -.align 16=0D -.Lccm64_enc_outer:=0D - movups (%r11),%xmm0=0D - movq %r10,%rax=0D - movups (%rdi),%xmm8=0D -=0D - xorps %xmm0,%xmm2=0D - movups 16(%r11),%xmm1=0D - xorps %xmm8,%xmm0=0D - xorps %xmm0,%xmm3=0D - movups 32(%r11),%xmm0=0D -=0D -.Lccm64_enc2_loop:=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D - movups (%rcx,%rax,1),%xmm1=0D - addq $32,%rax=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D - movups -16(%rcx,%rax,1),%xmm0=0D - jnz .Lccm64_enc2_loop=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D - paddq %xmm9,%xmm6=0D - decq %rdx=0D -.byte 102,15,56,221,208=0D -.byte 102,15,56,221,216=0D -=0D - leaq 16(%rdi),%rdi=0D - xorps %xmm2,%xmm8=0D - movdqa %xmm6,%xmm2=0D - movups %xmm8,(%rsi)=0D -.byte 102,15,56,0,215=0D - leaq 16(%rsi),%rsi=0D - jnz .Lccm64_enc_outer=0D -=0D - pxor %xmm0,%xmm0=0D - pxor %xmm1,%xmm1=0D - pxor %xmm2,%xmm2=0D - movups %xmm3,(%r9)=0D - pxor %xmm3,%xmm3=0D - pxor %xmm8,%xmm8=0D - pxor %xmm6,%xmm6=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size aesni_ccm64_encrypt_blocks,.-aesni_ccm64_encrypt_blocks=0D -.globl aesni_ccm64_decrypt_blocks=0D -.type aesni_ccm64_decrypt_blocks,@function=0D -.align 16=0D -aesni_ccm64_decrypt_blocks:=0D -.cfi_startproc=0D - movl 240(%rcx),%eax=0D - movups (%r8),%xmm6=0D - movdqu (%r9),%xmm3=0D - movdqa .Lincrement64(%rip),%xmm9=0D - movdqa .Lbswap_mask(%rip),%xmm7=0D -=0D - movaps %xmm6,%xmm2=0D - movl %eax,%r10d=0D - movq %rcx,%r11=0D -.byte 102,15,56,0,247=0D - movups (%rcx),%xmm0=0D - movups 16(%rcx),%xmm1=0D - leaq 32(%rcx),%rcx=0D - xorps %xmm0,%xmm2=0D -.Loop_enc1_5:=0D -.byte 102,15,56,220,209=0D - decl %eax=0D - movups (%rcx),%xmm1=0D - leaq 16(%rcx),%rcx=0D - jnz .Loop_enc1_5=0D -.byte 102,15,56,221,209=0D - shll $4,%r10d=0D - movl $16,%eax=0D - movups (%rdi),%xmm8=0D - paddq %xmm9,%xmm6=0D - leaq 16(%rdi),%rdi=0D - subq %r10,%rax=0D - leaq 32(%r11,%r10,1),%rcx=0D - movq %rax,%r10=0D - jmp .Lccm64_dec_outer=0D -.align 16=0D -.Lccm64_dec_outer:=0D - xorps %xmm2,%xmm8=0D - movdqa %xmm6,%xmm2=0D - movups %xmm8,(%rsi)=0D - leaq 16(%rsi),%rsi=0D -.byte 102,15,56,0,215=0D -=0D - subq $1,%rdx=0D - jz .Lccm64_dec_break=0D -=0D - movups (%r11),%xmm0=0D - movq %r10,%rax=0D - movups 16(%r11),%xmm1=0D - xorps %xmm0,%xmm8=0D - xorps %xmm0,%xmm2=0D - xorps %xmm8,%xmm3=0D - movups 32(%r11),%xmm0=0D - jmp .Lccm64_dec2_loop=0D -.align 16=0D -.Lccm64_dec2_loop:=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D - movups (%rcx,%rax,1),%xmm1=0D - addq $32,%rax=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D - movups -16(%rcx,%rax,1),%xmm0=0D - jnz .Lccm64_dec2_loop=0D - movups (%rdi),%xmm8=0D - paddq %xmm9,%xmm6=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,221,208=0D -.byte 102,15,56,221,216=0D - leaq 16(%rdi),%rdi=0D - jmp .Lccm64_dec_outer=0D -=0D -.align 16=0D -.Lccm64_dec_break:=0D -=0D - movl 240(%r11),%eax=0D - movups (%r11),%xmm0=0D - movups 16(%r11),%xmm1=0D - xorps %xmm0,%xmm8=0D - leaq 32(%r11),%r11=0D - xorps %xmm8,%xmm3=0D -.Loop_enc1_6:=0D -.byte 102,15,56,220,217=0D - decl %eax=0D - movups (%r11),%xmm1=0D - leaq 16(%r11),%r11=0D - jnz .Loop_enc1_6=0D -.byte 102,15,56,221,217=0D - pxor %xmm0,%xmm0=0D - pxor %xmm1,%xmm1=0D - pxor %xmm2,%xmm2=0D - movups %xmm3,(%r9)=0D - pxor %xmm3,%xmm3=0D - pxor %xmm8,%xmm8=0D - pxor %xmm6,%xmm6=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size aesni_ccm64_decrypt_blocks,.-aesni_ccm64_decrypt_blocks=0D -.globl aesni_ctr32_encrypt_blocks=0D -.type aesni_ctr32_encrypt_blocks,@function=0D -.align 16=0D -aesni_ctr32_encrypt_blocks:=0D -.cfi_startproc=0D - cmpq $1,%rdx=0D - jne .Lctr32_bulk=0D -=0D -=0D -=0D - movups (%r8),%xmm2=0D - movups (%rdi),%xmm3=0D - movl 240(%rcx),%edx=0D - movups (%rcx),%xmm0=0D - movups 16(%rcx),%xmm1=0D - leaq 32(%rcx),%rcx=0D - xorps %xmm0,%xmm2=0D -.Loop_enc1_7:=0D -.byte 102,15,56,220,209=0D - decl %edx=0D - movups (%rcx),%xmm1=0D - leaq 16(%rcx),%rcx=0D - jnz .Loop_enc1_7=0D -.byte 102,15,56,221,209=0D - pxor %xmm0,%xmm0=0D - pxor %xmm1,%xmm1=0D - xorps %xmm3,%xmm2=0D - pxor %xmm3,%xmm3=0D - movups %xmm2,(%rsi)=0D - xorps %xmm2,%xmm2=0D - jmp .Lctr32_epilogue=0D -=0D -.align 16=0D -.Lctr32_bulk:=0D - leaq (%rsp),%r11=0D -.cfi_def_cfa_register %r11=0D - pushq %rbp=0D -.cfi_offset %rbp,-16=0D - subq $128,%rsp=0D - andq $-16,%rsp=0D -=0D -=0D -=0D -=0D - movdqu (%r8),%xmm2=0D - movdqu (%rcx),%xmm0=0D - movl 12(%r8),%r8d=0D - pxor %xmm0,%xmm2=0D - movl 12(%rcx),%ebp=0D - movdqa %xmm2,0(%rsp)=0D - bswapl %r8d=0D - movdqa %xmm2,%xmm3=0D - movdqa %xmm2,%xmm4=0D - movdqa %xmm2,%xmm5=0D - movdqa %xmm2,64(%rsp)=0D - movdqa %xmm2,80(%rsp)=0D - movdqa %xmm2,96(%rsp)=0D - movq %rdx,%r10=0D - movdqa %xmm2,112(%rsp)=0D -=0D - leaq 1(%r8),%rax=0D - leaq 2(%r8),%rdx=0D - bswapl %eax=0D - bswapl %edx=0D - xorl %ebp,%eax=0D - xorl %ebp,%edx=0D -.byte 102,15,58,34,216,3=0D - leaq 3(%r8),%rax=0D - movdqa %xmm3,16(%rsp)=0D -.byte 102,15,58,34,226,3=0D - bswapl %eax=0D - movq %r10,%rdx=0D - leaq 4(%r8),%r10=0D - movdqa %xmm4,32(%rsp)=0D - xorl %ebp,%eax=0D - bswapl %r10d=0D -.byte 102,15,58,34,232,3=0D - xorl %ebp,%r10d=0D - movdqa %xmm5,48(%rsp)=0D - leaq 5(%r8),%r9=0D - movl %r10d,64+12(%rsp)=0D - bswapl %r9d=0D - leaq 6(%r8),%r10=0D - movl 240(%rcx),%eax=0D - xorl %ebp,%r9d=0D - bswapl %r10d=0D - movl %r9d,80+12(%rsp)=0D - xorl %ebp,%r10d=0D - leaq 7(%r8),%r9=0D - movl %r10d,96+12(%rsp)=0D - bswapl %r9d=0D - movl OPENSSL_ia32cap_P+4(%rip),%r10d=0D - xorl %ebp,%r9d=0D - andl $71303168,%r10d=0D - movl %r9d,112+12(%rsp)=0D -=0D - movups 16(%rcx),%xmm1=0D -=0D - movdqa 64(%rsp),%xmm6=0D - movdqa 80(%rsp),%xmm7=0D -=0D - cmpq $8,%rdx=0D - jb .Lctr32_tail=0D -=0D - subq $6,%rdx=0D - cmpl $4194304,%r10d=0D - je .Lctr32_6x=0D -=0D - leaq 128(%rcx),%rcx=0D - subq $2,%rdx=0D - jmp .Lctr32_loop8=0D -=0D -.align 16=0D -.Lctr32_6x:=0D - shll $4,%eax=0D - movl $48,%r10d=0D - bswapl %ebp=0D - leaq 32(%rcx,%rax,1),%rcx=0D - subq %rax,%r10=0D - jmp .Lctr32_loop6=0D -=0D -.align 16=0D -.Lctr32_loop6:=0D - addl $6,%r8d=0D - movups -48(%rcx,%r10,1),%xmm0=0D -.byte 102,15,56,220,209=0D - movl %r8d,%eax=0D - xorl %ebp,%eax=0D -.byte 102,15,56,220,217=0D -.byte 0x0f,0x38,0xf1,0x44,0x24,12=0D - leal 1(%r8),%eax=0D -.byte 102,15,56,220,225=0D - xorl %ebp,%eax=0D -.byte 0x0f,0x38,0xf1,0x44,0x24,28=0D -.byte 102,15,56,220,233=0D - leal 2(%r8),%eax=0D - xorl %ebp,%eax=0D -.byte 102,15,56,220,241=0D -.byte 0x0f,0x38,0xf1,0x44,0x24,44=0D - leal 3(%r8),%eax=0D -.byte 102,15,56,220,249=0D - movups -32(%rcx,%r10,1),%xmm1=0D - xorl %ebp,%eax=0D -=0D -.byte 102,15,56,220,208=0D -.byte 0x0f,0x38,0xf1,0x44,0x24,60=0D - leal 4(%r8),%eax=0D -.byte 102,15,56,220,216=0D - xorl %ebp,%eax=0D -.byte 0x0f,0x38,0xf1,0x44,0x24,76=0D -.byte 102,15,56,220,224=0D - leal 5(%r8),%eax=0D - xorl %ebp,%eax=0D -.byte 102,15,56,220,232=0D -.byte 0x0f,0x38,0xf1,0x44,0x24,92=0D - movq %r10,%rax=0D -.byte 102,15,56,220,240=0D -.byte 102,15,56,220,248=0D - movups -16(%rcx,%r10,1),%xmm0=0D -=0D - call .Lenc_loop6=0D -=0D - movdqu (%rdi),%xmm8=0D - movdqu 16(%rdi),%xmm9=0D - movdqu 32(%rdi),%xmm10=0D - movdqu 48(%rdi),%xmm11=0D - movdqu 64(%rdi),%xmm12=0D - movdqu 80(%rdi),%xmm13=0D - leaq 96(%rdi),%rdi=0D - movups -64(%rcx,%r10,1),%xmm1=0D - pxor %xmm2,%xmm8=0D - movaps 0(%rsp),%xmm2=0D - pxor %xmm3,%xmm9=0D - movaps 16(%rsp),%xmm3=0D - pxor %xmm4,%xmm10=0D - movaps 32(%rsp),%xmm4=0D - pxor %xmm5,%xmm11=0D - movaps 48(%rsp),%xmm5=0D - pxor %xmm6,%xmm12=0D - movaps 64(%rsp),%xmm6=0D - pxor %xmm7,%xmm13=0D - movaps 80(%rsp),%xmm7=0D - movdqu %xmm8,(%rsi)=0D - movdqu %xmm9,16(%rsi)=0D - movdqu %xmm10,32(%rsi)=0D - movdqu %xmm11,48(%rsi)=0D - movdqu %xmm12,64(%rsi)=0D - movdqu %xmm13,80(%rsi)=0D - leaq 96(%rsi),%rsi=0D -=0D - subq $6,%rdx=0D - jnc .Lctr32_loop6=0D -=0D - addq $6,%rdx=0D - jz .Lctr32_done=0D -=0D - leal -48(%r10),%eax=0D - leaq -80(%rcx,%r10,1),%rcx=0D - negl %eax=0D - shrl $4,%eax=0D - jmp .Lctr32_tail=0D -=0D -.align 32=0D -.Lctr32_loop8:=0D - addl $8,%r8d=0D - movdqa 96(%rsp),%xmm8=0D -.byte 102,15,56,220,209=0D - movl %r8d,%r9d=0D - movdqa 112(%rsp),%xmm9=0D -.byte 102,15,56,220,217=0D - bswapl %r9d=0D - movups 32-128(%rcx),%xmm0=0D -.byte 102,15,56,220,225=0D - xorl %ebp,%r9d=0D - nop=0D -.byte 102,15,56,220,233=0D - movl %r9d,0+12(%rsp)=0D - leaq 1(%r8),%r9=0D -.byte 102,15,56,220,241=0D -.byte 102,15,56,220,249=0D -.byte 102,68,15,56,220,193=0D -.byte 102,68,15,56,220,201=0D - movups 48-128(%rcx),%xmm1=0D - bswapl %r9d=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D - xorl %ebp,%r9d=0D -.byte 0x66,0x90=0D -.byte 102,15,56,220,224=0D -.byte 102,15,56,220,232=0D - movl %r9d,16+12(%rsp)=0D - leaq 2(%r8),%r9=0D -.byte 102,15,56,220,240=0D -.byte 102,15,56,220,248=0D -.byte 102,68,15,56,220,192=0D -.byte 102,68,15,56,220,200=0D - movups 64-128(%rcx),%xmm0=0D - bswapl %r9d=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D - xorl %ebp,%r9d=0D -.byte 0x66,0x90=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D - movl %r9d,32+12(%rsp)=0D - leaq 3(%r8),%r9=0D -.byte 102,15,56,220,241=0D -.byte 102,15,56,220,249=0D -.byte 102,68,15,56,220,193=0D -.byte 102,68,15,56,220,201=0D - movups 80-128(%rcx),%xmm1=0D - bswapl %r9d=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D - xorl %ebp,%r9d=0D -.byte 0x66,0x90=0D -.byte 102,15,56,220,224=0D -.byte 102,15,56,220,232=0D - movl %r9d,48+12(%rsp)=0D - leaq 4(%r8),%r9=0D -.byte 102,15,56,220,240=0D -.byte 102,15,56,220,248=0D -.byte 102,68,15,56,220,192=0D -.byte 102,68,15,56,220,200=0D - movups 96-128(%rcx),%xmm0=0D - bswapl %r9d=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D - xorl %ebp,%r9d=0D -.byte 0x66,0x90=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D - movl %r9d,64+12(%rsp)=0D - leaq 5(%r8),%r9=0D -.byte 102,15,56,220,241=0D -.byte 102,15,56,220,249=0D -.byte 102,68,15,56,220,193=0D -.byte 102,68,15,56,220,201=0D - movups 112-128(%rcx),%xmm1=0D - bswapl %r9d=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D - xorl %ebp,%r9d=0D -.byte 0x66,0x90=0D -.byte 102,15,56,220,224=0D -.byte 102,15,56,220,232=0D - movl %r9d,80+12(%rsp)=0D - leaq 6(%r8),%r9=0D -.byte 102,15,56,220,240=0D -.byte 102,15,56,220,248=0D -.byte 102,68,15,56,220,192=0D -.byte 102,68,15,56,220,200=0D - movups 128-128(%rcx),%xmm0=0D - bswapl %r9d=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D - xorl %ebp,%r9d=0D -.byte 0x66,0x90=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D - movl %r9d,96+12(%rsp)=0D - leaq 7(%r8),%r9=0D -.byte 102,15,56,220,241=0D -.byte 102,15,56,220,249=0D -.byte 102,68,15,56,220,193=0D -.byte 102,68,15,56,220,201=0D - movups 144-128(%rcx),%xmm1=0D - bswapl %r9d=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D -.byte 102,15,56,220,224=0D - xorl %ebp,%r9d=0D - movdqu 0(%rdi),%xmm10=0D -.byte 102,15,56,220,232=0D - movl %r9d,112+12(%rsp)=0D - cmpl $11,%eax=0D -.byte 102,15,56,220,240=0D -.byte 102,15,56,220,248=0D -.byte 102,68,15,56,220,192=0D -.byte 102,68,15,56,220,200=0D - movups 160-128(%rcx),%xmm0=0D -=0D - jb .Lctr32_enc_done=0D -=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D -.byte 102,15,56,220,241=0D -.byte 102,15,56,220,249=0D -.byte 102,68,15,56,220,193=0D -.byte 102,68,15,56,220,201=0D - movups 176-128(%rcx),%xmm1=0D -=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D -.byte 102,15,56,220,224=0D -.byte 102,15,56,220,232=0D -.byte 102,15,56,220,240=0D -.byte 102,15,56,220,248=0D -.byte 102,68,15,56,220,192=0D -.byte 102,68,15,56,220,200=0D - movups 192-128(%rcx),%xmm0=0D - je .Lctr32_enc_done=0D -=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D -.byte 102,15,56,220,241=0D -.byte 102,15,56,220,249=0D -.byte 102,68,15,56,220,193=0D -.byte 102,68,15,56,220,201=0D - movups 208-128(%rcx),%xmm1=0D -=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D -.byte 102,15,56,220,224=0D -.byte 102,15,56,220,232=0D -.byte 102,15,56,220,240=0D -.byte 102,15,56,220,248=0D -.byte 102,68,15,56,220,192=0D -.byte 102,68,15,56,220,200=0D - movups 224-128(%rcx),%xmm0=0D - jmp .Lctr32_enc_done=0D -=0D -.align 16=0D -.Lctr32_enc_done:=0D - movdqu 16(%rdi),%xmm11=0D - pxor %xmm0,%xmm10=0D - movdqu 32(%rdi),%xmm12=0D - pxor %xmm0,%xmm11=0D - movdqu 48(%rdi),%xmm13=0D - pxor %xmm0,%xmm12=0D - movdqu 64(%rdi),%xmm14=0D - pxor %xmm0,%xmm13=0D - movdqu 80(%rdi),%xmm15=0D - pxor %xmm0,%xmm14=0D - pxor %xmm0,%xmm15=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D -.byte 102,15,56,220,241=0D -.byte 102,15,56,220,249=0D -.byte 102,68,15,56,220,193=0D -.byte 102,68,15,56,220,201=0D - movdqu 96(%rdi),%xmm1=0D - leaq 128(%rdi),%rdi=0D -=0D -.byte 102,65,15,56,221,210=0D - pxor %xmm0,%xmm1=0D - movdqu 112-128(%rdi),%xmm10=0D -.byte 102,65,15,56,221,219=0D - pxor %xmm0,%xmm10=0D - movdqa 0(%rsp),%xmm11=0D -.byte 102,65,15,56,221,228=0D -.byte 102,65,15,56,221,237=0D - movdqa 16(%rsp),%xmm12=0D - movdqa 32(%rsp),%xmm13=0D -.byte 102,65,15,56,221,246=0D -.byte 102,65,15,56,221,255=0D - movdqa 48(%rsp),%xmm14=0D - movdqa 64(%rsp),%xmm15=0D -.byte 102,68,15,56,221,193=0D - movdqa 80(%rsp),%xmm0=0D - movups 16-128(%rcx),%xmm1=0D -.byte 102,69,15,56,221,202=0D -=0D - movups %xmm2,(%rsi)=0D - movdqa %xmm11,%xmm2=0D - movups %xmm3,16(%rsi)=0D - movdqa %xmm12,%xmm3=0D - movups %xmm4,32(%rsi)=0D - movdqa %xmm13,%xmm4=0D - movups %xmm5,48(%rsi)=0D - movdqa %xmm14,%xmm5=0D - movups %xmm6,64(%rsi)=0D - movdqa %xmm15,%xmm6=0D - movups %xmm7,80(%rsi)=0D - movdqa %xmm0,%xmm7=0D - movups %xmm8,96(%rsi)=0D - movups %xmm9,112(%rsi)=0D - leaq 128(%rsi),%rsi=0D -=0D - subq $8,%rdx=0D - jnc .Lctr32_loop8=0D -=0D - addq $8,%rdx=0D - jz .Lctr32_done=0D - leaq -128(%rcx),%rcx=0D -=0D -.Lctr32_tail:=0D -=0D -=0D - leaq 16(%rcx),%rcx=0D - cmpq $4,%rdx=0D - jb .Lctr32_loop3=0D - je .Lctr32_loop4=0D -=0D -=0D - shll $4,%eax=0D - movdqa 96(%rsp),%xmm8=0D - pxor %xmm9,%xmm9=0D -=0D - movups 16(%rcx),%xmm0=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D - leaq 32-16(%rcx,%rax,1),%rcx=0D - negq %rax=0D -.byte 102,15,56,220,225=0D - addq $16,%rax=0D - movups (%rdi),%xmm10=0D -.byte 102,15,56,220,233=0D -.byte 102,15,56,220,241=0D - movups 16(%rdi),%xmm11=0D - movups 32(%rdi),%xmm12=0D -.byte 102,15,56,220,249=0D -.byte 102,68,15,56,220,193=0D -=0D - call .Lenc_loop8_enter=0D -=0D - movdqu 48(%rdi),%xmm13=0D - pxor %xmm10,%xmm2=0D - movdqu 64(%rdi),%xmm10=0D - pxor %xmm11,%xmm3=0D - movdqu %xmm2,(%rsi)=0D - pxor %xmm12,%xmm4=0D - movdqu %xmm3,16(%rsi)=0D - pxor %xmm13,%xmm5=0D - movdqu %xmm4,32(%rsi)=0D - pxor %xmm10,%xmm6=0D - movdqu %xmm5,48(%rsi)=0D - movdqu %xmm6,64(%rsi)=0D - cmpq $6,%rdx=0D - jb .Lctr32_done=0D -=0D - movups 80(%rdi),%xmm11=0D - xorps %xmm11,%xmm7=0D - movups %xmm7,80(%rsi)=0D - je .Lctr32_done=0D -=0D - movups 96(%rdi),%xmm12=0D - xorps %xmm12,%xmm8=0D - movups %xmm8,96(%rsi)=0D - jmp .Lctr32_done=0D -=0D -.align 32=0D -.Lctr32_loop4:=0D -.byte 102,15,56,220,209=0D - leaq 16(%rcx),%rcx=0D - decl %eax=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D - movups (%rcx),%xmm1=0D - jnz .Lctr32_loop4=0D -.byte 102,15,56,221,209=0D -.byte 102,15,56,221,217=0D - movups (%rdi),%xmm10=0D - movups 16(%rdi),%xmm11=0D -.byte 102,15,56,221,225=0D -.byte 102,15,56,221,233=0D - movups 32(%rdi),%xmm12=0D - movups 48(%rdi),%xmm13=0D -=0D - xorps %xmm10,%xmm2=0D - movups %xmm2,(%rsi)=0D - xorps %xmm11,%xmm3=0D - movups %xmm3,16(%rsi)=0D - pxor %xmm12,%xmm4=0D - movdqu %xmm4,32(%rsi)=0D - pxor %xmm13,%xmm5=0D - movdqu %xmm5,48(%rsi)=0D - jmp .Lctr32_done=0D -=0D -.align 32=0D -.Lctr32_loop3:=0D -.byte 102,15,56,220,209=0D - leaq 16(%rcx),%rcx=0D - decl %eax=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D - movups (%rcx),%xmm1=0D - jnz .Lctr32_loop3=0D -.byte 102,15,56,221,209=0D -.byte 102,15,56,221,217=0D -.byte 102,15,56,221,225=0D -=0D - movups (%rdi),%xmm10=0D - xorps %xmm10,%xmm2=0D - movups %xmm2,(%rsi)=0D - cmpq $2,%rdx=0D - jb .Lctr32_done=0D -=0D - movups 16(%rdi),%xmm11=0D - xorps %xmm11,%xmm3=0D - movups %xmm3,16(%rsi)=0D - je .Lctr32_done=0D -=0D - movups 32(%rdi),%xmm12=0D - xorps %xmm12,%xmm4=0D - movups %xmm4,32(%rsi)=0D -=0D -.Lctr32_done:=0D - xorps %xmm0,%xmm0=0D - xorl %ebp,%ebp=0D - pxor %xmm1,%xmm1=0D - pxor %xmm2,%xmm2=0D - pxor %xmm3,%xmm3=0D - pxor %xmm4,%xmm4=0D - pxor %xmm5,%xmm5=0D - pxor %xmm6,%xmm6=0D - pxor %xmm7,%xmm7=0D - movaps %xmm0,0(%rsp)=0D - pxor %xmm8,%xmm8=0D - movaps %xmm0,16(%rsp)=0D - pxor %xmm9,%xmm9=0D - movaps %xmm0,32(%rsp)=0D - pxor %xmm10,%xmm10=0D - movaps %xmm0,48(%rsp)=0D - pxor %xmm11,%xmm11=0D - movaps %xmm0,64(%rsp)=0D - pxor %xmm12,%xmm12=0D - movaps %xmm0,80(%rsp)=0D - pxor %xmm13,%xmm13=0D - movaps %xmm0,96(%rsp)=0D - pxor %xmm14,%xmm14=0D - movaps %xmm0,112(%rsp)=0D - pxor %xmm15,%xmm15=0D - movq -8(%r11),%rbp=0D -.cfi_restore %rbp=0D - leaq (%r11),%rsp=0D -.cfi_def_cfa_register %rsp=0D -.Lctr32_epilogue:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size aesni_ctr32_encrypt_blocks,.-aesni_ctr32_encrypt_blocks=0D -.globl aesni_xts_encrypt=0D -.type aesni_xts_encrypt,@function=0D -.align 16=0D -aesni_xts_encrypt:=0D -.cfi_startproc=0D - leaq (%rsp),%r11=0D -.cfi_def_cfa_register %r11=0D - pushq %rbp=0D -.cfi_offset %rbp,-16=0D - subq $112,%rsp=0D - andq $-16,%rsp=0D - movups (%r9),%xmm2=0D - movl 240(%r8),%eax=0D - movl 240(%rcx),%r10d=0D - movups (%r8),%xmm0=0D - movups 16(%r8),%xmm1=0D - leaq 32(%r8),%r8=0D - xorps %xmm0,%xmm2=0D -.Loop_enc1_8:=0D -.byte 102,15,56,220,209=0D - decl %eax=0D - movups (%r8),%xmm1=0D - leaq 16(%r8),%r8=0D - jnz .Loop_enc1_8=0D -.byte 102,15,56,221,209=0D - movups (%rcx),%xmm0=0D - movq %rcx,%rbp=0D - movl %r10d,%eax=0D - shll $4,%r10d=0D - movq %rdx,%r9=0D - andq $-16,%rdx=0D -=0D - movups 16(%rcx,%r10,1),%xmm1=0D -=0D - movdqa .Lxts_magic(%rip),%xmm8=0D - movdqa %xmm2,%xmm15=0D - pshufd $0x5f,%xmm2,%xmm9=0D - pxor %xmm0,%xmm1=0D - movdqa %xmm9,%xmm14=0D - paddd %xmm9,%xmm9=0D - movdqa %xmm15,%xmm10=0D - psrad $31,%xmm14=0D - paddq %xmm15,%xmm15=0D - pand %xmm8,%xmm14=0D - pxor %xmm0,%xmm10=0D - pxor %xmm14,%xmm15=0D - movdqa %xmm9,%xmm14=0D - paddd %xmm9,%xmm9=0D - movdqa %xmm15,%xmm11=0D - psrad $31,%xmm14=0D - paddq %xmm15,%xmm15=0D - pand %xmm8,%xmm14=0D - pxor %xmm0,%xmm11=0D - pxor %xmm14,%xmm15=0D - movdqa %xmm9,%xmm14=0D - paddd %xmm9,%xmm9=0D - movdqa %xmm15,%xmm12=0D - psrad $31,%xmm14=0D - paddq %xmm15,%xmm15=0D - pand %xmm8,%xmm14=0D - pxor %xmm0,%xmm12=0D - pxor %xmm14,%xmm15=0D - movdqa %xmm9,%xmm14=0D - paddd %xmm9,%xmm9=0D - movdqa %xmm15,%xmm13=0D - psrad $31,%xmm14=0D - paddq %xmm15,%xmm15=0D - pand %xmm8,%xmm14=0D - pxor %xmm0,%xmm13=0D - pxor %xmm14,%xmm15=0D - movdqa %xmm15,%xmm14=0D - psrad $31,%xmm9=0D - paddq %xmm15,%xmm15=0D - pand %xmm8,%xmm9=0D - pxor %xmm0,%xmm14=0D - pxor %xmm9,%xmm15=0D - movaps %xmm1,96(%rsp)=0D -=0D - subq $96,%rdx=0D - jc .Lxts_enc_short=0D -=0D - movl $16+96,%eax=0D - leaq 32(%rbp,%r10,1),%rcx=0D - subq %r10,%rax=0D - movups 16(%rbp),%xmm1=0D - movq %rax,%r10=0D - leaq .Lxts_magic(%rip),%r8=0D - jmp .Lxts_enc_grandloop=0D -=0D -.align 32=0D -.Lxts_enc_grandloop:=0D - movdqu 0(%rdi),%xmm2=0D - movdqa %xmm0,%xmm8=0D - movdqu 16(%rdi),%xmm3=0D - pxor %xmm10,%xmm2=0D - movdqu 32(%rdi),%xmm4=0D - pxor %xmm11,%xmm3=0D -.byte 102,15,56,220,209=0D - movdqu 48(%rdi),%xmm5=0D - pxor %xmm12,%xmm4=0D -.byte 102,15,56,220,217=0D - movdqu 64(%rdi),%xmm6=0D - pxor %xmm13,%xmm5=0D -.byte 102,15,56,220,225=0D - movdqu 80(%rdi),%xmm7=0D - pxor %xmm15,%xmm8=0D - movdqa 96(%rsp),%xmm9=0D - pxor %xmm14,%xmm6=0D -.byte 102,15,56,220,233=0D - movups 32(%rbp),%xmm0=0D - leaq 96(%rdi),%rdi=0D - pxor %xmm8,%xmm7=0D -=0D - pxor %xmm9,%xmm10=0D -.byte 102,15,56,220,241=0D - pxor %xmm9,%xmm11=0D - movdqa %xmm10,0(%rsp)=0D -.byte 102,15,56,220,249=0D - movups 48(%rbp),%xmm1=0D - pxor %xmm9,%xmm12=0D -=0D -.byte 102,15,56,220,208=0D - pxor %xmm9,%xmm13=0D - movdqa %xmm11,16(%rsp)=0D -.byte 102,15,56,220,216=0D - pxor %xmm9,%xmm14=0D - movdqa %xmm12,32(%rsp)=0D -.byte 102,15,56,220,224=0D -.byte 102,15,56,220,232=0D - pxor %xmm9,%xmm8=0D - movdqa %xmm14,64(%rsp)=0D -.byte 102,15,56,220,240=0D -.byte 102,15,56,220,248=0D - movups 64(%rbp),%xmm0=0D - movdqa %xmm8,80(%rsp)=0D - pshufd $0x5f,%xmm15,%xmm9=0D - jmp .Lxts_enc_loop6=0D -.align 32=0D -.Lxts_enc_loop6:=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D -.byte 102,15,56,220,241=0D -.byte 102,15,56,220,249=0D - movups -64(%rcx,%rax,1),%xmm1=0D - addq $32,%rax=0D -=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D -.byte 102,15,56,220,224=0D -.byte 102,15,56,220,232=0D -.byte 102,15,56,220,240=0D -.byte 102,15,56,220,248=0D - movups -80(%rcx,%rax,1),%xmm0=0D - jnz .Lxts_enc_loop6=0D -=0D - movdqa (%r8),%xmm8=0D - movdqa %xmm9,%xmm14=0D - paddd %xmm9,%xmm9=0D -.byte 102,15,56,220,209=0D - paddq %xmm15,%xmm15=0D - psrad $31,%xmm14=0D -.byte 102,15,56,220,217=0D - pand %xmm8,%xmm14=0D - movups (%rbp),%xmm10=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D -.byte 102,15,56,220,241=0D - pxor %xmm14,%xmm15=0D - movaps %xmm10,%xmm11=0D -.byte 102,15,56,220,249=0D - movups -64(%rcx),%xmm1=0D -=0D - movdqa %xmm9,%xmm14=0D -.byte 102,15,56,220,208=0D - paddd %xmm9,%xmm9=0D - pxor %xmm15,%xmm10=0D -.byte 102,15,56,220,216=0D - psrad $31,%xmm14=0D - paddq %xmm15,%xmm15=0D -.byte 102,15,56,220,224=0D -.byte 102,15,56,220,232=0D - pand %xmm8,%xmm14=0D - movaps %xmm11,%xmm12=0D -.byte 102,15,56,220,240=0D - pxor %xmm14,%xmm15=0D - movdqa %xmm9,%xmm14=0D -.byte 102,15,56,220,248=0D - movups -48(%rcx),%xmm0=0D -=0D - paddd %xmm9,%xmm9=0D -.byte 102,15,56,220,209=0D - pxor %xmm15,%xmm11=0D - psrad $31,%xmm14=0D -.byte 102,15,56,220,217=0D - paddq %xmm15,%xmm15=0D - pand %xmm8,%xmm14=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D - movdqa %xmm13,48(%rsp)=0D - pxor %xmm14,%xmm15=0D -.byte 102,15,56,220,241=0D - movaps %xmm12,%xmm13=0D - movdqa %xmm9,%xmm14=0D -.byte 102,15,56,220,249=0D - movups -32(%rcx),%xmm1=0D -=0D - paddd %xmm9,%xmm9=0D -.byte 102,15,56,220,208=0D - pxor %xmm15,%xmm12=0D - psrad $31,%xmm14=0D -.byte 102,15,56,220,216=0D - paddq %xmm15,%xmm15=0D - pand %xmm8,%xmm14=0D -.byte 102,15,56,220,224=0D -.byte 102,15,56,220,232=0D -.byte 102,15,56,220,240=0D - pxor %xmm14,%xmm15=0D - movaps %xmm13,%xmm14=0D -.byte 102,15,56,220,248=0D -=0D - movdqa %xmm9,%xmm0=0D - paddd %xmm9,%xmm9=0D -.byte 102,15,56,220,209=0D - pxor %xmm15,%xmm13=0D - psrad $31,%xmm0=0D -.byte 102,15,56,220,217=0D - paddq %xmm15,%xmm15=0D - pand %xmm8,%xmm0=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D - pxor %xmm0,%xmm15=0D - movups (%rbp),%xmm0=0D -.byte 102,15,56,220,241=0D -.byte 102,15,56,220,249=0D - movups 16(%rbp),%xmm1=0D -=0D - pxor %xmm15,%xmm14=0D -.byte 102,15,56,221,84,36,0=0D - psrad $31,%xmm9=0D - paddq %xmm15,%xmm15=0D -.byte 102,15,56,221,92,36,16=0D -.byte 102,15,56,221,100,36,32=0D - pand %xmm8,%xmm9=0D - movq %r10,%rax=0D -.byte 102,15,56,221,108,36,48=0D -.byte 102,15,56,221,116,36,64=0D -.byte 102,15,56,221,124,36,80=0D - pxor %xmm9,%xmm15=0D -=0D - leaq 96(%rsi),%rsi=0D - movups %xmm2,-96(%rsi)=0D - movups %xmm3,-80(%rsi)=0D - movups %xmm4,-64(%rsi)=0D - movups %xmm5,-48(%rsi)=0D - movups %xmm6,-32(%rsi)=0D - movups %xmm7,-16(%rsi)=0D - subq $96,%rdx=0D - jnc .Lxts_enc_grandloop=0D -=0D - movl $16+96,%eax=0D - subl %r10d,%eax=0D - movq %rbp,%rcx=0D - shrl $4,%eax=0D -=0D -.Lxts_enc_short:=0D -=0D - movl %eax,%r10d=0D - pxor %xmm0,%xmm10=0D - addq $96,%rdx=0D - jz .Lxts_enc_done=0D -=0D - pxor %xmm0,%xmm11=0D - cmpq $0x20,%rdx=0D - jb .Lxts_enc_one=0D - pxor %xmm0,%xmm12=0D - je .Lxts_enc_two=0D -=0D - pxor %xmm0,%xmm13=0D - cmpq $0x40,%rdx=0D - jb .Lxts_enc_three=0D - pxor %xmm0,%xmm14=0D - je .Lxts_enc_four=0D -=0D - movdqu (%rdi),%xmm2=0D - movdqu 16(%rdi),%xmm3=0D - movdqu 32(%rdi),%xmm4=0D - pxor %xmm10,%xmm2=0D - movdqu 48(%rdi),%xmm5=0D - pxor %xmm11,%xmm3=0D - movdqu 64(%rdi),%xmm6=0D - leaq 80(%rdi),%rdi=0D - pxor %xmm12,%xmm4=0D - pxor %xmm13,%xmm5=0D - pxor %xmm14,%xmm6=0D - pxor %xmm7,%xmm7=0D -=0D - call _aesni_encrypt6=0D -=0D - xorps %xmm10,%xmm2=0D - movdqa %xmm15,%xmm10=0D - xorps %xmm11,%xmm3=0D - xorps %xmm12,%xmm4=0D - movdqu %xmm2,(%rsi)=0D - xorps %xmm13,%xmm5=0D - movdqu %xmm3,16(%rsi)=0D - xorps %xmm14,%xmm6=0D - movdqu %xmm4,32(%rsi)=0D - movdqu %xmm5,48(%rsi)=0D - movdqu %xmm6,64(%rsi)=0D - leaq 80(%rsi),%rsi=0D - jmp .Lxts_enc_done=0D -=0D -.align 16=0D -.Lxts_enc_one:=0D - movups (%rdi),%xmm2=0D - leaq 16(%rdi),%rdi=0D - xorps %xmm10,%xmm2=0D - movups (%rcx),%xmm0=0D - movups 16(%rcx),%xmm1=0D - leaq 32(%rcx),%rcx=0D - xorps %xmm0,%xmm2=0D -.Loop_enc1_9:=0D -.byte 102,15,56,220,209=0D - decl %eax=0D - movups (%rcx),%xmm1=0D - leaq 16(%rcx),%rcx=0D - jnz .Loop_enc1_9=0D -.byte 102,15,56,221,209=0D - xorps %xmm10,%xmm2=0D - movdqa %xmm11,%xmm10=0D - movups %xmm2,(%rsi)=0D - leaq 16(%rsi),%rsi=0D - jmp .Lxts_enc_done=0D -=0D -.align 16=0D -.Lxts_enc_two:=0D - movups (%rdi),%xmm2=0D - movups 16(%rdi),%xmm3=0D - leaq 32(%rdi),%rdi=0D - xorps %xmm10,%xmm2=0D - xorps %xmm11,%xmm3=0D -=0D - call _aesni_encrypt2=0D -=0D - xorps %xmm10,%xmm2=0D - movdqa %xmm12,%xmm10=0D - xorps %xmm11,%xmm3=0D - movups %xmm2,(%rsi)=0D - movups %xmm3,16(%rsi)=0D - leaq 32(%rsi),%rsi=0D - jmp .Lxts_enc_done=0D -=0D -.align 16=0D -.Lxts_enc_three:=0D - movups (%rdi),%xmm2=0D - movups 16(%rdi),%xmm3=0D - movups 32(%rdi),%xmm4=0D - leaq 48(%rdi),%rdi=0D - xorps %xmm10,%xmm2=0D - xorps %xmm11,%xmm3=0D - xorps %xmm12,%xmm4=0D -=0D - call _aesni_encrypt3=0D -=0D - xorps %xmm10,%xmm2=0D - movdqa %xmm13,%xmm10=0D - xorps %xmm11,%xmm3=0D - xorps %xmm12,%xmm4=0D - movups %xmm2,(%rsi)=0D - movups %xmm3,16(%rsi)=0D - movups %xmm4,32(%rsi)=0D - leaq 48(%rsi),%rsi=0D - jmp .Lxts_enc_done=0D -=0D -.align 16=0D -.Lxts_enc_four:=0D - movups (%rdi),%xmm2=0D - movups 16(%rdi),%xmm3=0D - movups 32(%rdi),%xmm4=0D - xorps %xmm10,%xmm2=0D - movups 48(%rdi),%xmm5=0D - leaq 64(%rdi),%rdi=0D - xorps %xmm11,%xmm3=0D - xorps %xmm12,%xmm4=0D - xorps %xmm13,%xmm5=0D -=0D - call _aesni_encrypt4=0D -=0D - pxor %xmm10,%xmm2=0D - movdqa %xmm14,%xmm10=0D - pxor %xmm11,%xmm3=0D - pxor %xmm12,%xmm4=0D - movdqu %xmm2,(%rsi)=0D - pxor %xmm13,%xmm5=0D - movdqu %xmm3,16(%rsi)=0D - movdqu %xmm4,32(%rsi)=0D - movdqu %xmm5,48(%rsi)=0D - leaq 64(%rsi),%rsi=0D - jmp .Lxts_enc_done=0D -=0D -.align 16=0D -.Lxts_enc_done:=0D - andq $15,%r9=0D - jz .Lxts_enc_ret=0D - movq %r9,%rdx=0D -=0D -.Lxts_enc_steal:=0D - movzbl (%rdi),%eax=0D - movzbl -16(%rsi),%ecx=0D - leaq 1(%rdi),%rdi=0D - movb %al,-16(%rsi)=0D - movb %cl,0(%rsi)=0D - leaq 1(%rsi),%rsi=0D - subq $1,%rdx=0D - jnz .Lxts_enc_steal=0D -=0D - subq %r9,%rsi=0D - movq %rbp,%rcx=0D - movl %r10d,%eax=0D -=0D - movups -16(%rsi),%xmm2=0D - xorps %xmm10,%xmm2=0D - movups (%rcx),%xmm0=0D - movups 16(%rcx),%xmm1=0D - leaq 32(%rcx),%rcx=0D - xorps %xmm0,%xmm2=0D -.Loop_enc1_10:=0D -.byte 102,15,56,220,209=0D - decl %eax=0D - movups (%rcx),%xmm1=0D - leaq 16(%rcx),%rcx=0D - jnz .Loop_enc1_10=0D -.byte 102,15,56,221,209=0D - xorps %xmm10,%xmm2=0D - movups %xmm2,-16(%rsi)=0D -=0D -.Lxts_enc_ret:=0D - xorps %xmm0,%xmm0=0D - pxor %xmm1,%xmm1=0D - pxor %xmm2,%xmm2=0D - pxor %xmm3,%xmm3=0D - pxor %xmm4,%xmm4=0D - pxor %xmm5,%xmm5=0D - pxor %xmm6,%xmm6=0D - pxor %xmm7,%xmm7=0D - movaps %xmm0,0(%rsp)=0D - pxor %xmm8,%xmm8=0D - movaps %xmm0,16(%rsp)=0D - pxor %xmm9,%xmm9=0D - movaps %xmm0,32(%rsp)=0D - pxor %xmm10,%xmm10=0D - movaps %xmm0,48(%rsp)=0D - pxor %xmm11,%xmm11=0D - movaps %xmm0,64(%rsp)=0D - pxor %xmm12,%xmm12=0D - movaps %xmm0,80(%rsp)=0D - pxor %xmm13,%xmm13=0D - movaps %xmm0,96(%rsp)=0D - pxor %xmm14,%xmm14=0D - pxor %xmm15,%xmm15=0D - movq -8(%r11),%rbp=0D -.cfi_restore %rbp=0D - leaq (%r11),%rsp=0D -.cfi_def_cfa_register %rsp=0D -.Lxts_enc_epilogue:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size aesni_xts_encrypt,.-aesni_xts_encrypt=0D -.globl aesni_xts_decrypt=0D -.type aesni_xts_decrypt,@function=0D -.align 16=0D -aesni_xts_decrypt:=0D -.cfi_startproc=0D - leaq (%rsp),%r11=0D -.cfi_def_cfa_register %r11=0D - pushq %rbp=0D -.cfi_offset %rbp,-16=0D - subq $112,%rsp=0D - andq $-16,%rsp=0D - movups (%r9),%xmm2=0D - movl 240(%r8),%eax=0D - movl 240(%rcx),%r10d=0D - movups (%r8),%xmm0=0D - movups 16(%r8),%xmm1=0D - leaq 32(%r8),%r8=0D - xorps %xmm0,%xmm2=0D -.Loop_enc1_11:=0D -.byte 102,15,56,220,209=0D - decl %eax=0D - movups (%r8),%xmm1=0D - leaq 16(%r8),%r8=0D - jnz .Loop_enc1_11=0D -.byte 102,15,56,221,209=0D - xorl %eax,%eax=0D - testq $15,%rdx=0D - setnz %al=0D - shlq $4,%rax=0D - subq %rax,%rdx=0D -=0D - movups (%rcx),%xmm0=0D - movq %rcx,%rbp=0D - movl %r10d,%eax=0D - shll $4,%r10d=0D - movq %rdx,%r9=0D - andq $-16,%rdx=0D -=0D - movups 16(%rcx,%r10,1),%xmm1=0D -=0D - movdqa .Lxts_magic(%rip),%xmm8=0D - movdqa %xmm2,%xmm15=0D - pshufd $0x5f,%xmm2,%xmm9=0D - pxor %xmm0,%xmm1=0D - movdqa %xmm9,%xmm14=0D - paddd %xmm9,%xmm9=0D - movdqa %xmm15,%xmm10=0D - psrad $31,%xmm14=0D - paddq %xmm15,%xmm15=0D - pand %xmm8,%xmm14=0D - pxor %xmm0,%xmm10=0D - pxor %xmm14,%xmm15=0D - movdqa %xmm9,%xmm14=0D - paddd %xmm9,%xmm9=0D - movdqa %xmm15,%xmm11=0D - psrad $31,%xmm14=0D - paddq %xmm15,%xmm15=0D - pand %xmm8,%xmm14=0D - pxor %xmm0,%xmm11=0D - pxor %xmm14,%xmm15=0D - movdqa %xmm9,%xmm14=0D - paddd %xmm9,%xmm9=0D - movdqa %xmm15,%xmm12=0D - psrad $31,%xmm14=0D - paddq %xmm15,%xmm15=0D - pand %xmm8,%xmm14=0D - pxor %xmm0,%xmm12=0D - pxor %xmm14,%xmm15=0D - movdqa %xmm9,%xmm14=0D - paddd %xmm9,%xmm9=0D - movdqa %xmm15,%xmm13=0D - psrad $31,%xmm14=0D - paddq %xmm15,%xmm15=0D - pand %xmm8,%xmm14=0D - pxor %xmm0,%xmm13=0D - pxor %xmm14,%xmm15=0D - movdqa %xmm15,%xmm14=0D - psrad $31,%xmm9=0D - paddq %xmm15,%xmm15=0D - pand %xmm8,%xmm9=0D - pxor %xmm0,%xmm14=0D - pxor %xmm9,%xmm15=0D - movaps %xmm1,96(%rsp)=0D -=0D - subq $96,%rdx=0D - jc .Lxts_dec_short=0D -=0D - movl $16+96,%eax=0D - leaq 32(%rbp,%r10,1),%rcx=0D - subq %r10,%rax=0D - movups 16(%rbp),%xmm1=0D - movq %rax,%r10=0D - leaq .Lxts_magic(%rip),%r8=0D - jmp .Lxts_dec_grandloop=0D -=0D -.align 32=0D -.Lxts_dec_grandloop:=0D - movdqu 0(%rdi),%xmm2=0D - movdqa %xmm0,%xmm8=0D - movdqu 16(%rdi),%xmm3=0D - pxor %xmm10,%xmm2=0D - movdqu 32(%rdi),%xmm4=0D - pxor %xmm11,%xmm3=0D -.byte 102,15,56,222,209=0D - movdqu 48(%rdi),%xmm5=0D - pxor %xmm12,%xmm4=0D -.byte 102,15,56,222,217=0D - movdqu 64(%rdi),%xmm6=0D - pxor %xmm13,%xmm5=0D -.byte 102,15,56,222,225=0D - movdqu 80(%rdi),%xmm7=0D - pxor %xmm15,%xmm8=0D - movdqa 96(%rsp),%xmm9=0D - pxor %xmm14,%xmm6=0D -.byte 102,15,56,222,233=0D - movups 32(%rbp),%xmm0=0D - leaq 96(%rdi),%rdi=0D - pxor %xmm8,%xmm7=0D -=0D - pxor %xmm9,%xmm10=0D -.byte 102,15,56,222,241=0D - pxor %xmm9,%xmm11=0D - movdqa %xmm10,0(%rsp)=0D -.byte 102,15,56,222,249=0D - movups 48(%rbp),%xmm1=0D - pxor %xmm9,%xmm12=0D -=0D -.byte 102,15,56,222,208=0D - pxor %xmm9,%xmm13=0D - movdqa %xmm11,16(%rsp)=0D -.byte 102,15,56,222,216=0D - pxor %xmm9,%xmm14=0D - movdqa %xmm12,32(%rsp)=0D -.byte 102,15,56,222,224=0D -.byte 102,15,56,222,232=0D - pxor %xmm9,%xmm8=0D - movdqa %xmm14,64(%rsp)=0D -.byte 102,15,56,222,240=0D -.byte 102,15,56,222,248=0D - movups 64(%rbp),%xmm0=0D - movdqa %xmm8,80(%rsp)=0D - pshufd $0x5f,%xmm15,%xmm9=0D - jmp .Lxts_dec_loop6=0D -.align 32=0D -.Lxts_dec_loop6:=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D -.byte 102,15,56,222,241=0D -.byte 102,15,56,222,249=0D - movups -64(%rcx,%rax,1),%xmm1=0D - addq $32,%rax=0D -=0D -.byte 102,15,56,222,208=0D -.byte 102,15,56,222,216=0D -.byte 102,15,56,222,224=0D -.byte 102,15,56,222,232=0D -.byte 102,15,56,222,240=0D -.byte 102,15,56,222,248=0D - movups -80(%rcx,%rax,1),%xmm0=0D - jnz .Lxts_dec_loop6=0D -=0D - movdqa (%r8),%xmm8=0D - movdqa %xmm9,%xmm14=0D - paddd %xmm9,%xmm9=0D -.byte 102,15,56,222,209=0D - paddq %xmm15,%xmm15=0D - psrad $31,%xmm14=0D -.byte 102,15,56,222,217=0D - pand %xmm8,%xmm14=0D - movups (%rbp),%xmm10=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D -.byte 102,15,56,222,241=0D - pxor %xmm14,%xmm15=0D - movaps %xmm10,%xmm11=0D -.byte 102,15,56,222,249=0D - movups -64(%rcx),%xmm1=0D -=0D - movdqa %xmm9,%xmm14=0D -.byte 102,15,56,222,208=0D - paddd %xmm9,%xmm9=0D - pxor %xmm15,%xmm10=0D -.byte 102,15,56,222,216=0D - psrad $31,%xmm14=0D - paddq %xmm15,%xmm15=0D -.byte 102,15,56,222,224=0D -.byte 102,15,56,222,232=0D - pand %xmm8,%xmm14=0D - movaps %xmm11,%xmm12=0D -.byte 102,15,56,222,240=0D - pxor %xmm14,%xmm15=0D - movdqa %xmm9,%xmm14=0D -.byte 102,15,56,222,248=0D - movups -48(%rcx),%xmm0=0D -=0D - paddd %xmm9,%xmm9=0D -.byte 102,15,56,222,209=0D - pxor %xmm15,%xmm11=0D - psrad $31,%xmm14=0D -.byte 102,15,56,222,217=0D - paddq %xmm15,%xmm15=0D - pand %xmm8,%xmm14=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D - movdqa %xmm13,48(%rsp)=0D - pxor %xmm14,%xmm15=0D -.byte 102,15,56,222,241=0D - movaps %xmm12,%xmm13=0D - movdqa %xmm9,%xmm14=0D -.byte 102,15,56,222,249=0D - movups -32(%rcx),%xmm1=0D -=0D - paddd %xmm9,%xmm9=0D -.byte 102,15,56,222,208=0D - pxor %xmm15,%xmm12=0D - psrad $31,%xmm14=0D -.byte 102,15,56,222,216=0D - paddq %xmm15,%xmm15=0D - pand %xmm8,%xmm14=0D -.byte 102,15,56,222,224=0D -.byte 102,15,56,222,232=0D -.byte 102,15,56,222,240=0D - pxor %xmm14,%xmm15=0D - movaps %xmm13,%xmm14=0D -.byte 102,15,56,222,248=0D -=0D - movdqa %xmm9,%xmm0=0D - paddd %xmm9,%xmm9=0D -.byte 102,15,56,222,209=0D - pxor %xmm15,%xmm13=0D - psrad $31,%xmm0=0D -.byte 102,15,56,222,217=0D - paddq %xmm15,%xmm15=0D - pand %xmm8,%xmm0=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D - pxor %xmm0,%xmm15=0D - movups (%rbp),%xmm0=0D -.byte 102,15,56,222,241=0D -.byte 102,15,56,222,249=0D - movups 16(%rbp),%xmm1=0D -=0D - pxor %xmm15,%xmm14=0D -.byte 102,15,56,223,84,36,0=0D - psrad $31,%xmm9=0D - paddq %xmm15,%xmm15=0D -.byte 102,15,56,223,92,36,16=0D -.byte 102,15,56,223,100,36,32=0D - pand %xmm8,%xmm9=0D - movq %r10,%rax=0D -.byte 102,15,56,223,108,36,48=0D -.byte 102,15,56,223,116,36,64=0D -.byte 102,15,56,223,124,36,80=0D - pxor %xmm9,%xmm15=0D -=0D - leaq 96(%rsi),%rsi=0D - movups %xmm2,-96(%rsi)=0D - movups %xmm3,-80(%rsi)=0D - movups %xmm4,-64(%rsi)=0D - movups %xmm5,-48(%rsi)=0D - movups %xmm6,-32(%rsi)=0D - movups %xmm7,-16(%rsi)=0D - subq $96,%rdx=0D - jnc .Lxts_dec_grandloop=0D -=0D - movl $16+96,%eax=0D - subl %r10d,%eax=0D - movq %rbp,%rcx=0D - shrl $4,%eax=0D -=0D -.Lxts_dec_short:=0D -=0D - movl %eax,%r10d=0D - pxor %xmm0,%xmm10=0D - pxor %xmm0,%xmm11=0D - addq $96,%rdx=0D - jz .Lxts_dec_done=0D -=0D - pxor %xmm0,%xmm12=0D - cmpq $0x20,%rdx=0D - jb .Lxts_dec_one=0D - pxor %xmm0,%xmm13=0D - je .Lxts_dec_two=0D -=0D - pxor %xmm0,%xmm14=0D - cmpq $0x40,%rdx=0D - jb .Lxts_dec_three=0D - je .Lxts_dec_four=0D -=0D - movdqu (%rdi),%xmm2=0D - movdqu 16(%rdi),%xmm3=0D - movdqu 32(%rdi),%xmm4=0D - pxor %xmm10,%xmm2=0D - movdqu 48(%rdi),%xmm5=0D - pxor %xmm11,%xmm3=0D - movdqu 64(%rdi),%xmm6=0D - leaq 80(%rdi),%rdi=0D - pxor %xmm12,%xmm4=0D - pxor %xmm13,%xmm5=0D - pxor %xmm14,%xmm6=0D -=0D - call _aesni_decrypt6=0D -=0D - xorps %xmm10,%xmm2=0D - xorps %xmm11,%xmm3=0D - xorps %xmm12,%xmm4=0D - movdqu %xmm2,(%rsi)=0D - xorps %xmm13,%xmm5=0D - movdqu %xmm3,16(%rsi)=0D - xorps %xmm14,%xmm6=0D - movdqu %xmm4,32(%rsi)=0D - pxor %xmm14,%xmm14=0D - movdqu %xmm5,48(%rsi)=0D - pcmpgtd %xmm15,%xmm14=0D - movdqu %xmm6,64(%rsi)=0D - leaq 80(%rsi),%rsi=0D - pshufd $0x13,%xmm14,%xmm11=0D - andq $15,%r9=0D - jz .Lxts_dec_ret=0D -=0D - movdqa %xmm15,%xmm10=0D - paddq %xmm15,%xmm15=0D - pand %xmm8,%xmm11=0D - pxor %xmm15,%xmm11=0D - jmp .Lxts_dec_done2=0D -=0D -.align 16=0D -.Lxts_dec_one:=0D - movups (%rdi),%xmm2=0D - leaq 16(%rdi),%rdi=0D - xorps %xmm10,%xmm2=0D - movups (%rcx),%xmm0=0D - movups 16(%rcx),%xmm1=0D - leaq 32(%rcx),%rcx=0D - xorps %xmm0,%xmm2=0D -.Loop_dec1_12:=0D -.byte 102,15,56,222,209=0D - decl %eax=0D - movups (%rcx),%xmm1=0D - leaq 16(%rcx),%rcx=0D - jnz .Loop_dec1_12=0D -.byte 102,15,56,223,209=0D - xorps %xmm10,%xmm2=0D - movdqa %xmm11,%xmm10=0D - movups %xmm2,(%rsi)=0D - movdqa %xmm12,%xmm11=0D - leaq 16(%rsi),%rsi=0D - jmp .Lxts_dec_done=0D -=0D -.align 16=0D -.Lxts_dec_two:=0D - movups (%rdi),%xmm2=0D - movups 16(%rdi),%xmm3=0D - leaq 32(%rdi),%rdi=0D - xorps %xmm10,%xmm2=0D - xorps %xmm11,%xmm3=0D -=0D - call _aesni_decrypt2=0D -=0D - xorps %xmm10,%xmm2=0D - movdqa %xmm12,%xmm10=0D - xorps %xmm11,%xmm3=0D - movdqa %xmm13,%xmm11=0D - movups %xmm2,(%rsi)=0D - movups %xmm3,16(%rsi)=0D - leaq 32(%rsi),%rsi=0D - jmp .Lxts_dec_done=0D -=0D -.align 16=0D -.Lxts_dec_three:=0D - movups (%rdi),%xmm2=0D - movups 16(%rdi),%xmm3=0D - movups 32(%rdi),%xmm4=0D - leaq 48(%rdi),%rdi=0D - xorps %xmm10,%xmm2=0D - xorps %xmm11,%xmm3=0D - xorps %xmm12,%xmm4=0D -=0D - call _aesni_decrypt3=0D -=0D - xorps %xmm10,%xmm2=0D - movdqa %xmm13,%xmm10=0D - xorps %xmm11,%xmm3=0D - movdqa %xmm14,%xmm11=0D - xorps %xmm12,%xmm4=0D - movups %xmm2,(%rsi)=0D - movups %xmm3,16(%rsi)=0D - movups %xmm4,32(%rsi)=0D - leaq 48(%rsi),%rsi=0D - jmp .Lxts_dec_done=0D -=0D -.align 16=0D -.Lxts_dec_four:=0D - movups (%rdi),%xmm2=0D - movups 16(%rdi),%xmm3=0D - movups 32(%rdi),%xmm4=0D - xorps %xmm10,%xmm2=0D - movups 48(%rdi),%xmm5=0D - leaq 64(%rdi),%rdi=0D - xorps %xmm11,%xmm3=0D - xorps %xmm12,%xmm4=0D - xorps %xmm13,%xmm5=0D -=0D - call _aesni_decrypt4=0D -=0D - pxor %xmm10,%xmm2=0D - movdqa %xmm14,%xmm10=0D - pxor %xmm11,%xmm3=0D - movdqa %xmm15,%xmm11=0D - pxor %xmm12,%xmm4=0D - movdqu %xmm2,(%rsi)=0D - pxor %xmm13,%xmm5=0D - movdqu %xmm3,16(%rsi)=0D - movdqu %xmm4,32(%rsi)=0D - movdqu %xmm5,48(%rsi)=0D - leaq 64(%rsi),%rsi=0D - jmp .Lxts_dec_done=0D -=0D -.align 16=0D -.Lxts_dec_done:=0D - andq $15,%r9=0D - jz .Lxts_dec_ret=0D -.Lxts_dec_done2:=0D - movq %r9,%rdx=0D - movq %rbp,%rcx=0D - movl %r10d,%eax=0D -=0D - movups (%rdi),%xmm2=0D - xorps %xmm11,%xmm2=0D - movups (%rcx),%xmm0=0D - movups 16(%rcx),%xmm1=0D - leaq 32(%rcx),%rcx=0D - xorps %xmm0,%xmm2=0D -.Loop_dec1_13:=0D -.byte 102,15,56,222,209=0D - decl %eax=0D - movups (%rcx),%xmm1=0D - leaq 16(%rcx),%rcx=0D - jnz .Loop_dec1_13=0D -.byte 102,15,56,223,209=0D - xorps %xmm11,%xmm2=0D - movups %xmm2,(%rsi)=0D -=0D -.Lxts_dec_steal:=0D - movzbl 16(%rdi),%eax=0D - movzbl (%rsi),%ecx=0D - leaq 1(%rdi),%rdi=0D - movb %al,(%rsi)=0D - movb %cl,16(%rsi)=0D - leaq 1(%rsi),%rsi=0D - subq $1,%rdx=0D - jnz .Lxts_dec_steal=0D -=0D - subq %r9,%rsi=0D - movq %rbp,%rcx=0D - movl %r10d,%eax=0D -=0D - movups (%rsi),%xmm2=0D - xorps %xmm10,%xmm2=0D - movups (%rcx),%xmm0=0D - movups 16(%rcx),%xmm1=0D - leaq 32(%rcx),%rcx=0D - xorps %xmm0,%xmm2=0D -.Loop_dec1_14:=0D -.byte 102,15,56,222,209=0D - decl %eax=0D - movups (%rcx),%xmm1=0D - leaq 16(%rcx),%rcx=0D - jnz .Loop_dec1_14=0D -.byte 102,15,56,223,209=0D - xorps %xmm10,%xmm2=0D - movups %xmm2,(%rsi)=0D -=0D -.Lxts_dec_ret:=0D - xorps %xmm0,%xmm0=0D - pxor %xmm1,%xmm1=0D - pxor %xmm2,%xmm2=0D - pxor %xmm3,%xmm3=0D - pxor %xmm4,%xmm4=0D - pxor %xmm5,%xmm5=0D - pxor %xmm6,%xmm6=0D - pxor %xmm7,%xmm7=0D - movaps %xmm0,0(%rsp)=0D - pxor %xmm8,%xmm8=0D - movaps %xmm0,16(%rsp)=0D - pxor %xmm9,%xmm9=0D - movaps %xmm0,32(%rsp)=0D - pxor %xmm10,%xmm10=0D - movaps %xmm0,48(%rsp)=0D - pxor %xmm11,%xmm11=0D - movaps %xmm0,64(%rsp)=0D - pxor %xmm12,%xmm12=0D - movaps %xmm0,80(%rsp)=0D - pxor %xmm13,%xmm13=0D - movaps %xmm0,96(%rsp)=0D - pxor %xmm14,%xmm14=0D - pxor %xmm15,%xmm15=0D - movq -8(%r11),%rbp=0D -.cfi_restore %rbp=0D - leaq (%r11),%rsp=0D -.cfi_def_cfa_register %rsp=0D -.Lxts_dec_epilogue:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size aesni_xts_decrypt,.-aesni_xts_decrypt=0D -.globl aesni_ocb_encrypt=0D -.type aesni_ocb_encrypt,@function=0D -.align 32=0D -aesni_ocb_encrypt:=0D -.cfi_startproc=0D - leaq (%rsp),%rax=0D - pushq %rbx=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %rbx,-16=0D - pushq %rbp=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %rbp,-24=0D - pushq %r12=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %r12,-32=0D - pushq %r13=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %r13,-40=0D - pushq %r14=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %r14,-48=0D - movq 8(%rax),%rbx=0D - movq 8+8(%rax),%rbp=0D -=0D - movl 240(%rcx),%r10d=0D - movq %rcx,%r11=0D - shll $4,%r10d=0D - movups (%rcx),%xmm9=0D - movups 16(%rcx,%r10,1),%xmm1=0D -=0D - movdqu (%r9),%xmm15=0D - pxor %xmm1,%xmm9=0D - pxor %xmm1,%xmm15=0D -=0D - movl $16+32,%eax=0D - leaq 32(%r11,%r10,1),%rcx=0D - movups 16(%r11),%xmm1=0D - subq %r10,%rax=0D - movq %rax,%r10=0D -=0D - movdqu (%rbx),%xmm10=0D - movdqu (%rbp),%xmm8=0D -=0D - testq $1,%r8=0D - jnz .Locb_enc_odd=0D -=0D - bsfq %r8,%r12=0D - addq $1,%r8=0D - shlq $4,%r12=0D - movdqu (%rbx,%r12,1),%xmm7=0D - movdqu (%rdi),%xmm2=0D - leaq 16(%rdi),%rdi=0D -=0D - call __ocb_encrypt1=0D -=0D - movdqa %xmm7,%xmm15=0D - movups %xmm2,(%rsi)=0D - leaq 16(%rsi),%rsi=0D - subq $1,%rdx=0D - jz .Locb_enc_done=0D -=0D -.Locb_enc_odd:=0D - leaq 1(%r8),%r12=0D - leaq 3(%r8),%r13=0D - leaq 5(%r8),%r14=0D - leaq 6(%r8),%r8=0D - bsfq %r12,%r12=0D - bsfq %r13,%r13=0D - bsfq %r14,%r14=0D - shlq $4,%r12=0D - shlq $4,%r13=0D - shlq $4,%r14=0D -=0D - subq $6,%rdx=0D - jc .Locb_enc_short=0D - jmp .Locb_enc_grandloop=0D -=0D -.align 32=0D -.Locb_enc_grandloop:=0D - movdqu 0(%rdi),%xmm2=0D - movdqu 16(%rdi),%xmm3=0D - movdqu 32(%rdi),%xmm4=0D - movdqu 48(%rdi),%xmm5=0D - movdqu 64(%rdi),%xmm6=0D - movdqu 80(%rdi),%xmm7=0D - leaq 96(%rdi),%rdi=0D -=0D - call __ocb_encrypt6=0D -=0D - movups %xmm2,0(%rsi)=0D - movups %xmm3,16(%rsi)=0D - movups %xmm4,32(%rsi)=0D - movups %xmm5,48(%rsi)=0D - movups %xmm6,64(%rsi)=0D - movups %xmm7,80(%rsi)=0D - leaq 96(%rsi),%rsi=0D - subq $6,%rdx=0D - jnc .Locb_enc_grandloop=0D -=0D -.Locb_enc_short:=0D - addq $6,%rdx=0D - jz .Locb_enc_done=0D -=0D - movdqu 0(%rdi),%xmm2=0D - cmpq $2,%rdx=0D - jb .Locb_enc_one=0D - movdqu 16(%rdi),%xmm3=0D - je .Locb_enc_two=0D -=0D - movdqu 32(%rdi),%xmm4=0D - cmpq $4,%rdx=0D - jb .Locb_enc_three=0D - movdqu 48(%rdi),%xmm5=0D - je .Locb_enc_four=0D -=0D - movdqu 64(%rdi),%xmm6=0D - pxor %xmm7,%xmm7=0D -=0D - call __ocb_encrypt6=0D -=0D - movdqa %xmm14,%xmm15=0D - movups %xmm2,0(%rsi)=0D - movups %xmm3,16(%rsi)=0D - movups %xmm4,32(%rsi)=0D - movups %xmm5,48(%rsi)=0D - movups %xmm6,64(%rsi)=0D -=0D - jmp .Locb_enc_done=0D -=0D -.align 16=0D -.Locb_enc_one:=0D - movdqa %xmm10,%xmm7=0D -=0D - call __ocb_encrypt1=0D -=0D - movdqa %xmm7,%xmm15=0D - movups %xmm2,0(%rsi)=0D - jmp .Locb_enc_done=0D -=0D -.align 16=0D -.Locb_enc_two:=0D - pxor %xmm4,%xmm4=0D - pxor %xmm5,%xmm5=0D -=0D - call __ocb_encrypt4=0D -=0D - movdqa %xmm11,%xmm15=0D - movups %xmm2,0(%rsi)=0D - movups %xmm3,16(%rsi)=0D -=0D - jmp .Locb_enc_done=0D -=0D -.align 16=0D -.Locb_enc_three:=0D - pxor %xmm5,%xmm5=0D -=0D - call __ocb_encrypt4=0D -=0D - movdqa %xmm12,%xmm15=0D - movups %xmm2,0(%rsi)=0D - movups %xmm3,16(%rsi)=0D - movups %xmm4,32(%rsi)=0D -=0D - jmp .Locb_enc_done=0D -=0D -.align 16=0D -.Locb_enc_four:=0D - call __ocb_encrypt4=0D -=0D - movdqa %xmm13,%xmm15=0D - movups %xmm2,0(%rsi)=0D - movups %xmm3,16(%rsi)=0D - movups %xmm4,32(%rsi)=0D - movups %xmm5,48(%rsi)=0D -=0D -.Locb_enc_done:=0D - pxor %xmm0,%xmm15=0D - movdqu %xmm8,(%rbp)=0D - movdqu %xmm15,(%r9)=0D -=0D - xorps %xmm0,%xmm0=0D - pxor %xmm1,%xmm1=0D - pxor %xmm2,%xmm2=0D - pxor %xmm3,%xmm3=0D - pxor %xmm4,%xmm4=0D - pxor %xmm5,%xmm5=0D - pxor %xmm6,%xmm6=0D - pxor %xmm7,%xmm7=0D - pxor %xmm8,%xmm8=0D - pxor %xmm9,%xmm9=0D - pxor %xmm10,%xmm10=0D - pxor %xmm11,%xmm11=0D - pxor %xmm12,%xmm12=0D - pxor %xmm13,%xmm13=0D - pxor %xmm14,%xmm14=0D - pxor %xmm15,%xmm15=0D - leaq 40(%rsp),%rax=0D -.cfi_def_cfa %rax,8=0D - movq -40(%rax),%r14=0D -.cfi_restore %r14=0D - movq -32(%rax),%r13=0D -.cfi_restore %r13=0D - movq -24(%rax),%r12=0D -.cfi_restore %r12=0D - movq -16(%rax),%rbp=0D -.cfi_restore %rbp=0D - movq -8(%rax),%rbx=0D -.cfi_restore %rbx=0D - leaq (%rax),%rsp=0D -.cfi_def_cfa_register %rsp=0D -.Locb_enc_epilogue:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size aesni_ocb_encrypt,.-aesni_ocb_encrypt=0D -=0D -.type __ocb_encrypt6,@function=0D -.align 32=0D -__ocb_encrypt6:=0D -.cfi_startproc=0D - pxor %xmm9,%xmm15=0D - movdqu (%rbx,%r12,1),%xmm11=0D - movdqa %xmm10,%xmm12=0D - movdqu (%rbx,%r13,1),%xmm13=0D - movdqa %xmm10,%xmm14=0D - pxor %xmm15,%xmm10=0D - movdqu (%rbx,%r14,1),%xmm15=0D - pxor %xmm10,%xmm11=0D - pxor %xmm2,%xmm8=0D - pxor %xmm10,%xmm2=0D - pxor %xmm11,%xmm12=0D - pxor %xmm3,%xmm8=0D - pxor %xmm11,%xmm3=0D - pxor %xmm12,%xmm13=0D - pxor %xmm4,%xmm8=0D - pxor %xmm12,%xmm4=0D - pxor %xmm13,%xmm14=0D - pxor %xmm5,%xmm8=0D - pxor %xmm13,%xmm5=0D - pxor %xmm14,%xmm15=0D - pxor %xmm6,%xmm8=0D - pxor %xmm14,%xmm6=0D - pxor %xmm7,%xmm8=0D - pxor %xmm15,%xmm7=0D - movups 32(%r11),%xmm0=0D -=0D - leaq 1(%r8),%r12=0D - leaq 3(%r8),%r13=0D - leaq 5(%r8),%r14=0D - addq $6,%r8=0D - pxor %xmm9,%xmm10=0D - bsfq %r12,%r12=0D - bsfq %r13,%r13=0D - bsfq %r14,%r14=0D -=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D - pxor %xmm9,%xmm11=0D - pxor %xmm9,%xmm12=0D -.byte 102,15,56,220,241=0D - pxor %xmm9,%xmm13=0D - pxor %xmm9,%xmm14=0D -.byte 102,15,56,220,249=0D - movups 48(%r11),%xmm1=0D - pxor %xmm9,%xmm15=0D -=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D -.byte 102,15,56,220,224=0D -.byte 102,15,56,220,232=0D -.byte 102,15,56,220,240=0D -.byte 102,15,56,220,248=0D - movups 64(%r11),%xmm0=0D - shlq $4,%r12=0D - shlq $4,%r13=0D - jmp .Locb_enc_loop6=0D -=0D -.align 32=0D -.Locb_enc_loop6:=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D -.byte 102,15,56,220,241=0D -.byte 102,15,56,220,249=0D - movups (%rcx,%rax,1),%xmm1=0D - addq $32,%rax=0D -=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D -.byte 102,15,56,220,224=0D -.byte 102,15,56,220,232=0D -.byte 102,15,56,220,240=0D -.byte 102,15,56,220,248=0D - movups -16(%rcx,%rax,1),%xmm0=0D - jnz .Locb_enc_loop6=0D -=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D -.byte 102,15,56,220,241=0D -.byte 102,15,56,220,249=0D - movups 16(%r11),%xmm1=0D - shlq $4,%r14=0D -=0D -.byte 102,65,15,56,221,210=0D - movdqu (%rbx),%xmm10=0D - movq %r10,%rax=0D -.byte 102,65,15,56,221,219=0D -.byte 102,65,15,56,221,228=0D -.byte 102,65,15,56,221,237=0D -.byte 102,65,15,56,221,246=0D -.byte 102,65,15,56,221,255=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size __ocb_encrypt6,.-__ocb_encrypt6=0D -=0D -.type __ocb_encrypt4,@function=0D -.align 32=0D -__ocb_encrypt4:=0D -.cfi_startproc=0D - pxor %xmm9,%xmm15=0D - movdqu (%rbx,%r12,1),%xmm11=0D - movdqa %xmm10,%xmm12=0D - movdqu (%rbx,%r13,1),%xmm13=0D - pxor %xmm15,%xmm10=0D - pxor %xmm10,%xmm11=0D - pxor %xmm2,%xmm8=0D - pxor %xmm10,%xmm2=0D - pxor %xmm11,%xmm12=0D - pxor %xmm3,%xmm8=0D - pxor %xmm11,%xmm3=0D - pxor %xmm12,%xmm13=0D - pxor %xmm4,%xmm8=0D - pxor %xmm12,%xmm4=0D - pxor %xmm5,%xmm8=0D - pxor %xmm13,%xmm5=0D - movups 32(%r11),%xmm0=0D -=0D - pxor %xmm9,%xmm10=0D - pxor %xmm9,%xmm11=0D - pxor %xmm9,%xmm12=0D - pxor %xmm9,%xmm13=0D -=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D - movups 48(%r11),%xmm1=0D -=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D -.byte 102,15,56,220,224=0D -.byte 102,15,56,220,232=0D - movups 64(%r11),%xmm0=0D - jmp .Locb_enc_loop4=0D -=0D -.align 32=0D -.Locb_enc_loop4:=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D - movups (%rcx,%rax,1),%xmm1=0D - addq $32,%rax=0D -=0D -.byte 102,15,56,220,208=0D -.byte 102,15,56,220,216=0D -.byte 102,15,56,220,224=0D -.byte 102,15,56,220,232=0D - movups -16(%rcx,%rax,1),%xmm0=0D - jnz .Locb_enc_loop4=0D -=0D -.byte 102,15,56,220,209=0D -.byte 102,15,56,220,217=0D -.byte 102,15,56,220,225=0D -.byte 102,15,56,220,233=0D - movups 16(%r11),%xmm1=0D - movq %r10,%rax=0D -=0D -.byte 102,65,15,56,221,210=0D -.byte 102,65,15,56,221,219=0D -.byte 102,65,15,56,221,228=0D -.byte 102,65,15,56,221,237=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size __ocb_encrypt4,.-__ocb_encrypt4=0D -=0D -.type __ocb_encrypt1,@function=0D -.align 32=0D -__ocb_encrypt1:=0D -.cfi_startproc=0D - pxor %xmm15,%xmm7=0D - pxor %xmm9,%xmm7=0D - pxor %xmm2,%xmm8=0D - pxor %xmm7,%xmm2=0D - movups 32(%r11),%xmm0=0D -=0D -.byte 102,15,56,220,209=0D - movups 48(%r11),%xmm1=0D - pxor %xmm9,%xmm7=0D -=0D -.byte 102,15,56,220,208=0D - movups 64(%r11),%xmm0=0D - jmp .Locb_enc_loop1=0D -=0D -.align 32=0D -.Locb_enc_loop1:=0D -.byte 102,15,56,220,209=0D - movups (%rcx,%rax,1),%xmm1=0D - addq $32,%rax=0D -=0D -.byte 102,15,56,220,208=0D - movups -16(%rcx,%rax,1),%xmm0=0D - jnz .Locb_enc_loop1=0D -=0D -.byte 102,15,56,220,209=0D - movups 16(%r11),%xmm1=0D - movq %r10,%rax=0D -=0D -.byte 102,15,56,221,215=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size __ocb_encrypt1,.-__ocb_encrypt1=0D -=0D -.globl aesni_ocb_decrypt=0D -.type aesni_ocb_decrypt,@function=0D -.align 32=0D -aesni_ocb_decrypt:=0D -.cfi_startproc=0D - leaq (%rsp),%rax=0D - pushq %rbx=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %rbx,-16=0D - pushq %rbp=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %rbp,-24=0D - pushq %r12=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %r12,-32=0D - pushq %r13=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %r13,-40=0D - pushq %r14=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %r14,-48=0D - movq 8(%rax),%rbx=0D - movq 8+8(%rax),%rbp=0D -=0D - movl 240(%rcx),%r10d=0D - movq %rcx,%r11=0D - shll $4,%r10d=0D - movups (%rcx),%xmm9=0D - movups 16(%rcx,%r10,1),%xmm1=0D -=0D - movdqu (%r9),%xmm15=0D - pxor %xmm1,%xmm9=0D - pxor %xmm1,%xmm15=0D -=0D - movl $16+32,%eax=0D - leaq 32(%r11,%r10,1),%rcx=0D - movups 16(%r11),%xmm1=0D - subq %r10,%rax=0D - movq %rax,%r10=0D -=0D - movdqu (%rbx),%xmm10=0D - movdqu (%rbp),%xmm8=0D -=0D - testq $1,%r8=0D - jnz .Locb_dec_odd=0D -=0D - bsfq %r8,%r12=0D - addq $1,%r8=0D - shlq $4,%r12=0D - movdqu (%rbx,%r12,1),%xmm7=0D - movdqu (%rdi),%xmm2=0D - leaq 16(%rdi),%rdi=0D -=0D - call __ocb_decrypt1=0D -=0D - movdqa %xmm7,%xmm15=0D - movups %xmm2,(%rsi)=0D - xorps %xmm2,%xmm8=0D - leaq 16(%rsi),%rsi=0D - subq $1,%rdx=0D - jz .Locb_dec_done=0D -=0D -.Locb_dec_odd:=0D - leaq 1(%r8),%r12=0D - leaq 3(%r8),%r13=0D - leaq 5(%r8),%r14=0D - leaq 6(%r8),%r8=0D - bsfq %r12,%r12=0D - bsfq %r13,%r13=0D - bsfq %r14,%r14=0D - shlq $4,%r12=0D - shlq $4,%r13=0D - shlq $4,%r14=0D -=0D - subq $6,%rdx=0D - jc .Locb_dec_short=0D - jmp .Locb_dec_grandloop=0D -=0D -.align 32=0D -.Locb_dec_grandloop:=0D - movdqu 0(%rdi),%xmm2=0D - movdqu 16(%rdi),%xmm3=0D - movdqu 32(%rdi),%xmm4=0D - movdqu 48(%rdi),%xmm5=0D - movdqu 64(%rdi),%xmm6=0D - movdqu 80(%rdi),%xmm7=0D - leaq 96(%rdi),%rdi=0D -=0D - call __ocb_decrypt6=0D -=0D - movups %xmm2,0(%rsi)=0D - pxor %xmm2,%xmm8=0D - movups %xmm3,16(%rsi)=0D - pxor %xmm3,%xmm8=0D - movups %xmm4,32(%rsi)=0D - pxor %xmm4,%xmm8=0D - movups %xmm5,48(%rsi)=0D - pxor %xmm5,%xmm8=0D - movups %xmm6,64(%rsi)=0D - pxor %xmm6,%xmm8=0D - movups %xmm7,80(%rsi)=0D - pxor %xmm7,%xmm8=0D - leaq 96(%rsi),%rsi=0D - subq $6,%rdx=0D - jnc .Locb_dec_grandloop=0D -=0D -.Locb_dec_short:=0D - addq $6,%rdx=0D - jz .Locb_dec_done=0D -=0D - movdqu 0(%rdi),%xmm2=0D - cmpq $2,%rdx=0D - jb .Locb_dec_one=0D - movdqu 16(%rdi),%xmm3=0D - je .Locb_dec_two=0D -=0D - movdqu 32(%rdi),%xmm4=0D - cmpq $4,%rdx=0D - jb .Locb_dec_three=0D - movdqu 48(%rdi),%xmm5=0D - je .Locb_dec_four=0D -=0D - movdqu 64(%rdi),%xmm6=0D - pxor %xmm7,%xmm7=0D -=0D - call __ocb_decrypt6=0D -=0D - movdqa %xmm14,%xmm15=0D - movups %xmm2,0(%rsi)=0D - pxor %xmm2,%xmm8=0D - movups %xmm3,16(%rsi)=0D - pxor %xmm3,%xmm8=0D - movups %xmm4,32(%rsi)=0D - pxor %xmm4,%xmm8=0D - movups %xmm5,48(%rsi)=0D - pxor %xmm5,%xmm8=0D - movups %xmm6,64(%rsi)=0D - pxor %xmm6,%xmm8=0D -=0D - jmp .Locb_dec_done=0D -=0D -.align 16=0D -.Locb_dec_one:=0D - movdqa %xmm10,%xmm7=0D -=0D - call __ocb_decrypt1=0D -=0D - movdqa %xmm7,%xmm15=0D - movups %xmm2,0(%rsi)=0D - xorps %xmm2,%xmm8=0D - jmp .Locb_dec_done=0D -=0D -.align 16=0D -.Locb_dec_two:=0D - pxor %xmm4,%xmm4=0D - pxor %xmm5,%xmm5=0D -=0D - call __ocb_decrypt4=0D -=0D - movdqa %xmm11,%xmm15=0D - movups %xmm2,0(%rsi)=0D - xorps %xmm2,%xmm8=0D - movups %xmm3,16(%rsi)=0D - xorps %xmm3,%xmm8=0D -=0D - jmp .Locb_dec_done=0D -=0D -.align 16=0D -.Locb_dec_three:=0D - pxor %xmm5,%xmm5=0D -=0D - call __ocb_decrypt4=0D -=0D - movdqa %xmm12,%xmm15=0D - movups %xmm2,0(%rsi)=0D - xorps %xmm2,%xmm8=0D - movups %xmm3,16(%rsi)=0D - xorps %xmm3,%xmm8=0D - movups %xmm4,32(%rsi)=0D - xorps %xmm4,%xmm8=0D -=0D - jmp .Locb_dec_done=0D -=0D -.align 16=0D -.Locb_dec_four:=0D - call __ocb_decrypt4=0D -=0D - movdqa %xmm13,%xmm15=0D - movups %xmm2,0(%rsi)=0D - pxor %xmm2,%xmm8=0D - movups %xmm3,16(%rsi)=0D - pxor %xmm3,%xmm8=0D - movups %xmm4,32(%rsi)=0D - pxor %xmm4,%xmm8=0D - movups %xmm5,48(%rsi)=0D - pxor %xmm5,%xmm8=0D -=0D -.Locb_dec_done:=0D - pxor %xmm0,%xmm15=0D - movdqu %xmm8,(%rbp)=0D - movdqu %xmm15,(%r9)=0D -=0D - xorps %xmm0,%xmm0=0D - pxor %xmm1,%xmm1=0D - pxor %xmm2,%xmm2=0D - pxor %xmm3,%xmm3=0D - pxor %xmm4,%xmm4=0D - pxor %xmm5,%xmm5=0D - pxor %xmm6,%xmm6=0D - pxor %xmm7,%xmm7=0D - pxor %xmm8,%xmm8=0D - pxor %xmm9,%xmm9=0D - pxor %xmm10,%xmm10=0D - pxor %xmm11,%xmm11=0D - pxor %xmm12,%xmm12=0D - pxor %xmm13,%xmm13=0D - pxor %xmm14,%xmm14=0D - pxor %xmm15,%xmm15=0D - leaq 40(%rsp),%rax=0D -.cfi_def_cfa %rax,8=0D - movq -40(%rax),%r14=0D -.cfi_restore %r14=0D - movq -32(%rax),%r13=0D -.cfi_restore %r13=0D - movq -24(%rax),%r12=0D -.cfi_restore %r12=0D - movq -16(%rax),%rbp=0D -.cfi_restore %rbp=0D - movq -8(%rax),%rbx=0D -.cfi_restore %rbx=0D - leaq (%rax),%rsp=0D -.cfi_def_cfa_register %rsp=0D -.Locb_dec_epilogue:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size aesni_ocb_decrypt,.-aesni_ocb_decrypt=0D -=0D -.type __ocb_decrypt6,@function=0D -.align 32=0D -__ocb_decrypt6:=0D -.cfi_startproc=0D - pxor %xmm9,%xmm15=0D - movdqu (%rbx,%r12,1),%xmm11=0D - movdqa %xmm10,%xmm12=0D - movdqu (%rbx,%r13,1),%xmm13=0D - movdqa %xmm10,%xmm14=0D - pxor %xmm15,%xmm10=0D - movdqu (%rbx,%r14,1),%xmm15=0D - pxor %xmm10,%xmm11=0D - pxor %xmm10,%xmm2=0D - pxor %xmm11,%xmm12=0D - pxor %xmm11,%xmm3=0D - pxor %xmm12,%xmm13=0D - pxor %xmm12,%xmm4=0D - pxor %xmm13,%xmm14=0D - pxor %xmm13,%xmm5=0D - pxor %xmm14,%xmm15=0D - pxor %xmm14,%xmm6=0D - pxor %xmm15,%xmm7=0D - movups 32(%r11),%xmm0=0D -=0D - leaq 1(%r8),%r12=0D - leaq 3(%r8),%r13=0D - leaq 5(%r8),%r14=0D - addq $6,%r8=0D - pxor %xmm9,%xmm10=0D - bsfq %r12,%r12=0D - bsfq %r13,%r13=0D - bsfq %r14,%r14=0D -=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D - pxor %xmm9,%xmm11=0D - pxor %xmm9,%xmm12=0D -.byte 102,15,56,222,241=0D - pxor %xmm9,%xmm13=0D - pxor %xmm9,%xmm14=0D -.byte 102,15,56,222,249=0D - movups 48(%r11),%xmm1=0D - pxor %xmm9,%xmm15=0D -=0D -.byte 102,15,56,222,208=0D -.byte 102,15,56,222,216=0D -.byte 102,15,56,222,224=0D -.byte 102,15,56,222,232=0D -.byte 102,15,56,222,240=0D -.byte 102,15,56,222,248=0D - movups 64(%r11),%xmm0=0D - shlq $4,%r12=0D - shlq $4,%r13=0D - jmp .Locb_dec_loop6=0D -=0D -.align 32=0D -.Locb_dec_loop6:=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D -.byte 102,15,56,222,241=0D -.byte 102,15,56,222,249=0D - movups (%rcx,%rax,1),%xmm1=0D - addq $32,%rax=0D -=0D -.byte 102,15,56,222,208=0D -.byte 102,15,56,222,216=0D -.byte 102,15,56,222,224=0D -.byte 102,15,56,222,232=0D -.byte 102,15,56,222,240=0D -.byte 102,15,56,222,248=0D - movups -16(%rcx,%rax,1),%xmm0=0D - jnz .Locb_dec_loop6=0D -=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D -.byte 102,15,56,222,241=0D -.byte 102,15,56,222,249=0D - movups 16(%r11),%xmm1=0D - shlq $4,%r14=0D -=0D -.byte 102,65,15,56,223,210=0D - movdqu (%rbx),%xmm10=0D - movq %r10,%rax=0D -.byte 102,65,15,56,223,219=0D -.byte 102,65,15,56,223,228=0D -.byte 102,65,15,56,223,237=0D -.byte 102,65,15,56,223,246=0D -.byte 102,65,15,56,223,255=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size __ocb_decrypt6,.-__ocb_decrypt6=0D -=0D -.type __ocb_decrypt4,@function=0D -.align 32=0D -__ocb_decrypt4:=0D -.cfi_startproc=0D - pxor %xmm9,%xmm15=0D - movdqu (%rbx,%r12,1),%xmm11=0D - movdqa %xmm10,%xmm12=0D - movdqu (%rbx,%r13,1),%xmm13=0D - pxor %xmm15,%xmm10=0D - pxor %xmm10,%xmm11=0D - pxor %xmm10,%xmm2=0D - pxor %xmm11,%xmm12=0D - pxor %xmm11,%xmm3=0D - pxor %xmm12,%xmm13=0D - pxor %xmm12,%xmm4=0D - pxor %xmm13,%xmm5=0D - movups 32(%r11),%xmm0=0D -=0D - pxor %xmm9,%xmm10=0D - pxor %xmm9,%xmm11=0D - pxor %xmm9,%xmm12=0D - pxor %xmm9,%xmm13=0D -=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D - movups 48(%r11),%xmm1=0D -=0D -.byte 102,15,56,222,208=0D -.byte 102,15,56,222,216=0D -.byte 102,15,56,222,224=0D -.byte 102,15,56,222,232=0D - movups 64(%r11),%xmm0=0D - jmp .Locb_dec_loop4=0D -=0D -.align 32=0D -.Locb_dec_loop4:=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D - movups (%rcx,%rax,1),%xmm1=0D - addq $32,%rax=0D -=0D -.byte 102,15,56,222,208=0D -.byte 102,15,56,222,216=0D -.byte 102,15,56,222,224=0D -.byte 102,15,56,222,232=0D - movups -16(%rcx,%rax,1),%xmm0=0D - jnz .Locb_dec_loop4=0D -=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D - movups 16(%r11),%xmm1=0D - movq %r10,%rax=0D -=0D -.byte 102,65,15,56,223,210=0D -.byte 102,65,15,56,223,219=0D -.byte 102,65,15,56,223,228=0D -.byte 102,65,15,56,223,237=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size __ocb_decrypt4,.-__ocb_decrypt4=0D -=0D -.type __ocb_decrypt1,@function=0D -.align 32=0D -__ocb_decrypt1:=0D -.cfi_startproc=0D - pxor %xmm15,%xmm7=0D - pxor %xmm9,%xmm7=0D - pxor %xmm7,%xmm2=0D - movups 32(%r11),%xmm0=0D -=0D -.byte 102,15,56,222,209=0D - movups 48(%r11),%xmm1=0D - pxor %xmm9,%xmm7=0D -=0D -.byte 102,15,56,222,208=0D - movups 64(%r11),%xmm0=0D - jmp .Locb_dec_loop1=0D -=0D -.align 32=0D -.Locb_dec_loop1:=0D -.byte 102,15,56,222,209=0D - movups (%rcx,%rax,1),%xmm1=0D - addq $32,%rax=0D -=0D -.byte 102,15,56,222,208=0D - movups -16(%rcx,%rax,1),%xmm0=0D - jnz .Locb_dec_loop1=0D -=0D -.byte 102,15,56,222,209=0D - movups 16(%r11),%xmm1=0D - movq %r10,%rax=0D -=0D -.byte 102,15,56,223,215=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size __ocb_decrypt1,.-__ocb_decrypt1=0D -.globl aesni_cbc_encrypt=0D -.type aesni_cbc_encrypt,@function=0D -.align 16=0D -aesni_cbc_encrypt:=0D -.cfi_startproc=0D - testq %rdx,%rdx=0D - jz .Lcbc_ret=0D -=0D - movl 240(%rcx),%r10d=0D - movq %rcx,%r11=0D - testl %r9d,%r9d=0D - jz .Lcbc_decrypt=0D -=0D - movups (%r8),%xmm2=0D - movl %r10d,%eax=0D - cmpq $16,%rdx=0D - jb .Lcbc_enc_tail=0D - subq $16,%rdx=0D - jmp .Lcbc_enc_loop=0D -.align 16=0D -.Lcbc_enc_loop:=0D - movups (%rdi),%xmm3=0D - leaq 16(%rdi),%rdi=0D -=0D - movups (%rcx),%xmm0=0D - movups 16(%rcx),%xmm1=0D - xorps %xmm0,%xmm3=0D - leaq 32(%rcx),%rcx=0D - xorps %xmm3,%xmm2=0D -.Loop_enc1_15:=0D -.byte 102,15,56,220,209=0D - decl %eax=0D - movups (%rcx),%xmm1=0D - leaq 16(%rcx),%rcx=0D - jnz .Loop_enc1_15=0D -.byte 102,15,56,221,209=0D - movl %r10d,%eax=0D - movq %r11,%rcx=0D - movups %xmm2,0(%rsi)=0D - leaq 16(%rsi),%rsi=0D - subq $16,%rdx=0D - jnc .Lcbc_enc_loop=0D - addq $16,%rdx=0D - jnz .Lcbc_enc_tail=0D - pxor %xmm0,%xmm0=0D - pxor %xmm1,%xmm1=0D - movups %xmm2,(%r8)=0D - pxor %xmm2,%xmm2=0D - pxor %xmm3,%xmm3=0D - jmp .Lcbc_ret=0D -=0D -.Lcbc_enc_tail:=0D - movq %rdx,%rcx=0D - xchgq %rdi,%rsi=0D -.long 0x9066A4F3=0D - movl $16,%ecx=0D - subq %rdx,%rcx=0D - xorl %eax,%eax=0D -.long 0x9066AAF3=0D - leaq -16(%rdi),%rdi=0D - movl %r10d,%eax=0D - movq %rdi,%rsi=0D - movq %r11,%rcx=0D - xorq %rdx,%rdx=0D - jmp .Lcbc_enc_loop=0D -=0D -.align 16=0D -.Lcbc_decrypt:=0D - cmpq $16,%rdx=0D - jne .Lcbc_decrypt_bulk=0D -=0D -=0D -=0D - movdqu (%rdi),%xmm2=0D - movdqu (%r8),%xmm3=0D - movdqa %xmm2,%xmm4=0D - movups (%rcx),%xmm0=0D - movups 16(%rcx),%xmm1=0D - leaq 32(%rcx),%rcx=0D - xorps %xmm0,%xmm2=0D -.Loop_dec1_16:=0D -.byte 102,15,56,222,209=0D - decl %r10d=0D - movups (%rcx),%xmm1=0D - leaq 16(%rcx),%rcx=0D - jnz .Loop_dec1_16=0D -.byte 102,15,56,223,209=0D - pxor %xmm0,%xmm0=0D - pxor %xmm1,%xmm1=0D - movdqu %xmm4,(%r8)=0D - xorps %xmm3,%xmm2=0D - pxor %xmm3,%xmm3=0D - movups %xmm2,(%rsi)=0D - pxor %xmm2,%xmm2=0D - jmp .Lcbc_ret=0D -.align 16=0D -.Lcbc_decrypt_bulk:=0D - leaq (%rsp),%r11=0D -.cfi_def_cfa_register %r11=0D - pushq %rbp=0D -.cfi_offset %rbp,-16=0D - subq $16,%rsp=0D - andq $-16,%rsp=0D - movq %rcx,%rbp=0D - movups (%r8),%xmm10=0D - movl %r10d,%eax=0D - cmpq $0x50,%rdx=0D - jbe .Lcbc_dec_tail=0D -=0D - movups (%rcx),%xmm0=0D - movdqu 0(%rdi),%xmm2=0D - movdqu 16(%rdi),%xmm3=0D - movdqa %xmm2,%xmm11=0D - movdqu 32(%rdi),%xmm4=0D - movdqa %xmm3,%xmm12=0D - movdqu 48(%rdi),%xmm5=0D - movdqa %xmm4,%xmm13=0D - movdqu 64(%rdi),%xmm6=0D - movdqa %xmm5,%xmm14=0D - movdqu 80(%rdi),%xmm7=0D - movdqa %xmm6,%xmm15=0D - movl OPENSSL_ia32cap_P+4(%rip),%r9d=0D - cmpq $0x70,%rdx=0D - jbe .Lcbc_dec_six_or_seven=0D -=0D - andl $71303168,%r9d=0D - subq $0x50,%rdx=0D - cmpl $4194304,%r9d=0D - je .Lcbc_dec_loop6_enter=0D - subq $0x20,%rdx=0D - leaq 112(%rcx),%rcx=0D - jmp .Lcbc_dec_loop8_enter=0D -.align 16=0D -.Lcbc_dec_loop8:=0D - movups %xmm9,(%rsi)=0D - leaq 16(%rsi),%rsi=0D -.Lcbc_dec_loop8_enter:=0D - movdqu 96(%rdi),%xmm8=0D - pxor %xmm0,%xmm2=0D - movdqu 112(%rdi),%xmm9=0D - pxor %xmm0,%xmm3=0D - movups 16-112(%rcx),%xmm1=0D - pxor %xmm0,%xmm4=0D - movq $-1,%rbp=0D - cmpq $0x70,%rdx=0D - pxor %xmm0,%xmm5=0D - pxor %xmm0,%xmm6=0D - pxor %xmm0,%xmm7=0D - pxor %xmm0,%xmm8=0D -=0D -.byte 102,15,56,222,209=0D - pxor %xmm0,%xmm9=0D - movups 32-112(%rcx),%xmm0=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D -.byte 102,15,56,222,241=0D -.byte 102,15,56,222,249=0D -.byte 102,68,15,56,222,193=0D - adcq $0,%rbp=0D - andq $128,%rbp=0D -.byte 102,68,15,56,222,201=0D - addq %rdi,%rbp=0D - movups 48-112(%rcx),%xmm1=0D -.byte 102,15,56,222,208=0D -.byte 102,15,56,222,216=0D -.byte 102,15,56,222,224=0D -.byte 102,15,56,222,232=0D -.byte 102,15,56,222,240=0D -.byte 102,15,56,222,248=0D -.byte 102,68,15,56,222,192=0D -.byte 102,68,15,56,222,200=0D - movups 64-112(%rcx),%xmm0=0D - nop=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D -.byte 102,15,56,222,241=0D -.byte 102,15,56,222,249=0D -.byte 102,68,15,56,222,193=0D -.byte 102,68,15,56,222,201=0D - movups 80-112(%rcx),%xmm1=0D - nop=0D -.byte 102,15,56,222,208=0D -.byte 102,15,56,222,216=0D -.byte 102,15,56,222,224=0D -.byte 102,15,56,222,232=0D -.byte 102,15,56,222,240=0D -.byte 102,15,56,222,248=0D -.byte 102,68,15,56,222,192=0D -.byte 102,68,15,56,222,200=0D - movups 96-112(%rcx),%xmm0=0D - nop=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D -.byte 102,15,56,222,241=0D -.byte 102,15,56,222,249=0D -.byte 102,68,15,56,222,193=0D -.byte 102,68,15,56,222,201=0D - movups 112-112(%rcx),%xmm1=0D - nop=0D -.byte 102,15,56,222,208=0D -.byte 102,15,56,222,216=0D -.byte 102,15,56,222,224=0D -.byte 102,15,56,222,232=0D -.byte 102,15,56,222,240=0D -.byte 102,15,56,222,248=0D -.byte 102,68,15,56,222,192=0D -.byte 102,68,15,56,222,200=0D - movups 128-112(%rcx),%xmm0=0D - nop=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D -.byte 102,15,56,222,241=0D -.byte 102,15,56,222,249=0D -.byte 102,68,15,56,222,193=0D -.byte 102,68,15,56,222,201=0D - movups 144-112(%rcx),%xmm1=0D - cmpl $11,%eax=0D -.byte 102,15,56,222,208=0D -.byte 102,15,56,222,216=0D -.byte 102,15,56,222,224=0D -.byte 102,15,56,222,232=0D -.byte 102,15,56,222,240=0D -.byte 102,15,56,222,248=0D -.byte 102,68,15,56,222,192=0D -.byte 102,68,15,56,222,200=0D - movups 160-112(%rcx),%xmm0=0D - jb .Lcbc_dec_done=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D -.byte 102,15,56,222,241=0D -.byte 102,15,56,222,249=0D -.byte 102,68,15,56,222,193=0D -.byte 102,68,15,56,222,201=0D - movups 176-112(%rcx),%xmm1=0D - nop=0D -.byte 102,15,56,222,208=0D -.byte 102,15,56,222,216=0D -.byte 102,15,56,222,224=0D -.byte 102,15,56,222,232=0D -.byte 102,15,56,222,240=0D -.byte 102,15,56,222,248=0D -.byte 102,68,15,56,222,192=0D -.byte 102,68,15,56,222,200=0D - movups 192-112(%rcx),%xmm0=0D - je .Lcbc_dec_done=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D -.byte 102,15,56,222,241=0D -.byte 102,15,56,222,249=0D -.byte 102,68,15,56,222,193=0D -.byte 102,68,15,56,222,201=0D - movups 208-112(%rcx),%xmm1=0D - nop=0D -.byte 102,15,56,222,208=0D -.byte 102,15,56,222,216=0D -.byte 102,15,56,222,224=0D -.byte 102,15,56,222,232=0D -.byte 102,15,56,222,240=0D -.byte 102,15,56,222,248=0D -.byte 102,68,15,56,222,192=0D -.byte 102,68,15,56,222,200=0D - movups 224-112(%rcx),%xmm0=0D - jmp .Lcbc_dec_done=0D -.align 16=0D -.Lcbc_dec_done:=0D -.byte 102,15,56,222,209=0D -.byte 102,15,56,222,217=0D - pxor %xmm0,%xmm10=0D - pxor %xmm0,%xmm11=0D -.byte 102,15,56,222,225=0D -.byte 102,15,56,222,233=0D - pxor %xmm0,%xmm12=0D - pxor %xmm0,%xmm13=0D -.byte 102,15,56,222,241=0D -.byte 102,15,56,222,249=0D - pxor %xmm0,%xmm14=0D - pxor %xmm0,%xmm15=0D -.byte 102,68,15,56,222,193=0D -.byte 102,68,15,56,222,201=0D - movdqu 80(%rdi),%xmm1=0D -=0D -.byte 102,65,15,56,223,210=0D - movdqu 96(%rdi),%xmm10=0D - pxor %xmm0,%xmm1=0D -.byte 102,65,15,56,223,219=0D - pxor %xmm0,%xmm10=0D - movdqu 112(%rdi),%xmm0=0D -.byte 102,65,15,56,223,228=0D - leaq 128(%rdi),%rdi=0D - movdqu 0(%rbp),%xmm11=0D -.byte 102,65,15,56,223,237=0D -.byte 102,65,15,56,223,246=0D - movdqu 16(%rbp),%xmm12=0D - movdqu 32(%rbp),%xmm13=0D -.byte 102,65,15,56,223,255=0D -.byte 102,68,15,56,223,193=0D - movdqu 48(%rbp),%xmm14=0D - movdqu 64(%rbp),%xmm15=0D -.byte 102,69,15,56,223,202=0D - movdqa %xmm0,%xmm10=0D - movdqu 80(%rbp),%xmm1=0D - movups -112(%rcx),%xmm0=0D -=0D - movups %xmm2,(%rsi)=0D - movdqa %xmm11,%xmm2=0D - movups %xmm3,16(%rsi)=0D - movdqa %xmm12,%xmm3=0D - movups %xmm4,32(%rsi)=0D - movdqa %xmm13,%xmm4=0D - movups %xmm5,48(%rsi)=0D - movdqa %xmm14,%xmm5=0D - movups %xmm6,64(%rsi)=0D - movdqa %xmm15,%xmm6=0D - movups %xmm7,80(%rsi)=0D - movdqa %xmm1,%xmm7=0D - movups %xmm8,96(%rsi)=0D - leaq 112(%rsi),%rsi=0D -=0D - subq $0x80,%rdx=0D - ja .Lcbc_dec_loop8=0D -=0D - movaps %xmm9,%xmm2=0D - leaq -112(%rcx),%rcx=0D - addq $0x70,%rdx=0D - jle .Lcbc_dec_clear_tail_collected=0D - movups %xmm9,(%rsi)=0D - leaq 16(%rsi),%rsi=0D - cmpq $0x50,%rdx=0D - jbe .Lcbc_dec_tail=0D -=0D - movaps %xmm11,%xmm2=0D -.Lcbc_dec_six_or_seven:=0D - cmpq $0x60,%rdx=0D - ja .Lcbc_dec_seven=0D -=0D - movaps %xmm7,%xmm8=0D - call _aesni_decrypt6=0D - pxor %xmm10,%xmm2=0D - movaps %xmm8,%xmm10=0D - pxor %xmm11,%xmm3=0D - movdqu %xmm2,(%rsi)=0D - pxor %xmm12,%xmm4=0D - movdqu %xmm3,16(%rsi)=0D - pxor %xmm3,%xmm3=0D - pxor %xmm13,%xmm5=0D - movdqu %xmm4,32(%rsi)=0D - pxor %xmm4,%xmm4=0D - pxor %xmm14,%xmm6=0D - movdqu %xmm5,48(%rsi)=0D - pxor %xmm5,%xmm5=0D - pxor %xmm15,%xmm7=0D - movdqu %xmm6,64(%rsi)=0D - pxor %xmm6,%xmm6=0D - leaq 80(%rsi),%rsi=0D - movdqa %xmm7,%xmm2=0D - pxor %xmm7,%xmm7=0D - jmp .Lcbc_dec_tail_collected=0D -=0D -.align 16=0D -.Lcbc_dec_seven:=0D - movups 96(%rdi),%xmm8=0D - xorps %xmm9,%xmm9=0D - call _aesni_decrypt8=0D - movups 80(%rdi),%xmm9=0D - pxor %xmm10,%xmm2=0D - movups 96(%rdi),%xmm10=0D - pxor %xmm11,%xmm3=0D - movdqu %xmm2,(%rsi)=0D - pxor %xmm12,%xmm4=0D - movdqu %xmm3,16(%rsi)=0D - pxor %xmm3,%xmm3=0D - pxor %xmm13,%xmm5=0D - movdqu %xmm4,32(%rsi)=0D - pxor %xmm4,%xmm4=0D - pxor %xmm14,%xmm6=0D - movdqu %xmm5,48(%rsi)=0D - pxor %xmm5,%xmm5=0D - pxor %xmm15,%xmm7=0D - movdqu %xmm6,64(%rsi)=0D - pxor %xmm6,%xmm6=0D - pxor %xmm9,%xmm8=0D - movdqu %xmm7,80(%rsi)=0D - pxor %xmm7,%xmm7=0D - leaq 96(%rsi),%rsi=0D - movdqa %xmm8,%xmm2=0D - pxor %xmm8,%xmm8=0D - pxor %xmm9,%xmm9=0D - jmp .Lcbc_dec_tail_collected=0D -=0D -.align 16=0D -.Lcbc_dec_loop6:=0D - movups %xmm7,(%rsi)=0D - leaq 16(%rsi),%rsi=0D - movdqu 0(%rdi),%xmm2=0D - movdqu 16(%rdi),%xmm3=0D - movdqa %xmm2,%xmm11=0D - movdqu 32(%rdi),%xmm4=0D - movdqa %xmm3,%xmm12=0D - movdqu 48(%rdi),%xmm5=0D - movdqa %xmm4,%xmm13=0D - movdqu 64(%rdi),%xmm6=0D - movdqa %xmm5,%xmm14=0D - movdqu 80(%rdi),%xmm7=0D - movdqa %xmm6,%xmm15=0D -.Lcbc_dec_loop6_enter:=0D - leaq 96(%rdi),%rdi=0D - movdqa %xmm7,%xmm8=0D -=0D - call _aesni_decrypt6=0D -=0D - pxor %xmm10,%xmm2=0D - movdqa %xmm8,%xmm10=0D - pxor %xmm11,%xmm3=0D - movdqu %xmm2,(%rsi)=0D - pxor %xmm12,%xmm4=0D - movdqu %xmm3,16(%rsi)=0D - pxor %xmm13,%xmm5=0D - movdqu %xmm4,32(%rsi)=0D - pxor %xmm14,%xmm6=0D - movq %rbp,%rcx=0D - movdqu %xmm5,48(%rsi)=0D - pxor %xmm15,%xmm7=0D - movl %r10d,%eax=0D - movdqu %xmm6,64(%rsi)=0D - leaq 80(%rsi),%rsi=0D - subq $0x60,%rdx=0D - ja .Lcbc_dec_loop6=0D -=0D - movdqa %xmm7,%xmm2=0D - addq $0x50,%rdx=0D - jle .Lcbc_dec_clear_tail_collected=0D - movups %xmm7,(%rsi)=0D - leaq 16(%rsi),%rsi=0D -=0D -.Lcbc_dec_tail:=0D - movups (%rdi),%xmm2=0D - subq $0x10,%rdx=0D - jbe .Lcbc_dec_one=0D -=0D - movups 16(%rdi),%xmm3=0D - movaps %xmm2,%xmm11=0D - subq $0x10,%rdx=0D - jbe .Lcbc_dec_two=0D -=0D - movups 32(%rdi),%xmm4=0D - movaps %xmm3,%xmm12=0D - subq $0x10,%rdx=0D - jbe .Lcbc_dec_three=0D -=0D - movups 48(%rdi),%xmm5=0D - movaps %xmm4,%xmm13=0D - subq $0x10,%rdx=0D - jbe .Lcbc_dec_four=0D -=0D - movups 64(%rdi),%xmm6=0D - movaps %xmm5,%xmm14=0D - movaps %xmm6,%xmm15=0D - xorps %xmm7,%xmm7=0D - call _aesni_decrypt6=0D - pxor %xmm10,%xmm2=0D - movaps %xmm15,%xmm10=0D - pxor %xmm11,%xmm3=0D - movdqu %xmm2,(%rsi)=0D - pxor %xmm12,%xmm4=0D - movdqu %xmm3,16(%rsi)=0D - pxor %xmm3,%xmm3=0D - pxor %xmm13,%xmm5=0D - movdqu %xmm4,32(%rsi)=0D - pxor %xmm4,%xmm4=0D - pxor %xmm14,%xmm6=0D - movdqu %xmm5,48(%rsi)=0D - pxor %xmm5,%xmm5=0D - leaq 64(%rsi),%rsi=0D - movdqa %xmm6,%xmm2=0D - pxor %xmm6,%xmm6=0D - pxor %xmm7,%xmm7=0D - subq $0x10,%rdx=0D - jmp .Lcbc_dec_tail_collected=0D -=0D -.align 16=0D -.Lcbc_dec_one:=0D - movaps %xmm2,%xmm11=0D - movups (%rcx),%xmm0=0D - movups 16(%rcx),%xmm1=0D - leaq 32(%rcx),%rcx=0D - xorps %xmm0,%xmm2=0D -.Loop_dec1_17:=0D -.byte 102,15,56,222,209=0D - decl %eax=0D - movups (%rcx),%xmm1=0D - leaq 16(%rcx),%rcx=0D - jnz .Loop_dec1_17=0D -.byte 102,15,56,223,209=0D - xorps %xmm10,%xmm2=0D - movaps %xmm11,%xmm10=0D - jmp .Lcbc_dec_tail_collected=0D -.align 16=0D -.Lcbc_dec_two:=0D - movaps %xmm3,%xmm12=0D - call _aesni_decrypt2=0D - pxor %xmm10,%xmm2=0D - movaps %xmm12,%xmm10=0D - pxor %xmm11,%xmm3=0D - movdqu %xmm2,(%rsi)=0D - movdqa %xmm3,%xmm2=0D - pxor %xmm3,%xmm3=0D - leaq 16(%rsi),%rsi=0D - jmp .Lcbc_dec_tail_collected=0D -.align 16=0D -.Lcbc_dec_three:=0D - movaps %xmm4,%xmm13=0D - call _aesni_decrypt3=0D - pxor %xmm10,%xmm2=0D - movaps %xmm13,%xmm10=0D - pxor %xmm11,%xmm3=0D - movdqu %xmm2,(%rsi)=0D - pxor %xmm12,%xmm4=0D - movdqu %xmm3,16(%rsi)=0D - pxor %xmm3,%xmm3=0D - movdqa %xmm4,%xmm2=0D - pxor %xmm4,%xmm4=0D - leaq 32(%rsi),%rsi=0D - jmp .Lcbc_dec_tail_collected=0D -.align 16=0D -.Lcbc_dec_four:=0D - movaps %xmm5,%xmm14=0D - call _aesni_decrypt4=0D - pxor %xmm10,%xmm2=0D - movaps %xmm14,%xmm10=0D - pxor %xmm11,%xmm3=0D - movdqu %xmm2,(%rsi)=0D - pxor %xmm12,%xmm4=0D - movdqu %xmm3,16(%rsi)=0D - pxor %xmm3,%xmm3=0D - pxor %xmm13,%xmm5=0D - movdqu %xmm4,32(%rsi)=0D - pxor %xmm4,%xmm4=0D - movdqa %xmm5,%xmm2=0D - pxor %xmm5,%xmm5=0D - leaq 48(%rsi),%rsi=0D - jmp .Lcbc_dec_tail_collected=0D -=0D -.align 16=0D -.Lcbc_dec_clear_tail_collected:=0D - pxor %xmm3,%xmm3=0D - pxor %xmm4,%xmm4=0D - pxor %xmm5,%xmm5=0D - pxor %xmm6,%xmm6=0D - pxor %xmm7,%xmm7=0D - pxor %xmm8,%xmm8=0D - pxor %xmm9,%xmm9=0D -.Lcbc_dec_tail_collected:=0D - movups %xmm10,(%r8)=0D - andq $15,%rdx=0D - jnz .Lcbc_dec_tail_partial=0D - movups %xmm2,(%rsi)=0D - pxor %xmm2,%xmm2=0D - jmp .Lcbc_dec_ret=0D -.align 16=0D -.Lcbc_dec_tail_partial:=0D - movaps %xmm2,(%rsp)=0D - pxor %xmm2,%xmm2=0D - movq $16,%rcx=0D - movq %rsi,%rdi=0D - subq %rdx,%rcx=0D - leaq (%rsp),%rsi=0D -.long 0x9066A4F3=0D - movdqa %xmm2,(%rsp)=0D -=0D -.Lcbc_dec_ret:=0D - xorps %xmm0,%xmm0=0D - pxor %xmm1,%xmm1=0D - movq -8(%r11),%rbp=0D -.cfi_restore %rbp=0D - leaq (%r11),%rsp=0D -.cfi_def_cfa_register %rsp=0D -.Lcbc_ret:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size aesni_cbc_encrypt,.-aesni_cbc_encrypt=0D -.globl aesni_set_decrypt_key=0D -.type aesni_set_decrypt_key,@function=0D -.align 16=0D -aesni_set_decrypt_key:=0D -.cfi_startproc=0D -.byte 0x48,0x83,0xEC,0x08=0D -.cfi_adjust_cfa_offset 8=0D - call __aesni_set_encrypt_key=0D - shll $4,%esi=0D - testl %eax,%eax=0D - jnz .Ldec_key_ret=0D - leaq 16(%rdx,%rsi,1),%rdi=0D -=0D - movups (%rdx),%xmm0=0D - movups (%rdi),%xmm1=0D - movups %xmm0,(%rdi)=0D - movups %xmm1,(%rdx)=0D - leaq 16(%rdx),%rdx=0D - leaq -16(%rdi),%rdi=0D -=0D -.Ldec_key_inverse:=0D - movups (%rdx),%xmm0=0D - movups (%rdi),%xmm1=0D -.byte 102,15,56,219,192=0D -.byte 102,15,56,219,201=0D - leaq 16(%rdx),%rdx=0D - leaq -16(%rdi),%rdi=0D - movups %xmm0,16(%rdi)=0D - movups %xmm1,-16(%rdx)=0D - cmpq %rdx,%rdi=0D - ja .Ldec_key_inverse=0D -=0D - movups (%rdx),%xmm0=0D -.byte 102,15,56,219,192=0D - pxor %xmm1,%xmm1=0D - movups %xmm0,(%rdi)=0D - pxor %xmm0,%xmm0=0D -.Ldec_key_ret:=0D - addq $8,%rsp=0D -.cfi_adjust_cfa_offset -8=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.LSEH_end_set_decrypt_key:=0D -.size aesni_set_decrypt_key,.-aesni_set_decrypt_key=0D -.globl aesni_set_encrypt_key=0D -.type aesni_set_encrypt_key,@function=0D -.align 16=0D -aesni_set_encrypt_key:=0D -__aesni_set_encrypt_key:=0D -.cfi_startproc=0D -.byte 0x48,0x83,0xEC,0x08=0D -.cfi_adjust_cfa_offset 8=0D - movq $-1,%rax=0D - testq %rdi,%rdi=0D - jz .Lenc_key_ret=0D - testq %rdx,%rdx=0D - jz .Lenc_key_ret=0D -=0D - movl $268437504,%r10d=0D - movups (%rdi),%xmm0=0D - xorps %xmm4,%xmm4=0D - andl OPENSSL_ia32cap_P+4(%rip),%r10d=0D - leaq 16(%rdx),%rax=0D - cmpl $256,%esi=0D - je .L14rounds=0D - cmpl $192,%esi=0D - je .L12rounds=0D - cmpl $128,%esi=0D - jne .Lbad_keybits=0D -=0D -.L10rounds:=0D - movl $9,%esi=0D - cmpl $268435456,%r10d=0D - je .L10rounds_alt=0D -=0D - movups %xmm0,(%rdx)=0D -.byte 102,15,58,223,200,1=0D - call .Lkey_expansion_128_cold=0D -.byte 102,15,58,223,200,2=0D - call .Lkey_expansion_128=0D -.byte 102,15,58,223,200,4=0D - call .Lkey_expansion_128=0D -.byte 102,15,58,223,200,8=0D - call .Lkey_expansion_128=0D -.byte 102,15,58,223,200,16=0D - call .Lkey_expansion_128=0D -.byte 102,15,58,223,200,32=0D - call .Lkey_expansion_128=0D -.byte 102,15,58,223,200,64=0D - call .Lkey_expansion_128=0D -.byte 102,15,58,223,200,128=0D - call .Lkey_expansion_128=0D -.byte 102,15,58,223,200,27=0D - call .Lkey_expansion_128=0D -.byte 102,15,58,223,200,54=0D - call .Lkey_expansion_128=0D - movups %xmm0,(%rax)=0D - movl %esi,80(%rax)=0D - xorl %eax,%eax=0D - jmp .Lenc_key_ret=0D -=0D -.align 16=0D -.L10rounds_alt:=0D - movdqa .Lkey_rotate(%rip),%xmm5=0D - movl $8,%r10d=0D - movdqa .Lkey_rcon1(%rip),%xmm4=0D - movdqa %xmm0,%xmm2=0D - movdqu %xmm0,(%rdx)=0D - jmp .Loop_key128=0D -=0D -.align 16=0D -.Loop_key128:=0D -.byte 102,15,56,0,197=0D -.byte 102,15,56,221,196=0D - pslld $1,%xmm4=0D - leaq 16(%rax),%rax=0D -=0D - movdqa %xmm2,%xmm3=0D - pslldq $4,%xmm2=0D - pxor %xmm2,%xmm3=0D - pslldq $4,%xmm2=0D - pxor %xmm2,%xmm3=0D - pslldq $4,%xmm2=0D - pxor %xmm3,%xmm2=0D -=0D - pxor %xmm2,%xmm0=0D - movdqu %xmm0,-16(%rax)=0D - movdqa %xmm0,%xmm2=0D -=0D - decl %r10d=0D - jnz .Loop_key128=0D -=0D - movdqa .Lkey_rcon1b(%rip),%xmm4=0D -=0D -.byte 102,15,56,0,197=0D -.byte 102,15,56,221,196=0D - pslld $1,%xmm4=0D -=0D - movdqa %xmm2,%xmm3=0D - pslldq $4,%xmm2=0D - pxor %xmm2,%xmm3=0D - pslldq $4,%xmm2=0D - pxor %xmm2,%xmm3=0D - pslldq $4,%xmm2=0D - pxor %xmm3,%xmm2=0D -=0D - pxor %xmm2,%xmm0=0D - movdqu %xmm0,(%rax)=0D -=0D - movdqa %xmm0,%xmm2=0D -.byte 102,15,56,0,197=0D -.byte 102,15,56,221,196=0D -=0D - movdqa %xmm2,%xmm3=0D - pslldq $4,%xmm2=0D - pxor %xmm2,%xmm3=0D - pslldq $4,%xmm2=0D - pxor %xmm2,%xmm3=0D - pslldq $4,%xmm2=0D - pxor %xmm3,%xmm2=0D -=0D - pxor %xmm2,%xmm0=0D - movdqu %xmm0,16(%rax)=0D -=0D - movl %esi,96(%rax)=0D - xorl %eax,%eax=0D - jmp .Lenc_key_ret=0D -=0D -.align 16=0D -.L12rounds:=0D - movq 16(%rdi),%xmm2=0D - movl $11,%esi=0D - cmpl $268435456,%r10d=0D - je .L12rounds_alt=0D -=0D - movups %xmm0,(%rdx)=0D -.byte 102,15,58,223,202,1=0D - call .Lkey_expansion_192a_cold=0D -.byte 102,15,58,223,202,2=0D - call .Lkey_expansion_192b=0D -.byte 102,15,58,223,202,4=0D - call .Lkey_expansion_192a=0D -.byte 102,15,58,223,202,8=0D - call .Lkey_expansion_192b=0D -.byte 102,15,58,223,202,16=0D - call .Lkey_expansion_192a=0D -.byte 102,15,58,223,202,32=0D - call .Lkey_expansion_192b=0D -.byte 102,15,58,223,202,64=0D - call .Lkey_expansion_192a=0D -.byte 102,15,58,223,202,128=0D - call .Lkey_expansion_192b=0D - movups %xmm0,(%rax)=0D - movl %esi,48(%rax)=0D - xorq %rax,%rax=0D - jmp .Lenc_key_ret=0D -=0D -.align 16=0D -.L12rounds_alt:=0D - movdqa .Lkey_rotate192(%rip),%xmm5=0D - movdqa .Lkey_rcon1(%rip),%xmm4=0D - movl $8,%r10d=0D - movdqu %xmm0,(%rdx)=0D - jmp .Loop_key192=0D -=0D -.align 16=0D -.Loop_key192:=0D - movq %xmm2,0(%rax)=0D - movdqa %xmm2,%xmm1=0D -.byte 102,15,56,0,213=0D -.byte 102,15,56,221,212=0D - pslld $1,%xmm4=0D - leaq 24(%rax),%rax=0D -=0D - movdqa %xmm0,%xmm3=0D - pslldq $4,%xmm0=0D - pxor %xmm0,%xmm3=0D - pslldq $4,%xmm0=0D - pxor %xmm0,%xmm3=0D - pslldq $4,%xmm0=0D - pxor %xmm3,%xmm0=0D -=0D - pshufd $0xff,%xmm0,%xmm3=0D - pxor %xmm1,%xmm3=0D - pslldq $4,%xmm1=0D - pxor %xmm1,%xmm3=0D -=0D - pxor %xmm2,%xmm0=0D - pxor %xmm3,%xmm2=0D - movdqu %xmm0,-16(%rax)=0D -=0D - decl %r10d=0D - jnz .Loop_key192=0D -=0D - movl %esi,32(%rax)=0D - xorl %eax,%eax=0D - jmp .Lenc_key_ret=0D -=0D -.align 16=0D -.L14rounds:=0D - movups 16(%rdi),%xmm2=0D - movl $13,%esi=0D - leaq 16(%rax),%rax=0D - cmpl $268435456,%r10d=0D - je .L14rounds_alt=0D -=0D - movups %xmm0,(%rdx)=0D - movups %xmm2,16(%rdx)=0D -.byte 102,15,58,223,202,1=0D - call .Lkey_expansion_256a_cold=0D -.byte 102,15,58,223,200,1=0D - call .Lkey_expansion_256b=0D -.byte 102,15,58,223,202,2=0D - call .Lkey_expansion_256a=0D -.byte 102,15,58,223,200,2=0D - call .Lkey_expansion_256b=0D -.byte 102,15,58,223,202,4=0D - call .Lkey_expansion_256a=0D -.byte 102,15,58,223,200,4=0D - call .Lkey_expansion_256b=0D -.byte 102,15,58,223,202,8=0D - call .Lkey_expansion_256a=0D -.byte 102,15,58,223,200,8=0D - call .Lkey_expansion_256b=0D -.byte 102,15,58,223,202,16=0D - call .Lkey_expansion_256a=0D -.byte 102,15,58,223,200,16=0D - call .Lkey_expansion_256b=0D -.byte 102,15,58,223,202,32=0D - call .Lkey_expansion_256a=0D -.byte 102,15,58,223,200,32=0D - call .Lkey_expansion_256b=0D -.byte 102,15,58,223,202,64=0D - call .Lkey_expansion_256a=0D - movups %xmm0,(%rax)=0D - movl %esi,16(%rax)=0D - xorq %rax,%rax=0D - jmp .Lenc_key_ret=0D -=0D -.align 16=0D -.L14rounds_alt:=0D - movdqa .Lkey_rotate(%rip),%xmm5=0D - movdqa .Lkey_rcon1(%rip),%xmm4=0D - movl $7,%r10d=0D - movdqu %xmm0,0(%rdx)=0D - movdqa %xmm2,%xmm1=0D - movdqu %xmm2,16(%rdx)=0D - jmp .Loop_key256=0D -=0D -.align 16=0D -.Loop_key256:=0D -.byte 102,15,56,0,213=0D -.byte 102,15,56,221,212=0D -=0D - movdqa %xmm0,%xmm3=0D - pslldq $4,%xmm0=0D - pxor %xmm0,%xmm3=0D - pslldq $4,%xmm0=0D - pxor %xmm0,%xmm3=0D - pslldq $4,%xmm0=0D - pxor %xmm3,%xmm0=0D - pslld $1,%xmm4=0D -=0D - pxor %xmm2,%xmm0=0D - movdqu %xmm0,(%rax)=0D -=0D - decl %r10d=0D - jz .Ldone_key256=0D -=0D - pshufd $0xff,%xmm0,%xmm2=0D - pxor %xmm3,%xmm3=0D -.byte 102,15,56,221,211=0D -=0D - movdqa %xmm1,%xmm3=0D - pslldq $4,%xmm1=0D - pxor %xmm1,%xmm3=0D - pslldq $4,%xmm1=0D - pxor %xmm1,%xmm3=0D - pslldq $4,%xmm1=0D - pxor %xmm3,%xmm1=0D -=0D - pxor %xmm1,%xmm2=0D - movdqu %xmm2,16(%rax)=0D - leaq 32(%rax),%rax=0D - movdqa %xmm2,%xmm1=0D -=0D - jmp .Loop_key256=0D -=0D -.Ldone_key256:=0D - movl %esi,16(%rax)=0D - xorl %eax,%eax=0D - jmp .Lenc_key_ret=0D -=0D -.align 16=0D -.Lbad_keybits:=0D - movq $-2,%rax=0D -.Lenc_key_ret:=0D - pxor %xmm0,%xmm0=0D - pxor %xmm1,%xmm1=0D - pxor %xmm2,%xmm2=0D - pxor %xmm3,%xmm3=0D - pxor %xmm4,%xmm4=0D - pxor %xmm5,%xmm5=0D - addq $8,%rsp=0D -.cfi_adjust_cfa_offset -8=0D - .byte 0xf3,0xc3=0D -.LSEH_end_set_encrypt_key:=0D -=0D -.align 16=0D -.Lkey_expansion_128:=0D - movups %xmm0,(%rax)=0D - leaq 16(%rax),%rax=0D -.Lkey_expansion_128_cold:=0D - shufps $16,%xmm0,%xmm4=0D - xorps %xmm4,%xmm0=0D - shufps $140,%xmm0,%xmm4=0D - xorps %xmm4,%xmm0=0D - shufps $255,%xmm1,%xmm1=0D - xorps %xmm1,%xmm0=0D - .byte 0xf3,0xc3=0D -=0D -.align 16=0D -.Lkey_expansion_192a:=0D - movups %xmm0,(%rax)=0D - leaq 16(%rax),%rax=0D -.Lkey_expansion_192a_cold:=0D - movaps %xmm2,%xmm5=0D -.Lkey_expansion_192b_warm:=0D - shufps $16,%xmm0,%xmm4=0D - movdqa %xmm2,%xmm3=0D - xorps %xmm4,%xmm0=0D - shufps $140,%xmm0,%xmm4=0D - pslldq $4,%xmm3=0D - xorps %xmm4,%xmm0=0D - pshufd $85,%xmm1,%xmm1=0D - pxor %xmm3,%xmm2=0D - pxor %xmm1,%xmm0=0D - pshufd $255,%xmm0,%xmm3=0D - pxor %xmm3,%xmm2=0D - .byte 0xf3,0xc3=0D -=0D -.align 16=0D -.Lkey_expansion_192b:=0D - movaps %xmm0,%xmm3=0D - shufps $68,%xmm0,%xmm5=0D - movups %xmm5,(%rax)=0D - shufps $78,%xmm2,%xmm3=0D - movups %xmm3,16(%rax)=0D - leaq 32(%rax),%rax=0D - jmp .Lkey_expansion_192b_warm=0D -=0D -.align 16=0D -.Lkey_expansion_256a:=0D - movups %xmm2,(%rax)=0D - leaq 16(%rax),%rax=0D -.Lkey_expansion_256a_cold:=0D - shufps $16,%xmm0,%xmm4=0D - xorps %xmm4,%xmm0=0D - shufps $140,%xmm0,%xmm4=0D - xorps %xmm4,%xmm0=0D - shufps $255,%xmm1,%xmm1=0D - xorps %xmm1,%xmm0=0D - .byte 0xf3,0xc3=0D -=0D -.align 16=0D -.Lkey_expansion_256b:=0D - movups %xmm0,(%rax)=0D - leaq 16(%rax),%rax=0D -=0D - shufps $16,%xmm2,%xmm4=0D - xorps %xmm4,%xmm2=0D - shufps $140,%xmm2,%xmm4=0D - xorps %xmm4,%xmm2=0D - shufps $170,%xmm1,%xmm1=0D - xorps %xmm1,%xmm2=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size aesni_set_encrypt_key,.-aesni_set_encrypt_key=0D -.size __aesni_set_encrypt_key,.-__aesni_set_encrypt_key=0D -.align 64=0D -.Lbswap_mask:=0D -.byte 15,14,13,12,11,10,9,8,7,6,5,4,3,2,1,0=0D -.Lincrement32:=0D -.long 6,6,6,0=0D -.Lincrement64:=0D -.long 1,0,0,0=0D -.Lxts_magic:=0D -.long 0x87,0,1,0=0D -.Lincrement1:=0D -.byte 0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1=0D -.Lkey_rotate:=0D -.long 0x0c0f0e0d,0x0c0f0e0d,0x0c0f0e0d,0x0c0f0e0d=0D -.Lkey_rotate192:=0D -.long 0x04070605,0x04070605,0x04070605,0x04070605=0D -.Lkey_rcon1:=0D -.long 1,1,1,1=0D -.Lkey_rcon1b:=0D -.long 0x1b,0x1b,0x1b,0x1b=0D -=0D -.byte 65,69,83,32,102,111,114,32,73,110,116,101,108,32,65,69,83,45,78,73= ,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,= 111,112,101,110,115,115,108,46,111,114,103,62,0=0D -.align 64=0D diff --git a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/aes/vpaes-x86_64.S = b/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/aes/vpaes-x86_64.S deleted file mode 100644 index 982818f83b..0000000000 --- a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/aes/vpaes-x86_64.S +++ /dev/null @@ -1,863 +0,0 @@ -# WARNING: do not edit!=0D -# Generated from openssl/crypto/aes/asm/vpaes-x86_64.pl=0D -#=0D -# Copyright 2011-2020 The OpenSSL Project Authors. All Rights Reserved.=0D -#=0D -# Licensed under the OpenSSL license (the "License"). You may not use=0D -# this file except in compliance with the License. You can obtain a copy= =0D -# in the file LICENSE in the source distribution or at=0D -# https://www.openssl.org/source/license.html=0D -=0D -.text=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -.type _vpaes_encrypt_core,@function=0D -.align 16=0D -_vpaes_encrypt_core:=0D -.cfi_startproc=0D - movq %rdx,%r9=0D - movq $16,%r11=0D - movl 240(%rdx),%eax=0D - movdqa %xmm9,%xmm1=0D - movdqa .Lk_ipt(%rip),%xmm2=0D - pandn %xmm0,%xmm1=0D - movdqu (%r9),%xmm5=0D - psrld $4,%xmm1=0D - pand %xmm9,%xmm0=0D -.byte 102,15,56,0,208=0D - movdqa .Lk_ipt+16(%rip),%xmm0=0D -.byte 102,15,56,0,193=0D - pxor %xmm5,%xmm2=0D - addq $16,%r9=0D - pxor %xmm2,%xmm0=0D - leaq .Lk_mc_backward(%rip),%r10=0D - jmp .Lenc_entry=0D -=0D -.align 16=0D -.Lenc_loop:=0D -=0D - movdqa %xmm13,%xmm4=0D - movdqa %xmm12,%xmm0=0D -.byte 102,15,56,0,226=0D -.byte 102,15,56,0,195=0D - pxor %xmm5,%xmm4=0D - movdqa %xmm15,%xmm5=0D - pxor %xmm4,%xmm0=0D - movdqa -64(%r11,%r10,1),%xmm1=0D -.byte 102,15,56,0,234=0D - movdqa (%r11,%r10,1),%xmm4=0D - movdqa %xmm14,%xmm2=0D -.byte 102,15,56,0,211=0D - movdqa %xmm0,%xmm3=0D - pxor %xmm5,%xmm2=0D -.byte 102,15,56,0,193=0D - addq $16,%r9=0D - pxor %xmm2,%xmm0=0D -.byte 102,15,56,0,220=0D - addq $16,%r11=0D - pxor %xmm0,%xmm3=0D -.byte 102,15,56,0,193=0D - andq $0x30,%r11=0D - subq $1,%rax=0D - pxor %xmm3,%xmm0=0D -=0D -.Lenc_entry:=0D -=0D - movdqa %xmm9,%xmm1=0D - movdqa %xmm11,%xmm5=0D - pandn %xmm0,%xmm1=0D - psrld $4,%xmm1=0D - pand %xmm9,%xmm0=0D -.byte 102,15,56,0,232=0D - movdqa %xmm10,%xmm3=0D - pxor %xmm1,%xmm0=0D -.byte 102,15,56,0,217=0D - movdqa %xmm10,%xmm4=0D - pxor %xmm5,%xmm3=0D -.byte 102,15,56,0,224=0D - movdqa %xmm10,%xmm2=0D - pxor %xmm5,%xmm4=0D -.byte 102,15,56,0,211=0D - movdqa %xmm10,%xmm3=0D - pxor %xmm0,%xmm2=0D -.byte 102,15,56,0,220=0D - movdqu (%r9),%xmm5=0D - pxor %xmm1,%xmm3=0D - jnz .Lenc_loop=0D -=0D -=0D - movdqa -96(%r10),%xmm4=0D - movdqa -80(%r10),%xmm0=0D -.byte 102,15,56,0,226=0D - pxor %xmm5,%xmm4=0D -.byte 102,15,56,0,195=0D - movdqa 64(%r11,%r10,1),%xmm1=0D - pxor %xmm4,%xmm0=0D -.byte 102,15,56,0,193=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size _vpaes_encrypt_core,.-_vpaes_encrypt_core=0D -=0D -=0D -=0D -=0D -=0D -=0D -.type _vpaes_decrypt_core,@function=0D -.align 16=0D -_vpaes_decrypt_core:=0D -.cfi_startproc=0D - movq %rdx,%r9=0D - movl 240(%rdx),%eax=0D - movdqa %xmm9,%xmm1=0D - movdqa .Lk_dipt(%rip),%xmm2=0D - pandn %xmm0,%xmm1=0D - movq %rax,%r11=0D - psrld $4,%xmm1=0D - movdqu (%r9),%xmm5=0D - shlq $4,%r11=0D - pand %xmm9,%xmm0=0D -.byte 102,15,56,0,208=0D - movdqa .Lk_dipt+16(%rip),%xmm0=0D - xorq $0x30,%r11=0D - leaq .Lk_dsbd(%rip),%r10=0D -.byte 102,15,56,0,193=0D - andq $0x30,%r11=0D - pxor %xmm5,%xmm2=0D - movdqa .Lk_mc_forward+48(%rip),%xmm5=0D - pxor %xmm2,%xmm0=0D - addq $16,%r9=0D - addq %r10,%r11=0D - jmp .Ldec_entry=0D -=0D -.align 16=0D -.Ldec_loop:=0D -=0D -=0D -=0D - movdqa -32(%r10),%xmm4=0D - movdqa -16(%r10),%xmm1=0D -.byte 102,15,56,0,226=0D -.byte 102,15,56,0,203=0D - pxor %xmm4,%xmm0=0D - movdqa 0(%r10),%xmm4=0D - pxor %xmm1,%xmm0=0D - movdqa 16(%r10),%xmm1=0D -=0D -.byte 102,15,56,0,226=0D -.byte 102,15,56,0,197=0D -.byte 102,15,56,0,203=0D - pxor %xmm4,%xmm0=0D - movdqa 32(%r10),%xmm4=0D - pxor %xmm1,%xmm0=0D - movdqa 48(%r10),%xmm1=0D -=0D -.byte 102,15,56,0,226=0D -.byte 102,15,56,0,197=0D -.byte 102,15,56,0,203=0D - pxor %xmm4,%xmm0=0D - movdqa 64(%r10),%xmm4=0D - pxor %xmm1,%xmm0=0D - movdqa 80(%r10),%xmm1=0D -=0D -.byte 102,15,56,0,226=0D -.byte 102,15,56,0,197=0D -.byte 102,15,56,0,203=0D - pxor %xmm4,%xmm0=0D - addq $16,%r9=0D -.byte 102,15,58,15,237,12=0D - pxor %xmm1,%xmm0=0D - subq $1,%rax=0D -=0D -.Ldec_entry:=0D -=0D - movdqa %xmm9,%xmm1=0D - pandn %xmm0,%xmm1=0D - movdqa %xmm11,%xmm2=0D - psrld $4,%xmm1=0D - pand %xmm9,%xmm0=0D -.byte 102,15,56,0,208=0D - movdqa %xmm10,%xmm3=0D - pxor %xmm1,%xmm0=0D -.byte 102,15,56,0,217=0D - movdqa %xmm10,%xmm4=0D - pxor %xmm2,%xmm3=0D -.byte 102,15,56,0,224=0D - pxor %xmm2,%xmm4=0D - movdqa %xmm10,%xmm2=0D -.byte 102,15,56,0,211=0D - movdqa %xmm10,%xmm3=0D - pxor %xmm0,%xmm2=0D -.byte 102,15,56,0,220=0D - movdqu (%r9),%xmm0=0D - pxor %xmm1,%xmm3=0D - jnz .Ldec_loop=0D -=0D -=0D - movdqa 96(%r10),%xmm4=0D -.byte 102,15,56,0,226=0D - pxor %xmm0,%xmm4=0D - movdqa 112(%r10),%xmm0=0D - movdqa -352(%r11),%xmm2=0D -.byte 102,15,56,0,195=0D - pxor %xmm4,%xmm0=0D -.byte 102,15,56,0,194=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size _vpaes_decrypt_core,.-_vpaes_decrypt_core=0D -=0D -=0D -=0D -=0D -=0D -=0D -.type _vpaes_schedule_core,@function=0D -.align 16=0D -_vpaes_schedule_core:=0D -.cfi_startproc=0D -=0D -=0D -=0D -=0D -=0D - call _vpaes_preheat=0D - movdqa .Lk_rcon(%rip),%xmm8=0D - movdqu (%rdi),%xmm0=0D -=0D -=0D - movdqa %xmm0,%xmm3=0D - leaq .Lk_ipt(%rip),%r11=0D - call _vpaes_schedule_transform=0D - movdqa %xmm0,%xmm7=0D -=0D - leaq .Lk_sr(%rip),%r10=0D - testq %rcx,%rcx=0D - jnz .Lschedule_am_decrypting=0D -=0D -=0D - movdqu %xmm0,(%rdx)=0D - jmp .Lschedule_go=0D -=0D -.Lschedule_am_decrypting:=0D -=0D - movdqa (%r8,%r10,1),%xmm1=0D -.byte 102,15,56,0,217=0D - movdqu %xmm3,(%rdx)=0D - xorq $0x30,%r8=0D -=0D -.Lschedule_go:=0D - cmpl $192,%esi=0D - ja .Lschedule_256=0D - je .Lschedule_192=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -.Lschedule_128:=0D - movl $10,%esi=0D -=0D -.Loop_schedule_128:=0D - call _vpaes_schedule_round=0D - decq %rsi=0D - jz .Lschedule_mangle_last=0D - call _vpaes_schedule_mangle=0D - jmp .Loop_schedule_128=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -.align 16=0D -.Lschedule_192:=0D - movdqu 8(%rdi),%xmm0=0D - call _vpaes_schedule_transform=0D - movdqa %xmm0,%xmm6=0D - pxor %xmm4,%xmm4=0D - movhlps %xmm4,%xmm6=0D - movl $4,%esi=0D -=0D -.Loop_schedule_192:=0D - call _vpaes_schedule_round=0D -.byte 102,15,58,15,198,8=0D - call _vpaes_schedule_mangle=0D - call _vpaes_schedule_192_smear=0D - call _vpaes_schedule_mangle=0D - call _vpaes_schedule_round=0D - decq %rsi=0D - jz .Lschedule_mangle_last=0D - call _vpaes_schedule_mangle=0D - call _vpaes_schedule_192_smear=0D - jmp .Loop_schedule_192=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -.align 16=0D -.Lschedule_256:=0D - movdqu 16(%rdi),%xmm0=0D - call _vpaes_schedule_transform=0D - movl $7,%esi=0D -=0D -.Loop_schedule_256:=0D - call _vpaes_schedule_mangle=0D - movdqa %xmm0,%xmm6=0D -=0D -=0D - call _vpaes_schedule_round=0D - decq %rsi=0D - jz .Lschedule_mangle_last=0D - call _vpaes_schedule_mangle=0D -=0D -=0D - pshufd $0xFF,%xmm0,%xmm0=0D - movdqa %xmm7,%xmm5=0D - movdqa %xmm6,%xmm7=0D - call _vpaes_schedule_low_round=0D - movdqa %xmm5,%xmm7=0D -=0D - jmp .Loop_schedule_256=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -.align 16=0D -.Lschedule_mangle_last:=0D -=0D - leaq .Lk_deskew(%rip),%r11=0D - testq %rcx,%rcx=0D - jnz .Lschedule_mangle_last_dec=0D -=0D -=0D - movdqa (%r8,%r10,1),%xmm1=0D -.byte 102,15,56,0,193=0D - leaq .Lk_opt(%rip),%r11=0D - addq $32,%rdx=0D -=0D -.Lschedule_mangle_last_dec:=0D - addq $-16,%rdx=0D - pxor .Lk_s63(%rip),%xmm0=0D - call _vpaes_schedule_transform=0D - movdqu %xmm0,(%rdx)=0D -=0D -=0D - pxor %xmm0,%xmm0=0D - pxor %xmm1,%xmm1=0D - pxor %xmm2,%xmm2=0D - pxor %xmm3,%xmm3=0D - pxor %xmm4,%xmm4=0D - pxor %xmm5,%xmm5=0D - pxor %xmm6,%xmm6=0D - pxor %xmm7,%xmm7=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size _vpaes_schedule_core,.-_vpaes_schedule_core=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -.type _vpaes_schedule_192_smear,@function=0D -.align 16=0D -_vpaes_schedule_192_smear:=0D -.cfi_startproc=0D - pshufd $0x80,%xmm6,%xmm1=0D - pshufd $0xFE,%xmm7,%xmm0=0D - pxor %xmm1,%xmm6=0D - pxor %xmm1,%xmm1=0D - pxor %xmm0,%xmm6=0D - movdqa %xmm6,%xmm0=0D - movhlps %xmm1,%xmm6=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size _vpaes_schedule_192_smear,.-_vpaes_schedule_192_smear=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -.type _vpaes_schedule_round,@function=0D -.align 16=0D -_vpaes_schedule_round:=0D -.cfi_startproc=0D -=0D - pxor %xmm1,%xmm1=0D -.byte 102,65,15,58,15,200,15=0D -.byte 102,69,15,58,15,192,15=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - pshufd $0xFF,%xmm0,%xmm0=0D -.byte 102,15,58,15,192,1=0D -=0D -=0D -=0D -=0D -_vpaes_schedule_low_round:=0D -=0D - movdqa %xmm7,%xmm1=0D - pslldq $4,%xmm7=0D - pxor %xmm1,%xmm7=0D - movdqa %xmm7,%xmm1=0D - pslldq $8,%xmm7=0D - pxor %xmm1,%xmm7=0D - pxor .Lk_s63(%rip),%xmm7=0D -=0D -=0D - movdqa %xmm9,%xmm1=0D - pandn %xmm0,%xmm1=0D - psrld $4,%xmm1=0D - pand %xmm9,%xmm0=0D - movdqa %xmm11,%xmm2=0D -.byte 102,15,56,0,208=0D - pxor %xmm1,%xmm0=0D - movdqa %xmm10,%xmm3=0D -.byte 102,15,56,0,217=0D - pxor %xmm2,%xmm3=0D - movdqa %xmm10,%xmm4=0D -.byte 102,15,56,0,224=0D - pxor %xmm2,%xmm4=0D - movdqa %xmm10,%xmm2=0D -.byte 102,15,56,0,211=0D - pxor %xmm0,%xmm2=0D - movdqa %xmm10,%xmm3=0D -.byte 102,15,56,0,220=0D - pxor %xmm1,%xmm3=0D - movdqa %xmm13,%xmm4=0D -.byte 102,15,56,0,226=0D - movdqa %xmm12,%xmm0=0D -.byte 102,15,56,0,195=0D - pxor %xmm4,%xmm0=0D -=0D -=0D - pxor %xmm7,%xmm0=0D - movdqa %xmm0,%xmm7=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size _vpaes_schedule_round,.-_vpaes_schedule_round=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -.type _vpaes_schedule_transform,@function=0D -.align 16=0D -_vpaes_schedule_transform:=0D -.cfi_startproc=0D - movdqa %xmm9,%xmm1=0D - pandn %xmm0,%xmm1=0D - psrld $4,%xmm1=0D - pand %xmm9,%xmm0=0D - movdqa (%r11),%xmm2=0D -.byte 102,15,56,0,208=0D - movdqa 16(%r11),%xmm0=0D -.byte 102,15,56,0,193=0D - pxor %xmm2,%xmm0=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size _vpaes_schedule_transform,.-_vpaes_schedule_transform=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -=0D -.type _vpaes_schedule_mangle,@function=0D -.align 16=0D -_vpaes_schedule_mangle:=0D -.cfi_startproc=0D - movdqa %xmm0,%xmm4=0D - movdqa .Lk_mc_forward(%rip),%xmm5=0D - testq %rcx,%rcx=0D - jnz .Lschedule_mangle_dec=0D -=0D -=0D - addq $16,%rdx=0D - pxor .Lk_s63(%rip),%xmm4=0D -.byte 102,15,56,0,229=0D - movdqa %xmm4,%xmm3=0D -.byte 102,15,56,0,229=0D - pxor %xmm4,%xmm3=0D -.byte 102,15,56,0,229=0D - pxor %xmm4,%xmm3=0D -=0D - jmp .Lschedule_mangle_both=0D -.align 16=0D -.Lschedule_mangle_dec:=0D -=0D - leaq .Lk_dksd(%rip),%r11=0D - movdqa %xmm9,%xmm1=0D - pandn %xmm4,%xmm1=0D - psrld $4,%xmm1=0D - pand %xmm9,%xmm4=0D -=0D - movdqa 0(%r11),%xmm2=0D -.byte 102,15,56,0,212=0D - movdqa 16(%r11),%xmm3=0D -.byte 102,15,56,0,217=0D - pxor %xmm2,%xmm3=0D -.byte 102,15,56,0,221=0D -=0D - movdqa 32(%r11),%xmm2=0D -.byte 102,15,56,0,212=0D - pxor %xmm3,%xmm2=0D - movdqa 48(%r11),%xmm3=0D -.byte 102,15,56,0,217=0D - pxor %xmm2,%xmm3=0D -.byte 102,15,56,0,221=0D -=0D - movdqa 64(%r11),%xmm2=0D -.byte 102,15,56,0,212=0D - pxor %xmm3,%xmm2=0D - movdqa 80(%r11),%xmm3=0D -.byte 102,15,56,0,217=0D - pxor %xmm2,%xmm3=0D -.byte 102,15,56,0,221=0D -=0D - movdqa 96(%r11),%xmm2=0D -.byte 102,15,56,0,212=0D - pxor %xmm3,%xmm2=0D - movdqa 112(%r11),%xmm3=0D -.byte 102,15,56,0,217=0D - pxor %xmm2,%xmm3=0D -=0D - addq $-16,%rdx=0D -=0D -.Lschedule_mangle_both:=0D - movdqa (%r8,%r10,1),%xmm1=0D -.byte 102,15,56,0,217=0D - addq $-16,%r8=0D - andq $0x30,%r8=0D - movdqu %xmm3,(%rdx)=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size _vpaes_schedule_mangle,.-_vpaes_schedule_mangle=0D -=0D -=0D -=0D -=0D -.globl vpaes_set_encrypt_key=0D -.type vpaes_set_encrypt_key,@function=0D -.align 16=0D -vpaes_set_encrypt_key:=0D -.cfi_startproc=0D - movl %esi,%eax=0D - shrl $5,%eax=0D - addl $5,%eax=0D - movl %eax,240(%rdx)=0D -=0D - movl $0,%ecx=0D - movl $0x30,%r8d=0D - call _vpaes_schedule_core=0D - xorl %eax,%eax=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size vpaes_set_encrypt_key,.-vpaes_set_encrypt_key=0D -=0D -.globl vpaes_set_decrypt_key=0D -.type vpaes_set_decrypt_key,@function=0D -.align 16=0D -vpaes_set_decrypt_key:=0D -.cfi_startproc=0D - movl %esi,%eax=0D - shrl $5,%eax=0D - addl $5,%eax=0D - movl %eax,240(%rdx)=0D - shll $4,%eax=0D - leaq 16(%rdx,%rax,1),%rdx=0D -=0D - movl $1,%ecx=0D - movl %esi,%r8d=0D - shrl $1,%r8d=0D - andl $32,%r8d=0D - xorl $32,%r8d=0D - call _vpaes_schedule_core=0D - xorl %eax,%eax=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size vpaes_set_decrypt_key,.-vpaes_set_decrypt_key=0D -=0D -.globl vpaes_encrypt=0D -.type vpaes_encrypt,@function=0D -.align 16=0D -vpaes_encrypt:=0D -.cfi_startproc=0D - movdqu (%rdi),%xmm0=0D - call _vpaes_preheat=0D - call _vpaes_encrypt_core=0D - movdqu %xmm0,(%rsi)=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size vpaes_encrypt,.-vpaes_encrypt=0D -=0D -.globl vpaes_decrypt=0D -.type vpaes_decrypt,@function=0D -.align 16=0D -vpaes_decrypt:=0D -.cfi_startproc=0D - movdqu (%rdi),%xmm0=0D - call _vpaes_preheat=0D - call _vpaes_decrypt_core=0D - movdqu %xmm0,(%rsi)=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size vpaes_decrypt,.-vpaes_decrypt=0D -.globl vpaes_cbc_encrypt=0D -.type vpaes_cbc_encrypt,@function=0D -.align 16=0D -vpaes_cbc_encrypt:=0D -.cfi_startproc=0D - xchgq %rcx,%rdx=0D - subq $16,%rcx=0D - jc .Lcbc_abort=0D - movdqu (%r8),%xmm6=0D - subq %rdi,%rsi=0D - call _vpaes_preheat=0D - cmpl $0,%r9d=0D - je .Lcbc_dec_loop=0D - jmp .Lcbc_enc_loop=0D -.align 16=0D -.Lcbc_enc_loop:=0D - movdqu (%rdi),%xmm0=0D - pxor %xmm6,%xmm0=0D - call _vpaes_encrypt_core=0D - movdqa %xmm0,%xmm6=0D - movdqu %xmm0,(%rsi,%rdi,1)=0D - leaq 16(%rdi),%rdi=0D - subq $16,%rcx=0D - jnc .Lcbc_enc_loop=0D - jmp .Lcbc_done=0D -.align 16=0D -.Lcbc_dec_loop:=0D - movdqu (%rdi),%xmm0=0D - movdqa %xmm0,%xmm7=0D - call _vpaes_decrypt_core=0D - pxor %xmm6,%xmm0=0D - movdqa %xmm7,%xmm6=0D - movdqu %xmm0,(%rsi,%rdi,1)=0D - leaq 16(%rdi),%rdi=0D - subq $16,%rcx=0D - jnc .Lcbc_dec_loop=0D -.Lcbc_done:=0D - movdqu %xmm6,(%r8)=0D -.Lcbc_abort:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size vpaes_cbc_encrypt,.-vpaes_cbc_encrypt=0D -=0D -=0D -=0D -=0D -=0D -=0D -.type _vpaes_preheat,@function=0D -.align 16=0D -_vpaes_preheat:=0D -.cfi_startproc=0D - leaq .Lk_s0F(%rip),%r10=0D - movdqa -32(%r10),%xmm10=0D - movdqa -16(%r10),%xmm11=0D - movdqa 0(%r10),%xmm9=0D - movdqa 48(%r10),%xmm13=0D - movdqa 64(%r10),%xmm12=0D - movdqa 80(%r10),%xmm15=0D - movdqa 96(%r10),%xmm14=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size _vpaes_preheat,.-_vpaes_preheat=0D -=0D -=0D -=0D -=0D -=0D -.type _vpaes_consts,@object=0D -.align 64=0D -_vpaes_consts:=0D -.Lk_inv:=0D -.quad 0x0E05060F0D080180, 0x040703090A0B0C02=0D -.quad 0x01040A060F0B0780, 0x030D0E0C02050809=0D -=0D -.Lk_s0F:=0D -.quad 0x0F0F0F0F0F0F0F0F, 0x0F0F0F0F0F0F0F0F=0D -=0D -.Lk_ipt:=0D -.quad 0xC2B2E8985A2A7000, 0xCABAE09052227808=0D -.quad 0x4C01307D317C4D00, 0xCD80B1FCB0FDCC81=0D -=0D -.Lk_sb1:=0D -.quad 0xB19BE18FCB503E00, 0xA5DF7A6E142AF544=0D -.quad 0x3618D415FAE22300, 0x3BF7CCC10D2ED9EF=0D -.Lk_sb2:=0D -.quad 0xE27A93C60B712400, 0x5EB7E955BC982FCD=0D -.quad 0x69EB88400AE12900, 0xC2A163C8AB82234A=0D -.Lk_sbo:=0D -.quad 0xD0D26D176FBDC700, 0x15AABF7AC502A878=0D -.quad 0xCFE474A55FBB6A00, 0x8E1E90D1412B35FA=0D -=0D -.Lk_mc_forward:=0D -.quad 0x0407060500030201, 0x0C0F0E0D080B0A09=0D -.quad 0x080B0A0904070605, 0x000302010C0F0E0D=0D -.quad 0x0C0F0E0D080B0A09, 0x0407060500030201=0D -.quad 0x000302010C0F0E0D, 0x080B0A0904070605=0D -=0D -.Lk_mc_backward:=0D -.quad 0x0605040702010003, 0x0E0D0C0F0A09080B=0D -.quad 0x020100030E0D0C0F, 0x0A09080B06050407=0D -.quad 0x0E0D0C0F0A09080B, 0x0605040702010003=0D -.quad 0x0A09080B06050407, 0x020100030E0D0C0F=0D -=0D -.Lk_sr:=0D -.quad 0x0706050403020100, 0x0F0E0D0C0B0A0908=0D -.quad 0x030E09040F0A0500, 0x0B06010C07020D08=0D -.quad 0x0F060D040B020900, 0x070E050C030A0108=0D -.quad 0x0B0E0104070A0D00, 0x0306090C0F020508=0D -=0D -.Lk_rcon:=0D -.quad 0x1F8391B9AF9DEEB6, 0x702A98084D7C7D81=0D -=0D -.Lk_s63:=0D -.quad 0x5B5B5B5B5B5B5B5B, 0x5B5B5B5B5B5B5B5B=0D -=0D -.Lk_opt:=0D -.quad 0xFF9F4929D6B66000, 0xF7974121DEBE6808=0D -.quad 0x01EDBD5150BCEC00, 0xE10D5DB1B05C0CE0=0D -=0D -.Lk_deskew:=0D -.quad 0x07E4A34047A4E300, 0x1DFEB95A5DBEF91A=0D -.quad 0x5F36B5DC83EA6900, 0x2841C2ABF49D1E77=0D -=0D -=0D -=0D -=0D -=0D -.Lk_dksd:=0D -.quad 0xFEB91A5DA3E44700, 0x0740E3A45A1DBEF9=0D -.quad 0x41C277F4B5368300, 0x5FDC69EAAB289D1E=0D -.Lk_dksb:=0D -.quad 0x9A4FCA1F8550D500, 0x03D653861CC94C99=0D -.quad 0x115BEDA7B6FC4A00, 0xD993256F7E3482C8=0D -.Lk_dkse:=0D -.quad 0xD5031CCA1FC9D600, 0x53859A4C994F5086=0D -.quad 0xA23196054FDC7BE8, 0xCD5EF96A20B31487=0D -.Lk_dks9:=0D -.quad 0xB6116FC87ED9A700, 0x4AED933482255BFC=0D -.quad 0x4576516227143300, 0x8BB89FACE9DAFDCE=0D -=0D -=0D -=0D -=0D -=0D -.Lk_dipt:=0D -.quad 0x0F505B040B545F00, 0x154A411E114E451A=0D -.quad 0x86E383E660056500, 0x12771772F491F194=0D -=0D -.Lk_dsb9:=0D -.quad 0x851C03539A86D600, 0xCAD51F504F994CC9=0D -.quad 0xC03B1789ECD74900, 0x725E2C9EB2FBA565=0D -.Lk_dsbd:=0D -.quad 0x7D57CCDFE6B1A200, 0xF56E9B13882A4439=0D -.quad 0x3CE2FAF724C6CB00, 0x2931180D15DEEFD3=0D -.Lk_dsbb:=0D -.quad 0xD022649296B44200, 0x602646F6B0F2D404=0D -.quad 0xC19498A6CD596700, 0xF3FF0C3E3255AA6B=0D -.Lk_dsbe:=0D -.quad 0x46F2929626D4D000, 0x2242600464B4F6B0=0D -.quad 0x0C55A6CDFFAAC100, 0x9467F36B98593E32=0D -.Lk_dsbo:=0D -.quad 0x1387EA537EF94000, 0xC7AA6DB9D4943E2D=0D -.quad 0x12D7560F93441D00, 0xCA4B8159D8C58E9C=0D -.byte 86,101,99,116,111,114,32,80,101,114,109,117,116,97,116,105,111,110= ,32,65,69,83,32,102,111,114,32,120,56,54,95,54,52,47,83,83,83,69,51,44,32,7= 7,105,107,101,32,72,97,109,98,117,114,103,32,40,83,116,97,110,102,111,114,1= 00,32,85,110,105,118,101,114,115,105,116,121,41,0=0D -.align 64=0D -.size _vpaes_consts,.-_vpaes_consts=0D diff --git a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/modes/aesni-gcm-x86= _64.S b/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/modes/aesni-gcm-x86_64.S deleted file mode 100644 index 1201f3427a..0000000000 --- a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/modes/aesni-gcm-x86_64.S +++ /dev/null @@ -1,29 +0,0 @@ -# WARNING: do not edit!=0D -# Generated from openssl/crypto/modes/asm/aesni-gcm-x86_64.pl=0D -#=0D -# Copyright 2013-2020 The OpenSSL Project Authors. All Rights Reserved.=0D -#=0D -# Licensed under the OpenSSL license (the "License"). You may not use=0D -# this file except in compliance with the License. You can obtain a copy= =0D -# in the file LICENSE in the source distribution or at=0D -# https://www.openssl.org/source/license.html=0D -=0D -.text=0D -=0D -.globl aesni_gcm_encrypt=0D -.type aesni_gcm_encrypt,@function=0D -aesni_gcm_encrypt:=0D -.cfi_startproc=0D - xorl %eax,%eax=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size aesni_gcm_encrypt,.-aesni_gcm_encrypt=0D -=0D -.globl aesni_gcm_decrypt=0D -.type aesni_gcm_decrypt,@function=0D -aesni_gcm_decrypt:=0D -.cfi_startproc=0D - xorl %eax,%eax=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size aesni_gcm_decrypt,.-aesni_gcm_decrypt=0D diff --git a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/modes/ghash-x86_64.= S b/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/modes/ghash-x86_64.S deleted file mode 100644 index 3fcaa4b2ef..0000000000 --- a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/modes/ghash-x86_64.S +++ /dev/null @@ -1,1386 +0,0 @@ -# WARNING: do not edit!=0D -# Generated from openssl/crypto/modes/asm/ghash-x86_64.pl=0D -#=0D -# Copyright 2010-2020 The OpenSSL Project Authors. All Rights Reserved.=0D -#=0D -# Licensed under the OpenSSL license (the "License"). You may not use=0D -# this file except in compliance with the License. You can obtain a copy= =0D -# in the file LICENSE in the source distribution or at=0D -# https://www.openssl.org/source/license.html=0D -=0D -.text=0D -=0D -=0D -.globl gcm_gmult_4bit=0D -.type gcm_gmult_4bit,@function=0D -.align 16=0D -gcm_gmult_4bit:=0D -.cfi_startproc=0D - pushq %rbx=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %rbx,-16=0D - pushq %rbp=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %rbp,-24=0D - pushq %r12=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %r12,-32=0D - pushq %r13=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %r13,-40=0D - pushq %r14=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %r14,-48=0D - pushq %r15=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %r15,-56=0D - subq $280,%rsp=0D -.cfi_adjust_cfa_offset 280=0D -.Lgmult_prologue:=0D -=0D - movzbq 15(%rdi),%r8=0D - leaq .Lrem_4bit(%rip),%r11=0D - xorq %rax,%rax=0D - xorq %rbx,%rbx=0D - movb %r8b,%al=0D - movb %r8b,%bl=0D - shlb $4,%al=0D - movq $14,%rcx=0D - movq 8(%rsi,%rax,1),%r8=0D - movq (%rsi,%rax,1),%r9=0D - andb $0xf0,%bl=0D - movq %r8,%rdx=0D - jmp .Loop1=0D -=0D -.align 16=0D -.Loop1:=0D - shrq $4,%r8=0D - andq $0xf,%rdx=0D - movq %r9,%r10=0D - movb (%rdi,%rcx,1),%al=0D - shrq $4,%r9=0D - xorq 8(%rsi,%rbx,1),%r8=0D - shlq $60,%r10=0D - xorq (%rsi,%rbx,1),%r9=0D - movb %al,%bl=0D - xorq (%r11,%rdx,8),%r9=0D - movq %r8,%rdx=0D - shlb $4,%al=0D - xorq %r10,%r8=0D - decq %rcx=0D - js .Lbreak1=0D -=0D - shrq $4,%r8=0D - andq $0xf,%rdx=0D - movq %r9,%r10=0D - shrq $4,%r9=0D - xorq 8(%rsi,%rax,1),%r8=0D - shlq $60,%r10=0D - xorq (%rsi,%rax,1),%r9=0D - andb $0xf0,%bl=0D - xorq (%r11,%rdx,8),%r9=0D - movq %r8,%rdx=0D - xorq %r10,%r8=0D - jmp .Loop1=0D -=0D -.align 16=0D -.Lbreak1:=0D - shrq $4,%r8=0D - andq $0xf,%rdx=0D - movq %r9,%r10=0D - shrq $4,%r9=0D - xorq 8(%rsi,%rax,1),%r8=0D - shlq $60,%r10=0D - xorq (%rsi,%rax,1),%r9=0D - andb $0xf0,%bl=0D - xorq (%r11,%rdx,8),%r9=0D - movq %r8,%rdx=0D - xorq %r10,%r8=0D -=0D - shrq $4,%r8=0D - andq $0xf,%rdx=0D - movq %r9,%r10=0D - shrq $4,%r9=0D - xorq 8(%rsi,%rbx,1),%r8=0D - shlq $60,%r10=0D - xorq (%rsi,%rbx,1),%r9=0D - xorq %r10,%r8=0D - xorq (%r11,%rdx,8),%r9=0D -=0D - bswapq %r8=0D - bswapq %r9=0D - movq %r8,8(%rdi)=0D - movq %r9,(%rdi)=0D -=0D - leaq 280+48(%rsp),%rsi=0D -.cfi_def_cfa %rsi,8=0D - movq -8(%rsi),%rbx=0D -.cfi_restore %rbx=0D - leaq (%rsi),%rsp=0D -.cfi_def_cfa_register %rsp=0D -.Lgmult_epilogue:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size gcm_gmult_4bit,.-gcm_gmult_4bit=0D -.globl gcm_ghash_4bit=0D -.type gcm_ghash_4bit,@function=0D -.align 16=0D -gcm_ghash_4bit:=0D -.cfi_startproc=0D - pushq %rbx=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %rbx,-16=0D - pushq %rbp=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %rbp,-24=0D - pushq %r12=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %r12,-32=0D - pushq %r13=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %r13,-40=0D - pushq %r14=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %r14,-48=0D - pushq %r15=0D -.cfi_adjust_cfa_offset 8=0D -.cfi_offset %r15,-56=0D - subq $280,%rsp=0D -.cfi_adjust_cfa_offset 280=0D -.Lghash_prologue:=0D - movq %rdx,%r14=0D - movq %rcx,%r15=0D - subq $-128,%rsi=0D - leaq 16+128(%rsp),%rbp=0D - xorl %edx,%edx=0D - movq 0+0-128(%rsi),%r8=0D - movq 0+8-128(%rsi),%rax=0D - movb %al,%dl=0D - shrq $4,%rax=0D - movq %r8,%r10=0D - shrq $4,%r8=0D - movq 16+0-128(%rsi),%r9=0D - shlb $4,%dl=0D - movq 16+8-128(%rsi),%rbx=0D - shlq $60,%r10=0D - movb %dl,0(%rsp)=0D - orq %r10,%rax=0D - movb %bl,%dl=0D - shrq $4,%rbx=0D - movq %r9,%r10=0D - shrq $4,%r9=0D - movq %r8,0(%rbp)=0D - movq 32+0-128(%rsi),%r8=0D - shlb $4,%dl=0D - movq %rax,0-128(%rbp)=0D - movq 32+8-128(%rsi),%rax=0D - shlq $60,%r10=0D - movb %dl,1(%rsp)=0D - orq %r10,%rbx=0D - movb %al,%dl=0D - shrq $4,%rax=0D - movq %r8,%r10=0D - shrq $4,%r8=0D - movq %r9,8(%rbp)=0D - movq 48+0-128(%rsi),%r9=0D - shlb $4,%dl=0D - movq %rbx,8-128(%rbp)=0D - movq 48+8-128(%rsi),%rbx=0D - shlq $60,%r10=0D - movb %dl,2(%rsp)=0D - orq %r10,%rax=0D - movb %bl,%dl=0D - shrq $4,%rbx=0D - movq %r9,%r10=0D - shrq $4,%r9=0D - movq %r8,16(%rbp)=0D - movq 64+0-128(%rsi),%r8=0D - shlb $4,%dl=0D - movq %rax,16-128(%rbp)=0D - movq 64+8-128(%rsi),%rax=0D - shlq $60,%r10=0D - movb %dl,3(%rsp)=0D - orq %r10,%rbx=0D - movb %al,%dl=0D - shrq $4,%rax=0D - movq %r8,%r10=0D - shrq $4,%r8=0D - movq %r9,24(%rbp)=0D - movq 80+0-128(%rsi),%r9=0D - shlb $4,%dl=0D - movq %rbx,24-128(%rbp)=0D - movq 80+8-128(%rsi),%rbx=0D - shlq $60,%r10=0D - movb %dl,4(%rsp)=0D - orq %r10,%rax=0D - movb %bl,%dl=0D - shrq $4,%rbx=0D - movq %r9,%r10=0D - shrq $4,%r9=0D - movq %r8,32(%rbp)=0D - movq 96+0-128(%rsi),%r8=0D - shlb $4,%dl=0D - movq %rax,32-128(%rbp)=0D - movq 96+8-128(%rsi),%rax=0D - shlq $60,%r10=0D - movb %dl,5(%rsp)=0D - orq %r10,%rbx=0D - movb %al,%dl=0D - shrq $4,%rax=0D - movq %r8,%r10=0D - shrq $4,%r8=0D - movq %r9,40(%rbp)=0D - movq 112+0-128(%rsi),%r9=0D - shlb $4,%dl=0D - movq %rbx,40-128(%rbp)=0D - movq 112+8-128(%rsi),%rbx=0D - shlq $60,%r10=0D - movb %dl,6(%rsp)=0D - orq %r10,%rax=0D - movb %bl,%dl=0D - shrq $4,%rbx=0D - movq %r9,%r10=0D - shrq $4,%r9=0D - movq %r8,48(%rbp)=0D - movq 128+0-128(%rsi),%r8=0D - shlb $4,%dl=0D - movq %rax,48-128(%rbp)=0D - movq 128+8-128(%rsi),%rax=0D - shlq $60,%r10=0D - movb %dl,7(%rsp)=0D - orq %r10,%rbx=0D - movb %al,%dl=0D - shrq $4,%rax=0D - movq %r8,%r10=0D - shrq $4,%r8=0D - movq %r9,56(%rbp)=0D - movq 144+0-128(%rsi),%r9=0D - shlb $4,%dl=0D - movq %rbx,56-128(%rbp)=0D - movq 144+8-128(%rsi),%rbx=0D - shlq $60,%r10=0D - movb %dl,8(%rsp)=0D - orq %r10,%rax=0D - movb %bl,%dl=0D - shrq $4,%rbx=0D - movq %r9,%r10=0D - shrq $4,%r9=0D - movq %r8,64(%rbp)=0D - movq 160+0-128(%rsi),%r8=0D - shlb $4,%dl=0D - movq %rax,64-128(%rbp)=0D - movq 160+8-128(%rsi),%rax=0D - shlq $60,%r10=0D - movb %dl,9(%rsp)=0D - orq %r10,%rbx=0D - movb %al,%dl=0D - shrq $4,%rax=0D - movq %r8,%r10=0D - shrq $4,%r8=0D - movq %r9,72(%rbp)=0D - movq 176+0-128(%rsi),%r9=0D - shlb $4,%dl=0D - movq %rbx,72-128(%rbp)=0D - movq 176+8-128(%rsi),%rbx=0D - shlq $60,%r10=0D - movb %dl,10(%rsp)=0D - orq %r10,%rax=0D - movb %bl,%dl=0D - shrq $4,%rbx=0D - movq %r9,%r10=0D - shrq $4,%r9=0D - movq %r8,80(%rbp)=0D - movq 192+0-128(%rsi),%r8=0D - shlb $4,%dl=0D - movq %rax,80-128(%rbp)=0D - movq 192+8-128(%rsi),%rax=0D - shlq $60,%r10=0D - movb %dl,11(%rsp)=0D - orq %r10,%rbx=0D - movb %al,%dl=0D - shrq $4,%rax=0D - movq %r8,%r10=0D - shrq $4,%r8=0D - movq %r9,88(%rbp)=0D - movq 208+0-128(%rsi),%r9=0D - shlb $4,%dl=0D - movq %rbx,88-128(%rbp)=0D - movq 208+8-128(%rsi),%rbx=0D - shlq $60,%r10=0D - movb %dl,12(%rsp)=0D - orq %r10,%rax=0D - movb %bl,%dl=0D - shrq $4,%rbx=0D - movq %r9,%r10=0D - shrq $4,%r9=0D - movq %r8,96(%rbp)=0D - movq 224+0-128(%rsi),%r8=0D - shlb $4,%dl=0D - movq %rax,96-128(%rbp)=0D - movq 224+8-128(%rsi),%rax=0D - shlq $60,%r10=0D - movb %dl,13(%rsp)=0D - orq %r10,%rbx=0D - movb %al,%dl=0D - shrq $4,%rax=0D - movq %r8,%r10=0D - shrq $4,%r8=0D - movq %r9,104(%rbp)=0D - movq 240+0-128(%rsi),%r9=0D - shlb $4,%dl=0D - movq %rbx,104-128(%rbp)=0D - movq 240+8-128(%rsi),%rbx=0D - shlq $60,%r10=0D - movb %dl,14(%rsp)=0D - orq %r10,%rax=0D - movb %bl,%dl=0D - shrq $4,%rbx=0D - movq %r9,%r10=0D - shrq $4,%r9=0D - movq %r8,112(%rbp)=0D - shlb $4,%dl=0D - movq %rax,112-128(%rbp)=0D - shlq $60,%r10=0D - movb %dl,15(%rsp)=0D - orq %r10,%rbx=0D - movq %r9,120(%rbp)=0D - movq %rbx,120-128(%rbp)=0D - addq $-128,%rsi=0D - movq 8(%rdi),%r8=0D - movq 0(%rdi),%r9=0D - addq %r14,%r15=0D - leaq .Lrem_8bit(%rip),%r11=0D - jmp .Louter_loop=0D -.align 16=0D -.Louter_loop:=0D - xorq (%r14),%r9=0D - movq 8(%r14),%rdx=0D - leaq 16(%r14),%r14=0D - xorq %r8,%rdx=0D - movq %r9,(%rdi)=0D - movq %rdx,8(%rdi)=0D - shrq $32,%rdx=0D - xorq %rax,%rax=0D - roll $8,%edx=0D - movb %dl,%al=0D - movzbl %dl,%ebx=0D - shlb $4,%al=0D - shrl $4,%ebx=0D - roll $8,%edx=0D - movq 8(%rsi,%rax,1),%r8=0D - movq (%rsi,%rax,1),%r9=0D - movb %dl,%al=0D - movzbl %dl,%ecx=0D - shlb $4,%al=0D - movzbq (%rsp,%rbx,1),%r12=0D - shrl $4,%ecx=0D - xorq %r8,%r12=0D - movq %r9,%r10=0D - shrq $8,%r8=0D - movzbq %r12b,%r12=0D - shrq $8,%r9=0D - xorq -128(%rbp,%rbx,8),%r8=0D - shlq $56,%r10=0D - xorq (%rbp,%rbx,8),%r9=0D - roll $8,%edx=0D - xorq 8(%rsi,%rax,1),%r8=0D - xorq (%rsi,%rax,1),%r9=0D - movb %dl,%al=0D - xorq %r10,%r8=0D - movzwq (%r11,%r12,2),%r12=0D - movzbl %dl,%ebx=0D - shlb $4,%al=0D - movzbq (%rsp,%rcx,1),%r13=0D - shrl $4,%ebx=0D - shlq $48,%r12=0D - xorq %r8,%r13=0D - movq %r9,%r10=0D - xorq %r12,%r9=0D - shrq $8,%r8=0D - movzbq %r13b,%r13=0D - shrq $8,%r9=0D - xorq -128(%rbp,%rcx,8),%r8=0D - shlq $56,%r10=0D - xorq (%rbp,%rcx,8),%r9=0D - roll $8,%edx=0D - xorq 8(%rsi,%rax,1),%r8=0D - xorq (%rsi,%rax,1),%r9=0D - movb %dl,%al=0D - xorq %r10,%r8=0D - movzwq (%r11,%r13,2),%r13=0D - movzbl %dl,%ecx=0D - shlb $4,%al=0D - movzbq (%rsp,%rbx,1),%r12=0D - shrl $4,%ecx=0D - shlq $48,%r13=0D - xorq %r8,%r12=0D - movq %r9,%r10=0D - xorq %r13,%r9=0D - shrq $8,%r8=0D - movzbq %r12b,%r12=0D - movl 8(%rdi),%edx=0D - shrq $8,%r9=0D - xorq -128(%rbp,%rbx,8),%r8=0D - shlq $56,%r10=0D - xorq (%rbp,%rbx,8),%r9=0D - roll $8,%edx=0D - xorq 8(%rsi,%rax,1),%r8=0D - xorq (%rsi,%rax,1),%r9=0D - movb %dl,%al=0D - xorq %r10,%r8=0D - movzwq (%r11,%r12,2),%r12=0D - movzbl %dl,%ebx=0D - shlb $4,%al=0D - movzbq (%rsp,%rcx,1),%r13=0D - shrl $4,%ebx=0D - shlq $48,%r12=0D - xorq %r8,%r13=0D - movq %r9,%r10=0D - xorq %r12,%r9=0D - shrq $8,%r8=0D - movzbq %r13b,%r13=0D - shrq $8,%r9=0D - xorq -128(%rbp,%rcx,8),%r8=0D - shlq $56,%r10=0D - xorq (%rbp,%rcx,8),%r9=0D - roll $8,%edx=0D - xorq 8(%rsi,%rax,1),%r8=0D - xorq (%rsi,%rax,1),%r9=0D - movb %dl,%al=0D - xorq %r10,%r8=0D - movzwq (%r11,%r13,2),%r13=0D - movzbl %dl,%ecx=0D - shlb $4,%al=0D - movzbq (%rsp,%rbx,1),%r12=0D - shrl $4,%ecx=0D - shlq $48,%r13=0D - xorq %r8,%r12=0D - movq %r9,%r10=0D - xorq %r13,%r9=0D - shrq $8,%r8=0D - movzbq %r12b,%r12=0D - shrq $8,%r9=0D - xorq -128(%rbp,%rbx,8),%r8=0D - shlq $56,%r10=0D - xorq (%rbp,%rbx,8),%r9=0D - roll $8,%edx=0D - xorq 8(%rsi,%rax,1),%r8=0D - xorq (%rsi,%rax,1),%r9=0D - movb %dl,%al=0D - xorq %r10,%r8=0D - movzwq (%r11,%r12,2),%r12=0D - movzbl %dl,%ebx=0D - shlb $4,%al=0D - movzbq (%rsp,%rcx,1),%r13=0D - shrl $4,%ebx=0D - shlq $48,%r12=0D - xorq %r8,%r13=0D - movq %r9,%r10=0D - xorq %r12,%r9=0D - shrq $8,%r8=0D - movzbq %r13b,%r13=0D - shrq $8,%r9=0D - xorq -128(%rbp,%rcx,8),%r8=0D - shlq $56,%r10=0D - xorq (%rbp,%rcx,8),%r9=0D - roll $8,%edx=0D - xorq 8(%rsi,%rax,1),%r8=0D - xorq (%rsi,%rax,1),%r9=0D - movb %dl,%al=0D - xorq %r10,%r8=0D - movzwq (%r11,%r13,2),%r13=0D - movzbl %dl,%ecx=0D - shlb $4,%al=0D - movzbq (%rsp,%rbx,1),%r12=0D - shrl $4,%ecx=0D - shlq $48,%r13=0D - xorq %r8,%r12=0D - movq %r9,%r10=0D - xorq %r13,%r9=0D - shrq $8,%r8=0D - movzbq %r12b,%r12=0D - movl 4(%rdi),%edx=0D - shrq $8,%r9=0D - xorq -128(%rbp,%rbx,8),%r8=0D - shlq $56,%r10=0D - xorq (%rbp,%rbx,8),%r9=0D - roll $8,%edx=0D - xorq 8(%rsi,%rax,1),%r8=0D - xorq (%rsi,%rax,1),%r9=0D - movb %dl,%al=0D - xorq %r10,%r8=0D - movzwq (%r11,%r12,2),%r12=0D - movzbl %dl,%ebx=0D - shlb $4,%al=0D - movzbq (%rsp,%rcx,1),%r13=0D - shrl $4,%ebx=0D - shlq $48,%r12=0D - xorq %r8,%r13=0D - movq %r9,%r10=0D - xorq %r12,%r9=0D - shrq $8,%r8=0D - movzbq %r13b,%r13=0D - shrq $8,%r9=0D - xorq -128(%rbp,%rcx,8),%r8=0D - shlq $56,%r10=0D - xorq (%rbp,%rcx,8),%r9=0D - roll $8,%edx=0D - xorq 8(%rsi,%rax,1),%r8=0D - xorq (%rsi,%rax,1),%r9=0D - movb %dl,%al=0D - xorq %r10,%r8=0D - movzwq (%r11,%r13,2),%r13=0D - movzbl %dl,%ecx=0D - shlb $4,%al=0D - movzbq (%rsp,%rbx,1),%r12=0D - shrl $4,%ecx=0D - shlq $48,%r13=0D - xorq %r8,%r12=0D - movq %r9,%r10=0D - xorq %r13,%r9=0D - shrq $8,%r8=0D - movzbq %r12b,%r12=0D - shrq $8,%r9=0D - xorq -128(%rbp,%rbx,8),%r8=0D - shlq $56,%r10=0D - xorq (%rbp,%rbx,8),%r9=0D - roll $8,%edx=0D - xorq 8(%rsi,%rax,1),%r8=0D - xorq (%rsi,%rax,1),%r9=0D - movb %dl,%al=0D - xorq %r10,%r8=0D - movzwq (%r11,%r12,2),%r12=0D - movzbl %dl,%ebx=0D - shlb $4,%al=0D - movzbq (%rsp,%rcx,1),%r13=0D - shrl $4,%ebx=0D - shlq $48,%r12=0D - xorq %r8,%r13=0D - movq %r9,%r10=0D - xorq %r12,%r9=0D - shrq $8,%r8=0D - movzbq %r13b,%r13=0D - shrq $8,%r9=0D - xorq -128(%rbp,%rcx,8),%r8=0D - shlq $56,%r10=0D - xorq (%rbp,%rcx,8),%r9=0D - roll $8,%edx=0D - xorq 8(%rsi,%rax,1),%r8=0D - xorq (%rsi,%rax,1),%r9=0D - movb %dl,%al=0D - xorq %r10,%r8=0D - movzwq (%r11,%r13,2),%r13=0D - movzbl %dl,%ecx=0D - shlb $4,%al=0D - movzbq (%rsp,%rbx,1),%r12=0D - shrl $4,%ecx=0D - shlq $48,%r13=0D - xorq %r8,%r12=0D - movq %r9,%r10=0D - xorq %r13,%r9=0D - shrq $8,%r8=0D - movzbq %r12b,%r12=0D - movl 0(%rdi),%edx=0D - shrq $8,%r9=0D - xorq -128(%rbp,%rbx,8),%r8=0D - shlq $56,%r10=0D - xorq (%rbp,%rbx,8),%r9=0D - roll $8,%edx=0D - xorq 8(%rsi,%rax,1),%r8=0D - xorq (%rsi,%rax,1),%r9=0D - movb %dl,%al=0D - xorq %r10,%r8=0D - movzwq (%r11,%r12,2),%r12=0D - movzbl %dl,%ebx=0D - shlb $4,%al=0D - movzbq (%rsp,%rcx,1),%r13=0D - shrl $4,%ebx=0D - shlq $48,%r12=0D - xorq %r8,%r13=0D - movq %r9,%r10=0D - xorq %r12,%r9=0D - shrq $8,%r8=0D - movzbq %r13b,%r13=0D - shrq $8,%r9=0D - xorq -128(%rbp,%rcx,8),%r8=0D - shlq $56,%r10=0D - xorq (%rbp,%rcx,8),%r9=0D - roll $8,%edx=0D - xorq 8(%rsi,%rax,1),%r8=0D - xorq (%rsi,%rax,1),%r9=0D - movb %dl,%al=0D - xorq %r10,%r8=0D - movzwq (%r11,%r13,2),%r13=0D - movzbl %dl,%ecx=0D - shlb $4,%al=0D - movzbq (%rsp,%rbx,1),%r12=0D - shrl $4,%ecx=0D - shlq $48,%r13=0D - xorq %r8,%r12=0D - movq %r9,%r10=0D - xorq %r13,%r9=0D - shrq $8,%r8=0D - movzbq %r12b,%r12=0D - shrq $8,%r9=0D - xorq -128(%rbp,%rbx,8),%r8=0D - shlq $56,%r10=0D - xorq (%rbp,%rbx,8),%r9=0D - roll $8,%edx=0D - xorq 8(%rsi,%rax,1),%r8=0D - xorq (%rsi,%rax,1),%r9=0D - movb %dl,%al=0D - xorq %r10,%r8=0D - movzwq (%r11,%r12,2),%r12=0D - movzbl %dl,%ebx=0D - shlb $4,%al=0D - movzbq (%rsp,%rcx,1),%r13=0D - shrl $4,%ebx=0D - shlq $48,%r12=0D - xorq %r8,%r13=0D - movq %r9,%r10=0D - xorq %r12,%r9=0D - shrq $8,%r8=0D - movzbq %r13b,%r13=0D - shrq $8,%r9=0D - xorq -128(%rbp,%rcx,8),%r8=0D - shlq $56,%r10=0D - xorq (%rbp,%rcx,8),%r9=0D - roll $8,%edx=0D - xorq 8(%rsi,%rax,1),%r8=0D - xorq (%rsi,%rax,1),%r9=0D - movb %dl,%al=0D - xorq %r10,%r8=0D - movzwq (%r11,%r13,2),%r13=0D - movzbl %dl,%ecx=0D - shlb $4,%al=0D - movzbq (%rsp,%rbx,1),%r12=0D - andl $240,%ecx=0D - shlq $48,%r13=0D - xorq %r8,%r12=0D - movq %r9,%r10=0D - xorq %r13,%r9=0D - shrq $8,%r8=0D - movzbq %r12b,%r12=0D - movl -4(%rdi),%edx=0D - shrq $8,%r9=0D - xorq -128(%rbp,%rbx,8),%r8=0D - shlq $56,%r10=0D - xorq (%rbp,%rbx,8),%r9=0D - movzwq (%r11,%r12,2),%r12=0D - xorq 8(%rsi,%rax,1),%r8=0D - xorq (%rsi,%rax,1),%r9=0D - shlq $48,%r12=0D - xorq %r10,%r8=0D - xorq %r12,%r9=0D - movzbq %r8b,%r13=0D - shrq $4,%r8=0D - movq %r9,%r10=0D - shlb $4,%r13b=0D - shrq $4,%r9=0D - xorq 8(%rsi,%rcx,1),%r8=0D - movzwq (%r11,%r13,2),%r13=0D - shlq $60,%r10=0D - xorq (%rsi,%rcx,1),%r9=0D - xorq %r10,%r8=0D - shlq $48,%r13=0D - bswapq %r8=0D - xorq %r13,%r9=0D - bswapq %r9=0D - cmpq %r15,%r14=0D - jb .Louter_loop=0D - movq %r8,8(%rdi)=0D - movq %r9,(%rdi)=0D -=0D - leaq 280+48(%rsp),%rsi=0D -.cfi_def_cfa %rsi,8=0D - movq -48(%rsi),%r15=0D -.cfi_restore %r15=0D - movq -40(%rsi),%r14=0D -.cfi_restore %r14=0D - movq -32(%rsi),%r13=0D -.cfi_restore %r13=0D - movq -24(%rsi),%r12=0D -.cfi_restore %r12=0D - movq -16(%rsi),%rbp=0D -.cfi_restore %rbp=0D - movq -8(%rsi),%rbx=0D -.cfi_restore %rbx=0D - leaq 0(%rsi),%rsp=0D -.cfi_def_cfa_register %rsp=0D -.Lghash_epilogue:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size gcm_ghash_4bit,.-gcm_ghash_4bit=0D -.globl gcm_init_clmul=0D -.type gcm_init_clmul,@function=0D -.align 16=0D -gcm_init_clmul:=0D -.cfi_startproc=0D -.L_init_clmul:=0D - movdqu (%rsi),%xmm2=0D - pshufd $78,%xmm2,%xmm2=0D -=0D -=0D - pshufd $255,%xmm2,%xmm4=0D - movdqa %xmm2,%xmm3=0D - psllq $1,%xmm2=0D - pxor %xmm5,%xmm5=0D - psrlq $63,%xmm3=0D - pcmpgtd %xmm4,%xmm5=0D - pslldq $8,%xmm3=0D - por %xmm3,%xmm2=0D -=0D -=0D - pand .L0x1c2_polynomial(%rip),%xmm5=0D - pxor %xmm5,%xmm2=0D -=0D -=0D - pshufd $78,%xmm2,%xmm6=0D - movdqa %xmm2,%xmm0=0D - pxor %xmm2,%xmm6=0D - movdqa %xmm0,%xmm1=0D - pshufd $78,%xmm0,%xmm3=0D - pxor %xmm0,%xmm3=0D -.byte 102,15,58,68,194,0=0D -.byte 102,15,58,68,202,17=0D -.byte 102,15,58,68,222,0=0D - pxor %xmm0,%xmm3=0D - pxor %xmm1,%xmm3=0D -=0D - movdqa %xmm3,%xmm4=0D - psrldq $8,%xmm3=0D - pslldq $8,%xmm4=0D - pxor %xmm3,%xmm1=0D - pxor %xmm4,%xmm0=0D -=0D - movdqa %xmm0,%xmm4=0D - movdqa %xmm0,%xmm3=0D - psllq $5,%xmm0=0D - pxor %xmm0,%xmm3=0D - psllq $1,%xmm0=0D - pxor %xmm3,%xmm0=0D - psllq $57,%xmm0=0D - movdqa %xmm0,%xmm3=0D - pslldq $8,%xmm0=0D - psrldq $8,%xmm3=0D - pxor %xmm4,%xmm0=0D - pxor %xmm3,%xmm1=0D -=0D -=0D - movdqa %xmm0,%xmm4=0D - psrlq $1,%xmm0=0D - pxor %xmm4,%xmm1=0D - pxor %xmm0,%xmm4=0D - psrlq $5,%xmm0=0D - pxor %xmm4,%xmm0=0D - psrlq $1,%xmm0=0D - pxor %xmm1,%xmm0=0D - pshufd $78,%xmm2,%xmm3=0D - pshufd $78,%xmm0,%xmm4=0D - pxor %xmm2,%xmm3=0D - movdqu %xmm2,0(%rdi)=0D - pxor %xmm0,%xmm4=0D - movdqu %xmm0,16(%rdi)=0D -.byte 102,15,58,15,227,8=0D - movdqu %xmm4,32(%rdi)=0D - movdqa %xmm0,%xmm1=0D - pshufd $78,%xmm0,%xmm3=0D - pxor %xmm0,%xmm3=0D -.byte 102,15,58,68,194,0=0D -.byte 102,15,58,68,202,17=0D -.byte 102,15,58,68,222,0=0D - pxor %xmm0,%xmm3=0D - pxor %xmm1,%xmm3=0D -=0D - movdqa %xmm3,%xmm4=0D - psrldq $8,%xmm3=0D - pslldq $8,%xmm4=0D - pxor %xmm3,%xmm1=0D - pxor %xmm4,%xmm0=0D -=0D - movdqa %xmm0,%xmm4=0D - movdqa %xmm0,%xmm3=0D - psllq $5,%xmm0=0D - pxor %xmm0,%xmm3=0D - psllq $1,%xmm0=0D - pxor %xmm3,%xmm0=0D - psllq $57,%xmm0=0D - movdqa %xmm0,%xmm3=0D - pslldq $8,%xmm0=0D - psrldq $8,%xmm3=0D - pxor %xmm4,%xmm0=0D - pxor %xmm3,%xmm1=0D -=0D -=0D - movdqa %xmm0,%xmm4=0D - psrlq $1,%xmm0=0D - pxor %xmm4,%xmm1=0D - pxor %xmm0,%xmm4=0D - psrlq $5,%xmm0=0D - pxor %xmm4,%xmm0=0D - psrlq $1,%xmm0=0D - pxor %xmm1,%xmm0=0D - movdqa %xmm0,%xmm5=0D - movdqa %xmm0,%xmm1=0D - pshufd $78,%xmm0,%xmm3=0D - pxor %xmm0,%xmm3=0D -.byte 102,15,58,68,194,0=0D -.byte 102,15,58,68,202,17=0D -.byte 102,15,58,68,222,0=0D - pxor %xmm0,%xmm3=0D - pxor %xmm1,%xmm3=0D -=0D - movdqa %xmm3,%xmm4=0D - psrldq $8,%xmm3=0D - pslldq $8,%xmm4=0D - pxor %xmm3,%xmm1=0D - pxor %xmm4,%xmm0=0D -=0D - movdqa %xmm0,%xmm4=0D - movdqa %xmm0,%xmm3=0D - psllq $5,%xmm0=0D - pxor %xmm0,%xmm3=0D - psllq $1,%xmm0=0D - pxor %xmm3,%xmm0=0D - psllq $57,%xmm0=0D - movdqa %xmm0,%xmm3=0D - pslldq $8,%xmm0=0D - psrldq $8,%xmm3=0D - pxor %xmm4,%xmm0=0D - pxor %xmm3,%xmm1=0D -=0D -=0D - movdqa %xmm0,%xmm4=0D - psrlq $1,%xmm0=0D - pxor %xmm4,%xmm1=0D - pxor %xmm0,%xmm4=0D - psrlq $5,%xmm0=0D - pxor %xmm4,%xmm0=0D - psrlq $1,%xmm0=0D - pxor %xmm1,%xmm0=0D - pshufd $78,%xmm5,%xmm3=0D - pshufd $78,%xmm0,%xmm4=0D - pxor %xmm5,%xmm3=0D - movdqu %xmm5,48(%rdi)=0D - pxor %xmm0,%xmm4=0D - movdqu %xmm0,64(%rdi)=0D -.byte 102,15,58,15,227,8=0D - movdqu %xmm4,80(%rdi)=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size gcm_init_clmul,.-gcm_init_clmul=0D -.globl gcm_gmult_clmul=0D -.type gcm_gmult_clmul,@function=0D -.align 16=0D -gcm_gmult_clmul:=0D -.cfi_startproc=0D -.L_gmult_clmul:=0D - movdqu (%rdi),%xmm0=0D - movdqa .Lbswap_mask(%rip),%xmm5=0D - movdqu (%rsi),%xmm2=0D - movdqu 32(%rsi),%xmm4=0D -.byte 102,15,56,0,197=0D - movdqa %xmm0,%xmm1=0D - pshufd $78,%xmm0,%xmm3=0D - pxor %xmm0,%xmm3=0D -.byte 102,15,58,68,194,0=0D -.byte 102,15,58,68,202,17=0D -.byte 102,15,58,68,220,0=0D - pxor %xmm0,%xmm3=0D - pxor %xmm1,%xmm3=0D -=0D - movdqa %xmm3,%xmm4=0D - psrldq $8,%xmm3=0D - pslldq $8,%xmm4=0D - pxor %xmm3,%xmm1=0D - pxor %xmm4,%xmm0=0D -=0D - movdqa %xmm0,%xmm4=0D - movdqa %xmm0,%xmm3=0D - psllq $5,%xmm0=0D - pxor %xmm0,%xmm3=0D - psllq $1,%xmm0=0D - pxor %xmm3,%xmm0=0D - psllq $57,%xmm0=0D - movdqa %xmm0,%xmm3=0D - pslldq $8,%xmm0=0D - psrldq $8,%xmm3=0D - pxor %xmm4,%xmm0=0D - pxor %xmm3,%xmm1=0D -=0D -=0D - movdqa %xmm0,%xmm4=0D - psrlq $1,%xmm0=0D - pxor %xmm4,%xmm1=0D - pxor %xmm0,%xmm4=0D - psrlq $5,%xmm0=0D - pxor %xmm4,%xmm0=0D - psrlq $1,%xmm0=0D - pxor %xmm1,%xmm0=0D -.byte 102,15,56,0,197=0D - movdqu %xmm0,(%rdi)=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size gcm_gmult_clmul,.-gcm_gmult_clmul=0D -.globl gcm_ghash_clmul=0D -.type gcm_ghash_clmul,@function=0D -.align 32=0D -gcm_ghash_clmul:=0D -.cfi_startproc=0D -.L_ghash_clmul:=0D - movdqa .Lbswap_mask(%rip),%xmm10=0D -=0D - movdqu (%rdi),%xmm0=0D - movdqu (%rsi),%xmm2=0D - movdqu 32(%rsi),%xmm7=0D -.byte 102,65,15,56,0,194=0D -=0D - subq $0x10,%rcx=0D - jz .Lodd_tail=0D -=0D - movdqu 16(%rsi),%xmm6=0D - movl OPENSSL_ia32cap_P+4(%rip),%eax=0D - cmpq $0x30,%rcx=0D - jb .Lskip4x=0D -=0D - andl $71303168,%eax=0D - cmpl $4194304,%eax=0D - je .Lskip4x=0D -=0D - subq $0x30,%rcx=0D - movq $0xA040608020C0E000,%rax=0D - movdqu 48(%rsi),%xmm14=0D - movdqu 64(%rsi),%xmm15=0D -=0D -=0D -=0D -=0D - movdqu 48(%rdx),%xmm3=0D - movdqu 32(%rdx),%xmm11=0D -.byte 102,65,15,56,0,218=0D -.byte 102,69,15,56,0,218=0D - movdqa %xmm3,%xmm5=0D - pshufd $78,%xmm3,%xmm4=0D - pxor %xmm3,%xmm4=0D -.byte 102,15,58,68,218,0=0D -.byte 102,15,58,68,234,17=0D -.byte 102,15,58,68,231,0=0D -=0D - movdqa %xmm11,%xmm13=0D - pshufd $78,%xmm11,%xmm12=0D - pxor %xmm11,%xmm12=0D -.byte 102,68,15,58,68,222,0=0D -.byte 102,68,15,58,68,238,17=0D -.byte 102,68,15,58,68,231,16=0D - xorps %xmm11,%xmm3=0D - xorps %xmm13,%xmm5=0D - movups 80(%rsi),%xmm7=0D - xorps %xmm12,%xmm4=0D -=0D - movdqu 16(%rdx),%xmm11=0D - movdqu 0(%rdx),%xmm8=0D -.byte 102,69,15,56,0,218=0D -.byte 102,69,15,56,0,194=0D - movdqa %xmm11,%xmm13=0D - pshufd $78,%xmm11,%xmm12=0D - pxor %xmm8,%xmm0=0D - pxor %xmm11,%xmm12=0D -.byte 102,69,15,58,68,222,0=0D - movdqa %xmm0,%xmm1=0D - pshufd $78,%xmm0,%xmm8=0D - pxor %xmm0,%xmm8=0D -.byte 102,69,15,58,68,238,17=0D -.byte 102,68,15,58,68,231,0=0D - xorps %xmm11,%xmm3=0D - xorps %xmm13,%xmm5=0D -=0D - leaq 64(%rdx),%rdx=0D - subq $0x40,%rcx=0D - jc .Ltail4x=0D -=0D - jmp .Lmod4_loop=0D -.align 32=0D -.Lmod4_loop:=0D -.byte 102,65,15,58,68,199,0=0D - xorps %xmm12,%xmm4=0D - movdqu 48(%rdx),%xmm11=0D -.byte 102,69,15,56,0,218=0D -.byte 102,65,15,58,68,207,17=0D - xorps %xmm3,%xmm0=0D - movdqu 32(%rdx),%xmm3=0D - movdqa %xmm11,%xmm13=0D -.byte 102,68,15,58,68,199,16=0D - pshufd $78,%xmm11,%xmm12=0D - xorps %xmm5,%xmm1=0D - pxor %xmm11,%xmm12=0D -.byte 102,65,15,56,0,218=0D - movups 32(%rsi),%xmm7=0D - xorps %xmm4,%xmm8=0D -.byte 102,68,15,58,68,218,0=0D - pshufd $78,%xmm3,%xmm4=0D -=0D - pxor %xmm0,%xmm8=0D - movdqa %xmm3,%xmm5=0D - pxor %xmm1,%xmm8=0D - pxor %xmm3,%xmm4=0D - movdqa %xmm8,%xmm9=0D -.byte 102,68,15,58,68,234,17=0D - pslldq $8,%xmm8=0D - psrldq $8,%xmm9=0D - pxor %xmm8,%xmm0=0D - movdqa .L7_mask(%rip),%xmm8=0D - pxor %xmm9,%xmm1=0D -.byte 102,76,15,110,200=0D -=0D - pand %xmm0,%xmm8=0D -.byte 102,69,15,56,0,200=0D - pxor %xmm0,%xmm9=0D -.byte 102,68,15,58,68,231,0=0D - psllq $57,%xmm9=0D - movdqa %xmm9,%xmm8=0D - pslldq $8,%xmm9=0D -.byte 102,15,58,68,222,0=0D - psrldq $8,%xmm8=0D - pxor %xmm9,%xmm0=0D - pxor %xmm8,%xmm1=0D - movdqu 0(%rdx),%xmm8=0D -=0D - movdqa %xmm0,%xmm9=0D - psrlq $1,%xmm0=0D -.byte 102,15,58,68,238,17=0D - xorps %xmm11,%xmm3=0D - movdqu 16(%rdx),%xmm11=0D -.byte 102,69,15,56,0,218=0D -.byte 102,15,58,68,231,16=0D - xorps %xmm13,%xmm5=0D - movups 80(%rsi),%xmm7=0D -.byte 102,69,15,56,0,194=0D - pxor %xmm9,%xmm1=0D - pxor %xmm0,%xmm9=0D - psrlq $5,%xmm0=0D -=0D - movdqa %xmm11,%xmm13=0D - pxor %xmm12,%xmm4=0D - pshufd $78,%xmm11,%xmm12=0D - pxor %xmm9,%xmm0=0D - pxor %xmm8,%xmm1=0D - pxor %xmm11,%xmm12=0D -.byte 102,69,15,58,68,222,0=0D - psrlq $1,%xmm0=0D - pxor %xmm1,%xmm0=0D - movdqa %xmm0,%xmm1=0D -.byte 102,69,15,58,68,238,17=0D - xorps %xmm11,%xmm3=0D - pshufd $78,%xmm0,%xmm8=0D - pxor %xmm0,%xmm8=0D -=0D -.byte 102,68,15,58,68,231,0=0D - xorps %xmm13,%xmm5=0D -=0D - leaq 64(%rdx),%rdx=0D - subq $0x40,%rcx=0D - jnc .Lmod4_loop=0D -=0D -.Ltail4x:=0D -.byte 102,65,15,58,68,199,0=0D -.byte 102,65,15,58,68,207,17=0D -.byte 102,68,15,58,68,199,16=0D - xorps %xmm12,%xmm4=0D - xorps %xmm3,%xmm0=0D - xorps %xmm5,%xmm1=0D - pxor %xmm0,%xmm1=0D - pxor %xmm4,%xmm8=0D -=0D - pxor %xmm1,%xmm8=0D - pxor %xmm0,%xmm1=0D -=0D - movdqa %xmm8,%xmm9=0D - psrldq $8,%xmm8=0D - pslldq $8,%xmm9=0D - pxor %xmm8,%xmm1=0D - pxor %xmm9,%xmm0=0D -=0D - movdqa %xmm0,%xmm4=0D - movdqa %xmm0,%xmm3=0D - psllq $5,%xmm0=0D - pxor %xmm0,%xmm3=0D - psllq $1,%xmm0=0D - pxor %xmm3,%xmm0=0D - psllq $57,%xmm0=0D - movdqa %xmm0,%xmm3=0D - pslldq $8,%xmm0=0D - psrldq $8,%xmm3=0D - pxor %xmm4,%xmm0=0D - pxor %xmm3,%xmm1=0D -=0D -=0D - movdqa %xmm0,%xmm4=0D - psrlq $1,%xmm0=0D - pxor %xmm4,%xmm1=0D - pxor %xmm0,%xmm4=0D - psrlq $5,%xmm0=0D - pxor %xmm4,%xmm0=0D - psrlq $1,%xmm0=0D - pxor %xmm1,%xmm0=0D - addq $0x40,%rcx=0D - jz .Ldone=0D - movdqu 32(%rsi),%xmm7=0D - subq $0x10,%rcx=0D - jz .Lodd_tail=0D -.Lskip4x:=0D -=0D -=0D -=0D -=0D -=0D - movdqu (%rdx),%xmm8=0D - movdqu 16(%rdx),%xmm3=0D -.byte 102,69,15,56,0,194=0D -.byte 102,65,15,56,0,218=0D - pxor %xmm8,%xmm0=0D -=0D - movdqa %xmm3,%xmm5=0D - pshufd $78,%xmm3,%xmm4=0D - pxor %xmm3,%xmm4=0D -.byte 102,15,58,68,218,0=0D -.byte 102,15,58,68,234,17=0D -.byte 102,15,58,68,231,0=0D -=0D - leaq 32(%rdx),%rdx=0D - nop=0D - subq $0x20,%rcx=0D - jbe .Leven_tail=0D - nop=0D - jmp .Lmod_loop=0D -=0D -.align 32=0D -.Lmod_loop:=0D - movdqa %xmm0,%xmm1=0D - movdqa %xmm4,%xmm8=0D - pshufd $78,%xmm0,%xmm4=0D - pxor %xmm0,%xmm4=0D -=0D -.byte 102,15,58,68,198,0=0D -.byte 102,15,58,68,206,17=0D -.byte 102,15,58,68,231,16=0D -=0D - pxor %xmm3,%xmm0=0D - pxor %xmm5,%xmm1=0D - movdqu (%rdx),%xmm9=0D - pxor %xmm0,%xmm8=0D -.byte 102,69,15,56,0,202=0D - movdqu 16(%rdx),%xmm3=0D -=0D - pxor %xmm1,%xmm8=0D - pxor %xmm9,%xmm1=0D - pxor %xmm8,%xmm4=0D -.byte 102,65,15,56,0,218=0D - movdqa %xmm4,%xmm8=0D - psrldq $8,%xmm8=0D - pslldq $8,%xmm4=0D - pxor %xmm8,%xmm1=0D - pxor %xmm4,%xmm0=0D -=0D - movdqa %xmm3,%xmm5=0D -=0D - movdqa %xmm0,%xmm9=0D - movdqa %xmm0,%xmm8=0D - psllq $5,%xmm0=0D - pxor %xmm0,%xmm8=0D -.byte 102,15,58,68,218,0=0D - psllq $1,%xmm0=0D - pxor %xmm8,%xmm0=0D - psllq $57,%xmm0=0D - movdqa %xmm0,%xmm8=0D - pslldq $8,%xmm0=0D - psrldq $8,%xmm8=0D - pxor %xmm9,%xmm0=0D - pshufd $78,%xmm5,%xmm4=0D - pxor %xmm8,%xmm1=0D - pxor %xmm5,%xmm4=0D -=0D - movdqa %xmm0,%xmm9=0D - psrlq $1,%xmm0=0D -.byte 102,15,58,68,234,17=0D - pxor %xmm9,%xmm1=0D - pxor %xmm0,%xmm9=0D - psrlq $5,%xmm0=0D - pxor %xmm9,%xmm0=0D - leaq 32(%rdx),%rdx=0D - psrlq $1,%xmm0=0D -.byte 102,15,58,68,231,0=0D - pxor %xmm1,%xmm0=0D -=0D - subq $0x20,%rcx=0D - ja .Lmod_loop=0D -=0D -.Leven_tail:=0D - movdqa %xmm0,%xmm1=0D - movdqa %xmm4,%xmm8=0D - pshufd $78,%xmm0,%xmm4=0D - pxor %xmm0,%xmm4=0D -=0D -.byte 102,15,58,68,198,0=0D -.byte 102,15,58,68,206,17=0D -.byte 102,15,58,68,231,16=0D -=0D - pxor %xmm3,%xmm0=0D - pxor %xmm5,%xmm1=0D - pxor %xmm0,%xmm8=0D - pxor %xmm1,%xmm8=0D - pxor %xmm8,%xmm4=0D - movdqa %xmm4,%xmm8=0D - psrldq $8,%xmm8=0D - pslldq $8,%xmm4=0D - pxor %xmm8,%xmm1=0D - pxor %xmm4,%xmm0=0D -=0D - movdqa %xmm0,%xmm4=0D - movdqa %xmm0,%xmm3=0D - psllq $5,%xmm0=0D - pxor %xmm0,%xmm3=0D - psllq $1,%xmm0=0D - pxor %xmm3,%xmm0=0D - psllq $57,%xmm0=0D - movdqa %xmm0,%xmm3=0D - pslldq $8,%xmm0=0D - psrldq $8,%xmm3=0D - pxor %xmm4,%xmm0=0D - pxor %xmm3,%xmm1=0D -=0D -=0D - movdqa %xmm0,%xmm4=0D - psrlq $1,%xmm0=0D - pxor %xmm4,%xmm1=0D - pxor %xmm0,%xmm4=0D - psrlq $5,%xmm0=0D - pxor %xmm4,%xmm0=0D - psrlq $1,%xmm0=0D - pxor %xmm1,%xmm0=0D - testq %rcx,%rcx=0D - jnz .Ldone=0D -=0D -.Lodd_tail:=0D - movdqu (%rdx),%xmm8=0D -.byte 102,69,15,56,0,194=0D - pxor %xmm8,%xmm0=0D - movdqa %xmm0,%xmm1=0D - pshufd $78,%xmm0,%xmm3=0D - pxor %xmm0,%xmm3=0D -.byte 102,15,58,68,194,0=0D -.byte 102,15,58,68,202,17=0D -.byte 102,15,58,68,223,0=0D - pxor %xmm0,%xmm3=0D - pxor %xmm1,%xmm3=0D -=0D - movdqa %xmm3,%xmm4=0D - psrldq $8,%xmm3=0D - pslldq $8,%xmm4=0D - pxor %xmm3,%xmm1=0D - pxor %xmm4,%xmm0=0D -=0D - movdqa %xmm0,%xmm4=0D - movdqa %xmm0,%xmm3=0D - psllq $5,%xmm0=0D - pxor %xmm0,%xmm3=0D - psllq $1,%xmm0=0D - pxor %xmm3,%xmm0=0D - psllq $57,%xmm0=0D - movdqa %xmm0,%xmm3=0D - pslldq $8,%xmm0=0D - psrldq $8,%xmm3=0D - pxor %xmm4,%xmm0=0D - pxor %xmm3,%xmm1=0D -=0D -=0D - movdqa %xmm0,%xmm4=0D - psrlq $1,%xmm0=0D - pxor %xmm4,%xmm1=0D - pxor %xmm0,%xmm4=0D - psrlq $5,%xmm0=0D - pxor %xmm4,%xmm0=0D - psrlq $1,%xmm0=0D - pxor %xmm1,%xmm0=0D -.Ldone:=0D -.byte 102,65,15,56,0,194=0D - movdqu %xmm0,(%rdi)=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size gcm_ghash_clmul,.-gcm_ghash_clmul=0D -.globl gcm_init_avx=0D -.type gcm_init_avx,@function=0D -.align 32=0D -gcm_init_avx:=0D -.cfi_startproc=0D - jmp .L_init_clmul=0D -.cfi_endproc=0D -.size gcm_init_avx,.-gcm_init_avx=0D -.globl gcm_gmult_avx=0D -.type gcm_gmult_avx,@function=0D -.align 32=0D -gcm_gmult_avx:=0D -.cfi_startproc=0D - jmp .L_gmult_clmul=0D -.cfi_endproc=0D -.size gcm_gmult_avx,.-gcm_gmult_avx=0D -.globl gcm_ghash_avx=0D -.type gcm_ghash_avx,@function=0D -.align 32=0D -gcm_ghash_avx:=0D -.cfi_startproc=0D - jmp .L_ghash_clmul=0D -.cfi_endproc=0D -.size gcm_ghash_avx,.-gcm_ghash_avx=0D -.align 64=0D -.Lbswap_mask:=0D -.byte 15,14,13,12,11,10,9,8,7,6,5,4,3,2,1,0=0D -.L0x1c2_polynomial:=0D -.byte 1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0xc2=0D -.L7_mask:=0D -.long 7,0,7,0=0D -.L7_mask_poly:=0D -.long 7,0,450,0=0D -.align 64=0D -.type .Lrem_4bit,@object=0D -.Lrem_4bit:=0D -.long 0,0,0,471859200,0,943718400,0,610271232=0D -.long 0,1887436800,0,1822425088,0,1220542464,0,1423966208=0D -.long 0,3774873600,0,4246732800,0,3644850176,0,3311403008=0D -.long 0,2441084928,0,2376073216,0,2847932416,0,3051356160=0D -.type .Lrem_8bit,@object=0D -.Lrem_8bit:=0D -.value 0x0000,0x01C2,0x0384,0x0246,0x0708,0x06CA,0x048C,0x054E=0D -.value 0x0E10,0x0FD2,0x0D94,0x0C56,0x0918,0x08DA,0x0A9C,0x0B5E=0D -.value 0x1C20,0x1DE2,0x1FA4,0x1E66,0x1B28,0x1AEA,0x18AC,0x196E=0D -.value 0x1230,0x13F2,0x11B4,0x1076,0x1538,0x14FA,0x16BC,0x177E=0D -.value 0x3840,0x3982,0x3BC4,0x3A06,0x3F48,0x3E8A,0x3CCC,0x3D0E=0D -.value 0x3650,0x3792,0x35D4,0x3416,0x3158,0x309A,0x32DC,0x331E=0D -.value 0x2460,0x25A2,0x27E4,0x2626,0x2368,0x22AA,0x20EC,0x212E=0D -.value 0x2A70,0x2BB2,0x29F4,0x2836,0x2D78,0x2CBA,0x2EFC,0x2F3E=0D -.value 0x7080,0x7142,0x7304,0x72C6,0x7788,0x764A,0x740C,0x75CE=0D -.value 0x7E90,0x7F52,0x7D14,0x7CD6,0x7998,0x785A,0x7A1C,0x7BDE=0D -.value 0x6CA0,0x6D62,0x6F24,0x6EE6,0x6BA8,0x6A6A,0x682C,0x69EE=0D -.value 0x62B0,0x6372,0x6134,0x60F6,0x65B8,0x647A,0x663C,0x67FE=0D -.value 0x48C0,0x4902,0x4B44,0x4A86,0x4FC8,0x4E0A,0x4C4C,0x4D8E=0D -.value 0x46D0,0x4712,0x4554,0x4496,0x41D8,0x401A,0x425C,0x439E=0D -.value 0x54E0,0x5522,0x5764,0x56A6,0x53E8,0x522A,0x506C,0x51AE=0D -.value 0x5AF0,0x5B32,0x5974,0x58B6,0x5DF8,0x5C3A,0x5E7C,0x5FBE=0D -.value 0xE100,0xE0C2,0xE284,0xE346,0xE608,0xE7CA,0xE58C,0xE44E=0D -.value 0xEF10,0xEED2,0xEC94,0xED56,0xE818,0xE9DA,0xEB9C,0xEA5E=0D -.value 0xFD20,0xFCE2,0xFEA4,0xFF66,0xFA28,0xFBEA,0xF9AC,0xF86E=0D -.value 0xF330,0xF2F2,0xF0B4,0xF176,0xF438,0xF5FA,0xF7BC,0xF67E=0D -.value 0xD940,0xD882,0xDAC4,0xDB06,0xDE48,0xDF8A,0xDDCC,0xDC0E=0D -.value 0xD750,0xD692,0xD4D4,0xD516,0xD058,0xD19A,0xD3DC,0xD21E=0D -.value 0xC560,0xC4A2,0xC6E4,0xC726,0xC268,0xC3AA,0xC1EC,0xC02E=0D -.value 0xCB70,0xCAB2,0xC8F4,0xC936,0xCC78,0xCDBA,0xCFFC,0xCE3E=0D -.value 0x9180,0x9042,0x9204,0x93C6,0x9688,0x974A,0x950C,0x94CE=0D -.value 0x9F90,0x9E52,0x9C14,0x9DD6,0x9898,0x995A,0x9B1C,0x9ADE=0D -.value 0x8DA0,0x8C62,0x8E24,0x8FE6,0x8AA8,0x8B6A,0x892C,0x88EE=0D -.value 0x83B0,0x8272,0x8034,0x81F6,0x84B8,0x857A,0x873C,0x86FE=0D -.value 0xA9C0,0xA802,0xAA44,0xAB86,0xAEC8,0xAF0A,0xAD4C,0xAC8E=0D -.value 0xA7D0,0xA612,0xA454,0xA596,0xA0D8,0xA11A,0xA35C,0xA29E=0D -.value 0xB5E0,0xB422,0xB664,0xB7A6,0xB2E8,0xB32A,0xB16C,0xB0AE=0D -.value 0xBBF0,0xBA32,0xB874,0xB9B6,0xBCF8,0xBD3A,0xBF7C,0xBEBE=0D -=0D -.byte 71,72,65,83,72,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89= ,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110= ,115,115,108,46,111,114,103,62,0=0D -.align 64=0D diff --git a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha1-mb-x86_64.= S b/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha1-mb-x86_64.S deleted file mode 100644 index 4572bc7227..0000000000 --- a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha1-mb-x86_64.S +++ /dev/null @@ -1,2962 +0,0 @@ -# WARNING: do not edit!=0D -# Generated from openssl/crypto/sha/asm/sha1-mb-x86_64.pl=0D -#=0D -# Copyright 2013-2020 The OpenSSL Project Authors. All Rights Reserved.=0D -#=0D -# Licensed under the OpenSSL license (the "License"). You may not use=0D -# this file except in compliance with the License. You can obtain a copy= =0D -# in the file LICENSE in the source distribution or at=0D -# https://www.openssl.org/source/license.html=0D -=0D -.text=0D -=0D -=0D -=0D -.globl sha1_multi_block=0D -.type sha1_multi_block,@function=0D -.align 32=0D -sha1_multi_block:=0D -.cfi_startproc=0D - movq OPENSSL_ia32cap_P+4(%rip),%rcx=0D - btq $61,%rcx=0D - jc _shaext_shortcut=0D - movq %rsp,%rax=0D -.cfi_def_cfa_register %rax=0D - pushq %rbx=0D -.cfi_offset %rbx,-16=0D - pushq %rbp=0D -.cfi_offset %rbx,-24=0D - subq $288,%rsp=0D - andq $-256,%rsp=0D - movq %rax,272(%rsp)=0D -.cfi_escape 0x0f,0x06,0x77,0x90,0x02,0x06,0x23,0x08=0D -.Lbody:=0D - leaq K_XX_XX(%rip),%rbp=0D - leaq 256(%rsp),%rbx=0D -=0D -.Loop_grande:=0D - movl %edx,280(%rsp)=0D - xorl %edx,%edx=0D - movq 0(%rsi),%r8=0D - movl 8(%rsi),%ecx=0D - cmpl %edx,%ecx=0D - cmovgl %ecx,%edx=0D - testl %ecx,%ecx=0D - movl %ecx,0(%rbx)=0D - cmovleq %rbp,%r8=0D - movq 16(%rsi),%r9=0D - movl 24(%rsi),%ecx=0D - cmpl %edx,%ecx=0D - cmovgl %ecx,%edx=0D - testl %ecx,%ecx=0D - movl %ecx,4(%rbx)=0D - cmovleq %rbp,%r9=0D - movq 32(%rsi),%r10=0D - movl 40(%rsi),%ecx=0D - cmpl %edx,%ecx=0D - cmovgl %ecx,%edx=0D - testl %ecx,%ecx=0D - movl %ecx,8(%rbx)=0D - cmovleq %rbp,%r10=0D - movq 48(%rsi),%r11=0D - movl 56(%rsi),%ecx=0D - cmpl %edx,%ecx=0D - cmovgl %ecx,%edx=0D - testl %ecx,%ecx=0D - movl %ecx,12(%rbx)=0D - cmovleq %rbp,%r11=0D - testl %edx,%edx=0D - jz .Ldone=0D -=0D - movdqu 0(%rdi),%xmm10=0D - leaq 128(%rsp),%rax=0D - movdqu 32(%rdi),%xmm11=0D - movdqu 64(%rdi),%xmm12=0D - movdqu 96(%rdi),%xmm13=0D - movdqu 128(%rdi),%xmm14=0D - movdqa 96(%rbp),%xmm5=0D - movdqa -32(%rbp),%xmm15=0D - jmp .Loop=0D -=0D -.align 32=0D -.Loop:=0D - movd (%r8),%xmm0=0D - leaq 64(%r8),%r8=0D - movd (%r9),%xmm2=0D - leaq 64(%r9),%r9=0D - movd (%r10),%xmm3=0D - leaq 64(%r10),%r10=0D - movd (%r11),%xmm4=0D - leaq 64(%r11),%r11=0D - punpckldq %xmm3,%xmm0=0D - movd -60(%r8),%xmm1=0D - punpckldq %xmm4,%xmm2=0D - movd -60(%r9),%xmm9=0D - punpckldq %xmm2,%xmm0=0D - movd -60(%r10),%xmm8=0D -.byte 102,15,56,0,197=0D - movd -60(%r11),%xmm7=0D - punpckldq %xmm8,%xmm1=0D - movdqa %xmm10,%xmm8=0D - paddd %xmm15,%xmm14=0D - punpckldq %xmm7,%xmm9=0D - movdqa %xmm11,%xmm7=0D - movdqa %xmm11,%xmm6=0D - pslld $5,%xmm8=0D - pandn %xmm13,%xmm7=0D - pand %xmm12,%xmm6=0D - punpckldq %xmm9,%xmm1=0D - movdqa %xmm10,%xmm9=0D -=0D - movdqa %xmm0,0-128(%rax)=0D - paddd %xmm0,%xmm14=0D - movd -56(%r8),%xmm2=0D - psrld $27,%xmm9=0D - pxor %xmm7,%xmm6=0D - movdqa %xmm11,%xmm7=0D -=0D - por %xmm9,%xmm8=0D - movd -56(%r9),%xmm9=0D - pslld $30,%xmm7=0D - paddd %xmm6,%xmm14=0D -=0D - psrld $2,%xmm11=0D - paddd %xmm8,%xmm14=0D -.byte 102,15,56,0,205=0D - movd -56(%r10),%xmm8=0D - por %xmm7,%xmm11=0D - movd -56(%r11),%xmm7=0D - punpckldq %xmm8,%xmm2=0D - movdqa %xmm14,%xmm8=0D - paddd %xmm15,%xmm13=0D - punpckldq %xmm7,%xmm9=0D - movdqa %xmm10,%xmm7=0D - movdqa %xmm10,%xmm6=0D - pslld $5,%xmm8=0D - pandn %xmm12,%xmm7=0D - pand %xmm11,%xmm6=0D - punpckldq %xmm9,%xmm2=0D - movdqa %xmm14,%xmm9=0D -=0D - movdqa %xmm1,16-128(%rax)=0D - paddd %xmm1,%xmm13=0D - movd -52(%r8),%xmm3=0D - psrld $27,%xmm9=0D - pxor %xmm7,%xmm6=0D - movdqa %xmm10,%xmm7=0D -=0D - por %xmm9,%xmm8=0D - movd -52(%r9),%xmm9=0D - pslld $30,%xmm7=0D - paddd %xmm6,%xmm13=0D -=0D - psrld $2,%xmm10=0D - paddd %xmm8,%xmm13=0D -.byte 102,15,56,0,213=0D - movd -52(%r10),%xmm8=0D - por %xmm7,%xmm10=0D - movd -52(%r11),%xmm7=0D - punpckldq %xmm8,%xmm3=0D - movdqa %xmm13,%xmm8=0D - paddd %xmm15,%xmm12=0D - punpckldq %xmm7,%xmm9=0D - movdqa %xmm14,%xmm7=0D - movdqa %xmm14,%xmm6=0D - pslld $5,%xmm8=0D - pandn %xmm11,%xmm7=0D - pand %xmm10,%xmm6=0D - punpckldq %xmm9,%xmm3=0D - movdqa %xmm13,%xmm9=0D -=0D - movdqa %xmm2,32-128(%rax)=0D - paddd %xmm2,%xmm12=0D - movd -48(%r8),%xmm4=0D - psrld $27,%xmm9=0D - pxor %xmm7,%xmm6=0D - movdqa %xmm14,%xmm7=0D -=0D - por %xmm9,%xmm8=0D - movd -48(%r9),%xmm9=0D - pslld $30,%xmm7=0D - paddd %xmm6,%xmm12=0D -=0D - psrld $2,%xmm14=0D - paddd %xmm8,%xmm12=0D -.byte 102,15,56,0,221=0D - movd -48(%r10),%xmm8=0D - por %xmm7,%xmm14=0D - movd -48(%r11),%xmm7=0D - punpckldq %xmm8,%xmm4=0D - movdqa %xmm12,%xmm8=0D - paddd %xmm15,%xmm11=0D - punpckldq %xmm7,%xmm9=0D - movdqa %xmm13,%xmm7=0D - movdqa %xmm13,%xmm6=0D - pslld $5,%xmm8=0D - pandn %xmm10,%xmm7=0D - pand %xmm14,%xmm6=0D - punpckldq %xmm9,%xmm4=0D - movdqa %xmm12,%xmm9=0D -=0D - movdqa %xmm3,48-128(%rax)=0D - paddd %xmm3,%xmm11=0D - movd -44(%r8),%xmm0=0D - psrld $27,%xmm9=0D - pxor %xmm7,%xmm6=0D - movdqa %xmm13,%xmm7=0D -=0D - por %xmm9,%xmm8=0D - movd -44(%r9),%xmm9=0D - pslld $30,%xmm7=0D - paddd %xmm6,%xmm11=0D -=0D - psrld $2,%xmm13=0D - paddd %xmm8,%xmm11=0D -.byte 102,15,56,0,229=0D - movd -44(%r10),%xmm8=0D - por %xmm7,%xmm13=0D - movd -44(%r11),%xmm7=0D - punpckldq %xmm8,%xmm0=0D - movdqa %xmm11,%xmm8=0D - paddd %xmm15,%xmm10=0D - punpckldq %xmm7,%xmm9=0D - movdqa %xmm12,%xmm7=0D - movdqa %xmm12,%xmm6=0D - pslld $5,%xmm8=0D - pandn %xmm14,%xmm7=0D - pand %xmm13,%xmm6=0D - punpckldq %xmm9,%xmm0=0D - movdqa %xmm11,%xmm9=0D -=0D - movdqa %xmm4,64-128(%rax)=0D - paddd %xmm4,%xmm10=0D - movd -40(%r8),%xmm1=0D - psrld $27,%xmm9=0D - pxor %xmm7,%xmm6=0D - movdqa %xmm12,%xmm7=0D -=0D - por %xmm9,%xmm8=0D - movd -40(%r9),%xmm9=0D - pslld $30,%xmm7=0D - paddd %xmm6,%xmm10=0D -=0D - psrld $2,%xmm12=0D - paddd %xmm8,%xmm10=0D -.byte 102,15,56,0,197=0D - movd -40(%r10),%xmm8=0D - por %xmm7,%xmm12=0D - movd -40(%r11),%xmm7=0D - punpckldq %xmm8,%xmm1=0D - movdqa %xmm10,%xmm8=0D - paddd %xmm15,%xmm14=0D - punpckldq %xmm7,%xmm9=0D - movdqa %xmm11,%xmm7=0D - movdqa %xmm11,%xmm6=0D - pslld $5,%xmm8=0D - pandn %xmm13,%xmm7=0D - pand %xmm12,%xmm6=0D - punpckldq %xmm9,%xmm1=0D - movdqa %xmm10,%xmm9=0D -=0D - movdqa %xmm0,80-128(%rax)=0D - paddd %xmm0,%xmm14=0D - movd -36(%r8),%xmm2=0D - psrld $27,%xmm9=0D - pxor %xmm7,%xmm6=0D - movdqa %xmm11,%xmm7=0D -=0D - por %xmm9,%xmm8=0D - movd -36(%r9),%xmm9=0D - pslld $30,%xmm7=0D - paddd %xmm6,%xmm14=0D -=0D - psrld $2,%xmm11=0D - paddd %xmm8,%xmm14=0D -.byte 102,15,56,0,205=0D - movd -36(%r10),%xmm8=0D - por %xmm7,%xmm11=0D - movd -36(%r11),%xmm7=0D - punpckldq %xmm8,%xmm2=0D - movdqa %xmm14,%xmm8=0D - paddd %xmm15,%xmm13=0D - punpckldq %xmm7,%xmm9=0D - movdqa %xmm10,%xmm7=0D - movdqa %xmm10,%xmm6=0D - pslld $5,%xmm8=0D - pandn %xmm12,%xmm7=0D - pand %xmm11,%xmm6=0D - punpckldq %xmm9,%xmm2=0D - movdqa %xmm14,%xmm9=0D -=0D - movdqa %xmm1,96-128(%rax)=0D - paddd %xmm1,%xmm13=0D - movd -32(%r8),%xmm3=0D - psrld $27,%xmm9=0D - pxor %xmm7,%xmm6=0D - movdqa %xmm10,%xmm7=0D -=0D - por %xmm9,%xmm8=0D - movd -32(%r9),%xmm9=0D - pslld $30,%xmm7=0D - paddd %xmm6,%xmm13=0D -=0D - psrld $2,%xmm10=0D - paddd %xmm8,%xmm13=0D -.byte 102,15,56,0,213=0D - movd -32(%r10),%xmm8=0D - por %xmm7,%xmm10=0D - movd -32(%r11),%xmm7=0D - punpckldq %xmm8,%xmm3=0D - movdqa %xmm13,%xmm8=0D - paddd %xmm15,%xmm12=0D - punpckldq %xmm7,%xmm9=0D - movdqa %xmm14,%xmm7=0D - movdqa %xmm14,%xmm6=0D - pslld $5,%xmm8=0D - pandn %xmm11,%xmm7=0D - pand %xmm10,%xmm6=0D - punpckldq %xmm9,%xmm3=0D - movdqa %xmm13,%xmm9=0D -=0D - movdqa %xmm2,112-128(%rax)=0D - paddd %xmm2,%xmm12=0D - movd -28(%r8),%xmm4=0D - psrld $27,%xmm9=0D - pxor %xmm7,%xmm6=0D - movdqa %xmm14,%xmm7=0D -=0D - por %xmm9,%xmm8=0D - movd -28(%r9),%xmm9=0D - pslld $30,%xmm7=0D - paddd %xmm6,%xmm12=0D -=0D - psrld $2,%xmm14=0D - paddd %xmm8,%xmm12=0D -.byte 102,15,56,0,221=0D - movd -28(%r10),%xmm8=0D - por %xmm7,%xmm14=0D - movd -28(%r11),%xmm7=0D - punpckldq %xmm8,%xmm4=0D - movdqa %xmm12,%xmm8=0D - paddd %xmm15,%xmm11=0D - punpckldq %xmm7,%xmm9=0D - movdqa %xmm13,%xmm7=0D - movdqa %xmm13,%xmm6=0D - pslld $5,%xmm8=0D - pandn %xmm10,%xmm7=0D - pand %xmm14,%xmm6=0D - punpckldq %xmm9,%xmm4=0D - movdqa %xmm12,%xmm9=0D -=0D - movdqa %xmm3,128-128(%rax)=0D - paddd %xmm3,%xmm11=0D - movd -24(%r8),%xmm0=0D - psrld $27,%xmm9=0D - pxor %xmm7,%xmm6=0D - movdqa %xmm13,%xmm7=0D -=0D - por %xmm9,%xmm8=0D - movd -24(%r9),%xmm9=0D - pslld $30,%xmm7=0D - paddd %xmm6,%xmm11=0D -=0D - psrld $2,%xmm13=0D - paddd %xmm8,%xmm11=0D -.byte 102,15,56,0,229=0D - movd -24(%r10),%xmm8=0D - por %xmm7,%xmm13=0D - movd -24(%r11),%xmm7=0D - punpckldq %xmm8,%xmm0=0D - movdqa %xmm11,%xmm8=0D - paddd %xmm15,%xmm10=0D - punpckldq %xmm7,%xmm9=0D - movdqa %xmm12,%xmm7=0D - movdqa %xmm12,%xmm6=0D - pslld $5,%xmm8=0D - pandn %xmm14,%xmm7=0D - pand %xmm13,%xmm6=0D - punpckldq %xmm9,%xmm0=0D - movdqa %xmm11,%xmm9=0D -=0D - movdqa %xmm4,144-128(%rax)=0D - paddd %xmm4,%xmm10=0D - movd -20(%r8),%xmm1=0D - psrld $27,%xmm9=0D - pxor %xmm7,%xmm6=0D - movdqa %xmm12,%xmm7=0D -=0D - por %xmm9,%xmm8=0D - movd -20(%r9),%xmm9=0D - pslld $30,%xmm7=0D - paddd %xmm6,%xmm10=0D -=0D - psrld $2,%xmm12=0D - paddd %xmm8,%xmm10=0D -.byte 102,15,56,0,197=0D - movd -20(%r10),%xmm8=0D - por %xmm7,%xmm12=0D - movd -20(%r11),%xmm7=0D - punpckldq %xmm8,%xmm1=0D - movdqa %xmm10,%xmm8=0D - paddd %xmm15,%xmm14=0D - punpckldq %xmm7,%xmm9=0D - movdqa %xmm11,%xmm7=0D - movdqa %xmm11,%xmm6=0D - pslld $5,%xmm8=0D - pandn %xmm13,%xmm7=0D - pand %xmm12,%xmm6=0D - punpckldq %xmm9,%xmm1=0D - movdqa %xmm10,%xmm9=0D -=0D - movdqa %xmm0,160-128(%rax)=0D - paddd %xmm0,%xmm14=0D - movd -16(%r8),%xmm2=0D - psrld $27,%xmm9=0D - pxor %xmm7,%xmm6=0D - movdqa %xmm11,%xmm7=0D -=0D - por %xmm9,%xmm8=0D - movd -16(%r9),%xmm9=0D - pslld $30,%xmm7=0D - paddd %xmm6,%xmm14=0D -=0D - psrld $2,%xmm11=0D - paddd %xmm8,%xmm14=0D -.byte 102,15,56,0,205=0D - movd -16(%r10),%xmm8=0D - por %xmm7,%xmm11=0D - movd -16(%r11),%xmm7=0D - punpckldq %xmm8,%xmm2=0D - movdqa %xmm14,%xmm8=0D - paddd %xmm15,%xmm13=0D - punpckldq %xmm7,%xmm9=0D - movdqa %xmm10,%xmm7=0D - movdqa %xmm10,%xmm6=0D - pslld $5,%xmm8=0D - pandn %xmm12,%xmm7=0D - pand %xmm11,%xmm6=0D - punpckldq %xmm9,%xmm2=0D - movdqa %xmm14,%xmm9=0D -=0D - movdqa %xmm1,176-128(%rax)=0D - paddd %xmm1,%xmm13=0D - movd -12(%r8),%xmm3=0D - psrld $27,%xmm9=0D - pxor %xmm7,%xmm6=0D - movdqa %xmm10,%xmm7=0D -=0D - por %xmm9,%xmm8=0D - movd -12(%r9),%xmm9=0D - pslld $30,%xmm7=0D - paddd %xmm6,%xmm13=0D -=0D - psrld $2,%xmm10=0D - paddd %xmm8,%xmm13=0D -.byte 102,15,56,0,213=0D - movd -12(%r10),%xmm8=0D - por %xmm7,%xmm10=0D - movd -12(%r11),%xmm7=0D - punpckldq %xmm8,%xmm3=0D - movdqa %xmm13,%xmm8=0D - paddd %xmm15,%xmm12=0D - punpckldq %xmm7,%xmm9=0D - movdqa %xmm14,%xmm7=0D - movdqa %xmm14,%xmm6=0D - pslld $5,%xmm8=0D - pandn %xmm11,%xmm7=0D - pand %xmm10,%xmm6=0D - punpckldq %xmm9,%xmm3=0D - movdqa %xmm13,%xmm9=0D -=0D - movdqa %xmm2,192-128(%rax)=0D - paddd %xmm2,%xmm12=0D - movd -8(%r8),%xmm4=0D - psrld $27,%xmm9=0D - pxor %xmm7,%xmm6=0D - movdqa %xmm14,%xmm7=0D -=0D - por %xmm9,%xmm8=0D - movd -8(%r9),%xmm9=0D - pslld $30,%xmm7=0D - paddd %xmm6,%xmm12=0D -=0D - psrld $2,%xmm14=0D - paddd %xmm8,%xmm12=0D -.byte 102,15,56,0,221=0D - movd -8(%r10),%xmm8=0D - por %xmm7,%xmm14=0D - movd -8(%r11),%xmm7=0D - punpckldq %xmm8,%xmm4=0D - movdqa %xmm12,%xmm8=0D - paddd %xmm15,%xmm11=0D - punpckldq %xmm7,%xmm9=0D - movdqa %xmm13,%xmm7=0D - movdqa %xmm13,%xmm6=0D - pslld $5,%xmm8=0D - pandn %xmm10,%xmm7=0D - pand %xmm14,%xmm6=0D - punpckldq %xmm9,%xmm4=0D - movdqa %xmm12,%xmm9=0D -=0D - movdqa %xmm3,208-128(%rax)=0D - paddd %xmm3,%xmm11=0D - movd -4(%r8),%xmm0=0D - psrld $27,%xmm9=0D - pxor %xmm7,%xmm6=0D - movdqa %xmm13,%xmm7=0D -=0D - por %xmm9,%xmm8=0D - movd -4(%r9),%xmm9=0D - pslld $30,%xmm7=0D - paddd %xmm6,%xmm11=0D -=0D - psrld $2,%xmm13=0D - paddd %xmm8,%xmm11=0D -.byte 102,15,56,0,229=0D - movd -4(%r10),%xmm8=0D - por %xmm7,%xmm13=0D - movdqa 0-128(%rax),%xmm1=0D - movd -4(%r11),%xmm7=0D - punpckldq %xmm8,%xmm0=0D - movdqa %xmm11,%xmm8=0D - paddd %xmm15,%xmm10=0D - punpckldq %xmm7,%xmm9=0D - movdqa %xmm12,%xmm7=0D - movdqa %xmm12,%xmm6=0D - pslld $5,%xmm8=0D - prefetcht0 63(%r8)=0D - pandn %xmm14,%xmm7=0D - pand %xmm13,%xmm6=0D - punpckldq %xmm9,%xmm0=0D - movdqa %xmm11,%xmm9=0D -=0D - movdqa %xmm4,224-128(%rax)=0D - paddd %xmm4,%xmm10=0D - psrld $27,%xmm9=0D - pxor %xmm7,%xmm6=0D - movdqa %xmm12,%xmm7=0D - prefetcht0 63(%r9)=0D -=0D - por %xmm9,%xmm8=0D - pslld $30,%xmm7=0D - paddd %xmm6,%xmm10=0D - prefetcht0 63(%r10)=0D -=0D - psrld $2,%xmm12=0D - paddd %xmm8,%xmm10=0D -.byte 102,15,56,0,197=0D - prefetcht0 63(%r11)=0D - por %xmm7,%xmm12=0D - movdqa 16-128(%rax),%xmm2=0D - pxor %xmm3,%xmm1=0D - movdqa 32-128(%rax),%xmm3=0D -=0D - movdqa %xmm10,%xmm8=0D - pxor 128-128(%rax),%xmm1=0D - paddd %xmm15,%xmm14=0D - movdqa %xmm11,%xmm7=0D - pslld $5,%xmm8=0D - pxor %xmm3,%xmm1=0D - movdqa %xmm11,%xmm6=0D - pandn %xmm13,%xmm7=0D - movdqa %xmm1,%xmm5=0D - pand %xmm12,%xmm6=0D - movdqa %xmm10,%xmm9=0D - psrld $31,%xmm5=0D - paddd %xmm1,%xmm1=0D -=0D - movdqa %xmm0,240-128(%rax)=0D - paddd %xmm0,%xmm14=0D - psrld $27,%xmm9=0D - pxor %xmm7,%xmm6=0D -=0D - movdqa %xmm11,%xmm7=0D - por %xmm9,%xmm8=0D - pslld $30,%xmm7=0D - paddd %xmm6,%xmm14=0D -=0D - psrld $2,%xmm11=0D - paddd %xmm8,%xmm14=0D - por %xmm5,%xmm1=0D - por %xmm7,%xmm11=0D - pxor %xmm4,%xmm2=0D - movdqa 48-128(%rax),%xmm4=0D -=0D - movdqa %xmm14,%xmm8=0D - pxor 144-128(%rax),%xmm2=0D - paddd %xmm15,%xmm13=0D - movdqa %xmm10,%xmm7=0D - pslld $5,%xmm8=0D - pxor %xmm4,%xmm2=0D - movdqa %xmm10,%xmm6=0D - pandn %xmm12,%xmm7=0D - movdqa %xmm2,%xmm5=0D - pand %xmm11,%xmm6=0D - movdqa %xmm14,%xmm9=0D - psrld $31,%xmm5=0D - paddd %xmm2,%xmm2=0D -=0D - movdqa %xmm1,0-128(%rax)=0D - paddd %xmm1,%xmm13=0D - psrld $27,%xmm9=0D - pxor %xmm7,%xmm6=0D -=0D - movdqa %xmm10,%xmm7=0D - por %xmm9,%xmm8=0D - pslld $30,%xmm7=0D - paddd %xmm6,%xmm13=0D -=0D - psrld $2,%xmm10=0D - paddd %xmm8,%xmm13=0D - por %xmm5,%xmm2=0D - por %xmm7,%xmm10=0D - pxor %xmm0,%xmm3=0D - movdqa 64-128(%rax),%xmm0=0D -=0D - movdqa %xmm13,%xmm8=0D - pxor 160-128(%rax),%xmm3=0D - paddd %xmm15,%xmm12=0D - movdqa %xmm14,%xmm7=0D - pslld $5,%xmm8=0D - pxor %xmm0,%xmm3=0D - movdqa %xmm14,%xmm6=0D - pandn %xmm11,%xmm7=0D - movdqa %xmm3,%xmm5=0D - pand %xmm10,%xmm6=0D - movdqa %xmm13,%xmm9=0D - psrld $31,%xmm5=0D - paddd %xmm3,%xmm3=0D -=0D - movdqa %xmm2,16-128(%rax)=0D - paddd %xmm2,%xmm12=0D - psrld $27,%xmm9=0D - pxor %xmm7,%xmm6=0D -=0D - movdqa %xmm14,%xmm7=0D - por %xmm9,%xmm8=0D - pslld $30,%xmm7=0D - paddd %xmm6,%xmm12=0D -=0D - psrld $2,%xmm14=0D - paddd %xmm8,%xmm12=0D - por %xmm5,%xmm3=0D - por %xmm7,%xmm14=0D - pxor %xmm1,%xmm4=0D - movdqa 80-128(%rax),%xmm1=0D -=0D - movdqa %xmm12,%xmm8=0D - pxor 176-128(%rax),%xmm4=0D - paddd %xmm15,%xmm11=0D - movdqa %xmm13,%xmm7=0D - pslld $5,%xmm8=0D - pxor %xmm1,%xmm4=0D - movdqa %xmm13,%xmm6=0D - pandn %xmm10,%xmm7=0D - movdqa %xmm4,%xmm5=0D - pand %xmm14,%xmm6=0D - movdqa %xmm12,%xmm9=0D - psrld $31,%xmm5=0D - paddd %xmm4,%xmm4=0D -=0D - movdqa %xmm3,32-128(%rax)=0D - paddd %xmm3,%xmm11=0D - psrld $27,%xmm9=0D - pxor %xmm7,%xmm6=0D -=0D - movdqa %xmm13,%xmm7=0D - por %xmm9,%xmm8=0D - pslld $30,%xmm7=0D - paddd %xmm6,%xmm11=0D -=0D - psrld $2,%xmm13=0D - paddd %xmm8,%xmm11=0D - por %xmm5,%xmm4=0D - por %xmm7,%xmm13=0D - pxor %xmm2,%xmm0=0D - movdqa 96-128(%rax),%xmm2=0D -=0D - movdqa %xmm11,%xmm8=0D - pxor 192-128(%rax),%xmm0=0D - paddd %xmm15,%xmm10=0D - movdqa %xmm12,%xmm7=0D - pslld $5,%xmm8=0D - pxor %xmm2,%xmm0=0D - movdqa %xmm12,%xmm6=0D - pandn %xmm14,%xmm7=0D - movdqa %xmm0,%xmm5=0D - pand %xmm13,%xmm6=0D - movdqa %xmm11,%xmm9=0D - psrld $31,%xmm5=0D - paddd %xmm0,%xmm0=0D -=0D - movdqa %xmm4,48-128(%rax)=0D - paddd %xmm4,%xmm10=0D - psrld $27,%xmm9=0D - pxor %xmm7,%xmm6=0D -=0D - movdqa %xmm12,%xmm7=0D - por %xmm9,%xmm8=0D - pslld $30,%xmm7=0D - paddd %xmm6,%xmm10=0D -=0D - psrld $2,%xmm12=0D - paddd %xmm8,%xmm10=0D - por %xmm5,%xmm0=0D - por %xmm7,%xmm12=0D - movdqa 0(%rbp),%xmm15=0D - pxor %xmm3,%xmm1=0D - movdqa 112-128(%rax),%xmm3=0D -=0D - movdqa %xmm10,%xmm8=0D - movdqa %xmm13,%xmm6=0D - pxor 208-128(%rax),%xmm1=0D - paddd %xmm15,%xmm14=0D - pslld $5,%xmm8=0D - pxor %xmm11,%xmm6=0D -=0D - movdqa %xmm10,%xmm9=0D - movdqa %xmm0,64-128(%rax)=0D - paddd %xmm0,%xmm14=0D - pxor %xmm3,%xmm1=0D - psrld $27,%xmm9=0D - pxor %xmm12,%xmm6=0D - movdqa %xmm11,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm1,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm14=0D - paddd %xmm1,%xmm1=0D -=0D - psrld $2,%xmm11=0D - paddd %xmm8,%xmm14=0D - por %xmm5,%xmm1=0D - por %xmm7,%xmm11=0D - pxor %xmm4,%xmm2=0D - movdqa 128-128(%rax),%xmm4=0D -=0D - movdqa %xmm14,%xmm8=0D - movdqa %xmm12,%xmm6=0D - pxor 224-128(%rax),%xmm2=0D - paddd %xmm15,%xmm13=0D - pslld $5,%xmm8=0D - pxor %xmm10,%xmm6=0D -=0D - movdqa %xmm14,%xmm9=0D - movdqa %xmm1,80-128(%rax)=0D - paddd %xmm1,%xmm13=0D - pxor %xmm4,%xmm2=0D - psrld $27,%xmm9=0D - pxor %xmm11,%xmm6=0D - movdqa %xmm10,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm2,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm13=0D - paddd %xmm2,%xmm2=0D -=0D - psrld $2,%xmm10=0D - paddd %xmm8,%xmm13=0D - por %xmm5,%xmm2=0D - por %xmm7,%xmm10=0D - pxor %xmm0,%xmm3=0D - movdqa 144-128(%rax),%xmm0=0D -=0D - movdqa %xmm13,%xmm8=0D - movdqa %xmm11,%xmm6=0D - pxor 240-128(%rax),%xmm3=0D - paddd %xmm15,%xmm12=0D - pslld $5,%xmm8=0D - pxor %xmm14,%xmm6=0D -=0D - movdqa %xmm13,%xmm9=0D - movdqa %xmm2,96-128(%rax)=0D - paddd %xmm2,%xmm12=0D - pxor %xmm0,%xmm3=0D - psrld $27,%xmm9=0D - pxor %xmm10,%xmm6=0D - movdqa %xmm14,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm3,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm12=0D - paddd %xmm3,%xmm3=0D -=0D - psrld $2,%xmm14=0D - paddd %xmm8,%xmm12=0D - por %xmm5,%xmm3=0D - por %xmm7,%xmm14=0D - pxor %xmm1,%xmm4=0D - movdqa 160-128(%rax),%xmm1=0D -=0D - movdqa %xmm12,%xmm8=0D - movdqa %xmm10,%xmm6=0D - pxor 0-128(%rax),%xmm4=0D - paddd %xmm15,%xmm11=0D - pslld $5,%xmm8=0D - pxor %xmm13,%xmm6=0D -=0D - movdqa %xmm12,%xmm9=0D - movdqa %xmm3,112-128(%rax)=0D - paddd %xmm3,%xmm11=0D - pxor %xmm1,%xmm4=0D - psrld $27,%xmm9=0D - pxor %xmm14,%xmm6=0D - movdqa %xmm13,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm4,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm11=0D - paddd %xmm4,%xmm4=0D -=0D - psrld $2,%xmm13=0D - paddd %xmm8,%xmm11=0D - por %xmm5,%xmm4=0D - por %xmm7,%xmm13=0D - pxor %xmm2,%xmm0=0D - movdqa 176-128(%rax),%xmm2=0D -=0D - movdqa %xmm11,%xmm8=0D - movdqa %xmm14,%xmm6=0D - pxor 16-128(%rax),%xmm0=0D - paddd %xmm15,%xmm10=0D - pslld $5,%xmm8=0D - pxor %xmm12,%xmm6=0D -=0D - movdqa %xmm11,%xmm9=0D - movdqa %xmm4,128-128(%rax)=0D - paddd %xmm4,%xmm10=0D - pxor %xmm2,%xmm0=0D - psrld $27,%xmm9=0D - pxor %xmm13,%xmm6=0D - movdqa %xmm12,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm0,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm10=0D - paddd %xmm0,%xmm0=0D -=0D - psrld $2,%xmm12=0D - paddd %xmm8,%xmm10=0D - por %xmm5,%xmm0=0D - por %xmm7,%xmm12=0D - pxor %xmm3,%xmm1=0D - movdqa 192-128(%rax),%xmm3=0D -=0D - movdqa %xmm10,%xmm8=0D - movdqa %xmm13,%xmm6=0D - pxor 32-128(%rax),%xmm1=0D - paddd %xmm15,%xmm14=0D - pslld $5,%xmm8=0D - pxor %xmm11,%xmm6=0D -=0D - movdqa %xmm10,%xmm9=0D - movdqa %xmm0,144-128(%rax)=0D - paddd %xmm0,%xmm14=0D - pxor %xmm3,%xmm1=0D - psrld $27,%xmm9=0D - pxor %xmm12,%xmm6=0D - movdqa %xmm11,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm1,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm14=0D - paddd %xmm1,%xmm1=0D -=0D - psrld $2,%xmm11=0D - paddd %xmm8,%xmm14=0D - por %xmm5,%xmm1=0D - por %xmm7,%xmm11=0D - pxor %xmm4,%xmm2=0D - movdqa 208-128(%rax),%xmm4=0D -=0D - movdqa %xmm14,%xmm8=0D - movdqa %xmm12,%xmm6=0D - pxor 48-128(%rax),%xmm2=0D - paddd %xmm15,%xmm13=0D - pslld $5,%xmm8=0D - pxor %xmm10,%xmm6=0D -=0D - movdqa %xmm14,%xmm9=0D - movdqa %xmm1,160-128(%rax)=0D - paddd %xmm1,%xmm13=0D - pxor %xmm4,%xmm2=0D - psrld $27,%xmm9=0D - pxor %xmm11,%xmm6=0D - movdqa %xmm10,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm2,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm13=0D - paddd %xmm2,%xmm2=0D -=0D - psrld $2,%xmm10=0D - paddd %xmm8,%xmm13=0D - por %xmm5,%xmm2=0D - por %xmm7,%xmm10=0D - pxor %xmm0,%xmm3=0D - movdqa 224-128(%rax),%xmm0=0D -=0D - movdqa %xmm13,%xmm8=0D - movdqa %xmm11,%xmm6=0D - pxor 64-128(%rax),%xmm3=0D - paddd %xmm15,%xmm12=0D - pslld $5,%xmm8=0D - pxor %xmm14,%xmm6=0D -=0D - movdqa %xmm13,%xmm9=0D - movdqa %xmm2,176-128(%rax)=0D - paddd %xmm2,%xmm12=0D - pxor %xmm0,%xmm3=0D - psrld $27,%xmm9=0D - pxor %xmm10,%xmm6=0D - movdqa %xmm14,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm3,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm12=0D - paddd %xmm3,%xmm3=0D -=0D - psrld $2,%xmm14=0D - paddd %xmm8,%xmm12=0D - por %xmm5,%xmm3=0D - por %xmm7,%xmm14=0D - pxor %xmm1,%xmm4=0D - movdqa 240-128(%rax),%xmm1=0D -=0D - movdqa %xmm12,%xmm8=0D - movdqa %xmm10,%xmm6=0D - pxor 80-128(%rax),%xmm4=0D - paddd %xmm15,%xmm11=0D - pslld $5,%xmm8=0D - pxor %xmm13,%xmm6=0D -=0D - movdqa %xmm12,%xmm9=0D - movdqa %xmm3,192-128(%rax)=0D - paddd %xmm3,%xmm11=0D - pxor %xmm1,%xmm4=0D - psrld $27,%xmm9=0D - pxor %xmm14,%xmm6=0D - movdqa %xmm13,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm4,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm11=0D - paddd %xmm4,%xmm4=0D -=0D - psrld $2,%xmm13=0D - paddd %xmm8,%xmm11=0D - por %xmm5,%xmm4=0D - por %xmm7,%xmm13=0D - pxor %xmm2,%xmm0=0D - movdqa 0-128(%rax),%xmm2=0D -=0D - movdqa %xmm11,%xmm8=0D - movdqa %xmm14,%xmm6=0D - pxor 96-128(%rax),%xmm0=0D - paddd %xmm15,%xmm10=0D - pslld $5,%xmm8=0D - pxor %xmm12,%xmm6=0D -=0D - movdqa %xmm11,%xmm9=0D - movdqa %xmm4,208-128(%rax)=0D - paddd %xmm4,%xmm10=0D - pxor %xmm2,%xmm0=0D - psrld $27,%xmm9=0D - pxor %xmm13,%xmm6=0D - movdqa %xmm12,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm0,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm10=0D - paddd %xmm0,%xmm0=0D -=0D - psrld $2,%xmm12=0D - paddd %xmm8,%xmm10=0D - por %xmm5,%xmm0=0D - por %xmm7,%xmm12=0D - pxor %xmm3,%xmm1=0D - movdqa 16-128(%rax),%xmm3=0D -=0D - movdqa %xmm10,%xmm8=0D - movdqa %xmm13,%xmm6=0D - pxor 112-128(%rax),%xmm1=0D - paddd %xmm15,%xmm14=0D - pslld $5,%xmm8=0D - pxor %xmm11,%xmm6=0D -=0D - movdqa %xmm10,%xmm9=0D - movdqa %xmm0,224-128(%rax)=0D - paddd %xmm0,%xmm14=0D - pxor %xmm3,%xmm1=0D - psrld $27,%xmm9=0D - pxor %xmm12,%xmm6=0D - movdqa %xmm11,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm1,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm14=0D - paddd %xmm1,%xmm1=0D -=0D - psrld $2,%xmm11=0D - paddd %xmm8,%xmm14=0D - por %xmm5,%xmm1=0D - por %xmm7,%xmm11=0D - pxor %xmm4,%xmm2=0D - movdqa 32-128(%rax),%xmm4=0D -=0D - movdqa %xmm14,%xmm8=0D - movdqa %xmm12,%xmm6=0D - pxor 128-128(%rax),%xmm2=0D - paddd %xmm15,%xmm13=0D - pslld $5,%xmm8=0D - pxor %xmm10,%xmm6=0D -=0D - movdqa %xmm14,%xmm9=0D - movdqa %xmm1,240-128(%rax)=0D - paddd %xmm1,%xmm13=0D - pxor %xmm4,%xmm2=0D - psrld $27,%xmm9=0D - pxor %xmm11,%xmm6=0D - movdqa %xmm10,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm2,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm13=0D - paddd %xmm2,%xmm2=0D -=0D - psrld $2,%xmm10=0D - paddd %xmm8,%xmm13=0D - por %xmm5,%xmm2=0D - por %xmm7,%xmm10=0D - pxor %xmm0,%xmm3=0D - movdqa 48-128(%rax),%xmm0=0D -=0D - movdqa %xmm13,%xmm8=0D - movdqa %xmm11,%xmm6=0D - pxor 144-128(%rax),%xmm3=0D - paddd %xmm15,%xmm12=0D - pslld $5,%xmm8=0D - pxor %xmm14,%xmm6=0D -=0D - movdqa %xmm13,%xmm9=0D - movdqa %xmm2,0-128(%rax)=0D - paddd %xmm2,%xmm12=0D - pxor %xmm0,%xmm3=0D - psrld $27,%xmm9=0D - pxor %xmm10,%xmm6=0D - movdqa %xmm14,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm3,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm12=0D - paddd %xmm3,%xmm3=0D -=0D - psrld $2,%xmm14=0D - paddd %xmm8,%xmm12=0D - por %xmm5,%xmm3=0D - por %xmm7,%xmm14=0D - pxor %xmm1,%xmm4=0D - movdqa 64-128(%rax),%xmm1=0D -=0D - movdqa %xmm12,%xmm8=0D - movdqa %xmm10,%xmm6=0D - pxor 160-128(%rax),%xmm4=0D - paddd %xmm15,%xmm11=0D - pslld $5,%xmm8=0D - pxor %xmm13,%xmm6=0D -=0D - movdqa %xmm12,%xmm9=0D - movdqa %xmm3,16-128(%rax)=0D - paddd %xmm3,%xmm11=0D - pxor %xmm1,%xmm4=0D - psrld $27,%xmm9=0D - pxor %xmm14,%xmm6=0D - movdqa %xmm13,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm4,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm11=0D - paddd %xmm4,%xmm4=0D -=0D - psrld $2,%xmm13=0D - paddd %xmm8,%xmm11=0D - por %xmm5,%xmm4=0D - por %xmm7,%xmm13=0D - pxor %xmm2,%xmm0=0D - movdqa 80-128(%rax),%xmm2=0D -=0D - movdqa %xmm11,%xmm8=0D - movdqa %xmm14,%xmm6=0D - pxor 176-128(%rax),%xmm0=0D - paddd %xmm15,%xmm10=0D - pslld $5,%xmm8=0D - pxor %xmm12,%xmm6=0D -=0D - movdqa %xmm11,%xmm9=0D - movdqa %xmm4,32-128(%rax)=0D - paddd %xmm4,%xmm10=0D - pxor %xmm2,%xmm0=0D - psrld $27,%xmm9=0D - pxor %xmm13,%xmm6=0D - movdqa %xmm12,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm0,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm10=0D - paddd %xmm0,%xmm0=0D -=0D - psrld $2,%xmm12=0D - paddd %xmm8,%xmm10=0D - por %xmm5,%xmm0=0D - por %xmm7,%xmm12=0D - pxor %xmm3,%xmm1=0D - movdqa 96-128(%rax),%xmm3=0D -=0D - movdqa %xmm10,%xmm8=0D - movdqa %xmm13,%xmm6=0D - pxor 192-128(%rax),%xmm1=0D - paddd %xmm15,%xmm14=0D - pslld $5,%xmm8=0D - pxor %xmm11,%xmm6=0D -=0D - movdqa %xmm10,%xmm9=0D - movdqa %xmm0,48-128(%rax)=0D - paddd %xmm0,%xmm14=0D - pxor %xmm3,%xmm1=0D - psrld $27,%xmm9=0D - pxor %xmm12,%xmm6=0D - movdqa %xmm11,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm1,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm14=0D - paddd %xmm1,%xmm1=0D -=0D - psrld $2,%xmm11=0D - paddd %xmm8,%xmm14=0D - por %xmm5,%xmm1=0D - por %xmm7,%xmm11=0D - pxor %xmm4,%xmm2=0D - movdqa 112-128(%rax),%xmm4=0D -=0D - movdqa %xmm14,%xmm8=0D - movdqa %xmm12,%xmm6=0D - pxor 208-128(%rax),%xmm2=0D - paddd %xmm15,%xmm13=0D - pslld $5,%xmm8=0D - pxor %xmm10,%xmm6=0D -=0D - movdqa %xmm14,%xmm9=0D - movdqa %xmm1,64-128(%rax)=0D - paddd %xmm1,%xmm13=0D - pxor %xmm4,%xmm2=0D - psrld $27,%xmm9=0D - pxor %xmm11,%xmm6=0D - movdqa %xmm10,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm2,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm13=0D - paddd %xmm2,%xmm2=0D -=0D - psrld $2,%xmm10=0D - paddd %xmm8,%xmm13=0D - por %xmm5,%xmm2=0D - por %xmm7,%xmm10=0D - pxor %xmm0,%xmm3=0D - movdqa 128-128(%rax),%xmm0=0D -=0D - movdqa %xmm13,%xmm8=0D - movdqa %xmm11,%xmm6=0D - pxor 224-128(%rax),%xmm3=0D - paddd %xmm15,%xmm12=0D - pslld $5,%xmm8=0D - pxor %xmm14,%xmm6=0D -=0D - movdqa %xmm13,%xmm9=0D - movdqa %xmm2,80-128(%rax)=0D - paddd %xmm2,%xmm12=0D - pxor %xmm0,%xmm3=0D - psrld $27,%xmm9=0D - pxor %xmm10,%xmm6=0D - movdqa %xmm14,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm3,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm12=0D - paddd %xmm3,%xmm3=0D -=0D - psrld $2,%xmm14=0D - paddd %xmm8,%xmm12=0D - por %xmm5,%xmm3=0D - por %xmm7,%xmm14=0D - pxor %xmm1,%xmm4=0D - movdqa 144-128(%rax),%xmm1=0D -=0D - movdqa %xmm12,%xmm8=0D - movdqa %xmm10,%xmm6=0D - pxor 240-128(%rax),%xmm4=0D - paddd %xmm15,%xmm11=0D - pslld $5,%xmm8=0D - pxor %xmm13,%xmm6=0D -=0D - movdqa %xmm12,%xmm9=0D - movdqa %xmm3,96-128(%rax)=0D - paddd %xmm3,%xmm11=0D - pxor %xmm1,%xmm4=0D - psrld $27,%xmm9=0D - pxor %xmm14,%xmm6=0D - movdqa %xmm13,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm4,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm11=0D - paddd %xmm4,%xmm4=0D -=0D - psrld $2,%xmm13=0D - paddd %xmm8,%xmm11=0D - por %xmm5,%xmm4=0D - por %xmm7,%xmm13=0D - pxor %xmm2,%xmm0=0D - movdqa 160-128(%rax),%xmm2=0D -=0D - movdqa %xmm11,%xmm8=0D - movdqa %xmm14,%xmm6=0D - pxor 0-128(%rax),%xmm0=0D - paddd %xmm15,%xmm10=0D - pslld $5,%xmm8=0D - pxor %xmm12,%xmm6=0D -=0D - movdqa %xmm11,%xmm9=0D - movdqa %xmm4,112-128(%rax)=0D - paddd %xmm4,%xmm10=0D - pxor %xmm2,%xmm0=0D - psrld $27,%xmm9=0D - pxor %xmm13,%xmm6=0D - movdqa %xmm12,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm0,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm10=0D - paddd %xmm0,%xmm0=0D -=0D - psrld $2,%xmm12=0D - paddd %xmm8,%xmm10=0D - por %xmm5,%xmm0=0D - por %xmm7,%xmm12=0D - movdqa 32(%rbp),%xmm15=0D - pxor %xmm3,%xmm1=0D - movdqa 176-128(%rax),%xmm3=0D -=0D - movdqa %xmm10,%xmm8=0D - movdqa %xmm13,%xmm7=0D - pxor 16-128(%rax),%xmm1=0D - pxor %xmm3,%xmm1=0D - paddd %xmm15,%xmm14=0D - pslld $5,%xmm8=0D - movdqa %xmm10,%xmm9=0D - pand %xmm12,%xmm7=0D -=0D - movdqa %xmm13,%xmm6=0D - movdqa %xmm1,%xmm5=0D - psrld $27,%xmm9=0D - paddd %xmm7,%xmm14=0D - pxor %xmm12,%xmm6=0D -=0D - movdqa %xmm0,128-128(%rax)=0D - paddd %xmm0,%xmm14=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - pand %xmm11,%xmm6=0D - movdqa %xmm11,%xmm7=0D -=0D - pslld $30,%xmm7=0D - paddd %xmm1,%xmm1=0D - paddd %xmm6,%xmm14=0D -=0D - psrld $2,%xmm11=0D - paddd %xmm8,%xmm14=0D - por %xmm5,%xmm1=0D - por %xmm7,%xmm11=0D - pxor %xmm4,%xmm2=0D - movdqa 192-128(%rax),%xmm4=0D -=0D - movdqa %xmm14,%xmm8=0D - movdqa %xmm12,%xmm7=0D - pxor 32-128(%rax),%xmm2=0D - pxor %xmm4,%xmm2=0D - paddd %xmm15,%xmm13=0D - pslld $5,%xmm8=0D - movdqa %xmm14,%xmm9=0D - pand %xmm11,%xmm7=0D -=0D - movdqa %xmm12,%xmm6=0D - movdqa %xmm2,%xmm5=0D - psrld $27,%xmm9=0D - paddd %xmm7,%xmm13=0D - pxor %xmm11,%xmm6=0D -=0D - movdqa %xmm1,144-128(%rax)=0D - paddd %xmm1,%xmm13=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - pand %xmm10,%xmm6=0D - movdqa %xmm10,%xmm7=0D -=0D - pslld $30,%xmm7=0D - paddd %xmm2,%xmm2=0D - paddd %xmm6,%xmm13=0D -=0D - psrld $2,%xmm10=0D - paddd %xmm8,%xmm13=0D - por %xmm5,%xmm2=0D - por %xmm7,%xmm10=0D - pxor %xmm0,%xmm3=0D - movdqa 208-128(%rax),%xmm0=0D -=0D - movdqa %xmm13,%xmm8=0D - movdqa %xmm11,%xmm7=0D - pxor 48-128(%rax),%xmm3=0D - pxor %xmm0,%xmm3=0D - paddd %xmm15,%xmm12=0D - pslld $5,%xmm8=0D - movdqa %xmm13,%xmm9=0D - pand %xmm10,%xmm7=0D -=0D - movdqa %xmm11,%xmm6=0D - movdqa %xmm3,%xmm5=0D - psrld $27,%xmm9=0D - paddd %xmm7,%xmm12=0D - pxor %xmm10,%xmm6=0D -=0D - movdqa %xmm2,160-128(%rax)=0D - paddd %xmm2,%xmm12=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - pand %xmm14,%xmm6=0D - movdqa %xmm14,%xmm7=0D -=0D - pslld $30,%xmm7=0D - paddd %xmm3,%xmm3=0D - paddd %xmm6,%xmm12=0D -=0D - psrld $2,%xmm14=0D - paddd %xmm8,%xmm12=0D - por %xmm5,%xmm3=0D - por %xmm7,%xmm14=0D - pxor %xmm1,%xmm4=0D - movdqa 224-128(%rax),%xmm1=0D -=0D - movdqa %xmm12,%xmm8=0D - movdqa %xmm10,%xmm7=0D - pxor 64-128(%rax),%xmm4=0D - pxor %xmm1,%xmm4=0D - paddd %xmm15,%xmm11=0D - pslld $5,%xmm8=0D - movdqa %xmm12,%xmm9=0D - pand %xmm14,%xmm7=0D -=0D - movdqa %xmm10,%xmm6=0D - movdqa %xmm4,%xmm5=0D - psrld $27,%xmm9=0D - paddd %xmm7,%xmm11=0D - pxor %xmm14,%xmm6=0D -=0D - movdqa %xmm3,176-128(%rax)=0D - paddd %xmm3,%xmm11=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - pand %xmm13,%xmm6=0D - movdqa %xmm13,%xmm7=0D -=0D - pslld $30,%xmm7=0D - paddd %xmm4,%xmm4=0D - paddd %xmm6,%xmm11=0D -=0D - psrld $2,%xmm13=0D - paddd %xmm8,%xmm11=0D - por %xmm5,%xmm4=0D - por %xmm7,%xmm13=0D - pxor %xmm2,%xmm0=0D - movdqa 240-128(%rax),%xmm2=0D -=0D - movdqa %xmm11,%xmm8=0D - movdqa %xmm14,%xmm7=0D - pxor 80-128(%rax),%xmm0=0D - pxor %xmm2,%xmm0=0D - paddd %xmm15,%xmm10=0D - pslld $5,%xmm8=0D - movdqa %xmm11,%xmm9=0D - pand %xmm13,%xmm7=0D -=0D - movdqa %xmm14,%xmm6=0D - movdqa %xmm0,%xmm5=0D - psrld $27,%xmm9=0D - paddd %xmm7,%xmm10=0D - pxor %xmm13,%xmm6=0D -=0D - movdqa %xmm4,192-128(%rax)=0D - paddd %xmm4,%xmm10=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - pand %xmm12,%xmm6=0D - movdqa %xmm12,%xmm7=0D -=0D - pslld $30,%xmm7=0D - paddd %xmm0,%xmm0=0D - paddd %xmm6,%xmm10=0D -=0D - psrld $2,%xmm12=0D - paddd %xmm8,%xmm10=0D - por %xmm5,%xmm0=0D - por %xmm7,%xmm12=0D - pxor %xmm3,%xmm1=0D - movdqa 0-128(%rax),%xmm3=0D -=0D - movdqa %xmm10,%xmm8=0D - movdqa %xmm13,%xmm7=0D - pxor 96-128(%rax),%xmm1=0D - pxor %xmm3,%xmm1=0D - paddd %xmm15,%xmm14=0D - pslld $5,%xmm8=0D - movdqa %xmm10,%xmm9=0D - pand %xmm12,%xmm7=0D -=0D - movdqa %xmm13,%xmm6=0D - movdqa %xmm1,%xmm5=0D - psrld $27,%xmm9=0D - paddd %xmm7,%xmm14=0D - pxor %xmm12,%xmm6=0D -=0D - movdqa %xmm0,208-128(%rax)=0D - paddd %xmm0,%xmm14=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - pand %xmm11,%xmm6=0D - movdqa %xmm11,%xmm7=0D -=0D - pslld $30,%xmm7=0D - paddd %xmm1,%xmm1=0D - paddd %xmm6,%xmm14=0D -=0D - psrld $2,%xmm11=0D - paddd %xmm8,%xmm14=0D - por %xmm5,%xmm1=0D - por %xmm7,%xmm11=0D - pxor %xmm4,%xmm2=0D - movdqa 16-128(%rax),%xmm4=0D -=0D - movdqa %xmm14,%xmm8=0D - movdqa %xmm12,%xmm7=0D - pxor 112-128(%rax),%xmm2=0D - pxor %xmm4,%xmm2=0D - paddd %xmm15,%xmm13=0D - pslld $5,%xmm8=0D - movdqa %xmm14,%xmm9=0D - pand %xmm11,%xmm7=0D -=0D - movdqa %xmm12,%xmm6=0D - movdqa %xmm2,%xmm5=0D - psrld $27,%xmm9=0D - paddd %xmm7,%xmm13=0D - pxor %xmm11,%xmm6=0D -=0D - movdqa %xmm1,224-128(%rax)=0D - paddd %xmm1,%xmm13=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - pand %xmm10,%xmm6=0D - movdqa %xmm10,%xmm7=0D -=0D - pslld $30,%xmm7=0D - paddd %xmm2,%xmm2=0D - paddd %xmm6,%xmm13=0D -=0D - psrld $2,%xmm10=0D - paddd %xmm8,%xmm13=0D - por %xmm5,%xmm2=0D - por %xmm7,%xmm10=0D - pxor %xmm0,%xmm3=0D - movdqa 32-128(%rax),%xmm0=0D -=0D - movdqa %xmm13,%xmm8=0D - movdqa %xmm11,%xmm7=0D - pxor 128-128(%rax),%xmm3=0D - pxor %xmm0,%xmm3=0D - paddd %xmm15,%xmm12=0D - pslld $5,%xmm8=0D - movdqa %xmm13,%xmm9=0D - pand %xmm10,%xmm7=0D -=0D - movdqa %xmm11,%xmm6=0D - movdqa %xmm3,%xmm5=0D - psrld $27,%xmm9=0D - paddd %xmm7,%xmm12=0D - pxor %xmm10,%xmm6=0D -=0D - movdqa %xmm2,240-128(%rax)=0D - paddd %xmm2,%xmm12=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - pand %xmm14,%xmm6=0D - movdqa %xmm14,%xmm7=0D -=0D - pslld $30,%xmm7=0D - paddd %xmm3,%xmm3=0D - paddd %xmm6,%xmm12=0D -=0D - psrld $2,%xmm14=0D - paddd %xmm8,%xmm12=0D - por %xmm5,%xmm3=0D - por %xmm7,%xmm14=0D - pxor %xmm1,%xmm4=0D - movdqa 48-128(%rax),%xmm1=0D -=0D - movdqa %xmm12,%xmm8=0D - movdqa %xmm10,%xmm7=0D - pxor 144-128(%rax),%xmm4=0D - pxor %xmm1,%xmm4=0D - paddd %xmm15,%xmm11=0D - pslld $5,%xmm8=0D - movdqa %xmm12,%xmm9=0D - pand %xmm14,%xmm7=0D -=0D - movdqa %xmm10,%xmm6=0D - movdqa %xmm4,%xmm5=0D - psrld $27,%xmm9=0D - paddd %xmm7,%xmm11=0D - pxor %xmm14,%xmm6=0D -=0D - movdqa %xmm3,0-128(%rax)=0D - paddd %xmm3,%xmm11=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - pand %xmm13,%xmm6=0D - movdqa %xmm13,%xmm7=0D -=0D - pslld $30,%xmm7=0D - paddd %xmm4,%xmm4=0D - paddd %xmm6,%xmm11=0D -=0D - psrld $2,%xmm13=0D - paddd %xmm8,%xmm11=0D - por %xmm5,%xmm4=0D - por %xmm7,%xmm13=0D - pxor %xmm2,%xmm0=0D - movdqa 64-128(%rax),%xmm2=0D -=0D - movdqa %xmm11,%xmm8=0D - movdqa %xmm14,%xmm7=0D - pxor 160-128(%rax),%xmm0=0D - pxor %xmm2,%xmm0=0D - paddd %xmm15,%xmm10=0D - pslld $5,%xmm8=0D - movdqa %xmm11,%xmm9=0D - pand %xmm13,%xmm7=0D -=0D - movdqa %xmm14,%xmm6=0D - movdqa %xmm0,%xmm5=0D - psrld $27,%xmm9=0D - paddd %xmm7,%xmm10=0D - pxor %xmm13,%xmm6=0D -=0D - movdqa %xmm4,16-128(%rax)=0D - paddd %xmm4,%xmm10=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - pand %xmm12,%xmm6=0D - movdqa %xmm12,%xmm7=0D -=0D - pslld $30,%xmm7=0D - paddd %xmm0,%xmm0=0D - paddd %xmm6,%xmm10=0D -=0D - psrld $2,%xmm12=0D - paddd %xmm8,%xmm10=0D - por %xmm5,%xmm0=0D - por %xmm7,%xmm12=0D - pxor %xmm3,%xmm1=0D - movdqa 80-128(%rax),%xmm3=0D -=0D - movdqa %xmm10,%xmm8=0D - movdqa %xmm13,%xmm7=0D - pxor 176-128(%rax),%xmm1=0D - pxor %xmm3,%xmm1=0D - paddd %xmm15,%xmm14=0D - pslld $5,%xmm8=0D - movdqa %xmm10,%xmm9=0D - pand %xmm12,%xmm7=0D -=0D - movdqa %xmm13,%xmm6=0D - movdqa %xmm1,%xmm5=0D - psrld $27,%xmm9=0D - paddd %xmm7,%xmm14=0D - pxor %xmm12,%xmm6=0D -=0D - movdqa %xmm0,32-128(%rax)=0D - paddd %xmm0,%xmm14=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - pand %xmm11,%xmm6=0D - movdqa %xmm11,%xmm7=0D -=0D - pslld $30,%xmm7=0D - paddd %xmm1,%xmm1=0D - paddd %xmm6,%xmm14=0D -=0D - psrld $2,%xmm11=0D - paddd %xmm8,%xmm14=0D - por %xmm5,%xmm1=0D - por %xmm7,%xmm11=0D - pxor %xmm4,%xmm2=0D - movdqa 96-128(%rax),%xmm4=0D -=0D - movdqa %xmm14,%xmm8=0D - movdqa %xmm12,%xmm7=0D - pxor 192-128(%rax),%xmm2=0D - pxor %xmm4,%xmm2=0D - paddd %xmm15,%xmm13=0D - pslld $5,%xmm8=0D - movdqa %xmm14,%xmm9=0D - pand %xmm11,%xmm7=0D -=0D - movdqa %xmm12,%xmm6=0D - movdqa %xmm2,%xmm5=0D - psrld $27,%xmm9=0D - paddd %xmm7,%xmm13=0D - pxor %xmm11,%xmm6=0D -=0D - movdqa %xmm1,48-128(%rax)=0D - paddd %xmm1,%xmm13=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - pand %xmm10,%xmm6=0D - movdqa %xmm10,%xmm7=0D -=0D - pslld $30,%xmm7=0D - paddd %xmm2,%xmm2=0D - paddd %xmm6,%xmm13=0D -=0D - psrld $2,%xmm10=0D - paddd %xmm8,%xmm13=0D - por %xmm5,%xmm2=0D - por %xmm7,%xmm10=0D - pxor %xmm0,%xmm3=0D - movdqa 112-128(%rax),%xmm0=0D -=0D - movdqa %xmm13,%xmm8=0D - movdqa %xmm11,%xmm7=0D - pxor 208-128(%rax),%xmm3=0D - pxor %xmm0,%xmm3=0D - paddd %xmm15,%xmm12=0D - pslld $5,%xmm8=0D - movdqa %xmm13,%xmm9=0D - pand %xmm10,%xmm7=0D -=0D - movdqa %xmm11,%xmm6=0D - movdqa %xmm3,%xmm5=0D - psrld $27,%xmm9=0D - paddd %xmm7,%xmm12=0D - pxor %xmm10,%xmm6=0D -=0D - movdqa %xmm2,64-128(%rax)=0D - paddd %xmm2,%xmm12=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - pand %xmm14,%xmm6=0D - movdqa %xmm14,%xmm7=0D -=0D - pslld $30,%xmm7=0D - paddd %xmm3,%xmm3=0D - paddd %xmm6,%xmm12=0D -=0D - psrld $2,%xmm14=0D - paddd %xmm8,%xmm12=0D - por %xmm5,%xmm3=0D - por %xmm7,%xmm14=0D - pxor %xmm1,%xmm4=0D - movdqa 128-128(%rax),%xmm1=0D -=0D - movdqa %xmm12,%xmm8=0D - movdqa %xmm10,%xmm7=0D - pxor 224-128(%rax),%xmm4=0D - pxor %xmm1,%xmm4=0D - paddd %xmm15,%xmm11=0D - pslld $5,%xmm8=0D - movdqa %xmm12,%xmm9=0D - pand %xmm14,%xmm7=0D -=0D - movdqa %xmm10,%xmm6=0D - movdqa %xmm4,%xmm5=0D - psrld $27,%xmm9=0D - paddd %xmm7,%xmm11=0D - pxor %xmm14,%xmm6=0D -=0D - movdqa %xmm3,80-128(%rax)=0D - paddd %xmm3,%xmm11=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - pand %xmm13,%xmm6=0D - movdqa %xmm13,%xmm7=0D -=0D - pslld $30,%xmm7=0D - paddd %xmm4,%xmm4=0D - paddd %xmm6,%xmm11=0D -=0D - psrld $2,%xmm13=0D - paddd %xmm8,%xmm11=0D - por %xmm5,%xmm4=0D - por %xmm7,%xmm13=0D - pxor %xmm2,%xmm0=0D - movdqa 144-128(%rax),%xmm2=0D -=0D - movdqa %xmm11,%xmm8=0D - movdqa %xmm14,%xmm7=0D - pxor 240-128(%rax),%xmm0=0D - pxor %xmm2,%xmm0=0D - paddd %xmm15,%xmm10=0D - pslld $5,%xmm8=0D - movdqa %xmm11,%xmm9=0D - pand %xmm13,%xmm7=0D -=0D - movdqa %xmm14,%xmm6=0D - movdqa %xmm0,%xmm5=0D - psrld $27,%xmm9=0D - paddd %xmm7,%xmm10=0D - pxor %xmm13,%xmm6=0D -=0D - movdqa %xmm4,96-128(%rax)=0D - paddd %xmm4,%xmm10=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - pand %xmm12,%xmm6=0D - movdqa %xmm12,%xmm7=0D -=0D - pslld $30,%xmm7=0D - paddd %xmm0,%xmm0=0D - paddd %xmm6,%xmm10=0D -=0D - psrld $2,%xmm12=0D - paddd %xmm8,%xmm10=0D - por %xmm5,%xmm0=0D - por %xmm7,%xmm12=0D - pxor %xmm3,%xmm1=0D - movdqa 160-128(%rax),%xmm3=0D -=0D - movdqa %xmm10,%xmm8=0D - movdqa %xmm13,%xmm7=0D - pxor 0-128(%rax),%xmm1=0D - pxor %xmm3,%xmm1=0D - paddd %xmm15,%xmm14=0D - pslld $5,%xmm8=0D - movdqa %xmm10,%xmm9=0D - pand %xmm12,%xmm7=0D -=0D - movdqa %xmm13,%xmm6=0D - movdqa %xmm1,%xmm5=0D - psrld $27,%xmm9=0D - paddd %xmm7,%xmm14=0D - pxor %xmm12,%xmm6=0D -=0D - movdqa %xmm0,112-128(%rax)=0D - paddd %xmm0,%xmm14=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - pand %xmm11,%xmm6=0D - movdqa %xmm11,%xmm7=0D -=0D - pslld $30,%xmm7=0D - paddd %xmm1,%xmm1=0D - paddd %xmm6,%xmm14=0D -=0D - psrld $2,%xmm11=0D - paddd %xmm8,%xmm14=0D - por %xmm5,%xmm1=0D - por %xmm7,%xmm11=0D - pxor %xmm4,%xmm2=0D - movdqa 176-128(%rax),%xmm4=0D -=0D - movdqa %xmm14,%xmm8=0D - movdqa %xmm12,%xmm7=0D - pxor 16-128(%rax),%xmm2=0D - pxor %xmm4,%xmm2=0D - paddd %xmm15,%xmm13=0D - pslld $5,%xmm8=0D - movdqa %xmm14,%xmm9=0D - pand %xmm11,%xmm7=0D -=0D - movdqa %xmm12,%xmm6=0D - movdqa %xmm2,%xmm5=0D - psrld $27,%xmm9=0D - paddd %xmm7,%xmm13=0D - pxor %xmm11,%xmm6=0D -=0D - movdqa %xmm1,128-128(%rax)=0D - paddd %xmm1,%xmm13=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - pand %xmm10,%xmm6=0D - movdqa %xmm10,%xmm7=0D -=0D - pslld $30,%xmm7=0D - paddd %xmm2,%xmm2=0D - paddd %xmm6,%xmm13=0D -=0D - psrld $2,%xmm10=0D - paddd %xmm8,%xmm13=0D - por %xmm5,%xmm2=0D - por %xmm7,%xmm10=0D - pxor %xmm0,%xmm3=0D - movdqa 192-128(%rax),%xmm0=0D -=0D - movdqa %xmm13,%xmm8=0D - movdqa %xmm11,%xmm7=0D - pxor 32-128(%rax),%xmm3=0D - pxor %xmm0,%xmm3=0D - paddd %xmm15,%xmm12=0D - pslld $5,%xmm8=0D - movdqa %xmm13,%xmm9=0D - pand %xmm10,%xmm7=0D -=0D - movdqa %xmm11,%xmm6=0D - movdqa %xmm3,%xmm5=0D - psrld $27,%xmm9=0D - paddd %xmm7,%xmm12=0D - pxor %xmm10,%xmm6=0D -=0D - movdqa %xmm2,144-128(%rax)=0D - paddd %xmm2,%xmm12=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - pand %xmm14,%xmm6=0D - movdqa %xmm14,%xmm7=0D -=0D - pslld $30,%xmm7=0D - paddd %xmm3,%xmm3=0D - paddd %xmm6,%xmm12=0D -=0D - psrld $2,%xmm14=0D - paddd %xmm8,%xmm12=0D - por %xmm5,%xmm3=0D - por %xmm7,%xmm14=0D - pxor %xmm1,%xmm4=0D - movdqa 208-128(%rax),%xmm1=0D -=0D - movdqa %xmm12,%xmm8=0D - movdqa %xmm10,%xmm7=0D - pxor 48-128(%rax),%xmm4=0D - pxor %xmm1,%xmm4=0D - paddd %xmm15,%xmm11=0D - pslld $5,%xmm8=0D - movdqa %xmm12,%xmm9=0D - pand %xmm14,%xmm7=0D -=0D - movdqa %xmm10,%xmm6=0D - movdqa %xmm4,%xmm5=0D - psrld $27,%xmm9=0D - paddd %xmm7,%xmm11=0D - pxor %xmm14,%xmm6=0D -=0D - movdqa %xmm3,160-128(%rax)=0D - paddd %xmm3,%xmm11=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - pand %xmm13,%xmm6=0D - movdqa %xmm13,%xmm7=0D -=0D - pslld $30,%xmm7=0D - paddd %xmm4,%xmm4=0D - paddd %xmm6,%xmm11=0D -=0D - psrld $2,%xmm13=0D - paddd %xmm8,%xmm11=0D - por %xmm5,%xmm4=0D - por %xmm7,%xmm13=0D - pxor %xmm2,%xmm0=0D - movdqa 224-128(%rax),%xmm2=0D -=0D - movdqa %xmm11,%xmm8=0D - movdqa %xmm14,%xmm7=0D - pxor 64-128(%rax),%xmm0=0D - pxor %xmm2,%xmm0=0D - paddd %xmm15,%xmm10=0D - pslld $5,%xmm8=0D - movdqa %xmm11,%xmm9=0D - pand %xmm13,%xmm7=0D -=0D - movdqa %xmm14,%xmm6=0D - movdqa %xmm0,%xmm5=0D - psrld $27,%xmm9=0D - paddd %xmm7,%xmm10=0D - pxor %xmm13,%xmm6=0D -=0D - movdqa %xmm4,176-128(%rax)=0D - paddd %xmm4,%xmm10=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - pand %xmm12,%xmm6=0D - movdqa %xmm12,%xmm7=0D -=0D - pslld $30,%xmm7=0D - paddd %xmm0,%xmm0=0D - paddd %xmm6,%xmm10=0D -=0D - psrld $2,%xmm12=0D - paddd %xmm8,%xmm10=0D - por %xmm5,%xmm0=0D - por %xmm7,%xmm12=0D - movdqa 64(%rbp),%xmm15=0D - pxor %xmm3,%xmm1=0D - movdqa 240-128(%rax),%xmm3=0D -=0D - movdqa %xmm10,%xmm8=0D - movdqa %xmm13,%xmm6=0D - pxor 80-128(%rax),%xmm1=0D - paddd %xmm15,%xmm14=0D - pslld $5,%xmm8=0D - pxor %xmm11,%xmm6=0D -=0D - movdqa %xmm10,%xmm9=0D - movdqa %xmm0,192-128(%rax)=0D - paddd %xmm0,%xmm14=0D - pxor %xmm3,%xmm1=0D - psrld $27,%xmm9=0D - pxor %xmm12,%xmm6=0D - movdqa %xmm11,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm1,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm14=0D - paddd %xmm1,%xmm1=0D -=0D - psrld $2,%xmm11=0D - paddd %xmm8,%xmm14=0D - por %xmm5,%xmm1=0D - por %xmm7,%xmm11=0D - pxor %xmm4,%xmm2=0D - movdqa 0-128(%rax),%xmm4=0D -=0D - movdqa %xmm14,%xmm8=0D - movdqa %xmm12,%xmm6=0D - pxor 96-128(%rax),%xmm2=0D - paddd %xmm15,%xmm13=0D - pslld $5,%xmm8=0D - pxor %xmm10,%xmm6=0D -=0D - movdqa %xmm14,%xmm9=0D - movdqa %xmm1,208-128(%rax)=0D - paddd %xmm1,%xmm13=0D - pxor %xmm4,%xmm2=0D - psrld $27,%xmm9=0D - pxor %xmm11,%xmm6=0D - movdqa %xmm10,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm2,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm13=0D - paddd %xmm2,%xmm2=0D -=0D - psrld $2,%xmm10=0D - paddd %xmm8,%xmm13=0D - por %xmm5,%xmm2=0D - por %xmm7,%xmm10=0D - pxor %xmm0,%xmm3=0D - movdqa 16-128(%rax),%xmm0=0D -=0D - movdqa %xmm13,%xmm8=0D - movdqa %xmm11,%xmm6=0D - pxor 112-128(%rax),%xmm3=0D - paddd %xmm15,%xmm12=0D - pslld $5,%xmm8=0D - pxor %xmm14,%xmm6=0D -=0D - movdqa %xmm13,%xmm9=0D - movdqa %xmm2,224-128(%rax)=0D - paddd %xmm2,%xmm12=0D - pxor %xmm0,%xmm3=0D - psrld $27,%xmm9=0D - pxor %xmm10,%xmm6=0D - movdqa %xmm14,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm3,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm12=0D - paddd %xmm3,%xmm3=0D -=0D - psrld $2,%xmm14=0D - paddd %xmm8,%xmm12=0D - por %xmm5,%xmm3=0D - por %xmm7,%xmm14=0D - pxor %xmm1,%xmm4=0D - movdqa 32-128(%rax),%xmm1=0D -=0D - movdqa %xmm12,%xmm8=0D - movdqa %xmm10,%xmm6=0D - pxor 128-128(%rax),%xmm4=0D - paddd %xmm15,%xmm11=0D - pslld $5,%xmm8=0D - pxor %xmm13,%xmm6=0D -=0D - movdqa %xmm12,%xmm9=0D - movdqa %xmm3,240-128(%rax)=0D - paddd %xmm3,%xmm11=0D - pxor %xmm1,%xmm4=0D - psrld $27,%xmm9=0D - pxor %xmm14,%xmm6=0D - movdqa %xmm13,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm4,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm11=0D - paddd %xmm4,%xmm4=0D -=0D - psrld $2,%xmm13=0D - paddd %xmm8,%xmm11=0D - por %xmm5,%xmm4=0D - por %xmm7,%xmm13=0D - pxor %xmm2,%xmm0=0D - movdqa 48-128(%rax),%xmm2=0D -=0D - movdqa %xmm11,%xmm8=0D - movdqa %xmm14,%xmm6=0D - pxor 144-128(%rax),%xmm0=0D - paddd %xmm15,%xmm10=0D - pslld $5,%xmm8=0D - pxor %xmm12,%xmm6=0D -=0D - movdqa %xmm11,%xmm9=0D - movdqa %xmm4,0-128(%rax)=0D - paddd %xmm4,%xmm10=0D - pxor %xmm2,%xmm0=0D - psrld $27,%xmm9=0D - pxor %xmm13,%xmm6=0D - movdqa %xmm12,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm0,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm10=0D - paddd %xmm0,%xmm0=0D -=0D - psrld $2,%xmm12=0D - paddd %xmm8,%xmm10=0D - por %xmm5,%xmm0=0D - por %xmm7,%xmm12=0D - pxor %xmm3,%xmm1=0D - movdqa 64-128(%rax),%xmm3=0D -=0D - movdqa %xmm10,%xmm8=0D - movdqa %xmm13,%xmm6=0D - pxor 160-128(%rax),%xmm1=0D - paddd %xmm15,%xmm14=0D - pslld $5,%xmm8=0D - pxor %xmm11,%xmm6=0D -=0D - movdqa %xmm10,%xmm9=0D - movdqa %xmm0,16-128(%rax)=0D - paddd %xmm0,%xmm14=0D - pxor %xmm3,%xmm1=0D - psrld $27,%xmm9=0D - pxor %xmm12,%xmm6=0D - movdqa %xmm11,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm1,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm14=0D - paddd %xmm1,%xmm1=0D -=0D - psrld $2,%xmm11=0D - paddd %xmm8,%xmm14=0D - por %xmm5,%xmm1=0D - por %xmm7,%xmm11=0D - pxor %xmm4,%xmm2=0D - movdqa 80-128(%rax),%xmm4=0D -=0D - movdqa %xmm14,%xmm8=0D - movdqa %xmm12,%xmm6=0D - pxor 176-128(%rax),%xmm2=0D - paddd %xmm15,%xmm13=0D - pslld $5,%xmm8=0D - pxor %xmm10,%xmm6=0D -=0D - movdqa %xmm14,%xmm9=0D - movdqa %xmm1,32-128(%rax)=0D - paddd %xmm1,%xmm13=0D - pxor %xmm4,%xmm2=0D - psrld $27,%xmm9=0D - pxor %xmm11,%xmm6=0D - movdqa %xmm10,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm2,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm13=0D - paddd %xmm2,%xmm2=0D -=0D - psrld $2,%xmm10=0D - paddd %xmm8,%xmm13=0D - por %xmm5,%xmm2=0D - por %xmm7,%xmm10=0D - pxor %xmm0,%xmm3=0D - movdqa 96-128(%rax),%xmm0=0D -=0D - movdqa %xmm13,%xmm8=0D - movdqa %xmm11,%xmm6=0D - pxor 192-128(%rax),%xmm3=0D - paddd %xmm15,%xmm12=0D - pslld $5,%xmm8=0D - pxor %xmm14,%xmm6=0D -=0D - movdqa %xmm13,%xmm9=0D - movdqa %xmm2,48-128(%rax)=0D - paddd %xmm2,%xmm12=0D - pxor %xmm0,%xmm3=0D - psrld $27,%xmm9=0D - pxor %xmm10,%xmm6=0D - movdqa %xmm14,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm3,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm12=0D - paddd %xmm3,%xmm3=0D -=0D - psrld $2,%xmm14=0D - paddd %xmm8,%xmm12=0D - por %xmm5,%xmm3=0D - por %xmm7,%xmm14=0D - pxor %xmm1,%xmm4=0D - movdqa 112-128(%rax),%xmm1=0D -=0D - movdqa %xmm12,%xmm8=0D - movdqa %xmm10,%xmm6=0D - pxor 208-128(%rax),%xmm4=0D - paddd %xmm15,%xmm11=0D - pslld $5,%xmm8=0D - pxor %xmm13,%xmm6=0D -=0D - movdqa %xmm12,%xmm9=0D - movdqa %xmm3,64-128(%rax)=0D - paddd %xmm3,%xmm11=0D - pxor %xmm1,%xmm4=0D - psrld $27,%xmm9=0D - pxor %xmm14,%xmm6=0D - movdqa %xmm13,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm4,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm11=0D - paddd %xmm4,%xmm4=0D -=0D - psrld $2,%xmm13=0D - paddd %xmm8,%xmm11=0D - por %xmm5,%xmm4=0D - por %xmm7,%xmm13=0D - pxor %xmm2,%xmm0=0D - movdqa 128-128(%rax),%xmm2=0D -=0D - movdqa %xmm11,%xmm8=0D - movdqa %xmm14,%xmm6=0D - pxor 224-128(%rax),%xmm0=0D - paddd %xmm15,%xmm10=0D - pslld $5,%xmm8=0D - pxor %xmm12,%xmm6=0D -=0D - movdqa %xmm11,%xmm9=0D - movdqa %xmm4,80-128(%rax)=0D - paddd %xmm4,%xmm10=0D - pxor %xmm2,%xmm0=0D - psrld $27,%xmm9=0D - pxor %xmm13,%xmm6=0D - movdqa %xmm12,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm0,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm10=0D - paddd %xmm0,%xmm0=0D -=0D - psrld $2,%xmm12=0D - paddd %xmm8,%xmm10=0D - por %xmm5,%xmm0=0D - por %xmm7,%xmm12=0D - pxor %xmm3,%xmm1=0D - movdqa 144-128(%rax),%xmm3=0D -=0D - movdqa %xmm10,%xmm8=0D - movdqa %xmm13,%xmm6=0D - pxor 240-128(%rax),%xmm1=0D - paddd %xmm15,%xmm14=0D - pslld $5,%xmm8=0D - pxor %xmm11,%xmm6=0D -=0D - movdqa %xmm10,%xmm9=0D - movdqa %xmm0,96-128(%rax)=0D - paddd %xmm0,%xmm14=0D - pxor %xmm3,%xmm1=0D - psrld $27,%xmm9=0D - pxor %xmm12,%xmm6=0D - movdqa %xmm11,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm1,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm14=0D - paddd %xmm1,%xmm1=0D -=0D - psrld $2,%xmm11=0D - paddd %xmm8,%xmm14=0D - por %xmm5,%xmm1=0D - por %xmm7,%xmm11=0D - pxor %xmm4,%xmm2=0D - movdqa 160-128(%rax),%xmm4=0D -=0D - movdqa %xmm14,%xmm8=0D - movdqa %xmm12,%xmm6=0D - pxor 0-128(%rax),%xmm2=0D - paddd %xmm15,%xmm13=0D - pslld $5,%xmm8=0D - pxor %xmm10,%xmm6=0D -=0D - movdqa %xmm14,%xmm9=0D - movdqa %xmm1,112-128(%rax)=0D - paddd %xmm1,%xmm13=0D - pxor %xmm4,%xmm2=0D - psrld $27,%xmm9=0D - pxor %xmm11,%xmm6=0D - movdqa %xmm10,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm2,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm13=0D - paddd %xmm2,%xmm2=0D -=0D - psrld $2,%xmm10=0D - paddd %xmm8,%xmm13=0D - por %xmm5,%xmm2=0D - por %xmm7,%xmm10=0D - pxor %xmm0,%xmm3=0D - movdqa 176-128(%rax),%xmm0=0D -=0D - movdqa %xmm13,%xmm8=0D - movdqa %xmm11,%xmm6=0D - pxor 16-128(%rax),%xmm3=0D - paddd %xmm15,%xmm12=0D - pslld $5,%xmm8=0D - pxor %xmm14,%xmm6=0D -=0D - movdqa %xmm13,%xmm9=0D - paddd %xmm2,%xmm12=0D - pxor %xmm0,%xmm3=0D - psrld $27,%xmm9=0D - pxor %xmm10,%xmm6=0D - movdqa %xmm14,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm3,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm12=0D - paddd %xmm3,%xmm3=0D -=0D - psrld $2,%xmm14=0D - paddd %xmm8,%xmm12=0D - por %xmm5,%xmm3=0D - por %xmm7,%xmm14=0D - pxor %xmm1,%xmm4=0D - movdqa 192-128(%rax),%xmm1=0D -=0D - movdqa %xmm12,%xmm8=0D - movdqa %xmm10,%xmm6=0D - pxor 32-128(%rax),%xmm4=0D - paddd %xmm15,%xmm11=0D - pslld $5,%xmm8=0D - pxor %xmm13,%xmm6=0D -=0D - movdqa %xmm12,%xmm9=0D - paddd %xmm3,%xmm11=0D - pxor %xmm1,%xmm4=0D - psrld $27,%xmm9=0D - pxor %xmm14,%xmm6=0D - movdqa %xmm13,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm4,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm11=0D - paddd %xmm4,%xmm4=0D -=0D - psrld $2,%xmm13=0D - paddd %xmm8,%xmm11=0D - por %xmm5,%xmm4=0D - por %xmm7,%xmm13=0D - pxor %xmm2,%xmm0=0D - movdqa 208-128(%rax),%xmm2=0D -=0D - movdqa %xmm11,%xmm8=0D - movdqa %xmm14,%xmm6=0D - pxor 48-128(%rax),%xmm0=0D - paddd %xmm15,%xmm10=0D - pslld $5,%xmm8=0D - pxor %xmm12,%xmm6=0D -=0D - movdqa %xmm11,%xmm9=0D - paddd %xmm4,%xmm10=0D - pxor %xmm2,%xmm0=0D - psrld $27,%xmm9=0D - pxor %xmm13,%xmm6=0D - movdqa %xmm12,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm0,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm10=0D - paddd %xmm0,%xmm0=0D -=0D - psrld $2,%xmm12=0D - paddd %xmm8,%xmm10=0D - por %xmm5,%xmm0=0D - por %xmm7,%xmm12=0D - pxor %xmm3,%xmm1=0D - movdqa 224-128(%rax),%xmm3=0D -=0D - movdqa %xmm10,%xmm8=0D - movdqa %xmm13,%xmm6=0D - pxor 64-128(%rax),%xmm1=0D - paddd %xmm15,%xmm14=0D - pslld $5,%xmm8=0D - pxor %xmm11,%xmm6=0D -=0D - movdqa %xmm10,%xmm9=0D - paddd %xmm0,%xmm14=0D - pxor %xmm3,%xmm1=0D - psrld $27,%xmm9=0D - pxor %xmm12,%xmm6=0D - movdqa %xmm11,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm1,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm14=0D - paddd %xmm1,%xmm1=0D -=0D - psrld $2,%xmm11=0D - paddd %xmm8,%xmm14=0D - por %xmm5,%xmm1=0D - por %xmm7,%xmm11=0D - pxor %xmm4,%xmm2=0D - movdqa 240-128(%rax),%xmm4=0D -=0D - movdqa %xmm14,%xmm8=0D - movdqa %xmm12,%xmm6=0D - pxor 80-128(%rax),%xmm2=0D - paddd %xmm15,%xmm13=0D - pslld $5,%xmm8=0D - pxor %xmm10,%xmm6=0D -=0D - movdqa %xmm14,%xmm9=0D - paddd %xmm1,%xmm13=0D - pxor %xmm4,%xmm2=0D - psrld $27,%xmm9=0D - pxor %xmm11,%xmm6=0D - movdqa %xmm10,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm2,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm13=0D - paddd %xmm2,%xmm2=0D -=0D - psrld $2,%xmm10=0D - paddd %xmm8,%xmm13=0D - por %xmm5,%xmm2=0D - por %xmm7,%xmm10=0D - pxor %xmm0,%xmm3=0D - movdqa 0-128(%rax),%xmm0=0D -=0D - movdqa %xmm13,%xmm8=0D - movdqa %xmm11,%xmm6=0D - pxor 96-128(%rax),%xmm3=0D - paddd %xmm15,%xmm12=0D - pslld $5,%xmm8=0D - pxor %xmm14,%xmm6=0D -=0D - movdqa %xmm13,%xmm9=0D - paddd %xmm2,%xmm12=0D - pxor %xmm0,%xmm3=0D - psrld $27,%xmm9=0D - pxor %xmm10,%xmm6=0D - movdqa %xmm14,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm3,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm12=0D - paddd %xmm3,%xmm3=0D -=0D - psrld $2,%xmm14=0D - paddd %xmm8,%xmm12=0D - por %xmm5,%xmm3=0D - por %xmm7,%xmm14=0D - pxor %xmm1,%xmm4=0D - movdqa 16-128(%rax),%xmm1=0D -=0D - movdqa %xmm12,%xmm8=0D - movdqa %xmm10,%xmm6=0D - pxor 112-128(%rax),%xmm4=0D - paddd %xmm15,%xmm11=0D - pslld $5,%xmm8=0D - pxor %xmm13,%xmm6=0D -=0D - movdqa %xmm12,%xmm9=0D - paddd %xmm3,%xmm11=0D - pxor %xmm1,%xmm4=0D - psrld $27,%xmm9=0D - pxor %xmm14,%xmm6=0D - movdqa %xmm13,%xmm7=0D -=0D - pslld $30,%xmm7=0D - movdqa %xmm4,%xmm5=0D - por %xmm9,%xmm8=0D - psrld $31,%xmm5=0D - paddd %xmm6,%xmm11=0D - paddd %xmm4,%xmm4=0D -=0D - psrld $2,%xmm13=0D - paddd %xmm8,%xmm11=0D - por %xmm5,%xmm4=0D - por %xmm7,%xmm13=0D - movdqa %xmm11,%xmm8=0D - paddd %xmm15,%xmm10=0D - movdqa %xmm14,%xmm6=0D - pslld $5,%xmm8=0D - pxor %xmm12,%xmm6=0D -=0D - movdqa %xmm11,%xmm9=0D - paddd %xmm4,%xmm10=0D - psrld $27,%xmm9=0D - movdqa %xmm12,%xmm7=0D - pxor %xmm13,%xmm6=0D -=0D - pslld $30,%xmm7=0D - por %xmm9,%xmm8=0D - paddd %xmm6,%xmm10=0D -=0D - psrld $2,%xmm12=0D - paddd %xmm8,%xmm10=0D - por %xmm7,%xmm12=0D - movdqa (%rbx),%xmm0=0D - movl $1,%ecx=0D - cmpl 0(%rbx),%ecx=0D - pxor %xmm8,%xmm8=0D - cmovgeq %rbp,%r8=0D - cmpl 4(%rbx),%ecx=0D - movdqa %xmm0,%xmm1=0D - cmovgeq %rbp,%r9=0D - cmpl 8(%rbx),%ecx=0D - pcmpgtd %xmm8,%xmm1=0D - cmovgeq %rbp,%r10=0D - cmpl 12(%rbx),%ecx=0D - paddd %xmm1,%xmm0=0D - cmovgeq %rbp,%r11=0D -=0D - movdqu 0(%rdi),%xmm6=0D - pand %xmm1,%xmm10=0D - movdqu 32(%rdi),%xmm7=0D - pand %xmm1,%xmm11=0D - paddd %xmm6,%xmm10=0D - movdqu 64(%rdi),%xmm8=0D - pand %xmm1,%xmm12=0D - paddd %xmm7,%xmm11=0D - movdqu 96(%rdi),%xmm9=0D - pand %xmm1,%xmm13=0D - paddd %xmm8,%xmm12=0D - movdqu 128(%rdi),%xmm5=0D - pand %xmm1,%xmm14=0D - movdqu %xmm10,0(%rdi)=0D - paddd %xmm9,%xmm13=0D - movdqu %xmm11,32(%rdi)=0D - paddd %xmm5,%xmm14=0D - movdqu %xmm12,64(%rdi)=0D - movdqu %xmm13,96(%rdi)=0D - movdqu %xmm14,128(%rdi)=0D -=0D - movdqa %xmm0,(%rbx)=0D - movdqa 96(%rbp),%xmm5=0D - movdqa -32(%rbp),%xmm15=0D - decl %edx=0D - jnz .Loop=0D -=0D - movl 280(%rsp),%edx=0D - leaq 16(%rdi),%rdi=0D - leaq 64(%rsi),%rsi=0D - decl %edx=0D - jnz .Loop_grande=0D -=0D -.Ldone:=0D - movq 272(%rsp),%rax=0D -.cfi_def_cfa %rax,8=0D - movq -16(%rax),%rbp=0D -.cfi_restore %rbp=0D - movq -8(%rax),%rbx=0D -.cfi_restore %rbx=0D - leaq (%rax),%rsp=0D -.cfi_def_cfa_register %rsp=0D -.Lepilogue:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size sha1_multi_block,.-sha1_multi_block=0D -.type sha1_multi_block_shaext,@function=0D -.align 32=0D -sha1_multi_block_shaext:=0D -.cfi_startproc=0D -_shaext_shortcut:=0D - movq %rsp,%rax=0D -.cfi_def_cfa_register %rax=0D - pushq %rbx=0D -.cfi_offset %rbx,-16=0D - pushq %rbp=0D -.cfi_offset %rbp,-24=0D - subq $288,%rsp=0D - shll $1,%edx=0D - andq $-256,%rsp=0D - leaq 64(%rdi),%rdi=0D - movq %rax,272(%rsp)=0D -.Lbody_shaext:=0D - leaq 256(%rsp),%rbx=0D - movdqa K_XX_XX+128(%rip),%xmm3=0D -=0D -.Loop_grande_shaext:=0D - movl %edx,280(%rsp)=0D - xorl %edx,%edx=0D - movq 0(%rsi),%r8=0D - movl 8(%rsi),%ecx=0D - cmpl %edx,%ecx=0D - cmovgl %ecx,%edx=0D - testl %ecx,%ecx=0D - movl %ecx,0(%rbx)=0D - cmovleq %rsp,%r8=0D - movq 16(%rsi),%r9=0D - movl 24(%rsi),%ecx=0D - cmpl %edx,%ecx=0D - cmovgl %ecx,%edx=0D - testl %ecx,%ecx=0D - movl %ecx,4(%rbx)=0D - cmovleq %rsp,%r9=0D - testl %edx,%edx=0D - jz .Ldone_shaext=0D -=0D - movq 0-64(%rdi),%xmm0=0D - movq 32-64(%rdi),%xmm4=0D - movq 64-64(%rdi),%xmm5=0D - movq 96-64(%rdi),%xmm6=0D - movq 128-64(%rdi),%xmm7=0D -=0D - punpckldq %xmm4,%xmm0=0D - punpckldq %xmm6,%xmm5=0D -=0D - movdqa %xmm0,%xmm8=0D - punpcklqdq %xmm5,%xmm0=0D - punpckhqdq %xmm5,%xmm8=0D -=0D - pshufd $63,%xmm7,%xmm1=0D - pshufd $127,%xmm7,%xmm9=0D - pshufd $27,%xmm0,%xmm0=0D - pshufd $27,%xmm8,%xmm8=0D - jmp .Loop_shaext=0D -=0D -.align 32=0D -.Loop_shaext:=0D - movdqu 0(%r8),%xmm4=0D - movdqu 0(%r9),%xmm11=0D - movdqu 16(%r8),%xmm5=0D - movdqu 16(%r9),%xmm12=0D - movdqu 32(%r8),%xmm6=0D -.byte 102,15,56,0,227=0D - movdqu 32(%r9),%xmm13=0D -.byte 102,68,15,56,0,219=0D - movdqu 48(%r8),%xmm7=0D - leaq 64(%r8),%r8=0D -.byte 102,15,56,0,235=0D - movdqu 48(%r9),%xmm14=0D - leaq 64(%r9),%r9=0D -.byte 102,68,15,56,0,227=0D -=0D - movdqa %xmm1,80(%rsp)=0D - paddd %xmm4,%xmm1=0D - movdqa %xmm9,112(%rsp)=0D - paddd %xmm11,%xmm9=0D - movdqa %xmm0,64(%rsp)=0D - movdqa %xmm0,%xmm2=0D - movdqa %xmm8,96(%rsp)=0D - movdqa %xmm8,%xmm10=0D -.byte 15,58,204,193,0=0D -.byte 15,56,200,213=0D -.byte 69,15,58,204,193,0=0D -.byte 69,15,56,200,212=0D -.byte 102,15,56,0,243=0D - prefetcht0 127(%r8)=0D -.byte 15,56,201,229=0D -.byte 102,68,15,56,0,235=0D - prefetcht0 127(%r9)=0D -.byte 69,15,56,201,220=0D -=0D -.byte 102,15,56,0,251=0D - movdqa %xmm0,%xmm1=0D -.byte 102,68,15,56,0,243=0D - movdqa %xmm8,%xmm9=0D -.byte 15,58,204,194,0=0D -.byte 15,56,200,206=0D -.byte 69,15,58,204,194,0=0D -.byte 69,15,56,200,205=0D - pxor %xmm6,%xmm4=0D -.byte 15,56,201,238=0D - pxor %xmm13,%xmm11=0D -.byte 69,15,56,201,229=0D - movdqa %xmm0,%xmm2=0D - movdqa %xmm8,%xmm10=0D -.byte 15,58,204,193,0=0D -.byte 15,56,200,215=0D -.byte 69,15,58,204,193,0=0D -.byte 69,15,56,200,214=0D -.byte 15,56,202,231=0D -.byte 69,15,56,202,222=0D - pxor %xmm7,%xmm5=0D -.byte 15,56,201,247=0D - pxor %xmm14,%xmm12=0D -.byte 69,15,56,201,238=0D - movdqa %xmm0,%xmm1=0D - movdqa %xmm8,%xmm9=0D -.byte 15,58,204,194,0=0D -.byte 15,56,200,204=0D -.byte 69,15,58,204,194,0=0D -.byte 69,15,56,200,203=0D -.byte 15,56,202,236=0D -.byte 69,15,56,202,227=0D - pxor %xmm4,%xmm6=0D -.byte 15,56,201,252=0D - pxor %xmm11,%xmm13=0D -.byte 69,15,56,201,243=0D - movdqa %xmm0,%xmm2=0D - movdqa %xmm8,%xmm10=0D -.byte 15,58,204,193,0=0D -.byte 15,56,200,213=0D -.byte 69,15,58,204,193,0=0D -.byte 69,15,56,200,212=0D -.byte 15,56,202,245=0D -.byte 69,15,56,202,236=0D - pxor %xmm5,%xmm7=0D -.byte 15,56,201,229=0D - pxor %xmm12,%xmm14=0D -.byte 69,15,56,201,220=0D - movdqa %xmm0,%xmm1=0D - movdqa %xmm8,%xmm9=0D -.byte 15,58,204,194,1=0D -.byte 15,56,200,206=0D -.byte 69,15,58,204,194,1=0D -.byte 69,15,56,200,205=0D -.byte 15,56,202,254=0D -.byte 69,15,56,202,245=0D - pxor %xmm6,%xmm4=0D -.byte 15,56,201,238=0D - pxor %xmm13,%xmm11=0D -.byte 69,15,56,201,229=0D - movdqa %xmm0,%xmm2=0D - movdqa %xmm8,%xmm10=0D -.byte 15,58,204,193,1=0D -.byte 15,56,200,215=0D -.byte 69,15,58,204,193,1=0D -.byte 69,15,56,200,214=0D -.byte 15,56,202,231=0D -.byte 69,15,56,202,222=0D - pxor %xmm7,%xmm5=0D -.byte 15,56,201,247=0D - pxor %xmm14,%xmm12=0D -.byte 69,15,56,201,238=0D - movdqa %xmm0,%xmm1=0D - movdqa %xmm8,%xmm9=0D -.byte 15,58,204,194,1=0D -.byte 15,56,200,204=0D -.byte 69,15,58,204,194,1=0D -.byte 69,15,56,200,203=0D -.byte 15,56,202,236=0D -.byte 69,15,56,202,227=0D - pxor %xmm4,%xmm6=0D -.byte 15,56,201,252=0D - pxor %xmm11,%xmm13=0D -.byte 69,15,56,201,243=0D - movdqa %xmm0,%xmm2=0D - movdqa %xmm8,%xmm10=0D -.byte 15,58,204,193,1=0D -.byte 15,56,200,213=0D -.byte 69,15,58,204,193,1=0D -.byte 69,15,56,200,212=0D -.byte 15,56,202,245=0D -.byte 69,15,56,202,236=0D - pxor %xmm5,%xmm7=0D -.byte 15,56,201,229=0D - pxor %xmm12,%xmm14=0D -.byte 69,15,56,201,220=0D - movdqa %xmm0,%xmm1=0D - movdqa %xmm8,%xmm9=0D -.byte 15,58,204,194,1=0D -.byte 15,56,200,206=0D -.byte 69,15,58,204,194,1=0D -.byte 69,15,56,200,205=0D -.byte 15,56,202,254=0D -.byte 69,15,56,202,245=0D - pxor %xmm6,%xmm4=0D -.byte 15,56,201,238=0D - pxor %xmm13,%xmm11=0D -.byte 69,15,56,201,229=0D - movdqa %xmm0,%xmm2=0D - movdqa %xmm8,%xmm10=0D -.byte 15,58,204,193,2=0D -.byte 15,56,200,215=0D -.byte 69,15,58,204,193,2=0D -.byte 69,15,56,200,214=0D -.byte 15,56,202,231=0D -.byte 69,15,56,202,222=0D - pxor %xmm7,%xmm5=0D -.byte 15,56,201,247=0D - pxor %xmm14,%xmm12=0D -.byte 69,15,56,201,238=0D - movdqa %xmm0,%xmm1=0D - movdqa %xmm8,%xmm9=0D -.byte 15,58,204,194,2=0D -.byte 15,56,200,204=0D -.byte 69,15,58,204,194,2=0D -.byte 69,15,56,200,203=0D -.byte 15,56,202,236=0D -.byte 69,15,56,202,227=0D - pxor %xmm4,%xmm6=0D -.byte 15,56,201,252=0D - pxor %xmm11,%xmm13=0D -.byte 69,15,56,201,243=0D - movdqa %xmm0,%xmm2=0D - movdqa %xmm8,%xmm10=0D -.byte 15,58,204,193,2=0D -.byte 15,56,200,213=0D -.byte 69,15,58,204,193,2=0D -.byte 69,15,56,200,212=0D -.byte 15,56,202,245=0D -.byte 69,15,56,202,236=0D - pxor %xmm5,%xmm7=0D -.byte 15,56,201,229=0D - pxor %xmm12,%xmm14=0D -.byte 69,15,56,201,220=0D - movdqa %xmm0,%xmm1=0D - movdqa %xmm8,%xmm9=0D -.byte 15,58,204,194,2=0D -.byte 15,56,200,206=0D -.byte 69,15,58,204,194,2=0D -.byte 69,15,56,200,205=0D -.byte 15,56,202,254=0D -.byte 69,15,56,202,245=0D - pxor %xmm6,%xmm4=0D -.byte 15,56,201,238=0D - pxor %xmm13,%xmm11=0D -.byte 69,15,56,201,229=0D - movdqa %xmm0,%xmm2=0D - movdqa %xmm8,%xmm10=0D -.byte 15,58,204,193,2=0D -.byte 15,56,200,215=0D -.byte 69,15,58,204,193,2=0D -.byte 69,15,56,200,214=0D -.byte 15,56,202,231=0D -.byte 69,15,56,202,222=0D - pxor %xmm7,%xmm5=0D -.byte 15,56,201,247=0D - pxor %xmm14,%xmm12=0D -.byte 69,15,56,201,238=0D - movdqa %xmm0,%xmm1=0D - movdqa %xmm8,%xmm9=0D -.byte 15,58,204,194,3=0D -.byte 15,56,200,204=0D -.byte 69,15,58,204,194,3=0D -.byte 69,15,56,200,203=0D -.byte 15,56,202,236=0D -.byte 69,15,56,202,227=0D - pxor %xmm4,%xmm6=0D -.byte 15,56,201,252=0D - pxor %xmm11,%xmm13=0D -.byte 69,15,56,201,243=0D - movdqa %xmm0,%xmm2=0D - movdqa %xmm8,%xmm10=0D -.byte 15,58,204,193,3=0D -.byte 15,56,200,213=0D -.byte 69,15,58,204,193,3=0D -.byte 69,15,56,200,212=0D -.byte 15,56,202,245=0D -.byte 69,15,56,202,236=0D - pxor %xmm5,%xmm7=0D - pxor %xmm12,%xmm14=0D -=0D - movl $1,%ecx=0D - pxor %xmm4,%xmm4=0D - cmpl 0(%rbx),%ecx=0D - cmovgeq %rsp,%r8=0D -=0D - movdqa %xmm0,%xmm1=0D - movdqa %xmm8,%xmm9=0D -.byte 15,58,204,194,3=0D -.byte 15,56,200,206=0D -.byte 69,15,58,204,194,3=0D -.byte 69,15,56,200,205=0D -.byte 15,56,202,254=0D -.byte 69,15,56,202,245=0D -=0D - cmpl 4(%rbx),%ecx=0D - cmovgeq %rsp,%r9=0D - movq (%rbx),%xmm6=0D -=0D - movdqa %xmm0,%xmm2=0D - movdqa %xmm8,%xmm10=0D -.byte 15,58,204,193,3=0D -.byte 15,56,200,215=0D -.byte 69,15,58,204,193,3=0D -.byte 69,15,56,200,214=0D -=0D - pshufd $0x00,%xmm6,%xmm11=0D - pshufd $0x55,%xmm6,%xmm12=0D - movdqa %xmm6,%xmm7=0D - pcmpgtd %xmm4,%xmm11=0D - pcmpgtd %xmm4,%xmm12=0D -=0D - movdqa %xmm0,%xmm1=0D - movdqa %xmm8,%xmm9=0D -.byte 15,58,204,194,3=0D -.byte 15,56,200,204=0D -.byte 69,15,58,204,194,3=0D -.byte 68,15,56,200,204=0D -=0D - pcmpgtd %xmm4,%xmm7=0D - pand %xmm11,%xmm0=0D - pand %xmm11,%xmm1=0D - pand %xmm12,%xmm8=0D - pand %xmm12,%xmm9=0D - paddd %xmm7,%xmm6=0D -=0D - paddd 64(%rsp),%xmm0=0D - paddd 80(%rsp),%xmm1=0D - paddd 96(%rsp),%xmm8=0D - paddd 112(%rsp),%xmm9=0D -=0D - movq %xmm6,(%rbx)=0D - decl %edx=0D - jnz .Loop_shaext=0D -=0D - movl 280(%rsp),%edx=0D -=0D - pshufd $27,%xmm0,%xmm0=0D - pshufd $27,%xmm8,%xmm8=0D -=0D - movdqa %xmm0,%xmm6=0D - punpckldq %xmm8,%xmm0=0D - punpckhdq %xmm8,%xmm6=0D - punpckhdq %xmm9,%xmm1=0D - movq %xmm0,0-64(%rdi)=0D - psrldq $8,%xmm0=0D - movq %xmm6,64-64(%rdi)=0D - psrldq $8,%xmm6=0D - movq %xmm0,32-64(%rdi)=0D - psrldq $8,%xmm1=0D - movq %xmm6,96-64(%rdi)=0D - movq %xmm1,128-64(%rdi)=0D -=0D - leaq 8(%rdi),%rdi=0D - leaq 32(%rsi),%rsi=0D - decl %edx=0D - jnz .Loop_grande_shaext=0D -=0D -.Ldone_shaext:=0D -=0D - movq -16(%rax),%rbp=0D -.cfi_restore %rbp=0D - movq -8(%rax),%rbx=0D -.cfi_restore %rbx=0D - leaq (%rax),%rsp=0D -.cfi_def_cfa_register %rsp=0D -.Lepilogue_shaext:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size sha1_multi_block_shaext,.-sha1_multi_block_shaext=0D -=0D -.align 256=0D -.long 0x5a827999,0x5a827999,0x5a827999,0x5a827999=0D -.long 0x5a827999,0x5a827999,0x5a827999,0x5a827999=0D -K_XX_XX:=0D -.long 0x6ed9eba1,0x6ed9eba1,0x6ed9eba1,0x6ed9eba1=0D -.long 0x6ed9eba1,0x6ed9eba1,0x6ed9eba1,0x6ed9eba1=0D -.long 0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc=0D -.long 0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc=0D -.long 0xca62c1d6,0xca62c1d6,0xca62c1d6,0xca62c1d6=0D -.long 0xca62c1d6,0xca62c1d6,0xca62c1d6,0xca62c1d6=0D -.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f=0D -.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f=0D -.byte 0xf,0xe,0xd,0xc,0xb,0xa,0x9,0x8,0x7,0x6,0x5,0x4,0x3,0x2,0x1,0x0=0D -.byte 83,72,65,49,32,109,117,108,116,105,45,98,108,111,99,107,32,116,114= ,97,110,115,102,111,114,109,32,102,111,114,32,120,56,54,95,54,52,44,32,67,8= 2,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101= ,110,115,115,108,46,111,114,103,62,0=0D diff --git a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha1-x86_64.S b= /CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha1-x86_64.S deleted file mode 100644 index 0b59726ae4..0000000000 --- a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha1-x86_64.S +++ /dev/null @@ -1,2631 +0,0 @@ -# WARNING: do not edit!=0D -# Generated from openssl/crypto/sha/asm/sha1-x86_64.pl=0D -#=0D -# Copyright 2006-2020 The OpenSSL Project Authors. All Rights Reserved.=0D -#=0D -# Licensed under the OpenSSL license (the "License"). You may not use=0D -# this file except in compliance with the License. You can obtain a copy= =0D -# in the file LICENSE in the source distribution or at=0D -# https://www.openssl.org/source/license.html=0D -=0D -.text=0D -=0D -=0D -.globl sha1_block_data_order=0D -.type sha1_block_data_order,@function=0D -.align 16=0D -sha1_block_data_order:=0D -.cfi_startproc=0D - movl OPENSSL_ia32cap_P+0(%rip),%r9d=0D - movl OPENSSL_ia32cap_P+4(%rip),%r8d=0D - movl OPENSSL_ia32cap_P+8(%rip),%r10d=0D - testl $512,%r8d=0D - jz .Lialu=0D - testl $536870912,%r10d=0D - jnz _shaext_shortcut=0D - jmp _ssse3_shortcut=0D -=0D -.align 16=0D -.Lialu:=0D - movq %rsp,%rax=0D -.cfi_def_cfa_register %rax=0D - pushq %rbx=0D -.cfi_offset %rbx,-16=0D - pushq %rbp=0D -.cfi_offset %rbp,-24=0D - pushq %r12=0D -.cfi_offset %r12,-32=0D - pushq %r13=0D -.cfi_offset %r13,-40=0D - pushq %r14=0D -.cfi_offset %r14,-48=0D - movq %rdi,%r8=0D - subq $72,%rsp=0D - movq %rsi,%r9=0D - andq $-64,%rsp=0D - movq %rdx,%r10=0D - movq %rax,64(%rsp)=0D -.cfi_escape 0x0f,0x06,0x77,0xc0,0x00,0x06,0x23,0x08=0D -.Lprologue:=0D -=0D - movl 0(%r8),%esi=0D - movl 4(%r8),%edi=0D - movl 8(%r8),%r11d=0D - movl 12(%r8),%r12d=0D - movl 16(%r8),%r13d=0D - jmp .Lloop=0D -=0D -.align 16=0D -.Lloop:=0D - movl 0(%r9),%edx=0D - bswapl %edx=0D - movl 4(%r9),%ebp=0D - movl %r12d,%eax=0D - movl %edx,0(%rsp)=0D - movl %esi,%ecx=0D - bswapl %ebp=0D - xorl %r11d,%eax=0D - roll $5,%ecx=0D - andl %edi,%eax=0D - leal 1518500249(%rdx,%r13,1),%r13d=0D - addl %ecx,%r13d=0D - xorl %r12d,%eax=0D - roll $30,%edi=0D - addl %eax,%r13d=0D - movl 8(%r9),%r14d=0D - movl %r11d,%eax=0D - movl %ebp,4(%rsp)=0D - movl %r13d,%ecx=0D - bswapl %r14d=0D - xorl %edi,%eax=0D - roll $5,%ecx=0D - andl %esi,%eax=0D - leal 1518500249(%rbp,%r12,1),%r12d=0D - addl %ecx,%r12d=0D - xorl %r11d,%eax=0D - roll $30,%esi=0D - addl %eax,%r12d=0D - movl 12(%r9),%edx=0D - movl %edi,%eax=0D - movl %r14d,8(%rsp)=0D - movl %r12d,%ecx=0D - bswapl %edx=0D - xorl %esi,%eax=0D - roll $5,%ecx=0D - andl %r13d,%eax=0D - leal 1518500249(%r14,%r11,1),%r11d=0D - addl %ecx,%r11d=0D - xorl %edi,%eax=0D - roll $30,%r13d=0D - addl %eax,%r11d=0D - movl 16(%r9),%ebp=0D - movl %esi,%eax=0D - movl %edx,12(%rsp)=0D - movl %r11d,%ecx=0D - bswapl %ebp=0D - xorl %r13d,%eax=0D - roll $5,%ecx=0D - andl %r12d,%eax=0D - leal 1518500249(%rdx,%rdi,1),%edi=0D - addl %ecx,%edi=0D - xorl %esi,%eax=0D - roll $30,%r12d=0D - addl %eax,%edi=0D - movl 20(%r9),%r14d=0D - movl %r13d,%eax=0D - movl %ebp,16(%rsp)=0D - movl %edi,%ecx=0D - bswapl %r14d=0D - xorl %r12d,%eax=0D - roll $5,%ecx=0D - andl %r11d,%eax=0D - leal 1518500249(%rbp,%rsi,1),%esi=0D - addl %ecx,%esi=0D - xorl %r13d,%eax=0D - roll $30,%r11d=0D - addl %eax,%esi=0D - movl 24(%r9),%edx=0D - movl %r12d,%eax=0D - movl %r14d,20(%rsp)=0D - movl %esi,%ecx=0D - bswapl %edx=0D - xorl %r11d,%eax=0D - roll $5,%ecx=0D - andl %edi,%eax=0D - leal 1518500249(%r14,%r13,1),%r13d=0D - addl %ecx,%r13d=0D - xorl %r12d,%eax=0D - roll $30,%edi=0D - addl %eax,%r13d=0D - movl 28(%r9),%ebp=0D - movl %r11d,%eax=0D - movl %edx,24(%rsp)=0D - movl %r13d,%ecx=0D - bswapl %ebp=0D - xorl %edi,%eax=0D - roll $5,%ecx=0D - andl %esi,%eax=0D - leal 1518500249(%rdx,%r12,1),%r12d=0D - addl %ecx,%r12d=0D - xorl %r11d,%eax=0D - roll $30,%esi=0D - addl %eax,%r12d=0D - movl 32(%r9),%r14d=0D - movl %edi,%eax=0D - movl %ebp,28(%rsp)=0D - movl %r12d,%ecx=0D - bswapl %r14d=0D - xorl %esi,%eax=0D - roll $5,%ecx=0D - andl %r13d,%eax=0D - leal 1518500249(%rbp,%r11,1),%r11d=0D - addl %ecx,%r11d=0D - xorl %edi,%eax=0D - roll $30,%r13d=0D - addl %eax,%r11d=0D - movl 36(%r9),%edx=0D - movl %esi,%eax=0D - movl %r14d,32(%rsp)=0D - movl %r11d,%ecx=0D - bswapl %edx=0D - xorl %r13d,%eax=0D - roll $5,%ecx=0D - andl %r12d,%eax=0D - leal 1518500249(%r14,%rdi,1),%edi=0D - addl %ecx,%edi=0D - xorl %esi,%eax=0D - roll $30,%r12d=0D - addl %eax,%edi=0D - movl 40(%r9),%ebp=0D - movl %r13d,%eax=0D - movl %edx,36(%rsp)=0D - movl %edi,%ecx=0D - bswapl %ebp=0D - xorl %r12d,%eax=0D - roll $5,%ecx=0D - andl %r11d,%eax=0D - leal 1518500249(%rdx,%rsi,1),%esi=0D - addl %ecx,%esi=0D - xorl %r13d,%eax=0D - roll $30,%r11d=0D - addl %eax,%esi=0D - movl 44(%r9),%r14d=0D - movl %r12d,%eax=0D - movl %ebp,40(%rsp)=0D - movl %esi,%ecx=0D - bswapl %r14d=0D - xorl %r11d,%eax=0D - roll $5,%ecx=0D - andl %edi,%eax=0D - leal 1518500249(%rbp,%r13,1),%r13d=0D - addl %ecx,%r13d=0D - xorl %r12d,%eax=0D - roll $30,%edi=0D - addl %eax,%r13d=0D - movl 48(%r9),%edx=0D - movl %r11d,%eax=0D - movl %r14d,44(%rsp)=0D - movl %r13d,%ecx=0D - bswapl %edx=0D - xorl %edi,%eax=0D - roll $5,%ecx=0D - andl %esi,%eax=0D - leal 1518500249(%r14,%r12,1),%r12d=0D - addl %ecx,%r12d=0D - xorl %r11d,%eax=0D - roll $30,%esi=0D - addl %eax,%r12d=0D - movl 52(%r9),%ebp=0D - movl %edi,%eax=0D - movl %edx,48(%rsp)=0D - movl %r12d,%ecx=0D - bswapl %ebp=0D - xorl %esi,%eax=0D - roll $5,%ecx=0D - andl %r13d,%eax=0D - leal 1518500249(%rdx,%r11,1),%r11d=0D - addl %ecx,%r11d=0D - xorl %edi,%eax=0D - roll $30,%r13d=0D - addl %eax,%r11d=0D - movl 56(%r9),%r14d=0D - movl %esi,%eax=0D - movl %ebp,52(%rsp)=0D - movl %r11d,%ecx=0D - bswapl %r14d=0D - xorl %r13d,%eax=0D - roll $5,%ecx=0D - andl %r12d,%eax=0D - leal 1518500249(%rbp,%rdi,1),%edi=0D - addl %ecx,%edi=0D - xorl %esi,%eax=0D - roll $30,%r12d=0D - addl %eax,%edi=0D - movl 60(%r9),%edx=0D - movl %r13d,%eax=0D - movl %r14d,56(%rsp)=0D - movl %edi,%ecx=0D - bswapl %edx=0D - xorl %r12d,%eax=0D - roll $5,%ecx=0D - andl %r11d,%eax=0D - leal 1518500249(%r14,%rsi,1),%esi=0D - addl %ecx,%esi=0D - xorl %r13d,%eax=0D - roll $30,%r11d=0D - addl %eax,%esi=0D - xorl 0(%rsp),%ebp=0D - movl %r12d,%eax=0D - movl %edx,60(%rsp)=0D - movl %esi,%ecx=0D - xorl 8(%rsp),%ebp=0D - xorl %r11d,%eax=0D - roll $5,%ecx=0D - xorl 32(%rsp),%ebp=0D - andl %edi,%eax=0D - leal 1518500249(%rdx,%r13,1),%r13d=0D - roll $30,%edi=0D - xorl %r12d,%eax=0D - addl %ecx,%r13d=0D - roll $1,%ebp=0D - addl %eax,%r13d=0D - xorl 4(%rsp),%r14d=0D - movl %r11d,%eax=0D - movl %ebp,0(%rsp)=0D - movl %r13d,%ecx=0D - xorl 12(%rsp),%r14d=0D - xorl %edi,%eax=0D - roll $5,%ecx=0D - xorl 36(%rsp),%r14d=0D - andl %esi,%eax=0D - leal 1518500249(%rbp,%r12,1),%r12d=0D - roll $30,%esi=0D - xorl %r11d,%eax=0D - addl %ecx,%r12d=0D - roll $1,%r14d=0D - addl %eax,%r12d=0D - xorl 8(%rsp),%edx=0D - movl %edi,%eax=0D - movl %r14d,4(%rsp)=0D - movl %r12d,%ecx=0D - xorl 16(%rsp),%edx=0D - xorl %esi,%eax=0D - roll $5,%ecx=0D - xorl 40(%rsp),%edx=0D - andl %r13d,%eax=0D - leal 1518500249(%r14,%r11,1),%r11d=0D - roll $30,%r13d=0D - xorl %edi,%eax=0D - addl %ecx,%r11d=0D - roll $1,%edx=0D - addl %eax,%r11d=0D - xorl 12(%rsp),%ebp=0D - movl %esi,%eax=0D - movl %edx,8(%rsp)=0D - movl %r11d,%ecx=0D - xorl 20(%rsp),%ebp=0D - xorl %r13d,%eax=0D - roll $5,%ecx=0D - xorl 44(%rsp),%ebp=0D - andl %r12d,%eax=0D - leal 1518500249(%rdx,%rdi,1),%edi=0D - roll $30,%r12d=0D - xorl %esi,%eax=0D - addl %ecx,%edi=0D - roll $1,%ebp=0D - addl %eax,%edi=0D - xorl 16(%rsp),%r14d=0D - movl %r13d,%eax=0D - movl %ebp,12(%rsp)=0D - movl %edi,%ecx=0D - xorl 24(%rsp),%r14d=0D - xorl %r12d,%eax=0D - roll $5,%ecx=0D - xorl 48(%rsp),%r14d=0D - andl %r11d,%eax=0D - leal 1518500249(%rbp,%rsi,1),%esi=0D - roll $30,%r11d=0D - xorl %r13d,%eax=0D - addl %ecx,%esi=0D - roll $1,%r14d=0D - addl %eax,%esi=0D - xorl 20(%rsp),%edx=0D - movl %edi,%eax=0D - movl %r14d,16(%rsp)=0D - movl %esi,%ecx=0D - xorl 28(%rsp),%edx=0D - xorl %r12d,%eax=0D - roll $5,%ecx=0D - xorl 52(%rsp),%edx=0D - leal 1859775393(%r14,%r13,1),%r13d=0D - xorl %r11d,%eax=0D - addl %ecx,%r13d=0D - roll $30,%edi=0D - addl %eax,%r13d=0D - roll $1,%edx=0D - xorl 24(%rsp),%ebp=0D - movl %esi,%eax=0D - movl %edx,20(%rsp)=0D - movl %r13d,%ecx=0D - xorl 32(%rsp),%ebp=0D - xorl %r11d,%eax=0D - roll $5,%ecx=0D - xorl 56(%rsp),%ebp=0D - leal 1859775393(%rdx,%r12,1),%r12d=0D - xorl %edi,%eax=0D - addl %ecx,%r12d=0D - roll $30,%esi=0D - addl %eax,%r12d=0D - roll $1,%ebp=0D - xorl 28(%rsp),%r14d=0D - movl %r13d,%eax=0D - movl %ebp,24(%rsp)=0D - movl %r12d,%ecx=0D - xorl 36(%rsp),%r14d=0D - xorl %edi,%eax=0D - roll $5,%ecx=0D - xorl 60(%rsp),%r14d=0D - leal 1859775393(%rbp,%r11,1),%r11d=0D - xorl %esi,%eax=0D - addl %ecx,%r11d=0D - roll $30,%r13d=0D - addl %eax,%r11d=0D - roll $1,%r14d=0D - xorl 32(%rsp),%edx=0D - movl %r12d,%eax=0D - movl %r14d,28(%rsp)=0D - movl %r11d,%ecx=0D - xorl 40(%rsp),%edx=0D - xorl %esi,%eax=0D - roll $5,%ecx=0D - xorl 0(%rsp),%edx=0D - leal 1859775393(%r14,%rdi,1),%edi=0D - xorl %r13d,%eax=0D - addl %ecx,%edi=0D - roll $30,%r12d=0D - addl %eax,%edi=0D - roll $1,%edx=0D - xorl 36(%rsp),%ebp=0D - movl %r11d,%eax=0D - movl %edx,32(%rsp)=0D - movl %edi,%ecx=0D - xorl 44(%rsp),%ebp=0D - xorl %r13d,%eax=0D - roll $5,%ecx=0D - xorl 4(%rsp),%ebp=0D - leal 1859775393(%rdx,%rsi,1),%esi=0D - xorl %r12d,%eax=0D - addl %ecx,%esi=0D - roll $30,%r11d=0D - addl %eax,%esi=0D - roll $1,%ebp=0D - xorl 40(%rsp),%r14d=0D - movl %edi,%eax=0D - movl %ebp,36(%rsp)=0D - movl %esi,%ecx=0D - xorl 48(%rsp),%r14d=0D - xorl %r12d,%eax=0D - roll $5,%ecx=0D - xorl 8(%rsp),%r14d=0D - leal 1859775393(%rbp,%r13,1),%r13d=0D - xorl %r11d,%eax=0D - addl %ecx,%r13d=0D - roll $30,%edi=0D - addl %eax,%r13d=0D - roll $1,%r14d=0D - xorl 44(%rsp),%edx=0D - movl %esi,%eax=0D - movl %r14d,40(%rsp)=0D - movl %r13d,%ecx=0D - xorl 52(%rsp),%edx=0D - xorl %r11d,%eax=0D - roll $5,%ecx=0D - xorl 12(%rsp),%edx=0D - leal 1859775393(%r14,%r12,1),%r12d=0D - xorl %edi,%eax=0D - addl %ecx,%r12d=0D - roll $30,%esi=0D - addl %eax,%r12d=0D - roll $1,%edx=0D - xorl 48(%rsp),%ebp=0D - movl %r13d,%eax=0D - movl %edx,44(%rsp)=0D - movl %r12d,%ecx=0D - xorl 56(%rsp),%ebp=0D - xorl %edi,%eax=0D - roll $5,%ecx=0D - xorl 16(%rsp),%ebp=0D - leal 1859775393(%rdx,%r11,1),%r11d=0D - xorl %esi,%eax=0D - addl %ecx,%r11d=0D - roll $30,%r13d=0D - addl %eax,%r11d=0D - roll $1,%ebp=0D - xorl 52(%rsp),%r14d=0D - movl %r12d,%eax=0D - movl %ebp,48(%rsp)=0D - movl %r11d,%ecx=0D - xorl 60(%rsp),%r14d=0D - xorl %esi,%eax=0D - roll $5,%ecx=0D - xorl 20(%rsp),%r14d=0D - leal 1859775393(%rbp,%rdi,1),%edi=0D - xorl %r13d,%eax=0D - addl %ecx,%edi=0D - roll $30,%r12d=0D - addl %eax,%edi=0D - roll $1,%r14d=0D - xorl 56(%rsp),%edx=0D - movl %r11d,%eax=0D - movl %r14d,52(%rsp)=0D - movl %edi,%ecx=0D - xorl 0(%rsp),%edx=0D - xorl %r13d,%eax=0D - roll $5,%ecx=0D - xorl 24(%rsp),%edx=0D - leal 1859775393(%r14,%rsi,1),%esi=0D - xorl %r12d,%eax=0D - addl %ecx,%esi=0D - roll $30,%r11d=0D - addl %eax,%esi=0D - roll $1,%edx=0D - xorl 60(%rsp),%ebp=0D - movl %edi,%eax=0D - movl %edx,56(%rsp)=0D - movl %esi,%ecx=0D - xorl 4(%rsp),%ebp=0D - xorl %r12d,%eax=0D - roll $5,%ecx=0D - xorl 28(%rsp),%ebp=0D - leal 1859775393(%rdx,%r13,1),%r13d=0D - xorl %r11d,%eax=0D - addl %ecx,%r13d=0D - roll $30,%edi=0D - addl %eax,%r13d=0D - roll $1,%ebp=0D - xorl 0(%rsp),%r14d=0D - movl %esi,%eax=0D - movl %ebp,60(%rsp)=0D - movl %r13d,%ecx=0D - xorl 8(%rsp),%r14d=0D - xorl %r11d,%eax=0D - roll $5,%ecx=0D - xorl 32(%rsp),%r14d=0D - leal 1859775393(%rbp,%r12,1),%r12d=0D - xorl %edi,%eax=0D - addl %ecx,%r12d=0D - roll $30,%esi=0D - addl %eax,%r12d=0D - roll $1,%r14d=0D - xorl 4(%rsp),%edx=0D - movl %r13d,%eax=0D - movl %r14d,0(%rsp)=0D - movl %r12d,%ecx=0D - xorl 12(%rsp),%edx=0D - xorl %edi,%eax=0D - roll $5,%ecx=0D - xorl 36(%rsp),%edx=0D - leal 1859775393(%r14,%r11,1),%r11d=0D - xorl %esi,%eax=0D - addl %ecx,%r11d=0D - roll $30,%r13d=0D - addl %eax,%r11d=0D - roll $1,%edx=0D - xorl 8(%rsp),%ebp=0D - movl %r12d,%eax=0D - movl %edx,4(%rsp)=0D - movl %r11d,%ecx=0D - xorl 16(%rsp),%ebp=0D - xorl %esi,%eax=0D - roll $5,%ecx=0D - xorl 40(%rsp),%ebp=0D - leal 1859775393(%rdx,%rdi,1),%edi=0D - xorl %r13d,%eax=0D - addl %ecx,%edi=0D - roll $30,%r12d=0D - addl %eax,%edi=0D - roll $1,%ebp=0D - xorl 12(%rsp),%r14d=0D - movl %r11d,%eax=0D - movl %ebp,8(%rsp)=0D - movl %edi,%ecx=0D - xorl 20(%rsp),%r14d=0D - xorl %r13d,%eax=0D - roll $5,%ecx=0D - xorl 44(%rsp),%r14d=0D - leal 1859775393(%rbp,%rsi,1),%esi=0D - xorl %r12d,%eax=0D - addl %ecx,%esi=0D - roll $30,%r11d=0D - addl %eax,%esi=0D - roll $1,%r14d=0D - xorl 16(%rsp),%edx=0D - movl %edi,%eax=0D - movl %r14d,12(%rsp)=0D - movl %esi,%ecx=0D - xorl 24(%rsp),%edx=0D - xorl %r12d,%eax=0D - roll $5,%ecx=0D - xorl 48(%rsp),%edx=0D - leal 1859775393(%r14,%r13,1),%r13d=0D - xorl %r11d,%eax=0D - addl %ecx,%r13d=0D - roll $30,%edi=0D - addl %eax,%r13d=0D - roll $1,%edx=0D - xorl 20(%rsp),%ebp=0D - movl %esi,%eax=0D - movl %edx,16(%rsp)=0D - movl %r13d,%ecx=0D - xorl 28(%rsp),%ebp=0D - xorl %r11d,%eax=0D - roll $5,%ecx=0D - xorl 52(%rsp),%ebp=0D - leal 1859775393(%rdx,%r12,1),%r12d=0D - xorl %edi,%eax=0D - addl %ecx,%r12d=0D - roll $30,%esi=0D - addl %eax,%r12d=0D - roll $1,%ebp=0D - xorl 24(%rsp),%r14d=0D - movl %r13d,%eax=0D - movl %ebp,20(%rsp)=0D - movl %r12d,%ecx=0D - xorl 32(%rsp),%r14d=0D - xorl %edi,%eax=0D - roll $5,%ecx=0D - xorl 56(%rsp),%r14d=0D - leal 1859775393(%rbp,%r11,1),%r11d=0D - xorl %esi,%eax=0D - addl %ecx,%r11d=0D - roll $30,%r13d=0D - addl %eax,%r11d=0D - roll $1,%r14d=0D - xorl 28(%rsp),%edx=0D - movl %r12d,%eax=0D - movl %r14d,24(%rsp)=0D - movl %r11d,%ecx=0D - xorl 36(%rsp),%edx=0D - xorl %esi,%eax=0D - roll $5,%ecx=0D - xorl 60(%rsp),%edx=0D - leal 1859775393(%r14,%rdi,1),%edi=0D - xorl %r13d,%eax=0D - addl %ecx,%edi=0D - roll $30,%r12d=0D - addl %eax,%edi=0D - roll $1,%edx=0D - xorl 32(%rsp),%ebp=0D - movl %r11d,%eax=0D - movl %edx,28(%rsp)=0D - movl %edi,%ecx=0D - xorl 40(%rsp),%ebp=0D - xorl %r13d,%eax=0D - roll $5,%ecx=0D - xorl 0(%rsp),%ebp=0D - leal 1859775393(%rdx,%rsi,1),%esi=0D - xorl %r12d,%eax=0D - addl %ecx,%esi=0D - roll $30,%r11d=0D - addl %eax,%esi=0D - roll $1,%ebp=0D - xorl 36(%rsp),%r14d=0D - movl %r12d,%eax=0D - movl %ebp,32(%rsp)=0D - movl %r12d,%ebx=0D - xorl 44(%rsp),%r14d=0D - andl %r11d,%eax=0D - movl %esi,%ecx=0D - xorl 4(%rsp),%r14d=0D - leal -1894007588(%rbp,%r13,1),%r13d=0D - xorl %r11d,%ebx=0D - roll $5,%ecx=0D - addl %eax,%r13d=0D - roll $1,%r14d=0D - andl %edi,%ebx=0D - addl %ecx,%r13d=0D - roll $30,%edi=0D - addl %ebx,%r13d=0D - xorl 40(%rsp),%edx=0D - movl %r11d,%eax=0D - movl %r14d,36(%rsp)=0D - movl %r11d,%ebx=0D - xorl 48(%rsp),%edx=0D - andl %edi,%eax=0D - movl %r13d,%ecx=0D - xorl 8(%rsp),%edx=0D - leal -1894007588(%r14,%r12,1),%r12d=0D - xorl %edi,%ebx=0D - roll $5,%ecx=0D - addl %eax,%r12d=0D - roll $1,%edx=0D - andl %esi,%ebx=0D - addl %ecx,%r12d=0D - roll $30,%esi=0D - addl %ebx,%r12d=0D - xorl 44(%rsp),%ebp=0D - movl %edi,%eax=0D - movl %edx,40(%rsp)=0D - movl %edi,%ebx=0D - xorl 52(%rsp),%ebp=0D - andl %esi,%eax=0D - movl %r12d,%ecx=0D - xorl 12(%rsp),%ebp=0D - leal -1894007588(%rdx,%r11,1),%r11d=0D - xorl %esi,%ebx=0D - roll $5,%ecx=0D - addl %eax,%r11d=0D - roll $1,%ebp=0D - andl %r13d,%ebx=0D - addl %ecx,%r11d=0D - roll $30,%r13d=0D - addl %ebx,%r11d=0D - xorl 48(%rsp),%r14d=0D - movl %esi,%eax=0D - movl %ebp,44(%rsp)=0D - movl %esi,%ebx=0D - xorl 56(%rsp),%r14d=0D - andl %r13d,%eax=0D - movl %r11d,%ecx=0D - xorl 16(%rsp),%r14d=0D - leal -1894007588(%rbp,%rdi,1),%edi=0D - xorl %r13d,%ebx=0D - roll $5,%ecx=0D - addl %eax,%edi=0D - roll $1,%r14d=0D - andl %r12d,%ebx=0D - addl %ecx,%edi=0D - roll $30,%r12d=0D - addl %ebx,%edi=0D - xorl 52(%rsp),%edx=0D - movl %r13d,%eax=0D - movl %r14d,48(%rsp)=0D - movl %r13d,%ebx=0D - xorl 60(%rsp),%edx=0D - andl %r12d,%eax=0D - movl %edi,%ecx=0D - xorl 20(%rsp),%edx=0D - leal -1894007588(%r14,%rsi,1),%esi=0D - xorl %r12d,%ebx=0D - roll $5,%ecx=0D - addl %eax,%esi=0D - roll $1,%edx=0D - andl %r11d,%ebx=0D - addl %ecx,%esi=0D - roll $30,%r11d=0D - addl %ebx,%esi=0D - xorl 56(%rsp),%ebp=0D - movl %r12d,%eax=0D - movl %edx,52(%rsp)=0D - movl %r12d,%ebx=0D - xorl 0(%rsp),%ebp=0D - andl %r11d,%eax=0D - movl %esi,%ecx=0D - xorl 24(%rsp),%ebp=0D - leal -1894007588(%rdx,%r13,1),%r13d=0D - xorl %r11d,%ebx=0D - roll $5,%ecx=0D - addl %eax,%r13d=0D - roll $1,%ebp=0D - andl %edi,%ebx=0D - addl %ecx,%r13d=0D - roll $30,%edi=0D - addl %ebx,%r13d=0D - xorl 60(%rsp),%r14d=0D - movl %r11d,%eax=0D - movl %ebp,56(%rsp)=0D - movl %r11d,%ebx=0D - xorl 4(%rsp),%r14d=0D - andl %edi,%eax=0D - movl %r13d,%ecx=0D - xorl 28(%rsp),%r14d=0D - leal -1894007588(%rbp,%r12,1),%r12d=0D - xorl %edi,%ebx=0D - roll $5,%ecx=0D - addl %eax,%r12d=0D - roll $1,%r14d=0D - andl %esi,%ebx=0D - addl %ecx,%r12d=0D - roll $30,%esi=0D - addl %ebx,%r12d=0D - xorl 0(%rsp),%edx=0D - movl %edi,%eax=0D - movl %r14d,60(%rsp)=0D - movl %edi,%ebx=0D - xorl 8(%rsp),%edx=0D - andl %esi,%eax=0D - movl %r12d,%ecx=0D - xorl 32(%rsp),%edx=0D - leal -1894007588(%r14,%r11,1),%r11d=0D - xorl %esi,%ebx=0D - roll $5,%ecx=0D - addl %eax,%r11d=0D - roll $1,%edx=0D - andl %r13d,%ebx=0D - addl %ecx,%r11d=0D - roll $30,%r13d=0D - addl %ebx,%r11d=0D - xorl 4(%rsp),%ebp=0D - movl %esi,%eax=0D - movl %edx,0(%rsp)=0D - movl %esi,%ebx=0D - xorl 12(%rsp),%ebp=0D - andl %r13d,%eax=0D - movl %r11d,%ecx=0D - xorl 36(%rsp),%ebp=0D - leal -1894007588(%rdx,%rdi,1),%edi=0D - xorl %r13d,%ebx=0D - roll $5,%ecx=0D - addl %eax,%edi=0D - roll $1,%ebp=0D - andl %r12d,%ebx=0D - addl %ecx,%edi=0D - roll $30,%r12d=0D - addl %ebx,%edi=0D - xorl 8(%rsp),%r14d=0D - movl %r13d,%eax=0D - movl %ebp,4(%rsp)=0D - movl %r13d,%ebx=0D - xorl 16(%rsp),%r14d=0D - andl %r12d,%eax=0D - movl %edi,%ecx=0D - xorl 40(%rsp),%r14d=0D - leal -1894007588(%rbp,%rsi,1),%esi=0D - xorl %r12d,%ebx=0D - roll $5,%ecx=0D - addl %eax,%esi=0D - roll $1,%r14d=0D - andl %r11d,%ebx=0D - addl %ecx,%esi=0D - roll $30,%r11d=0D - addl %ebx,%esi=0D - xorl 12(%rsp),%edx=0D - movl %r12d,%eax=0D - movl %r14d,8(%rsp)=0D - movl %r12d,%ebx=0D - xorl 20(%rsp),%edx=0D - andl %r11d,%eax=0D - movl %esi,%ecx=0D - xorl 44(%rsp),%edx=0D - leal -1894007588(%r14,%r13,1),%r13d=0D - xorl %r11d,%ebx=0D - roll $5,%ecx=0D - addl %eax,%r13d=0D - roll $1,%edx=0D - andl %edi,%ebx=0D - addl %ecx,%r13d=0D - roll $30,%edi=0D - addl %ebx,%r13d=0D - xorl 16(%rsp),%ebp=0D - movl %r11d,%eax=0D - movl %edx,12(%rsp)=0D - movl %r11d,%ebx=0D - xorl 24(%rsp),%ebp=0D - andl %edi,%eax=0D - movl %r13d,%ecx=0D - xorl 48(%rsp),%ebp=0D - leal -1894007588(%rdx,%r12,1),%r12d=0D - xorl %edi,%ebx=0D - roll $5,%ecx=0D - addl %eax,%r12d=0D - roll $1,%ebp=0D - andl %esi,%ebx=0D - addl %ecx,%r12d=0D - roll $30,%esi=0D - addl %ebx,%r12d=0D - xorl 20(%rsp),%r14d=0D - movl %edi,%eax=0D - movl %ebp,16(%rsp)=0D - movl %edi,%ebx=0D - xorl 28(%rsp),%r14d=0D - andl %esi,%eax=0D - movl %r12d,%ecx=0D - xorl 52(%rsp),%r14d=0D - leal -1894007588(%rbp,%r11,1),%r11d=0D - xorl %esi,%ebx=0D - roll $5,%ecx=0D - addl %eax,%r11d=0D - roll $1,%r14d=0D - andl %r13d,%ebx=0D - addl %ecx,%r11d=0D - roll $30,%r13d=0D - addl %ebx,%r11d=0D - xorl 24(%rsp),%edx=0D - movl %esi,%eax=0D - movl %r14d,20(%rsp)=0D - movl %esi,%ebx=0D - xorl 32(%rsp),%edx=0D - andl %r13d,%eax=0D - movl %r11d,%ecx=0D - xorl 56(%rsp),%edx=0D - leal -1894007588(%r14,%rdi,1),%edi=0D - xorl %r13d,%ebx=0D - roll $5,%ecx=0D - addl %eax,%edi=0D - roll $1,%edx=0D - andl %r12d,%ebx=0D - addl %ecx,%edi=0D - roll $30,%r12d=0D - addl %ebx,%edi=0D - xorl 28(%rsp),%ebp=0D - movl %r13d,%eax=0D - movl %edx,24(%rsp)=0D - movl %r13d,%ebx=0D - xorl 36(%rsp),%ebp=0D - andl %r12d,%eax=0D - movl %edi,%ecx=0D - xorl 60(%rsp),%ebp=0D - leal -1894007588(%rdx,%rsi,1),%esi=0D - xorl %r12d,%ebx=0D - roll $5,%ecx=0D - addl %eax,%esi=0D - roll $1,%ebp=0D - andl %r11d,%ebx=0D - addl %ecx,%esi=0D - roll $30,%r11d=0D - addl %ebx,%esi=0D - xorl 32(%rsp),%r14d=0D - movl %r12d,%eax=0D - movl %ebp,28(%rsp)=0D - movl %r12d,%ebx=0D - xorl 40(%rsp),%r14d=0D - andl %r11d,%eax=0D - movl %esi,%ecx=0D - xorl 0(%rsp),%r14d=0D - leal -1894007588(%rbp,%r13,1),%r13d=0D - xorl %r11d,%ebx=0D - roll $5,%ecx=0D - addl %eax,%r13d=0D - roll $1,%r14d=0D - andl %edi,%ebx=0D - addl %ecx,%r13d=0D - roll $30,%edi=0D - addl %ebx,%r13d=0D - xorl 36(%rsp),%edx=0D - movl %r11d,%eax=0D - movl %r14d,32(%rsp)=0D - movl %r11d,%ebx=0D - xorl 44(%rsp),%edx=0D - andl %edi,%eax=0D - movl %r13d,%ecx=0D - xorl 4(%rsp),%edx=0D - leal -1894007588(%r14,%r12,1),%r12d=0D - xorl %edi,%ebx=0D - roll $5,%ecx=0D - addl %eax,%r12d=0D - roll $1,%edx=0D - andl %esi,%ebx=0D - addl %ecx,%r12d=0D - roll $30,%esi=0D - addl %ebx,%r12d=0D - xorl 40(%rsp),%ebp=0D - movl %edi,%eax=0D - movl %edx,36(%rsp)=0D - movl %edi,%ebx=0D - xorl 48(%rsp),%ebp=0D - andl %esi,%eax=0D - movl %r12d,%ecx=0D - xorl 8(%rsp),%ebp=0D - leal -1894007588(%rdx,%r11,1),%r11d=0D - xorl %esi,%ebx=0D - roll $5,%ecx=0D - addl %eax,%r11d=0D - roll $1,%ebp=0D - andl %r13d,%ebx=0D - addl %ecx,%r11d=0D - roll $30,%r13d=0D - addl %ebx,%r11d=0D - xorl 44(%rsp),%r14d=0D - movl %esi,%eax=0D - movl %ebp,40(%rsp)=0D - movl %esi,%ebx=0D - xorl 52(%rsp),%r14d=0D - andl %r13d,%eax=0D - movl %r11d,%ecx=0D - xorl 12(%rsp),%r14d=0D - leal -1894007588(%rbp,%rdi,1),%edi=0D - xorl %r13d,%ebx=0D - roll $5,%ecx=0D - addl %eax,%edi=0D - roll $1,%r14d=0D - andl %r12d,%ebx=0D - addl %ecx,%edi=0D - roll $30,%r12d=0D - addl %ebx,%edi=0D - xorl 48(%rsp),%edx=0D - movl %r13d,%eax=0D - movl %r14d,44(%rsp)=0D - movl %r13d,%ebx=0D - xorl 56(%rsp),%edx=0D - andl %r12d,%eax=0D - movl %edi,%ecx=0D - xorl 16(%rsp),%edx=0D - leal -1894007588(%r14,%rsi,1),%esi=0D - xorl %r12d,%ebx=0D - roll $5,%ecx=0D - addl %eax,%esi=0D - roll $1,%edx=0D - andl %r11d,%ebx=0D - addl %ecx,%esi=0D - roll $30,%r11d=0D - addl %ebx,%esi=0D - xorl 52(%rsp),%ebp=0D - movl %edi,%eax=0D - movl %edx,48(%rsp)=0D - movl %esi,%ecx=0D - xorl 60(%rsp),%ebp=0D - xorl %r12d,%eax=0D - roll $5,%ecx=0D - xorl 20(%rsp),%ebp=0D - leal -899497514(%rdx,%r13,1),%r13d=0D - xorl %r11d,%eax=0D - addl %ecx,%r13d=0D - roll $30,%edi=0D - addl %eax,%r13d=0D - roll $1,%ebp=0D - xorl 56(%rsp),%r14d=0D - movl %esi,%eax=0D - movl %ebp,52(%rsp)=0D - movl %r13d,%ecx=0D - xorl 0(%rsp),%r14d=0D - xorl %r11d,%eax=0D - roll $5,%ecx=0D - xorl 24(%rsp),%r14d=0D - leal -899497514(%rbp,%r12,1),%r12d=0D - xorl %edi,%eax=0D - addl %ecx,%r12d=0D - roll $30,%esi=0D - addl %eax,%r12d=0D - roll $1,%r14d=0D - xorl 60(%rsp),%edx=0D - movl %r13d,%eax=0D - movl %r14d,56(%rsp)=0D - movl %r12d,%ecx=0D - xorl 4(%rsp),%edx=0D - xorl %edi,%eax=0D - roll $5,%ecx=0D - xorl 28(%rsp),%edx=0D - leal -899497514(%r14,%r11,1),%r11d=0D - xorl %esi,%eax=0D - addl %ecx,%r11d=0D - roll $30,%r13d=0D - addl %eax,%r11d=0D - roll $1,%edx=0D - xorl 0(%rsp),%ebp=0D - movl %r12d,%eax=0D - movl %edx,60(%rsp)=0D - movl %r11d,%ecx=0D - xorl 8(%rsp),%ebp=0D - xorl %esi,%eax=0D - roll $5,%ecx=0D - xorl 32(%rsp),%ebp=0D - leal -899497514(%rdx,%rdi,1),%edi=0D - xorl %r13d,%eax=0D - addl %ecx,%edi=0D - roll $30,%r12d=0D - addl %eax,%edi=0D - roll $1,%ebp=0D - xorl 4(%rsp),%r14d=0D - movl %r11d,%eax=0D - movl %ebp,0(%rsp)=0D - movl %edi,%ecx=0D - xorl 12(%rsp),%r14d=0D - xorl %r13d,%eax=0D - roll $5,%ecx=0D - xorl 36(%rsp),%r14d=0D - leal -899497514(%rbp,%rsi,1),%esi=0D - xorl %r12d,%eax=0D - addl %ecx,%esi=0D - roll $30,%r11d=0D - addl %eax,%esi=0D - roll $1,%r14d=0D - xorl 8(%rsp),%edx=0D - movl %edi,%eax=0D - movl %r14d,4(%rsp)=0D - movl %esi,%ecx=0D - xorl 16(%rsp),%edx=0D - xorl %r12d,%eax=0D - roll $5,%ecx=0D - xorl 40(%rsp),%edx=0D - leal -899497514(%r14,%r13,1),%r13d=0D - xorl %r11d,%eax=0D - addl %ecx,%r13d=0D - roll $30,%edi=0D - addl %eax,%r13d=0D - roll $1,%edx=0D - xorl 12(%rsp),%ebp=0D - movl %esi,%eax=0D - movl %edx,8(%rsp)=0D - movl %r13d,%ecx=0D - xorl 20(%rsp),%ebp=0D - xorl %r11d,%eax=0D - roll $5,%ecx=0D - xorl 44(%rsp),%ebp=0D - leal -899497514(%rdx,%r12,1),%r12d=0D - xorl %edi,%eax=0D - addl %ecx,%r12d=0D - roll $30,%esi=0D - addl %eax,%r12d=0D - roll $1,%ebp=0D - xorl 16(%rsp),%r14d=0D - movl %r13d,%eax=0D - movl %ebp,12(%rsp)=0D - movl %r12d,%ecx=0D - xorl 24(%rsp),%r14d=0D - xorl %edi,%eax=0D - roll $5,%ecx=0D - xorl 48(%rsp),%r14d=0D - leal -899497514(%rbp,%r11,1),%r11d=0D - xorl %esi,%eax=0D - addl %ecx,%r11d=0D - roll $30,%r13d=0D - addl %eax,%r11d=0D - roll $1,%r14d=0D - xorl 20(%rsp),%edx=0D - movl %r12d,%eax=0D - movl %r14d,16(%rsp)=0D - movl %r11d,%ecx=0D - xorl 28(%rsp),%edx=0D - xorl %esi,%eax=0D - roll $5,%ecx=0D - xorl 52(%rsp),%edx=0D - leal -899497514(%r14,%rdi,1),%edi=0D - xorl %r13d,%eax=0D - addl %ecx,%edi=0D - roll $30,%r12d=0D - addl %eax,%edi=0D - roll $1,%edx=0D - xorl 24(%rsp),%ebp=0D - movl %r11d,%eax=0D - movl %edx,20(%rsp)=0D - movl %edi,%ecx=0D - xorl 32(%rsp),%ebp=0D - xorl %r13d,%eax=0D - roll $5,%ecx=0D - xorl 56(%rsp),%ebp=0D - leal -899497514(%rdx,%rsi,1),%esi=0D - xorl %r12d,%eax=0D - addl %ecx,%esi=0D - roll $30,%r11d=0D - addl %eax,%esi=0D - roll $1,%ebp=0D - xorl 28(%rsp),%r14d=0D - movl %edi,%eax=0D - movl %ebp,24(%rsp)=0D - movl %esi,%ecx=0D - xorl 36(%rsp),%r14d=0D - xorl %r12d,%eax=0D - roll $5,%ecx=0D - xorl 60(%rsp),%r14d=0D - leal -899497514(%rbp,%r13,1),%r13d=0D - xorl %r11d,%eax=0D - addl %ecx,%r13d=0D - roll $30,%edi=0D - addl %eax,%r13d=0D - roll $1,%r14d=0D - xorl 32(%rsp),%edx=0D - movl %esi,%eax=0D - movl %r14d,28(%rsp)=0D - movl %r13d,%ecx=0D - xorl 40(%rsp),%edx=0D - xorl %r11d,%eax=0D - roll $5,%ecx=0D - xorl 0(%rsp),%edx=0D - leal -899497514(%r14,%r12,1),%r12d=0D - xorl %edi,%eax=0D - addl %ecx,%r12d=0D - roll $30,%esi=0D - addl %eax,%r12d=0D - roll $1,%edx=0D - xorl 36(%rsp),%ebp=0D - movl %r13d,%eax=0D -=0D - movl %r12d,%ecx=0D - xorl 44(%rsp),%ebp=0D - xorl %edi,%eax=0D - roll $5,%ecx=0D - xorl 4(%rsp),%ebp=0D - leal -899497514(%rdx,%r11,1),%r11d=0D - xorl %esi,%eax=0D - addl %ecx,%r11d=0D - roll $30,%r13d=0D - addl %eax,%r11d=0D - roll $1,%ebp=0D - xorl 40(%rsp),%r14d=0D - movl %r12d,%eax=0D -=0D - movl %r11d,%ecx=0D - xorl 48(%rsp),%r14d=0D - xorl %esi,%eax=0D - roll $5,%ecx=0D - xorl 8(%rsp),%r14d=0D - leal -899497514(%rbp,%rdi,1),%edi=0D - xorl %r13d,%eax=0D - addl %ecx,%edi=0D - roll $30,%r12d=0D - addl %eax,%edi=0D - roll $1,%r14d=0D - xorl 44(%rsp),%edx=0D - movl %r11d,%eax=0D -=0D - movl %edi,%ecx=0D - xorl 52(%rsp),%edx=0D - xorl %r13d,%eax=0D - roll $5,%ecx=0D - xorl 12(%rsp),%edx=0D - leal -899497514(%r14,%rsi,1),%esi=0D - xorl %r12d,%eax=0D - addl %ecx,%esi=0D - roll $30,%r11d=0D - addl %eax,%esi=0D - roll $1,%edx=0D - xorl 48(%rsp),%ebp=0D - movl %edi,%eax=0D -=0D - movl %esi,%ecx=0D - xorl 56(%rsp),%ebp=0D - xorl %r12d,%eax=0D - roll $5,%ecx=0D - xorl 16(%rsp),%ebp=0D - leal -899497514(%rdx,%r13,1),%r13d=0D - xorl %r11d,%eax=0D - addl %ecx,%r13d=0D - roll $30,%edi=0D - addl %eax,%r13d=0D - roll $1,%ebp=0D - xorl 52(%rsp),%r14d=0D - movl %esi,%eax=0D -=0D - movl %r13d,%ecx=0D - xorl 60(%rsp),%r14d=0D - xorl %r11d,%eax=0D - roll $5,%ecx=0D - xorl 20(%rsp),%r14d=0D - leal -899497514(%rbp,%r12,1),%r12d=0D - xorl %edi,%eax=0D - addl %ecx,%r12d=0D - roll $30,%esi=0D - addl %eax,%r12d=0D - roll $1,%r14d=0D - xorl 56(%rsp),%edx=0D - movl %r13d,%eax=0D -=0D - movl %r12d,%ecx=0D - xorl 0(%rsp),%edx=0D - xorl %edi,%eax=0D - roll $5,%ecx=0D - xorl 24(%rsp),%edx=0D - leal -899497514(%r14,%r11,1),%r11d=0D - xorl %esi,%eax=0D - addl %ecx,%r11d=0D - roll $30,%r13d=0D - addl %eax,%r11d=0D - roll $1,%edx=0D - xorl 60(%rsp),%ebp=0D - movl %r12d,%eax=0D -=0D - movl %r11d,%ecx=0D - xorl 4(%rsp),%ebp=0D - xorl %esi,%eax=0D - roll $5,%ecx=0D - xorl 28(%rsp),%ebp=0D - leal -899497514(%rdx,%rdi,1),%edi=0D - xorl %r13d,%eax=0D - addl %ecx,%edi=0D - roll $30,%r12d=0D - addl %eax,%edi=0D - roll $1,%ebp=0D - movl %r11d,%eax=0D - movl %edi,%ecx=0D - xorl %r13d,%eax=0D - leal -899497514(%rbp,%rsi,1),%esi=0D - roll $5,%ecx=0D - xorl %r12d,%eax=0D - addl %ecx,%esi=0D - roll $30,%r11d=0D - addl %eax,%esi=0D - addl 0(%r8),%esi=0D - addl 4(%r8),%edi=0D - addl 8(%r8),%r11d=0D - addl 12(%r8),%r12d=0D - addl 16(%r8),%r13d=0D - movl %esi,0(%r8)=0D - movl %edi,4(%r8)=0D - movl %r11d,8(%r8)=0D - movl %r12d,12(%r8)=0D - movl %r13d,16(%r8)=0D -=0D - subq $1,%r10=0D - leaq 64(%r9),%r9=0D - jnz .Lloop=0D -=0D - movq 64(%rsp),%rsi=0D -.cfi_def_cfa %rsi,8=0D - movq -40(%rsi),%r14=0D -.cfi_restore %r14=0D - movq -32(%rsi),%r13=0D -.cfi_restore %r13=0D - movq -24(%rsi),%r12=0D -.cfi_restore %r12=0D - movq -16(%rsi),%rbp=0D -.cfi_restore %rbp=0D - movq -8(%rsi),%rbx=0D -.cfi_restore %rbx=0D - leaq (%rsi),%rsp=0D -.cfi_def_cfa_register %rsp=0D -.Lepilogue:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size sha1_block_data_order,.-sha1_block_data_order=0D -.type sha1_block_data_order_shaext,@function=0D -.align 32=0D -sha1_block_data_order_shaext:=0D -_shaext_shortcut:=0D -.cfi_startproc=0D - movdqu (%rdi),%xmm0=0D - movd 16(%rdi),%xmm1=0D - movdqa K_XX_XX+160(%rip),%xmm3=0D -=0D - movdqu (%rsi),%xmm4=0D - pshufd $27,%xmm0,%xmm0=0D - movdqu 16(%rsi),%xmm5=0D - pshufd $27,%xmm1,%xmm1=0D - movdqu 32(%rsi),%xmm6=0D -.byte 102,15,56,0,227=0D - movdqu 48(%rsi),%xmm7=0D -.byte 102,15,56,0,235=0D -.byte 102,15,56,0,243=0D - movdqa %xmm1,%xmm9=0D -.byte 102,15,56,0,251=0D - jmp .Loop_shaext=0D -=0D -.align 16=0D -.Loop_shaext:=0D - decq %rdx=0D - leaq 64(%rsi),%r8=0D - paddd %xmm4,%xmm1=0D - cmovneq %r8,%rsi=0D - movdqa %xmm0,%xmm8=0D -.byte 15,56,201,229=0D - movdqa %xmm0,%xmm2=0D -.byte 15,58,204,193,0=0D -.byte 15,56,200,213=0D - pxor %xmm6,%xmm4=0D -.byte 15,56,201,238=0D -.byte 15,56,202,231=0D -=0D - movdqa %xmm0,%xmm1=0D -.byte 15,58,204,194,0=0D -.byte 15,56,200,206=0D - pxor %xmm7,%xmm5=0D -.byte 15,56,202,236=0D -.byte 15,56,201,247=0D - movdqa %xmm0,%xmm2=0D -.byte 15,58,204,193,0=0D -.byte 15,56,200,215=0D - pxor %xmm4,%xmm6=0D -.byte 15,56,201,252=0D -.byte 15,56,202,245=0D -=0D - movdqa %xmm0,%xmm1=0D -.byte 15,58,204,194,0=0D -.byte 15,56,200,204=0D - pxor %xmm5,%xmm7=0D -.byte 15,56,202,254=0D -.byte 15,56,201,229=0D - movdqa %xmm0,%xmm2=0D -.byte 15,58,204,193,0=0D -.byte 15,56,200,213=0D - pxor %xmm6,%xmm4=0D -.byte 15,56,201,238=0D -.byte 15,56,202,231=0D -=0D - movdqa %xmm0,%xmm1=0D -.byte 15,58,204,194,1=0D -.byte 15,56,200,206=0D - pxor %xmm7,%xmm5=0D -.byte 15,56,202,236=0D -.byte 15,56,201,247=0D - movdqa %xmm0,%xmm2=0D -.byte 15,58,204,193,1=0D -.byte 15,56,200,215=0D - pxor %xmm4,%xmm6=0D -.byte 15,56,201,252=0D -.byte 15,56,202,245=0D -=0D - movdqa %xmm0,%xmm1=0D -.byte 15,58,204,194,1=0D -.byte 15,56,200,204=0D - pxor %xmm5,%xmm7=0D -.byte 15,56,202,254=0D -.byte 15,56,201,229=0D - movdqa %xmm0,%xmm2=0D -.byte 15,58,204,193,1=0D -.byte 15,56,200,213=0D - pxor %xmm6,%xmm4=0D -.byte 15,56,201,238=0D -.byte 15,56,202,231=0D -=0D - movdqa %xmm0,%xmm1=0D -.byte 15,58,204,194,1=0D -.byte 15,56,200,206=0D - pxor %xmm7,%xmm5=0D -.byte 15,56,202,236=0D -.byte 15,56,201,247=0D - movdqa %xmm0,%xmm2=0D -.byte 15,58,204,193,2=0D -.byte 15,56,200,215=0D - pxor %xmm4,%xmm6=0D -.byte 15,56,201,252=0D -.byte 15,56,202,245=0D -=0D - movdqa %xmm0,%xmm1=0D -.byte 15,58,204,194,2=0D -.byte 15,56,200,204=0D - pxor %xmm5,%xmm7=0D -.byte 15,56,202,254=0D -.byte 15,56,201,229=0D - movdqa %xmm0,%xmm2=0D -.byte 15,58,204,193,2=0D -.byte 15,56,200,213=0D - pxor %xmm6,%xmm4=0D -.byte 15,56,201,238=0D -.byte 15,56,202,231=0D -=0D - movdqa %xmm0,%xmm1=0D -.byte 15,58,204,194,2=0D -.byte 15,56,200,206=0D - pxor %xmm7,%xmm5=0D -.byte 15,56,202,236=0D -.byte 15,56,201,247=0D - movdqa %xmm0,%xmm2=0D -.byte 15,58,204,193,2=0D -.byte 15,56,200,215=0D - pxor %xmm4,%xmm6=0D -.byte 15,56,201,252=0D -.byte 15,56,202,245=0D -=0D - movdqa %xmm0,%xmm1=0D -.byte 15,58,204,194,3=0D -.byte 15,56,200,204=0D - pxor %xmm5,%xmm7=0D -.byte 15,56,202,254=0D - movdqu (%rsi),%xmm4=0D - movdqa %xmm0,%xmm2=0D -.byte 15,58,204,193,3=0D -.byte 15,56,200,213=0D - movdqu 16(%rsi),%xmm5=0D -.byte 102,15,56,0,227=0D -=0D - movdqa %xmm0,%xmm1=0D -.byte 15,58,204,194,3=0D -.byte 15,56,200,206=0D - movdqu 32(%rsi),%xmm6=0D -.byte 102,15,56,0,235=0D -=0D - movdqa %xmm0,%xmm2=0D -.byte 15,58,204,193,3=0D -.byte 15,56,200,215=0D - movdqu 48(%rsi),%xmm7=0D -.byte 102,15,56,0,243=0D -=0D - movdqa %xmm0,%xmm1=0D -.byte 15,58,204,194,3=0D -.byte 65,15,56,200,201=0D -.byte 102,15,56,0,251=0D -=0D - paddd %xmm8,%xmm0=0D - movdqa %xmm1,%xmm9=0D -=0D - jnz .Loop_shaext=0D -=0D - pshufd $27,%xmm0,%xmm0=0D - pshufd $27,%xmm1,%xmm1=0D - movdqu %xmm0,(%rdi)=0D - movd %xmm1,16(%rdi)=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size sha1_block_data_order_shaext,.-sha1_block_data_order_shaext=0D -.type sha1_block_data_order_ssse3,@function=0D -.align 16=0D -sha1_block_data_order_ssse3:=0D -_ssse3_shortcut:=0D -.cfi_startproc=0D - movq %rsp,%r11=0D -.cfi_def_cfa_register %r11=0D - pushq %rbx=0D -.cfi_offset %rbx,-16=0D - pushq %rbp=0D -.cfi_offset %rbp,-24=0D - pushq %r12=0D -.cfi_offset %r12,-32=0D - pushq %r13=0D -.cfi_offset %r13,-40=0D - pushq %r14=0D -.cfi_offset %r14,-48=0D - leaq -64(%rsp),%rsp=0D - andq $-64,%rsp=0D - movq %rdi,%r8=0D - movq %rsi,%r9=0D - movq %rdx,%r10=0D -=0D - shlq $6,%r10=0D - addq %r9,%r10=0D - leaq K_XX_XX+64(%rip),%r14=0D -=0D - movl 0(%r8),%eax=0D - movl 4(%r8),%ebx=0D - movl 8(%r8),%ecx=0D - movl 12(%r8),%edx=0D - movl %ebx,%esi=0D - movl 16(%r8),%ebp=0D - movl %ecx,%edi=0D - xorl %edx,%edi=0D - andl %edi,%esi=0D -=0D - movdqa 64(%r14),%xmm6=0D - movdqa -64(%r14),%xmm9=0D - movdqu 0(%r9),%xmm0=0D - movdqu 16(%r9),%xmm1=0D - movdqu 32(%r9),%xmm2=0D - movdqu 48(%r9),%xmm3=0D -.byte 102,15,56,0,198=0D -.byte 102,15,56,0,206=0D -.byte 102,15,56,0,214=0D - addq $64,%r9=0D - paddd %xmm9,%xmm0=0D -.byte 102,15,56,0,222=0D - paddd %xmm9,%xmm1=0D - paddd %xmm9,%xmm2=0D - movdqa %xmm0,0(%rsp)=0D - psubd %xmm9,%xmm0=0D - movdqa %xmm1,16(%rsp)=0D - psubd %xmm9,%xmm1=0D - movdqa %xmm2,32(%rsp)=0D - psubd %xmm9,%xmm2=0D - jmp .Loop_ssse3=0D -.align 16=0D -.Loop_ssse3:=0D - rorl $2,%ebx=0D - pshufd $238,%xmm0,%xmm4=0D - xorl %edx,%esi=0D - movdqa %xmm3,%xmm8=0D - paddd %xmm3,%xmm9=0D - movl %eax,%edi=0D - addl 0(%rsp),%ebp=0D - punpcklqdq %xmm1,%xmm4=0D - xorl %ecx,%ebx=0D - roll $5,%eax=0D - addl %esi,%ebp=0D - psrldq $4,%xmm8=0D - andl %ebx,%edi=0D - xorl %ecx,%ebx=0D - pxor %xmm0,%xmm4=0D - addl %eax,%ebp=0D - rorl $7,%eax=0D - pxor %xmm2,%xmm8=0D - xorl %ecx,%edi=0D - movl %ebp,%esi=0D - addl 4(%rsp),%edx=0D - pxor %xmm8,%xmm4=0D - xorl %ebx,%eax=0D - roll $5,%ebp=0D - movdqa %xmm9,48(%rsp)=0D - addl %edi,%edx=0D - andl %eax,%esi=0D - movdqa %xmm4,%xmm10=0D - xorl %ebx,%eax=0D - addl %ebp,%edx=0D - rorl $7,%ebp=0D - movdqa %xmm4,%xmm8=0D - xorl %ebx,%esi=0D - pslldq $12,%xmm10=0D - paddd %xmm4,%xmm4=0D - movl %edx,%edi=0D - addl 8(%rsp),%ecx=0D - psrld $31,%xmm8=0D - xorl %eax,%ebp=0D - roll $5,%edx=0D - addl %esi,%ecx=0D - movdqa %xmm10,%xmm9=0D - andl %ebp,%edi=0D - xorl %eax,%ebp=0D - psrld $30,%xmm10=0D - addl %edx,%ecx=0D - rorl $7,%edx=0D - por %xmm8,%xmm4=0D - xorl %eax,%edi=0D - movl %ecx,%esi=0D - addl 12(%rsp),%ebx=0D - pslld $2,%xmm9=0D - pxor %xmm10,%xmm4=0D - xorl %ebp,%edx=0D - movdqa -64(%r14),%xmm10=0D - roll $5,%ecx=0D - addl %edi,%ebx=0D - andl %edx,%esi=0D - pxor %xmm9,%xmm4=0D - xorl %ebp,%edx=0D - addl %ecx,%ebx=0D - rorl $7,%ecx=0D - pshufd $238,%xmm1,%xmm5=0D - xorl %ebp,%esi=0D - movdqa %xmm4,%xmm9=0D - paddd %xmm4,%xmm10=0D - movl %ebx,%edi=0D - addl 16(%rsp),%eax=0D - punpcklqdq %xmm2,%xmm5=0D - xorl %edx,%ecx=0D - roll $5,%ebx=0D - addl %esi,%eax=0D - psrldq $4,%xmm9=0D - andl %ecx,%edi=0D - xorl %edx,%ecx=0D - pxor %xmm1,%xmm5=0D - addl %ebx,%eax=0D - rorl $7,%ebx=0D - pxor %xmm3,%xmm9=0D - xorl %edx,%edi=0D - movl %eax,%esi=0D - addl 20(%rsp),%ebp=0D - pxor %xmm9,%xmm5=0D - xorl %ecx,%ebx=0D - roll $5,%eax=0D - movdqa %xmm10,0(%rsp)=0D - addl %edi,%ebp=0D - andl %ebx,%esi=0D - movdqa %xmm5,%xmm8=0D - xorl %ecx,%ebx=0D - addl %eax,%ebp=0D - rorl $7,%eax=0D - movdqa %xmm5,%xmm9=0D - xorl %ecx,%esi=0D - pslldq $12,%xmm8=0D - paddd %xmm5,%xmm5=0D - movl %ebp,%edi=0D - addl 24(%rsp),%edx=0D - psrld $31,%xmm9=0D - xorl %ebx,%eax=0D - roll $5,%ebp=0D - addl %esi,%edx=0D - movdqa %xmm8,%xmm10=0D - andl %eax,%edi=0D - xorl %ebx,%eax=0D - psrld $30,%xmm8=0D - addl %ebp,%edx=0D - rorl $7,%ebp=0D - por %xmm9,%xmm5=0D - xorl %ebx,%edi=0D - movl %edx,%esi=0D - addl 28(%rsp),%ecx=0D - pslld $2,%xmm10=0D - pxor %xmm8,%xmm5=0D - xorl %eax,%ebp=0D - movdqa -32(%r14),%xmm8=0D - roll $5,%edx=0D - addl %edi,%ecx=0D - andl %ebp,%esi=0D - pxor %xmm10,%xmm5=0D - xorl %eax,%ebp=0D - addl %edx,%ecx=0D - rorl $7,%edx=0D - pshufd $238,%xmm2,%xmm6=0D - xorl %eax,%esi=0D - movdqa %xmm5,%xmm10=0D - paddd %xmm5,%xmm8=0D - movl %ecx,%edi=0D - addl 32(%rsp),%ebx=0D - punpcklqdq %xmm3,%xmm6=0D - xorl %ebp,%edx=0D - roll $5,%ecx=0D - addl %esi,%ebx=0D - psrldq $4,%xmm10=0D - andl %edx,%edi=0D - xorl %ebp,%edx=0D - pxor %xmm2,%xmm6=0D - addl %ecx,%ebx=0D - rorl $7,%ecx=0D - pxor %xmm4,%xmm10=0D - xorl %ebp,%edi=0D - movl %ebx,%esi=0D - addl 36(%rsp),%eax=0D - pxor %xmm10,%xmm6=0D - xorl %edx,%ecx=0D - roll $5,%ebx=0D - movdqa %xmm8,16(%rsp)=0D - addl %edi,%eax=0D - andl %ecx,%esi=0D - movdqa %xmm6,%xmm9=0D - xorl %edx,%ecx=0D - addl %ebx,%eax=0D - rorl $7,%ebx=0D - movdqa %xmm6,%xmm10=0D - xorl %edx,%esi=0D - pslldq $12,%xmm9=0D - paddd %xmm6,%xmm6=0D - movl %eax,%edi=0D - addl 40(%rsp),%ebp=0D - psrld $31,%xmm10=0D - xorl %ecx,%ebx=0D - roll $5,%eax=0D - addl %esi,%ebp=0D - movdqa %xmm9,%xmm8=0D - andl %ebx,%edi=0D - xorl %ecx,%ebx=0D - psrld $30,%xmm9=0D - addl %eax,%ebp=0D - rorl $7,%eax=0D - por %xmm10,%xmm6=0D - xorl %ecx,%edi=0D - movl %ebp,%esi=0D - addl 44(%rsp),%edx=0D - pslld $2,%xmm8=0D - pxor %xmm9,%xmm6=0D - xorl %ebx,%eax=0D - movdqa -32(%r14),%xmm9=0D - roll $5,%ebp=0D - addl %edi,%edx=0D - andl %eax,%esi=0D - pxor %xmm8,%xmm6=0D - xorl %ebx,%eax=0D - addl %ebp,%edx=0D - rorl $7,%ebp=0D - pshufd $238,%xmm3,%xmm7=0D - xorl %ebx,%esi=0D - movdqa %xmm6,%xmm8=0D - paddd %xmm6,%xmm9=0D - movl %edx,%edi=0D - addl 48(%rsp),%ecx=0D - punpcklqdq %xmm4,%xmm7=0D - xorl %eax,%ebp=0D - roll $5,%edx=0D - addl %esi,%ecx=0D - psrldq $4,%xmm8=0D - andl %ebp,%edi=0D - xorl %eax,%ebp=0D - pxor %xmm3,%xmm7=0D - addl %edx,%ecx=0D - rorl $7,%edx=0D - pxor %xmm5,%xmm8=0D - xorl %eax,%edi=0D - movl %ecx,%esi=0D - addl 52(%rsp),%ebx=0D - pxor %xmm8,%xmm7=0D - xorl %ebp,%edx=0D - roll $5,%ecx=0D - movdqa %xmm9,32(%rsp)=0D - addl %edi,%ebx=0D - andl %edx,%esi=0D - movdqa %xmm7,%xmm10=0D - xorl %ebp,%edx=0D - addl %ecx,%ebx=0D - rorl $7,%ecx=0D - movdqa %xmm7,%xmm8=0D - xorl %ebp,%esi=0D - pslldq $12,%xmm10=0D - paddd %xmm7,%xmm7=0D - movl %ebx,%edi=0D - addl 56(%rsp),%eax=0D - psrld $31,%xmm8=0D - xorl %edx,%ecx=0D - roll $5,%ebx=0D - addl %esi,%eax=0D - movdqa %xmm10,%xmm9=0D - andl %ecx,%edi=0D - xorl %edx,%ecx=0D - psrld $30,%xmm10=0D - addl %ebx,%eax=0D - rorl $7,%ebx=0D - por %xmm8,%xmm7=0D - xorl %edx,%edi=0D - movl %eax,%esi=0D - addl 60(%rsp),%ebp=0D - pslld $2,%xmm9=0D - pxor %xmm10,%xmm7=0D - xorl %ecx,%ebx=0D - movdqa -32(%r14),%xmm10=0D - roll $5,%eax=0D - addl %edi,%ebp=0D - andl %ebx,%esi=0D - pxor %xmm9,%xmm7=0D - pshufd $238,%xmm6,%xmm9=0D - xorl %ecx,%ebx=0D - addl %eax,%ebp=0D - rorl $7,%eax=0D - pxor %xmm4,%xmm0=0D - xorl %ecx,%esi=0D - movl %ebp,%edi=0D - addl 0(%rsp),%edx=0D - punpcklqdq %xmm7,%xmm9=0D - xorl %ebx,%eax=0D - roll $5,%ebp=0D - pxor %xmm1,%xmm0=0D - addl %esi,%edx=0D - andl %eax,%edi=0D - movdqa %xmm10,%xmm8=0D - xorl %ebx,%eax=0D - paddd %xmm7,%xmm10=0D - addl %ebp,%edx=0D - pxor %xmm9,%xmm0=0D - rorl $7,%ebp=0D - xorl %ebx,%edi=0D - movl %edx,%esi=0D - addl 4(%rsp),%ecx=0D - movdqa %xmm0,%xmm9=0D - xorl %eax,%ebp=0D - roll $5,%edx=0D - movdqa %xmm10,48(%rsp)=0D - addl %edi,%ecx=0D - andl %ebp,%esi=0D - xorl %eax,%ebp=0D - pslld $2,%xmm0=0D - addl %edx,%ecx=0D - rorl $7,%edx=0D - psrld $30,%xmm9=0D - xorl %eax,%esi=0D - movl %ecx,%edi=0D - addl 8(%rsp),%ebx=0D - por %xmm9,%xmm0=0D - xorl %ebp,%edx=0D - roll $5,%ecx=0D - pshufd $238,%xmm7,%xmm10=0D - addl %esi,%ebx=0D - andl %edx,%edi=0D - xorl %ebp,%edx=0D - addl %ecx,%ebx=0D - addl 12(%rsp),%eax=0D - xorl %ebp,%edi=0D - movl %ebx,%esi=0D - roll $5,%ebx=0D - addl %edi,%eax=0D - xorl %edx,%esi=0D - rorl $7,%ecx=0D - addl %ebx,%eax=0D - pxor %xmm5,%xmm1=0D - addl 16(%rsp),%ebp=0D - xorl %ecx,%esi=0D - punpcklqdq %xmm0,%xmm10=0D - movl %eax,%edi=0D - roll $5,%eax=0D - pxor %xmm2,%xmm1=0D - addl %esi,%ebp=0D - xorl %ecx,%edi=0D - movdqa %xmm8,%xmm9=0D - rorl $7,%ebx=0D - paddd %xmm0,%xmm8=0D - addl %eax,%ebp=0D - pxor %xmm10,%xmm1=0D - addl 20(%rsp),%edx=0D - xorl %ebx,%edi=0D - movl %ebp,%esi=0D - roll $5,%ebp=0D - movdqa %xmm1,%xmm10=0D - addl %edi,%edx=0D - xorl %ebx,%esi=0D - movdqa %xmm8,0(%rsp)=0D - rorl $7,%eax=0D - addl %ebp,%edx=0D - addl 24(%rsp),%ecx=0D - pslld $2,%xmm1=0D - xorl %eax,%esi=0D - movl %edx,%edi=0D - psrld $30,%xmm10=0D - roll $5,%edx=0D - addl %esi,%ecx=0D - xorl %eax,%edi=0D - rorl $7,%ebp=0D - por %xmm10,%xmm1=0D - addl %edx,%ecx=0D - addl 28(%rsp),%ebx=0D - pshufd $238,%xmm0,%xmm8=0D - xorl %ebp,%edi=0D - movl %ecx,%esi=0D - roll $5,%ecx=0D - addl %edi,%ebx=0D - xorl %ebp,%esi=0D - rorl $7,%edx=0D - addl %ecx,%ebx=0D - pxor %xmm6,%xmm2=0D - addl 32(%rsp),%eax=0D - xorl %edx,%esi=0D - punpcklqdq %xmm1,%xmm8=0D - movl %ebx,%edi=0D - roll $5,%ebx=0D - pxor %xmm3,%xmm2=0D - addl %esi,%eax=0D - xorl %edx,%edi=0D - movdqa 0(%r14),%xmm10=0D - rorl $7,%ecx=0D - paddd %xmm1,%xmm9=0D - addl %ebx,%eax=0D - pxor %xmm8,%xmm2=0D - addl 36(%rsp),%ebp=0D - xorl %ecx,%edi=0D - movl %eax,%esi=0D - roll $5,%eax=0D - movdqa %xmm2,%xmm8=0D - addl %edi,%ebp=0D - xorl %ecx,%esi=0D - movdqa %xmm9,16(%rsp)=0D - rorl $7,%ebx=0D - addl %eax,%ebp=0D - addl 40(%rsp),%edx=0D - pslld $2,%xmm2=0D - xorl %ebx,%esi=0D - movl %ebp,%edi=0D - psrld $30,%xmm8=0D - roll $5,%ebp=0D - addl %esi,%edx=0D - xorl %ebx,%edi=0D - rorl $7,%eax=0D - por %xmm8,%xmm2=0D - addl %ebp,%edx=0D - addl 44(%rsp),%ecx=0D - pshufd $238,%xmm1,%xmm9=0D - xorl %eax,%edi=0D - movl %edx,%esi=0D - roll $5,%edx=0D - addl %edi,%ecx=0D - xorl %eax,%esi=0D - rorl $7,%ebp=0D - addl %edx,%ecx=0D - pxor %xmm7,%xmm3=0D - addl 48(%rsp),%ebx=0D - xorl %ebp,%esi=0D - punpcklqdq %xmm2,%xmm9=0D - movl %ecx,%edi=0D - roll $5,%ecx=0D - pxor %xmm4,%xmm3=0D - addl %esi,%ebx=0D - xorl %ebp,%edi=0D - movdqa %xmm10,%xmm8=0D - rorl $7,%edx=0D - paddd %xmm2,%xmm10=0D - addl %ecx,%ebx=0D - pxor %xmm9,%xmm3=0D - addl 52(%rsp),%eax=0D - xorl %edx,%edi=0D - movl %ebx,%esi=0D - roll $5,%ebx=0D - movdqa %xmm3,%xmm9=0D - addl %edi,%eax=0D - xorl %edx,%esi=0D - movdqa %xmm10,32(%rsp)=0D - rorl $7,%ecx=0D - addl %ebx,%eax=0D - addl 56(%rsp),%ebp=0D - pslld $2,%xmm3=0D - xorl %ecx,%esi=0D - movl %eax,%edi=0D - psrld $30,%xmm9=0D - roll $5,%eax=0D - addl %esi,%ebp=0D - xorl %ecx,%edi=0D - rorl $7,%ebx=0D - por %xmm9,%xmm3=0D - addl %eax,%ebp=0D - addl 60(%rsp),%edx=0D - pshufd $238,%xmm2,%xmm10=0D - xorl %ebx,%edi=0D - movl %ebp,%esi=0D - roll $5,%ebp=0D - addl %edi,%edx=0D - xorl %ebx,%esi=0D - rorl $7,%eax=0D - addl %ebp,%edx=0D - pxor %xmm0,%xmm4=0D - addl 0(%rsp),%ecx=0D - xorl %eax,%esi=0D - punpcklqdq %xmm3,%xmm10=0D - movl %edx,%edi=0D - roll $5,%edx=0D - pxor %xmm5,%xmm4=0D - addl %esi,%ecx=0D - xorl %eax,%edi=0D - movdqa %xmm8,%xmm9=0D - rorl $7,%ebp=0D - paddd %xmm3,%xmm8=0D - addl %edx,%ecx=0D - pxor %xmm10,%xmm4=0D - addl 4(%rsp),%ebx=0D - xorl %ebp,%edi=0D - movl %ecx,%esi=0D - roll $5,%ecx=0D - movdqa %xmm4,%xmm10=0D - addl %edi,%ebx=0D - xorl %ebp,%esi=0D - movdqa %xmm8,48(%rsp)=0D - rorl $7,%edx=0D - addl %ecx,%ebx=0D - addl 8(%rsp),%eax=0D - pslld $2,%xmm4=0D - xorl %edx,%esi=0D - movl %ebx,%edi=0D - psrld $30,%xmm10=0D - roll $5,%ebx=0D - addl %esi,%eax=0D - xorl %edx,%edi=0D - rorl $7,%ecx=0D - por %xmm10,%xmm4=0D - addl %ebx,%eax=0D - addl 12(%rsp),%ebp=0D - pshufd $238,%xmm3,%xmm8=0D - xorl %ecx,%edi=0D - movl %eax,%esi=0D - roll $5,%eax=0D - addl %edi,%ebp=0D - xorl %ecx,%esi=0D - rorl $7,%ebx=0D - addl %eax,%ebp=0D - pxor %xmm1,%xmm5=0D - addl 16(%rsp),%edx=0D - xorl %ebx,%esi=0D - punpcklqdq %xmm4,%xmm8=0D - movl %ebp,%edi=0D - roll $5,%ebp=0D - pxor %xmm6,%xmm5=0D - addl %esi,%edx=0D - xorl %ebx,%edi=0D - movdqa %xmm9,%xmm10=0D - rorl $7,%eax=0D - paddd %xmm4,%xmm9=0D - addl %ebp,%edx=0D - pxor %xmm8,%xmm5=0D - addl 20(%rsp),%ecx=0D - xorl %eax,%edi=0D - movl %edx,%esi=0D - roll $5,%edx=0D - movdqa %xmm5,%xmm8=0D - addl %edi,%ecx=0D - xorl %eax,%esi=0D - movdqa %xmm9,0(%rsp)=0D - rorl $7,%ebp=0D - addl %edx,%ecx=0D - addl 24(%rsp),%ebx=0D - pslld $2,%xmm5=0D - xorl %ebp,%esi=0D - movl %ecx,%edi=0D - psrld $30,%xmm8=0D - roll $5,%ecx=0D - addl %esi,%ebx=0D - xorl %ebp,%edi=0D - rorl $7,%edx=0D - por %xmm8,%xmm5=0D - addl %ecx,%ebx=0D - addl 28(%rsp),%eax=0D - pshufd $238,%xmm4,%xmm9=0D - rorl $7,%ecx=0D - movl %ebx,%esi=0D - xorl %edx,%edi=0D - roll $5,%ebx=0D - addl %edi,%eax=0D - xorl %ecx,%esi=0D - xorl %edx,%ecx=0D - addl %ebx,%eax=0D - pxor %xmm2,%xmm6=0D - addl 32(%rsp),%ebp=0D - andl %ecx,%esi=0D - xorl %edx,%ecx=0D - rorl $7,%ebx=0D - punpcklqdq %xmm5,%xmm9=0D - movl %eax,%edi=0D - xorl %ecx,%esi=0D - pxor %xmm7,%xmm6=0D - roll $5,%eax=0D - addl %esi,%ebp=0D - movdqa %xmm10,%xmm8=0D - xorl %ebx,%edi=0D - paddd %xmm5,%xmm10=0D - xorl %ecx,%ebx=0D - pxor %xmm9,%xmm6=0D - addl %eax,%ebp=0D - addl 36(%rsp),%edx=0D - andl %ebx,%edi=0D - xorl %ecx,%ebx=0D - rorl $7,%eax=0D - movdqa %xmm6,%xmm9=0D - movl %ebp,%esi=0D - xorl %ebx,%edi=0D - movdqa %xmm10,16(%rsp)=0D - roll $5,%ebp=0D - addl %edi,%edx=0D - xorl %eax,%esi=0D - pslld $2,%xmm6=0D - xorl %ebx,%eax=0D - addl %ebp,%edx=0D - psrld $30,%xmm9=0D - addl 40(%rsp),%ecx=0D - andl %eax,%esi=0D - xorl %ebx,%eax=0D - por %xmm9,%xmm6=0D - rorl $7,%ebp=0D - movl %edx,%edi=0D - xorl %eax,%esi=0D - roll $5,%edx=0D - pshufd $238,%xmm5,%xmm10=0D - addl %esi,%ecx=0D - xorl %ebp,%edi=0D - xorl %eax,%ebp=0D - addl %edx,%ecx=0D - addl 44(%rsp),%ebx=0D - andl %ebp,%edi=0D - xorl %eax,%ebp=0D - rorl $7,%edx=0D - movl %ecx,%esi=0D - xorl %ebp,%edi=0D - roll $5,%ecx=0D - addl %edi,%ebx=0D - xorl %edx,%esi=0D - xorl %ebp,%edx=0D - addl %ecx,%ebx=0D - pxor %xmm3,%xmm7=0D - addl 48(%rsp),%eax=0D - andl %edx,%esi=0D - xorl %ebp,%edx=0D - rorl $7,%ecx=0D - punpcklqdq %xmm6,%xmm10=0D - movl %ebx,%edi=0D - xorl %edx,%esi=0D - pxor %xmm0,%xmm7=0D - roll $5,%ebx=0D - addl %esi,%eax=0D - movdqa 32(%r14),%xmm9=0D - xorl %ecx,%edi=0D - paddd %xmm6,%xmm8=0D - xorl %edx,%ecx=0D - pxor %xmm10,%xmm7=0D - addl %ebx,%eax=0D - addl 52(%rsp),%ebp=0D - andl %ecx,%edi=0D - xorl %edx,%ecx=0D - rorl $7,%ebx=0D - movdqa %xmm7,%xmm10=0D - movl %eax,%esi=0D - xorl %ecx,%edi=0D - movdqa %xmm8,32(%rsp)=0D - roll $5,%eax=0D - addl %edi,%ebp=0D - xorl %ebx,%esi=0D - pslld $2,%xmm7=0D - xorl %ecx,%ebx=0D - addl %eax,%ebp=0D - psrld $30,%xmm10=0D - addl 56(%rsp),%edx=0D - andl %ebx,%esi=0D - xorl %ecx,%ebx=0D - por %xmm10,%xmm7=0D - rorl $7,%eax=0D - movl %ebp,%edi=0D - xorl %ebx,%esi=0D - roll $5,%ebp=0D - pshufd $238,%xmm6,%xmm8=0D - addl %esi,%edx=0D - xorl %eax,%edi=0D - xorl %ebx,%eax=0D - addl %ebp,%edx=0D - addl 60(%rsp),%ecx=0D - andl %eax,%edi=0D - xorl %ebx,%eax=0D - rorl $7,%ebp=0D - movl %edx,%esi=0D - xorl %eax,%edi=0D - roll $5,%edx=0D - addl %edi,%ecx=0D - xorl %ebp,%esi=0D - xorl %eax,%ebp=0D - addl %edx,%ecx=0D - pxor %xmm4,%xmm0=0D - addl 0(%rsp),%ebx=0D - andl %ebp,%esi=0D - xorl %eax,%ebp=0D - rorl $7,%edx=0D - punpcklqdq %xmm7,%xmm8=0D - movl %ecx,%edi=0D - xorl %ebp,%esi=0D - pxor %xmm1,%xmm0=0D - roll $5,%ecx=0D - addl %esi,%ebx=0D - movdqa %xmm9,%xmm10=0D - xorl %edx,%edi=0D - paddd %xmm7,%xmm9=0D - xorl %ebp,%edx=0D - pxor %xmm8,%xmm0=0D - addl %ecx,%ebx=0D - addl 4(%rsp),%eax=0D - andl %edx,%edi=0D - xorl %ebp,%edx=0D - rorl $7,%ecx=0D - movdqa %xmm0,%xmm8=0D - movl %ebx,%esi=0D - xorl %edx,%edi=0D - movdqa %xmm9,48(%rsp)=0D - roll $5,%ebx=0D - addl %edi,%eax=0D - xorl %ecx,%esi=0D - pslld $2,%xmm0=0D - xorl %edx,%ecx=0D - addl %ebx,%eax=0D - psrld $30,%xmm8=0D - addl 8(%rsp),%ebp=0D - andl %ecx,%esi=0D - xorl %edx,%ecx=0D - por %xmm8,%xmm0=0D - rorl $7,%ebx=0D - movl %eax,%edi=0D - xorl %ecx,%esi=0D - roll $5,%eax=0D - pshufd $238,%xmm7,%xmm9=0D - addl %esi,%ebp=0D - xorl %ebx,%edi=0D - xorl %ecx,%ebx=0D - addl %eax,%ebp=0D - addl 12(%rsp),%edx=0D - andl %ebx,%edi=0D - xorl %ecx,%ebx=0D - rorl $7,%eax=0D - movl %ebp,%esi=0D - xorl %ebx,%edi=0D - roll $5,%ebp=0D - addl %edi,%edx=0D - xorl %eax,%esi=0D - xorl %ebx,%eax=0D - addl %ebp,%edx=0D - pxor %xmm5,%xmm1=0D - addl 16(%rsp),%ecx=0D - andl %eax,%esi=0D - xorl %ebx,%eax=0D - rorl $7,%ebp=0D - punpcklqdq %xmm0,%xmm9=0D - movl %edx,%edi=0D - xorl %eax,%esi=0D - pxor %xmm2,%xmm1=0D - roll $5,%edx=0D - addl %esi,%ecx=0D - movdqa %xmm10,%xmm8=0D - xorl %ebp,%edi=0D - paddd %xmm0,%xmm10=0D - xorl %eax,%ebp=0D - pxor %xmm9,%xmm1=0D - addl %edx,%ecx=0D - addl 20(%rsp),%ebx=0D - andl %ebp,%edi=0D - xorl %eax,%ebp=0D - rorl $7,%edx=0D - movdqa %xmm1,%xmm9=0D - movl %ecx,%esi=0D - xorl %ebp,%edi=0D - movdqa %xmm10,0(%rsp)=0D - roll $5,%ecx=0D - addl %edi,%ebx=0D - xorl %edx,%esi=0D - pslld $2,%xmm1=0D - xorl %ebp,%edx=0D - addl %ecx,%ebx=0D - psrld $30,%xmm9=0D - addl 24(%rsp),%eax=0D - andl %edx,%esi=0D - xorl %ebp,%edx=0D - por %xmm9,%xmm1=0D - rorl $7,%ecx=0D - movl %ebx,%edi=0D - xorl %edx,%esi=0D - roll $5,%ebx=0D - pshufd $238,%xmm0,%xmm10=0D - addl %esi,%eax=0D - xorl %ecx,%edi=0D - xorl %edx,%ecx=0D - addl %ebx,%eax=0D - addl 28(%rsp),%ebp=0D - andl %ecx,%edi=0D - xorl %edx,%ecx=0D - rorl $7,%ebx=0D - movl %eax,%esi=0D - xorl %ecx,%edi=0D - roll $5,%eax=0D - addl %edi,%ebp=0D - xorl %ebx,%esi=0D - xorl %ecx,%ebx=0D - addl %eax,%ebp=0D - pxor %xmm6,%xmm2=0D - addl 32(%rsp),%edx=0D - andl %ebx,%esi=0D - xorl %ecx,%ebx=0D - rorl $7,%eax=0D - punpcklqdq %xmm1,%xmm10=0D - movl %ebp,%edi=0D - xorl %ebx,%esi=0D - pxor %xmm3,%xmm2=0D - roll $5,%ebp=0D - addl %esi,%edx=0D - movdqa %xmm8,%xmm9=0D - xorl %eax,%edi=0D - paddd %xmm1,%xmm8=0D - xorl %ebx,%eax=0D - pxor %xmm10,%xmm2=0D - addl %ebp,%edx=0D - addl 36(%rsp),%ecx=0D - andl %eax,%edi=0D - xorl %ebx,%eax=0D - rorl $7,%ebp=0D - movdqa %xmm2,%xmm10=0D - movl %edx,%esi=0D - xorl %eax,%edi=0D - movdqa %xmm8,16(%rsp)=0D - roll $5,%edx=0D - addl %edi,%ecx=0D - xorl %ebp,%esi=0D - pslld $2,%xmm2=0D - xorl %eax,%ebp=0D - addl %edx,%ecx=0D - psrld $30,%xmm10=0D - addl 40(%rsp),%ebx=0D - andl %ebp,%esi=0D - xorl %eax,%ebp=0D - por %xmm10,%xmm2=0D - rorl $7,%edx=0D - movl %ecx,%edi=0D - xorl %ebp,%esi=0D - roll $5,%ecx=0D - pshufd $238,%xmm1,%xmm8=0D - addl %esi,%ebx=0D - xorl %edx,%edi=0D - xorl %ebp,%edx=0D - addl %ecx,%ebx=0D - addl 44(%rsp),%eax=0D - andl %edx,%edi=0D - xorl %ebp,%edx=0D - rorl $7,%ecx=0D - movl %ebx,%esi=0D - xorl %edx,%edi=0D - roll $5,%ebx=0D - addl %edi,%eax=0D - xorl %edx,%esi=0D - addl %ebx,%eax=0D - pxor %xmm7,%xmm3=0D - addl 48(%rsp),%ebp=0D - xorl %ecx,%esi=0D - punpcklqdq %xmm2,%xmm8=0D - movl %eax,%edi=0D - roll $5,%eax=0D - pxor %xmm4,%xmm3=0D - addl %esi,%ebp=0D - xorl %ecx,%edi=0D - movdqa %xmm9,%xmm10=0D - rorl $7,%ebx=0D - paddd %xmm2,%xmm9=0D - addl %eax,%ebp=0D - pxor %xmm8,%xmm3=0D - addl 52(%rsp),%edx=0D - xorl %ebx,%edi=0D - movl %ebp,%esi=0D - roll $5,%ebp=0D - movdqa %xmm3,%xmm8=0D - addl %edi,%edx=0D - xorl %ebx,%esi=0D - movdqa %xmm9,32(%rsp)=0D - rorl $7,%eax=0D - addl %ebp,%edx=0D - addl 56(%rsp),%ecx=0D - pslld $2,%xmm3=0D - xorl %eax,%esi=0D - movl %edx,%edi=0D - psrld $30,%xmm8=0D - roll $5,%edx=0D - addl %esi,%ecx=0D - xorl %eax,%edi=0D - rorl $7,%ebp=0D - por %xmm8,%xmm3=0D - addl %edx,%ecx=0D - addl 60(%rsp),%ebx=0D - xorl %ebp,%edi=0D - movl %ecx,%esi=0D - roll $5,%ecx=0D - addl %edi,%ebx=0D - xorl %ebp,%esi=0D - rorl $7,%edx=0D - addl %ecx,%ebx=0D - addl 0(%rsp),%eax=0D - xorl %edx,%esi=0D - movl %ebx,%edi=0D - roll $5,%ebx=0D - paddd %xmm3,%xmm10=0D - addl %esi,%eax=0D - xorl %edx,%edi=0D - movdqa %xmm10,48(%rsp)=0D - rorl $7,%ecx=0D - addl %ebx,%eax=0D - addl 4(%rsp),%ebp=0D - xorl %ecx,%edi=0D - movl %eax,%esi=0D - roll $5,%eax=0D - addl %edi,%ebp=0D - xorl %ecx,%esi=0D - rorl $7,%ebx=0D - addl %eax,%ebp=0D - addl 8(%rsp),%edx=0D - xorl %ebx,%esi=0D - movl %ebp,%edi=0D - roll $5,%ebp=0D - addl %esi,%edx=0D - xorl %ebx,%edi=0D - rorl $7,%eax=0D - addl %ebp,%edx=0D - addl 12(%rsp),%ecx=0D - xorl %eax,%edi=0D - movl %edx,%esi=0D - roll $5,%edx=0D - addl %edi,%ecx=0D - xorl %eax,%esi=0D - rorl $7,%ebp=0D - addl %edx,%ecx=0D - cmpq %r10,%r9=0D - je .Ldone_ssse3=0D - movdqa 64(%r14),%xmm6=0D - movdqa -64(%r14),%xmm9=0D - movdqu 0(%r9),%xmm0=0D - movdqu 16(%r9),%xmm1=0D - movdqu 32(%r9),%xmm2=0D - movdqu 48(%r9),%xmm3=0D -.byte 102,15,56,0,198=0D - addq $64,%r9=0D - addl 16(%rsp),%ebx=0D - xorl %ebp,%esi=0D - movl %ecx,%edi=0D -.byte 102,15,56,0,206=0D - roll $5,%ecx=0D - addl %esi,%ebx=0D - xorl %ebp,%edi=0D - rorl $7,%edx=0D - paddd %xmm9,%xmm0=0D - addl %ecx,%ebx=0D - addl 20(%rsp),%eax=0D - xorl %edx,%edi=0D - movl %ebx,%esi=0D - movdqa %xmm0,0(%rsp)=0D - roll $5,%ebx=0D - addl %edi,%eax=0D - xorl %edx,%esi=0D - rorl $7,%ecx=0D - psubd %xmm9,%xmm0=0D - addl %ebx,%eax=0D - addl 24(%rsp),%ebp=0D - xorl %ecx,%esi=0D - movl %eax,%edi=0D - roll $5,%eax=0D - addl %esi,%ebp=0D - xorl %ecx,%edi=0D - rorl $7,%ebx=0D - addl %eax,%ebp=0D - addl 28(%rsp),%edx=0D - xorl %ebx,%edi=0D - movl %ebp,%esi=0D - roll $5,%ebp=0D - addl %edi,%edx=0D - xorl %ebx,%esi=0D - rorl $7,%eax=0D - addl %ebp,%edx=0D - addl 32(%rsp),%ecx=0D - xorl %eax,%esi=0D - movl %edx,%edi=0D -.byte 102,15,56,0,214=0D - roll $5,%edx=0D - addl %esi,%ecx=0D - xorl %eax,%edi=0D - rorl $7,%ebp=0D - paddd %xmm9,%xmm1=0D - addl %edx,%ecx=0D - addl 36(%rsp),%ebx=0D - xorl %ebp,%edi=0D - movl %ecx,%esi=0D - movdqa %xmm1,16(%rsp)=0D - roll $5,%ecx=0D - addl %edi,%ebx=0D - xorl %ebp,%esi=0D - rorl $7,%edx=0D - psubd %xmm9,%xmm1=0D - addl %ecx,%ebx=0D - addl 40(%rsp),%eax=0D - xorl %edx,%esi=0D - movl %ebx,%edi=0D - roll $5,%ebx=0D - addl %esi,%eax=0D - xorl %edx,%edi=0D - rorl $7,%ecx=0D - addl %ebx,%eax=0D - addl 44(%rsp),%ebp=0D - xorl %ecx,%edi=0D - movl %eax,%esi=0D - roll $5,%eax=0D - addl %edi,%ebp=0D - xorl %ecx,%esi=0D - rorl $7,%ebx=0D - addl %eax,%ebp=0D - addl 48(%rsp),%edx=0D - xorl %ebx,%esi=0D - movl %ebp,%edi=0D -.byte 102,15,56,0,222=0D - roll $5,%ebp=0D - addl %esi,%edx=0D - xorl %ebx,%edi=0D - rorl $7,%eax=0D - paddd %xmm9,%xmm2=0D - addl %ebp,%edx=0D - addl 52(%rsp),%ecx=0D - xorl %eax,%edi=0D - movl %edx,%esi=0D - movdqa %xmm2,32(%rsp)=0D - roll $5,%edx=0D - addl %edi,%ecx=0D - xorl %eax,%esi=0D - rorl $7,%ebp=0D - psubd %xmm9,%xmm2=0D - addl %edx,%ecx=0D - addl 56(%rsp),%ebx=0D - xorl %ebp,%esi=0D - movl %ecx,%edi=0D - roll $5,%ecx=0D - addl %esi,%ebx=0D - xorl %ebp,%edi=0D - rorl $7,%edx=0D - addl %ecx,%ebx=0D - addl 60(%rsp),%eax=0D - xorl %edx,%edi=0D - movl %ebx,%esi=0D - roll $5,%ebx=0D - addl %edi,%eax=0D - rorl $7,%ecx=0D - addl %ebx,%eax=0D - addl 0(%r8),%eax=0D - addl 4(%r8),%esi=0D - addl 8(%r8),%ecx=0D - addl 12(%r8),%edx=0D - movl %eax,0(%r8)=0D - addl 16(%r8),%ebp=0D - movl %esi,4(%r8)=0D - movl %esi,%ebx=0D - movl %ecx,8(%r8)=0D - movl %ecx,%edi=0D - movl %edx,12(%r8)=0D - xorl %edx,%edi=0D - movl %ebp,16(%r8)=0D - andl %edi,%esi=0D - jmp .Loop_ssse3=0D -=0D -.align 16=0D -.Ldone_ssse3:=0D - addl 16(%rsp),%ebx=0D - xorl %ebp,%esi=0D - movl %ecx,%edi=0D - roll $5,%ecx=0D - addl %esi,%ebx=0D - xorl %ebp,%edi=0D - rorl $7,%edx=0D - addl %ecx,%ebx=0D - addl 20(%rsp),%eax=0D - xorl %edx,%edi=0D - movl %ebx,%esi=0D - roll $5,%ebx=0D - addl %edi,%eax=0D - xorl %edx,%esi=0D - rorl $7,%ecx=0D - addl %ebx,%eax=0D - addl 24(%rsp),%ebp=0D - xorl %ecx,%esi=0D - movl %eax,%edi=0D - roll $5,%eax=0D - addl %esi,%ebp=0D - xorl %ecx,%edi=0D - rorl $7,%ebx=0D - addl %eax,%ebp=0D - addl 28(%rsp),%edx=0D - xorl %ebx,%edi=0D - movl %ebp,%esi=0D - roll $5,%ebp=0D - addl %edi,%edx=0D - xorl %ebx,%esi=0D - rorl $7,%eax=0D - addl %ebp,%edx=0D - addl 32(%rsp),%ecx=0D - xorl %eax,%esi=0D - movl %edx,%edi=0D - roll $5,%edx=0D - addl %esi,%ecx=0D - xorl %eax,%edi=0D - rorl $7,%ebp=0D - addl %edx,%ecx=0D - addl 36(%rsp),%ebx=0D - xorl %ebp,%edi=0D - movl %ecx,%esi=0D - roll $5,%ecx=0D - addl %edi,%ebx=0D - xorl %ebp,%esi=0D - rorl $7,%edx=0D - addl %ecx,%ebx=0D - addl 40(%rsp),%eax=0D - xorl %edx,%esi=0D - movl %ebx,%edi=0D - roll $5,%ebx=0D - addl %esi,%eax=0D - xorl %edx,%edi=0D - rorl $7,%ecx=0D - addl %ebx,%eax=0D - addl 44(%rsp),%ebp=0D - xorl %ecx,%edi=0D - movl %eax,%esi=0D - roll $5,%eax=0D - addl %edi,%ebp=0D - xorl %ecx,%esi=0D - rorl $7,%ebx=0D - addl %eax,%ebp=0D - addl 48(%rsp),%edx=0D - xorl %ebx,%esi=0D - movl %ebp,%edi=0D - roll $5,%ebp=0D - addl %esi,%edx=0D - xorl %ebx,%edi=0D - rorl $7,%eax=0D - addl %ebp,%edx=0D - addl 52(%rsp),%ecx=0D - xorl %eax,%edi=0D - movl %edx,%esi=0D - roll $5,%edx=0D - addl %edi,%ecx=0D - xorl %eax,%esi=0D - rorl $7,%ebp=0D - addl %edx,%ecx=0D - addl 56(%rsp),%ebx=0D - xorl %ebp,%esi=0D - movl %ecx,%edi=0D - roll $5,%ecx=0D - addl %esi,%ebx=0D - xorl %ebp,%edi=0D - rorl $7,%edx=0D - addl %ecx,%ebx=0D - addl 60(%rsp),%eax=0D - xorl %edx,%edi=0D - movl %ebx,%esi=0D - roll $5,%ebx=0D - addl %edi,%eax=0D - rorl $7,%ecx=0D - addl %ebx,%eax=0D - addl 0(%r8),%eax=0D - addl 4(%r8),%esi=0D - addl 8(%r8),%ecx=0D - movl %eax,0(%r8)=0D - addl 12(%r8),%edx=0D - movl %esi,4(%r8)=0D - addl 16(%r8),%ebp=0D - movl %ecx,8(%r8)=0D - movl %edx,12(%r8)=0D - movl %ebp,16(%r8)=0D - movq -40(%r11),%r14=0D -.cfi_restore %r14=0D - movq -32(%r11),%r13=0D -.cfi_restore %r13=0D - movq -24(%r11),%r12=0D -.cfi_restore %r12=0D - movq -16(%r11),%rbp=0D -.cfi_restore %rbp=0D - movq -8(%r11),%rbx=0D -.cfi_restore %rbx=0D - leaq (%r11),%rsp=0D -.cfi_def_cfa_register %rsp=0D -.Lepilogue_ssse3:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size sha1_block_data_order_ssse3,.-sha1_block_data_order_ssse3=0D -.align 64=0D -K_XX_XX:=0D -.long 0x5a827999,0x5a827999,0x5a827999,0x5a827999=0D -.long 0x5a827999,0x5a827999,0x5a827999,0x5a827999=0D -.long 0x6ed9eba1,0x6ed9eba1,0x6ed9eba1,0x6ed9eba1=0D -.long 0x6ed9eba1,0x6ed9eba1,0x6ed9eba1,0x6ed9eba1=0D -.long 0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc=0D -.long 0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc=0D -.long 0xca62c1d6,0xca62c1d6,0xca62c1d6,0xca62c1d6=0D -.long 0xca62c1d6,0xca62c1d6,0xca62c1d6,0xca62c1d6=0D -.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f=0D -.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f=0D -.byte 0xf,0xe,0xd,0xc,0xb,0xa,0x9,0x8,0x7,0x6,0x5,0x4,0x3,0x2,0x1,0x0=0D -.byte 83,72,65,49,32,98,108,111,99,107,32,116,114,97,110,115,102,111,114= ,109,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89,80,84,79,71,65,77,= 83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111= ,114,103,62,0=0D -.align 64=0D diff --git a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha256-mb-x86_6= 4.S b/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha256-mb-x86_64.S deleted file mode 100644 index 25dee488b8..0000000000 --- a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha256-mb-x86_64.S +++ /dev/null @@ -1,3286 +0,0 @@ -# WARNING: do not edit!=0D -# Generated from openssl/crypto/sha/asm/sha256-mb-x86_64.pl=0D -#=0D -# Copyright 2013-2020 The OpenSSL Project Authors. All Rights Reserved.=0D -#=0D -# Licensed under the OpenSSL license (the "License"). You may not use=0D -# this file except in compliance with the License. You can obtain a copy= =0D -# in the file LICENSE in the source distribution or at=0D -# https://www.openssl.org/source/license.html=0D -=0D -.text=0D -=0D -=0D -=0D -.globl sha256_multi_block=0D -.type sha256_multi_block,@function=0D -.align 32=0D -sha256_multi_block:=0D -.cfi_startproc=0D - movq OPENSSL_ia32cap_P+4(%rip),%rcx=0D - btq $61,%rcx=0D - jc _shaext_shortcut=0D - movq %rsp,%rax=0D -.cfi_def_cfa_register %rax=0D - pushq %rbx=0D -.cfi_offset %rbx,-16=0D - pushq %rbp=0D -.cfi_offset %rbp,-24=0D - subq $288,%rsp=0D - andq $-256,%rsp=0D - movq %rax,272(%rsp)=0D -.cfi_escape 0x0f,0x06,0x77,0x90,0x02,0x06,0x23,0x08=0D -.Lbody:=0D - leaq K256+128(%rip),%rbp=0D - leaq 256(%rsp),%rbx=0D - leaq 128(%rdi),%rdi=0D -=0D -.Loop_grande:=0D - movl %edx,280(%rsp)=0D - xorl %edx,%edx=0D - movq 0(%rsi),%r8=0D - movl 8(%rsi),%ecx=0D - cmpl %edx,%ecx=0D - cmovgl %ecx,%edx=0D - testl %ecx,%ecx=0D - movl %ecx,0(%rbx)=0D - cmovleq %rbp,%r8=0D - movq 16(%rsi),%r9=0D - movl 24(%rsi),%ecx=0D - cmpl %edx,%ecx=0D - cmovgl %ecx,%edx=0D - testl %ecx,%ecx=0D - movl %ecx,4(%rbx)=0D - cmovleq %rbp,%r9=0D - movq 32(%rsi),%r10=0D - movl 40(%rsi),%ecx=0D - cmpl %edx,%ecx=0D - cmovgl %ecx,%edx=0D - testl %ecx,%ecx=0D - movl %ecx,8(%rbx)=0D - cmovleq %rbp,%r10=0D - movq 48(%rsi),%r11=0D - movl 56(%rsi),%ecx=0D - cmpl %edx,%ecx=0D - cmovgl %ecx,%edx=0D - testl %ecx,%ecx=0D - movl %ecx,12(%rbx)=0D - cmovleq %rbp,%r11=0D - testl %edx,%edx=0D - jz .Ldone=0D -=0D - movdqu 0-128(%rdi),%xmm8=0D - leaq 128(%rsp),%rax=0D - movdqu 32-128(%rdi),%xmm9=0D - movdqu 64-128(%rdi),%xmm10=0D - movdqu 96-128(%rdi),%xmm11=0D - movdqu 128-128(%rdi),%xmm12=0D - movdqu 160-128(%rdi),%xmm13=0D - movdqu 192-128(%rdi),%xmm14=0D - movdqu 224-128(%rdi),%xmm15=0D - movdqu .Lpbswap(%rip),%xmm6=0D - jmp .Loop=0D -=0D -.align 32=0D -.Loop:=0D - movdqa %xmm10,%xmm4=0D - pxor %xmm9,%xmm4=0D - movd 0(%r8),%xmm5=0D - movd 0(%r9),%xmm0=0D - movd 0(%r10),%xmm1=0D - movd 0(%r11),%xmm2=0D - punpckldq %xmm1,%xmm5=0D - punpckldq %xmm2,%xmm0=0D - punpckldq %xmm0,%xmm5=0D - movdqa %xmm12,%xmm7=0D -.byte 102,15,56,0,238=0D - movdqa %xmm12,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm12,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,0-128(%rax)=0D - paddd %xmm15,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd -128(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm12,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm12,%xmm3=0D - pslld $26-21,%xmm2=0D - pandn %xmm14,%xmm0=0D - pand %xmm13,%xmm3=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm8,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm8,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - movdqa %xmm9,%xmm3=0D - movdqa %xmm8,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm8,%xmm3=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm3,%xmm4=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm9,%xmm15=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm4,%xmm15=0D - paddd %xmm5,%xmm11=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm15=0D - paddd %xmm7,%xmm15=0D - movd 4(%r8),%xmm5=0D - movd 4(%r9),%xmm0=0D - movd 4(%r10),%xmm1=0D - movd 4(%r11),%xmm2=0D - punpckldq %xmm1,%xmm5=0D - punpckldq %xmm2,%xmm0=0D - punpckldq %xmm0,%xmm5=0D - movdqa %xmm11,%xmm7=0D -=0D - movdqa %xmm11,%xmm2=0D -.byte 102,15,56,0,238=0D - psrld $6,%xmm7=0D - movdqa %xmm11,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,16-128(%rax)=0D - paddd %xmm14,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd -96(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm11,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm11,%xmm4=0D - pslld $26-21,%xmm2=0D - pandn %xmm13,%xmm0=0D - pand %xmm12,%xmm4=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm15,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm15,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm4,%xmm0=0D - movdqa %xmm8,%xmm4=0D - movdqa %xmm15,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm15,%xmm4=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm4,%xmm3=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm8,%xmm14=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm3,%xmm14=0D - paddd %xmm5,%xmm10=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm14=0D - paddd %xmm7,%xmm14=0D - movd 8(%r8),%xmm5=0D - movd 8(%r9),%xmm0=0D - movd 8(%r10),%xmm1=0D - movd 8(%r11),%xmm2=0D - punpckldq %xmm1,%xmm5=0D - punpckldq %xmm2,%xmm0=0D - punpckldq %xmm0,%xmm5=0D - movdqa %xmm10,%xmm7=0D -.byte 102,15,56,0,238=0D - movdqa %xmm10,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm10,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,32-128(%rax)=0D - paddd %xmm13,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd -64(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm10,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm10,%xmm3=0D - pslld $26-21,%xmm2=0D - pandn %xmm12,%xmm0=0D - pand %xmm11,%xmm3=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm14,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm14,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - movdqa %xmm15,%xmm3=0D - movdqa %xmm14,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm14,%xmm3=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm3,%xmm4=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm15,%xmm13=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm4,%xmm13=0D - paddd %xmm5,%xmm9=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm13=0D - paddd %xmm7,%xmm13=0D - movd 12(%r8),%xmm5=0D - movd 12(%r9),%xmm0=0D - movd 12(%r10),%xmm1=0D - movd 12(%r11),%xmm2=0D - punpckldq %xmm1,%xmm5=0D - punpckldq %xmm2,%xmm0=0D - punpckldq %xmm0,%xmm5=0D - movdqa %xmm9,%xmm7=0D -=0D - movdqa %xmm9,%xmm2=0D -.byte 102,15,56,0,238=0D - psrld $6,%xmm7=0D - movdqa %xmm9,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,48-128(%rax)=0D - paddd %xmm12,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd -32(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm9,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm9,%xmm4=0D - pslld $26-21,%xmm2=0D - pandn %xmm11,%xmm0=0D - pand %xmm10,%xmm4=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm13,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm13,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm4,%xmm0=0D - movdqa %xmm14,%xmm4=0D - movdqa %xmm13,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm13,%xmm4=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm4,%xmm3=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm14,%xmm12=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm3,%xmm12=0D - paddd %xmm5,%xmm8=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm12=0D - paddd %xmm7,%xmm12=0D - movd 16(%r8),%xmm5=0D - movd 16(%r9),%xmm0=0D - movd 16(%r10),%xmm1=0D - movd 16(%r11),%xmm2=0D - punpckldq %xmm1,%xmm5=0D - punpckldq %xmm2,%xmm0=0D - punpckldq %xmm0,%xmm5=0D - movdqa %xmm8,%xmm7=0D -.byte 102,15,56,0,238=0D - movdqa %xmm8,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm8,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,64-128(%rax)=0D - paddd %xmm11,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd 0(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm8,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm8,%xmm3=0D - pslld $26-21,%xmm2=0D - pandn %xmm10,%xmm0=0D - pand %xmm9,%xmm3=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm12,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm12,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - movdqa %xmm13,%xmm3=0D - movdqa %xmm12,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm12,%xmm3=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm3,%xmm4=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm13,%xmm11=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm4,%xmm11=0D - paddd %xmm5,%xmm15=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm11=0D - paddd %xmm7,%xmm11=0D - movd 20(%r8),%xmm5=0D - movd 20(%r9),%xmm0=0D - movd 20(%r10),%xmm1=0D - movd 20(%r11),%xmm2=0D - punpckldq %xmm1,%xmm5=0D - punpckldq %xmm2,%xmm0=0D - punpckldq %xmm0,%xmm5=0D - movdqa %xmm15,%xmm7=0D -=0D - movdqa %xmm15,%xmm2=0D -.byte 102,15,56,0,238=0D - psrld $6,%xmm7=0D - movdqa %xmm15,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,80-128(%rax)=0D - paddd %xmm10,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd 32(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm15,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm15,%xmm4=0D - pslld $26-21,%xmm2=0D - pandn %xmm9,%xmm0=0D - pand %xmm8,%xmm4=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm11,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm11,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm4,%xmm0=0D - movdqa %xmm12,%xmm4=0D - movdqa %xmm11,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm11,%xmm4=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm4,%xmm3=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm12,%xmm10=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm3,%xmm10=0D - paddd %xmm5,%xmm14=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm10=0D - paddd %xmm7,%xmm10=0D - movd 24(%r8),%xmm5=0D - movd 24(%r9),%xmm0=0D - movd 24(%r10),%xmm1=0D - movd 24(%r11),%xmm2=0D - punpckldq %xmm1,%xmm5=0D - punpckldq %xmm2,%xmm0=0D - punpckldq %xmm0,%xmm5=0D - movdqa %xmm14,%xmm7=0D -.byte 102,15,56,0,238=0D - movdqa %xmm14,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm14,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,96-128(%rax)=0D - paddd %xmm9,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd 64(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm14,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm14,%xmm3=0D - pslld $26-21,%xmm2=0D - pandn %xmm8,%xmm0=0D - pand %xmm15,%xmm3=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm10,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm10,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - movdqa %xmm11,%xmm3=0D - movdqa %xmm10,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm10,%xmm3=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm3,%xmm4=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm11,%xmm9=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm4,%xmm9=0D - paddd %xmm5,%xmm13=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm9=0D - paddd %xmm7,%xmm9=0D - movd 28(%r8),%xmm5=0D - movd 28(%r9),%xmm0=0D - movd 28(%r10),%xmm1=0D - movd 28(%r11),%xmm2=0D - punpckldq %xmm1,%xmm5=0D - punpckldq %xmm2,%xmm0=0D - punpckldq %xmm0,%xmm5=0D - movdqa %xmm13,%xmm7=0D -=0D - movdqa %xmm13,%xmm2=0D -.byte 102,15,56,0,238=0D - psrld $6,%xmm7=0D - movdqa %xmm13,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,112-128(%rax)=0D - paddd %xmm8,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd 96(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm13,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm13,%xmm4=0D - pslld $26-21,%xmm2=0D - pandn %xmm15,%xmm0=0D - pand %xmm14,%xmm4=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm9,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm9,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm4,%xmm0=0D - movdqa %xmm10,%xmm4=0D - movdqa %xmm9,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm9,%xmm4=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm4,%xmm3=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm10,%xmm8=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm3,%xmm8=0D - paddd %xmm5,%xmm12=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm8=0D - paddd %xmm7,%xmm8=0D - leaq 256(%rbp),%rbp=0D - movd 32(%r8),%xmm5=0D - movd 32(%r9),%xmm0=0D - movd 32(%r10),%xmm1=0D - movd 32(%r11),%xmm2=0D - punpckldq %xmm1,%xmm5=0D - punpckldq %xmm2,%xmm0=0D - punpckldq %xmm0,%xmm5=0D - movdqa %xmm12,%xmm7=0D -.byte 102,15,56,0,238=0D - movdqa %xmm12,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm12,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,128-128(%rax)=0D - paddd %xmm15,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd -128(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm12,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm12,%xmm3=0D - pslld $26-21,%xmm2=0D - pandn %xmm14,%xmm0=0D - pand %xmm13,%xmm3=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm8,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm8,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - movdqa %xmm9,%xmm3=0D - movdqa %xmm8,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm8,%xmm3=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm3,%xmm4=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm9,%xmm15=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm4,%xmm15=0D - paddd %xmm5,%xmm11=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm15=0D - paddd %xmm7,%xmm15=0D - movd 36(%r8),%xmm5=0D - movd 36(%r9),%xmm0=0D - movd 36(%r10),%xmm1=0D - movd 36(%r11),%xmm2=0D - punpckldq %xmm1,%xmm5=0D - punpckldq %xmm2,%xmm0=0D - punpckldq %xmm0,%xmm5=0D - movdqa %xmm11,%xmm7=0D -=0D - movdqa %xmm11,%xmm2=0D -.byte 102,15,56,0,238=0D - psrld $6,%xmm7=0D - movdqa %xmm11,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,144-128(%rax)=0D - paddd %xmm14,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd -96(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm11,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm11,%xmm4=0D - pslld $26-21,%xmm2=0D - pandn %xmm13,%xmm0=0D - pand %xmm12,%xmm4=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm15,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm15,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm4,%xmm0=0D - movdqa %xmm8,%xmm4=0D - movdqa %xmm15,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm15,%xmm4=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm4,%xmm3=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm8,%xmm14=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm3,%xmm14=0D - paddd %xmm5,%xmm10=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm14=0D - paddd %xmm7,%xmm14=0D - movd 40(%r8),%xmm5=0D - movd 40(%r9),%xmm0=0D - movd 40(%r10),%xmm1=0D - movd 40(%r11),%xmm2=0D - punpckldq %xmm1,%xmm5=0D - punpckldq %xmm2,%xmm0=0D - punpckldq %xmm0,%xmm5=0D - movdqa %xmm10,%xmm7=0D -.byte 102,15,56,0,238=0D - movdqa %xmm10,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm10,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,160-128(%rax)=0D - paddd %xmm13,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd -64(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm10,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm10,%xmm3=0D - pslld $26-21,%xmm2=0D - pandn %xmm12,%xmm0=0D - pand %xmm11,%xmm3=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm14,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm14,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - movdqa %xmm15,%xmm3=0D - movdqa %xmm14,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm14,%xmm3=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm3,%xmm4=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm15,%xmm13=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm4,%xmm13=0D - paddd %xmm5,%xmm9=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm13=0D - paddd %xmm7,%xmm13=0D - movd 44(%r8),%xmm5=0D - movd 44(%r9),%xmm0=0D - movd 44(%r10),%xmm1=0D - movd 44(%r11),%xmm2=0D - punpckldq %xmm1,%xmm5=0D - punpckldq %xmm2,%xmm0=0D - punpckldq %xmm0,%xmm5=0D - movdqa %xmm9,%xmm7=0D -=0D - movdqa %xmm9,%xmm2=0D -.byte 102,15,56,0,238=0D - psrld $6,%xmm7=0D - movdqa %xmm9,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,176-128(%rax)=0D - paddd %xmm12,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd -32(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm9,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm9,%xmm4=0D - pslld $26-21,%xmm2=0D - pandn %xmm11,%xmm0=0D - pand %xmm10,%xmm4=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm13,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm13,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm4,%xmm0=0D - movdqa %xmm14,%xmm4=0D - movdqa %xmm13,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm13,%xmm4=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm4,%xmm3=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm14,%xmm12=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm3,%xmm12=0D - paddd %xmm5,%xmm8=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm12=0D - paddd %xmm7,%xmm12=0D - movd 48(%r8),%xmm5=0D - movd 48(%r9),%xmm0=0D - movd 48(%r10),%xmm1=0D - movd 48(%r11),%xmm2=0D - punpckldq %xmm1,%xmm5=0D - punpckldq %xmm2,%xmm0=0D - punpckldq %xmm0,%xmm5=0D - movdqa %xmm8,%xmm7=0D -.byte 102,15,56,0,238=0D - movdqa %xmm8,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm8,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,192-128(%rax)=0D - paddd %xmm11,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd 0(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm8,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm8,%xmm3=0D - pslld $26-21,%xmm2=0D - pandn %xmm10,%xmm0=0D - pand %xmm9,%xmm3=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm12,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm12,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - movdqa %xmm13,%xmm3=0D - movdqa %xmm12,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm12,%xmm3=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm3,%xmm4=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm13,%xmm11=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm4,%xmm11=0D - paddd %xmm5,%xmm15=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm11=0D - paddd %xmm7,%xmm11=0D - movd 52(%r8),%xmm5=0D - movd 52(%r9),%xmm0=0D - movd 52(%r10),%xmm1=0D - movd 52(%r11),%xmm2=0D - punpckldq %xmm1,%xmm5=0D - punpckldq %xmm2,%xmm0=0D - punpckldq %xmm0,%xmm5=0D - movdqa %xmm15,%xmm7=0D -=0D - movdqa %xmm15,%xmm2=0D -.byte 102,15,56,0,238=0D - psrld $6,%xmm7=0D - movdqa %xmm15,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,208-128(%rax)=0D - paddd %xmm10,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd 32(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm15,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm15,%xmm4=0D - pslld $26-21,%xmm2=0D - pandn %xmm9,%xmm0=0D - pand %xmm8,%xmm4=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm11,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm11,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm4,%xmm0=0D - movdqa %xmm12,%xmm4=0D - movdqa %xmm11,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm11,%xmm4=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm4,%xmm3=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm12,%xmm10=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm3,%xmm10=0D - paddd %xmm5,%xmm14=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm10=0D - paddd %xmm7,%xmm10=0D - movd 56(%r8),%xmm5=0D - movd 56(%r9),%xmm0=0D - movd 56(%r10),%xmm1=0D - movd 56(%r11),%xmm2=0D - punpckldq %xmm1,%xmm5=0D - punpckldq %xmm2,%xmm0=0D - punpckldq %xmm0,%xmm5=0D - movdqa %xmm14,%xmm7=0D -.byte 102,15,56,0,238=0D - movdqa %xmm14,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm14,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,224-128(%rax)=0D - paddd %xmm9,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd 64(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm14,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm14,%xmm3=0D - pslld $26-21,%xmm2=0D - pandn %xmm8,%xmm0=0D - pand %xmm15,%xmm3=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm10,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm10,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - movdqa %xmm11,%xmm3=0D - movdqa %xmm10,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm10,%xmm3=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm3,%xmm4=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm11,%xmm9=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm4,%xmm9=0D - paddd %xmm5,%xmm13=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm9=0D - paddd %xmm7,%xmm9=0D - movd 60(%r8),%xmm5=0D - leaq 64(%r8),%r8=0D - movd 60(%r9),%xmm0=0D - leaq 64(%r9),%r9=0D - movd 60(%r10),%xmm1=0D - leaq 64(%r10),%r10=0D - movd 60(%r11),%xmm2=0D - leaq 64(%r11),%r11=0D - punpckldq %xmm1,%xmm5=0D - punpckldq %xmm2,%xmm0=0D - punpckldq %xmm0,%xmm5=0D - movdqa %xmm13,%xmm7=0D -=0D - movdqa %xmm13,%xmm2=0D -.byte 102,15,56,0,238=0D - psrld $6,%xmm7=0D - movdqa %xmm13,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,240-128(%rax)=0D - paddd %xmm8,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd 96(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm13,%xmm0=0D - prefetcht0 63(%r8)=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm13,%xmm4=0D - pslld $26-21,%xmm2=0D - pandn %xmm15,%xmm0=0D - pand %xmm14,%xmm4=0D - pxor %xmm1,%xmm7=0D -=0D - prefetcht0 63(%r9)=0D - movdqa %xmm9,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm9,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm4,%xmm0=0D - movdqa %xmm10,%xmm4=0D - movdqa %xmm9,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm9,%xmm4=0D -=0D - prefetcht0 63(%r10)=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm4,%xmm3=0D - pxor %xmm7,%xmm1=0D -=0D - prefetcht0 63(%r11)=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm10,%xmm8=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm3,%xmm8=0D - paddd %xmm5,%xmm12=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm8=0D - paddd %xmm7,%xmm8=0D - leaq 256(%rbp),%rbp=0D - movdqu 0-128(%rax),%xmm5=0D - movl $3,%ecx=0D - jmp .Loop_16_xx=0D -.align 32=0D -.Loop_16_xx:=0D - movdqa 16-128(%rax),%xmm6=0D - paddd 144-128(%rax),%xmm5=0D -=0D - movdqa %xmm6,%xmm7=0D - movdqa %xmm6,%xmm1=0D - psrld $3,%xmm7=0D - movdqa %xmm6,%xmm2=0D -=0D - psrld $7,%xmm1=0D - movdqa 224-128(%rax),%xmm0=0D - pslld $14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $18-7,%xmm1=0D - movdqa %xmm0,%xmm3=0D - pxor %xmm2,%xmm7=0D - pslld $25-14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $10,%xmm0=0D - movdqa %xmm3,%xmm1=0D -=0D - psrld $17,%xmm3=0D - pxor %xmm2,%xmm7=0D - pslld $13,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - psrld $19-17,%xmm3=0D - pxor %xmm1,%xmm0=0D - pslld $15-13,%xmm1=0D - pxor %xmm3,%xmm0=0D - pxor %xmm1,%xmm0=0D - paddd %xmm0,%xmm5=0D - movdqa %xmm12,%xmm7=0D -=0D - movdqa %xmm12,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm12,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,0-128(%rax)=0D - paddd %xmm15,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd -128(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm12,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm12,%xmm3=0D - pslld $26-21,%xmm2=0D - pandn %xmm14,%xmm0=0D - pand %xmm13,%xmm3=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm8,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm8,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - movdqa %xmm9,%xmm3=0D - movdqa %xmm8,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm8,%xmm3=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm3,%xmm4=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm9,%xmm15=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm4,%xmm15=0D - paddd %xmm5,%xmm11=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm15=0D - paddd %xmm7,%xmm15=0D - movdqa 32-128(%rax),%xmm5=0D - paddd 160-128(%rax),%xmm6=0D -=0D - movdqa %xmm5,%xmm7=0D - movdqa %xmm5,%xmm1=0D - psrld $3,%xmm7=0D - movdqa %xmm5,%xmm2=0D -=0D - psrld $7,%xmm1=0D - movdqa 240-128(%rax),%xmm0=0D - pslld $14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $18-7,%xmm1=0D - movdqa %xmm0,%xmm4=0D - pxor %xmm2,%xmm7=0D - pslld $25-14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $10,%xmm0=0D - movdqa %xmm4,%xmm1=0D -=0D - psrld $17,%xmm4=0D - pxor %xmm2,%xmm7=0D - pslld $13,%xmm1=0D - paddd %xmm7,%xmm6=0D - pxor %xmm4,%xmm0=0D - psrld $19-17,%xmm4=0D - pxor %xmm1,%xmm0=0D - pslld $15-13,%xmm1=0D - pxor %xmm4,%xmm0=0D - pxor %xmm1,%xmm0=0D - paddd %xmm0,%xmm6=0D - movdqa %xmm11,%xmm7=0D -=0D - movdqa %xmm11,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm11,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm6,16-128(%rax)=0D - paddd %xmm14,%xmm6=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd -96(%rbp),%xmm6=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm11,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm11,%xmm4=0D - pslld $26-21,%xmm2=0D - pandn %xmm13,%xmm0=0D - pand %xmm12,%xmm4=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm15,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm15,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm6=0D - pxor %xmm4,%xmm0=0D - movdqa %xmm8,%xmm4=0D - movdqa %xmm15,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm15,%xmm4=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm6=0D - pslld $19-10,%xmm2=0D - pand %xmm4,%xmm3=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm8,%xmm14=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm3,%xmm14=0D - paddd %xmm6,%xmm10=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm6,%xmm14=0D - paddd %xmm7,%xmm14=0D - movdqa 48-128(%rax),%xmm6=0D - paddd 176-128(%rax),%xmm5=0D -=0D - movdqa %xmm6,%xmm7=0D - movdqa %xmm6,%xmm1=0D - psrld $3,%xmm7=0D - movdqa %xmm6,%xmm2=0D -=0D - psrld $7,%xmm1=0D - movdqa 0-128(%rax),%xmm0=0D - pslld $14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $18-7,%xmm1=0D - movdqa %xmm0,%xmm3=0D - pxor %xmm2,%xmm7=0D - pslld $25-14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $10,%xmm0=0D - movdqa %xmm3,%xmm1=0D -=0D - psrld $17,%xmm3=0D - pxor %xmm2,%xmm7=0D - pslld $13,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - psrld $19-17,%xmm3=0D - pxor %xmm1,%xmm0=0D - pslld $15-13,%xmm1=0D - pxor %xmm3,%xmm0=0D - pxor %xmm1,%xmm0=0D - paddd %xmm0,%xmm5=0D - movdqa %xmm10,%xmm7=0D -=0D - movdqa %xmm10,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm10,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,32-128(%rax)=0D - paddd %xmm13,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd -64(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm10,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm10,%xmm3=0D - pslld $26-21,%xmm2=0D - pandn %xmm12,%xmm0=0D - pand %xmm11,%xmm3=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm14,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm14,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - movdqa %xmm15,%xmm3=0D - movdqa %xmm14,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm14,%xmm3=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm3,%xmm4=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm15,%xmm13=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm4,%xmm13=0D - paddd %xmm5,%xmm9=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm13=0D - paddd %xmm7,%xmm13=0D - movdqa 64-128(%rax),%xmm5=0D - paddd 192-128(%rax),%xmm6=0D -=0D - movdqa %xmm5,%xmm7=0D - movdqa %xmm5,%xmm1=0D - psrld $3,%xmm7=0D - movdqa %xmm5,%xmm2=0D -=0D - psrld $7,%xmm1=0D - movdqa 16-128(%rax),%xmm0=0D - pslld $14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $18-7,%xmm1=0D - movdqa %xmm0,%xmm4=0D - pxor %xmm2,%xmm7=0D - pslld $25-14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $10,%xmm0=0D - movdqa %xmm4,%xmm1=0D -=0D - psrld $17,%xmm4=0D - pxor %xmm2,%xmm7=0D - pslld $13,%xmm1=0D - paddd %xmm7,%xmm6=0D - pxor %xmm4,%xmm0=0D - psrld $19-17,%xmm4=0D - pxor %xmm1,%xmm0=0D - pslld $15-13,%xmm1=0D - pxor %xmm4,%xmm0=0D - pxor %xmm1,%xmm0=0D - paddd %xmm0,%xmm6=0D - movdqa %xmm9,%xmm7=0D -=0D - movdqa %xmm9,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm9,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm6,48-128(%rax)=0D - paddd %xmm12,%xmm6=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd -32(%rbp),%xmm6=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm9,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm9,%xmm4=0D - pslld $26-21,%xmm2=0D - pandn %xmm11,%xmm0=0D - pand %xmm10,%xmm4=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm13,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm13,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm6=0D - pxor %xmm4,%xmm0=0D - movdqa %xmm14,%xmm4=0D - movdqa %xmm13,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm13,%xmm4=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm6=0D - pslld $19-10,%xmm2=0D - pand %xmm4,%xmm3=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm14,%xmm12=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm3,%xmm12=0D - paddd %xmm6,%xmm8=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm6,%xmm12=0D - paddd %xmm7,%xmm12=0D - movdqa 80-128(%rax),%xmm6=0D - paddd 208-128(%rax),%xmm5=0D -=0D - movdqa %xmm6,%xmm7=0D - movdqa %xmm6,%xmm1=0D - psrld $3,%xmm7=0D - movdqa %xmm6,%xmm2=0D -=0D - psrld $7,%xmm1=0D - movdqa 32-128(%rax),%xmm0=0D - pslld $14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $18-7,%xmm1=0D - movdqa %xmm0,%xmm3=0D - pxor %xmm2,%xmm7=0D - pslld $25-14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $10,%xmm0=0D - movdqa %xmm3,%xmm1=0D -=0D - psrld $17,%xmm3=0D - pxor %xmm2,%xmm7=0D - pslld $13,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - psrld $19-17,%xmm3=0D - pxor %xmm1,%xmm0=0D - pslld $15-13,%xmm1=0D - pxor %xmm3,%xmm0=0D - pxor %xmm1,%xmm0=0D - paddd %xmm0,%xmm5=0D - movdqa %xmm8,%xmm7=0D -=0D - movdqa %xmm8,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm8,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,64-128(%rax)=0D - paddd %xmm11,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd 0(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm8,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm8,%xmm3=0D - pslld $26-21,%xmm2=0D - pandn %xmm10,%xmm0=0D - pand %xmm9,%xmm3=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm12,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm12,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - movdqa %xmm13,%xmm3=0D - movdqa %xmm12,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm12,%xmm3=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm3,%xmm4=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm13,%xmm11=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm4,%xmm11=0D - paddd %xmm5,%xmm15=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm11=0D - paddd %xmm7,%xmm11=0D - movdqa 96-128(%rax),%xmm5=0D - paddd 224-128(%rax),%xmm6=0D -=0D - movdqa %xmm5,%xmm7=0D - movdqa %xmm5,%xmm1=0D - psrld $3,%xmm7=0D - movdqa %xmm5,%xmm2=0D -=0D - psrld $7,%xmm1=0D - movdqa 48-128(%rax),%xmm0=0D - pslld $14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $18-7,%xmm1=0D - movdqa %xmm0,%xmm4=0D - pxor %xmm2,%xmm7=0D - pslld $25-14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $10,%xmm0=0D - movdqa %xmm4,%xmm1=0D -=0D - psrld $17,%xmm4=0D - pxor %xmm2,%xmm7=0D - pslld $13,%xmm1=0D - paddd %xmm7,%xmm6=0D - pxor %xmm4,%xmm0=0D - psrld $19-17,%xmm4=0D - pxor %xmm1,%xmm0=0D - pslld $15-13,%xmm1=0D - pxor %xmm4,%xmm0=0D - pxor %xmm1,%xmm0=0D - paddd %xmm0,%xmm6=0D - movdqa %xmm15,%xmm7=0D -=0D - movdqa %xmm15,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm15,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm6,80-128(%rax)=0D - paddd %xmm10,%xmm6=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd 32(%rbp),%xmm6=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm15,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm15,%xmm4=0D - pslld $26-21,%xmm2=0D - pandn %xmm9,%xmm0=0D - pand %xmm8,%xmm4=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm11,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm11,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm6=0D - pxor %xmm4,%xmm0=0D - movdqa %xmm12,%xmm4=0D - movdqa %xmm11,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm11,%xmm4=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm6=0D - pslld $19-10,%xmm2=0D - pand %xmm4,%xmm3=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm12,%xmm10=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm3,%xmm10=0D - paddd %xmm6,%xmm14=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm6,%xmm10=0D - paddd %xmm7,%xmm10=0D - movdqa 112-128(%rax),%xmm6=0D - paddd 240-128(%rax),%xmm5=0D -=0D - movdqa %xmm6,%xmm7=0D - movdqa %xmm6,%xmm1=0D - psrld $3,%xmm7=0D - movdqa %xmm6,%xmm2=0D -=0D - psrld $7,%xmm1=0D - movdqa 64-128(%rax),%xmm0=0D - pslld $14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $18-7,%xmm1=0D - movdqa %xmm0,%xmm3=0D - pxor %xmm2,%xmm7=0D - pslld $25-14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $10,%xmm0=0D - movdqa %xmm3,%xmm1=0D -=0D - psrld $17,%xmm3=0D - pxor %xmm2,%xmm7=0D - pslld $13,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - psrld $19-17,%xmm3=0D - pxor %xmm1,%xmm0=0D - pslld $15-13,%xmm1=0D - pxor %xmm3,%xmm0=0D - pxor %xmm1,%xmm0=0D - paddd %xmm0,%xmm5=0D - movdqa %xmm14,%xmm7=0D -=0D - movdqa %xmm14,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm14,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,96-128(%rax)=0D - paddd %xmm9,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd 64(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm14,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm14,%xmm3=0D - pslld $26-21,%xmm2=0D - pandn %xmm8,%xmm0=0D - pand %xmm15,%xmm3=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm10,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm10,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - movdqa %xmm11,%xmm3=0D - movdqa %xmm10,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm10,%xmm3=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm3,%xmm4=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm11,%xmm9=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm4,%xmm9=0D - paddd %xmm5,%xmm13=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm9=0D - paddd %xmm7,%xmm9=0D - movdqa 128-128(%rax),%xmm5=0D - paddd 0-128(%rax),%xmm6=0D -=0D - movdqa %xmm5,%xmm7=0D - movdqa %xmm5,%xmm1=0D - psrld $3,%xmm7=0D - movdqa %xmm5,%xmm2=0D -=0D - psrld $7,%xmm1=0D - movdqa 80-128(%rax),%xmm0=0D - pslld $14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $18-7,%xmm1=0D - movdqa %xmm0,%xmm4=0D - pxor %xmm2,%xmm7=0D - pslld $25-14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $10,%xmm0=0D - movdqa %xmm4,%xmm1=0D -=0D - psrld $17,%xmm4=0D - pxor %xmm2,%xmm7=0D - pslld $13,%xmm1=0D - paddd %xmm7,%xmm6=0D - pxor %xmm4,%xmm0=0D - psrld $19-17,%xmm4=0D - pxor %xmm1,%xmm0=0D - pslld $15-13,%xmm1=0D - pxor %xmm4,%xmm0=0D - pxor %xmm1,%xmm0=0D - paddd %xmm0,%xmm6=0D - movdqa %xmm13,%xmm7=0D -=0D - movdqa %xmm13,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm13,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm6,112-128(%rax)=0D - paddd %xmm8,%xmm6=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd 96(%rbp),%xmm6=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm13,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm13,%xmm4=0D - pslld $26-21,%xmm2=0D - pandn %xmm15,%xmm0=0D - pand %xmm14,%xmm4=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm9,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm9,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm6=0D - pxor %xmm4,%xmm0=0D - movdqa %xmm10,%xmm4=0D - movdqa %xmm9,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm9,%xmm4=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm6=0D - pslld $19-10,%xmm2=0D - pand %xmm4,%xmm3=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm10,%xmm8=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm3,%xmm8=0D - paddd %xmm6,%xmm12=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm6,%xmm8=0D - paddd %xmm7,%xmm8=0D - leaq 256(%rbp),%rbp=0D - movdqa 144-128(%rax),%xmm6=0D - paddd 16-128(%rax),%xmm5=0D -=0D - movdqa %xmm6,%xmm7=0D - movdqa %xmm6,%xmm1=0D - psrld $3,%xmm7=0D - movdqa %xmm6,%xmm2=0D -=0D - psrld $7,%xmm1=0D - movdqa 96-128(%rax),%xmm0=0D - pslld $14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $18-7,%xmm1=0D - movdqa %xmm0,%xmm3=0D - pxor %xmm2,%xmm7=0D - pslld $25-14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $10,%xmm0=0D - movdqa %xmm3,%xmm1=0D -=0D - psrld $17,%xmm3=0D - pxor %xmm2,%xmm7=0D - pslld $13,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - psrld $19-17,%xmm3=0D - pxor %xmm1,%xmm0=0D - pslld $15-13,%xmm1=0D - pxor %xmm3,%xmm0=0D - pxor %xmm1,%xmm0=0D - paddd %xmm0,%xmm5=0D - movdqa %xmm12,%xmm7=0D -=0D - movdqa %xmm12,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm12,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,128-128(%rax)=0D - paddd %xmm15,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd -128(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm12,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm12,%xmm3=0D - pslld $26-21,%xmm2=0D - pandn %xmm14,%xmm0=0D - pand %xmm13,%xmm3=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm8,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm8,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - movdqa %xmm9,%xmm3=0D - movdqa %xmm8,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm8,%xmm3=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm3,%xmm4=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm9,%xmm15=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm4,%xmm15=0D - paddd %xmm5,%xmm11=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm15=0D - paddd %xmm7,%xmm15=0D - movdqa 160-128(%rax),%xmm5=0D - paddd 32-128(%rax),%xmm6=0D -=0D - movdqa %xmm5,%xmm7=0D - movdqa %xmm5,%xmm1=0D - psrld $3,%xmm7=0D - movdqa %xmm5,%xmm2=0D -=0D - psrld $7,%xmm1=0D - movdqa 112-128(%rax),%xmm0=0D - pslld $14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $18-7,%xmm1=0D - movdqa %xmm0,%xmm4=0D - pxor %xmm2,%xmm7=0D - pslld $25-14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $10,%xmm0=0D - movdqa %xmm4,%xmm1=0D -=0D - psrld $17,%xmm4=0D - pxor %xmm2,%xmm7=0D - pslld $13,%xmm1=0D - paddd %xmm7,%xmm6=0D - pxor %xmm4,%xmm0=0D - psrld $19-17,%xmm4=0D - pxor %xmm1,%xmm0=0D - pslld $15-13,%xmm1=0D - pxor %xmm4,%xmm0=0D - pxor %xmm1,%xmm0=0D - paddd %xmm0,%xmm6=0D - movdqa %xmm11,%xmm7=0D -=0D - movdqa %xmm11,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm11,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm6,144-128(%rax)=0D - paddd %xmm14,%xmm6=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd -96(%rbp),%xmm6=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm11,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm11,%xmm4=0D - pslld $26-21,%xmm2=0D - pandn %xmm13,%xmm0=0D - pand %xmm12,%xmm4=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm15,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm15,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm6=0D - pxor %xmm4,%xmm0=0D - movdqa %xmm8,%xmm4=0D - movdqa %xmm15,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm15,%xmm4=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm6=0D - pslld $19-10,%xmm2=0D - pand %xmm4,%xmm3=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm8,%xmm14=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm3,%xmm14=0D - paddd %xmm6,%xmm10=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm6,%xmm14=0D - paddd %xmm7,%xmm14=0D - movdqa 176-128(%rax),%xmm6=0D - paddd 48-128(%rax),%xmm5=0D -=0D - movdqa %xmm6,%xmm7=0D - movdqa %xmm6,%xmm1=0D - psrld $3,%xmm7=0D - movdqa %xmm6,%xmm2=0D -=0D - psrld $7,%xmm1=0D - movdqa 128-128(%rax),%xmm0=0D - pslld $14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $18-7,%xmm1=0D - movdqa %xmm0,%xmm3=0D - pxor %xmm2,%xmm7=0D - pslld $25-14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $10,%xmm0=0D - movdqa %xmm3,%xmm1=0D -=0D - psrld $17,%xmm3=0D - pxor %xmm2,%xmm7=0D - pslld $13,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - psrld $19-17,%xmm3=0D - pxor %xmm1,%xmm0=0D - pslld $15-13,%xmm1=0D - pxor %xmm3,%xmm0=0D - pxor %xmm1,%xmm0=0D - paddd %xmm0,%xmm5=0D - movdqa %xmm10,%xmm7=0D -=0D - movdqa %xmm10,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm10,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,160-128(%rax)=0D - paddd %xmm13,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd -64(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm10,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm10,%xmm3=0D - pslld $26-21,%xmm2=0D - pandn %xmm12,%xmm0=0D - pand %xmm11,%xmm3=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm14,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm14,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - movdqa %xmm15,%xmm3=0D - movdqa %xmm14,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm14,%xmm3=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm3,%xmm4=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm15,%xmm13=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm4,%xmm13=0D - paddd %xmm5,%xmm9=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm13=0D - paddd %xmm7,%xmm13=0D - movdqa 192-128(%rax),%xmm5=0D - paddd 64-128(%rax),%xmm6=0D -=0D - movdqa %xmm5,%xmm7=0D - movdqa %xmm5,%xmm1=0D - psrld $3,%xmm7=0D - movdqa %xmm5,%xmm2=0D -=0D - psrld $7,%xmm1=0D - movdqa 144-128(%rax),%xmm0=0D - pslld $14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $18-7,%xmm1=0D - movdqa %xmm0,%xmm4=0D - pxor %xmm2,%xmm7=0D - pslld $25-14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $10,%xmm0=0D - movdqa %xmm4,%xmm1=0D -=0D - psrld $17,%xmm4=0D - pxor %xmm2,%xmm7=0D - pslld $13,%xmm1=0D - paddd %xmm7,%xmm6=0D - pxor %xmm4,%xmm0=0D - psrld $19-17,%xmm4=0D - pxor %xmm1,%xmm0=0D - pslld $15-13,%xmm1=0D - pxor %xmm4,%xmm0=0D - pxor %xmm1,%xmm0=0D - paddd %xmm0,%xmm6=0D - movdqa %xmm9,%xmm7=0D -=0D - movdqa %xmm9,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm9,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm6,176-128(%rax)=0D - paddd %xmm12,%xmm6=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd -32(%rbp),%xmm6=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm9,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm9,%xmm4=0D - pslld $26-21,%xmm2=0D - pandn %xmm11,%xmm0=0D - pand %xmm10,%xmm4=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm13,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm13,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm6=0D - pxor %xmm4,%xmm0=0D - movdqa %xmm14,%xmm4=0D - movdqa %xmm13,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm13,%xmm4=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm6=0D - pslld $19-10,%xmm2=0D - pand %xmm4,%xmm3=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm14,%xmm12=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm3,%xmm12=0D - paddd %xmm6,%xmm8=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm6,%xmm12=0D - paddd %xmm7,%xmm12=0D - movdqa 208-128(%rax),%xmm6=0D - paddd 80-128(%rax),%xmm5=0D -=0D - movdqa %xmm6,%xmm7=0D - movdqa %xmm6,%xmm1=0D - psrld $3,%xmm7=0D - movdqa %xmm6,%xmm2=0D -=0D - psrld $7,%xmm1=0D - movdqa 160-128(%rax),%xmm0=0D - pslld $14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $18-7,%xmm1=0D - movdqa %xmm0,%xmm3=0D - pxor %xmm2,%xmm7=0D - pslld $25-14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $10,%xmm0=0D - movdqa %xmm3,%xmm1=0D -=0D - psrld $17,%xmm3=0D - pxor %xmm2,%xmm7=0D - pslld $13,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - psrld $19-17,%xmm3=0D - pxor %xmm1,%xmm0=0D - pslld $15-13,%xmm1=0D - pxor %xmm3,%xmm0=0D - pxor %xmm1,%xmm0=0D - paddd %xmm0,%xmm5=0D - movdqa %xmm8,%xmm7=0D -=0D - movdqa %xmm8,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm8,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,192-128(%rax)=0D - paddd %xmm11,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd 0(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm8,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm8,%xmm3=0D - pslld $26-21,%xmm2=0D - pandn %xmm10,%xmm0=0D - pand %xmm9,%xmm3=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm12,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm12,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - movdqa %xmm13,%xmm3=0D - movdqa %xmm12,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm12,%xmm3=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm3,%xmm4=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm13,%xmm11=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm4,%xmm11=0D - paddd %xmm5,%xmm15=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm11=0D - paddd %xmm7,%xmm11=0D - movdqa 224-128(%rax),%xmm5=0D - paddd 96-128(%rax),%xmm6=0D -=0D - movdqa %xmm5,%xmm7=0D - movdqa %xmm5,%xmm1=0D - psrld $3,%xmm7=0D - movdqa %xmm5,%xmm2=0D -=0D - psrld $7,%xmm1=0D - movdqa 176-128(%rax),%xmm0=0D - pslld $14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $18-7,%xmm1=0D - movdqa %xmm0,%xmm4=0D - pxor %xmm2,%xmm7=0D - pslld $25-14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $10,%xmm0=0D - movdqa %xmm4,%xmm1=0D -=0D - psrld $17,%xmm4=0D - pxor %xmm2,%xmm7=0D - pslld $13,%xmm1=0D - paddd %xmm7,%xmm6=0D - pxor %xmm4,%xmm0=0D - psrld $19-17,%xmm4=0D - pxor %xmm1,%xmm0=0D - pslld $15-13,%xmm1=0D - pxor %xmm4,%xmm0=0D - pxor %xmm1,%xmm0=0D - paddd %xmm0,%xmm6=0D - movdqa %xmm15,%xmm7=0D -=0D - movdqa %xmm15,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm15,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm6,208-128(%rax)=0D - paddd %xmm10,%xmm6=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd 32(%rbp),%xmm6=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm15,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm15,%xmm4=0D - pslld $26-21,%xmm2=0D - pandn %xmm9,%xmm0=0D - pand %xmm8,%xmm4=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm11,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm11,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm6=0D - pxor %xmm4,%xmm0=0D - movdqa %xmm12,%xmm4=0D - movdqa %xmm11,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm11,%xmm4=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm6=0D - pslld $19-10,%xmm2=0D - pand %xmm4,%xmm3=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm12,%xmm10=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm3,%xmm10=0D - paddd %xmm6,%xmm14=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm6,%xmm10=0D - paddd %xmm7,%xmm10=0D - movdqa 240-128(%rax),%xmm6=0D - paddd 112-128(%rax),%xmm5=0D -=0D - movdqa %xmm6,%xmm7=0D - movdqa %xmm6,%xmm1=0D - psrld $3,%xmm7=0D - movdqa %xmm6,%xmm2=0D -=0D - psrld $7,%xmm1=0D - movdqa 192-128(%rax),%xmm0=0D - pslld $14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $18-7,%xmm1=0D - movdqa %xmm0,%xmm3=0D - pxor %xmm2,%xmm7=0D - pslld $25-14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $10,%xmm0=0D - movdqa %xmm3,%xmm1=0D -=0D - psrld $17,%xmm3=0D - pxor %xmm2,%xmm7=0D - pslld $13,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - psrld $19-17,%xmm3=0D - pxor %xmm1,%xmm0=0D - pslld $15-13,%xmm1=0D - pxor %xmm3,%xmm0=0D - pxor %xmm1,%xmm0=0D - paddd %xmm0,%xmm5=0D - movdqa %xmm14,%xmm7=0D -=0D - movdqa %xmm14,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm14,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm5,224-128(%rax)=0D - paddd %xmm9,%xmm5=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd 64(%rbp),%xmm5=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm14,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm14,%xmm3=0D - pslld $26-21,%xmm2=0D - pandn %xmm8,%xmm0=0D - pand %xmm15,%xmm3=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm10,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm10,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm5=0D - pxor %xmm3,%xmm0=0D - movdqa %xmm11,%xmm3=0D - movdqa %xmm10,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm10,%xmm3=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm5=0D - pslld $19-10,%xmm2=0D - pand %xmm3,%xmm4=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm11,%xmm9=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm4,%xmm9=0D - paddd %xmm5,%xmm13=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm5,%xmm9=0D - paddd %xmm7,%xmm9=0D - movdqa 0-128(%rax),%xmm5=0D - paddd 128-128(%rax),%xmm6=0D -=0D - movdqa %xmm5,%xmm7=0D - movdqa %xmm5,%xmm1=0D - psrld $3,%xmm7=0D - movdqa %xmm5,%xmm2=0D -=0D - psrld $7,%xmm1=0D - movdqa 208-128(%rax),%xmm0=0D - pslld $14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $18-7,%xmm1=0D - movdqa %xmm0,%xmm4=0D - pxor %xmm2,%xmm7=0D - pslld $25-14,%xmm2=0D - pxor %xmm1,%xmm7=0D - psrld $10,%xmm0=0D - movdqa %xmm4,%xmm1=0D -=0D - psrld $17,%xmm4=0D - pxor %xmm2,%xmm7=0D - pslld $13,%xmm1=0D - paddd %xmm7,%xmm6=0D - pxor %xmm4,%xmm0=0D - psrld $19-17,%xmm4=0D - pxor %xmm1,%xmm0=0D - pslld $15-13,%xmm1=0D - pxor %xmm4,%xmm0=0D - pxor %xmm1,%xmm0=0D - paddd %xmm0,%xmm6=0D - movdqa %xmm13,%xmm7=0D -=0D - movdqa %xmm13,%xmm2=0D -=0D - psrld $6,%xmm7=0D - movdqa %xmm13,%xmm1=0D - pslld $7,%xmm2=0D - movdqa %xmm6,240-128(%rax)=0D - paddd %xmm8,%xmm6=0D -=0D - psrld $11,%xmm1=0D - pxor %xmm2,%xmm7=0D - pslld $21-7,%xmm2=0D - paddd 96(%rbp),%xmm6=0D - pxor %xmm1,%xmm7=0D -=0D - psrld $25-11,%xmm1=0D - movdqa %xmm13,%xmm0=0D -=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm13,%xmm4=0D - pslld $26-21,%xmm2=0D - pandn %xmm15,%xmm0=0D - pand %xmm14,%xmm4=0D - pxor %xmm1,%xmm7=0D -=0D -=0D - movdqa %xmm9,%xmm1=0D - pxor %xmm2,%xmm7=0D - movdqa %xmm9,%xmm2=0D - psrld $2,%xmm1=0D - paddd %xmm7,%xmm6=0D - pxor %xmm4,%xmm0=0D - movdqa %xmm10,%xmm4=0D - movdqa %xmm9,%xmm7=0D - pslld $10,%xmm2=0D - pxor %xmm9,%xmm4=0D -=0D -=0D - psrld $13,%xmm7=0D - pxor %xmm2,%xmm1=0D - paddd %xmm0,%xmm6=0D - pslld $19-10,%xmm2=0D - pand %xmm4,%xmm3=0D - pxor %xmm7,%xmm1=0D -=0D -=0D - psrld $22-13,%xmm7=0D - pxor %xmm2,%xmm1=0D - movdqa %xmm10,%xmm8=0D - pslld $30-19,%xmm2=0D - pxor %xmm1,%xmm7=0D - pxor %xmm3,%xmm8=0D - paddd %xmm6,%xmm12=0D - pxor %xmm2,%xmm7=0D -=0D - paddd %xmm6,%xmm8=0D - paddd %xmm7,%xmm8=0D - leaq 256(%rbp),%rbp=0D - decl %ecx=0D - jnz .Loop_16_xx=0D -=0D - movl $1,%ecx=0D - leaq K256+128(%rip),%rbp=0D -=0D - movdqa (%rbx),%xmm7=0D - cmpl 0(%rbx),%ecx=0D - pxor %xmm0,%xmm0=0D - cmovgeq %rbp,%r8=0D - cmpl 4(%rbx),%ecx=0D - movdqa %xmm7,%xmm6=0D - cmovgeq %rbp,%r9=0D - cmpl 8(%rbx),%ecx=0D - pcmpgtd %xmm0,%xmm6=0D - cmovgeq %rbp,%r10=0D - cmpl 12(%rbx),%ecx=0D - paddd %xmm6,%xmm7=0D - cmovgeq %rbp,%r11=0D -=0D - movdqu 0-128(%rdi),%xmm0=0D - pand %xmm6,%xmm8=0D - movdqu 32-128(%rdi),%xmm1=0D - pand %xmm6,%xmm9=0D - movdqu 64-128(%rdi),%xmm2=0D - pand %xmm6,%xmm10=0D - movdqu 96-128(%rdi),%xmm5=0D - pand %xmm6,%xmm11=0D - paddd %xmm0,%xmm8=0D - movdqu 128-128(%rdi),%xmm0=0D - pand %xmm6,%xmm12=0D - paddd %xmm1,%xmm9=0D - movdqu 160-128(%rdi),%xmm1=0D - pand %xmm6,%xmm13=0D - paddd %xmm2,%xmm10=0D - movdqu 192-128(%rdi),%xmm2=0D - pand %xmm6,%xmm14=0D - paddd %xmm5,%xmm11=0D - movdqu 224-128(%rdi),%xmm5=0D - pand %xmm6,%xmm15=0D - paddd %xmm0,%xmm12=0D - paddd %xmm1,%xmm13=0D - movdqu %xmm8,0-128(%rdi)=0D - paddd %xmm2,%xmm14=0D - movdqu %xmm9,32-128(%rdi)=0D - paddd %xmm5,%xmm15=0D - movdqu %xmm10,64-128(%rdi)=0D - movdqu %xmm11,96-128(%rdi)=0D - movdqu %xmm12,128-128(%rdi)=0D - movdqu %xmm13,160-128(%rdi)=0D - movdqu %xmm14,192-128(%rdi)=0D - movdqu %xmm15,224-128(%rdi)=0D -=0D - movdqa %xmm7,(%rbx)=0D - movdqa .Lpbswap(%rip),%xmm6=0D - decl %edx=0D - jnz .Loop=0D -=0D - movl 280(%rsp),%edx=0D - leaq 16(%rdi),%rdi=0D - leaq 64(%rsi),%rsi=0D - decl %edx=0D - jnz .Loop_grande=0D -=0D -.Ldone:=0D - movq 272(%rsp),%rax=0D -.cfi_def_cfa %rax,8=0D - movq -16(%rax),%rbp=0D -.cfi_restore %rbp=0D - movq -8(%rax),%rbx=0D -.cfi_restore %rbx=0D - leaq (%rax),%rsp=0D -.cfi_def_cfa_register %rsp=0D -.Lepilogue:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size sha256_multi_block,.-sha256_multi_block=0D -.type sha256_multi_block_shaext,@function=0D -.align 32=0D -sha256_multi_block_shaext:=0D -.cfi_startproc=0D -_shaext_shortcut:=0D - movq %rsp,%rax=0D -.cfi_def_cfa_register %rax=0D - pushq %rbx=0D -.cfi_offset %rbx,-16=0D - pushq %rbp=0D -.cfi_offset %rbp,-24=0D - subq $288,%rsp=0D - shll $1,%edx=0D - andq $-256,%rsp=0D - leaq 128(%rdi),%rdi=0D - movq %rax,272(%rsp)=0D -.Lbody_shaext:=0D - leaq 256(%rsp),%rbx=0D - leaq K256_shaext+128(%rip),%rbp=0D -=0D -.Loop_grande_shaext:=0D - movl %edx,280(%rsp)=0D - xorl %edx,%edx=0D - movq 0(%rsi),%r8=0D - movl 8(%rsi),%ecx=0D - cmpl %edx,%ecx=0D - cmovgl %ecx,%edx=0D - testl %ecx,%ecx=0D - movl %ecx,0(%rbx)=0D - cmovleq %rsp,%r8=0D - movq 16(%rsi),%r9=0D - movl 24(%rsi),%ecx=0D - cmpl %edx,%ecx=0D - cmovgl %ecx,%edx=0D - testl %ecx,%ecx=0D - movl %ecx,4(%rbx)=0D - cmovleq %rsp,%r9=0D - testl %edx,%edx=0D - jz .Ldone_shaext=0D -=0D - movq 0-128(%rdi),%xmm12=0D - movq 32-128(%rdi),%xmm4=0D - movq 64-128(%rdi),%xmm13=0D - movq 96-128(%rdi),%xmm5=0D - movq 128-128(%rdi),%xmm8=0D - movq 160-128(%rdi),%xmm9=0D - movq 192-128(%rdi),%xmm10=0D - movq 224-128(%rdi),%xmm11=0D -=0D - punpckldq %xmm4,%xmm12=0D - punpckldq %xmm5,%xmm13=0D - punpckldq %xmm9,%xmm8=0D - punpckldq %xmm11,%xmm10=0D - movdqa K256_shaext-16(%rip),%xmm3=0D -=0D - movdqa %xmm12,%xmm14=0D - movdqa %xmm13,%xmm15=0D - punpcklqdq %xmm8,%xmm12=0D - punpcklqdq %xmm10,%xmm13=0D - punpckhqdq %xmm8,%xmm14=0D - punpckhqdq %xmm10,%xmm15=0D -=0D - pshufd $27,%xmm12,%xmm12=0D - pshufd $27,%xmm13,%xmm13=0D - pshufd $27,%xmm14,%xmm14=0D - pshufd $27,%xmm15,%xmm15=0D - jmp .Loop_shaext=0D -=0D -.align 32=0D -.Loop_shaext:=0D - movdqu 0(%r8),%xmm4=0D - movdqu 0(%r9),%xmm8=0D - movdqu 16(%r8),%xmm5=0D - movdqu 16(%r9),%xmm9=0D - movdqu 32(%r8),%xmm6=0D -.byte 102,15,56,0,227=0D - movdqu 32(%r9),%xmm10=0D -.byte 102,68,15,56,0,195=0D - movdqu 48(%r8),%xmm7=0D - leaq 64(%r8),%r8=0D - movdqu 48(%r9),%xmm11=0D - leaq 64(%r9),%r9=0D -=0D - movdqa 0-128(%rbp),%xmm0=0D -.byte 102,15,56,0,235=0D - paddd %xmm4,%xmm0=0D - pxor %xmm12,%xmm4=0D - movdqa %xmm0,%xmm1=0D - movdqa 0-128(%rbp),%xmm2=0D -.byte 102,68,15,56,0,203=0D - paddd %xmm8,%xmm2=0D - movdqa %xmm13,80(%rsp)=0D -.byte 69,15,56,203,236=0D - pxor %xmm14,%xmm8=0D - movdqa %xmm2,%xmm0=0D - movdqa %xmm15,112(%rsp)=0D -.byte 69,15,56,203,254=0D - pshufd $0x0e,%xmm1,%xmm0=0D - pxor %xmm12,%xmm4=0D - movdqa %xmm12,64(%rsp)=0D -.byte 69,15,56,203,229=0D - pshufd $0x0e,%xmm2,%xmm0=0D - pxor %xmm14,%xmm8=0D - movdqa %xmm14,96(%rsp)=0D - movdqa 16-128(%rbp),%xmm1=0D - paddd %xmm5,%xmm1=0D -.byte 102,15,56,0,243=0D -.byte 69,15,56,203,247=0D -=0D - movdqa %xmm1,%xmm0=0D - movdqa 16-128(%rbp),%xmm2=0D - paddd %xmm9,%xmm2=0D -.byte 69,15,56,203,236=0D - movdqa %xmm2,%xmm0=0D - prefetcht0 127(%r8)=0D -.byte 102,15,56,0,251=0D -.byte 102,68,15,56,0,211=0D - prefetcht0 127(%r9)=0D -.byte 69,15,56,203,254=0D - pshufd $0x0e,%xmm1,%xmm0=0D -.byte 102,68,15,56,0,219=0D -.byte 15,56,204,229=0D -.byte 69,15,56,203,229=0D - pshufd $0x0e,%xmm2,%xmm0=0D - movdqa 32-128(%rbp),%xmm1=0D - paddd %xmm6,%xmm1=0D -.byte 69,15,56,203,247=0D -=0D - movdqa %xmm1,%xmm0=0D - movdqa 32-128(%rbp),%xmm2=0D - paddd %xmm10,%xmm2=0D -.byte 69,15,56,203,236=0D -.byte 69,15,56,204,193=0D - movdqa %xmm2,%xmm0=0D - movdqa %xmm7,%xmm3=0D -.byte 69,15,56,203,254=0D - pshufd $0x0e,%xmm1,%xmm0=0D -.byte 102,15,58,15,222,4=0D - paddd %xmm3,%xmm4=0D - movdqa %xmm11,%xmm3=0D -.byte 102,65,15,58,15,218,4=0D -.byte 15,56,204,238=0D -.byte 69,15,56,203,229=0D - pshufd $0x0e,%xmm2,%xmm0=0D - movdqa 48-128(%rbp),%xmm1=0D - paddd %xmm7,%xmm1=0D -.byte 69,15,56,203,247=0D -.byte 69,15,56,204,202=0D -=0D - movdqa %xmm1,%xmm0=0D - movdqa 48-128(%rbp),%xmm2=0D - paddd %xmm3,%xmm8=0D - paddd %xmm11,%xmm2=0D -.byte 15,56,205,231=0D -.byte 69,15,56,203,236=0D - movdqa %xmm2,%xmm0=0D - movdqa %xmm4,%xmm3=0D -.byte 102,15,58,15,223,4=0D -.byte 69,15,56,203,254=0D -.byte 69,15,56,205,195=0D - pshufd $0x0e,%xmm1,%xmm0=0D - paddd %xmm3,%xmm5=0D - movdqa %xmm8,%xmm3=0D -.byte 102,65,15,58,15,219,4=0D -.byte 15,56,204,247=0D -.byte 69,15,56,203,229=0D - pshufd $0x0e,%xmm2,%xmm0=0D - movdqa 64-128(%rbp),%xmm1=0D - paddd %xmm4,%xmm1=0D -.byte 69,15,56,203,247=0D -.byte 69,15,56,204,211=0D - movdqa %xmm1,%xmm0=0D - movdqa 64-128(%rbp),%xmm2=0D - paddd %xmm3,%xmm9=0D - paddd %xmm8,%xmm2=0D -.byte 15,56,205,236=0D -.byte 69,15,56,203,236=0D - movdqa %xmm2,%xmm0=0D - movdqa %xmm5,%xmm3=0D -.byte 102,15,58,15,220,4=0D -.byte 69,15,56,203,254=0D -.byte 69,15,56,205,200=0D - pshufd $0x0e,%xmm1,%xmm0=0D - paddd %xmm3,%xmm6=0D - movdqa %xmm9,%xmm3=0D -.byte 102,65,15,58,15,216,4=0D -.byte 15,56,204,252=0D -.byte 69,15,56,203,229=0D - pshufd $0x0e,%xmm2,%xmm0=0D - movdqa 80-128(%rbp),%xmm1=0D - paddd %xmm5,%xmm1=0D -.byte 69,15,56,203,247=0D -.byte 69,15,56,204,216=0D - movdqa %xmm1,%xmm0=0D - movdqa 80-128(%rbp),%xmm2=0D - paddd %xmm3,%xmm10=0D - paddd %xmm9,%xmm2=0D -.byte 15,56,205,245=0D -.byte 69,15,56,203,236=0D - movdqa %xmm2,%xmm0=0D - movdqa %xmm6,%xmm3=0D -.byte 102,15,58,15,221,4=0D -.byte 69,15,56,203,254=0D -.byte 69,15,56,205,209=0D - pshufd $0x0e,%xmm1,%xmm0=0D - paddd %xmm3,%xmm7=0D - movdqa %xmm10,%xmm3=0D -.byte 102,65,15,58,15,217,4=0D -.byte 15,56,204,229=0D -.byte 69,15,56,203,229=0D - pshufd $0x0e,%xmm2,%xmm0=0D - movdqa 96-128(%rbp),%xmm1=0D - paddd %xmm6,%xmm1=0D -.byte 69,15,56,203,247=0D -.byte 69,15,56,204,193=0D - movdqa %xmm1,%xmm0=0D - movdqa 96-128(%rbp),%xmm2=0D - paddd %xmm3,%xmm11=0D - paddd %xmm10,%xmm2=0D -.byte 15,56,205,254=0D -.byte 69,15,56,203,236=0D - movdqa %xmm2,%xmm0=0D - movdqa %xmm7,%xmm3=0D -.byte 102,15,58,15,222,4=0D -.byte 69,15,56,203,254=0D -.byte 69,15,56,205,218=0D - pshufd $0x0e,%xmm1,%xmm0=0D - paddd %xmm3,%xmm4=0D - movdqa %xmm11,%xmm3=0D -.byte 102,65,15,58,15,218,4=0D -.byte 15,56,204,238=0D -.byte 69,15,56,203,229=0D - pshufd $0x0e,%xmm2,%xmm0=0D - movdqa 112-128(%rbp),%xmm1=0D - paddd %xmm7,%xmm1=0D -.byte 69,15,56,203,247=0D -.byte 69,15,56,204,202=0D - movdqa %xmm1,%xmm0=0D - movdqa 112-128(%rbp),%xmm2=0D - paddd %xmm3,%xmm8=0D - paddd %xmm11,%xmm2=0D -.byte 15,56,205,231=0D -.byte 69,15,56,203,236=0D - movdqa %xmm2,%xmm0=0D - movdqa %xmm4,%xmm3=0D -.byte 102,15,58,15,223,4=0D -.byte 69,15,56,203,254=0D -.byte 69,15,56,205,195=0D - pshufd $0x0e,%xmm1,%xmm0=0D - paddd %xmm3,%xmm5=0D - movdqa %xmm8,%xmm3=0D -.byte 102,65,15,58,15,219,4=0D -.byte 15,56,204,247=0D -.byte 69,15,56,203,229=0D - pshufd $0x0e,%xmm2,%xmm0=0D - movdqa 128-128(%rbp),%xmm1=0D - paddd %xmm4,%xmm1=0D -.byte 69,15,56,203,247=0D -.byte 69,15,56,204,211=0D - movdqa %xmm1,%xmm0=0D - movdqa 128-128(%rbp),%xmm2=0D - paddd %xmm3,%xmm9=0D - paddd %xmm8,%xmm2=0D -.byte 15,56,205,236=0D -.byte 69,15,56,203,236=0D - movdqa %xmm2,%xmm0=0D - movdqa %xmm5,%xmm3=0D -.byte 102,15,58,15,220,4=0D -.byte 69,15,56,203,254=0D -.byte 69,15,56,205,200=0D - pshufd $0x0e,%xmm1,%xmm0=0D - paddd %xmm3,%xmm6=0D - movdqa %xmm9,%xmm3=0D -.byte 102,65,15,58,15,216,4=0D -.byte 15,56,204,252=0D -.byte 69,15,56,203,229=0D - pshufd $0x0e,%xmm2,%xmm0=0D - movdqa 144-128(%rbp),%xmm1=0D - paddd %xmm5,%xmm1=0D -.byte 69,15,56,203,247=0D -.byte 69,15,56,204,216=0D - movdqa %xmm1,%xmm0=0D - movdqa 144-128(%rbp),%xmm2=0D - paddd %xmm3,%xmm10=0D - paddd %xmm9,%xmm2=0D -.byte 15,56,205,245=0D -.byte 69,15,56,203,236=0D - movdqa %xmm2,%xmm0=0D - movdqa %xmm6,%xmm3=0D -.byte 102,15,58,15,221,4=0D -.byte 69,15,56,203,254=0D -.byte 69,15,56,205,209=0D - pshufd $0x0e,%xmm1,%xmm0=0D - paddd %xmm3,%xmm7=0D - movdqa %xmm10,%xmm3=0D -.byte 102,65,15,58,15,217,4=0D -.byte 15,56,204,229=0D -.byte 69,15,56,203,229=0D - pshufd $0x0e,%xmm2,%xmm0=0D - movdqa 160-128(%rbp),%xmm1=0D - paddd %xmm6,%xmm1=0D -.byte 69,15,56,203,247=0D -.byte 69,15,56,204,193=0D - movdqa %xmm1,%xmm0=0D - movdqa 160-128(%rbp),%xmm2=0D - paddd %xmm3,%xmm11=0D - paddd %xmm10,%xmm2=0D -.byte 15,56,205,254=0D -.byte 69,15,56,203,236=0D - movdqa %xmm2,%xmm0=0D - movdqa %xmm7,%xmm3=0D -.byte 102,15,58,15,222,4=0D -.byte 69,15,56,203,254=0D -.byte 69,15,56,205,218=0D - pshufd $0x0e,%xmm1,%xmm0=0D - paddd %xmm3,%xmm4=0D - movdqa %xmm11,%xmm3=0D -.byte 102,65,15,58,15,218,4=0D -.byte 15,56,204,238=0D -.byte 69,15,56,203,229=0D - pshufd $0x0e,%xmm2,%xmm0=0D - movdqa 176-128(%rbp),%xmm1=0D - paddd %xmm7,%xmm1=0D -.byte 69,15,56,203,247=0D -.byte 69,15,56,204,202=0D - movdqa %xmm1,%xmm0=0D - movdqa 176-128(%rbp),%xmm2=0D - paddd %xmm3,%xmm8=0D - paddd %xmm11,%xmm2=0D -.byte 15,56,205,231=0D -.byte 69,15,56,203,236=0D - movdqa %xmm2,%xmm0=0D - movdqa %xmm4,%xmm3=0D -.byte 102,15,58,15,223,4=0D -.byte 69,15,56,203,254=0D -.byte 69,15,56,205,195=0D - pshufd $0x0e,%xmm1,%xmm0=0D - paddd %xmm3,%xmm5=0D - movdqa %xmm8,%xmm3=0D -.byte 102,65,15,58,15,219,4=0D -.byte 15,56,204,247=0D -.byte 69,15,56,203,229=0D - pshufd $0x0e,%xmm2,%xmm0=0D - movdqa 192-128(%rbp),%xmm1=0D - paddd %xmm4,%xmm1=0D -.byte 69,15,56,203,247=0D -.byte 69,15,56,204,211=0D - movdqa %xmm1,%xmm0=0D - movdqa 192-128(%rbp),%xmm2=0D - paddd %xmm3,%xmm9=0D - paddd %xmm8,%xmm2=0D -.byte 15,56,205,236=0D -.byte 69,15,56,203,236=0D - movdqa %xmm2,%xmm0=0D - movdqa %xmm5,%xmm3=0D -.byte 102,15,58,15,220,4=0D -.byte 69,15,56,203,254=0D -.byte 69,15,56,205,200=0D - pshufd $0x0e,%xmm1,%xmm0=0D - paddd %xmm3,%xmm6=0D - movdqa %xmm9,%xmm3=0D -.byte 102,65,15,58,15,216,4=0D -.byte 15,56,204,252=0D -.byte 69,15,56,203,229=0D - pshufd $0x0e,%xmm2,%xmm0=0D - movdqa 208-128(%rbp),%xmm1=0D - paddd %xmm5,%xmm1=0D -.byte 69,15,56,203,247=0D -.byte 69,15,56,204,216=0D - movdqa %xmm1,%xmm0=0D - movdqa 208-128(%rbp),%xmm2=0D - paddd %xmm3,%xmm10=0D - paddd %xmm9,%xmm2=0D -.byte 15,56,205,245=0D -.byte 69,15,56,203,236=0D - movdqa %xmm2,%xmm0=0D - movdqa %xmm6,%xmm3=0D -.byte 102,15,58,15,221,4=0D -.byte 69,15,56,203,254=0D -.byte 69,15,56,205,209=0D - pshufd $0x0e,%xmm1,%xmm0=0D - paddd %xmm3,%xmm7=0D - movdqa %xmm10,%xmm3=0D -.byte 102,65,15,58,15,217,4=0D - nop=0D -.byte 69,15,56,203,229=0D - pshufd $0x0e,%xmm2,%xmm0=0D - movdqa 224-128(%rbp),%xmm1=0D - paddd %xmm6,%xmm1=0D -.byte 69,15,56,203,247=0D -=0D - movdqa %xmm1,%xmm0=0D - movdqa 224-128(%rbp),%xmm2=0D - paddd %xmm3,%xmm11=0D - paddd %xmm10,%xmm2=0D -.byte 15,56,205,254=0D - nop=0D -.byte 69,15,56,203,236=0D - movdqa %xmm2,%xmm0=0D - movl $1,%ecx=0D - pxor %xmm6,%xmm6=0D -.byte 69,15,56,203,254=0D -.byte 69,15,56,205,218=0D - pshufd $0x0e,%xmm1,%xmm0=0D - movdqa 240-128(%rbp),%xmm1=0D - paddd %xmm7,%xmm1=0D - movq (%rbx),%xmm7=0D - nop=0D -.byte 69,15,56,203,229=0D - pshufd $0x0e,%xmm2,%xmm0=0D - movdqa 240-128(%rbp),%xmm2=0D - paddd %xmm11,%xmm2=0D -.byte 69,15,56,203,247=0D -=0D - movdqa %xmm1,%xmm0=0D - cmpl 0(%rbx),%ecx=0D - cmovgeq %rsp,%r8=0D - cmpl 4(%rbx),%ecx=0D - cmovgeq %rsp,%r9=0D - pshufd $0x00,%xmm7,%xmm9=0D -.byte 69,15,56,203,236=0D - movdqa %xmm2,%xmm0=0D - pshufd $0x55,%xmm7,%xmm10=0D - movdqa %xmm7,%xmm11=0D -.byte 69,15,56,203,254=0D - pshufd $0x0e,%xmm1,%xmm0=0D - pcmpgtd %xmm6,%xmm9=0D - pcmpgtd %xmm6,%xmm10=0D -.byte 69,15,56,203,229=0D - pshufd $0x0e,%xmm2,%xmm0=0D - pcmpgtd %xmm6,%xmm11=0D - movdqa K256_shaext-16(%rip),%xmm3=0D -.byte 69,15,56,203,247=0D -=0D - pand %xmm9,%xmm13=0D - pand %xmm10,%xmm15=0D - pand %xmm9,%xmm12=0D - pand %xmm10,%xmm14=0D - paddd %xmm7,%xmm11=0D -=0D - paddd 80(%rsp),%xmm13=0D - paddd 112(%rsp),%xmm15=0D - paddd 64(%rsp),%xmm12=0D - paddd 96(%rsp),%xmm14=0D -=0D - movq %xmm11,(%rbx)=0D - decl %edx=0D - jnz .Loop_shaext=0D -=0D - movl 280(%rsp),%edx=0D -=0D - pshufd $27,%xmm12,%xmm12=0D - pshufd $27,%xmm13,%xmm13=0D - pshufd $27,%xmm14,%xmm14=0D - pshufd $27,%xmm15,%xmm15=0D -=0D - movdqa %xmm12,%xmm5=0D - movdqa %xmm13,%xmm6=0D - punpckldq %xmm14,%xmm12=0D - punpckhdq %xmm14,%xmm5=0D - punpckldq %xmm15,%xmm13=0D - punpckhdq %xmm15,%xmm6=0D -=0D - movq %xmm12,0-128(%rdi)=0D - psrldq $8,%xmm12=0D - movq %xmm5,128-128(%rdi)=0D - psrldq $8,%xmm5=0D - movq %xmm12,32-128(%rdi)=0D - movq %xmm5,160-128(%rdi)=0D -=0D - movq %xmm13,64-128(%rdi)=0D - psrldq $8,%xmm13=0D - movq %xmm6,192-128(%rdi)=0D - psrldq $8,%xmm6=0D - movq %xmm13,96-128(%rdi)=0D - movq %xmm6,224-128(%rdi)=0D -=0D - leaq 8(%rdi),%rdi=0D - leaq 32(%rsi),%rsi=0D - decl %edx=0D - jnz .Loop_grande_shaext=0D -=0D -.Ldone_shaext:=0D -=0D - movq -16(%rax),%rbp=0D -.cfi_restore %rbp=0D - movq -8(%rax),%rbx=0D -.cfi_restore %rbx=0D - leaq (%rax),%rsp=0D -.cfi_def_cfa_register %rsp=0D -.Lepilogue_shaext:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size sha256_multi_block_shaext,.-sha256_multi_block_shaext=0D -.align 256=0D -K256:=0D -.long 1116352408,1116352408,1116352408,1116352408=0D -.long 1116352408,1116352408,1116352408,1116352408=0D -.long 1899447441,1899447441,1899447441,1899447441=0D -.long 1899447441,1899447441,1899447441,1899447441=0D -.long 3049323471,3049323471,3049323471,3049323471=0D -.long 3049323471,3049323471,3049323471,3049323471=0D -.long 3921009573,3921009573,3921009573,3921009573=0D -.long 3921009573,3921009573,3921009573,3921009573=0D -.long 961987163,961987163,961987163,961987163=0D -.long 961987163,961987163,961987163,961987163=0D -.long 1508970993,1508970993,1508970993,1508970993=0D -.long 1508970993,1508970993,1508970993,1508970993=0D -.long 2453635748,2453635748,2453635748,2453635748=0D -.long 2453635748,2453635748,2453635748,2453635748=0D -.long 2870763221,2870763221,2870763221,2870763221=0D -.long 2870763221,2870763221,2870763221,2870763221=0D -.long 3624381080,3624381080,3624381080,3624381080=0D -.long 3624381080,3624381080,3624381080,3624381080=0D -.long 310598401,310598401,310598401,310598401=0D -.long 310598401,310598401,310598401,310598401=0D -.long 607225278,607225278,607225278,607225278=0D -.long 607225278,607225278,607225278,607225278=0D -.long 1426881987,1426881987,1426881987,1426881987=0D -.long 1426881987,1426881987,1426881987,1426881987=0D -.long 1925078388,1925078388,1925078388,1925078388=0D -.long 1925078388,1925078388,1925078388,1925078388=0D -.long 2162078206,2162078206,2162078206,2162078206=0D -.long 2162078206,2162078206,2162078206,2162078206=0D -.long 2614888103,2614888103,2614888103,2614888103=0D -.long 2614888103,2614888103,2614888103,2614888103=0D -.long 3248222580,3248222580,3248222580,3248222580=0D -.long 3248222580,3248222580,3248222580,3248222580=0D -.long 3835390401,3835390401,3835390401,3835390401=0D -.long 3835390401,3835390401,3835390401,3835390401=0D -.long 4022224774,4022224774,4022224774,4022224774=0D -.long 4022224774,4022224774,4022224774,4022224774=0D -.long 264347078,264347078,264347078,264347078=0D -.long 264347078,264347078,264347078,264347078=0D -.long 604807628,604807628,604807628,604807628=0D -.long 604807628,604807628,604807628,604807628=0D -.long 770255983,770255983,770255983,770255983=0D -.long 770255983,770255983,770255983,770255983=0D -.long 1249150122,1249150122,1249150122,1249150122=0D -.long 1249150122,1249150122,1249150122,1249150122=0D -.long 1555081692,1555081692,1555081692,1555081692=0D -.long 1555081692,1555081692,1555081692,1555081692=0D -.long 1996064986,1996064986,1996064986,1996064986=0D -.long 1996064986,1996064986,1996064986,1996064986=0D -.long 2554220882,2554220882,2554220882,2554220882=0D -.long 2554220882,2554220882,2554220882,2554220882=0D -.long 2821834349,2821834349,2821834349,2821834349=0D -.long 2821834349,2821834349,2821834349,2821834349=0D -.long 2952996808,2952996808,2952996808,2952996808=0D -.long 2952996808,2952996808,2952996808,2952996808=0D -.long 3210313671,3210313671,3210313671,3210313671=0D -.long 3210313671,3210313671,3210313671,3210313671=0D -.long 3336571891,3336571891,3336571891,3336571891=0D -.long 3336571891,3336571891,3336571891,3336571891=0D -.long 3584528711,3584528711,3584528711,3584528711=0D -.long 3584528711,3584528711,3584528711,3584528711=0D -.long 113926993,113926993,113926993,113926993=0D -.long 113926993,113926993,113926993,113926993=0D -.long 338241895,338241895,338241895,338241895=0D -.long 338241895,338241895,338241895,338241895=0D -.long 666307205,666307205,666307205,666307205=0D -.long 666307205,666307205,666307205,666307205=0D -.long 773529912,773529912,773529912,773529912=0D -.long 773529912,773529912,773529912,773529912=0D -.long 1294757372,1294757372,1294757372,1294757372=0D -.long 1294757372,1294757372,1294757372,1294757372=0D -.long 1396182291,1396182291,1396182291,1396182291=0D -.long 1396182291,1396182291,1396182291,1396182291=0D -.long 1695183700,1695183700,1695183700,1695183700=0D -.long 1695183700,1695183700,1695183700,1695183700=0D -.long 1986661051,1986661051,1986661051,1986661051=0D -.long 1986661051,1986661051,1986661051,1986661051=0D -.long 2177026350,2177026350,2177026350,2177026350=0D -.long 2177026350,2177026350,2177026350,2177026350=0D -.long 2456956037,2456956037,2456956037,2456956037=0D -.long 2456956037,2456956037,2456956037,2456956037=0D -.long 2730485921,2730485921,2730485921,2730485921=0D -.long 2730485921,2730485921,2730485921,2730485921=0D -.long 2820302411,2820302411,2820302411,2820302411=0D -.long 2820302411,2820302411,2820302411,2820302411=0D -.long 3259730800,3259730800,3259730800,3259730800=0D -.long 3259730800,3259730800,3259730800,3259730800=0D -.long 3345764771,3345764771,3345764771,3345764771=0D -.long 3345764771,3345764771,3345764771,3345764771=0D -.long 3516065817,3516065817,3516065817,3516065817=0D -.long 3516065817,3516065817,3516065817,3516065817=0D -.long 3600352804,3600352804,3600352804,3600352804=0D -.long 3600352804,3600352804,3600352804,3600352804=0D -.long 4094571909,4094571909,4094571909,4094571909=0D -.long 4094571909,4094571909,4094571909,4094571909=0D -.long 275423344,275423344,275423344,275423344=0D -.long 275423344,275423344,275423344,275423344=0D -.long 430227734,430227734,430227734,430227734=0D -.long 430227734,430227734,430227734,430227734=0D -.long 506948616,506948616,506948616,506948616=0D -.long 506948616,506948616,506948616,506948616=0D -.long 659060556,659060556,659060556,659060556=0D -.long 659060556,659060556,659060556,659060556=0D -.long 883997877,883997877,883997877,883997877=0D -.long 883997877,883997877,883997877,883997877=0D -.long 958139571,958139571,958139571,958139571=0D -.long 958139571,958139571,958139571,958139571=0D -.long 1322822218,1322822218,1322822218,1322822218=0D -.long 1322822218,1322822218,1322822218,1322822218=0D -.long 1537002063,1537002063,1537002063,1537002063=0D -.long 1537002063,1537002063,1537002063,1537002063=0D -.long 1747873779,1747873779,1747873779,1747873779=0D -.long 1747873779,1747873779,1747873779,1747873779=0D -.long 1955562222,1955562222,1955562222,1955562222=0D -.long 1955562222,1955562222,1955562222,1955562222=0D -.long 2024104815,2024104815,2024104815,2024104815=0D -.long 2024104815,2024104815,2024104815,2024104815=0D -.long 2227730452,2227730452,2227730452,2227730452=0D -.long 2227730452,2227730452,2227730452,2227730452=0D -.long 2361852424,2361852424,2361852424,2361852424=0D -.long 2361852424,2361852424,2361852424,2361852424=0D -.long 2428436474,2428436474,2428436474,2428436474=0D -.long 2428436474,2428436474,2428436474,2428436474=0D -.long 2756734187,2756734187,2756734187,2756734187=0D -.long 2756734187,2756734187,2756734187,2756734187=0D -.long 3204031479,3204031479,3204031479,3204031479=0D -.long 3204031479,3204031479,3204031479,3204031479=0D -.long 3329325298,3329325298,3329325298,3329325298=0D -.long 3329325298,3329325298,3329325298,3329325298=0D -.Lpbswap:=0D -.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f=0D -.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f=0D -K256_shaext:=0D -.long 0x428a2f98,0x71374491,0xb5c0fbcf,0xe9b5dba5=0D -.long 0x3956c25b,0x59f111f1,0x923f82a4,0xab1c5ed5=0D -.long 0xd807aa98,0x12835b01,0x243185be,0x550c7dc3=0D -.long 0x72be5d74,0x80deb1fe,0x9bdc06a7,0xc19bf174=0D -.long 0xe49b69c1,0xefbe4786,0x0fc19dc6,0x240ca1cc=0D -.long 0x2de92c6f,0x4a7484aa,0x5cb0a9dc,0x76f988da=0D -.long 0x983e5152,0xa831c66d,0xb00327c8,0xbf597fc7=0D -.long 0xc6e00bf3,0xd5a79147,0x06ca6351,0x14292967=0D -.long 0x27b70a85,0x2e1b2138,0x4d2c6dfc,0x53380d13=0D -.long 0x650a7354,0x766a0abb,0x81c2c92e,0x92722c85=0D -.long 0xa2bfe8a1,0xa81a664b,0xc24b8b70,0xc76c51a3=0D -.long 0xd192e819,0xd6990624,0xf40e3585,0x106aa070=0D -.long 0x19a4c116,0x1e376c08,0x2748774c,0x34b0bcb5=0D -.long 0x391c0cb3,0x4ed8aa4a,0x5b9cca4f,0x682e6ff3=0D -.long 0x748f82ee,0x78a5636f,0x84c87814,0x8cc70208=0D -.long 0x90befffa,0xa4506ceb,0xbef9a3f7,0xc67178f2=0D -.byte 83,72,65,50,53,54,32,109,117,108,116,105,45,98,108,111,99,107,32,1= 16,114,97,110,115,102,111,114,109,32,102,111,114,32,120,56,54,95,54,52,44,3= 2,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,1= 12,101,110,115,115,108,46,111,114,103,62,0=0D diff --git a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha256-x86_64.S= b/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha256-x86_64.S deleted file mode 100644 index a5d3cf5068..0000000000 --- a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha256-x86_64.S +++ /dev/null @@ -1,3097 +0,0 @@ -# WARNING: do not edit!=0D -# Generated from openssl/crypto/sha/asm/sha512-x86_64.pl=0D -#=0D -# Copyright 2005-2020 The OpenSSL Project Authors. All Rights Reserved.=0D -#=0D -# Licensed under the OpenSSL license (the "License"). You may not use=0D -# this file except in compliance with the License. You can obtain a copy= =0D -# in the file LICENSE in the source distribution or at=0D -# https://www.openssl.org/source/license.html=0D -=0D -.text=0D -=0D -=0D -.globl sha256_block_data_order=0D -.type sha256_block_data_order,@function=0D -.align 16=0D -sha256_block_data_order:=0D -.cfi_startproc=0D - leaq OPENSSL_ia32cap_P(%rip),%r11=0D - movl 0(%r11),%r9d=0D - movl 4(%r11),%r10d=0D - movl 8(%r11),%r11d=0D - testl $536870912,%r11d=0D - jnz _shaext_shortcut=0D - testl $512,%r10d=0D - jnz .Lssse3_shortcut=0D - movq %rsp,%rax=0D -.cfi_def_cfa_register %rax=0D - pushq %rbx=0D -.cfi_offset %rbx,-16=0D - pushq %rbp=0D -.cfi_offset %rbp,-24=0D - pushq %r12=0D -.cfi_offset %r12,-32=0D - pushq %r13=0D -.cfi_offset %r13,-40=0D - pushq %r14=0D -.cfi_offset %r14,-48=0D - pushq %r15=0D -.cfi_offset %r15,-56=0D - shlq $4,%rdx=0D - subq $64+32,%rsp=0D - leaq (%rsi,%rdx,4),%rdx=0D - andq $-64,%rsp=0D - movq %rdi,64+0(%rsp)=0D - movq %rsi,64+8(%rsp)=0D - movq %rdx,64+16(%rsp)=0D - movq %rax,88(%rsp)=0D -.cfi_escape 0x0f,0x06,0x77,0xd8,0x00,0x06,0x23,0x08=0D -.Lprologue:=0D -=0D - movl 0(%rdi),%eax=0D - movl 4(%rdi),%ebx=0D - movl 8(%rdi),%ecx=0D - movl 12(%rdi),%edx=0D - movl 16(%rdi),%r8d=0D - movl 20(%rdi),%r9d=0D - movl 24(%rdi),%r10d=0D - movl 28(%rdi),%r11d=0D - jmp .Lloop=0D -=0D -.align 16=0D -.Lloop:=0D - movl %ebx,%edi=0D - leaq K256(%rip),%rbp=0D - xorl %ecx,%edi=0D - movl 0(%rsi),%r12d=0D - movl %r8d,%r13d=0D - movl %eax,%r14d=0D - bswapl %r12d=0D - rorl $14,%r13d=0D - movl %r9d,%r15d=0D -=0D - xorl %r8d,%r13d=0D - rorl $9,%r14d=0D - xorl %r10d,%r15d=0D -=0D - movl %r12d,0(%rsp)=0D - xorl %eax,%r14d=0D - andl %r8d,%r15d=0D -=0D - rorl $5,%r13d=0D - addl %r11d,%r12d=0D - xorl %r10d,%r15d=0D -=0D - rorl $11,%r14d=0D - xorl %r8d,%r13d=0D - addl %r15d,%r12d=0D -=0D - movl %eax,%r15d=0D - addl (%rbp),%r12d=0D - xorl %eax,%r14d=0D -=0D - xorl %ebx,%r15d=0D - rorl $6,%r13d=0D - movl %ebx,%r11d=0D -=0D - andl %r15d,%edi=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %edi,%r11d=0D - addl %r12d,%edx=0D - addl %r12d,%r11d=0D -=0D - leaq 4(%rbp),%rbp=0D - addl %r14d,%r11d=0D - movl 4(%rsi),%r12d=0D - movl %edx,%r13d=0D - movl %r11d,%r14d=0D - bswapl %r12d=0D - rorl $14,%r13d=0D - movl %r8d,%edi=0D -=0D - xorl %edx,%r13d=0D - rorl $9,%r14d=0D - xorl %r9d,%edi=0D -=0D - movl %r12d,4(%rsp)=0D - xorl %r11d,%r14d=0D - andl %edx,%edi=0D -=0D - rorl $5,%r13d=0D - addl %r10d,%r12d=0D - xorl %r9d,%edi=0D -=0D - rorl $11,%r14d=0D - xorl %edx,%r13d=0D - addl %edi,%r12d=0D -=0D - movl %r11d,%edi=0D - addl (%rbp),%r12d=0D - xorl %r11d,%r14d=0D -=0D - xorl %eax,%edi=0D - rorl $6,%r13d=0D - movl %eax,%r10d=0D -=0D - andl %edi,%r15d=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %r15d,%r10d=0D - addl %r12d,%ecx=0D - addl %r12d,%r10d=0D -=0D - leaq 4(%rbp),%rbp=0D - addl %r14d,%r10d=0D - movl 8(%rsi),%r12d=0D - movl %ecx,%r13d=0D - movl %r10d,%r14d=0D - bswapl %r12d=0D - rorl $14,%r13d=0D - movl %edx,%r15d=0D -=0D - xorl %ecx,%r13d=0D - rorl $9,%r14d=0D - xorl %r8d,%r15d=0D -=0D - movl %r12d,8(%rsp)=0D - xorl %r10d,%r14d=0D - andl %ecx,%r15d=0D -=0D - rorl $5,%r13d=0D - addl %r9d,%r12d=0D - xorl %r8d,%r15d=0D -=0D - rorl $11,%r14d=0D - xorl %ecx,%r13d=0D - addl %r15d,%r12d=0D -=0D - movl %r10d,%r15d=0D - addl (%rbp),%r12d=0D - xorl %r10d,%r14d=0D -=0D - xorl %r11d,%r15d=0D - rorl $6,%r13d=0D - movl %r11d,%r9d=0D -=0D - andl %r15d,%edi=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %edi,%r9d=0D - addl %r12d,%ebx=0D - addl %r12d,%r9d=0D -=0D - leaq 4(%rbp),%rbp=0D - addl %r14d,%r9d=0D - movl 12(%rsi),%r12d=0D - movl %ebx,%r13d=0D - movl %r9d,%r14d=0D - bswapl %r12d=0D - rorl $14,%r13d=0D - movl %ecx,%edi=0D -=0D - xorl %ebx,%r13d=0D - rorl $9,%r14d=0D - xorl %edx,%edi=0D -=0D - movl %r12d,12(%rsp)=0D - xorl %r9d,%r14d=0D - andl %ebx,%edi=0D -=0D - rorl $5,%r13d=0D - addl %r8d,%r12d=0D - xorl %edx,%edi=0D -=0D - rorl $11,%r14d=0D - xorl %ebx,%r13d=0D - addl %edi,%r12d=0D -=0D - movl %r9d,%edi=0D - addl (%rbp),%r12d=0D - xorl %r9d,%r14d=0D -=0D - xorl %r10d,%edi=0D - rorl $6,%r13d=0D - movl %r10d,%r8d=0D -=0D - andl %edi,%r15d=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %r15d,%r8d=0D - addl %r12d,%eax=0D - addl %r12d,%r8d=0D -=0D - leaq 20(%rbp),%rbp=0D - addl %r14d,%r8d=0D - movl 16(%rsi),%r12d=0D - movl %eax,%r13d=0D - movl %r8d,%r14d=0D - bswapl %r12d=0D - rorl $14,%r13d=0D - movl %ebx,%r15d=0D -=0D - xorl %eax,%r13d=0D - rorl $9,%r14d=0D - xorl %ecx,%r15d=0D -=0D - movl %r12d,16(%rsp)=0D - xorl %r8d,%r14d=0D - andl %eax,%r15d=0D -=0D - rorl $5,%r13d=0D - addl %edx,%r12d=0D - xorl %ecx,%r15d=0D -=0D - rorl $11,%r14d=0D - xorl %eax,%r13d=0D - addl %r15d,%r12d=0D -=0D - movl %r8d,%r15d=0D - addl (%rbp),%r12d=0D - xorl %r8d,%r14d=0D -=0D - xorl %r9d,%r15d=0D - rorl $6,%r13d=0D - movl %r9d,%edx=0D -=0D - andl %r15d,%edi=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %edi,%edx=0D - addl %r12d,%r11d=0D - addl %r12d,%edx=0D -=0D - leaq 4(%rbp),%rbp=0D - addl %r14d,%edx=0D - movl 20(%rsi),%r12d=0D - movl %r11d,%r13d=0D - movl %edx,%r14d=0D - bswapl %r12d=0D - rorl $14,%r13d=0D - movl %eax,%edi=0D -=0D - xorl %r11d,%r13d=0D - rorl $9,%r14d=0D - xorl %ebx,%edi=0D -=0D - movl %r12d,20(%rsp)=0D - xorl %edx,%r14d=0D - andl %r11d,%edi=0D -=0D - rorl $5,%r13d=0D - addl %ecx,%r12d=0D - xorl %ebx,%edi=0D -=0D - rorl $11,%r14d=0D - xorl %r11d,%r13d=0D - addl %edi,%r12d=0D -=0D - movl %edx,%edi=0D - addl (%rbp),%r12d=0D - xorl %edx,%r14d=0D -=0D - xorl %r8d,%edi=0D - rorl $6,%r13d=0D - movl %r8d,%ecx=0D -=0D - andl %edi,%r15d=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %r15d,%ecx=0D - addl %r12d,%r10d=0D - addl %r12d,%ecx=0D -=0D - leaq 4(%rbp),%rbp=0D - addl %r14d,%ecx=0D - movl 24(%rsi),%r12d=0D - movl %r10d,%r13d=0D - movl %ecx,%r14d=0D - bswapl %r12d=0D - rorl $14,%r13d=0D - movl %r11d,%r15d=0D -=0D - xorl %r10d,%r13d=0D - rorl $9,%r14d=0D - xorl %eax,%r15d=0D -=0D - movl %r12d,24(%rsp)=0D - xorl %ecx,%r14d=0D - andl %r10d,%r15d=0D -=0D - rorl $5,%r13d=0D - addl %ebx,%r12d=0D - xorl %eax,%r15d=0D -=0D - rorl $11,%r14d=0D - xorl %r10d,%r13d=0D - addl %r15d,%r12d=0D -=0D - movl %ecx,%r15d=0D - addl (%rbp),%r12d=0D - xorl %ecx,%r14d=0D -=0D - xorl %edx,%r15d=0D - rorl $6,%r13d=0D - movl %edx,%ebx=0D -=0D - andl %r15d,%edi=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %edi,%ebx=0D - addl %r12d,%r9d=0D - addl %r12d,%ebx=0D -=0D - leaq 4(%rbp),%rbp=0D - addl %r14d,%ebx=0D - movl 28(%rsi),%r12d=0D - movl %r9d,%r13d=0D - movl %ebx,%r14d=0D - bswapl %r12d=0D - rorl $14,%r13d=0D - movl %r10d,%edi=0D -=0D - xorl %r9d,%r13d=0D - rorl $9,%r14d=0D - xorl %r11d,%edi=0D -=0D - movl %r12d,28(%rsp)=0D - xorl %ebx,%r14d=0D - andl %r9d,%edi=0D -=0D - rorl $5,%r13d=0D - addl %eax,%r12d=0D - xorl %r11d,%edi=0D -=0D - rorl $11,%r14d=0D - xorl %r9d,%r13d=0D - addl %edi,%r12d=0D -=0D - movl %ebx,%edi=0D - addl (%rbp),%r12d=0D - xorl %ebx,%r14d=0D -=0D - xorl %ecx,%edi=0D - rorl $6,%r13d=0D - movl %ecx,%eax=0D -=0D - andl %edi,%r15d=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %r15d,%eax=0D - addl %r12d,%r8d=0D - addl %r12d,%eax=0D -=0D - leaq 20(%rbp),%rbp=0D - addl %r14d,%eax=0D - movl 32(%rsi),%r12d=0D - movl %r8d,%r13d=0D - movl %eax,%r14d=0D - bswapl %r12d=0D - rorl $14,%r13d=0D - movl %r9d,%r15d=0D -=0D - xorl %r8d,%r13d=0D - rorl $9,%r14d=0D - xorl %r10d,%r15d=0D -=0D - movl %r12d,32(%rsp)=0D - xorl %eax,%r14d=0D - andl %r8d,%r15d=0D -=0D - rorl $5,%r13d=0D - addl %r11d,%r12d=0D - xorl %r10d,%r15d=0D -=0D - rorl $11,%r14d=0D - xorl %r8d,%r13d=0D - addl %r15d,%r12d=0D -=0D - movl %eax,%r15d=0D - addl (%rbp),%r12d=0D - xorl %eax,%r14d=0D -=0D - xorl %ebx,%r15d=0D - rorl $6,%r13d=0D - movl %ebx,%r11d=0D -=0D - andl %r15d,%edi=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %edi,%r11d=0D - addl %r12d,%edx=0D - addl %r12d,%r11d=0D -=0D - leaq 4(%rbp),%rbp=0D - addl %r14d,%r11d=0D - movl 36(%rsi),%r12d=0D - movl %edx,%r13d=0D - movl %r11d,%r14d=0D - bswapl %r12d=0D - rorl $14,%r13d=0D - movl %r8d,%edi=0D -=0D - xorl %edx,%r13d=0D - rorl $9,%r14d=0D - xorl %r9d,%edi=0D -=0D - movl %r12d,36(%rsp)=0D - xorl %r11d,%r14d=0D - andl %edx,%edi=0D -=0D - rorl $5,%r13d=0D - addl %r10d,%r12d=0D - xorl %r9d,%edi=0D -=0D - rorl $11,%r14d=0D - xorl %edx,%r13d=0D - addl %edi,%r12d=0D -=0D - movl %r11d,%edi=0D - addl (%rbp),%r12d=0D - xorl %r11d,%r14d=0D -=0D - xorl %eax,%edi=0D - rorl $6,%r13d=0D - movl %eax,%r10d=0D -=0D - andl %edi,%r15d=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %r15d,%r10d=0D - addl %r12d,%ecx=0D - addl %r12d,%r10d=0D -=0D - leaq 4(%rbp),%rbp=0D - addl %r14d,%r10d=0D - movl 40(%rsi),%r12d=0D - movl %ecx,%r13d=0D - movl %r10d,%r14d=0D - bswapl %r12d=0D - rorl $14,%r13d=0D - movl %edx,%r15d=0D -=0D - xorl %ecx,%r13d=0D - rorl $9,%r14d=0D - xorl %r8d,%r15d=0D -=0D - movl %r12d,40(%rsp)=0D - xorl %r10d,%r14d=0D - andl %ecx,%r15d=0D -=0D - rorl $5,%r13d=0D - addl %r9d,%r12d=0D - xorl %r8d,%r15d=0D -=0D - rorl $11,%r14d=0D - xorl %ecx,%r13d=0D - addl %r15d,%r12d=0D -=0D - movl %r10d,%r15d=0D - addl (%rbp),%r12d=0D - xorl %r10d,%r14d=0D -=0D - xorl %r11d,%r15d=0D - rorl $6,%r13d=0D - movl %r11d,%r9d=0D -=0D - andl %r15d,%edi=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %edi,%r9d=0D - addl %r12d,%ebx=0D - addl %r12d,%r9d=0D -=0D - leaq 4(%rbp),%rbp=0D - addl %r14d,%r9d=0D - movl 44(%rsi),%r12d=0D - movl %ebx,%r13d=0D - movl %r9d,%r14d=0D - bswapl %r12d=0D - rorl $14,%r13d=0D - movl %ecx,%edi=0D -=0D - xorl %ebx,%r13d=0D - rorl $9,%r14d=0D - xorl %edx,%edi=0D -=0D - movl %r12d,44(%rsp)=0D - xorl %r9d,%r14d=0D - andl %ebx,%edi=0D -=0D - rorl $5,%r13d=0D - addl %r8d,%r12d=0D - xorl %edx,%edi=0D -=0D - rorl $11,%r14d=0D - xorl %ebx,%r13d=0D - addl %edi,%r12d=0D -=0D - movl %r9d,%edi=0D - addl (%rbp),%r12d=0D - xorl %r9d,%r14d=0D -=0D - xorl %r10d,%edi=0D - rorl $6,%r13d=0D - movl %r10d,%r8d=0D -=0D - andl %edi,%r15d=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %r15d,%r8d=0D - addl %r12d,%eax=0D - addl %r12d,%r8d=0D -=0D - leaq 20(%rbp),%rbp=0D - addl %r14d,%r8d=0D - movl 48(%rsi),%r12d=0D - movl %eax,%r13d=0D - movl %r8d,%r14d=0D - bswapl %r12d=0D - rorl $14,%r13d=0D - movl %ebx,%r15d=0D -=0D - xorl %eax,%r13d=0D - rorl $9,%r14d=0D - xorl %ecx,%r15d=0D -=0D - movl %r12d,48(%rsp)=0D - xorl %r8d,%r14d=0D - andl %eax,%r15d=0D -=0D - rorl $5,%r13d=0D - addl %edx,%r12d=0D - xorl %ecx,%r15d=0D -=0D - rorl $11,%r14d=0D - xorl %eax,%r13d=0D - addl %r15d,%r12d=0D -=0D - movl %r8d,%r15d=0D - addl (%rbp),%r12d=0D - xorl %r8d,%r14d=0D -=0D - xorl %r9d,%r15d=0D - rorl $6,%r13d=0D - movl %r9d,%edx=0D -=0D - andl %r15d,%edi=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %edi,%edx=0D - addl %r12d,%r11d=0D - addl %r12d,%edx=0D -=0D - leaq 4(%rbp),%rbp=0D - addl %r14d,%edx=0D - movl 52(%rsi),%r12d=0D - movl %r11d,%r13d=0D - movl %edx,%r14d=0D - bswapl %r12d=0D - rorl $14,%r13d=0D - movl %eax,%edi=0D -=0D - xorl %r11d,%r13d=0D - rorl $9,%r14d=0D - xorl %ebx,%edi=0D -=0D - movl %r12d,52(%rsp)=0D - xorl %edx,%r14d=0D - andl %r11d,%edi=0D -=0D - rorl $5,%r13d=0D - addl %ecx,%r12d=0D - xorl %ebx,%edi=0D -=0D - rorl $11,%r14d=0D - xorl %r11d,%r13d=0D - addl %edi,%r12d=0D -=0D - movl %edx,%edi=0D - addl (%rbp),%r12d=0D - xorl %edx,%r14d=0D -=0D - xorl %r8d,%edi=0D - rorl $6,%r13d=0D - movl %r8d,%ecx=0D -=0D - andl %edi,%r15d=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %r15d,%ecx=0D - addl %r12d,%r10d=0D - addl %r12d,%ecx=0D -=0D - leaq 4(%rbp),%rbp=0D - addl %r14d,%ecx=0D - movl 56(%rsi),%r12d=0D - movl %r10d,%r13d=0D - movl %ecx,%r14d=0D - bswapl %r12d=0D - rorl $14,%r13d=0D - movl %r11d,%r15d=0D -=0D - xorl %r10d,%r13d=0D - rorl $9,%r14d=0D - xorl %eax,%r15d=0D -=0D - movl %r12d,56(%rsp)=0D - xorl %ecx,%r14d=0D - andl %r10d,%r15d=0D -=0D - rorl $5,%r13d=0D - addl %ebx,%r12d=0D - xorl %eax,%r15d=0D -=0D - rorl $11,%r14d=0D - xorl %r10d,%r13d=0D - addl %r15d,%r12d=0D -=0D - movl %ecx,%r15d=0D - addl (%rbp),%r12d=0D - xorl %ecx,%r14d=0D -=0D - xorl %edx,%r15d=0D - rorl $6,%r13d=0D - movl %edx,%ebx=0D -=0D - andl %r15d,%edi=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %edi,%ebx=0D - addl %r12d,%r9d=0D - addl %r12d,%ebx=0D -=0D - leaq 4(%rbp),%rbp=0D - addl %r14d,%ebx=0D - movl 60(%rsi),%r12d=0D - movl %r9d,%r13d=0D - movl %ebx,%r14d=0D - bswapl %r12d=0D - rorl $14,%r13d=0D - movl %r10d,%edi=0D -=0D - xorl %r9d,%r13d=0D - rorl $9,%r14d=0D - xorl %r11d,%edi=0D -=0D - movl %r12d,60(%rsp)=0D - xorl %ebx,%r14d=0D - andl %r9d,%edi=0D -=0D - rorl $5,%r13d=0D - addl %eax,%r12d=0D - xorl %r11d,%edi=0D -=0D - rorl $11,%r14d=0D - xorl %r9d,%r13d=0D - addl %edi,%r12d=0D -=0D - movl %ebx,%edi=0D - addl (%rbp),%r12d=0D - xorl %ebx,%r14d=0D -=0D - xorl %ecx,%edi=0D - rorl $6,%r13d=0D - movl %ecx,%eax=0D -=0D - andl %edi,%r15d=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %r15d,%eax=0D - addl %r12d,%r8d=0D - addl %r12d,%eax=0D -=0D - leaq 20(%rbp),%rbp=0D - jmp .Lrounds_16_xx=0D -.align 16=0D -.Lrounds_16_xx:=0D - movl 4(%rsp),%r13d=0D - movl 56(%rsp),%r15d=0D -=0D - movl %r13d,%r12d=0D - rorl $11,%r13d=0D - addl %r14d,%eax=0D - movl %r15d,%r14d=0D - rorl $2,%r15d=0D -=0D - xorl %r12d,%r13d=0D - shrl $3,%r12d=0D - rorl $7,%r13d=0D - xorl %r14d,%r15d=0D - shrl $10,%r14d=0D -=0D - rorl $17,%r15d=0D - xorl %r13d,%r12d=0D - xorl %r14d,%r15d=0D - addl 36(%rsp),%r12d=0D -=0D - addl 0(%rsp),%r12d=0D - movl %r8d,%r13d=0D - addl %r15d,%r12d=0D - movl %eax,%r14d=0D - rorl $14,%r13d=0D - movl %r9d,%r15d=0D -=0D - xorl %r8d,%r13d=0D - rorl $9,%r14d=0D - xorl %r10d,%r15d=0D -=0D - movl %r12d,0(%rsp)=0D - xorl %eax,%r14d=0D - andl %r8d,%r15d=0D -=0D - rorl $5,%r13d=0D - addl %r11d,%r12d=0D - xorl %r10d,%r15d=0D -=0D - rorl $11,%r14d=0D - xorl %r8d,%r13d=0D - addl %r15d,%r12d=0D -=0D - movl %eax,%r15d=0D - addl (%rbp),%r12d=0D - xorl %eax,%r14d=0D -=0D - xorl %ebx,%r15d=0D - rorl $6,%r13d=0D - movl %ebx,%r11d=0D -=0D - andl %r15d,%edi=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %edi,%r11d=0D - addl %r12d,%edx=0D - addl %r12d,%r11d=0D -=0D - leaq 4(%rbp),%rbp=0D - movl 8(%rsp),%r13d=0D - movl 60(%rsp),%edi=0D -=0D - movl %r13d,%r12d=0D - rorl $11,%r13d=0D - addl %r14d,%r11d=0D - movl %edi,%r14d=0D - rorl $2,%edi=0D -=0D - xorl %r12d,%r13d=0D - shrl $3,%r12d=0D - rorl $7,%r13d=0D - xorl %r14d,%edi=0D - shrl $10,%r14d=0D -=0D - rorl $17,%edi=0D - xorl %r13d,%r12d=0D - xorl %r14d,%edi=0D - addl 40(%rsp),%r12d=0D -=0D - addl 4(%rsp),%r12d=0D - movl %edx,%r13d=0D - addl %edi,%r12d=0D - movl %r11d,%r14d=0D - rorl $14,%r13d=0D - movl %r8d,%edi=0D -=0D - xorl %edx,%r13d=0D - rorl $9,%r14d=0D - xorl %r9d,%edi=0D -=0D - movl %r12d,4(%rsp)=0D - xorl %r11d,%r14d=0D - andl %edx,%edi=0D -=0D - rorl $5,%r13d=0D - addl %r10d,%r12d=0D - xorl %r9d,%edi=0D -=0D - rorl $11,%r14d=0D - xorl %edx,%r13d=0D - addl %edi,%r12d=0D -=0D - movl %r11d,%edi=0D - addl (%rbp),%r12d=0D - xorl %r11d,%r14d=0D -=0D - xorl %eax,%edi=0D - rorl $6,%r13d=0D - movl %eax,%r10d=0D -=0D - andl %edi,%r15d=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %r15d,%r10d=0D - addl %r12d,%ecx=0D - addl %r12d,%r10d=0D -=0D - leaq 4(%rbp),%rbp=0D - movl 12(%rsp),%r13d=0D - movl 0(%rsp),%r15d=0D -=0D - movl %r13d,%r12d=0D - rorl $11,%r13d=0D - addl %r14d,%r10d=0D - movl %r15d,%r14d=0D - rorl $2,%r15d=0D -=0D - xorl %r12d,%r13d=0D - shrl $3,%r12d=0D - rorl $7,%r13d=0D - xorl %r14d,%r15d=0D - shrl $10,%r14d=0D -=0D - rorl $17,%r15d=0D - xorl %r13d,%r12d=0D - xorl %r14d,%r15d=0D - addl 44(%rsp),%r12d=0D -=0D - addl 8(%rsp),%r12d=0D - movl %ecx,%r13d=0D - addl %r15d,%r12d=0D - movl %r10d,%r14d=0D - rorl $14,%r13d=0D - movl %edx,%r15d=0D -=0D - xorl %ecx,%r13d=0D - rorl $9,%r14d=0D - xorl %r8d,%r15d=0D -=0D - movl %r12d,8(%rsp)=0D - xorl %r10d,%r14d=0D - andl %ecx,%r15d=0D -=0D - rorl $5,%r13d=0D - addl %r9d,%r12d=0D - xorl %r8d,%r15d=0D -=0D - rorl $11,%r14d=0D - xorl %ecx,%r13d=0D - addl %r15d,%r12d=0D -=0D - movl %r10d,%r15d=0D - addl (%rbp),%r12d=0D - xorl %r10d,%r14d=0D -=0D - xorl %r11d,%r15d=0D - rorl $6,%r13d=0D - movl %r11d,%r9d=0D -=0D - andl %r15d,%edi=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %edi,%r9d=0D - addl %r12d,%ebx=0D - addl %r12d,%r9d=0D -=0D - leaq 4(%rbp),%rbp=0D - movl 16(%rsp),%r13d=0D - movl 4(%rsp),%edi=0D -=0D - movl %r13d,%r12d=0D - rorl $11,%r13d=0D - addl %r14d,%r9d=0D - movl %edi,%r14d=0D - rorl $2,%edi=0D -=0D - xorl %r12d,%r13d=0D - shrl $3,%r12d=0D - rorl $7,%r13d=0D - xorl %r14d,%edi=0D - shrl $10,%r14d=0D -=0D - rorl $17,%edi=0D - xorl %r13d,%r12d=0D - xorl %r14d,%edi=0D - addl 48(%rsp),%r12d=0D -=0D - addl 12(%rsp),%r12d=0D - movl %ebx,%r13d=0D - addl %edi,%r12d=0D - movl %r9d,%r14d=0D - rorl $14,%r13d=0D - movl %ecx,%edi=0D -=0D - xorl %ebx,%r13d=0D - rorl $9,%r14d=0D - xorl %edx,%edi=0D -=0D - movl %r12d,12(%rsp)=0D - xorl %r9d,%r14d=0D - andl %ebx,%edi=0D -=0D - rorl $5,%r13d=0D - addl %r8d,%r12d=0D - xorl %edx,%edi=0D -=0D - rorl $11,%r14d=0D - xorl %ebx,%r13d=0D - addl %edi,%r12d=0D -=0D - movl %r9d,%edi=0D - addl (%rbp),%r12d=0D - xorl %r9d,%r14d=0D -=0D - xorl %r10d,%edi=0D - rorl $6,%r13d=0D - movl %r10d,%r8d=0D -=0D - andl %edi,%r15d=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %r15d,%r8d=0D - addl %r12d,%eax=0D - addl %r12d,%r8d=0D -=0D - leaq 20(%rbp),%rbp=0D - movl 20(%rsp),%r13d=0D - movl 8(%rsp),%r15d=0D -=0D - movl %r13d,%r12d=0D - rorl $11,%r13d=0D - addl %r14d,%r8d=0D - movl %r15d,%r14d=0D - rorl $2,%r15d=0D -=0D - xorl %r12d,%r13d=0D - shrl $3,%r12d=0D - rorl $7,%r13d=0D - xorl %r14d,%r15d=0D - shrl $10,%r14d=0D -=0D - rorl $17,%r15d=0D - xorl %r13d,%r12d=0D - xorl %r14d,%r15d=0D - addl 52(%rsp),%r12d=0D -=0D - addl 16(%rsp),%r12d=0D - movl %eax,%r13d=0D - addl %r15d,%r12d=0D - movl %r8d,%r14d=0D - rorl $14,%r13d=0D - movl %ebx,%r15d=0D -=0D - xorl %eax,%r13d=0D - rorl $9,%r14d=0D - xorl %ecx,%r15d=0D -=0D - movl %r12d,16(%rsp)=0D - xorl %r8d,%r14d=0D - andl %eax,%r15d=0D -=0D - rorl $5,%r13d=0D - addl %edx,%r12d=0D - xorl %ecx,%r15d=0D -=0D - rorl $11,%r14d=0D - xorl %eax,%r13d=0D - addl %r15d,%r12d=0D -=0D - movl %r8d,%r15d=0D - addl (%rbp),%r12d=0D - xorl %r8d,%r14d=0D -=0D - xorl %r9d,%r15d=0D - rorl $6,%r13d=0D - movl %r9d,%edx=0D -=0D - andl %r15d,%edi=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %edi,%edx=0D - addl %r12d,%r11d=0D - addl %r12d,%edx=0D -=0D - leaq 4(%rbp),%rbp=0D - movl 24(%rsp),%r13d=0D - movl 12(%rsp),%edi=0D -=0D - movl %r13d,%r12d=0D - rorl $11,%r13d=0D - addl %r14d,%edx=0D - movl %edi,%r14d=0D - rorl $2,%edi=0D -=0D - xorl %r12d,%r13d=0D - shrl $3,%r12d=0D - rorl $7,%r13d=0D - xorl %r14d,%edi=0D - shrl $10,%r14d=0D -=0D - rorl $17,%edi=0D - xorl %r13d,%r12d=0D - xorl %r14d,%edi=0D - addl 56(%rsp),%r12d=0D -=0D - addl 20(%rsp),%r12d=0D - movl %r11d,%r13d=0D - addl %edi,%r12d=0D - movl %edx,%r14d=0D - rorl $14,%r13d=0D - movl %eax,%edi=0D -=0D - xorl %r11d,%r13d=0D - rorl $9,%r14d=0D - xorl %ebx,%edi=0D -=0D - movl %r12d,20(%rsp)=0D - xorl %edx,%r14d=0D - andl %r11d,%edi=0D -=0D - rorl $5,%r13d=0D - addl %ecx,%r12d=0D - xorl %ebx,%edi=0D -=0D - rorl $11,%r14d=0D - xorl %r11d,%r13d=0D - addl %edi,%r12d=0D -=0D - movl %edx,%edi=0D - addl (%rbp),%r12d=0D - xorl %edx,%r14d=0D -=0D - xorl %r8d,%edi=0D - rorl $6,%r13d=0D - movl %r8d,%ecx=0D -=0D - andl %edi,%r15d=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %r15d,%ecx=0D - addl %r12d,%r10d=0D - addl %r12d,%ecx=0D -=0D - leaq 4(%rbp),%rbp=0D - movl 28(%rsp),%r13d=0D - movl 16(%rsp),%r15d=0D -=0D - movl %r13d,%r12d=0D - rorl $11,%r13d=0D - addl %r14d,%ecx=0D - movl %r15d,%r14d=0D - rorl $2,%r15d=0D -=0D - xorl %r12d,%r13d=0D - shrl $3,%r12d=0D - rorl $7,%r13d=0D - xorl %r14d,%r15d=0D - shrl $10,%r14d=0D -=0D - rorl $17,%r15d=0D - xorl %r13d,%r12d=0D - xorl %r14d,%r15d=0D - addl 60(%rsp),%r12d=0D -=0D - addl 24(%rsp),%r12d=0D - movl %r10d,%r13d=0D - addl %r15d,%r12d=0D - movl %ecx,%r14d=0D - rorl $14,%r13d=0D - movl %r11d,%r15d=0D -=0D - xorl %r10d,%r13d=0D - rorl $9,%r14d=0D - xorl %eax,%r15d=0D -=0D - movl %r12d,24(%rsp)=0D - xorl %ecx,%r14d=0D - andl %r10d,%r15d=0D -=0D - rorl $5,%r13d=0D - addl %ebx,%r12d=0D - xorl %eax,%r15d=0D -=0D - rorl $11,%r14d=0D - xorl %r10d,%r13d=0D - addl %r15d,%r12d=0D -=0D - movl %ecx,%r15d=0D - addl (%rbp),%r12d=0D - xorl %ecx,%r14d=0D -=0D - xorl %edx,%r15d=0D - rorl $6,%r13d=0D - movl %edx,%ebx=0D -=0D - andl %r15d,%edi=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %edi,%ebx=0D - addl %r12d,%r9d=0D - addl %r12d,%ebx=0D -=0D - leaq 4(%rbp),%rbp=0D - movl 32(%rsp),%r13d=0D - movl 20(%rsp),%edi=0D -=0D - movl %r13d,%r12d=0D - rorl $11,%r13d=0D - addl %r14d,%ebx=0D - movl %edi,%r14d=0D - rorl $2,%edi=0D -=0D - xorl %r12d,%r13d=0D - shrl $3,%r12d=0D - rorl $7,%r13d=0D - xorl %r14d,%edi=0D - shrl $10,%r14d=0D -=0D - rorl $17,%edi=0D - xorl %r13d,%r12d=0D - xorl %r14d,%edi=0D - addl 0(%rsp),%r12d=0D -=0D - addl 28(%rsp),%r12d=0D - movl %r9d,%r13d=0D - addl %edi,%r12d=0D - movl %ebx,%r14d=0D - rorl $14,%r13d=0D - movl %r10d,%edi=0D -=0D - xorl %r9d,%r13d=0D - rorl $9,%r14d=0D - xorl %r11d,%edi=0D -=0D - movl %r12d,28(%rsp)=0D - xorl %ebx,%r14d=0D - andl %r9d,%edi=0D -=0D - rorl $5,%r13d=0D - addl %eax,%r12d=0D - xorl %r11d,%edi=0D -=0D - rorl $11,%r14d=0D - xorl %r9d,%r13d=0D - addl %edi,%r12d=0D -=0D - movl %ebx,%edi=0D - addl (%rbp),%r12d=0D - xorl %ebx,%r14d=0D -=0D - xorl %ecx,%edi=0D - rorl $6,%r13d=0D - movl %ecx,%eax=0D -=0D - andl %edi,%r15d=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %r15d,%eax=0D - addl %r12d,%r8d=0D - addl %r12d,%eax=0D -=0D - leaq 20(%rbp),%rbp=0D - movl 36(%rsp),%r13d=0D - movl 24(%rsp),%r15d=0D -=0D - movl %r13d,%r12d=0D - rorl $11,%r13d=0D - addl %r14d,%eax=0D - movl %r15d,%r14d=0D - rorl $2,%r15d=0D -=0D - xorl %r12d,%r13d=0D - shrl $3,%r12d=0D - rorl $7,%r13d=0D - xorl %r14d,%r15d=0D - shrl $10,%r14d=0D -=0D - rorl $17,%r15d=0D - xorl %r13d,%r12d=0D - xorl %r14d,%r15d=0D - addl 4(%rsp),%r12d=0D -=0D - addl 32(%rsp),%r12d=0D - movl %r8d,%r13d=0D - addl %r15d,%r12d=0D - movl %eax,%r14d=0D - rorl $14,%r13d=0D - movl %r9d,%r15d=0D -=0D - xorl %r8d,%r13d=0D - rorl $9,%r14d=0D - xorl %r10d,%r15d=0D -=0D - movl %r12d,32(%rsp)=0D - xorl %eax,%r14d=0D - andl %r8d,%r15d=0D -=0D - rorl $5,%r13d=0D - addl %r11d,%r12d=0D - xorl %r10d,%r15d=0D -=0D - rorl $11,%r14d=0D - xorl %r8d,%r13d=0D - addl %r15d,%r12d=0D -=0D - movl %eax,%r15d=0D - addl (%rbp),%r12d=0D - xorl %eax,%r14d=0D -=0D - xorl %ebx,%r15d=0D - rorl $6,%r13d=0D - movl %ebx,%r11d=0D -=0D - andl %r15d,%edi=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %edi,%r11d=0D - addl %r12d,%edx=0D - addl %r12d,%r11d=0D -=0D - leaq 4(%rbp),%rbp=0D - movl 40(%rsp),%r13d=0D - movl 28(%rsp),%edi=0D -=0D - movl %r13d,%r12d=0D - rorl $11,%r13d=0D - addl %r14d,%r11d=0D - movl %edi,%r14d=0D - rorl $2,%edi=0D -=0D - xorl %r12d,%r13d=0D - shrl $3,%r12d=0D - rorl $7,%r13d=0D - xorl %r14d,%edi=0D - shrl $10,%r14d=0D -=0D - rorl $17,%edi=0D - xorl %r13d,%r12d=0D - xorl %r14d,%edi=0D - addl 8(%rsp),%r12d=0D -=0D - addl 36(%rsp),%r12d=0D - movl %edx,%r13d=0D - addl %edi,%r12d=0D - movl %r11d,%r14d=0D - rorl $14,%r13d=0D - movl %r8d,%edi=0D -=0D - xorl %edx,%r13d=0D - rorl $9,%r14d=0D - xorl %r9d,%edi=0D -=0D - movl %r12d,36(%rsp)=0D - xorl %r11d,%r14d=0D - andl %edx,%edi=0D -=0D - rorl $5,%r13d=0D - addl %r10d,%r12d=0D - xorl %r9d,%edi=0D -=0D - rorl $11,%r14d=0D - xorl %edx,%r13d=0D - addl %edi,%r12d=0D -=0D - movl %r11d,%edi=0D - addl (%rbp),%r12d=0D - xorl %r11d,%r14d=0D -=0D - xorl %eax,%edi=0D - rorl $6,%r13d=0D - movl %eax,%r10d=0D -=0D - andl %edi,%r15d=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %r15d,%r10d=0D - addl %r12d,%ecx=0D - addl %r12d,%r10d=0D -=0D - leaq 4(%rbp),%rbp=0D - movl 44(%rsp),%r13d=0D - movl 32(%rsp),%r15d=0D -=0D - movl %r13d,%r12d=0D - rorl $11,%r13d=0D - addl %r14d,%r10d=0D - movl %r15d,%r14d=0D - rorl $2,%r15d=0D -=0D - xorl %r12d,%r13d=0D - shrl $3,%r12d=0D - rorl $7,%r13d=0D - xorl %r14d,%r15d=0D - shrl $10,%r14d=0D -=0D - rorl $17,%r15d=0D - xorl %r13d,%r12d=0D - xorl %r14d,%r15d=0D - addl 12(%rsp),%r12d=0D -=0D - addl 40(%rsp),%r12d=0D - movl %ecx,%r13d=0D - addl %r15d,%r12d=0D - movl %r10d,%r14d=0D - rorl $14,%r13d=0D - movl %edx,%r15d=0D -=0D - xorl %ecx,%r13d=0D - rorl $9,%r14d=0D - xorl %r8d,%r15d=0D -=0D - movl %r12d,40(%rsp)=0D - xorl %r10d,%r14d=0D - andl %ecx,%r15d=0D -=0D - rorl $5,%r13d=0D - addl %r9d,%r12d=0D - xorl %r8d,%r15d=0D -=0D - rorl $11,%r14d=0D - xorl %ecx,%r13d=0D - addl %r15d,%r12d=0D -=0D - movl %r10d,%r15d=0D - addl (%rbp),%r12d=0D - xorl %r10d,%r14d=0D -=0D - xorl %r11d,%r15d=0D - rorl $6,%r13d=0D - movl %r11d,%r9d=0D -=0D - andl %r15d,%edi=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %edi,%r9d=0D - addl %r12d,%ebx=0D - addl %r12d,%r9d=0D -=0D - leaq 4(%rbp),%rbp=0D - movl 48(%rsp),%r13d=0D - movl 36(%rsp),%edi=0D -=0D - movl %r13d,%r12d=0D - rorl $11,%r13d=0D - addl %r14d,%r9d=0D - movl %edi,%r14d=0D - rorl $2,%edi=0D -=0D - xorl %r12d,%r13d=0D - shrl $3,%r12d=0D - rorl $7,%r13d=0D - xorl %r14d,%edi=0D - shrl $10,%r14d=0D -=0D - rorl $17,%edi=0D - xorl %r13d,%r12d=0D - xorl %r14d,%edi=0D - addl 16(%rsp),%r12d=0D -=0D - addl 44(%rsp),%r12d=0D - movl %ebx,%r13d=0D - addl %edi,%r12d=0D - movl %r9d,%r14d=0D - rorl $14,%r13d=0D - movl %ecx,%edi=0D -=0D - xorl %ebx,%r13d=0D - rorl $9,%r14d=0D - xorl %edx,%edi=0D -=0D - movl %r12d,44(%rsp)=0D - xorl %r9d,%r14d=0D - andl %ebx,%edi=0D -=0D - rorl $5,%r13d=0D - addl %r8d,%r12d=0D - xorl %edx,%edi=0D -=0D - rorl $11,%r14d=0D - xorl %ebx,%r13d=0D - addl %edi,%r12d=0D -=0D - movl %r9d,%edi=0D - addl (%rbp),%r12d=0D - xorl %r9d,%r14d=0D -=0D - xorl %r10d,%edi=0D - rorl $6,%r13d=0D - movl %r10d,%r8d=0D -=0D - andl %edi,%r15d=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %r15d,%r8d=0D - addl %r12d,%eax=0D - addl %r12d,%r8d=0D -=0D - leaq 20(%rbp),%rbp=0D - movl 52(%rsp),%r13d=0D - movl 40(%rsp),%r15d=0D -=0D - movl %r13d,%r12d=0D - rorl $11,%r13d=0D - addl %r14d,%r8d=0D - movl %r15d,%r14d=0D - rorl $2,%r15d=0D -=0D - xorl %r12d,%r13d=0D - shrl $3,%r12d=0D - rorl $7,%r13d=0D - xorl %r14d,%r15d=0D - shrl $10,%r14d=0D -=0D - rorl $17,%r15d=0D - xorl %r13d,%r12d=0D - xorl %r14d,%r15d=0D - addl 20(%rsp),%r12d=0D -=0D - addl 48(%rsp),%r12d=0D - movl %eax,%r13d=0D - addl %r15d,%r12d=0D - movl %r8d,%r14d=0D - rorl $14,%r13d=0D - movl %ebx,%r15d=0D -=0D - xorl %eax,%r13d=0D - rorl $9,%r14d=0D - xorl %ecx,%r15d=0D -=0D - movl %r12d,48(%rsp)=0D - xorl %r8d,%r14d=0D - andl %eax,%r15d=0D -=0D - rorl $5,%r13d=0D - addl %edx,%r12d=0D - xorl %ecx,%r15d=0D -=0D - rorl $11,%r14d=0D - xorl %eax,%r13d=0D - addl %r15d,%r12d=0D -=0D - movl %r8d,%r15d=0D - addl (%rbp),%r12d=0D - xorl %r8d,%r14d=0D -=0D - xorl %r9d,%r15d=0D - rorl $6,%r13d=0D - movl %r9d,%edx=0D -=0D - andl %r15d,%edi=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %edi,%edx=0D - addl %r12d,%r11d=0D - addl %r12d,%edx=0D -=0D - leaq 4(%rbp),%rbp=0D - movl 56(%rsp),%r13d=0D - movl 44(%rsp),%edi=0D -=0D - movl %r13d,%r12d=0D - rorl $11,%r13d=0D - addl %r14d,%edx=0D - movl %edi,%r14d=0D - rorl $2,%edi=0D -=0D - xorl %r12d,%r13d=0D - shrl $3,%r12d=0D - rorl $7,%r13d=0D - xorl %r14d,%edi=0D - shrl $10,%r14d=0D -=0D - rorl $17,%edi=0D - xorl %r13d,%r12d=0D - xorl %r14d,%edi=0D - addl 24(%rsp),%r12d=0D -=0D - addl 52(%rsp),%r12d=0D - movl %r11d,%r13d=0D - addl %edi,%r12d=0D - movl %edx,%r14d=0D - rorl $14,%r13d=0D - movl %eax,%edi=0D -=0D - xorl %r11d,%r13d=0D - rorl $9,%r14d=0D - xorl %ebx,%edi=0D -=0D - movl %r12d,52(%rsp)=0D - xorl %edx,%r14d=0D - andl %r11d,%edi=0D -=0D - rorl $5,%r13d=0D - addl %ecx,%r12d=0D - xorl %ebx,%edi=0D -=0D - rorl $11,%r14d=0D - xorl %r11d,%r13d=0D - addl %edi,%r12d=0D -=0D - movl %edx,%edi=0D - addl (%rbp),%r12d=0D - xorl %edx,%r14d=0D -=0D - xorl %r8d,%edi=0D - rorl $6,%r13d=0D - movl %r8d,%ecx=0D -=0D - andl %edi,%r15d=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %r15d,%ecx=0D - addl %r12d,%r10d=0D - addl %r12d,%ecx=0D -=0D - leaq 4(%rbp),%rbp=0D - movl 60(%rsp),%r13d=0D - movl 48(%rsp),%r15d=0D -=0D - movl %r13d,%r12d=0D - rorl $11,%r13d=0D - addl %r14d,%ecx=0D - movl %r15d,%r14d=0D - rorl $2,%r15d=0D -=0D - xorl %r12d,%r13d=0D - shrl $3,%r12d=0D - rorl $7,%r13d=0D - xorl %r14d,%r15d=0D - shrl $10,%r14d=0D -=0D - rorl $17,%r15d=0D - xorl %r13d,%r12d=0D - xorl %r14d,%r15d=0D - addl 28(%rsp),%r12d=0D -=0D - addl 56(%rsp),%r12d=0D - movl %r10d,%r13d=0D - addl %r15d,%r12d=0D - movl %ecx,%r14d=0D - rorl $14,%r13d=0D - movl %r11d,%r15d=0D -=0D - xorl %r10d,%r13d=0D - rorl $9,%r14d=0D - xorl %eax,%r15d=0D -=0D - movl %r12d,56(%rsp)=0D - xorl %ecx,%r14d=0D - andl %r10d,%r15d=0D -=0D - rorl $5,%r13d=0D - addl %ebx,%r12d=0D - xorl %eax,%r15d=0D -=0D - rorl $11,%r14d=0D - xorl %r10d,%r13d=0D - addl %r15d,%r12d=0D -=0D - movl %ecx,%r15d=0D - addl (%rbp),%r12d=0D - xorl %ecx,%r14d=0D -=0D - xorl %edx,%r15d=0D - rorl $6,%r13d=0D - movl %edx,%ebx=0D -=0D - andl %r15d,%edi=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %edi,%ebx=0D - addl %r12d,%r9d=0D - addl %r12d,%ebx=0D -=0D - leaq 4(%rbp),%rbp=0D - movl 0(%rsp),%r13d=0D - movl 52(%rsp),%edi=0D -=0D - movl %r13d,%r12d=0D - rorl $11,%r13d=0D - addl %r14d,%ebx=0D - movl %edi,%r14d=0D - rorl $2,%edi=0D -=0D - xorl %r12d,%r13d=0D - shrl $3,%r12d=0D - rorl $7,%r13d=0D - xorl %r14d,%edi=0D - shrl $10,%r14d=0D -=0D - rorl $17,%edi=0D - xorl %r13d,%r12d=0D - xorl %r14d,%edi=0D - addl 32(%rsp),%r12d=0D -=0D - addl 60(%rsp),%r12d=0D - movl %r9d,%r13d=0D - addl %edi,%r12d=0D - movl %ebx,%r14d=0D - rorl $14,%r13d=0D - movl %r10d,%edi=0D -=0D - xorl %r9d,%r13d=0D - rorl $9,%r14d=0D - xorl %r11d,%edi=0D -=0D - movl %r12d,60(%rsp)=0D - xorl %ebx,%r14d=0D - andl %r9d,%edi=0D -=0D - rorl $5,%r13d=0D - addl %eax,%r12d=0D - xorl %r11d,%edi=0D -=0D - rorl $11,%r14d=0D - xorl %r9d,%r13d=0D - addl %edi,%r12d=0D -=0D - movl %ebx,%edi=0D - addl (%rbp),%r12d=0D - xorl %ebx,%r14d=0D -=0D - xorl %ecx,%edi=0D - rorl $6,%r13d=0D - movl %ecx,%eax=0D -=0D - andl %edi,%r15d=0D - rorl $2,%r14d=0D - addl %r13d,%r12d=0D -=0D - xorl %r15d,%eax=0D - addl %r12d,%r8d=0D - addl %r12d,%eax=0D -=0D - leaq 20(%rbp),%rbp=0D - cmpb $0,3(%rbp)=0D - jnz .Lrounds_16_xx=0D -=0D - movq 64+0(%rsp),%rdi=0D - addl %r14d,%eax=0D - leaq 64(%rsi),%rsi=0D -=0D - addl 0(%rdi),%eax=0D - addl 4(%rdi),%ebx=0D - addl 8(%rdi),%ecx=0D - addl 12(%rdi),%edx=0D - addl 16(%rdi),%r8d=0D - addl 20(%rdi),%r9d=0D - addl 24(%rdi),%r10d=0D - addl 28(%rdi),%r11d=0D -=0D - cmpq 64+16(%rsp),%rsi=0D -=0D - movl %eax,0(%rdi)=0D - movl %ebx,4(%rdi)=0D - movl %ecx,8(%rdi)=0D - movl %edx,12(%rdi)=0D - movl %r8d,16(%rdi)=0D - movl %r9d,20(%rdi)=0D - movl %r10d,24(%rdi)=0D - movl %r11d,28(%rdi)=0D - jb .Lloop=0D -=0D - movq 88(%rsp),%rsi=0D -.cfi_def_cfa %rsi,8=0D - movq -48(%rsi),%r15=0D -.cfi_restore %r15=0D - movq -40(%rsi),%r14=0D -.cfi_restore %r14=0D - movq -32(%rsi),%r13=0D -.cfi_restore %r13=0D - movq -24(%rsi),%r12=0D -.cfi_restore %r12=0D - movq -16(%rsi),%rbp=0D -.cfi_restore %rbp=0D - movq -8(%rsi),%rbx=0D -.cfi_restore %rbx=0D - leaq (%rsi),%rsp=0D -.cfi_def_cfa_register %rsp=0D -.Lepilogue:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size sha256_block_data_order,.-sha256_block_data_order=0D -.align 64=0D -.type K256,@object=0D -K256:=0D -.long 0x428a2f98,0x71374491,0xb5c0fbcf,0xe9b5dba5=0D -.long 0x428a2f98,0x71374491,0xb5c0fbcf,0xe9b5dba5=0D -.long 0x3956c25b,0x59f111f1,0x923f82a4,0xab1c5ed5=0D -.long 0x3956c25b,0x59f111f1,0x923f82a4,0xab1c5ed5=0D -.long 0xd807aa98,0x12835b01,0x243185be,0x550c7dc3=0D -.long 0xd807aa98,0x12835b01,0x243185be,0x550c7dc3=0D -.long 0x72be5d74,0x80deb1fe,0x9bdc06a7,0xc19bf174=0D -.long 0x72be5d74,0x80deb1fe,0x9bdc06a7,0xc19bf174=0D -.long 0xe49b69c1,0xefbe4786,0x0fc19dc6,0x240ca1cc=0D -.long 0xe49b69c1,0xefbe4786,0x0fc19dc6,0x240ca1cc=0D -.long 0x2de92c6f,0x4a7484aa,0x5cb0a9dc,0x76f988da=0D -.long 0x2de92c6f,0x4a7484aa,0x5cb0a9dc,0x76f988da=0D -.long 0x983e5152,0xa831c66d,0xb00327c8,0xbf597fc7=0D -.long 0x983e5152,0xa831c66d,0xb00327c8,0xbf597fc7=0D -.long 0xc6e00bf3,0xd5a79147,0x06ca6351,0x14292967=0D -.long 0xc6e00bf3,0xd5a79147,0x06ca6351,0x14292967=0D -.long 0x27b70a85,0x2e1b2138,0x4d2c6dfc,0x53380d13=0D -.long 0x27b70a85,0x2e1b2138,0x4d2c6dfc,0x53380d13=0D -.long 0x650a7354,0x766a0abb,0x81c2c92e,0x92722c85=0D -.long 0x650a7354,0x766a0abb,0x81c2c92e,0x92722c85=0D -.long 0xa2bfe8a1,0xa81a664b,0xc24b8b70,0xc76c51a3=0D -.long 0xa2bfe8a1,0xa81a664b,0xc24b8b70,0xc76c51a3=0D -.long 0xd192e819,0xd6990624,0xf40e3585,0x106aa070=0D -.long 0xd192e819,0xd6990624,0xf40e3585,0x106aa070=0D -.long 0x19a4c116,0x1e376c08,0x2748774c,0x34b0bcb5=0D -.long 0x19a4c116,0x1e376c08,0x2748774c,0x34b0bcb5=0D -.long 0x391c0cb3,0x4ed8aa4a,0x5b9cca4f,0x682e6ff3=0D -.long 0x391c0cb3,0x4ed8aa4a,0x5b9cca4f,0x682e6ff3=0D -.long 0x748f82ee,0x78a5636f,0x84c87814,0x8cc70208=0D -.long 0x748f82ee,0x78a5636f,0x84c87814,0x8cc70208=0D -.long 0x90befffa,0xa4506ceb,0xbef9a3f7,0xc67178f2=0D -.long 0x90befffa,0xa4506ceb,0xbef9a3f7,0xc67178f2=0D -=0D -.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f=0D -.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f=0D -.long 0x03020100,0x0b0a0908,0xffffffff,0xffffffff=0D -.long 0x03020100,0x0b0a0908,0xffffffff,0xffffffff=0D -.long 0xffffffff,0xffffffff,0x03020100,0x0b0a0908=0D -.long 0xffffffff,0xffffffff,0x03020100,0x0b0a0908=0D -.byte 83,72,65,50,53,54,32,98,108,111,99,107,32,116,114,97,110,115,102,1= 11,114,109,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89,80,84,79,71,= 65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,= 46,111,114,103,62,0=0D -.type sha256_block_data_order_shaext,@function=0D -.align 64=0D -sha256_block_data_order_shaext:=0D -_shaext_shortcut:=0D -.cfi_startproc=0D - leaq K256+128(%rip),%rcx=0D - movdqu (%rdi),%xmm1=0D - movdqu 16(%rdi),%xmm2=0D - movdqa 512-128(%rcx),%xmm7=0D -=0D - pshufd $0x1b,%xmm1,%xmm0=0D - pshufd $0xb1,%xmm1,%xmm1=0D - pshufd $0x1b,%xmm2,%xmm2=0D - movdqa %xmm7,%xmm8=0D -.byte 102,15,58,15,202,8=0D - punpcklqdq %xmm0,%xmm2=0D - jmp .Loop_shaext=0D -=0D -.align 16=0D -.Loop_shaext:=0D - movdqu (%rsi),%xmm3=0D - movdqu 16(%rsi),%xmm4=0D - movdqu 32(%rsi),%xmm5=0D -.byte 102,15,56,0,223=0D - movdqu 48(%rsi),%xmm6=0D -=0D - movdqa 0-128(%rcx),%xmm0=0D - paddd %xmm3,%xmm0=0D -.byte 102,15,56,0,231=0D - movdqa %xmm2,%xmm10=0D -.byte 15,56,203,209=0D - pshufd $0x0e,%xmm0,%xmm0=0D - nop=0D - movdqa %xmm1,%xmm9=0D -.byte 15,56,203,202=0D -=0D - movdqa 32-128(%rcx),%xmm0=0D - paddd %xmm4,%xmm0=0D -.byte 102,15,56,0,239=0D -.byte 15,56,203,209=0D - pshufd $0x0e,%xmm0,%xmm0=0D - leaq 64(%rsi),%rsi=0D -.byte 15,56,204,220=0D -.byte 15,56,203,202=0D -=0D - movdqa 64-128(%rcx),%xmm0=0D - paddd %xmm5,%xmm0=0D -.byte 102,15,56,0,247=0D -.byte 15,56,203,209=0D - pshufd $0x0e,%xmm0,%xmm0=0D - movdqa %xmm6,%xmm7=0D -.byte 102,15,58,15,253,4=0D - nop=0D - paddd %xmm7,%xmm3=0D -.byte 15,56,204,229=0D -.byte 15,56,203,202=0D -=0D - movdqa 96-128(%rcx),%xmm0=0D - paddd %xmm6,%xmm0=0D -.byte 15,56,205,222=0D -.byte 15,56,203,209=0D - pshufd $0x0e,%xmm0,%xmm0=0D - movdqa %xmm3,%xmm7=0D -.byte 102,15,58,15,254,4=0D - nop=0D - paddd %xmm7,%xmm4=0D -.byte 15,56,204,238=0D -.byte 15,56,203,202=0D - movdqa 128-128(%rcx),%xmm0=0D - paddd %xmm3,%xmm0=0D -.byte 15,56,205,227=0D -.byte 15,56,203,209=0D - pshufd $0x0e,%xmm0,%xmm0=0D - movdqa %xmm4,%xmm7=0D -.byte 102,15,58,15,251,4=0D - nop=0D - paddd %xmm7,%xmm5=0D -.byte 15,56,204,243=0D -.byte 15,56,203,202=0D - movdqa 160-128(%rcx),%xmm0=0D - paddd %xmm4,%xmm0=0D -.byte 15,56,205,236=0D -.byte 15,56,203,209=0D - pshufd $0x0e,%xmm0,%xmm0=0D - movdqa %xmm5,%xmm7=0D -.byte 102,15,58,15,252,4=0D - nop=0D - paddd %xmm7,%xmm6=0D -.byte 15,56,204,220=0D -.byte 15,56,203,202=0D - movdqa 192-128(%rcx),%xmm0=0D - paddd %xmm5,%xmm0=0D -.byte 15,56,205,245=0D -.byte 15,56,203,209=0D - pshufd $0x0e,%xmm0,%xmm0=0D - movdqa %xmm6,%xmm7=0D -.byte 102,15,58,15,253,4=0D - nop=0D - paddd %xmm7,%xmm3=0D -.byte 15,56,204,229=0D -.byte 15,56,203,202=0D - movdqa 224-128(%rcx),%xmm0=0D - paddd %xmm6,%xmm0=0D -.byte 15,56,205,222=0D -.byte 15,56,203,209=0D - pshufd $0x0e,%xmm0,%xmm0=0D - movdqa %xmm3,%xmm7=0D -.byte 102,15,58,15,254,4=0D - nop=0D - paddd %xmm7,%xmm4=0D -.byte 15,56,204,238=0D -.byte 15,56,203,202=0D - movdqa 256-128(%rcx),%xmm0=0D - paddd %xmm3,%xmm0=0D -.byte 15,56,205,227=0D -.byte 15,56,203,209=0D - pshufd $0x0e,%xmm0,%xmm0=0D - movdqa %xmm4,%xmm7=0D -.byte 102,15,58,15,251,4=0D - nop=0D - paddd %xmm7,%xmm5=0D -.byte 15,56,204,243=0D -.byte 15,56,203,202=0D - movdqa 288-128(%rcx),%xmm0=0D - paddd %xmm4,%xmm0=0D -.byte 15,56,205,236=0D -.byte 15,56,203,209=0D - pshufd $0x0e,%xmm0,%xmm0=0D - movdqa %xmm5,%xmm7=0D -.byte 102,15,58,15,252,4=0D - nop=0D - paddd %xmm7,%xmm6=0D -.byte 15,56,204,220=0D -.byte 15,56,203,202=0D - movdqa 320-128(%rcx),%xmm0=0D - paddd %xmm5,%xmm0=0D -.byte 15,56,205,245=0D -.byte 15,56,203,209=0D - pshufd $0x0e,%xmm0,%xmm0=0D - movdqa %xmm6,%xmm7=0D -.byte 102,15,58,15,253,4=0D - nop=0D - paddd %xmm7,%xmm3=0D -.byte 15,56,204,229=0D -.byte 15,56,203,202=0D - movdqa 352-128(%rcx),%xmm0=0D - paddd %xmm6,%xmm0=0D -.byte 15,56,205,222=0D -.byte 15,56,203,209=0D - pshufd $0x0e,%xmm0,%xmm0=0D - movdqa %xmm3,%xmm7=0D -.byte 102,15,58,15,254,4=0D - nop=0D - paddd %xmm7,%xmm4=0D -.byte 15,56,204,238=0D -.byte 15,56,203,202=0D - movdqa 384-128(%rcx),%xmm0=0D - paddd %xmm3,%xmm0=0D -.byte 15,56,205,227=0D -.byte 15,56,203,209=0D - pshufd $0x0e,%xmm0,%xmm0=0D - movdqa %xmm4,%xmm7=0D -.byte 102,15,58,15,251,4=0D - nop=0D - paddd %xmm7,%xmm5=0D -.byte 15,56,204,243=0D -.byte 15,56,203,202=0D - movdqa 416-128(%rcx),%xmm0=0D - paddd %xmm4,%xmm0=0D -.byte 15,56,205,236=0D -.byte 15,56,203,209=0D - pshufd $0x0e,%xmm0,%xmm0=0D - movdqa %xmm5,%xmm7=0D -.byte 102,15,58,15,252,4=0D -.byte 15,56,203,202=0D - paddd %xmm7,%xmm6=0D -=0D - movdqa 448-128(%rcx),%xmm0=0D - paddd %xmm5,%xmm0=0D -.byte 15,56,203,209=0D - pshufd $0x0e,%xmm0,%xmm0=0D -.byte 15,56,205,245=0D - movdqa %xmm8,%xmm7=0D -.byte 15,56,203,202=0D -=0D - movdqa 480-128(%rcx),%xmm0=0D - paddd %xmm6,%xmm0=0D - nop=0D -.byte 15,56,203,209=0D - pshufd $0x0e,%xmm0,%xmm0=0D - decq %rdx=0D - nop=0D -.byte 15,56,203,202=0D -=0D - paddd %xmm10,%xmm2=0D - paddd %xmm9,%xmm1=0D - jnz .Loop_shaext=0D -=0D - pshufd $0xb1,%xmm2,%xmm2=0D - pshufd $0x1b,%xmm1,%xmm7=0D - pshufd $0xb1,%xmm1,%xmm1=0D - punpckhqdq %xmm2,%xmm1=0D -.byte 102,15,58,15,215,8=0D -=0D - movdqu %xmm1,(%rdi)=0D - movdqu %xmm2,16(%rdi)=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size sha256_block_data_order_shaext,.-sha256_block_data_order_shaext=0D -.type sha256_block_data_order_ssse3,@function=0D -.align 64=0D -sha256_block_data_order_ssse3:=0D -.cfi_startproc=0D -.Lssse3_shortcut:=0D - movq %rsp,%rax=0D -.cfi_def_cfa_register %rax=0D - pushq %rbx=0D -.cfi_offset %rbx,-16=0D - pushq %rbp=0D -.cfi_offset %rbp,-24=0D - pushq %r12=0D -.cfi_offset %r12,-32=0D - pushq %r13=0D -.cfi_offset %r13,-40=0D - pushq %r14=0D -.cfi_offset %r14,-48=0D - pushq %r15=0D -.cfi_offset %r15,-56=0D - shlq $4,%rdx=0D - subq $96,%rsp=0D - leaq (%rsi,%rdx,4),%rdx=0D - andq $-64,%rsp=0D - movq %rdi,64+0(%rsp)=0D - movq %rsi,64+8(%rsp)=0D - movq %rdx,64+16(%rsp)=0D - movq %rax,88(%rsp)=0D -.cfi_escape 0x0f,0x06,0x77,0xd8,0x00,0x06,0x23,0x08=0D -.Lprologue_ssse3:=0D -=0D - movl 0(%rdi),%eax=0D - movl 4(%rdi),%ebx=0D - movl 8(%rdi),%ecx=0D - movl 12(%rdi),%edx=0D - movl 16(%rdi),%r8d=0D - movl 20(%rdi),%r9d=0D - movl 24(%rdi),%r10d=0D - movl 28(%rdi),%r11d=0D -=0D -=0D - jmp .Lloop_ssse3=0D -.align 16=0D -.Lloop_ssse3:=0D - movdqa K256+512(%rip),%xmm7=0D - movdqu 0(%rsi),%xmm0=0D - movdqu 16(%rsi),%xmm1=0D - movdqu 32(%rsi),%xmm2=0D -.byte 102,15,56,0,199=0D - movdqu 48(%rsi),%xmm3=0D - leaq K256(%rip),%rbp=0D -.byte 102,15,56,0,207=0D - movdqa 0(%rbp),%xmm4=0D - movdqa 32(%rbp),%xmm5=0D -.byte 102,15,56,0,215=0D - paddd %xmm0,%xmm4=0D - movdqa 64(%rbp),%xmm6=0D -.byte 102,15,56,0,223=0D - movdqa 96(%rbp),%xmm7=0D - paddd %xmm1,%xmm5=0D - paddd %xmm2,%xmm6=0D - paddd %xmm3,%xmm7=0D - movdqa %xmm4,0(%rsp)=0D - movl %eax,%r14d=0D - movdqa %xmm5,16(%rsp)=0D - movl %ebx,%edi=0D - movdqa %xmm6,32(%rsp)=0D - xorl %ecx,%edi=0D - movdqa %xmm7,48(%rsp)=0D - movl %r8d,%r13d=0D - jmp .Lssse3_00_47=0D -=0D -.align 16=0D -.Lssse3_00_47:=0D - subq $-128,%rbp=0D - rorl $14,%r13d=0D - movdqa %xmm1,%xmm4=0D - movl %r14d,%eax=0D - movl %r9d,%r12d=0D - movdqa %xmm3,%xmm7=0D - rorl $9,%r14d=0D - xorl %r8d,%r13d=0D - xorl %r10d,%r12d=0D - rorl $5,%r13d=0D - xorl %eax,%r14d=0D -.byte 102,15,58,15,224,4=0D - andl %r8d,%r12d=0D - xorl %r8d,%r13d=0D -.byte 102,15,58,15,250,4=0D - addl 0(%rsp),%r11d=0D - movl %eax,%r15d=0D - xorl %r10d,%r12d=0D - rorl $11,%r14d=0D - movdqa %xmm4,%xmm5=0D - xorl %ebx,%r15d=0D - addl %r12d,%r11d=0D - movdqa %xmm4,%xmm6=0D - rorl $6,%r13d=0D - andl %r15d,%edi=0D - psrld $3,%xmm4=0D - xorl %eax,%r14d=0D - addl %r13d,%r11d=0D - xorl %ebx,%edi=0D - paddd %xmm7,%xmm0=0D - rorl $2,%r14d=0D - addl %r11d,%edx=0D - psrld $7,%xmm6=0D - addl %edi,%r11d=0D - movl %edx,%r13d=0D - pshufd $250,%xmm3,%xmm7=0D - addl %r11d,%r14d=0D - rorl $14,%r13d=0D - pslld $14,%xmm5=0D - movl %r14d,%r11d=0D - movl %r8d,%r12d=0D - pxor %xmm6,%xmm4=0D - rorl $9,%r14d=0D - xorl %edx,%r13d=0D - xorl %r9d,%r12d=0D - rorl $5,%r13d=0D - psrld $11,%xmm6=0D - xorl %r11d,%r14d=0D - pxor %xmm5,%xmm4=0D - andl %edx,%r12d=0D - xorl %edx,%r13d=0D - pslld $11,%xmm5=0D - addl 4(%rsp),%r10d=0D - movl %r11d,%edi=0D - pxor %xmm6,%xmm4=0D - xorl %r9d,%r12d=0D - rorl $11,%r14d=0D - movdqa %xmm7,%xmm6=0D - xorl %eax,%edi=0D - addl %r12d,%r10d=0D - pxor %xmm5,%xmm4=0D - rorl $6,%r13d=0D - andl %edi,%r15d=0D - xorl %r11d,%r14d=0D - psrld $10,%xmm7=0D - addl %r13d,%r10d=0D - xorl %eax,%r15d=0D - paddd %xmm4,%xmm0=0D - rorl $2,%r14d=0D - addl %r10d,%ecx=0D - psrlq $17,%xmm6=0D - addl %r15d,%r10d=0D - movl %ecx,%r13d=0D - addl %r10d,%r14d=0D - pxor %xmm6,%xmm7=0D - rorl $14,%r13d=0D - movl %r14d,%r10d=0D - movl %edx,%r12d=0D - rorl $9,%r14d=0D - psrlq $2,%xmm6=0D - xorl %ecx,%r13d=0D - xorl %r8d,%r12d=0D - pxor %xmm6,%xmm7=0D - rorl $5,%r13d=0D - xorl %r10d,%r14d=0D - andl %ecx,%r12d=0D - pshufd $128,%xmm7,%xmm7=0D - xorl %ecx,%r13d=0D - addl 8(%rsp),%r9d=0D - movl %r10d,%r15d=0D - psrldq $8,%xmm7=0D - xorl %r8d,%r12d=0D - rorl $11,%r14d=0D - xorl %r11d,%r15d=0D - addl %r12d,%r9d=0D - rorl $6,%r13d=0D - paddd %xmm7,%xmm0=0D - andl %r15d,%edi=0D - xorl %r10d,%r14d=0D - addl %r13d,%r9d=0D - pshufd $80,%xmm0,%xmm7=0D - xorl %r11d,%edi=0D - rorl $2,%r14d=0D - addl %r9d,%ebx=0D - movdqa %xmm7,%xmm6=0D - addl %edi,%r9d=0D - movl %ebx,%r13d=0D - psrld $10,%xmm7=0D - addl %r9d,%r14d=0D - rorl $14,%r13d=0D - psrlq $17,%xmm6=0D - movl %r14d,%r9d=0D - movl %ecx,%r12d=0D - pxor %xmm6,%xmm7=0D - rorl $9,%r14d=0D - xorl %ebx,%r13d=0D - xorl %edx,%r12d=0D - rorl $5,%r13d=0D - xorl %r9d,%r14d=0D - psrlq $2,%xmm6=0D - andl %ebx,%r12d=0D - xorl %ebx,%r13d=0D - addl 12(%rsp),%r8d=0D - pxor %xmm6,%xmm7=0D - movl %r9d,%edi=0D - xorl %edx,%r12d=0D - rorl $11,%r14d=0D - pshufd $8,%xmm7,%xmm7=0D - xorl %r10d,%edi=0D - addl %r12d,%r8d=0D - movdqa 0(%rbp),%xmm6=0D - rorl $6,%r13d=0D - andl %edi,%r15d=0D - pslldq $8,%xmm7=0D - xorl %r9d,%r14d=0D - addl %r13d,%r8d=0D - xorl %r10d,%r15d=0D - paddd %xmm7,%xmm0=0D - rorl $2,%r14d=0D - addl %r8d,%eax=0D - addl %r15d,%r8d=0D - paddd %xmm0,%xmm6=0D - movl %eax,%r13d=0D - addl %r8d,%r14d=0D - movdqa %xmm6,0(%rsp)=0D - rorl $14,%r13d=0D - movdqa %xmm2,%xmm4=0D - movl %r14d,%r8d=0D - movl %ebx,%r12d=0D - movdqa %xmm0,%xmm7=0D - rorl $9,%r14d=0D - xorl %eax,%r13d=0D - xorl %ecx,%r12d=0D - rorl $5,%r13d=0D - xorl %r8d,%r14d=0D -.byte 102,15,58,15,225,4=0D - andl %eax,%r12d=0D - xorl %eax,%r13d=0D -.byte 102,15,58,15,251,4=0D - addl 16(%rsp),%edx=0D - movl %r8d,%r15d=0D - xorl %ecx,%r12d=0D - rorl $11,%r14d=0D - movdqa %xmm4,%xmm5=0D - xorl %r9d,%r15d=0D - addl %r12d,%edx=0D - movdqa %xmm4,%xmm6=0D - rorl $6,%r13d=0D - andl %r15d,%edi=0D - psrld $3,%xmm4=0D - xorl %r8d,%r14d=0D - addl %r13d,%edx=0D - xorl %r9d,%edi=0D - paddd %xmm7,%xmm1=0D - rorl $2,%r14d=0D - addl %edx,%r11d=0D - psrld $7,%xmm6=0D - addl %edi,%edx=0D - movl %r11d,%r13d=0D - pshufd $250,%xmm0,%xmm7=0D - addl %edx,%r14d=0D - rorl $14,%r13d=0D - pslld $14,%xmm5=0D - movl %r14d,%edx=0D - movl %eax,%r12d=0D - pxor %xmm6,%xmm4=0D - rorl $9,%r14d=0D - xorl %r11d,%r13d=0D - xorl %ebx,%r12d=0D - rorl $5,%r13d=0D - psrld $11,%xmm6=0D - xorl %edx,%r14d=0D - pxor %xmm5,%xmm4=0D - andl %r11d,%r12d=0D - xorl %r11d,%r13d=0D - pslld $11,%xmm5=0D - addl 20(%rsp),%ecx=0D - movl %edx,%edi=0D - pxor %xmm6,%xmm4=0D - xorl %ebx,%r12d=0D - rorl $11,%r14d=0D - movdqa %xmm7,%xmm6=0D - xorl %r8d,%edi=0D - addl %r12d,%ecx=0D - pxor %xmm5,%xmm4=0D - rorl $6,%r13d=0D - andl %edi,%r15d=0D - xorl %edx,%r14d=0D - psrld $10,%xmm7=0D - addl %r13d,%ecx=0D - xorl %r8d,%r15d=0D - paddd %xmm4,%xmm1=0D - rorl $2,%r14d=0D - addl %ecx,%r10d=0D - psrlq $17,%xmm6=0D - addl %r15d,%ecx=0D - movl %r10d,%r13d=0D - addl %ecx,%r14d=0D - pxor %xmm6,%xmm7=0D - rorl $14,%r13d=0D - movl %r14d,%ecx=0D - movl %r11d,%r12d=0D - rorl $9,%r14d=0D - psrlq $2,%xmm6=0D - xorl %r10d,%r13d=0D - xorl %eax,%r12d=0D - pxor %xmm6,%xmm7=0D - rorl $5,%r13d=0D - xorl %ecx,%r14d=0D - andl %r10d,%r12d=0D - pshufd $128,%xmm7,%xmm7=0D - xorl %r10d,%r13d=0D - addl 24(%rsp),%ebx=0D - movl %ecx,%r15d=0D - psrldq $8,%xmm7=0D - xorl %eax,%r12d=0D - rorl $11,%r14d=0D - xorl %edx,%r15d=0D - addl %r12d,%ebx=0D - rorl $6,%r13d=0D - paddd %xmm7,%xmm1=0D - andl %r15d,%edi=0D - xorl %ecx,%r14d=0D - addl %r13d,%ebx=0D - pshufd $80,%xmm1,%xmm7=0D - xorl %edx,%edi=0D - rorl $2,%r14d=0D - addl %ebx,%r9d=0D - movdqa %xmm7,%xmm6=0D - addl %edi,%ebx=0D - movl %r9d,%r13d=0D - psrld $10,%xmm7=0D - addl %ebx,%r14d=0D - rorl $14,%r13d=0D - psrlq $17,%xmm6=0D - movl %r14d,%ebx=0D - movl %r10d,%r12d=0D - pxor %xmm6,%xmm7=0D - rorl $9,%r14d=0D - xorl %r9d,%r13d=0D - xorl %r11d,%r12d=0D - rorl $5,%r13d=0D - xorl %ebx,%r14d=0D - psrlq $2,%xmm6=0D - andl %r9d,%r12d=0D - xorl %r9d,%r13d=0D - addl 28(%rsp),%eax=0D - pxor %xmm6,%xmm7=0D - movl %ebx,%edi=0D - xorl %r11d,%r12d=0D - rorl $11,%r14d=0D - pshufd $8,%xmm7,%xmm7=0D - xorl %ecx,%edi=0D - addl %r12d,%eax=0D - movdqa 32(%rbp),%xmm6=0D - rorl $6,%r13d=0D - andl %edi,%r15d=0D - pslldq $8,%xmm7=0D - xorl %ebx,%r14d=0D - addl %r13d,%eax=0D - xorl %ecx,%r15d=0D - paddd %xmm7,%xmm1=0D - rorl $2,%r14d=0D - addl %eax,%r8d=0D - addl %r15d,%eax=0D - paddd %xmm1,%xmm6=0D - movl %r8d,%r13d=0D - addl %eax,%r14d=0D - movdqa %xmm6,16(%rsp)=0D - rorl $14,%r13d=0D - movdqa %xmm3,%xmm4=0D - movl %r14d,%eax=0D - movl %r9d,%r12d=0D - movdqa %xmm1,%xmm7=0D - rorl $9,%r14d=0D - xorl %r8d,%r13d=0D - xorl %r10d,%r12d=0D - rorl $5,%r13d=0D - xorl %eax,%r14d=0D -.byte 102,15,58,15,226,4=0D - andl %r8d,%r12d=0D - xorl %r8d,%r13d=0D -.byte 102,15,58,15,248,4=0D - addl 32(%rsp),%r11d=0D - movl %eax,%r15d=0D - xorl %r10d,%r12d=0D - rorl $11,%r14d=0D - movdqa %xmm4,%xmm5=0D - xorl %ebx,%r15d=0D - addl %r12d,%r11d=0D - movdqa %xmm4,%xmm6=0D - rorl $6,%r13d=0D - andl %r15d,%edi=0D - psrld $3,%xmm4=0D - xorl %eax,%r14d=0D - addl %r13d,%r11d=0D - xorl %ebx,%edi=0D - paddd %xmm7,%xmm2=0D - rorl $2,%r14d=0D - addl %r11d,%edx=0D - psrld $7,%xmm6=0D - addl %edi,%r11d=0D - movl %edx,%r13d=0D - pshufd $250,%xmm1,%xmm7=0D - addl %r11d,%r14d=0D - rorl $14,%r13d=0D - pslld $14,%xmm5=0D - movl %r14d,%r11d=0D - movl %r8d,%r12d=0D - pxor %xmm6,%xmm4=0D - rorl $9,%r14d=0D - xorl %edx,%r13d=0D - xorl %r9d,%r12d=0D - rorl $5,%r13d=0D - psrld $11,%xmm6=0D - xorl %r11d,%r14d=0D - pxor %xmm5,%xmm4=0D - andl %edx,%r12d=0D - xorl %edx,%r13d=0D - pslld $11,%xmm5=0D - addl 36(%rsp),%r10d=0D - movl %r11d,%edi=0D - pxor %xmm6,%xmm4=0D - xorl %r9d,%r12d=0D - rorl $11,%r14d=0D - movdqa %xmm7,%xmm6=0D - xorl %eax,%edi=0D - addl %r12d,%r10d=0D - pxor %xmm5,%xmm4=0D - rorl $6,%r13d=0D - andl %edi,%r15d=0D - xorl %r11d,%r14d=0D - psrld $10,%xmm7=0D - addl %r13d,%r10d=0D - xorl %eax,%r15d=0D - paddd %xmm4,%xmm2=0D - rorl $2,%r14d=0D - addl %r10d,%ecx=0D - psrlq $17,%xmm6=0D - addl %r15d,%r10d=0D - movl %ecx,%r13d=0D - addl %r10d,%r14d=0D - pxor %xmm6,%xmm7=0D - rorl $14,%r13d=0D - movl %r14d,%r10d=0D - movl %edx,%r12d=0D - rorl $9,%r14d=0D - psrlq $2,%xmm6=0D - xorl %ecx,%r13d=0D - xorl %r8d,%r12d=0D - pxor %xmm6,%xmm7=0D - rorl $5,%r13d=0D - xorl %r10d,%r14d=0D - andl %ecx,%r12d=0D - pshufd $128,%xmm7,%xmm7=0D - xorl %ecx,%r13d=0D - addl 40(%rsp),%r9d=0D - movl %r10d,%r15d=0D - psrldq $8,%xmm7=0D - xorl %r8d,%r12d=0D - rorl $11,%r14d=0D - xorl %r11d,%r15d=0D - addl %r12d,%r9d=0D - rorl $6,%r13d=0D - paddd %xmm7,%xmm2=0D - andl %r15d,%edi=0D - xorl %r10d,%r14d=0D - addl %r13d,%r9d=0D - pshufd $80,%xmm2,%xmm7=0D - xorl %r11d,%edi=0D - rorl $2,%r14d=0D - addl %r9d,%ebx=0D - movdqa %xmm7,%xmm6=0D - addl %edi,%r9d=0D - movl %ebx,%r13d=0D - psrld $10,%xmm7=0D - addl %r9d,%r14d=0D - rorl $14,%r13d=0D - psrlq $17,%xmm6=0D - movl %r14d,%r9d=0D - movl %ecx,%r12d=0D - pxor %xmm6,%xmm7=0D - rorl $9,%r14d=0D - xorl %ebx,%r13d=0D - xorl %edx,%r12d=0D - rorl $5,%r13d=0D - xorl %r9d,%r14d=0D - psrlq $2,%xmm6=0D - andl %ebx,%r12d=0D - xorl %ebx,%r13d=0D - addl 44(%rsp),%r8d=0D - pxor %xmm6,%xmm7=0D - movl %r9d,%edi=0D - xorl %edx,%r12d=0D - rorl $11,%r14d=0D - pshufd $8,%xmm7,%xmm7=0D - xorl %r10d,%edi=0D - addl %r12d,%r8d=0D - movdqa 64(%rbp),%xmm6=0D - rorl $6,%r13d=0D - andl %edi,%r15d=0D - pslldq $8,%xmm7=0D - xorl %r9d,%r14d=0D - addl %r13d,%r8d=0D - xorl %r10d,%r15d=0D - paddd %xmm7,%xmm2=0D - rorl $2,%r14d=0D - addl %r8d,%eax=0D - addl %r15d,%r8d=0D - paddd %xmm2,%xmm6=0D - movl %eax,%r13d=0D - addl %r8d,%r14d=0D - movdqa %xmm6,32(%rsp)=0D - rorl $14,%r13d=0D - movdqa %xmm0,%xmm4=0D - movl %r14d,%r8d=0D - movl %ebx,%r12d=0D - movdqa %xmm2,%xmm7=0D - rorl $9,%r14d=0D - xorl %eax,%r13d=0D - xorl %ecx,%r12d=0D - rorl $5,%r13d=0D - xorl %r8d,%r14d=0D -.byte 102,15,58,15,227,4=0D - andl %eax,%r12d=0D - xorl %eax,%r13d=0D -.byte 102,15,58,15,249,4=0D - addl 48(%rsp),%edx=0D - movl %r8d,%r15d=0D - xorl %ecx,%r12d=0D - rorl $11,%r14d=0D - movdqa %xmm4,%xmm5=0D - xorl %r9d,%r15d=0D - addl %r12d,%edx=0D - movdqa %xmm4,%xmm6=0D - rorl $6,%r13d=0D - andl %r15d,%edi=0D - psrld $3,%xmm4=0D - xorl %r8d,%r14d=0D - addl %r13d,%edx=0D - xorl %r9d,%edi=0D - paddd %xmm7,%xmm3=0D - rorl $2,%r14d=0D - addl %edx,%r11d=0D - psrld $7,%xmm6=0D - addl %edi,%edx=0D - movl %r11d,%r13d=0D - pshufd $250,%xmm2,%xmm7=0D - addl %edx,%r14d=0D - rorl $14,%r13d=0D - pslld $14,%xmm5=0D - movl %r14d,%edx=0D - movl %eax,%r12d=0D - pxor %xmm6,%xmm4=0D - rorl $9,%r14d=0D - xorl %r11d,%r13d=0D - xorl %ebx,%r12d=0D - rorl $5,%r13d=0D - psrld $11,%xmm6=0D - xorl %edx,%r14d=0D - pxor %xmm5,%xmm4=0D - andl %r11d,%r12d=0D - xorl %r11d,%r13d=0D - pslld $11,%xmm5=0D - addl 52(%rsp),%ecx=0D - movl %edx,%edi=0D - pxor %xmm6,%xmm4=0D - xorl %ebx,%r12d=0D - rorl $11,%r14d=0D - movdqa %xmm7,%xmm6=0D - xorl %r8d,%edi=0D - addl %r12d,%ecx=0D - pxor %xmm5,%xmm4=0D - rorl $6,%r13d=0D - andl %edi,%r15d=0D - xorl %edx,%r14d=0D - psrld $10,%xmm7=0D - addl %r13d,%ecx=0D - xorl %r8d,%r15d=0D - paddd %xmm4,%xmm3=0D - rorl $2,%r14d=0D - addl %ecx,%r10d=0D - psrlq $17,%xmm6=0D - addl %r15d,%ecx=0D - movl %r10d,%r13d=0D - addl %ecx,%r14d=0D - pxor %xmm6,%xmm7=0D - rorl $14,%r13d=0D - movl %r14d,%ecx=0D - movl %r11d,%r12d=0D - rorl $9,%r14d=0D - psrlq $2,%xmm6=0D - xorl %r10d,%r13d=0D - xorl %eax,%r12d=0D - pxor %xmm6,%xmm7=0D - rorl $5,%r13d=0D - xorl %ecx,%r14d=0D - andl %r10d,%r12d=0D - pshufd $128,%xmm7,%xmm7=0D - xorl %r10d,%r13d=0D - addl 56(%rsp),%ebx=0D - movl %ecx,%r15d=0D - psrldq $8,%xmm7=0D - xorl %eax,%r12d=0D - rorl $11,%r14d=0D - xorl %edx,%r15d=0D - addl %r12d,%ebx=0D - rorl $6,%r13d=0D - paddd %xmm7,%xmm3=0D - andl %r15d,%edi=0D - xorl %ecx,%r14d=0D - addl %r13d,%ebx=0D - pshufd $80,%xmm3,%xmm7=0D - xorl %edx,%edi=0D - rorl $2,%r14d=0D - addl %ebx,%r9d=0D - movdqa %xmm7,%xmm6=0D - addl %edi,%ebx=0D - movl %r9d,%r13d=0D - psrld $10,%xmm7=0D - addl %ebx,%r14d=0D - rorl $14,%r13d=0D - psrlq $17,%xmm6=0D - movl %r14d,%ebx=0D - movl %r10d,%r12d=0D - pxor %xmm6,%xmm7=0D - rorl $9,%r14d=0D - xorl %r9d,%r13d=0D - xorl %r11d,%r12d=0D - rorl $5,%r13d=0D - xorl %ebx,%r14d=0D - psrlq $2,%xmm6=0D - andl %r9d,%r12d=0D - xorl %r9d,%r13d=0D - addl 60(%rsp),%eax=0D - pxor %xmm6,%xmm7=0D - movl %ebx,%edi=0D - xorl %r11d,%r12d=0D - rorl $11,%r14d=0D - pshufd $8,%xmm7,%xmm7=0D - xorl %ecx,%edi=0D - addl %r12d,%eax=0D - movdqa 96(%rbp),%xmm6=0D - rorl $6,%r13d=0D - andl %edi,%r15d=0D - pslldq $8,%xmm7=0D - xorl %ebx,%r14d=0D - addl %r13d,%eax=0D - xorl %ecx,%r15d=0D - paddd %xmm7,%xmm3=0D - rorl $2,%r14d=0D - addl %eax,%r8d=0D - addl %r15d,%eax=0D - paddd %xmm3,%xmm6=0D - movl %r8d,%r13d=0D - addl %eax,%r14d=0D - movdqa %xmm6,48(%rsp)=0D - cmpb $0,131(%rbp)=0D - jne .Lssse3_00_47=0D - rorl $14,%r13d=0D - movl %r14d,%eax=0D - movl %r9d,%r12d=0D - rorl $9,%r14d=0D - xorl %r8d,%r13d=0D - xorl %r10d,%r12d=0D - rorl $5,%r13d=0D - xorl %eax,%r14d=0D - andl %r8d,%r12d=0D - xorl %r8d,%r13d=0D - addl 0(%rsp),%r11d=0D - movl %eax,%r15d=0D - xorl %r10d,%r12d=0D - rorl $11,%r14d=0D - xorl %ebx,%r15d=0D - addl %r12d,%r11d=0D - rorl $6,%r13d=0D - andl %r15d,%edi=0D - xorl %eax,%r14d=0D - addl %r13d,%r11d=0D - xorl %ebx,%edi=0D - rorl $2,%r14d=0D - addl %r11d,%edx=0D - addl %edi,%r11d=0D - movl %edx,%r13d=0D - addl %r11d,%r14d=0D - rorl $14,%r13d=0D - movl %r14d,%r11d=0D - movl %r8d,%r12d=0D - rorl $9,%r14d=0D - xorl %edx,%r13d=0D - xorl %r9d,%r12d=0D - rorl $5,%r13d=0D - xorl %r11d,%r14d=0D - andl %edx,%r12d=0D - xorl %edx,%r13d=0D - addl 4(%rsp),%r10d=0D - movl %r11d,%edi=0D - xorl %r9d,%r12d=0D - rorl $11,%r14d=0D - xorl %eax,%edi=0D - addl %r12d,%r10d=0D - rorl $6,%r13d=0D - andl %edi,%r15d=0D - xorl %r11d,%r14d=0D - addl %r13d,%r10d=0D - xorl %eax,%r15d=0D - rorl $2,%r14d=0D - addl %r10d,%ecx=0D - addl %r15d,%r10d=0D - movl %ecx,%r13d=0D - addl %r10d,%r14d=0D - rorl $14,%r13d=0D - movl %r14d,%r10d=0D - movl %edx,%r12d=0D - rorl $9,%r14d=0D - xorl %ecx,%r13d=0D - xorl %r8d,%r12d=0D - rorl $5,%r13d=0D - xorl %r10d,%r14d=0D - andl %ecx,%r12d=0D - xorl %ecx,%r13d=0D - addl 8(%rsp),%r9d=0D - movl %r10d,%r15d=0D - xorl %r8d,%r12d=0D - rorl $11,%r14d=0D - xorl %r11d,%r15d=0D - addl %r12d,%r9d=0D - rorl $6,%r13d=0D - andl %r15d,%edi=0D - xorl %r10d,%r14d=0D - addl %r13d,%r9d=0D - xorl %r11d,%edi=0D - rorl $2,%r14d=0D - addl %r9d,%ebx=0D - addl %edi,%r9d=0D - movl %ebx,%r13d=0D - addl %r9d,%r14d=0D - rorl $14,%r13d=0D - movl %r14d,%r9d=0D - movl %ecx,%r12d=0D - rorl $9,%r14d=0D - xorl %ebx,%r13d=0D - xorl %edx,%r12d=0D - rorl $5,%r13d=0D - xorl %r9d,%r14d=0D - andl %ebx,%r12d=0D - xorl %ebx,%r13d=0D - addl 12(%rsp),%r8d=0D - movl %r9d,%edi=0D - xorl %edx,%r12d=0D - rorl $11,%r14d=0D - xorl %r10d,%edi=0D - addl %r12d,%r8d=0D - rorl $6,%r13d=0D - andl %edi,%r15d=0D - xorl %r9d,%r14d=0D - addl %r13d,%r8d=0D - xorl %r10d,%r15d=0D - rorl $2,%r14d=0D - addl %r8d,%eax=0D - addl %r15d,%r8d=0D - movl %eax,%r13d=0D - addl %r8d,%r14d=0D - rorl $14,%r13d=0D - movl %r14d,%r8d=0D - movl %ebx,%r12d=0D - rorl $9,%r14d=0D - xorl %eax,%r13d=0D - xorl %ecx,%r12d=0D - rorl $5,%r13d=0D - xorl %r8d,%r14d=0D - andl %eax,%r12d=0D - xorl %eax,%r13d=0D - addl 16(%rsp),%edx=0D - movl %r8d,%r15d=0D - xorl %ecx,%r12d=0D - rorl $11,%r14d=0D - xorl %r9d,%r15d=0D - addl %r12d,%edx=0D - rorl $6,%r13d=0D - andl %r15d,%edi=0D - xorl %r8d,%r14d=0D - addl %r13d,%edx=0D - xorl %r9d,%edi=0D - rorl $2,%r14d=0D - addl %edx,%r11d=0D - addl %edi,%edx=0D - movl %r11d,%r13d=0D - addl %edx,%r14d=0D - rorl $14,%r13d=0D - movl %r14d,%edx=0D - movl %eax,%r12d=0D - rorl $9,%r14d=0D - xorl %r11d,%r13d=0D - xorl %ebx,%r12d=0D - rorl $5,%r13d=0D - xorl %edx,%r14d=0D - andl %r11d,%r12d=0D - xorl %r11d,%r13d=0D - addl 20(%rsp),%ecx=0D - movl %edx,%edi=0D - xorl %ebx,%r12d=0D - rorl $11,%r14d=0D - xorl %r8d,%edi=0D - addl %r12d,%ecx=0D - rorl $6,%r13d=0D - andl %edi,%r15d=0D - xorl %edx,%r14d=0D - addl %r13d,%ecx=0D - xorl %r8d,%r15d=0D - rorl $2,%r14d=0D - addl %ecx,%r10d=0D - addl %r15d,%ecx=0D - movl %r10d,%r13d=0D - addl %ecx,%r14d=0D - rorl $14,%r13d=0D - movl %r14d,%ecx=0D - movl %r11d,%r12d=0D - rorl $9,%r14d=0D - xorl %r10d,%r13d=0D - xorl %eax,%r12d=0D - rorl $5,%r13d=0D - xorl %ecx,%r14d=0D - andl %r10d,%r12d=0D - xorl %r10d,%r13d=0D - addl 24(%rsp),%ebx=0D - movl %ecx,%r15d=0D - xorl %eax,%r12d=0D - rorl $11,%r14d=0D - xorl %edx,%r15d=0D - addl %r12d,%ebx=0D - rorl $6,%r13d=0D - andl %r15d,%edi=0D - xorl %ecx,%r14d=0D - addl %r13d,%ebx=0D - xorl %edx,%edi=0D - rorl $2,%r14d=0D - addl %ebx,%r9d=0D - addl %edi,%ebx=0D - movl %r9d,%r13d=0D - addl %ebx,%r14d=0D - rorl $14,%r13d=0D - movl %r14d,%ebx=0D - movl %r10d,%r12d=0D - rorl $9,%r14d=0D - xorl %r9d,%r13d=0D - xorl %r11d,%r12d=0D - rorl $5,%r13d=0D - xorl %ebx,%r14d=0D - andl %r9d,%r12d=0D - xorl %r9d,%r13d=0D - addl 28(%rsp),%eax=0D - movl %ebx,%edi=0D - xorl %r11d,%r12d=0D - rorl $11,%r14d=0D - xorl %ecx,%edi=0D - addl %r12d,%eax=0D - rorl $6,%r13d=0D - andl %edi,%r15d=0D - xorl %ebx,%r14d=0D - addl %r13d,%eax=0D - xorl %ecx,%r15d=0D - rorl $2,%r14d=0D - addl %eax,%r8d=0D - addl %r15d,%eax=0D - movl %r8d,%r13d=0D - addl %eax,%r14d=0D - rorl $14,%r13d=0D - movl %r14d,%eax=0D - movl %r9d,%r12d=0D - rorl $9,%r14d=0D - xorl %r8d,%r13d=0D - xorl %r10d,%r12d=0D - rorl $5,%r13d=0D - xorl %eax,%r14d=0D - andl %r8d,%r12d=0D - xorl %r8d,%r13d=0D - addl 32(%rsp),%r11d=0D - movl %eax,%r15d=0D - xorl %r10d,%r12d=0D - rorl $11,%r14d=0D - xorl %ebx,%r15d=0D - addl %r12d,%r11d=0D - rorl $6,%r13d=0D - andl %r15d,%edi=0D - xorl %eax,%r14d=0D - addl %r13d,%r11d=0D - xorl %ebx,%edi=0D - rorl $2,%r14d=0D - addl %r11d,%edx=0D - addl %edi,%r11d=0D - movl %edx,%r13d=0D - addl %r11d,%r14d=0D - rorl $14,%r13d=0D - movl %r14d,%r11d=0D - movl %r8d,%r12d=0D - rorl $9,%r14d=0D - xorl %edx,%r13d=0D - xorl %r9d,%r12d=0D - rorl $5,%r13d=0D - xorl %r11d,%r14d=0D - andl %edx,%r12d=0D - xorl %edx,%r13d=0D - addl 36(%rsp),%r10d=0D - movl %r11d,%edi=0D - xorl %r9d,%r12d=0D - rorl $11,%r14d=0D - xorl %eax,%edi=0D - addl %r12d,%r10d=0D - rorl $6,%r13d=0D - andl %edi,%r15d=0D - xorl %r11d,%r14d=0D - addl %r13d,%r10d=0D - xorl %eax,%r15d=0D - rorl $2,%r14d=0D - addl %r10d,%ecx=0D - addl %r15d,%r10d=0D - movl %ecx,%r13d=0D - addl %r10d,%r14d=0D - rorl $14,%r13d=0D - movl %r14d,%r10d=0D - movl %edx,%r12d=0D - rorl $9,%r14d=0D - xorl %ecx,%r13d=0D - xorl %r8d,%r12d=0D - rorl $5,%r13d=0D - xorl %r10d,%r14d=0D - andl %ecx,%r12d=0D - xorl %ecx,%r13d=0D - addl 40(%rsp),%r9d=0D - movl %r10d,%r15d=0D - xorl %r8d,%r12d=0D - rorl $11,%r14d=0D - xorl %r11d,%r15d=0D - addl %r12d,%r9d=0D - rorl $6,%r13d=0D - andl %r15d,%edi=0D - xorl %r10d,%r14d=0D - addl %r13d,%r9d=0D - xorl %r11d,%edi=0D - rorl $2,%r14d=0D - addl %r9d,%ebx=0D - addl %edi,%r9d=0D - movl %ebx,%r13d=0D - addl %r9d,%r14d=0D - rorl $14,%r13d=0D - movl %r14d,%r9d=0D - movl %ecx,%r12d=0D - rorl $9,%r14d=0D - xorl %ebx,%r13d=0D - xorl %edx,%r12d=0D - rorl $5,%r13d=0D - xorl %r9d,%r14d=0D - andl %ebx,%r12d=0D - xorl %ebx,%r13d=0D - addl 44(%rsp),%r8d=0D - movl %r9d,%edi=0D - xorl %edx,%r12d=0D - rorl $11,%r14d=0D - xorl %r10d,%edi=0D - addl %r12d,%r8d=0D - rorl $6,%r13d=0D - andl %edi,%r15d=0D - xorl %r9d,%r14d=0D - addl %r13d,%r8d=0D - xorl %r10d,%r15d=0D - rorl $2,%r14d=0D - addl %r8d,%eax=0D - addl %r15d,%r8d=0D - movl %eax,%r13d=0D - addl %r8d,%r14d=0D - rorl $14,%r13d=0D - movl %r14d,%r8d=0D - movl %ebx,%r12d=0D - rorl $9,%r14d=0D - xorl %eax,%r13d=0D - xorl %ecx,%r12d=0D - rorl $5,%r13d=0D - xorl %r8d,%r14d=0D - andl %eax,%r12d=0D - xorl %eax,%r13d=0D - addl 48(%rsp),%edx=0D - movl %r8d,%r15d=0D - xorl %ecx,%r12d=0D - rorl $11,%r14d=0D - xorl %r9d,%r15d=0D - addl %r12d,%edx=0D - rorl $6,%r13d=0D - andl %r15d,%edi=0D - xorl %r8d,%r14d=0D - addl %r13d,%edx=0D - xorl %r9d,%edi=0D - rorl $2,%r14d=0D - addl %edx,%r11d=0D - addl %edi,%edx=0D - movl %r11d,%r13d=0D - addl %edx,%r14d=0D - rorl $14,%r13d=0D - movl %r14d,%edx=0D - movl %eax,%r12d=0D - rorl $9,%r14d=0D - xorl %r11d,%r13d=0D - xorl %ebx,%r12d=0D - rorl $5,%r13d=0D - xorl %edx,%r14d=0D - andl %r11d,%r12d=0D - xorl %r11d,%r13d=0D - addl 52(%rsp),%ecx=0D - movl %edx,%edi=0D - xorl %ebx,%r12d=0D - rorl $11,%r14d=0D - xorl %r8d,%edi=0D - addl %r12d,%ecx=0D - rorl $6,%r13d=0D - andl %edi,%r15d=0D - xorl %edx,%r14d=0D - addl %r13d,%ecx=0D - xorl %r8d,%r15d=0D - rorl $2,%r14d=0D - addl %ecx,%r10d=0D - addl %r15d,%ecx=0D - movl %r10d,%r13d=0D - addl %ecx,%r14d=0D - rorl $14,%r13d=0D - movl %r14d,%ecx=0D - movl %r11d,%r12d=0D - rorl $9,%r14d=0D - xorl %r10d,%r13d=0D - xorl %eax,%r12d=0D - rorl $5,%r13d=0D - xorl %ecx,%r14d=0D - andl %r10d,%r12d=0D - xorl %r10d,%r13d=0D - addl 56(%rsp),%ebx=0D - movl %ecx,%r15d=0D - xorl %eax,%r12d=0D - rorl $11,%r14d=0D - xorl %edx,%r15d=0D - addl %r12d,%ebx=0D - rorl $6,%r13d=0D - andl %r15d,%edi=0D - xorl %ecx,%r14d=0D - addl %r13d,%ebx=0D - xorl %edx,%edi=0D - rorl $2,%r14d=0D - addl %ebx,%r9d=0D - addl %edi,%ebx=0D - movl %r9d,%r13d=0D - addl %ebx,%r14d=0D - rorl $14,%r13d=0D - movl %r14d,%ebx=0D - movl %r10d,%r12d=0D - rorl $9,%r14d=0D - xorl %r9d,%r13d=0D - xorl %r11d,%r12d=0D - rorl $5,%r13d=0D - xorl %ebx,%r14d=0D - andl %r9d,%r12d=0D - xorl %r9d,%r13d=0D - addl 60(%rsp),%eax=0D - movl %ebx,%edi=0D - xorl %r11d,%r12d=0D - rorl $11,%r14d=0D - xorl %ecx,%edi=0D - addl %r12d,%eax=0D - rorl $6,%r13d=0D - andl %edi,%r15d=0D - xorl %ebx,%r14d=0D - addl %r13d,%eax=0D - xorl %ecx,%r15d=0D - rorl $2,%r14d=0D - addl %eax,%r8d=0D - addl %r15d,%eax=0D - movl %r8d,%r13d=0D - addl %eax,%r14d=0D - movq 64+0(%rsp),%rdi=0D - movl %r14d,%eax=0D -=0D - addl 0(%rdi),%eax=0D - leaq 64(%rsi),%rsi=0D - addl 4(%rdi),%ebx=0D - addl 8(%rdi),%ecx=0D - addl 12(%rdi),%edx=0D - addl 16(%rdi),%r8d=0D - addl 20(%rdi),%r9d=0D - addl 24(%rdi),%r10d=0D - addl 28(%rdi),%r11d=0D -=0D - cmpq 64+16(%rsp),%rsi=0D -=0D - movl %eax,0(%rdi)=0D - movl %ebx,4(%rdi)=0D - movl %ecx,8(%rdi)=0D - movl %edx,12(%rdi)=0D - movl %r8d,16(%rdi)=0D - movl %r9d,20(%rdi)=0D - movl %r10d,24(%rdi)=0D - movl %r11d,28(%rdi)=0D - jb .Lloop_ssse3=0D -=0D - movq 88(%rsp),%rsi=0D -.cfi_def_cfa %rsi,8=0D - movq -48(%rsi),%r15=0D -.cfi_restore %r15=0D - movq -40(%rsi),%r14=0D -.cfi_restore %r14=0D - movq -32(%rsi),%r13=0D -.cfi_restore %r13=0D - movq -24(%rsi),%r12=0D -.cfi_restore %r12=0D - movq -16(%rsi),%rbp=0D -.cfi_restore %rbp=0D - movq -8(%rsi),%rbx=0D -.cfi_restore %rbx=0D - leaq (%rsi),%rsp=0D -.cfi_def_cfa_register %rsp=0D -.Lepilogue_ssse3:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size sha256_block_data_order_ssse3,.-sha256_block_data_order_ssse3=0D diff --git a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha512-x86_64.S= b/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha512-x86_64.S deleted file mode 100644 index 11e67e5ba1..0000000000 --- a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/sha/sha512-x86_64.S +++ /dev/null @@ -1,1811 +0,0 @@ -# WARNING: do not edit!=0D -# Generated from openssl/crypto/sha/asm/sha512-x86_64.pl=0D -#=0D -# Copyright 2005-2020 The OpenSSL Project Authors. All Rights Reserved.=0D -#=0D -# Licensed under the OpenSSL license (the "License"). You may not use=0D -# this file except in compliance with the License. You can obtain a copy= =0D -# in the file LICENSE in the source distribution or at=0D -# https://www.openssl.org/source/license.html=0D -=0D -.text=0D -=0D -=0D -.globl sha512_block_data_order=0D -.type sha512_block_data_order,@function=0D -.align 16=0D -sha512_block_data_order:=0D -.cfi_startproc=0D - movq %rsp,%rax=0D -.cfi_def_cfa_register %rax=0D - pushq %rbx=0D -.cfi_offset %rbx,-16=0D - pushq %rbp=0D -.cfi_offset %rbp,-24=0D - pushq %r12=0D -.cfi_offset %r12,-32=0D - pushq %r13=0D -.cfi_offset %r13,-40=0D - pushq %r14=0D -.cfi_offset %r14,-48=0D - pushq %r15=0D -.cfi_offset %r15,-56=0D - shlq $4,%rdx=0D - subq $128+32,%rsp=0D - leaq (%rsi,%rdx,8),%rdx=0D - andq $-64,%rsp=0D - movq %rdi,128+0(%rsp)=0D - movq %rsi,128+8(%rsp)=0D - movq %rdx,128+16(%rsp)=0D - movq %rax,152(%rsp)=0D -.cfi_escape 0x0f,0x06,0x77,0x98,0x01,0x06,0x23,0x08=0D -.Lprologue:=0D -=0D - movq 0(%rdi),%rax=0D - movq 8(%rdi),%rbx=0D - movq 16(%rdi),%rcx=0D - movq 24(%rdi),%rdx=0D - movq 32(%rdi),%r8=0D - movq 40(%rdi),%r9=0D - movq 48(%rdi),%r10=0D - movq 56(%rdi),%r11=0D - jmp .Lloop=0D -=0D -.align 16=0D -.Lloop:=0D - movq %rbx,%rdi=0D - leaq K512(%rip),%rbp=0D - xorq %rcx,%rdi=0D - movq 0(%rsi),%r12=0D - movq %r8,%r13=0D - movq %rax,%r14=0D - bswapq %r12=0D - rorq $23,%r13=0D - movq %r9,%r15=0D -=0D - xorq %r8,%r13=0D - rorq $5,%r14=0D - xorq %r10,%r15=0D -=0D - movq %r12,0(%rsp)=0D - xorq %rax,%r14=0D - andq %r8,%r15=0D -=0D - rorq $4,%r13=0D - addq %r11,%r12=0D - xorq %r10,%r15=0D -=0D - rorq $6,%r14=0D - xorq %r8,%r13=0D - addq %r15,%r12=0D -=0D - movq %rax,%r15=0D - addq (%rbp),%r12=0D - xorq %rax,%r14=0D -=0D - xorq %rbx,%r15=0D - rorq $14,%r13=0D - movq %rbx,%r11=0D -=0D - andq %r15,%rdi=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %rdi,%r11=0D - addq %r12,%rdx=0D - addq %r12,%r11=0D -=0D - leaq 8(%rbp),%rbp=0D - addq %r14,%r11=0D - movq 8(%rsi),%r12=0D - movq %rdx,%r13=0D - movq %r11,%r14=0D - bswapq %r12=0D - rorq $23,%r13=0D - movq %r8,%rdi=0D -=0D - xorq %rdx,%r13=0D - rorq $5,%r14=0D - xorq %r9,%rdi=0D -=0D - movq %r12,8(%rsp)=0D - xorq %r11,%r14=0D - andq %rdx,%rdi=0D -=0D - rorq $4,%r13=0D - addq %r10,%r12=0D - xorq %r9,%rdi=0D -=0D - rorq $6,%r14=0D - xorq %rdx,%r13=0D - addq %rdi,%r12=0D -=0D - movq %r11,%rdi=0D - addq (%rbp),%r12=0D - xorq %r11,%r14=0D -=0D - xorq %rax,%rdi=0D - rorq $14,%r13=0D - movq %rax,%r10=0D -=0D - andq %rdi,%r15=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %r15,%r10=0D - addq %r12,%rcx=0D - addq %r12,%r10=0D -=0D - leaq 24(%rbp),%rbp=0D - addq %r14,%r10=0D - movq 16(%rsi),%r12=0D - movq %rcx,%r13=0D - movq %r10,%r14=0D - bswapq %r12=0D - rorq $23,%r13=0D - movq %rdx,%r15=0D -=0D - xorq %rcx,%r13=0D - rorq $5,%r14=0D - xorq %r8,%r15=0D -=0D - movq %r12,16(%rsp)=0D - xorq %r10,%r14=0D - andq %rcx,%r15=0D -=0D - rorq $4,%r13=0D - addq %r9,%r12=0D - xorq %r8,%r15=0D -=0D - rorq $6,%r14=0D - xorq %rcx,%r13=0D - addq %r15,%r12=0D -=0D - movq %r10,%r15=0D - addq (%rbp),%r12=0D - xorq %r10,%r14=0D -=0D - xorq %r11,%r15=0D - rorq $14,%r13=0D - movq %r11,%r9=0D -=0D - andq %r15,%rdi=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %rdi,%r9=0D - addq %r12,%rbx=0D - addq %r12,%r9=0D -=0D - leaq 8(%rbp),%rbp=0D - addq %r14,%r9=0D - movq 24(%rsi),%r12=0D - movq %rbx,%r13=0D - movq %r9,%r14=0D - bswapq %r12=0D - rorq $23,%r13=0D - movq %rcx,%rdi=0D -=0D - xorq %rbx,%r13=0D - rorq $5,%r14=0D - xorq %rdx,%rdi=0D -=0D - movq %r12,24(%rsp)=0D - xorq %r9,%r14=0D - andq %rbx,%rdi=0D -=0D - rorq $4,%r13=0D - addq %r8,%r12=0D - xorq %rdx,%rdi=0D -=0D - rorq $6,%r14=0D - xorq %rbx,%r13=0D - addq %rdi,%r12=0D -=0D - movq %r9,%rdi=0D - addq (%rbp),%r12=0D - xorq %r9,%r14=0D -=0D - xorq %r10,%rdi=0D - rorq $14,%r13=0D - movq %r10,%r8=0D -=0D - andq %rdi,%r15=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %r15,%r8=0D - addq %r12,%rax=0D - addq %r12,%r8=0D -=0D - leaq 24(%rbp),%rbp=0D - addq %r14,%r8=0D - movq 32(%rsi),%r12=0D - movq %rax,%r13=0D - movq %r8,%r14=0D - bswapq %r12=0D - rorq $23,%r13=0D - movq %rbx,%r15=0D -=0D - xorq %rax,%r13=0D - rorq $5,%r14=0D - xorq %rcx,%r15=0D -=0D - movq %r12,32(%rsp)=0D - xorq %r8,%r14=0D - andq %rax,%r15=0D -=0D - rorq $4,%r13=0D - addq %rdx,%r12=0D - xorq %rcx,%r15=0D -=0D - rorq $6,%r14=0D - xorq %rax,%r13=0D - addq %r15,%r12=0D -=0D - movq %r8,%r15=0D - addq (%rbp),%r12=0D - xorq %r8,%r14=0D -=0D - xorq %r9,%r15=0D - rorq $14,%r13=0D - movq %r9,%rdx=0D -=0D - andq %r15,%rdi=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %rdi,%rdx=0D - addq %r12,%r11=0D - addq %r12,%rdx=0D -=0D - leaq 8(%rbp),%rbp=0D - addq %r14,%rdx=0D - movq 40(%rsi),%r12=0D - movq %r11,%r13=0D - movq %rdx,%r14=0D - bswapq %r12=0D - rorq $23,%r13=0D - movq %rax,%rdi=0D -=0D - xorq %r11,%r13=0D - rorq $5,%r14=0D - xorq %rbx,%rdi=0D -=0D - movq %r12,40(%rsp)=0D - xorq %rdx,%r14=0D - andq %r11,%rdi=0D -=0D - rorq $4,%r13=0D - addq %rcx,%r12=0D - xorq %rbx,%rdi=0D -=0D - rorq $6,%r14=0D - xorq %r11,%r13=0D - addq %rdi,%r12=0D -=0D - movq %rdx,%rdi=0D - addq (%rbp),%r12=0D - xorq %rdx,%r14=0D -=0D - xorq %r8,%rdi=0D - rorq $14,%r13=0D - movq %r8,%rcx=0D -=0D - andq %rdi,%r15=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %r15,%rcx=0D - addq %r12,%r10=0D - addq %r12,%rcx=0D -=0D - leaq 24(%rbp),%rbp=0D - addq %r14,%rcx=0D - movq 48(%rsi),%r12=0D - movq %r10,%r13=0D - movq %rcx,%r14=0D - bswapq %r12=0D - rorq $23,%r13=0D - movq %r11,%r15=0D -=0D - xorq %r10,%r13=0D - rorq $5,%r14=0D - xorq %rax,%r15=0D -=0D - movq %r12,48(%rsp)=0D - xorq %rcx,%r14=0D - andq %r10,%r15=0D -=0D - rorq $4,%r13=0D - addq %rbx,%r12=0D - xorq %rax,%r15=0D -=0D - rorq $6,%r14=0D - xorq %r10,%r13=0D - addq %r15,%r12=0D -=0D - movq %rcx,%r15=0D - addq (%rbp),%r12=0D - xorq %rcx,%r14=0D -=0D - xorq %rdx,%r15=0D - rorq $14,%r13=0D - movq %rdx,%rbx=0D -=0D - andq %r15,%rdi=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %rdi,%rbx=0D - addq %r12,%r9=0D - addq %r12,%rbx=0D -=0D - leaq 8(%rbp),%rbp=0D - addq %r14,%rbx=0D - movq 56(%rsi),%r12=0D - movq %r9,%r13=0D - movq %rbx,%r14=0D - bswapq %r12=0D - rorq $23,%r13=0D - movq %r10,%rdi=0D -=0D - xorq %r9,%r13=0D - rorq $5,%r14=0D - xorq %r11,%rdi=0D -=0D - movq %r12,56(%rsp)=0D - xorq %rbx,%r14=0D - andq %r9,%rdi=0D -=0D - rorq $4,%r13=0D - addq %rax,%r12=0D - xorq %r11,%rdi=0D -=0D - rorq $6,%r14=0D - xorq %r9,%r13=0D - addq %rdi,%r12=0D -=0D - movq %rbx,%rdi=0D - addq (%rbp),%r12=0D - xorq %rbx,%r14=0D -=0D - xorq %rcx,%rdi=0D - rorq $14,%r13=0D - movq %rcx,%rax=0D -=0D - andq %rdi,%r15=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %r15,%rax=0D - addq %r12,%r8=0D - addq %r12,%rax=0D -=0D - leaq 24(%rbp),%rbp=0D - addq %r14,%rax=0D - movq 64(%rsi),%r12=0D - movq %r8,%r13=0D - movq %rax,%r14=0D - bswapq %r12=0D - rorq $23,%r13=0D - movq %r9,%r15=0D -=0D - xorq %r8,%r13=0D - rorq $5,%r14=0D - xorq %r10,%r15=0D -=0D - movq %r12,64(%rsp)=0D - xorq %rax,%r14=0D - andq %r8,%r15=0D -=0D - rorq $4,%r13=0D - addq %r11,%r12=0D - xorq %r10,%r15=0D -=0D - rorq $6,%r14=0D - xorq %r8,%r13=0D - addq %r15,%r12=0D -=0D - movq %rax,%r15=0D - addq (%rbp),%r12=0D - xorq %rax,%r14=0D -=0D - xorq %rbx,%r15=0D - rorq $14,%r13=0D - movq %rbx,%r11=0D -=0D - andq %r15,%rdi=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %rdi,%r11=0D - addq %r12,%rdx=0D - addq %r12,%r11=0D -=0D - leaq 8(%rbp),%rbp=0D - addq %r14,%r11=0D - movq 72(%rsi),%r12=0D - movq %rdx,%r13=0D - movq %r11,%r14=0D - bswapq %r12=0D - rorq $23,%r13=0D - movq %r8,%rdi=0D -=0D - xorq %rdx,%r13=0D - rorq $5,%r14=0D - xorq %r9,%rdi=0D -=0D - movq %r12,72(%rsp)=0D - xorq %r11,%r14=0D - andq %rdx,%rdi=0D -=0D - rorq $4,%r13=0D - addq %r10,%r12=0D - xorq %r9,%rdi=0D -=0D - rorq $6,%r14=0D - xorq %rdx,%r13=0D - addq %rdi,%r12=0D -=0D - movq %r11,%rdi=0D - addq (%rbp),%r12=0D - xorq %r11,%r14=0D -=0D - xorq %rax,%rdi=0D - rorq $14,%r13=0D - movq %rax,%r10=0D -=0D - andq %rdi,%r15=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %r15,%r10=0D - addq %r12,%rcx=0D - addq %r12,%r10=0D -=0D - leaq 24(%rbp),%rbp=0D - addq %r14,%r10=0D - movq 80(%rsi),%r12=0D - movq %rcx,%r13=0D - movq %r10,%r14=0D - bswapq %r12=0D - rorq $23,%r13=0D - movq %rdx,%r15=0D -=0D - xorq %rcx,%r13=0D - rorq $5,%r14=0D - xorq %r8,%r15=0D -=0D - movq %r12,80(%rsp)=0D - xorq %r10,%r14=0D - andq %rcx,%r15=0D -=0D - rorq $4,%r13=0D - addq %r9,%r12=0D - xorq %r8,%r15=0D -=0D - rorq $6,%r14=0D - xorq %rcx,%r13=0D - addq %r15,%r12=0D -=0D - movq %r10,%r15=0D - addq (%rbp),%r12=0D - xorq %r10,%r14=0D -=0D - xorq %r11,%r15=0D - rorq $14,%r13=0D - movq %r11,%r9=0D -=0D - andq %r15,%rdi=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %rdi,%r9=0D - addq %r12,%rbx=0D - addq %r12,%r9=0D -=0D - leaq 8(%rbp),%rbp=0D - addq %r14,%r9=0D - movq 88(%rsi),%r12=0D - movq %rbx,%r13=0D - movq %r9,%r14=0D - bswapq %r12=0D - rorq $23,%r13=0D - movq %rcx,%rdi=0D -=0D - xorq %rbx,%r13=0D - rorq $5,%r14=0D - xorq %rdx,%rdi=0D -=0D - movq %r12,88(%rsp)=0D - xorq %r9,%r14=0D - andq %rbx,%rdi=0D -=0D - rorq $4,%r13=0D - addq %r8,%r12=0D - xorq %rdx,%rdi=0D -=0D - rorq $6,%r14=0D - xorq %rbx,%r13=0D - addq %rdi,%r12=0D -=0D - movq %r9,%rdi=0D - addq (%rbp),%r12=0D - xorq %r9,%r14=0D -=0D - xorq %r10,%rdi=0D - rorq $14,%r13=0D - movq %r10,%r8=0D -=0D - andq %rdi,%r15=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %r15,%r8=0D - addq %r12,%rax=0D - addq %r12,%r8=0D -=0D - leaq 24(%rbp),%rbp=0D - addq %r14,%r8=0D - movq 96(%rsi),%r12=0D - movq %rax,%r13=0D - movq %r8,%r14=0D - bswapq %r12=0D - rorq $23,%r13=0D - movq %rbx,%r15=0D -=0D - xorq %rax,%r13=0D - rorq $5,%r14=0D - xorq %rcx,%r15=0D -=0D - movq %r12,96(%rsp)=0D - xorq %r8,%r14=0D - andq %rax,%r15=0D -=0D - rorq $4,%r13=0D - addq %rdx,%r12=0D - xorq %rcx,%r15=0D -=0D - rorq $6,%r14=0D - xorq %rax,%r13=0D - addq %r15,%r12=0D -=0D - movq %r8,%r15=0D - addq (%rbp),%r12=0D - xorq %r8,%r14=0D -=0D - xorq %r9,%r15=0D - rorq $14,%r13=0D - movq %r9,%rdx=0D -=0D - andq %r15,%rdi=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %rdi,%rdx=0D - addq %r12,%r11=0D - addq %r12,%rdx=0D -=0D - leaq 8(%rbp),%rbp=0D - addq %r14,%rdx=0D - movq 104(%rsi),%r12=0D - movq %r11,%r13=0D - movq %rdx,%r14=0D - bswapq %r12=0D - rorq $23,%r13=0D - movq %rax,%rdi=0D -=0D - xorq %r11,%r13=0D - rorq $5,%r14=0D - xorq %rbx,%rdi=0D -=0D - movq %r12,104(%rsp)=0D - xorq %rdx,%r14=0D - andq %r11,%rdi=0D -=0D - rorq $4,%r13=0D - addq %rcx,%r12=0D - xorq %rbx,%rdi=0D -=0D - rorq $6,%r14=0D - xorq %r11,%r13=0D - addq %rdi,%r12=0D -=0D - movq %rdx,%rdi=0D - addq (%rbp),%r12=0D - xorq %rdx,%r14=0D -=0D - xorq %r8,%rdi=0D - rorq $14,%r13=0D - movq %r8,%rcx=0D -=0D - andq %rdi,%r15=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %r15,%rcx=0D - addq %r12,%r10=0D - addq %r12,%rcx=0D -=0D - leaq 24(%rbp),%rbp=0D - addq %r14,%rcx=0D - movq 112(%rsi),%r12=0D - movq %r10,%r13=0D - movq %rcx,%r14=0D - bswapq %r12=0D - rorq $23,%r13=0D - movq %r11,%r15=0D -=0D - xorq %r10,%r13=0D - rorq $5,%r14=0D - xorq %rax,%r15=0D -=0D - movq %r12,112(%rsp)=0D - xorq %rcx,%r14=0D - andq %r10,%r15=0D -=0D - rorq $4,%r13=0D - addq %rbx,%r12=0D - xorq %rax,%r15=0D -=0D - rorq $6,%r14=0D - xorq %r10,%r13=0D - addq %r15,%r12=0D -=0D - movq %rcx,%r15=0D - addq (%rbp),%r12=0D - xorq %rcx,%r14=0D -=0D - xorq %rdx,%r15=0D - rorq $14,%r13=0D - movq %rdx,%rbx=0D -=0D - andq %r15,%rdi=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %rdi,%rbx=0D - addq %r12,%r9=0D - addq %r12,%rbx=0D -=0D - leaq 8(%rbp),%rbp=0D - addq %r14,%rbx=0D - movq 120(%rsi),%r12=0D - movq %r9,%r13=0D - movq %rbx,%r14=0D - bswapq %r12=0D - rorq $23,%r13=0D - movq %r10,%rdi=0D -=0D - xorq %r9,%r13=0D - rorq $5,%r14=0D - xorq %r11,%rdi=0D -=0D - movq %r12,120(%rsp)=0D - xorq %rbx,%r14=0D - andq %r9,%rdi=0D -=0D - rorq $4,%r13=0D - addq %rax,%r12=0D - xorq %r11,%rdi=0D -=0D - rorq $6,%r14=0D - xorq %r9,%r13=0D - addq %rdi,%r12=0D -=0D - movq %rbx,%rdi=0D - addq (%rbp),%r12=0D - xorq %rbx,%r14=0D -=0D - xorq %rcx,%rdi=0D - rorq $14,%r13=0D - movq %rcx,%rax=0D -=0D - andq %rdi,%r15=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %r15,%rax=0D - addq %r12,%r8=0D - addq %r12,%rax=0D -=0D - leaq 24(%rbp),%rbp=0D - jmp .Lrounds_16_xx=0D -.align 16=0D -.Lrounds_16_xx:=0D - movq 8(%rsp),%r13=0D - movq 112(%rsp),%r15=0D -=0D - movq %r13,%r12=0D - rorq $7,%r13=0D - addq %r14,%rax=0D - movq %r15,%r14=0D - rorq $42,%r15=0D -=0D - xorq %r12,%r13=0D - shrq $7,%r12=0D - rorq $1,%r13=0D - xorq %r14,%r15=0D - shrq $6,%r14=0D -=0D - rorq $19,%r15=0D - xorq %r13,%r12=0D - xorq %r14,%r15=0D - addq 72(%rsp),%r12=0D -=0D - addq 0(%rsp),%r12=0D - movq %r8,%r13=0D - addq %r15,%r12=0D - movq %rax,%r14=0D - rorq $23,%r13=0D - movq %r9,%r15=0D -=0D - xorq %r8,%r13=0D - rorq $5,%r14=0D - xorq %r10,%r15=0D -=0D - movq %r12,0(%rsp)=0D - xorq %rax,%r14=0D - andq %r8,%r15=0D -=0D - rorq $4,%r13=0D - addq %r11,%r12=0D - xorq %r10,%r15=0D -=0D - rorq $6,%r14=0D - xorq %r8,%r13=0D - addq %r15,%r12=0D -=0D - movq %rax,%r15=0D - addq (%rbp),%r12=0D - xorq %rax,%r14=0D -=0D - xorq %rbx,%r15=0D - rorq $14,%r13=0D - movq %rbx,%r11=0D -=0D - andq %r15,%rdi=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %rdi,%r11=0D - addq %r12,%rdx=0D - addq %r12,%r11=0D -=0D - leaq 8(%rbp),%rbp=0D - movq 16(%rsp),%r13=0D - movq 120(%rsp),%rdi=0D -=0D - movq %r13,%r12=0D - rorq $7,%r13=0D - addq %r14,%r11=0D - movq %rdi,%r14=0D - rorq $42,%rdi=0D -=0D - xorq %r12,%r13=0D - shrq $7,%r12=0D - rorq $1,%r13=0D - xorq %r14,%rdi=0D - shrq $6,%r14=0D -=0D - rorq $19,%rdi=0D - xorq %r13,%r12=0D - xorq %r14,%rdi=0D - addq 80(%rsp),%r12=0D -=0D - addq 8(%rsp),%r12=0D - movq %rdx,%r13=0D - addq %rdi,%r12=0D - movq %r11,%r14=0D - rorq $23,%r13=0D - movq %r8,%rdi=0D -=0D - xorq %rdx,%r13=0D - rorq $5,%r14=0D - xorq %r9,%rdi=0D -=0D - movq %r12,8(%rsp)=0D - xorq %r11,%r14=0D - andq %rdx,%rdi=0D -=0D - rorq $4,%r13=0D - addq %r10,%r12=0D - xorq %r9,%rdi=0D -=0D - rorq $6,%r14=0D - xorq %rdx,%r13=0D - addq %rdi,%r12=0D -=0D - movq %r11,%rdi=0D - addq (%rbp),%r12=0D - xorq %r11,%r14=0D -=0D - xorq %rax,%rdi=0D - rorq $14,%r13=0D - movq %rax,%r10=0D -=0D - andq %rdi,%r15=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %r15,%r10=0D - addq %r12,%rcx=0D - addq %r12,%r10=0D -=0D - leaq 24(%rbp),%rbp=0D - movq 24(%rsp),%r13=0D - movq 0(%rsp),%r15=0D -=0D - movq %r13,%r12=0D - rorq $7,%r13=0D - addq %r14,%r10=0D - movq %r15,%r14=0D - rorq $42,%r15=0D -=0D - xorq %r12,%r13=0D - shrq $7,%r12=0D - rorq $1,%r13=0D - xorq %r14,%r15=0D - shrq $6,%r14=0D -=0D - rorq $19,%r15=0D - xorq %r13,%r12=0D - xorq %r14,%r15=0D - addq 88(%rsp),%r12=0D -=0D - addq 16(%rsp),%r12=0D - movq %rcx,%r13=0D - addq %r15,%r12=0D - movq %r10,%r14=0D - rorq $23,%r13=0D - movq %rdx,%r15=0D -=0D - xorq %rcx,%r13=0D - rorq $5,%r14=0D - xorq %r8,%r15=0D -=0D - movq %r12,16(%rsp)=0D - xorq %r10,%r14=0D - andq %rcx,%r15=0D -=0D - rorq $4,%r13=0D - addq %r9,%r12=0D - xorq %r8,%r15=0D -=0D - rorq $6,%r14=0D - xorq %rcx,%r13=0D - addq %r15,%r12=0D -=0D - movq %r10,%r15=0D - addq (%rbp),%r12=0D - xorq %r10,%r14=0D -=0D - xorq %r11,%r15=0D - rorq $14,%r13=0D - movq %r11,%r9=0D -=0D - andq %r15,%rdi=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %rdi,%r9=0D - addq %r12,%rbx=0D - addq %r12,%r9=0D -=0D - leaq 8(%rbp),%rbp=0D - movq 32(%rsp),%r13=0D - movq 8(%rsp),%rdi=0D -=0D - movq %r13,%r12=0D - rorq $7,%r13=0D - addq %r14,%r9=0D - movq %rdi,%r14=0D - rorq $42,%rdi=0D -=0D - xorq %r12,%r13=0D - shrq $7,%r12=0D - rorq $1,%r13=0D - xorq %r14,%rdi=0D - shrq $6,%r14=0D -=0D - rorq $19,%rdi=0D - xorq %r13,%r12=0D - xorq %r14,%rdi=0D - addq 96(%rsp),%r12=0D -=0D - addq 24(%rsp),%r12=0D - movq %rbx,%r13=0D - addq %rdi,%r12=0D - movq %r9,%r14=0D - rorq $23,%r13=0D - movq %rcx,%rdi=0D -=0D - xorq %rbx,%r13=0D - rorq $5,%r14=0D - xorq %rdx,%rdi=0D -=0D - movq %r12,24(%rsp)=0D - xorq %r9,%r14=0D - andq %rbx,%rdi=0D -=0D - rorq $4,%r13=0D - addq %r8,%r12=0D - xorq %rdx,%rdi=0D -=0D - rorq $6,%r14=0D - xorq %rbx,%r13=0D - addq %rdi,%r12=0D -=0D - movq %r9,%rdi=0D - addq (%rbp),%r12=0D - xorq %r9,%r14=0D -=0D - xorq %r10,%rdi=0D - rorq $14,%r13=0D - movq %r10,%r8=0D -=0D - andq %rdi,%r15=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %r15,%r8=0D - addq %r12,%rax=0D - addq %r12,%r8=0D -=0D - leaq 24(%rbp),%rbp=0D - movq 40(%rsp),%r13=0D - movq 16(%rsp),%r15=0D -=0D - movq %r13,%r12=0D - rorq $7,%r13=0D - addq %r14,%r8=0D - movq %r15,%r14=0D - rorq $42,%r15=0D -=0D - xorq %r12,%r13=0D - shrq $7,%r12=0D - rorq $1,%r13=0D - xorq %r14,%r15=0D - shrq $6,%r14=0D -=0D - rorq $19,%r15=0D - xorq %r13,%r12=0D - xorq %r14,%r15=0D - addq 104(%rsp),%r12=0D -=0D - addq 32(%rsp),%r12=0D - movq %rax,%r13=0D - addq %r15,%r12=0D - movq %r8,%r14=0D - rorq $23,%r13=0D - movq %rbx,%r15=0D -=0D - xorq %rax,%r13=0D - rorq $5,%r14=0D - xorq %rcx,%r15=0D -=0D - movq %r12,32(%rsp)=0D - xorq %r8,%r14=0D - andq %rax,%r15=0D -=0D - rorq $4,%r13=0D - addq %rdx,%r12=0D - xorq %rcx,%r15=0D -=0D - rorq $6,%r14=0D - xorq %rax,%r13=0D - addq %r15,%r12=0D -=0D - movq %r8,%r15=0D - addq (%rbp),%r12=0D - xorq %r8,%r14=0D -=0D - xorq %r9,%r15=0D - rorq $14,%r13=0D - movq %r9,%rdx=0D -=0D - andq %r15,%rdi=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %rdi,%rdx=0D - addq %r12,%r11=0D - addq %r12,%rdx=0D -=0D - leaq 8(%rbp),%rbp=0D - movq 48(%rsp),%r13=0D - movq 24(%rsp),%rdi=0D -=0D - movq %r13,%r12=0D - rorq $7,%r13=0D - addq %r14,%rdx=0D - movq %rdi,%r14=0D - rorq $42,%rdi=0D -=0D - xorq %r12,%r13=0D - shrq $7,%r12=0D - rorq $1,%r13=0D - xorq %r14,%rdi=0D - shrq $6,%r14=0D -=0D - rorq $19,%rdi=0D - xorq %r13,%r12=0D - xorq %r14,%rdi=0D - addq 112(%rsp),%r12=0D -=0D - addq 40(%rsp),%r12=0D - movq %r11,%r13=0D - addq %rdi,%r12=0D - movq %rdx,%r14=0D - rorq $23,%r13=0D - movq %rax,%rdi=0D -=0D - xorq %r11,%r13=0D - rorq $5,%r14=0D - xorq %rbx,%rdi=0D -=0D - movq %r12,40(%rsp)=0D - xorq %rdx,%r14=0D - andq %r11,%rdi=0D -=0D - rorq $4,%r13=0D - addq %rcx,%r12=0D - xorq %rbx,%rdi=0D -=0D - rorq $6,%r14=0D - xorq %r11,%r13=0D - addq %rdi,%r12=0D -=0D - movq %rdx,%rdi=0D - addq (%rbp),%r12=0D - xorq %rdx,%r14=0D -=0D - xorq %r8,%rdi=0D - rorq $14,%r13=0D - movq %r8,%rcx=0D -=0D - andq %rdi,%r15=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %r15,%rcx=0D - addq %r12,%r10=0D - addq %r12,%rcx=0D -=0D - leaq 24(%rbp),%rbp=0D - movq 56(%rsp),%r13=0D - movq 32(%rsp),%r15=0D -=0D - movq %r13,%r12=0D - rorq $7,%r13=0D - addq %r14,%rcx=0D - movq %r15,%r14=0D - rorq $42,%r15=0D -=0D - xorq %r12,%r13=0D - shrq $7,%r12=0D - rorq $1,%r13=0D - xorq %r14,%r15=0D - shrq $6,%r14=0D -=0D - rorq $19,%r15=0D - xorq %r13,%r12=0D - xorq %r14,%r15=0D - addq 120(%rsp),%r12=0D -=0D - addq 48(%rsp),%r12=0D - movq %r10,%r13=0D - addq %r15,%r12=0D - movq %rcx,%r14=0D - rorq $23,%r13=0D - movq %r11,%r15=0D -=0D - xorq %r10,%r13=0D - rorq $5,%r14=0D - xorq %rax,%r15=0D -=0D - movq %r12,48(%rsp)=0D - xorq %rcx,%r14=0D - andq %r10,%r15=0D -=0D - rorq $4,%r13=0D - addq %rbx,%r12=0D - xorq %rax,%r15=0D -=0D - rorq $6,%r14=0D - xorq %r10,%r13=0D - addq %r15,%r12=0D -=0D - movq %rcx,%r15=0D - addq (%rbp),%r12=0D - xorq %rcx,%r14=0D -=0D - xorq %rdx,%r15=0D - rorq $14,%r13=0D - movq %rdx,%rbx=0D -=0D - andq %r15,%rdi=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %rdi,%rbx=0D - addq %r12,%r9=0D - addq %r12,%rbx=0D -=0D - leaq 8(%rbp),%rbp=0D - movq 64(%rsp),%r13=0D - movq 40(%rsp),%rdi=0D -=0D - movq %r13,%r12=0D - rorq $7,%r13=0D - addq %r14,%rbx=0D - movq %rdi,%r14=0D - rorq $42,%rdi=0D -=0D - xorq %r12,%r13=0D - shrq $7,%r12=0D - rorq $1,%r13=0D - xorq %r14,%rdi=0D - shrq $6,%r14=0D -=0D - rorq $19,%rdi=0D - xorq %r13,%r12=0D - xorq %r14,%rdi=0D - addq 0(%rsp),%r12=0D -=0D - addq 56(%rsp),%r12=0D - movq %r9,%r13=0D - addq %rdi,%r12=0D - movq %rbx,%r14=0D - rorq $23,%r13=0D - movq %r10,%rdi=0D -=0D - xorq %r9,%r13=0D - rorq $5,%r14=0D - xorq %r11,%rdi=0D -=0D - movq %r12,56(%rsp)=0D - xorq %rbx,%r14=0D - andq %r9,%rdi=0D -=0D - rorq $4,%r13=0D - addq %rax,%r12=0D - xorq %r11,%rdi=0D -=0D - rorq $6,%r14=0D - xorq %r9,%r13=0D - addq %rdi,%r12=0D -=0D - movq %rbx,%rdi=0D - addq (%rbp),%r12=0D - xorq %rbx,%r14=0D -=0D - xorq %rcx,%rdi=0D - rorq $14,%r13=0D - movq %rcx,%rax=0D -=0D - andq %rdi,%r15=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %r15,%rax=0D - addq %r12,%r8=0D - addq %r12,%rax=0D -=0D - leaq 24(%rbp),%rbp=0D - movq 72(%rsp),%r13=0D - movq 48(%rsp),%r15=0D -=0D - movq %r13,%r12=0D - rorq $7,%r13=0D - addq %r14,%rax=0D - movq %r15,%r14=0D - rorq $42,%r15=0D -=0D - xorq %r12,%r13=0D - shrq $7,%r12=0D - rorq $1,%r13=0D - xorq %r14,%r15=0D - shrq $6,%r14=0D -=0D - rorq $19,%r15=0D - xorq %r13,%r12=0D - xorq %r14,%r15=0D - addq 8(%rsp),%r12=0D -=0D - addq 64(%rsp),%r12=0D - movq %r8,%r13=0D - addq %r15,%r12=0D - movq %rax,%r14=0D - rorq $23,%r13=0D - movq %r9,%r15=0D -=0D - xorq %r8,%r13=0D - rorq $5,%r14=0D - xorq %r10,%r15=0D -=0D - movq %r12,64(%rsp)=0D - xorq %rax,%r14=0D - andq %r8,%r15=0D -=0D - rorq $4,%r13=0D - addq %r11,%r12=0D - xorq %r10,%r15=0D -=0D - rorq $6,%r14=0D - xorq %r8,%r13=0D - addq %r15,%r12=0D -=0D - movq %rax,%r15=0D - addq (%rbp),%r12=0D - xorq %rax,%r14=0D -=0D - xorq %rbx,%r15=0D - rorq $14,%r13=0D - movq %rbx,%r11=0D -=0D - andq %r15,%rdi=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %rdi,%r11=0D - addq %r12,%rdx=0D - addq %r12,%r11=0D -=0D - leaq 8(%rbp),%rbp=0D - movq 80(%rsp),%r13=0D - movq 56(%rsp),%rdi=0D -=0D - movq %r13,%r12=0D - rorq $7,%r13=0D - addq %r14,%r11=0D - movq %rdi,%r14=0D - rorq $42,%rdi=0D -=0D - xorq %r12,%r13=0D - shrq $7,%r12=0D - rorq $1,%r13=0D - xorq %r14,%rdi=0D - shrq $6,%r14=0D -=0D - rorq $19,%rdi=0D - xorq %r13,%r12=0D - xorq %r14,%rdi=0D - addq 16(%rsp),%r12=0D -=0D - addq 72(%rsp),%r12=0D - movq %rdx,%r13=0D - addq %rdi,%r12=0D - movq %r11,%r14=0D - rorq $23,%r13=0D - movq %r8,%rdi=0D -=0D - xorq %rdx,%r13=0D - rorq $5,%r14=0D - xorq %r9,%rdi=0D -=0D - movq %r12,72(%rsp)=0D - xorq %r11,%r14=0D - andq %rdx,%rdi=0D -=0D - rorq $4,%r13=0D - addq %r10,%r12=0D - xorq %r9,%rdi=0D -=0D - rorq $6,%r14=0D - xorq %rdx,%r13=0D - addq %rdi,%r12=0D -=0D - movq %r11,%rdi=0D - addq (%rbp),%r12=0D - xorq %r11,%r14=0D -=0D - xorq %rax,%rdi=0D - rorq $14,%r13=0D - movq %rax,%r10=0D -=0D - andq %rdi,%r15=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %r15,%r10=0D - addq %r12,%rcx=0D - addq %r12,%r10=0D -=0D - leaq 24(%rbp),%rbp=0D - movq 88(%rsp),%r13=0D - movq 64(%rsp),%r15=0D -=0D - movq %r13,%r12=0D - rorq $7,%r13=0D - addq %r14,%r10=0D - movq %r15,%r14=0D - rorq $42,%r15=0D -=0D - xorq %r12,%r13=0D - shrq $7,%r12=0D - rorq $1,%r13=0D - xorq %r14,%r15=0D - shrq $6,%r14=0D -=0D - rorq $19,%r15=0D - xorq %r13,%r12=0D - xorq %r14,%r15=0D - addq 24(%rsp),%r12=0D -=0D - addq 80(%rsp),%r12=0D - movq %rcx,%r13=0D - addq %r15,%r12=0D - movq %r10,%r14=0D - rorq $23,%r13=0D - movq %rdx,%r15=0D -=0D - xorq %rcx,%r13=0D - rorq $5,%r14=0D - xorq %r8,%r15=0D -=0D - movq %r12,80(%rsp)=0D - xorq %r10,%r14=0D - andq %rcx,%r15=0D -=0D - rorq $4,%r13=0D - addq %r9,%r12=0D - xorq %r8,%r15=0D -=0D - rorq $6,%r14=0D - xorq %rcx,%r13=0D - addq %r15,%r12=0D -=0D - movq %r10,%r15=0D - addq (%rbp),%r12=0D - xorq %r10,%r14=0D -=0D - xorq %r11,%r15=0D - rorq $14,%r13=0D - movq %r11,%r9=0D -=0D - andq %r15,%rdi=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %rdi,%r9=0D - addq %r12,%rbx=0D - addq %r12,%r9=0D -=0D - leaq 8(%rbp),%rbp=0D - movq 96(%rsp),%r13=0D - movq 72(%rsp),%rdi=0D -=0D - movq %r13,%r12=0D - rorq $7,%r13=0D - addq %r14,%r9=0D - movq %rdi,%r14=0D - rorq $42,%rdi=0D -=0D - xorq %r12,%r13=0D - shrq $7,%r12=0D - rorq $1,%r13=0D - xorq %r14,%rdi=0D - shrq $6,%r14=0D -=0D - rorq $19,%rdi=0D - xorq %r13,%r12=0D - xorq %r14,%rdi=0D - addq 32(%rsp),%r12=0D -=0D - addq 88(%rsp),%r12=0D - movq %rbx,%r13=0D - addq %rdi,%r12=0D - movq %r9,%r14=0D - rorq $23,%r13=0D - movq %rcx,%rdi=0D -=0D - xorq %rbx,%r13=0D - rorq $5,%r14=0D - xorq %rdx,%rdi=0D -=0D - movq %r12,88(%rsp)=0D - xorq %r9,%r14=0D - andq %rbx,%rdi=0D -=0D - rorq $4,%r13=0D - addq %r8,%r12=0D - xorq %rdx,%rdi=0D -=0D - rorq $6,%r14=0D - xorq %rbx,%r13=0D - addq %rdi,%r12=0D -=0D - movq %r9,%rdi=0D - addq (%rbp),%r12=0D - xorq %r9,%r14=0D -=0D - xorq %r10,%rdi=0D - rorq $14,%r13=0D - movq %r10,%r8=0D -=0D - andq %rdi,%r15=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %r15,%r8=0D - addq %r12,%rax=0D - addq %r12,%r8=0D -=0D - leaq 24(%rbp),%rbp=0D - movq 104(%rsp),%r13=0D - movq 80(%rsp),%r15=0D -=0D - movq %r13,%r12=0D - rorq $7,%r13=0D - addq %r14,%r8=0D - movq %r15,%r14=0D - rorq $42,%r15=0D -=0D - xorq %r12,%r13=0D - shrq $7,%r12=0D - rorq $1,%r13=0D - xorq %r14,%r15=0D - shrq $6,%r14=0D -=0D - rorq $19,%r15=0D - xorq %r13,%r12=0D - xorq %r14,%r15=0D - addq 40(%rsp),%r12=0D -=0D - addq 96(%rsp),%r12=0D - movq %rax,%r13=0D - addq %r15,%r12=0D - movq %r8,%r14=0D - rorq $23,%r13=0D - movq %rbx,%r15=0D -=0D - xorq %rax,%r13=0D - rorq $5,%r14=0D - xorq %rcx,%r15=0D -=0D - movq %r12,96(%rsp)=0D - xorq %r8,%r14=0D - andq %rax,%r15=0D -=0D - rorq $4,%r13=0D - addq %rdx,%r12=0D - xorq %rcx,%r15=0D -=0D - rorq $6,%r14=0D - xorq %rax,%r13=0D - addq %r15,%r12=0D -=0D - movq %r8,%r15=0D - addq (%rbp),%r12=0D - xorq %r8,%r14=0D -=0D - xorq %r9,%r15=0D - rorq $14,%r13=0D - movq %r9,%rdx=0D -=0D - andq %r15,%rdi=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %rdi,%rdx=0D - addq %r12,%r11=0D - addq %r12,%rdx=0D -=0D - leaq 8(%rbp),%rbp=0D - movq 112(%rsp),%r13=0D - movq 88(%rsp),%rdi=0D -=0D - movq %r13,%r12=0D - rorq $7,%r13=0D - addq %r14,%rdx=0D - movq %rdi,%r14=0D - rorq $42,%rdi=0D -=0D - xorq %r12,%r13=0D - shrq $7,%r12=0D - rorq $1,%r13=0D - xorq %r14,%rdi=0D - shrq $6,%r14=0D -=0D - rorq $19,%rdi=0D - xorq %r13,%r12=0D - xorq %r14,%rdi=0D - addq 48(%rsp),%r12=0D -=0D - addq 104(%rsp),%r12=0D - movq %r11,%r13=0D - addq %rdi,%r12=0D - movq %rdx,%r14=0D - rorq $23,%r13=0D - movq %rax,%rdi=0D -=0D - xorq %r11,%r13=0D - rorq $5,%r14=0D - xorq %rbx,%rdi=0D -=0D - movq %r12,104(%rsp)=0D - xorq %rdx,%r14=0D - andq %r11,%rdi=0D -=0D - rorq $4,%r13=0D - addq %rcx,%r12=0D - xorq %rbx,%rdi=0D -=0D - rorq $6,%r14=0D - xorq %r11,%r13=0D - addq %rdi,%r12=0D -=0D - movq %rdx,%rdi=0D - addq (%rbp),%r12=0D - xorq %rdx,%r14=0D -=0D - xorq %r8,%rdi=0D - rorq $14,%r13=0D - movq %r8,%rcx=0D -=0D - andq %rdi,%r15=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %r15,%rcx=0D - addq %r12,%r10=0D - addq %r12,%rcx=0D -=0D - leaq 24(%rbp),%rbp=0D - movq 120(%rsp),%r13=0D - movq 96(%rsp),%r15=0D -=0D - movq %r13,%r12=0D - rorq $7,%r13=0D - addq %r14,%rcx=0D - movq %r15,%r14=0D - rorq $42,%r15=0D -=0D - xorq %r12,%r13=0D - shrq $7,%r12=0D - rorq $1,%r13=0D - xorq %r14,%r15=0D - shrq $6,%r14=0D -=0D - rorq $19,%r15=0D - xorq %r13,%r12=0D - xorq %r14,%r15=0D - addq 56(%rsp),%r12=0D -=0D - addq 112(%rsp),%r12=0D - movq %r10,%r13=0D - addq %r15,%r12=0D - movq %rcx,%r14=0D - rorq $23,%r13=0D - movq %r11,%r15=0D -=0D - xorq %r10,%r13=0D - rorq $5,%r14=0D - xorq %rax,%r15=0D -=0D - movq %r12,112(%rsp)=0D - xorq %rcx,%r14=0D - andq %r10,%r15=0D -=0D - rorq $4,%r13=0D - addq %rbx,%r12=0D - xorq %rax,%r15=0D -=0D - rorq $6,%r14=0D - xorq %r10,%r13=0D - addq %r15,%r12=0D -=0D - movq %rcx,%r15=0D - addq (%rbp),%r12=0D - xorq %rcx,%r14=0D -=0D - xorq %rdx,%r15=0D - rorq $14,%r13=0D - movq %rdx,%rbx=0D -=0D - andq %r15,%rdi=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %rdi,%rbx=0D - addq %r12,%r9=0D - addq %r12,%rbx=0D -=0D - leaq 8(%rbp),%rbp=0D - movq 0(%rsp),%r13=0D - movq 104(%rsp),%rdi=0D -=0D - movq %r13,%r12=0D - rorq $7,%r13=0D - addq %r14,%rbx=0D - movq %rdi,%r14=0D - rorq $42,%rdi=0D -=0D - xorq %r12,%r13=0D - shrq $7,%r12=0D - rorq $1,%r13=0D - xorq %r14,%rdi=0D - shrq $6,%r14=0D -=0D - rorq $19,%rdi=0D - xorq %r13,%r12=0D - xorq %r14,%rdi=0D - addq 64(%rsp),%r12=0D -=0D - addq 120(%rsp),%r12=0D - movq %r9,%r13=0D - addq %rdi,%r12=0D - movq %rbx,%r14=0D - rorq $23,%r13=0D - movq %r10,%rdi=0D -=0D - xorq %r9,%r13=0D - rorq $5,%r14=0D - xorq %r11,%rdi=0D -=0D - movq %r12,120(%rsp)=0D - xorq %rbx,%r14=0D - andq %r9,%rdi=0D -=0D - rorq $4,%r13=0D - addq %rax,%r12=0D - xorq %r11,%rdi=0D -=0D - rorq $6,%r14=0D - xorq %r9,%r13=0D - addq %rdi,%r12=0D -=0D - movq %rbx,%rdi=0D - addq (%rbp),%r12=0D - xorq %rbx,%r14=0D -=0D - xorq %rcx,%rdi=0D - rorq $14,%r13=0D - movq %rcx,%rax=0D -=0D - andq %rdi,%r15=0D - rorq $28,%r14=0D - addq %r13,%r12=0D -=0D - xorq %r15,%rax=0D - addq %r12,%r8=0D - addq %r12,%rax=0D -=0D - leaq 24(%rbp),%rbp=0D - cmpb $0,7(%rbp)=0D - jnz .Lrounds_16_xx=0D -=0D - movq 128+0(%rsp),%rdi=0D - addq %r14,%rax=0D - leaq 128(%rsi),%rsi=0D -=0D - addq 0(%rdi),%rax=0D - addq 8(%rdi),%rbx=0D - addq 16(%rdi),%rcx=0D - addq 24(%rdi),%rdx=0D - addq 32(%rdi),%r8=0D - addq 40(%rdi),%r9=0D - addq 48(%rdi),%r10=0D - addq 56(%rdi),%r11=0D -=0D - cmpq 128+16(%rsp),%rsi=0D -=0D - movq %rax,0(%rdi)=0D - movq %rbx,8(%rdi)=0D - movq %rcx,16(%rdi)=0D - movq %rdx,24(%rdi)=0D - movq %r8,32(%rdi)=0D - movq %r9,40(%rdi)=0D - movq %r10,48(%rdi)=0D - movq %r11,56(%rdi)=0D - jb .Lloop=0D -=0D - movq 152(%rsp),%rsi=0D -.cfi_def_cfa %rsi,8=0D - movq -48(%rsi),%r15=0D -.cfi_restore %r15=0D - movq -40(%rsi),%r14=0D -.cfi_restore %r14=0D - movq -32(%rsi),%r13=0D -.cfi_restore %r13=0D - movq -24(%rsi),%r12=0D -.cfi_restore %r12=0D - movq -16(%rsi),%rbp=0D -.cfi_restore %rbp=0D - movq -8(%rsi),%rbx=0D -.cfi_restore %rbx=0D - leaq (%rsi),%rsp=0D -.cfi_def_cfa_register %rsp=0D -.Lepilogue:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size sha512_block_data_order,.-sha512_block_data_order=0D -.align 64=0D -.type K512,@object=0D -K512:=0D -.quad 0x428a2f98d728ae22,0x7137449123ef65cd=0D -.quad 0x428a2f98d728ae22,0x7137449123ef65cd=0D -.quad 0xb5c0fbcfec4d3b2f,0xe9b5dba58189dbbc=0D -.quad 0xb5c0fbcfec4d3b2f,0xe9b5dba58189dbbc=0D -.quad 0x3956c25bf348b538,0x59f111f1b605d019=0D -.quad 0x3956c25bf348b538,0x59f111f1b605d019=0D -.quad 0x923f82a4af194f9b,0xab1c5ed5da6d8118=0D -.quad 0x923f82a4af194f9b,0xab1c5ed5da6d8118=0D -.quad 0xd807aa98a3030242,0x12835b0145706fbe=0D -.quad 0xd807aa98a3030242,0x12835b0145706fbe=0D -.quad 0x243185be4ee4b28c,0x550c7dc3d5ffb4e2=0D -.quad 0x243185be4ee4b28c,0x550c7dc3d5ffb4e2=0D -.quad 0x72be5d74f27b896f,0x80deb1fe3b1696b1=0D -.quad 0x72be5d74f27b896f,0x80deb1fe3b1696b1=0D -.quad 0x9bdc06a725c71235,0xc19bf174cf692694=0D -.quad 0x9bdc06a725c71235,0xc19bf174cf692694=0D -.quad 0xe49b69c19ef14ad2,0xefbe4786384f25e3=0D -.quad 0xe49b69c19ef14ad2,0xefbe4786384f25e3=0D -.quad 0x0fc19dc68b8cd5b5,0x240ca1cc77ac9c65=0D -.quad 0x0fc19dc68b8cd5b5,0x240ca1cc77ac9c65=0D -.quad 0x2de92c6f592b0275,0x4a7484aa6ea6e483=0D -.quad 0x2de92c6f592b0275,0x4a7484aa6ea6e483=0D -.quad 0x5cb0a9dcbd41fbd4,0x76f988da831153b5=0D -.quad 0x5cb0a9dcbd41fbd4,0x76f988da831153b5=0D -.quad 0x983e5152ee66dfab,0xa831c66d2db43210=0D -.quad 0x983e5152ee66dfab,0xa831c66d2db43210=0D -.quad 0xb00327c898fb213f,0xbf597fc7beef0ee4=0D -.quad 0xb00327c898fb213f,0xbf597fc7beef0ee4=0D -.quad 0xc6e00bf33da88fc2,0xd5a79147930aa725=0D -.quad 0xc6e00bf33da88fc2,0xd5a79147930aa725=0D -.quad 0x06ca6351e003826f,0x142929670a0e6e70=0D -.quad 0x06ca6351e003826f,0x142929670a0e6e70=0D -.quad 0x27b70a8546d22ffc,0x2e1b21385c26c926=0D -.quad 0x27b70a8546d22ffc,0x2e1b21385c26c926=0D -.quad 0x4d2c6dfc5ac42aed,0x53380d139d95b3df=0D -.quad 0x4d2c6dfc5ac42aed,0x53380d139d95b3df=0D -.quad 0x650a73548baf63de,0x766a0abb3c77b2a8=0D -.quad 0x650a73548baf63de,0x766a0abb3c77b2a8=0D -.quad 0x81c2c92e47edaee6,0x92722c851482353b=0D -.quad 0x81c2c92e47edaee6,0x92722c851482353b=0D -.quad 0xa2bfe8a14cf10364,0xa81a664bbc423001=0D -.quad 0xa2bfe8a14cf10364,0xa81a664bbc423001=0D -.quad 0xc24b8b70d0f89791,0xc76c51a30654be30=0D -.quad 0xc24b8b70d0f89791,0xc76c51a30654be30=0D -.quad 0xd192e819d6ef5218,0xd69906245565a910=0D -.quad 0xd192e819d6ef5218,0xd69906245565a910=0D -.quad 0xf40e35855771202a,0x106aa07032bbd1b8=0D -.quad 0xf40e35855771202a,0x106aa07032bbd1b8=0D -.quad 0x19a4c116b8d2d0c8,0x1e376c085141ab53=0D -.quad 0x19a4c116b8d2d0c8,0x1e376c085141ab53=0D -.quad 0x2748774cdf8eeb99,0x34b0bcb5e19b48a8=0D -.quad 0x2748774cdf8eeb99,0x34b0bcb5e19b48a8=0D -.quad 0x391c0cb3c5c95a63,0x4ed8aa4ae3418acb=0D -.quad 0x391c0cb3c5c95a63,0x4ed8aa4ae3418acb=0D -.quad 0x5b9cca4f7763e373,0x682e6ff3d6b2b8a3=0D -.quad 0x5b9cca4f7763e373,0x682e6ff3d6b2b8a3=0D -.quad 0x748f82ee5defb2fc,0x78a5636f43172f60=0D -.quad 0x748f82ee5defb2fc,0x78a5636f43172f60=0D -.quad 0x84c87814a1f0ab72,0x8cc702081a6439ec=0D -.quad 0x84c87814a1f0ab72,0x8cc702081a6439ec=0D -.quad 0x90befffa23631e28,0xa4506cebde82bde9=0D -.quad 0x90befffa23631e28,0xa4506cebde82bde9=0D -.quad 0xbef9a3f7b2c67915,0xc67178f2e372532b=0D -.quad 0xbef9a3f7b2c67915,0xc67178f2e372532b=0D -.quad 0xca273eceea26619c,0xd186b8c721c0c207=0D -.quad 0xca273eceea26619c,0xd186b8c721c0c207=0D -.quad 0xeada7dd6cde0eb1e,0xf57d4f7fee6ed178=0D -.quad 0xeada7dd6cde0eb1e,0xf57d4f7fee6ed178=0D -.quad 0x06f067aa72176fba,0x0a637dc5a2c898a6=0D -.quad 0x06f067aa72176fba,0x0a637dc5a2c898a6=0D -.quad 0x113f9804bef90dae,0x1b710b35131c471b=0D -.quad 0x113f9804bef90dae,0x1b710b35131c471b=0D -.quad 0x28db77f523047d84,0x32caab7b40c72493=0D -.quad 0x28db77f523047d84,0x32caab7b40c72493=0D -.quad 0x3c9ebe0a15c9bebc,0x431d67c49c100d4c=0D -.quad 0x3c9ebe0a15c9bebc,0x431d67c49c100d4c=0D -.quad 0x4cc5d4becb3e42b6,0x597f299cfc657e2a=0D -.quad 0x4cc5d4becb3e42b6,0x597f299cfc657e2a=0D -.quad 0x5fcb6fab3ad6faec,0x6c44198c4a475817=0D -.quad 0x5fcb6fab3ad6faec,0x6c44198c4a475817=0D -=0D -.quad 0x0001020304050607,0x08090a0b0c0d0e0f=0D -.quad 0x0001020304050607,0x08090a0b0c0d0e0f=0D -.byte 83,72,65,53,49,50,32,98,108,111,99,107,32,116,114,97,110,115,102,1= 11,114,109,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89,80,84,79,71,= 65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,= 46,111,114,103,62,0=0D diff --git a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/x86_64cpuid.S b/Cry= ptoPkg/Library/OpensslLib/X64Gcc/crypto/x86_64cpuid.S deleted file mode 100644 index cac5f8f32c..0000000000 --- a/CryptoPkg/Library/OpensslLib/X64Gcc/crypto/x86_64cpuid.S +++ /dev/null @@ -1,491 +0,0 @@ -# WARNING: do not edit!=0D -# Generated from openssl/crypto/x86_64cpuid.pl=0D -#=0D -# Copyright 2005-2020 The OpenSSL Project Authors. All Rights Reserved.=0D -#=0D -# Licensed under the OpenSSL license (the "License"). You may not use=0D -# this file except in compliance with the License. You can obtain a copy= =0D -# in the file LICENSE in the source distribution or at=0D -# https://www.openssl.org/source/license.html=0D -=0D -=0D -.hidden OPENSSL_cpuid_setup=0D -.section .init=0D - call OPENSSL_cpuid_setup=0D -=0D -.hidden OPENSSL_ia32cap_P=0D -.comm OPENSSL_ia32cap_P,16,4=0D -=0D -.text=0D -=0D -.globl OPENSSL_atomic_add=0D -.type OPENSSL_atomic_add,@function=0D -.align 16=0D -OPENSSL_atomic_add:=0D -.cfi_startproc=0D - movl (%rdi),%eax=0D -.Lspin: leaq (%rsi,%rax,1),%r8=0D -.byte 0xf0=0D - cmpxchgl %r8d,(%rdi)=0D - jne .Lspin=0D - movl %r8d,%eax=0D -.byte 0x48,0x98=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size OPENSSL_atomic_add,.-OPENSSL_atomic_add=0D -=0D -.globl OPENSSL_rdtsc=0D -.type OPENSSL_rdtsc,@function=0D -.align 16=0D -OPENSSL_rdtsc:=0D -.cfi_startproc=0D - rdtsc=0D - shlq $32,%rdx=0D - orq %rdx,%rax=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size OPENSSL_rdtsc,.-OPENSSL_rdtsc=0D -=0D -.globl OPENSSL_ia32_cpuid=0D -.type OPENSSL_ia32_cpuid,@function=0D -.align 16=0D -OPENSSL_ia32_cpuid:=0D -.cfi_startproc=0D - movq %rbx,%r8=0D -.cfi_register %rbx,%r8=0D -=0D - xorl %eax,%eax=0D - movq %rax,8(%rdi)=0D - cpuid=0D - movl %eax,%r11d=0D -=0D - xorl %eax,%eax=0D - cmpl $0x756e6547,%ebx=0D - setne %al=0D - movl %eax,%r9d=0D - cmpl $0x49656e69,%edx=0D - setne %al=0D - orl %eax,%r9d=0D - cmpl $0x6c65746e,%ecx=0D - setne %al=0D - orl %eax,%r9d=0D - jz .Lintel=0D -=0D - cmpl $0x68747541,%ebx=0D - setne %al=0D - movl %eax,%r10d=0D - cmpl $0x69746E65,%edx=0D - setne %al=0D - orl %eax,%r10d=0D - cmpl $0x444D4163,%ecx=0D - setne %al=0D - orl %eax,%r10d=0D - jnz .Lintel=0D -=0D -=0D - movl $0x80000000,%eax=0D - cpuid=0D - cmpl $0x80000001,%eax=0D - jb .Lintel=0D - movl %eax,%r10d=0D - movl $0x80000001,%eax=0D - cpuid=0D - orl %ecx,%r9d=0D - andl $0x00000801,%r9d=0D -=0D - cmpl $0x80000008,%r10d=0D - jb .Lintel=0D -=0D - movl $0x80000008,%eax=0D - cpuid=0D - movzbq %cl,%r10=0D - incq %r10=0D -=0D - movl $1,%eax=0D - cpuid=0D - btl $28,%edx=0D - jnc .Lgeneric=0D - shrl $16,%ebx=0D - cmpb %r10b,%bl=0D - ja .Lgeneric=0D - andl $0xefffffff,%edx=0D - jmp .Lgeneric=0D -=0D -.Lintel:=0D - cmpl $4,%r11d=0D - movl $-1,%r10d=0D - jb .Lnocacheinfo=0D -=0D - movl $4,%eax=0D - movl $0,%ecx=0D - cpuid=0D - movl %eax,%r10d=0D - shrl $14,%r10d=0D - andl $0xfff,%r10d=0D -=0D -.Lnocacheinfo:=0D - movl $1,%eax=0D - cpuid=0D - movd %eax,%xmm0=0D - andl $0xbfefffff,%edx=0D - cmpl $0,%r9d=0D - jne .Lnotintel=0D - orl $0x40000000,%edx=0D - andb $15,%ah=0D - cmpb $15,%ah=0D - jne .LnotP4=0D - orl $0x00100000,%edx=0D -.LnotP4:=0D - cmpb $6,%ah=0D - jne .Lnotintel=0D - andl $0x0fff0ff0,%eax=0D - cmpl $0x00050670,%eax=0D - je .Lknights=0D - cmpl $0x00080650,%eax=0D - jne .Lnotintel=0D -.Lknights:=0D - andl $0xfbffffff,%ecx=0D -=0D -.Lnotintel:=0D - btl $28,%edx=0D - jnc .Lgeneric=0D - andl $0xefffffff,%edx=0D - cmpl $0,%r10d=0D - je .Lgeneric=0D -=0D - orl $0x10000000,%edx=0D - shrl $16,%ebx=0D - cmpb $1,%bl=0D - ja .Lgeneric=0D - andl $0xefffffff,%edx=0D -.Lgeneric:=0D - andl $0x00000800,%r9d=0D - andl $0xfffff7ff,%ecx=0D - orl %ecx,%r9d=0D -=0D - movl %edx,%r10d=0D -=0D - cmpl $7,%r11d=0D - jb .Lno_extended_info=0D - movl $7,%eax=0D - xorl %ecx,%ecx=0D - cpuid=0D - btl $26,%r9d=0D - jc .Lnotknights=0D - andl $0xfff7ffff,%ebx=0D -.Lnotknights:=0D - movd %xmm0,%eax=0D - andl $0x0fff0ff0,%eax=0D - cmpl $0x00050650,%eax=0D - jne .Lnotskylakex=0D - andl $0xfffeffff,%ebx=0D -=0D -.Lnotskylakex:=0D - movl %ebx,8(%rdi)=0D - movl %ecx,12(%rdi)=0D -.Lno_extended_info:=0D -=0D - btl $27,%r9d=0D - jnc .Lclear_avx=0D - xorl %ecx,%ecx=0D -.byte 0x0f,0x01,0xd0=0D - andl $0xe6,%eax=0D - cmpl $0xe6,%eax=0D - je .Ldone=0D - andl $0x3fdeffff,8(%rdi)=0D -=0D -=0D -=0D -=0D - andl $6,%eax=0D - cmpl $6,%eax=0D - je .Ldone=0D -.Lclear_avx:=0D - movl $0xefffe7ff,%eax=0D - andl %eax,%r9d=0D - movl $0x3fdeffdf,%eax=0D - andl %eax,8(%rdi)=0D -.Ldone:=0D - shlq $32,%r9=0D - movl %r10d,%eax=0D - movq %r8,%rbx=0D -.cfi_restore %rbx=0D - orq %r9,%rax=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size OPENSSL_ia32_cpuid,.-OPENSSL_ia32_cpuid=0D -=0D -.globl OPENSSL_cleanse=0D -.type OPENSSL_cleanse,@function=0D -.align 16=0D -OPENSSL_cleanse:=0D -.cfi_startproc=0D - xorq %rax,%rax=0D - cmpq $15,%rsi=0D - jae .Lot=0D - cmpq $0,%rsi=0D - je .Lret=0D -.Little:=0D - movb %al,(%rdi)=0D - subq $1,%rsi=0D - leaq 1(%rdi),%rdi=0D - jnz .Little=0D -.Lret:=0D - .byte 0xf3,0xc3=0D -.align 16=0D -.Lot:=0D - testq $7,%rdi=0D - jz .Laligned=0D - movb %al,(%rdi)=0D - leaq -1(%rsi),%rsi=0D - leaq 1(%rdi),%rdi=0D - jmp .Lot=0D -.Laligned:=0D - movq %rax,(%rdi)=0D - leaq -8(%rsi),%rsi=0D - testq $-8,%rsi=0D - leaq 8(%rdi),%rdi=0D - jnz .Laligned=0D - cmpq $0,%rsi=0D - jne .Little=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size OPENSSL_cleanse,.-OPENSSL_cleanse=0D -=0D -.globl CRYPTO_memcmp=0D -.type CRYPTO_memcmp,@function=0D -.align 16=0D -CRYPTO_memcmp:=0D -.cfi_startproc=0D - xorq %rax,%rax=0D - xorq %r10,%r10=0D - cmpq $0,%rdx=0D - je .Lno_data=0D - cmpq $16,%rdx=0D - jne .Loop_cmp=0D - movq (%rdi),%r10=0D - movq 8(%rdi),%r11=0D - movq $1,%rdx=0D - xorq (%rsi),%r10=0D - xorq 8(%rsi),%r11=0D - orq %r11,%r10=0D - cmovnzq %rdx,%rax=0D - .byte 0xf3,0xc3=0D -=0D -.align 16=0D -.Loop_cmp:=0D - movb (%rdi),%r10b=0D - leaq 1(%rdi),%rdi=0D - xorb (%rsi),%r10b=0D - leaq 1(%rsi),%rsi=0D - orb %r10b,%al=0D - decq %rdx=0D - jnz .Loop_cmp=0D - negq %rax=0D - shrq $63,%rax=0D -.Lno_data:=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size CRYPTO_memcmp,.-CRYPTO_memcmp=0D -.globl OPENSSL_wipe_cpu=0D -.type OPENSSL_wipe_cpu,@function=0D -.align 16=0D -OPENSSL_wipe_cpu:=0D -.cfi_startproc=0D - pxor %xmm0,%xmm0=0D - pxor %xmm1,%xmm1=0D - pxor %xmm2,%xmm2=0D - pxor %xmm3,%xmm3=0D - pxor %xmm4,%xmm4=0D - pxor %xmm5,%xmm5=0D - pxor %xmm6,%xmm6=0D - pxor %xmm7,%xmm7=0D - pxor %xmm8,%xmm8=0D - pxor %xmm9,%xmm9=0D - pxor %xmm10,%xmm10=0D - pxor %xmm11,%xmm11=0D - pxor %xmm12,%xmm12=0D - pxor %xmm13,%xmm13=0D - pxor %xmm14,%xmm14=0D - pxor %xmm15,%xmm15=0D - xorq %rcx,%rcx=0D - xorq %rdx,%rdx=0D - xorq %rsi,%rsi=0D - xorq %rdi,%rdi=0D - xorq %r8,%r8=0D - xorq %r9,%r9=0D - xorq %r10,%r10=0D - xorq %r11,%r11=0D - leaq 8(%rsp),%rax=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size OPENSSL_wipe_cpu,.-OPENSSL_wipe_cpu=0D -.globl OPENSSL_instrument_bus=0D -.type OPENSSL_instrument_bus,@function=0D -.align 16=0D -OPENSSL_instrument_bus:=0D -.cfi_startproc=0D - movq %rdi,%r10=0D - movq %rsi,%rcx=0D - movq %rsi,%r11=0D -=0D - rdtsc=0D - movl %eax,%r8d=0D - movl $0,%r9d=0D - clflush (%r10)=0D -.byte 0xf0=0D - addl %r9d,(%r10)=0D - jmp .Loop=0D -.align 16=0D -.Loop: rdtsc=0D - movl %eax,%edx=0D - subl %r8d,%eax=0D - movl %edx,%r8d=0D - movl %eax,%r9d=0D - clflush (%r10)=0D -.byte 0xf0=0D - addl %eax,(%r10)=0D - leaq 4(%r10),%r10=0D - subq $1,%rcx=0D - jnz .Loop=0D -=0D - movq %r11,%rax=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size OPENSSL_instrument_bus,.-OPENSSL_instrument_bus=0D -=0D -.globl OPENSSL_instrument_bus2=0D -.type OPENSSL_instrument_bus2,@function=0D -.align 16=0D -OPENSSL_instrument_bus2:=0D -.cfi_startproc=0D - movq %rdi,%r10=0D - movq %rsi,%rcx=0D - movq %rdx,%r11=0D - movq %rcx,8(%rsp)=0D -=0D - rdtsc=0D - movl %eax,%r8d=0D - movl $0,%r9d=0D -=0D - clflush (%r10)=0D -.byte 0xf0=0D - addl %r9d,(%r10)=0D -=0D - rdtsc=0D - movl %eax,%edx=0D - subl %r8d,%eax=0D - movl %edx,%r8d=0D - movl %eax,%r9d=0D -.Loop2:=0D - clflush (%r10)=0D -.byte 0xf0=0D - addl %eax,(%r10)=0D -=0D - subq $1,%r11=0D - jz .Ldone2=0D -=0D - rdtsc=0D - movl %eax,%edx=0D - subl %r8d,%eax=0D - movl %edx,%r8d=0D - cmpl %r9d,%eax=0D - movl %eax,%r9d=0D - movl $0,%edx=0D - setne %dl=0D - subq %rdx,%rcx=0D - leaq (%r10,%rdx,4),%r10=0D - jnz .Loop2=0D -=0D -.Ldone2:=0D - movq 8(%rsp),%rax=0D - subq %rcx,%rax=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size OPENSSL_instrument_bus2,.-OPENSSL_instrument_bus2=0D -.globl OPENSSL_ia32_rdrand_bytes=0D -.type OPENSSL_ia32_rdrand_bytes,@function=0D -.align 16=0D -OPENSSL_ia32_rdrand_bytes:=0D -.cfi_startproc=0D - xorq %rax,%rax=0D - cmpq $0,%rsi=0D - je .Ldone_rdrand_bytes=0D -=0D - movq $8,%r11=0D -.Loop_rdrand_bytes:=0D -.byte 73,15,199,242=0D - jc .Lbreak_rdrand_bytes=0D - decq %r11=0D - jnz .Loop_rdrand_bytes=0D - jmp .Ldone_rdrand_bytes=0D -=0D -.align 16=0D -.Lbreak_rdrand_bytes:=0D - cmpq $8,%rsi=0D - jb .Ltail_rdrand_bytes=0D - movq %r10,(%rdi)=0D - leaq 8(%rdi),%rdi=0D - addq $8,%rax=0D - subq $8,%rsi=0D - jz .Ldone_rdrand_bytes=0D - movq $8,%r11=0D - jmp .Loop_rdrand_bytes=0D -=0D -.align 16=0D -.Ltail_rdrand_bytes:=0D - movb %r10b,(%rdi)=0D - leaq 1(%rdi),%rdi=0D - incq %rax=0D - shrq $8,%r10=0D - decq %rsi=0D - jnz .Ltail_rdrand_bytes=0D -=0D -.Ldone_rdrand_bytes:=0D - xorq %r10,%r10=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size OPENSSL_ia32_rdrand_bytes,.-OPENSSL_ia32_rdrand_bytes=0D -.globl OPENSSL_ia32_rdseed_bytes=0D -.type OPENSSL_ia32_rdseed_bytes,@function=0D -.align 16=0D -OPENSSL_ia32_rdseed_bytes:=0D -.cfi_startproc=0D - xorq %rax,%rax=0D - cmpq $0,%rsi=0D - je .Ldone_rdseed_bytes=0D -=0D - movq $8,%r11=0D -.Loop_rdseed_bytes:=0D -.byte 73,15,199,250=0D - jc .Lbreak_rdseed_bytes=0D - decq %r11=0D - jnz .Loop_rdseed_bytes=0D - jmp .Ldone_rdseed_bytes=0D -=0D -.align 16=0D -.Lbreak_rdseed_bytes:=0D - cmpq $8,%rsi=0D - jb .Ltail_rdseed_bytes=0D - movq %r10,(%rdi)=0D - leaq 8(%rdi),%rdi=0D - addq $8,%rax=0D - subq $8,%rsi=0D - jz .Ldone_rdseed_bytes=0D - movq $8,%r11=0D - jmp .Loop_rdseed_bytes=0D -=0D -.align 16=0D -.Ltail_rdseed_bytes:=0D - movb %r10b,(%rdi)=0D - leaq 1(%rdi),%rdi=0D - incq %rax=0D - shrq $8,%r10=0D - decq %rsi=0D - jnz .Ltail_rdseed_bytes=0D -=0D -.Ldone_rdseed_bytes:=0D - xorq %r10,%r10=0D - .byte 0xf3,0xc3=0D -.cfi_endproc=0D -.size OPENSSL_ia32_rdseed_bytes,.-OPENSSL_ia32_rdseed_bytes=0D diff --git a/CryptoPkg/Library/OpensslLib/openssl b/CryptoPkg/Library/Opens= slLib/openssl index 129058165d..830bf8e1e4 160000 --- a/CryptoPkg/Library/OpensslLib/openssl +++ b/CryptoPkg/Library/OpensslLib/openssl @@ -1 +1 @@ -Subproject commit 129058165d195e43a0ad10111b0c2e29bdf65980 +Subproject commit 830bf8e1e4749ad65c51b6a1d0d769ae689404ba --=20 2.26.2.windows.1