LCOV - code coverage report
Current view: top level - third_party/aom/aom_dsp/x86 - fwd_dct32x32_impl_avx2.h (source / functions) Hit Total Coverage
Test: output.info Lines: 0 2462 0.0 %
Date: 2017-07-14 16:53:18 Functions: 0 5 0.0 %
Legend: Lines: hit not hit

          Line data    Source code
       1             : /*
       2             :  * Copyright (c) 2016, Alliance for Open Media. All rights reserved
       3             :  *
       4             :  * This source code is subject to the terms of the BSD 2 Clause License and
       5             :  * the Alliance for Open Media Patent License 1.0. If the BSD 2 Clause License
       6             :  * was not distributed with this source code in the LICENSE file, you can
       7             :  * obtain it at www.aomedia.org/license/software. If the Alliance for Open
       8             :  * Media Patent License 1.0 was not distributed with this source code in the
       9             :  * PATENTS file, you can obtain it at www.aomedia.org/license/patent.
      10             :  */
      11             : 
      12             : #include <immintrin.h>  // AVX2
      13             : 
      14             : #include "aom_dsp/txfm_common.h"
      15             : #include "aom_dsp/x86/txfm_common_intrin.h"
      16             : #include "aom_dsp/x86/txfm_common_avx2.h"
      17             : 
      18             : #if FDCT32x32_HIGH_PRECISION
      19           0 : static INLINE __m256i k_madd_epi32_avx2(__m256i a, __m256i b) {
      20             :   __m256i buf0, buf1;
      21           0 :   buf0 = _mm256_mul_epu32(a, b);
      22           0 :   a = _mm256_srli_epi64(a, 32);
      23           0 :   b = _mm256_srli_epi64(b, 32);
      24           0 :   buf1 = _mm256_mul_epu32(a, b);
      25           0 :   return _mm256_add_epi64(buf0, buf1);
      26             : }
      27             : 
      28           0 : static INLINE __m256i k_packs_epi64_avx2(__m256i a, __m256i b) {
      29           0 :   __m256i buf0 = _mm256_shuffle_epi32(a, _MM_SHUFFLE(0, 0, 2, 0));
      30           0 :   __m256i buf1 = _mm256_shuffle_epi32(b, _MM_SHUFFLE(0, 0, 2, 0));
      31           0 :   return _mm256_unpacklo_epi64(buf0, buf1);
      32             : }
      33             : #endif
      34             : 
      35             : #ifndef STORE_COEFF_FUNC
      36             : #define STORE_COEFF_FUNC
      37           0 : static void store_coeff(const __m256i *coeff, tran_low_t *curr,
      38             :                         tran_low_t *next) {
      39           0 :   __m128i u = _mm256_castsi256_si128(*coeff);
      40           0 :   storeu_output(&u, curr);
      41           0 :   u = _mm256_extractf128_si256(*coeff, 1);
      42           0 :   storeu_output(&u, next);
      43           0 : }
      44             : #endif
      45             : 
      46           0 : void FDCT32x32_2D_AVX2(const int16_t *input, tran_low_t *output_org,
      47             :                        int stride) {
      48             :   // Calculate pre-multiplied strides
      49           0 :   const int str1 = stride;
      50           0 :   const int str2 = 2 * stride;
      51           0 :   const int str3 = 2 * stride + str1;
      52             :   // We need an intermediate buffer between passes.
      53             :   DECLARE_ALIGNED(32, int16_t, intermediate[32 * 32]);
      54             :   // Constants
      55             :   //    When we use them, in one case, they are all the same. In all others
      56             :   //    it's a pair of them that we need to repeat four times. This is done
      57             :   //    by constructing the 32 bit constant corresponding to that pair.
      58           0 :   const __m256i k__cospi_p16_p16 = _mm256_set1_epi16((int16_t)cospi_16_64);
      59           0 :   const __m256i k__cospi_p16_m16 =
      60           0 :       pair256_set_epi16(+cospi_16_64, -cospi_16_64);
      61           0 :   const __m256i k__cospi_m08_p24 = pair256_set_epi16(-cospi_8_64, cospi_24_64);
      62           0 :   const __m256i k__cospi_m24_m08 = pair256_set_epi16(-cospi_24_64, -cospi_8_64);
      63           0 :   const __m256i k__cospi_p24_p08 = pair256_set_epi16(+cospi_24_64, cospi_8_64);
      64           0 :   const __m256i k__cospi_p12_p20 = pair256_set_epi16(+cospi_12_64, cospi_20_64);
      65           0 :   const __m256i k__cospi_m20_p12 = pair256_set_epi16(-cospi_20_64, cospi_12_64);
      66           0 :   const __m256i k__cospi_m04_p28 = pair256_set_epi16(-cospi_4_64, cospi_28_64);
      67           0 :   const __m256i k__cospi_p28_p04 = pair256_set_epi16(+cospi_28_64, cospi_4_64);
      68           0 :   const __m256i k__cospi_m28_m04 = pair256_set_epi16(-cospi_28_64, -cospi_4_64);
      69           0 :   const __m256i k__cospi_m12_m20 =
      70           0 :       pair256_set_epi16(-cospi_12_64, -cospi_20_64);
      71           0 :   const __m256i k__cospi_p30_p02 = pair256_set_epi16(+cospi_30_64, cospi_2_64);
      72           0 :   const __m256i k__cospi_p14_p18 = pair256_set_epi16(+cospi_14_64, cospi_18_64);
      73           0 :   const __m256i k__cospi_p22_p10 = pair256_set_epi16(+cospi_22_64, cospi_10_64);
      74           0 :   const __m256i k__cospi_p06_p26 = pair256_set_epi16(+cospi_6_64, cospi_26_64);
      75           0 :   const __m256i k__cospi_m26_p06 = pair256_set_epi16(-cospi_26_64, cospi_6_64);
      76           0 :   const __m256i k__cospi_m10_p22 = pair256_set_epi16(-cospi_10_64, cospi_22_64);
      77           0 :   const __m256i k__cospi_m18_p14 = pair256_set_epi16(-cospi_18_64, cospi_14_64);
      78           0 :   const __m256i k__cospi_m02_p30 = pair256_set_epi16(-cospi_2_64, cospi_30_64);
      79           0 :   const __m256i k__cospi_p31_p01 = pair256_set_epi16(+cospi_31_64, cospi_1_64);
      80           0 :   const __m256i k__cospi_p15_p17 = pair256_set_epi16(+cospi_15_64, cospi_17_64);
      81           0 :   const __m256i k__cospi_p23_p09 = pair256_set_epi16(+cospi_23_64, cospi_9_64);
      82           0 :   const __m256i k__cospi_p07_p25 = pair256_set_epi16(+cospi_7_64, cospi_25_64);
      83           0 :   const __m256i k__cospi_m25_p07 = pair256_set_epi16(-cospi_25_64, cospi_7_64);
      84           0 :   const __m256i k__cospi_m09_p23 = pair256_set_epi16(-cospi_9_64, cospi_23_64);
      85           0 :   const __m256i k__cospi_m17_p15 = pair256_set_epi16(-cospi_17_64, cospi_15_64);
      86           0 :   const __m256i k__cospi_m01_p31 = pair256_set_epi16(-cospi_1_64, cospi_31_64);
      87           0 :   const __m256i k__cospi_p27_p05 = pair256_set_epi16(+cospi_27_64, cospi_5_64);
      88           0 :   const __m256i k__cospi_p11_p21 = pair256_set_epi16(+cospi_11_64, cospi_21_64);
      89           0 :   const __m256i k__cospi_p19_p13 = pair256_set_epi16(+cospi_19_64, cospi_13_64);
      90           0 :   const __m256i k__cospi_p03_p29 = pair256_set_epi16(+cospi_3_64, cospi_29_64);
      91           0 :   const __m256i k__cospi_m29_p03 = pair256_set_epi16(-cospi_29_64, cospi_3_64);
      92           0 :   const __m256i k__cospi_m13_p19 = pair256_set_epi16(-cospi_13_64, cospi_19_64);
      93           0 :   const __m256i k__cospi_m21_p11 = pair256_set_epi16(-cospi_21_64, cospi_11_64);
      94           0 :   const __m256i k__cospi_m05_p27 = pair256_set_epi16(-cospi_5_64, cospi_27_64);
      95           0 :   const __m256i k__DCT_CONST_ROUNDING = _mm256_set1_epi32(DCT_CONST_ROUNDING);
      96           0 :   const __m256i kZero = _mm256_set1_epi16(0);
      97           0 :   const __m256i kOne = _mm256_set1_epi16(1);
      98             :   // Do the two transform/transpose passes
      99             :   int pass;
     100           0 :   for (pass = 0; pass < 2; ++pass) {
     101             :     // We process sixteen columns (transposed rows in second pass) at a time.
     102             :     int column_start;
     103           0 :     for (column_start = 0; column_start < 32; column_start += 16) {
     104             :       __m256i step1[32];
     105             :       __m256i step2[32];
     106             :       __m256i step3[32];
     107             :       __m256i out[32];
     108             :       // Stage 1
     109             :       // Note: even though all the loads below are aligned, using the aligned
     110             :       //       intrinsic make the code slightly slower.
     111           0 :       if (0 == pass) {
     112           0 :         const int16_t *in = &input[column_start];
     113             :         // step1[i] =  (in[ 0 * stride] + in[(32 -  1) * stride]) << 2;
     114             :         // Note: the next four blocks could be in a loop. That would help the
     115             :         //       instruction cache but is actually slower.
     116             :         {
     117           0 :           const int16_t *ina = in + 0 * str1;
     118           0 :           const int16_t *inb = in + 31 * str1;
     119           0 :           __m256i *step1a = &step1[0];
     120           0 :           __m256i *step1b = &step1[31];
     121           0 :           const __m256i ina0 = _mm256_loadu_si256((const __m256i *)(ina));
     122           0 :           const __m256i ina1 =
     123           0 :               _mm256_loadu_si256((const __m256i *)(ina + str1));
     124           0 :           const __m256i ina2 =
     125           0 :               _mm256_loadu_si256((const __m256i *)(ina + str2));
     126           0 :           const __m256i ina3 =
     127           0 :               _mm256_loadu_si256((const __m256i *)(ina + str3));
     128           0 :           const __m256i inb3 =
     129           0 :               _mm256_loadu_si256((const __m256i *)(inb - str3));
     130           0 :           const __m256i inb2 =
     131           0 :               _mm256_loadu_si256((const __m256i *)(inb - str2));
     132           0 :           const __m256i inb1 =
     133           0 :               _mm256_loadu_si256((const __m256i *)(inb - str1));
     134           0 :           const __m256i inb0 = _mm256_loadu_si256((const __m256i *)(inb));
     135           0 :           step1a[0] = _mm256_add_epi16(ina0, inb0);
     136           0 :           step1a[1] = _mm256_add_epi16(ina1, inb1);
     137           0 :           step1a[2] = _mm256_add_epi16(ina2, inb2);
     138           0 :           step1a[3] = _mm256_add_epi16(ina3, inb3);
     139           0 :           step1b[-3] = _mm256_sub_epi16(ina3, inb3);
     140           0 :           step1b[-2] = _mm256_sub_epi16(ina2, inb2);
     141           0 :           step1b[-1] = _mm256_sub_epi16(ina1, inb1);
     142           0 :           step1b[-0] = _mm256_sub_epi16(ina0, inb0);
     143           0 :           step1a[0] = _mm256_slli_epi16(step1a[0], 2);
     144           0 :           step1a[1] = _mm256_slli_epi16(step1a[1], 2);
     145           0 :           step1a[2] = _mm256_slli_epi16(step1a[2], 2);
     146           0 :           step1a[3] = _mm256_slli_epi16(step1a[3], 2);
     147           0 :           step1b[-3] = _mm256_slli_epi16(step1b[-3], 2);
     148           0 :           step1b[-2] = _mm256_slli_epi16(step1b[-2], 2);
     149           0 :           step1b[-1] = _mm256_slli_epi16(step1b[-1], 2);
     150           0 :           step1b[-0] = _mm256_slli_epi16(step1b[-0], 2);
     151             :         }
     152             :         {
     153           0 :           const int16_t *ina = in + 4 * str1;
     154           0 :           const int16_t *inb = in + 27 * str1;
     155           0 :           __m256i *step1a = &step1[4];
     156           0 :           __m256i *step1b = &step1[27];
     157           0 :           const __m256i ina0 = _mm256_loadu_si256((const __m256i *)(ina));
     158           0 :           const __m256i ina1 =
     159           0 :               _mm256_loadu_si256((const __m256i *)(ina + str1));
     160           0 :           const __m256i ina2 =
     161           0 :               _mm256_loadu_si256((const __m256i *)(ina + str2));
     162           0 :           const __m256i ina3 =
     163           0 :               _mm256_loadu_si256((const __m256i *)(ina + str3));
     164           0 :           const __m256i inb3 =
     165           0 :               _mm256_loadu_si256((const __m256i *)(inb - str3));
     166           0 :           const __m256i inb2 =
     167           0 :               _mm256_loadu_si256((const __m256i *)(inb - str2));
     168           0 :           const __m256i inb1 =
     169           0 :               _mm256_loadu_si256((const __m256i *)(inb - str1));
     170           0 :           const __m256i inb0 = _mm256_loadu_si256((const __m256i *)(inb));
     171           0 :           step1a[0] = _mm256_add_epi16(ina0, inb0);
     172           0 :           step1a[1] = _mm256_add_epi16(ina1, inb1);
     173           0 :           step1a[2] = _mm256_add_epi16(ina2, inb2);
     174           0 :           step1a[3] = _mm256_add_epi16(ina3, inb3);
     175           0 :           step1b[-3] = _mm256_sub_epi16(ina3, inb3);
     176           0 :           step1b[-2] = _mm256_sub_epi16(ina2, inb2);
     177           0 :           step1b[-1] = _mm256_sub_epi16(ina1, inb1);
     178           0 :           step1b[-0] = _mm256_sub_epi16(ina0, inb0);
     179           0 :           step1a[0] = _mm256_slli_epi16(step1a[0], 2);
     180           0 :           step1a[1] = _mm256_slli_epi16(step1a[1], 2);
     181           0 :           step1a[2] = _mm256_slli_epi16(step1a[2], 2);
     182           0 :           step1a[3] = _mm256_slli_epi16(step1a[3], 2);
     183           0 :           step1b[-3] = _mm256_slli_epi16(step1b[-3], 2);
     184           0 :           step1b[-2] = _mm256_slli_epi16(step1b[-2], 2);
     185           0 :           step1b[-1] = _mm256_slli_epi16(step1b[-1], 2);
     186           0 :           step1b[-0] = _mm256_slli_epi16(step1b[-0], 2);
     187             :         }
     188             :         {
     189           0 :           const int16_t *ina = in + 8 * str1;
     190           0 :           const int16_t *inb = in + 23 * str1;
     191           0 :           __m256i *step1a = &step1[8];
     192           0 :           __m256i *step1b = &step1[23];
     193           0 :           const __m256i ina0 = _mm256_loadu_si256((const __m256i *)(ina));
     194           0 :           const __m256i ina1 =
     195           0 :               _mm256_loadu_si256((const __m256i *)(ina + str1));
     196           0 :           const __m256i ina2 =
     197           0 :               _mm256_loadu_si256((const __m256i *)(ina + str2));
     198           0 :           const __m256i ina3 =
     199           0 :               _mm256_loadu_si256((const __m256i *)(ina + str3));
     200           0 :           const __m256i inb3 =
     201           0 :               _mm256_loadu_si256((const __m256i *)(inb - str3));
     202           0 :           const __m256i inb2 =
     203           0 :               _mm256_loadu_si256((const __m256i *)(inb - str2));
     204           0 :           const __m256i inb1 =
     205           0 :               _mm256_loadu_si256((const __m256i *)(inb - str1));
     206           0 :           const __m256i inb0 = _mm256_loadu_si256((const __m256i *)(inb));
     207           0 :           step1a[0] = _mm256_add_epi16(ina0, inb0);
     208           0 :           step1a[1] = _mm256_add_epi16(ina1, inb1);
     209           0 :           step1a[2] = _mm256_add_epi16(ina2, inb2);
     210           0 :           step1a[3] = _mm256_add_epi16(ina3, inb3);
     211           0 :           step1b[-3] = _mm256_sub_epi16(ina3, inb3);
     212           0 :           step1b[-2] = _mm256_sub_epi16(ina2, inb2);
     213           0 :           step1b[-1] = _mm256_sub_epi16(ina1, inb1);
     214           0 :           step1b[-0] = _mm256_sub_epi16(ina0, inb0);
     215           0 :           step1a[0] = _mm256_slli_epi16(step1a[0], 2);
     216           0 :           step1a[1] = _mm256_slli_epi16(step1a[1], 2);
     217           0 :           step1a[2] = _mm256_slli_epi16(step1a[2], 2);
     218           0 :           step1a[3] = _mm256_slli_epi16(step1a[3], 2);
     219           0 :           step1b[-3] = _mm256_slli_epi16(step1b[-3], 2);
     220           0 :           step1b[-2] = _mm256_slli_epi16(step1b[-2], 2);
     221           0 :           step1b[-1] = _mm256_slli_epi16(step1b[-1], 2);
     222           0 :           step1b[-0] = _mm256_slli_epi16(step1b[-0], 2);
     223             :         }
     224             :         {
     225           0 :           const int16_t *ina = in + 12 * str1;
     226           0 :           const int16_t *inb = in + 19 * str1;
     227           0 :           __m256i *step1a = &step1[12];
     228           0 :           __m256i *step1b = &step1[19];
     229           0 :           const __m256i ina0 = _mm256_loadu_si256((const __m256i *)(ina));
     230           0 :           const __m256i ina1 =
     231           0 :               _mm256_loadu_si256((const __m256i *)(ina + str1));
     232           0 :           const __m256i ina2 =
     233           0 :               _mm256_loadu_si256((const __m256i *)(ina + str2));
     234           0 :           const __m256i ina3 =
     235           0 :               _mm256_loadu_si256((const __m256i *)(ina + str3));
     236           0 :           const __m256i inb3 =
     237           0 :               _mm256_loadu_si256((const __m256i *)(inb - str3));
     238           0 :           const __m256i inb2 =
     239           0 :               _mm256_loadu_si256((const __m256i *)(inb - str2));
     240           0 :           const __m256i inb1 =
     241           0 :               _mm256_loadu_si256((const __m256i *)(inb - str1));
     242           0 :           const __m256i inb0 = _mm256_loadu_si256((const __m256i *)(inb));
     243           0 :           step1a[0] = _mm256_add_epi16(ina0, inb0);
     244           0 :           step1a[1] = _mm256_add_epi16(ina1, inb1);
     245           0 :           step1a[2] = _mm256_add_epi16(ina2, inb2);
     246           0 :           step1a[3] = _mm256_add_epi16(ina3, inb3);
     247           0 :           step1b[-3] = _mm256_sub_epi16(ina3, inb3);
     248           0 :           step1b[-2] = _mm256_sub_epi16(ina2, inb2);
     249           0 :           step1b[-1] = _mm256_sub_epi16(ina1, inb1);
     250           0 :           step1b[-0] = _mm256_sub_epi16(ina0, inb0);
     251           0 :           step1a[0] = _mm256_slli_epi16(step1a[0], 2);
     252           0 :           step1a[1] = _mm256_slli_epi16(step1a[1], 2);
     253           0 :           step1a[2] = _mm256_slli_epi16(step1a[2], 2);
     254           0 :           step1a[3] = _mm256_slli_epi16(step1a[3], 2);
     255           0 :           step1b[-3] = _mm256_slli_epi16(step1b[-3], 2);
     256           0 :           step1b[-2] = _mm256_slli_epi16(step1b[-2], 2);
     257           0 :           step1b[-1] = _mm256_slli_epi16(step1b[-1], 2);
     258           0 :           step1b[-0] = _mm256_slli_epi16(step1b[-0], 2);
     259             :         }
     260             :       } else {
     261           0 :         int16_t *in = &intermediate[column_start];
     262             :         // step1[i] =  in[ 0 * 32] + in[(32 -  1) * 32];
     263             :         // Note: using the same approach as above to have common offset is
     264             :         //       counter-productive as all offsets can be calculated at compile
     265             :         //       time.
     266             :         // Note: the next four blocks could be in a loop. That would help the
     267             :         //       instruction cache but is actually slower.
     268             :         {
     269           0 :           __m256i in00 = _mm256_loadu_si256((const __m256i *)(in + 0 * 32));
     270           0 :           __m256i in01 = _mm256_loadu_si256((const __m256i *)(in + 1 * 32));
     271           0 :           __m256i in02 = _mm256_loadu_si256((const __m256i *)(in + 2 * 32));
     272           0 :           __m256i in03 = _mm256_loadu_si256((const __m256i *)(in + 3 * 32));
     273           0 :           __m256i in28 = _mm256_loadu_si256((const __m256i *)(in + 28 * 32));
     274           0 :           __m256i in29 = _mm256_loadu_si256((const __m256i *)(in + 29 * 32));
     275           0 :           __m256i in30 = _mm256_loadu_si256((const __m256i *)(in + 30 * 32));
     276           0 :           __m256i in31 = _mm256_loadu_si256((const __m256i *)(in + 31 * 32));
     277           0 :           step1[0] = _mm256_add_epi16(in00, in31);
     278           0 :           step1[1] = _mm256_add_epi16(in01, in30);
     279           0 :           step1[2] = _mm256_add_epi16(in02, in29);
     280           0 :           step1[3] = _mm256_add_epi16(in03, in28);
     281           0 :           step1[28] = _mm256_sub_epi16(in03, in28);
     282           0 :           step1[29] = _mm256_sub_epi16(in02, in29);
     283           0 :           step1[30] = _mm256_sub_epi16(in01, in30);
     284           0 :           step1[31] = _mm256_sub_epi16(in00, in31);
     285             :         }
     286             :         {
     287           0 :           __m256i in04 = _mm256_loadu_si256((const __m256i *)(in + 4 * 32));
     288           0 :           __m256i in05 = _mm256_loadu_si256((const __m256i *)(in + 5 * 32));
     289           0 :           __m256i in06 = _mm256_loadu_si256((const __m256i *)(in + 6 * 32));
     290           0 :           __m256i in07 = _mm256_loadu_si256((const __m256i *)(in + 7 * 32));
     291           0 :           __m256i in24 = _mm256_loadu_si256((const __m256i *)(in + 24 * 32));
     292           0 :           __m256i in25 = _mm256_loadu_si256((const __m256i *)(in + 25 * 32));
     293           0 :           __m256i in26 = _mm256_loadu_si256((const __m256i *)(in + 26 * 32));
     294           0 :           __m256i in27 = _mm256_loadu_si256((const __m256i *)(in + 27 * 32));
     295           0 :           step1[4] = _mm256_add_epi16(in04, in27);
     296           0 :           step1[5] = _mm256_add_epi16(in05, in26);
     297           0 :           step1[6] = _mm256_add_epi16(in06, in25);
     298           0 :           step1[7] = _mm256_add_epi16(in07, in24);
     299           0 :           step1[24] = _mm256_sub_epi16(in07, in24);
     300           0 :           step1[25] = _mm256_sub_epi16(in06, in25);
     301           0 :           step1[26] = _mm256_sub_epi16(in05, in26);
     302           0 :           step1[27] = _mm256_sub_epi16(in04, in27);
     303             :         }
     304             :         {
     305           0 :           __m256i in08 = _mm256_loadu_si256((const __m256i *)(in + 8 * 32));
     306           0 :           __m256i in09 = _mm256_loadu_si256((const __m256i *)(in + 9 * 32));
     307           0 :           __m256i in10 = _mm256_loadu_si256((const __m256i *)(in + 10 * 32));
     308           0 :           __m256i in11 = _mm256_loadu_si256((const __m256i *)(in + 11 * 32));
     309           0 :           __m256i in20 = _mm256_loadu_si256((const __m256i *)(in + 20 * 32));
     310           0 :           __m256i in21 = _mm256_loadu_si256((const __m256i *)(in + 21 * 32));
     311           0 :           __m256i in22 = _mm256_loadu_si256((const __m256i *)(in + 22 * 32));
     312           0 :           __m256i in23 = _mm256_loadu_si256((const __m256i *)(in + 23 * 32));
     313           0 :           step1[8] = _mm256_add_epi16(in08, in23);
     314           0 :           step1[9] = _mm256_add_epi16(in09, in22);
     315           0 :           step1[10] = _mm256_add_epi16(in10, in21);
     316           0 :           step1[11] = _mm256_add_epi16(in11, in20);
     317           0 :           step1[20] = _mm256_sub_epi16(in11, in20);
     318           0 :           step1[21] = _mm256_sub_epi16(in10, in21);
     319           0 :           step1[22] = _mm256_sub_epi16(in09, in22);
     320           0 :           step1[23] = _mm256_sub_epi16(in08, in23);
     321             :         }
     322             :         {
     323           0 :           __m256i in12 = _mm256_loadu_si256((const __m256i *)(in + 12 * 32));
     324           0 :           __m256i in13 = _mm256_loadu_si256((const __m256i *)(in + 13 * 32));
     325           0 :           __m256i in14 = _mm256_loadu_si256((const __m256i *)(in + 14 * 32));
     326           0 :           __m256i in15 = _mm256_loadu_si256((const __m256i *)(in + 15 * 32));
     327           0 :           __m256i in16 = _mm256_loadu_si256((const __m256i *)(in + 16 * 32));
     328           0 :           __m256i in17 = _mm256_loadu_si256((const __m256i *)(in + 17 * 32));
     329           0 :           __m256i in18 = _mm256_loadu_si256((const __m256i *)(in + 18 * 32));
     330           0 :           __m256i in19 = _mm256_loadu_si256((const __m256i *)(in + 19 * 32));
     331           0 :           step1[12] = _mm256_add_epi16(in12, in19);
     332           0 :           step1[13] = _mm256_add_epi16(in13, in18);
     333           0 :           step1[14] = _mm256_add_epi16(in14, in17);
     334           0 :           step1[15] = _mm256_add_epi16(in15, in16);
     335           0 :           step1[16] = _mm256_sub_epi16(in15, in16);
     336           0 :           step1[17] = _mm256_sub_epi16(in14, in17);
     337           0 :           step1[18] = _mm256_sub_epi16(in13, in18);
     338           0 :           step1[19] = _mm256_sub_epi16(in12, in19);
     339             :         }
     340             :       }
     341             :       // Stage 2
     342             :       {
     343           0 :         step2[0] = _mm256_add_epi16(step1[0], step1[15]);
     344           0 :         step2[1] = _mm256_add_epi16(step1[1], step1[14]);
     345           0 :         step2[2] = _mm256_add_epi16(step1[2], step1[13]);
     346           0 :         step2[3] = _mm256_add_epi16(step1[3], step1[12]);
     347           0 :         step2[4] = _mm256_add_epi16(step1[4], step1[11]);
     348           0 :         step2[5] = _mm256_add_epi16(step1[5], step1[10]);
     349           0 :         step2[6] = _mm256_add_epi16(step1[6], step1[9]);
     350           0 :         step2[7] = _mm256_add_epi16(step1[7], step1[8]);
     351           0 :         step2[8] = _mm256_sub_epi16(step1[7], step1[8]);
     352           0 :         step2[9] = _mm256_sub_epi16(step1[6], step1[9]);
     353           0 :         step2[10] = _mm256_sub_epi16(step1[5], step1[10]);
     354           0 :         step2[11] = _mm256_sub_epi16(step1[4], step1[11]);
     355           0 :         step2[12] = _mm256_sub_epi16(step1[3], step1[12]);
     356           0 :         step2[13] = _mm256_sub_epi16(step1[2], step1[13]);
     357           0 :         step2[14] = _mm256_sub_epi16(step1[1], step1[14]);
     358           0 :         step2[15] = _mm256_sub_epi16(step1[0], step1[15]);
     359             :       }
     360             :       {
     361           0 :         const __m256i s2_20_0 = _mm256_unpacklo_epi16(step1[27], step1[20]);
     362           0 :         const __m256i s2_20_1 = _mm256_unpackhi_epi16(step1[27], step1[20]);
     363           0 :         const __m256i s2_21_0 = _mm256_unpacklo_epi16(step1[26], step1[21]);
     364           0 :         const __m256i s2_21_1 = _mm256_unpackhi_epi16(step1[26], step1[21]);
     365           0 :         const __m256i s2_22_0 = _mm256_unpacklo_epi16(step1[25], step1[22]);
     366           0 :         const __m256i s2_22_1 = _mm256_unpackhi_epi16(step1[25], step1[22]);
     367           0 :         const __m256i s2_23_0 = _mm256_unpacklo_epi16(step1[24], step1[23]);
     368           0 :         const __m256i s2_23_1 = _mm256_unpackhi_epi16(step1[24], step1[23]);
     369           0 :         const __m256i s2_20_2 = _mm256_madd_epi16(s2_20_0, k__cospi_p16_m16);
     370           0 :         const __m256i s2_20_3 = _mm256_madd_epi16(s2_20_1, k__cospi_p16_m16);
     371           0 :         const __m256i s2_21_2 = _mm256_madd_epi16(s2_21_0, k__cospi_p16_m16);
     372           0 :         const __m256i s2_21_3 = _mm256_madd_epi16(s2_21_1, k__cospi_p16_m16);
     373           0 :         const __m256i s2_22_2 = _mm256_madd_epi16(s2_22_0, k__cospi_p16_m16);
     374           0 :         const __m256i s2_22_3 = _mm256_madd_epi16(s2_22_1, k__cospi_p16_m16);
     375           0 :         const __m256i s2_23_2 = _mm256_madd_epi16(s2_23_0, k__cospi_p16_m16);
     376           0 :         const __m256i s2_23_3 = _mm256_madd_epi16(s2_23_1, k__cospi_p16_m16);
     377           0 :         const __m256i s2_24_2 = _mm256_madd_epi16(s2_23_0, k__cospi_p16_p16);
     378           0 :         const __m256i s2_24_3 = _mm256_madd_epi16(s2_23_1, k__cospi_p16_p16);
     379           0 :         const __m256i s2_25_2 = _mm256_madd_epi16(s2_22_0, k__cospi_p16_p16);
     380           0 :         const __m256i s2_25_3 = _mm256_madd_epi16(s2_22_1, k__cospi_p16_p16);
     381           0 :         const __m256i s2_26_2 = _mm256_madd_epi16(s2_21_0, k__cospi_p16_p16);
     382           0 :         const __m256i s2_26_3 = _mm256_madd_epi16(s2_21_1, k__cospi_p16_p16);
     383           0 :         const __m256i s2_27_2 = _mm256_madd_epi16(s2_20_0, k__cospi_p16_p16);
     384           0 :         const __m256i s2_27_3 = _mm256_madd_epi16(s2_20_1, k__cospi_p16_p16);
     385             :         // dct_const_round_shift
     386           0 :         const __m256i s2_20_4 =
     387             :             _mm256_add_epi32(s2_20_2, k__DCT_CONST_ROUNDING);
     388           0 :         const __m256i s2_20_5 =
     389             :             _mm256_add_epi32(s2_20_3, k__DCT_CONST_ROUNDING);
     390           0 :         const __m256i s2_21_4 =
     391             :             _mm256_add_epi32(s2_21_2, k__DCT_CONST_ROUNDING);
     392           0 :         const __m256i s2_21_5 =
     393             :             _mm256_add_epi32(s2_21_3, k__DCT_CONST_ROUNDING);
     394           0 :         const __m256i s2_22_4 =
     395             :             _mm256_add_epi32(s2_22_2, k__DCT_CONST_ROUNDING);
     396           0 :         const __m256i s2_22_5 =
     397             :             _mm256_add_epi32(s2_22_3, k__DCT_CONST_ROUNDING);
     398           0 :         const __m256i s2_23_4 =
     399             :             _mm256_add_epi32(s2_23_2, k__DCT_CONST_ROUNDING);
     400           0 :         const __m256i s2_23_5 =
     401             :             _mm256_add_epi32(s2_23_3, k__DCT_CONST_ROUNDING);
     402           0 :         const __m256i s2_24_4 =
     403             :             _mm256_add_epi32(s2_24_2, k__DCT_CONST_ROUNDING);
     404           0 :         const __m256i s2_24_5 =
     405             :             _mm256_add_epi32(s2_24_3, k__DCT_CONST_ROUNDING);
     406           0 :         const __m256i s2_25_4 =
     407             :             _mm256_add_epi32(s2_25_2, k__DCT_CONST_ROUNDING);
     408           0 :         const __m256i s2_25_5 =
     409             :             _mm256_add_epi32(s2_25_3, k__DCT_CONST_ROUNDING);
     410           0 :         const __m256i s2_26_4 =
     411             :             _mm256_add_epi32(s2_26_2, k__DCT_CONST_ROUNDING);
     412           0 :         const __m256i s2_26_5 =
     413             :             _mm256_add_epi32(s2_26_3, k__DCT_CONST_ROUNDING);
     414           0 :         const __m256i s2_27_4 =
     415             :             _mm256_add_epi32(s2_27_2, k__DCT_CONST_ROUNDING);
     416           0 :         const __m256i s2_27_5 =
     417             :             _mm256_add_epi32(s2_27_3, k__DCT_CONST_ROUNDING);
     418           0 :         const __m256i s2_20_6 = _mm256_srai_epi32(s2_20_4, DCT_CONST_BITS);
     419           0 :         const __m256i s2_20_7 = _mm256_srai_epi32(s2_20_5, DCT_CONST_BITS);
     420           0 :         const __m256i s2_21_6 = _mm256_srai_epi32(s2_21_4, DCT_CONST_BITS);
     421           0 :         const __m256i s2_21_7 = _mm256_srai_epi32(s2_21_5, DCT_CONST_BITS);
     422           0 :         const __m256i s2_22_6 = _mm256_srai_epi32(s2_22_4, DCT_CONST_BITS);
     423           0 :         const __m256i s2_22_7 = _mm256_srai_epi32(s2_22_5, DCT_CONST_BITS);
     424           0 :         const __m256i s2_23_6 = _mm256_srai_epi32(s2_23_4, DCT_CONST_BITS);
     425           0 :         const __m256i s2_23_7 = _mm256_srai_epi32(s2_23_5, DCT_CONST_BITS);
     426           0 :         const __m256i s2_24_6 = _mm256_srai_epi32(s2_24_4, DCT_CONST_BITS);
     427           0 :         const __m256i s2_24_7 = _mm256_srai_epi32(s2_24_5, DCT_CONST_BITS);
     428           0 :         const __m256i s2_25_6 = _mm256_srai_epi32(s2_25_4, DCT_CONST_BITS);
     429           0 :         const __m256i s2_25_7 = _mm256_srai_epi32(s2_25_5, DCT_CONST_BITS);
     430           0 :         const __m256i s2_26_6 = _mm256_srai_epi32(s2_26_4, DCT_CONST_BITS);
     431           0 :         const __m256i s2_26_7 = _mm256_srai_epi32(s2_26_5, DCT_CONST_BITS);
     432           0 :         const __m256i s2_27_6 = _mm256_srai_epi32(s2_27_4, DCT_CONST_BITS);
     433           0 :         const __m256i s2_27_7 = _mm256_srai_epi32(s2_27_5, DCT_CONST_BITS);
     434             :         // Combine
     435           0 :         step2[20] = _mm256_packs_epi32(s2_20_6, s2_20_7);
     436           0 :         step2[21] = _mm256_packs_epi32(s2_21_6, s2_21_7);
     437           0 :         step2[22] = _mm256_packs_epi32(s2_22_6, s2_22_7);
     438           0 :         step2[23] = _mm256_packs_epi32(s2_23_6, s2_23_7);
     439           0 :         step2[24] = _mm256_packs_epi32(s2_24_6, s2_24_7);
     440           0 :         step2[25] = _mm256_packs_epi32(s2_25_6, s2_25_7);
     441           0 :         step2[26] = _mm256_packs_epi32(s2_26_6, s2_26_7);
     442           0 :         step2[27] = _mm256_packs_epi32(s2_27_6, s2_27_7);
     443             :       }
     444             : 
     445             : #if !FDCT32x32_HIGH_PRECISION
     446             :       // dump the magnitude by half, hence the intermediate values are within
     447             :       // the range of 16 bits.
     448           0 :       if (1 == pass) {
     449           0 :         __m256i s3_00_0 = _mm256_cmpgt_epi16(kZero, step2[0]);
     450           0 :         __m256i s3_01_0 = _mm256_cmpgt_epi16(kZero, step2[1]);
     451           0 :         __m256i s3_02_0 = _mm256_cmpgt_epi16(kZero, step2[2]);
     452           0 :         __m256i s3_03_0 = _mm256_cmpgt_epi16(kZero, step2[3]);
     453           0 :         __m256i s3_04_0 = _mm256_cmpgt_epi16(kZero, step2[4]);
     454           0 :         __m256i s3_05_0 = _mm256_cmpgt_epi16(kZero, step2[5]);
     455           0 :         __m256i s3_06_0 = _mm256_cmpgt_epi16(kZero, step2[6]);
     456           0 :         __m256i s3_07_0 = _mm256_cmpgt_epi16(kZero, step2[7]);
     457           0 :         __m256i s2_08_0 = _mm256_cmpgt_epi16(kZero, step2[8]);
     458           0 :         __m256i s2_09_0 = _mm256_cmpgt_epi16(kZero, step2[9]);
     459           0 :         __m256i s3_10_0 = _mm256_cmpgt_epi16(kZero, step2[10]);
     460           0 :         __m256i s3_11_0 = _mm256_cmpgt_epi16(kZero, step2[11]);
     461           0 :         __m256i s3_12_0 = _mm256_cmpgt_epi16(kZero, step2[12]);
     462           0 :         __m256i s3_13_0 = _mm256_cmpgt_epi16(kZero, step2[13]);
     463           0 :         __m256i s2_14_0 = _mm256_cmpgt_epi16(kZero, step2[14]);
     464           0 :         __m256i s2_15_0 = _mm256_cmpgt_epi16(kZero, step2[15]);
     465           0 :         __m256i s3_16_0 = _mm256_cmpgt_epi16(kZero, step1[16]);
     466           0 :         __m256i s3_17_0 = _mm256_cmpgt_epi16(kZero, step1[17]);
     467           0 :         __m256i s3_18_0 = _mm256_cmpgt_epi16(kZero, step1[18]);
     468           0 :         __m256i s3_19_0 = _mm256_cmpgt_epi16(kZero, step1[19]);
     469           0 :         __m256i s3_20_0 = _mm256_cmpgt_epi16(kZero, step2[20]);
     470           0 :         __m256i s3_21_0 = _mm256_cmpgt_epi16(kZero, step2[21]);
     471           0 :         __m256i s3_22_0 = _mm256_cmpgt_epi16(kZero, step2[22]);
     472           0 :         __m256i s3_23_0 = _mm256_cmpgt_epi16(kZero, step2[23]);
     473           0 :         __m256i s3_24_0 = _mm256_cmpgt_epi16(kZero, step2[24]);
     474           0 :         __m256i s3_25_0 = _mm256_cmpgt_epi16(kZero, step2[25]);
     475           0 :         __m256i s3_26_0 = _mm256_cmpgt_epi16(kZero, step2[26]);
     476           0 :         __m256i s3_27_0 = _mm256_cmpgt_epi16(kZero, step2[27]);
     477           0 :         __m256i s3_28_0 = _mm256_cmpgt_epi16(kZero, step1[28]);
     478           0 :         __m256i s3_29_0 = _mm256_cmpgt_epi16(kZero, step1[29]);
     479           0 :         __m256i s3_30_0 = _mm256_cmpgt_epi16(kZero, step1[30]);
     480           0 :         __m256i s3_31_0 = _mm256_cmpgt_epi16(kZero, step1[31]);
     481             : 
     482           0 :         step2[0] = _mm256_sub_epi16(step2[0], s3_00_0);
     483           0 :         step2[1] = _mm256_sub_epi16(step2[1], s3_01_0);
     484           0 :         step2[2] = _mm256_sub_epi16(step2[2], s3_02_0);
     485           0 :         step2[3] = _mm256_sub_epi16(step2[3], s3_03_0);
     486           0 :         step2[4] = _mm256_sub_epi16(step2[4], s3_04_0);
     487           0 :         step2[5] = _mm256_sub_epi16(step2[5], s3_05_0);
     488           0 :         step2[6] = _mm256_sub_epi16(step2[6], s3_06_0);
     489           0 :         step2[7] = _mm256_sub_epi16(step2[7], s3_07_0);
     490           0 :         step2[8] = _mm256_sub_epi16(step2[8], s2_08_0);
     491           0 :         step2[9] = _mm256_sub_epi16(step2[9], s2_09_0);
     492           0 :         step2[10] = _mm256_sub_epi16(step2[10], s3_10_0);
     493           0 :         step2[11] = _mm256_sub_epi16(step2[11], s3_11_0);
     494           0 :         step2[12] = _mm256_sub_epi16(step2[12], s3_12_0);
     495           0 :         step2[13] = _mm256_sub_epi16(step2[13], s3_13_0);
     496           0 :         step2[14] = _mm256_sub_epi16(step2[14], s2_14_0);
     497           0 :         step2[15] = _mm256_sub_epi16(step2[15], s2_15_0);
     498           0 :         step1[16] = _mm256_sub_epi16(step1[16], s3_16_0);
     499           0 :         step1[17] = _mm256_sub_epi16(step1[17], s3_17_0);
     500           0 :         step1[18] = _mm256_sub_epi16(step1[18], s3_18_0);
     501           0 :         step1[19] = _mm256_sub_epi16(step1[19], s3_19_0);
     502           0 :         step2[20] = _mm256_sub_epi16(step2[20], s3_20_0);
     503           0 :         step2[21] = _mm256_sub_epi16(step2[21], s3_21_0);
     504           0 :         step2[22] = _mm256_sub_epi16(step2[22], s3_22_0);
     505           0 :         step2[23] = _mm256_sub_epi16(step2[23], s3_23_0);
     506           0 :         step2[24] = _mm256_sub_epi16(step2[24], s3_24_0);
     507           0 :         step2[25] = _mm256_sub_epi16(step2[25], s3_25_0);
     508           0 :         step2[26] = _mm256_sub_epi16(step2[26], s3_26_0);
     509           0 :         step2[27] = _mm256_sub_epi16(step2[27], s3_27_0);
     510           0 :         step1[28] = _mm256_sub_epi16(step1[28], s3_28_0);
     511           0 :         step1[29] = _mm256_sub_epi16(step1[29], s3_29_0);
     512           0 :         step1[30] = _mm256_sub_epi16(step1[30], s3_30_0);
     513           0 :         step1[31] = _mm256_sub_epi16(step1[31], s3_31_0);
     514             : 
     515           0 :         step2[0] = _mm256_add_epi16(step2[0], kOne);
     516           0 :         step2[1] = _mm256_add_epi16(step2[1], kOne);
     517           0 :         step2[2] = _mm256_add_epi16(step2[2], kOne);
     518           0 :         step2[3] = _mm256_add_epi16(step2[3], kOne);
     519           0 :         step2[4] = _mm256_add_epi16(step2[4], kOne);
     520           0 :         step2[5] = _mm256_add_epi16(step2[5], kOne);
     521           0 :         step2[6] = _mm256_add_epi16(step2[6], kOne);
     522           0 :         step2[7] = _mm256_add_epi16(step2[7], kOne);
     523           0 :         step2[8] = _mm256_add_epi16(step2[8], kOne);
     524           0 :         step2[9] = _mm256_add_epi16(step2[9], kOne);
     525           0 :         step2[10] = _mm256_add_epi16(step2[10], kOne);
     526           0 :         step2[11] = _mm256_add_epi16(step2[11], kOne);
     527           0 :         step2[12] = _mm256_add_epi16(step2[12], kOne);
     528           0 :         step2[13] = _mm256_add_epi16(step2[13], kOne);
     529           0 :         step2[14] = _mm256_add_epi16(step2[14], kOne);
     530           0 :         step2[15] = _mm256_add_epi16(step2[15], kOne);
     531           0 :         step1[16] = _mm256_add_epi16(step1[16], kOne);
     532           0 :         step1[17] = _mm256_add_epi16(step1[17], kOne);
     533           0 :         step1[18] = _mm256_add_epi16(step1[18], kOne);
     534           0 :         step1[19] = _mm256_add_epi16(step1[19], kOne);
     535           0 :         step2[20] = _mm256_add_epi16(step2[20], kOne);
     536           0 :         step2[21] = _mm256_add_epi16(step2[21], kOne);
     537           0 :         step2[22] = _mm256_add_epi16(step2[22], kOne);
     538           0 :         step2[23] = _mm256_add_epi16(step2[23], kOne);
     539           0 :         step2[24] = _mm256_add_epi16(step2[24], kOne);
     540           0 :         step2[25] = _mm256_add_epi16(step2[25], kOne);
     541           0 :         step2[26] = _mm256_add_epi16(step2[26], kOne);
     542           0 :         step2[27] = _mm256_add_epi16(step2[27], kOne);
     543           0 :         step1[28] = _mm256_add_epi16(step1[28], kOne);
     544           0 :         step1[29] = _mm256_add_epi16(step1[29], kOne);
     545           0 :         step1[30] = _mm256_add_epi16(step1[30], kOne);
     546           0 :         step1[31] = _mm256_add_epi16(step1[31], kOne);
     547             : 
     548           0 :         step2[0] = _mm256_srai_epi16(step2[0], 2);
     549           0 :         step2[1] = _mm256_srai_epi16(step2[1], 2);
     550           0 :         step2[2] = _mm256_srai_epi16(step2[2], 2);
     551           0 :         step2[3] = _mm256_srai_epi16(step2[3], 2);
     552           0 :         step2[4] = _mm256_srai_epi16(step2[4], 2);
     553           0 :         step2[5] = _mm256_srai_epi16(step2[5], 2);
     554           0 :         step2[6] = _mm256_srai_epi16(step2[6], 2);
     555           0 :         step2[7] = _mm256_srai_epi16(step2[7], 2);
     556           0 :         step2[8] = _mm256_srai_epi16(step2[8], 2);
     557           0 :         step2[9] = _mm256_srai_epi16(step2[9], 2);
     558           0 :         step2[10] = _mm256_srai_epi16(step2[10], 2);
     559           0 :         step2[11] = _mm256_srai_epi16(step2[11], 2);
     560           0 :         step2[12] = _mm256_srai_epi16(step2[12], 2);
     561           0 :         step2[13] = _mm256_srai_epi16(step2[13], 2);
     562           0 :         step2[14] = _mm256_srai_epi16(step2[14], 2);
     563           0 :         step2[15] = _mm256_srai_epi16(step2[15], 2);
     564           0 :         step1[16] = _mm256_srai_epi16(step1[16], 2);
     565           0 :         step1[17] = _mm256_srai_epi16(step1[17], 2);
     566           0 :         step1[18] = _mm256_srai_epi16(step1[18], 2);
     567           0 :         step1[19] = _mm256_srai_epi16(step1[19], 2);
     568           0 :         step2[20] = _mm256_srai_epi16(step2[20], 2);
     569           0 :         step2[21] = _mm256_srai_epi16(step2[21], 2);
     570           0 :         step2[22] = _mm256_srai_epi16(step2[22], 2);
     571           0 :         step2[23] = _mm256_srai_epi16(step2[23], 2);
     572           0 :         step2[24] = _mm256_srai_epi16(step2[24], 2);
     573           0 :         step2[25] = _mm256_srai_epi16(step2[25], 2);
     574           0 :         step2[26] = _mm256_srai_epi16(step2[26], 2);
     575           0 :         step2[27] = _mm256_srai_epi16(step2[27], 2);
     576           0 :         step1[28] = _mm256_srai_epi16(step1[28], 2);
     577           0 :         step1[29] = _mm256_srai_epi16(step1[29], 2);
     578           0 :         step1[30] = _mm256_srai_epi16(step1[30], 2);
     579           0 :         step1[31] = _mm256_srai_epi16(step1[31], 2);
     580             :       }
     581             : #endif
     582             : 
     583             : #if FDCT32x32_HIGH_PRECISION
     584           0 :       if (pass == 0) {
     585             : #endif
     586             :         // Stage 3
     587             :         {
     588           0 :           step3[0] = _mm256_add_epi16(step2[(8 - 1)], step2[0]);
     589           0 :           step3[1] = _mm256_add_epi16(step2[(8 - 2)], step2[1]);
     590           0 :           step3[2] = _mm256_add_epi16(step2[(8 - 3)], step2[2]);
     591           0 :           step3[3] = _mm256_add_epi16(step2[(8 - 4)], step2[3]);
     592           0 :           step3[4] = _mm256_sub_epi16(step2[(8 - 5)], step2[4]);
     593           0 :           step3[5] = _mm256_sub_epi16(step2[(8 - 6)], step2[5]);
     594           0 :           step3[6] = _mm256_sub_epi16(step2[(8 - 7)], step2[6]);
     595           0 :           step3[7] = _mm256_sub_epi16(step2[(8 - 8)], step2[7]);
     596             :         }
     597             :         {
     598           0 :           const __m256i s3_10_0 = _mm256_unpacklo_epi16(step2[13], step2[10]);
     599           0 :           const __m256i s3_10_1 = _mm256_unpackhi_epi16(step2[13], step2[10]);
     600           0 :           const __m256i s3_11_0 = _mm256_unpacklo_epi16(step2[12], step2[11]);
     601           0 :           const __m256i s3_11_1 = _mm256_unpackhi_epi16(step2[12], step2[11]);
     602           0 :           const __m256i s3_10_2 = _mm256_madd_epi16(s3_10_0, k__cospi_p16_m16);
     603           0 :           const __m256i s3_10_3 = _mm256_madd_epi16(s3_10_1, k__cospi_p16_m16);
     604           0 :           const __m256i s3_11_2 = _mm256_madd_epi16(s3_11_0, k__cospi_p16_m16);
     605           0 :           const __m256i s3_11_3 = _mm256_madd_epi16(s3_11_1, k__cospi_p16_m16);
     606           0 :           const __m256i s3_12_2 = _mm256_madd_epi16(s3_11_0, k__cospi_p16_p16);
     607           0 :           const __m256i s3_12_3 = _mm256_madd_epi16(s3_11_1, k__cospi_p16_p16);
     608           0 :           const __m256i s3_13_2 = _mm256_madd_epi16(s3_10_0, k__cospi_p16_p16);
     609           0 :           const __m256i s3_13_3 = _mm256_madd_epi16(s3_10_1, k__cospi_p16_p16);
     610             :           // dct_const_round_shift
     611           0 :           const __m256i s3_10_4 =
     612             :               _mm256_add_epi32(s3_10_2, k__DCT_CONST_ROUNDING);
     613           0 :           const __m256i s3_10_5 =
     614             :               _mm256_add_epi32(s3_10_3, k__DCT_CONST_ROUNDING);
     615           0 :           const __m256i s3_11_4 =
     616             :               _mm256_add_epi32(s3_11_2, k__DCT_CONST_ROUNDING);
     617           0 :           const __m256i s3_11_5 =
     618             :               _mm256_add_epi32(s3_11_3, k__DCT_CONST_ROUNDING);
     619           0 :           const __m256i s3_12_4 =
     620             :               _mm256_add_epi32(s3_12_2, k__DCT_CONST_ROUNDING);
     621           0 :           const __m256i s3_12_5 =
     622             :               _mm256_add_epi32(s3_12_3, k__DCT_CONST_ROUNDING);
     623           0 :           const __m256i s3_13_4 =
     624             :               _mm256_add_epi32(s3_13_2, k__DCT_CONST_ROUNDING);
     625           0 :           const __m256i s3_13_5 =
     626             :               _mm256_add_epi32(s3_13_3, k__DCT_CONST_ROUNDING);
     627           0 :           const __m256i s3_10_6 = _mm256_srai_epi32(s3_10_4, DCT_CONST_BITS);
     628           0 :           const __m256i s3_10_7 = _mm256_srai_epi32(s3_10_5, DCT_CONST_BITS);
     629           0 :           const __m256i s3_11_6 = _mm256_srai_epi32(s3_11_4, DCT_CONST_BITS);
     630           0 :           const __m256i s3_11_7 = _mm256_srai_epi32(s3_11_5, DCT_CONST_BITS);
     631           0 :           const __m256i s3_12_6 = _mm256_srai_epi32(s3_12_4, DCT_CONST_BITS);
     632           0 :           const __m256i s3_12_7 = _mm256_srai_epi32(s3_12_5, DCT_CONST_BITS);
     633           0 :           const __m256i s3_13_6 = _mm256_srai_epi32(s3_13_4, DCT_CONST_BITS);
     634           0 :           const __m256i s3_13_7 = _mm256_srai_epi32(s3_13_5, DCT_CONST_BITS);
     635             :           // Combine
     636           0 :           step3[10] = _mm256_packs_epi32(s3_10_6, s3_10_7);
     637           0 :           step3[11] = _mm256_packs_epi32(s3_11_6, s3_11_7);
     638           0 :           step3[12] = _mm256_packs_epi32(s3_12_6, s3_12_7);
     639           0 :           step3[13] = _mm256_packs_epi32(s3_13_6, s3_13_7);
     640             :         }
     641             :         {
     642           0 :           step3[16] = _mm256_add_epi16(step2[23], step1[16]);
     643           0 :           step3[17] = _mm256_add_epi16(step2[22], step1[17]);
     644           0 :           step3[18] = _mm256_add_epi16(step2[21], step1[18]);
     645           0 :           step3[19] = _mm256_add_epi16(step2[20], step1[19]);
     646           0 :           step3[20] = _mm256_sub_epi16(step1[19], step2[20]);
     647           0 :           step3[21] = _mm256_sub_epi16(step1[18], step2[21]);
     648           0 :           step3[22] = _mm256_sub_epi16(step1[17], step2[22]);
     649           0 :           step3[23] = _mm256_sub_epi16(step1[16], step2[23]);
     650           0 :           step3[24] = _mm256_sub_epi16(step1[31], step2[24]);
     651           0 :           step3[25] = _mm256_sub_epi16(step1[30], step2[25]);
     652           0 :           step3[26] = _mm256_sub_epi16(step1[29], step2[26]);
     653           0 :           step3[27] = _mm256_sub_epi16(step1[28], step2[27]);
     654           0 :           step3[28] = _mm256_add_epi16(step2[27], step1[28]);
     655           0 :           step3[29] = _mm256_add_epi16(step2[26], step1[29]);
     656           0 :           step3[30] = _mm256_add_epi16(step2[25], step1[30]);
     657           0 :           step3[31] = _mm256_add_epi16(step2[24], step1[31]);
     658             :         }
     659             : 
     660             :         // Stage 4
     661             :         {
     662           0 :           step1[0] = _mm256_add_epi16(step3[3], step3[0]);
     663           0 :           step1[1] = _mm256_add_epi16(step3[2], step3[1]);
     664           0 :           step1[2] = _mm256_sub_epi16(step3[1], step3[2]);
     665           0 :           step1[3] = _mm256_sub_epi16(step3[0], step3[3]);
     666           0 :           step1[8] = _mm256_add_epi16(step3[11], step2[8]);
     667           0 :           step1[9] = _mm256_add_epi16(step3[10], step2[9]);
     668           0 :           step1[10] = _mm256_sub_epi16(step2[9], step3[10]);
     669           0 :           step1[11] = _mm256_sub_epi16(step2[8], step3[11]);
     670           0 :           step1[12] = _mm256_sub_epi16(step2[15], step3[12]);
     671           0 :           step1[13] = _mm256_sub_epi16(step2[14], step3[13]);
     672           0 :           step1[14] = _mm256_add_epi16(step3[13], step2[14]);
     673           0 :           step1[15] = _mm256_add_epi16(step3[12], step2[15]);
     674             :         }
     675             :         {
     676           0 :           const __m256i s1_05_0 = _mm256_unpacklo_epi16(step3[6], step3[5]);
     677           0 :           const __m256i s1_05_1 = _mm256_unpackhi_epi16(step3[6], step3[5]);
     678           0 :           const __m256i s1_05_2 = _mm256_madd_epi16(s1_05_0, k__cospi_p16_m16);
     679           0 :           const __m256i s1_05_3 = _mm256_madd_epi16(s1_05_1, k__cospi_p16_m16);
     680           0 :           const __m256i s1_06_2 = _mm256_madd_epi16(s1_05_0, k__cospi_p16_p16);
     681           0 :           const __m256i s1_06_3 = _mm256_madd_epi16(s1_05_1, k__cospi_p16_p16);
     682             :           // dct_const_round_shift
     683           0 :           const __m256i s1_05_4 =
     684             :               _mm256_add_epi32(s1_05_2, k__DCT_CONST_ROUNDING);
     685           0 :           const __m256i s1_05_5 =
     686             :               _mm256_add_epi32(s1_05_3, k__DCT_CONST_ROUNDING);
     687           0 :           const __m256i s1_06_4 =
     688             :               _mm256_add_epi32(s1_06_2, k__DCT_CONST_ROUNDING);
     689           0 :           const __m256i s1_06_5 =
     690             :               _mm256_add_epi32(s1_06_3, k__DCT_CONST_ROUNDING);
     691           0 :           const __m256i s1_05_6 = _mm256_srai_epi32(s1_05_4, DCT_CONST_BITS);
     692           0 :           const __m256i s1_05_7 = _mm256_srai_epi32(s1_05_5, DCT_CONST_BITS);
     693           0 :           const __m256i s1_06_6 = _mm256_srai_epi32(s1_06_4, DCT_CONST_BITS);
     694           0 :           const __m256i s1_06_7 = _mm256_srai_epi32(s1_06_5, DCT_CONST_BITS);
     695             :           // Combine
     696           0 :           step1[5] = _mm256_packs_epi32(s1_05_6, s1_05_7);
     697           0 :           step1[6] = _mm256_packs_epi32(s1_06_6, s1_06_7);
     698             :         }
     699             :         {
     700           0 :           const __m256i s1_18_0 = _mm256_unpacklo_epi16(step3[18], step3[29]);
     701           0 :           const __m256i s1_18_1 = _mm256_unpackhi_epi16(step3[18], step3[29]);
     702           0 :           const __m256i s1_19_0 = _mm256_unpacklo_epi16(step3[19], step3[28]);
     703           0 :           const __m256i s1_19_1 = _mm256_unpackhi_epi16(step3[19], step3[28]);
     704           0 :           const __m256i s1_20_0 = _mm256_unpacklo_epi16(step3[20], step3[27]);
     705           0 :           const __m256i s1_20_1 = _mm256_unpackhi_epi16(step3[20], step3[27]);
     706           0 :           const __m256i s1_21_0 = _mm256_unpacklo_epi16(step3[21], step3[26]);
     707           0 :           const __m256i s1_21_1 = _mm256_unpackhi_epi16(step3[21], step3[26]);
     708           0 :           const __m256i s1_18_2 = _mm256_madd_epi16(s1_18_0, k__cospi_m08_p24);
     709           0 :           const __m256i s1_18_3 = _mm256_madd_epi16(s1_18_1, k__cospi_m08_p24);
     710           0 :           const __m256i s1_19_2 = _mm256_madd_epi16(s1_19_0, k__cospi_m08_p24);
     711           0 :           const __m256i s1_19_3 = _mm256_madd_epi16(s1_19_1, k__cospi_m08_p24);
     712           0 :           const __m256i s1_20_2 = _mm256_madd_epi16(s1_20_0, k__cospi_m24_m08);
     713           0 :           const __m256i s1_20_3 = _mm256_madd_epi16(s1_20_1, k__cospi_m24_m08);
     714           0 :           const __m256i s1_21_2 = _mm256_madd_epi16(s1_21_0, k__cospi_m24_m08);
     715           0 :           const __m256i s1_21_3 = _mm256_madd_epi16(s1_21_1, k__cospi_m24_m08);
     716           0 :           const __m256i s1_26_2 = _mm256_madd_epi16(s1_21_0, k__cospi_m08_p24);
     717           0 :           const __m256i s1_26_3 = _mm256_madd_epi16(s1_21_1, k__cospi_m08_p24);
     718           0 :           const __m256i s1_27_2 = _mm256_madd_epi16(s1_20_0, k__cospi_m08_p24);
     719           0 :           const __m256i s1_27_3 = _mm256_madd_epi16(s1_20_1, k__cospi_m08_p24);
     720           0 :           const __m256i s1_28_2 = _mm256_madd_epi16(s1_19_0, k__cospi_p24_p08);
     721           0 :           const __m256i s1_28_3 = _mm256_madd_epi16(s1_19_1, k__cospi_p24_p08);
     722           0 :           const __m256i s1_29_2 = _mm256_madd_epi16(s1_18_0, k__cospi_p24_p08);
     723           0 :           const __m256i s1_29_3 = _mm256_madd_epi16(s1_18_1, k__cospi_p24_p08);
     724             :           // dct_const_round_shift
     725           0 :           const __m256i s1_18_4 =
     726             :               _mm256_add_epi32(s1_18_2, k__DCT_CONST_ROUNDING);
     727           0 :           const __m256i s1_18_5 =
     728             :               _mm256_add_epi32(s1_18_3, k__DCT_CONST_ROUNDING);
     729           0 :           const __m256i s1_19_4 =
     730             :               _mm256_add_epi32(s1_19_2, k__DCT_CONST_ROUNDING);
     731           0 :           const __m256i s1_19_5 =
     732             :               _mm256_add_epi32(s1_19_3, k__DCT_CONST_ROUNDING);
     733           0 :           const __m256i s1_20_4 =
     734             :               _mm256_add_epi32(s1_20_2, k__DCT_CONST_ROUNDING);
     735           0 :           const __m256i s1_20_5 =
     736             :               _mm256_add_epi32(s1_20_3, k__DCT_CONST_ROUNDING);
     737           0 :           const __m256i s1_21_4 =
     738             :               _mm256_add_epi32(s1_21_2, k__DCT_CONST_ROUNDING);
     739           0 :           const __m256i s1_21_5 =
     740             :               _mm256_add_epi32(s1_21_3, k__DCT_CONST_ROUNDING);
     741           0 :           const __m256i s1_26_4 =
     742             :               _mm256_add_epi32(s1_26_2, k__DCT_CONST_ROUNDING);
     743           0 :           const __m256i s1_26_5 =
     744             :               _mm256_add_epi32(s1_26_3, k__DCT_CONST_ROUNDING);
     745           0 :           const __m256i s1_27_4 =
     746             :               _mm256_add_epi32(s1_27_2, k__DCT_CONST_ROUNDING);
     747           0 :           const __m256i s1_27_5 =
     748             :               _mm256_add_epi32(s1_27_3, k__DCT_CONST_ROUNDING);
     749           0 :           const __m256i s1_28_4 =
     750             :               _mm256_add_epi32(s1_28_2, k__DCT_CONST_ROUNDING);
     751           0 :           const __m256i s1_28_5 =
     752             :               _mm256_add_epi32(s1_28_3, k__DCT_CONST_ROUNDING);
     753           0 :           const __m256i s1_29_4 =
     754             :               _mm256_add_epi32(s1_29_2, k__DCT_CONST_ROUNDING);
     755           0 :           const __m256i s1_29_5 =
     756             :               _mm256_add_epi32(s1_29_3, k__DCT_CONST_ROUNDING);
     757           0 :           const __m256i s1_18_6 = _mm256_srai_epi32(s1_18_4, DCT_CONST_BITS);
     758           0 :           const __m256i s1_18_7 = _mm256_srai_epi32(s1_18_5, DCT_CONST_BITS);
     759           0 :           const __m256i s1_19_6 = _mm256_srai_epi32(s1_19_4, DCT_CONST_BITS);
     760           0 :           const __m256i s1_19_7 = _mm256_srai_epi32(s1_19_5, DCT_CONST_BITS);
     761           0 :           const __m256i s1_20_6 = _mm256_srai_epi32(s1_20_4, DCT_CONST_BITS);
     762           0 :           const __m256i s1_20_7 = _mm256_srai_epi32(s1_20_5, DCT_CONST_BITS);
     763           0 :           const __m256i s1_21_6 = _mm256_srai_epi32(s1_21_4, DCT_CONST_BITS);
     764           0 :           const __m256i s1_21_7 = _mm256_srai_epi32(s1_21_5, DCT_CONST_BITS);
     765           0 :           const __m256i s1_26_6 = _mm256_srai_epi32(s1_26_4, DCT_CONST_BITS);
     766           0 :           const __m256i s1_26_7 = _mm256_srai_epi32(s1_26_5, DCT_CONST_BITS);
     767           0 :           const __m256i s1_27_6 = _mm256_srai_epi32(s1_27_4, DCT_CONST_BITS);
     768           0 :           const __m256i s1_27_7 = _mm256_srai_epi32(s1_27_5, DCT_CONST_BITS);
     769           0 :           const __m256i s1_28_6 = _mm256_srai_epi32(s1_28_4, DCT_CONST_BITS);
     770           0 :           const __m256i s1_28_7 = _mm256_srai_epi32(s1_28_5, DCT_CONST_BITS);
     771           0 :           const __m256i s1_29_6 = _mm256_srai_epi32(s1_29_4, DCT_CONST_BITS);
     772           0 :           const __m256i s1_29_7 = _mm256_srai_epi32(s1_29_5, DCT_CONST_BITS);
     773             :           // Combine
     774           0 :           step1[18] = _mm256_packs_epi32(s1_18_6, s1_18_7);
     775           0 :           step1[19] = _mm256_packs_epi32(s1_19_6, s1_19_7);
     776           0 :           step1[20] = _mm256_packs_epi32(s1_20_6, s1_20_7);
     777           0 :           step1[21] = _mm256_packs_epi32(s1_21_6, s1_21_7);
     778           0 :           step1[26] = _mm256_packs_epi32(s1_26_6, s1_26_7);
     779           0 :           step1[27] = _mm256_packs_epi32(s1_27_6, s1_27_7);
     780           0 :           step1[28] = _mm256_packs_epi32(s1_28_6, s1_28_7);
     781           0 :           step1[29] = _mm256_packs_epi32(s1_29_6, s1_29_7);
     782             :         }
     783             :         // Stage 5
     784             :         {
     785           0 :           step2[4] = _mm256_add_epi16(step1[5], step3[4]);
     786           0 :           step2[5] = _mm256_sub_epi16(step3[4], step1[5]);
     787           0 :           step2[6] = _mm256_sub_epi16(step3[7], step1[6]);
     788           0 :           step2[7] = _mm256_add_epi16(step1[6], step3[7]);
     789             :         }
     790             :         {
     791           0 :           const __m256i out_00_0 = _mm256_unpacklo_epi16(step1[0], step1[1]);
     792           0 :           const __m256i out_00_1 = _mm256_unpackhi_epi16(step1[0], step1[1]);
     793           0 :           const __m256i out_08_0 = _mm256_unpacklo_epi16(step1[2], step1[3]);
     794           0 :           const __m256i out_08_1 = _mm256_unpackhi_epi16(step1[2], step1[3]);
     795           0 :           const __m256i out_00_2 =
     796             :               _mm256_madd_epi16(out_00_0, k__cospi_p16_p16);
     797           0 :           const __m256i out_00_3 =
     798             :               _mm256_madd_epi16(out_00_1, k__cospi_p16_p16);
     799           0 :           const __m256i out_16_2 =
     800             :               _mm256_madd_epi16(out_00_0, k__cospi_p16_m16);
     801           0 :           const __m256i out_16_3 =
     802             :               _mm256_madd_epi16(out_00_1, k__cospi_p16_m16);
     803           0 :           const __m256i out_08_2 =
     804             :               _mm256_madd_epi16(out_08_0, k__cospi_p24_p08);
     805           0 :           const __m256i out_08_3 =
     806             :               _mm256_madd_epi16(out_08_1, k__cospi_p24_p08);
     807           0 :           const __m256i out_24_2 =
     808             :               _mm256_madd_epi16(out_08_0, k__cospi_m08_p24);
     809           0 :           const __m256i out_24_3 =
     810             :               _mm256_madd_epi16(out_08_1, k__cospi_m08_p24);
     811             :           // dct_const_round_shift
     812           0 :           const __m256i out_00_4 =
     813             :               _mm256_add_epi32(out_00_2, k__DCT_CONST_ROUNDING);
     814           0 :           const __m256i out_00_5 =
     815             :               _mm256_add_epi32(out_00_3, k__DCT_CONST_ROUNDING);
     816           0 :           const __m256i out_16_4 =
     817             :               _mm256_add_epi32(out_16_2, k__DCT_CONST_ROUNDING);
     818           0 :           const __m256i out_16_5 =
     819             :               _mm256_add_epi32(out_16_3, k__DCT_CONST_ROUNDING);
     820           0 :           const __m256i out_08_4 =
     821             :               _mm256_add_epi32(out_08_2, k__DCT_CONST_ROUNDING);
     822           0 :           const __m256i out_08_5 =
     823             :               _mm256_add_epi32(out_08_3, k__DCT_CONST_ROUNDING);
     824           0 :           const __m256i out_24_4 =
     825             :               _mm256_add_epi32(out_24_2, k__DCT_CONST_ROUNDING);
     826           0 :           const __m256i out_24_5 =
     827             :               _mm256_add_epi32(out_24_3, k__DCT_CONST_ROUNDING);
     828           0 :           const __m256i out_00_6 = _mm256_srai_epi32(out_00_4, DCT_CONST_BITS);
     829           0 :           const __m256i out_00_7 = _mm256_srai_epi32(out_00_5, DCT_CONST_BITS);
     830           0 :           const __m256i out_16_6 = _mm256_srai_epi32(out_16_4, DCT_CONST_BITS);
     831           0 :           const __m256i out_16_7 = _mm256_srai_epi32(out_16_5, DCT_CONST_BITS);
     832           0 :           const __m256i out_08_6 = _mm256_srai_epi32(out_08_4, DCT_CONST_BITS);
     833           0 :           const __m256i out_08_7 = _mm256_srai_epi32(out_08_5, DCT_CONST_BITS);
     834           0 :           const __m256i out_24_6 = _mm256_srai_epi32(out_24_4, DCT_CONST_BITS);
     835           0 :           const __m256i out_24_7 = _mm256_srai_epi32(out_24_5, DCT_CONST_BITS);
     836             :           // Combine
     837           0 :           out[0] = _mm256_packs_epi32(out_00_6, out_00_7);
     838           0 :           out[16] = _mm256_packs_epi32(out_16_6, out_16_7);
     839           0 :           out[8] = _mm256_packs_epi32(out_08_6, out_08_7);
     840           0 :           out[24] = _mm256_packs_epi32(out_24_6, out_24_7);
     841             :         }
     842             :         {
     843           0 :           const __m256i s2_09_0 = _mm256_unpacklo_epi16(step1[9], step1[14]);
     844           0 :           const __m256i s2_09_1 = _mm256_unpackhi_epi16(step1[9], step1[14]);
     845           0 :           const __m256i s2_10_0 = _mm256_unpacklo_epi16(step1[10], step1[13]);
     846           0 :           const __m256i s2_10_1 = _mm256_unpackhi_epi16(step1[10], step1[13]);
     847           0 :           const __m256i s2_09_2 = _mm256_madd_epi16(s2_09_0, k__cospi_m08_p24);
     848           0 :           const __m256i s2_09_3 = _mm256_madd_epi16(s2_09_1, k__cospi_m08_p24);
     849           0 :           const __m256i s2_10_2 = _mm256_madd_epi16(s2_10_0, k__cospi_m24_m08);
     850           0 :           const __m256i s2_10_3 = _mm256_madd_epi16(s2_10_1, k__cospi_m24_m08);
     851           0 :           const __m256i s2_13_2 = _mm256_madd_epi16(s2_10_0, k__cospi_m08_p24);
     852           0 :           const __m256i s2_13_3 = _mm256_madd_epi16(s2_10_1, k__cospi_m08_p24);
     853           0 :           const __m256i s2_14_2 = _mm256_madd_epi16(s2_09_0, k__cospi_p24_p08);
     854           0 :           const __m256i s2_14_3 = _mm256_madd_epi16(s2_09_1, k__cospi_p24_p08);
     855             :           // dct_const_round_shift
     856           0 :           const __m256i s2_09_4 =
     857             :               _mm256_add_epi32(s2_09_2, k__DCT_CONST_ROUNDING);
     858           0 :           const __m256i s2_09_5 =
     859             :               _mm256_add_epi32(s2_09_3, k__DCT_CONST_ROUNDING);
     860           0 :           const __m256i s2_10_4 =
     861             :               _mm256_add_epi32(s2_10_2, k__DCT_CONST_ROUNDING);
     862           0 :           const __m256i s2_10_5 =
     863             :               _mm256_add_epi32(s2_10_3, k__DCT_CONST_ROUNDING);
     864           0 :           const __m256i s2_13_4 =
     865             :               _mm256_add_epi32(s2_13_2, k__DCT_CONST_ROUNDING);
     866           0 :           const __m256i s2_13_5 =
     867             :               _mm256_add_epi32(s2_13_3, k__DCT_CONST_ROUNDING);
     868           0 :           const __m256i s2_14_4 =
     869             :               _mm256_add_epi32(s2_14_2, k__DCT_CONST_ROUNDING);
     870           0 :           const __m256i s2_14_5 =
     871             :               _mm256_add_epi32(s2_14_3, k__DCT_CONST_ROUNDING);
     872           0 :           const __m256i s2_09_6 = _mm256_srai_epi32(s2_09_4, DCT_CONST_BITS);
     873           0 :           const __m256i s2_09_7 = _mm256_srai_epi32(s2_09_5, DCT_CONST_BITS);
     874           0 :           const __m256i s2_10_6 = _mm256_srai_epi32(s2_10_4, DCT_CONST_BITS);
     875           0 :           const __m256i s2_10_7 = _mm256_srai_epi32(s2_10_5, DCT_CONST_BITS);
     876           0 :           const __m256i s2_13_6 = _mm256_srai_epi32(s2_13_4, DCT_CONST_BITS);
     877           0 :           const __m256i s2_13_7 = _mm256_srai_epi32(s2_13_5, DCT_CONST_BITS);
     878           0 :           const __m256i s2_14_6 = _mm256_srai_epi32(s2_14_4, DCT_CONST_BITS);
     879           0 :           const __m256i s2_14_7 = _mm256_srai_epi32(s2_14_5, DCT_CONST_BITS);
     880             :           // Combine
     881           0 :           step2[9] = _mm256_packs_epi32(s2_09_6, s2_09_7);
     882           0 :           step2[10] = _mm256_packs_epi32(s2_10_6, s2_10_7);
     883           0 :           step2[13] = _mm256_packs_epi32(s2_13_6, s2_13_7);
     884           0 :           step2[14] = _mm256_packs_epi32(s2_14_6, s2_14_7);
     885             :         }
     886             :         {
     887           0 :           step2[16] = _mm256_add_epi16(step1[19], step3[16]);
     888           0 :           step2[17] = _mm256_add_epi16(step1[18], step3[17]);
     889           0 :           step2[18] = _mm256_sub_epi16(step3[17], step1[18]);
     890           0 :           step2[19] = _mm256_sub_epi16(step3[16], step1[19]);
     891           0 :           step2[20] = _mm256_sub_epi16(step3[23], step1[20]);
     892           0 :           step2[21] = _mm256_sub_epi16(step3[22], step1[21]);
     893           0 :           step2[22] = _mm256_add_epi16(step1[21], step3[22]);
     894           0 :           step2[23] = _mm256_add_epi16(step1[20], step3[23]);
     895           0 :           step2[24] = _mm256_add_epi16(step1[27], step3[24]);
     896           0 :           step2[25] = _mm256_add_epi16(step1[26], step3[25]);
     897           0 :           step2[26] = _mm256_sub_epi16(step3[25], step1[26]);
     898           0 :           step2[27] = _mm256_sub_epi16(step3[24], step1[27]);
     899           0 :           step2[28] = _mm256_sub_epi16(step3[31], step1[28]);
     900           0 :           step2[29] = _mm256_sub_epi16(step3[30], step1[29]);
     901           0 :           step2[30] = _mm256_add_epi16(step1[29], step3[30]);
     902           0 :           step2[31] = _mm256_add_epi16(step1[28], step3[31]);
     903             :         }
     904             :         // Stage 6
     905             :         {
     906           0 :           const __m256i out_04_0 = _mm256_unpacklo_epi16(step2[4], step2[7]);
     907           0 :           const __m256i out_04_1 = _mm256_unpackhi_epi16(step2[4], step2[7]);
     908           0 :           const __m256i out_20_0 = _mm256_unpacklo_epi16(step2[5], step2[6]);
     909           0 :           const __m256i out_20_1 = _mm256_unpackhi_epi16(step2[5], step2[6]);
     910           0 :           const __m256i out_12_0 = _mm256_unpacklo_epi16(step2[5], step2[6]);
     911           0 :           const __m256i out_12_1 = _mm256_unpackhi_epi16(step2[5], step2[6]);
     912           0 :           const __m256i out_28_0 = _mm256_unpacklo_epi16(step2[4], step2[7]);
     913           0 :           const __m256i out_28_1 = _mm256_unpackhi_epi16(step2[4], step2[7]);
     914           0 :           const __m256i out_04_2 =
     915             :               _mm256_madd_epi16(out_04_0, k__cospi_p28_p04);
     916           0 :           const __m256i out_04_3 =
     917             :               _mm256_madd_epi16(out_04_1, k__cospi_p28_p04);
     918           0 :           const __m256i out_20_2 =
     919             :               _mm256_madd_epi16(out_20_0, k__cospi_p12_p20);
     920           0 :           const __m256i out_20_3 =
     921             :               _mm256_madd_epi16(out_20_1, k__cospi_p12_p20);
     922           0 :           const __m256i out_12_2 =
     923             :               _mm256_madd_epi16(out_12_0, k__cospi_m20_p12);
     924           0 :           const __m256i out_12_3 =
     925             :               _mm256_madd_epi16(out_12_1, k__cospi_m20_p12);
     926           0 :           const __m256i out_28_2 =
     927             :               _mm256_madd_epi16(out_28_0, k__cospi_m04_p28);
     928           0 :           const __m256i out_28_3 =
     929             :               _mm256_madd_epi16(out_28_1, k__cospi_m04_p28);
     930             :           // dct_const_round_shift
     931           0 :           const __m256i out_04_4 =
     932             :               _mm256_add_epi32(out_04_2, k__DCT_CONST_ROUNDING);
     933           0 :           const __m256i out_04_5 =
     934             :               _mm256_add_epi32(out_04_3, k__DCT_CONST_ROUNDING);
     935           0 :           const __m256i out_20_4 =
     936             :               _mm256_add_epi32(out_20_2, k__DCT_CONST_ROUNDING);
     937           0 :           const __m256i out_20_5 =
     938             :               _mm256_add_epi32(out_20_3, k__DCT_CONST_ROUNDING);
     939           0 :           const __m256i out_12_4 =
     940             :               _mm256_add_epi32(out_12_2, k__DCT_CONST_ROUNDING);
     941           0 :           const __m256i out_12_5 =
     942             :               _mm256_add_epi32(out_12_3, k__DCT_CONST_ROUNDING);
     943           0 :           const __m256i out_28_4 =
     944             :               _mm256_add_epi32(out_28_2, k__DCT_CONST_ROUNDING);
     945           0 :           const __m256i out_28_5 =
     946             :               _mm256_add_epi32(out_28_3, k__DCT_CONST_ROUNDING);
     947           0 :           const __m256i out_04_6 = _mm256_srai_epi32(out_04_4, DCT_CONST_BITS);
     948           0 :           const __m256i out_04_7 = _mm256_srai_epi32(out_04_5, DCT_CONST_BITS);
     949           0 :           const __m256i out_20_6 = _mm256_srai_epi32(out_20_4, DCT_CONST_BITS);
     950           0 :           const __m256i out_20_7 = _mm256_srai_epi32(out_20_5, DCT_CONST_BITS);
     951           0 :           const __m256i out_12_6 = _mm256_srai_epi32(out_12_4, DCT_CONST_BITS);
     952           0 :           const __m256i out_12_7 = _mm256_srai_epi32(out_12_5, DCT_CONST_BITS);
     953           0 :           const __m256i out_28_6 = _mm256_srai_epi32(out_28_4, DCT_CONST_BITS);
     954           0 :           const __m256i out_28_7 = _mm256_srai_epi32(out_28_5, DCT_CONST_BITS);
     955             :           // Combine
     956           0 :           out[4] = _mm256_packs_epi32(out_04_6, out_04_7);
     957           0 :           out[20] = _mm256_packs_epi32(out_20_6, out_20_7);
     958           0 :           out[12] = _mm256_packs_epi32(out_12_6, out_12_7);
     959           0 :           out[28] = _mm256_packs_epi32(out_28_6, out_28_7);
     960             :         }
     961             :         {
     962           0 :           step3[8] = _mm256_add_epi16(step2[9], step1[8]);
     963           0 :           step3[9] = _mm256_sub_epi16(step1[8], step2[9]);
     964           0 :           step3[10] = _mm256_sub_epi16(step1[11], step2[10]);
     965           0 :           step3[11] = _mm256_add_epi16(step2[10], step1[11]);
     966           0 :           step3[12] = _mm256_add_epi16(step2[13], step1[12]);
     967           0 :           step3[13] = _mm256_sub_epi16(step1[12], step2[13]);
     968           0 :           step3[14] = _mm256_sub_epi16(step1[15], step2[14]);
     969           0 :           step3[15] = _mm256_add_epi16(step2[14], step1[15]);
     970             :         }
     971             :         {
     972           0 :           const __m256i s3_17_0 = _mm256_unpacklo_epi16(step2[17], step2[30]);
     973           0 :           const __m256i s3_17_1 = _mm256_unpackhi_epi16(step2[17], step2[30]);
     974           0 :           const __m256i s3_18_0 = _mm256_unpacklo_epi16(step2[18], step2[29]);
     975           0 :           const __m256i s3_18_1 = _mm256_unpackhi_epi16(step2[18], step2[29]);
     976           0 :           const __m256i s3_21_0 = _mm256_unpacklo_epi16(step2[21], step2[26]);
     977           0 :           const __m256i s3_21_1 = _mm256_unpackhi_epi16(step2[21], step2[26]);
     978           0 :           const __m256i s3_22_0 = _mm256_unpacklo_epi16(step2[22], step2[25]);
     979           0 :           const __m256i s3_22_1 = _mm256_unpackhi_epi16(step2[22], step2[25]);
     980           0 :           const __m256i s3_17_2 = _mm256_madd_epi16(s3_17_0, k__cospi_m04_p28);
     981           0 :           const __m256i s3_17_3 = _mm256_madd_epi16(s3_17_1, k__cospi_m04_p28);
     982           0 :           const __m256i s3_18_2 = _mm256_madd_epi16(s3_18_0, k__cospi_m28_m04);
     983           0 :           const __m256i s3_18_3 = _mm256_madd_epi16(s3_18_1, k__cospi_m28_m04);
     984           0 :           const __m256i s3_21_2 = _mm256_madd_epi16(s3_21_0, k__cospi_m20_p12);
     985           0 :           const __m256i s3_21_3 = _mm256_madd_epi16(s3_21_1, k__cospi_m20_p12);
     986           0 :           const __m256i s3_22_2 = _mm256_madd_epi16(s3_22_0, k__cospi_m12_m20);
     987           0 :           const __m256i s3_22_3 = _mm256_madd_epi16(s3_22_1, k__cospi_m12_m20);
     988           0 :           const __m256i s3_25_2 = _mm256_madd_epi16(s3_22_0, k__cospi_m20_p12);
     989           0 :           const __m256i s3_25_3 = _mm256_madd_epi16(s3_22_1, k__cospi_m20_p12);
     990           0 :           const __m256i s3_26_2 = _mm256_madd_epi16(s3_21_0, k__cospi_p12_p20);
     991           0 :           const __m256i s3_26_3 = _mm256_madd_epi16(s3_21_1, k__cospi_p12_p20);
     992           0 :           const __m256i s3_29_2 = _mm256_madd_epi16(s3_18_0, k__cospi_m04_p28);
     993           0 :           const __m256i s3_29_3 = _mm256_madd_epi16(s3_18_1, k__cospi_m04_p28);
     994           0 :           const __m256i s3_30_2 = _mm256_madd_epi16(s3_17_0, k__cospi_p28_p04);
     995           0 :           const __m256i s3_30_3 = _mm256_madd_epi16(s3_17_1, k__cospi_p28_p04);
     996             :           // dct_const_round_shift
     997           0 :           const __m256i s3_17_4 =
     998             :               _mm256_add_epi32(s3_17_2, k__DCT_CONST_ROUNDING);
     999           0 :           const __m256i s3_17_5 =
    1000             :               _mm256_add_epi32(s3_17_3, k__DCT_CONST_ROUNDING);
    1001           0 :           const __m256i s3_18_4 =
    1002             :               _mm256_add_epi32(s3_18_2, k__DCT_CONST_ROUNDING);
    1003           0 :           const __m256i s3_18_5 =
    1004             :               _mm256_add_epi32(s3_18_3, k__DCT_CONST_ROUNDING);
    1005           0 :           const __m256i s3_21_4 =
    1006             :               _mm256_add_epi32(s3_21_2, k__DCT_CONST_ROUNDING);
    1007           0 :           const __m256i s3_21_5 =
    1008             :               _mm256_add_epi32(s3_21_3, k__DCT_CONST_ROUNDING);
    1009           0 :           const __m256i s3_22_4 =
    1010             :               _mm256_add_epi32(s3_22_2, k__DCT_CONST_ROUNDING);
    1011           0 :           const __m256i s3_22_5 =
    1012             :               _mm256_add_epi32(s3_22_3, k__DCT_CONST_ROUNDING);
    1013           0 :           const __m256i s3_17_6 = _mm256_srai_epi32(s3_17_4, DCT_CONST_BITS);
    1014           0 :           const __m256i s3_17_7 = _mm256_srai_epi32(s3_17_5, DCT_CONST_BITS);
    1015           0 :           const __m256i s3_18_6 = _mm256_srai_epi32(s3_18_4, DCT_CONST_BITS);
    1016           0 :           const __m256i s3_18_7 = _mm256_srai_epi32(s3_18_5, DCT_CONST_BITS);
    1017           0 :           const __m256i s3_21_6 = _mm256_srai_epi32(s3_21_4, DCT_CONST_BITS);
    1018           0 :           const __m256i s3_21_7 = _mm256_srai_epi32(s3_21_5, DCT_CONST_BITS);
    1019           0 :           const __m256i s3_22_6 = _mm256_srai_epi32(s3_22_4, DCT_CONST_BITS);
    1020           0 :           const __m256i s3_22_7 = _mm256_srai_epi32(s3_22_5, DCT_CONST_BITS);
    1021           0 :           const __m256i s3_25_4 =
    1022             :               _mm256_add_epi32(s3_25_2, k__DCT_CONST_ROUNDING);
    1023           0 :           const __m256i s3_25_5 =
    1024             :               _mm256_add_epi32(s3_25_3, k__DCT_CONST_ROUNDING);
    1025           0 :           const __m256i s3_26_4 =
    1026             :               _mm256_add_epi32(s3_26_2, k__DCT_CONST_ROUNDING);
    1027           0 :           const __m256i s3_26_5 =
    1028             :               _mm256_add_epi32(s3_26_3, k__DCT_CONST_ROUNDING);
    1029           0 :           const __m256i s3_29_4 =
    1030             :               _mm256_add_epi32(s3_29_2, k__DCT_CONST_ROUNDING);
    1031           0 :           const __m256i s3_29_5 =
    1032             :               _mm256_add_epi32(s3_29_3, k__DCT_CONST_ROUNDING);
    1033           0 :           const __m256i s3_30_4 =
    1034             :               _mm256_add_epi32(s3_30_2, k__DCT_CONST_ROUNDING);
    1035           0 :           const __m256i s3_30_5 =
    1036             :               _mm256_add_epi32(s3_30_3, k__DCT_CONST_ROUNDING);
    1037           0 :           const __m256i s3_25_6 = _mm256_srai_epi32(s3_25_4, DCT_CONST_BITS);
    1038           0 :           const __m256i s3_25_7 = _mm256_srai_epi32(s3_25_5, DCT_CONST_BITS);
    1039           0 :           const __m256i s3_26_6 = _mm256_srai_epi32(s3_26_4, DCT_CONST_BITS);
    1040           0 :           const __m256i s3_26_7 = _mm256_srai_epi32(s3_26_5, DCT_CONST_BITS);
    1041           0 :           const __m256i s3_29_6 = _mm256_srai_epi32(s3_29_4, DCT_CONST_BITS);
    1042           0 :           const __m256i s3_29_7 = _mm256_srai_epi32(s3_29_5, DCT_CONST_BITS);
    1043           0 :           const __m256i s3_30_6 = _mm256_srai_epi32(s3_30_4, DCT_CONST_BITS);
    1044           0 :           const __m256i s3_30_7 = _mm256_srai_epi32(s3_30_5, DCT_CONST_BITS);
    1045             :           // Combine
    1046           0 :           step3[17] = _mm256_packs_epi32(s3_17_6, s3_17_7);
    1047           0 :           step3[18] = _mm256_packs_epi32(s3_18_6, s3_18_7);
    1048           0 :           step3[21] = _mm256_packs_epi32(s3_21_6, s3_21_7);
    1049           0 :           step3[22] = _mm256_packs_epi32(s3_22_6, s3_22_7);
    1050             :           // Combine
    1051           0 :           step3[25] = _mm256_packs_epi32(s3_25_6, s3_25_7);
    1052           0 :           step3[26] = _mm256_packs_epi32(s3_26_6, s3_26_7);
    1053           0 :           step3[29] = _mm256_packs_epi32(s3_29_6, s3_29_7);
    1054           0 :           step3[30] = _mm256_packs_epi32(s3_30_6, s3_30_7);
    1055             :         }
    1056             :         // Stage 7
    1057             :         {
    1058           0 :           const __m256i out_02_0 = _mm256_unpacklo_epi16(step3[8], step3[15]);
    1059           0 :           const __m256i out_02_1 = _mm256_unpackhi_epi16(step3[8], step3[15]);
    1060           0 :           const __m256i out_18_0 = _mm256_unpacklo_epi16(step3[9], step3[14]);
    1061           0 :           const __m256i out_18_1 = _mm256_unpackhi_epi16(step3[9], step3[14]);
    1062           0 :           const __m256i out_10_0 = _mm256_unpacklo_epi16(step3[10], step3[13]);
    1063           0 :           const __m256i out_10_1 = _mm256_unpackhi_epi16(step3[10], step3[13]);
    1064           0 :           const __m256i out_26_0 = _mm256_unpacklo_epi16(step3[11], step3[12]);
    1065           0 :           const __m256i out_26_1 = _mm256_unpackhi_epi16(step3[11], step3[12]);
    1066           0 :           const __m256i out_02_2 =
    1067             :               _mm256_madd_epi16(out_02_0, k__cospi_p30_p02);
    1068           0 :           const __m256i out_02_3 =
    1069             :               _mm256_madd_epi16(out_02_1, k__cospi_p30_p02);
    1070           0 :           const __m256i out_18_2 =
    1071             :               _mm256_madd_epi16(out_18_0, k__cospi_p14_p18);
    1072           0 :           const __m256i out_18_3 =
    1073             :               _mm256_madd_epi16(out_18_1, k__cospi_p14_p18);
    1074           0 :           const __m256i out_10_2 =
    1075             :               _mm256_madd_epi16(out_10_0, k__cospi_p22_p10);
    1076           0 :           const __m256i out_10_3 =
    1077             :               _mm256_madd_epi16(out_10_1, k__cospi_p22_p10);
    1078           0 :           const __m256i out_26_2 =
    1079             :               _mm256_madd_epi16(out_26_0, k__cospi_p06_p26);
    1080           0 :           const __m256i out_26_3 =
    1081             :               _mm256_madd_epi16(out_26_1, k__cospi_p06_p26);
    1082           0 :           const __m256i out_06_2 =
    1083             :               _mm256_madd_epi16(out_26_0, k__cospi_m26_p06);
    1084           0 :           const __m256i out_06_3 =
    1085             :               _mm256_madd_epi16(out_26_1, k__cospi_m26_p06);
    1086           0 :           const __m256i out_22_2 =
    1087             :               _mm256_madd_epi16(out_10_0, k__cospi_m10_p22);
    1088           0 :           const __m256i out_22_3 =
    1089             :               _mm256_madd_epi16(out_10_1, k__cospi_m10_p22);
    1090           0 :           const __m256i out_14_2 =
    1091             :               _mm256_madd_epi16(out_18_0, k__cospi_m18_p14);
    1092           0 :           const __m256i out_14_3 =
    1093             :               _mm256_madd_epi16(out_18_1, k__cospi_m18_p14);
    1094           0 :           const __m256i out_30_2 =
    1095             :               _mm256_madd_epi16(out_02_0, k__cospi_m02_p30);
    1096           0 :           const __m256i out_30_3 =
    1097             :               _mm256_madd_epi16(out_02_1, k__cospi_m02_p30);
    1098             :           // dct_const_round_shift
    1099           0 :           const __m256i out_02_4 =
    1100             :               _mm256_add_epi32(out_02_2, k__DCT_CONST_ROUNDING);
    1101           0 :           const __m256i out_02_5 =
    1102             :               _mm256_add_epi32(out_02_3, k__DCT_CONST_ROUNDING);
    1103           0 :           const __m256i out_18_4 =
    1104             :               _mm256_add_epi32(out_18_2, k__DCT_CONST_ROUNDING);
    1105           0 :           const __m256i out_18_5 =
    1106             :               _mm256_add_epi32(out_18_3, k__DCT_CONST_ROUNDING);
    1107           0 :           const __m256i out_10_4 =
    1108             :               _mm256_add_epi32(out_10_2, k__DCT_CONST_ROUNDING);
    1109           0 :           const __m256i out_10_5 =
    1110             :               _mm256_add_epi32(out_10_3, k__DCT_CONST_ROUNDING);
    1111           0 :           const __m256i out_26_4 =
    1112             :               _mm256_add_epi32(out_26_2, k__DCT_CONST_ROUNDING);
    1113           0 :           const __m256i out_26_5 =
    1114             :               _mm256_add_epi32(out_26_3, k__DCT_CONST_ROUNDING);
    1115           0 :           const __m256i out_06_4 =
    1116             :               _mm256_add_epi32(out_06_2, k__DCT_CONST_ROUNDING);
    1117           0 :           const __m256i out_06_5 =
    1118             :               _mm256_add_epi32(out_06_3, k__DCT_CONST_ROUNDING);
    1119           0 :           const __m256i out_22_4 =
    1120             :               _mm256_add_epi32(out_22_2, k__DCT_CONST_ROUNDING);
    1121           0 :           const __m256i out_22_5 =
    1122             :               _mm256_add_epi32(out_22_3, k__DCT_CONST_ROUNDING);
    1123           0 :           const __m256i out_14_4 =
    1124             :               _mm256_add_epi32(out_14_2, k__DCT_CONST_ROUNDING);
    1125           0 :           const __m256i out_14_5 =
    1126             :               _mm256_add_epi32(out_14_3, k__DCT_CONST_ROUNDING);
    1127           0 :           const __m256i out_30_4 =
    1128             :               _mm256_add_epi32(out_30_2, k__DCT_CONST_ROUNDING);
    1129           0 :           const __m256i out_30_5 =
    1130             :               _mm256_add_epi32(out_30_3, k__DCT_CONST_ROUNDING);
    1131           0 :           const __m256i out_02_6 = _mm256_srai_epi32(out_02_4, DCT_CONST_BITS);
    1132           0 :           const __m256i out_02_7 = _mm256_srai_epi32(out_02_5, DCT_CONST_BITS);
    1133           0 :           const __m256i out_18_6 = _mm256_srai_epi32(out_18_4, DCT_CONST_BITS);
    1134           0 :           const __m256i out_18_7 = _mm256_srai_epi32(out_18_5, DCT_CONST_BITS);
    1135           0 :           const __m256i out_10_6 = _mm256_srai_epi32(out_10_4, DCT_CONST_BITS);
    1136           0 :           const __m256i out_10_7 = _mm256_srai_epi32(out_10_5, DCT_CONST_BITS);
    1137           0 :           const __m256i out_26_6 = _mm256_srai_epi32(out_26_4, DCT_CONST_BITS);
    1138           0 :           const __m256i out_26_7 = _mm256_srai_epi32(out_26_5, DCT_CONST_BITS);
    1139           0 :           const __m256i out_06_6 = _mm256_srai_epi32(out_06_4, DCT_CONST_BITS);
    1140           0 :           const __m256i out_06_7 = _mm256_srai_epi32(out_06_5, DCT_CONST_BITS);
    1141           0 :           const __m256i out_22_6 = _mm256_srai_epi32(out_22_4, DCT_CONST_BITS);
    1142           0 :           const __m256i out_22_7 = _mm256_srai_epi32(out_22_5, DCT_CONST_BITS);
    1143           0 :           const __m256i out_14_6 = _mm256_srai_epi32(out_14_4, DCT_CONST_BITS);
    1144           0 :           const __m256i out_14_7 = _mm256_srai_epi32(out_14_5, DCT_CONST_BITS);
    1145           0 :           const __m256i out_30_6 = _mm256_srai_epi32(out_30_4, DCT_CONST_BITS);
    1146           0 :           const __m256i out_30_7 = _mm256_srai_epi32(out_30_5, DCT_CONST_BITS);
    1147             :           // Combine
    1148           0 :           out[2] = _mm256_packs_epi32(out_02_6, out_02_7);
    1149           0 :           out[18] = _mm256_packs_epi32(out_18_6, out_18_7);
    1150           0 :           out[10] = _mm256_packs_epi32(out_10_6, out_10_7);
    1151           0 :           out[26] = _mm256_packs_epi32(out_26_6, out_26_7);
    1152           0 :           out[6] = _mm256_packs_epi32(out_06_6, out_06_7);
    1153           0 :           out[22] = _mm256_packs_epi32(out_22_6, out_22_7);
    1154           0 :           out[14] = _mm256_packs_epi32(out_14_6, out_14_7);
    1155           0 :           out[30] = _mm256_packs_epi32(out_30_6, out_30_7);
    1156             :         }
    1157             :         {
    1158           0 :           step1[16] = _mm256_add_epi16(step3[17], step2[16]);
    1159           0 :           step1[17] = _mm256_sub_epi16(step2[16], step3[17]);
    1160           0 :           step1[18] = _mm256_sub_epi16(step2[19], step3[18]);
    1161           0 :           step1[19] = _mm256_add_epi16(step3[18], step2[19]);
    1162           0 :           step1[20] = _mm256_add_epi16(step3[21], step2[20]);
    1163           0 :           step1[21] = _mm256_sub_epi16(step2[20], step3[21]);
    1164           0 :           step1[22] = _mm256_sub_epi16(step2[23], step3[22]);
    1165           0 :           step1[23] = _mm256_add_epi16(step3[22], step2[23]);
    1166           0 :           step1[24] = _mm256_add_epi16(step3[25], step2[24]);
    1167           0 :           step1[25] = _mm256_sub_epi16(step2[24], step3[25]);
    1168           0 :           step1[26] = _mm256_sub_epi16(step2[27], step3[26]);
    1169           0 :           step1[27] = _mm256_add_epi16(step3[26], step2[27]);
    1170           0 :           step1[28] = _mm256_add_epi16(step3[29], step2[28]);
    1171           0 :           step1[29] = _mm256_sub_epi16(step2[28], step3[29]);
    1172           0 :           step1[30] = _mm256_sub_epi16(step2[31], step3[30]);
    1173           0 :           step1[31] = _mm256_add_epi16(step3[30], step2[31]);
    1174             :         }
    1175             :         // Final stage --- outputs indices are bit-reversed.
    1176             :         {
    1177           0 :           const __m256i out_01_0 = _mm256_unpacklo_epi16(step1[16], step1[31]);
    1178           0 :           const __m256i out_01_1 = _mm256_unpackhi_epi16(step1[16], step1[31]);
    1179           0 :           const __m256i out_17_0 = _mm256_unpacklo_epi16(step1[17], step1[30]);
    1180           0 :           const __m256i out_17_1 = _mm256_unpackhi_epi16(step1[17], step1[30]);
    1181           0 :           const __m256i out_09_0 = _mm256_unpacklo_epi16(step1[18], step1[29]);
    1182           0 :           const __m256i out_09_1 = _mm256_unpackhi_epi16(step1[18], step1[29]);
    1183           0 :           const __m256i out_25_0 = _mm256_unpacklo_epi16(step1[19], step1[28]);
    1184           0 :           const __m256i out_25_1 = _mm256_unpackhi_epi16(step1[19], step1[28]);
    1185           0 :           const __m256i out_01_2 =
    1186             :               _mm256_madd_epi16(out_01_0, k__cospi_p31_p01);
    1187           0 :           const __m256i out_01_3 =
    1188             :               _mm256_madd_epi16(out_01_1, k__cospi_p31_p01);
    1189           0 :           const __m256i out_17_2 =
    1190             :               _mm256_madd_epi16(out_17_0, k__cospi_p15_p17);
    1191           0 :           const __m256i out_17_3 =
    1192             :               _mm256_madd_epi16(out_17_1, k__cospi_p15_p17);
    1193           0 :           const __m256i out_09_2 =
    1194             :               _mm256_madd_epi16(out_09_0, k__cospi_p23_p09);
    1195           0 :           const __m256i out_09_3 =
    1196             :               _mm256_madd_epi16(out_09_1, k__cospi_p23_p09);
    1197           0 :           const __m256i out_25_2 =
    1198             :               _mm256_madd_epi16(out_25_0, k__cospi_p07_p25);
    1199           0 :           const __m256i out_25_3 =
    1200             :               _mm256_madd_epi16(out_25_1, k__cospi_p07_p25);
    1201           0 :           const __m256i out_07_2 =
    1202             :               _mm256_madd_epi16(out_25_0, k__cospi_m25_p07);
    1203           0 :           const __m256i out_07_3 =
    1204             :               _mm256_madd_epi16(out_25_1, k__cospi_m25_p07);
    1205           0 :           const __m256i out_23_2 =
    1206             :               _mm256_madd_epi16(out_09_0, k__cospi_m09_p23);
    1207           0 :           const __m256i out_23_3 =
    1208             :               _mm256_madd_epi16(out_09_1, k__cospi_m09_p23);
    1209           0 :           const __m256i out_15_2 =
    1210             :               _mm256_madd_epi16(out_17_0, k__cospi_m17_p15);
    1211           0 :           const __m256i out_15_3 =
    1212             :               _mm256_madd_epi16(out_17_1, k__cospi_m17_p15);
    1213           0 :           const __m256i out_31_2 =
    1214             :               _mm256_madd_epi16(out_01_0, k__cospi_m01_p31);
    1215           0 :           const __m256i out_31_3 =
    1216             :               _mm256_madd_epi16(out_01_1, k__cospi_m01_p31);
    1217             :           // dct_const_round_shift
    1218           0 :           const __m256i out_01_4 =
    1219             :               _mm256_add_epi32(out_01_2, k__DCT_CONST_ROUNDING);
    1220           0 :           const __m256i out_01_5 =
    1221             :               _mm256_add_epi32(out_01_3, k__DCT_CONST_ROUNDING);
    1222           0 :           const __m256i out_17_4 =
    1223             :               _mm256_add_epi32(out_17_2, k__DCT_CONST_ROUNDING);
    1224           0 :           const __m256i out_17_5 =
    1225             :               _mm256_add_epi32(out_17_3, k__DCT_CONST_ROUNDING);
    1226           0 :           const __m256i out_09_4 =
    1227             :               _mm256_add_epi32(out_09_2, k__DCT_CONST_ROUNDING);
    1228           0 :           const __m256i out_09_5 =
    1229             :               _mm256_add_epi32(out_09_3, k__DCT_CONST_ROUNDING);
    1230           0 :           const __m256i out_25_4 =
    1231             :               _mm256_add_epi32(out_25_2, k__DCT_CONST_ROUNDING);
    1232           0 :           const __m256i out_25_5 =
    1233             :               _mm256_add_epi32(out_25_3, k__DCT_CONST_ROUNDING);
    1234           0 :           const __m256i out_07_4 =
    1235             :               _mm256_add_epi32(out_07_2, k__DCT_CONST_ROUNDING);
    1236           0 :           const __m256i out_07_5 =
    1237             :               _mm256_add_epi32(out_07_3, k__DCT_CONST_ROUNDING);
    1238           0 :           const __m256i out_23_4 =
    1239             :               _mm256_add_epi32(out_23_2, k__DCT_CONST_ROUNDING);
    1240           0 :           const __m256i out_23_5 =
    1241             :               _mm256_add_epi32(out_23_3, k__DCT_CONST_ROUNDING);
    1242           0 :           const __m256i out_15_4 =
    1243             :               _mm256_add_epi32(out_15_2, k__DCT_CONST_ROUNDING);
    1244           0 :           const __m256i out_15_5 =
    1245             :               _mm256_add_epi32(out_15_3, k__DCT_CONST_ROUNDING);
    1246           0 :           const __m256i out_31_4 =
    1247             :               _mm256_add_epi32(out_31_2, k__DCT_CONST_ROUNDING);
    1248           0 :           const __m256i out_31_5 =
    1249             :               _mm256_add_epi32(out_31_3, k__DCT_CONST_ROUNDING);
    1250           0 :           const __m256i out_01_6 = _mm256_srai_epi32(out_01_4, DCT_CONST_BITS);
    1251           0 :           const __m256i out_01_7 = _mm256_srai_epi32(out_01_5, DCT_CONST_BITS);
    1252           0 :           const __m256i out_17_6 = _mm256_srai_epi32(out_17_4, DCT_CONST_BITS);
    1253           0 :           const __m256i out_17_7 = _mm256_srai_epi32(out_17_5, DCT_CONST_BITS);
    1254           0 :           const __m256i out_09_6 = _mm256_srai_epi32(out_09_4, DCT_CONST_BITS);
    1255           0 :           const __m256i out_09_7 = _mm256_srai_epi32(out_09_5, DCT_CONST_BITS);
    1256           0 :           const __m256i out_25_6 = _mm256_srai_epi32(out_25_4, DCT_CONST_BITS);
    1257           0 :           const __m256i out_25_7 = _mm256_srai_epi32(out_25_5, DCT_CONST_BITS);
    1258           0 :           const __m256i out_07_6 = _mm256_srai_epi32(out_07_4, DCT_CONST_BITS);
    1259           0 :           const __m256i out_07_7 = _mm256_srai_epi32(out_07_5, DCT_CONST_BITS);
    1260           0 :           const __m256i out_23_6 = _mm256_srai_epi32(out_23_4, DCT_CONST_BITS);
    1261           0 :           const __m256i out_23_7 = _mm256_srai_epi32(out_23_5, DCT_CONST_BITS);
    1262           0 :           const __m256i out_15_6 = _mm256_srai_epi32(out_15_4, DCT_CONST_BITS);
    1263           0 :           const __m256i out_15_7 = _mm256_srai_epi32(out_15_5, DCT_CONST_BITS);
    1264           0 :           const __m256i out_31_6 = _mm256_srai_epi32(out_31_4, DCT_CONST_BITS);
    1265           0 :           const __m256i out_31_7 = _mm256_srai_epi32(out_31_5, DCT_CONST_BITS);
    1266             :           // Combine
    1267           0 :           out[1] = _mm256_packs_epi32(out_01_6, out_01_7);
    1268           0 :           out[17] = _mm256_packs_epi32(out_17_6, out_17_7);
    1269           0 :           out[9] = _mm256_packs_epi32(out_09_6, out_09_7);
    1270           0 :           out[25] = _mm256_packs_epi32(out_25_6, out_25_7);
    1271           0 :           out[7] = _mm256_packs_epi32(out_07_6, out_07_7);
    1272           0 :           out[23] = _mm256_packs_epi32(out_23_6, out_23_7);
    1273           0 :           out[15] = _mm256_packs_epi32(out_15_6, out_15_7);
    1274           0 :           out[31] = _mm256_packs_epi32(out_31_6, out_31_7);
    1275             :         }
    1276             :         {
    1277           0 :           const __m256i out_05_0 = _mm256_unpacklo_epi16(step1[20], step1[27]);
    1278           0 :           const __m256i out_05_1 = _mm256_unpackhi_epi16(step1[20], step1[27]);
    1279           0 :           const __m256i out_21_0 = _mm256_unpacklo_epi16(step1[21], step1[26]);
    1280           0 :           const __m256i out_21_1 = _mm256_unpackhi_epi16(step1[21], step1[26]);
    1281           0 :           const __m256i out_13_0 = _mm256_unpacklo_epi16(step1[22], step1[25]);
    1282           0 :           const __m256i out_13_1 = _mm256_unpackhi_epi16(step1[22], step1[25]);
    1283           0 :           const __m256i out_29_0 = _mm256_unpacklo_epi16(step1[23], step1[24]);
    1284           0 :           const __m256i out_29_1 = _mm256_unpackhi_epi16(step1[23], step1[24]);
    1285           0 :           const __m256i out_05_2 =
    1286             :               _mm256_madd_epi16(out_05_0, k__cospi_p27_p05);
    1287           0 :           const __m256i out_05_3 =
    1288             :               _mm256_madd_epi16(out_05_1, k__cospi_p27_p05);
    1289           0 :           const __m256i out_21_2 =
    1290             :               _mm256_madd_epi16(out_21_0, k__cospi_p11_p21);
    1291           0 :           const __m256i out_21_3 =
    1292             :               _mm256_madd_epi16(out_21_1, k__cospi_p11_p21);
    1293           0 :           const __m256i out_13_2 =
    1294             :               _mm256_madd_epi16(out_13_0, k__cospi_p19_p13);
    1295           0 :           const __m256i out_13_3 =
    1296             :               _mm256_madd_epi16(out_13_1, k__cospi_p19_p13);
    1297           0 :           const __m256i out_29_2 =
    1298             :               _mm256_madd_epi16(out_29_0, k__cospi_p03_p29);
    1299           0 :           const __m256i out_29_3 =
    1300             :               _mm256_madd_epi16(out_29_1, k__cospi_p03_p29);
    1301           0 :           const __m256i out_03_2 =
    1302             :               _mm256_madd_epi16(out_29_0, k__cospi_m29_p03);
    1303           0 :           const __m256i out_03_3 =
    1304             :               _mm256_madd_epi16(out_29_1, k__cospi_m29_p03);
    1305           0 :           const __m256i out_19_2 =
    1306             :               _mm256_madd_epi16(out_13_0, k__cospi_m13_p19);
    1307           0 :           const __m256i out_19_3 =
    1308             :               _mm256_madd_epi16(out_13_1, k__cospi_m13_p19);
    1309           0 :           const __m256i out_11_2 =
    1310             :               _mm256_madd_epi16(out_21_0, k__cospi_m21_p11);
    1311           0 :           const __m256i out_11_3 =
    1312             :               _mm256_madd_epi16(out_21_1, k__cospi_m21_p11);
    1313           0 :           const __m256i out_27_2 =
    1314             :               _mm256_madd_epi16(out_05_0, k__cospi_m05_p27);
    1315           0 :           const __m256i out_27_3 =
    1316             :               _mm256_madd_epi16(out_05_1, k__cospi_m05_p27);
    1317             :           // dct_const_round_shift
    1318           0 :           const __m256i out_05_4 =
    1319             :               _mm256_add_epi32(out_05_2, k__DCT_CONST_ROUNDING);
    1320           0 :           const __m256i out_05_5 =
    1321             :               _mm256_add_epi32(out_05_3, k__DCT_CONST_ROUNDING);
    1322           0 :           const __m256i out_21_4 =
    1323             :               _mm256_add_epi32(out_21_2, k__DCT_CONST_ROUNDING);
    1324           0 :           const __m256i out_21_5 =
    1325             :               _mm256_add_epi32(out_21_3, k__DCT_CONST_ROUNDING);
    1326           0 :           const __m256i out_13_4 =
    1327             :               _mm256_add_epi32(out_13_2, k__DCT_CONST_ROUNDING);
    1328           0 :           const __m256i out_13_5 =
    1329             :               _mm256_add_epi32(out_13_3, k__DCT_CONST_ROUNDING);
    1330           0 :           const __m256i out_29_4 =
    1331             :               _mm256_add_epi32(out_29_2, k__DCT_CONST_ROUNDING);
    1332           0 :           const __m256i out_29_5 =
    1333             :               _mm256_add_epi32(out_29_3, k__DCT_CONST_ROUNDING);
    1334           0 :           const __m256i out_03_4 =
    1335             :               _mm256_add_epi32(out_03_2, k__DCT_CONST_ROUNDING);
    1336           0 :           const __m256i out_03_5 =
    1337             :               _mm256_add_epi32(out_03_3, k__DCT_CONST_ROUNDING);
    1338           0 :           const __m256i out_19_4 =
    1339             :               _mm256_add_epi32(out_19_2, k__DCT_CONST_ROUNDING);
    1340           0 :           const __m256i out_19_5 =
    1341             :               _mm256_add_epi32(out_19_3, k__DCT_CONST_ROUNDING);
    1342           0 :           const __m256i out_11_4 =
    1343             :               _mm256_add_epi32(out_11_2, k__DCT_CONST_ROUNDING);
    1344           0 :           const __m256i out_11_5 =
    1345             :               _mm256_add_epi32(out_11_3, k__DCT_CONST_ROUNDING);
    1346           0 :           const __m256i out_27_4 =
    1347             :               _mm256_add_epi32(out_27_2, k__DCT_CONST_ROUNDING);
    1348           0 :           const __m256i out_27_5 =
    1349             :               _mm256_add_epi32(out_27_3, k__DCT_CONST_ROUNDING);
    1350           0 :           const __m256i out_05_6 = _mm256_srai_epi32(out_05_4, DCT_CONST_BITS);
    1351           0 :           const __m256i out_05_7 = _mm256_srai_epi32(out_05_5, DCT_CONST_BITS);
    1352           0 :           const __m256i out_21_6 = _mm256_srai_epi32(out_21_4, DCT_CONST_BITS);
    1353           0 :           const __m256i out_21_7 = _mm256_srai_epi32(out_21_5, DCT_CONST_BITS);
    1354           0 :           const __m256i out_13_6 = _mm256_srai_epi32(out_13_4, DCT_CONST_BITS);
    1355           0 :           const __m256i out_13_7 = _mm256_srai_epi32(out_13_5, DCT_CONST_BITS);
    1356           0 :           const __m256i out_29_6 = _mm256_srai_epi32(out_29_4, DCT_CONST_BITS);
    1357           0 :           const __m256i out_29_7 = _mm256_srai_epi32(out_29_5, DCT_CONST_BITS);
    1358           0 :           const __m256i out_03_6 = _mm256_srai_epi32(out_03_4, DCT_CONST_BITS);
    1359           0 :           const __m256i out_03_7 = _mm256_srai_epi32(out_03_5, DCT_CONST_BITS);
    1360           0 :           const __m256i out_19_6 = _mm256_srai_epi32(out_19_4, DCT_CONST_BITS);
    1361           0 :           const __m256i out_19_7 = _mm256_srai_epi32(out_19_5, DCT_CONST_BITS);
    1362           0 :           const __m256i out_11_6 = _mm256_srai_epi32(out_11_4, DCT_CONST_BITS);
    1363           0 :           const __m256i out_11_7 = _mm256_srai_epi32(out_11_5, DCT_CONST_BITS);
    1364           0 :           const __m256i out_27_6 = _mm256_srai_epi32(out_27_4, DCT_CONST_BITS);
    1365           0 :           const __m256i out_27_7 = _mm256_srai_epi32(out_27_5, DCT_CONST_BITS);
    1366             :           // Combine
    1367           0 :           out[5] = _mm256_packs_epi32(out_05_6, out_05_7);
    1368           0 :           out[21] = _mm256_packs_epi32(out_21_6, out_21_7);
    1369           0 :           out[13] = _mm256_packs_epi32(out_13_6, out_13_7);
    1370           0 :           out[29] = _mm256_packs_epi32(out_29_6, out_29_7);
    1371           0 :           out[3] = _mm256_packs_epi32(out_03_6, out_03_7);
    1372           0 :           out[19] = _mm256_packs_epi32(out_19_6, out_19_7);
    1373           0 :           out[11] = _mm256_packs_epi32(out_11_6, out_11_7);
    1374           0 :           out[27] = _mm256_packs_epi32(out_27_6, out_27_7);
    1375             :         }
    1376             : #if FDCT32x32_HIGH_PRECISION
    1377             :       } else {
    1378             :         __m256i lstep1[64], lstep2[64], lstep3[64];
    1379             :         __m256i u[32], v[32], sign[16];
    1380           0 :         const __m256i K32One = _mm256_set_epi32(1, 1, 1, 1, 1, 1, 1, 1);
    1381             :         // start using 32-bit operations
    1382             :         // stage 3
    1383             :         {
    1384             :           // expanding to 32-bit length priori to addition operations
    1385           0 :           lstep2[0] = _mm256_unpacklo_epi16(step2[0], kZero);
    1386           0 :           lstep2[1] = _mm256_unpackhi_epi16(step2[0], kZero);
    1387           0 :           lstep2[2] = _mm256_unpacklo_epi16(step2[1], kZero);
    1388           0 :           lstep2[3] = _mm256_unpackhi_epi16(step2[1], kZero);
    1389           0 :           lstep2[4] = _mm256_unpacklo_epi16(step2[2], kZero);
    1390           0 :           lstep2[5] = _mm256_unpackhi_epi16(step2[2], kZero);
    1391           0 :           lstep2[6] = _mm256_unpacklo_epi16(step2[3], kZero);
    1392           0 :           lstep2[7] = _mm256_unpackhi_epi16(step2[3], kZero);
    1393           0 :           lstep2[8] = _mm256_unpacklo_epi16(step2[4], kZero);
    1394           0 :           lstep2[9] = _mm256_unpackhi_epi16(step2[4], kZero);
    1395           0 :           lstep2[10] = _mm256_unpacklo_epi16(step2[5], kZero);
    1396           0 :           lstep2[11] = _mm256_unpackhi_epi16(step2[5], kZero);
    1397           0 :           lstep2[12] = _mm256_unpacklo_epi16(step2[6], kZero);
    1398           0 :           lstep2[13] = _mm256_unpackhi_epi16(step2[6], kZero);
    1399           0 :           lstep2[14] = _mm256_unpacklo_epi16(step2[7], kZero);
    1400           0 :           lstep2[15] = _mm256_unpackhi_epi16(step2[7], kZero);
    1401           0 :           lstep2[0] = _mm256_madd_epi16(lstep2[0], kOne);
    1402           0 :           lstep2[1] = _mm256_madd_epi16(lstep2[1], kOne);
    1403           0 :           lstep2[2] = _mm256_madd_epi16(lstep2[2], kOne);
    1404           0 :           lstep2[3] = _mm256_madd_epi16(lstep2[3], kOne);
    1405           0 :           lstep2[4] = _mm256_madd_epi16(lstep2[4], kOne);
    1406           0 :           lstep2[5] = _mm256_madd_epi16(lstep2[5], kOne);
    1407           0 :           lstep2[6] = _mm256_madd_epi16(lstep2[6], kOne);
    1408           0 :           lstep2[7] = _mm256_madd_epi16(lstep2[7], kOne);
    1409           0 :           lstep2[8] = _mm256_madd_epi16(lstep2[8], kOne);
    1410           0 :           lstep2[9] = _mm256_madd_epi16(lstep2[9], kOne);
    1411           0 :           lstep2[10] = _mm256_madd_epi16(lstep2[10], kOne);
    1412           0 :           lstep2[11] = _mm256_madd_epi16(lstep2[11], kOne);
    1413           0 :           lstep2[12] = _mm256_madd_epi16(lstep2[12], kOne);
    1414           0 :           lstep2[13] = _mm256_madd_epi16(lstep2[13], kOne);
    1415           0 :           lstep2[14] = _mm256_madd_epi16(lstep2[14], kOne);
    1416           0 :           lstep2[15] = _mm256_madd_epi16(lstep2[15], kOne);
    1417             : 
    1418           0 :           lstep3[0] = _mm256_add_epi32(lstep2[14], lstep2[0]);
    1419           0 :           lstep3[1] = _mm256_add_epi32(lstep2[15], lstep2[1]);
    1420           0 :           lstep3[2] = _mm256_add_epi32(lstep2[12], lstep2[2]);
    1421           0 :           lstep3[3] = _mm256_add_epi32(lstep2[13], lstep2[3]);
    1422           0 :           lstep3[4] = _mm256_add_epi32(lstep2[10], lstep2[4]);
    1423           0 :           lstep3[5] = _mm256_add_epi32(lstep2[11], lstep2[5]);
    1424           0 :           lstep3[6] = _mm256_add_epi32(lstep2[8], lstep2[6]);
    1425           0 :           lstep3[7] = _mm256_add_epi32(lstep2[9], lstep2[7]);
    1426           0 :           lstep3[8] = _mm256_sub_epi32(lstep2[6], lstep2[8]);
    1427           0 :           lstep3[9] = _mm256_sub_epi32(lstep2[7], lstep2[9]);
    1428           0 :           lstep3[10] = _mm256_sub_epi32(lstep2[4], lstep2[10]);
    1429           0 :           lstep3[11] = _mm256_sub_epi32(lstep2[5], lstep2[11]);
    1430           0 :           lstep3[12] = _mm256_sub_epi32(lstep2[2], lstep2[12]);
    1431           0 :           lstep3[13] = _mm256_sub_epi32(lstep2[3], lstep2[13]);
    1432           0 :           lstep3[14] = _mm256_sub_epi32(lstep2[0], lstep2[14]);
    1433           0 :           lstep3[15] = _mm256_sub_epi32(lstep2[1], lstep2[15]);
    1434             :         }
    1435             :         {
    1436           0 :           const __m256i s3_10_0 = _mm256_unpacklo_epi16(step2[13], step2[10]);
    1437           0 :           const __m256i s3_10_1 = _mm256_unpackhi_epi16(step2[13], step2[10]);
    1438           0 :           const __m256i s3_11_0 = _mm256_unpacklo_epi16(step2[12], step2[11]);
    1439           0 :           const __m256i s3_11_1 = _mm256_unpackhi_epi16(step2[12], step2[11]);
    1440           0 :           const __m256i s3_10_2 = _mm256_madd_epi16(s3_10_0, k__cospi_p16_m16);
    1441           0 :           const __m256i s3_10_3 = _mm256_madd_epi16(s3_10_1, k__cospi_p16_m16);
    1442           0 :           const __m256i s3_11_2 = _mm256_madd_epi16(s3_11_0, k__cospi_p16_m16);
    1443           0 :           const __m256i s3_11_3 = _mm256_madd_epi16(s3_11_1, k__cospi_p16_m16);
    1444           0 :           const __m256i s3_12_2 = _mm256_madd_epi16(s3_11_0, k__cospi_p16_p16);
    1445           0 :           const __m256i s3_12_3 = _mm256_madd_epi16(s3_11_1, k__cospi_p16_p16);
    1446           0 :           const __m256i s3_13_2 = _mm256_madd_epi16(s3_10_0, k__cospi_p16_p16);
    1447           0 :           const __m256i s3_13_3 = _mm256_madd_epi16(s3_10_1, k__cospi_p16_p16);
    1448             :           // dct_const_round_shift
    1449           0 :           const __m256i s3_10_4 =
    1450             :               _mm256_add_epi32(s3_10_2, k__DCT_CONST_ROUNDING);
    1451           0 :           const __m256i s3_10_5 =
    1452             :               _mm256_add_epi32(s3_10_3, k__DCT_CONST_ROUNDING);
    1453           0 :           const __m256i s3_11_4 =
    1454             :               _mm256_add_epi32(s3_11_2, k__DCT_CONST_ROUNDING);
    1455           0 :           const __m256i s3_11_5 =
    1456             :               _mm256_add_epi32(s3_11_3, k__DCT_CONST_ROUNDING);
    1457           0 :           const __m256i s3_12_4 =
    1458             :               _mm256_add_epi32(s3_12_2, k__DCT_CONST_ROUNDING);
    1459           0 :           const __m256i s3_12_5 =
    1460             :               _mm256_add_epi32(s3_12_3, k__DCT_CONST_ROUNDING);
    1461           0 :           const __m256i s3_13_4 =
    1462             :               _mm256_add_epi32(s3_13_2, k__DCT_CONST_ROUNDING);
    1463           0 :           const __m256i s3_13_5 =
    1464             :               _mm256_add_epi32(s3_13_3, k__DCT_CONST_ROUNDING);
    1465           0 :           lstep3[20] = _mm256_srai_epi32(s3_10_4, DCT_CONST_BITS);
    1466           0 :           lstep3[21] = _mm256_srai_epi32(s3_10_5, DCT_CONST_BITS);
    1467           0 :           lstep3[22] = _mm256_srai_epi32(s3_11_4, DCT_CONST_BITS);
    1468           0 :           lstep3[23] = _mm256_srai_epi32(s3_11_5, DCT_CONST_BITS);
    1469           0 :           lstep3[24] = _mm256_srai_epi32(s3_12_4, DCT_CONST_BITS);
    1470           0 :           lstep3[25] = _mm256_srai_epi32(s3_12_5, DCT_CONST_BITS);
    1471           0 :           lstep3[26] = _mm256_srai_epi32(s3_13_4, DCT_CONST_BITS);
    1472           0 :           lstep3[27] = _mm256_srai_epi32(s3_13_5, DCT_CONST_BITS);
    1473             :         }
    1474             :         {
    1475           0 :           lstep2[40] = _mm256_unpacklo_epi16(step2[20], kZero);
    1476           0 :           lstep2[41] = _mm256_unpackhi_epi16(step2[20], kZero);
    1477           0 :           lstep2[42] = _mm256_unpacklo_epi16(step2[21], kZero);
    1478           0 :           lstep2[43] = _mm256_unpackhi_epi16(step2[21], kZero);
    1479           0 :           lstep2[44] = _mm256_unpacklo_epi16(step2[22], kZero);
    1480           0 :           lstep2[45] = _mm256_unpackhi_epi16(step2[22], kZero);
    1481           0 :           lstep2[46] = _mm256_unpacklo_epi16(step2[23], kZero);
    1482           0 :           lstep2[47] = _mm256_unpackhi_epi16(step2[23], kZero);
    1483           0 :           lstep2[48] = _mm256_unpacklo_epi16(step2[24], kZero);
    1484           0 :           lstep2[49] = _mm256_unpackhi_epi16(step2[24], kZero);
    1485           0 :           lstep2[50] = _mm256_unpacklo_epi16(step2[25], kZero);
    1486           0 :           lstep2[51] = _mm256_unpackhi_epi16(step2[25], kZero);
    1487           0 :           lstep2[52] = _mm256_unpacklo_epi16(step2[26], kZero);
    1488           0 :           lstep2[53] = _mm256_unpackhi_epi16(step2[26], kZero);
    1489           0 :           lstep2[54] = _mm256_unpacklo_epi16(step2[27], kZero);
    1490           0 :           lstep2[55] = _mm256_unpackhi_epi16(step2[27], kZero);
    1491           0 :           lstep2[40] = _mm256_madd_epi16(lstep2[40], kOne);
    1492           0 :           lstep2[41] = _mm256_madd_epi16(lstep2[41], kOne);
    1493           0 :           lstep2[42] = _mm256_madd_epi16(lstep2[42], kOne);
    1494           0 :           lstep2[43] = _mm256_madd_epi16(lstep2[43], kOne);
    1495           0 :           lstep2[44] = _mm256_madd_epi16(lstep2[44], kOne);
    1496           0 :           lstep2[45] = _mm256_madd_epi16(lstep2[45], kOne);
    1497           0 :           lstep2[46] = _mm256_madd_epi16(lstep2[46], kOne);
    1498           0 :           lstep2[47] = _mm256_madd_epi16(lstep2[47], kOne);
    1499           0 :           lstep2[48] = _mm256_madd_epi16(lstep2[48], kOne);
    1500           0 :           lstep2[49] = _mm256_madd_epi16(lstep2[49], kOne);
    1501           0 :           lstep2[50] = _mm256_madd_epi16(lstep2[50], kOne);
    1502           0 :           lstep2[51] = _mm256_madd_epi16(lstep2[51], kOne);
    1503           0 :           lstep2[52] = _mm256_madd_epi16(lstep2[52], kOne);
    1504           0 :           lstep2[53] = _mm256_madd_epi16(lstep2[53], kOne);
    1505           0 :           lstep2[54] = _mm256_madd_epi16(lstep2[54], kOne);
    1506           0 :           lstep2[55] = _mm256_madd_epi16(lstep2[55], kOne);
    1507             : 
    1508           0 :           lstep1[32] = _mm256_unpacklo_epi16(step1[16], kZero);
    1509           0 :           lstep1[33] = _mm256_unpackhi_epi16(step1[16], kZero);
    1510           0 :           lstep1[34] = _mm256_unpacklo_epi16(step1[17], kZero);
    1511           0 :           lstep1[35] = _mm256_unpackhi_epi16(step1[17], kZero);
    1512           0 :           lstep1[36] = _mm256_unpacklo_epi16(step1[18], kZero);
    1513           0 :           lstep1[37] = _mm256_unpackhi_epi16(step1[18], kZero);
    1514           0 :           lstep1[38] = _mm256_unpacklo_epi16(step1[19], kZero);
    1515           0 :           lstep1[39] = _mm256_unpackhi_epi16(step1[19], kZero);
    1516           0 :           lstep1[56] = _mm256_unpacklo_epi16(step1[28], kZero);
    1517           0 :           lstep1[57] = _mm256_unpackhi_epi16(step1[28], kZero);
    1518           0 :           lstep1[58] = _mm256_unpacklo_epi16(step1[29], kZero);
    1519           0 :           lstep1[59] = _mm256_unpackhi_epi16(step1[29], kZero);
    1520           0 :           lstep1[60] = _mm256_unpacklo_epi16(step1[30], kZero);
    1521           0 :           lstep1[61] = _mm256_unpackhi_epi16(step1[30], kZero);
    1522           0 :           lstep1[62] = _mm256_unpacklo_epi16(step1[31], kZero);
    1523           0 :           lstep1[63] = _mm256_unpackhi_epi16(step1[31], kZero);
    1524           0 :           lstep1[32] = _mm256_madd_epi16(lstep1[32], kOne);
    1525           0 :           lstep1[33] = _mm256_madd_epi16(lstep1[33], kOne);
    1526           0 :           lstep1[34] = _mm256_madd_epi16(lstep1[34], kOne);
    1527           0 :           lstep1[35] = _mm256_madd_epi16(lstep1[35], kOne);
    1528           0 :           lstep1[36] = _mm256_madd_epi16(lstep1[36], kOne);
    1529           0 :           lstep1[37] = _mm256_madd_epi16(lstep1[37], kOne);
    1530           0 :           lstep1[38] = _mm256_madd_epi16(lstep1[38], kOne);
    1531           0 :           lstep1[39] = _mm256_madd_epi16(lstep1[39], kOne);
    1532           0 :           lstep1[56] = _mm256_madd_epi16(lstep1[56], kOne);
    1533           0 :           lstep1[57] = _mm256_madd_epi16(lstep1[57], kOne);
    1534           0 :           lstep1[58] = _mm256_madd_epi16(lstep1[58], kOne);
    1535           0 :           lstep1[59] = _mm256_madd_epi16(lstep1[59], kOne);
    1536           0 :           lstep1[60] = _mm256_madd_epi16(lstep1[60], kOne);
    1537           0 :           lstep1[61] = _mm256_madd_epi16(lstep1[61], kOne);
    1538           0 :           lstep1[62] = _mm256_madd_epi16(lstep1[62], kOne);
    1539           0 :           lstep1[63] = _mm256_madd_epi16(lstep1[63], kOne);
    1540             : 
    1541           0 :           lstep3[32] = _mm256_add_epi32(lstep2[46], lstep1[32]);
    1542           0 :           lstep3[33] = _mm256_add_epi32(lstep2[47], lstep1[33]);
    1543             : 
    1544           0 :           lstep3[34] = _mm256_add_epi32(lstep2[44], lstep1[34]);
    1545           0 :           lstep3[35] = _mm256_add_epi32(lstep2[45], lstep1[35]);
    1546           0 :           lstep3[36] = _mm256_add_epi32(lstep2[42], lstep1[36]);
    1547           0 :           lstep3[37] = _mm256_add_epi32(lstep2[43], lstep1[37]);
    1548           0 :           lstep3[38] = _mm256_add_epi32(lstep2[40], lstep1[38]);
    1549           0 :           lstep3[39] = _mm256_add_epi32(lstep2[41], lstep1[39]);
    1550           0 :           lstep3[40] = _mm256_sub_epi32(lstep1[38], lstep2[40]);
    1551           0 :           lstep3[41] = _mm256_sub_epi32(lstep1[39], lstep2[41]);
    1552           0 :           lstep3[42] = _mm256_sub_epi32(lstep1[36], lstep2[42]);
    1553           0 :           lstep3[43] = _mm256_sub_epi32(lstep1[37], lstep2[43]);
    1554           0 :           lstep3[44] = _mm256_sub_epi32(lstep1[34], lstep2[44]);
    1555           0 :           lstep3[45] = _mm256_sub_epi32(lstep1[35], lstep2[45]);
    1556           0 :           lstep3[46] = _mm256_sub_epi32(lstep1[32], lstep2[46]);
    1557           0 :           lstep3[47] = _mm256_sub_epi32(lstep1[33], lstep2[47]);
    1558           0 :           lstep3[48] = _mm256_sub_epi32(lstep1[62], lstep2[48]);
    1559           0 :           lstep3[49] = _mm256_sub_epi32(lstep1[63], lstep2[49]);
    1560           0 :           lstep3[50] = _mm256_sub_epi32(lstep1[60], lstep2[50]);
    1561           0 :           lstep3[51] = _mm256_sub_epi32(lstep1[61], lstep2[51]);
    1562           0 :           lstep3[52] = _mm256_sub_epi32(lstep1[58], lstep2[52]);
    1563           0 :           lstep3[53] = _mm256_sub_epi32(lstep1[59], lstep2[53]);
    1564           0 :           lstep3[54] = _mm256_sub_epi32(lstep1[56], lstep2[54]);
    1565           0 :           lstep3[55] = _mm256_sub_epi32(lstep1[57], lstep2[55]);
    1566           0 :           lstep3[56] = _mm256_add_epi32(lstep2[54], lstep1[56]);
    1567           0 :           lstep3[57] = _mm256_add_epi32(lstep2[55], lstep1[57]);
    1568           0 :           lstep3[58] = _mm256_add_epi32(lstep2[52], lstep1[58]);
    1569           0 :           lstep3[59] = _mm256_add_epi32(lstep2[53], lstep1[59]);
    1570           0 :           lstep3[60] = _mm256_add_epi32(lstep2[50], lstep1[60]);
    1571           0 :           lstep3[61] = _mm256_add_epi32(lstep2[51], lstep1[61]);
    1572           0 :           lstep3[62] = _mm256_add_epi32(lstep2[48], lstep1[62]);
    1573           0 :           lstep3[63] = _mm256_add_epi32(lstep2[49], lstep1[63]);
    1574             :         }
    1575             : 
    1576             :         // stage 4
    1577             :         {
    1578             :           // expanding to 32-bit length priori to addition operations
    1579           0 :           lstep2[16] = _mm256_unpacklo_epi16(step2[8], kZero);
    1580           0 :           lstep2[17] = _mm256_unpackhi_epi16(step2[8], kZero);
    1581           0 :           lstep2[18] = _mm256_unpacklo_epi16(step2[9], kZero);
    1582           0 :           lstep2[19] = _mm256_unpackhi_epi16(step2[9], kZero);
    1583           0 :           lstep2[28] = _mm256_unpacklo_epi16(step2[14], kZero);
    1584           0 :           lstep2[29] = _mm256_unpackhi_epi16(step2[14], kZero);
    1585           0 :           lstep2[30] = _mm256_unpacklo_epi16(step2[15], kZero);
    1586           0 :           lstep2[31] = _mm256_unpackhi_epi16(step2[15], kZero);
    1587           0 :           lstep2[16] = _mm256_madd_epi16(lstep2[16], kOne);
    1588           0 :           lstep2[17] = _mm256_madd_epi16(lstep2[17], kOne);
    1589           0 :           lstep2[18] = _mm256_madd_epi16(lstep2[18], kOne);
    1590           0 :           lstep2[19] = _mm256_madd_epi16(lstep2[19], kOne);
    1591           0 :           lstep2[28] = _mm256_madd_epi16(lstep2[28], kOne);
    1592           0 :           lstep2[29] = _mm256_madd_epi16(lstep2[29], kOne);
    1593           0 :           lstep2[30] = _mm256_madd_epi16(lstep2[30], kOne);
    1594           0 :           lstep2[31] = _mm256_madd_epi16(lstep2[31], kOne);
    1595             : 
    1596           0 :           lstep1[0] = _mm256_add_epi32(lstep3[6], lstep3[0]);
    1597           0 :           lstep1[1] = _mm256_add_epi32(lstep3[7], lstep3[1]);
    1598           0 :           lstep1[2] = _mm256_add_epi32(lstep3[4], lstep3[2]);
    1599           0 :           lstep1[3] = _mm256_add_epi32(lstep3[5], lstep3[3]);
    1600           0 :           lstep1[4] = _mm256_sub_epi32(lstep3[2], lstep3[4]);
    1601           0 :           lstep1[5] = _mm256_sub_epi32(lstep3[3], lstep3[5]);
    1602           0 :           lstep1[6] = _mm256_sub_epi32(lstep3[0], lstep3[6]);
    1603           0 :           lstep1[7] = _mm256_sub_epi32(lstep3[1], lstep3[7]);
    1604           0 :           lstep1[16] = _mm256_add_epi32(lstep3[22], lstep2[16]);
    1605           0 :           lstep1[17] = _mm256_add_epi32(lstep3[23], lstep2[17]);
    1606           0 :           lstep1[18] = _mm256_add_epi32(lstep3[20], lstep2[18]);
    1607           0 :           lstep1[19] = _mm256_add_epi32(lstep3[21], lstep2[19]);
    1608           0 :           lstep1[20] = _mm256_sub_epi32(lstep2[18], lstep3[20]);
    1609           0 :           lstep1[21] = _mm256_sub_epi32(lstep2[19], lstep3[21]);
    1610           0 :           lstep1[22] = _mm256_sub_epi32(lstep2[16], lstep3[22]);
    1611           0 :           lstep1[23] = _mm256_sub_epi32(lstep2[17], lstep3[23]);
    1612           0 :           lstep1[24] = _mm256_sub_epi32(lstep2[30], lstep3[24]);
    1613           0 :           lstep1[25] = _mm256_sub_epi32(lstep2[31], lstep3[25]);
    1614           0 :           lstep1[26] = _mm256_sub_epi32(lstep2[28], lstep3[26]);
    1615           0 :           lstep1[27] = _mm256_sub_epi32(lstep2[29], lstep3[27]);
    1616           0 :           lstep1[28] = _mm256_add_epi32(lstep3[26], lstep2[28]);
    1617           0 :           lstep1[29] = _mm256_add_epi32(lstep3[27], lstep2[29]);
    1618           0 :           lstep1[30] = _mm256_add_epi32(lstep3[24], lstep2[30]);
    1619           0 :           lstep1[31] = _mm256_add_epi32(lstep3[25], lstep2[31]);
    1620             :         }
    1621             :         {
    1622             :           // to be continued...
    1623             :           //
    1624           0 :           const __m256i k32_p16_p16 =
    1625           0 :               pair256_set_epi32(cospi_16_64, cospi_16_64);
    1626           0 :           const __m256i k32_p16_m16 =
    1627           0 :               pair256_set_epi32(cospi_16_64, -cospi_16_64);
    1628             : 
    1629           0 :           u[0] = _mm256_unpacklo_epi32(lstep3[12], lstep3[10]);
    1630           0 :           u[1] = _mm256_unpackhi_epi32(lstep3[12], lstep3[10]);
    1631           0 :           u[2] = _mm256_unpacklo_epi32(lstep3[13], lstep3[11]);
    1632           0 :           u[3] = _mm256_unpackhi_epi32(lstep3[13], lstep3[11]);
    1633             : 
    1634             :           // TODO(jingning): manually inline k_madd_epi32_avx2_ to further hide
    1635             :           // instruction latency.
    1636           0 :           v[0] = k_madd_epi32_avx2(u[0], k32_p16_m16);
    1637           0 :           v[1] = k_madd_epi32_avx2(u[1], k32_p16_m16);
    1638           0 :           v[2] = k_madd_epi32_avx2(u[2], k32_p16_m16);
    1639           0 :           v[3] = k_madd_epi32_avx2(u[3], k32_p16_m16);
    1640           0 :           v[4] = k_madd_epi32_avx2(u[0], k32_p16_p16);
    1641           0 :           v[5] = k_madd_epi32_avx2(u[1], k32_p16_p16);
    1642           0 :           v[6] = k_madd_epi32_avx2(u[2], k32_p16_p16);
    1643           0 :           v[7] = k_madd_epi32_avx2(u[3], k32_p16_p16);
    1644             : 
    1645           0 :           u[0] = k_packs_epi64_avx2(v[0], v[1]);
    1646           0 :           u[1] = k_packs_epi64_avx2(v[2], v[3]);
    1647           0 :           u[2] = k_packs_epi64_avx2(v[4], v[5]);
    1648           0 :           u[3] = k_packs_epi64_avx2(v[6], v[7]);
    1649             : 
    1650           0 :           v[0] = _mm256_add_epi32(u[0], k__DCT_CONST_ROUNDING);
    1651           0 :           v[1] = _mm256_add_epi32(u[1], k__DCT_CONST_ROUNDING);
    1652           0 :           v[2] = _mm256_add_epi32(u[2], k__DCT_CONST_ROUNDING);
    1653           0 :           v[3] = _mm256_add_epi32(u[3], k__DCT_CONST_ROUNDING);
    1654             : 
    1655           0 :           lstep1[10] = _mm256_srai_epi32(v[0], DCT_CONST_BITS);
    1656           0 :           lstep1[11] = _mm256_srai_epi32(v[1], DCT_CONST_BITS);
    1657           0 :           lstep1[12] = _mm256_srai_epi32(v[2], DCT_CONST_BITS);
    1658           0 :           lstep1[13] = _mm256_srai_epi32(v[3], DCT_CONST_BITS);
    1659             :         }
    1660             :         {
    1661           0 :           const __m256i k32_m08_p24 =
    1662           0 :               pair256_set_epi32(-cospi_8_64, cospi_24_64);
    1663           0 :           const __m256i k32_m24_m08 =
    1664           0 :               pair256_set_epi32(-cospi_24_64, -cospi_8_64);
    1665           0 :           const __m256i k32_p24_p08 =
    1666           0 :               pair256_set_epi32(cospi_24_64, cospi_8_64);
    1667             : 
    1668           0 :           u[0] = _mm256_unpacklo_epi32(lstep3[36], lstep3[58]);
    1669           0 :           u[1] = _mm256_unpackhi_epi32(lstep3[36], lstep3[58]);
    1670           0 :           u[2] = _mm256_unpacklo_epi32(lstep3[37], lstep3[59]);
    1671           0 :           u[3] = _mm256_unpackhi_epi32(lstep3[37], lstep3[59]);
    1672           0 :           u[4] = _mm256_unpacklo_epi32(lstep3[38], lstep3[56]);
    1673           0 :           u[5] = _mm256_unpackhi_epi32(lstep3[38], lstep3[56]);
    1674           0 :           u[6] = _mm256_unpacklo_epi32(lstep3[39], lstep3[57]);
    1675           0 :           u[7] = _mm256_unpackhi_epi32(lstep3[39], lstep3[57]);
    1676           0 :           u[8] = _mm256_unpacklo_epi32(lstep3[40], lstep3[54]);
    1677           0 :           u[9] = _mm256_unpackhi_epi32(lstep3[40], lstep3[54]);
    1678           0 :           u[10] = _mm256_unpacklo_epi32(lstep3[41], lstep3[55]);
    1679           0 :           u[11] = _mm256_unpackhi_epi32(lstep3[41], lstep3[55]);
    1680           0 :           u[12] = _mm256_unpacklo_epi32(lstep3[42], lstep3[52]);
    1681           0 :           u[13] = _mm256_unpackhi_epi32(lstep3[42], lstep3[52]);
    1682           0 :           u[14] = _mm256_unpacklo_epi32(lstep3[43], lstep3[53]);
    1683           0 :           u[15] = _mm256_unpackhi_epi32(lstep3[43], lstep3[53]);
    1684             : 
    1685           0 :           v[0] = k_madd_epi32_avx2(u[0], k32_m08_p24);
    1686           0 :           v[1] = k_madd_epi32_avx2(u[1], k32_m08_p24);
    1687           0 :           v[2] = k_madd_epi32_avx2(u[2], k32_m08_p24);
    1688           0 :           v[3] = k_madd_epi32_avx2(u[3], k32_m08_p24);
    1689           0 :           v[4] = k_madd_epi32_avx2(u[4], k32_m08_p24);
    1690           0 :           v[5] = k_madd_epi32_avx2(u[5], k32_m08_p24);
    1691           0 :           v[6] = k_madd_epi32_avx2(u[6], k32_m08_p24);
    1692           0 :           v[7] = k_madd_epi32_avx2(u[7], k32_m08_p24);
    1693           0 :           v[8] = k_madd_epi32_avx2(u[8], k32_m24_m08);
    1694           0 :           v[9] = k_madd_epi32_avx2(u[9], k32_m24_m08);
    1695           0 :           v[10] = k_madd_epi32_avx2(u[10], k32_m24_m08);
    1696           0 :           v[11] = k_madd_epi32_avx2(u[11], k32_m24_m08);
    1697           0 :           v[12] = k_madd_epi32_avx2(u[12], k32_m24_m08);
    1698           0 :           v[13] = k_madd_epi32_avx2(u[13], k32_m24_m08);
    1699           0 :           v[14] = k_madd_epi32_avx2(u[14], k32_m24_m08);
    1700           0 :           v[15] = k_madd_epi32_avx2(u[15], k32_m24_m08);
    1701           0 :           v[16] = k_madd_epi32_avx2(u[12], k32_m08_p24);
    1702           0 :           v[17] = k_madd_epi32_avx2(u[13], k32_m08_p24);
    1703           0 :           v[18] = k_madd_epi32_avx2(u[14], k32_m08_p24);
    1704           0 :           v[19] = k_madd_epi32_avx2(u[15], k32_m08_p24);
    1705           0 :           v[20] = k_madd_epi32_avx2(u[8], k32_m08_p24);
    1706           0 :           v[21] = k_madd_epi32_avx2(u[9], k32_m08_p24);
    1707           0 :           v[22] = k_madd_epi32_avx2(u[10], k32_m08_p24);
    1708           0 :           v[23] = k_madd_epi32_avx2(u[11], k32_m08_p24);
    1709           0 :           v[24] = k_madd_epi32_avx2(u[4], k32_p24_p08);
    1710           0 :           v[25] = k_madd_epi32_avx2(u[5], k32_p24_p08);
    1711           0 :           v[26] = k_madd_epi32_avx2(u[6], k32_p24_p08);
    1712           0 :           v[27] = k_madd_epi32_avx2(u[7], k32_p24_p08);
    1713           0 :           v[28] = k_madd_epi32_avx2(u[0], k32_p24_p08);
    1714           0 :           v[29] = k_madd_epi32_avx2(u[1], k32_p24_p08);
    1715           0 :           v[30] = k_madd_epi32_avx2(u[2], k32_p24_p08);
    1716           0 :           v[31] = k_madd_epi32_avx2(u[3], k32_p24_p08);
    1717             : 
    1718           0 :           u[0] = k_packs_epi64_avx2(v[0], v[1]);
    1719           0 :           u[1] = k_packs_epi64_avx2(v[2], v[3]);
    1720           0 :           u[2] = k_packs_epi64_avx2(v[4], v[5]);
    1721           0 :           u[3] = k_packs_epi64_avx2(v[6], v[7]);
    1722           0 :           u[4] = k_packs_epi64_avx2(v[8], v[9]);
    1723           0 :           u[5] = k_packs_epi64_avx2(v[10], v[11]);
    1724           0 :           u[6] = k_packs_epi64_avx2(v[12], v[13]);
    1725           0 :           u[7] = k_packs_epi64_avx2(v[14], v[15]);
    1726           0 :           u[8] = k_packs_epi64_avx2(v[16], v[17]);
    1727           0 :           u[9] = k_packs_epi64_avx2(v[18], v[19]);
    1728           0 :           u[10] = k_packs_epi64_avx2(v[20], v[21]);
    1729           0 :           u[11] = k_packs_epi64_avx2(v[22], v[23]);
    1730           0 :           u[12] = k_packs_epi64_avx2(v[24], v[25]);
    1731           0 :           u[13] = k_packs_epi64_avx2(v[26], v[27]);
    1732           0 :           u[14] = k_packs_epi64_avx2(v[28], v[29]);
    1733           0 :           u[15] = k_packs_epi64_avx2(v[30], v[31]);
    1734             : 
    1735           0 :           v[0] = _mm256_add_epi32(u[0], k__DCT_CONST_ROUNDING);
    1736           0 :           v[1] = _mm256_add_epi32(u[1], k__DCT_CONST_ROUNDING);
    1737           0 :           v[2] = _mm256_add_epi32(u[2], k__DCT_CONST_ROUNDING);
    1738           0 :           v[3] = _mm256_add_epi32(u[3], k__DCT_CONST_ROUNDING);
    1739           0 :           v[4] = _mm256_add_epi32(u[4], k__DCT_CONST_ROUNDING);
    1740           0 :           v[5] = _mm256_add_epi32(u[5], k__DCT_CONST_ROUNDING);
    1741           0 :           v[6] = _mm256_add_epi32(u[6], k__DCT_CONST_ROUNDING);
    1742           0 :           v[7] = _mm256_add_epi32(u[7], k__DCT_CONST_ROUNDING);
    1743           0 :           v[8] = _mm256_add_epi32(u[8], k__DCT_CONST_ROUNDING);
    1744           0 :           v[9] = _mm256_add_epi32(u[9], k__DCT_CONST_ROUNDING);
    1745           0 :           v[10] = _mm256_add_epi32(u[10], k__DCT_CONST_ROUNDING);
    1746           0 :           v[11] = _mm256_add_epi32(u[11], k__DCT_CONST_ROUNDING);
    1747           0 :           v[12] = _mm256_add_epi32(u[12], k__DCT_CONST_ROUNDING);
    1748           0 :           v[13] = _mm256_add_epi32(u[13], k__DCT_CONST_ROUNDING);
    1749           0 :           v[14] = _mm256_add_epi32(u[14], k__DCT_CONST_ROUNDING);
    1750           0 :           v[15] = _mm256_add_epi32(u[15], k__DCT_CONST_ROUNDING);
    1751             : 
    1752           0 :           lstep1[36] = _mm256_srai_epi32(v[0], DCT_CONST_BITS);
    1753           0 :           lstep1[37] = _mm256_srai_epi32(v[1], DCT_CONST_BITS);
    1754           0 :           lstep1[38] = _mm256_srai_epi32(v[2], DCT_CONST_BITS);
    1755           0 :           lstep1[39] = _mm256_srai_epi32(v[3], DCT_CONST_BITS);
    1756           0 :           lstep1[40] = _mm256_srai_epi32(v[4], DCT_CONST_BITS);
    1757           0 :           lstep1[41] = _mm256_srai_epi32(v[5], DCT_CONST_BITS);
    1758           0 :           lstep1[42] = _mm256_srai_epi32(v[6], DCT_CONST_BITS);
    1759           0 :           lstep1[43] = _mm256_srai_epi32(v[7], DCT_CONST_BITS);
    1760           0 :           lstep1[52] = _mm256_srai_epi32(v[8], DCT_CONST_BITS);
    1761           0 :           lstep1[53] = _mm256_srai_epi32(v[9], DCT_CONST_BITS);
    1762           0 :           lstep1[54] = _mm256_srai_epi32(v[10], DCT_CONST_BITS);
    1763           0 :           lstep1[55] = _mm256_srai_epi32(v[11], DCT_CONST_BITS);
    1764           0 :           lstep1[56] = _mm256_srai_epi32(v[12], DCT_CONST_BITS);
    1765           0 :           lstep1[57] = _mm256_srai_epi32(v[13], DCT_CONST_BITS);
    1766           0 :           lstep1[58] = _mm256_srai_epi32(v[14], DCT_CONST_BITS);
    1767           0 :           lstep1[59] = _mm256_srai_epi32(v[15], DCT_CONST_BITS);
    1768             :         }
    1769             :         // stage 5
    1770             :         {
    1771           0 :           lstep2[8] = _mm256_add_epi32(lstep1[10], lstep3[8]);
    1772           0 :           lstep2[9] = _mm256_add_epi32(lstep1[11], lstep3[9]);
    1773           0 :           lstep2[10] = _mm256_sub_epi32(lstep3[8], lstep1[10]);
    1774           0 :           lstep2[11] = _mm256_sub_epi32(lstep3[9], lstep1[11]);
    1775           0 :           lstep2[12] = _mm256_sub_epi32(lstep3[14], lstep1[12]);
    1776           0 :           lstep2[13] = _mm256_sub_epi32(lstep3[15], lstep1[13]);
    1777           0 :           lstep2[14] = _mm256_add_epi32(lstep1[12], lstep3[14]);
    1778           0 :           lstep2[15] = _mm256_add_epi32(lstep1[13], lstep3[15]);
    1779             :         }
    1780             :         {
    1781           0 :           const __m256i k32_p16_p16 =
    1782           0 :               pair256_set_epi32(cospi_16_64, cospi_16_64);
    1783           0 :           const __m256i k32_p16_m16 =
    1784           0 :               pair256_set_epi32(cospi_16_64, -cospi_16_64);
    1785           0 :           const __m256i k32_p24_p08 =
    1786           0 :               pair256_set_epi32(cospi_24_64, cospi_8_64);
    1787           0 :           const __m256i k32_m08_p24 =
    1788           0 :               pair256_set_epi32(-cospi_8_64, cospi_24_64);
    1789             : 
    1790           0 :           u[0] = _mm256_unpacklo_epi32(lstep1[0], lstep1[2]);
    1791           0 :           u[1] = _mm256_unpackhi_epi32(lstep1[0], lstep1[2]);
    1792           0 :           u[2] = _mm256_unpacklo_epi32(lstep1[1], lstep1[3]);
    1793           0 :           u[3] = _mm256_unpackhi_epi32(lstep1[1], lstep1[3]);
    1794           0 :           u[4] = _mm256_unpacklo_epi32(lstep1[4], lstep1[6]);
    1795           0 :           u[5] = _mm256_unpackhi_epi32(lstep1[4], lstep1[6]);
    1796           0 :           u[6] = _mm256_unpacklo_epi32(lstep1[5], lstep1[7]);
    1797           0 :           u[7] = _mm256_unpackhi_epi32(lstep1[5], lstep1[7]);
    1798             : 
    1799             :           // TODO(jingning): manually inline k_madd_epi32_avx2_ to further hide
    1800             :           // instruction latency.
    1801           0 :           v[0] = k_madd_epi32_avx2(u[0], k32_p16_p16);
    1802           0 :           v[1] = k_madd_epi32_avx2(u[1], k32_p16_p16);
    1803           0 :           v[2] = k_madd_epi32_avx2(u[2], k32_p16_p16);
    1804           0 :           v[3] = k_madd_epi32_avx2(u[3], k32_p16_p16);
    1805           0 :           v[4] = k_madd_epi32_avx2(u[0], k32_p16_m16);
    1806           0 :           v[5] = k_madd_epi32_avx2(u[1], k32_p16_m16);
    1807           0 :           v[6] = k_madd_epi32_avx2(u[2], k32_p16_m16);
    1808           0 :           v[7] = k_madd_epi32_avx2(u[3], k32_p16_m16);
    1809           0 :           v[8] = k_madd_epi32_avx2(u[4], k32_p24_p08);
    1810           0 :           v[9] = k_madd_epi32_avx2(u[5], k32_p24_p08);
    1811           0 :           v[10] = k_madd_epi32_avx2(u[6], k32_p24_p08);
    1812           0 :           v[11] = k_madd_epi32_avx2(u[7], k32_p24_p08);
    1813           0 :           v[12] = k_madd_epi32_avx2(u[4], k32_m08_p24);
    1814           0 :           v[13] = k_madd_epi32_avx2(u[5], k32_m08_p24);
    1815           0 :           v[14] = k_madd_epi32_avx2(u[6], k32_m08_p24);
    1816           0 :           v[15] = k_madd_epi32_avx2(u[7], k32_m08_p24);
    1817             : 
    1818           0 :           u[0] = k_packs_epi64_avx2(v[0], v[1]);
    1819           0 :           u[1] = k_packs_epi64_avx2(v[2], v[3]);
    1820           0 :           u[2] = k_packs_epi64_avx2(v[4], v[5]);
    1821           0 :           u[3] = k_packs_epi64_avx2(v[6], v[7]);
    1822           0 :           u[4] = k_packs_epi64_avx2(v[8], v[9]);
    1823           0 :           u[5] = k_packs_epi64_avx2(v[10], v[11]);
    1824           0 :           u[6] = k_packs_epi64_avx2(v[12], v[13]);
    1825           0 :           u[7] = k_packs_epi64_avx2(v[14], v[15]);
    1826             : 
    1827           0 :           v[0] = _mm256_add_epi32(u[0], k__DCT_CONST_ROUNDING);
    1828           0 :           v[1] = _mm256_add_epi32(u[1], k__DCT_CONST_ROUNDING);
    1829           0 :           v[2] = _mm256_add_epi32(u[2], k__DCT_CONST_ROUNDING);
    1830           0 :           v[3] = _mm256_add_epi32(u[3], k__DCT_CONST_ROUNDING);
    1831           0 :           v[4] = _mm256_add_epi32(u[4], k__DCT_CONST_ROUNDING);
    1832           0 :           v[5] = _mm256_add_epi32(u[5], k__DCT_CONST_ROUNDING);
    1833           0 :           v[6] = _mm256_add_epi32(u[6], k__DCT_CONST_ROUNDING);
    1834           0 :           v[7] = _mm256_add_epi32(u[7], k__DCT_CONST_ROUNDING);
    1835             : 
    1836           0 :           u[0] = _mm256_srai_epi32(v[0], DCT_CONST_BITS);
    1837           0 :           u[1] = _mm256_srai_epi32(v[1], DCT_CONST_BITS);
    1838           0 :           u[2] = _mm256_srai_epi32(v[2], DCT_CONST_BITS);
    1839           0 :           u[3] = _mm256_srai_epi32(v[3], DCT_CONST_BITS);
    1840           0 :           u[4] = _mm256_srai_epi32(v[4], DCT_CONST_BITS);
    1841           0 :           u[5] = _mm256_srai_epi32(v[5], DCT_CONST_BITS);
    1842           0 :           u[6] = _mm256_srai_epi32(v[6], DCT_CONST_BITS);
    1843           0 :           u[7] = _mm256_srai_epi32(v[7], DCT_CONST_BITS);
    1844             : 
    1845           0 :           sign[0] = _mm256_cmpgt_epi32(kZero, u[0]);
    1846           0 :           sign[1] = _mm256_cmpgt_epi32(kZero, u[1]);
    1847           0 :           sign[2] = _mm256_cmpgt_epi32(kZero, u[2]);
    1848           0 :           sign[3] = _mm256_cmpgt_epi32(kZero, u[3]);
    1849           0 :           sign[4] = _mm256_cmpgt_epi32(kZero, u[4]);
    1850           0 :           sign[5] = _mm256_cmpgt_epi32(kZero, u[5]);
    1851           0 :           sign[6] = _mm256_cmpgt_epi32(kZero, u[6]);
    1852           0 :           sign[7] = _mm256_cmpgt_epi32(kZero, u[7]);
    1853             : 
    1854           0 :           u[0] = _mm256_sub_epi32(u[0], sign[0]);
    1855           0 :           u[1] = _mm256_sub_epi32(u[1], sign[1]);
    1856           0 :           u[2] = _mm256_sub_epi32(u[2], sign[2]);
    1857           0 :           u[3] = _mm256_sub_epi32(u[3], sign[3]);
    1858           0 :           u[4] = _mm256_sub_epi32(u[4], sign[4]);
    1859           0 :           u[5] = _mm256_sub_epi32(u[5], sign[5]);
    1860           0 :           u[6] = _mm256_sub_epi32(u[6], sign[6]);
    1861           0 :           u[7] = _mm256_sub_epi32(u[7], sign[7]);
    1862             : 
    1863           0 :           u[0] = _mm256_add_epi32(u[0], K32One);
    1864           0 :           u[1] = _mm256_add_epi32(u[1], K32One);
    1865           0 :           u[2] = _mm256_add_epi32(u[2], K32One);
    1866           0 :           u[3] = _mm256_add_epi32(u[3], K32One);
    1867           0 :           u[4] = _mm256_add_epi32(u[4], K32One);
    1868           0 :           u[5] = _mm256_add_epi32(u[5], K32One);
    1869           0 :           u[6] = _mm256_add_epi32(u[6], K32One);
    1870           0 :           u[7] = _mm256_add_epi32(u[7], K32One);
    1871             : 
    1872           0 :           u[0] = _mm256_srai_epi32(u[0], 2);
    1873           0 :           u[1] = _mm256_srai_epi32(u[1], 2);
    1874           0 :           u[2] = _mm256_srai_epi32(u[2], 2);
    1875           0 :           u[3] = _mm256_srai_epi32(u[3], 2);
    1876           0 :           u[4] = _mm256_srai_epi32(u[4], 2);
    1877           0 :           u[5] = _mm256_srai_epi32(u[5], 2);
    1878           0 :           u[6] = _mm256_srai_epi32(u[6], 2);
    1879           0 :           u[7] = _mm256_srai_epi32(u[7], 2);
    1880             : 
    1881             :           // Combine
    1882           0 :           out[0] = _mm256_packs_epi32(u[0], u[1]);
    1883           0 :           out[16] = _mm256_packs_epi32(u[2], u[3]);
    1884           0 :           out[8] = _mm256_packs_epi32(u[4], u[5]);
    1885           0 :           out[24] = _mm256_packs_epi32(u[6], u[7]);
    1886             :         }
    1887             :         {
    1888           0 :           const __m256i k32_m08_p24 =
    1889           0 :               pair256_set_epi32(-cospi_8_64, cospi_24_64);
    1890           0 :           const __m256i k32_m24_m08 =
    1891           0 :               pair256_set_epi32(-cospi_24_64, -cospi_8_64);
    1892           0 :           const __m256i k32_p24_p08 =
    1893           0 :               pair256_set_epi32(cospi_24_64, cospi_8_64);
    1894             : 
    1895           0 :           u[0] = _mm256_unpacklo_epi32(lstep1[18], lstep1[28]);
    1896           0 :           u[1] = _mm256_unpackhi_epi32(lstep1[18], lstep1[28]);
    1897           0 :           u[2] = _mm256_unpacklo_epi32(lstep1[19], lstep1[29]);
    1898           0 :           u[3] = _mm256_unpackhi_epi32(lstep1[19], lstep1[29]);
    1899           0 :           u[4] = _mm256_unpacklo_epi32(lstep1[20], lstep1[26]);
    1900           0 :           u[5] = _mm256_unpackhi_epi32(lstep1[20], lstep1[26]);
    1901           0 :           u[6] = _mm256_unpacklo_epi32(lstep1[21], lstep1[27]);
    1902           0 :           u[7] = _mm256_unpackhi_epi32(lstep1[21], lstep1[27]);
    1903             : 
    1904           0 :           v[0] = k_madd_epi32_avx2(u[0], k32_m08_p24);
    1905           0 :           v[1] = k_madd_epi32_avx2(u[1], k32_m08_p24);
    1906           0 :           v[2] = k_madd_epi32_avx2(u[2], k32_m08_p24);
    1907           0 :           v[3] = k_madd_epi32_avx2(u[3], k32_m08_p24);
    1908           0 :           v[4] = k_madd_epi32_avx2(u[4], k32_m24_m08);
    1909           0 :           v[5] = k_madd_epi32_avx2(u[5], k32_m24_m08);
    1910           0 :           v[6] = k_madd_epi32_avx2(u[6], k32_m24_m08);
    1911           0 :           v[7] = k_madd_epi32_avx2(u[7], k32_m24_m08);
    1912           0 :           v[8] = k_madd_epi32_avx2(u[4], k32_m08_p24);
    1913           0 :           v[9] = k_madd_epi32_avx2(u[5], k32_m08_p24);
    1914           0 :           v[10] = k_madd_epi32_avx2(u[6], k32_m08_p24);
    1915           0 :           v[11] = k_madd_epi32_avx2(u[7], k32_m08_p24);
    1916           0 :           v[12] = k_madd_epi32_avx2(u[0], k32_p24_p08);
    1917           0 :           v[13] = k_madd_epi32_avx2(u[1], k32_p24_p08);
    1918           0 :           v[14] = k_madd_epi32_avx2(u[2], k32_p24_p08);
    1919           0 :           v[15] = k_madd_epi32_avx2(u[3], k32_p24_p08);
    1920             : 
    1921           0 :           u[0] = k_packs_epi64_avx2(v[0], v[1]);
    1922           0 :           u[1] = k_packs_epi64_avx2(v[2], v[3]);
    1923           0 :           u[2] = k_packs_epi64_avx2(v[4], v[5]);
    1924           0 :           u[3] = k_packs_epi64_avx2(v[6], v[7]);
    1925           0 :           u[4] = k_packs_epi64_avx2(v[8], v[9]);
    1926           0 :           u[5] = k_packs_epi64_avx2(v[10], v[11]);
    1927           0 :           u[6] = k_packs_epi64_avx2(v[12], v[13]);
    1928           0 :           u[7] = k_packs_epi64_avx2(v[14], v[15]);
    1929             : 
    1930           0 :           u[0] = _mm256_add_epi32(u[0], k__DCT_CONST_ROUNDING);
    1931           0 :           u[1] = _mm256_add_epi32(u[1], k__DCT_CONST_ROUNDING);
    1932           0 :           u[2] = _mm256_add_epi32(u[2], k__DCT_CONST_ROUNDING);
    1933           0 :           u[3] = _mm256_add_epi32(u[3], k__DCT_CONST_ROUNDING);
    1934           0 :           u[4] = _mm256_add_epi32(u[4], k__DCT_CONST_ROUNDING);
    1935           0 :           u[5] = _mm256_add_epi32(u[5], k__DCT_CONST_ROUNDING);
    1936           0 :           u[6] = _mm256_add_epi32(u[6], k__DCT_CONST_ROUNDING);
    1937           0 :           u[7] = _mm256_add_epi32(u[7], k__DCT_CONST_ROUNDING);
    1938             : 
    1939           0 :           lstep2[18] = _mm256_srai_epi32(u[0], DCT_CONST_BITS);
    1940           0 :           lstep2[19] = _mm256_srai_epi32(u[1], DCT_CONST_BITS);
    1941           0 :           lstep2[20] = _mm256_srai_epi32(u[2], DCT_CONST_BITS);
    1942           0 :           lstep2[21] = _mm256_srai_epi32(u[3], DCT_CONST_BITS);
    1943           0 :           lstep2[26] = _mm256_srai_epi32(u[4], DCT_CONST_BITS);
    1944           0 :           lstep2[27] = _mm256_srai_epi32(u[5], DCT_CONST_BITS);
    1945           0 :           lstep2[28] = _mm256_srai_epi32(u[6], DCT_CONST_BITS);
    1946           0 :           lstep2[29] = _mm256_srai_epi32(u[7], DCT_CONST_BITS);
    1947             :         }
    1948             :         {
    1949           0 :           lstep2[32] = _mm256_add_epi32(lstep1[38], lstep3[32]);
    1950           0 :           lstep2[33] = _mm256_add_epi32(lstep1[39], lstep3[33]);
    1951           0 :           lstep2[34] = _mm256_add_epi32(lstep1[36], lstep3[34]);
    1952           0 :           lstep2[35] = _mm256_add_epi32(lstep1[37], lstep3[35]);
    1953           0 :           lstep2[36] = _mm256_sub_epi32(lstep3[34], lstep1[36]);
    1954           0 :           lstep2[37] = _mm256_sub_epi32(lstep3[35], lstep1[37]);
    1955           0 :           lstep2[38] = _mm256_sub_epi32(lstep3[32], lstep1[38]);
    1956           0 :           lstep2[39] = _mm256_sub_epi32(lstep3[33], lstep1[39]);
    1957           0 :           lstep2[40] = _mm256_sub_epi32(lstep3[46], lstep1[40]);
    1958           0 :           lstep2[41] = _mm256_sub_epi32(lstep3[47], lstep1[41]);
    1959           0 :           lstep2[42] = _mm256_sub_epi32(lstep3[44], lstep1[42]);
    1960           0 :           lstep2[43] = _mm256_sub_epi32(lstep3[45], lstep1[43]);
    1961           0 :           lstep2[44] = _mm256_add_epi32(lstep1[42], lstep3[44]);
    1962           0 :           lstep2[45] = _mm256_add_epi32(lstep1[43], lstep3[45]);
    1963           0 :           lstep2[46] = _mm256_add_epi32(lstep1[40], lstep3[46]);
    1964           0 :           lstep2[47] = _mm256_add_epi32(lstep1[41], lstep3[47]);
    1965           0 :           lstep2[48] = _mm256_add_epi32(lstep1[54], lstep3[48]);
    1966           0 :           lstep2[49] = _mm256_add_epi32(lstep1[55], lstep3[49]);
    1967           0 :           lstep2[50] = _mm256_add_epi32(lstep1[52], lstep3[50]);
    1968           0 :           lstep2[51] = _mm256_add_epi32(lstep1[53], lstep3[51]);
    1969           0 :           lstep2[52] = _mm256_sub_epi32(lstep3[50], lstep1[52]);
    1970           0 :           lstep2[53] = _mm256_sub_epi32(lstep3[51], lstep1[53]);
    1971           0 :           lstep2[54] = _mm256_sub_epi32(lstep3[48], lstep1[54]);
    1972           0 :           lstep2[55] = _mm256_sub_epi32(lstep3[49], lstep1[55]);
    1973           0 :           lstep2[56] = _mm256_sub_epi32(lstep3[62], lstep1[56]);
    1974           0 :           lstep2[57] = _mm256_sub_epi32(lstep3[63], lstep1[57]);
    1975           0 :           lstep2[58] = _mm256_sub_epi32(lstep3[60], lstep1[58]);
    1976           0 :           lstep2[59] = _mm256_sub_epi32(lstep3[61], lstep1[59]);
    1977           0 :           lstep2[60] = _mm256_add_epi32(lstep1[58], lstep3[60]);
    1978           0 :           lstep2[61] = _mm256_add_epi32(lstep1[59], lstep3[61]);
    1979           0 :           lstep2[62] = _mm256_add_epi32(lstep1[56], lstep3[62]);
    1980           0 :           lstep2[63] = _mm256_add_epi32(lstep1[57], lstep3[63]);
    1981             :         }
    1982             :         // stage 6
    1983             :         {
    1984           0 :           const __m256i k32_p28_p04 =
    1985           0 :               pair256_set_epi32(cospi_28_64, cospi_4_64);
    1986           0 :           const __m256i k32_p12_p20 =
    1987           0 :               pair256_set_epi32(cospi_12_64, cospi_20_64);
    1988           0 :           const __m256i k32_m20_p12 =
    1989           0 :               pair256_set_epi32(-cospi_20_64, cospi_12_64);
    1990           0 :           const __m256i k32_m04_p28 =
    1991           0 :               pair256_set_epi32(-cospi_4_64, cospi_28_64);
    1992             : 
    1993           0 :           u[0] = _mm256_unpacklo_epi32(lstep2[8], lstep2[14]);
    1994           0 :           u[1] = _mm256_unpackhi_epi32(lstep2[8], lstep2[14]);
    1995           0 :           u[2] = _mm256_unpacklo_epi32(lstep2[9], lstep2[15]);
    1996           0 :           u[3] = _mm256_unpackhi_epi32(lstep2[9], lstep2[15]);
    1997           0 :           u[4] = _mm256_unpacklo_epi32(lstep2[10], lstep2[12]);
    1998           0 :           u[5] = _mm256_unpackhi_epi32(lstep2[10], lstep2[12]);
    1999           0 :           u[6] = _mm256_unpacklo_epi32(lstep2[11], lstep2[13]);
    2000           0 :           u[7] = _mm256_unpackhi_epi32(lstep2[11], lstep2[13]);
    2001           0 :           u[8] = _mm256_unpacklo_epi32(lstep2[10], lstep2[12]);
    2002           0 :           u[9] = _mm256_unpackhi_epi32(lstep2[10], lstep2[12]);
    2003           0 :           u[10] = _mm256_unpacklo_epi32(lstep2[11], lstep2[13]);
    2004           0 :           u[11] = _mm256_unpackhi_epi32(lstep2[11], lstep2[13]);
    2005           0 :           u[12] = _mm256_unpacklo_epi32(lstep2[8], lstep2[14]);
    2006           0 :           u[13] = _mm256_unpackhi_epi32(lstep2[8], lstep2[14]);
    2007           0 :           u[14] = _mm256_unpacklo_epi32(lstep2[9], lstep2[15]);
    2008           0 :           u[15] = _mm256_unpackhi_epi32(lstep2[9], lstep2[15]);
    2009             : 
    2010           0 :           v[0] = k_madd_epi32_avx2(u[0], k32_p28_p04);
    2011           0 :           v[1] = k_madd_epi32_avx2(u[1], k32_p28_p04);
    2012           0 :           v[2] = k_madd_epi32_avx2(u[2], k32_p28_p04);
    2013           0 :           v[3] = k_madd_epi32_avx2(u[3], k32_p28_p04);
    2014           0 :           v[4] = k_madd_epi32_avx2(u[4], k32_p12_p20);
    2015           0 :           v[5] = k_madd_epi32_avx2(u[5], k32_p12_p20);
    2016           0 :           v[6] = k_madd_epi32_avx2(u[6], k32_p12_p20);
    2017           0 :           v[7] = k_madd_epi32_avx2(u[7], k32_p12_p20);
    2018           0 :           v[8] = k_madd_epi32_avx2(u[8], k32_m20_p12);
    2019           0 :           v[9] = k_madd_epi32_avx2(u[9], k32_m20_p12);
    2020           0 :           v[10] = k_madd_epi32_avx2(u[10], k32_m20_p12);
    2021           0 :           v[11] = k_madd_epi32_avx2(u[11], k32_m20_p12);
    2022           0 :           v[12] = k_madd_epi32_avx2(u[12], k32_m04_p28);
    2023           0 :           v[13] = k_madd_epi32_avx2(u[13], k32_m04_p28);
    2024           0 :           v[14] = k_madd_epi32_avx2(u[14], k32_m04_p28);
    2025           0 :           v[15] = k_madd_epi32_avx2(u[15], k32_m04_p28);
    2026             : 
    2027           0 :           u[0] = k_packs_epi64_avx2(v[0], v[1]);
    2028           0 :           u[1] = k_packs_epi64_avx2(v[2], v[3]);
    2029           0 :           u[2] = k_packs_epi64_avx2(v[4], v[5]);
    2030           0 :           u[3] = k_packs_epi64_avx2(v[6], v[7]);
    2031           0 :           u[4] = k_packs_epi64_avx2(v[8], v[9]);
    2032           0 :           u[5] = k_packs_epi64_avx2(v[10], v[11]);
    2033           0 :           u[6] = k_packs_epi64_avx2(v[12], v[13]);
    2034           0 :           u[7] = k_packs_epi64_avx2(v[14], v[15]);
    2035             : 
    2036           0 :           v[0] = _mm256_add_epi32(u[0], k__DCT_CONST_ROUNDING);
    2037           0 :           v[1] = _mm256_add_epi32(u[1], k__DCT_CONST_ROUNDING);
    2038           0 :           v[2] = _mm256_add_epi32(u[2], k__DCT_CONST_ROUNDING);
    2039           0 :           v[3] = _mm256_add_epi32(u[3], k__DCT_CONST_ROUNDING);
    2040           0 :           v[4] = _mm256_add_epi32(u[4], k__DCT_CONST_ROUNDING);
    2041           0 :           v[5] = _mm256_add_epi32(u[5], k__DCT_CONST_ROUNDING);
    2042           0 :           v[6] = _mm256_add_epi32(u[6], k__DCT_CONST_ROUNDING);
    2043           0 :           v[7] = _mm256_add_epi32(u[7], k__DCT_CONST_ROUNDING);
    2044             : 
    2045           0 :           u[0] = _mm256_srai_epi32(v[0], DCT_CONST_BITS);
    2046           0 :           u[1] = _mm256_srai_epi32(v[1], DCT_CONST_BITS);
    2047           0 :           u[2] = _mm256_srai_epi32(v[2], DCT_CONST_BITS);
    2048           0 :           u[3] = _mm256_srai_epi32(v[3], DCT_CONST_BITS);
    2049           0 :           u[4] = _mm256_srai_epi32(v[4], DCT_CONST_BITS);
    2050           0 :           u[5] = _mm256_srai_epi32(v[5], DCT_CONST_BITS);
    2051           0 :           u[6] = _mm256_srai_epi32(v[6], DCT_CONST_BITS);
    2052           0 :           u[7] = _mm256_srai_epi32(v[7], DCT_CONST_BITS);
    2053             : 
    2054           0 :           sign[0] = _mm256_cmpgt_epi32(kZero, u[0]);
    2055           0 :           sign[1] = _mm256_cmpgt_epi32(kZero, u[1]);
    2056           0 :           sign[2] = _mm256_cmpgt_epi32(kZero, u[2]);
    2057           0 :           sign[3] = _mm256_cmpgt_epi32(kZero, u[3]);
    2058           0 :           sign[4] = _mm256_cmpgt_epi32(kZero, u[4]);
    2059           0 :           sign[5] = _mm256_cmpgt_epi32(kZero, u[5]);
    2060           0 :           sign[6] = _mm256_cmpgt_epi32(kZero, u[6]);
    2061           0 :           sign[7] = _mm256_cmpgt_epi32(kZero, u[7]);
    2062             : 
    2063           0 :           u[0] = _mm256_sub_epi32(u[0], sign[0]);
    2064           0 :           u[1] = _mm256_sub_epi32(u[1], sign[1]);
    2065           0 :           u[2] = _mm256_sub_epi32(u[2], sign[2]);
    2066           0 :           u[3] = _mm256_sub_epi32(u[3], sign[3]);
    2067           0 :           u[4] = _mm256_sub_epi32(u[4], sign[4]);
    2068           0 :           u[5] = _mm256_sub_epi32(u[5], sign[5]);
    2069           0 :           u[6] = _mm256_sub_epi32(u[6], sign[6]);
    2070           0 :           u[7] = _mm256_sub_epi32(u[7], sign[7]);
    2071             : 
    2072           0 :           u[0] = _mm256_add_epi32(u[0], K32One);
    2073           0 :           u[1] = _mm256_add_epi32(u[1], K32One);
    2074           0 :           u[2] = _mm256_add_epi32(u[2], K32One);
    2075           0 :           u[3] = _mm256_add_epi32(u[3], K32One);
    2076           0 :           u[4] = _mm256_add_epi32(u[4], K32One);
    2077           0 :           u[5] = _mm256_add_epi32(u[5], K32One);
    2078           0 :           u[6] = _mm256_add_epi32(u[6], K32One);
    2079           0 :           u[7] = _mm256_add_epi32(u[7], K32One);
    2080             : 
    2081           0 :           u[0] = _mm256_srai_epi32(u[0], 2);
    2082           0 :           u[1] = _mm256_srai_epi32(u[1], 2);
    2083           0 :           u[2] = _mm256_srai_epi32(u[2], 2);
    2084           0 :           u[3] = _mm256_srai_epi32(u[3], 2);
    2085           0 :           u[4] = _mm256_srai_epi32(u[4], 2);
    2086           0 :           u[5] = _mm256_srai_epi32(u[5], 2);
    2087           0 :           u[6] = _mm256_srai_epi32(u[6], 2);
    2088           0 :           u[7] = _mm256_srai_epi32(u[7], 2);
    2089             : 
    2090           0 :           out[4] = _mm256_packs_epi32(u[0], u[1]);
    2091           0 :           out[20] = _mm256_packs_epi32(u[2], u[3]);
    2092           0 :           out[12] = _mm256_packs_epi32(u[4], u[5]);
    2093           0 :           out[28] = _mm256_packs_epi32(u[6], u[7]);
    2094             :         }
    2095             :         {
    2096           0 :           lstep3[16] = _mm256_add_epi32(lstep2[18], lstep1[16]);
    2097           0 :           lstep3[17] = _mm256_add_epi32(lstep2[19], lstep1[17]);
    2098           0 :           lstep3[18] = _mm256_sub_epi32(lstep1[16], lstep2[18]);
    2099           0 :           lstep3[19] = _mm256_sub_epi32(lstep1[17], lstep2[19]);
    2100           0 :           lstep3[20] = _mm256_sub_epi32(lstep1[22], lstep2[20]);
    2101           0 :           lstep3[21] = _mm256_sub_epi32(lstep1[23], lstep2[21]);
    2102           0 :           lstep3[22] = _mm256_add_epi32(lstep2[20], lstep1[22]);
    2103           0 :           lstep3[23] = _mm256_add_epi32(lstep2[21], lstep1[23]);
    2104           0 :           lstep3[24] = _mm256_add_epi32(lstep2[26], lstep1[24]);
    2105           0 :           lstep3[25] = _mm256_add_epi32(lstep2[27], lstep1[25]);
    2106           0 :           lstep3[26] = _mm256_sub_epi32(lstep1[24], lstep2[26]);
    2107           0 :           lstep3[27] = _mm256_sub_epi32(lstep1[25], lstep2[27]);
    2108           0 :           lstep3[28] = _mm256_sub_epi32(lstep1[30], lstep2[28]);
    2109           0 :           lstep3[29] = _mm256_sub_epi32(lstep1[31], lstep2[29]);
    2110           0 :           lstep3[30] = _mm256_add_epi32(lstep2[28], lstep1[30]);
    2111           0 :           lstep3[31] = _mm256_add_epi32(lstep2[29], lstep1[31]);
    2112             :         }
    2113             :         {
    2114           0 :           const __m256i k32_m04_p28 =
    2115           0 :               pair256_set_epi32(-cospi_4_64, cospi_28_64);
    2116           0 :           const __m256i k32_m28_m04 =
    2117           0 :               pair256_set_epi32(-cospi_28_64, -cospi_4_64);
    2118           0 :           const __m256i k32_m20_p12 =
    2119           0 :               pair256_set_epi32(-cospi_20_64, cospi_12_64);
    2120           0 :           const __m256i k32_m12_m20 =
    2121           0 :               pair256_set_epi32(-cospi_12_64, -cospi_20_64);
    2122           0 :           const __m256i k32_p12_p20 =
    2123           0 :               pair256_set_epi32(cospi_12_64, cospi_20_64);
    2124           0 :           const __m256i k32_p28_p04 =
    2125           0 :               pair256_set_epi32(cospi_28_64, cospi_4_64);
    2126             : 
    2127           0 :           u[0] = _mm256_unpacklo_epi32(lstep2[34], lstep2[60]);
    2128           0 :           u[1] = _mm256_unpackhi_epi32(lstep2[34], lstep2[60]);
    2129           0 :           u[2] = _mm256_unpacklo_epi32(lstep2[35], lstep2[61]);
    2130           0 :           u[3] = _mm256_unpackhi_epi32(lstep2[35], lstep2[61]);
    2131           0 :           u[4] = _mm256_unpacklo_epi32(lstep2[36], lstep2[58]);
    2132           0 :           u[5] = _mm256_unpackhi_epi32(lstep2[36], lstep2[58]);
    2133           0 :           u[6] = _mm256_unpacklo_epi32(lstep2[37], lstep2[59]);
    2134           0 :           u[7] = _mm256_unpackhi_epi32(lstep2[37], lstep2[59]);
    2135           0 :           u[8] = _mm256_unpacklo_epi32(lstep2[42], lstep2[52]);
    2136           0 :           u[9] = _mm256_unpackhi_epi32(lstep2[42], lstep2[52]);
    2137           0 :           u[10] = _mm256_unpacklo_epi32(lstep2[43], lstep2[53]);
    2138           0 :           u[11] = _mm256_unpackhi_epi32(lstep2[43], lstep2[53]);
    2139           0 :           u[12] = _mm256_unpacklo_epi32(lstep2[44], lstep2[50]);
    2140           0 :           u[13] = _mm256_unpackhi_epi32(lstep2[44], lstep2[50]);
    2141           0 :           u[14] = _mm256_unpacklo_epi32(lstep2[45], lstep2[51]);
    2142           0 :           u[15] = _mm256_unpackhi_epi32(lstep2[45], lstep2[51]);
    2143             : 
    2144           0 :           v[0] = k_madd_epi32_avx2(u[0], k32_m04_p28);
    2145           0 :           v[1] = k_madd_epi32_avx2(u[1], k32_m04_p28);
    2146           0 :           v[2] = k_madd_epi32_avx2(u[2], k32_m04_p28);
    2147           0 :           v[3] = k_madd_epi32_avx2(u[3], k32_m04_p28);
    2148           0 :           v[4] = k_madd_epi32_avx2(u[4], k32_m28_m04);
    2149           0 :           v[5] = k_madd_epi32_avx2(u[5], k32_m28_m04);
    2150           0 :           v[6] = k_madd_epi32_avx2(u[6], k32_m28_m04);
    2151           0 :           v[7] = k_madd_epi32_avx2(u[7], k32_m28_m04);
    2152           0 :           v[8] = k_madd_epi32_avx2(u[8], k32_m20_p12);
    2153           0 :           v[9] = k_madd_epi32_avx2(u[9], k32_m20_p12);
    2154           0 :           v[10] = k_madd_epi32_avx2(u[10], k32_m20_p12);
    2155           0 :           v[11] = k_madd_epi32_avx2(u[11], k32_m20_p12);
    2156           0 :           v[12] = k_madd_epi32_avx2(u[12], k32_m12_m20);
    2157           0 :           v[13] = k_madd_epi32_avx2(u[13], k32_m12_m20);
    2158           0 :           v[14] = k_madd_epi32_avx2(u[14], k32_m12_m20);
    2159           0 :           v[15] = k_madd_epi32_avx2(u[15], k32_m12_m20);
    2160           0 :           v[16] = k_madd_epi32_avx2(u[12], k32_m20_p12);
    2161           0 :           v[17] = k_madd_epi32_avx2(u[13], k32_m20_p12);
    2162           0 :           v[18] = k_madd_epi32_avx2(u[14], k32_m20_p12);
    2163           0 :           v[19] = k_madd_epi32_avx2(u[15], k32_m20_p12);
    2164           0 :           v[20] = k_madd_epi32_avx2(u[8], k32_p12_p20);
    2165           0 :           v[21] = k_madd_epi32_avx2(u[9], k32_p12_p20);
    2166           0 :           v[22] = k_madd_epi32_avx2(u[10], k32_p12_p20);
    2167           0 :           v[23] = k_madd_epi32_avx2(u[11], k32_p12_p20);
    2168           0 :           v[24] = k_madd_epi32_avx2(u[4], k32_m04_p28);
    2169           0 :           v[25] = k_madd_epi32_avx2(u[5], k32_m04_p28);
    2170           0 :           v[26] = k_madd_epi32_avx2(u[6], k32_m04_p28);
    2171           0 :           v[27] = k_madd_epi32_avx2(u[7], k32_m04_p28);
    2172           0 :           v[28] = k_madd_epi32_avx2(u[0], k32_p28_p04);
    2173           0 :           v[29] = k_madd_epi32_avx2(u[1], k32_p28_p04);
    2174           0 :           v[30] = k_madd_epi32_avx2(u[2], k32_p28_p04);
    2175           0 :           v[31] = k_madd_epi32_avx2(u[3], k32_p28_p04);
    2176             : 
    2177           0 :           u[0] = k_packs_epi64_avx2(v[0], v[1]);
    2178           0 :           u[1] = k_packs_epi64_avx2(v[2], v[3]);
    2179           0 :           u[2] = k_packs_epi64_avx2(v[4], v[5]);
    2180           0 :           u[3] = k_packs_epi64_avx2(v[6], v[7]);
    2181           0 :           u[4] = k_packs_epi64_avx2(v[8], v[9]);
    2182           0 :           u[5] = k_packs_epi64_avx2(v[10], v[11]);
    2183           0 :           u[6] = k_packs_epi64_avx2(v[12], v[13]);
    2184           0 :           u[7] = k_packs_epi64_avx2(v[14], v[15]);
    2185           0 :           u[8] = k_packs_epi64_avx2(v[16], v[17]);
    2186           0 :           u[9] = k_packs_epi64_avx2(v[18], v[19]);
    2187           0 :           u[10] = k_packs_epi64_avx2(v[20], v[21]);
    2188           0 :           u[11] = k_packs_epi64_avx2(v[22], v[23]);
    2189           0 :           u[12] = k_packs_epi64_avx2(v[24], v[25]);
    2190           0 :           u[13] = k_packs_epi64_avx2(v[26], v[27]);
    2191           0 :           u[14] = k_packs_epi64_avx2(v[28], v[29]);
    2192           0 :           u[15] = k_packs_epi64_avx2(v[30], v[31]);
    2193             : 
    2194           0 :           v[0] = _mm256_add_epi32(u[0], k__DCT_CONST_ROUNDING);
    2195           0 :           v[1] = _mm256_add_epi32(u[1], k__DCT_CONST_ROUNDING);
    2196           0 :           v[2] = _mm256_add_epi32(u[2], k__DCT_CONST_ROUNDING);
    2197           0 :           v[3] = _mm256_add_epi32(u[3], k__DCT_CONST_ROUNDING);
    2198           0 :           v[4] = _mm256_add_epi32(u[4], k__DCT_CONST_ROUNDING);
    2199           0 :           v[5] = _mm256_add_epi32(u[5], k__DCT_CONST_ROUNDING);
    2200           0 :           v[6] = _mm256_add_epi32(u[6], k__DCT_CONST_ROUNDING);
    2201           0 :           v[7] = _mm256_add_epi32(u[7], k__DCT_CONST_ROUNDING);
    2202           0 :           v[8] = _mm256_add_epi32(u[8], k__DCT_CONST_ROUNDING);
    2203           0 :           v[9] = _mm256_add_epi32(u[9], k__DCT_CONST_ROUNDING);
    2204           0 :           v[10] = _mm256_add_epi32(u[10], k__DCT_CONST_ROUNDING);
    2205           0 :           v[11] = _mm256_add_epi32(u[11], k__DCT_CONST_ROUNDING);
    2206           0 :           v[12] = _mm256_add_epi32(u[12], k__DCT_CONST_ROUNDING);
    2207           0 :           v[13] = _mm256_add_epi32(u[13], k__DCT_CONST_ROUNDING);
    2208           0 :           v[14] = _mm256_add_epi32(u[14], k__DCT_CONST_ROUNDING);
    2209           0 :           v[15] = _mm256_add_epi32(u[15], k__DCT_CONST_ROUNDING);
    2210             : 
    2211           0 :           lstep3[34] = _mm256_srai_epi32(v[0], DCT_CONST_BITS);
    2212           0 :           lstep3[35] = _mm256_srai_epi32(v[1], DCT_CONST_BITS);
    2213           0 :           lstep3[36] = _mm256_srai_epi32(v[2], DCT_CONST_BITS);
    2214           0 :           lstep3[37] = _mm256_srai_epi32(v[3], DCT_CONST_BITS);
    2215           0 :           lstep3[42] = _mm256_srai_epi32(v[4], DCT_CONST_BITS);
    2216           0 :           lstep3[43] = _mm256_srai_epi32(v[5], DCT_CONST_BITS);
    2217           0 :           lstep3[44] = _mm256_srai_epi32(v[6], DCT_CONST_BITS);
    2218           0 :           lstep3[45] = _mm256_srai_epi32(v[7], DCT_CONST_BITS);
    2219           0 :           lstep3[50] = _mm256_srai_epi32(v[8], DCT_CONST_BITS);
    2220           0 :           lstep3[51] = _mm256_srai_epi32(v[9], DCT_CONST_BITS);
    2221           0 :           lstep3[52] = _mm256_srai_epi32(v[10], DCT_CONST_BITS);
    2222           0 :           lstep3[53] = _mm256_srai_epi32(v[11], DCT_CONST_BITS);
    2223           0 :           lstep3[58] = _mm256_srai_epi32(v[12], DCT_CONST_BITS);
    2224           0 :           lstep3[59] = _mm256_srai_epi32(v[13], DCT_CONST_BITS);
    2225           0 :           lstep3[60] = _mm256_srai_epi32(v[14], DCT_CONST_BITS);
    2226           0 :           lstep3[61] = _mm256_srai_epi32(v[15], DCT_CONST_BITS);
    2227             :         }
    2228             :         // stage 7
    2229             :         {
    2230           0 :           const __m256i k32_p30_p02 =
    2231           0 :               pair256_set_epi32(cospi_30_64, cospi_2_64);
    2232           0 :           const __m256i k32_p14_p18 =
    2233           0 :               pair256_set_epi32(cospi_14_64, cospi_18_64);
    2234           0 :           const __m256i k32_p22_p10 =
    2235           0 :               pair256_set_epi32(cospi_22_64, cospi_10_64);
    2236           0 :           const __m256i k32_p06_p26 =
    2237           0 :               pair256_set_epi32(cospi_6_64, cospi_26_64);
    2238           0 :           const __m256i k32_m26_p06 =
    2239           0 :               pair256_set_epi32(-cospi_26_64, cospi_6_64);
    2240           0 :           const __m256i k32_m10_p22 =
    2241           0 :               pair256_set_epi32(-cospi_10_64, cospi_22_64);
    2242           0 :           const __m256i k32_m18_p14 =
    2243           0 :               pair256_set_epi32(-cospi_18_64, cospi_14_64);
    2244           0 :           const __m256i k32_m02_p30 =
    2245           0 :               pair256_set_epi32(-cospi_2_64, cospi_30_64);
    2246             : 
    2247           0 :           u[0] = _mm256_unpacklo_epi32(lstep3[16], lstep3[30]);
    2248           0 :           u[1] = _mm256_unpackhi_epi32(lstep3[16], lstep3[30]);
    2249           0 :           u[2] = _mm256_unpacklo_epi32(lstep3[17], lstep3[31]);
    2250           0 :           u[3] = _mm256_unpackhi_epi32(lstep3[17], lstep3[31]);
    2251           0 :           u[4] = _mm256_unpacklo_epi32(lstep3[18], lstep3[28]);
    2252           0 :           u[5] = _mm256_unpackhi_epi32(lstep3[18], lstep3[28]);
    2253           0 :           u[6] = _mm256_unpacklo_epi32(lstep3[19], lstep3[29]);
    2254           0 :           u[7] = _mm256_unpackhi_epi32(lstep3[19], lstep3[29]);
    2255           0 :           u[8] = _mm256_unpacklo_epi32(lstep3[20], lstep3[26]);
    2256           0 :           u[9] = _mm256_unpackhi_epi32(lstep3[20], lstep3[26]);
    2257           0 :           u[10] = _mm256_unpacklo_epi32(lstep3[21], lstep3[27]);
    2258           0 :           u[11] = _mm256_unpackhi_epi32(lstep3[21], lstep3[27]);
    2259           0 :           u[12] = _mm256_unpacklo_epi32(lstep3[22], lstep3[24]);
    2260           0 :           u[13] = _mm256_unpackhi_epi32(lstep3[22], lstep3[24]);
    2261           0 :           u[14] = _mm256_unpacklo_epi32(lstep3[23], lstep3[25]);
    2262           0 :           u[15] = _mm256_unpackhi_epi32(lstep3[23], lstep3[25]);
    2263             : 
    2264           0 :           v[0] = k_madd_epi32_avx2(u[0], k32_p30_p02);
    2265           0 :           v[1] = k_madd_epi32_avx2(u[1], k32_p30_p02);
    2266           0 :           v[2] = k_madd_epi32_avx2(u[2], k32_p30_p02);
    2267           0 :           v[3] = k_madd_epi32_avx2(u[3], k32_p30_p02);
    2268           0 :           v[4] = k_madd_epi32_avx2(u[4], k32_p14_p18);
    2269           0 :           v[5] = k_madd_epi32_avx2(u[5], k32_p14_p18);
    2270           0 :           v[6] = k_madd_epi32_avx2(u[6], k32_p14_p18);
    2271           0 :           v[7] = k_madd_epi32_avx2(u[7], k32_p14_p18);
    2272           0 :           v[8] = k_madd_epi32_avx2(u[8], k32_p22_p10);
    2273           0 :           v[9] = k_madd_epi32_avx2(u[9], k32_p22_p10);
    2274           0 :           v[10] = k_madd_epi32_avx2(u[10], k32_p22_p10);
    2275           0 :           v[11] = k_madd_epi32_avx2(u[11], k32_p22_p10);
    2276           0 :           v[12] = k_madd_epi32_avx2(u[12], k32_p06_p26);
    2277           0 :           v[13] = k_madd_epi32_avx2(u[13], k32_p06_p26);
    2278           0 :           v[14] = k_madd_epi32_avx2(u[14], k32_p06_p26);
    2279           0 :           v[15] = k_madd_epi32_avx2(u[15], k32_p06_p26);
    2280           0 :           v[16] = k_madd_epi32_avx2(u[12], k32_m26_p06);
    2281           0 :           v[17] = k_madd_epi32_avx2(u[13], k32_m26_p06);
    2282           0 :           v[18] = k_madd_epi32_avx2(u[14], k32_m26_p06);
    2283           0 :           v[19] = k_madd_epi32_avx2(u[15], k32_m26_p06);
    2284           0 :           v[20] = k_madd_epi32_avx2(u[8], k32_m10_p22);
    2285           0 :           v[21] = k_madd_epi32_avx2(u[9], k32_m10_p22);
    2286           0 :           v[22] = k_madd_epi32_avx2(u[10], k32_m10_p22);
    2287           0 :           v[23] = k_madd_epi32_avx2(u[11], k32_m10_p22);
    2288           0 :           v[24] = k_madd_epi32_avx2(u[4], k32_m18_p14);
    2289           0 :           v[25] = k_madd_epi32_avx2(u[5], k32_m18_p14);
    2290           0 :           v[26] = k_madd_epi32_avx2(u[6], k32_m18_p14);
    2291           0 :           v[27] = k_madd_epi32_avx2(u[7], k32_m18_p14);
    2292           0 :           v[28] = k_madd_epi32_avx2(u[0], k32_m02_p30);
    2293           0 :           v[29] = k_madd_epi32_avx2(u[1], k32_m02_p30);
    2294           0 :           v[30] = k_madd_epi32_avx2(u[2], k32_m02_p30);
    2295           0 :           v[31] = k_madd_epi32_avx2(u[3], k32_m02_p30);
    2296             : 
    2297           0 :           u[0] = k_packs_epi64_avx2(v[0], v[1]);
    2298           0 :           u[1] = k_packs_epi64_avx2(v[2], v[3]);
    2299           0 :           u[2] = k_packs_epi64_avx2(v[4], v[5]);
    2300           0 :           u[3] = k_packs_epi64_avx2(v[6], v[7]);
    2301           0 :           u[4] = k_packs_epi64_avx2(v[8], v[9]);
    2302           0 :           u[5] = k_packs_epi64_avx2(v[10], v[11]);
    2303           0 :           u[6] = k_packs_epi64_avx2(v[12], v[13]);
    2304           0 :           u[7] = k_packs_epi64_avx2(v[14], v[15]);
    2305           0 :           u[8] = k_packs_epi64_avx2(v[16], v[17]);
    2306           0 :           u[9] = k_packs_epi64_avx2(v[18], v[19]);
    2307           0 :           u[10] = k_packs_epi64_avx2(v[20], v[21]);
    2308           0 :           u[11] = k_packs_epi64_avx2(v[22], v[23]);
    2309           0 :           u[12] = k_packs_epi64_avx2(v[24], v[25]);
    2310           0 :           u[13] = k_packs_epi64_avx2(v[26], v[27]);
    2311           0 :           u[14] = k_packs_epi64_avx2(v[28], v[29]);
    2312           0 :           u[15] = k_packs_epi64_avx2(v[30], v[31]);
    2313             : 
    2314           0 :           v[0] = _mm256_add_epi32(u[0], k__DCT_CONST_ROUNDING);
    2315           0 :           v[1] = _mm256_add_epi32(u[1], k__DCT_CONST_ROUNDING);
    2316           0 :           v[2] = _mm256_add_epi32(u[2], k__DCT_CONST_ROUNDING);
    2317           0 :           v[3] = _mm256_add_epi32(u[3], k__DCT_CONST_ROUNDING);
    2318           0 :           v[4] = _mm256_add_epi32(u[4], k__DCT_CONST_ROUNDING);
    2319           0 :           v[5] = _mm256_add_epi32(u[5], k__DCT_CONST_ROUNDING);
    2320           0 :           v[6] = _mm256_add_epi32(u[6], k__DCT_CONST_ROUNDING);
    2321           0 :           v[7] = _mm256_add_epi32(u[7], k__DCT_CONST_ROUNDING);
    2322           0 :           v[8] = _mm256_add_epi32(u[8], k__DCT_CONST_ROUNDING);
    2323           0 :           v[9] = _mm256_add_epi32(u[9], k__DCT_CONST_ROUNDING);
    2324           0 :           v[10] = _mm256_add_epi32(u[10], k__DCT_CONST_ROUNDING);
    2325           0 :           v[11] = _mm256_add_epi32(u[11], k__DCT_CONST_ROUNDING);
    2326           0 :           v[12] = _mm256_add_epi32(u[12], k__DCT_CONST_ROUNDING);
    2327           0 :           v[13] = _mm256_add_epi32(u[13], k__DCT_CONST_ROUNDING);
    2328           0 :           v[14] = _mm256_add_epi32(u[14], k__DCT_CONST_ROUNDING);
    2329           0 :           v[15] = _mm256_add_epi32(u[15], k__DCT_CONST_ROUNDING);
    2330             : 
    2331           0 :           u[0] = _mm256_srai_epi32(v[0], DCT_CONST_BITS);
    2332           0 :           u[1] = _mm256_srai_epi32(v[1], DCT_CONST_BITS);
    2333           0 :           u[2] = _mm256_srai_epi32(v[2], DCT_CONST_BITS);
    2334           0 :           u[3] = _mm256_srai_epi32(v[3], DCT_CONST_BITS);
    2335           0 :           u[4] = _mm256_srai_epi32(v[4], DCT_CONST_BITS);
    2336           0 :           u[5] = _mm256_srai_epi32(v[5], DCT_CONST_BITS);
    2337           0 :           u[6] = _mm256_srai_epi32(v[6], DCT_CONST_BITS);
    2338           0 :           u[7] = _mm256_srai_epi32(v[7], DCT_CONST_BITS);
    2339           0 :           u[8] = _mm256_srai_epi32(v[8], DCT_CONST_BITS);
    2340           0 :           u[9] = _mm256_srai_epi32(v[9], DCT_CONST_BITS);
    2341           0 :           u[10] = _mm256_srai_epi32(v[10], DCT_CONST_BITS);
    2342           0 :           u[11] = _mm256_srai_epi32(v[11], DCT_CONST_BITS);
    2343           0 :           u[12] = _mm256_srai_epi32(v[12], DCT_CONST_BITS);
    2344           0 :           u[13] = _mm256_srai_epi32(v[13], DCT_CONST_BITS);
    2345           0 :           u[14] = _mm256_srai_epi32(v[14], DCT_CONST_BITS);
    2346           0 :           u[15] = _mm256_srai_epi32(v[15], DCT_CONST_BITS);
    2347             : 
    2348           0 :           v[0] = _mm256_cmpgt_epi32(kZero, u[0]);
    2349           0 :           v[1] = _mm256_cmpgt_epi32(kZero, u[1]);
    2350           0 :           v[2] = _mm256_cmpgt_epi32(kZero, u[2]);
    2351           0 :           v[3] = _mm256_cmpgt_epi32(kZero, u[3]);
    2352           0 :           v[4] = _mm256_cmpgt_epi32(kZero, u[4]);
    2353           0 :           v[5] = _mm256_cmpgt_epi32(kZero, u[5]);
    2354           0 :           v[6] = _mm256_cmpgt_epi32(kZero, u[6]);
    2355           0 :           v[7] = _mm256_cmpgt_epi32(kZero, u[7]);
    2356           0 :           v[8] = _mm256_cmpgt_epi32(kZero, u[8]);
    2357           0 :           v[9] = _mm256_cmpgt_epi32(kZero, u[9]);
    2358           0 :           v[10] = _mm256_cmpgt_epi32(kZero, u[10]);
    2359           0 :           v[11] = _mm256_cmpgt_epi32(kZero, u[11]);
    2360           0 :           v[12] = _mm256_cmpgt_epi32(kZero, u[12]);
    2361           0 :           v[13] = _mm256_cmpgt_epi32(kZero, u[13]);
    2362           0 :           v[14] = _mm256_cmpgt_epi32(kZero, u[14]);
    2363           0 :           v[15] = _mm256_cmpgt_epi32(kZero, u[15]);
    2364             : 
    2365           0 :           u[0] = _mm256_sub_epi32(u[0], v[0]);
    2366           0 :           u[1] = _mm256_sub_epi32(u[1], v[1]);
    2367           0 :           u[2] = _mm256_sub_epi32(u[2], v[2]);
    2368           0 :           u[3] = _mm256_sub_epi32(u[3], v[3]);
    2369           0 :           u[4] = _mm256_sub_epi32(u[4], v[4]);
    2370           0 :           u[5] = _mm256_sub_epi32(u[5], v[5]);
    2371           0 :           u[6] = _mm256_sub_epi32(u[6], v[6]);
    2372           0 :           u[7] = _mm256_sub_epi32(u[7], v[7]);
    2373           0 :           u[8] = _mm256_sub_epi32(u[8], v[8]);
    2374           0 :           u[9] = _mm256_sub_epi32(u[9], v[9]);
    2375           0 :           u[10] = _mm256_sub_epi32(u[10], v[10]);
    2376           0 :           u[11] = _mm256_sub_epi32(u[11], v[11]);
    2377           0 :           u[12] = _mm256_sub_epi32(u[12], v[12]);
    2378           0 :           u[13] = _mm256_sub_epi32(u[13], v[13]);
    2379           0 :           u[14] = _mm256_sub_epi32(u[14], v[14]);
    2380           0 :           u[15] = _mm256_sub_epi32(u[15], v[15]);
    2381             : 
    2382           0 :           v[0] = _mm256_add_epi32(u[0], K32One);
    2383           0 :           v[1] = _mm256_add_epi32(u[1], K32One);
    2384           0 :           v[2] = _mm256_add_epi32(u[2], K32One);
    2385           0 :           v[3] = _mm256_add_epi32(u[3], K32One);
    2386           0 :           v[4] = _mm256_add_epi32(u[4], K32One);
    2387           0 :           v[5] = _mm256_add_epi32(u[5], K32One);
    2388           0 :           v[6] = _mm256_add_epi32(u[6], K32One);
    2389           0 :           v[7] = _mm256_add_epi32(u[7], K32One);
    2390           0 :           v[8] = _mm256_add_epi32(u[8], K32One);
    2391           0 :           v[9] = _mm256_add_epi32(u[9], K32One);
    2392           0 :           v[10] = _mm256_add_epi32(u[10], K32One);
    2393           0 :           v[11] = _mm256_add_epi32(u[11], K32One);
    2394           0 :           v[12] = _mm256_add_epi32(u[12], K32One);
    2395           0 :           v[13] = _mm256_add_epi32(u[13], K32One);
    2396           0 :           v[14] = _mm256_add_epi32(u[14], K32One);
    2397           0 :           v[15] = _mm256_add_epi32(u[15], K32One);
    2398             : 
    2399           0 :           u[0] = _mm256_srai_epi32(v[0], 2);
    2400           0 :           u[1] = _mm256_srai_epi32(v[1], 2);
    2401           0 :           u[2] = _mm256_srai_epi32(v[2], 2);
    2402           0 :           u[3] = _mm256_srai_epi32(v[3], 2);
    2403           0 :           u[4] = _mm256_srai_epi32(v[4], 2);
    2404           0 :           u[5] = _mm256_srai_epi32(v[5], 2);
    2405           0 :           u[6] = _mm256_srai_epi32(v[6], 2);
    2406           0 :           u[7] = _mm256_srai_epi32(v[7], 2);
    2407           0 :           u[8] = _mm256_srai_epi32(v[8], 2);
    2408           0 :           u[9] = _mm256_srai_epi32(v[9], 2);
    2409           0 :           u[10] = _mm256_srai_epi32(v[10], 2);
    2410           0 :           u[11] = _mm256_srai_epi32(v[11], 2);
    2411           0 :           u[12] = _mm256_srai_epi32(v[12], 2);
    2412           0 :           u[13] = _mm256_srai_epi32(v[13], 2);
    2413           0 :           u[14] = _mm256_srai_epi32(v[14], 2);
    2414           0 :           u[15] = _mm256_srai_epi32(v[15], 2);
    2415             : 
    2416           0 :           out[2] = _mm256_packs_epi32(u[0], u[1]);
    2417           0 :           out[18] = _mm256_packs_epi32(u[2], u[3]);
    2418           0 :           out[10] = _mm256_packs_epi32(u[4], u[5]);
    2419           0 :           out[26] = _mm256_packs_epi32(u[6], u[7]);
    2420           0 :           out[6] = _mm256_packs_epi32(u[8], u[9]);
    2421           0 :           out[22] = _mm256_packs_epi32(u[10], u[11]);
    2422           0 :           out[14] = _mm256_packs_epi32(u[12], u[13]);
    2423           0 :           out[30] = _mm256_packs_epi32(u[14], u[15]);
    2424             :         }
    2425             :         {
    2426           0 :           lstep1[32] = _mm256_add_epi32(lstep3[34], lstep2[32]);
    2427           0 :           lstep1[33] = _mm256_add_epi32(lstep3[35], lstep2[33]);
    2428           0 :           lstep1[34] = _mm256_sub_epi32(lstep2[32], lstep3[34]);
    2429           0 :           lstep1[35] = _mm256_sub_epi32(lstep2[33], lstep3[35]);
    2430           0 :           lstep1[36] = _mm256_sub_epi32(lstep2[38], lstep3[36]);
    2431           0 :           lstep1[37] = _mm256_sub_epi32(lstep2[39], lstep3[37]);
    2432           0 :           lstep1[38] = _mm256_add_epi32(lstep3[36], lstep2[38]);
    2433           0 :           lstep1[39] = _mm256_add_epi32(lstep3[37], lstep2[39]);
    2434           0 :           lstep1[40] = _mm256_add_epi32(lstep3[42], lstep2[40]);
    2435           0 :           lstep1[41] = _mm256_add_epi32(lstep3[43], lstep2[41]);
    2436           0 :           lstep1[42] = _mm256_sub_epi32(lstep2[40], lstep3[42]);
    2437           0 :           lstep1[43] = _mm256_sub_epi32(lstep2[41], lstep3[43]);
    2438           0 :           lstep1[44] = _mm256_sub_epi32(lstep2[46], lstep3[44]);
    2439           0 :           lstep1[45] = _mm256_sub_epi32(lstep2[47], lstep3[45]);
    2440           0 :           lstep1[46] = _mm256_add_epi32(lstep3[44], lstep2[46]);
    2441           0 :           lstep1[47] = _mm256_add_epi32(lstep3[45], lstep2[47]);
    2442           0 :           lstep1[48] = _mm256_add_epi32(lstep3[50], lstep2[48]);
    2443           0 :           lstep1[49] = _mm256_add_epi32(lstep3[51], lstep2[49]);
    2444           0 :           lstep1[50] = _mm256_sub_epi32(lstep2[48], lstep3[50]);
    2445           0 :           lstep1[51] = _mm256_sub_epi32(lstep2[49], lstep3[51]);
    2446           0 :           lstep1[52] = _mm256_sub_epi32(lstep2[54], lstep3[52]);
    2447           0 :           lstep1[53] = _mm256_sub_epi32(lstep2[55], lstep3[53]);
    2448           0 :           lstep1[54] = _mm256_add_epi32(lstep3[52], lstep2[54]);
    2449           0 :           lstep1[55] = _mm256_add_epi32(lstep3[53], lstep2[55]);
    2450           0 :           lstep1[56] = _mm256_add_epi32(lstep3[58], lstep2[56]);
    2451           0 :           lstep1[57] = _mm256_add_epi32(lstep3[59], lstep2[57]);
    2452           0 :           lstep1[58] = _mm256_sub_epi32(lstep2[56], lstep3[58]);
    2453           0 :           lstep1[59] = _mm256_sub_epi32(lstep2[57], lstep3[59]);
    2454           0 :           lstep1[60] = _mm256_sub_epi32(lstep2[62], lstep3[60]);
    2455           0 :           lstep1[61] = _mm256_sub_epi32(lstep2[63], lstep3[61]);
    2456           0 :           lstep1[62] = _mm256_add_epi32(lstep3[60], lstep2[62]);
    2457           0 :           lstep1[63] = _mm256_add_epi32(lstep3[61], lstep2[63]);
    2458             :         }
    2459             :         // stage 8
    2460             :         {
    2461           0 :           const __m256i k32_p31_p01 =
    2462           0 :               pair256_set_epi32(cospi_31_64, cospi_1_64);
    2463           0 :           const __m256i k32_p15_p17 =
    2464           0 :               pair256_set_epi32(cospi_15_64, cospi_17_64);
    2465           0 :           const __m256i k32_p23_p09 =
    2466           0 :               pair256_set_epi32(cospi_23_64, cospi_9_64);
    2467           0 :           const __m256i k32_p07_p25 =
    2468           0 :               pair256_set_epi32(cospi_7_64, cospi_25_64);
    2469           0 :           const __m256i k32_m25_p07 =
    2470           0 :               pair256_set_epi32(-cospi_25_64, cospi_7_64);
    2471           0 :           const __m256i k32_m09_p23 =
    2472           0 :               pair256_set_epi32(-cospi_9_64, cospi_23_64);
    2473           0 :           const __m256i k32_m17_p15 =
    2474           0 :               pair256_set_epi32(-cospi_17_64, cospi_15_64);
    2475           0 :           const __m256i k32_m01_p31 =
    2476           0 :               pair256_set_epi32(-cospi_1_64, cospi_31_64);
    2477             : 
    2478           0 :           u[0] = _mm256_unpacklo_epi32(lstep1[32], lstep1[62]);
    2479           0 :           u[1] = _mm256_unpackhi_epi32(lstep1[32], lstep1[62]);
    2480           0 :           u[2] = _mm256_unpacklo_epi32(lstep1[33], lstep1[63]);
    2481           0 :           u[3] = _mm256_unpackhi_epi32(lstep1[33], lstep1[63]);
    2482           0 :           u[4] = _mm256_unpacklo_epi32(lstep1[34], lstep1[60]);
    2483           0 :           u[5] = _mm256_unpackhi_epi32(lstep1[34], lstep1[60]);
    2484           0 :           u[6] = _mm256_unpacklo_epi32(lstep1[35], lstep1[61]);
    2485           0 :           u[7] = _mm256_unpackhi_epi32(lstep1[35], lstep1[61]);
    2486           0 :           u[8] = _mm256_unpacklo_epi32(lstep1[36], lstep1[58]);
    2487           0 :           u[9] = _mm256_unpackhi_epi32(lstep1[36], lstep1[58]);
    2488           0 :           u[10] = _mm256_unpacklo_epi32(lstep1[37], lstep1[59]);
    2489           0 :           u[11] = _mm256_unpackhi_epi32(lstep1[37], lstep1[59]);
    2490           0 :           u[12] = _mm256_unpacklo_epi32(lstep1[38], lstep1[56]);
    2491           0 :           u[13] = _mm256_unpackhi_epi32(lstep1[38], lstep1[56]);
    2492           0 :           u[14] = _mm256_unpacklo_epi32(lstep1[39], lstep1[57]);
    2493           0 :           u[15] = _mm256_unpackhi_epi32(lstep1[39], lstep1[57]);
    2494             : 
    2495           0 :           v[0] = k_madd_epi32_avx2(u[0], k32_p31_p01);
    2496           0 :           v[1] = k_madd_epi32_avx2(u[1], k32_p31_p01);
    2497           0 :           v[2] = k_madd_epi32_avx2(u[2], k32_p31_p01);
    2498           0 :           v[3] = k_madd_epi32_avx2(u[3], k32_p31_p01);
    2499           0 :           v[4] = k_madd_epi32_avx2(u[4], k32_p15_p17);
    2500           0 :           v[5] = k_madd_epi32_avx2(u[5], k32_p15_p17);
    2501           0 :           v[6] = k_madd_epi32_avx2(u[6], k32_p15_p17);
    2502           0 :           v[7] = k_madd_epi32_avx2(u[7], k32_p15_p17);
    2503           0 :           v[8] = k_madd_epi32_avx2(u[8], k32_p23_p09);
    2504           0 :           v[9] = k_madd_epi32_avx2(u[9], k32_p23_p09);
    2505           0 :           v[10] = k_madd_epi32_avx2(u[10], k32_p23_p09);
    2506           0 :           v[11] = k_madd_epi32_avx2(u[11], k32_p23_p09);
    2507           0 :           v[12] = k_madd_epi32_avx2(u[12], k32_p07_p25);
    2508           0 :           v[13] = k_madd_epi32_avx2(u[13], k32_p07_p25);
    2509           0 :           v[14] = k_madd_epi32_avx2(u[14], k32_p07_p25);
    2510           0 :           v[15] = k_madd_epi32_avx2(u[15], k32_p07_p25);
    2511           0 :           v[16] = k_madd_epi32_avx2(u[12], k32_m25_p07);
    2512           0 :           v[17] = k_madd_epi32_avx2(u[13], k32_m25_p07);
    2513           0 :           v[18] = k_madd_epi32_avx2(u[14], k32_m25_p07);
    2514           0 :           v[19] = k_madd_epi32_avx2(u[15], k32_m25_p07);
    2515           0 :           v[20] = k_madd_epi32_avx2(u[8], k32_m09_p23);
    2516           0 :           v[21] = k_madd_epi32_avx2(u[9], k32_m09_p23);
    2517           0 :           v[22] = k_madd_epi32_avx2(u[10], k32_m09_p23);
    2518           0 :           v[23] = k_madd_epi32_avx2(u[11], k32_m09_p23);
    2519           0 :           v[24] = k_madd_epi32_avx2(u[4], k32_m17_p15);
    2520           0 :           v[25] = k_madd_epi32_avx2(u[5], k32_m17_p15);
    2521           0 :           v[26] = k_madd_epi32_avx2(u[6], k32_m17_p15);
    2522           0 :           v[27] = k_madd_epi32_avx2(u[7], k32_m17_p15);
    2523           0 :           v[28] = k_madd_epi32_avx2(u[0], k32_m01_p31);
    2524           0 :           v[29] = k_madd_epi32_avx2(u[1], k32_m01_p31);
    2525           0 :           v[30] = k_madd_epi32_avx2(u[2], k32_m01_p31);
    2526           0 :           v[31] = k_madd_epi32_avx2(u[3], k32_m01_p31);
    2527             : 
    2528           0 :           u[0] = k_packs_epi64_avx2(v[0], v[1]);
    2529           0 :           u[1] = k_packs_epi64_avx2(v[2], v[3]);
    2530           0 :           u[2] = k_packs_epi64_avx2(v[4], v[5]);
    2531           0 :           u[3] = k_packs_epi64_avx2(v[6], v[7]);
    2532           0 :           u[4] = k_packs_epi64_avx2(v[8], v[9]);
    2533           0 :           u[5] = k_packs_epi64_avx2(v[10], v[11]);
    2534           0 :           u[6] = k_packs_epi64_avx2(v[12], v[13]);
    2535           0 :           u[7] = k_packs_epi64_avx2(v[14], v[15]);
    2536           0 :           u[8] = k_packs_epi64_avx2(v[16], v[17]);
    2537           0 :           u[9] = k_packs_epi64_avx2(v[18], v[19]);
    2538           0 :           u[10] = k_packs_epi64_avx2(v[20], v[21]);
    2539           0 :           u[11] = k_packs_epi64_avx2(v[22], v[23]);
    2540           0 :           u[12] = k_packs_epi64_avx2(v[24], v[25]);
    2541           0 :           u[13] = k_packs_epi64_avx2(v[26], v[27]);
    2542           0 :           u[14] = k_packs_epi64_avx2(v[28], v[29]);
    2543           0 :           u[15] = k_packs_epi64_avx2(v[30], v[31]);
    2544             : 
    2545           0 :           v[0] = _mm256_add_epi32(u[0], k__DCT_CONST_ROUNDING);
    2546           0 :           v[1] = _mm256_add_epi32(u[1], k__DCT_CONST_ROUNDING);
    2547           0 :           v[2] = _mm256_add_epi32(u[2], k__DCT_CONST_ROUNDING);
    2548           0 :           v[3] = _mm256_add_epi32(u[3], k__DCT_CONST_ROUNDING);
    2549           0 :           v[4] = _mm256_add_epi32(u[4], k__DCT_CONST_ROUNDING);
    2550           0 :           v[5] = _mm256_add_epi32(u[5], k__DCT_CONST_ROUNDING);
    2551           0 :           v[6] = _mm256_add_epi32(u[6], k__DCT_CONST_ROUNDING);
    2552           0 :           v[7] = _mm256_add_epi32(u[7], k__DCT_CONST_ROUNDING);
    2553           0 :           v[8] = _mm256_add_epi32(u[8], k__DCT_CONST_ROUNDING);
    2554           0 :           v[9] = _mm256_add_epi32(u[9], k__DCT_CONST_ROUNDING);
    2555           0 :           v[10] = _mm256_add_epi32(u[10], k__DCT_CONST_ROUNDING);
    2556           0 :           v[11] = _mm256_add_epi32(u[11], k__DCT_CONST_ROUNDING);
    2557           0 :           v[12] = _mm256_add_epi32(u[12], k__DCT_CONST_ROUNDING);
    2558           0 :           v[13] = _mm256_add_epi32(u[13], k__DCT_CONST_ROUNDING);
    2559           0 :           v[14] = _mm256_add_epi32(u[14], k__DCT_CONST_ROUNDING);
    2560           0 :           v[15] = _mm256_add_epi32(u[15], k__DCT_CONST_ROUNDING);
    2561             : 
    2562           0 :           u[0] = _mm256_srai_epi32(v[0], DCT_CONST_BITS);
    2563           0 :           u[1] = _mm256_srai_epi32(v[1], DCT_CONST_BITS);
    2564           0 :           u[2] = _mm256_srai_epi32(v[2], DCT_CONST_BITS);
    2565           0 :           u[3] = _mm256_srai_epi32(v[3], DCT_CONST_BITS);
    2566           0 :           u[4] = _mm256_srai_epi32(v[4], DCT_CONST_BITS);
    2567           0 :           u[5] = _mm256_srai_epi32(v[5], DCT_CONST_BITS);
    2568           0 :           u[6] = _mm256_srai_epi32(v[6], DCT_CONST_BITS);
    2569           0 :           u[7] = _mm256_srai_epi32(v[7], DCT_CONST_BITS);
    2570           0 :           u[8] = _mm256_srai_epi32(v[8], DCT_CONST_BITS);
    2571           0 :           u[9] = _mm256_srai_epi32(v[9], DCT_CONST_BITS);
    2572           0 :           u[10] = _mm256_srai_epi32(v[10], DCT_CONST_BITS);
    2573           0 :           u[11] = _mm256_srai_epi32(v[11], DCT_CONST_BITS);
    2574           0 :           u[12] = _mm256_srai_epi32(v[12], DCT_CONST_BITS);
    2575           0 :           u[13] = _mm256_srai_epi32(v[13], DCT_CONST_BITS);
    2576           0 :           u[14] = _mm256_srai_epi32(v[14], DCT_CONST_BITS);
    2577           0 :           u[15] = _mm256_srai_epi32(v[15], DCT_CONST_BITS);
    2578             : 
    2579           0 :           v[0] = _mm256_cmpgt_epi32(kZero, u[0]);
    2580           0 :           v[1] = _mm256_cmpgt_epi32(kZero, u[1]);
    2581           0 :           v[2] = _mm256_cmpgt_epi32(kZero, u[2]);
    2582           0 :           v[3] = _mm256_cmpgt_epi32(kZero, u[3]);
    2583           0 :           v[4] = _mm256_cmpgt_epi32(kZero, u[4]);
    2584           0 :           v[5] = _mm256_cmpgt_epi32(kZero, u[5]);
    2585           0 :           v[6] = _mm256_cmpgt_epi32(kZero, u[6]);
    2586           0 :           v[7] = _mm256_cmpgt_epi32(kZero, u[7]);
    2587           0 :           v[8] = _mm256_cmpgt_epi32(kZero, u[8]);
    2588           0 :           v[9] = _mm256_cmpgt_epi32(kZero, u[9]);
    2589           0 :           v[10] = _mm256_cmpgt_epi32(kZero, u[10]);
    2590           0 :           v[11] = _mm256_cmpgt_epi32(kZero, u[11]);
    2591           0 :           v[12] = _mm256_cmpgt_epi32(kZero, u[12]);
    2592           0 :           v[13] = _mm256_cmpgt_epi32(kZero, u[13]);
    2593           0 :           v[14] = _mm256_cmpgt_epi32(kZero, u[14]);
    2594           0 :           v[15] = _mm256_cmpgt_epi32(kZero, u[15]);
    2595             : 
    2596           0 :           u[0] = _mm256_sub_epi32(u[0], v[0]);
    2597           0 :           u[1] = _mm256_sub_epi32(u[1], v[1]);
    2598           0 :           u[2] = _mm256_sub_epi32(u[2], v[2]);
    2599           0 :           u[3] = _mm256_sub_epi32(u[3], v[3]);
    2600           0 :           u[4] = _mm256_sub_epi32(u[4], v[4]);
    2601           0 :           u[5] = _mm256_sub_epi32(u[5], v[5]);
    2602           0 :           u[6] = _mm256_sub_epi32(u[6], v[6]);
    2603           0 :           u[7] = _mm256_sub_epi32(u[7], v[7]);
    2604           0 :           u[8] = _mm256_sub_epi32(u[8], v[8]);
    2605           0 :           u[9] = _mm256_sub_epi32(u[9], v[9]);
    2606           0 :           u[10] = _mm256_sub_epi32(u[10], v[10]);
    2607           0 :           u[11] = _mm256_sub_epi32(u[11], v[11]);
    2608           0 :           u[12] = _mm256_sub_epi32(u[12], v[12]);
    2609           0 :           u[13] = _mm256_sub_epi32(u[13], v[13]);
    2610           0 :           u[14] = _mm256_sub_epi32(u[14], v[14]);
    2611           0 :           u[15] = _mm256_sub_epi32(u[15], v[15]);
    2612             : 
    2613           0 :           v[0] = _mm256_add_epi32(u[0], K32One);
    2614           0 :           v[1] = _mm256_add_epi32(u[1], K32One);
    2615           0 :           v[2] = _mm256_add_epi32(u[2], K32One);
    2616           0 :           v[3] = _mm256_add_epi32(u[3], K32One);
    2617           0 :           v[4] = _mm256_add_epi32(u[4], K32One);
    2618           0 :           v[5] = _mm256_add_epi32(u[5], K32One);
    2619           0 :           v[6] = _mm256_add_epi32(u[6], K32One);
    2620           0 :           v[7] = _mm256_add_epi32(u[7], K32One);
    2621           0 :           v[8] = _mm256_add_epi32(u[8], K32One);
    2622           0 :           v[9] = _mm256_add_epi32(u[9], K32One);
    2623           0 :           v[10] = _mm256_add_epi32(u[10], K32One);
    2624           0 :           v[11] = _mm256_add_epi32(u[11], K32One);
    2625           0 :           v[12] = _mm256_add_epi32(u[12], K32One);
    2626           0 :           v[13] = _mm256_add_epi32(u[13], K32One);
    2627           0 :           v[14] = _mm256_add_epi32(u[14], K32One);
    2628           0 :           v[15] = _mm256_add_epi32(u[15], K32One);
    2629             : 
    2630           0 :           u[0] = _mm256_srai_epi32(v[0], 2);
    2631           0 :           u[1] = _mm256_srai_epi32(v[1], 2);
    2632           0 :           u[2] = _mm256_srai_epi32(v[2], 2);
    2633           0 :           u[3] = _mm256_srai_epi32(v[3], 2);
    2634           0 :           u[4] = _mm256_srai_epi32(v[4], 2);
    2635           0 :           u[5] = _mm256_srai_epi32(v[5], 2);
    2636           0 :           u[6] = _mm256_srai_epi32(v[6], 2);
    2637           0 :           u[7] = _mm256_srai_epi32(v[7], 2);
    2638           0 :           u[8] = _mm256_srai_epi32(v[8], 2);
    2639           0 :           u[9] = _mm256_srai_epi32(v[9], 2);
    2640           0 :           u[10] = _mm256_srai_epi32(v[10], 2);
    2641           0 :           u[11] = _mm256_srai_epi32(v[11], 2);
    2642           0 :           u[12] = _mm256_srai_epi32(v[12], 2);
    2643           0 :           u[13] = _mm256_srai_epi32(v[13], 2);
    2644           0 :           u[14] = _mm256_srai_epi32(v[14], 2);
    2645           0 :           u[15] = _mm256_srai_epi32(v[15], 2);
    2646             : 
    2647           0 :           out[1] = _mm256_packs_epi32(u[0], u[1]);
    2648           0 :           out[17] = _mm256_packs_epi32(u[2], u[3]);
    2649           0 :           out[9] = _mm256_packs_epi32(u[4], u[5]);
    2650           0 :           out[25] = _mm256_packs_epi32(u[6], u[7]);
    2651           0 :           out[7] = _mm256_packs_epi32(u[8], u[9]);
    2652           0 :           out[23] = _mm256_packs_epi32(u[10], u[11]);
    2653           0 :           out[15] = _mm256_packs_epi32(u[12], u[13]);
    2654           0 :           out[31] = _mm256_packs_epi32(u[14], u[15]);
    2655             :         }
    2656             :         {
    2657           0 :           const __m256i k32_p27_p05 =
    2658           0 :               pair256_set_epi32(cospi_27_64, cospi_5_64);
    2659           0 :           const __m256i k32_p11_p21 =
    2660           0 :               pair256_set_epi32(cospi_11_64, cospi_21_64);
    2661           0 :           const __m256i k32_p19_p13 =
    2662           0 :               pair256_set_epi32(cospi_19_64, cospi_13_64);
    2663           0 :           const __m256i k32_p03_p29 =
    2664           0 :               pair256_set_epi32(cospi_3_64, cospi_29_64);
    2665           0 :           const __m256i k32_m29_p03 =
    2666           0 :               pair256_set_epi32(-cospi_29_64, cospi_3_64);
    2667           0 :           const __m256i k32_m13_p19 =
    2668           0 :               pair256_set_epi32(-cospi_13_64, cospi_19_64);
    2669           0 :           const __m256i k32_m21_p11 =
    2670           0 :               pair256_set_epi32(-cospi_21_64, cospi_11_64);
    2671           0 :           const __m256i k32_m05_p27 =
    2672           0 :               pair256_set_epi32(-cospi_5_64, cospi_27_64);
    2673             : 
    2674           0 :           u[0] = _mm256_unpacklo_epi32(lstep1[40], lstep1[54]);
    2675           0 :           u[1] = _mm256_unpackhi_epi32(lstep1[40], lstep1[54]);
    2676           0 :           u[2] = _mm256_unpacklo_epi32(lstep1[41], lstep1[55]);
    2677           0 :           u[3] = _mm256_unpackhi_epi32(lstep1[41], lstep1[55]);
    2678           0 :           u[4] = _mm256_unpacklo_epi32(lstep1[42], lstep1[52]);
    2679           0 :           u[5] = _mm256_unpackhi_epi32(lstep1[42], lstep1[52]);
    2680           0 :           u[6] = _mm256_unpacklo_epi32(lstep1[43], lstep1[53]);
    2681           0 :           u[7] = _mm256_unpackhi_epi32(lstep1[43], lstep1[53]);
    2682           0 :           u[8] = _mm256_unpacklo_epi32(lstep1[44], lstep1[50]);
    2683           0 :           u[9] = _mm256_unpackhi_epi32(lstep1[44], lstep1[50]);
    2684           0 :           u[10] = _mm256_unpacklo_epi32(lstep1[45], lstep1[51]);
    2685           0 :           u[11] = _mm256_unpackhi_epi32(lstep1[45], lstep1[51]);
    2686           0 :           u[12] = _mm256_unpacklo_epi32(lstep1[46], lstep1[48]);
    2687           0 :           u[13] = _mm256_unpackhi_epi32(lstep1[46], lstep1[48]);
    2688           0 :           u[14] = _mm256_unpacklo_epi32(lstep1[47], lstep1[49]);
    2689           0 :           u[15] = _mm256_unpackhi_epi32(lstep1[47], lstep1[49]);
    2690             : 
    2691           0 :           v[0] = k_madd_epi32_avx2(u[0], k32_p27_p05);
    2692           0 :           v[1] = k_madd_epi32_avx2(u[1], k32_p27_p05);
    2693           0 :           v[2] = k_madd_epi32_avx2(u[2], k32_p27_p05);
    2694           0 :           v[3] = k_madd_epi32_avx2(u[3], k32_p27_p05);
    2695           0 :           v[4] = k_madd_epi32_avx2(u[4], k32_p11_p21);
    2696           0 :           v[5] = k_madd_epi32_avx2(u[5], k32_p11_p21);
    2697           0 :           v[6] = k_madd_epi32_avx2(u[6], k32_p11_p21);
    2698           0 :           v[7] = k_madd_epi32_avx2(u[7], k32_p11_p21);
    2699           0 :           v[8] = k_madd_epi32_avx2(u[8], k32_p19_p13);
    2700           0 :           v[9] = k_madd_epi32_avx2(u[9], k32_p19_p13);
    2701           0 :           v[10] = k_madd_epi32_avx2(u[10], k32_p19_p13);
    2702           0 :           v[11] = k_madd_epi32_avx2(u[11], k32_p19_p13);
    2703           0 :           v[12] = k_madd_epi32_avx2(u[12], k32_p03_p29);
    2704           0 :           v[13] = k_madd_epi32_avx2(u[13], k32_p03_p29);
    2705           0 :           v[14] = k_madd_epi32_avx2(u[14], k32_p03_p29);
    2706           0 :           v[15] = k_madd_epi32_avx2(u[15], k32_p03_p29);
    2707           0 :           v[16] = k_madd_epi32_avx2(u[12], k32_m29_p03);
    2708           0 :           v[17] = k_madd_epi32_avx2(u[13], k32_m29_p03);
    2709           0 :           v[18] = k_madd_epi32_avx2(u[14], k32_m29_p03);
    2710           0 :           v[19] = k_madd_epi32_avx2(u[15], k32_m29_p03);
    2711           0 :           v[20] = k_madd_epi32_avx2(u[8], k32_m13_p19);
    2712           0 :           v[21] = k_madd_epi32_avx2(u[9], k32_m13_p19);
    2713           0 :           v[22] = k_madd_epi32_avx2(u[10], k32_m13_p19);
    2714           0 :           v[23] = k_madd_epi32_avx2(u[11], k32_m13_p19);
    2715           0 :           v[24] = k_madd_epi32_avx2(u[4], k32_m21_p11);
    2716           0 :           v[25] = k_madd_epi32_avx2(u[5], k32_m21_p11);
    2717           0 :           v[26] = k_madd_epi32_avx2(u[6], k32_m21_p11);
    2718           0 :           v[27] = k_madd_epi32_avx2(u[7], k32_m21_p11);
    2719           0 :           v[28] = k_madd_epi32_avx2(u[0], k32_m05_p27);
    2720           0 :           v[29] = k_madd_epi32_avx2(u[1], k32_m05_p27);
    2721           0 :           v[30] = k_madd_epi32_avx2(u[2], k32_m05_p27);
    2722           0 :           v[31] = k_madd_epi32_avx2(u[3], k32_m05_p27);
    2723             : 
    2724           0 :           u[0] = k_packs_epi64_avx2(v[0], v[1]);
    2725           0 :           u[1] = k_packs_epi64_avx2(v[2], v[3]);
    2726           0 :           u[2] = k_packs_epi64_avx2(v[4], v[5]);
    2727           0 :           u[3] = k_packs_epi64_avx2(v[6], v[7]);
    2728           0 :           u[4] = k_packs_epi64_avx2(v[8], v[9]);
    2729           0 :           u[5] = k_packs_epi64_avx2(v[10], v[11]);
    2730           0 :           u[6] = k_packs_epi64_avx2(v[12], v[13]);
    2731           0 :           u[7] = k_packs_epi64_avx2(v[14], v[15]);
    2732           0 :           u[8] = k_packs_epi64_avx2(v[16], v[17]);
    2733           0 :           u[9] = k_packs_epi64_avx2(v[18], v[19]);
    2734           0 :           u[10] = k_packs_epi64_avx2(v[20], v[21]);
    2735           0 :           u[11] = k_packs_epi64_avx2(v[22], v[23]);
    2736           0 :           u[12] = k_packs_epi64_avx2(v[24], v[25]);
    2737           0 :           u[13] = k_packs_epi64_avx2(v[26], v[27]);
    2738           0 :           u[14] = k_packs_epi64_avx2(v[28], v[29]);
    2739           0 :           u[15] = k_packs_epi64_avx2(v[30], v[31]);
    2740             : 
    2741           0 :           v[0] = _mm256_add_epi32(u[0], k__DCT_CONST_ROUNDING);
    2742           0 :           v[1] = _mm256_add_epi32(u[1], k__DCT_CONST_ROUNDING);
    2743           0 :           v[2] = _mm256_add_epi32(u[2], k__DCT_CONST_ROUNDING);
    2744           0 :           v[3] = _mm256_add_epi32(u[3], k__DCT_CONST_ROUNDING);
    2745           0 :           v[4] = _mm256_add_epi32(u[4], k__DCT_CONST_ROUNDING);
    2746           0 :           v[5] = _mm256_add_epi32(u[5], k__DCT_CONST_ROUNDING);
    2747           0 :           v[6] = _mm256_add_epi32(u[6], k__DCT_CONST_ROUNDING);
    2748           0 :           v[7] = _mm256_add_epi32(u[7], k__DCT_CONST_ROUNDING);
    2749           0 :           v[8] = _mm256_add_epi32(u[8], k__DCT_CONST_ROUNDING);
    2750           0 :           v[9] = _mm256_add_epi32(u[9], k__DCT_CONST_ROUNDING);
    2751           0 :           v[10] = _mm256_add_epi32(u[10], k__DCT_CONST_ROUNDING);
    2752           0 :           v[11] = _mm256_add_epi32(u[11], k__DCT_CONST_ROUNDING);
    2753           0 :           v[12] = _mm256_add_epi32(u[12], k__DCT_CONST_ROUNDING);
    2754           0 :           v[13] = _mm256_add_epi32(u[13], k__DCT_CONST_ROUNDING);
    2755           0 :           v[14] = _mm256_add_epi32(u[14], k__DCT_CONST_ROUNDING);
    2756           0 :           v[15] = _mm256_add_epi32(u[15], k__DCT_CONST_ROUNDING);
    2757             : 
    2758           0 :           u[0] = _mm256_srai_epi32(v[0], DCT_CONST_BITS);
    2759           0 :           u[1] = _mm256_srai_epi32(v[1], DCT_CONST_BITS);
    2760           0 :           u[2] = _mm256_srai_epi32(v[2], DCT_CONST_BITS);
    2761           0 :           u[3] = _mm256_srai_epi32(v[3], DCT_CONST_BITS);
    2762           0 :           u[4] = _mm256_srai_epi32(v[4], DCT_CONST_BITS);
    2763           0 :           u[5] = _mm256_srai_epi32(v[5], DCT_CONST_BITS);
    2764           0 :           u[6] = _mm256_srai_epi32(v[6], DCT_CONST_BITS);
    2765           0 :           u[7] = _mm256_srai_epi32(v[7], DCT_CONST_BITS);
    2766           0 :           u[8] = _mm256_srai_epi32(v[8], DCT_CONST_BITS);
    2767           0 :           u[9] = _mm256_srai_epi32(v[9], DCT_CONST_BITS);
    2768           0 :           u[10] = _mm256_srai_epi32(v[10], DCT_CONST_BITS);
    2769           0 :           u[11] = _mm256_srai_epi32(v[11], DCT_CONST_BITS);
    2770           0 :           u[12] = _mm256_srai_epi32(v[12], DCT_CONST_BITS);
    2771           0 :           u[13] = _mm256_srai_epi32(v[13], DCT_CONST_BITS);
    2772           0 :           u[14] = _mm256_srai_epi32(v[14], DCT_CONST_BITS);
    2773           0 :           u[15] = _mm256_srai_epi32(v[15], DCT_CONST_BITS);
    2774             : 
    2775           0 :           v[0] = _mm256_cmpgt_epi32(kZero, u[0]);
    2776           0 :           v[1] = _mm256_cmpgt_epi32(kZero, u[1]);
    2777           0 :           v[2] = _mm256_cmpgt_epi32(kZero, u[2]);
    2778           0 :           v[3] = _mm256_cmpgt_epi32(kZero, u[3]);
    2779           0 :           v[4] = _mm256_cmpgt_epi32(kZero, u[4]);
    2780           0 :           v[5] = _mm256_cmpgt_epi32(kZero, u[5]);
    2781           0 :           v[6] = _mm256_cmpgt_epi32(kZero, u[6]);
    2782           0 :           v[7] = _mm256_cmpgt_epi32(kZero, u[7]);
    2783           0 :           v[8] = _mm256_cmpgt_epi32(kZero, u[8]);
    2784           0 :           v[9] = _mm256_cmpgt_epi32(kZero, u[9]);
    2785           0 :           v[10] = _mm256_cmpgt_epi32(kZero, u[10]);
    2786           0 :           v[11] = _mm256_cmpgt_epi32(kZero, u[11]);
    2787           0 :           v[12] = _mm256_cmpgt_epi32(kZero, u[12]);
    2788           0 :           v[13] = _mm256_cmpgt_epi32(kZero, u[13]);
    2789           0 :           v[14] = _mm256_cmpgt_epi32(kZero, u[14]);
    2790           0 :           v[15] = _mm256_cmpgt_epi32(kZero, u[15]);
    2791             : 
    2792           0 :           u[0] = _mm256_sub_epi32(u[0], v[0]);
    2793           0 :           u[1] = _mm256_sub_epi32(u[1], v[1]);
    2794           0 :           u[2] = _mm256_sub_epi32(u[2], v[2]);
    2795           0 :           u[3] = _mm256_sub_epi32(u[3], v[3]);
    2796           0 :           u[4] = _mm256_sub_epi32(u[4], v[4]);
    2797           0 :           u[5] = _mm256_sub_epi32(u[5], v[5]);
    2798           0 :           u[6] = _mm256_sub_epi32(u[6], v[6]);
    2799           0 :           u[7] = _mm256_sub_epi32(u[7], v[7]);
    2800           0 :           u[8] = _mm256_sub_epi32(u[8], v[8]);
    2801           0 :           u[9] = _mm256_sub_epi32(u[9], v[9]);
    2802           0 :           u[10] = _mm256_sub_epi32(u[10], v[10]);
    2803           0 :           u[11] = _mm256_sub_epi32(u[11], v[11]);
    2804           0 :           u[12] = _mm256_sub_epi32(u[12], v[12]);
    2805           0 :           u[13] = _mm256_sub_epi32(u[13], v[13]);
    2806           0 :           u[14] = _mm256_sub_epi32(u[14], v[14]);
    2807           0 :           u[15] = _mm256_sub_epi32(u[15], v[15]);
    2808             : 
    2809           0 :           v[0] = _mm256_add_epi32(u[0], K32One);
    2810           0 :           v[1] = _mm256_add_epi32(u[1], K32One);
    2811           0 :           v[2] = _mm256_add_epi32(u[2], K32One);
    2812           0 :           v[3] = _mm256_add_epi32(u[3], K32One);
    2813           0 :           v[4] = _mm256_add_epi32(u[4], K32One);
    2814           0 :           v[5] = _mm256_add_epi32(u[5], K32One);
    2815           0 :           v[6] = _mm256_add_epi32(u[6], K32One);
    2816           0 :           v[7] = _mm256_add_epi32(u[7], K32One);
    2817           0 :           v[8] = _mm256_add_epi32(u[8], K32One);
    2818           0 :           v[9] = _mm256_add_epi32(u[9], K32One);
    2819           0 :           v[10] = _mm256_add_epi32(u[10], K32One);
    2820           0 :           v[11] = _mm256_add_epi32(u[11], K32One);
    2821           0 :           v[12] = _mm256_add_epi32(u[12], K32One);
    2822           0 :           v[13] = _mm256_add_epi32(u[13], K32One);
    2823           0 :           v[14] = _mm256_add_epi32(u[14], K32One);
    2824           0 :           v[15] = _mm256_add_epi32(u[15], K32One);
    2825             : 
    2826           0 :           u[0] = _mm256_srai_epi32(v[0], 2);
    2827           0 :           u[1] = _mm256_srai_epi32(v[1], 2);
    2828           0 :           u[2] = _mm256_srai_epi32(v[2], 2);
    2829           0 :           u[3] = _mm256_srai_epi32(v[3], 2);
    2830           0 :           u[4] = _mm256_srai_epi32(v[4], 2);
    2831           0 :           u[5] = _mm256_srai_epi32(v[5], 2);
    2832           0 :           u[6] = _mm256_srai_epi32(v[6], 2);
    2833           0 :           u[7] = _mm256_srai_epi32(v[7], 2);
    2834           0 :           u[8] = _mm256_srai_epi32(v[8], 2);
    2835           0 :           u[9] = _mm256_srai_epi32(v[9], 2);
    2836           0 :           u[10] = _mm256_srai_epi32(v[10], 2);
    2837           0 :           u[11] = _mm256_srai_epi32(v[11], 2);
    2838           0 :           u[12] = _mm256_srai_epi32(v[12], 2);
    2839           0 :           u[13] = _mm256_srai_epi32(v[13], 2);
    2840           0 :           u[14] = _mm256_srai_epi32(v[14], 2);
    2841           0 :           u[15] = _mm256_srai_epi32(v[15], 2);
    2842             : 
    2843           0 :           out[5] = _mm256_packs_epi32(u[0], u[1]);
    2844           0 :           out[21] = _mm256_packs_epi32(u[2], u[3]);
    2845           0 :           out[13] = _mm256_packs_epi32(u[4], u[5]);
    2846           0 :           out[29] = _mm256_packs_epi32(u[6], u[7]);
    2847           0 :           out[3] = _mm256_packs_epi32(u[8], u[9]);
    2848           0 :           out[19] = _mm256_packs_epi32(u[10], u[11]);
    2849           0 :           out[11] = _mm256_packs_epi32(u[12], u[13]);
    2850           0 :           out[27] = _mm256_packs_epi32(u[14], u[15]);
    2851             :         }
    2852             :       }
    2853             : #endif
    2854             :       // Transpose the results, do it as four 8x8 transposes.
    2855             :       {
    2856             :         int transpose_block;
    2857             :         int16_t *output_currStep, *output_nextStep;
    2858             :         tran_low_t *curr_out, *next_out;
    2859             :         // Pass 0
    2860           0 :         output_currStep = &intermediate[column_start * 32];
    2861           0 :         output_nextStep = &intermediate[(column_start + 8) * 32];
    2862             :         // Pass 1
    2863           0 :         curr_out = &output_org[column_start * 32];
    2864           0 :         next_out = &output_org[(column_start + 8) * 32];
    2865             : 
    2866           0 :         for (transpose_block = 0; transpose_block < 4; ++transpose_block) {
    2867           0 :           __m256i *this_out = &out[8 * transpose_block];
    2868             :           // 00  01  02  03  04  05  06  07  08  09  10  11  12  13  14  15
    2869             :           // 20  21  22  23  24  25  26  27  28  29  30  31  32  33  34  35
    2870             :           // 40  41  42  43  44  45  46  47  48  49  50  51  52  53  54  55
    2871             :           // 60  61  62  63  64  65  66  67  68  69  70  71  72  73  74  75
    2872             :           // 80  81  82  83  84  85  86  87  88  89  90  91  92  93  94  95
    2873             :           // 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115
    2874             :           // 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135
    2875             :           // 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155
    2876           0 :           const __m256i tr0_0 = _mm256_unpacklo_epi16(this_out[0], this_out[1]);
    2877           0 :           const __m256i tr0_1 = _mm256_unpacklo_epi16(this_out[2], this_out[3]);
    2878           0 :           const __m256i tr0_2 = _mm256_unpackhi_epi16(this_out[0], this_out[1]);
    2879           0 :           const __m256i tr0_3 = _mm256_unpackhi_epi16(this_out[2], this_out[3]);
    2880           0 :           const __m256i tr0_4 = _mm256_unpacklo_epi16(this_out[4], this_out[5]);
    2881           0 :           const __m256i tr0_5 = _mm256_unpacklo_epi16(this_out[6], this_out[7]);
    2882           0 :           const __m256i tr0_6 = _mm256_unpackhi_epi16(this_out[4], this_out[5]);
    2883           0 :           const __m256i tr0_7 = _mm256_unpackhi_epi16(this_out[6], this_out[7]);
    2884             :           // 00  20  01  21  02  22  03  23  08  28  09  29  10  30  11  31
    2885             :           // 40  60  41  61  42  62  43  63  48  68  49  69  50  70  51  71
    2886             :           // 04  24  05  25  06  26  07  27  12  32  13  33  14  34  15  35
    2887             :           // 44  64  45  65  46  66  47  67  52  72  53  73  54  74  55  75
    2888             :           // 80  100 81  101 82  102 83  103 88  108 89  109 90  110 91  101
    2889             :           // 120 140 121 141 122 142 123 143 128 148 129 149 130 150 131 151
    2890             :           // 84  104 85  105 86  106 87  107 92  112 93  113 94  114 95  115
    2891             :           // 124 144 125 145 126 146 127 147 132 152 133 153 134 154 135 155
    2892             : 
    2893           0 :           const __m256i tr1_0 = _mm256_unpacklo_epi32(tr0_0, tr0_1);
    2894           0 :           const __m256i tr1_1 = _mm256_unpacklo_epi32(tr0_2, tr0_3);
    2895           0 :           const __m256i tr1_2 = _mm256_unpackhi_epi32(tr0_0, tr0_1);
    2896           0 :           const __m256i tr1_3 = _mm256_unpackhi_epi32(tr0_2, tr0_3);
    2897           0 :           const __m256i tr1_4 = _mm256_unpacklo_epi32(tr0_4, tr0_5);
    2898           0 :           const __m256i tr1_5 = _mm256_unpacklo_epi32(tr0_6, tr0_7);
    2899           0 :           const __m256i tr1_6 = _mm256_unpackhi_epi32(tr0_4, tr0_5);
    2900           0 :           const __m256i tr1_7 = _mm256_unpackhi_epi32(tr0_6, tr0_7);
    2901             :           // 00 20  40  60  01 21  41  61  08 28  48  68  09 29  49  69
    2902             :           // 04 24  44  64  05 25  45  65  12 32  52  72  13 33  53  73
    2903             :           // 02 22  42  62  03 23  43  63  10 30  50  70  11 31  51  71
    2904             :           // 06 26  46  66  07 27  47  67  14 34  54  74  15 35  55  75
    2905             :           // 80 100 120 140 81 101 121 141 88 108 128 148 89 109 129 149
    2906             :           // 84 104 124 144 85 105 125 145 92 112 132 152 93 113 133 153
    2907             :           // 82 102 122 142 83 103 123 143 90 110 130 150 91 101 131 151
    2908             :           // 86 106 126 146 87 107 127 147 94 114 134 154 95 115 135 155
    2909           0 :           __m256i tr2_0 = _mm256_unpacklo_epi64(tr1_0, tr1_4);
    2910           0 :           __m256i tr2_1 = _mm256_unpackhi_epi64(tr1_0, tr1_4);
    2911           0 :           __m256i tr2_2 = _mm256_unpacklo_epi64(tr1_2, tr1_6);
    2912           0 :           __m256i tr2_3 = _mm256_unpackhi_epi64(tr1_2, tr1_6);
    2913           0 :           __m256i tr2_4 = _mm256_unpacklo_epi64(tr1_1, tr1_5);
    2914           0 :           __m256i tr2_5 = _mm256_unpackhi_epi64(tr1_1, tr1_5);
    2915           0 :           __m256i tr2_6 = _mm256_unpacklo_epi64(tr1_3, tr1_7);
    2916           0 :           __m256i tr2_7 = _mm256_unpackhi_epi64(tr1_3, tr1_7);
    2917             :           // 00 20 40 60 80 100 120 140 08 28 48 68 88 108 128 148
    2918             :           // 01 21 41 61 81 101 121 141 09 29 49 69 89 109 129 149
    2919             :           // 02 22 42 62 82 102 122 142 10 30 50 70 90 110 130 150
    2920             :           // 03 23 43 63 83 103 123 143 11 31 51 71 91 101 131 151
    2921             :           // 04 24 44 64 84 104 124 144 12 32 52 72 92 112 132 152
    2922             :           // 05 25 45 65 85 105 125 145 13 33 53 73 93 113 133 153
    2923             :           // 06 26 46 66 86 106 126 146 14 34 54 74 94 114 134 154
    2924             :           // 07 27 47 67 87 107 127 147 15 35 55 75 95 115 135 155
    2925           0 :           if (0 == pass) {
    2926             :             // output[j] = (output[j] + 1 + (output[j] > 0)) >> 2;
    2927             :             // TODO(cd): see quality impact of only doing
    2928             :             //           output[j] = (output[j] + 1) >> 2;
    2929             :             //           which would remove the code between here ...
    2930           0 :             __m256i tr2_0_0 = _mm256_cmpgt_epi16(tr2_0, kZero);
    2931           0 :             __m256i tr2_1_0 = _mm256_cmpgt_epi16(tr2_1, kZero);
    2932           0 :             __m256i tr2_2_0 = _mm256_cmpgt_epi16(tr2_2, kZero);
    2933           0 :             __m256i tr2_3_0 = _mm256_cmpgt_epi16(tr2_3, kZero);
    2934           0 :             __m256i tr2_4_0 = _mm256_cmpgt_epi16(tr2_4, kZero);
    2935           0 :             __m256i tr2_5_0 = _mm256_cmpgt_epi16(tr2_5, kZero);
    2936           0 :             __m256i tr2_6_0 = _mm256_cmpgt_epi16(tr2_6, kZero);
    2937           0 :             __m256i tr2_7_0 = _mm256_cmpgt_epi16(tr2_7, kZero);
    2938           0 :             tr2_0 = _mm256_sub_epi16(tr2_0, tr2_0_0);
    2939           0 :             tr2_1 = _mm256_sub_epi16(tr2_1, tr2_1_0);
    2940           0 :             tr2_2 = _mm256_sub_epi16(tr2_2, tr2_2_0);
    2941           0 :             tr2_3 = _mm256_sub_epi16(tr2_3, tr2_3_0);
    2942           0 :             tr2_4 = _mm256_sub_epi16(tr2_4, tr2_4_0);
    2943           0 :             tr2_5 = _mm256_sub_epi16(tr2_5, tr2_5_0);
    2944           0 :             tr2_6 = _mm256_sub_epi16(tr2_6, tr2_6_0);
    2945           0 :             tr2_7 = _mm256_sub_epi16(tr2_7, tr2_7_0);
    2946             :             //           ... and here.
    2947             :             //           PS: also change code in av1/encoder/av1_dct.c
    2948           0 :             tr2_0 = _mm256_add_epi16(tr2_0, kOne);
    2949           0 :             tr2_1 = _mm256_add_epi16(tr2_1, kOne);
    2950           0 :             tr2_2 = _mm256_add_epi16(tr2_2, kOne);
    2951           0 :             tr2_3 = _mm256_add_epi16(tr2_3, kOne);
    2952           0 :             tr2_4 = _mm256_add_epi16(tr2_4, kOne);
    2953           0 :             tr2_5 = _mm256_add_epi16(tr2_5, kOne);
    2954           0 :             tr2_6 = _mm256_add_epi16(tr2_6, kOne);
    2955           0 :             tr2_7 = _mm256_add_epi16(tr2_7, kOne);
    2956           0 :             tr2_0 = _mm256_srai_epi16(tr2_0, 2);
    2957           0 :             tr2_1 = _mm256_srai_epi16(tr2_1, 2);
    2958           0 :             tr2_2 = _mm256_srai_epi16(tr2_2, 2);
    2959           0 :             tr2_3 = _mm256_srai_epi16(tr2_3, 2);
    2960           0 :             tr2_4 = _mm256_srai_epi16(tr2_4, 2);
    2961           0 :             tr2_5 = _mm256_srai_epi16(tr2_5, 2);
    2962           0 :             tr2_6 = _mm256_srai_epi16(tr2_6, 2);
    2963           0 :             tr2_7 = _mm256_srai_epi16(tr2_7, 2);
    2964             :           }
    2965           0 :           if (0 == pass) {
    2966             :             // Note: even though all these stores are aligned, using the aligned
    2967             :             //       intrinsic make the code slightly slower.
    2968           0 :             _mm_storeu_si128((__m128i *)(output_currStep + 0 * 32),
    2969             :                              _mm256_castsi256_si128(tr2_0));
    2970           0 :             _mm_storeu_si128((__m128i *)(output_currStep + 1 * 32),
    2971             :                              _mm256_castsi256_si128(tr2_1));
    2972           0 :             _mm_storeu_si128((__m128i *)(output_currStep + 2 * 32),
    2973             :                              _mm256_castsi256_si128(tr2_2));
    2974           0 :             _mm_storeu_si128((__m128i *)(output_currStep + 3 * 32),
    2975             :                              _mm256_castsi256_si128(tr2_3));
    2976           0 :             _mm_storeu_si128((__m128i *)(output_currStep + 4 * 32),
    2977             :                              _mm256_castsi256_si128(tr2_4));
    2978           0 :             _mm_storeu_si128((__m128i *)(output_currStep + 5 * 32),
    2979             :                              _mm256_castsi256_si128(tr2_5));
    2980           0 :             _mm_storeu_si128((__m128i *)(output_currStep + 6 * 32),
    2981             :                              _mm256_castsi256_si128(tr2_6));
    2982           0 :             _mm_storeu_si128((__m128i *)(output_currStep + 7 * 32),
    2983             :                              _mm256_castsi256_si128(tr2_7));
    2984             : 
    2985           0 :             _mm_storeu_si128((__m128i *)(output_nextStep + 0 * 32),
    2986           0 :                              _mm256_extractf128_si256(tr2_0, 1));
    2987           0 :             _mm_storeu_si128((__m128i *)(output_nextStep + 1 * 32),
    2988           0 :                              _mm256_extractf128_si256(tr2_1, 1));
    2989           0 :             _mm_storeu_si128((__m128i *)(output_nextStep + 2 * 32),
    2990           0 :                              _mm256_extractf128_si256(tr2_2, 1));
    2991           0 :             _mm_storeu_si128((__m128i *)(output_nextStep + 3 * 32),
    2992           0 :                              _mm256_extractf128_si256(tr2_3, 1));
    2993           0 :             _mm_storeu_si128((__m128i *)(output_nextStep + 4 * 32),
    2994           0 :                              _mm256_extractf128_si256(tr2_4, 1));
    2995           0 :             _mm_storeu_si128((__m128i *)(output_nextStep + 5 * 32),
    2996           0 :                              _mm256_extractf128_si256(tr2_5, 1));
    2997           0 :             _mm_storeu_si128((__m128i *)(output_nextStep + 6 * 32),
    2998           0 :                              _mm256_extractf128_si256(tr2_6, 1));
    2999           0 :             _mm_storeu_si128((__m128i *)(output_nextStep + 7 * 32),
    3000           0 :                              _mm256_extractf128_si256(tr2_7, 1));
    3001             :             // Process next 8x8
    3002           0 :             output_currStep += 8;
    3003           0 :             output_nextStep += 8;
    3004             :           }
    3005           0 :           if (1 == pass) {
    3006           0 :             store_coeff(&tr2_0, curr_out + 0 * 32, next_out + 0 * 32);
    3007           0 :             store_coeff(&tr2_1, curr_out + 1 * 32, next_out + 1 * 32);
    3008           0 :             store_coeff(&tr2_2, curr_out + 2 * 32, next_out + 2 * 32);
    3009           0 :             store_coeff(&tr2_3, curr_out + 3 * 32, next_out + 3 * 32);
    3010           0 :             store_coeff(&tr2_4, curr_out + 4 * 32, next_out + 4 * 32);
    3011           0 :             store_coeff(&tr2_5, curr_out + 5 * 32, next_out + 5 * 32);
    3012           0 :             store_coeff(&tr2_6, curr_out + 6 * 32, next_out + 6 * 32);
    3013           0 :             store_coeff(&tr2_7, curr_out + 7 * 32, next_out + 7 * 32);
    3014           0 :             curr_out += 8;
    3015           0 :             next_out += 8;
    3016             :           }
    3017             :         }
    3018             :       }
    3019             :     }
    3020             :   }
    3021             :   _mm256_zeroupper();
    3022           0 : }  // NOLINT

Generated by: LCOV version 1.13