关键词:快速傅里叶变换 高维FFT 并行计算
快速傅里叶变换简介
离散傅里叶变换
离散傅里叶变换(DFT)一般定义为:
离散傅里叶逆变换可以定义为:
这里头上的符号不管放在正变换那还是负变换那里都是没有关系的。正负变换前面的系数是什么也都不打紧,只要乘积为即可。
按矩阵呈向量的观点来看,简单地说,DFT就是把一个长的向量,通过乘以一个的矩阵,变成长的向量(一般情况下)。重要的是,这个变换矩阵是什么呢?其实它是一个范德蒙德矩阵,所以DFT其实就可以写为如图所示。
那么这个是个什么玩意儿呢?它其实就是复单位圆周上的M个等分点位置。如图所示。
一言以蔽之,要将一个N长的向量变成M长的向量,将复平面的上单元圆分成M分,取第1个等分点,乘方出来N个数,和原来的N长向量做內积,得到傅里叶变换出来的第1个数,依次类推,每个等分点都能出来一个数,那么M个等分点就能出来M个数。
我想到这,我应该把离散傅里叶变换将清楚了。非要用公式来表达的话,同前所写,不过我这里用了不同的符号,如下:
上面提到的都是一维的傅里叶变换,二维傅里叶变换其实就是在两个维度上分别做傅里叶变换。
快速傅里叶变换
在实际计算中,人们不直接采用上述离散傅里叶变换的定义式进行计算,而是使用快速傅里叶变换(Fast Fourier Transform),我们可以简单地先把快速傅里叶变换认为是一种做离散傅里叶变换的快速算法。
快速傅里叶变换被誉为二十世纪最伟大的算法之一。所谓的快速傅里叶变换(Fast Fourier Transform,简称FFT),不过是求解离散傅里叶变换的一个快速算法。它将原本计算量为的DFT求和公式,降为了。
但是,为了获得较高的运算速度,待变换序列的元素数量必须是形式个。
由上述可知,所谓的DFT,不过是一个以输入向量为系数的多项式,在复单位圆周上取不同等分点得到的值。即寻求在如下多项式上的取值:
那么FFT的精髓就可以写为如下三步:
-
将多项式按奇偶分为两部分,,这里
-
从上所述,那么,问题就变为了求点在
和上的取值。容易看到求
(即)是两个规模减半的傅里叶变换。求得规模减半的福利变换,根据上述的和和的关系,可求得原来的傅里叶变换。 -
求的傅里叶变换,又可以拆成规模更小的傅里叶变换,如此层层向下,直到单值的傅里叶变换为其本身。
如上所述,FFT是可以递归实现的,写成伪代码,如图所示。另外,在计算的值时,可以利用到的性质,进一步减少重复的计算。如图[FFTS]所示。
上述为傅里叶变换的递归实现,为了实现并行,我们其实可以将其写为一种迭代(循环)实现。什么叫迭代实现呢?考虑上述递归的FFT,以8点DFT为例,其递归划分过程如图[fftDivide]所示。这里因不是本文重点,故不再细述。
要对序列[0 7]{}做一个DFT,根据FFT原理,只需对[0,2,4,6]{}以及[1,3,5,7]{}做DFT。继续划分,则需对[0,4]{}[2,6]{}[1,5]{}[3,7]{}做DFT。最后是对0,4,2,6,1,5,3,7分别作单点DFT。所以,只要我们知道最底层的数字的排序方式,完全可以逐层从下到上开始计算,知道第一层,不需要递归。事实上,我们可以发现,源序列04261537的二进制数分别是000,100, 010, 110, 001, 101, 011, 111,每个数倒置一下得到000, 001, 010, 011,100, 101, 110,111,正好就是01234567。对于其他2的幂也是成立的。那么,就可据此将递归步,通过几层循环来实现,有人将以此设计出来的非递归算法称为“蝶形”(butterfly)迭代算法。如图所示。
离散傅里叶变换的并行分解
并行化策略
我们可以将规模为的傅里叶变换分解成相互独立的规模更小的傅里叶变换以便于并行实现,分解也使得内存管理变得更加灵活。一个简单的想法就是将输入向量看成一个二维的向量(),这里,都是2的指数次方量级的。那么,的各个成分就可以表示为:
可以看到,这里的指标变得更快,而指标变得更慢。用中括号括起来的是向量的下标,下标从开始。
那么,原来的离散傅里叶变换就可以写为:
这里的和决定了结果的下标。中变化得更快一些。从方程([2.6])中,我们可以做一个恒等的变换,得到:
从这里发现,解读这个分解,我们们可以得到如下的并行实现的步骤:
-
固定每个,从每一个规模为的小块中,都可以取出一个值,形成一个向量。
-
我们可以对上述的每一个向量做FFT。当然,做FFT之前的指标,就变成了做FFT
之后的 指标。 -
给每个组份乘上一个。
-
重排数据,使得它们是一组中是以为指标变动的向量。
-
对这些向量组在并行的条件下做FFT。那么这时候指标就变成了指标。
-
此时就可得到结果以的形式呈现,再做一个反操作,就可以得到我们想要的正确顺序(就是
变动最快那个顺序))的一个结果。
通过上述,我们虽然把一个FFT操作拆成了两个FFT操作,但是对于每个FFT的计算量上的一个计算方式是不变的:第一步FFT的计算量为,第二部FFT的计算量为,所以呢,总的计算量为是没变的。 上述的分解,被称为“zoom transforms”,而上述的FFT的并行方式,在论文中,被叫做是“six-step framework”。
需要注意的话,我这里做的算法有一些假设条件,比如说要求数据长度除以处理机个数的值为2的正整数次方。这样就要求处理的问题规模必须是偶数,最好是2指数次方。
高维FFT并行分解
对于二维的FFT变换,只不过是在两个不同的方向,比如书在在和方向逐一进行并行的一维FFT变换即可,更高维的情况也是一样。这么干是可以的,但是显得也太蠢了。比如说,在做某个方向的FFT时,把值取出来操作,完了放回去,第二次又将其取出来……这样做无疑增加了不少操作。
所以,在高维情况下做FFT,除了在每个方向都做一次FFT这个蠢办法外,事实上是有一些更高明的方法的。比如基于DSP、FPGA、ARM等的FFT实现等,这里由于篇幅原因,不再赘述,有兴趣的读者可以查看相关文献。
数值实验
计算资源与环境
我用的计算为科学与工程计算国家重点实验室的大规模科学计算四号集群(LSSC-IV)。
它是首次使用纯IntelPurley平台并采用100Gb EDR Infiniband高速网络的千万亿次计算系统。LSSC-IV集群基于联想深腾8810系统构建,包含超算和大数据计算两部分。计算集群主体部分包含408台新一代ThinkSystem SD530模块化刀片(每个刀片包括2 颗主频为2.3GHz 的Intel Xeon Gold 6140 18核Purley处理器和192GB内存),总共拥有14688 个处理器核,理论峰值性能为1081TFlops,实测LINPACK性能703TFlops。系统还包括1台胖结点(Lenovo X3850X6服务器,2颗Intel Xeon E7-8890 V4处理器,4TB 内存,10TB
本地存储),4个KNL结点(1颗Intel Xeon Phi KNL 7250处理器,192GB内存)以及管理结点、登陆结点等。
集群系统采用Lenovo DS5760存储系统,磁盘阵列配置双控制器,8GB缓存,主机接口8个16Gbps FC接口,60 块6TB NL_SAS盘作为数据存储,裸容量共计360TB,系统持续读写带宽超过4GB/s,磁盘阵列通过2台I/O结点以GPFS并行文件系统管理,共享输出给计算结点。大数据计算部分包括7 台GPU服务器(分别配置NVIDIA Tesla P40、P100 和 V100计算卡)和由8台Lenovo X3650M5服务器组成的HDFS辅助存储系统。集群系统所有结点同时通过千兆以太网和100Gb EDR Infiniband网络连接。其中千兆以太网用于管理,EDR
Infiniband网络采用星型互联,用于计算通讯。LSSC-IV的操作系统为:Red Hat Enterprise Linux Server 7.3。LSSC-IV 上的编译系统包括Intel C,Fortran编译器,GNU编译器,Intel VTune调试器等。并行环境有MVAPICH2、OpenMPI、Intel MPI,用户可以根据自己的情况选用。LSSC-IV上还安装如下常用数值计算的开源软件:PHG(Parallel Hierarchical Grid),PETSc,Hypre,SLEPc,Trilinos等。用户也可自行在个人目录下安装需要的软件。LSSC-IV采用LSF作业调度系统,两个登陆结点作为任务提交结点。
LSSC-IV系统2017 年11月成功进入全球HPC TOP500排行榜,位列第382位。
并行性能的主要考察指标
加速比:串行执行时间与并行执行时间的比值。
并行效率:加速比与进程数的比值,即,其中,为并行程序执行进程数,为并行程序执行时间, 为串行程序执行时间。
可扩展性:并行效率与问题规模、处理机数量之间的关系。
强可扩展性:保持总体计算规模不变,随着处理器个数的增加,观察并行效率的变化。
弱可扩展性:保持单个节点的计算规模不变,随着处理器个数的增加,观察并行效率的变化。
加速比测试
我们固定核心数为4,改变问题规模,来看看加速比和并行的效率。因为在测量数值比较小时,测量不稳定,我们在程序中计时需要多次计算取平均值。
通过表格,可以观察到看得到,问题规模越大,加速的效果相对就越好。所以说,虽然说问题有其固有的可扩展性限制,可能用到用到没几十个核,加速比就恒定了,但是对于大规模问题来说,因为其加速效率较为可观,其加速效率能够随核心的成倍增长呈现1/2减小,还是很不错的。并行计算很有前景。
强可扩展性测试
固定复向量规模为32768(2e15),依次增加核心数为1、2、4、8、16、32、64、128、256,观察其加速比以及并行效率。因为核心数为1的并行和串行还是不尽相同,所以这里核心数从1开始。
对比两表,可以看得出,问题规模越大,可扩展性越好,也就是说可增加的核心数随问题的规模变大而增加。问题规模越大,可并行性越强。可以观察到并行效率快速下降,可能由每个核的计算粒度的成倍递减造成的。随着核心数的增加,而问题规模不变,通讯开销慢慢占了主导地位。
弱可扩展性测试
可以看得出,在问题规模为4096,核心数为8时,获得了最高的并行效率。
总结
本文介绍了一维快速傅里叶变换的并行化实现,并为高维的并行化实现提供了思路。
在并行化方面,基于分解的思想,在并行性能方面,测试了程序的加速比,并行效率以及可扩展性。