FPGA Implementation of Deep Neural Network Based Equalizers for High-Speed PON

 

贝尔实验室的文章

部署在FPGA上的固定节点的神经网络均衡器接收机灵敏度性能要优于MLSE均衡器在下行50G PON场景下。

色散产生了接收信号的非线性

 

神经网络结构

2020OFC论文阅读 T4D.2 FPGA Implementation of Deep Neural Network Based Equalizers for High-Speed PON

OOK信号 全连接 ReLU函数 输出层节点数为2的时候,不是one-hot的方案,而是并行处理两个symbol,引文[5]

 

实验装置

2020OFC论文阅读 T4D.2 FPGA Implementation of Deep Neural Network Based Equalizers for High-Speed PON

PRBS15

中心波长:1342nm(有色散)

光纤长度:30km

色散积累量:83ps/nm

DAC:88GS/s 8bit

exact data rate:50.2857Gb/s

接收端眼图畸变严重,因为带限和色散

测量数据以及权值和偏置值先存储在SD卡存储器中,然后读入DDR4存储器,最后装入FPGA fabric进行在线DNN处理。Petalinux是Xilinx FPGA上的嵌入式Linux,它被用作操作系统(OS)来处理存储器、存储器和FPGA结构之间的数据流,以及用户命令的接口。

使用PRBS15不会出现神经网络过拟合的情况,因为同时处理两个信号,只要输出层节点数小于28就行。

 

DSP:

MLSE抽头个数 6

 

DNN均衡结果和FPGA资源利用情况

2020OFC论文阅读 T4D.2 FPGA Implementation of Deep Neural Network Based Equalizers for High-Speed PON

 

sensitivity penalty

DNN 1 outperforms MLSE

BER=1×10-2

DNN 1 outperforms DNN 2

BER=1×10-3

30km

0.7dB

0.6dB

BTB

0.2dB

 

使用并行方案penalty很小,再增加输出节点数(超过2)性能就变差了。

 

为了增加处理速率,四个DNN同时处理数据,表1里面是DNN1和DNN2的资源利用率比较,结论是DNN2没占太多资源但是速率快一倍。

 

相关文章:

  • 2021-05-22
  • 2021-11-17
  • 2021-10-22
  • 2021-08-03
  • 2021-06-30
  • 2021-05-12
  • 2021-07-22
  • 2021-09-04
猜你喜欢
  • 2021-06-11
  • 2021-05-20
  • 2021-08-13
  • 2021-05-13
  • 2021-06-18
  • 2021-08-05
  • 2021-08-22
相关资源
相似解决方案