当前位置:首页 > 工业控制 > 电子设计自动化

摘 要: 针对IEEE802.11a帧结构提出了具体的同步算法,包括帧同步、载波同步和符号同步,并阐述了各个模块的FPGA实现方法。仿真实验结果表明,该方法不仅具有更好的同步性能,而且复杂度低、易于实现。
关键词: 正交频分复用;同步;频率偏移;FPGA

 正交频分复用技术OFDM(Orthogonal Frequency Division Multiplxing)是一种特殊的多载波传输方式,具有抗多径能力强、频谱利用率高、适合高速数据传输等优点,因此已被广泛地应用于最新的无线通信系统中[1]。IEEE802.11a的无线局域网标准中也将OFDM调制技术确定为其物理层标准。然而,OFDM对同步错误非常敏感,尤其对载波频率偏移和相位噪声非常敏感,因此需要在时间和频率上进行同步,以使系统克服多普勒效应,从而获得良好的性能[2]。
 本文的同步算法是基于IEEE802.11a的长训练序列和短训练序列,并通过FPGA来实现的。短训练序列的主要作用是进行信号检测、符号定时和粗频率偏差估计,它由l0个重复的短训练符号组成;长训练序列主要是通过滑动相关来获得精确的频率偏差估计和信道估计,由两个重复的长训练符号组成[3]。
1 OFDM系统模型[4]
 OFDM系统框图如图1所示。
 一个OFDM系统的基带信号可以表示为:


3 硬件实现
3.1 帧同步实现
 帧同步的RTL如图2所示。帧同步模块主要由数据缓存、主控制、延迟相关能量计算、相关窗口能量计算和帧搜索5部分组成。

 数据缓存模块主要是通过移位寄存器实现,可调用Xilinx公司的RAM-based Shift Register IP Core。延时相关能量计算模块负责计算,硬件实现上经过延迟相关计算、相关累加计算和幅值简化计算。相关窗口能量计算模块负责计算,硬件实现上与延时相关模块类似。帧搜索模块主要完成数据分组起始位置的近似估计。
3.2 载波同步实现
 (1)粗频偏估计以及补偿
 在计算式(9)时,取N=4,即首先利用5个重复短训练符号进行延时相关计算,然后进行累加求和,接着将此结果送入角度估计模块得到4组角度偏差估计,最后求取4次角度偏差的平均值,从而得到较准确的角度偏差值。
 载波频率同步模块的RTL如图3所示。整个模块分为数据分流、数据缓存、载波粗频偏估计、载波粗频偏补偿和数据联合输出。
 相角估计采用CORDIC IP核,将其配置成arctan模式,即输入复数信号,输出其相位值。频偏补偿因子可由配置成sin&cos模式的CORDIC IP核完成。
 (2)细频偏估计以及补偿
 此模块与粗频偏估计以及补偿模块类似。
3.3 符号同步的实现
 符号同步的RTL如图4所示。符号同步可以分为量化、匹配滤波和符号输出3部分。
量化是为了简化硬件实现,由于负数乘法需要占用很多的器件资源,因此将接收到的信号量化为{1,-1},即大于0的量化为1,小于0的量化为-1。匹配滤波模块主要负责寻找各个短训练符号的结束点。

4 仿真实验与性能分析

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

Bluespec支持加速器功能的RISC-V处理器将Achronix的FPGA转化为可编程SoC

关键字: RISC-V处理器 FPGA SoC

为无处不在的端侧设备插上AI的翅膀,AMD发布第二代Versal™ 自适应 SoC

关键字: AMD FPGA 自适应SoC AI 边缘计算

随着科技的飞速进步,人工智能(AI)已经逐渐成为了引领新一轮科技革命和产业变革的核心驱动力。AI不仅在改变着我们的日常生活,还在推动各行各业的创新发展。展望未来,人工智能的发展将呈现出哪些趋势呢?本文将从技术、应用、伦理...

关键字: 人工智能 算法 AI技术

Pmod接口可以说是数字电路板的连接革命。随着科技的飞速发展,数字电路板间的通信与连接技术也在不断创新和进步。Pmod接口,作为一种新兴的数字接口标准,正逐渐成为数字电路板间通信的桥梁,为电子设备的连接和通信带来了革命性...

关键字: pmod接口 FPGA 数字电路板

机器学习算法不会要求一个问题被 100%求解,取而代之的是把问题转化为最优化的问题,用不同的算法优化问题,从而比较得到尽量好的结果。

关键字: 机器学习 算法 最优化

据数据类型的不同,对一个问题的建模有不同的方式。在机器学习或者人工智能领域,人们首先会考虑算法的学习方式。在机器学习领域,有几种主要的学习方式。

关键字: 机器学习 人工智能 算法

近日举办的GTC大会把人工智能/机器学习(AI/ML)领域中的算力比拼又带到了一个新的高度,这不只是说明了通用图形处理器(GPGPU)时代的来临,而是包括GPU、FPGA和NPU等一众数据处理加速器时代的来临,就像GPU...

关键字: FPGA AI 图形处理器

NVIDIA 量子模拟平台将通过各大云提供商提供,帮助科学家推进量子计算和算法研究

关键字: 量子计算 算法 量子云

随着科技的飞速发展,人工智能(AI)已经成为当今科技研究的热点和前沿。AI的快速发展不仅带来了许多新的应用场景和商业模式,也在推动科技进步的同时,引发了一系列关于其未来发展方向和潜在影响的深入讨论。本文将对人工智能的科技...

关键字: 人工智能 AI技术 算法

机器学习算法:机器学习是一种让计算机通过学习数据和模式来改进自身算法的技术。这些算法包括监督学习、无监督学习和强化学习。

关键字: 人工智能 机器学习 算法
关闭
关闭