当前位置:首页 > 电源 > 数字电源
[导读] 图1. 90000-X示波器捕获板图1是90000-X示波器的捕获板。90000-X示波器使用磷化铟技术,其硬件带宽可达33GHz,实时采样率可达80GSa/s,存储深度可达2GB。这些指标都达到了业

 

图1. 90000-X示波器捕获板

图1是90000-X示波器的捕获板。90000-X示波器使用磷化铟技术,其硬件带宽可达33GHz,实时采样率可达80GSa/s,存储深度可达2GB。这些指标都达到了业界顶尖的水平。但是随着采样速率和存储深度的提升,数字信号处理能力成为一大挑战,传统的使用内置计算机的Matlab软件处理方式已经不能满足测试速度的要求。现在,90000和90000-X示波器采用FPGA硬件进行数字信号的处理,代表了示波器数字信号处理技术发展的方向。

90000和90000-X示波器的FPGA执行了如下处理,大幅度提升了示波器响应的速度;其FPGA也集成了嵌入去嵌入和精密探头校准算法,也大幅度提升了测试精度。

1、MegaZoom处理核

MegaZoom处理核集成在FGPA内部,它对存储器进行管理。首先是使用乒乓处理技术,把存储器分为两部分,一部分捕获数据时,另一部分在传递数据。这样波形更新速度可提升一倍。

MegaZoom也进行压缩处理,进行屏幕显示波形数据运算,只传递需要显示的数据到示波器屏幕上,这样刷新速率会提升许多倍。一旦需要测量数据,再把数据传递给内部计算机进行参数计算。现在已经能够用FPGA处理一部分测量参数了,只传递测量参数,速度又将大幅提升。

2、FPGA进行波形参数测量

现在已经把一部分测试参数用FPGA实现了,未来会把主要的测量参数都用FPGA实现,整个示波器的速度又会大幅度提升。

3、FPGA进行正弦内插

传统的示波器的Sinx/x正弦内插是用内置计算机的Matlab来实现,一旦设置的存储深度比较深,则示波器的速度会变得很慢,现在用FPGA来实现,则没有这样的瓶颈。

4、FPGA进行幅度和相位修正

硬件放大器、采样保持电路的幅频和相频响应没法做到很完美,那用FPGA进行幅度和相位修正是理想化频响的正当方法。有的示波器也可以用这种修正来提升或降低示波器的带宽。图2是提升示波器带宽的方法,应用一个高通滤波器(图2绿色曲线),提升示波器带宽(原来硬件带宽曲线是红色曲线)到更高数量级(蓝色曲线)。

 

 

图2. DSP提升示波器带宽的方法

5、FPGA进行触发抖动修正

硬件触发器的触发抖动一般是1PS以上,可以用FPGA进行触发抖动修正到100fs量级,这样提升了单个波形的触发精度。但是没法修正双通道的时间偏差不确定度。

6、FPGA进行FFT运算和频谱触发

用FPGA进行FFT运算可大幅度提升FFT处理的速度,并且可以进行频谱触发。用内置计算机的Matlab进行FFT处理,当内存深度设置比较深时一般较慢,也没法进行频谱触发。

7、FPGA执行嵌入和去嵌入处理,执行精密探头校准参数的处理

用FPGA执行嵌入和去嵌入处理,大幅度提升了响应速度。

由于精密探头校准参数类似于S参数,校准参数表的数据量比较大,只有用FPGA进行处理,才能满足速度的要求。

8、FPGA执行协议触发和协议译码

示波器做总线的协议分析是示波器应用方向之一,但是用软件做协议译码速度比较慢,用软件只能进行协议搜索,而不能进行协议触发。现在一些示波器如3000-X示波器已经用处理器实现了这个功能,使得译码速度很快,而且可以进行协议的硬件触发。高端示波器用FPGA实现这个功能也在研发之中。

小结:

高端示波器用FPGA实现数字信号处理技术正在不断提升中,这必将大幅度提升示波器的响应速度和精度。这是示波器R&D关键工作之一。

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

随着信息技术的迅猛发展和大数据时代的到来,机器学习成为了人工智能领域中的核心技术之一。机器学习是通过模拟人类学习行为,使计算机系统能够从数据中自动发现规律、提取特征并进行预测和决策的过程。它在诸多领域取得了广泛的应用,包...

关键字: 计算机 人工智能 机器学习

随着大数据时代的到来,数据处理成为了一项至关重要的任务。传统的数据处理方法往往面临着效率低下、准确性不高等问题,而机器学习技术的兴起为数据处理带来了全新的解决方案。本文将深入探讨机器学习在数据处理中的应用,并分析其优势和...

关键字: 数据处理 计算机 机器学习

机器学习是人工智能领域的一个重要分支,它使用各种算法来使计算机系统能够从数据中学习和改进,而无需进行明确的编程。在机器学习的广阔领域中,有多种算法被广泛应用,每种算法都有其独特的适用场景和优势。本文将详细介绍机器学习中的...

关键字: 机器学习 人工智能 计算机

Bluespec支持加速器功能的RISC-V处理器将Achronix的FPGA转化为可编程SoC

关键字: RISC-V处理器 FPGA SoC

随着信息技术的飞速发展,机器学习(Machine Learning)作为人工智能领域的重要分支,正在逐步改变我们生活的方方面面。那么,什么叫做机器学习呢?简单来说,机器学习是一门研究如何让计算机从数据中自动获取知识和技能...

关键字: 机器学习 人工智能 计算机

随着信息技术的飞速发展,数据已经成为现代社会的重要资源。数据挖掘和机器学习作为处理和分析数据的两大关键技术,在多个领域得到了广泛应用。尽管它们在某些方面存在重叠,但数据挖掘和机器学习在定义、目标、方法以及应用场景等方面存...

关键字: 数据挖掘 机器学习 计算机

计算机的历史可以追溯到公元前的古代算盘和查尔斯·巴贝奇的“分析机”构想。然而,现代意义上的计算机起源于二战时期对复杂军事计算需求的响应。1941年,美国宾夕法尼亚大学开发出了ENIAC(Electronic Numeri...

关键字: 计算机 云服务

自二十世纪以来,计算机技术经历了从机械计算装置到如今高度智能化、微型化的巨大飞跃,成为人类科技进步的重要推动力。电脑的发展史是一段充满创新与突破的历史,以下将按照时间顺序概述这一发展历程。

关键字: 电脑 计算机

计算机网络是当今信息化社会中不可或缺的基础设施,它将世界各地的计算机系统及其附属设备紧密联系在一起,实现了信息的高速传输与共享资源的有效利用。计算机网络的定义可以归纳为:计算机网络是一系列分布在不同地理位置、具备独立功能...

关键字: 计算机 信息交互

为无处不在的端侧设备插上AI的翅膀,AMD发布第二代Versal™ 自适应 SoC

关键字: AMD FPGA 自适应SoC AI 边缘计算
关闭
关闭