比较数字存储示波器(DSO),如模拟发现2,听起来有点枯燥,像是一场“谁的规格更大?”的战斗。也就是说,直到您意识到这些规范是如何相互依赖的,以及范围的运行方式。除了IO通道外,大多数范围设计推动的两个主要特性是它们的带宽和采样率。
现在,还有一种叫做记忆的东西用来存储这些样本。我最近学到的是,DSO可以分配给数据采集的内存量与带宽和采样率相连,当我们开始展开它时,这就更有意义了。我经历过这个被称为“内存深度”、“内存”、“记录长度”、“捕获内存”和“缓冲区”的参数。我也看到它被称为“max”值,这又回到了内存、采样率和带宽的相互依赖关系。现在,我们将这个值称为内存深度。例如,模拟发现2具有8192个样本的最大内存深度(或在Digilent文档中引用的缓冲区大小)。
在我的屏幕上,这张照片实际上大于设备本身。
好的,如此快速的等式:捕获信号的时间长度=内存深度/采样率。很酷,所以样品除以每秒样本将留下一段时间。使用模拟发现2例如,如果以100MS/s的最大速率采样,并使用8192个采样的存储深度,我们可以捕获一个大约82us长度的波形。所以,如果我们有更多的记忆深度,我们就能捕捉到更长的信号,对吧?从技术上来说,是的。有了更高的采样率,我们可以在更高的频率下实现更清晰的分辨率,有效地增加了示波器的带宽,对吧?另外,从技术上来说,是的。但是,作用域并不总是以最大速率进行采样,在某些情况下,较大的内存深度可能会阻碍作用域的性能。
当范围的时间基础变短时,范围将以更快的速度进行抽样。这是由DSO自动处理的。这也意味着,范围将以较慢的速率采样较长的时间基,所有这些都是相对于可用的内存深度。最后一个快速方程:内存深度*(时间分割数/每次分割的时间)=采样率。使用模拟发现2再次,8192个样品,每分师10ms的10毫秒的样品,我们获得约8ms / s的样品率。因此,我们可以在这里看到,在较低的时间分区时,采样率降低。对于在这些较低时间的划分的更高的采样率,需要更多采集存储器。当然,这并不总是必要的,但调试可能会得到毛茸茸的,有时可以降到一些短暂的,但不常见的事件。这是一个名为“深记忆”的东西开始被广告。深度内存允许用户将(通常手动)添加到采集缓冲区的内存 - 但是在性能下进行权衡。
现在,播放仍然存在另一个因素:范围处理所获取的数据的时间量,显示信号并等待下一个触发器。在此期间,范围没有收集任何新数据!我已经看到这个参数称为“更新速率”,“刷新率”或“死区时间”。具有更深的内存深度,范围具有更长的更新速率。这可能会在寻找不频繁的异常或信号中的快速错误时造成问题,例如如果在此死亡时间期间发生该事件或死区时间比采集时间更长,那么就会完全缺少事件。
底线是这样的:理解什么时候推动您的范围的某些参数,以及在这样做的时候可能会妥协什么。更高的采样率是理想的吗?深度记忆是最佳的吗?这是一个罕见的事件吗?了解内存深度、采样率、带宽和刷新率与采集的关系,以及分析需要加强的地方,将为你提供最佳结果的计划。到目前为止,模拟发现2对我来说是一个轻便的工作机器。
