示波器的频率是干吗的?

2024-12-28 17:33:31
推荐回答(5个)
回答1:

信号都有频率啊。通过奈奎斯特定理 采样频率频率高于原始信号频率2倍才能确保还原出原始信号。

示波器的目的就是让人能观测的信号的一系列参数。

根据信号与系统里的理论 任何普通信号都可以利用傅立叶变换分解为正玄波的无数高阶的和。。也就是时域信号(我们通过示波器看到的信号)对应的频域信号(从低频分量到高频分量)。

通俗来说就是任意信号 都可以通过傅立叶变换看成是低频分量到无穷高频分量的总和。

如果示波器的频率过低(也就是说高频分量被滤波滤掉了)那么 经过傅立叶反变换回来的时域信号和原始信号就有很大的失真。

例如高频的方波 如果用低频的示波器观看。你看到的波形就变成了一个正弦波(因为高频分量被滤,波形变的圆滑所致)

简单的说,使用低频示波器,只能观测低频的信号。如果使用低频示波器观测高频信号。那么你看到的波形是失真的(甚至是严重失真的)那么你看到的也就没有意义了。

说实话,我不指望你能把分给我。。因为我估计你看不懂我在说什么。
但如果你真的想搞懂我在说什么,自己去学习学习吧。然后你就会知道我所说的,绝对是最正确的。。

回答2:

频率高的示波器,可观测的信号频率高,扫描频率也高,
频率高的示波器,价格贵,如果是选择示波器,还是要频率高的示波器,100MHZ的可替代30KHZ的,反之不能。

回答3:

当然第一种合适了,30k的用途太有限了
频率是周期的倒数,简单说就是单位时间里信号反复出现的次数
一般通讯方便用高频多,
高速的电路中高频也很多。
既然是重理工,那就是要经常用的了,要测的对象也会很多,从几Hz到几十MHz甚至几百MHz都有可能测到

回答4:

应该是示波器的带宽吧?

简单来说,示波器的带宽影响被测信号的准确度,一般来讲要求是被测信号的5倍。比如你100MHz的示波器,可以测量20MHz以下频率的信号。

所以从这个角度来讲,示波器肯定要选100MHz的那个,因为30KHz带宽的示波器能测的信号频率范围太小了。

如果想详细了解带宽的定义以及原理,推荐看看这篇帖子:200M带宽的示波器,能测多少M的信号?

回答5:

针对性回答
呵呵,示波器的频率是单位时间内发出的电脉冲个数.
他表示的是可以检测的范围,
实验室里示波器很常见啊
具体用途要看实验,大学理工科用的到示波器的应该是大学物理实验和电工实验.最高和最低的解释要回去查实验笔记....
建议:个人购买没意义
看的出了解不深,去实验室查查看,再查下不同版本的大学物理实验,有关于示波器详细解释的