Python Matplotlib:打印的数据点多于屏幕上可用的像素

Python Matplotlib:打印的数据点多于屏幕上可用的像素,python,matplotlib,plot,signal-processing,screen-resolution,Python,Matplotlib,Plot,Signal Processing,Screen Resolution,我正在编写一个程序,每10秒用10.000.000-20.000.000数据点(示波器波形)更新matplotlib图 我想在尽可能短的时间内绘制出尽可能高的分辨率。 如果我绘制所有数据点或每1000个数据点,绘图看起来并没有什么不同,但数据点越少,更新速度就越快(每1000个数据点的执行时间约为0.3秒,每1000个数据点的执行时间约为1.5秒) 由于我的屏幕上的数据点多于像素,matplotlib无法在我的屏幕上显示所有数据点 使用matplotlib在屏幕上显示的最大实际数据点是多少? 如

我正在编写一个程序,每10秒用10.000.000-20.000.000数据点(示波器波形)更新matplotlib图

我想在尽可能短的时间内绘制出尽可能高的分辨率。 如果我绘制所有数据点或每1000个数据点,绘图看起来并没有什么不同,但数据点越少,更新速度就越快(每1000个数据点的执行时间约为0.3秒,每1000个数据点的执行时间约为1.5秒)

由于我的屏幕上的数据点多于像素,matplotlib无法在我的屏幕上显示所有数据点

使用matplotlib在屏幕上显示的最大实际数据点是多少?

如何通过只显示屏幕上实际显示的数据点来优化打印?


不幸的是,我没有在互联网上找到答案&如果有人能解释matplotlib如何在内部处理这个问题,我会很高兴,因为我不理解它

我会看看你的图的物理值。假设您获得的值的分辨率为
1e-6秒
,但您可以查看
1e-3秒
的分辨率,而不只是使用每1000个点。在当前屏幕分辨率上进行“优化”,而不是使用显示器A上的每127个点和显示器B上的每3013个点,这似乎有点过头了。我会非常小心地对数据进行二次采样,以免产生混叠。您几乎肯定要首先应用抗混叠滤波器,否则高频信号将显示为低频。建议看