Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/ruby-on-rails/68.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 如何通过api在谷歌搜索控制台下载核心web重要报告背后的数据?_Python_Google Search Console_Core Web Vitals - Fatal编程技术网

Python 如何通过api在谷歌搜索控制台下载核心web重要报告背后的数据?

Python 如何通过api在谷歌搜索控制台下载核心web重要报告背后的数据?,python,google-search-console,core-web-vitals,Python,Google Search Console,Core Web Vitals,我正在寻找一种在谷歌搜索控制台下载核心网络重要报告背后的数据的方法。这有什么api吗? 到目前为止,我唯一发现的是PageSpeedAPI,它提供了对给定url的当前分析。 我需要的是每天的计数和分布,这正是本报告中显示的: 当我浏览到报告时,有一个链接可以下载,但我正在寻找一种python api之类的东西来以编程方式下载这些数据。 GSC API目前不支持这些新报告 核心网络生命数据来自于数据,而这些数据确实存在。所以你可以通过它得到类似的数据。我认为PSI API还包括来自CrUX的数据

我正在寻找一种在谷歌搜索控制台下载核心网络重要报告背后的数据的方法。这有什么api吗? 到目前为止,我唯一发现的是PageSpeedAPI,它提供了对给定url的当前分析。 我需要的是每天的计数和分布,这正是本报告中显示的:

当我浏览到报告时,有一个链接可以下载,但我正在寻找一种python api之类的东西来以编程方式下载这些数据。

GSC API目前不支持这些新报告


核心网络生命数据来自于数据,而这些数据确实存在。所以你可以通过它得到类似的数据。我认为PSI API还包括来自CrUX的数据(如果可用)。可能需要一些工作才能获得所需结构中的数据。

谢谢Tony的回复,但是,我看不到一种干净的方法来获取数据。似乎CrUX的api只是给出了一些关于如何绘制直方图的说明!不是按天分发的统计数据!无论如何,谢谢你的回答。GSC报告也不是真实的日常报告。根据CrUX api,每天显示前28天的平均值。因此,如果您每天使用API,您可以获得相同类型的数据。另一个复杂性是GSC拥有数据存在的所有URL的数据,并且它们自己进行分组。我不认为有一种简单的方法可以通过API实现这一点。我得出了相同的结论,我想我最好使用日常积累,直到谷歌提供了更有意义的东西!