Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/docker/9.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Performance BigQuery中每个表的TotalyBytes读取_Performance_Google Bigquery_Audit Logging - Fatal编程技术网

Performance BigQuery中每个表的TotalyBytes读取

Performance BigQuery中每个表的TotalyBytes读取,performance,google-bigquery,audit-logging,Performance,Google Bigquery,Audit Logging,我正在寻找一种可能来分析BigQuery中每个表访问的字节数。因此,我理解为每个SQL语句分析TotalProcessedBytes的现有可能性,但是否有可能在更细粒度的级别上查看这些数据,并根据从每个表读取的已处理字节为每个表进行划分。我认为这种可能性对于识别导致高成本的表非常有用,并且在重新设计分区和分区后,可以分析此类活动的有效性 谢谢你的帮助 亚历克斯

我正在寻找一种可能来分析BigQuery中每个表访问的字节数。因此,我理解为每个SQL语句分析TotalProcessedBytes的现有可能性,但是否有可能在更细粒度的级别上查看这些数据,并根据从每个表读取的已处理字节为每个表进行划分。我认为这种可能性对于识别导致高成本的表非常有用,并且在重新设计分区和分区后,可以分析此类活动的有效性

谢谢你的帮助

亚历克斯