Model 为什么当我的数据集在Google BigQuery ML中只有2.4gb时,查询处理的字节数是100GB?

Model 为什么当我的数据集在Google BigQuery ML中只有2.4gb时,查询处理的字节数是100GB?,model,google-bigquery,byte,training-data,Model,Google Bigquery,Byte,Training Data,我为一个2.4gb的表运行了一个创建模型,该表不是外部的,它运行了14小时25分钟,如图所示 第一幅图显示,我的查询在运行时将处理2.4gb。 第二家说它处理了100GB的数据并收取了费用。知道原因吗?对于时间序列模型(假设您有),当启用自动arima进行自动超参数调整时,将在训练阶段拟合和评估多个候选模型。在这种情况下,input SELECT语句处理的字节数乘以候选模型数,候选模型数可由“训练”选项控制 此外,对于迭代模型,CREATEMODEL语句在50次迭代时停止 结合以上两个事实和

我为一个2.4gb的表运行了一个创建模型,该表不是外部的,它运行了14小时25分钟,如图所示

第一幅图显示,我的查询在运行时将处理2.4gb。 第二家说它处理了100GB的数据并收取了费用。知道原因吗?

对于时间序列模型(假设您有),当启用自动arima进行自动超参数调整时,将在训练阶段拟合和评估多个候选模型。在这种情况下,input SELECT语句处理的字节数乘以候选模型数,候选模型数可由“训练”选项控制

此外,对于迭代模型,CREATEMODEL语句在50次迭代时停止


结合以上两个事实和您的数字(2和100)-看起来是解释/回答了您的问题

文档实际上让我找到了正确的答案。它说,如果我没有指定自动arima最大顺序,它会评估42个模型的最佳p,q常数。所以这里我的数据是2.4GB。so 2.4gb x 42~100GB