Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/apache/8.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Javascript 将JSON负载压缩到GZIP,以便从Google Apps脚本加载到BigQuery中_Javascript_Json_Google Apps Script_Google Cloud Platform_Gzip - Fatal编程技术网

Javascript 将JSON负载压缩到GZIP,以便从Google Apps脚本加载到BigQuery中

Javascript 将JSON负载压缩到GZIP,以便从Google Apps脚本加载到BigQuery中,javascript,json,google-apps-script,google-cloud-platform,gzip,Javascript,Json,Google Apps Script,Google Cloud Platform,Gzip,我正在做一个项目,自动从API提取数据并将其插入Google BigQuery,由于每天100mb的数据上限,我遇到了一些关于将数据上传到Google Cloud Bucket的挑战。我想知道是否有人在将GZIP数据发送到BigQuery(以正确的格式)之前找到了在Google应用程序脚本中读取GZIP数据的方法 以下是我目前的情况: function compress_string() { // Import Compression Library eval(UrlFetchApp.fetch

我正在做一个项目,自动从API提取数据并将其插入Google BigQuery,由于每天100mb的数据上限,我遇到了一些关于将数据上传到Google Cloud Bucket的挑战。我想知道是否有人在将GZIP数据发送到BigQuery(以正确的格式)之前找到了在Google应用程序脚本中读取GZIP数据的方法

以下是我目前的情况:

function compress_string() {
// Import Compression Library
eval(UrlFetchApp.fetch('https://raw.githubusercontent.com/pieroxy/lz-string/master/libs/lz-string.js').getContentText());

// Compress Sample JSON Data
var string = "{"kind": "person", "fullName": "John Doe", "age": 22, "gender": "Male"}";
Logger.log("Size of sample is: " + string.length);
var compressed = LZString.compress(string);
Logger.log("Size of compressed sample is: " + compressed.length);

// Save Compressed JSON to GCB
}
唯一的问题是,对于BigQuery来说,这似乎不是一个可接受的GZIP算法。我可以保存.gz文件,但在尝试导入该文件时出错

Errors:
file-00000000: Failed to parse JSON: Unexpected token; Parser terminated before end of string (error code: invalid)
旁注:当我以.gz格式从BigQuery导出数据时,我能够很好地将其导入到新表中。我注意到,当两个图标同时位于Google drive中时,它们是不同的:

在此方面的任何帮助/指导都将不胜感激