Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/neo4j/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Google bigquery 在DataStudio中使用BigQuery中的嵌套数组_Google Bigquery_Google Data Studio - Fatal编程技术网

Google bigquery 在DataStudio中使用BigQuery中的嵌套数组

Google bigquery 在DataStudio中使用BigQuery中的嵌套数组,google-bigquery,google-data-studio,Google Bigquery,Google Data Studio,我正在尝试可视化DataStudio中连接到BigQuery表的一些数据,该表使用嵌套数组显示各种转换类型。BigQuery中的数据如下所示: +------------+--------+-----------+-------------+ | Campaign | Clicks | Conv.name | Conv.amount | +------------+--------+-----------+-------------+ | Campaign 1 | 15 | Purc

我正在尝试可视化DataStudio中连接到BigQuery表的一些数据,该表使用嵌套数组显示各种转换类型。BigQuery中的数据如下所示:

+------------+--------+-----------+-------------+
|  Campaign  | Clicks | Conv.name | Conv.amount |
+------------+--------+-----------+-------------+
| Campaign 1 |     15 | Purchases |           4 |
| -          |      - | Downloads |          19 |
| -          |      - | Signups   |          25 |
| Campaign 2 |     29 | Purchases |          10 |
| -          |      - | Downloads |           4 |
| -          |      - | Signups   |           0 |
| Campaign 3 |     49 | -         |           - |
| Campaign 4 |     39 | -         |           - |
+------------+--------+-----------+-------------+
破折号不是空值,只是Conv字段(数组)的灰色单元格

在DataStudio中,我试图从Conv.amount列中获取一个度量来计算“购买”的数量,理想情况下,该列应该可以与其他“常规”列混合使用(例如,进行单击/转换)。我已设法使它适用于Conv字段所在的行,公式如下:

CASE 
  WHEN REGEXP_MATCH(conversion_breakdowns.name, 'view_content') THEN conversion_breakdowns.value
  ELSE 0
END
但是,这会过滤掉数组为空的所有字段,例如活动3和活动4


只有在转换嵌套表存在的情况下,才能提取特定的转换,否则返回0吗?

您是否尝试过IFNULL()函数?@HuiZheng我尝试过,它具有相同的行为-它本质上过滤掉所有不包含嵌套数组的数据