Apache spark 什么是databricks spark delta表?它们是否也存储特定会话的数据?我如何查看这些增量表及其结构
spark delta表的用途是什么?他们是想永久存储数据还是只保存处理数据直到会话结束。我如何在spark cluster中查看它们以及它们所属的数据库 spark delta表的用途是什么 主要目标是在多集群设置中启用单表跨国写入。这是通过保存事务日志来实现的(与典型数据库系统中仅追加表非常类似) 他们是想永久存储数据还是只保存处理数据直到会话结束 有持久的,根据定义范围是跨会话的 。如何在spark cluster中查看它们,以及使用什么数据库 与Spark中的任何其他表格相同。没有特定于任何数据库,并且使用Apache spark 什么是databricks spark delta表?它们是否也存储特定会话的数据?我如何查看这些增量表及其结构,apache-spark,apache-spark-sql,databricks,delta-lake,Apache Spark,Apache Spark Sql,Databricks,Delta Lake,spark delta表的用途是什么?他们是想永久存储数据还是只保存处理数据直到会话结束。我如何在spark cluster中查看它们以及它们所属的数据库 spark delta表的用途是什么 主要目标是在多集群设置中启用单表跨国写入。这是通过保存事务日志来实现的(与典型数据库系统中仅追加表非常类似) 他们是想永久存储数据还是只保存处理数据直到会话结束 有持久的,根据定义范围是跨会话的 。如何在spark cluster中查看它们,以及使用什么数据库 与Spark中的任何其他表格相同。没有特定于
delta
格式编写。因此您提到“它们是持久性的,根据定义,它们的作用域是跨会话的”,请您进一步解释一下。所以我想知道的是,例如,有人设置了一些增量表,如果我试图从自己的集群访问这些增量表,它们不会显示任何数据。那么,我是否需要再次运行整个转换,并需要将数据加载到增量表中?再次加载数据是否会造成任何影响?