使用R dataframe在Azure DataRicks中创建数据库
我的最终输出是R数据帧。我需要将此输出写入Azure DataRicks中的数据库。有人能帮我解释一下语法吗?我使用了以下代码:使用R dataframe在Azure DataRicks中创建数据库,r,azure,databricks,azure-databricks,R,Azure,Databricks,Azure Databricks,我的最终输出是R数据帧。我需要将此输出写入Azure DataRicks中的数据库。有人能帮我解释一下语法吗?我使用了以下代码: require(SparkR) data1 <- createDataFrame(output) write.df(data1, path="dbfs:/datainput/sample_dataset.parquet", source="parquet", mode="overwrite")
require(SparkR)
data1 <- createDataFrame(output)
write.df(data1, path="dbfs:/datainput/sample_dataset.parquet",
source="parquet", mode="overwrite")
require(SparkR)
数据1我相信您正在寻找函数write.df
特别用于将数据仅保存在文件系统中,而不是将数据标记为表
require(SparkR)
data1 <- createDataFrame(output)
saveAsTable(data1, tableName = "default.sample_table", source="parquet", mode="overwrite")
require(SparkR)
数据1如何检查数据的存在?使用了什么命令?我只是在这里检查是否在datainput文件夹中创建了示例_数据集。不使用任何命令来执行此操作。但您使用什么工具来检查?数据库用户界面中的DBFS文件浏览器?