我正在尝试更改其类为tbl_spark的数据的所有列名
代码如下:我正在尝试更改其类为tbl_spark的数据的所有列名,r,sparklyr,R,Sparklyr,代码如下: library(sparklyr) sc <- spark_connect(master = "local", config = list()) iris_tbl <- copy_to(sc, iris, overwrite = T) newColList <- c("a", "b" , "c" , "d" , " e") colnames(iris_tbl) <- newColList 库(年) scnames(i
library(sparklyr)
sc <- spark_connect(master = "local", config = list())
iris_tbl <- copy_to(sc, iris, overwrite = T)
newColList <- c("a", "b" , "c" , "d" , " e")
colnames(iris_tbl) <- newColList
库(年)
scnames(iris_tbl)%
和dplyr::rename
我一整天都在到处寻找这个。现在,我的最佳解决方案是创建一个直接指向Spark API的自定义函数:
sdf_write_colnames <- function(in_tbl, new_names) {
sdf_name <- as.character(in_tbl$ops$x)
in_tbl %>%
spark_dataframe() %>%
invoke("toDF", as.list(new_names)) %>%
sdf_register(name = sdf_name)
}
iris_tbl <- sdf_write_colnames(iris_tbl, c("a", "b", "c", "d", "e"))
head(iris_tbl)
sdf\u write\u colnames%
调用(“toDF”,as.list(新名称))%>%
sdf_寄存器(名称=sdf_名称)
}
iris_tbl names(iris_tbl)我会保留这个,以防万一,但我有一些问题。不确定是否需要所有的注册。