R 分类变量的处理 分类变量的处理
我来自R的背景,我习惯于在后端处理分类变量(作为因子)。使用SparkyR时,使用R 分类变量的处理 分类变量的处理,r,apache-spark,apache-spark-ml,sparklyr,R,Apache Spark,Apache Spark Ml,Sparklyr,我来自R的背景,我习惯于在后端处理分类变量(作为因子)。使用SparkyR时,使用string\u indexer或onehotencoder会非常混乱 例如,我有许多变量在原始数据集中被编码为数字变量,但它们实际上是分类的。我想将它们用作分类变量,但不确定是否正确 library(sparklyr) library(dplyr) sessionInfo() sc <- spark_connect(master = "local", version = spark_version) spa
string\u indexer
或onehotencoder
会非常混乱
例如,我有许多变量在原始数据集中被编码为数字变量,但它们实际上是分类的。我想将它们用作分类变量,但不确定是否正确
library(sparklyr)
library(dplyr)
sessionInfo()
sc <- spark_connect(master = "local", version = spark_version)
spark_version(sc)
set.seed(1)
exampleDF <- data.frame (ID = 1:10, Resp = sample(c(100:205), 10, replace = TRUE),
Numb = sample(1:10, 10))
example <- copy_to(sc, exampleDF)
pred <- example %>% mutate(Resp = as.character(Resp)) %>%
sdf_mutate(Resp_cat = ft_string_indexer(Resp)) %>%
ml_decision_tree(response = "Resp_cat", features = "Numb") %>%
sdf_predict()
pred
库(年)
图书馆(dplyr)
sessionInfo()
sc%
sdf_预测()
pred
该模型的预测不是绝对的。见下文。这是否意味着我还必须从预测转换回Resp_cat,然后再转换回Resp
R version 3.4.0 (2017-04-21)
Platform: x86_64-redhat-linux-gnu (64-bit)
Running under: CentOS Linux 7 (Core)
spark_version(sc)
[1] ‘2.1.1.2.6.1.0’
Source: table<sparklyr_tmp_74e340c5607c> [?? x 6]
Database: spark_connection
ID Numb Resp Resp_cat id74e35c6b2dbb prediction
<int> <int> <chr> <dbl> <dbl> <dbl>
1 1 10 150 8 0 8.000000
2 2 3 191 4 1 4.000000
3 3 4 146 9 2 9.000000
4 4 9 125 5 3 5.000000
5 5 8 107 2 4 2.000000
6 6 2 110 1 5 1.000000
7 7 5 133 3 6 5.333333
8 8 7 154 6 7 5.333333
9 9 1 170 0 8 0.000000
10 10 6 143 7 9 5.333333
R版本3.4.0(2017-04-21)
平台:x86_64-redhat-linux-gnu(64位)
运行环境:CentOS Linux 7(核心)
spark_版本(sc)
[1] ‘2.1.1.2.6.1.0’
资料来源:表[?×6]
数据库:spark_连接
ID Numb Resp Resp_cat id74e35c6b2dbb预测
1 1 10 150 8 0 8.000000
2 2 3 191 4 1 4.000000
3 3 4 146 9 2 9.000000
4 4 9 125 5 3 5.000000
5 5 8 107 2 4 2.000000
6 6 2 110 1 5 1.000000
7 7 5 133 3 6 5.333333
8 8 7 154 6 7 5.333333
9 9 1 170 0 8 0.000000
10 10 6 143 7 9 5.333333
通常,Spark在处理分类数据时依赖于列元数据。在管道中,这由StringIndexer
(ft\u string\u indexer
)处理。ML总是预测标签,而不是原始字符串。通常情况下,您会使用IndexToString
转换器,该转换器由ft_index_to_string
提供
在SparkIndexToString
to中,可以使用或列
元数据。不幸的是,sparkyr
的实现在两个方面受到限制:
- ,未在预测列上设置
丢弃经过训练的模型,因此它不能用于提取标签ft\u string\u indexer
将
与转换后的数据连接起来:
pred %>%
select(prediction=Resp_cat, Resp_prediction=Resp) %>%
distinct() %>%
right_join(pred)
join,by=“prediction”
#来源:惰性查询[?×9]
#数据库:spark_连接
预测响应预测ID编号响应cat ID777A79821E
1 7 171 1 3 171 7 0
2 0 153 2 10 153 0 1
3 3 132 3 8 132 3 2
4 5 122 4 7 122 5 3
5 6 198 5 4 198 6 4
6 2 164 6 9 164 2 5
7 4 137 7 6 137 4 6
8 1 184 8 5 184 1 7
9 0 153 9 1 153 0 8
10 1 184 10 2 184 1 9
# ... 有更多的行和两个变量:rawPrediction,
#概率
说明:
pred %>%
select(prediction=Resp_cat, Resp_prediction=Resp) %>%
distinct()
创建从预测(编码标签)到原始标签的映射。我们将Resp_cat
重命名为prediction
,这样它就可以用作连接键,Resp
重命名为Resp_prediction
,以避免与实际的Resp
冲突
最后,我们应用右等分联接:
... %>% right_join(pred)
注意:
pred %>%
select(prediction=Resp_cat, Resp_prediction=Resp) %>%
distinct()
您应该指定树的类型:
ml_decision_tree(
response = "Resp_cat", features = "Numb",type = "classification")
这是一个很好的解决办法。非常感谢。我真的希望Sparkyr能在内部处理它,我为此开了一家公司。