将java映射列表转换为scala中的spark数据帧

将java映射列表转换为scala中的spark数据帧,scala,apache-spark,dataframe,Scala,Apache Spark,Dataframe,我在java中有一个列表 List<Map<String,Object>> list=new ArrayList<>(); Map<String, Object> map=new HashMap<String, Object>(); map.put("id", 1); map.put("name","tom"); list.add(map); 还知道如何将java列表转换为scalaSeq 但是我不知道如何将java列表转换为Df:

我在java中有一个列表

List<Map<String,Object>> list=new ArrayList<>();
Map<String, Object> map=new HashMap<String, Object>();
map.put("id", 1);
map.put("name","tom");
list.add(map);
还知道如何将java
列表
转换为scala
Seq
但是我不知道如何将java
列表转换为Df:

DataFrame df=sqc.createDataset(数据,Encoders.STRING()).toDF();

有一个编译错误:
org.apache.spark.sql.Encoder[String]不接受参数
,这里我假设sqc是SparkSession,数据是我给Private void start()的java列表{SparkSession spark=SparkSession.builder().appName(“数组到数据集”)/.master(“本地”).master("spark://10.0.100.81:7077).getOrCreate();String[]l=新字符串[]{“a”、“b”、“c”、“d”};列表数据=数组。asList(l);数据集df=spark.createDataset(数据,编码器.String());df.show();}很抱歉,我忘了说我想把它转换成scala数据帧,但不是java数据帧。我需要原始java列表的元素是Map,而不是String,比如
list
。前面的编译错误在scala文件中
 Seq((1)).toDF("id")