Dataframe Spark无法使用访问群体项目将数据帧写入dynamo
我正在编写一个spark代码,以使用audience项目[1.1.0]从dynamoDb读写数据。阅读是成功的。写入失败,说明未找到Dataframe Spark无法使用访问群体项目将数据帧写入dynamo,dataframe,apache-spark,amazon-dynamodb,Dataframe,Apache Spark,Amazon Dynamodb,我正在编写一个spark代码,以使用audience项目[1.1.0]从dynamoDb读写数据。阅读是成功的。写入失败,说明未找到资源。该表存在于我试图写入的AWS帐户中。知道为什么会有例外吗 import com.amazonaws.regions.Regions import com.audienceproject.spark.dynamodb.implicits._ import org.apache.spark.sql.SparkSession val
资源
。该表存在于我试图写入的AWS帐户中。知道为什么会有例外吗
import com.amazonaws.regions.Regions
import com.audienceproject.spark.dynamodb.implicits._
import org.apache.spark.sql.SparkSession
val tableName = "source-table"
val spark = SparkSession.builder().getOrCreate()
val dynamoDf = spark.read
.option("region", Regions.US_WEST_2.getName)
// .option("aws.dynamodb.endpoint", "http://localhost:8000")
.dynamodb(tableName)
dynamoDf.show(100)
dynamoDf.printSchema()
dynamoDf.write.dynamodb("target-table")