Dataframe Spark无法使用访问群体项目将数据帧写入dynamo

Dataframe Spark无法使用访问群体项目将数据帧写入dynamo,dataframe,apache-spark,amazon-dynamodb,Dataframe,Apache Spark,Amazon Dynamodb,我正在编写一个spark代码,以使用audience项目[1.1.0]从dynamoDb读写数据。阅读是成功的。写入失败,说明未找到资源。该表存在于我试图写入的AWS帐户中。知道为什么会有例外吗 import com.amazonaws.regions.Regions import com.audienceproject.spark.dynamodb.implicits._ import org.apache.spark.sql.SparkSession val

我正在编写一个spark代码,以使用audience项目[1.1.0]从dynamoDb读写数据。阅读是成功的。写入失败,说明未找到
资源
。该表存在于我试图写入的AWS帐户中。知道为什么会有例外吗

    import com.amazonaws.regions.Regions
    import com.audienceproject.spark.dynamodb.implicits._
    import org.apache.spark.sql.SparkSession

    val tableName = "source-table"
    val spark = SparkSession.builder().getOrCreate()

    val dynamoDf = spark.read
      .option("region", Regions.US_WEST_2.getName)
//      .option("aws.dynamodb.endpoint", "http://localhost:8000")
      .dynamodb(tableName)

    dynamoDf.show(100)
    dynamoDf.printSchema()
    
    dynamoDf.write.dynamodb("target-table")