Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/scala/17.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
使用Java/Scala将Spark Dataframe复制到Google Cloud Bigtable_Scala_Apache Spark_Apache Spark Sql_Spark Dataframe_Google Cloud Bigtable - Fatal编程技术网

使用Java/Scala将Spark Dataframe复制到Google Cloud Bigtable

使用Java/Scala将Spark Dataframe复制到Google Cloud Bigtable,scala,apache-spark,apache-spark-sql,spark-dataframe,google-cloud-bigtable,Scala,Apache Spark,Apache Spark Sql,Spark Dataframe,Google Cloud Bigtable,我正在使用Spark进行大数据操作,我想将Spark数据框复制到Google Cloud Bigtable 是否有任何示例/库/API可以帮助我实现这一点?用Java还是Scala Java或Scala示例将非常有用。Google Cloud Bigtable支持Apache HBase 1.0+API,因此您可以使用Apache Spark HBase连接器。这里有几个例子: 请注意,这些示例是使用Google Cloud的托管/管理Hadoop+Spark服务编写的,但是它们对于独立的Sp

我正在使用Spark进行大数据操作,我想将Spark数据框复制到Google Cloud Bigtable

是否有任何示例/库/API可以帮助我实现这一点?用Java还是Scala


Java或Scala示例将非常有用。

Google Cloud Bigtable支持Apache HBase 1.0+API,因此您可以使用Apache Spark HBase连接器。这里有几个例子:


请注意,这些示例是使用Google Cloud的托管/管理Hadoop+Spark服务编写的,但是它们对于独立的Spark设置应该可以很好地工作

Google Cloud Bigtable支持Apache HBase 1.0+API,因此您可以使用Apache Spark HBase连接器。这里有几个例子:


请注意,这些示例是使用Google Cloud的托管/管理Hadoop+Spark服务编写的,但是它们对于独立的Spark设置应该可以很好地工作

谢谢你的链接。我现在有一些例子。我在独立模式下运行Spark,我想使用我的凭证JSON文件建立连接。我正在搜索使用JSON凭据连接到大表的文档,但找不到任何文档。你知道有什么链接可以帮助我解决这个问题吗?我使用了你的文档链接,遇到了一些问题。我也在Github上创建了这个问题。这是链接,谢谢你的链接。我现在有一些例子。我在独立模式下运行Spark,我想使用我的凭证JSON文件建立连接。我正在搜索使用JSON凭据连接到大表的文档,但找不到任何文档。你知道有什么链接可以帮助我解决这个问题吗?我使用了你的文档链接,遇到了一些问题。我也在Github上创建了这个问题。这里是链接--