Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/sharepoint/4.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
如何将Hadoop与SharePoint集成?_Sharepoint_Hadoop_Integration_Bigdata_Collaboration - Fatal编程技术网

如何将Hadoop与SharePoint集成?

如何将Hadoop与SharePoint集成?,sharepoint,hadoop,integration,bigdata,collaboration,Sharepoint,Hadoop,Integration,Bigdata,Collaboration,由于我需要以更快的处理速度和更高的可扩展性存储大量数据,因此我选择了hadoop,但我也需要数据协作,我知道sharepoint是最好的选择 请告诉我如何将sharepoint与hadoop集成。 我知道用于SQL server与Hadoop集成的SSI,但我需要实时示例,以便能够找到确切的解决方案。设置HDFS NFS网关并复制Sharepoint文件。您还可以使用基本脚本将文件放入HDFS。需要使用能够访问SharePoint存储库和HDFS客户端的边缘节点 HDFS NFS网关: HDFS

由于我需要以更快的处理速度和更高的可扩展性存储大量数据,因此我选择了hadoop,但我也需要数据协作,我知道sharepoint是最好的选择

请告诉我如何将sharepoint与hadoop集成。

我知道用于SQL server与Hadoop集成的SSI,但我需要实时示例,以便能够找到确切的解决方案。

设置HDFS NFS网关并复制Sharepoint文件。您还可以使用基本脚本将文件放入HDFS。需要使用能够访问SharePoint存储库和HDFS客户端的边缘节点

HDFS NFS网关:

HDFS投入:


如果您已经使用HDP,并且它是随Ambari一起安装的,那么HDFS NFS网关只是通过Ambari添加的另一项服务。

您需要更清楚地了解您的需求。您希望以哪种方式移动数据?您是否希望Hadoop集群上的Map/Reduce作业的结果在可用时立即发布到SharePoint上?是否希望用户通过SharePoint向Hadoop数据提交一些按需查询?您的所有用户都应该能够访问服务器Hadoop is one,并且所有数据协作都应该在那里完成。