hadoop群集每天处理1TB以上数据的最低硬件要求
我想创建一个商业市场分析Saas平台,该平台可以处理大量用户,并可以处理1 Tb的数据,响应时间应该足够长 接近实时请向我建议最低硬件要求,如 节点数 每个节点上的最小RAM和进程数hadoop群集每天处理1TB以上数据的最低硬件要求,hadoop,apache-spark,server,bigdata,Hadoop,Apache Spark,Server,Bigdata,我想创建一个商业市场分析Saas平台,该平台可以处理大量用户,并可以处理1 Tb的数据,响应时间应该足够长 接近实时请向我建议最低硬件要求,如 节点数 每个节点上的最小RAM和进程数 还向我推荐用于创建此类平台的工具集将此图像规范作为示例 资料来源:Hadoop操作我们没有办法提出这样的建议。你需要做一些实验,为你的特定工作找到最佳的解决方案。你能给我一个解决方案的例子吗?你对此的猜测也很受欢迎
还向我推荐用于创建此类平台的工具集将此图像规范作为示例
资料来源:Hadoop操作我们没有办法提出这样的建议。你需要做一些实验,为你的特定工作找到最佳的解决方案。你能给我一个解决方案的例子吗?你对此的猜测也很受欢迎