Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/qt/7.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Mysql Windows Azure表存储和身份验证,每秒点击次数超过100次_Mysql_Azure_Azure Storage_Azure Table Storage - Fatal编程技术网

Mysql Windows Azure表存储和身份验证,每秒点击次数超过100次

Mysql Windows Azure表存储和身份验证,每秒点击次数超过100次,mysql,azure,azure-storage,azure-table-storage,Mysql,Azure,Azure Storage,Azure Table Storage,我需要你的专家意见的解决方案/建议 我们正在构建一个API解决方案,用户将向我们发送一个唯一的代码以及用户名和密码,以获取身份验证代码和其他信息 我们面临的挑战 如何处理每秒超过100个请求?我们目前使用mysql,但扩展到那个级别和数据存储成本很高。您认为Windows Azure表存储是正确的选择吗?对身份验证进行大量选择,然后进行更新以扣除用户积分,这些用户有兴趣从我们这里获取信息 我们想记录大量数据。我认为WindowsAzure存储会很便宜,但如何进行聚合和分析呢?您知道将数据导入my

我需要你的专家意见的解决方案/建议

  • 我们正在构建一个API解决方案,用户将向我们发送一个唯一的代码以及用户名和密码,以获取身份验证代码和其他信息
  • 我们面临的挑战

  • 如何处理每秒超过100个请求?我们目前使用mysql,但扩展到那个级别和数据存储成本很高。您认为Windows Azure表存储是正确的选择吗?对身份验证进行大量选择,然后进行更新以扣除用户积分,这些用户有兴趣从我们这里获取信息
  • 我们想记录大量数据。我认为WindowsAzure存储会很便宜,但如何进行聚合和分析呢?您知道将数据导入mysql的任何案例研究/方法吗(比如每日/每小时分区)?已经有任何工具或库可用于将Windows Azure存储表数据导入MySQL数据库
  • 如果有人试图向我们的服务器发出大量滥用请求,如何处理这种情况?试图每秒钟进行大量无效的验证,只会在我们的API上导致多次点击?如何控制
  • 如果您有处理大量请求的经验,我们将不胜感激。。我们目前使用PHP和MYSQL。s

    用于#1:Windows Azure表存储设计为在整个存储帐户中每秒处理2000个事务,每个分区处理20000个事务,最大入站带宽为10Gbps,出站带宽为15Gbps(有关完整详细信息,请参阅)。处理100次发送/秒应该没有问题。而且不要忘记实体组事务,您可以在一个事务中写入多个实体(在同一分区内)

    对于#2(甚至#1):分区对于实现最高性能非常重要。还请记住,如果需要进行复杂的搜索(例如,在几个不同的属性上),那么最终可能会出现分区扫描的情况(因为唯一的索引是分区键+行键)。如果您计划进行分析,最好只是读出这些数据,根据需要进行汇总(或根据需要进行非规范化),然后写入更适合分析/深入/绘图等的数据库


    我想说#3应该作为一个单独的问题发布,因为它属于拒绝服务类型的问题,这似乎不相关。

    非常感谢您的详细回答。。您能否指导任何示例或文档如何聚合Azure表存储数据并写入MySQL数据库?我们可以很好地开始分区,每小时扫描一次分区。。。。对于开发人员来说,如何扫描每个分区并在PHP程序中进行总结,有什么好材料吗?e、 每1000个结果集循环一次,然后将这些变量写入关系数据库?总结数据(即数据)并写回关系数据的最有效方法是什么?@EhteshamHaque-我认为聚合和写入mysql超出了这里的范围,因为它是非常开放的。这是一个ETL问题,非常特定于您的应用程序领域,基于您希望进行的分析类型。我想知道批量提取数据的最佳方法?我们可以提取分区并将其保存到文件中吗?我们还可以在一个查询中删除完整的分区吗?总有一天我们的产量会很高,所以我想实施最好的提取策略。任何一个经过验证的示例,azure客户是否实现了这一点?是否有任何经过验证的库/参考?当然,我不想逐行处理!