Mysql 流量交换脚本数据库设计建议

Mysql 流量交换脚本数据库设计建议,mysql,sql,database,design-patterns,Mysql,Sql,Database,Design Patterns,我想设计一个流量交换脚本,对传入流量进行计数,并尝试返回n:m(例如1in:2out)的流量比率。在数据库中,我希望有站点信息(站点),然后按站点和ip跟踪流量(每日点击率),然后我希望每小时或每天计算交易-还不确定(站点总点击率)。我希望能得到任何关于设计一个用于处理交通交易的设计良好的数据库的建议 现在我担心的是跟踪即将到来的点击,后来担心的是返回。所以基本上我真正的问题是,我如何设计一个数据库,可以有效地用于返回过去24小时的完美流量。我遇到的问题是,当涉及到编程时,我希望有一个设计最好的

我想设计一个流量交换脚本,对传入流量进行计数,并尝试返回n:m(例如1in:2out)的流量比率。在数据库中,我希望有站点信息(站点),然后按站点和ip跟踪流量(每日点击率),然后我希望每小时或每天计算交易-还不确定(站点总点击率)。我希望能得到任何关于设计一个用于处理交通交易的设计良好的数据库的建议

现在我担心的是跟踪即将到来的点击,后来担心的是返回。所以基本上我真正的问题是,我如何设计一个数据库,可以有效地用于返回过去24小时的完美流量。我遇到的问题是,当涉及到编程时,我希望有一个设计最好的数据库来获取过去24小时的信息,并确保我保持在n:m范围内。到目前为止,我为数据库设计了以下内容:

网站(仅提供基本信息):

身份证

网址

头衔

描述

每日点击次数:

身份证

站点id

知识产权

日期(包括时间-将按小时细分)

数量(计算此ip在这一小时内的点击次数)

SITE-TOTAL-HITS(可能通过脚本每小时更新一次-在计算最后24小时时有用):

身份证

站点id

一天

小时


任何提示,建议或指向正确的方向我将不胜感激。提前感谢。

以下是我对它的看法:

地点:

交通:

id,
site_id,
ip,
request_DateTimeStamp <- this is a date and time for the url request
对于一个可能会被大量更新的表来说,这是一个漫长的过程,在一个小时内,来自同一ip的多个请求将尝试更新同一记录,并且它们必须互相等待

去掉count列,您的过程就是通过始终创建新记录来记录传入流量

就数据分析而言,您可以通过以下两种方式进行:

您可以尝试构建多维数据集:

或者,您也可以创建信息聚合表,如site_total_hits,然后使用夜间作业或根据需要运行它们的频率来更新它们


这是我的2美分:D

这是我对它的价值的看法:

地点:

交通:

id,
site_id,
ip,
request_DateTimeStamp <- this is a date and time for the url request
对于一个可能会被大量更新的表来说,这是一个漫长的过程,在一个小时内,来自同一ip的多个请求将尝试更新同一记录,并且它们必须互相等待

去掉count列,您的过程就是通过始终创建新记录来记录传入流量

就数据分析而言,您可以通过以下两种方式进行:

您可以尝试构建多维数据集:

或者,您也可以创建信息聚合表,如site_total_hits,然后使用夜间作业或根据需要运行它们的频率来更新它们

这是我的2美分:D

你可以用它

什么是HitLeap?HitLeap是一个流量交换,也称为自动点击服务,我们帮助您增加网站点击率、排名(alexa、google)等。我们的会员计划提供高达50%的现金和流量佣金。它是如何工作的?注册后,您将提交所有希望发送流量的网站。然后你将通过浏览别人的网站获得免费流量。或者,你可以从我们这里购买交通套餐

您可以使用

什么是HitLeap?HitLeap是一个流量交换,也称为自动点击服务,我们帮助您增加网站点击率、排名(alexa、google)等。我们的会员计划提供高达50%的现金和流量佣金。它是如何工作的?注册后,您将提交所有希望发送流量的网站。然后你将通过浏览别人的网站获得免费流量。或者,你可以从我们这里购买交通套餐


太棒了,谢谢你的意见,这非常有帮助,给了我一些思考的东西。太棒了,谢谢你的意见,这非常有帮助,给了我一些思考的东西。
assume you do have a count column
- url is requested
- lock up a record in the database with the same date and hour and ip
- Found, update the account
- Not Found, Create a new record and set the count to 1