Linux 使用Unix TC塑造高带宽流量
实际上,我们有一个10Gb/s服务器和1Gb/s服务器共存(临时迁移解决方案)[UDP流量]。我们希望调整来自10Gb/s服务器的流量,以避免1G服务器无法处理的大突发 似乎“tc”不能用tbf完成工作(或者我们用错了方法)。例如,在我们的10G服务器上,我们尝试了以下方法: sudo tc qdisc添加开发eth5根tbf速率950mbit延迟1s突发50mbit峰值1000mbit mtu 1500 在这里,我们通常将峰值设置为1mb(通常不会生成大于1mb/s的突发)。 不幸的是,这不起作用,事实上,在使用此tc配置后,我们将主带宽降低到最大2Mb/s 我们对这种奇怪行为的唯一线索是tc手册中的一句话: “为了达到完美,第二个存储桶可能只包含一个数据包,这导致前面提到的1mbit/s限制 这个限制是由于内核只能限制至少1个“jiffy”,这取决于HZ为1/HZ。为了实现完美的成形,每个jiffy只能发送一个数据包-对于HZ=100,这意味着每个数据包平均有100个1000字节,大致相当于1mbit/s。” 那么,确定我们不能有一个大于1Mbit/s的峰值吗 如果有人能给我一个建议来帮助我实现我们的目标,也许还有另一种完全不同的方式来实现我们的目标Linux 使用Unix TC塑造高带宽流量,linux,networking,controls,bandwidth,traffic,Linux,Networking,Controls,Bandwidth,Traffic,实际上,我们有一个10Gb/s服务器和1Gb/s服务器共存(临时迁移解决方案)[UDP流量]。我们希望调整来自10Gb/s服务器的流量,以避免1G服务器无法处理的大突发 似乎“tc”不能用tbf完成工作(或者我们用错了方法)。例如,在我们的10G服务器上,我们尝试了以下方法: sudo tc qdisc添加开发eth5根tbf速率950mbit延迟1s突发50mbit峰值1000mbit mtu 1500 在这里,我们通常将峰值设置为1mb(通常不会生成大于1mb/s的突发)。 不幸的是,这不起
亲切问候为什么会有1s延迟?对于1 Gbit链接来说似乎太高了为什么会有1s的延迟?对于1 Gbit链接来说似乎太高了