Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/reactjs/21.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/asp.net-core/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
K8s中ReactJS容器的CPU利用率呈线性增长_Reactjs_Performance_Kubernetes_Operating System_Profiling - Fatal编程技术网

K8s中ReactJS容器的CPU利用率呈线性增长

K8s中ReactJS容器的CPU利用率呈线性增长,reactjs,performance,kubernetes,operating-system,profiling,Reactjs,Performance,Kubernetes,Operating System,Profiling,我有一个线性利用CPU的ReactJS容器。窗户是一个星期。您可以看到CPU呈线性增长 细分 第三个图形中的橙色线表示CPU 第三个图中的红色虚线表示k8s资源请求的100% k8s的资源限制大约是请求容量的3倍 在300%的请求容量利用率下,您可以看到它稳定下来(达到上限) 第二张图,由于某种原因,网络会随着时间而增长 第一个图形表示旋转中的豆荚数 在第一张图中,第一个小尖峰代表几个豆荚被循环出来 第一个图,第二个大峰值表示部署,因此利用率下降 我试图从其他可能见过这种模式的人那里获得一些

我有一个线性利用CPU的ReactJS容器。窗户是一个星期。您可以看到CPU呈线性增长

细分

  • 第三个图形中的橙色线表示CPU
  • 第三个图中的红色虚线表示k8s资源请求的100%
  • k8s的资源限制大约是请求容量的3倍
  • 在300%的请求容量利用率下,您可以看到它稳定下来(达到上限)
  • 第二张图,由于某种原因,网络会随着时间而增长
  • 第一个图形表示旋转中的豆荚数
  • 在第一张图中,第一个小尖峰代表几个豆荚被循环出来
  • 第一个图,第二个大峰值表示部署,因此利用率下降
我试图从其他可能见过这种模式的人那里获得一些见解。 这可能是什么原因造成的? 如何配置此应用程序

我试图从其他可能见过这种模式的人那里获得一些见解

  • 这可能是什么原因造成的

  • 如何配置此应用程序


8M/s的流量很大。有多少客户端正在访问该应用程序?通过react容器,你是指SSR吗?我在做SPA而不是SSR@Matt@Matt这是所有容器的总和,但它是线性增长的,出于某种原因这里有一个疯狂的想法:也许有人正在刮取你的数据。我没有关于你的应用程序和数据的上下文,但这看起来像是有人编写了一个应用程序,在6-7天内以固定的速率缓慢地拉取该站点上的所有内容。我在汽车交易网站上看到过。他们写了一个刮刀,花了一周的时间来收集整个网站和所有的图片/数据。