Nlp 如何设置作为服务运行的最大CPU/内核数?
我可以安装并运行BERT模型,如中所述 它运行时将占用Linux机器上的所有CPU,但我希望它只在Linux服务器的50个CPU上运行 我可以设置运行BERT模型的最大CPU/内核数吗Nlp 如何设置作为服务运行的最大CPU/内核数?,nlp,numbers,cpu,bert-language-model,Nlp,Numbers,Cpu,Bert Language Model,我可以安装并运行BERT模型,如中所述 它运行时将占用Linux机器上的所有CPU,但我希望它只在Linux服务器的50个CPU上运行 我可以设置运行BERT模型的最大CPU/内核数吗