pytorch在何处嵌入“;最大“标准”;实施?

pytorch在何处嵌入“;最大“标准”;实施?,pytorch,Pytorch,“嵌入”类文档说 max_norm(float,可选)–如果给定,将在提取之前重新规范化嵌入向量,使其具有小于此值的范数。 1) 在我的模型中,我使用这个嵌入类作为参数,而不仅仅是作为输入(模型学习嵌入)。在这种情况下,我假设每次更新发生时,嵌入都会被重新规范化,而不仅仅是在初始化时。我的理解正确吗 2) 我想通过查看源代码来确认,但在pytorch嵌入类中找不到实现。 有人能给我指一下max\u norm实现吗?如果您在Embedded类中看到forward函数,那么在cpp文档中有一个使用E

“嵌入”类文档说

max_norm(float,可选)–如果给定,将在提取之前重新规范化嵌入向量,使其具有小于此值的范数。

1) 在我的模型中,我使用这个嵌入类作为参数,而不仅仅是作为输入(模型学习嵌入)。在这种情况下,我假设每次更新发生时,嵌入都会被重新规范化,而不仅仅是在初始化时。我的理解正确吗

2) 我想通过查看源代码来确认,但在pytorch嵌入类中找不到实现。
有人能给我指一下
max\u norm
实现吗?

如果您在Embedded类中看到
forward
函数,那么在cpp文档中有一个使用Embedded\u renorm的引用,这意味着它是一个cpp实现。pytorch repo上的一些github搜索指向此文件(,)


对1的回答是肯定的。2的答案在上面

1)你可以测试它;2)
max\u norm
是一个选项,因此您可能想知道的实现是设置该选项后正在调用的函数的实现。链接现在已断开。我想知道为什么要找到用于火炬的C++源代码是如此困难。