Python Tensorflow Github源代码中的Softmax交叉熵实现
我试图在python中实现Softmax交叉熵损失。所以,我在看GitHub Tensorflow存储库中Softmax交叉熵损失的实现。我试图理解它,但我遇到了一个由三个函数组成的循环,我不知道函数中的哪行代码在计算损失 函数Python Tensorflow Github源代码中的Softmax交叉熵实现,python,tensorflow,bazel,softmax,cross-entropy,Python,Tensorflow,Bazel,Softmax,Cross Entropy,我试图在python中实现Softmax交叉熵损失。所以,我在看GitHub Tensorflow存储库中Softmax交叉熵损失的实现。我试图理解它,但我遇到了一个由三个函数组成的循环,我不知道函数中的哪行代码在计算损失 函数softmax\u cross\u entropy\u with_logits\u v2(labels,logits,axis=-1,name=None)返回函数softmax\u cross\u entropy\u with_logits\u v2\u helper(l
softmax\u cross\u entropy\u with_logits\u v2(labels,logits,axis=-1,name=None)
返回函数softmax\u cross\u entropy\u with_logits\u v2\u helper(labels=labels,logits=logits,axis=axis,name=name)
,然后返回softmax\u cross\u entropy\u with\u logits\u(精确的logits,labels,name=name)
现在,函数softmax\u cross\u entropy\u with\u logits(精确的,标签,名称=名称)
返回函数softmax\u cross\u entropy\u with\u logits\u v2(标签,标签,标签,轴=-1,名称=无)
这使我陷入了函数循环中,而不清楚计算Softmax函数的成本的代码在哪里。有人能指出Softmax交叉熵代码在Tensorflow GitHub存储库中的实现位置吗
我正在引用的GitHub存储库的链接是。它包含上述三个函数的定义
如果cost
的代码需要很多难以理解的函数,您能解释一下代码行吗?谢谢。当您遵循此函数的调用堆栈时,您最终会发现:
cost,unused\u backprop=gen\u nn\u ops.softmax\u cross\u entropy\u with\u logits(
精确(登录、标签、名称=名称)
每当你看到一个引用>代码> GeNE< /Cuff>模块,这意味着它是一个在C++代码上自动生成的Python包装器——这就是为什么你不能简单地查找函数并调用调用堆栈。
可以找到C++源代码
中详细描述了如何创建gen\u nn\u ops
。当您遵循此函数的调用堆栈时,您最终会发现:
cost,unused\u backprop=gen\u nn\u ops.softmax\u cross\u entropy\u with\u logits(
精确(登录、标签、名称=名称)
每当你看到一个引用>代码> GeNE< /Cuff>模块,这意味着它是一个在C++代码上自动生成的Python包装器——这就是为什么你不能简单地查找函数并调用调用堆栈。
可以找到C++源代码
中很好地描述了如何创建gen\u nn\u ops
。感谢卢卡斯的回答。我想知道我是否可以与您联系,以获得一些关于我从头开始构建的深度学习模型的帮助,而不使用任何框架。@Amarparaculi Sure。联系方式在我的个人资料和GitHub上,你可以很容易地找到我。谢谢Lukasz的回答。我想知道我是否可以与您联系,以获得一些关于我从头开始构建的深度学习模型的帮助,而不使用任何框架。@Amarparaculi Sure。联系方式在我的个人资料和GitHub上,你可以很容易地找到我。