Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/305.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/jsf-2/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python Tensorflow Github源代码中的Softmax交叉熵实现_Python_Tensorflow_Bazel_Softmax_Cross Entropy - Fatal编程技术网

Python Tensorflow Github源代码中的Softmax交叉熵实现

Python Tensorflow Github源代码中的Softmax交叉熵实现,python,tensorflow,bazel,softmax,cross-entropy,Python,Tensorflow,Bazel,Softmax,Cross Entropy,我试图在python中实现Softmax交叉熵损失。所以,我在看GitHub Tensorflow存储库中Softmax交叉熵损失的实现。我试图理解它,但我遇到了一个由三个函数组成的循环,我不知道函数中的哪行代码在计算损失 函数softmax\u cross\u entropy\u with_logits\u v2(labels,logits,axis=-1,name=None)返回函数softmax\u cross\u entropy\u with_logits\u v2\u helper(l

我试图在python中实现Softmax交叉熵损失。所以,我在看GitHub Tensorflow存储库中Softmax交叉熵损失的实现。我试图理解它,但我遇到了一个由三个函数组成的循环,我不知道函数中的哪行代码在计算损失

函数
softmax\u cross\u entropy\u with_logits\u v2(labels,logits,axis=-1,name=None)
返回函数
softmax\u cross\u entropy\u with_logits\u v2\u helper(labels=labels,logits=logits,axis=axis,name=name)
,然后返回
softmax\u cross\u entropy\u with\u logits\u(精确的logits,labels,name=name)

现在,函数
softmax\u cross\u entropy\u with\u logits(精确的,标签,名称=名称)
返回函数
softmax\u cross\u entropy\u with\u logits\u v2(标签,标签,标签,轴=-1,名称=无)

这使我陷入了函数循环中,而不清楚计算Softmax函数的
成本的代码在哪里。有人能指出Softmax交叉熵代码在Tensorflow GitHub存储库中的实现位置吗

我正在引用的GitHub存储库的链接是。它包含上述三个函数的定义


如果
cost
的代码需要很多难以理解的函数,您能解释一下代码行吗?谢谢。

当您遵循此函数的调用堆栈时,您最终会发现:

cost,unused\u backprop=gen\u nn\u ops.softmax\u cross\u entropy\u with\u logits(
精确(登录、标签、名称=名称)
每当你看到一个引用>代码> GeNE< /Cuff>模块,这意味着它是一个在C++代码上自动生成的Python包装器——这就是为什么你不能简单地查找函数并调用调用堆栈。 可以找到C++源代码


中详细描述了如何创建
gen\u nn\u ops

当您遵循此函数的调用堆栈时,您最终会发现:

cost,unused\u backprop=gen\u nn\u ops.softmax\u cross\u entropy\u with\u logits(
精确(登录、标签、名称=名称)
每当你看到一个引用>代码> GeNE< /Cuff>模块,这意味着它是一个在C++代码上自动生成的Python包装器——这就是为什么你不能简单地查找函数并调用调用堆栈。 可以找到C++源代码


中很好地描述了如何创建
gen\u nn\u ops

感谢卢卡斯的回答。我想知道我是否可以与您联系,以获得一些关于我从头开始构建的深度学习模型的帮助,而不使用任何框架。@Amarparaculi Sure。联系方式在我的个人资料和GitHub上,你可以很容易地找到我。谢谢Lukasz的回答。我想知道我是否可以与您联系,以获得一些关于我从头开始构建的深度学习模型的帮助,而不使用任何框架。@Amarparaculi Sure。联系方式在我的个人资料和GitHub上,你可以很容易地找到我。