Python 如何在简单的逻辑回归神经网络中计算误差?
下面是以下数据框,报告了针对二进制分类问题对数据集进行培训的结果: a列和b列分别代表x和y,神经网络的结构如下: 列h1、h2、h3和o表示上图中网络的sigmoid激活函数后节点的输出,而delta_h1、delta_h2、delta_h3和delta_o表示节点的错误。 例如,考虑到我们的第一行,神经网络的输出为o=0.45196,而真实值为t=1。根据我们得到的二进制交叉熵计算误差: 从中可以看出:Python 如何在简单的逻辑回归神经网络中计算误差?,python,neural-network,logistic-regression,cross-entropy,Python,Neural Network,Logistic Regression,Cross Entropy,下面是以下数据框,报告了针对二进制分类问题对数据集进行培训的结果: a列和b列分别代表x和y,神经网络的结构如下: 列h1、h2、h3和o表示上图中网络的sigmoid激活函数后节点的输出,而delta_h1、delta_h2、delta_h3和delta_o表示节点的错误。 例如,考虑到我们的第一行,神经网络的输出为o=0.45196,而真实值为t=1。根据我们得到的二进制交叉熵计算误差: 从中可以看出: delta_o = 0.45196-0.3449 = 0.10706 相反,
delta_o = 0.45196-0.3449 = 0.10706
相反,在结果文件中显示的是delta_o=0.13575
。我不知道我的推理是否正确,你能告诉我哪里错了吗?谢谢大家!
delta_o = 0.45196-0.3449 = 0.10706