python简单神经前向网络XOR函数

python简单神经前向网络XOR函数,python,neural-network,perceptron,Python,Neural Network,Perceptron,我已经实现了这个简单的模型来学习神经网络,它训练得很好,并给出了最初给出的输出 这就是我的损失,在XOR函数识别的例子中,我希望能够测试它,而不是训练它。似乎所有在线阅读都是关于训练的,然后就到此为止 这是否意味着对于每个新输入,模型必须重新计算并训练整个集合?这和重量有关吗?您将如何让模型运行“实时”,并将新输入作为其实时反馈的一部分以及持续的重复培训 谢谢 import numpy as np def nonlin(x, deriv=False): if(deriv==True):

我已经实现了这个简单的模型来学习神经网络,它训练得很好,并给出了最初给出的输出

这就是我的损失,在XOR函数识别的例子中,我希望能够测试它,而不是训练它。似乎所有在线阅读都是关于训练的,然后就到此为止

这是否意味着对于每个新输入,模型必须重新计算并训练整个集合?这和重量有关吗?您将如何让模型运行“实时”,并将新输入作为其实时反馈的一部分以及持续的重复培训

谢谢

import numpy as np

def nonlin(x, deriv=False):
   if(deriv==True):
       return x*(1-x)

   return 1/(1+np.exp(-x))

#4x2
x = np.array([[0,0],[0,1],[1,0],[1,1]])
print (x)

#1x4
y = np.array([[0],[1],[1],[0]])

np.random.seed(1)

syn0 = 2*np.random.random((2,4))-1
print (syn0)

syn1 = 2*np.random.random((4,1))-1

for j in range(60000):

    l0 = x;
    l1 = nonlin(np.dot(l0,syn0))
    l2 = nonlin(np.dot(l1,syn1))

    l2_error = y - l2

    l2_delta = l2_error*nonlin(l2, deriv=True)

    l1_error = l2_delta.dot(syn1.T)

    l1_delta = l1_error * nonlin(l1,deriv=True)

    syn1 += l1.T.dot(l2_delta)
    syn0 += l0.T.dot(l1_delta)

    if(j % 10000) ==0:
       print ("Error:" + str(np.mean(np.abs(l2_error))))

print ("Output after training")
print (syn0)
print (syn1)
print (l2)

您只需考虑实际执行神经网络计算的代码,以下是您的代码的修改方式:

import numpy as np

def nonlin(x, deriv=False):
   if(deriv==True):
       return x*(1-x)

   return 1/(1+np.exp(-x))


#4x2
x = np.array([[0,0],[0,1],[1,0],[1,1]])
print ("x=",x)

#1x4
y = np.array([[0],[1],[1],[0]])
print ("y=",y)

np.random.seed(1)

syn0 = 2*np.random.random((2,4))-1
print (syn0)

syn1 = 2*np.random.random((4,1))-1

def NN(x):
    l0 = x;
    l1 = nonlin(np.dot(l0,syn0))
    l2 = nonlin(np.dot(l1,syn1))
    return (l0,l1,l2)

for j in range(60000):

    l0,l1,l2 = NN(x)

    l2_error = y - l2

    l2_delta = l2_error*nonlin(l2, deriv=True)

    l1_error = l2_delta.dot(syn1.T)

    l1_delta = l1_error * nonlin(l1,deriv=True)

    syn1 += l1.T.dot(l2_delta)
    syn0 += l0.T.dot(l1_delta)

    if(j % 10000) ==0:
       print ("Error:" + str(np.mean(np.abs(l2_error))))

print ("Output after training")
print ("trained l0 weights:",syn0)
print ("trained l1 weights:",syn1)
l0,l1,l2 = NN(x)
print ("NN(",x,") == ",l2)
这里NN(x)是执行神经网络计算的函数。它返回元组中的输入向量、隐藏层和输出层值。您可以为cleaner interface编写单独的函数:

def NNout(x,syn0,syn1):
    l0 = x;
    l1 = nonlin(np.dot(l0,syn0))
    l2 = nonlin(np.dot(l1,syn1))
    return l2

我不明白问题出在哪里?您可以通过提供输入(例如(0,1))轻松测试网络,并查看网络的运行情况(接近1)。也许一些示例/伪代码可以帮助我们了解您试图实现的目标?这听起来可能很愚蠢,但这正是我无法理解的。。。我是否应该使用网络给出的权重,我看不出函数中会有什么内容,它将接受一个输入并在网络中测试它?我现在已经编辑了这个问题