Machine learning 如何计算误差函数对矩阵值的偏导数

Machine learning 如何计算误差函数对矩阵值的偏导数,machine-learning,neural-network,artificial-intelligence,gradient-descent,derivative,Machine Learning,Neural Network,Artificial Intelligence,Gradient Descent,Derivative,我正在建立一个项目,它是一个基本的神经网络,接收2x2图像,目标是将图像分类为正斜杠(1类)或反斜杠(0类)形状。输入的数据是一个平面numpy数组。1表示黑色像素0表示白色像素 0类:[1,0,0,1] 1类:[0,1,1,0] 如果我将过滤器作为随机4x1矩阵启动,我如何使用梯度下降法得出完美矩阵[1,-1,-1,1]或[-1,1,1,-1]来对数据点进行分类 旁注:即使与“完美”答案矩阵相乘,然后求和,标签输出也将是-2和2。我的数据标签需要是-2和2吗?如果我想让我的类标记为0和1呢 谁

我正在建立一个项目,它是一个基本的神经网络,接收2x2图像,目标是将图像分类为正斜杠(1类)或反斜杠(0类)形状。输入的数据是一个平面numpy数组。1表示黑色像素0表示白色像素

0类:[1,0,0,1]

1类:[0,1,1,0]

如果我将过滤器作为随机4x1矩阵启动,我如何使用梯度下降法得出完美矩阵[1,-1,-1,1]或[-1,1,1,-1]来对数据点进行分类


旁注:即使与“完美”答案矩阵相乘,然后求和,标签输出也将是-2和2。我的数据标签需要是-2和2吗?如果我想让我的类标记为0和1呢

谁给了你那些“完美矩阵”?如果直接使用乘法结果作为类标签,则很难将它们限定在[0,1]之间。考虑使用函数,也尝试展开操作。人类如何计算矩阵乘法?如果你把它写出来,我认为解决办法很清楚