Machine learning 什么是caffe中的“参数”层?

Machine learning 什么是caffe中的“参数”层?,machine-learning,neural-network,deep-learning,caffe,Machine Learning,Neural Network,Deep Learning,Caffe,最近我在咖啡馆遇到了layer。 这一层似乎将其内部参数blob暴露在顶部 这层是用来做什么的? 您能给出一个使用示例吗?该层是在pull请求中引入的,描述如下: 该层只保存一个用户定义形状的参数blob,并将其作为单个顶部共享 这正是你所期望的。这是在问题的上下文中介绍的,该问题基本上建议将参数视为正常的底部斑点。为了说明为什么这是有用的,考虑下面的例子从问题,通过: 内积层计算C=A*B,其中C是顶部blob输出,B是底部blob,A必须是参数blob。这是非常限制性的,因为这使得不可能使用

最近我在咖啡馆遇到了layer。 这一层似乎将其内部参数blob暴露在顶部

这层是用来做什么的?
您能给出一个使用示例吗?

该层是在pull请求中引入的,描述如下:

该层只保存一个用户定义形状的参数blob,并将其作为单个顶部共享

这正是你所期望的。这是在问题的上下文中介绍的,该问题基本上建议将参数视为正常的底部斑点。为了说明为什么这是有用的,考虑下面的例子从问题,通过:

内积层计算C=A*B,其中C是顶部blob输出,B是底部blob,A必须是参数blob。这是非常限制性的,因为这使得不可能使用内积层来相乘两个底部斑点之间的内积,例如相乘两个输入矩阵。该问题建议进行根本性的更改:使参数独立于图层。相反,把它们当作正常的底部斑点来对待

作为朝着这一方向迈出的第一步,提出了这一建议。这允许您定义一个新参数,然后将其输入到另一层的底部。 对应项——一种将参数作为底部blob输入层的方法——在pull请求中提出,截至2017年1月尚未合并。
虽然这还没有合并,但您仍然可以使用参数层定义新的可学习参数,以作为底部blob馈送到其他层。

太好了!!谢谢从上下文来看,现在一切都清楚了。