Keras 内核大小等于1的Conv1D执行什么操作?
我读了一个将Keras 内核大小等于1的Conv1D执行什么操作?,keras,deep-learning,conv-neural-network,lstm,convolution,Keras,Deep Learning,Conv Neural Network,Lstm,Convolution,我读了一个将LSTM与CONV1一起使用的示例。 (摘自:) 我知道卷积的维数是1(1维大小为1)) 卷积的值是多少?(矩阵1*1的值是多少?) 我搞不清楚什么是过滤器=64?这是什么意思 relu激活功能是否对卷积函数的输出起作用?(从我读到的来看,似乎是这样,但我不确定) 像我们在这里做的那样,将卷积函数与内核_size=1结合使用的动机是什么 过滤器 filters=64表示使用的单独过滤器数量为64。 每个滤波器将输出1个通道。i、 e.这里64个滤波器对输入进行操作,以产生64个不
LSTM
与CONV1
一起使用的示例。
(摘自:)
- 我知道卷积的维数是1(1维大小为1))
过滤器=64
?这是什么意思relu
激活功能是否对卷积函数的输出起作用?(从我读到的来看,似乎是这样,但我不确定)内核_size=1
结合使用的动机是什么filters=64
表示使用的单独过滤器数量为64。
每个滤波器将输出1个通道。i、 e.这里64个滤波器对输入进行操作,以产生64个不同的通道(或向量)。因此,过滤器
参数决定了输出通道的数量
内核大小
kernel\u size
确定卷积窗口的大小。假设kernel\u size=1
,那么每个内核在\u通道x1中都有的维度。因此,每个内核权重都将是维度张量中的
激活=重新激活
这意味着relu
激活将应用于卷积运算的输出
内核大小=1卷积
用于通过应用非线性来减少深度通道。它会在保持感受野的同时,对通道进行加权平均
在您的示例中:filters=64,kernel\u size=1,activation=relu
假设输入特征图的大小为100 x 10
(100个通道)。然后层重量将为尺寸64 x 100 x 1
。输出大小将为64 x 10
谢谢,但是卷积的值是多少?(例如,3x3的蓝色卷积包含9个1/9的值)。卷积的值是多少?假设输入向量是[[1,1,1],[2,2,2]],即长度为3的2通道向量,核是[[5],[5]]和[[1],[1]],那么输出将是[[1.5,1.5,1.5],[3,3]](bcoz 1x0.5+2x0.5=1.5和1x1+2x1=3)keras中默认的内核初始化方法是glorot_统一的。我想我在你的例子中遗漏了一些东西。如果内核是[.5]、.5]]和[.5]、.5]],那么内核大小不是1?(是1*2否?)内核大小=1表示内核的空间(第一)维度的大小为1。此处,第二维表示通道,其取决于输入特征通道尺寸。查看有关1x1卷积的视频
Conv1D(filters=64, kernel_size=1, activation='relu')