Keras 内核大小等于1的Conv1D执行什么操作?

Keras 内核大小等于1的Conv1D执行什么操作?,keras,deep-learning,conv-neural-network,lstm,convolution,Keras,Deep Learning,Conv Neural Network,Lstm,Convolution,我读了一个将LSTM与CONV1一起使用的示例。 (摘自:) 我知道卷积的维数是1(1维大小为1)) 卷积的值是多少?(矩阵1*1的值是多少?) 我搞不清楚什么是过滤器=64?这是什么意思 relu激活功能是否对卷积函数的输出起作用?(从我读到的来看,似乎是这样,但我不确定) 像我们在这里做的那样,将卷积函数与内核_size=1结合使用的动机是什么 过滤器 filters=64表示使用的单独过滤器数量为64。 每个滤波器将输出1个通道。i、 e.这里64个滤波器对输入进行操作,以产生64个不

我读了一个将
LSTM
CONV1
一起使用的示例。 (摘自:)

  • 我知道卷积的维数是1(1维大小为1))
  • 卷积的值是多少?(矩阵1*1的值是多少?)
  • 我搞不清楚什么是
    过滤器=64
    ?这是什么意思
  • relu
    激活功能是否对卷积函数的输出起作用?(从我读到的来看,似乎是这样,但我不确定)
  • 像我们在这里做的那样,将卷积函数与
    内核_size=1
    结合使用的动机是什么
  • 过滤器
    filters=64
    表示使用的单独过滤器数量为64。 每个滤波器将输出1个通道。i、 e.这里64个滤波器对输入进行操作,以产生64个不同的通道(或向量)。因此,
    过滤器
    参数决定了输出通道的数量

    内核大小
    kernel\u size
    确定卷积窗口的大小。假设
    kernel\u size=1
    ,那么每个内核在\u通道x1中都有
    的维度。因此,每个内核权重都将是维度张量中的

    激活=重新激活 这意味着
    relu
    激活将应用于卷积运算的输出

    内核大小=1卷积 用于通过应用非线性来减少深度通道。它会在保持感受野的同时,对通道进行加权平均

    在您的示例中:
    filters=64,kernel\u size=1,activation=relu

    假设输入特征图的大小为
    100 x 10
    (100个通道)。然后层重量将为尺寸
    64 x 100 x 1
    。输出大小将为
    64 x 10

    谢谢,但是卷积的值是多少?(例如,3x3的蓝色卷积包含9个1/9的值)。卷积的值是多少?假设输入向量是[[1,1,1],[2,2,2]],即长度为3的2通道向量,核是[[5],[5]]和[[1],[1]],那么输出将是[[1.5,1.5,1.5],[3,3]](bcoz 1x0.5+2x0.5=1.5和1x1+2x1=3)keras中默认的内核初始化方法是glorot_统一的。我想我在你的例子中遗漏了一些东西。如果内核是[.5]、.5]]和[.5]、.5]],那么内核大小不是1?(是1*2否?)内核大小=1表示内核的空间(第一)维度的大小为1。此处,第二维表示通道,其取决于输入特征通道尺寸。查看有关1x1卷积的视频
    Conv1D(filters=64, kernel_size=1, activation='relu')