Deep learning 如何在稀疏自动编码器中绕过第二轮激活功能输出?

Deep learning 如何在稀疏自动编码器中绕过第二轮激活功能输出?,deep-learning,sparse-matrix,autoencoder,Deep Learning,Sparse Matrix,Autoencoder,他提到,对于大型数据集,“你最终会在训练集中的每个示例上计算两次向前传球”。这是因为在计算损失函数之前,我们需要找到激活函数的平均值。9年后我想知道是否有办法绕过第二关?TensorFlow和PyTorch第二次通过吗 我的主要问题是“在当今的应用程序中,第二次通过是否仍然很常见?”欢迎使用SO!我不确定这个问题是否只有一个答案。一般来说,这里的问题更切合实际。我推荐一家。欢迎光临!我不确定这个问题是否只有一个答案。一般来说,这里的问题更切合实际。我推荐一种新的。

他提到,对于大型数据集,“你最终会在训练集中的每个示例上计算两次向前传球”。这是因为在计算损失函数之前,我们需要找到激活函数的平均值。9年后我想知道是否有办法绕过第二关?TensorFlow和PyTorch第二次通过吗


我的主要问题是“在当今的应用程序中,第二次通过是否仍然很常见?”

欢迎使用SO!我不确定这个问题是否只有一个答案。一般来说,这里的问题更切合实际。我推荐一家。欢迎光临!我不确定这个问题是否只有一个答案。一般来说,这里的问题更切合实际。我推荐一种新的。