Performance 什么是深度学习领域的失败?

Performance 什么是深度学习领域的失败?,performance,deep-learning,flops,Performance,Deep Learning,Flops,什么是深度学习领域的失败?为什么我们不使用just FLO这个词呢 我们使用术语FLOPS来度量冻结的深度学习网络的操作数 在Wikipedia之后,FLOPS=每秒的浮点运算。当我们测试计算单元时,我们应该考虑时间。但在测量深度学习网络的情况下,我如何理解时间的概念?我们不应该使用术语justFLO(浮点运算)吗 为什么人们用“失败”这个词?如果有什么我不知道的,那是什么 ==附件=== 我提到的冻结深度学习网络只是一种软件。这与硬件无关。在深度学习领域,人们使用术语FLOPS来衡量运行网络模

什么是深度学习领域的失败?为什么我们不使用just FLO这个词呢

我们使用术语FLOPS来度量冻结的深度学习网络的操作数

在Wikipedia之后,FLOPS=每秒的浮点运算。当我们测试计算单元时,我们应该考虑时间。但在测量深度学习网络的情况下,我如何理解时间的概念?我们不应该使用术语justFLO(浮点运算)吗

为什么人们用“失败”这个词?如果有什么我不知道的,那是什么

==附件===

我提到的冻结深度学习网络只是一种软件。这与硬件无关。在深度学习领域,人们使用术语FLOPS来衡量运行网络模型需要多少操作。在这种情况下,我认为,我们应该使用FLO这个术语。我认为人们对“失败”这个词感到困惑,我想知道其他人是否也这么认为,或者我是否错了

请看这些案例:

什么是深度学习领域的失败?为什么我们不使用just FLO这个词呢

FLOPS(每秒浮点操作数)在大多数领域都是相同的——它是硬件可能(如果你非常幸运的话)能够进行的(理论上)最大浮点操作数

我们不使用FLO,因为FLO总是无穷大的(给定无限长的时间,硬件能够执行无限多的浮点操作)

请注意,一个“浮点运算”是一次乘法、一次除法、一次加法。。。通常(对于现代CPU)触发器是通过重复使用“融合乘法然后加法”指令来计算的,因此一条指令算作两个浮点运算。当与SIMD结合使用时,单个指令(并行执行8“multiple and add”)可能算作16条浮点指令。当然,这是一个计算出的理论值,所以你忽略了内存访问、分支、IRQ等。这就是为什么“理论上的失败”在实践中几乎永远无法实现的原因

为什么人们用“失败”这个词?如果有什么我不知道的,那是什么


它主要用于描述硬件在市场上的强大程度(例如,“我们的新CPU能够达到5千兆次!”)。

我不确定我的答案是否100%正确。但这是我所理解的

  • FLOPS=Fl起跳点ops秒的起跳次数

  • 翻牌=Fl起跳点ops


翻牌是速度的单位。FLOPs是一个数量单位。

令人困惑的是,FLOPs浮点运算和FLOPs每秒浮点运算都用于机器学习。触发器通常用于描述运行给定模型的单个实例(如VGG19)需要多少操作。这是在您发布的两个链接中使用的触发器,但不幸的是opengenus链接错误地使用“每秒浮点操作”来表示触发器

您将看到用于描述给定硬件(如GPU)计算能力的触发器,这在考虑给定硬件的功能有多强大,或者反过来说,在该硬件上训练模型可能需要多长时间时非常有用


有时,人们写的是翻牌,而他们的意思是翻牌。从上下文中通常可以清楚地看出它们的意思。

非常感谢您的回答。很抱歉,我不能完全理解你所说的指令,因为我在硬件领域的背景很差,但我同意你将要解释的关于触发器的术语。但是你可能会错过我的问题,所以我添加了一些句子来澄清。虽然为时已晚,但我想说谢谢你的友好回答。谢谢你的回答。我想你们的回答是对的,但我不明白为什么人们按下按钮。