Floating point 基于fpga的16位浮点运算

Floating point 基于fpga的16位浮点运算,floating-point,precision,16-bit,intel-fpga,Floating Point,Precision,16 Bit,Intel Fpga,我尝试使用Altera的浮点IP来生成半精度块,而不是用于加法、乘法等的单个(32位)块。然而,在配置IP时,半精度fp似乎需要更多LUT,并且比32位对应的浮点IP在周期中有更多的延迟。这似乎与半精度fp应该比单精度更快、占用更少电路面积的假设相反……有人使用过altera IP半精度fp块吗?与单精度相比,Fid是否有任何改进 延迟更大,但吞吐量如何?更多的LUT并不意外:只有16位您就有机会使用它们(最多65536个条目),而对于32位,这是不可想象的。

我尝试使用Altera的浮点IP来生成半精度块,而不是用于加法、乘法等的单个(32位)块。然而,在配置IP时,半精度fp似乎需要更多LUT,并且比32位对应的浮点IP在周期中有更多的延迟。这似乎与半精度fp应该比单精度更快、占用更少电路面积的假设相反……有人使用过altera IP半精度fp块吗?与单精度相比,Fid是否有任何改进

延迟更大,但吞吐量如何?更多的LUT并不意外:只有16位您就有机会使用它们(最多65536个条目),而对于32位,这是不可想象的。