在tensorflow中表示高精度浮点
我们打算用一些不适合float64或TensorFlow中任何其他现有数据类型的数据来训练ANN。例如,输入神经元可接收:在tensorflow中表示高精度浮点,tensorflow,keras,neural-network,Tensorflow,Keras,Neural Network,我们打算用一些不适合float64或TensorFlow中任何其他现有数据类型的数据来训练ANN。例如,输入神经元可接收: 1.13760089015656552359796023723738662029191734968655617689014826158791613333 我有两个问题: 有没有办法用TensorFlow或Keras表示数据 如果没有一个清晰方便的解决方案,您认为将数据转换成complex128会对我们有所帮助吗?例如: 1.137600890156555235979602
1.13760089015656552359796023723738662029191734968655617689014826158791613333
我有两个问题:
在我们的例子中,浮点值越高意味着精度越高。因此,我们需要尽可能多地保留它们
我们更喜欢使用GPU,因此解决方案应该涵盖这些问题。您考虑过预处理数据吗?很少能看到如此高精度的显著重要发散。如果只在这样的平面空间上操作,可能也很难计算出有意义的梯度。“在我们的情况下,浮点值越高意味着精度越高”-我想对每种情况都是这样,问题是你真正需要的精度有多高,很少有64位不够的情况。甚至还有一些标准,但这些标准非常罕见,TF也不支持。在复数中“拆分”数字是行不通的,浮点值不能像那样“串联”。此外,TF中也不支持,也很少需要,这将允许您获得所需的精度。无论如何,如果你在做神经网络,使用32位以上的精度通常没有多大意义——毕竟这只是一种近似的机器学习方法。你认为哪种预处理对我们有帮助?输入数据是连续的,点与点之间的差异深深地隐藏在浮点中。所以只要将其重新缩放到正态分布,就可以了。这是最基本的。尽管您可能会遇到麻烦,但如果您的数据存在异常值。永远记住这件事。首先,您需要了解并准备数据。建筑模型排在最后。