Python 使用带有tf.data的生成器的最具伸缩性的方法?tf.data guide说,“from_generator”的可扩展性有限
tf.data有一个来自\u生成器的Python 使用带有tf.data的生成器的最具伸缩性的方法?tf.data guide说,“from_generator”的可扩展性有限,python,tensorflow,keras,generator,tf.keras,Python,Tensorflow,Keras,Generator,Tf.keras,tf.data有一个来自\u生成器的初始值设定项,它看起来不可伸缩。来自官方指南 注意:虽然这是一种方便的方法,但它的局限性很小 可移植性和可扩展性。它必须在同一个python进程中运行 它创建了生成器,并且仍然受Python GIL的约束 在官方文件中 注意:Dataset.from_generator()的当前实现使用 函数,并继承相同的约束。特别是 需要将与数据集和迭代器相关的操作放置在 与调用 Dataset.from_生成器()。生成器的主体将不会序列化 在GraphDef中,如果需
初始值设定项,它看起来不可伸缩。来自官方指南
注意:虽然这是一种方便的方法,但它的局限性很小
可移植性和可扩展性。它必须在同一个python进程中运行
它创建了生成器,并且仍然受Python GIL的约束
在官方文件中
注意:Dataset.from_generator()的当前实现使用
函数,并继承相同的约束。特别是
需要将与数据集和迭代器相关的操作放置在
与调用
Dataset.from_生成器()。生成器的主体将不会序列化
在GraphDef中,如果需要,则不应使用此方法
序列化模型并在其他环境中还原它
注意:如果生成器依赖于可变全局变量或其他变量
外部状态,请注意运行时可能会调用生成器
多次(为了支持重复数据集),并且随时
从_generator()调用Dataset.from到生产之间的时间
发电机的第一个元件。变异全局变量或
外部状态可能导致未定义的行为,我们建议您
在调用之前显式缓存生成器中的任何外部状态
Dataset.from_生成器()
然而,生成器是对大量数据进行训练的一种相当常见的方法。因此,必须有一些替代的最佳实践,但官方的Tensorflow数据指南没有给出任何相关信息 你觉得有用吗?