Caching 加载时缓存模型

Caching 加载时缓存模型,caching,tensorflow.js,Caching,Tensorflow.js,我当前在tfjs中加载了一个模型,其中包含以下代码。我试图通过使用CloudFlare的缓存API将文件缓存到更靠近调用模型的位置来优化模型。我是否有办法在加载操作中截取fetch调用以缓存模型数据并将从缓存中获取的数据加载到模型中 当前代码: const model=wait tf.loadLayersModel(“model\u url\u from\u gcp”) 努力实现: //如果缓存了数据,则将从缓存中加载数据,否则将从URL和缓存中获取数据 const load\u data=c

我当前在
tfjs
中加载了一个模型,其中包含以下代码。我试图通过使用CloudFlare的缓存API将文件缓存到更靠近调用模型的位置来优化模型。我是否有办法在加载操作中截取fetch调用以缓存模型数据并将从缓存中获取的数据加载到模型中

当前代码:

const model=wait tf.loadLayersModel(“model\u url\u from\u gcp”)
努力实现:

//如果缓存了数据,则将从缓存中加载数据,否则将从URL和缓存中获取数据
const load\u data=cache.get(“model\u url\u from\u gcp”)
//将缓存数据加载到模型中,而不是使用URL
常量模型=等待tf.loadLayersModel(加载数据)
是否也有一种方法可以从TFHub为GraphModels实现同样的效果

const model = await tf.loadGraphModel("some_tfhub_url", { fromTFHub: true })

要使用LocalStorage或IndexDB For TensorFlow.js,请参阅以下文档:

IndexDB:


LocalStorage:

要使用LocalStorage或IndexDB For TensorFlow.js,请参阅以下文档:

IndexDB:


LocalStorage:

您的意思是要在浏览器本身上使用类似LocalStorage或indexdb的东西吗?老实说,只要GCP为模型等设置了正确的标题,浏览器就会自动缓存文件(如果标题状态为),因此通常是免费的。但是,如果您希望脱机工作,请查看PWA示例。不,我正在尝试在CDN的缓存API上进行缓存,并将get调用的响应加载到tf.loadLayersModel()中。这样我就可以抽象出数据来自哪个服务器。你的意思是想在浏览器本身上使用localstorage或indexdb之类的东西吗?老实说,只要GCP为模型等设置了正确的标题,浏览器就会自动缓存文件(如果标题状态为),因此通常是免费的。但是,如果您希望脱机工作,请查看PWA示例。不,我正在尝试在CDN的缓存API上进行缓存,并将get调用的响应加载到tf.loadLayersModel()中。这样我就可以抽象出数据来自哪个服务器。