Web scraping page.close()不会停止ui4j活动和定期重新加载网页

Web scraping page.close()不会停止ui4j活动和定期重新加载网页,web-scraping,browser-cache,javafx-webengine,ui4j,Web Scraping,Browser Cache,Javafx Webengine,Ui4j,获取网页后,如何停止与导航网页相关的所有浏览器引擎活动?在设计为自动刷新的页面上,调用page.close()不会阻止ui4j定期重新加载页面 即使我的应用程序处于空闲状态,在成功获取并处理页面后,10分钟后ui4j的JulLogger输出消息,如INFO:Loadinghttp://www...etc... [30%]到错误控制台,显示加载页面的线程正在继续运行 我想在应用程序获得页面后停止所有ui4j/javaFX活动。我希望我的应用程序能够通过后续的engine.navigate(url)

获取网页后,如何停止与导航网页相关的所有浏览器引擎活动?在设计为自动刷新的页面上,调用
page.close()
不会阻止ui4j定期重新加载页面

即使我的应用程序处于空闲状态,在成功获取并处理页面后,10分钟后ui4j的
JulLogger
输出消息,如
INFO:Loadinghttp://www...etc... [30%]
到错误控制台,显示加载页面的线程正在继续运行

我想在应用程序获得页面后停止所有ui4j/javaFX活动。我希望我的应用程序能够通过后续的
engine.navigate(url)
调用来控制何时以及如何重新加载页面

通过调用
engine.shutdown()
然后为下一个
导航(url)
调用重新创建引擎来解决问题是不可行的,因为ui4j的应用程序启动不能被调用多次

一旦获得,ui4j中的页面保存在哪里?是否有一种方法可以清除此缓存,从而解决此问题?或者,如果ui4j没有提供执行此操作的方法,是否可以在运行ui4j的javaFX级别上清除为获取的网页存储的所有线程/信息

任何建议都会很有帮助