R 缓存从S3读取每日更新数据集的闪亮仪表板?
我有一个闪亮的仪表板,可以从每天更新的数据集中执行分组操作和GGPLOT2 我正在研究一些缓存选项: 但是,如果输出保持不变,则这些函数将起作用。如果每天我都在数据集中添加几行呢。有没有办法利用缓存?是否可以更新缓存以添加新行数据 这里也提出了类似的问题: 例如:R 缓存从S3读取每日更新数据集的闪亮仪表板?,r,shiny,shinydashboard,shiny-reactivity,R,Shiny,Shinydashboard,Shiny Reactivity,我有一个闪亮的仪表板,可以从每天更新的数据集中执行分组操作和GGPLOT2 我正在研究一些缓存选项: 但是,如果输出保持不变,则这些函数将起作用。如果每天我都在数据集中添加几行呢。有没有办法利用缓存?是否可以更新缓存以添加新行数据 这里也提出了类似的问题: 例如: Fetching the data every day. This script runs every day and gets new data. con <- dbConnect(drv = dbDriver("")
Fetching the data every day. This script runs every day and gets new data.
con <- dbConnect(drv = dbDriver(""),
dbname = "db",
host = "connection",
user = "user",
password = "password")
query1 <- dbGetQuery(con,"query1")
query2 <- dbGetQuery(con,"query2")
Maybe a group-by or a join or summarization anything
...
...
...
Finally your have your final dataset.
final <- rbind(query1, query2)
s3saveRDS(x = final,
object = paste0("data", ".rds"),
bucket = "bucketname")
每天提取数据。此脚本每天运行并获取新数据。
con您能否编写一个单独的R脚本,每天运行以提取数据、处理数据,然后将其放置在Shiny可以访问的地方?这是否有帮助?JacquelineNolis希望编辑能有所帮助。这是一个一般性的问题,你能不能写一个单独的R脚本,每天运行来提取数据,处理数据,然后把它放在Shiny可以访问的地方?这是否有帮助?JacquelineNolis希望编辑能有所帮助。这是一个一般性的问题
final <- s3readRDS(object = "data.rds",
bucket = "bucketname")