Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/arduino/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
R 缓存从S3读取每日更新数据集的闪亮仪表板?_R_Shiny_Shinydashboard_Shiny Reactivity - Fatal编程技术网

R 缓存从S3读取每日更新数据集的闪亮仪表板?

R 缓存从S3读取每日更新数据集的闪亮仪表板?,r,shiny,shinydashboard,shiny-reactivity,R,Shiny,Shinydashboard,Shiny Reactivity,我有一个闪亮的仪表板,可以从每天更新的数据集中执行分组操作和GGPLOT2 我正在研究一些缓存选项: 但是,如果输出保持不变,则这些函数将起作用。如果每天我都在数据集中添加几行呢。有没有办法利用缓存?是否可以更新缓存以添加新行数据 这里也提出了类似的问题: 例如: Fetching the data every day. This script runs every day and gets new data. con <- dbConnect(drv = dbDriver("")

我有一个闪亮的仪表板,可以从每天更新的数据集中执行分组操作和GGPLOT2

我正在研究一些缓存选项:

但是,如果输出保持不变,则这些函数将起作用。如果每天我都在数据集中添加几行呢。有没有办法利用缓存?是否可以更新缓存以添加新行数据

这里也提出了类似的问题:

例如:

Fetching the data every day. This script runs every day and gets new data.
con <- dbConnect(drv = dbDriver(""), 
                 dbname = "db",
                 host = "connection",
                 user = "user",
                 password = "password")
query1 <- dbGetQuery(con,"query1")
query2 <- dbGetQuery(con,"query2")
Maybe a group-by or a join or summarization anything
...
...
...
Finally your have your final dataset.
final <- rbind(query1, query2)
s3saveRDS(x = final, 
      object = paste0("data", ".rds"),
      bucket = "bucketname") 
每天提取数据。此脚本每天运行并获取新数据。

con您能否编写一个单独的R脚本,每天运行以提取数据、处理数据,然后将其放置在Shiny可以访问的地方?这是否有帮助?JacquelineNolis希望编辑能有所帮助。这是一个一般性的问题,你能不能写一个单独的R脚本,每天运行来提取数据,处理数据,然后把它放在Shiny可以访问的地方?这是否有帮助?JacquelineNolis希望编辑能有所帮助。这是一个一般性的问题
final <- s3readRDS(object = "data.rds",
                 bucket = "bucketname")