Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/ssh/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Ruby 持久虚拟机进程_Ruby_Ssh_Process_Web Scraping_Google Cloud Platform - Fatal编程技术网

Ruby 持久虚拟机进程

Ruby 持久虚拟机进程,ruby,ssh,process,web-scraping,google-cloud-platform,Ruby,Ssh,Process,Web Scraping,Google Cloud Platform,我使用谷歌云平台,有一个虚拟机。我也在和网络垃圾打交道 我目前正在尝试使用ruby脚本对reddit进行简单的刮取。那部分很好用。它基本上是一个接一个地(直到reddit的结尾!)刮文章,尽管这显然需要一些时间 现在,为了抓取(我正在运行ruby scrape.rb>reddit.txt),我必须在我的计算机上打开google虚拟机ssh浏览器窗口,否则进程将退出(这很有意义)。然而,我想做的是,即使我关闭窗口,这个过程也会持续下去 有没有办法让这个过程继续运行?然后我可以定期登录并检查redd

我使用谷歌云平台,有一个虚拟机。我也在和网络垃圾打交道

我目前正在尝试使用ruby脚本对reddit进行简单的刮取。那部分很好用。它基本上是一个接一个地(直到reddit的结尾!)刮文章,尽管这显然需要一些时间

现在,为了抓取(我正在运行
ruby scrape.rb>reddit.txt
),我必须在我的计算机上打开google虚拟机ssh浏览器窗口,否则进程将退出(这很有意义)。然而,我想做的是,即使我关闭窗口,这个过程也会持续下去

有没有办法让这个过程继续运行?然后我可以定期登录并检查
reddit.txt
,即使我没有使用ssh,它也会继续增长

谢谢

命令
nohup
正是我想要的