Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/bash/18.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 在ubuntubash中从一台服务器复制一个不断增长的文件到另一台服务器_Python_Bash_Ubuntu - Fatal编程技术网

Python 在ubuntubash中从一台服务器复制一个不断增长的文件到另一台服务器

Python 在ubuntubash中从一台服务器复制一个不断增长的文件到另一台服务器,python,bash,ubuntu,Python,Bash,Ubuntu,我有一些csv文件,这些文件会不断更新新条目 我想写一个脚本,将这些文件复制到另一台服务器,该服务器将不重复地连续复制这些文件 如何使用bash或python脚本来实现这一点 谢谢,rsync命令是这个问题的现成解决方案。从手册页: 它以其增量传输算法而闻名,该算法通过只发送源文件和目标中现有文件之间的差异来减少通过网络发送的数据量。Rsync广泛用于备份和镜像,并作为日常使用的改进拷贝命令 一个简单的rsync和sleep循环就可以了。rsync命令就是这个问题的现成解决方案。从手册页: 它以

我有一些csv文件,这些文件会不断更新新条目

我想写一个脚本,将这些文件复制到另一台服务器,该服务器将不重复地连续复制这些文件

如何使用bash或python脚本来实现这一点


谢谢,

rsync命令是这个问题的现成解决方案。从手册页:

它以其增量传输算法而闻名,该算法通过只发送源文件和目标中现有文件之间的差异来减少通过网络发送的数据量。Rsync广泛用于备份和镜像,并作为日常使用的改进拷贝命令


一个简单的
rsync
sleep
循环就可以了。

rsync命令就是这个问题的现成解决方案。从手册页:

它以其增量传输算法而闻名,该算法通过只发送源文件和目标中现有文件之间的差异来减少通过网络发送的数据量。Rsync广泛用于备份和镜像,并作为日常使用的改进拷贝命令


一个简单的
rsync
sleep
循环就可以了。

如果您设置了ssh连接,那么bash脚本中的以下行将把第一个文件名或目录名(参数)复制到远程计算机文件名或目录名(第二个参数):


如果已设置ssh连接,则bash脚本中的以下行将第一个文件名或目录名(参数)复制到远程计算机文件名或目录名(第二个参数):


您需要多久更新一次csv文件?什么是可接受的时间表?像dropbox这样的现成解决方案能满足您的需求吗?我们似乎有意避开数据库?谷歌文档电子表格能解决这个问题吗?没关系。可以是1天,也可以是12小时。我想从一台ubuntu机器复制到另一台ubuntu机器。如果这是唯一的要求,我建议签出dropbox。它将在系统之间自动同步特定文件夹中的任何/所有文件。它对用户非常友好,并且不需要编程/编码。我需要复制到另一个ubuntu服务器上。你似乎反对Dropbox解决方案?你有什么要求没有转告我们吗?Dropbox在linux上工作:您需要多久更新一次csv文件?什么是可接受的时间表?像dropbox这样的现成解决方案能满足您的需求吗?我们似乎有意避开数据库?谷歌文档电子表格能解决这个问题吗?没关系。可以是1天,也可以是12小时。我想从一台ubuntu机器复制到另一台ubuntu机器。如果这是唯一的要求,我建议签出dropbox。它将在系统之间自动同步特定文件夹中的任何/所有文件。它对用户非常友好,并且不需要编程/编码。我需要复制到另一个ubuntu服务器上。你似乎反对Dropbox解决方案?你有什么要求没有转告我们吗?Dropbox在linux上工作:你能给我一些bash的例子吗?这里有一个例子<在这种情况下,code>rsync功能强大。它将客户端上的文件分解为块,并计算每个块的校验和。因此,即使是大的、不断增长的文件也能得到高效、正确的处理。你能给我举一些bash的例子吗?这里有一个例子<在这种情况下,code>rsync功能强大。它将客户端上的文件分解为块,并计算每个块的校验和。因此,即使是大型且不断增长的文件也能高效、正确地处理。
#!/bin/bash
rsync -av -e "ssh " $1 user@computer.domain.org:$2