Amazon s3 robocopy、jungledisk文件复制问题

Amazon s3 robocopy、jungledisk文件复制问题,amazon-s3,robocopy,jungledisk,Amazon S3,Robocopy,Jungledisk,我是robocopy的超级粉丝,广泛使用它在需要更新的各种服务器之间进行复制 最近,我一直在存档到一个AmazonS3帐户,我使用JungleDisk通过映射驱动器访问该帐户。然后我将我的文件从本地PC自动复制到S3 有时我在robocopy中收到一条非常奇怪的“函数不正确”错误消息,文件无法复制。我试过在文件浏览器窗口之间使用xcopy和直接复制粘贴。在每种情况下,我都会得到一些“不正确的函数”或“非法的MS-DOS函数”的变体,文件将永远不会复制 我删除了目标,但没有用 有什么想法吗?不知道

我是robocopy的超级粉丝,广泛使用它在需要更新的各种服务器之间进行复制

最近,我一直在存档到一个AmazonS3帐户,我使用JungleDisk通过映射驱动器访问该帐户。然后我将我的文件从本地PC自动复制到S3

有时我在robocopy中收到一条非常奇怪的“函数不正确”错误消息,文件无法复制。我试过在文件浏览器窗口之间使用xcopy和直接复制粘贴。在每种情况下,我都会得到一些“不正确的函数”或“非法的MS-DOS函数”的变体,文件将永远不会复制

我删除了目标,但没有用


有什么想法吗?

不知道你是否可以回答自己的问题,但我想我已经解决了

这是我在图书馆里找到的

最快的解决办法是把拉链拉上 文件,删除原始文件,然后解压缩 因为zip无法处理这些文件 扩展属性。另一个解决方案 就是将它们移动到一个胖文件系统, 然后再次移动到NTFS文件系统, 因为脂肪不能控制脂肪 属性

在这两种情况下,结果都是相同的 删除扩展属性,以及 这些文件可以移动到 荣格戴克

这些文件可以具有扩展属性 因为不同的原因,特别是 从其他文件系统迁移:在 我的案例是CVS的迁移 从ext2文件系统到 NTFS


似乎对我有用…

不知道你是否可以回答自己的问题,但我想我已经解决了

这是我在图书馆里找到的

最快的解决办法是把拉链拉上 文件,删除原始文件,然后解压缩 因为zip无法处理这些文件 扩展属性。另一个解决方案 就是将它们移动到一个胖文件系统, 然后再次移动到NTFS文件系统, 因为脂肪不能控制脂肪 属性

在这两种情况下,结果都是相同的 删除扩展属性,以及 这些文件可以移动到 荣格戴克

这些文件可以具有扩展属性 因为不同的原因,特别是 从其他文件系统迁移:在 我的案例是CVS的迁移 从ext2文件系统到 NTFS


似乎对我有用…

我在OSX和linux上都遇到过类似的问题。起初我并不担心,但后来我意识到这些问题可能会导致潜在的数据污染或备份失败。所以我放弃了JungleDisk,除了我的轻量级工作


由于数据集的大小,压缩/压缩文件不是我的选择。使用这种方法,您必须每次都上传整个数据集。

我在OSX和linux上都遇到过类似的问题。起初我并不担心,但后来我意识到这些问题可能会导致潜在的数据污染或备份失败。所以我放弃了JungleDisk,除了我的轻量级工作


由于数据集的大小,压缩/压缩文件不是我的选择。使用这种方法,您每次都必须上载整个数据集。

我不确定您引用的是哪些属性,但您可以使用/COPY:DT开关进行机器人复制以去除属性吗?

我不确定您引用的是哪些属性,但您可以使用/COPY:DT开关进行机器人复制以去除属性吗