centos S3CMD超时

ghhkc1vu  于 2023-03-12  发布在  其他
关注(0)|答案(1)|浏览(133)

我试图创建一个好的脚本来备份我的文件到Amazon S3存储服务。考虑到这一点,我使用s3cmd工具,这似乎是非常有用的。但有一件事是困扰我坚韧。有时当我上传一个文件,它给我下面的消息错误:

s3cmd sync --skip-existing -r --check-md5 -p -H --progress ./files/ s3://company-backup/files/
./files/random-file.1 -> s3://company-backup//files/random-file.1  [1 of 11]
  3358720 of 14552064    23% in   10s   299.86 kB/s  failed
WARNING: Upload failed: ./files/random-file.1 (timed out)
WARNING: Retrying on lower speed (throttle=0.00)
WARNING: Waiting 3 sec...

所以我在网上找到了this post,它基本上是说增加配置文件中的socket_timeout,但是我怎么能计算出许多不同大小的文件的最佳timeout呢?我的意思是,有时我需要发送100MB和其他乘以10GB。最糟糕的是,当连接被timeout关闭时,它会尝试再次发送文件,但不是从停止的地方开始,而是从头开始,我真的需要避免这种情况。
1-如何知道socket_timeout的最佳值
2-如何保持我上传从那里停止它?(在情况下,当它给超时)

wtlkbnrh

wtlkbnrh1#

回答问题的第二部分。新版本的s3cmd在get和put上支持--continue parameter

相关问题