我试图创建一个好的脚本来备份我的文件到Amazon S3
存储服务。考虑到这一点,我使用s3cmd
工具,这似乎是非常有用的。但有一件事是困扰我坚韧。有时当我上传一个文件,它给我下面的消息错误:
s3cmd sync --skip-existing -r --check-md5 -p -H --progress ./files/ s3://company-backup/files/
./files/random-file.1 -> s3://company-backup//files/random-file.1 [1 of 11]
3358720 of 14552064 23% in 10s 299.86 kB/s failed
WARNING: Upload failed: ./files/random-file.1 (timed out)
WARNING: Retrying on lower speed (throttle=0.00)
WARNING: Waiting 3 sec...
所以我在网上找到了this post,它基本上是说增加配置文件中的socket_timeout
,但是我怎么能计算出许多不同大小的文件的最佳timeout
呢?我的意思是,有时我需要发送100MB
和其他乘以10GB
。最糟糕的是,当连接被timeout
关闭时,它会尝试再次发送文件,但不是从停止的地方开始,而是从头开始,我真的需要避免这种情况。
1-如何知道socket_timeout
的最佳值
2-如何保持我上传从那里停止它?(在情况下,当它给超时)
1条答案
按热度按时间wtlkbnrh1#
回答问题的第二部分。新版本的s3cmd在get和put上支持
--continue
parameter。