Как сделать бекап с минимум использования диска? Каждый день делается mysqldump (300 баз), каждая база в своем файле, итого ~20GB, ужимается в один bz2 файл 1GB, далее фрхив улетает в amazon glacer. Проблема в том что на сервере нет 20GB под файлы, а bz2 требует* целого tar файла при сжатии, как выкрутится?
Если у вас ограничены ресурсы на сервере и вам не хватает места для хранения временных файлов, можно попробовать другой подход:
Используйте команду mysqldump с опцией | gzip >, чтобы сжимать каждый файл сразу после выгрузки данных: mysqldump -u username -ppassword database_name1 | gzip > database_name1.sql.gzЗатем отправляйте сжатые файлы на Amazon Glacier: aws s3 cp database_name1.sql.gz s3://your-bucket-name/
Таким образом, вы сможете сразу сжимать данные и отправлять их на хранилище, не создавая дополнительных временных файлов.
Также рекомендуется оптимизировать процесс резервного копирования и улучшить его эффективность, например, уменьшив размер файловой системы баз данных или применив инкрементные бекапы.
Если у вас ограничены ресурсы на сервере и вам не хватает места для хранения временных файлов, можно попробовать другой подход:
Используйте команду mysqldump с опцией | gzip >, чтобы сжимать каждый файл сразу после выгрузки данных:mysqldump -u username -ppassword database_name1 | gzip > database_name1.sql.gzЗатем отправляйте сжатые файлы на Amazon Glacier:
aws s3 cp database_name1.sql.gz s3://your-bucket-name/
Таким образом, вы сможете сразу сжимать данные и отправлять их на хранилище, не создавая дополнительных временных файлов.
Также рекомендуется оптимизировать процесс резервного копирования и улучшить его эффективность, например, уменьшив размер файловой системы баз данных или применив инкрементные бекапы.