Конфиги можно упаковывать в деб пакеты и собирать локальный репозитарий. Тогда их и бекапить нет нужды, и поставить еще одну реплику гораздо быстрее.
Соответвенно и каждый сайт можно упаковывать в deb пакет. Бекап данных имхо отдельная задача.
Бекап БД, разговор отдельный. Имхо удобно, чтобы независимые сущности(у тебя сайты) жили в разных базах (хотябы на уровне database mysql) тогда их можно бекапить независимо.
> Как следует делать бэкап данных приложений? Например, у нас есть 30 сайтов, надо ли сайты бэкапить поштучно? Или же следует разделить их на бэкапы ресурсов, т.е. например, отдельно бэкап var/www и отдельно бэкап всего sql?
Тут всё по вкусу, а вообще зависит сильно от объёмов данных, частоты выполнения бэкапов а также того, как оно бэкапится и хранится. Так, файлы среднестатистического сайта преимущественно меняются реже баз данных, поэтому их можно бэкапить просто пофайлово и часто (в зависимости от количества данных либо rsync --link-dest=..., либо инкрементальный tar: tar --listed-incremental=...), базы же, из-за их частого изменения, пофайлово имеет смысл копировать только чем-нибудь типа rdiff-backup'а, либо же хранить дампы с использованием какого-нибуть diff-механизма.
Но это всё применимо к "промышленному резервному копированию", если речь идёт о 30 сайтах, вероятно, имеет смысл бэкапы делать просто так, как будет удобнее.
Comments 6
Reply
Reply
Reply
Reply
Соответвенно и каждый сайт можно упаковывать в deb пакет. Бекап данных имхо отдельная задача.
Бекап БД, разговор отдельный. Имхо удобно, чтобы независимые сущности(у тебя сайты) жили в разных базах (хотябы на уровне database mysql) тогда их можно бекапить независимо.
Reply
Тут всё по вкусу, а вообще зависит сильно от объёмов данных, частоты выполнения бэкапов а также того, как оно бэкапится и хранится. Так, файлы среднестатистического сайта преимущественно меняются реже баз данных, поэтому их можно бэкапить просто пофайлово и часто (в зависимости от количества данных либо rsync --link-dest=..., либо инкрементальный tar: tar --listed-incremental=...), базы же, из-за их частого изменения, пофайлово имеет смысл копировать только чем-нибудь типа rdiff-backup'а, либо же хранить дампы с использованием какого-нибуть diff-механизма.
Но это всё применимо к "промышленному резервному копированию", если речь идёт о 30 сайтах, вероятно, имеет смысл бэкапы делать просто так, как будет удобнее.
Reply
Leave a comment