Обновлены скрипты и конфигурации для улучшения резервного копирования

- Изменено имя папки в S3 на имя проекта по умолчанию
- Обновлено количество хранимых версий бэкапов вместо дней
- Изменено расписание запуска бэкапов на 05:00
- Обновлены переменные окружения в примерах и документации
- Улучшено логирование и обработка старых бэкапов
This commit is contained in:
2025-10-22 10:24:53 +03:00
parent c982c4e359
commit f8e0267b54
6 changed files with 130 additions and 260 deletions

View File

@@ -36,6 +36,9 @@ RUN chmod +x /scripts/backup.sh /scripts/entrypoint.sh
# Устанавливаем рабочую директорию # Устанавливаем рабочую директорию
WORKDIR /scripts WORKDIR /scripts
# Устанавливаем дефолтный часовой пояс
ENV TZ=Europe/Moscow
# Запускаем entrypoint # Запускаем entrypoint
CMD ["/scripts/entrypoint.sh"] CMD ["/scripts/entrypoint.sh"]

263
README.md
View File

@@ -1,138 +1,99 @@
# 🗄️ Universal Docker Backup Service # Docker S3 Backup
![Build Status](https://github.com/USERNAME/docker-s3-backup/actions/workflows/docker-build.yml/badge.svg) Автоматическое резервное копирование Docker-проектов в S3-хранилище по расписанию.
Универсальная система автоматического резервного копирования Docker-проектов с загрузкой в S3-совместимое хранилище. ## Что делает
## ✨ Возможности - Создаёт полный архив директории проекта
- Загружает в S3-совместимое хранилище (Yandex Cloud, Timeweb, AWS S3, MinIO)
- Работает по расписанию cron (по умолчанию: каждый день в 05:00 МСК)
- Хранит только последние N версий бэкапов (по умолчанию: 30)
- Сохраняет бекапы в папку с именем проекта: `s3://bucket/project-name/`
- Опционально останавливает сервисы перед бекапом
- ✅ Автоматическое создание tar.gz архивов по расписанию (cron) ## Быстрый старт
- ✅ Загрузка бэкапов в S3-совместимые хранилища (Yandex Cloud, AWS S3, MinIO, Timeweb и т.д.)
- ✅ Опциональная остановка сервисов перед бекапом для консистентности данных
- ✅ Автоматическое удаление старых бэкапов
- ✅ Подробное логирование всех операций
- ✅ Запуск в отдельном Docker-контейнере
## 🚀 Быстрый старт Создайте `docker-compose.yaml`:
### Вариант 1: Использование готового образа (рекомендуется)
Создайте `docker-compose.yaml` в директории вашего проекта:
```yaml ```yaml
services: services:
backup: backup:
image: ghcr.io/USERNAME/docker-s3-backup:latest image: ghcr.io/gromov-io/docker-s3-backup:latest
container_name: project-backup container_name: project-backup
restart: unless-stopped restart: unless-stopped
environment: environment:
# Ваши настройки (см. ниже) - BACKUP_PROJECT_NAME=my-project
- BACKUP_S3_BUCKET=my-backups
- BACKUP_S3_ENDPOINT=s3.twcstorage.ru
- BACKUP_S3_ACCESS_KEY=your_key
- BACKUP_S3_SECRET_KEY=your_secret
volumes: volumes:
- .:/backup-source:ro - .:/backup-source:ro
- /var/run/docker.sock:/var/run/docker.sock:ro - /var/run/docker.sock:/var/run/docker.sock:ro
``` ```
### Вариант 2: Сборка из исходников Запустите:
Скопируйте файлы в директорию вашего проекта, который нужно бекапить:
```bash
git clone <this-repo> backup-system
cd your-project
cp -r backup-system/* .
```
### Настройка
Отредактируйте `docker-compose.yaml` и укажите свои значения переменных окружения:
```yaml
environment:
# Обязательные параметры
- BACKUP_PROJECT_NAME=my-project
- BACKUP_S3_BUCKET=my-backups
- BACKUP_S3_ENDPOINT=s3.twcstorage.ru
- BACKUP_S3_ACCESS_KEY=your_access_key
- BACKUP_S3_SECRET_KEY=your_secret_key
# Необязательные параметры
- BACKUP_SCHEDULE=0 3 * * * # Каждый день в 03:00
- BACKUP_RETENTION_DAYS=30
```
### Запуск
```bash ```bash
docker compose up -d backup docker compose up -d backup
``` ```
Проверить логи: **По умолчанию:**
- Часовой пояс: `Europe/Moscow`
- Расписание: каждый день в `05:00`
- Хранение: `30` последних версий
- Папка в S3: `{project-name}/`
## Ручной запуск бекапа
```bash ```bash
docker compose logs -f backup docker exec project-backup /scripts/backup.sh
``` ```
> **Примечание:** Замените `USERNAME` в URL образа на ваш GitHub username после публикации проекта. ## Переменные окружения
## 📋 Переменные окружения ### Обязательные
Все параметры подробно описаны в `docker-compose.yaml` с примерами использования. | Переменная | Описание | Пример |
|------------|----------|--------|
| `BACKUP_S3_BUCKET` | S3 бакет | `my-backups` |
| `BACKUP_S3_ENDPOINT` | S3 эндпоинт | `s3.twcstorage.ru` |
| `BACKUP_S3_ACCESS_KEY` | Ключ доступа | `your_key` |
| `BACKUP_S3_SECRET_KEY` | Секретный ключ | `your_secret` |
### Обязательные параметры ### Опциональные
| Параметр | Описание | Пример | | Переменная | По умолчанию | Описание |
|----------|----------|--------| |------------|--------------|----------|
| `BACKUP_S3_BUCKET` | Имя S3 бакета | `my-backups` | | `TZ` | `Europe/Moscow` | Часовой пояс |
| `BACKUP_S3_ENDPOINT` | Эндпоинт S3 сервиса | `s3.twcstorage.ru` | | `BACKUP_PROJECT_NAME` | `project` | Имя проекта |
| `BACKUP_S3_ACCESS_KEY` | Ключ доступа S3 | `your_key` | | `BACKUP_SCHEDULE` | `0 5 * * *` | Расписание cron |
| `BACKUP_S3_SECRET_KEY` | Секретный ключ S3 | `your_secret` | | `BACKUP_RETENTION_COUNT` | `30` | Количество версий |
### Необязательные параметры
| Параметр | Значение по умолчанию | Описание |
|----------|----------------------|----------|
| `BACKUP_PROJECT_NAME` | `project` | Имя проекта для архивов |
| `BACKUP_S3_FOLDER` | ` ` (корень) | Папка внутри бакета |
| `BACKUP_S3_REGION` | `ru-1` | Регион S3 | | `BACKUP_S3_REGION` | `ru-1` | Регион S3 |
| `BACKUP_RETENTION_DAYS` | `30` | Дни хранения бэкапов | | `BACKUP_S3_FOLDER` | `{project}` | Папка в бакете |
| `BACKUP_SCHEDULE` | `0 3 * * *` | Расписание cron |
| `BACKUP_ON_START` | `false` | Бекап при старте | | `BACKUP_ON_START` | `false` | Бекап при старте |
| `BACKUP_STOP_SERVICES` | ` ` | Сервисы для остановки | | `BACKUP_STOP_SERVICES` | - | Сервисы для остановки |
| `BACKUP_COMPOSE_FILE` | ` ` | Путь к compose-файлу |
## 🛠️ Расширенные сценарии
### Остановка сервисов перед бекапом ## Полезные команды
Для консистентности данных можно останавливать сервисы перед созданием архива: **Просмотр логов:**
```bash
```yaml docker logs -f project-backup
environment: docker exec project-backup tail -f /var/log/backup.log
# ... другие параметры ...
- BACKUP_STOP_SERVICES=gitea gitea-db
- BACKUP_COMPOSE_FILE=/backup-source/docker-compose.yml
``` ```
**Важно:** **Проверка S3:**
- Сервисы будут остановлены через `docker compose down` ```bash
- После создания архива сервисы автоматически запустятся через `docker compose up -d` docker exec project-backup aws s3 ls s3://your-bucket --endpoint-url=https://your-endpoint
- Если бекап упадет с ошибкой - сервисы все равно запустятся обратно
### Изменение директории для бекапа
По умолчанию бекапится текущая директория (`.`). Чтобы изменить:
```yaml
volumes:
- /path/to/your/project:/backup-source:ro
# ... остальные volumes ...
``` ```
### Примеры расписаний (cron)
## Расписания cron
```yaml ```yaml
# Каждый день в 03:00 # Каждый день в 05:00
- BACKUP_SCHEDULE=0 3 * * * - BACKUP_SCHEDULE=0 5 * * *
# Каждые 6 часов # Каждые 6 часов
- BACKUP_SCHEDULE=0 */6 * * * - BACKUP_SCHEDULE=0 */6 * * *
@@ -142,123 +103,21 @@ volumes:
# Каждые 30 минут # Каждые 30 минут
- BACKUP_SCHEDULE=*/30 * * * * - BACKUP_SCHEDULE=*/30 * * * *
# Дважды в день: 03:00 и 15:00
- BACKUP_SCHEDULE=0 3,15 * * *
``` ```
### Тестовый бекап ## Остановка сервисов
Для проверки настроек запустите бекап вручную: Для консистентности данных можно останавливать сервисы:
```bash
docker compose exec backup /scripts/backup.sh
```
Или включите бекап при старте:
```yaml ```yaml
- BACKUP_ON_START=true environment:
- BACKUP_STOP_SERVICES=app db
``` ```
## 📂 Формат архивов Сервисы автоматически запустятся после создания архива.
Архивы создаются в формате:
``` ## Лицензия
{BACKUP_PROJECT_NAME}-backup-YYYY-MM-DD_HH-MM-SS.tar.gz
```
Пример: `my-project-backup-2025-10-22_03-00-00.tar.gz`
## 🔧 Структура проекта
```
.
├── backup.sh # Основной скрипт бекапа
├── entrypoint.sh # Точка входа контейнера
├── crontab # Шаблон cron (генерируется автоматически)
├── Dockerfile # Образ контейнера
├── docker-compose.yaml # Конфигурация сервиса
└── README.md # Документация
```
## 🐛 Решение проблем
### Проверка логов
```bash
# Все логи
docker compose logs backup
# Логи в реальном времени
docker compose logs -f backup
# Внутренние логи бекапа
docker compose exec backup cat /var/log/backup.log
```
### Проверка доступа к S3
```bash
docker compose exec backup aws s3 ls s3://your-bucket --endpoint-url=https://your-endpoint
```
### Ручной запуск бекапа
```bash
docker compose exec backup /scripts/backup.sh
```
## 📊 S3-провайдеры
### Yandex Cloud Object Storage
```yaml
- BACKUP_S3_ENDPOINT=storage.yandexcloud.net
- BACKUP_S3_REGION=ru-central1
```
### Timeweb Cloud S3
```yaml
- BACKUP_S3_ENDPOINT=s3.twcstorage.ru
- BACKUP_S3_REGION=ru-1
```
### AWS S3
```yaml
- BACKUP_S3_ENDPOINT=s3.amazonaws.com
- BACKUP_S3_REGION=us-east-1
```
### MinIO (self-hosted)
```yaml
- BACKUP_S3_ENDPOINT=minio.your-domain.com
- BACKUP_S3_REGION=us-east-1
```
## 🔄 CI/CD
Проект использует GitHub Actions для автоматической сборки и публикации Docker-образов:
- **Сборка:** При каждом push в main/master
- **Публикация:** Автоматическая публикация в GitHub Container Registry (ghcr.io)
- **Платформы:** Поддержка amd64 и arm64 архитектур
- **Теги:**
- `latest` - последняя версия из main/master
- `v1.0.0` - семантическое версионирование при создании тегов
- `main-sha` - образы с хешем коммита
Готовые образы доступны по адресу: `ghcr.io/USERNAME/docker-s3-backup`
## 📝 Лицензия
MIT MIT
## 🤝 Поддержка
При возникновении проблем создайте issue в репозитории.

View File

@@ -169,17 +169,17 @@ upload_to_s3() {
fi fi
local backup_filename=$(basename "$backup_path") local backup_filename=$(basename "$backup_path")
local project_name="${BACKUP_PROJECT_NAME:-project}"
# Формируем путь с учетом BACKUP_S3_FOLDER # Формируем путь с учетом BACKUP_S3_FOLDER
local s3_folder="${BACKUP_S3_FOLDER}" # По умолчанию используется имя проекта как папка
if [ -n "$s3_folder" ]; then local s3_folder="${BACKUP_S3_FOLDER:-$project_name}"
# Удаляем начальный и конечный слэш, если есть
s3_folder="${s3_folder#/}" # Удаляем начальный и конечный слэш, если есть
s3_folder="${s3_folder%/}" s3_folder="${s3_folder#/}"
local s3_path="s3://${BACKUP_S3_BUCKET}/${s3_folder}/${backup_filename}" s3_folder="${s3_folder%/}"
else
local s3_path="s3://${BACKUP_S3_BUCKET}/${backup_filename}" local s3_path="s3://${BACKUP_S3_BUCKET}/${s3_folder}/${backup_filename}"
fi
log "Загрузка бэкапа в S3: ${s3_path}" log "Загрузка бэкапа в S3: ${s3_path}"
@@ -193,51 +193,55 @@ upload_to_s3() {
# Удаление старых бэкапов из S3 # Удаление старых бэкапов из S3
cleanup_old_backups() { cleanup_old_backups() {
local retention_days="${BACKUP_RETENTION_DAYS:-30}" local retention_count="${BACKUP_RETENTION_COUNT:-30}"
log "Очистка старых бэкапов (старше ${retention_days} дней)..." log "Очистка старых бэкапов (храним последние ${retention_count} версий)..."
# Вычисляем дату отсечения (совместимо с BusyBox) # Формируем путь с учетом BACKUP_S3_FOLDER
local retention_seconds=$((retention_days * 86400)) # По умолчанию используется имя проекта как папка
local current_timestamp=$(date +%s) local project_name="${BACKUP_PROJECT_NAME:-project}"
local cutoff_timestamp=$((current_timestamp - retention_seconds)) local s3_folder="${BACKUP_S3_FOLDER:-$project_name}"
local cutoff_date=$(date -d "@${cutoff_timestamp}" '+%Y-%m-%d' 2>/dev/null || date -r "${cutoff_timestamp}" '+%Y-%m-%d' 2>/dev/null || echo "")
if [ -z "$cutoff_date" ]; then # Удаляем начальный и конечный слэш, если есть
log_warning "Не удалось вычислить дату отсечения, пропускаем очистку" s3_folder="${s3_folder#/}"
s3_folder="${s3_folder%/}"
local s3_list_path="s3://${BACKUP_S3_BUCKET}/${s3_folder}/"
# Получаем список всех бэкапов и сортируем по дате (новые первые)
local backup_list=$(aws s3 ls "${s3_list_path}" $AWS_ENDPOINT_ARG | grep "\-backup-" | awk '{print $4}' | sort -r)
if [ -z "$backup_list" ]; then
log "Бэкапы не найдены"
return 0 return 0
fi fi
log "Удаление бэкапов старше ${cutoff_date}..." local total_backups=$(echo "$backup_list" | wc -l)
log "Найдено бэкапов: ${total_backups}"
# Формируем путь с учетом BACKUP_S3_FOLDER # Если бэкапов меньше или равно лимиту, ничего не удаляем
local s3_folder="${BACKUP_S3_FOLDER}" if [ "$total_backups" -le "$retention_count" ]; then
if [ -n "$s3_folder" ]; then log "Количество бэкапов в пределах лимита, удаление не требуется"
s3_folder="${s3_folder#/}" return 0
s3_folder="${s3_folder%/}"
local s3_list_path="s3://${BACKUP_S3_BUCKET}/${s3_folder}/"
else
local s3_list_path="s3://${BACKUP_S3_BUCKET}/"
fi fi
# Получаем список всех бэкапов # Удаляем старые бэкапы (все после N последних)
aws s3 ls "${s3_list_path}" $AWS_ENDPOINT_ARG | grep "\-backup-" | while read -r line; do local deleted_count=0
# Извлекаем дату из имени файла (*-backup-YYYY-MM-DD_HH-MM-SS.tar.gz) local index=0
local filename=$(echo "$line" | awk '{print $4}')
local file_date=$(echo "$filename" | sed -n 's/.*-backup-\([0-9]\{4\}-[0-9]\{2\}-[0-9]\{2\}\).*/\1/p') echo "$backup_list" | while read -r filename; do
index=$((index + 1))
if [ -n "$file_date" ] && [ "$file_date" \< "$cutoff_date" ]; then # Пропускаем первые N (самые новые)
log "Удаление старого бэкапа: ${filename}" if [ "$index" -le "$retention_count" ]; then
if [ -n "$s3_folder" ]; then continue
aws s3 rm "s3://${BACKUP_S3_BUCKET}/${s3_folder}/${filename}" $AWS_ENDPOINT_ARG || {
log_warning "Не удалось удалить ${filename}"
}
else
aws s3 rm "s3://${BACKUP_S3_BUCKET}/${filename}" $AWS_ENDPOINT_ARG || {
log_warning "Не удалось удалить ${filename}"
}
fi
fi fi
log "Удаление старого бэкапа: ${filename}"
aws s3 rm "s3://${BACKUP_S3_BUCKET}/${s3_folder}/${filename}" $AWS_ENDPOINT_ARG || {
log_warning "Не удалось удалить ${filename}"
}
deleted_count=$((deleted_count + 1))
done done
log "Очистка завершена" log "Очистка завершена"

View File

@@ -10,7 +10,7 @@ services:
restart: unless-stopped restart: unless-stopped
environment: environment:
- TZ=Europe/Moscow - TZ=${TZ:-Europe/Moscow}
# Имя проекта (используется в названии архива: {name}-backup-2025-10-22_03-00-00.tar.gz) # Имя проекта (используется в названии архива: {name}-backup-2025-10-22_03-00-00.tar.gz)
- BACKUP_PROJECT_NAME=${BACKUP_PROJECT_NAME:-project} - BACKUP_PROJECT_NAME=${BACKUP_PROJECT_NAME:-project}
@@ -18,7 +18,7 @@ services:
# S3 бакет для хранения бэкапов (обязательно) # S3 бакет для хранения бэкапов (обязательно)
- BACKUP_S3_BUCKET=${BACKUP_S3_BUCKET} - BACKUP_S3_BUCKET=${BACKUP_S3_BUCKET}
# Папка внутри бакета (необязательно, по умолчанию - корень) # Папка внутри бакета (необязательно, по умолчанию - имя проекта)
- BACKUP_S3_FOLDER=${BACKUP_S3_FOLDER:-} - BACKUP_S3_FOLDER=${BACKUP_S3_FOLDER:-}
# Эндпоинт S3 сервиса (обязательно): s3.twcstorage.ru, storage.yandexcloud.net и т.д. # Эндпоинт S3 сервиса (обязательно): s3.twcstorage.ru, storage.yandexcloud.net и т.д.
@@ -31,11 +31,11 @@ services:
# Регион S3 # Регион S3
- BACKUP_S3_REGION=${BACKUP_S3_REGION:-ru-1} - BACKUP_S3_REGION=${BACKUP_S3_REGION:-ru-1}
# Количество дней хранения бэкапов (автоматически удаляются старые) # Количество последних версий бэкапов для хранения (автоматически удаляются старые)
- BACKUP_RETENTION_DAYS=${BACKUP_RETENTION_DAYS:-30} - BACKUP_RETENTION_COUNT=${BACKUP_RETENTION_COUNT:-30}
# Расписание запуска в формате cron: "0 3 * * *" = каждый день в 03:00 # Расписание запуска в формате cron: "0 5 * * *" = каждый день в 05:00 МСК
- BACKUP_SCHEDULE=${BACKUP_SCHEDULE:-0 3 * * *} - BACKUP_SCHEDULE=${BACKUP_SCHEDULE:-0 5 * * *}
# Запускать ли бэкап сразу при старте контейнера (true/false) # Запускать ли бэкап сразу при старте контейнера (true/false)
- BACKUP_ON_START=${BACKUP_ON_START:-false} - BACKUP_ON_START=${BACKUP_ON_START:-false}

View File

@@ -5,11 +5,11 @@ echo "Universal Docker Project Backup Service"
echo "================================================" echo "================================================"
echo "Project: ${BACKUP_PROJECT_NAME:-project}" echo "Project: ${BACKUP_PROJECT_NAME:-project}"
echo "Source Path: ${BACKUP_SOURCE_PATH:-.} (mounted as /backup-source)" echo "Source Path: ${BACKUP_SOURCE_PATH:-.} (mounted as /backup-source)"
echo "Timezone: ${TZ:-UTC}" echo "Timezone: ${TZ:-Europe/Moscow}"
echo "Backup Schedule: ${BACKUP_SCHEDULE:-0 3 * * *}" echo "Backup Schedule: ${BACKUP_SCHEDULE:-0 5 * * *}"
echo "S3 Endpoint: ${BACKUP_S3_ENDPOINT:-не указан}" echo "S3 Endpoint: ${BACKUP_S3_ENDPOINT:-не указан}"
echo "S3 Bucket: ${BACKUP_S3_BUCKET:-не указан}" echo "S3 Bucket: ${BACKUP_S3_BUCKET:-не указан}"
echo "Retention Days: ${BACKUP_RETENTION_DAYS:-30}" echo "Retention Count: ${BACKUP_RETENTION_COUNT:-30} последних версий"
echo "Backup Type: Full project directory" echo "Backup Type: Full project directory"
if [ -n "$BACKUP_STOP_SERVICES" ]; then if [ -n "$BACKUP_STOP_SERVICES" ]; then
echo "Services to stop: ${BACKUP_STOP_SERVICES}" echo "Services to stop: ${BACKUP_STOP_SERVICES}"
@@ -25,9 +25,9 @@ if [ -z "$BACKUP_S3_BUCKET" ] || [ -z "$BACKUP_S3_ACCESS_KEY" ] || [ -z "$BACKUP
fi fi
# Создаем crontab файл с заданным расписанием # Создаем crontab файл с заданным расписанием
echo "${BACKUP_SCHEDULE:-0 3 * * *} /scripts/backup.sh >> /var/log/backup.log 2>&1" > /scripts/crontab echo "${BACKUP_SCHEDULE:-0 5 * * *} /scripts/backup.sh >> /var/log/backup.log 2>&1" > /scripts/crontab
echo "Расписание установлено: ${BACKUP_SCHEDULE:-0 3 * * *}" echo "Расписание установлено: ${BACKUP_SCHEDULE:-0 5 * * *}"
echo "Логи сохраняются в: /var/log/backup.log" echo "Логи сохраняются в: /var/log/backup.log"
echo "================================================" echo "================================================"

View File

@@ -5,6 +5,9 @@
# в S3-совместимое хранилище. Бэкап запускается по расписанию в отдельном Docker контейнере. # в S3-совместимое хранилище. Бэкап запускается по расписанию в отдельном Docker контейнере.
# =========================================== # ===========================================
# Часовой пояс (по умолчанию: Europe/Moscow)
TZ=Europe/Moscow
# Путь к директории для бекапа (необязательно, по умолчанию - текущая директория) # Путь к директории для бекапа (необязательно, по умолчанию - текущая директория)
# Примеры: /var/www/project, /home/user/my-project # Примеры: /var/www/project, /home/user/my-project
BACKUP_SOURCE_PATH= BACKUP_SOURCE_PATH=
@@ -16,7 +19,8 @@ BACKUP_PROJECT_NAME=project
# S3 бакет для хранения бэкапов (обязательно) # S3 бакет для хранения бэкапов (обязательно)
BACKUP_S3_BUCKET= BACKUP_S3_BUCKET=
# Папка внутри S3 бакета (необязательно, по умолчанию - корень) # Папка внутри S3 бакета (необязательно, по умолчанию - имя проекта из BACKUP_PROJECT_NAME)
# Если не указано, бекапы сохраняются в s3://bucket/[BACKUP_PROJECT_NAME]/
# Примеры: backups, project/backups, prod/backups # Примеры: backups, project/backups, prod/backups
BACKUP_S3_FOLDER= BACKUP_S3_FOLDER=
@@ -31,9 +35,9 @@ BACKUP_S3_SECRET_KEY=
# Регион S3 (по умолчанию: ru-1) # Регион S3 (по умолчанию: ru-1)
BACKUP_S3_REGION=ru-1 BACKUP_S3_REGION=ru-1
# Количество дней хранения старых бэкапов (по умолчанию: 30) # Количество последних версий бэкапов для хранения (по умолчанию: 30)
# Бэкапы старше указанного количества дней будут автоматически удалены # Будут сохранены только последние N бэкапов, остальные автоматически удалятся
BACKUP_RETENTION_DAYS=30 BACKUP_RETENTION_COUNT=30
# Расписание запуска бэкапа в формате cron (по умолчанию: 0 3 * * * - каждый день в 03:00) # Расписание запуска бэкапа в формате cron (по умолчанию: 0 3 * * * - каждый день в 03:00)
# Формат: минута час день месяц день_недели # Формат: минута час день месяц день_недели