Files
docker-s3-backup/backup.sh

303 lines
11 KiB
Bash
Raw Normal View History

#!/bin/bash
#######################################################
# Universal Docker Project Backup Script
# Архивирует проект и загружает в S3
#######################################################
set -e # Остановка при ошибке
# Цвета для логов
RED='\033[0;31m'
GREEN='\033[0;32m'
YELLOW='\033[1;33m'
NC='\033[0m' # No Color
# Функция логирования
log() {
echo -e "${GREEN}[$(date '+%Y-%m-%d %H:%M:%S')]${NC} $1" >&2
}
log_error() {
echo -e "${RED}[$(date '+%Y-%m-%d %H:%M:%S')] ERROR:${NC} $1" >&2
}
log_warning() {
echo -e "${YELLOW}[$(date '+%Y-%m-%d %H:%M:%S')] WARNING:${NC} $1" >&2
}
# Проверка обязательных переменных окружения
check_env_vars() {
local missing_vars=()
if [ -z "$BACKUP_S3_BUCKET" ]; then missing_vars+=("BACKUP_S3_BUCKET"); fi
if [ -z "$BACKUP_S3_ACCESS_KEY" ]; then missing_vars+=("BACKUP_S3_ACCESS_KEY"); fi
if [ -z "$BACKUP_S3_SECRET_KEY" ]; then missing_vars+=("BACKUP_S3_SECRET_KEY"); fi
if [ -z "$BACKUP_S3_ENDPOINT" ]; then missing_vars+=("BACKUP_S3_ENDPOINT"); fi
if [ ${#missing_vars[@]} -ne 0 ]; then
log_error "Отсутствуют обязательные переменные окружения: ${missing_vars[*]}"
exit 1
fi
}
# Настройка AWS CLI для работы с S3
configure_aws() {
log "Настройка AWS CLI..."
export AWS_ACCESS_KEY_ID="$BACKUP_S3_ACCESS_KEY"
export AWS_SECRET_ACCESS_KEY="$BACKUP_S3_SECRET_KEY"
export AWS_DEFAULT_REGION="${BACKUP_S3_REGION:-ru-1}"
# Для S3-совместимых хранилищ (Yandex, Minio и т.д.)
if [ -n "$BACKUP_S3_ENDPOINT" ]; then
AWS_ENDPOINT_ARG="--endpoint-url=https://${BACKUP_S3_ENDPOINT}"
else
AWS_ENDPOINT_ARG=""
fi
}
# Остановка сервисов перед бекапом
stop_services() {
if [ -z "$BACKUP_STOP_SERVICES" ]; then
log "Список сервисов для остановки не указан, пропускаем..."
return 0
fi
# Ищем docker-compose.yml в директории бекапа
local compose_file="/backup-source/docker-compose.yml"
if [ ! -f "$compose_file" ]; then
# Пробуем docker-compose.yaml
compose_file="/backup-source/docker-compose.yaml"
fi
if [ ! -f "$compose_file" ]; then
log_error "Docker Compose файл не найден в /backup-source/"
return 1
fi
log "Остановка сервисов: ${BACKUP_STOP_SERVICES}"
log "Используется compose файл: ${compose_file}"
# Останавливаем указанные сервисы
docker compose -f "$compose_file" down $BACKUP_STOP_SERVICES || {
log_error "Ошибка при остановке сервисов"
return 1
}
log "Сервисы успешно остановлены"
# Даем время на корректное завершение
sleep 5
return 0
}
# Запуск сервисов после бекапа
start_services() {
if [ -z "$BACKUP_STOP_SERVICES" ]; then
return 0
fi
# Ищем docker-compose.yml в директории бекапа
local compose_file="/backup-source/docker-compose.yml"
if [ ! -f "$compose_file" ]; then
# Пробуем docker-compose.yaml
compose_file="/backup-source/docker-compose.yaml"
fi
if [ ! -f "$compose_file" ]; then
log_error "Docker Compose файл не найден в /backup-source/"
return 1
fi
log "Запуск сервисов: ${BACKUP_STOP_SERVICES}"
# Запускаем указанные сервисы в detached режиме
docker compose -f "$compose_file" up -d $BACKUP_STOP_SERVICES || {
log_error "Ошибка при запуске сервисов"
return 1
}
log "Сервисы успешно запущены"
return 0
}
# Создание архива
create_backup() {
local timestamp=$(date '+%Y-%m-%d_%H-%M-%S')
# Имя проекта берется из переменной окружения
local project_name="${BACKUP_PROJECT_NAME:-project}"
local backup_filename="${project_name}-backup-${timestamp}.tar.gz"
local backup_path="/tmp/${backup_filename}"
log "Начинается создание полного бэкапа проекта: ${backup_filename}"
log "Проект: ${project_name}"
log "Архивируется вся директория /backup-source/"
# Создаем полный архив всей директории БЕЗ ИСКЛЮЧЕНИЙ
log "Создание tar.gz архива..."
tar -czf "$backup_path" \
-C /backup-source \
--transform "s,^,${project_name}/," \
. || {
log_error "Ошибка создания архива"
return 1
}
# Получаем размер архива
local backup_size=$(du -h "$backup_path" | cut -f1)
log "Полный архив создан успешно: ${backup_filename} (размер: ${backup_size})"
# Возвращаем путь через глобальную переменную
BACKUP_FILE_PATH="$backup_path"
return 0
}
# Загрузка архива в S3
upload_to_s3() {
local backup_path="$1"
# Проверка существования файла
if [ ! -f "$backup_path" ]; then
log_error "Файл бэкапа не найден: $backup_path"
return 1
fi
local backup_filename=$(basename "$backup_path")
# Формируем путь с учетом BACKUP_S3_FOLDER
local s3_folder="${BACKUP_S3_FOLDER}"
if [ -n "$s3_folder" ]; then
# Удаляем начальный и конечный слэш, если есть
s3_folder="${s3_folder#/}"
s3_folder="${s3_folder%/}"
local s3_path="s3://${BACKUP_S3_BUCKET}/${s3_folder}/${backup_filename}"
else
local s3_path="s3://${BACKUP_S3_BUCKET}/${backup_filename}"
fi
log "Загрузка бэкапа в S3: ${s3_path}"
aws s3 cp "$backup_path" "$s3_path" $AWS_ENDPOINT_ARG || {
log_error "Ошибка загрузки в S3"
return 1
}
log "Бэкап успешно загружен в S3"
}
# Удаление старых бэкапов из S3
cleanup_old_backups() {
local retention_days="${BACKUP_RETENTION_DAYS:-30}"
log "Очистка старых бэкапов (старше ${retention_days} дней)..."
# Вычисляем дату отсечения (совместимо с BusyBox)
local retention_seconds=$((retention_days * 86400))
local current_timestamp=$(date +%s)
local cutoff_timestamp=$((current_timestamp - retention_seconds))
local cutoff_date=$(date -d "@${cutoff_timestamp}" '+%Y-%m-%d' 2>/dev/null || date -r "${cutoff_timestamp}" '+%Y-%m-%d' 2>/dev/null || echo "")
if [ -z "$cutoff_date" ]; then
log_warning "Не удалось вычислить дату отсечения, пропускаем очистку"
return 0
fi
log "Удаление бэкапов старше ${cutoff_date}..."
# Формируем путь с учетом BACKUP_S3_FOLDER
local s3_folder="${BACKUP_S3_FOLDER}"
if [ -n "$s3_folder" ]; then
s3_folder="${s3_folder#/}"
s3_folder="${s3_folder%/}"
local s3_list_path="s3://${BACKUP_S3_BUCKET}/${s3_folder}/"
else
local s3_list_path="s3://${BACKUP_S3_BUCKET}/"
fi
# Получаем список всех бэкапов
aws s3 ls "${s3_list_path}" $AWS_ENDPOINT_ARG | grep "\-backup-" | while read -r line; do
# Извлекаем дату из имени файла (*-backup-YYYY-MM-DD_HH-MM-SS.tar.gz)
local filename=$(echo "$line" | awk '{print $4}')
local file_date=$(echo "$filename" | sed -n 's/.*-backup-\([0-9]\{4\}-[0-9]\{2\}-[0-9]\{2\}\).*/\1/p')
if [ -n "$file_date" ] && [ "$file_date" \< "$cutoff_date" ]; then
log "Удаление старого бэкапа: ${filename}"
if [ -n "$s3_folder" ]; then
aws s3 rm "s3://${BACKUP_S3_BUCKET}/${s3_folder}/${filename}" $AWS_ENDPOINT_ARG || {
log_warning "Не удалось удалить ${filename}"
}
else
aws s3 rm "s3://${BACKUP_S3_BUCKET}/${filename}" $AWS_ENDPOINT_ARG || {
log_warning "Не удалось удалить ${filename}"
}
fi
fi
done
log "Очистка завершена"
}
# Основная функция
main() {
log "=========================================="
log "Запуск процесса бэкапа проекта"
log "=========================================="
# Проверка переменных окружения
check_env_vars
# Настройка AWS CLI
configure_aws
# Остановка сервисов перед бекапом
stop_services || {
log_error "Не удалось остановить сервисы"
exit 1
}
# Создание бэкапа
create_backup || {
log_error "Не удалось создать бэкап"
# Пытаемся запустить сервисы обратно даже при ошибке
start_services
exit 1
}
# Запуск сервисов после создания бекапа
start_services || {
log_warning "Не удалось запустить сервисы, но бэкап создан"
}
# Загрузка в S3
upload_to_s3 "$BACKUP_FILE_PATH" || {
log_error "Не удалось загрузить бэкап в S3"
rm -f "$BACKUP_FILE_PATH"
exit 1
}
# Очистка временного файла
rm -f "$BACKUP_FILE_PATH"
log "Временный файл удален"
# Очистка всех старых временных файлов бэкапа из /tmp
log "Очистка старых временных файлов..."
find /tmp -name "*-backup-*.tar.gz" -type f -mmin +60 -delete 2>/dev/null || true
# Очистка старых бэкапов
cleanup_old_backups
log "=========================================="
log "Бэкап завершен успешно!"
log "=========================================="
}
# Запуск
main