Question Cache de duplicité de très grande taille


J'utilise actuellement un script de duplicité pour sauvegarder mon serveur Centos 110G / 2T sur un serveur sftp 2T.

Depuis 4 jours passés, la duplicité n'a sauvegardé que 90G. Ce n'est pas un problème. Le problème principal est J'ai près de 600G de cache que la duplicité générée à "/user/.cache/duplicity". Cette taille n'est pas normale alors que dois-je faire? La duplicité réduira-t-elle ou supprimera-t-elle ces fichiers et dossiers de cache une fois la tâche terminée? La duplicité sauvegardera-t-elle aussi son cache (je n'ai pas exclu le dossier / user)?

Information additionnelle: J'utilise le serveur Hetzner et voici le script de sauvegarde que j'utilise: https://wiki.hetzner.de/index.php/Duplicity_Script/en

En outre, je viens d'exclure les répertoires proc, sys et dev de la racine (et de sauvegarder tout le reste à partir de la racine, car je voulais une sauvegarde complète du serveur).


7
2018-04-06 14:41


origine


J'ai déjà vu cela auparavant. Je n'ai jamais vu de solution auparavant. Mais le cache est sûr à supprimer, tant que la duplicité n'est pas en cours d'exécution. - Michael Hampton♦
Le cache local peut être supprimé en toute sécurité. Mais re-télécharger, pour autant que je sache. - user18099


Réponses:


Selon le liste de diffusion

vous devrez l'exclure manuellement.

il contient les fichiers d’index de vos chaînes de sauvegarde (table des matières du   référentiel de sauvegarde). Les mettre en cache localement accélère des options telles que   statut et sauvegarde incrémentielle et autres. Ces opérations doivent   savoir ce qui est déjà sauvegardé au travail. S'ils sont mis en cache, ils ne le font pas   besoin d'être transféré et déchiffré à chaque fois, encore et encore.

.. ede

Pour le reste, cela semble être un bug de longue date.

Sur le gestionnaire de bogues Debian, ils recommandent de

duplicity cleanup --extra-clean --force ....

Attention: Le suggéré --extra-clean Cette option est dangereuse et peut vous mordre très fort. Il fait des sauvegardes insupportable par les moyens habituels.


6
2018-04-06 22:54



Merci beaucoup pour votre réponse, je dois donc exclure ces dossiers. Ce que je dois demander maintenant, c'est cette commande que vous m'avez donnée "nettoyage de duplicité --extra-clean --force ....". Dois-je l'utiliser à la fin du processus de sauvegarde ou à chaque fois que j'en ai besoin? - Bahadir Tasdemir
À propos de cette recommandation: Vous devez être TRÈS sûr de gérer des sauvegardes plus anciennes que la chaîne de sauvegarde active actuelle (1 semaine?). Avant de PURGER les métadonnées avec --extra-clean. Vous aurez besoin de ces anciennes métadonnées pour la restauration d'anciennes sauvegardes. - user18099


Lorsque nous avons commencé à nettoyer à distance des sauvegardes très anciennes (S3), des commandes doubles ont alors commencé à supprimer automatiquement les très anciennes métadonnées locales.

Autrement dit, nous ne conservons des sauvegardes que depuis x mois. Et la taille du cache de métadonnées locales a été réduite en conséquence.


0
2017-07-13 08:31