Question Est-il possible de développer des partitions en RAID1


Je songe à construire un NAS pour le ménage. Ce sera un simple fichier, imprimante, serveur rsync et bit-torrent en cours d'exécution FreeNAS. Le serveur aura deux disques 3,5 "SATA, je prévois de les mettre en miroir en utilisant le logiciel RAID1.

J'ai deux questions:

  1. Quel système de fichiers dois-je utiliser, le système de fichiers UFS ou ZFS par défaut? Pour autant que je sache, ZFS est très gourmand en mémoire et en processeur, est-ce que cela fonctionnera avec VIA C7? J'aime l'idée des instantanés ZFS mais je peux vivre sans eux si c'est trop exigeant.

  2. J'ai actuellement deux lecteurs: 640 Go et 1 To. Si je les utilise en RAID-1, la taille totale de la matrice correspondra à la taille minimale des deux disques, soit 640 Go. C'est bien pour le moment, mais que se passera-t-il si, dans un an, je reçois une nouvelle, disons 1,5 To,? La matrice RAID doit être reconstruite lorsque je remplace le plus petit disque par le nouveau, mais sera-t-il possible de passer de 640 Go au nouveau minimum - 1 To sans perdre les données?

Merci et désolé si je pose des questions triviales, je suis un gars de logiciel.

UPDATE: Pour répondre à la deuxième question, cet article de blog explique comment développer une partition RAID1 après avoir remplacé l'un des disques.


5
2017-10-30 10:55


origine




Réponses:


Règles ZFS, mais est limité par le choix du matériel (Stabilité ZFS), car les C7 sont en 32 bits (wikipedia indique qu'ils utilisent le jeu d'instructions x86) ZFS n'est peut-être pas la solution que vous recherchez. Si vous en décidez autrement (cela vous protège de la corruption des données et des disques défaillants), il existe des outils utiles. projets  sur

La matrice RAID doit être reconstruite lorsque je remplace le plus petit disque par le nouveau, mais sera-t-il possible de passer de 640 Go au nouveau minimum - 1 To sans perdre les données?

Cela ne devrait pas être un problème (je n'ai jamais utilisé FreeNAS), avec les contrôleurs RAID matériels, je l'ai déjà fait plusieurs fois:

  1. sauvegarder toutes vos données :)
  2. retirer le plus petit disque de la matrice
  3. insérez le nouveau disque
  4. reconstruire la matrice en utilisant le disque d'origine comme disque principal

Sinon, si vous souhaitez un redimensionnement dynamique totalement indolore du tableau et une redondance énorme, obtenez un Drobo (les modèles les plus récents sont nettement meilleurs) - vous ne pouvez toutefois pas l'exécuter comme un simple serveur. Donc, vous pouvez exécuter une ultra basse consommation SheevaPlug en tant que serveur (pas cher comme des frites) et branchez le Drobo dessus. C'est la solution ultra évolutive à faible consommation recommandée (limitée uniquement par la capacité maximale actuelle du disque dur).


2
2017-10-30 13:22



Merci pour votre réponse Andy. SheevaPlug semble intéressant mais je vais me procurer VIA Artigo A2000 [1]. [1] via.com.tw/en/products/embedded/artigo/a2000/index.jsp - Alexander Kojevnikov


A partir de la version 2.6.11 du noyau Linux, vous pouvez créer des partages ext3 redimensionnables. J'ai récemment fait la même chose dont vous parlez sur un serveur CentOS 5.4, qui comportait un raid1 utilisant un lecteur de 300 et 500 Go. Je voulais mettre à niveau le miroir, j'ai donc acheté un lecteur de 1 To qui devait remplacer le lecteur de 300 Go.

Tout d'abord, voici comment j'ai créé le raid1 avec les disques de 300 + 500 Go.

J'utilise généralement fdisk pour créer une seule partition sur un lecteur, en indiquant le type de partition fd (linux RAID). Ensuite, j'utilise mdadm pour créer un tableau RAID 1 logiciel.

mdadm --create --verbose /dev/md0 --level=1 --raid-devices=2 /dev/hda1 /dev/hdb1

Ensuite, je pose un groupe LVM (je l’ai nommé lvm-raid) au-dessus du tableau raid1.

vgcreate -s 8M lvm-raid /dev/md0

Déterminez le nombre d'étendues physiques disponibles dans le groupe de volumes. Vous pouvez utiliser la commande vgdisplay lvm-raid et rechercher la ligne "Total PE". Dans mon exemple, il s'agissait de 59617. Grâce à ces informations, je peux maintenant créer un volume logique dans le groupe de volumes lvm-raid.

lvcreate -l 59617 lvm-raid -n lvm0

Enfin, je mets la partition ext3 sur le volume logique.

mkfs.ext3 /dev/lvm-raid/lvm0

... Et voici comment j'ai migré le raid1 vers le lecteur de 500 Go + 1 To

J'ai ajouté le disque dur de 1 To en tant que disque de secours à raid1 et je l'ai synchronisé en tant que membre. Une fois la synchronisation effectuée, j'ai échoué puis, par la suite, j'ai retiré le lecteur de 300 Go. Cela m'a permis de porter le tableau raid1 à 500 Go, car le lecteur de 500 Go était désormais le plus petit membre du tableau. Mes notes sur cette étape manquent de détails mais je pense avoir fait ce qui suit:

mdadm --manage --add /dev/md0 /dev/sda1
mdadm --manage /dev/md0 --fail /dev/hda1

...wait for it to sync...
cat /proc/mdstat
...wait for it to sync...
cat /proc/mdstat

...sync is done...

mdadm /dev/md0 -r /dev/hda1

Cultivez le raid au maximum. taille des membres restants du tableau. Dans ce cas, nous avons un disque de 500 Go et 1 To dans le raid 1, nous pouvons donc augmenter le raid à 500 Go.

mdadm --grow /dev/md0 --size=max

Une fois que la matrice RAID atteignait 500 Go, j'ai exécuté les commandes suivantes pour utiliser l'espace supplémentaire disponible dans LVM et, éventuellement, le partage ext3.

J'ai d'abord le volume physique pour utiliser l'espace supplémentaire.

pvresize /dev/md0

Ensuite, j'ai exécuté la commande pvdisplay / dev / md0 pour déterminer combien "d'extensions libres" étaient maintenant disponibles. Dans mon cas, il s’agissait de 23845. J'ai donc lancé cette commande pour les absorber dans le volume logique.

lvextend -l +23845 /dev/lvm-raid/lvm0

Enfin, j'ai exécuté la commande resize2fs pour ajouter de l'espace supplémentaire au partage ext3.

resize2fs /dev/lvm-raid/lvm0

Voici à quoi ressemble resize2fs lors de son exécution:

resize2fs 1.39 (29-May-2006)
Filesystem at /dev/lvm-raid/lvm0 is mounted on /export/raid1; on-line resizing
required Performing an on-line resize of /dev/lvm-raid/lvm0 to 122095616 (4k) blocks. 
The filesystem on /dev/lvm-raid/lvm0 is now 122095616 blocks long.

Et quand tout est fini, df montre maintenant ceci:

Filesystem            Size  Used Avail Use% Mounted on
/dev/mapper/lvm--raid-lvm0
                      459G  256G  180G  59% /export/raid1

2
2017-12-28 05:53



FreeNAS est basé sur FreeBSD, pas sur Linux (donc l'option de ZFS). - Phil P