Question Espace manquant sur ZFS (Nexenta)


Je suis confronté à un problème où ZFS semble manquer d'environ 4 To d'espace sur un volume de 16 To.

Le pool ZFS signale la taille correcte (16,3 To):

nmc@thn-nstor1:/$ zpool list
NAME           SIZE  ALLOC   FREE  EXPANDSZ    CAP  DEDUP  HEALTH  ALTROOT
nstore1pool1  16.3T  15.2T  1.11T         -    93%  1.00x  ONLINE  -
syspool         29G  9.20G  19.8G         -    31%  1.00x  ONLINE  -

le zfs list La commande rapporte toutefois 4 To de moins:

nmc@thn-nstor1:/$ zfs list
NAME                        USED  AVAIL  REFER  MOUNTPOINT
nstore1pool1               12.4T   770G   116K  /volumes/nstore1pool1
nstore1pool1/.nza-reserve  49.8K   770G  49.8K  none
nstore1pool1/nstore1zvol1  28.4K   770G  28.4K  -
nstore1pool1/veeam         12.4T   770G  12.4T  /volumes/nstore1pool1/veeam

Suite à la lecture ce post J'ai aussi couru zfs list -o space et zfs list -t snapshot pour vérifier qu'il n'y a pas d'instantanés utilisant l'espace, qui confirment les résultats ci-dessus:

nmc@thn-nstor1:/$ zfs list -t snapshot
NAME                             USED  AVAIL  REFER  MOUNTPOINT

nmc@thn-nstor1:/$ zfs list -o space
NAME                       AVAIL   USED  USEDSNAP  USEDDS  USEDREFRESERV  USEDCHILD
nstore1pool1                770G  12.4T         0    116K              0      12.4T
nstore1pool1/.nza-reserve   770G  49.8K         0   49.8K              0          0
nstore1pool1/nstore1zvol1   770G  28.4K         0   28.4K              0          0
nstore1pool1/veeam          770G  12.4T         0   12.4T              0          0

** MODIFIER **

Suite aux demandes d’informations complémentaires, voici le résultat de zfs status -v et zfs list -t all (abrégé pour plus de concision):

nmc@thn-nstor1:/$ zpool status -v
  pool: nstore1pool1
 state: ONLINE
  scan: none requested
config:

        NAME                       STATE     READ WRITE CKSUM
        nstore1pool1               ONLINE       0     0     0
          raidz1-0                 ONLINE       0     0     0
            c0t5000C5003F0DE915d0  ONLINE       0     0     0
            c0t5000C5003F17FA16d0  ONLINE       0     0     0
            c0t5000C500506272F7d0  ONLINE       0     0     0
            c0t5000C50063E7E297d0  ONLINE       0     0     0
            c0t5000C500644D6CE0d0  ONLINE       0     0     0
            c0t5000C500644FBA98d0  ONLINE       0     0     0
            c0t5000C500644FFD61d0  ONLINE       0     0     0
            c0t5000C50064509003d0  ONLINE       0     0     0
            c0t5000C50064AE3241d0  ONLINE       0     0     0
          raidz1-1                 ONLINE       0     0     0
            c0t5000C50064BF602Dd0  ONLINE       0     0     0
            c0t50014EE65BA8D06Dd0  ONLINE       0     0     0
            c0t50014EE6B0FE0EA6d0  ONLINE       0     0     0
          raidz1-2                 ONLINE       0     0     0
            c0t50014EE606A6F0E5d0  ONLINE       0     0     0
            c0t50014EE65BFCD389d0  ONLINE       0     0     0
            c0t50014EE65BFD0761d0  ONLINE       0     0     0
            c0t50014EE65BFD11A3d0  ONLINE       0     0     0
            c0t50014EE6B150B5FBd0  ONLINE       0     0     0
            c0t50014EE6B152CB82d0  ONLINE       0     0     0

errors: No known data errors

nmc@thn-nstor1:/$ zfs list -t all
NAME                             USED  AVAIL  REFER  MOUNTPOINT
nstore1pool1                    12.4T   770G   116K  /volumes/nstore1pool1
nstore1pool1/.nza-reserve       49.8K   770G  49.8K  none
nstore1pool1/nstore1zvol1       28.4K   770G  28.4K  -
nstore1pool1/veeam              12.4T   770G  12.4T  /volumes/nstore1pool1/veeam

J'apprécierais toute aide pour comprendre où cet espace manquant a disparu?


5
2018-04-25 09:07


origine


zpool status -v - ewwhite
S'il vous plaît poster la sortie. - ewwhite
Également zfs list -t all. - Andrew Henle
J'ai ajouté le résultat à la question ci-dessus, merci - btongeorge


Réponses:


Oh mon dieu ... qu'as-tu fait?!?

En général, RAIDZ1 / 2/3 affichera les listes de zpool avec la pleine capacité (brute) des disques, tandis que les listes de zfs afficheront l'espace moins la parité ...

Mais ce que vous avez montré ci-dessus est:

Un RAIDZ1 à 9 disques associé à un RAIDZ1 à 3 disques et à un RAIDZ1 à 6 disques.

C'est vraiment dommage si vous n'aviez pas l'intention de le faire. Est-ce que tous les lecteurs ont la même taille?


4
2018-04-25 11:50



Le pool a été étendu au fil du temps pour augmenter la capacité. Aucun autre serveur ne pouvait héberger les données afin que le pool puisse être détruit et recréé. On dirait que la raison de la différence est simplement que je compare la capacité brute à la capacité réelle - la parité? Oui, ce sont tous des disques de 1 To. - btongeorge
Oui, la différence de capacité et de parité est la raison pour laquelle vous voyez cela. - ewwhite
@ewwhite Si vous avez le temps, une explication complète de la façon dont cela se passe ici serait intéressante. - Andrew Henle
Pareil ici! Était-ce un autre scénario fou de "croissance" proposé par un technicien en assistance nexenta? :( - BaronSamedi1958