Question Importation ZFS impossible de trouver des pools


J'ai eu un pool ZFS - un miroir contenant 2 vdevs - en cours d'exécution sur un serveur FreeBSD. Je n'ai maintenant qu'un seul des disques du miroir et j'essaie de récupérer des fichiers à partir de celui-ci.

Les données ZFS se trouvent dans une partition GPT sur le disque.

Lorsque j'essaie d'importer le pool, rien n'indique qu'il existe. J'ai essayé plusieurs approches, mais rien ne se passe.

j'ai couru zdb -lu sur la partition, et il semble trouver les étiquettes très bien.

# zpool import
# zpool import -D
# zpool status
no pools available
# zpool import -f ztmp
cannot import 'ztmp': no such pool available
# zpool import 16827460747202824739
cannot import '16827460747202824739': no such pool available

Informations sur la partition:

# gpart list da0
Geom name: da0
modified: false
state: OK
fwheads: 255
fwsectors: 63
last: 3907029134
first: 34
entries: 128
scheme: GPT
Providers:
1. Name: da0p1
   Mediasize: 65536 (64K)
   Sectorsize: 512
   Stripesize: 0
   Stripeoffset: 17408
   Mode: r0w0e0
   rawuuid: d7a10230-8b0e-11e1-b750-f46d04227f12
   rawtype: 83bd6b9d-7f41-11dc-be0b-001560b84f0f
   label: (null)
   length: 65536
   offset: 17408
   type: freebsd-boot
   index: 1
   end: 161
   start: 34
2. Name: da0p2
   Mediasize: 17179869184 (16G)
   Sectorsize: 512
   Stripesize: 0
   Stripeoffset: 82944
   Mode: r0w0e0
   rawuuid: d7aa40b7-8b0e-11e1-b750-f46d04227f12
   rawtype: 516e7cb5-6ecf-11d6-8ff8-00022d09712b
   label: (null)
   length: 17179869184
   offset: 82944
   type: freebsd-swap
   index: 2
   end: 33554593
   start: 162
3. Name: da0p3
   Mediasize: 1905891737600 (1.7T)
   Sectorsize: 512
   Stripesize: 0
   Stripeoffset: 82944
   Mode: r0w0e0
   rawuuid: d7b6a47e-8b0e-11e1-b750-f46d04227f12
   rawtype: 516e7cba-6ecf-11d6-8ff8-00022d09712b
   label: (null)
   length: 1905891737600
   offset: 17179952128
   type: freebsd-zfs
   index: 3
   end: 3755999393
   start: 33554594
Consumers:
1. Name: da0
   Mediasize: 2000398934016 (1.8T)
   Sectorsize: 512
   Mode: r0w0e0

Étiquette ZFS:

--------------------------------------------
LABEL 0
--------------------------------------------
    version: 5000
    name: 'ztmp'
    state: 0
    txg: 0
    pool_guid: 16827460747202824739
    hostid: 740296715
    hostname: '#############'
    top_guid: 15350190479074972289
    guid: 3060075816835778669
    vdev_children: 1
    vdev_tree:
        type: 'mirror'
        id: 0
        guid: 15350190479074972289
        whole_disk: 0
        metaslab_array: 30
        metaslab_shift: 34
        ashift: 9
        asize: 1905887019008
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 3060075816835778669
            path: '/dev/gptid/d7b6a47e-8b0e-11e1-b750-f46d04227f12'
            phys_path: '/dev/gptid/d7b6a47e-8b0e-11e1-b750-f46d04227f12'
            whole_disk: 1
            DTL: 5511
            resilvering: 1
        children[1]:
            type: 'disk'
            id: 1
            guid: 3324029433529063540
            path: '/dev/gptid/396a2b11-cb16-11e1-83f4-f46d04227f12'
            phys_path: '/dev/gptid/396a2b11-cb16-11e1-83f4-f46d04227f12'
            whole_disk: 1
            DTL: 3543
            create_txg: 4
            resilvering: 1
    features_for_read:
    create_txg: 0
Uberblock[0]
    magic = 0000000000bab10c
    version = 5000
    txg = 0
    guid_sum = 1668268329223536005
    timestamp = 1361299185 UTC = Tue Feb 19 10:39:45 2013

(Les autres étiquettes sont des copies exactes)

Il y a une discussion sur un problème similaire au ce vieux fil. J'ai essayé de courir Jeff Bonwick labelfix outil (avec mises à jour de ce post), mais cela ne semble pas résoudre le problème.

Des idées?


7
2018-03-28 19:39


origine


Le lecteur a été détaché du miroir, plutôt que d'être divisé. Il semble que ce soit la cause du problème. Le reste du miroir n'existe pas, malheureusement. - squidpickles
Je ne sais pas si c'est le forum approprié pour cela, car la «réponse» à la question implique beaucoup d'essais et d'erreurs. Pour le moment, essayez "zpool import -d </ dev / path / to / disk>". -D répertorie les pools détruits, -d prend l'argument de l'emplacement d'un disque à regarder et peut être spécifié plusieurs fois sur la ligne de commande (mais dans votre cas, une seule fois sera nécessaire car vous n'avez qu'un seul disque). . Voyez ce que ça fait. - Nex7
Vous avez peut-être raison de ne pas être le bon forum. Et oui, j'ai essayé avec le -d et -D options, en vain. - squidpickles
Si vous avez essayé avec -d <chemin d'accès au disque, y compris la partition> et que celui-ci ne s'affiche pas, essayez à nouveau, sauf sur un système d'exploitation illumos. Si cela ne peut toujours pas le voir, je suis à court d'idées. Vous devrez peut-être faire appel à un expert en récupération de données si les données ont une valeur monétaire, ou commencer à consulter le code (src.illumos.org) tout en utilisant le dérivé illumos et à extraire la commande zpool import pour voir quel chemin il prend et essayer. pour comprendre pourquoi il ne peut pas voir votre piscine. - Nex7
@ GrahamPerrin, j'ai fini par le faire fonctionner. J'ai édité les sources ZFS sur mon installation FreeBSD et leur ai fait contourner toutes les vérifications de sécurité. Après en avoir désactivé suffisamment, j'ai réussi à importer le pool. Quelqu'un doit avoir contourné mes propres vérifications de santé mentale ... - squidpickles


Réponses:


Du commentaire (de l'affiche d'ouverture):

J'ai édité les sources ZFS sur mon installation FreeBSD et leur ai fait contourner toutes les vérifications de sécurité. Après en avoir désactivé suffisamment, j'ai réussi à importer le pool.


3
2018-01-17 06:02





pour référence future, il suffit de procéder à zpool import -a (recherche de tous), ce qui est généralement utile également lorsqu'un fs zpool / zfs n'est pas reconnu.


3
2017-10-19 19:58



Je vois même le mien dans la cache, mais cela n’a pas fonctionné. Je suis en train de sauvegarder mon fichier de cache, d'essayer avec et sans, et de le forcer, etc. aussi, pour vérifier ce que Graham a suggéré ci-dessus. - Brian Thomas