Hlavní nabídka

Obnova raidu

Založil 1x23, 30. 10. 2013, 20:09:23

Předchozí téma - Další téma

1x23

Ahoj, potreboval bych poradit jak pripojit disk z raidu.

Raid1, 2x2 terra. Jeden disk je spatny, ten je fyzicky pryc.

Dobry disk pripojim na jinem stroji.

mdadm --assemble --force /dev/md0 /dev/sda1
mdadm: /dev/md0 has been started with 1 drive (out of 2).



cat /proc/mdstat
Personalities : [raid1]
md0 : active (auto-read-only) raid1 sda1[1]
      1953513392 blocks super 1.2 [2/1] [_U]
     
unused devices: <none>


mdadm --readwrite /dev/md0

ale pri mountnuti pole skoncim na hlasce.

mount /dev/md0 /mnt/disk
mount: you must specify the filesystem type


Nevite nekdo co stim?

Nemuzu najit na netu zadne reseni jak to pripojit. Ma nekdo nejaky typ?

Dekuji

Mirek

Palo M.

Ak je pravda toto:
Citace od: 1x23 kdy 30. 10. 2013, 20:09:23Raid0, 2x2 terra. Jeden disk je spatny, ten je fyzicky pryc.
tak su data z toho pola nenavratne prec, pretoze data na RAID0 nie su duplikovane, celkova kapacita pola je 4TB a stripes su rozhadzane na dvoch diskoch tak, ze sa neda z toho ani vytiahnut nijaka "zmysluplna polovica"...
Ak sa taky disk snazis pripojit ako RAID1 (ako ukazuje mdstat), tak to skratka nezafunguje...

1x23

#2
Preklep :), uz opraveno
raid1,to by bylo pekne na nic:( mit data pryc

čepi

Citace od: 1x23 kdy 31. 10. 2013, 06:59:19
to by bylo pekne na nic:( mit data pryc

Zálohovat, zálohovat, zálohovat. Nespolíhat na RAID, RAID neslouží k záloze dat (základní pravidlo).

Jinak jen tak teoreticky (sice nevim jak je to presne s SW raidem na linuxu), pokud jsi mel ty HDD v RAID1 a jeden ti odesel (a/resp. fyzicky jsi ho odstranil), pole je sice degradovane ale melo by dal byt funkcni. Proc tedy pripojit 1 člen pole (HDD) na jinem stroji? Mozna by to chtelo vic info o poli (jak bylo sestavene, jak byl nastaven OS vzhledem k RAID poli, byl na tom poli nainstalovan i system?).
you must specify the filesystem type
->
https://www.google.cz/#q=mount:+you+must+specify+the+filesystem+type
nebo
https://www.google.cz/#q=raid+rebuilding+mount:+you+must+specify+the+filesystem+type

Hlavne nememit jedinej bit na tom zdravim disku.
Debian 9 Stretch --- in progress, XFCE
Notebook Acer Aspire TimeLineX 4830TG

1x23

System a data jsou na jinem raidu, na tomto kde mi odchazi disk (ve smart datech je vice nez 100 000chyb), spatny disk jsem odpojil z raidu pred mesicem a pul, a potrebuju ho smazat. Je jeste v zaruce a podle smart data byl up jednou vyreklamovany. Tak ted k problemu co mam.

Tento disk je na jinem stroji, abych zjistil jestli tam jsou data. Nez smazu spatny disk.
A mam problem ten disk mountnout.

Mimo tema : jake pouzivate disky do raidu jake znacky?
Mam 2x wd  bezi vice nez 4 roky a jsou v pohode. A pak wd a seagate a ten se porad kazi. Oba jsou green.

Palo M.

To co si napisal, vyzera trocha divne:
1. Ak je to len datovy disk a pripojil si ho na inom stroji, preco je to sda1? Predpokladam, ze na tom inom stroji je sda prvy disk, ten z ktoreho sa bootuje, takze ten z pola by mal byt asi nejaky iny disk, napriklad sdb... Alebo to skusas z nejakeho live CDROM?
2. Diskove polia by mali byt pripojene automaticky pri boote. Jadro automaticky deteguje RAID (podla typu particie FD). A pokial viem, RAID1 nastartuje aj v pripade, ak jeden z diskov nie je pritomny. Predpokladam, ze ten disk si hodil na druhy stroj ked bol vypnuty, takze ked si ho zapol, mal by sam rozoznat pritomne pole a odstartovat ho (ako degradovane, ak je pritomny len jeden disk).
3. Preco si pouzil --force pri assemble? Ak to bez --force neslo, tak mohli byt metadata pola poskodene. V tom pripade to nevyzera ako bohvieako dobry disk...

Tazko takto na dialku spekulovat, preco ti to nejde mountnut. Skus pozriet, ako sa tvari ten disk pre mdadm:
Je particia vobec oznacena ako RAID?
fdisk -l /dev/sda
Ak ano, co pisu metadata tej particie?
mdadm --examine /dev/sda1
Ak vsetko vyzera dobre, assemble by malo zafungovat aj bez force (ako druhe zariadenie mozes dat missing):
mdadm --assemble /dev/md0 /dev/sda1 missing
A potom mozes pozriet stav celeho pola:
mdadm --detail /dev/md0

Ak si teda pri svojich predchadzajucich akciach nejako skaredo neprepisal metadata toho pola a teraz sa ti pole zasembluje v poriadku aj bez --force, tak by som povedal, ze to pole je funkcne a dobre. Ak nejde napriek tomu primountovat md0, tak by som povedal, ze na md0 skratka nie je ziaden filesystem :P - ale v tom pripade mam jeden tajny tip - LVM2 (co ti povie vgscan?). Aspon ja to tak mam, ze datovy priestor je jeden velky RAID1 (md1) a do LVM group som dal len jedno zariadenie - md1. V ramci LVM potom mozem s priestorom operovat flexibilne, mozem tam mat vela filesystemov podla potreby (pouzivam to aj pre virtualne stroje). Samozrejme, pri pokuse mountnut priamo md1 by mi to maximalne ukazalo vztyceny prostrednik...

Ale v kazdom pripade plati to o tej zalohe - data by si mal mat este aj zalohovane. A ked ti havaruje jeden disk z RAID1 (alebo zacne odchadzat a SMART reportuje chyby), tak treba predsa z pola vysmarit ten zly disk (dobry nechat) a stroj moze frcat dalej s degradovanym polom. Potom hodit ten zly disk na iny stroj, premazat ho tam a dat na reklamaciu - a ked sa vrati disk z reklamacie, len ho pripojit na ten stroj a pridat do pola, pole sa synchronizuje a ide sa dalej. A ked nahodou zahuci ten zvysny disk z pola kym sa vybavi reklamacia, tak treba zanadavat a obnovit data zo zalohy...

Co sa tyka znaciek, uz sa mi pokazili aj WD aj Seagate. A takisto sa mi u obidvoch stalo, ze ked som testoval fungl novy disk, este predtym, ako som nan cokolvek nakopiroval, tak bol disk zly takze som ho rovno musel reklamovat. Obcas sa aj jednemu aj druhemu zadari "skvela seria", kedy v istom obdobi odchadza vela diskov toho vyrobcu kym su este nove. Ale na RAID by som green disky nedaval, respektive ak by green disk v poli odisiel, tak by som sa velmi necudoval (predpokladam, ze ak niekto ma RAID1, tak ho ma asi na server ktory bezi 24/7).

1x23

system bezi z usb.

Tak spatny disk nabehl normalne. Tak asi metadata na dobrem disku nebudou. Lze je nejak nahrat na dobry disk?

mdadm.conf na serveru:

ARRAY /dev/md/1 metadata=1.2 UUID=c3784e2a:242edc89:6d76584e:48211123 name=test:1

Je to disk pro raid

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk identifier: 0x00000000

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1              63  3907029167  1953514552+  fd  Linux raid autodetect
Partition 1 does not start on physical sector boundary.


mdadm --examine /dev/sda1

mdadm --examine /dev/sda1
/dev/sda1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 4471ac08:ef41c792:d702170d:adcdbfb7
           Name : test:1
  Creation Time : Fri Nov  9 14:12:29 2012
     Raid Level : raid1
   Raid Devices : 2

Avail Dev Size : 3907027057 (1863.02 GiB 2000.40 GB)
     Array Size : 1953513392 (1863.02 GiB 2000.40 GB)
  Used Dev Size : 3907026784 (1863.02 GiB 2000.40 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : e60ac289:f5345271:25192202:a838c4bf

    Update Time : Mon Nov 12 17:23:51 2012
       Checksum : d11e7589 - correct
         Events : 36


   Device Role : Active device 1
   Array State : AA ('A' == active, '.' == missing)


spatny disk:


mdadm --examine /dev/sdc
/dev/sdc:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : c3784e2a:242edc89:6d76584e:48211123
           Name : mosfet:1  (local to host mosfet)
  Creation Time : Fri Oct 19 12:25:08 2012
     Raid Level : raid1
   Raid Devices : 2

Avail Dev Size : 3907027120 (1863.02 GiB 2000.40 GB)
     Array Size : 1953513424 (1863.02 GiB 2000.40 GB)
  Used Dev Size : 3907026848 (1863.02 GiB 2000.40 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 39db3a39:68d951a9:4a85ea34:55e36c71

    Update Time : Sun Nov  3 21:03:45 2013
       Checksum : 634e0a72 - correct
         Events : 105471


   Device Role : Active device 0
   Array State : A. ('A' == active, '.' == missing)



takze kazdy disk ma jine metadata, lze to nejak opravit?

Palo M.

Tak zasa to vyzera divne:
- "Array UUID" by malo byt rovnake pre vsetky elementy toho isteho pola (a elementy sa lisia v "Device UUID"). V tvojom pripade su ine.
- mdadm --examine pre /dev/sda1 pise, ze v poli su 2 disky - ktory je ten druhy? Si si isty, ze si nevytvoril nejake uplne ine pole s inym diskom?
- Preco ten "zly" disk je ako /dev/sdc (a nie ako /dev/sdc1)? Nie je tam partition table a disk je sucastou pola len ako raw zariadenie? (Netusim, ci to vobec ide, nikdy som nic take neskusal.)

Ak ten "zly" disk vyzera funkcny (az na tie pribudajuce SMART errory), tak by som velmi nespekuloval s obnovenim metadat pre /dev/sda1, ale pripojil by som "zly" disk ako "ro,noload" (ak je to ext3/ext4 - aj replay zurnalu vyvolava diskove zapisy a to je v tomto pripade neziaduce, lebo ak disk pomaly odchadza, vacsinou sa da z neho citat, len zapisy su neuspesne a disk sa pokusa relokovat sektory). No a potom by som data odzalohoval (ak tu zalohu stale nemas - ako sa zda). Akonahle by zaloha bola v suchu, tak by som na tom "dobrom" disku uplne inicializoval pole (vytvoril ho odznovu, s jednym missing diskom), potom by som tam vytvoril novy filesystem a potom by som tam nakopiroval data z tej zalohy. A potom by som isiel podla povodneho planu (premazat "zly" disk a dat ho na reklamaciu). Snazit sa v tomto stave robit nieco s /dev/sda1 sa mi zda prilis na dlhe lakte... to by som skusal az v zufalom pripade, ze "zly" disk je necitatelny a neda sa z neho urobit zaloha.