Raid 5 in degrado, non può ricostruire
Raid 5 in degrado, non può ricostruire
Salve ragazzi, ho un Qnap TS509 Pro in Raid5 con 5 dischi Seagate Barracuda da 1 TB. Alcuni giorni fa è saltato un disco, il numero 5, l'ho pronntamente sostituito con un WD Green 1 TB e ha ricominciato a ricostruire l'array. Qualcosa è andato storto e l'operazione si è bloccata costringedomi a spegnere il nas. Ho eseguito tutti i backup del caso e appurato che il WD GREEN non è compatibile ho acquistato un WD RED e l'ho scelto da 3TB in previsione futura di sostituirli tutti entro breve e allargare lo spazio.
Il problema è che ora anche inserendo il WD Red mi da failed e non fa nulla.
SUbito non mi vedeva neanche la dimensione completa del WD RED ma dooo aver contattato il supproto qnap mi è stato detto di aggiornar eil firmware, ora il disco viene visto ma non riesce ad aggiungerlo all'array.
Potete aiutarmi cortesemente?
Quelli della QNAP non mi rispondono più:(
Grazie
Il problema è che ora anche inserendo il WD Red mi da failed e non fa nulla.
SUbito non mi vedeva neanche la dimensione completa del WD RED ma dooo aver contattato il supproto qnap mi è stato detto di aggiornar eil firmware, ora il disco viene visto ma non riesce ad aggiungerlo all'array.
Potete aiutarmi cortesemente?
Quelli della QNAP non mi rispondono più:(
Grazie
Re: Raid 5 in degrado, non può ricostruire
Cosa vuol dire che non riesce ad aggiungerlo?
Quali sono i passi che fai e i messaggi che ti restituisce?
Quali sono i passi che fai e i messaggi che ti restituisce?
Qnap TS-651-4G (celeron j1800)
Pc Win8.1 autoassemblato (i7-4790s) - Macbook air 13" mid 2013 (i5-4250u)
Router Netgear Dgn2200v3 - Switch Netgear gs605v3
Pc Win8.1 autoassemblato (i7-4790s) - Macbook air 13" mid 2013 (i5-4250u)
Router Netgear Dgn2200v3 - Switch Netgear gs605v3
Re: Raid 5 in degrado, non può ricostruire
Allora, ora il radi è in degraded, aggiungo il disco numero 5 e il messaggio è questo:
[RAID5 Disk Volume: Drive 1 2 3 4 5] Raid device in degraded mode
Drive 5 plugged in.
[RAID5 Disk Volume: Drive 1 2 3 4 5] Add Drive 5 to the volume failed
il comando mdadm --detail /dev/md0 restituisce:
Mentre fdisk -l:
Secondo me è qualcosa legato al disco più grande degli altri (ricordo che il disco 5 è 3TB mentre tutti gli altri 1TB, e il raid inizialmente è stato creato su 5 dischi da 1TB) e magari fatica a creare le partizioni?
[RAID5 Disk Volume: Drive 1 2 3 4 5] Raid device in degraded mode
Drive 5 plugged in.
[RAID5 Disk Volume: Drive 1 2 3 4 5] Add Drive 5 to the volume failed
il comando mdadm --detail /dev/md0 restituisce:
Codice: Seleziona tutto
/dev/md0:
Version : 00.90.03
Creation Time : Wed Nov 11 01:56:18 2009
Raid Level : raid5
Array Size : 3900774400 (3720.07 GiB 3994.39 GB)
Used Dev Size : 975193600 (930.02 GiB 998.60 GB)
Raid Devices : 5
Total Devices : 4
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Wed Nov 12 11:19:36 2014
State : clean, degraded
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
UUID : eb6e7944:be37bd84:d8131c9c:ca2fb482
Events : 0.206676
Number Major Minor RaidDevice State
0 8 3 0 active sync /dev/sda3
1 8 19 1 active sync /dev/sdb3
2 8 35 2 active sync /dev/sdc3
3 8 51 3 active sync /dev/sdd3
4 0 0 4 removed
Codice: Seleziona tutto
Disk /dev/sdx: 128 MB, 128057344 bytes
8 heads, 32 sectors/track, 977 cylinders
Units = cylinders of 256 * 512 = 131072 bytes
Device Boot Start End Blocks Id System
/dev/sdx1 1 8 1008 83 Linux
/dev/sdx2 9 440 55296 83 Linux
/dev/sdx3 441 872 55296 83 Linux
/dev/sdx4 873 977 13440 5 Extended
/dev/sdx5 873 913 5232 83 Linux
/dev/sdx6 914 977 8176 83 Linux
Disk /dev/sdd: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdd1 * 1 66 530113+ 83 Linux
/dev/sdd2 67 132 530145 82 Linux swap / Solaris
/dev/sdd3 133 121538 975193695 83 Linux
/dev/sdd4 121539 121600 498015 83 Linux
Disk /dev/sdc: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdc1 * 1 66 530113+ 83 Linux
/dev/sdc2 67 132 530145 82 Linux swap / Solaris
/dev/sdc3 133 121538 975193695 83 Linux
/dev/sdc4 121539 121600 498015 83 Linux
Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 * 1 66 530113+ 83 Linux
/dev/sdb2 67 132 530145 82 Linux swap / Solaris
/dev/sdb3 133 121538 975193695 83 Linux
/dev/sdb4 121539 121600 498015 83 Linux
Disk /dev/sda: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 * 1 66 530113+ 83 Linux
/dev/sda2 67 132 530145 82 Linux swap / Solaris
/dev/sda3 133 121538 975193695 83 Linux
/dev/sda4 121539 121600 498015 83 Linux
Disk /dev/sda4: 469 MB, 469893120 bytes
2 heads, 4 sectors/track, 114720 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/sda4 doesn't contain a valid partition table
Disk /dev/md9: 542 MB, 542769152 bytes
2 heads, 4 sectors/track, 132512 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md9 doesn't contain a valid partition table
Disk /dev/md5: 542 MB, 542769152 bytes
2 heads, 4 sectors/track, 132512 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md5 doesn't contain a valid partition table
Disk /dev/md0: 0 MB, 0 bytes
2 heads, 4 sectors/track, 0 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md0 doesn't contain a valid partition table
You must set cylinders.
You can do this from the extra functions menu.
Disk /dev/sde: 0 MB, 0 bytes
255 heads, 63 sectors/track, 0 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sde1 * 1 66 530113+ 83 Linux
/dev/sde2 67 132 530145 82 Linux swap / Solaris
/dev/sde3 133 267286 2145914505 83 Linux
Partition 3 has different physical/logical endings:
phys=(1023, 254, 63) logical=(267285, 254, 63)
/dev/sde4 267287 267348 498015 83 Linux
Partition 4 has different physical/logical beginnings (non-Linux?):
phys=(1023, 254, 63) logical=(267286, 0, 1)
Partition 4 has different physical/logical endings:
phys=(1023, 254, 63) logical=(267347, 254, 63)
Re: Raid 5 in degrado, non può ricostruire
Non li ho mai eseguiti, a casa proverò questi comandi.
Mentre il comando per il raid non mostra nulla di anomalo, quello della partizione mi lascia perplesso, ma sicuramente solo per mia ignoranza.
L'unica cosa che mi viene in mente al momento (esperienza recente): non è che hai un altro servizio aggiunto al normale firmware. IN questo caso stoppalo manualmente e ritenta con il 5°disco.
Vedi: http://www.qnapclub.it/viewtopic.php?f=13&t=10277
Lavora molto per cercare di ricostruire il raid o da subito errore?
Mentre il comando per il raid non mostra nulla di anomalo, quello della partizione mi lascia perplesso, ma sicuramente solo per mia ignoranza.
L'unica cosa che mi viene in mente al momento (esperienza recente): non è che hai un altro servizio aggiunto al normale firmware. IN questo caso stoppalo manualmente e ritenta con il 5°disco.
Vedi: http://www.qnapclub.it/viewtopic.php?f=13&t=10277
Lavora molto per cercare di ricostruire il raid o da subito errore?
Qnap TS-651-4G (celeron j1800)
Pc Win8.1 autoassemblato (i7-4790s) - Macbook air 13" mid 2013 (i5-4250u)
Router Netgear Dgn2200v3 - Switch Netgear gs605v3
Pc Win8.1 autoassemblato (i7-4790s) - Macbook air 13" mid 2013 (i5-4250u)
Router Netgear Dgn2200v3 - Switch Netgear gs605v3
Re: Raid 5 in degrado, non può ricostruire
da subito errore, dopo qualche decina di secondi.
Non so cosa sia successo, ma anche se metto il primo disco da 1TB WD GREEN che ha fallito la prima volta, non fa nulla uguale. Sembra che sia andato storto la prima volta (cosa che è successa) e ora si sia impallato.
Vorrei termi come pinao B il fatto di distruggere l'array per poi ricostruirlo. Il backup ce l'ho, ma preferisco riavere il sistema di prima.!
Non ho capito cosa intendi con servizio aggiunto al nomrlae firmware. Ho usato il firmware originale, l'unico servizio che utilizzo è l'RSYNC remoto direttamente da interfaccia, ma gira di notte quindi...
Non so cosa sia successo, ma anche se metto il primo disco da 1TB WD GREEN che ha fallito la prima volta, non fa nulla uguale. Sembra che sia andato storto la prima volta (cosa che è successa) e ora si sia impallato.
Vorrei termi come pinao B il fatto di distruggere l'array per poi ricostruirlo. Il backup ce l'ho, ma preferisco riavere il sistema di prima.!
Non ho capito cosa intendi con servizio aggiunto al nomrlae firmware. Ho usato il firmware originale, l'unico servizio che utilizzo è l'RSYNC remoto direttamente da interfaccia, ma gira di notte quindi...
Re: Raid 5 in degrado, non può ricostruire
Facendo mente locale ho qualche informazione in più.
Essendosi bloccato durante il rebuilding il raid è bloccato in modalità sola lettura perchè credo che l'iter sia:
-array degradato
-setto in readonly
-comincio il rebuilding
-setto readwrite
Essendosi bloccato nel rebuilding non ha rimesso l'opzione di readwrite, quindi come posso manulamente via ssh ripristinare l'array all'rw?
Essendosi bloccato durante il rebuilding il raid è bloccato in modalità sola lettura perchè credo che l'iter sia:
-array degradato
-setto in readonly
-comincio il rebuilding
-setto readwrite
Essendosi bloccato nel rebuilding non ha rimesso l'opzione di readwrite, quindi come posso manulamente via ssh ripristinare l'array all'rw?
Re: Raid 5 in degrado, non può ricostruire
Dovrebbe essere:
Puoi verificarlo anche tu leggendo l'help:
Sono comandi che non ho mai usato sul Qnap.
Personalmente farei altri tentativi a meno che non hai una urgenza assoluta.
Ho fatto i comandi sul mio (6 bay di cui 3 occupati in raid5 da dischi da 4tb) ma non ci vedo nulla di utile, te li riporto solo per completezza:
Codice: Seleziona tutto
mdadm --manage --readwrite ...
Codice: Seleziona tutto
mdadm --manage --help
Personalmente farei altri tentativi a meno che non hai una urgenza assoluta.
Ho fatto i comandi sul mio (6 bay di cui 3 occupati in raid5 da dischi da 4tb) ma non ci vedo nulla di utile, te li riporto solo per completezza:
Codice: Seleziona tutto
[~] # mdadm --detail /dev/md2
/dev/md2:
Version : 1.0
Creation Time : Sun Nov 2 00:34:11 2014
Raid Level : raid5
Array Size : 7810899072 (7449.05 GiB 7998.36 GB)
Used Dev Size : 3905449536 (3724.53 GiB 3999.18 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Wed Nov 12 20:29:11 2014
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 64K
Name : 2
UUID : e9f92049:bde2209f:e692148f:875758b5
Events : 35062
Number Major Minor RaidDevice State
0 8 35 0 active sync /dev/sdc3
3 8 19 1 active sync /dev/sdb3
2 8 3 2 active sync /dev/sda3
Codice: Seleziona tutto
[~] # fdisk -l
Disk /dev/sda: 4000.7 GB, 4000787030016 bytes
255 heads, 63 sectors/track, 486401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 1 267350 2147483647+ ee EFI GPT
Disk /dev/sdc: 4000.7 GB, 4000787030016 bytes
255 heads, 63 sectors/track, 486401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdc1 1 267350 2147483647+ ee EFI GPT
Disk /dev/sdb: 4000.7 GB, 4000787030016 bytes
255 heads, 63 sectors/track, 486401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 1 267350 2147483647+ ee EFI GPT
Disk /dev/sdd: 515 MB, 515899392 bytes
8 heads, 32 sectors/track, 3936 cylinders
Units = cylinders of 256 * 512 = 131072 bytes
Device Boot Start End Blocks Id System
/dev/sdd1 1 41 5244 83 Linux
/dev/sdd2 * 42 1922 240768 83 Linux
/dev/sdd3 1923 3803 240768 83 Linux
/dev/sdd4 3804 3936 17024 5 Extended
/dev/sdd5 3804 3868 8304 83 Linux
/dev/sdd6 3869 3936 8688 83 Linux
Disk /dev/md9: 542 MB, 542769152 bytes
2 heads, 4 sectors/track, 132512 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md9 doesn't contain a valid partition table
Disk /dev/md13: 469 MB, 469893120 bytes
2 heads, 4 sectors/track, 114720 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md13 doesn't contain a valid partition table
Disk /dev/md256: 542 MB, 542834688 bytes
2 heads, 4 sectors/track, 132528 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md256 doesn't contain a valid partition table
Disk /dev/md2: 7998.3 GB, 7998360649728 bytes
2 heads, 4 sectors/track, 1952724768 cylinders
Units = cylinders of 8 * 512 = 4096 bytes
Disk /dev/md2 doesn't contain a valid partition table
[~] #
Qnap TS-651-4G (celeron j1800)
Pc Win8.1 autoassemblato (i7-4790s) - Macbook air 13" mid 2013 (i5-4250u)
Router Netgear Dgn2200v3 - Switch Netgear gs605v3
Pc Win8.1 autoassemblato (i7-4790s) - Macbook air 13" mid 2013 (i5-4250u)
Router Netgear Dgn2200v3 - Switch Netgear gs605v3
Re: Raid 5 in degrado, non può ricostruire
kreker hai risolto poi? QNAP ti ha ricontatto?
Sent using Tapatalk
Sent using Tapatalk