Автор Тема: CentOS release 6.4 и софтуерен RAID 1  (Прочетена 5934 пъти)

mrowcp

  • Напреднали
  • *****
  • Публикации: 450
    • Профил
Здравейте,
Имам два харда в raid1, но единия то тях си замина. Взех нов, но в бързането зарбавих да маркирам стария като фейлнал и да го махна от контейнера . Не знам дали това е от значение, но така е по ръководствата (примерно тук)

След доста ръчкане и тестване, уж билдването започна. При проверка с cat /proc/mdstat си излизаха процентите. Няколко часа по-късно, положението е следното:

Код
GeSHi ():
  1. # cat /proc/mdstat
  2. Personalities : [raid1]
  3. md127 : active raid1 sda[0]
  4.      1953511424 blocks super external:/md0/0 [2/1] [U_]
  5.  
  6. md0 : inactive sdb[1](S) sda[0](S)
  7.      6056 blocks super external:imsm
  8.  
  9. unused devices: <none>
  10.  
  11.  
  12. #mdadm --assemble --force /dev/md0 /dev/sda /dev/sdb
  13. mdadm: /dev/sda is busy - skipping
  14. mdadm: /dev/sdb is busy - skipping
  15.  
  16. # mdadm --examine /dev/sda
  17. /dev/sda:
  18.          Magic : Intel Raid ISM Cfg Sig.
  19.        Version : 1.1.00
  20.    Orig Family : 86e67a30
  21.         Family : 914fca17
  22.     Generation : 007a7b28
  23.     Attributes : All supported
  24.           UUID : 392de428:b7cb9135:70102f5b:d9e480b4
  25.       Checksum : 858f672c correct
  26.    MPB Sectors : 2
  27.          Disks : 2
  28.   RAID Devices : 1
  29.  
  30.  Disk00 Serial : W1F2KMMV
  31.          State : active
  32.             Id : 00000000
  33.    Usable Size : 3907023112 (1863.01 GiB 2000.40 GB)
  34.  
  35. [Volume0]:
  36.           UUID : 202f047f:650f7c87:050db2d8:98969446
  37.     RAID Level : 1 <-- 1
  38.        Members : 2 <-- 2
  39.          Slots : [UU] <-- [U_]
  40.    Failed disk : 1
  41.      This Slot : 0
  42.     Array Size : 3907022848 (1863.01 GiB 2000.40 GB)
  43.   Per Dev Size : 3907023112 (1863.01 GiB 2000.40 GB)
  44.  Sector Offset : 0
  45.    Num Stripes : 15261808
  46.     Chunk Size : 64 KiB <-- 64 KiB
  47.       Reserved : 0
  48.  Migrate State : rebuild
  49.      Map State : normal <-- degraded
  50.     Checkpoint : 5246249 (512)
  51.    Dirty State : dirty
  52.  
  53.  Disk01 Serial : Z4Z3LBC3
  54.          State : active
  55.             Id : 01000000
  56.    Usable Size : 3907023112 (1863.01 GiB 2000.40 GB)
  57. [root@store2 it]# mdadm --examine /dev/sdb
  58. /dev/sdb:
  59.          Magic : Intel Raid ISM Cfg Sig.
  60.        Version : 1.1.00
  61.    Orig Family : 86e67a30
  62.         Family : 914fca17
  63.     Generation : 007a7b28
  64.     Attributes : All supported
  65.           UUID : 392de428:b7cb9135:70102f5b:d9e480b4
  66.       Checksum : 858f672c correct
  67.    MPB Sectors : 2
  68.          Disks : 2
  69.   RAID Devices : 1
  70.  
  71.  Disk01 Serial : Z4Z3LBC3
  72.          State : active
  73.             Id : 01000000
  74.    Usable Size : 3907023112 (1863.01 GiB 2000.40 GB)
  75.  
  76. [Volume0]:
  77.           UUID : 202f047f:650f7c87:050db2d8:98969446
  78.     RAID Level : 1 <-- 1
  79.        Members : 2 <-- 2
  80.          Slots : [UU] <-- [U_]
  81.    Failed disk : 1
  82.      This Slot : 1 (out-of-sync)
  83.     Array Size : 3907022848 (1863.01 GiB 2000.40 GB)
  84.   Per Dev Size : 3907023112 (1863.01 GiB 2000.40 GB)
  85.  Sector Offset : 0
  86.    Num Stripes : 15261808
  87.     Chunk Size : 64 KiB <-- 64 KiB
  88.       Reserved : 0
  89.  Migrate State : rebuild
  90.      Map State : normal <-- degraded
  91.     Checkpoint : 5246249 (512)
  92.    Dirty State : dirty
  93.  
  94.  Disk00 Serial : W1F2KMMV
  95.          State : active
  96.             Id : 00000000
  97.    Usable Size : 3907023112 (1863.01 GiB 2000.40 GB)
  98.  


Аз ли неправя нещо както трябва или... Предполагам не би трябвало да иска рестарт за да се "разпознае" райда?
« Последна редакция: Oct 03, 2015, 00:25 от mrowcp »
Активен

Some Things Just Are The Way They Are

mrowcp

  • Напреднали
  • *****
  • Публикации: 450
    • Профил
Re: CentOS release 6.4 и софтуерен RAID 1
« Отговор #1 -: Oct 05, 2015, 15:09 »
Приемам всякакви предложения и помощ, които включват запазване на информацяита на sda :D
Активен

Some Things Just Are The Way They Are

k0tka

  • Напреднали
  • *****
  • Публикации: 130
  • Distribution: Fedora 23, CentOS, Debian, OS X El Capitan
  • Window Manager: i3wm
    • Профил
Re: CentOS release 6.4 и софтуерен RAID 1
« Отговор #2 -: Oct 05, 2015, 16:00 »
Можеш ли да дадеш информация от:
Код:
mdadm -Q -D /dev/md0

По спомен, мисля че това което виждам е така наречения split brain.

Edit:
Прегледай този скрипт:
https://github.com/dobber/md-split
« Последна редакция: Oct 05, 2015, 16:05 от k0tka »
Активен

"If you need an instructional video telling your users how to turn a machine off (http://windows.microsoft.com/en-gb/windows-8/how-shut-down-turn-off-pc), there’s something seriously wrong with your design." --  Andrew Gregory @ linuxvoice

mrowcp

  • Напреднали
  • *****
  • Публикации: 450
    • Профил
Re: CentOS release 6.4 и софтуерен RAID 1
« Отговор #3 -: Oct 05, 2015, 17:42 »
Можеш ли да дадеш информация от:
Код:
mdadm -Q -D /dev/md0

По спомен, мисля че това което виждам е така наречения split brain.

Edit:
Прегледай този скрипт:
https://github.com/dobber/md-split

Да, разбира се:

Код
GeSHi ():
  1. # mdadm -Q -D /dev/md0
  2. /dev/md0:
  3.        Version : imsm
  4.     Raid Level : container
  5.  Total Devices : 2
  6.  
  7. Working Devices : 2
  8.  
  9.  
  10.           UUID : 392de428:b7cb9135:70102f5b:d9e480b4
  11.  Member Arrays : /dev/md/Volume0
  12.  
  13.    Number   Major   Minor   RaidDevice
  14.  
  15.       0       8       16        -        /dev/sdb
  16.       1       8        0        -        /dev/sda
  17.  

Ето ти:

Код
GeSHi ():
  1. # mdadm -Q -D /dev/md127
  2. /dev/md127:
  3.      Container : /dev/md0, member 0
  4.     Raid Level : raid1
  5.     Array Size : 1953511424 (1863.01 GiB 2000.40 GB)
  6.  Used Dev Size : 1953511556 (1863.01 GiB 2000.40 GB)
  7.   Raid Devices : 2
  8.  Total Devices : 1
  9.  
  10.          State : clean, degraded
  11. Active Devices : 1
  12. Working Devices : 1
  13. Failed Devices : 0
  14.  Spare Devices : 0
  15.  
  16.  
  17.           UUID : 202f047f:650f7c87:050db2d8:98969446
  18.    Number   Major   Minor   RaidDevice State
  19.       0       8        0        0      active sync   /dev/sda
  20.       1       0        0        1      removed

Ами аз имам уж само един контейнер - md0. Не би трябвало проблема ми да е като този от скрипта.
Активен

Some Things Just Are The Way They Are

k0tka

  • Напреднали
  • *****
  • Публикации: 130
  • Distribution: Fedora 23, CentOS, Debian, OS X El Capitan
  • Window Manager: i3wm
    • Профил
Re: CentOS release 6.4 и софтуерен RAID 1
« Отговор #4 -: Oct 05, 2015, 19:03 »
Можеш ли да постнеш и mdadm.conf-а?
Извинявай но гадая малко....трябва да имаш само md0 и ако схващам правилно sdb се е счупил и след смяната му sda е активен в md127 а двата sda и sdb са маркирани като Spare (S) в  md0...

Намерих някаква старичка тема, която ми се приближава до твоя случай, но както казвам...гадая и съм объркан.....и съм виждал как се синква изпаднал диск за 5 дни от масив (raid1) върху активния в масива на production система . Не искам да те подвеждам с предположения.
Активен

"If you need an instructional video telling your users how to turn a machine off (http://windows.microsoft.com/en-gb/windows-8/how-shut-down-turn-off-pc), there’s something seriously wrong with your design." --  Andrew Gregory @ linuxvoice

mrowcp

  • Напреднали
  • *****
  • Публикации: 450
    • Профил
Re: CentOS release 6.4 и софтуерен RAID 1
« Отговор #5 -: Oct 05, 2015, 19:13 »
Можеш ли да постнеш и mdadm.conf-а?
Извинявай но гадая малко....трябва да имаш само md0 и ако схващам правилно sdb се е счупил и след смяната му sda е активен в md127 а двата sda и sdb са маркирани като Spare (S) в  md0...

Намерих някаква старичка тема, която ми се приближава до твоя случай, но както казвам...гадая и съм объркан.....и съм виждал как се синква изпаднал диск за 5 дни от масив (raid1) върху активния в масива на production система . Не искам да те подвеждам с предположения.

Първо мерси за помоща. Както казах, няма проблем за всякакви догадки и предположение, защото ме измъчи тоя райд. Така като чета изглежда точно както го описваш. Ето конфига:

Код
GeSHi ():
  1. # cat /etc/mdadm.conf
  2. # mdadm.conf written out by anaconda
  3. MAILADDR root
  4. AUTO +imsm +1.x -all
  5. ARRAY /dev/md0 UUID=392de428:b7cb9135:70102f5b:d9e480b4
  6. ARRAY /dev/md127 UUID=202f047f:650f7c87:050db2d8:98969446

Код
GeSHi ():
  1. # ls /dev/md/
  2. autorebuild.pid  md-device-map    Volume0p2        Volume0p5
  3. md0.pid          Volume0          Volume0p3        Volume0p6
  4. md0.sock         Volume0p1        Volume0p4

Ако правилно съм разбрал от линка, редактирам mdadm.conf, като оставям само md0 и стартирам update-initramfs -u

« Последна редакция: Oct 05, 2015, 19:17 от mrowcp »
Активен

Some Things Just Are The Way They Are

k0tka

  • Напреднали
  • *****
  • Публикации: 130
  • Distribution: Fedora 23, CentOS, Debian, OS X El Capitan
  • Window Manager: i3wm
    • Профил
Re: CentOS release 6.4 и софтуерен RAID 1
« Отговор #6 -: Oct 06, 2015, 11:21 »
Доколкото виждам разположението на mdadm.conf и "# mdadm.conf written out by anaconda" ти не ползваш Debian/ubuntu, следователно update-initramfs -u е dracut -f което ще презапише текущия но преди това направи копие на /boot/initramfs-$(uname -r).img.
Проблема е че в момента активния раид е md127. Хубаво е да погледнеш и UUID-то (blkid) с това в /etc/fstab. Предполагам че новия диск си го hot plug-нал и това което бих направил (след задължителен бекъп) е следното. Махам новия диск виждаме какво се случва с раидовете, евентуален reboot в който бих очаквал машината да boot-не с degraded раид (както е било когато се е счупил диска) след което стандартната процедура с фейлване на диска махане от масива и добавяне на новият диск.
Въпроса е че ще трябва да си поиграеш и рискуваш. С новият initrd/initramfs това което ще се случи е да ъпдейтнеш конфигурацията на /etc/mdadm.conf в самият initrd, но тва трябва да се случи след като сме сигурни че масивът е правилно намерен и конфигурирани, дори и деградирал а в твоят случай не изглежда така, защото ти трябва да имаш един, а реално машината вижда 2.
Аз бих постъпил по този начин за да опитам да получа старата ситуация с md0 и един диск. Въпроса е че ако машината не буут-не след рестарт ще се наложи в single user mode да опитваш да assemble-ваш раида с единия диск и вероятно тогава да update-неш initrd за да буутнеш с дегрейдед раид. Но всичко това са предположения.
Както казваше бивш колега: "Трябва да счупиш няколко раида, за да се научиш да ги оправяш"
Успех!
 
Активен

"If you need an instructional video telling your users how to turn a machine off (http://windows.microsoft.com/en-gb/windows-8/how-shut-down-turn-off-pc), there’s something seriously wrong with your design." --  Andrew Gregory @ linuxvoice

mrowcp

  • Напреднали
  • *****
  • Публикации: 450
    • Профил
Re: CentOS release 6.4 и софтуерен RAID 1
« Отговор #7 -: Oct 06, 2015, 11:38 »
Доколкото виждам разположението на mdadm.conf и "# mdadm.conf written out by anaconda" ти не ползваш Debian/ubuntu, следователно update-initramfs -u е dracut -f което ще презапише текущия но преди това направи копие на /boot/initramfs-$(uname -r).img.
Проблема е че в момента активния раид е md127. Хубаво е да погледнеш и UUID-то (blkid) с това в /etc/fstab. Предполагам че новия диск си го hot plug-нал и това което бих направил (след задължителен бекъп) е следното. Махам новия диск виждаме какво се случва с раидовете, евентуален reboot в който бих очаквал машината да boot-не с degraded раид (както е било когато се е счупил диска) след което стандартната процедура с фейлване на диска махане от масива и добавяне на новият диск.
Въпроса е че ще трябва да си поиграеш и рискуваш. С новият initrd/initramfs това което ще се случи е да ъпдейтнеш конфигурацията на /etc/mdadm.conf в самият initrd, но тва трябва да се случи след като сме сигурни че масивът е правилно намерен и конфигурирани, дори и деградирал а в твоят случай не изглежда така, защото ти трябва да имаш един, а реално машината вижда 2.
Аз бих постъпил по този начин за да опитам да получа старата ситуация с md0 и един диск. Въпроса е че ако машината не буут-не след рестарт ще се наложи в single user mode да опитваш да assemble-ваш раида с единия диск и вероятно тогава да update-неш initrd за да буутнеш с дегрейдед раид. Но всичко това са предположения.
Както казваше бивш колега: "Трябва да счупиш няколко раида, за да се научиш да ги оправяш"
Успех!

Мерси за напътствията. Ето малко повече инфо от ръчкането от преди дни.
След като махнах проблемния хард, опитах да го маркирам фейл с:
Код:
mdadm --manage /dev/md0 --fail /dev/sdb*

, но аз така или иначе вече го бях свалил и просто sdb не съществуваше и ми даваше грешна команда.
След доооста четене и пробване на кажи-речи какво ли не, след като уж RAID-а тръгна да се билдва и нищо не стана след зареждането в /proc/mdstat , реших да рестартирам машината. По закона на Мърфи, тя не буутна и даде грешка във файловата система. След няколко fsck-а в сингъл мод, уж се оправи, но аз разкачих 2рия диск, защото си мислех да не би нещо от него да идва проблема след билдването на райда.
Разкачих и  2ри хард за тест, машината тръгна. После я спрях и пак закачих харда.
Сега ще погледна тези неща които си казал.
Активен

Some Things Just Are The Way They Are

k0tka

  • Напреднали
  • *****
  • Публикации: 130
  • Distribution: Fedora 23, CentOS, Debian, OS X El Capitan
  • Window Manager: i3wm
    • Профил
Re: CentOS release 6.4 и софтуерен RAID 1
« Отговор #8 -: Oct 06, 2015, 11:43 »
Значи че / ти е md0...не е просто /home примерно?

Ако успееш да подкараш машината с здравия диск дори и дегрейдед ще започнеш от началото на процедурата.
Пиши какво се случва.
Активен

"If you need an instructional video telling your users how to turn a machine off (http://windows.microsoft.com/en-gb/windows-8/how-shut-down-turn-off-pc), there’s something seriously wrong with your design." --  Andrew Gregory @ linuxvoice

mrowcp

  • Напреднали
  • *****
  • Публикации: 450
    • Профил
Re: CentOS release 6.4 и софтуерен RAID 1
« Отговор #9 -: Oct 06, 2015, 12:03 »
Значи че / ти е md0...не е просто /home примерно?

Ако успееш да подкараш машината с здравия диск дори и дегрейдед ще започнеш от началото на процедурата.
Пиши какво се случва.

Всъщност е md127*

Код
GeSHi ():
  1. #df -h
  2. Filesystem            Size  Used Avail Use% Mounted on
  3. /dev/md127p2           15G   11G  3.0G  79% /
  4. tmpfs                 753M     0  753M   0% /dev/shm
  5. /dev/md127p1          485M   37M  423M   9% /boot
  6. /dev/md127p6          1.8T  1.4T  337G  81% /opt
  7. /dev/md127p3          3.9G  184M  3.5G   5% /var/log
Активен

Some Things Just Are The Way They Are

k0tka

  • Напреднали
  • *****
  • Публикации: 130
  • Distribution: Fedora 23, CentOS, Debian, OS X El Capitan
  • Window Manager: i3wm
    • Профил
Re: CentOS release 6.4 и софтуерен RAID 1
« Отговор #10 -: Oct 06, 2015, 13:41 »
Значи същата работа. Имал си мд0 но сега имаш мд127, а мд0 е грешен.
 Опитай да махнеш новия диск и виж дали ще запали с мд127 или с мд0 с един дегрейдет диск. Според мдадм мд0 е с два spare диска /dev/sda и /dev/sdb което е грешно. Опитай се да върнеш старото положение. Махай новия диск и ребутвай само със стария. Надявам се да можеш да си направиш бекъп на важните неща в случай че нещо се сбози. В случай че запали постни пак изхода от командите които ти поисках. Можеш и изхода от mdadm --examine --scan да сравниш с това което е в mdadm.conf. Не забравяй че dracut -f може да ти бъде от полза за да генерираш правилният инитрамфс имидж. И не забравяй за копие на стария инитрамфс
Активен

"If you need an instructional video telling your users how to turn a machine off (http://windows.microsoft.com/en-gb/windows-8/how-shut-down-turn-off-pc), there’s something seriously wrong with your design." --  Andrew Gregory @ linuxvoice

mrowcp

  • Напреднали
  • *****
  • Публикации: 450
    • Профил
Re: CentOS release 6.4 и софтуерен RAID 1
« Отговор #11 -: Oct 08, 2015, 08:47 »
Значи същата работа. Имал си мд0 но сега имаш мд127, а мд0 е грешен.
 Опитай да махнеш новия диск и виж дали ще запали с мд127 или с мд0 с един дегрейдет диск. Според мдадм мд0 е с два spare диска /dev/sda и /dev/sdb което е грешно. Опитай се да върнеш старото положение. Махай новия диск и ребутвай само със стария. Надявам се да можеш да си направиш бекъп на важните неща в случай че нещо се сбози. В случай че запали постни пак изхода от командите които ти поисках. Можеш и изхода от mdadm --examine --scan да сравниш с това което е в mdadm.conf. Не забравяй че dracut -f може да ти бъде от полза за да генерираш правилният инитрамфс имидж. И не забравяй за копие на стария инитрамфс

За момента направих копие на initramfs и разкачих 2рия диск. Ето резултата от командите:

Код
GeSHi ():
  1. # fdisk -l
  2.  
  3. Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
  4. 255 heads, 63 sectors/track, 243201 cylinders
  5. Units = cylinders of 16065 * 512 = 8225280 bytes
  6. Sector size (logical/physical): 512 bytes / 4096 bytes
  7. I/O size (minimum/optimal): 4096 bytes / 4096 bytes
  8. Disk identifier: 0x0002dbe5
  9.  
  10.   Device Boot      Start         End      Blocks   Id  System
  11. /dev/sda1   *           1          64      512000   83  Linux
  12. Partition 1 does not end on cylinder boundary.
  13. /dev/sda2              64        1977    15360000   83  Linux
  14. /dev/sda3            1977        2487     4096000   83  Linux
  15. /dev/sda4            2487      243201  1933542400    5  Extended
  16. /dev/sda5            2487        2742     2048000   82  Linux swap / Solaris
  17. /dev/sda6            2742      243201  1931492352   83  Linux
  18.  
  19. Disk /dev/md127: 2000.4 GB, 2000395698176 bytes
  20. 2 heads, 4 sectors/track, 488377856 cylinders
  21. Units = cylinders of 8 * 512 = 4096 bytes
  22. Sector size (logical/physical): 512 bytes / 4096 bytes
  23. I/O size (minimum/optimal): 4096 bytes / 4096 bytes
  24. Disk identifier: 0x0002dbe5
  25.  
  26.      Device Boot      Start         End      Blocks   Id  System
  27. /dev/md127p1   *         257      128256      512000   83  Linux
  28. Partition 1 does not end on cylinder boundary.
  29. /dev/md127p2          128257     3968256    15360000   83  Linux
  30. Partition 2 does not end on cylinder boundary.
  31. /dev/md127p3         3968257     4992256     4096000   83  Linux
  32. Partition 3 does not end on cylinder boundary.
  33. /dev/md127p4         4992257   488377856  1933542400    5  Extended
  34. Partition 4 does not end on cylinder boundary.
  35. /dev/md127p5         4992513     5504512     2048000   82  Linux swap / Solaris
  36. /dev/md127p6         5504769   488377856  1931492352   83  Linux
  37.  
  38. # cat /etc/mdadm.conf
  39. # mdadm.conf written out by anaconda
  40. MAILADDR root
  41. AUTO +imsm +1.x -all
  42. ARRAY /dev/md0 UUID=392de428:b7cb9135:70102f5b:d9e480b4
  43. ARRAY /dev/md127 UUID=202f047f:650f7c87:050db2d8:98969446
  44.  
  45. # mdadm --detail --scan
  46. ARRAY /dev/md0 metadata=imsm UUID=392de428:b7cb9135:70102f5b:d9e480b4
  47. ARRAY /dev/md/Volume0 container=/dev/md0 member=0 UUID=202f047f:650f7c87:050db2d8:98969446
  48.  
  49.  
  50. # mdadm -Q -D /dev/md0
  51. /dev/md0:
  52.        Version : imsm
  53.     Raid Level : container
  54.  Total Devices : 1
  55.  
  56. Working Devices : 1
  57.  
  58.  
  59.           UUID : 392de428:b7cb9135:70102f5b:d9e480b4
  60.  Member Arrays : /dev/md/Volume0
  61.  
  62.    Number   Major   Minor   RaidDevice
  63.  
  64.       0       8        0        -        /dev/sda
  65.  
  66.  

Не знам дали ми се струва или има разлика между mdadm.conf и детайл скана. Еднаквото UUID ме обърка тотално :)
Активен

Some Things Just Are The Way They Are

k0tka

  • Напреднали
  • *****
  • Публикации: 130
  • Distribution: Fedora 23, CentOS, Debian, OS X El Capitan
  • Window Manager: i3wm
    • Профил
Re: CentOS release 6.4 и софтуерен RAID 1
« Отговор #12 -: Oct 08, 2015, 16:04 »
Дай изхода от df -h и cat /proc/mdadm и blkid

Намерих няколко извадки с подобни проблеми които могат да ти бъдат полезни:
https://bugs.launchpad.net/ubuntu/+source/mdadm/+bug/964052
https://bugzilla.redhat.com/show_bug.cgi?id=606481

Това което мисля че трябва да направиш е описано тук:
https://aubreykloppers.wordpress.com/2012/07/06/mdadm-devmd127/
Или с други думи редактираш mdadm.conf с правилния раид (/dev/md0 с UUID 392de428:b7cb9135:70102f5b:d9e480b4) след като направиш копие на файла и генерираш нов инитрамфс. Интересно е дали ще сработи ако генерираш нов инитрамфс без да пипаш mdadm.conf но нищо не ти пречи да пробваш и по двата начина - вече имаш копия и на конфигурационния файл и на инитрамфс.

Дай изхода от командите за сравнение и действай, не виждам друг начин.
Междудругото имал ли си някакви ъпдейти/ъпгрейди по време на проблема, които могат да генерират нов инитрамфс, като ъпдейт на кърнел например?
Активен

"If you need an instructional video telling your users how to turn a machine off (http://windows.microsoft.com/en-gb/windows-8/how-shut-down-turn-off-pc), there’s something seriously wrong with your design." --  Andrew Gregory @ linuxvoice

mrowcp

  • Напреднали
  • *****
  • Публикации: 450
    • Профил
Re: CentOS release 6.4 и софтуерен RAID 1
« Отговор #13 -: Oct 09, 2015, 10:34 »
Дай изхода от df -h и cat /proc/mdadm и blkid

Намерих няколко извадки с подобни проблеми които могат да ти бъдат полезни:
https://bugs.launchpad.net/ubuntu/+source/mdadm/+bug/964052
https://bugzilla.redhat.com/show_bug.cgi?id=606481

Това което мисля че трябва да направиш е описано тук:
https://aubreykloppers.wordpress.com/2012/07/06/mdadm-devmd127/
Или с други думи редактираш mdadm.conf с правилния раид (/dev/md0 с UUID 392de428:b7cb9135:70102f5b:d9e480b4) след като направиш копие на файла и генерираш нов инитрамфс. Интересно е дали ще сработи ако генерираш нов инитрамфс без да пипаш mdadm.conf но нищо не ти пречи да пробваш и по двата начина - вече имаш копия и на конфигурационния файл и на инитрамфс.

Дай изхода от командите за сравнение и действай, не виждам друг начин.
Междудругото имал ли си някакви ъпдейти/ъпгрейди по време на проблема, които могат да генерират нов инитрамфс, като ъпдейт на кърнел например?

Код
GeSHi (Bash):
  1. # df -h
  2. Filesystem            Size  Used Avail Use% Mounted on
  3. /dev/md127p2           15G   11G  3.0G  79% /
  4. tmpfs                 753M     0  753M   0% /dev/shm
  5. /dev/md127p1          485M   53M  407M  12% /boot
  6. /dev/md127p6          1.8T  1.5T  288G  84% /opt
  7. /dev/md127p3          3.9G  185M  3.5G   5% /var/log

Не мога да намеря cat /proc/mdadm. Имам само .conf-а и bin-а на mdadm.

Код
GeSHi (Bash):
  1. # blkid
  2. /dev/md127p2: UUID="14ef63e6-e198-42cd-a496-a28929ea7760" TYPE="ext4"
  3. /dev/md127p1: UUID="7313284f-2b2c-49ce-8514-4f71eda8af73" TYPE="ext4"
  4. /dev/md127p3: UUID="e3a37d6f-b26f-4793-897b-f9e51c355c02" TYPE="ext4"
  5. /dev/md127p5: UUID="940789ed-16c6-46da-8493-b20b9db0f05f" TYPE="swap"
  6. /dev/md127p6: UUID="24744a78-4010-417a-967a-55b8d4a7caad" TYPE="ext4"

Не, не са правени никакви ъпдейти/ъпгрейди. Просто един ден намерих харда с умряла механика.
Активен

Some Things Just Are The Way They Are

k0tka

  • Напреднали
  • *****
  • Публикации: 130
  • Distribution: Fedora 23, CentOS, Debian, OS X El Capitan
  • Window Manager: i3wm
    • Профил
Re: CentOS release 6.4 и софтуерен RAID 1
« Отговор #14 -: Oct 09, 2015, 13:12 »
да нормално е да не го намериш :) /proc/mdstat е това което исках да видя.
Активен

"If you need an instructional video telling your users how to turn a machine off (http://windows.microsoft.com/en-gb/windows-8/how-shut-down-turn-off-pc), there’s something seriously wrong with your design." --  Andrew Gregory @ linuxvoice