Автор Тема: VMware ESXi 5.0 - възстановяване на хардуерен Raid 1 - как?  (Прочетена 1008 пъти)

ivo_18

  • Напреднали
  • *****
  • Публикации: 64
  • Distribution: Slackware 13.37
    • Профил

Здравейте,

Заглавието на темата не е много точна относно моя проблем който възника преди около 12 часа. Ще се опитам да го обясня, надявам се някой да ми помогне със съвет и насока какво да правя.

Имам един сървър Fujitsu PRIMERGY TX200 S6 ( http://www.fujitsu.com/bg/products/computing/servers/primergy/tower/tx200/tx200-s6.html) на който е инсталиран VMware ESXi 5.0. Имах два диска вързани в хардуерен Райд масив 1. И двата диска бяха по 1.5 ТБ. На съвъра имам една дузина виртуални машшни.

Така имаме следната ситуация:

HDD OLD 1 - 1.5 TB
HDD OLD 2  - 1.5 TB

И двата са вързани както казах в хардуерен Райд 1 и поддържат един Datastore - "My_Datastore"

В момента HDD OLD 1 e жив HDD OLD 2 e за боклука. Сутринта успях да пусна съръвра, като VMware ESXi зареди успешно и усшях да пусна всички виртуални машини които трябват на други хора да работят на тях. Но искам да си възстановя Райд 1-цата.

Така, HDD OLD 2 вече го отписваме от схемата.

Та съръра в момента работи. Купил съм 2 хард диска по 2 ТБ, като имам намерение да прехвърля всички виртуални машини които имам от HDD OLD 1 - 1.5 на HDD NEW А - 2 TB.  След като се прехвърлят виртуалните машини, изваждам HDD OLD 1 - 1.5 който е жив, както и първия HDD NEW А - 2 TB. На  мястото на живия HDD OLD 1 - 1.5 oт който ми буутваше сървъра,  поставям втория HDD NEW B - 2 TB който ми е останал, като върху него инсталирам отново VMware ESXi 5.0. След като инсталирам ESXi 5.0 на втория HDD NEW B - 2 TB, закачам отново и първия HDD NEW A - 2 TB върху който са ми копираните виртуални машини от HDD OLD 1 - 1.5 и се опитвам да ги синхрониирам или няма да стане?

Може би след като инсталирам на ново VMware ESXi 5. 0 на HDD NEW B - 2 TB, на него да прехвърля виртуални машини които бях копирал на HDD NEW А - 2 TB. След което да форматирам HDD NEW А - 2 TB и да го пусна да се синхронизира с HDD NEW B - 2 TB. Така мисля че ще ми стане възстановката на Raid 1-цата, но вече няма да съм с Райд 1 който включва 2 х 1.5 ТБ, а 2 х 2 ТБ.

Някой може ли да предложи опростена версия за изпълнение поправката на Raid 1-цата но с други дискове с по голям обем - 2 ТБ.

Понеже към този момент не мога да спра сървъра понеже той се използва, както си работи, закачих HDD NEW А - 2 TB

Тоест в момента на сървъра имам   HDD OLD 1 - 1.5 ТБ и HDD NEW А - 2 TB, обаче до колкото схванах, може и грешно да е то, в момента HDD NEW А - 2 TB се синхронизира с HDD OLD 1 - 1.5 ТБ, тъй като освен зелената лапмичка на hot rack-a на HDD NEW А - 2 TB мига под нея и червената лампичка.

Не мога да се оправя с VMware ESXi-я и с неговия команден ред показващ отделните устройства. В случая искам да разбера какво се случва с HDD NEW А - 2 TB който сложих при HDD OLD 1 - 1.5 ТБ. Синхронизира ли се, какво се случва.

Ето какво ми излиза в /dev/disks:

/dev/disks # ls -l
-rw-------    1 root     root       145999527936 Sep 17 15:51 naa.600508e00000000048d5043a46988903
-rw-------    1 root     root          939524096 Sep 17 15:51 naa.600508e00000000048d5043a46988903:1
-rw-------    1 root     root         4293918720 Sep 17 15:51 naa.600508e00000000048d5043a46988903:2
-rw-------    1 root     root       140761890816 Sep 17 15:51 naa.600508e00000000048d5043a46988903:3
-rw-------    1 root     root            4177920 Sep 17 15:51 naa.600508e00000000048d5043a46988903:4
-rw-------    1 root     root          262127616 Sep 17 15:51 naa.600508e00000000048d5043a46988903:5
-rw-------    1 root     root          262127616 Sep 17 15:51 naa.600508e00000000048d5043a46988903:6
-rw-------    1 root     root          115326976 Sep 17 15:51 naa.600508e00000000048d5043a46988903:7
-rw-------    1 root     root          299876352 Sep 17 15:51 naa.600508e00000000048d5043a46988903:8
-rw-------    1 root     root      1498999160832 Sep 17 15:51 naa.600508e000000000792d32f435607405
-rw-------    1 root     root            4161536 Sep 17 15:51 naa.600508e000000000792d32f435607405:1
-rw-------    1 root     root         4293918720 Sep 17 15:51 naa.600508e000000000792d32f435607405:2
-rw-------    1 root     root      1493761506816 Sep 17 15:51 naa.600508e000000000792d32f435607405:3
-rw-------    1 root     root          262127616 Sep 17 15:51 naa.600508e000000000792d32f435607405:5
-rw-------    1 root     root          262127616 Sep 17 15:51 naa.600508e000000000792d32f435607405:6
-rw-------    1 root     root          115326976 Sep 17 15:51 naa.600508e000000000792d32f435607405:7
-rw-------    1 root     root          299876352 Sep 17 15:51 naa.600508e000000000792d32f435607405:8
lrwxrwxrwx    1 root     root                 36 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361 -> naa.600508e00000000048d5043a46988903
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:1 -> naa.600508e00000000048d5043a46988903:1
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:2 -> naa.600508e00000000048d5043a46988903:2
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:3 -> naa.600508e00000000048d5043a46988903:3
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:4 -> naa.600508e00000000048d5043a46988903:4
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:5 -> naa.600508e00000000048d5043a46988903:5
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:6 -> naa.600508e00000000048d5043a46988903:6
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:7 -> naa.600508e00000000048d5043a46988903:7
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:8 -> naa.600508e00000000048d5043a46988903:8
lrwxrwxrwx    1 root     root                 36 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361 -> naa.600508e000000000792d32f435607405
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:1 -> naa.600508e000000000792d32f435607405:1
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:2 -> naa.600508e000000000792d32f435607405:2
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:3 -> naa.600508e000000000792d32f435607405:3
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:5 -> naa.600508e000000000792d32f435607405:5
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:6 -> naa.600508e000000000792d32f435607405:6
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:7 -> naa.600508e000000000792d32f435607405:7
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:8 -> naa.600508e000000000792d32f435607405:8
/dev/disks #


Трябва да подчертая, че след като сложих HDD NEW А - 2 TB, не съм рестартирал сървъра, тъй като в момента той се ползва. И не мога да разбера дали HDD NEW А - 2 TB  се е инициализрал и изобщо какво се случва.

Може би първо трябва да рестартирам сървъра да разваля хардуерния Райд 1 след което да рестартирам отново и може би тогава ще виждам HDD NEW А - 2 TB като отделно устройство.

В ESXi--я не се изпълянват командите:

# mount -l

~ # mount -l
-sh: mount: not found
~ # m
md5sum    memstats  mkdir     mkfifo    mknod     mktemp    more      mv
~ # m
md5sum    memstats  mkdir     mkfifo    mknod     mktemp    more      mv
~ # m
md5sum    memstats  mkdir     mkfifo    mknod     mktemp    more      mv
~ # m
md5sum    memstats  mkdir     mkfifo    mknod     mktemp    more      mv

# fdisk -l

Koгато се опитам да въведа fdisk -l ми излиза следното:

fdisk: cannot open -
~ # fdisk -l
Found valid GPT with protective MBR; using GPT

fdisk: Sorry, can't handle GPT partitions, use partedUtil

Ясно е, че трябва да ползвам командата partedUtil

Когато изпълня:
~ # partedUtil

Излизат следните опции за употреба:

Not enough arguments

Usage:
 Get Partitions : get <diskName>
 Set Partitions : set <diskName> ["partNum startSector endSector type attr"]*
 Delete Partition : delete <diskName> <partNum>
 Resize Partition : resize <diskName> <partNum> <start> <end>
 Get Partitions : getptbl <diskName>
 Set Partitions : setptbl <diskName> <label> ["partNum startSector endSector type/guid attr"]*
 Fix Partition Table : fix <diskName>
 Create New Label (all existing data will be lost): mklabel <diskName> <label>
 Show commonly used partition type guids : showGuids
 Get usable first and last sectors : getUsableSectors <diskName>

Предполагам, че трябва да използам get <diskName> , но как да разбера <diskName>

Пробвах с:

 # partedUtil get naa.600508e00000000048d5043a46988903
Error: Could not stat device naa.600508e00000000048d5043a46988903 - No such file or directory.
Unable to get device naa.600508e00000000048d5043a46988903

и

~ # partedUtil get vml.0200000000600508e00000000048d5043a469889034c6f67696361
Error: Could not stat device vml.0200000000600508e00000000048d5043a469889034c6f67696361 - No such file or directory.
Unable to get device vml.0200000000600508e00000000048d5043a469889034c6f67696361

Голяма боза. Сега не мога да разбера какво се случва с HDD NEW А - 2 TB, има ли някаква синхронизация без да съм рестартирал сървъра. Как най-лесно мога да поправя Райд 1-цата като от 1.5 ТБ Райд 1, да го направя на Райд 1 - 2ТБ

Ako някой е по-наъвтре в VMware ESXi-я, моля нека пише.. Ако имате предложения къде да чета и на къде да се насоча, съм готов да ги видя. Просто това ми е спешно и ще съм благодарен на всеки който се отзове.

Нямам mtab, в fstab-a ми излиза следното:

~ # cat /etc/fstab
none                    /proc                   procfs    defaults        0 0
none                    /vmfs/volumes           vcfs      defaults        0 0
none                    /tmp                    visorfs   2,192,01777,tmp       0 0

Съответно в /proc:

~ # cd /proc
/proc # ls -l
drwxr-xr-x    1 root     root             131072 Sep 17 16:35 bus
drwxr-xr-x    1 root     root             131072 Sep 17 16:35 driver
drwxr-xr-x    1 root     root             131072 Sep 17 16:35 mpt
drwxr-xr-x    1 root     root             131072 Sep 17 16:35 net
drwxr-xr-x    1 root     root             131072 Sep 17 16:35 scsi
/proc #

Предварително благодаря на отзовалите се по моя проблем.




Активен

Mitaka

  • Гост
Би трябвало да е по-лесно, отколкото си написал:

1. Слагаш новия 2ТБ диск на мястото на изгорелия
2. Ребилдваш райда.
3. слагаш другия 2ТБ на мястото на работещия диск
4. ребилдваш райда
5. според това какъв ти е раид контролера - ситуациата е различна. Би трябвало да има начин да го extend-неш.
6. след като си extend-нал раид масива, от инструментите на ESXi си extend-ваш datastore-a.
Активен

Подобни теми
Заглавие Започната от Отговора Прегледи Последна публикация
Sata raid с rocket raid 1640
Настройка на хардуер
plamen_f 1 2488 Последна публикация Mar 25, 2007, 12:03
от Kollin
Проблем с лан карта и ESXi
Сървъри
backinblack 2 1397 Последна публикация Jun 24, 2012, 13:18
от backinblack
Ауто старт на ВМ в ESXi ?
Настройка на програми
backinblack 5 1554 Последна публикация Aug 29, 2012, 22:21
от Mitaka
Малко въпроси за ESXi !?
Хардуерни и софтуерни проблеми
backinblack 15 3206 Последна публикация Jan 19, 2013, 18:23
от backinblack
Въпроси за SSD диск и ESXi
Сървъри
backinblack 8 2833 Последна публикация Nov 28, 2013, 20:06
от Naka