Здравейте,
Заглавието на темата не е много точна относно моя проблем който възника преди около 12 часа. Ще се опитам да го обясня, надявам се някой да ми помогне със съвет и насока какво да правя.
Имам един сървър Fujitsu PRIMERGY TX200 S6 (
http://www.fujitsu.com/bg/products/computing/servers/primergy/tower/tx200/tx200-s6.html) на който е инсталиран VMware ESXi 5.0. Имах два диска вързани в хардуерен Райд масив 1. И двата диска бяха по 1.5 ТБ. На съвъра имам една дузина виртуални машшни.
Така имаме следната ситуация:
HDD OLD 1 - 1.5 TB
HDD OLD 2 - 1.5 TB
И двата са вързани както казах в хардуерен Райд 1 и поддържат един Datastore - "My_Datastore"
В момента HDD OLD 1 e жив HDD OLD 2 e за боклука. Сутринта успях да пусна съръвра, като VMware ESXi зареди успешно и усшях да пусна всички виртуални машини които трябват на други хора да работят на тях. Но искам да си възстановя Райд 1-цата.
Така, HDD OLD 2 вече го отписваме от схемата.
Та съръра в момента работи. Купил съм 2 хард диска по 2 ТБ, като имам намерение да прехвърля всички виртуални машини които имам от HDD OLD 1 - 1.5 на HDD NEW А - 2 TB. След като се прехвърлят виртуалните машини, изваждам HDD OLD 1 - 1.5 който е жив, както и първия HDD NEW А - 2 TB. На мястото на живия HDD OLD 1 - 1.5 oт който ми буутваше сървъра, поставям втория HDD NEW B - 2 TB който ми е останал, като върху него инсталирам отново VMware ESXi 5.0. След като инсталирам ESXi 5.0 на втория HDD NEW B - 2 TB, закачам отново и първия HDD NEW A - 2 TB върху който са ми копираните виртуални машини от HDD OLD 1 - 1.5 и се опитвам да ги синхрониирам или няма да стане?
Може би след като инсталирам на ново VMware ESXi 5. 0 на HDD NEW B - 2 TB, на него да прехвърля виртуални машини които бях копирал на HDD NEW А - 2 TB. След което да форматирам HDD NEW А - 2 TB и да го пусна да се синхронизира с HDD NEW B - 2 TB. Така мисля че ще ми стане възстановката на Raid 1-цата, но вече няма да съм с Райд 1 който включва 2 х 1.5 ТБ, а 2 х 2 ТБ.
Някой може ли да предложи опростена версия за изпълнение поправката на Raid 1-цата но с други дискове с по голям обем - 2 ТБ.
Понеже към този момент не мога да спра сървъра понеже той се използва, както си работи, закачих HDD NEW А - 2 TB
Тоест в момента на сървъра имам HDD OLD 1 - 1.5 ТБ и HDD NEW А - 2 TB, обаче до колкото схванах, може и грешно да е то, в момента HDD NEW А - 2 TB се синхронизира с HDD OLD 1 - 1.5 ТБ, тъй като освен зелената лапмичка на hot rack-a на HDD NEW А - 2 TB мига под нея и червената лампичка.
Не мога да се оправя с VMware ESXi-я и с неговия команден ред показващ отделните устройства. В случая искам да разбера какво се случва с HDD NEW А - 2 TB който сложих при HDD OLD 1 - 1.5 ТБ. Синхронизира ли се, какво се случва.
Ето какво ми излиза в /dev/disks:
/dev/disks # ls -l
-rw------- 1 root root 145999527936 Sep 17 15:51 naa.600508e00000000048d5043a46988903
-rw------- 1 root root 939524096 Sep 17 15:51 naa.600508e00000000048d5043a46988903:1
-rw------- 1 root root 4293918720 Sep 17 15:51 naa.600508e00000000048d5043a46988903:2
-rw------- 1 root root 140761890816 Sep 17 15:51 naa.600508e00000000048d5043a46988903:3
-rw------- 1 root root 4177920 Sep 17 15:51 naa.600508e00000000048d5043a46988903:4
-rw------- 1 root root 262127616 Sep 17 15:51 naa.600508e00000000048d5043a46988903:5
-rw------- 1 root root 262127616 Sep 17 15:51 naa.600508e00000000048d5043a46988903:6
-rw------- 1 root root 115326976 Sep 17 15:51 naa.600508e00000000048d5043a46988903:7
-rw------- 1 root root 299876352 Sep 17 15:51 naa.600508e00000000048d5043a46988903:8
-rw------- 1 root root 1498999160832 Sep 17 15:51 naa.600508e000000000792d32f435607405
-rw------- 1 root root 4161536 Sep 17 15:51 naa.600508e000000000792d32f435607405:1
-rw------- 1 root root 4293918720 Sep 17 15:51 naa.600508e000000000792d32f435607405:2
-rw------- 1 root root 1493761506816 Sep 17 15:51 naa.600508e000000000792d32f435607405:3
-rw------- 1 root root 262127616 Sep 17 15:51 naa.600508e000000000792d32f435607405:5
-rw------- 1 root root 262127616 Sep 17 15:51 naa.600508e000000000792d32f435607405:6
-rw------- 1 root root 115326976 Sep 17 15:51 naa.600508e000000000792d32f435607405:7
-rw------- 1 root root 299876352 Sep 17 15:51 naa.600508e000000000792d32f435607405:8
lrwxrwxrwx 1 root root 36 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361 -> naa.600508e00000000048d5043a46988903
lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:1 -> naa.600508e00000000048d5043a46988903:1
lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:2 -> naa.600508e00000000048d5043a46988903:2
lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:3 -> naa.600508e00000000048d5043a46988903:3
lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:4 -> naa.600508e00000000048d5043a46988903:4
lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:5 -> naa.600508e00000000048d5043a46988903:5
lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:6 -> naa.600508e00000000048d5043a46988903:6
lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:7 -> naa.600508e00000000048d5043a46988903:7
lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:8 -> naa.600508e00000000048d5043a46988903:8
lrwxrwxrwx 1 root root 36 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361 -> naa.600508e000000000792d32f435607405
lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:1 -> naa.600508e000000000792d32f435607405:1
lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:2 -> naa.600508e000000000792d32f435607405:2
lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:3 -> naa.600508e000000000792d32f435607405:3
lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:5 -> naa.600508e000000000792d32f435607405:5
lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:6 -> naa.600508e000000000792d32f435607405:6
lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:7 -> naa.600508e000000000792d32f435607405:7
lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:8 -> naa.600508e000000000792d32f435607405:8
/dev/disks #
Трябва да подчертая, че след като сложих HDD NEW А - 2 TB, не съм рестартирал сървъра, тъй като в момента той се ползва. И не мога да разбера дали HDD NEW А - 2 TB се е инициализрал и изобщо какво се случва.
Може би първо трябва да рестартирам сървъра да разваля хардуерния Райд 1 след което да рестартирам отново и може би тогава ще виждам HDD NEW А - 2 TB като отделно устройство.
В ESXi--я не се изпълянват командите:
# mount -l
~ # mount -l
-sh: mount: not found
~ # m
md5sum memstats mkdir mkfifo mknod mktemp more mv
~ # m
md5sum memstats mkdir mkfifo mknod mktemp more mv
~ # m
md5sum memstats mkdir mkfifo mknod mktemp more mv
~ # m
md5sum memstats mkdir mkfifo mknod mktemp more mv
# fdisk -l
Koгато се опитам да въведа fdisk -l ми излиза следното:
fdisk: cannot open -
~ # fdisk -l
Found valid GPT with protective MBR; using GPT
fdisk: Sorry, can't handle GPT partitions, use partedUtil
Ясно е, че трябва да ползвам командата partedUtil
Когато изпълня:
~ # partedUtil
Излизат следните опции за употреба:
Not enough arguments
Usage:
Get Partitions : get <diskName>
Set Partitions : set <diskName> ["partNum startSector endSector type attr"]*
Delete Partition : delete <diskName> <partNum>
Resize Partition : resize <diskName> <partNum> <start> <end>
Get Partitions : getptbl <diskName>
Set Partitions : setptbl <diskName> <label> ["partNum startSector endSector type/guid attr"]*
Fix Partition Table : fix <diskName>
Create New Label (all existing data will be lost): mklabel <diskName> <label>
Show commonly used partition type guids : showGuids
Get usable first and last sectors : getUsableSectors <diskName>
Предполагам, че трябва да използам get <diskName> , но как да разбера <diskName>
Пробвах с:
# partedUtil get naa.600508e00000000048d5043a46988903
Error: Could not stat device naa.600508e00000000048d5043a46988903 - No such file or directory.
Unable to get device naa.600508e00000000048d5043a46988903
и
~ # partedUtil get vml.0200000000600508e00000000048d5043a469889034c6f67696361
Error: Could not stat device vml.0200000000600508e00000000048d5043a469889034c6f67696361 - No such file or directory.
Unable to get device vml.0200000000600508e00000000048d5043a469889034c6f67696361
Голяма боза. Сега не мога да разбера какво се случва с HDD NEW А - 2 TB, има ли някаква синхронизация без да съм рестартирал сървъра. Как най-лесно мога да поправя Райд 1-цата като от 1.5 ТБ Райд 1, да го направя на Райд 1 - 2ТБ
Ako някой е по-наъвтре в VMware ESXi-я, моля нека пише.. Ако имате предложения къде да чета и на къде да се насоча, съм готов да ги видя. Просто това ми е спешно и ще съм благодарен на всеки който се отзове.
Нямам mtab, в fstab-a ми излиза следното:
~ # cat /etc/fstab
none /proc procfs defaults 0 0
none /vmfs/volumes vcfs defaults 0 0
none /tmp visorfs 2,192,01777,tmp 0 0
Съответно в /proc:
~ # cd /proc
/proc # ls -l
drwxr-xr-x 1 root root 131072 Sep 17 16:35 bus
drwxr-xr-x 1 root root 131072 Sep 17 16:35 driver
drwxr-xr-x 1 root root 131072 Sep 17 16:35 mpt
drwxr-xr-x 1 root root 131072 Sep 17 16:35 net
drwxr-xr-x 1 root root 131072 Sep 17 16:35 scsi
/proc #
Предварително благодаря на отзовалите се по моя проблем.