Титла: VMware ESXi 5.0 - възстановяване на хардуерен Raid 1 - как? Публикувано от: ivo_18 в Sep 17, 2012, 19:44 Здравейте, Заглавието на темата не е много точна относно моя проблем който възника преди около 12 часа. Ще се опитам да го обясня, надявам се някой да ми помогне със съвет и насока какво да правя. Имам един сървър Fujitsu PRIMERGY TX200 S6 ( http://www.fujitsu.com/bg/products/computing/servers/primergy/tower/tx200/tx200-s6.html) на който е инсталиран VMware ESXi 5.0. Имах два диска вързани в хардуерен Райд масив 1. И двата диска бяха по 1.5 ТБ. На съвъра имам една дузина виртуални машшни. Така имаме следната ситуация: HDD OLD 1 - 1.5 TB HDD OLD 2 - 1.5 TB И двата са вързани както казах в хардуерен Райд 1 и поддържат един Datastore - "My_Datastore" В момента HDD OLD 1 e жив HDD OLD 2 e за боклука. Сутринта успях да пусна съръвра, като VMware ESXi зареди успешно и усшях да пусна всички виртуални машини които трябват на други хора да работят на тях. Но искам да си възстановя Райд 1-цата. Така, HDD OLD 2 вече го отписваме от схемата. Та съръра в момента работи. Купил съм 2 хард диска по 2 ТБ, като имам намерение да прехвърля всички виртуални машини които имам от HDD OLD 1 - 1.5 на HDD NEW А - 2 TB. След като се прехвърлят виртуалните машини, изваждам HDD OLD 1 - 1.5 който е жив, както и първия HDD NEW А - 2 TB. На мястото на живия HDD OLD 1 - 1.5 oт който ми буутваше сървъра, поставям втория HDD NEW B - 2 TB който ми е останал, като върху него инсталирам отново VMware ESXi 5.0. След като инсталирам ESXi 5.0 на втория HDD NEW B - 2 TB, закачам отново и първия HDD NEW A - 2 TB върху който са ми копираните виртуални машини от HDD OLD 1 - 1.5 и се опитвам да ги синхрониирам или няма да стане? Може би след като инсталирам на ново VMware ESXi 5. 0 на HDD NEW B - 2 TB, на него да прехвърля виртуални машини които бях копирал на HDD NEW А - 2 TB. След което да форматирам HDD NEW А - 2 TB и да го пусна да се синхронизира с HDD NEW B - 2 TB. Така мисля че ще ми стане възстановката на Raid 1-цата, но вече няма да съм с Райд 1 който включва 2 х 1.5 ТБ, а 2 х 2 ТБ. Някой може ли да предложи опростена версия за изпълнение поправката на Raid 1-цата но с други дискове с по голям обем - 2 ТБ. Понеже към този момент не мога да спра сървъра понеже той се използва, както си работи, закачих HDD NEW А - 2 TB Тоест в момента на сървъра имам HDD OLD 1 - 1.5 ТБ и HDD NEW А - 2 TB, обаче до колкото схванах, може и грешно да е то, в момента HDD NEW А - 2 TB се синхронизира с HDD OLD 1 - 1.5 ТБ, тъй като освен зелената лапмичка на hot rack-a на HDD NEW А - 2 TB мига под нея и червената лампичка. Не мога да се оправя с VMware ESXi-я и с неговия команден ред показващ отделните устройства. В случая искам да разбера какво се случва с HDD NEW А - 2 TB който сложих при HDD OLD 1 - 1.5 ТБ. Синхронизира ли се, какво се случва. Ето какво ми излиза в /dev/disks: /dev/disks # ls -l -rw------- 1 root root 145999527936 Sep 17 15:51 naa.600508e00000000048d5043a46988903 -rw------- 1 root root 939524096 Sep 17 15:51 naa.600508e00000000048d5043a46988903:1 -rw------- 1 root root 4293918720 Sep 17 15:51 naa.600508e00000000048d5043a46988903:2 -rw------- 1 root root 140761890816 Sep 17 15:51 naa.600508e00000000048d5043a46988903:3 -rw------- 1 root root 4177920 Sep 17 15:51 naa.600508e00000000048d5043a46988903:4 -rw------- 1 root root 262127616 Sep 17 15:51 naa.600508e00000000048d5043a46988903:5 -rw------- 1 root root 262127616 Sep 17 15:51 naa.600508e00000000048d5043a46988903:6 -rw------- 1 root root 115326976 Sep 17 15:51 naa.600508e00000000048d5043a46988903:7 -rw------- 1 root root 299876352 Sep 17 15:51 naa.600508e00000000048d5043a46988903:8 -rw------- 1 root root 1498999160832 Sep 17 15:51 naa.600508e000000000792d32f435607405 -rw------- 1 root root 4161536 Sep 17 15:51 naa.600508e000000000792d32f435607405:1 -rw------- 1 root root 4293918720 Sep 17 15:51 naa.600508e000000000792d32f435607405:2 -rw------- 1 root root 1493761506816 Sep 17 15:51 naa.600508e000000000792d32f435607405:3 -rw------- 1 root root 262127616 Sep 17 15:51 naa.600508e000000000792d32f435607405:5 -rw------- 1 root root 262127616 Sep 17 15:51 naa.600508e000000000792d32f435607405:6 -rw------- 1 root root 115326976 Sep 17 15:51 naa.600508e000000000792d32f435607405:7 -rw------- 1 root root 299876352 Sep 17 15:51 naa.600508e000000000792d32f435607405:8 lrwxrwxrwx 1 root root 36 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361 -> naa.600508e00000000048d5043a46988903 lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:1 -> naa.600508e00000000048d5043a46988903:1 lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:2 -> naa.600508e00000000048d5043a46988903:2 lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:3 -> naa.600508e00000000048d5043a46988903:3 lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:4 -> naa.600508e00000000048d5043a46988903:4 lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:5 -> naa.600508e00000000048d5043a46988903:5 lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:6 -> naa.600508e00000000048d5043a46988903:6 lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:7 -> naa.600508e00000000048d5043a46988903:7 lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:8 -> naa.600508e00000000048d5043a46988903:8 lrwxrwxrwx 1 root root 36 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361 -> naa.600508e000000000792d32f435607405 lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:1 -> naa.600508e000000000792d32f435607405:1 lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:2 -> naa.600508e000000000792d32f435607405:2 lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:3 -> naa.600508e000000000792d32f435607405:3 lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:5 -> naa.600508e000000000792d32f435607405:5 lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:6 -> naa.600508e000000000792d32f435607405:6 lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:7 -> naa.600508e000000000792d32f435607405:7 lrwxrwxrwx 1 root root 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:8 -> naa.600508e000000000792d32f435607405:8 /dev/disks # Трябва да подчертая, че след като сложих HDD NEW А - 2 TB, не съм рестартирал сървъра, тъй като в момента той се ползва. И не мога да разбера дали HDD NEW А - 2 TB се е инициализрал и изобщо какво се случва. Може би първо трябва да рестартирам сървъра да разваля хардуерния Райд 1 след което да рестартирам отново и може би тогава ще виждам HDD NEW А - 2 TB като отделно устройство. В ESXi--я не се изпълянват командите: # mount -l ~ # mount -l -sh: mount: not found ~ # m md5sum memstats mkdir mkfifo mknod mktemp more mv ~ # m md5sum memstats mkdir mkfifo mknod mktemp more mv ~ # m md5sum memstats mkdir mkfifo mknod mktemp more mv ~ # m md5sum memstats mkdir mkfifo mknod mktemp more mv # fdisk -l Koгато се опитам да въведа fdisk -l ми излиза следното: fdisk: cannot open - ~ # fdisk -l Found valid GPT with protective MBR; using GPT fdisk: Sorry, can't handle GPT partitions, use partedUtil Ясно е, че трябва да ползвам командата partedUtil Когато изпълня: ~ # partedUtil Излизат следните опции за употреба: Not enough arguments Usage: Get Partitions : get <diskName> Set Partitions : set <diskName> ["partNum startSector endSector type attr"]* Delete Partition : delete <diskName> <partNum> Resize Partition : resize <diskName> <partNum> <start> <end> Get Partitions : getptbl <diskName> Set Partitions : setptbl <diskName> <label> ["partNum startSector endSector type/guid attr"]* Fix Partition Table : fix <diskName> Create New Label (all existing data will be lost): mklabel <diskName> <label> Show commonly used partition type guids : showGuids Get usable first and last sectors : getUsableSectors <diskName> Предполагам, че трябва да използам get <diskName> , но как да разбера <diskName> Пробвах с: # partedUtil get naa.600508e00000000048d5043a46988903 Error: Could not stat device naa.600508e00000000048d5043a46988903 - No such file or directory. Unable to get device naa.600508e00000000048d5043a46988903 и ~ # partedUtil get vml.0200000000600508e00000000048d5043a469889034c6f67696361 Error: Could not stat device vml.0200000000600508e00000000048d5043a469889034c6f67696361 - No such file or directory. Unable to get device vml.0200000000600508e00000000048d5043a469889034c6f67696361 Голяма боза. Сега не мога да разбера какво се случва с HDD NEW А - 2 TB, има ли някаква синхронизация без да съм рестартирал сървъра. Как най-лесно мога да поправя Райд 1-цата като от 1.5 ТБ Райд 1, да го направя на Райд 1 - 2ТБ Ako някой е по-наъвтре в VMware ESXi-я, моля нека пише.. Ако имате предложения къде да чета и на къде да се насоча, съм готов да ги видя. Просто това ми е спешно и ще съм благодарен на всеки който се отзове. Нямам mtab, в fstab-a ми излиза следното: ~ # cat /etc/fstab none /proc procfs defaults 0 0 none /vmfs/volumes vcfs defaults 0 0 none /tmp visorfs 2,192,01777,tmp 0 0 Съответно в /proc: ~ # cd /proc /proc # ls -l drwxr-xr-x 1 root root 131072 Sep 17 16:35 bus drwxr-xr-x 1 root root 131072 Sep 17 16:35 driver drwxr-xr-x 1 root root 131072 Sep 17 16:35 mpt drwxr-xr-x 1 root root 131072 Sep 17 16:35 net drwxr-xr-x 1 root root 131072 Sep 17 16:35 scsi /proc # Предварително благодаря на отзовалите се по моя проблем. Титла: Re: VMware ESXi 5.0 - възстановяване на хардуерен Raid 1 - как? Публикувано от: Mitaka в Sep 17, 2012, 20:36 Би трябвало да е по-лесно, отколкото си написал:
1. Слагаш новия 2ТБ диск на мястото на изгорелия 2. Ребилдваш райда. 3. слагаш другия 2ТБ на мястото на работещия диск 4. ребилдваш райда 5. според това какъв ти е раид контролера - ситуациата е различна. Би трябвало да има начин да го extend-неш. 6. след като си extend-нал раид масива, от инструментите на ESXi си extend-ваш datastore-a. |