Автор Тема: >2tb raid5 ?  (Прочетена 1918 пъти)

cozmo

  • Новаци
  • *
  • Публикации: 2
    • Профил
>2tb raid5 ?
« -: Oct 27, 2007, 14:21 »
Имах 3 диска по 750GB в RAID5 с 3ware 9650 и slackware 12 current
под reiserfs добавих още 1 към RAID5 но поради това че партишъна беше създаден с cfdisk(fdisk) които имат ограничение от 2TB се оказа че трябва
да бъде създаден на ново но с parted (основната идея е да се разраства партишъна при закупуването на нов HDD)
запаметих цялата ми информация на други дискове преди да направя процедурата  
след проверка в интернет и задълбочено търсене попаднах на няколко подобни решения:
$ parted /dev/sda
(parted) mklabel gpt
(parted) mkpart primary ext3 0s -1s
Warning: You requested a partition from 0,00kB to 7000GB.
The closest location we can manage is 17,4kB to 7000GB.  Is this still acceptable to you?
Yes/No? yes
(parted) print
Disk /dev/sda: 7000GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number  Start   End     Size    File system  Name     Flags
 1      17,4kB  7000GB  7000GB  ext3         primary      

$ mkfs.ext3 /dev/sda1
$ mount /dev/sda1 /mnt

до тук добре всичко работеше както трябва при мен вместо ext3 е reiserfs

МОЙТА ГРЕШКА в случая беше че върнах (ПРЕМЕСТИХ) цялата информация на райда
всичко си се четеше и пишеше както трябва

ОБАЧЕ

след рестарт обаче не искаше да се маунтне партишана
mount: wrong fs type, bad option, bad superblock on /dev/sda1,
       missing codepage or other error
       In some cases useful info is found in syslog - try
       dmesg | tail  or so

dmesg
3w-9xxx: scsi2: AEN: INFO (0x04:0x0001): Controller reset occurred:resets=1.
scsi2 : 3ware 9000 Storage Controller
3w-9xxx: scsi2: Found a 3ware 9000 Storage Controller at 0xff4ff000, IRQ: 17.
3w-9xxx: scsi2: Firmware FE9X 3.08.02.005, BIOS BE9X 3.08.00.002, Ports: 4.
scsi 2:0:0:0: Direct-Access     AMCC     9650SE-4LP DISK  3.08 PQ: 0 ANSI: 5
nsp32: loading...
ipr: IBM Power RAID SCSI Device Driver version: 2.4.1 (April 24, 2007)
RocketRAID 3xxx SATA Controller driver v1.0 (060426)
st: Version 20070203, fixed bufsize 32768, s/g segs 256
sd 2:0:0:0: [sda] Very big device. Trying to use READ CAPACITY(16).
sd 2:0:0:0: [sda] 4394465280 512-byte hardware sectors (2249966 MB)
sd 2:0:0:0: [sda] Write Protect is off
sd 2:0:0:0: [sda] Mode Sense: 23 00 00 00
sd 2:0:0:0: [sda] Write cache: enabled, read cache: disabled, doesn't support DPO or FUA
sd 2:0:0:0: [sda] Very big device. Trying to use READ CAPACITY(16).
sd 2:0:0:0: [sda] 4394465280 512-byte hardware sectors (2249966 MB)
sd 2:0:0:0: [sda] Write Protect is off
sd 2:0:0:0: [sda] Mode Sense: 23 00 00 00
sd 2:0:0:0: [sda] Write cache: enabled, read cache: disabled, doesn't support DPO or FUA
 sda: sda1
sd 2:0:0:0: [sda] Attached SCSI disk

ReiserFS: sda1: warning: sh-2021: reiserfs_fill_super: can not find reiserfs on sda1

root@xxxxxx:~# parted /dev/sda
GNU Parted 1.8.7
Using /dev/sda
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) p
Model: AMCC 9650SE-4LP DISK (scsi)
Disk /dev/sda: 2250GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Number  Start   End     Size    File system  Name     Flags
 1      17.4kB  2250GB  2250GB  reiserfs     primary


стигнах до няколко тъпи извода:
Very big device надписа в dmesg

и осъзнаването че партишъна е форматиран с reiserfs 4kb къстер по подразбиране (мисля че беше 2TB ограничението с 4kb къстер)
(как да увелича клъстера без да загубя информация)
ако успея да намаля(resize) големината на дяла мога наново да прехвърля информацията и да оправя нещата но не мога да маунтна

тъй че ако някой има идея какво мога да направа да помага че мен ме заболя главата
Активен

edmon

  • Гост
>2tb raid5 ?
« Отговор #1 -: Oct 27, 2007, 16:29 »
що не ги направи лвм още в началото?
Активен

cozmo

  • Новаци
  • *
  • Публикации: 2
    • Профил
>2tb raid5 ?
« Отговор #2 -: Oct 28, 2007, 21:41 »
не съм ги направил ЛВМ защото или не съм знаел как става
или не съм сметнал че е необходимо
Значи след поредниа тест на друг хардиск (750GB)
по същия начин се маунтва веднага щом се направи а след рестарт
отказва има ли възможност това да е от някой незареден модул
за EFI GPT

root@xxxxxx:~# fdisk -l
Disk /dev/sda: 0 MB, 0 bytes
255 heads, 63 sectors/track, 0 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
  Device Boot      Start         End      Blocks   Id  System
/dev/sda1               1      267350  2147483647+  ee  EFI GPT
Partition 1 has different physical/logical beginnings (non-Linux?):
     phys=(0, 0, 1) logical=(0, 0, 2)
Partition 1 has different physical/logical endings:
     phys=(1023, 254, 63) logical=(267349, 89, 4)

Disk /dev/sdc: 750.1 GB, 750156374016 bytes
255 heads, 63 sectors/track, 91201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

  Device Boot      Start         End      Blocks   Id  System
/dev/sdc1               1       91202   732574583+  ee  EFI GPT

по въпроса открих това:
Kernel Support for GPT

After learning the hard way, which is what testing is for, I found you must have GPT support on in the kernel. This in under:

File Systems
   Partition Types
    
  • Advanced partition selection
        
  • EFI GUID Partition support (NEW)

    These must be on! EFI GUID sets the "CONFIG_EFI_PARTITION" flag. The help menu states:

        Say Y here if you would like to use hard disks under Linux which were partitioned using EFI GPT. Presently only useful on the IA-64 platform.

    The last line is outdated, "Presently" is no longer true. We have it working on a 2.6.14 Intel 32-bit.

    Without this on, strange things happen. For instance, rebooting the machine caused the file system to no longer be mountable or the GPT table got corrupted.
    Nice thing about GPT is that is keeps a backup table at the end of the disk.

    When you turn GPT support on, everything works as expected. All problems went away. We could no longer break it.

    при мен също няма поддръжка на EFI в ядрото 2.6.23.1-smp (което не е фатално при положение че зареждам OS от друг диск)
    а като модул не успях да го намеря
    QTPARTED вижда дяловете и ги показва като Active/Hidden
  • Активен

    gat3way

    • Напреднали
    • *****
    • Публикации: 6050
    • Relentless troll
      • Профил
      • WWW
    >2tb raid5 ?
    « Отговор #3 -: Oct 29, 2007, 21:54 »
    Ама това Itanium2 ли се води?

    Не, ако не буут-ваш от раид масива, няма значение...щом така или иначе буут-ваш де '<img'>

    EFI е един огромен шит, ама много огромен '<img'>
    Активен

    "Knowledge is power" - France is Bacon

    Подобни теми
    Заглавие Започната от Отговора Прегледи Последна публикация
    Raid5 проблем
    Настройка на хардуер
    jm 3 1475 Последна публикация Jan 27, 2007, 11:27
    от teleport
    Freebsd 6.2 и raid5
    Хардуерни и софтуерни проблеми
    mrowcp 9 2239 Последна публикация Mar 11, 2008, 14:04
    от laskov