Покажи Публикации - ivo_18
* Виж публикациите на потр. | Виж темите на потр. | Виж прикачените файлове на потр
Страници: 1 2 [3] 4 5
31  Хумор, сатира и забава / Кошче / Re: Could not parse the XML file (). -: Jan 17, 2012, 18:17
Could not parse the XML file ().
как да оправя това  ???

Здравейте,

Преди 1 час и при мен се появи същия проблем:

Цитат
Could not parse the XML file ()

Оитах се да оправя проблема с netconfig, с промяна в rc.inet1.conf, с промяма в /etc/hosts, но без никаква промяна на грешката която ми дава системата.

Операционната система е Slackwre 13.37
Графичната среда е xfce4, грешката ми я даде и под КDE.

Вчера мрежата работеше както трябва.

Ако може някой да ми даде съвет какво мога да направя за да оправя проблема.

Благодаря предварително.

Поздрави.

Edit:

командaта за изпълняване в козолата която може да фиксне проблема, за да имаме мрежа e dhcpd eth0, след това проверяваме с ifconfig -a за да проверим дали всичко е наред.

Искам да изкажа благодарности на един познат който ме навигира по скайп и който със сигурност посещава форума, той си знае  кой е.

Edit:

Тва изглежда, че е некъв шибан бъг на графичната среда.
Ето един интересен линк, който може да бъде полезен:

http://www.linuxquestions.org/questions/slackware-14/slackware-13-network-settings-753040/

Също така за настройки няма да е зле да бъде погледнато и:

http://www.slackbook.org/html/network-configuration.html
32  Linux секция за начинаещи / Настройка на програми / Re: How to Install IPCop 1.4.20 on 4GB CF Card -: Jan 12, 2012, 17:00
Отварям файловото дърво на картата където е инсталира IPCop-a  и оттам някакви идеи за това как се прави chroot на картата? Четох за "chroot" но не ми стана много ясно.  :(
33  Linux секция за начинаещи / Настройка на програми / Re: RAID 1 между два хард диска с помоща на CentOS 5.6 - как? -: Jan 09, 2012, 17:03
@teleport
Съгласен съм с теб, но няма да излагам защо съм съгласен, тъй като форума е публичен.

Оправих се с хардуерните Raid 1 масиви които направих съответно направените от дискове sdc + sdd и sde + sdf.

Искам да попитам, има ли безопасен начин, който да позволява, връзването на два хардуерни Raid 1 масива в един софтуерен Raid 10 и ако може, как става това?

*Edit:
#На хардуерния масив който ми е изграден от дискове sdc и sdd има  информация която не бива да се загуби.

Благодаря предварително.

В момента, нещата седят така:

Цитат
Disk /dev/sda: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1          13      104391   fd  Linux raid autodetect
/dev/sda2              14       36363   291981375   fd  Linux raid autodetect
/dev/sda3           36364       38913    20482875   fd  Linux raid autodetect

Disk /dev/sdb: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1          13      104391   fd  Linux raid autodetect
/dev/sdb2              14       36363   291981375   fd  Linux raid autodetect
/dev/sdb3           36364       38913    20482875   fd  Linux raid autodetect

Disk /dev/sdc: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Disk /dev/sdc doesn't contain a valid partition table

Disk /dev/sdd: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Disk /dev/sdd doesn't contain a valid partition table

Disk /dev/sde: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Disk /dev/sde doesn't contain a valid partition table

Disk /dev/sdf: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Disk /dev/sdf doesn't contain a valid partition table

Disk /dev/md2: 298.9 GB, 298988797952 bytes
2 heads, 4 sectors/track, 72995312 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md2 doesn't contain a valid partition table

Disk /dev/md1: 20.9 GB, 20974338048 bytes
2 heads, 4 sectors/track, 5120688 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md1 doesn't contain a valid partition table

Disk /dev/md0: 106 MB, 106823680 bytes
2 heads, 4 sectors/track, 26080 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md0 doesn't contain a valid partition table

Цитат
[root@big117 ~]# mount -l
/dev/md2 on / type ext3 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
/dev/md0 on /boot type ext3 (rw)
tmpfs on /dev/shm type tmpfs (rw)
/dev/mapper/isw_bhijjeegbi_HardwareRAID1 on /data/HardwareRAID1 type ext3 (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
/dev/mapper/isw_ebcddgdhfd_HardwareRAID2 on /mnt/mnt_isw_ebcddgdhfd_HardwareRAID2 type ext3 (rw)

Поздрави.

Edit:

Aко някой се чуди къде му седят хардуерните Raid масиви след като ги създаде, може да ги търси в /dev/mapper/isw_нещо си. 
От експериментите които проведох, става ясно, че mdadm не може да бъде изпълняван под dmraid.
34  Linux секция за начинаещи / Настройка на програми / Re: RAID 1 между два хард диска с помоща на CentOS 5.6 - как? -: Jan 05, 2012, 15:03
Към настоящия момент нещата са в следния вариант:

На Server1 има закачени общо 4 хард диска.

Два от тях - sda 320 GB и sdb 320 GB са в софтуерен Raid масив и от тях ми буутва машината.

Другите два sdc 500 GB и sdd 500 GB ги сетнах в хардуерен Raid 1 масив през менюто на Raid котролера в което се влиза с cntr + I.

След като сетнах sdc 500 GB и sdd 500 GB в хардуерен Raid 1, системата ми каза, че ако продължа, ще ми изтрие данните на дисковете, за което се бях приготил предварително и си бях направил backup на хард диск sdc на който имах информация.

Та в момента sdc 500 GB и sdd 500 GB нямат партишъни на тях и файлова система. Не виждам масива който съм създал от sdc 500 GB и sdd 500 GB в конзолата, незнам защо.

Като дам fdisk -l в конзолата ми излиза това:

Last login: Thu Jan  5 14:11:58 2012
[root@Server1 ~]# fdisk -l

Disk /dev/sda: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1          13      104391   fd  Linux raid autodetect
/dev/sda2              14       36363   291981375   fd  Linux raid autodetect
/dev/sda3           36364       38913    20482875   fd  Linux raid autodetect

Disk /dev/sdb: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1          13      104391   fd  Linux raid autodetect
/dev/sdb2              14       36363   291981375   fd  Linux raid autodetect
/dev/sdb3           36364       38913    20482875   fd  Linux raid autodetect

Disk /dev/sdc: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Disk /dev/sdc doesn't contain a valid partition table

Disk /dev/sdd: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Disk /dev/sdd doesn't contain a valid partition table

Disk /dev/md2: 298.9 GB, 298988797952 bytes
2 heads, 4 sectors/track, 72995312 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md2 doesn't contain a valid partition table

Disk /dev/md1: 20.9 GB, 20974338048 bytes
2 heads, 4 sectors/track, 5120688 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md1 doesn't contain a valid partition table

Disk /dev/md0: 106 MB, 106823680 bytes
2 heads, 4 sectors/track, 26080 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md0 doesn't contain a valid partition table


След като съм сетнал хардуерния Raid 1 масив, защо не го виждам в таблицата, кое съм сгрешил или кое ми убягва?

[root@Server1 ~]# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdb1[1] sda1[0]
      104320 blocks [2/2] [UU]
     
md1 : active raid1 sdb3[1] sda3[0]
      20482752 blocks [2/2] [UU]
     
md2 : active raid1 sdb2[1] sda2[0]
      291981248 blocks [2/2] [UU]


 
Цитат
GNU nano 1.3.12        File: mtab                       

/dev/md2 / ext3 rw 0 0
proc /proc proc rw 0 0
sysfs /sys sysfs rw 0 0
devpts /dev/pts devpts rw,gid=5,mode=620 0 0
/dev/md0 /boot ext3 rw 0 0
tmpfs /dev/shm tmpfs rw 0 0
none /proc/sys/fs/binfmt_misc binfmt_misc rw 0 0
sunrpc /var/lib/nfs/rpc_pipefs rpc_pipefs rw 0 0

След като направих по един партишън на дискове sdc и sdd които ужким направих в хардуерен Raid 1, fdisk -l ми показва следното:

[root@Server1 ~]# fdisk -l

Disk /dev/sda: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1          13      104391   fd  Linux raid autodetect
/dev/sda2              14       36363   291981375   fd  Linux raid autodetect
/dev/sda3           36364       38913    20482875   fd  Linux raid autodetect

Disk /dev/sdb: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1          13      104391   fd  Linux raid autodetect
/dev/sdb2              14       36363   291981375   fd  Linux raid autodetect
/dev/sdb3           36364       38913    20482875   fd  Linux raid autodetect

Disk /dev/sdc: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1               1       60801   488384001   83  Linux

Disk /dev/sdd: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1               1       60801   488384001   83  Linux

Disk /dev/md2: 298.9 GB, 298988797952 bytes
2 heads, 4 sectors/track, 72995312 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md2 doesn't contain a valid partition table

Disk /dev/md1: 20.9 GB, 20974338048 bytes
2 heads, 4 sectors/track, 5120688 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md1 doesn't contain a valid partition table

Disk /dev/md0: 106 MB, 106823680 bytes
2 heads, 4 sectors/track, 26080 cylinders
Units = cylinders of 8 * 512 = 4096 bytes

Disk /dev/md0 doesn't contain a valid partition table

Обаче когато реших да създам файлова система ext3 на дискове sdc и sdd системата ми даде следното:

[root@Server1 ~]# mkfs.ext3 /dev/sdc1
mke2fs 1.39 (29-May-2006)
/dev/sdc1 is apparently in use by the system; will not make a filesystem here!
[root@Server1 ~]# mkfs.ext3 /dev/sdd1
mke2fs 1.39 (29-May-2006)
/dev/sdd1 is apparently in use by the system; will not make a filesystem here!


Код:
[root@Server1 ~]# mdadm --detail --scan
ARRAY /dev/md2 level=raid1 num-devices=2 metadata=0.90 UUID=dc1b250c:c0ab5022:edff2caf:96bd3db7
ARRAY /dev/md1 level=raid1 num-devices=2 metadata=0.90 UUID=4ddbe649:9b0ad48d:8f149b50:d854b12d
ARRAY /dev/md0 level=raid1 num-devices=2 metadata=0.90 UUID=86f13cf4:ffb1aadf:ea345206:fedd813a

Опитах се да моунтна sdc1 в /data, но ми дава следното:

Цитат
[root@Server1 ~]# mount /dev/sdc1 /data
mount: /dev/sdc1 already mounted or /data busy

sdc1 не е маунтнат, а нямам идея защо ми дава
Цитат
or /data busy
:(

Ясно е, че виждам само софтуерния Raid, а това което ми дава системата като проблем, явно fdisk не може да види хардуерния Raid 1 масив.

Четох за драйвери които се инсталират когато се прави хардуерния Raid 1 под Уиндоус. Но при положение, че Bios-a ми вижда хардуерния Raid 1 защо са ми някакви драйвери? Не знам, леко съм объркан.

Може би ми трябва някаква програмка с която да видя хардуерния Raid 1 масив, или може би хардуерния Raid 1 масив по подразбиране да е маунтнат някъде другаде и затова да не мога да го видя с fdisk.

Странна работа.  ???

Възможно ли е да не се вижда хардуерния масив заради този коментар в fstab:
Цитат
  GNU nano 1.3.12                   File: fstab                                             

/dev/md2                /                    ext3    defaults      1 1
/dev/md0             /boot                 ext3    defaults      1 2
tmpfs                   /dev/shm          tmpfs   defaults      0 0
devpts                 /dev/pts            devpts  gid=5,mode=620  0 0
sysfs                   /sys                   sysfs   defaults       0  0
proc                    /proc                 proc    defaults        0 0
/dev/md1            swap                 swap    defaults       0 0
#/dev/md3         /data                 ext3    defaults        1 3

Проблема е решен. Утре ще пиша как.  [_]3

35  Linux секция за начинаещи / Настройка на програми / Re: RAID 1 между два хард диска с помоща на CentOS 5.6 - как? -: Jan 05, 2012, 12:53
Иво, правил ли си някога RAID масиви?
Не, не съм правил. :(

Имаш ли опит с това ?

Не, нямам. :(


Наясно ли си КОЕ/КАК/ЗАЩО ?

Наясно съм с теорията.

Не е ли по-добре да помолиш някой, който е наясно и има опит да дойде да го изградите заедно това? За 5 минути работа е, дето се казва. Така с отговори във форума малко ще ти е трудно, а е важно нещо - как ще го направиш този масив. Прави се веднъж, и се ползва много време след това. Не бива да се допускат грешки. Успехи.

Няма кой да помоля да ми покаже, оправям се сам. И разчитам на повече четене.
Знам, че не бива да се допускат грешки, затова питам, за да ми обясни някой. :) [_]3
36  Linux секция за начинаещи / Настройка на програми / Re: RAID 1 между два хард диска с помоща на CentOS 5.6 - как? -: Jan 05, 2012, 12:29
O.k. но ако не мога да сложа райд контролер, това какво е:

Цитат
RAID 0, 1, 0+1, 5 in the chipset
RAID 0, 1 by JMicron JMB363 controller

Например ето какво се опитах да направя. Промених някой настройки в Bios-a които ми се сториха, че трябва да ги променя, но уви нищо:

Промяна в:
Аdvanced
Jmicron  Controller Mode oт IDE на RAID

Промяна на Configure SATA as [AHCI] на [RAID]

Четох на едно място, ето тук - ЦЪК за влизане в RAID меню  с комбинацията cntr + i, но не успях да влезна в такова меню.

И все пак, предлагате да не се прави принципно хадруерен Raid ами софтуерен, така ли?


ето тук има нещо по моя проблем Някакъв допълнителен коментар по него?
37  Linux секция за начинаещи / Настройка на програми / Re: RAID 1 между два хард диска с помоща на CentOS 5.6 - как? -: Jan 05, 2012, 11:34
Да дам малко повече информация относно хардуера на сървъра:

Дъно: Asus P5B Deluxe
Процесор: Core(TM)2 Quad CPU Q6600@2.4GHz
Памет: 7 GB

Bios: v02.58

За моето дъно е валидно следното за райд контрлера:

Цитат
RAID 0, 1, 0+1, 5 in the chipset
RAID 0, 1 by JMicron JMB363 controller
38  Linux секция за начинаещи / Настройка на програми / Re: RAID 1 между два хард диска с помоща на CentOS 5.6 - как? -: Jan 04, 2012, 17:49
Mалко ъп на темата да направя.

Някой може ли да ми обясни, кое е по-добре да се направи -хардуерен Raid масив или софтуерен Raid масив и защо?

Друго нещо да попитам.

Ще се объркат ли нещата по някакъв начин, ако на един сървър има два Raid масива, единия от които да е софтуерен а другия хардуерен?

В момента умувам над това, в моя случай, ако хард дискове sda и sdb са вързани в софтуерен Raid масив, дали ще мога да направя хард дискове sdc и sdd в хардуерен масив?

А специално за хардуерния Raid масив може ли след като съм вързал два диска в Raid 1, след това да ги вържа в Raid 10 и как става това?

Предварително благодаря.

Поздрави.

Еdit 1:

Понеже ми изпаднаха още два диска по 500 ГБ които ще нарека sde и sdf, идеята ми е следната:

На Server1, да имам следните Raid масиви:

Първи Raid масив, който в момента е съществуващ и от който ми boot-ва машината.

Втори Raid 1 масив който да бъде направен от дискове sdc (който е пълен с информация) и sdd  (който е празен, форматиран и с ext3 файлова система на него).

Трети Raid 1 масив който да бъде направен от дискове sde 500 GB (който също е пълен с информация) и sdf 500 GB (който е празен, форматиран и с файлова система ext3 на него).

За бъдещите два Raid 1 масива изградени от дискове | sdc + sdd | и | sde + sdf | се чудя дали да са софтуерни масиви или хардуерни.

Искам още веднъж да благодаря на @teleport за детайлното обяснение по създаването на софтуерния Raid 1 масив.

Но да си представим, че Raid 1 | sdc + sdd | и Raid 1 | sde + sdf | ги направя софтуерни или хардуерни, има ли възможност след като съм ги създал да са Raid 1, да обединя двата масива в един общ който да е Raid 10 и как мога да го направя това?
39  Linux секция за начинаещи / Настройка на програми / Re: RAID 1 между два хард диска с помоща на CentOS 5.6 - как? -: Dec 31, 2011, 01:10
    • 3. Има ли допълнителна платка за RAID закачена на дъното?
    • 4. Има ли някаква графична среда инсталирана на сървъра?
    Няма графична среда, за съжалениe няма и допълнителна платка. :(

    Няма проблем да се направи, но ще се наложи да се копират 2 пъти по 500G между sdc и sdd.
    Като начало: дай изхода от 'fdisk -l /dev/sda', 'cat /proc/mdstat' и 'mount' без кавичките.

    За този вариант бях чувал. Но не знаех дали може да се приложи реално.

    Много благодаря на всички отзовали се в темата, страшно много ми помагате с вашите коментари и мнения.

    @teleport
    Много благодаря за детайлното показване на стъпките които трябва да извърша.

    И все пак, продължавам усилено да чета за това което трябва да направя и съм отворен за всякакви други коментари и мнения по темата.

    Поздрави.
    40  Linux секция за начинаещи / Настройка на програми / RAID 1 между два хард диска с помоща на CentOS 5.6 - как? -: Dec 30, 2011, 16:45
    Здравейте имам следния казус за решаване.

    Трябва да направя RAID 1 масив от два диска на един сървър.

    Вече на Сървъра има други два диска които играят в масив и на които е операционната система - CentOS 5.6

    За да не обърквам значително по-знаещите от мен хора, ще дам задачата така.

    На Server 1, има вече два закачен диска - закачени в RAID масив.
    Дисковете са съответно (sda - 320 GB) и (sdb - 320 GB)

    Искам да добавя още два диска които са съответно (sdc - 500 GB) и (sdd - 500 GB)

    Означенията sda, sdb, sdc и sdd ги давам за да бъде по лесно ориентирането в задачата.

    Така, sda и sdb си работят в масив, пускам сървъра и всичко е ток и жица, няма проблеми.

    Диск sdc които искам да вържа с sdd в RAID 1 е пълен с информация, тоест 500-те ГБ са пълни, а диск sdd е напълно празен и форматиран в ext3 файлова система и е с един партишън на него - sdd1.

    Дисковете sda, sdb, sdc са също с файлови системи ext3.

    Искрено се надявам някой да ме е разбрал и да ми помогне.

    Как да вържа двата диска (sdc - 500 GB) и (sdd - 500 GB) в RAID 1 масив с помоща на CentOS 5.6? Kaкви са настройките, какво се изпълнява като команди? Изобщо, какво да очаквам?

    Как да прикрепя (sdd - 500 GB) към (sdc - 500 GB) в RAID 1?

    Предварително благодаря на всички отзовали се в темата.

    Поздрави.

    П.П. Двуумих се в кой раздел да пусна темата, дали е хардуер за начинаещи или в настоящия раздел, в крайна сметка избрах настоящия, ако има някакъв разрез с форумните правила, извинявам се, нека бъде преместена ако модераторите преценят.

    41  Linux секция за начинаещи / Настройка на програми / Re: Няма достъп до VMWare през графична среда след спиране на тока : ( -: Dec 29, 2011, 13:35
    Сега точно това ще направя, ще рестартирам сървъра, но мисълта ми е как да фиксна проблема така че да не се появява повече? Предполагам, че проблема е в някой service на vmware-a, или пък нещо е станало с някой config файл. Някакви идеи за това?

    Ако е service, кой service само да се рестартира, за да не се ребуутва цялата машина? Ако е config файл, кой config файл да гледам дали не се е намазал и своевремнно да го фиксна?

    Edit 1:

    Въпреки рестарта който направих, отново нямам достъп до web интерфейса за стартиране на виртуалните машини които са ми на сървъра.

    Някой може ли да помогне с предложение как мога да стартирам виртуалните машини ръчно, през конзолата, без да ползвам графичната среда? Като това да е компромисен вариант докато намеря решение на проблема с уеб аксеса на VMware-a.

    Проблема е фикснат, по-късно ще опиша как, за да може някой друг ако има подобен проблем да погледне моето решение.

    42  Програмиране / Общ форум / Re: Създаване на sh файл - автоматично използване на команди - как? -: Dec 29, 2011, 13:12
    Много благодаря за бързите отговори, имам nano editor в операционната система която в open Suse 10.0.

    Да, бях пуснал тема за VMware Server, и темата е актуална защото не мога да рестартирам VMware Server-a, преди малко ъпнах темата.

    Извинявам се за отклонението, та по същество, ето моя примерен Sh файл, който искам да създам:


    Код:
    GNU nano 1.3.12                                    New Buffer                                                                    Modified  

    #!/bin/sh

    #cp -r data/downloads /data/VMBACKUP

    #cp -r data/downloads1 /data/VMBACKUP

    #cp -r data/downloads12 /data/VMBACKUP

    #cp -r data/downloads123 /data/VMBACKUP

    #cp -r data/downloads1234 /data/VMBACKUP

    #cp -r data/downloads12345 /data/VMBACKUP

    #cp -r data/downloads123456 /data/VMBACKUP

    #cp -r data/downloads1234567 /data/VMBACKUP

    #cp -r data/downloads12345678 /data/VMBACKUP

    #cp -r data/downloads123456789 /data/VMBACKUP



    ^G Get Help            ^O WriteOut            ^R Read File           ^Y Prev Page           ^K Cut Text            ^C Cur Pos
    ^X Exit                ^J Justify             ^W Where Is            ^V Next Page           ^U UnCut Text          ^T To Spell



    Как се завършва файла, има ли нещо с което се приключва преди да се запише?
    Трябва ли да има разстояние между командите, както аз съм ги написал с по един ред разстояние, или не трябва?
    43  Linux секция за начинаещи / Настройка на програми / Re: Няма достъп до VMWare през графична среда след спиране на тока : ( -: Dec 29, 2011, 12:41
    Отворих SUSE-то на сървъра, но не успях да се навигирам къде са инсталирани виртуалните машини на него. Някой може ли да помогне с навигацията? Предполагам че инсталацията е стандартна без промяна на фолдъри и прочее.

    В Сусе-то влизам през NX for Windows. Aко това има някакво значение.

    Аз в по-горния си пост говорех за графичната среда, но май е по-добре да дифинирам точно за какво става въпрос, а именно - невъзможност да се логна във Vmware Infrastructure Web Access при правилно потребителско име и парола.
    Пробвайте с това:
    Код:
    /etc/init.d/vmware-mgmtsomthing restart

    Eто какво ми дава при опит да рестартирам vmware-a:

    Цитат
    Server1:~ # /etc/init.d/vmware-mgmtsomthing restart
    -bash: /etc/init.d/vmware-mgmtsomthing: No such file or directory

    Накакви други идеи за рестартиране на VMware-a? :)
    44  Програмиране / Общ форум / Създаване на sh файл - автоматично използване на команди - как? -: Dec 29, 2011, 11:32
    Здравейте,

    Искам да попитам, как се създава sh файл в който да бъдат добавени комадни от рода на:

    cp -r downloads /data/VMBACKUP


    Идеята ми е, да не пиша всеки път една и съща команда за копиране на дадена директория от едно място на друго, как мога да направя така, че да запиша например 10 еднакви команди но за различни директории които да се прехвърлят на едно и също място?

    Четох за този sh файл, че се създава от контролния терминал посредством текстов редактор след което се запаметява като .sh

    Kакъв е скрипта и как мога да го напиша този sh файл?

    Благодаря предварително.

    Поздрави!
    45  Linux секция за начинаещи / Настройка на програми / Re: Backup върху нов хард диск, как? -: Dec 28, 2011, 17:44
    Щото това mke2fs -j ext3 /dev/sde1 не е правилно и командата взема тройката за брой блокове. man mke2fs

    Kъде греша? :)

    Може би трябва да бъде:

    mkfs.ext3 /dev/sdе1?

    Да, това е командата, сега стана. :)

    Изключително много благодаря на всички които ми помогнаха като писаха в темата.

    Записал съм си и съм описал всичко в един notepad за да не питам повече такива неша. :)
    Страници: 1 2 [3] 4 5