Покажи теми - ivo_18
Виж публикациите на потр. | * Виж темите на потр. | Виж прикачените файлове на потр
Страници: [1]
1  Linux секция за начинаещи / Настройка на програми / Проблем с размера на Thin Provisioned vmdk диск -: Feb 14, 2013, 15:18
Здравейте,
Имам следния проблем. Направих една виртуална машина под ESXi 5.1 на която има Ubuntu 12.04 desktop. Диска на виртуалната машина е само един и няма никакви снапшоти. Диска съм го направил във формат Thin Provisioned .

Към момента диска е:

Provisioned Storage 202.19 GB

Not-shared Storage 6.72 GB
Used Storage 6.72 GB

Eто каква информация ми дава CLI на ESXi 5.1:

/vmfs/volumes/51040676-d625c386-fd19-0019999d96ee/Jenkins-ubuntu12-04 # ls -l
-rw-------    1 root     root     214748364800 Feb 13 16:45 Jenkins-ubuntu12-04-flat.vmdk
-rw-------    1 root     root          8684 Feb 13 16:45 Jenkins-ubuntu12-04.nvram
-rw-------    1 root     root           508 Feb 13 16:35 Jenkins-ubuntu12-04.vmdk
-rw-r--r--    1 root     root             0 Feb  7 11:33 Jenkins-ubuntu12-04.vmsd
-rwxr-xr-x    1 root     root          2435 Feb 13 16:45 Jenkins-ubuntu12-04.vmx
-rw-r--r--    1 root     root           274 Feb 13 16:45 Jenkins-ubuntu12-04.vmxf
-rw-r--r--    1 root     root         22708 Feb  7 11:33 vmware-1.log
-rw-r--r--    1 root     root        363422 Feb  7 16:10 vmware-2.log
-rw-r--r--    1 root     root        181336 Feb  8 07:08 vmware-3.log
-rw-r--r--    1 root     root        181894 Feb 13 16:29 vmware-4.log
-rw-r--r--    1 root     root        180605 Feb 13 16:45 vmware.log

/vmfs/volumes/51040676-d625c386-fd19-0019999d96ee/Jenkins-ubuntu12-04 # du -h
6.7G    .

/vmfs/volumes/51040676-d625c386-fd19-0019999d96ee/Jenkins-ubuntu12-04 # du -h *
6.7G    Jenkins-ubuntu12-04-flat.vmdk
1.0M    Jenkins-ubuntu12-04.nvram
0       Jenkins-ubuntu12-04.vmdk
0       Jenkins-ubuntu12-04.vmsd
8.0K    Jenkins-ubuntu12-04.vmx
0       Jenkins-ubuntu12-04.vmxf
1.0M    vmware-1.log
1.0M    vmware-2.log
1.0M    vmware-3.log
1.0M    vmware-4.log
1.0M    vmware.log


А ето и това което ми дава CLI на самата виртуална машина относно хард диска и партишъните:

root@Jenkins-virtual-machine:~# fdisk -l

Disk /dev/sda: 214.7 GB, 214748364800 bytes
255 heads, 63 sectors/track, 26108 cylinders, total 419430400 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00053423

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *        2048   415236095   207617024   83  Linux
/dev/sda2       415238142   419428351     2095105    5  Extended
/dev/sda5       415238144   419428351     2095104   82  Linux swap / Solaris
root@Jenkins-virtual-machine:~# df -h
Filesystem      Size  Used Avail Use% Mounted on
/dev/sda1       198G  5.9G  183G   4% /
udev            994M  4.0K  994M   1% /dev
tmpfs           401M  692K  401M   1% /run
none            5.0M     0  5.0M   0% /run/lock
none           1002M  8.0K 1002M   1% /run/shm


Проблема е, че искам тази машина да я прехвърля на един NAS server който съм закачил за ЕSXi 5.1 server-a като NFS datastore, но когато започнва да прехвърлям машината, директорията в която ми се намира виртуалната машина се оказва, че е 200 ГБ и се прехвърля като 200 ГБ, а не като 7 ГБ.

Ако идеята на Thin Provisioned е размера на диска постепенно да нараства, с качените файлове на него, защо директорията ми е 200 ГБ а пък vmdk файла ми е 7 ГБ. Държа да отбележа, че на машината няма нищо друго освен Jenkins build server и това е.

Не мога да схвана как така тези 200 ГБ се появяват и се прехвърлят при положение, че диска е Thin Provisioned, освен това съм използвал само 7 ГБ от тези 200 ГБ.

Някой може ли да ми помогне с решението на проблема? Как тези 200 Гб мога да ги превърна в тези 7 ГБ които всъщност са използвани?

Пример:
http://virtualgeek.typepad.com/virtual_geek/2009/04/thin-on-thin-where-should-you-do-thin-provisioning-vsphere-40-or-array-level.html

Цитат
Thin - in this format, the size of the VDMK file on the datastore is only however much is used within the VM itself. For example, if you create a 500GB virtual disk, and place 100GB of data in it, the VMDK file will be 100GB in size. As I/O occurs in the guest, the vmkernel zeroes out the space needed right before the guest I/O is committed, and growing the VMDK file similarly.

Е как на виртуалния диск да има 7 ГБ дата, а пък да е 200 иначе ???
2  Linux секция за напреднали / Хардуерни и софтуерни проблеми / VMware ESXi 5.0 - възстановяване на хардуерен Raid 1 - как? -: Sep 17, 2012, 19:44

Здравейте,

Заглавието на темата не е много точна относно моя проблем който възника преди около 12 часа. Ще се опитам да го обясня, надявам се някой да ми помогне със съвет и насока какво да правя.

Имам един сървър Fujitsu PRIMERGY TX200 S6 ( http://www.fujitsu.com/bg/products/computing/servers/primergy/tower/tx200/tx200-s6.html) на който е инсталиран VMware ESXi 5.0. Имах два диска вързани в хардуерен Райд масив 1. И двата диска бяха по 1.5 ТБ. На съвъра имам една дузина виртуални машшни.

Така имаме следната ситуация:

HDD OLD 1 - 1.5 TB
HDD OLD 2  - 1.5 TB

И двата са вързани както казах в хардуерен Райд 1 и поддържат един Datastore - "My_Datastore"

В момента HDD OLD 1 e жив HDD OLD 2 e за боклука. Сутринта успях да пусна съръвра, като VMware ESXi зареди успешно и усшях да пусна всички виртуални машини които трябват на други хора да работят на тях. Но искам да си възстановя Райд 1-цата.

Така, HDD OLD 2 вече го отписваме от схемата.

Та съръра в момента работи. Купил съм 2 хард диска по 2 ТБ, като имам намерение да прехвърля всички виртуални машини които имам от HDD OLD 1 - 1.5 на HDD NEW А - 2 TB.  След като се прехвърлят виртуалните машини, изваждам HDD OLD 1 - 1.5 който е жив, както и първия HDD NEW А - 2 TB. На  мястото на живия HDD OLD 1 - 1.5 oт който ми буутваше сървъра,  поставям втория HDD NEW B - 2 TB който ми е останал, като върху него инсталирам отново VMware ESXi 5.0. След като инсталирам ESXi 5.0 на втория HDD NEW B - 2 TB, закачам отново и първия HDD NEW A - 2 TB върху който са ми копираните виртуални машини от HDD OLD 1 - 1.5 и се опитвам да ги синхрониирам или няма да стане?

Може би след като инсталирам на ново VMware ESXi 5. 0 на HDD NEW B - 2 TB, на него да прехвърля виртуални машини които бях копирал на HDD NEW А - 2 TB. След което да форматирам HDD NEW А - 2 TB и да го пусна да се синхронизира с HDD NEW B - 2 TB. Така мисля че ще ми стане възстановката на Raid 1-цата, но вече няма да съм с Райд 1 който включва 2 х 1.5 ТБ, а 2 х 2 ТБ.

Някой може ли да предложи опростена версия за изпълнение поправката на Raid 1-цата но с други дискове с по голям обем - 2 ТБ.

Понеже към този момент не мога да спра сървъра понеже той се използва, както си работи, закачих HDD NEW А - 2 TB

Тоест в момента на сървъра имам   HDD OLD 1 - 1.5 ТБ и HDD NEW А - 2 TB, обаче до колкото схванах, може и грешно да е то, в момента HDD NEW А - 2 TB се синхронизира с HDD OLD 1 - 1.5 ТБ, тъй като освен зелената лапмичка на hot rack-a на HDD NEW А - 2 TB мига под нея и червената лампичка.

Не мога да се оправя с VMware ESXi-я и с неговия команден ред показващ отделните устройства. В случая искам да разбера какво се случва с HDD NEW А - 2 TB който сложих при HDD OLD 1 - 1.5 ТБ. Синхронизира ли се, какво се случва.

Ето какво ми излиза в /dev/disks:

/dev/disks # ls -l
-rw-------    1 root     root       145999527936 Sep 17 15:51 naa.600508e00000000048d5043a46988903
-rw-------    1 root     root          939524096 Sep 17 15:51 naa.600508e00000000048d5043a46988903:1
-rw-------    1 root     root         4293918720 Sep 17 15:51 naa.600508e00000000048d5043a46988903:2
-rw-------    1 root     root       140761890816 Sep 17 15:51 naa.600508e00000000048d5043a46988903:3
-rw-------    1 root     root            4177920 Sep 17 15:51 naa.600508e00000000048d5043a46988903:4
-rw-------    1 root     root          262127616 Sep 17 15:51 naa.600508e00000000048d5043a46988903:5
-rw-------    1 root     root          262127616 Sep 17 15:51 naa.600508e00000000048d5043a46988903:6
-rw-------    1 root     root          115326976 Sep 17 15:51 naa.600508e00000000048d5043a46988903:7
-rw-------    1 root     root          299876352 Sep 17 15:51 naa.600508e00000000048d5043a46988903:8
-rw-------    1 root     root      1498999160832 Sep 17 15:51 naa.600508e000000000792d32f435607405
-rw-------    1 root     root            4161536 Sep 17 15:51 naa.600508e000000000792d32f435607405:1
-rw-------    1 root     root         4293918720 Sep 17 15:51 naa.600508e000000000792d32f435607405:2
-rw-------    1 root     root      1493761506816 Sep 17 15:51 naa.600508e000000000792d32f435607405:3
-rw-------    1 root     root          262127616 Sep 17 15:51 naa.600508e000000000792d32f435607405:5
-rw-------    1 root     root          262127616 Sep 17 15:51 naa.600508e000000000792d32f435607405:6
-rw-------    1 root     root          115326976 Sep 17 15:51 naa.600508e000000000792d32f435607405:7
-rw-------    1 root     root          299876352 Sep 17 15:51 naa.600508e000000000792d32f435607405:8
lrwxrwxrwx    1 root     root                 36 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361 -> naa.600508e00000000048d5043a46988903
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:1 -> naa.600508e00000000048d5043a46988903:1
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:2 -> naa.600508e00000000048d5043a46988903:2
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:3 -> naa.600508e00000000048d5043a46988903:3
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:4 -> naa.600508e00000000048d5043a46988903:4
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:5 -> naa.600508e00000000048d5043a46988903:5
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:6 -> naa.600508e00000000048d5043a46988903:6
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:7 -> naa.600508e00000000048d5043a46988903:7
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e00000000048d5043a469889034c6f67696361:8 -> naa.600508e00000000048d5043a46988903:8
lrwxrwxrwx    1 root     root                 36 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361 -> naa.600508e000000000792d32f435607405
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:1 -> naa.600508e000000000792d32f435607405:1
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:2 -> naa.600508e000000000792d32f435607405:2
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:3 -> naa.600508e000000000792d32f435607405:3
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:5 -> naa.600508e000000000792d32f435607405:5
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:6 -> naa.600508e000000000792d32f435607405:6
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:7 -> naa.600508e000000000792d32f435607405:7
lrwxrwxrwx    1 root     root                 38 Sep 17 15:51 vml.0200000000600508e000000000792d32f4356074054c6f67696361:8 -> naa.600508e000000000792d32f435607405:8
/dev/disks #


Трябва да подчертая, че след като сложих HDD NEW А - 2 TB, не съм рестартирал сървъра, тъй като в момента той се ползва. И не мога да разбера дали HDD NEW А - 2 TB  се е инициализрал и изобщо какво се случва.

Може би първо трябва да рестартирам сървъра да разваля хардуерния Райд 1 след което да рестартирам отново и може би тогава ще виждам HDD NEW А - 2 TB като отделно устройство.

В ESXi--я не се изпълянват командите:

# mount -l

~ # mount -l
-sh: mount: not found
~ # m
md5sum    memstats  mkdir     mkfifo    mknod     mktemp    more      mv
~ # m
md5sum    memstats  mkdir     mkfifo    mknod     mktemp    more      mv
~ # m
md5sum    memstats  mkdir     mkfifo    mknod     mktemp    more      mv
~ # m
md5sum    memstats  mkdir     mkfifo    mknod     mktemp    more      mv

# fdisk -l

Koгато се опитам да въведа fdisk -l ми излиза следното:

fdisk: cannot open -
~ # fdisk -l
Found valid GPT with protective MBR; using GPT

fdisk: Sorry, can't handle GPT partitions, use partedUtil

Ясно е, че трябва да ползвам командата partedUtil

Когато изпълня:
~ # partedUtil

Излизат следните опции за употреба:

Not enough arguments

Usage:
 Get Partitions : get <diskName>
 Set Partitions : set <diskName> ["partNum startSector endSector type attr"]*
 Delete Partition : delete <diskName> <partNum>
 Resize Partition : resize <diskName> <partNum> <start> <end>
 Get Partitions : getptbl <diskName>
 Set Partitions : setptbl <diskName> <label> ["partNum startSector endSector type/guid attr"]*
 Fix Partition Table : fix <diskName>
 Create New Label (all existing data will be lost): mklabel <diskName> <label>
 Show commonly used partition type guids : showGuids
 Get usable first and last sectors : getUsableSectors <diskName>

Предполагам, че трябва да използам get <diskName> , но как да разбера <diskName>

Пробвах с:

 # partedUtil get naa.600508e00000000048d5043a46988903
Error: Could not stat device naa.600508e00000000048d5043a46988903 - No such file or directory.
Unable to get device naa.600508e00000000048d5043a46988903

и

~ # partedUtil get vml.0200000000600508e00000000048d5043a469889034c6f67696361
Error: Could not stat device vml.0200000000600508e00000000048d5043a469889034c6f67696361 - No such file or directory.
Unable to get device vml.0200000000600508e00000000048d5043a469889034c6f67696361

Голяма боза. Сега не мога да разбера какво се случва с HDD NEW А - 2 TB, има ли някаква синхронизация без да съм рестартирал сървъра. Как най-лесно мога да поправя Райд 1-цата като от 1.5 ТБ Райд 1, да го направя на Райд 1 - 2ТБ

Ako някой е по-наъвтре в VMware ESXi-я, моля нека пише.. Ако имате предложения къде да чета и на къде да се насоча, съм готов да ги видя. Просто това ми е спешно и ще съм благодарен на всеки който се отзове.

Нямам mtab, в fstab-a ми излиза следното:

~ # cat /etc/fstab
none                    /proc                   procfs    defaults        0 0
none                    /vmfs/volumes           vcfs      defaults        0 0
none                    /tmp                    visorfs   2,192,01777,tmp       0 0

Съответно в /proc:

~ # cd /proc
/proc # ls -l
drwxr-xr-x    1 root     root             131072 Sep 17 16:35 bus
drwxr-xr-x    1 root     root             131072 Sep 17 16:35 driver
drwxr-xr-x    1 root     root             131072 Sep 17 16:35 mpt
drwxr-xr-x    1 root     root             131072 Sep 17 16:35 net
drwxr-xr-x    1 root     root             131072 Sep 17 16:35 scsi
/proc #

Предварително благодаря на отзовалите се по моя проблем.




3  Linux секция за начинаещи / Настройка на програми / Kакво представлява duplicity и как се инсталира -: Apr 19, 2012, 14:13
Здравейте,

Трябва да инсталирам duplicity в едно Убунту
Обаче, нещо не ми става ясно както точно представлява това duplicity и как се инсталира.

Потърсих в търсачката на форума като използвах key word - duplicity , но не ми излезе резултат.

Нека първо да започнем от там, какво е duplicity и за какво служи? Някой може ли да помогне?

Edit:

Цитат
Description
 Duplicity incrementally backs up files and directory by encrypting tar-format volumes with GnuPG and uploading them to a remote (or local) file server. Currently local, ftp, sftp/scp, rsync, WebDAV, WebDAVs, Google Docs, HSi and Amazon S3 backends are available. Because duplicity uses librsync, the incremental archives are space efficient and only record the parts of files that have changed since the last backup. Currently duplicity supports deleted files, full Unix permissions, directories, symbolic links, fifos, etc., but not hard links.

 If you are backing up the root directory /, remember to --exclude /proc, or else duplicity will probably crash on the weird stuff in there.

Ето какво намерих - https://help.ubuntu.com/community/DuplicityBackupHowto но все още не ми става ясно за какво става въпрос.

Следвам гайда но ми дава следната грешка, а именно.

Код:
root@redmine ~# apt-get install duplicity
Reading package lists... Done
Building dependency tree       
Reading state information... Done
E: Couldn't find package duplicity

Код:
root@redmine ~# apt-get install ncftp
Reading package lists... Done
Building dependency tree       
Reading state information... Done
Package ncftp is not available, but is referred to by another package.
This may mean that the package is missing, has been obsoleted, or
is only available from another source
E: Package ncftp has no installation candidate

До колкото разбирам, пакета с дуплисити липсва, затова го свалимх от http://packages.ubuntu.com/lucid/i386/duplicity/download 
ubuntu.linux-bg.org/ubuntu/ и сега ще пробвам да го инсталирам - duplicity_0.6.08b-0ubuntu2_i386.deb

Сложих въпросния файл duplicity_0.6.08b-0ubuntu2_i386.deb в /root и отновно изпълних:

Код:
root@redmine ~# apt-get install duplicity
Reading package lists... Done
Building dependency tree       
Reading state information... Done
E: Couldn't find package duplicity

Отново ми дава същата грешка.
4  Linux секция за начинаещи / Настройка на програми / Cron script for backup -: Mar 12, 2012, 19:14
Здравейте,
Понеже изобщо не съм на ясно с писането на скриптове, искам да попитам как мога да създам и как ще изглежда скрипт в който да има въведена команда за копиране на една директория която се намира на един сървър, като копирането да се извърши върху една локална машина, която да ползвам за бекъп. Питането ми е продиктувано от тази тема --> http://www.linux-bg.org/forum/index.php?topic=42767.new#new

Положението е следното. Да речем че сървъра на който ми се намира фолдъра който искам да копирам всеки ден в 01:00 ч. сутринта, е с IP: 192.168.0.150. Но на този сървър е инсталиран EXSi 5.0 който явно няма cron demon и crontab на него, поне ако по подразбирането трябва crontab-a да бъде в /etc, то на ESXi 5.0 го няма. За това, съм решил да използвам друга машина на която има линукс - openSUSE, където crontab присъства в /еtc

Ta в машината с openSUSE (192.168.0.160) където може да се изпълнявам cron и да се редактира crontab-a, ми се иска да мога да копирам директория от сървър ЕSXi (192.168.0.150) на локална windows-ка машина с IP: 192.168.0.170

До колкото разбрах, командата която трябва да се изпълнява е scp -r, но останалата работа с настройките, не ми стана ясна.

Пътя до фолдъра който искам да копирам и който се намира на ESXi (192.168.0.150) e:

/vmfs/volumes/IvoWork/Test_Machine

И това искам да се копира всяка вечер в 01:00 ч. на локалната windows-ка машина  (192.168.0.170), като мястото където ми се иска да бъде копирана директорията е:

D:\Backup_Test_Machine

Нямам идея как може да се изпълни това чрез скрипт, който да седи на машината на която има openSUSE (192.168.0.160)

Някой може ли да помогне, че съм го закъсал доста.

Предварително благодаря.

5  Linux секция за начинаещи / Настройка на хардуер / Redmine - How to backup? -: Mar 08, 2012, 20:16
Здравейте,

Преди време бях инсталирал Redmine като виртуална машина на един сървър. Тъй като поради токов удар преди няколко дни беше загубена голяма информация на този сървър, включително и виртуалната машина с инсталирания Redmine, отновно направих виртуална машина с Redmine, но този път искам да й направя backup, който да ми осигури минимум загуба на данни при подобна ситуация от рода на токов удар и прочее.

Можете ли да ме насочите кой е най-добрия начин за създаването на backup на Redmine-a и как мога да направя.

Сървъра е с инсталиран VMware ESXi 5.0. Има два масива с по два хард диска всеки. Може ли да се направи backup чрез hot pluggable хард диск и как се прави това?

Предварително благодаря за отговорите.

Поздрави
6  Linux секция за начинаещи / Настройка на програми / RAID 1 между два хард диска с помоща на CentOS 5.6 - как? -: Dec 30, 2011, 16:45
Здравейте имам следния казус за решаване.

Трябва да направя RAID 1 масив от два диска на един сървър.

Вече на Сървъра има други два диска които играят в масив и на които е операционната система - CentOS 5.6

За да не обърквам значително по-знаещите от мен хора, ще дам задачата така.

На Server 1, има вече два закачен диска - закачени в RAID масив.
Дисковете са съответно (sda - 320 GB) и (sdb - 320 GB)

Искам да добавя още два диска които са съответно (sdc - 500 GB) и (sdd - 500 GB)

Означенията sda, sdb, sdc и sdd ги давам за да бъде по лесно ориентирането в задачата.

Така, sda и sdb си работят в масив, пускам сървъра и всичко е ток и жица, няма проблеми.

Диск sdc които искам да вържа с sdd в RAID 1 е пълен с информация, тоест 500-те ГБ са пълни, а диск sdd е напълно празен и форматиран в ext3 файлова система и е с един партишън на него - sdd1.

Дисковете sda, sdb, sdc са също с файлови системи ext3.

Искрено се надявам някой да ме е разбрал и да ми помогне.

Как да вържа двата диска (sdc - 500 GB) и (sdd - 500 GB) в RAID 1 масив с помоща на CentOS 5.6? Kaкви са настройките, какво се изпълнява като команди? Изобщо, какво да очаквам?

Как да прикрепя (sdd - 500 GB) към (sdc - 500 GB) в RAID 1?

Предварително благодаря на всички отзовали се в темата.

Поздрави.

П.П. Двуумих се в кой раздел да пусна темата, дали е хардуер за начинаещи или в настоящия раздел, в крайна сметка избрах настоящия, ако има някакъв разрез с форумните правила, извинявам се, нека бъде преместена ако модераторите преценят.

7  Програмиране / Общ форум / Създаване на sh файл - автоматично използване на команди - как? -: Dec 29, 2011, 11:32
Здравейте,

Искам да попитам, как се създава sh файл в който да бъдат добавени комадни от рода на:

cp -r downloads /data/VMBACKUP


Идеята ми е, да не пиша всеки път една и съща команда за копиране на дадена директория от едно място на друго, как мога да направя така, че да запиша например 10 еднакви команди но за различни директории които да се прехвърлят на едно и също място?

Четох за този sh файл, че се създава от контролния терминал посредством текстов редактор след което се запаметява като .sh

Kакъв е скрипта и как мога да го напиша този sh файл?

Благодаря предварително.

Поздрави!
8  Linux секция за начинаещи / Настройка на програми / Backup върху нов хард диск, как? -: Dec 27, 2011, 17:55
Здравейте,

Пиша относно един проблем а той е следния:

Налага ми се да направя backup на няколко виртуални машини които се намират на един сървър, като тези виртуални машини трябва да ги прехвърля на един нов 500 GB хард диск.

Молбата ми е, можете ли да ми помогнете с обяснения как да направя прехвърлянето.

Разбрах, че първо трябва да маунтна диска който съм сложил в чекмеджето на сървъра определено за целта.

Разбрах, че се ползват в следните команди при моя случай, а те са:

1. fdisk -l
2. mount
3. cp -r
4. mkfs
5. mdadm

Първо не ми става ясно, как мога да разбера, кой ми е новия хард диск който съм закачил и дали той работи. След това, като разбера кой ми е празния нов хард диск на който ще прехвърлям виртуалните машини, как става самото прехвърляне. За целта трябва да маунтна първо диска, след това да създам директория и на края да прехвърлям виртуалните машини. Някой може ли да помогне с напътствия как се извършва тази процедура?

Благодаря предварително.

Поздрави.

9  Linux секция за начинаещи / Настройка на програми / Няма достъп до VMWare през графична среда след спиране на тока : ( -: Dec 07, 2011, 10:18
Здравейте,

Имам проблем с две виртуални машини които са качени на един сървър чиято операционна система е SUSE SLE-10.

Проблема е. че когато отворя графичната среда за достъп до виртуалните машини и си въведа абсолютно правилно потребителското име и паролата, ми излиза следното:
"Login failed due to a bad username or password."

Проблема дойде след вчерашен токов удар и голяма бъркотия сред други сървъри, включително и този за който става въпрос.

Виртуалните машини могат да бъдат пуснати под команден ред, но тъй като до тях трябва да имат достъп и други хора които използват графичната среда, бих искал, ако има възможност, да разбера, как да оправя проблема с графичната среда на VMWARE.

Попаднах в нета на някои начини за оправяне на проблема като:
http://community.spiceworks.com/topic/91793-cannot-access-ui-in-vmware-server

"We have to restart the Web GUI via /etc/init.d/vmware-mgmtsomthing"

И сега, въпроса е може ли наистина да се рестартира самата графична среда за да оправя проблема с логването в нея, или нещо друго може да се направи?

Предварително благодаря за отговорите.

Поздрави.
10  Linux секция за начинаещи / Настройка на програми / Уголемяване на шрифта в CLI (Slackware), как? -: Dec 02, 2011, 17:04
Здравейте,

Ползвам Slackware 13.37 и се чудя, как мога да увелича големината на шрифта в Command Line Interface-a?

Четох. че при различните Линукс дистрибуции, конфигурационния файл в който се съдържа информацията за настройките на шрифта е с различно име. За това някой може ли да ме навигира за това къде и под какво име е файла който съдържа информацията за шрифта. Просто ми е ситен шрифта и не искам да се напрягам. А както се оказва, чака ме голяма работа с CLI.

Казаха ми, че задаването на големината на шрифта в CLI става еднократно, по време на инсталацията на OS-a, така ли е, или източника ми греши, тоест може да се конфигурира и след това, говорейки за Slackware.

Изобщо каква е процедурата за смяна големината на шрифта.

Благодаря предварително.

Поздрави.

Едит:

Разбирам, че темата е ултра, мега, гига тъпа, съжалявам за което, просто ако може малко помощ, ще ми бъде много от полза.
11  Linux секция за начинаещи / Настройка на програми / HOWTO - OpenVPN Server /How to Install IPCop 1.4.20 on 4GB CF Card -: Dec 01, 2011, 16:59
Предварително се извинявам, че заглавието на темата е на английски.

Здравейте, бих искал някаква насока и съвети относно един проблем който ме мъчи последните 2 дни.

Трябва да инсталирам следната Линукс дистрибуция - IPCop 1.4.20 на една 4 GB Compact Flash карта, която да сложа на едно устройство - Аlix2d3. Ето линк към производителя и описание на устройството - http://pcengines.ch/alix2d3.htm

Предполагам, че повечето хора във форума знаят за какво става въпрос. Но аз за пръв път се сблъсквам с тази работа.

Търсих в интернет как да кача тази OS на 4 гигабайтовата Compact Flash карта, но без успех. Може би не търся достатачно, нямам представа.

Реших да се допитам до форума как да кача операционната система на картата.
Свалих OS-a, разархивирах го на PC-то и до тук.

Попаднах на това в нета - http://vmrejata.info/os/ipcop/174-ipcop-install.html Но тук е описан начина на инсталиран ако трябва да се инсталира на PC-то.

Ако някой помогне с описание на начина за инсталиране на IPCop 1.4.20 върху Compact Flash, ще съм много благодарен.

Поздрави.



 
12  Linux секция за начинаещи / Настройка на хардуер / Интернет под Slackware 13.37 -: Oct 14, 2011, 00:39
Здравейте,

Вчера инсталирах Slackware 13.37 на лап топа си, но имам един проблем, абсолютно начинаещ съм в Линукс и графичните среди са ми абсолютна тъмна индия.

Ползвам xfce4 environment и не мога да подкарам интернета. Някои има ли представа от къде са настроиките? На XP-то нета си хвърчи - кабел или wi-fi, но под Слак-а не тръгва. Някой може ли да ми помогне с някакъв скриин шот или някакво текстово упътване от къде мога да си стартирам интернета.

Срам, не срам, длъжен съм да попитам.

Предварително Ви благодаря за отговорите.
Страници: [1]