Покажи теми - wfw
Виж публикациите на потр. | * Виж темите на потр. | Виж прикачените файлове на потр
Страници: [1] 2 3
1  Linux секция за напреднали / Хардуерни и софтуерни проблеми / TRIM на SSD на ниво EXT4, LVM или Software RAID... -: Aug 16, 2019, 00:30
Здравейте,
имам следната схема - домашната ми машина - debian 10 има 2 SSD диска, върху които на 95% от мястото има създадени софтуерни раид дялове. Тези два дяла са в софтуерен RAID1 (btw скоростта на ребилд стигна малко над 350мб/сек, доволен съм). Върху софтуерния раид има инсталиран LVM (трябва ми да мога да си вдигам виртуалки, а не искам тъпия qcow2). На него пък е root дяла, който е EXT4.

Логичния въпрос е, къде точно да тримвам дафак...?
2  Linux секция за напреднали / Хардуерни и софтуерни проблеми / проблем с рутирането към виртуална машина -: Dec 02, 2017, 12:50
Здравейте,
имам много проста схемичка, знам, че е нещо лесно, но не мога да се сетя как да го намеря и реша:

Интернет -> Хипервайзор (br0) с IP 77.88.99.100 -> виртуална машина gateway с 2 интерфейса (77.88.99.101 към br0) и 10.11.12.1 към br1. -> виртуална машина във вътрешната мрежа - 10.11.12.2 към br2, на която работи един ДНС сървър

машината 10.11.12.2 си работи идеално, порт форуърда работи от реалното ИП към услугата, която предоставя, машината има интернет с MAQUERADE, но когато се опитам от гейта да направя telnet 10.11.12.2 53 с tcpdump виждам, че source IP адреса е 77.88.99.101, т.е. публичния адрес на гейта. Не е ли нормално да бъде вътрешния адрес, след като двете машини имат интерфейси в една и съща мрежа и той да се ползва за връзка м/у тях?

Освен това в arp таблицата на вътрешната машина виждам срещу мак адреса на гейта, че има 2 IP адреса, което очевидно не е така.

Идеи какво съм омазал?
3  Linux секция за напреднали / Хардуерни и софтуерни проблеми / apache2 динамични виртуални хостове + SNI + Lets Encrypt? -: Nov 29, 2017, 15:55
Здравейте,

най-общо казано искам да си пусна един уеб сървър, на който да си направя няколко (хиляди) HTTPS сайта, като всеки си има отделен VHOST. В идеалния случай, конфигурацията ще приема новите VHOST-ове без рестарт на уеб сървъва.

Ако сайтовете работят на HTTP няма никакъв проблем, ползваме mod_vhost_alias:

https://httpd.apache.org/docs/2.4/vhosts/mass.html

Не обичам, когато в документацията на HTTPD нещо е написано с червено: mod_rewrite is not the best way to configure virtual hosts. You should first consider the alternatives before resorting to mod_rewrite. See also the "how to avoid mod_rewrite document.
Затова изключвам тази опция.

mod_macro може да ми направи конфигурацията четима, но не решава проблема ми, защото след създаването на всеки VHOST ще се налага рестарт на уеб сървъра, а и редакция на конф. файл, което създава предпоставки за "фатална" грешка :)

Главния проблем е, че искам HTTPD да търси за SSLCertificateFile когато дойде заявка, а той го прави по време на първоначалното зареждане.

Обмислям и вариант с HAPROXY, който го играе SSL offloader и след него да пращам HTTP до уеб сървъра, но това е усложняване на схемата, което бих предприел само, ако нямам избор.

Та, някой да е правил нещо подобно? Някоя хитра идея, която му убягва? :)
4  BSD секция / Настройки на софтуер / haproxy и нещо като rewritebase ;) -: Feb 27, 2017, 23:28
Здравейте,
опитвам да направя следното нещо:
Имам един сайт на адрес http://localhost/very/long/address и в него няколко поддиректории и файлове.

Иска ми се целия този адрес да го публикувам пред хората като https://mydomain.com/ като запазя поддиректориите.

Настройката на SSL offloader-a не ми е проблем, нещо не успявам да напиша правилото, което да добавя /very/long/address при свързване с бекенда и тъй като нищо не разбирам от тази работа, нямам си идея каква точно функция трябва да ползвам :)

Допускам, че е нещо на 1-2 реда... бих се радвал и само на указание коя функция трябва да ползвам :)
5  Linux секция за начинаещи / Настройка на програми / Каква мрежова файлова система да избера? -: Aug 30, 2016, 01:09
Здравейте,
чудех се дали има такава мрежова файлова система, която:
1) се разширява лесно върху множество сървъри
2) има някакъв тип Redundancy (raid1 :D)
3) е сравнително производителна... под това понятие разбирам поне 50% от скоростта на локалната файлова система за сървъра.
4) да е стабилна за продуктивни сървъри.
5) да е сравнително лесна за поддръжка - добавяне на нови машини, лесен достъп до клиентите до файловата система.
6  Linux секция за напреднали / Хардуерни и софтуерни проблеми / проблем с zfs, multipath, lxd -: Jul 28, 2016, 18:22
Здравейте,
имам много странен проблем и не съм сигурен къде точно се намира.

Накратко - опитвам се да си направя тестова инсталация на openstack на убунту 16.04 като изполвам juju и conjure-up. Както и да е, всичко работи както трябва и в един момент трябва да рестартирам. Проблемът или следствие на проблема е, че след рестарт не мога да изпълня командата df -h. Преди restart се вижда следното нещо:

Код:
$ df -m
Filesystem                           1M-blocks  Used Available Use% Mounted on
udev                                     96702     0     96702   0% /dev
tmpfs                                    19345    10     19335   1% /run
/dev/mapper/stack1--vg-root              67458  2351     61659   4% /
tmpfs                                    96721     0     96721   0% /dev/shm
tmpfs                                        5     0         5   0% /run/lock
tmpfs                                    96721     0     96721   0% /sys/fs/cgroup
/dev/sda1                                  472    55       393  13% /boot
tmpfs                                    19345     0     19345   0% /run/user/1000
stack1-eva                              989432     1    989432   1% /stack1-eva
stack1-eva/images                       989432     1    989432   1% /stack1-eva/images
stack1-eva/containers                   989432     1    989432   1% /stack1-eva/containers
stack1-eva/containers/juju-f48498-0     991997  2565    989432   1% /var/lib/lxd/containers/juju-f48498-0.zfs
stack1-eva/containers/juju-24ce0a-4     992009  2578    989432   1% /var/lib/lxd/containers/juju-24ce0a-4.zfs
stack1-eva/containers/juju-24ce0a-5     992009  2577    989432   1% /var/lib/lxd/containers/juju-24ce0a-5.zfs
stack1-eva/containers/juju-24ce0a-6     990696  1264    989432   1% /var/lib/lxd/containers/juju-24ce0a-6.zfs
stack1-eva/containers/juju-24ce0a-0     990730  1298    989432   1% /var/lib/lxd/containers/juju-24ce0a-0.zfs
stack1-eva/containers/juju-24ce0a-1     990738  1307    989432   1% /var/lib/lxd/containers/juju-24ce0a-1.zfs
stack1-eva/containers/juju-24ce0a-2     990738  1307    989432   1% /var/lib/lxd/containers/juju-24ce0a-2.zfs
stack1-eva/containers/juju-24ce0a-3     992009  2577    989432   1% /var/lib/lxd/containers/juju-24ce0a-3.zfs
stack1-eva/containers/juju-24ce0a-7     990824  1393    989432   1% /var/lib/lxd/containers/juju-24ce0a-7.zfs
stack1-eva/containers/juju-24ce0a-8     990698  1267    989432   1% /var/lib/lxd/containers/juju-24ce0a-8.zfs
stack1-eva/containers/juju-24ce0a-9     991073  1642    989432   1% /var/lib/lxd/containers/juju-24ce0a-9.zfs
stack1-eva/containers/juju-24ce0a-10    990718  1287    989432   1% /var/lib/lxd/containers/juju-24ce0a-10.zfs
stack1-eva/containers/juju-24ce0a-11    990804  1373    989432   1% /var/lib/lxd/containers/juju-24ce0a-11.zfs
stack1-eva/containers/juju-24ce0a-12    990764  1332    989432   1% /var/lib/lxd/containers/juju-24ce0a-12.zfs
stack1-eva/containers/juju-24ce0a-13    990885  1453    989432   1% /var/lib/lxd/containers/juju-24ce0a-13.zfs
stack1-eva/containers/juju-24ce0a-14    990800  1369    989432   1% /var/lib/lxd/containers/juju-24ce0a-14.zfs
stack1-eva/containers/juju-24ce0a-15    990614  1182    989432   1% /var/lib/lxd/containers/juju-24ce0a-15.zfs

След рестарт командата не показва нищо, т.е. не може да изкара никакъв отговор... С инструментите на zfs всичко изгелжда наред:

Код:
$ sudo zfs list
NAME                                                                                 USED  AVAIL  REFER  MOUNTPOINT
stack1-eva                                                                          18.0G   966G    19K  /stack1-eva
stack1-eva/containers                                                               17.4G   966G    19K  /stack1-eva/containers
stack1-eva/containers/juju-24ce0a-0                                                  710M   966G  1.27G  /var/lib/lxd/containers/juju-24ce0a-0.zfs
stack1-eva/containers/juju-24ce0a-1                                                  718M   966G  1.28G  /var/lib/lxd/containers/juju-24ce0a-1.zfs
stack1-eva/containers/juju-24ce0a-10                                                 702M   966G  1.26G  /var/lib/lxd/containers/juju-24ce0a-10.zfs
stack1-eva/containers/juju-24ce0a-11                                                 790M   966G  1.34G  /var/lib/lxd/containers/juju-24ce0a-11.zfs
stack1-eva/containers/juju-24ce0a-12                                                 758M   966G  1.31G  /var/lib/lxd/containers/juju-24ce0a-12.zfs
stack1-eva/containers/juju-24ce0a-13                                                 869M   966G  1.42G  /var/lib/lxd/containers/juju-24ce0a-13.zfs
stack1-eva/containers/juju-24ce0a-14                                                 783M   966G  1.34G  /var/lib/lxd/containers/juju-24ce0a-14.zfs
stack1-eva/containers/juju-24ce0a-15                                                 593M   966G  1.16G  /var/lib/lxd/containers/juju-24ce0a-15.zfs
stack1-eva/containers/juju-24ce0a-2                                                  718M   966G  1.28G  /var/lib/lxd/containers/juju-24ce0a-2.zfs
stack1-eva/containers/juju-24ce0a-3                                                 1.94G   966G  2.52G  /var/lib/lxd/containers/juju-24ce0a-3.zfs
stack1-eva/containers/juju-24ce0a-4                                                 1.94G   966G  2.52G  /var/lib/lxd/containers/juju-24ce0a-4.zfs
stack1-eva/containers/juju-24ce0a-5                                                 1.94G   966G  2.52G  /var/lib/lxd/containers/juju-24ce0a-5.zfs
stack1-eva/containers/juju-24ce0a-6                                                  679M   966G  1.23G  /var/lib/lxd/containers/juju-24ce0a-6.zfs
stack1-eva/containers/juju-24ce0a-7                                                  807M   966G  1.36G  /var/lib/lxd/containers/juju-24ce0a-7.zfs
stack1-eva/containers/juju-24ce0a-8                                                  681M   966G  1.24G  /var/lib/lxd/containers/juju-24ce0a-8.zfs
stack1-eva/containers/juju-24ce0a-9                                                 1.03G   966G  1.60G  /var/lib/lxd/containers/juju-24ce0a-9.zfs
stack1-eva/containers/juju-f48498-0                                                 1.93G   966G  2.51G  /var/lib/lxd/containers/juju-f48498-0.zfs
stack1-eva/images                                                                    657M   966G    19K  /stack1-eva/images
stack1-eva/images/3544774ae061c88ecfccc718d1c806a080c002583e65977bb8bb807a349ff502   657M   966G   657M  /var/lib/lxd/images/3544774ae061c88ecfccc718d1c806a080c002583e65977bb8bb807a349ff502.zfs


$ sudo zpool status
  pool: stack1-eva
 state: ONLINE
  scan: none requested
config:

        NAME                                 STATE     READ WRITE CKSUM
        stack1-eva                           ONLINE       0     0     0
          36001438005defa970000a00001930000  ONLINE       0     0     0

errors: No known data errors


но juju не работи, както и виртуалните машини.

Ако извърша същата операция и създам zfs pool-a на локален диск, няма никакъв проблем.

Май забравих да спомена, че multipath устройството е един HP EVA масив, който се презентира на сървъра по fibre channel.
7  Linux секция за начинаещи / Настройка на програми / ubuntu 14.04 и LVM проблем -: Oct 08, 2015, 11:14
Здравейте,
имам много странен проблем. Инсталирал съм едно убунту 14.04. LTS преди известно време и съм почти сигурен, че го бях пуснал с LVM.

Код:
$ sudo fdisk -l /dev/sda

Disk /dev/sda: 1998.9 GB, 1998912094208 bytes
255 heads, 63 sectors/track, 243020 cylinders, total 3904125184 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0003297d

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *        2048      499711      248832   83  Linux
/dev/sda2          501758  3904124927  1951811585    5  Extended
/dev/sda5          501760  3904124927  1951811584   8e  Linux LVM

fstab:

Код:
$ cat /etc/fstab
# /etc/fstab: static file system information.
#
# Use 'blkid' to print the universally unique identifier for a
# device; this may be used with UUID= as a more robust way to name devices
# that works even if disks are added and removed. See fstab(5).
#
# <file system> <mount point>   <type>  <options>       <dump>  <pass>
proc            /proc           proc    nodev,noexec,nosuid 0       0
/dev/mapper/eins-root /               ext4    errors=remount-ro 0       1

# /boot was on /dev/sda1 during installation
UUID=adc3806a-cc3c-4b2d-a0fa-294b2e595ccc /boot           ext2    defaults        0       2
/dev/mapper/eins-swap_1 none            swap    sw              0       0

обаче имам проблем, че не виждам VG и съответно като добавя новите дискове, не мога да ги вкарам в LVM:

Код:
$ sudo vgdisplay
  No volume groups found

и

Код:
$ sudo vgscan
  Reading all physical volumes.  This may take a while...
  No volume groups found

Явно ми липсва нещо елементарно, защото компа работи, значи би трябвало групите да са си там...
8  Linux секция за начинаещи / Настройка на програми / Програма или дистрибуция, предназначена на споделяне и ограничаване на Интернет -: Sep 14, 2015, 11:49
Здравейте,
Търся някакъв продукт за контрол на потребителите до Интернет в офиса. Въртят ми се в главата някакви минимални изисквания:

- Групи за достъп с различни права до Интернет
- Блокиране на определени сайтове - facebook примерно
- Блокиране на определени комуникатори
- Трафик шейпър
- Приятен интерфейс, за да могат колегите да работят лесно с него
- Ако има някаква анти(вирусна,спам,...) защита, ще е плюс

Има някакви готови решения от разни производители, но те си продават и хардуера, което в случая не е нужно.

- п.с. Да се вижда някаква статистика за ползването в момента и назад във времето :)
9  Linux секция за напреднали / Хардуерни и софтуерни проблеми / Някой да е подкарвал Debian със SAN от типа на HP EVA 4400? -: Jun 12, 2015, 00:06
Здравейте,
имам блейд шаси и 1-2 свободни блейда на работа, но ми се ще да ползвам SAN-а, който е EVA 4400. Гледам, че има някакви пакети на HPDMmultipath за RHEL и SLES, но ми се ще да работи на Debian или в краен случай Ubuntu 14.04 LTS.

Не съм сигурен дали има драйвери за HBA, които да са вградени в ядрото, но това смятам за по-малкия проблем, защото блейда си има РАИД масив и 2 малки SAS диска, така че няма да е проблем да се инсталира линукса и после да мъча драйверите.

По-големия проблем ми се струва инсталирането на HPDMmultipath.

Въпросите са:
1) Някой подкарвал ли е Debian на някакъв по-сериозен сървър HP + SAN?
2) Изтеглих HPDMmultipath, но не виждам source code, а само някакви предефинирани пакети за различните версии на RHEL и SLES. Идеи за преработка, така че да сработи с Debian?
3) Всякакви други идеи как да подкарам тая купчина старо желязо...

Благодаря предварително.
10  Linux секция за начинаещи / Настройка на хардуер / "Виртуална" мрежова карта... -: Apr 27, 2015, 18:17
Трябва ми на една стара линукс машина да имам 2 различни интерфейса с 2 различни мак адреса на една мрежова карта. Идеи?
11  Нетехнически теми / Идеи и мнения / Конвертиране на физическа машина към виртуална KVM? -: Mar 22, 2015, 23:47
Ще дадете ли съвет как най-лесно може да се направи? В идеалния случай дяловете ще могат да се намалят малко, защото в момента на физическия сървър ползвам 15% от диска, а вариантите с командата dd ще ми създадат виртуална машина с големината на диска.
12  Хумор, сатира и забава / Живота, вселената и някакви други глупости / set top box -: Mar 01, 2015, 20:28
Здравейте,
от Мегалан ми отказаха да сложа set top box след рутера ми, та се зачудих, просто от любопитство... Имате ли идея какъв протокол ползват за комуникация, дали може да се настрои сет топ бокса да работи зад рутера.
Дали има някакви доставчици на IPTV, при които да си сложа един сет топ бокс и да си ги ползвам през Интернет...
Като цяло ме интересува как мога да гледам на телевизора малко по-добра телевизия и да има български канали ;)
13  Нетехнически теми / Идеи и мнения / Какъв мейл сървър ползвате? -: Oct 04, 2014, 16:32
Здравейте,
любопитно ми е какво ползвате като мейл сървъри, какви смятате, че са предимствата на вашата конфигурация, какви са недостатъците? Какви решения предпочитате - платени, готови или сами изграждате мейл съврър с цялата му функционалност (спам филтри, антивирусни и т.н.)

И да дам тон на темата, ще започна аз:

Използвам леко модифицирана qmailrocks инсталация на Debian 7.
Предимствата за мен са, че съм свикнал да работя с това чудо, понаучил съм му бъговете и горе долу знам какво да очаквам. Има спам и антивирусна защита за потребителите. Протоколите (SMTP, POP3, IMAP) вървят през SSL и съм задължил потребителите да го ползват.
Недостатъци - не мога да контролирам "силата" на спам защитата на отделен виртуален потребител. Debian има  доста къс life cycle. Не мога да контролирам някои параметри на системата без да прекомпилирам qmail. Например, когато хост.бг въведоха greylisting, искаха втория опит за изпращане на писмото да бъде по-малък от 5 мин след първия отказ, при мен е 6 мин и 40 сек и не може да се промени (на exim и postfix има променливи за това).
14  Linux секция за начинаещи / Настройка на хардуер / Идеи за висок iowait -: Jun 13, 2014, 17:56
Имам си една машина, на която работи един сайт... Всичко си беше наред до вчера, когато изведнъж от нищото IO wait скочи до небето и сайта започна да бави страшно. Пробвах доста неща, но без резултат. Броя заявки не са се увеличили, трафика не се е увеличил. Това, което виждам е, че mysql държи постоянно 40-50% от процесора.



Първо помислих, че  проблем с дисковете (2 в софтуерен раид1), защото в dmesg имаше следното инфо:

Код:
[ 4152.088019] ata2.00: exception Emask 0x0 SAct 0x0 SErr 0x0 action 0x6 frozen
[ 4152.088079] ata2.00: cmd b0/d0:01:00:4f:c2/00:00:00:00:00/00 tag 0 pio 512 in
[ 4152.088080]          res 40/00:00:00:4f:c2/00:00:00:00:00/00 Emask 0x4 (timeout)
[ 4152.088115] ata2.00: status: { DRDY }
[ 4152.088149] ata2: hard resetting link
[ 4153.234660] ata2: SATA link up 3.0 Gbps (SStatus 123 SControl 300)
[ 4153.260871] ata2.00: configured for UDMA/133
[ 4153.260871] ata2: EH complete
[ 4153.260871] sd 1:0:0:0: [sdb] 1953525168 512-byte hardware sectors (1000205 MB)
[ 4153.260871] sd 1:0:0:0: [sdb] Write Protect is off
[ 4153.260871] sd 1:0:0:0: [sdb] Mode Sense: 00 3a 00 00
[ 4153.288871] sd 1:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA

Извадих диска от масива, но това не помогна и резултатите останаха същите.

Помислих да не би да го притеснява await, затова монтирах файловите системи с noawait, но това също не даде никакъв ефект.

В slow-query.log файла има доста заявки, но това е нормално предвид бавната работа на дисковете...

Всякакви идеи биха били полезни :) Предпочитам да събера максимално много идеи, защото машината е на другия край на града и искам като отида да пробвам всичко хардуерно, а софтуерните тестове мога да ги направя веднага и да върна резултатите...
15  Linux секция за напреднали / Хардуерни и софтуерни проблеми / Проблем с Perl+SUID wrapper и syslog -: Mar 18, 2014, 09:33
Здравейте,
имам следния досаден проблем: Perl скрипт, който трябва да работи с правата на друг потребител го стартирам с един wrapper, който е SUID, защото perl suid го спряха в Debian 7.
Всичко работи, само че скрипта, вместо да логва на правилното място в syslog (в случая mail|info), логва в user. и е много досадно, защото mail|warning отива в user.emerg, а и не мога да си намеря нещата на правилните места. Някой с идеи?
Страници: [1] 2 3