1
|
Linux секция за начинаещи / Настройка на програми / Въпрос относно сървър
|
-: Oct 19, 2023, 13:07
|
Здравейте, Имам сървър Убунту 20.04 с инсталиран Nextcloud 19. За да го достъпвам ползвам име от noip.com. Тъй като името е платено имам право на SSL сертификат, но за да го направя трябва да знам как съм конфигурирал сървъра:
Apache Mod SSL или Apache OpenSSL
Нямам никакъв спомен как е правен, тъй като сървъра работи от Убунту 14.04 и Оунклауд 8 и след това само е обновяван.
Та въпроса ми е как да разбера какво съм настройвал преди 9години Apache Mod SSL или Apache OpenSSL?
|
|
|
2
|
Linux секция за начинаещи / Настройка на хардуер / Как да открия кой задължава мрежата да чака IP
|
-: Jan 24, 2023, 08:17
|
Здравейте, да си споделя болката, която ме мъчи от доста време. Първо малко предистория. Имам сървър (лаптоп), който е инсталиран през далечната 2014 или 2015-та година. Тогава исках да му сложа Убунту 14.04 сървър версия, но да работи по безжична мрежа, но нещо не стана за това сложих десктоп версията. Оказа се че и с нея не работи безжичната мрежа, но поради някаква причина (вече не помня каква) остана сървъра с десктоп версията. Сървърът беше с Убунту 14.04 и Owncloud 8. По някое време (след като всичко работеше) съм преминал от десктоп към сървър версията (имаше едни ръководства кои пакети се махат и кои слагат за да се обърне дистрибуцията от десктоп към сървър. Та от тогава всичко си работи. Сървърът е обновяван няколко пъти до Убунту 20.04 и Nexctloud 19, не е преинсталиран. Преди два месеца реших да сменя машината с по-нов лаптоп. Оказа се че новата версия на Убунту ползва Netplan за настройки на мрежата. Настроих го всичко тръгна. Премахнах пакетите за настройка на межата по стария начин с /etc/network/interfaces Обаче в момента при стартиране на компютъра незнайно защо чака около 3 минути IP адрес от жичната мрежова карта, като през това време нищо друго не зарежда. Като мине това време системата си зарежда и всичко е ОК. Та въпроса ми е: Как да разбера кой кара жичната мрежа да си чака IP адреса и тогава да продължи. ПП: това са ми настройките на Netplan /etc/netplan/50-cloud-init.yaml This file is generated from information provided by the datasource. Changes # to it will not persist across an instance reboot. To disable cloud-init's # network configuration capabilities, write a file # /etc/cloud/cloud.cfg.d/99-disable-network-config.cfg with the following: # network: {config: disabled} network: version: 2 renderer: networkd ethernets: enp3s0: dhcp4: true dhcp6: no optional: true wifis: wlp6s0: dhcp4: no dhcp6: no optional: true addresses: [192.168.1.100/24] gateway4: 192.168.1.1 nameservers: addresses: [8.8.8.8,8.8.4.4] access-points: "VIVACOM": password: "парола"
Доколкото четох тази опция optional: true в настройка на мрежата би трябвало да накара съответния интерфейс да не чака IP а да продължава със зареждането на системата.
|
|
|
3
|
Linux секция за напреднали / Хардуерни и софтуерни проблеми / [Решен] Увеличаване на RAID 1 с нови дискове
|
-: Nov 21, 2022, 17:29
|
Здравейте, Имам работещ лаптоп с два 650ГБ диска свързани в софтуерън райд 1 под Убунту 20.04 и Nextcloud на него. Искам да сложа два нови диска може би по 2ТБ. Искам да попитам дали това е правилният път за подмяната им: 1. Махам единият стар диск и слагам новият 2. Синхронизирам 3. Махам вторият стар диск и слагам вторият нов 4. Синхронизирам 5. Увелачавам размера 6. Увеличавам файловата система Общо взето от този туториал е взето, ама там човека е закачил директно четирите диска, но логиката е същата. Само за тази последна точка не съм сигурен. You can grow a RAID1... if you replace both disks. I just did, it worked like this:
Started with 2x4T drives (sda1 and sdb1) in a working RAID1 array (md0) Bought two new 16T drives and plugged them in (sdc and sdd) partition them with full drive partitions (sdc1 and sdd1) Added them both to the RAID1: mdadm /dev/md0 --add /dev/sdc1 /dev/sdd1 fail one of the old drives: mdadm /dev/md0 -f /dev/sda1 wait for sync to finish: watch cat /proc/mdstat fail the other old drive: mdadm /dev/md0 -f /dev/sdb1 wait for sync to finish: watch cat /proc/mdstat remove the old drives from the array: mdadm /dev/md0 -r /dev/sda1 /dev/sdb1 grow the array: mdadm --grow /dev/md0 --size max grow the filesystem: resize2fs /dev/md0
|
|
|
4
|
Linux секция за начинаещи / Настройка на хардуер / Сравнение на компютри
|
-: Jun 02, 2022, 15:17
|
Здравейте, Имам един доста стар компютър - ASUS F3KE, с процесор AMD Turion 64 X2 TL-60, с 4ГБ памет (толкова поддържа лаптопа) на който върви Nextcloud сървър V19.0.2, на два диска по 650Гб, свързани в софтуерен райд 1 (огледално копие). Сървъра го използвам единствено аз с три десктоп клиента и един андроидски. Тази инсталация е ъпгрейдвана от Owncloud 8 и Убунту сървър 12.04, ако не се лъжа. От преди 2-3 версии на клауда нещо почна да работи по-бавно. Какво имам предвид: трябват му 20-ина секунди за да отвори в браузър интерфейса, малките файлове се синхронизират бавно. По принцип не е голяма болка, обаче ме дразни. . А пък му ъпдейтвам системата и клауда на две години като излезе новата сърварана версия на Убунту. Та въпроса е: Би ли вървяло това нещо на Raspberry Pi 4?
|
|
|
7
|
Хумор, сатира и забава / Кошче / Въпрос за книжки
|
-: Oct 16, 2019, 10:22
|
Здравейте, Искам да попитам четящите във форума: Навремето имаше една поредица за програмиране на Бейсик за Правец 8. Някой може ли да цитира заглавия от тази поредица, че моята съм я изхвърлил явно Имам спомен че ми беше много лесно да схвана идеята за програмирането от там и ми се иска да ги видя отново и да ги предоставя на сина ми.
|
|
|
8
|
Linux секция за напреднали / Хардуерни и софтуерни проблеми / Проблем с virt-manager
|
-: May 10, 2019, 22:54
|
Здравейте, имам следният проблем с virt-manager: Ползвам виртуална машина с уиндоус 8.1 на нея и както си работя забива за няколко секунди, след което virt-manager се изключва. Когато го включа отново, виртуалната машина си работи. Ако по време на забиването съм цъкал с мишката то тези действия са се изпълнявали и аз не съм ги виждал, т.е. виртуалната машина явно продължава да си работи, просто нямам достъп до нея. Та въпроса ми е от къде да започна за да установя какъв е проблема. Ползвам Кубунту 18.04, Virtual Machine Manager 1.5.1 Точно след такова забиване дадох идход от dmesg и ето това е: [ 3694.298488] audit: type=1400 audit(1557465649.141:30): apparmor="STATUS" operation="profile_load" profile="unconfined" name="libvirt-cfe144d7-caf7-4043-bba8-aabf909848ec" pid=4276 comm="apparmor_parser" [ 3694.451008] audit: type=1400 audit(1557465649.297:31): apparmor="STATUS" operation="profile_replace" profile="unconfined" name="libvirt-cfe144d7-caf7-4043-bba8-aabf909848ec" pid=4279 comm="apparmor_parser" [ 3694.591849] audit: type=1400 audit(1557465649.437:32): apparmor="STATUS" operation="profile_replace" profile="unconfined" name="libvirt-cfe144d7-caf7-4043-bba8-aabf909848ec" pid=4282 comm="apparmor_parser" [ 3694.731235] audit: type=1400 audit(1557465649.577:33): apparmor="STATUS" operation="profile_replace" info="same as current profile, skipping" profile="unconfined" name="libvirt-cfe144d7-caf7-4043-bba8-aabf909848ec" pid=4285 comm="apparmor_parser" [ 3694.782860] virbr1: port 2(vnet0) entered blocking state [ 3694.782864] virbr1: port 2(vnet0) entered disabled state [ 3694.783155] device vnet0 entered promiscuous mode [ 3694.785539] virbr1: port 2(vnet0) entered blocking state [ 3694.785545] virbr1: port 2(vnet0) entered listening state [ 3694.979212] audit: type=1400 audit(1557465649.825:34): apparmor="STATUS" operation="profile_replace" profile="unconfined" name="libvirt-cfe144d7-caf7-4043-bba8-aabf909848ec" pid=4311 comm="apparmor_parser" [ 3695.244782] L1TF CPU bug present and SMT on, data leak possible. See CVE-2018-3646 and https://www.kernel.org/doc/html/latest/admin-guide/l1tf.html for details. [ 3696.790745] virbr1: port 2(vnet0) entered learning state [ 3698.806745] virbr1: port 2(vnet0) entered forwarding state [ 3698.806747] virbr1: topology change detected, propagating [ 5016.226550] perf: interrupt took too long (2511 > 2500), lowering kernel.perf_event_max_sample_rate to 79500 [ 5762.432066] perf: interrupt took too long (3160 > 3138), lowering kernel.perf_event_max_sample_rate to 63250 [ 8079.675820] perf: interrupt took too long (3966 > 3950), lowering kernel.perf_event_max_sample_rate to 50250 [ 8098.802366] audit: type=1400 audit(1557470053.628:35): apparmor="DENIED" operation="capable" profile="/usr/sbin/libvirtd" pid=5059 comm="libvirt_parthel" capability=17 capname="sys_rawio"
обаче това на мен нищо не ми говори. Някакви насоки?
|
|
|
9
|
Linux секция за начинаещи / Настройка на програми / Експорт на настройки от Virt-manager
|
-: Jan 16, 2019, 15:11
|
Здравейте, Ползвам Virt-manager за виртуализация на win 8 и win 10 (имам няколко машини). Направих си ъпдейт на Кубунту 16.04 до 18.04 и сега КДЕ както си работи забива за около 1-2 мин. Та искам да направя чиста инсталация на Кубунту 18.04, обаче ми се ще да направя експорт на всички настройки на virt-manager, не само отделните машини.
|
|
|
10
|
Linux секция за напреднали / Начини за увеличаване на бързодействието / Intel GVT-g и KVM
|
-: Jul 03, 2018, 09:04
|
От известно време се заигравам с това чудо, обаче стигнах до момент в който не мога да се оправя. Във всички ръководства qemu се стартира от команден ред, обаче досега съм ползвал virt-manager само. За да сработи цялото нещо трябва да се добави устройство -device vfio-pci,sysfsdev=/sys/bus/pci/devices/0000:00:02.0/d8338774-7dc7-11e8-8410-5f9c9410339b,x-igd-opregion=on,display=on и това в команден ред на qemu Въпроса ми е: Как мога да го добавя на вече съществуваща машина? Опитах с virt-xml win8.1-infonotary --edit --confirm --qemu-commandline="-device vfio-pci,sysfsdev=/sys/bus/pci/devices/0000:00:02.0/d8338774-7dc7-11e8-8410-5f9c9410339b,x-igd-opregion=on" Обаче ми връща грешка usage: virt-xml [options] virt-xml: error: unrecognized arguments: --qemu-commandline=-device vfio-pci,sysfsdev=/sys/bus/pci/devices/0000:00:02.0/d8338774-7dc7-11e8-8410-5f9c9410339b,x-igd-opregion=on
|
|
|
11
|
Linux секция за начинаещи / Настройка на програми / [Решен] Проблем с LibreOffice
|
-: Jun 20, 2018, 10:41
|
Здравейте, има следният проблем с LibreOffice При отваряне на файлове се получава следното съобщение /media/Media/milen_work/Проекти - shared/0 - Предадени обекти/арх. Узунов/Юри Големилов - блок 181, гр. Златоград/Записка ЕЕ.odt? - shared не съществува. На практика файлът е със следният път /media/Media/milen_work/Проекти - shared/0 - Предадени обекти/арх. Узунов/Юри Големилов - блок 181, гр. Златоград/Записка ЕЕ.odt т.е. разликата е ? - shared Това се получава, когато се опитам да отворя файла директно от Dolphin. Когато отворя първо Libre-то и после файла няма проблем. Системата е Ubuntu 16.04.3, LibreOffice 6 инсталиран от ppaФайловете са на отделен диск който се монтира с Fstab със следният ред UUID=9a655270-00a5-49de-a5ee-b0cea0a531f9 /media/Media ext4 defaults 0 2 Диска е с chmod 777Файловете се записват от Уиндоус 8.1 (виртуален, KVM) през Samba с командата force user = mimosh Някакви насоки къде може да е проблема или къде да чета? Грешката се получава с всички файлове на кирилица.
|
|
|
12
|
Linux секция за начинаещи / Настройка на хардуер / Software RAID 1
|
-: Apr 17, 2018, 22:32
|
Здравейт, Имам нужда от малко помощ Та значи имам сървър (лаптоп), който е с Убунту 14.04. На него имам сложени два диска, един вътрешен и един външен на USB. Двата диска са настроени в софтуеърен RAID 1. Лаптопа се използва за OwnCloud сървър. Днес обаче забелязах че външният диск не е активен в райда. Доколкото успях да чета и да гледам логовете не виждам да има някъкъв проблем с диска, което ме навежда на мисълта че има някакъв проблем с настройките. Прилагам логове. dmesg | grep sda [ 2.651586] sd 0:0:0:0: [sda] 1250263728 512-byte logical blocks: (640 GB/596 GiB) [ 2.651593] sd 0:0:0:0: [sda] 4096-byte physical blocks [ 2.651661] sd 0:0:0:0: [sda] Write Protect is off [ 2.651664] sd 0:0:0:0: [sda] Mode Sense: 00 3a 00 00 [ 2.651700] sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA [ 2.725947] sda: sda1 sda2 < sda5 > [ 2.726575] sd 0:0:0:0: [sda] Attached SCSI disk [ 2.979038] md: bind<sda5> [ 2.987031] md: bind<sda1>
dmesg | grep sdb [ 3.822156] sd 6:0:0:0: [sdb] 1250263726 512-byte logical blocks: (640 GB/596 GiB) [ 3.822712] sd 6:0:0:0: [sdb] Write Protect is off [ 3.822716] sd 6:0:0:0: [sdb] Mode Sense: 03 00 00 00 [ 3.823356] sd 6:0:0:0: [sdb] No Caching mode page found [ 3.823363] sd 6:0:0:0: [sdb] Assuming drive cache: write through [ 3.828728] sdb: sdb1 sdb2 < sdb5 > [ 3.832352] sd 6:0:0:0: [sdb] Attached SCSI disk
cat /etc/mdadm/mdadm.conf # mdadm.conf # # Please refer to mdadm.conf(5) for information about this file. #
# by default (built-in), scan all partitions (/proc/partitions) and all # containers for MD superblocks. alternatively, specify devices to scan, using # wildcards if desired. #DEVICE partitions containers
# auto-create devices with Debian standard permissions CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts MAILADDR root
# definitions of existing MD arrays
# This file was auto-generated on Tue, 03 Jan 2017 10:35:00 +0200 # by mkconf $Id$
DEVICE /dev/sda* /dev/sdb*
ARRAY /dev/md0 metadata=1.2 name=ubuntu-14:0 UUID=feb04b3a:fcf99205:3b958b70:9cad3d6e ARRAY /dev/md1 metadata=1.2 name=ubuntu-14:1 UUID=d3730e9b:6b2b597a:a52afdb6:4a975456
cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid1 sda1[2] 622914688 blocks super 1.2 [2/1] [U_] md1 : active raid1 sda5[2] 2082752 blocks super 1.2 [2/1] [U_]
sudo mdadm --detail /dev/md0 [sudo] password for mimosh: /dev/md0: Version : 1.2 Creation Time : Tue Jan 3 10:38:47 2017 Raid Level : raid1 Array Size : 622914688 (594.06 GiB 637.86 GB) Used Dev Size : 622914688 (594.06 GiB 637.86 GB) Raid Devices : 2 Total Devices : 1 Persistence : Superblock is persistent
Update Time : Tue Apr 17 22:29:00 2018 State : clean, degraded Active Devices : 1 Working Devices : 1 Failed Devices : 0 Spare Devices : 0
Name : ubuntu-14:0 (local to host ubuntu-14) UUID : feb04b3a:fcf99205:3b958b70:9cad3d6e Events : 3900012
Number Major Minor RaidDevice State 2 8 1 0 active sync /dev/sda1 1 0 0 1 removed
|
|
|
15
|
Хумор, сатира и забава / Живота, вселената и някакви други глупости / Звукът в Линукс
|
-: Apr 07, 2017, 08:06
|
Здравейте, искам просто да споделя въудушевлението си от аудио миксера на КДЕ. Наскоро си купих рисийвър, който поддържа връзк апрез блутуут. Оказа се че настройката с Кубунту 16.04 с КДЕ от бакпортс се настройва изключително лесно и каква ми беше изненадата, когато разбрах че на всяка програма може да бъде зададен на кой изход да се чува.
Опитах същото нещо и под Ундоус 8.1 (на жена ми компа), естествено ударих на камък. След доста ровене се оказа че там може да смениш устройството генерално за цялата система, като зададеш у-во по подразбиране.
|
|
|
|