Покажи Публикации - mrowcp
* Виж публикациите на потр. | Виж темите на потр. | Виж прикачените файлове на потр
Страници: 1 [2] 3 4 ... 31
16  BSD секция / Системни настройки / Re: FreeBSD 10.2 ipfw проблем с in\out правила -: Oct 12, 2015, 22:37
sysctrl net.inet.ip.fw.one_pass
kldstat
А с какво натиш  понеже в рц-то нямаш извикани pf/ipf/ipfw_nat ?!

Код
GeSHi (Bash):
  1. # sysctl net.inet.ip.fw.one_pass
  2. net.inet.ip.fw.one_pass: 1
  3.  
  4. # kldstat
  5. Id Refs Address    Size     Name
  6. 1   13 0xc0400000 147e6d0  kernel
  7. 2    1 0xc8336000 4a000    linux.ko
  8. 3    1 0xc8519000 5000     if_tap.ko
  9. 4    1 0xc8523000 a000     if_bridge.ko
  10. 5    1 0xc8536000 6000     bridgestp.ko

За натенето... дори не се бях замислял. Имам описани на две места в конфиг файлове нат-а. Единия е за pppoe връзките (едното ISP), другите са в natd.conf-ига (2рото ISP)

Код
GeSHi (Bash):
  1. #cat /custom/natd/natd.conf
  2. use_sockets yes
  3. same_ports yes
  4. dynamic yes
  5. log no
  6. redirect_port tcp 192.168.1.25:1723 1723 # vpn
  7. redirect_port udp 192.168.1.25:1723 1723 # vpn
  8. redirect_port tcp 192.168.1.25:80 8000 #site1
  9. ...........
  10. ...........
  11. ...........
  12.  
  13. # cat /etc/ppp/ppp.conf
  14. default:
  15.    set log Phase Chat LCP IPCP CCP tun command
  16.    nat enable yes
  17.    nat same_ports yes
  18.    nat use_sockets yes
  19.  
  20. #########################################################################
  21. ### READ ME FIRST!!!!
  22. ###
  23. ###
  24. ###
  25. ########################################################################
  26.    nat port tcp 192.168.1.25:1723 1723    #VPN
  27.    nat port udp 192.168.1.25:1723 1723    #VPN
  28.    nat port tcp 192.168.1.45:3306 45330    #DB



Другото което супер много ме дразни и нещо не намирам инфо в google, е защо tcpdump винаги ми дава

0 packets dropped by kernel

Пускам да си дъмпя за да видя какво се случва и дали ipfw правило работи, но никакъв трафик не се вижда. Трябва да разреша през ipfw въпросния трафик и тогава tcpdump да започне да "вижда" пакетите. В 7.0 нямаше никакъв проблем да си виждам реджекнатите пакети и така да знам къде е проблема.

Нещо съм пропуснал при компилирането на кърнела ли (не съм спирал нищо уж, само добавих) или другаде е проблема?
17  Linux секция за начинаещи / Настройка на програми / Re: CentOS release 6.4 и софтуерен RAID 1 -: Oct 09, 2015, 13:33
да нормално е да не го намериш :) /proc/mdstat е това което исках да видя.

Код
GeSHi (Bash):
  1. # cat /proc/mdstat
  2. Personalities : [raid1]
  3. md127 : active raid1 sda[0]
  4.      1953511424 blocks super external:/md0/0 [2/1] [U_]
  5.  
  6. md0 : inactive sda[0](S)
  7.      3028 blocks super external:imsm
  8.  
  9. unused devices: <none>
18  Linux секция за начинаещи / Настройка на програми / Re: CentOS release 6.4 и софтуерен RAID 1 -: Oct 09, 2015, 10:34
Дай изхода от df -h и cat /proc/mdadm и blkid

Намерих няколко извадки с подобни проблеми които могат да ти бъдат полезни:
https://bugs.launchpad.net/ubuntu/+source/mdadm/+bug/964052
https://bugzilla.redhat.com/show_bug.cgi?id=606481

Това което мисля че трябва да направиш е описано тук:
https://aubreykloppers.wordpress.com/2012/07/06/mdadm-devmd127/
Или с други думи редактираш mdadm.conf с правилния раид (/dev/md0 с UUID 392de428:b7cb9135:70102f5b:d9e480b4) след като направиш копие на файла и генерираш нов инитрамфс. Интересно е дали ще сработи ако генерираш нов инитрамфс без да пипаш mdadm.conf но нищо не ти пречи да пробваш и по двата начина - вече имаш копия и на конфигурационния файл и на инитрамфс.

Дай изхода от командите за сравнение и действай, не виждам друг начин.
Междудругото имал ли си някакви ъпдейти/ъпгрейди по време на проблема, които могат да генерират нов инитрамфс, като ъпдейт на кърнел например?

Код
GeSHi (Bash):
  1. # df -h
  2. Filesystem            Size  Used Avail Use% Mounted on
  3. /dev/md127p2           15G   11G  3.0G  79% /
  4. tmpfs                 753M     0  753M   0% /dev/shm
  5. /dev/md127p1          485M   53M  407M  12% /boot
  6. /dev/md127p6          1.8T  1.5T  288G  84% /opt
  7. /dev/md127p3          3.9G  185M  3.5G   5% /var/log

Не мога да намеря cat /proc/mdadm. Имам само .conf-а и bin-а на mdadm.

Код
GeSHi (Bash):
  1. # blkid
  2. /dev/md127p2: UUID="14ef63e6-e198-42cd-a496-a28929ea7760" TYPE="ext4"
  3. /dev/md127p1: UUID="7313284f-2b2c-49ce-8514-4f71eda8af73" TYPE="ext4"
  4. /dev/md127p3: UUID="e3a37d6f-b26f-4793-897b-f9e51c355c02" TYPE="ext4"
  5. /dev/md127p5: UUID="940789ed-16c6-46da-8493-b20b9db0f05f" TYPE="swap"
  6. /dev/md127p6: UUID="24744a78-4010-417a-967a-55b8d4a7caad" TYPE="ext4"

Не, не са правени никакви ъпдейти/ъпгрейди. Просто един ден намерих харда с умряла механика.
19  BSD секция / Системни настройки / Re: FreeBSD 10.2 ipfw проблем с in\out правила -: Oct 09, 2015, 08:23
NAT имаш ли ?
Катни rc.conf и  sysctl.conf.

Да, имам NAT.

Код
GeSHi ():
  1. # cat /etc/sysctl.conf
  2.  
  3. # $FreeBSD: releng/10.1/etc/sysctl.conf 112200 2003-03-13 18:43:50Z mux $
  4. #
  5. #  This file is read when going to multi-user and its contents piped thru
  6. #  ``sysctl'' to adjust kernel values.  ``man 5 sysctl.conf'' for details.
  7. #
  8.  
  9. # Uncomment this to prevent users from seeing information about processes that
  10. # are being run under another UID.
  11. #security.bsd.see_other_uids=0
  12.  
  13.  
  14. #cat /etc/rc.conf
  15.  
  16. gateway_enable="YES"
  17. hostname="myhostname"
  18. ifconfig_le2_name="le3"
  19. ifconfig_le1="inet 192.168.1.1 netmask 255.255.255.0"
  20. ifconfig_le3="inet 95.158.*.* netmask 255.255.255.252"
  21. keymap="bg.phonetic.ctrlcaps"
  22. linux_enable="YES"
  23. sshd_enable="YES"
  24. snmpd_enable="YES"
  25. ntpd_enable="YES"
  26. ntpd_flags="-g"
  27. sendmail_enable="NO"
  28. sendmail_submit_enable="YES" #to NO
  29.  
  30. #PPPoE
  31. network_interfaces="auto"
  32. ifconfig_le0="inet 192.168.15.1 netmask 255.255.255.0 -arp up"
  33. ppp_enable="YES"
  34. ppp_mode="background"
  35. ppp_profile="pppoe"
  36.  
  37. #OpenVPN
  38. openvpn_enable="YES"
  39. openvpn_configfile="/usr/local/etc/openvpn/mynetwork"
  40. openvpn_if="tun"
  41. openvpn_if="tap bridge"
  42.  
  43. arpwatch_interface="le1"
  44. moused_enable="YES"
  45.  
  46. #snmp
  47. snmpd_enable="YES"
  48. snmpd_flags="-a"
  49. snmpd_conffile="/usr/local/share/snmp/snmpd.conf /etc/snmpd.config"
  50. snmptrapd_enable="YES"
  51. snmptrapd_flags="-a -p /var/run/snmptrapd.pid"
  52.  

20  Linux секция за начинаещи / Настройка на програми / Re: CentOS release 6.4 и софтуерен RAID 1 -: Oct 08, 2015, 08:47
Значи същата работа. Имал си мд0 но сега имаш мд127, а мд0 е грешен.
 Опитай да махнеш новия диск и виж дали ще запали с мд127 или с мд0 с един дегрейдет диск. Според мдадм мд0 е с два spare диска /dev/sda и /dev/sdb което е грешно. Опитай се да върнеш старото положение. Махай новия диск и ребутвай само със стария. Надявам се да можеш да си направиш бекъп на важните неща в случай че нещо се сбози. В случай че запали постни пак изхода от командите които ти поисках. Можеш и изхода от mdadm --examine --scan да сравниш с това което е в mdadm.conf. Не забравяй че dracut -f може да ти бъде от полза за да генерираш правилният инитрамфс имидж. И не забравяй за копие на стария инитрамфс

За момента направих копие на initramfs и разкачих 2рия диск. Ето резултата от командите:

Код
GeSHi ():
  1. # fdisk -l
  2.  
  3. Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
  4. 255 heads, 63 sectors/track, 243201 cylinders
  5. Units = cylinders of 16065 * 512 = 8225280 bytes
  6. Sector size (logical/physical): 512 bytes / 4096 bytes
  7. I/O size (minimum/optimal): 4096 bytes / 4096 bytes
  8. Disk identifier: 0x0002dbe5
  9.  
  10.   Device Boot      Start         End      Blocks   Id  System
  11. /dev/sda1   *           1          64      512000   83  Linux
  12. Partition 1 does not end on cylinder boundary.
  13. /dev/sda2              64        1977    15360000   83  Linux
  14. /dev/sda3            1977        2487     4096000   83  Linux
  15. /dev/sda4            2487      243201  1933542400    5  Extended
  16. /dev/sda5            2487        2742     2048000   82  Linux swap / Solaris
  17. /dev/sda6            2742      243201  1931492352   83  Linux
  18.  
  19. Disk /dev/md127: 2000.4 GB, 2000395698176 bytes
  20. 2 heads, 4 sectors/track, 488377856 cylinders
  21. Units = cylinders of 8 * 512 = 4096 bytes
  22. Sector size (logical/physical): 512 bytes / 4096 bytes
  23. I/O size (minimum/optimal): 4096 bytes / 4096 bytes
  24. Disk identifier: 0x0002dbe5
  25.  
  26.      Device Boot      Start         End      Blocks   Id  System
  27. /dev/md127p1   *         257      128256      512000   83  Linux
  28. Partition 1 does not end on cylinder boundary.
  29. /dev/md127p2          128257     3968256    15360000   83  Linux
  30. Partition 2 does not end on cylinder boundary.
  31. /dev/md127p3         3968257     4992256     4096000   83  Linux
  32. Partition 3 does not end on cylinder boundary.
  33. /dev/md127p4         4992257   488377856  1933542400    5  Extended
  34. Partition 4 does not end on cylinder boundary.
  35. /dev/md127p5         4992513     5504512     2048000   82  Linux swap / Solaris
  36. /dev/md127p6         5504769   488377856  1931492352   83  Linux
  37.  
  38. # cat /etc/mdadm.conf
  39. # mdadm.conf written out by anaconda
  40. MAILADDR root
  41. AUTO +imsm +1.x -all
  42. ARRAY /dev/md0 UUID=392de428:b7cb9135:70102f5b:d9e480b4
  43. ARRAY /dev/md127 UUID=202f047f:650f7c87:050db2d8:98969446
  44.  
  45. # mdadm --detail --scan
  46. ARRAY /dev/md0 metadata=imsm UUID=392de428:b7cb9135:70102f5b:d9e480b4
  47. ARRAY /dev/md/Volume0 container=/dev/md0 member=0 UUID=202f047f:650f7c87:050db2d8:98969446
  48.  
  49.  
  50. # mdadm -Q -D /dev/md0
  51. /dev/md0:
  52.        Version : imsm
  53.     Raid Level : container
  54.  Total Devices : 1
  55.  
  56. Working Devices : 1
  57.  
  58.  
  59.           UUID : 392de428:b7cb9135:70102f5b:d9e480b4
  60.  Member Arrays : /dev/md/Volume0
  61.  
  62.    Number   Major   Minor   RaidDevice
  63.  
  64.       0       8        0        -        /dev/sda
  65.  
  66.  

Не знам дали ми се струва или има разлика между mdadm.conf и детайл скана. Еднаквото UUID ме обърка тотално :)
21  Linux секция за начинаещи / Настройка на програми / Re: CentOS release 6.4 и софтуерен RAID 1 -: Oct 06, 2015, 12:03
Значи че / ти е md0...не е просто /home примерно?

Ако успееш да подкараш машината с здравия диск дори и дегрейдед ще започнеш от началото на процедурата.
Пиши какво се случва.

Всъщност е md127*

Код
GeSHi ():
  1. #df -h
  2. Filesystem            Size  Used Avail Use% Mounted on
  3. /dev/md127p2           15G   11G  3.0G  79% /
  4. tmpfs                 753M     0  753M   0% /dev/shm
  5. /dev/md127p1          485M   37M  423M   9% /boot
  6. /dev/md127p6          1.8T  1.4T  337G  81% /opt
  7. /dev/md127p3          3.9G  184M  3.5G   5% /var/log
22  Linux секция за начинаещи / Настройка на програми / Re: CentOS release 6.4 и софтуерен RAID 1 -: Oct 06, 2015, 11:38
Доколкото виждам разположението на mdadm.conf и "# mdadm.conf written out by anaconda" ти не ползваш Debian/ubuntu, следователно update-initramfs -u е dracut -f което ще презапише текущия но преди това направи копие на /boot/initramfs-$(uname -r).img.
Проблема е че в момента активния раид е md127. Хубаво е да погледнеш и UUID-то (blkid) с това в /etc/fstab. Предполагам че новия диск си го hot plug-нал и това което бих направил (след задължителен бекъп) е следното. Махам новия диск виждаме какво се случва с раидовете, евентуален reboot в който бих очаквал машината да boot-не с degraded раид (както е било когато се е счупил диска) след което стандартната процедура с фейлване на диска махане от масива и добавяне на новият диск.
Въпроса е че ще трябва да си поиграеш и рискуваш. С новият initrd/initramfs това което ще се случи е да ъпдейтнеш конфигурацията на /etc/mdadm.conf в самият initrd, но тва трябва да се случи след като сме сигурни че масивът е правилно намерен и конфигурирани, дори и деградирал а в твоят случай не изглежда така, защото ти трябва да имаш един, а реално машината вижда 2.
Аз бих постъпил по този начин за да опитам да получа старата ситуация с md0 и един диск. Въпроса е че ако машината не буут-не след рестарт ще се наложи в single user mode да опитваш да assemble-ваш раида с единия диск и вероятно тогава да update-неш initrd за да буутнеш с дегрейдед раид. Но всичко това са предположения.
Както казваше бивш колега: "Трябва да счупиш няколко раида, за да се научиш да ги оправяш"
Успех!

Мерси за напътствията. Ето малко повече инфо от ръчкането от преди дни.
След като махнах проблемния хард, опитах да го маркирам фейл с:
Код:
mdadm --manage /dev/md0 --fail /dev/sdb*

, но аз така или иначе вече го бях свалил и просто sdb не съществуваше и ми даваше грешна команда.
След доооста четене и пробване на кажи-речи какво ли не, след като уж RAID-а тръгна да се билдва и нищо не стана след зареждането в /proc/mdstat , реших да рестартирам машината. По закона на Мърфи, тя не буутна и даде грешка във файловата система. След няколко fsck-а в сингъл мод, уж се оправи, но аз разкачих 2рия диск, защото си мислех да не би нещо от него да идва проблема след билдването на райда.
Разкачих и  2ри хард за тест, машината тръгна. После я спрях и пак закачих харда.
Сега ще погледна тези неща които си казал.
23  BSD секция / Системни настройки / FreeBSD 10.2 ipfw проблем с in\out правила -: Oct 06, 2015, 11:29
Най-накрая ъпдейтнах проблемната машина (дузина теми за нея в този раздел) и се сблъсках с нещо странно.
Имам няколко интерфейса и задавам с in и out от къде да минава трафика за дадено IP/vlan. До момента с 7ма версия на FreeBSD правилото работи, а сега вече не. Става дума за нещо много елементарно от рода на:

ipfw add 1 allow all from 192.168.1.2 to any out via 212.212.212.212

Опитах да сменя  212.212.212.212 с името на интерфейса (le1), но без успех. ipfw show показва, че има трафик, но не се отварят страници.

Търсих в google за някакви промени по синтаксис на ipfw в новите версии на FreeBSD, но пак греда.
24  Linux секция за начинаещи / Настройка на програми / Re: CentOS release 6.4 и софтуерен RAID 1 -: Oct 05, 2015, 19:13
Можеш ли да постнеш и mdadm.conf-а?
Извинявай но гадая малко....трябва да имаш само md0 и ако схващам правилно sdb се е счупил и след смяната му sda е активен в md127 а двата sda и sdb са маркирани като Spare (S) в  md0...

Намерих някаква старичка тема, която ми се приближава до твоя случай, но както казвам...гадая и съм объркан.....и съм виждал как се синква изпаднал диск за 5 дни от масив (raid1) върху активния в масива на production система . Не искам да те подвеждам с предположения.

Първо мерси за помоща. Както казах, няма проблем за всякакви догадки и предположение, защото ме измъчи тоя райд. Така като чета изглежда точно както го описваш. Ето конфига:

Код
GeSHi ():
  1. # cat /etc/mdadm.conf
  2. # mdadm.conf written out by anaconda
  3. MAILADDR root
  4. AUTO +imsm +1.x -all
  5. ARRAY /dev/md0 UUID=392de428:b7cb9135:70102f5b:d9e480b4
  6. ARRAY /dev/md127 UUID=202f047f:650f7c87:050db2d8:98969446

Код
GeSHi ():
  1. # ls /dev/md/
  2. autorebuild.pid  md-device-map    Volume0p2        Volume0p5
  3. md0.pid          Volume0          Volume0p3        Volume0p6
  4. md0.sock         Volume0p1        Volume0p4

Ако правилно съм разбрал от линка, редактирам mdadm.conf, като оставям само md0 и стартирам update-initramfs -u

25  Linux секция за начинаещи / Настройка на програми / Re: CentOS release 6.4 и софтуерен RAID 1 -: Oct 05, 2015, 17:42
Можеш ли да дадеш информация от:
Код:
mdadm -Q -D /dev/md0

По спомен, мисля че това което виждам е така наречения split brain.

Edit:
Прегледай този скрипт:
https://github.com/dobber/md-split

Да, разбира се:

Код
GeSHi ():
  1. # mdadm -Q -D /dev/md0
  2. /dev/md0:
  3.        Version : imsm
  4.     Raid Level : container
  5.  Total Devices : 2
  6.  
  7. Working Devices : 2
  8.  
  9.  
  10.           UUID : 392de428:b7cb9135:70102f5b:d9e480b4
  11.  Member Arrays : /dev/md/Volume0
  12.  
  13.    Number   Major   Minor   RaidDevice
  14.  
  15.       0       8       16        -        /dev/sdb
  16.       1       8        0        -        /dev/sda
  17.  

Ето ти:

Код
GeSHi ():
  1. # mdadm -Q -D /dev/md127
  2. /dev/md127:
  3.      Container : /dev/md0, member 0
  4.     Raid Level : raid1
  5.     Array Size : 1953511424 (1863.01 GiB 2000.40 GB)
  6.  Used Dev Size : 1953511556 (1863.01 GiB 2000.40 GB)
  7.   Raid Devices : 2
  8.  Total Devices : 1
  9.  
  10.          State : clean, degraded
  11. Active Devices : 1
  12. Working Devices : 1
  13. Failed Devices : 0
  14.  Spare Devices : 0
  15.  
  16.  
  17.           UUID : 202f047f:650f7c87:050db2d8:98969446
  18.    Number   Major   Minor   RaidDevice State
  19.       0       8        0        0      active sync   /dev/sda
  20.       1       0        0        1      removed

Ами аз имам уж само един контейнер - md0. Не би трябвало проблема ми да е като този от скрипта.
26  Linux секция за начинаещи / Настройка на програми / Re: CentOS release 6.4 и софтуерен RAID 1 -: Oct 05, 2015, 15:09
Приемам всякакви предложения и помощ, които включват запазване на информацяита на sda :D
27  Linux секция за начинаещи / Настройка на програми / CentOS release 6.4 и софтуерен RAID 1 -: Oct 02, 2015, 22:45
Здравейте,
Имам два харда в raid1, но единия то тях си замина. Взех нов, но в бързането зарбавих да маркирам стария като фейлнал и да го махна от контейнера . Не знам дали това е от значение, но така е по ръководствата (примерно тук)

След доста ръчкане и тестване, уж билдването започна. При проверка с cat /proc/mdstat си излизаха процентите. Няколко часа по-късно, положението е следното:

Код
GeSHi ():
  1. # cat /proc/mdstat
  2. Personalities : [raid1]
  3. md127 : active raid1 sda[0]
  4.      1953511424 blocks super external:/md0/0 [2/1] [U_]
  5.  
  6. md0 : inactive sdb[1](S) sda[0](S)
  7.      6056 blocks super external:imsm
  8.  
  9. unused devices: <none>
  10.  
  11.  
  12. #mdadm --assemble --force /dev/md0 /dev/sda /dev/sdb
  13. mdadm: /dev/sda is busy - skipping
  14. mdadm: /dev/sdb is busy - skipping
  15.  
  16. # mdadm --examine /dev/sda
  17. /dev/sda:
  18.          Magic : Intel Raid ISM Cfg Sig.
  19.        Version : 1.1.00
  20.    Orig Family : 86e67a30
  21.         Family : 914fca17
  22.     Generation : 007a7b28
  23.     Attributes : All supported
  24.           UUID : 392de428:b7cb9135:70102f5b:d9e480b4
  25.       Checksum : 858f672c correct
  26.    MPB Sectors : 2
  27.          Disks : 2
  28.   RAID Devices : 1
  29.  
  30.  Disk00 Serial : W1F2KMMV
  31.          State : active
  32.             Id : 00000000
  33.    Usable Size : 3907023112 (1863.01 GiB 2000.40 GB)
  34.  
  35. [Volume0]:
  36.           UUID : 202f047f:650f7c87:050db2d8:98969446
  37.     RAID Level : 1 <-- 1
  38.        Members : 2 <-- 2
  39.          Slots : [UU] <-- [U_]
  40.    Failed disk : 1
  41.      This Slot : 0
  42.     Array Size : 3907022848 (1863.01 GiB 2000.40 GB)
  43.   Per Dev Size : 3907023112 (1863.01 GiB 2000.40 GB)
  44.  Sector Offset : 0
  45.    Num Stripes : 15261808
  46.     Chunk Size : 64 KiB <-- 64 KiB
  47.       Reserved : 0
  48.  Migrate State : rebuild
  49.      Map State : normal <-- degraded
  50.     Checkpoint : 5246249 (512)
  51.    Dirty State : dirty
  52.  
  53.  Disk01 Serial : Z4Z3LBC3
  54.          State : active
  55.             Id : 01000000
  56.    Usable Size : 3907023112 (1863.01 GiB 2000.40 GB)
  57. [root@store2 it]# mdadm --examine /dev/sdb
  58. /dev/sdb:
  59.          Magic : Intel Raid ISM Cfg Sig.
  60.        Version : 1.1.00
  61.    Orig Family : 86e67a30
  62.         Family : 914fca17
  63.     Generation : 007a7b28
  64.     Attributes : All supported
  65.           UUID : 392de428:b7cb9135:70102f5b:d9e480b4
  66.       Checksum : 858f672c correct
  67.    MPB Sectors : 2
  68.          Disks : 2
  69.   RAID Devices : 1
  70.  
  71.  Disk01 Serial : Z4Z3LBC3
  72.          State : active
  73.             Id : 01000000
  74.    Usable Size : 3907023112 (1863.01 GiB 2000.40 GB)
  75.  
  76. [Volume0]:
  77.           UUID : 202f047f:650f7c87:050db2d8:98969446
  78.     RAID Level : 1 <-- 1
  79.        Members : 2 <-- 2
  80.          Slots : [UU] <-- [U_]
  81.    Failed disk : 1
  82.      This Slot : 1 (out-of-sync)
  83.     Array Size : 3907022848 (1863.01 GiB 2000.40 GB)
  84.   Per Dev Size : 3907023112 (1863.01 GiB 2000.40 GB)
  85.  Sector Offset : 0
  86.    Num Stripes : 15261808
  87.     Chunk Size : 64 KiB <-- 64 KiB
  88.       Reserved : 0
  89.  Migrate State : rebuild
  90.      Map State : normal <-- degraded
  91.     Checkpoint : 5246249 (512)
  92.    Dirty State : dirty
  93.  
  94.  Disk00 Serial : W1F2KMMV
  95.          State : active
  96.             Id : 00000000
  97.    Usable Size : 3907023112 (1863.01 GiB 2000.40 GB)
  98.  


Аз ли неправя нещо както трябва или... Предполагам не би трябвало да иска рестарт за да се "разпознае" райда?
28  Linux секция за напреднали / Хардуерни и софтуерни проблеми / Питане за Galileo -: Jul 12, 2015, 23:24
Някой успя ли да свали тази програма и дали може да я шерне?
Ако има хора които не са в течение, става дума за ето този линк:

https://wikileaks.org/hackingteam/emails/?q=dans.bg&mfrom=&mto=&title=&notitle=&date=&nofrom=root%40hackingteam.it&noto=&count=1000&sort=1#searchresult

ДАНС са смятали да я ползват, но за наша радост, се оказва че:

https://wikileaks.org/hackingteam/emails/emailid/432868
29  Linux секция за напреднали / Хардуерни и софтуерни проблеми / Re: Linux mono и oracle -: Jun 09, 2015, 07:17
Моите 2 стотинки:

Този линк като че ли по скоро се отнася за аутентикация на уеб потребител (виждам там cookies и forms) в уеб приложение. Ако проблемът ти е с конекцията към оракъл, по скоро ще имаш проблем с някой ODBC dll. Също незнам точно как е в .net (още по малко mono) но за работа с оракъл в много от случаите е нужен oracle client да се инсталира (няколко стотин мегабайта мисля че е пълната версия с всички tool-ове)

Но въпросът ти е много общ, а и аз далеч не съм спеицалист по дот нет и моно. А пробва ли да google-неш грешката.

Приемам пари всякакви :)
Да, точно за аутентикацията мисля и аз става дума, но не съм се изразил явно правилно.
Имам sqlplus клиент с който успешно се свързвам към базата.

В google проблема се среща на няколко места и или няма отговор или казват да махна въпросния ред:

<sessionState mode="InProc" cookieless="false" timeout="20" sqlConnectionString="ConnectionString" />

който води до тази грешка:

The section <sessionState> can't be defined in this configuration file (the allowed definition context is 'MachineToApplication'). (/var/www/html/xsp/web.config line 41)


Намерих един linux web.config където има описание за <sessionState>

Цитат
SESSION STATE SETTINGS
          By default ASP.NET uses cookies to identify which requests belong to a particular session.
          If cookies are not available, a session can be tracked by adding a session identifier to the URL.
          To disable cookies, set sessionState cookieless="true".

,но дали го променям или му дам cokieless="true", съобщението за грешка не се променя и винаги казва ще <sessionState> неможе да се дефенира в конфига.

Съответно, ако го махна, новата грешка която се появява е:

The section <authentication> can't be defined in this configuration file (the allowed definition context is 'MachineToApplication'). (/var/www/html/xsp/web.config line 60)

реда гласи:

               
Цитат
                <!--
            The <authentication> section enables configuration
            of the security authentication mode used by
            ASP.NET to identify an incoming user.
        -->
                <authentication mode="Windows" />

За нея намерих инфо тук и пича (прилича ми на индиец :D) явно е намерил решение съответно от този линк, но не е писал как точно е оправил проблема.


----------------EDIT----------------

Намерих решение на този проблем:

Цитат

This is expected behaviour. You must run xsp in the root of your web application or specific a path to be root.

For example...

xsp2 --root /var/www/blogengine



30  Linux секция за напреднали / Хардуерни и софтуерни проблеми / Linux mono и oracle -: Jun 06, 2015, 20:10
Опитвам се да прехвърля един сайт aspx на mono, но запецнах до следната грешка:

The section <sessionState> can't be defined in this configuration file (the allowed definition context is 'MachineToApplication').

След ровене насам и натам, разбрах че проблема е в автентикацията към oracle. Опитах какво ли не, свързано с аuthentication mode (дори и None), но или аз не го правя както трябва или... незнам и аз вече.

Някой пускал ли е подобно нещо, да даде едно рамо?
Страници: 1 [2] 3 4 ... 31