46
|
Linux секция за напреднали / Хардуерни и софтуерни проблеми / Re: Debian, irqbalance, DELL Power Edge 1850, 300Mbits traffic
|
-: Sep 22, 2010, 15:12
|
02:0c.0 Ethernet controller: Intel Corporation 82546EB Gigabit Ethernet Controller (Copper) (rev 01) 02:0c.1 Ethernet controller: Intel Corporation 82546EB Gigabit Ethernet Controller (Copper) (rev 01)
06:07.0 Ethernet controller: Intel Corporation 82541GI Gigabit Ethernet Controller (rev 05) 07:08.0 Ethernet controller: Intel Corporation 82541GI Gigabit Ethernet Controller (rev 05)
Пробвай по-големите трафици да са на картите с 82546EB чипсета. Не си показал колко пакета имаш в пиковете и дроп-а тогава ако има такав.Тази машина освен да рутира друго прави ли ? При мен PowerEdge 860 на същите трафици се товари около 30% а е много по слаб като машина. input (Total) output packets errs bytes packets errs bytes colls drops 39K 0 32M 39K 0 32M 0 0 40K 0 34M 40K 0 33M 0 0 42K 0 34M 41K 0 34M 0 0 41K 0 33M 41K 0 33M 0 0 39K 0 32M 39K 0 32M 0 0 38K 0 31M 38K 0 31M 0 0 41K 0 33M 41K 0 33M 0 0 40K 0 32M 39K 0 32M 0 0 39K 0 30M 38K 0 29M 0 0 44K 0 35M 44K 0 35M 0 0 40K 0 33M 40K 0 32M 0 0 39K 0 32M 39K 0 32M 0 0 37K 0 29M 36K 0 29M 0 0 36K 0 28M 36K 0 28M 0 0 37K 0 29M 37K 0 29M 0 0 36K 0 27M 35K 0 27M 0 0 35K 0 27M 34K 0 27M 0 0 37K 0 29M 36K 0 29M 0 0 40K 0 32M 39K 0 32M 0 0
last pid: 12652; load averages: 0.00, 0.00, 0.00 up 2+07:58:27 15:07:25 28 processes: 1 running, 27 sleeping CPU 0: 0.0% user, 0.0% nice, 0.8% system, 15.0% interrupt, 84.2% idle CPU 1: 0.0% user, 0.0% nice, 0.7% system, 21.3% interrupt, 77.9% idle Mem: 32M Active, 261M Inact, 158M Wired, 68K Cache, 112M Buf, 1546M Free Swap: 4043M Total, 4043M Free
PID USERNAME PRI NICE SIZE RES STATE C TIME WCPU COMMAND 749 root 44 0 11424K 8028K select 0 8:37 0.00% snmpd 614 root 44 0 3344K 1308K select 1 0:30 0.00% syslogd 394 root 44 0 4140K 2380K select 0 0:08 0.00% ospfd 839 root 44 0 4864K 2384K select 0 0:08 0.00% ntpd 904 root 44 r0 3448K 1088K nanslp 0 0:07 0.00% watchdogd 888 root 44 0 4492K 2976K bpf 0 0:03 0.00% arpwatch 918 root 44 0 6072K 3576K select 0 0:03 0.00% sendmail 569 root 44 0 4004K 1408K select 0 0:02 0.00% watchquagga 388 root 44 0 4004K 1964K select 0 0:01 0.00% zebra 929 root 44 0 3372K 1360K nanslp 0 0:01 0.00% cron 12585 nikolay 44 0 9400K 4444K select 0 0:00 0.00% sshd 12652 root 44 0 3680K 1888K CPU1 1 0:00 0.00% top 12582 root 45 0 9400K 4416K sbwait 1 0:00 0.00% sshd 922 smmsp 44 0 6072K 3396K pause 0 0:00 0.00% sendmail 12588 root 44 0 5648K 2636K pause 1 0:00 0.00% csh 12587 nikolay 44 0 3804K 1724K wait 1 0:00 0.00% su 460 root 44 0 1888K 540K select 1 0:00 0.00% devd 911 root 44 0 6676K 3696K select 1 0:00 0.00% sshd 12586 nikolay 44 0 3624K 1616K wait 1 0:00 0.00% sh 1003 root 76 0 3344K 1160K ttyin 0 0:00 0.00% getty 1006 root 76 0 3344K 1160K ttyin 1 0:00 0.00% getty 1007 root 76 0 3344K 1160K ttyin 1 0:00 0.00% getty 1008 root 76 0 3344K 1160K ttyin 0 0:00 0.00% getty 1009 root 76 0 3344K 1160K ttyin 0 0:00 0.00% getty 1004 root 76 0 3344K 1160K ttyin 0 0:00 0.00% getty 1005 root 76 0 3344K 1160K ttyin 1 0:00 0.00% getty 1010 root 76 0 3344K 1160K ttyin 1 0:00 0.00% getty 108 root 76 0 1536K 852K pause 1 0:00 0.00% adjkerntz
core# ipfw -d show | wc -l 11652
|
|
|
47
|
Linux секция за напреднали / Хардуерни и софтуерни проблеми / Re: Debian, irqbalance, DELL Power Edge 1850, 300Mbits traffic
|
-: Sep 22, 2010, 09:10
|
Здравейте, преди около месец сърфирайки из Интернет намерих една фирма която продава сървъри втора употреба. И тъй като аз съм фен на DELL в тази сфера си закупих този звяр. http://data.itservice-bg.net/screenshot/DELL-1850.JPG С цел да е бордер рутер във фирмата в която работя (не че стария беше с по лоши характеристики но го предназначих за друго) Машината е DELL Power Edge 1850 2x3.2Ghz dual XEON 2GB RAM 4NIC Giga Intel и така нататък. Тествах я около една седмица като пробвах с Vyatta (много добра дистрибуция но не ми сработиха "натовете") и за жалост се върнах на Debian но този път вместо Lenny инсталирах Squeeze. Монтирах машината и всичко тръгна от раз, След ден два реших да инсталирам малко мониторингов софт и след mrtg пускайки htop застинах - товари се само едното ядро и то на 100%. Зaседнах пред google и що годе добих представа какво се случва. В cat /proc/interrupts се оказа, че и четирите лан карти се обработват от едно ядро. Решението на този проблем е или да се опишат ръчно или да се инсталира irqbalance. С ръчното не става мога да местя всяка ланка на което ядро искам с echo 01 > /prov/irq.39//proc/irq/39/smp_affinity например на първото ядро но не приема 0f за всички. След което инсталирах irqbalance които пък сложи всяка ланка на отделно ядро. Това добре, но големия трафик върви през две от тях в резултат на което ми се товарят 1 и 3 ядро почти на 100%. http://data.itservice-bg.net/screenshot/htop.png Надявам се някой от вас да е попадал в подобна ситуация и да е намерил някакво решение. Машината е много добра и в добро състояние но ако не реша този проблем става неизползваема а как мога да продам такова нещо представа си нямам. Трябва да реша този проблем а в google не открих много ясноти по въпроса. Готов съм на всякакви варианти дори на някакъв бартер за друга машина ако не намеря решение ...
Колко са пакетите и графика като цяло, и през натоварените интерфейси ? Какъв чипсет са картите ?
|
|
|
48
|
Linux секция за начинаещи / Настройка на програми / Re: route: една и съща мрежа към две направления?
|
-: Sep 16, 2010, 12:02
|
здравейте, @savago това добре за резервираните маршрути, но по какъв алгоритъм избира кой от двата маршрута да избере за основен и кой за резервен?
...Иначе резултатът не е много забавен... а какъв е резултата...(сега не мога да пробвам), т.е. изпраща ли изобщо пакет или не? Идеята ми беше не може ли тази "безсмислица" да се използва за load balance? Т.е. един пакет през едниния интерфейс (или gw) а втори пакет през другия интерфейс (gw) и т.н.? Май не.... Аз по принцип питах за обикновен маршрут, не за default маршрута, но май е едно и също?
load balance с freebsd/openbsd (pf) за мен работи много добре, и съм го ползвал доста време,препоръчвам ти го.Имаш и carp/pfsync с тях .По спомен ограниченията бяха от ползването на нат,и проблеми с хттпс/сесиите. http://openbsd.org/faq/pf/pools.htmlп.с Нямал съм проблемите в по горния пост никога.
|
|
|
49
|
Linux секция за начинаещи / Настройка на програми / Re: route: една и съща мрежа към две направления?
|
-: Sep 16, 2010, 09:01
|
# route add -mpath default 10.130.128.1 # route add -mpath default 10.132.0.1
# netstat -rnf inet | grep default default 10.130.128.1 UGS 2 134 - fxp1 default 10.132.0.1 UGS 0 172 - fxp2
# traceroute -n 154.11.0.4 traceroute to 154.11.0.4 (154.11.0.4), 64 hops max, 60 byte packets 1 10.130.128.1 19.337 ms 18.194 ms 18.849 ms 2 154.11.95.170 17.642 ms 18.176 ms 17.731 ms 3 154.11.5.33 110.486 ms 19.478 ms 100.949 ms 4 154.11.0.4 32.772 ms 33.534 ms 32.835 ms
# traceroute -n 154.11.0.5 traceroute to 154.11.0.5 (154.11.0.5), 64 hops max, 60 byte packets 1 10.132.0.1 14.175 ms 14.503 ms 14.58 ms 2 154.11.95.38 13.664 ms 13.962 ms 13.445 ms 3 208.38.16.151 13.964 ms 13.347 ms 13.788 ms 4 154.11.0.5 30.177 ms 30.95 ms 30.593 ms
Equal-cost multipath routing refers to having multiple routes in the routing table for the same network, such as the default route, 0.0.0.0/0. When the kernel is doing a route lookup to determine where to send packets destined to that network, it can choose from any of the equal-cost routes. In most scenarios, multipath routing is used to provide redundant uplink connections, e.g., redundant connections to the Internet.
|
|
|
50
|
BSD секция / Системни настройки / Re: ipfw питанка
|
-: Sep 11, 2010, 19:46
|
За по лесна бърза работа ползаме таблици. #--- reseting --- $cmd flush $cmd pipe flush $cmd queue flush $cmd table all flush #----Table 1------------------------- $cmd table 1 add 1.2.3.1/24 $cmd table 1 add 1.2.3.2/24 $cmd table 1 add 1.2.3.4/24 $cmd table 1 add 1.2.3.5/24 $cmd table 1 add 1.2.3.6/27 примерно за изходящ 25 $cmd add deny log tcp from "table(1)" to any 25
или конекций $cmd add allow tcp from "table(1)" to any setup limit src-addr 150 $cmd add allow udp from "table(1)" to any limit src-addr 100
|
|
|
53
|
BSD секция / Системни настройки / Re: блокиране на Skype
|
-: Apr 26, 2010, 09:56
|
Ефективното блокирането на Skype става наистина само чрез L7(дори и така гадинката успява да се промуши понякога).Ако имаш възможност да промениш мрежата и да инвестираш средства, ти предлагам да заместиш Linux машината с един MikroTik.Има си L7 и лесно ще можеш да правиш гимнастиките, които искаш.
И каква ще е рзликата от заместването на Linux машината с един MikroTik ?.
|
|
|
55
|
BSD секция / Настройки на софтуер / Re: FreeBSD 8 - системата е нестабилна и бавна...
|
-: Apr 17, 2010, 15:04
|
Зависи за какво я ползваш - доскоро имаше проблеми с Интелските (em) и новите Броудкомски (bce) мрежови драйвери, проблеми с wireless networking-a, напр. Ralink USB (rum) картата която имам, вече не работи с WEP, както чувам проблема го има с други безжични драйвери; в 7.3 нямаше проблем...плюс това при определени обстоятества rum драйвера крашва ядрото ifconfig stf create up ме праща директно на kernel debugger multicast кода е пренаписан в 8, crash-овете там като че ли ги позчистихме, но не съм си играла напоследък - освен това новото поведение създава(ше) проблеми с quagga, OpenOSPF т.н ARP кода е пренаписан - също проблеми с някои програми които разчитат на старото поведение ... това са проблемите, на които аз съм се натъквала - а има и промени в много други подсистеми [/quote]
Основно за нетуоркинг, бордери,акцеси.Системите са с броудкомски чипсети на картите,драивъра е bge.Нямъл съм крашове до момента,слава богу.Единствения проблем на които се натъкнах беше в dummyneta,но след пачване и прекомпилиране на ядрото е нямало проблеми.
|
|
|
57
|
BSD секция / Настройки на софтуер / Re: FreeBSD 8 - системата е нестабилна и бавна...
|
-: Apr 16, 2010, 20:40
|
8-цата наистина е нестабилна, и аз смятам, че за момента 7.3 е по-добрият избор [/quote]
Чак пък нестабилна,не бих казъл.
8:38PM up 45 days, 11:35, 2 users, load averages: 0.00, 0.00, 0.00 router22# netstat -w1 -h -Ibge1 input (bge1) output packets errs bytes packets errs bytes colls 24K 0 14M 22K 0 14M 0 23K 0 14M 22K 0 14M 0 23K 0 13M 22K 0 15M 0 24K 0 14M 23K 0 15M 0 25K 0 14M 24K 0 16M 0 23K 0 14M 22K 0 14M 0 24K 0 14M 23K 0 16M 0 24K 0 14M 22K 0 15M 0 24K 0 14M 22K 0 15M 0 25K 0 15M 23K 0 16M 0 25K 0 16M 23K 0 15M 0 24K 0 14M 23K 0 16M 0 24K 0 15M 22K 0 15M 0 25K 0 16M 23K 0 15M 0 23K 0 14M 22K 0 15M 0 24K 0 15M 23K 0 15M 0 23K 0 14M 23K 0 16M 0 24K 0 14M 23K 0 15M 0 24K 0 14M 22K 0 15M 0 24K 0 14M 23K 0 15M 0
|
|
|
|