فکر کنید شما یک ماشین DL380-G9 برای نصب سیستمعامل و دیتابیس در اختیار دارید. همونطور که میدونید این ماشین دارای ۴ پورت شبکه به صورت Onboard هستش و اگه ما به صفحه مشخصات این ماشین در سایت HP مراجعه کنیم (HPE ProLiant DL380 Gen9 Server) میبینیم که در قسمت SPECIFICATIONS در مشخصات کنترلر شبکه ۴ پورت رو نوشته که بسته به مدل و سفارش میتونه متفاوت باشه برای اطلاعات بیشتر میتونید به راهنمای کاربر این ماشین مراجعه کنید:
HPE-ProLiant-DL380-Gen9-Server-User-Guide
حجم: 14.9 مگابایت
خب همونطور که در جریان هستید هر پورت شبکه فیزیکی به یک کارت شبکه (Network interface controller) متصل هستش و این کنترلر وظیفهاش کنترل چیپست شبکه و ارتباطات هستش، هر پورت هم دارای یک چیپست مجزا هستش، از طرفی هر چیپست شبکه در سیستمعامل با یک DeviceDriver قابلیت اتصال به یک Virtual network interface رو در سطح کرنل داره.
خب فرض میکنیم یکی از چیپستهای سرور ما در حین کارکرد 24*7 ماشین به مشکل یا قطعی برخورد کرد و بیزنس حساسی هم روی این ماشین پیادهسازی شده به طوری که هر لحظه قطعی منجر به ضررهای میلیونی میشه خب به عنوان ادمین سیستم یکی از کارهای ما برقراری SLA تعهد داده شده است و یکی از ضعفها برای ما اینجا مشخص شده در حقیقت اگه به هر دلیلی یکی از پورتهای ما از دسترس خارج بشه ارتباط ماشین ما با شبکهامون قطع میشه.
الان با توجه به شناختمون از بیزنس و ماشین اقدام به راهاندازی سناریوی الحاق یا Link aggregation در سطح سیستمعامل میکنیم (در لینوکس Network Bonding و در مایکروسافت NIC Team)
Network Bonding در خانواده RHEL 6.X
همونطور که تا الان متوجه شدید Network Bonding یک الحاقی از چند VNI یا همون(eth0, eth1, eth2, eth3) در یک VNI که Bond Interface خونده میشن هستش. Network Bonding یکی از ویژگیهای کرنل لینوکس هستش که به صورت رسمی از طرف بنیاد لینوکس پشتیبانی میشه
به طور کلی Bonding یکی از عمومیترین راهحلها برای ایجاد HA, FT و سرویس Load Balance هستش
نکته: مطالعه مستند Linux Ethernet Bonding Driver HOWTO به هر ادمینی پیشنهاد میشه
متاسفانه وقت اجازه نمیده این مستند رو باهم مرور کنیم پس سریع یه نگاهی به نحوه کانفیگ این قابلیت در خانواده RHEL 6.X میاندازیم
در سناریو من همونطور که با فضای اون آشنا شدید من ۴ شبکه VNI دارم که میخوام یک شبکه Bond شده برای این ۴ تا بسازم
با توجه به بیزنس اپلیکیشن اولین درخواست ما از تیم زیرساخت این هستش که برای این ۴ پورت در سوییچ یک VLAN تعریف بشه تا بتونیم عملیات الحاق VNI ها رو انجام بدیم.
برای پیدا کردن تمام چیپستهای شناخته شده ماشین در سطح سیستمعامل لینوکس از دستور زیر استفاده میکنیم:
lspci | egrep -i --color 'network|ethernet'
03:00.0 Ethernet controller: Broadcom Corporation NetXtreme BCM5719 Gigabit Ethernet PCIe (rev 01)
03:00.1 Ethernet controller: Broadcom Corporation NetXtreme BCM5719 Gigabit Ethernet PCIe (rev 01)
03:00.2 Ethernet controller: Broadcom Corporation NetXtreme BCM5719 Gigabit Ethernet PCIe (rev 01)
03:00.3 Ethernet controller: Broadcom Corporation NetXtreme BCM5719 Gigabit Ethernet PCIe (rev 01)
مرحله اول: ساخت فایل پکربندی VNI Bond و اختصاص ip address, netmask, gateway مشخص شده از طرف تیم شبکه.
نکته: توجه کنید این فایل باید دقیقاً با پارمترهای زیر همراه باشه و نیازی به پارمتر اضافهای در این سناریو نیستش
[root@tel ~]# vim /etc/sysconfig/network-scripts/ifcfg-bond0
DEVICE=bond0
IPADDR=192.168.211.102
NETMASK=255.255.255.224
GATEWAY=192.168.211.97
TYPE=Bond
ONBOOT=yes
NM_CONTROLLED=no
BOOTPROTO=static
مرحله دوم: ویرایش فایلهای پیکرندی VNIهای موجود و مشخص کردن ورودیهای master و slave.
نکته: اگه قبلاً VNIهاتون رو با Network Manager پیکربندی کرده باشید پارامترهای قبلی رو باید به طور کامل پاک کنید و اطمینان حاصل کنید فایلها دقیقاً به شکل زیر پیکربندی شده باشند. نکتهای که وجود داره این هستش که اگه ۲ تا VNI (دقیقاً یعنی bond و ethهاتون برای یک ip اشتباهاً کانفیگ شده باشند به IP address conflict میخورید)
[root@tel ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0
TYPE=Ethernet
ONBOOT=yes
NM_CONTROLLED=no
HWADDR=D8:9D:67:25:61:68
LAST_CONNECT=1507163431
MASTER=bond0
SLAVE=yes
[root@tel ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth1
DEVICE=eth1
TYPE=Ethernet
ONBOOT=yes
NM_CONTROLLED=no
MASTER=bond0
SLAVE=yes
[root@tel ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth2
DEVICE=eth2
TYPE=Ethernet
ONBOOT=yes
NM_CONTROLLED=no
MASTER=bond0
SLAVE=yes
[root@tel ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth3
DEVICE=eth3
TYPE=Ethernet
ONBOOT=yes
NM_CONTROLLED=no
MASTER=bond0
SLAVE=yes
[root@tel ~]# cat /etc/sysconfig/network-scripts/ifcfg-eth
ifcfg-eth0 ifcfg-eth1 ifcfg-eth2 ifcfg-eth3
مرحله سوم: ساخت فایل پیکربندی عملیات Bond یا همون bonding.conf
نکته: یک پیکربندی پیشفرض به صورت زیر هستش شما باید بسته به سناریو خودتون پیکربندی رو تغییر بدید.
[root@tel ~]# cat /etc/modprobe.d/bonding.conf
alias bond0 bonding
options bond0 mode=0 miimon=100
برای اطلاع از باقی پارامترها میتونید به داکیومنت زیر بخش Module parameters مراجعه کنید:
Linux Ethernet Bonding Driver mini-howto
تفاوت modeهای مختلف
-balance-rr or 0 — round-robin mode for fault tolerance and load balancing.
-active-backup or 1 — Sets active-backup mode for fault tolerance.
-balance-xor or 2 — Sets an XOR (exclusive-or) mode for fault tolerance and load balancing.
-broadcast or 3 — Sets a broadcast mode for fault tolerance. All transmissions are sent on all slave interfaces.
-802.3ad or 4 — Sets an IEEE 802.3ad dynamic link aggregation mode. Creates aggregation groups that share the same speed & duplex settings.
-balance-tlb or 5 — Sets a Transmit Load Balancing (TLB) mode for fault tolerance & load balancing.
-balance-alb or 6 — Sets an Active Load Balancing (ALB) mode for fault tolerance & load balancing.
مرحله چهارم: حالا سرویس شبکه رو دوباره راهاندازی میکنیم:
# service network restart
مرحله پنجم: چک کردن و مانیتورینگ
با استفاده از دسورات زیر میتونید وضعیت VNI ساخته شده و باقی VNIها رو مانیتور کنید:
[root@tel ~]# ifconfig bond0
bond0 Link encap:Ethernet HWaddr D8:9D:67:25:61:68
inet addr:192.168.211.102 Bcast:192.168.211.127 Mask:255.255.255.224
inet6 addr: fe80::da9d:67ff:fe25:6168/64 Scope:Link
UP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1
RX packets:3750069 errors:0 dropped:0 overruns:0 frame:0
TX packets:113092 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:300977536 (287.0 MiB) TX bytes:21671807 (20.6 MiB)
همونطور که متوجه شدید وضعیت کانفیگ Bond من به صورت FT, Load Balance هستش برای چک کردن میتونیم به صورت دستی کابلها رو از سرور دونه دونه بکشیم و به استفاده از دستور زیر اقدام به پایین و بالا کردن VNI هامون بکنیم:
[root@tel ~]# ifconfig eth2 down
[root@tel ~]# ifconfig eth2 up
[root@tel ~]# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)
Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
Slave Interface: eth0
MII Status: up
Speed: 100 Mbps
Duplex: full
Link Failure Count: 2
Permanent HW addr: d8:9d:67:25:61:68
Slave queue ID: 0
Slave Interface: eth1
MII Status: up
Speed: 100 Mbps
Duplex: full
Link Failure Count: 2
Permanent HW addr: d8:9d:67:25:61:69
Slave queue ID: 0
Slave Interface: eth2
MII Status: up
Speed: 100 Mbps
Duplex: full
Link Failure Count: 2
Permanent HW addr: d8:9d:67:25:61:6a
Slave queue ID: 0
Slave Interface: eth3
MII Status: up
Speed: 100 Mbps
Duplex: full
Link Failure Count: 1
Permanent HW addr: d8:9d:67:25:61:6b
Slave queue ID: 0
پینوشت
یاشار جان ۲ نکته خوب رو اشاره کردن که به مطلب اضافه میکنم:
- نکتهاول: یادم رفت اشاره کنم که طبیعتاً باید به هر پورت کارت شبکه کابل شبکه هم وصل بشه تا بتونیم سناریو رو جلو ببریم
- نکته دوم: کاربرد bonding بیشتر تو چندین ip هست که یک ip ایجاد میکنه برای دسترس پذیری بالا // برای مثال ۲ رنج شبکه داریم که میخوایم همش منتهی بشه به یه ip یا دو پهنا باند ایجاد بشه و ...
پینوشت ۲
حتما توجه داشته باشید پیکربندی etherchannel در سوییچهای شما انجام شده باشه
https://access.redhat.com/documentation/en-us/red_hat_openstack_platform/13/html/networking_guide/sec-physical-switch#phys-extreme-nexos
برای سوییچ های سامیت (مدل Extreme X670-48x_48port)
https://gtacknowledge.extremenetworks.com/articles/How_To/how-to-configure-sharing-LAG-LACP-in-Summit-stack-or-BlackDiamond-switches
منابع
https://www.cyberciti.biz/faq/linux-list-network-cards-command/
http://www.cloudibee.com/network-bonding-modes/
https://www.linuxtechi.com/network-bonding-centos-6-rhel-6/