Pag-set up sa load balancing sa InfoWatch Traffic Monitor

Pag-set up sa load balancing sa InfoWatch Traffic Monitor

Unsa ang buhaton kung ang gahum sa usa ka server dili igo aron maproseso ang tanan nga mga hangyo, ug ang tiggama sa software wala maghatag pagbalanse sa pagkarga? Adunay daghang mga kapilian, gikan sa pagpalit sa usa ka load balancer hangtod sa paglimit sa gidaghanon sa mga hangyo. Hain ang husto kinahanglan nga matino pinaagi sa sitwasyon, nga gikonsiderar ang kasamtangan nga mga kondisyon. Niini nga artikulo isulti namon kanimo kung unsa ang imong mahimo kung limitado ang imong badyet ug adunay ka libre nga server.

Isip usa ka sistema diin gikinahanglan ang pagpakunhod sa load sa usa sa mga server, among gipili ang DLP (information leakage prevention system) gikan sa InfoWatch. Usa ka bahin sa pagpatuman mao ang pagbutang sa function sa balanse sa usa sa mga server nga "kombat".

Usa sa mga problema nga among nasugatan mao ang kawalay katakus sa paggamit sa Source NAT (SNAT). Ngano nga gikinahanglan kini ug kung giunsa ang pagsulbad sa problema, among ihulagway ang dugang.

Busa, sa sinugdanan ang lohikal nga diagram sa kasamtangan nga sistema ingon niini:

Pag-set up sa load balancing sa InfoWatch Traffic Monitor

Ang trapiko sa ICAP, SMTP, mga panghitabo gikan sa mga kompyuter sa tiggamit giproseso sa server sa Traffic Monitor (TM). Sa samang higayon, ang database server daling nakasagubang sa load human sa pagproseso sa mga panghitabo sa TM, apan ang load sa TM mismo bug-at. Kini makita gikan sa dagway sa usa ka mensahe pila sa Device Monitor (DM) server, ingon man gikan sa CPU ug memory load sa TM.

Sa una nga pagtan-aw, kung magdugang kami og lain nga TM server sa kini nga laraw, mahimo’g ibalhin ang ICAP o DM niini, apan nakahukom kami nga dili gamiton kini nga pamaagi, tungod kay ang pagtugot sa sayup gikunhuran.

Deskripsyon sa solusyon

Sa proseso sa pagpangita alang sa usa ka angay nga solusyon, among gihusay ang libre nga gipang-apod-apod nga software nabuhi uban sa LVS. Tungod kay gisulbad sa keepalived ang problema sa paghimo og failover cluster ug mahimo usab nga madumala ang LVS balancer.

Ang gusto namon nga makab-ot (pakunhuran ang load sa TM ug ipadayon ang karon nga lebel sa pagtugot sa sayup) kinahanglan nga molihok sumala sa mosunod nga laraw:

Pag-set up sa load balancing sa InfoWatch Traffic Monitor

Kung gisusi ang pag-andar, nahibal-an nga ang naandan nga RedHat assembly nga gi-install sa mga server wala magsuporta sa SNAT. Sa among kaso, nagplano kami nga gamiton ang SNAT aron masiguro nga ang umaabot nga mga pakete ug mga tubag niini ipadala gikan sa parehas nga IP address, kung dili makuha namon ang mosunod nga litrato:

Pag-set up sa load balancing sa InfoWatch Traffic Monitor

Dili kini madawat. Pananglitan, ang usa ka proxy server, nga nagpadala sa mga pakete sa usa ka Virtual IP (VIP) nga adres, magdahom nga tubag gikan sa VIP, apan sa kini nga kaso kini gikan sa IP2 alang sa mga sesyon nga gipadala sa backup. Nakaplagan ang usa ka solusyon: gikinahanglan ang paghimo og laing routing table sa backup ug pagkonektar sa duha ka TM server nga adunay bulag nga network, sama sa gipakita sa ubos:

Pag-set up sa load balancing sa InfoWatch Traffic Monitor

Mga Setting

Ipatuman namon ang usa ka laraw sa duha ka mga server nga adunay mga serbisyo sa ICAP, SMTP, TCP 9100 ug usa ka load balancer nga na-install sa usa niini.

Kami adunay duha ka RHEL6 server, diin ang mga standard repository ug pipila ka mga pakete gikuha.

Mga serbisyo nga kinahanglan natong balansehon:

β€’ ICAP – tcp 1344;

β€’ SMTP – tcp 25.

Serbisyo sa pagpasa sa trapiko gikan sa DM - tcp 9100.

Una, kinahanglan natong planohon ang network.

Virtual IP address (VIP):

β€’ IP: 10.20.20.105.

Server TM6_1:

β€’ External IP: 10.20.20.101;

β€’ Internal IP: 192.168.1.101.

Server TM6_2:

β€’ External IP: 10.20.20.102;

β€’ Internal IP: 192.168.1.102.

Dayon among gi-enable ang IP forwarding sa duha ka TM servers. Giunsa kini buhaton gihulagway sa RedHat dinhi.

Kami ang magdesisyon kung hain sa mga server ang among maangkon mao ang panguna ug kung kinsa ang mahimong backup. Himoa nga ang master mahimong TM6_1, backup nga TM6_2.

Sa backup naghimo kami og bag-ong balancer routing table ug routing rules:

[root@tm6_2 ~]echo 101 balancer >> /etc/iproute2/rt_tables
[root@tm6_2 ~]ip rule add from 192.168.1.102 table balancer
[root@tm6_2 ~]ip route add default via 192.168.1.101 table balancer

Ang mga sugo sa ibabaw nagtrabaho hangtud nga ang sistema ma-reboot. Aron masiguro nga ang mga ruta gipreserbar pagkahuman sa pag-reboot, mahimo nimong isulod kini /etc/rc.d/rc.local, pero mas maayo pinaagi sa settings file /etc/sysconfig/network-scripts/route-eth1 (pahinumdom: lain-laing syntax ang gigamit dinhi).

I-install ang keepalived sa duha ka TM server. Gigamit namo ang rpmfind.net isip tinubdan sa pag-apod-apod:

[root@tm6_1 ~]#yum install https://rpmfind.net/linux/centos/6.10/os/x86_64/Packages/keepalived-1.2.13-5.el6_6.x86_64.rpm

Sa keepalived settings, among gi-assign ang usa sa mga server isip master, ang usa isip backup. Dayon nagtakda kami og VIP ug mga serbisyo alang sa pagbalanse sa load. Ang file sa mga setting kasagarang nahimutang dinhi: /etc/keepalived/keepalived.conf.

Mga setting alang sa TM1 Server

vrrp_sync_group VG1 { 
   group { 
      VI_1 
   } 
} 
vrrp_instance VI_1 { 
        state MASTER 
        interface eth0 

        lvs_sync_daemon_inteface eth0 
        virtual_router_id 51 
        priority 151 
        advert_int 1 
        authentication { 
                auth_type PASS 
                auth_pass example 
        } 

        virtual_ipaddress { 
                10.20.20.105 
        } 
}

virtual_server 10.20.20.105 1344 {
    delay_loop 6
    lb_algo wrr 
    lb_kind NAT
    protocol TCP

    real_server 192.168.1.101 1344 {
        weight 1
        TCP_CHECK { 
                connect_timeout 3 
            connect_port 1344
        nb_get_retry 3
        delay_before_retry 3
        }
    }

    real_server 192.168.1.102 1344 {
        weight 1
        TCP_CHECK { 
                connect_timeout 3 
            connect_port 1344
        nb_get_retry 3
        delay_before_retry 3
        }
    }
}

virtual_server 10.20.20.105 25 {
    delay_loop 6
    lb_algo wrr 
    lb_kind NAT
    protocol TCP

    real_server 192.168.1.101 25 {
        weight 1
        TCP_CHECK { 
                connect_timeout 3 
            connect_port 25
        nb_get_retry 3
        delay_before_retry 3
        }
    }

    real_server 192.168.1.102 25 {
        weight 1
        TCP_CHECK { 
                connect_timeout 3 
            connect_port 25
        nb_get_retry 3
        delay_before_retry 3
        }
    }
}

virtual_server 10.20.20.105 9100 {
    delay_loop 6
    lb_algo wrr 
    lb_kind NAT
    protocol TCP

    real_server 192.168.1.101 9100 {
        weight 1
        TCP_CHECK { 
                connect_timeout 3 
            connect_port 9100
        nb_get_retry 3
        delay_before_retry 3
        }
    }

    real_server 192.168.1.102 9100 {
        weight 1
        TCP_CHECK { 
                connect_timeout 3 
            connect_port 9100
        nb_get_retry 3
        delay_before_retry 3
        }
    }
}

Mga setting alang sa TM2 Server

vrrp_sync_group VG1 { 
   group { 
      VI_1 
   } 
} 
vrrp_instance VI_1 { 
        state BACKUP 
        interface eth0 

        lvs_sync_daemon_inteface eth0 
        virtual_router_id 51 
        priority 100 
        advert_int 1 
        authentication { 
                auth_type PASS 
                auth_pass example 
        } 

        virtual_ipaddress { 
                10.20.20.105 
        } 
}

Gi-install namon ang LVS sa master, nga magbalanse sa trapiko. Dili makatarunganon ang pag-install sa usa ka balanse alang sa ikaduha nga server, tungod kay kami adunay duha ra nga mga server sa pag-configure.

[root@tm6_1 ~]##yum install https://rpmfind.net/linux/centos/6.10/os/x86_64/Packages/ipvsadm-1.26-4.el6.x86_64.rpm

Ang balancer madumala sa keepalived, nga na-configure na namo.

Aron makompleto ang hulagway, atong idugang ang keepalived sa autostart sa duha ka server:

[root@tm6_1 ~]#chkconfig keepalived on

konklusyon

Pagsusi sa mga resulta

Atong padagan ang keepalived sa duha ka server:

service keepalived start

Pagsusi sa pagkaanaa sa usa ka virtual nga adres sa VRRP

Atong siguroon nga ang VIP naa sa master:

Pag-set up sa load balancing sa InfoWatch Traffic Monitor

Ug walay VIP sa backup:

Pag-set up sa load balancing sa InfoWatch Traffic Monitor

Gamit ang ping command, atong susihon ang pagkaanaa sa VIP:

Pag-set up sa load balancing sa InfoWatch Traffic Monitor

Karon mahimo nimong i-shut down ang master ug ipadagan pag-usab ang command ping.

Ang resulta kinahanglan magpabilin nga pareho, ug sa backup atong makita ang VIP:

Pag-set up sa load balancing sa InfoWatch Traffic Monitor

Pagsusi sa pagbalanse sa serbisyo

Atong kuhaon ang SMTP pananglitan. Atong ilunsad ang duha ka koneksyon sa 10.20.20.105 nga dungan:

telnet 10.20.20.105 25

Sa master kinahanglan naton makita nga ang duha nga koneksyon aktibo ug konektado sa lainlaing mga server:

[root@tm6_1 ~]#watch ipvsadm –Ln

Pag-set up sa load balancing sa InfoWatch Traffic Monitor

Busa, gipatuman namo ang usa ka fault-tolerant configuration sa mga serbisyo sa TM pinaagi sa pag-instalar og balancer sa usa sa mga TM server. Alang sa among sistema, kini nagpamenos sa load sa TM sa katunga, nga nagpaposible sa pagsulbad sa problema sa kakulang sa horizontal scaling gamit ang sistema.

Sa kadaghanan nga mga kaso, kini nga solusyon dali nga gipatuman ug wala’y dugang nga gasto, apan usahay adunay daghang mga limitasyon ug mga kalisud sa pag-configure, pananglitan, kung gibalanse ang trapiko sa UDP.

Source: www.habr.com

Idugang sa usa ka comment