跳至主要内容

利用haproxy来做V2RAY负载均衡

Sandy在之前有说过阿里云通过Nginx中转Linode/digitalocean/AWS的V2ray协议,实现负载均衡,有些学童不想折腾nginx,那么我们可以用haproxy来折腾,不管是haproxy还是Nginx都可以在树莓派和局域网的PC机器折腾!

安装haproxy的教程就移步到->haproxy安装教程

apt-get install haproxy

安装完毕,我们来修改haproxy的配置

vi /etc/haproxy/haproxy.cfg

里面内容全部删除,加入下面的内容

global
        ulimit-n 51200
        log /dev/log local0
        log /dev/log local1 notice
        chroot /var/lib/haproxy
        pidfile /var/run/haproxy.pid
        user haproxy
        group haproxy
        daemon
defaults
        log global
        mode tcp
        retries 3
        option  dontlognull
        option  redispatch
#上游TCP服务器连接等待时间 
        timeout connect 5s
        timeout client 24h
        timeout server 24h
#以下为Web管理页面设置,如不需要可以删除
listen  admin_stats          
        bind 0.0.0.0:8888
        mode http
        log 127.0.0.1 local0 err
        stats refresh 30s
        stats uri /haproxy
        stats realm welcome login\ Haproxy
        stats auth admin:admin
        stats hide-version
        stats admin if TRUE
#以上为Web管理页面设置,如不需要可以删除
        
frontend v2ray-in
        mode    tcp
        #Haproxy监听的端口
        bind    0.0.0.0:7777 #v2ray客户端连接端口使用这个
        default_backend v2ray

backend v2ray
        mode tcp
        option  tcp-check 
        balance roundrobin
#       balance leastconn
        server v2ray1 192.168.2.2:8888 check inter 1000 
        server v2ray2 192.168.2.3:8888 check inter 1000         
        server v2ray3 192.168.2.3:8888 check inter 1000

然后启动haproxy,在浏览器输入http://主服务器IP:8888 就可以管理你的负载均衡点了

root@haproxy:~# service haproxy
Usage: /etc/init.d/haproxy {start|stop|reload|restart|status}
root@haproxy:~# service haproxy start

评论

  1. 配了 haproxy 怎么连接,改ip和端口为v2ray-in配的ip和端口也不行啊

    回复删除

发表评论

此博客中的热门博文

阿里云通过Nginx中转Linode/digitalocean/AWS的V2ray协议,实现负载均衡

开篇文的废话.原因是Sandy做站服务器太多了,发现利用率不高,皮又痒了又想折腾了.v2ray是利器但是给人的感觉就是只能用一台服务器,官方也说不支持负载均衡,不会A服务器挂机,自动跳转到B服务器.这里就有点折磨人了.每个服务器挂了都要自己去改配置文件. 我们访问国外的服务器,如果没CN2的线路是非常慢的,起码不快!哈哈~现在VPS都便宜起码人手一个人有5台以上吧?这样的话我们就可以开整. 开整条件:国内VPS或者阿里云有CN2线路的机器最好是100MB-200MB的带宽的.保证你爽歪歪.但是Sandy在阿里云HK30MB下也测试了也可以达到30000KB以上,羡慕吧~我们可以开始了! 老规则工具先出: 没被gwf和谐的服务器1台(下文统称:主服务器) 国外服务器2台以上(下文统称:从服务器) nginx 1.9.5版本以上(推荐:lnmp1.4) v2ray croe 第一步: 在 主服务器 安装lnmp1.4,这里就不细说教程了.直接去 官方 看教程 安装完毕以后我们来升级Nginx让他支持stream模块 cd lnmp1.4 vi lnmp.conf 在Nginx_Modules_Options=‘’里面加入--with-stream Nginx_Modules_Options='--with-stream’ 然后执行升级命令 ./upgrade.sh nginx  第二步 修改nginx.conf文件 cd /usr/local/nginx/conf/nginx.conf 在 events { use epoll; worker_connections 51200; multi_accept on; } 下面加入 stream{ server{ listen 0.0.0.0:8080; proxy_pass v2ray_backend; proxy_timeout 10m; proxy_connect_timeout 5000ms; } upstream v2ray_backend{ server

利用aws最低配置搭建frp内网穿透

利用aws最低配置搭建frp内网穿透 由于最近忙着搬家的时候,一直在考虑如何让2个地区来实现稳定的内网穿透,可以把2边的带宽利用起来!突然想起很早之前和鸟总一起搭建过的frp内网穿透.于是就折腾了起来了. 这次我们利用别人写好的一键脚本吧,自己懒得去编辑frp.ini文件了! 1. 服务器端安装说明(ubuntu 18) wget --no-check-certificate https://raw.githubusercontent.com/clangcn/onekey-install-shell/master/frps/install-frps.sh -O ./install-frps.sh chmod 700 ./install-frps.sh ./install-frps.sh install 安装过程中会有提示一些的参数,我们设置好就可以了! Please input frps bind_port [1-65535](Default Server Port: 5443): #输入frp提供服务的端口,用于服务器端和客户端通信,按Enter键表示默认5443,否则手动输入新端口 Please input frps dashboard_port [1-65535](Default dashboard_port: 6443): #输入frp的控制台服务端口,用于查看frp工作状态,按Enter键表示默认6443,否则手动输入新端口 Please input frps vhost_http_port [1-65535](Default vhost_http_port: 80): #输入frp进行http穿透的http服务端口,按Enter键表示默认80,否则手动输入新端口,一般不建议默认80 Please input frps vhost_https_port [1-65535](Default vhost_https_port: 443): #输入frp进行https穿透的https服务端口,按Enter键表示默认443,否则手动输入新端口 Please input privilege_token (Default: WEWLRgwRjIJVPx2kuqzkGnvuftPLQniq): #输入frp服务器和客户端通信的密码,默认是随机生