HAProxy: балансировки нагрузки между веб-серверами Nginx

В данной статье мы покажем настройку планировщика HAProxy для двух серверов с установленным веб-сервером Nginx (можно заменить на Apache). В качестве ОС во всех случаях используется CentOS.

HAProxy – серверное программное обеспечение для обеспечения высокой доступности и балансировки нагрузки для TCP и HTTP приложений, методом распределения входящих запросов на несколько серверов. HAProxy используется на многих популярных ресурсах, включая Twitter, Instagram, Github, Avito, Amazon и другие.

HAProxy устанавливается на отдельный сервер, который принимает клиентские запросы и перенаправлять их на веб-сервера Nginx. Ниже представлена общая архитектура системы.

Балансировка между nginx нагрузки с помощью HAProxy

Настройка Nginx на backend-серверах

Начнем с установки и настройки Nginx на наших веб-серверах, между которыми будет балансировать нагрузка. Установим репозиторий EPEL и собственно сам nginx с помощью yum:

#yum install epel-release -y
#yum install nginx -y

Я выполнял установку сразу на двух серверах, так как сервера настраиваются один в один (для параллельного выполнения команд на нескольких серверах можно использовать pdsh).

установка nginx

Далее в конфигурационных файлах nginx.conf укажем, что сервера должны обрабатывать запросы только с сервера HaProxy и backend-серверов:

1-ый backend-сервер:

server { listen IP_текущего_сервера:80 default_server; 
allow IP_второго_backend_сервера; allow IP_haproxy; deny all; server_name _; root /usr/share/nginx/html; # Load configuration files for the default server block. include /etc/nginx/default.d/*.conf; location / { }

2-ой backend-сервер:

server {
        listen       IP_текущего_сервера:80 default_server;
        allow IP_первого_backend_сервера;
        allow IP_haproxy;
        deny all;
server_name _; root /usr/share/nginx/html; # Load configuration files for the default server block. include /etc/nginx/default.d/*.conf; location / { }

Конфиг nginx стандартный, мы лишь добавили в listen IP сервера и закрыли доступ всем, кроме наших серверов с помощью директив allow и deny.

Для работы веб-сервера, нужно открыть соединения на файерволле через firewalld или iptables:

#firewall-cmd --permanent –add-service=http
#firewall-cmd –reload

Выполним тестовую проверку на любом из backend-серверов:

[root@server ~]# curl IP_второго_сервера

<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.1//EN" "http://www.w3.org/TR/xhtml11/DTD/xhtml11.dtd">

тут вы должны получить html документ

Сервер отдал стандартный index файл nginx, значит между собой сервера взаимодействуют.

Для удобства проверки, я изменил содержимое index файла на каждом backend-сервере, чтобы в процессе тестирования четко видеть в браузере какой сервер обработал запрос.

Index файл nginx расположен в /usr/share/nginx/html/.

Настройка балансировщика нагрузки HAProxy

Приступим к установке и настройке HAProxy на сервере, который будет использоваться в качестве балансировщика нагрузки.

Установим HaProxy и выполним базовые настройки для работы балансировщика.

#yum install epel-release -y

#yum install haproxy -y

Loaded plugins: fastestmirror

Loading mirror speeds from cached hostfile

epel/x86_64/metalink

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

Running transaction

Installing : haproxy-1.5.18-9.el7.x86_64 1/1

Verifying : haproxy-1.5.18-9.el7.x86_64 1/1

Installed:

haproxy.x86_64 0:1.5.18-9.el7

Complete!

Чтобы включить HaProxy, нужно добавить Enabled=1 в файл /etc/default/haproxy:

#nano /etc/default/haproxy

включить haproxy

Теперь перейдем к самой настройке HaProxy. В нашей простейшей конфигурации сервер-балансировщик будет обрабатывать все http запросы и направлять их по очереди на backend-сервера.

#nano /etc/haproxy/haproxy.cfg

log         /dev/log local0

    chroot      /var/lib/haproxy
    pidfile     /var/run/haproxy.pid
    maxconn     4000
    user        haproxy
    group       haproxy
    daemon

defaults
    mode                    http
    log                       global
    option                  httplog
    option                  redispatch
    retries                 3
    timeout http-request    10s
    timeout queue           1m
    timeout connect         10s
    timeout client          1m
    timeout server          1m
    timeout http-keep-alive 10s
    timeout check           10s
    maxconn                 3000

frontend  www
    bind IP_балансировщика:80
    default_backend nginx_pool

backend nginx_pool
    balance     roundrobin
    mode http
    server  web1 IP_первого_backend_сервера:80 check
    server  web2 IP_второго_backend_сервера:80 check

После сохранения конфигурации, обязательно проверьте синтаксис командой:

#haproxy -f /etc/haproxy/haproxy.cfg -c

Если все в порядке, вы получите подобный результат:

Configuration file is valid

После этого нужно перезапустить HaProxy и добавить его автозагрузку CentOS. А также открыть необходимые правила на файерволле.

#systemctl restart haproxy

#systemctl enable haproxy

#firewall-cmd —permanent –add-service=http

#firewall-cmd –reload

На этом настройка балансировщика закончена, проверим результат, открыв IP сервера с HaProxy в браузере:

балансировка нагрузки между двумя веб серверами в haproxy

Как видно, по очереди отдали контент оба сервера, балансировщик работает.

Параметры конфигурационного файла haproxy.cfg

Рассмотрим основные примеры алгоритмов работы HaProxy:

  • roundrobin — алгоритм используемый по умолчанию, отправляет запросы на сервера по очереди. В нашем примере мы использовали именно такой метод;
  • leastconn – выбирает сервер с наименьшим количеством активных соединений. Рекомендуется применять на проектах, в которых сессии могут быть задействованы продолжительное время;
  • source – выбирает сервер по хешу, построенному на основе IP пользователей. В таком режиме работы один и тот же клиент будет обращаться всегда к одному серверу, если его IP остается неизменным;

Пройдем по некоторым параметрам в конфигурационном файле.

Блок global:

  • log — вести лог в /dev/log сохраняя в «объект» local0;
  • chroot — настройки безопасности, «запирающие» HAProxy в указанной директории;
  • maxconn — максимальное количество конкурирующих соединений на один процесс;
  • user — пользователь, от имени которого будет запущена программа;
  • group — группа пользователя, от имени которого будет запущена программа;
  • daemon — запуск процесса как демона.

Блок default. В данном блоке описываются параметры по умолчанию для всех других секций, которые следуют за ней:

  • log — указывает, в какой лог вести записи (global в данном случае означает, что используются параметры, заданные в секции global);
  • mode — устанавливает протокол взаимодействия, принимает одно из значений: tcp, http или health;
  • retries — количество попыток соединения с сервером в случае отказа;
  • option httplog — формат лога, в случае использования HAProxy для проксирования HTTP-запросов;
  • option redispatch — разрешает программе разорвать и переназначить сессию в случае отказа сервера;
  • contimeout — максимальное время ожидания успешного соединения с сервером.

Также есть большое количество параметров связанных с различными timeout.

Сбор статистики HAProxy

Добавим в конфигурационный файл блок stats:

listen stats
    bind :10001
    stats enable
    stats uri /haproxy_stats
    stats auth admin:admin

Описание:

  • bind – порт по которому будет работать просмотр статистики;
  • stats enable – включить отчеты со статистикой;
  • stats uri – установка адреса страницы со статистикой;
  • stats auth – логин и пароль для входа.
Вы можете указать любой удобный для вас порт, если указанный в статье занят или не подходит для вас.

Также для работы нашего haproxy_stats, нужно открыть указанный ранее порт на файерволле:

firewall-cmd --permanent –add-port=10001/tcp

firewall-cmd –reload

Чтобы посмотреть отчеты по работе HAProxy, нужно перейти по ссылке:

http://hostname_haproxy:10001/haproxy_stats

статистика haproxy Открываем адрес балансировщика в браузере и начинаем спамить F5. Статистика по указанной ссылке меняется, утилита работает.

На этом наша настройка закончена. В статье мы рассмотрели базовую настройку HaProxy. В нашей схеме сервер-балансировщик нагрузки HaProxy становится единой точкой отказа. Для повышения отказоустойчивости конфигурации вы можете добавить второй сервер HaProxy, а проверку доступности между серверами организовать с помощью Keepalived. Получится примерно такая схема.

haproxy + nginx + keepalived

Есть еще много вариантов использования модуля HAProxy и вы всегда сможете найти применение его в своей работе.


Предыдущая статья Следующая статья


Комментариев: 0 Оставить комментарий

Оставить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Я не робот( Обязательно отметьте)