Retomar una sesión SSH.

Screen Terminal

Cuantas veces has estado realizando una tarea bien sea en la oficina o en algun cliente que esta llevando mas tiempo de lo que te esperabas?, copiando o moviendo archivos o incluso eliminando archivos de grabaciones de audio o video que se estan llevando una vida porque son 50 GB de informacion, el reloj no se detiene y en menos de media hora tienes que estar en camino para poder llegar a recoger a tu hijo@ al cole, lo que estas haciendo es fundamental para que el sistema funcione correctamente y no puedes cerrarlo todo y dejar al cliente colgado!

Pues bien, la solucion es simple, “SCREEN“, si no esta instalado en el servidor en el que estas operando instalalo con APT:

apt-get install screen

Su uso es muy sencillo, una ves instalado solo tienes que abrir una consola con el comando screen:

$ screen -S nombreDeLaSesion

Algunas opciones interesantes de esta app son las siguientes:

OPCIONES
# -S sockname Da nombre a la sesión [pid].sockname.
# -ls Lista las sesiones abiertas de screen.
# -r Reattach a un sesión. Es posible especificar el nombre ej: screen -r sockname.
# -t título Permite dar un título a una ventana.
# Ctrl-a ? Ayuda y sumario de funciones.
# Ctrl-a c Crear una nueva ventana (sin nombre).
# Ctrl-a Ctrl-n Cambiar a la Siguiente o Anterior terminal.
# Ctrl-a Ctrl-N Cambiar a la Siguiente o Anterior terminal N [0-9].
# Ctrl-a ” Lista navegable de terminales en funcionamiento.
# Ctrl-a a Limpiar un Ctrl-a pulsado por error.
# Ctrl-a Ctrl-d Desconectar y dejar la sesión en funcionamiento.
# Ctrl-a x Bloquear todas las terminales con una clave.
# Ctrl-a d Dettach. Sale de la sesión pero la deja en segundo plano junto a todas sus ventanas.
# exit Cierra la ventana actual. Cerrando todas las ventanas se cierra la sesión de screen.

Como puedes ver hay numerosas opciones bastante interesantes yo hace años que la uso y te aseguro que uso como mucho 3 o 4 de ellas solamente, combinada con Tmux y otras las aplicaciones en un entorno de producción donde tienes que estar constantemente monitorizando o haciendo varias cosas vía Shell su uso se hace imprescindible, espero que te sea de ayuda el dato!

Hasta otra…

MYSQL Cluster 7.5.5 en Ubuntu 16.04.2

Hoy quiero continuar con el tema de los cluster´s y en este caso le ha tocado el turno a MySQL, esa famosa base de datos en la que muchos nos hemos apoyado en nuestros proyectos. Os comentare como hacer un cluster con cuatro servidores en los que definiremos 1 Manager, 2 Data Nodes y 1 MySQL Node, esto nos servirá para tener un entorno de base de datos con MySQL redundado y de alta disponibilidad, muchos pensaran: ¿Porque no hacerlo con Heartbeat y DRBD?, si también se puede sin problemas, pero esta ves quiero comentar como hacerlo con las herramientas que nos proporciona el mismo fabricante o desarrollador con la herramienta MySQL-Cluster en su versión reciente a día de hoy 7.5.5.

Como servidores usaremos Ubuntu en su versión actual LTS a día de hoy 16.04.2, no obstante se puede hacer sin ningún problema de la misma forma en Debian obviando el prefijo “sudo” en cada comando siempre que entremos como root a nuestros Debian, no obstante hoy lo haré todo bajo Ubuntu.

Requisitos:

  1. Cuatro (4) Maquinas Virtuales con Ubuntu Server 16.04.2 previamente instalado. (el proceso de instalación de Ubuntu es algo que no tocare en esta ocasión, quizás en otro Post), podéis usar VirtualBox, VMware, Hyper-V o con lo que os sintáis mas cómodos trabajando.
  2. Visibilidad de red entre las 4 maquinas virtuales, a efectos prácticos usaremos la red 192.168.1.0/24.
  3. El paquete de MySQL-Cluster (mysql-cluster-gpl-7.5.5-linux-glibc2.5-i686.tar) en su versión 7.5.5 en su versión Generic Linux en formato .TAR que podemos descargar de la Web oficial https://dev.mysql.com/downloads/cluster/
  4. Tiempo y ganas!

Manos a la obra

Os expongo a continuación como debería quedar el direccionamiento IP:

Nodo Dirección IP
Nodo de administración (MGM) 192.168.1.110
Nodo de datos (NDBD) “A” 192.168.1.111
Nodo de datos (NDBD) “B” 192.168.1.112
Nodo MySQL server (SQL) 192.168.1.113

Y para que os hagáis una idea mas gráfica la siguiente imagen:

Paso 1 – Instalación y configuración del Nodo de Administración (MGM).

Nos conectamos a la Shell de dicho servidor, tomando en cuenta que el servidor es un Debian y nos conectamos con el usuario principal con el que fue instalado deberíamos de estar en la ubicación /home/NOMBREDEUSUARIO donde NOMBREDEUSUARIO sera el nombre que hayamos asignado a dicho user, en mi caso es “xnosx” con lo que el directorio de mi usuario es /home/xnosx/.

En mi caso he descargado el archivo mysql-cluster-gpl-7.5.5-linux-glibc2.5-i686.tar de la Web de MySQL vía HTTP con lo que me he conectado al servidor MGM via WIN-SCP y cargado el archivo mi directorio home /home/xnosx/mysql-cluster-gpl-7.5.5-linux-glibc2.5-i686.tar y estando en mi directorio de usuario /home/xnosx hacemos los siguientes comandos-pasos.

NOTA: si quieres saber en que directorio te encuentras ejecuta el comando:

# pwd

Descomprimimos el archivo .TAR:

# sudo tar -xvzf mysql-cluster-gpl-7.5.5-linux-glibc2.5-i686.tar

Esto creara el directorio /home/xnosx/mysql-cluster-gpl-7.5.5-linux-glibc2.5-i686, ahora re-nombramos dicho directorio a simplemente mysql.

# sudo mv mysql-cluster-gpl-7.5.5-linux-glibc2.5-i686 mysql

Ahora entramos al directorio mysql copiaremos el contenido de los ficheros que comienzan por ndb_mgm del directorio bin y los pondremos en /usr/local/bin que es el directorio de los binarios de Linux y les añadiremos permisos de ejecución con los siguientes 3 comandos.

# cd mysql
 # cp bin/ndb_mgm* /usr/local/bin/
 # chmod +x /usr/local/bin/ndb_mgm*

Ahora debemos configurar este nodo de administración (MGM) creamos el directorio “mysql-cluster” dentro de “/var/lib” y dentro de “mysql-cluster” añadimos el fichero “config.ini” con la configuración que sigue:

[ndbd default]
NoOfReplicas=2
DataMemory=80M
IndexMemory=18M

[mysqld default]

[ndb_mgmd default]

[tcp default]

# Cluster Control / Management node
[ndb_mgmd]
hostname=192.168.1.110

# Data Node 1
[ndbd]
hostname=192.168.1.111
DataDir= /var/lib/mysql-cluster

# Data Node 1
[ndbd]
HostName=192.168.1.112
DataDir=/var/lib/mysql-cluster

# SQL Node
[mysqld]
hostname=192.168.1.113

# If you to add new SQL Node
[mysqld]

Ahora iniciaremos el nodo de administración MGM con el siguiente comando:

# sudo ndb_mgmd -f /var/lib/mysql-cluster/config.ini --reload --configdir=/var/lib/mysql-cluster/

NOTA: noten que he he puesto el “–reload” en negritas y rojo, esto es porque sin este parámetro en el comando os dará error!

Si no nos da ningún error en principio el NODO MGM ya esta en marcha pero si reiniciamos el servidor no levantara el servicio por si solo, así que debemos añadir dicha linea al archivo /etc/rc.local, de esta forma el sistema levantara el servicio en el momento en que este arrancando la maquina virtual!

# sudo echo 'ndb_mgmd -f /var/lib/mysql-cluster/config.ini --reload --configdir=/var/lib/mysql-cluster/' >> /etc/rc.local

Ahora tenemos que comprobar que el servicio esta levantado y funcionando, lo haremos con un “netstat -plntu” y luego entraremos con el comando “ndb_mgm” a la consola del mysql-cluster y una ves dentro con un “show” podremos ver el estado de las conexiones donde se vera que el nodo MGM se encuentra levantado y conectado como se muestra en la imagen a continuación:


Paso 2 – Instalación y configuración de los NODOS de datos (DATA-NODE).

Ahora vamos con los DATA NODE´S, la siguiente configuración ha de hacerse exactamente igual en ambos equipos con IP´s 192.168.1.111 y 192.168.1.112 ya que ambos serán por así decirlo una replica y estarán enlazados hacia el MGM, con lo que la misma configuración que os expongo acá ha de hacerse exactamente de la misma forma en ambos equipos, comencemos.

Como actualmente ya tenemos el paquete .TAR de mysql-cluster en el MGM y se supone que desde el MGM podemos ver el resto de servidores a través de la red, podríamos cargar este paquete a los dos servidores NODO con un simple SCP, asi que accedemos a nuestro servidor MGM y estando en el mismo directorio en el que se encuentra el paquete .TAR hacemos los siguientes comandos reemplazando la palabra USUARIO de cada comando con los respectivos nombres de usuario que hayan creado en estos dos servidores nodos:

# sudo scp mysql-cluster-gpl-7.5.5-linux-glibc2.5-i686.tar USUARIO@192.168.1.111:/home/USUARIO/
# sudo scp mysql-cluster-gpl-7.5.5-linux-glibc2.5-i686.tar USUARIO@192.168.1.112:/home/USUARIO/

Una ves cargados los paquetes a los dos servidores NODO comenzamos la instalación-configuración, primero debemos instalar una dependencia con el siguiente comando:

# sudo apt-get update && sudo apt-get install libaio1

Una ves finalizada la instalación de la dependencia debemos añadir el grupo “mysql” y el usuario “mysql” ligado al grupo que hemos creado, lo hacemos con el siguiente comando:

# sudo groupadd mysql && sudo useradd -g mysql mysql

Ahora teniendo esta parte podemos comenzar la instalación del MySQL-Cluster, como con el MGM descomprimiremos el paquete .TAR, re-nombramos el directorio generado por simplemente “mysql” y copiamos ese directorio “mysql” al directorio “/usr/local/”:

# sudo tar -xvzf mysql-cluster-gpl-7.5.5-linux-glibc2.5-i686.tar
# sudo mv mysql-cluster-gpl-7.5.5-linux-glibc2.5-i686/ mysql/
# sudo mv mysql /usr/local/

Ahora accedemos a dicho directorio “/usr/local/mysql”:

# cd /usr/local/mysql

Ahora debemos crear las bases de datos del sistema, para ello ejecutamos el siguiente comando:

# sudo bin/mysqld --initialize --user=mysql --basedir=/usr/local/mysql --datadir=/usr/local/mysql/data

NOTA: al finalizar el comando nos devolverá una linea como esta “A temporary password is generated for root@localhost: ********” indicando la contraseña que se ha generado automáticamente para root respecto a MySQL, apuntarla en algún sitio porque luego os hará falta!

Si no devuelve ningun error proseguimos con la copia del ejecutable al directorio “/etc/init.d” y lo habilitamos:

# sudo cp support-files/mysql.server /etc/init.d/mysql
# sudo systemctl enable mysql

Ahora necesitamos mover todos los comandos binarios de MySQL al lugar que corresponden y crear el respectivo enlace simbólico y eliminar del directorio actual el directorio “bin”:

# sudo mv bin/* /usr/local/bin
# sudo rm -rf bin/
# sudo ln -s /usr/local/bin /usr/local/mysql

Ahora cambiamos los permisos y propietario del directorio “mysql” para que el propietario sea root y el grupo mysql y asignamos como propietario al directorio data a mysql:

# sudo chown -R root:mysql .
# sudo chown -R mysql data

Ahora crearemos el archivo de configuración “/etc/my.cnf” en ambos nodos con exactamente la misma configuración que expongo a continuación:

# MySQL Config
[mysqld]
datadir=/usr/local/mysql/data
socket=/tmp/mysql.sock
user=mysql

# Run ndb storage engine
ndbcluster
# IP address management node
ndb-connectstring=192.168.1.110

[mysql_cluster]
# IP address management node
ndb-connectstring=192.168.1.110

# MySQL Pid and Log
[mysqld_safe]
log-error=/var/log/mysqld.log
pid-file=/var/run/mysqld/mysqld.pid

Ahora debemos crear los directorios de data de ambos nodos y asignar como propietario a “mysql”:

# sudo mkdir -p /var/lib/mysql-cluster/
# sudo chown -R mysql /var/lib/mysql-cluster

Ahora solo nos queda inicializar ambos nodos con los siguientes comandos:

# sudo ndbd --initial
# sudo systemctl start mysql

La consola nos devolverá un mensaje similar a “– Angel connected to ”192.168.1.110:1186″ y “– Angel allocated nodeid: 3”, esto quiere decir que el nodo se ha conectado al MGM y se encuentra operativo, podemos comprobarlo como con el MGM con los comandos “netstat -plntu” y desde el MGM hacer un “ndb_mgm” y luego un “show” donde veremos los nodos ya conectados.

Ahora teniendo toda esta parte debemos cambiar el password de root que se ha generado por el que nosotros deseemos en dicho nodo, con el siguiente comando se nos solicitara el nuevo password y la confirmación del mismo y se nos harán una serie de preguntas a las que responderemos según nuestros criterios y requerimientos:

# sudo mysql_secure_installation

Ahora una ves asignada la nueva contraseña ya podemos acceder desde la consola de cualquiera de los dos NODOS a la consola de MySQL para comprobar que todo funciona correctamente:

# sudo mysql -u root -p

Paso 3 – Instalación y configuración del nodo SQL (SQL-NODE).

En este ultimo servidor que sera el nodo desde el cual accederemos a los datos de los DATA-NODE que acabamos de configurar, el proceso es idéntico y solo cambia en algunos pasos.

Debemos instalar la dependencia con el siguiente comando:

# sudo apt-get update && sudo apt-get install libaio1

Una ves finalizada la instalacion de la dependencia debemos añadir el grupo “mysql” y el usuario “mysql” ligado al grupo que hemos creado, lo hacemos con el siguiente comando:

# sudo groupadd mysql && sudo useradd -g mysql mysql

Enviamos el archivo .TAR a este NODO desde el MGM como hicimos con los DATA-NODE:

# sudo scp mysql-cluster-gpl-7.5.5-linux-glibc2.5-i686.tar USUARIO@192.168.1.113:/home/USUARIO/

Ahora teniendo esta parte podemos comenzar la instalacion del MySQL-Cluster, descomprimiremos el paquete .TAR, re-nombramos el directorio generado por simplemente “mysql” y copiamos ese directorio “mysql” al directorio “/usr/local/”:

# sudo tar -xvzf mysql-cluster-gpl-7.5.5-linux-glibc2.5-i686.tar
# sudo mv mysql-cluster-gpl-7.5.5-linux-glibc2.5-i686/ mysql/
# sudo mv mysql /usr/local/

Lanzamos el script

# sudo bin/mysqld --initialize --user=mysql --basedir=/usr/local/mysql --datadir=/usr/local/mysql/data
# sudo mv bin/* /usr/local/bin
# sudo rm -rf bin/
# sudo ln -s /usr/local/bin /usr/local/mysql

Ahora cambiamos los permisos y propietario del directorio “mysql” para que el propietario sea root y el grupo mysql y asignamos como propietario al directorio data a mysql:

# sudo chown -R root:mysql .
# sudo chown -R mysql data

Ahora crearemos el archivo de configuración “/etc/my.cnf” en ambos nodos con exactamente la misma configuración que expongo a continuación:

# MySQL Config
[mysqld]
datadir=/usr/local/mysql/data
socket=/tmp/mysql.sock
user=mysql

# Run ndb storage engine
ndbcluster
# IP address management node
ndb-connectstring=192.168.1.110

[mysql_cluster]
# IP address management node
ndb-connectstring=192.168.1.110

# MySQL Pid and Log
[mysqld_safe]
log-error=/var/log/mysqld.log
pid-file=/var/run/mysqld/mysqld.pid

Inicializamos MySQL

# sudo systectl start mysql

Y finalmente cambiamos el password de root autogenerado:

# sudo mysql_secure_installation

Ahora tenemos que añadir el comando systemctl start mysql al archivo “/etc/rc.local” para que el servicio arranque de manera automática en el momento en que iniciamos nuestro servidor y ya tenemos esta parte, incluso ya podríamos ver desde la consola del MGM que el nodo se encuentra conectado y enlazado.


Paso 4 – Pruebas!

Ahora, desde la consola de nuestro SQL-NODE podemos conectarnos a la consola de MySQL y crear una base de datos de prueba:

# mysql -u root -p

Añadimos la contraseña nueva que hemos asignado a root anteriormente y estamos dentro de la CLI de MySQL, ahora con los siguientes dos comandos podremos ver las bases de datos que se encuentran actualmente, crearemos una nueva base de datos y luego volveremos a listar las bases de datos para comprobar así que la nueva base de datos se ha creado satisfactoriamente:

# show databases;
# create database db_sqlnode;
# show databases;

Con esto tendríamos que ver la nueva base de datos creada satisfactoriamente, si repetimos esta misma operación en el DATA-NODE principal veremos que allí también se encuentra creada la base de datos nueva, y si reiniciamos el DATA-NODE principal el DATA-NODE que esta como secundario sincronizaría dicha base de datos nueva manteniendo así la data de forma homogénea en todos los servidores.

Con esto ya tenemos nuestro cluster de MySQL con alta disponibilidad!

Cluster Apache Proxy Balancer

Que es un proxy?

Según la Wikipeda “en una red informática, es un servidor, programa o dispositivo, que hace de intermediario en las peticiones de recursos que realiza un cliente (A) a otro servidor (C)”, es decir, es un método usado para controlar en cierta forma el trafico.

En este caso quiero referirme específicamente a Apache Proxy, digamos que tenemos una pequeña Web corporativa donde mostramos simplemente la información de los servicios de nuestra empresa, un pequeño formulario de contacto y algunas imágenes, es evidente que una Web de este tipo no recibirá muchas visitas al día, digamos que como mucho concurrente-mente tendrá un aproximado de entre 10 y 50 visitas al día, ahora pensemos en el trafico que puede llegar a recibir Facebook!, la expresión correcta seria MADRE MIA! no?, pues si, no se la cifra exacta de la cantidad de visitas que recibe Facebook, pero os aseguro que la Web de Facebook no se almacena en un simple paquete de Hosting Reseller, ni en un VPS, ni siquiera en un server dedicado sino en granjas de servidores para garantizar así que la cantidad de visitas simultaneas que recibe esa Web no haga que los servidores caigan y consigan así ese trending topic en Twitter con el hashtag #facebook-down o algo similar.

Hoy quiero plasmar como poner en marcha de forma muy sencilla un cluster con balanceo de carga con un servidor Apache 2.4.10 basado en Debian Jessie 8.7 como HTTP Proxy y 2 servidores Backend basados en Debian Jessie 8.7 tambien, aunque como refiero en la imagen de arriba puede tratarse de servidores que se encuentren en el backend basados en distintos OS o incluso distintos tipos de versiones de Web Server como NGINX, IIS, Apache, etc.

IMPORTANTE:

Obviar en todos los comandos el caracter especial #

Que necesitamos:

  1. Una instalación limpia de 3 servidores (pueden ser maquinas virtuales tranquilamente no os agobies) con Debian Jessie 8.7 (No explicare como instalar Debian en esta ocasión, quizás mas adelante y luego añado acá el link a dicho post) .
  2. Un ordenador cliente con Kitty o en su defecto Putty, o la consola con la que estés habituado a trabajar.
  3. Obviamente conexión a Internet 😉
  4. Ganas de teclear un rato!

A ensuciarnos las manos

Los siguientes pasos son a ejecutar en los tres servidores:

Hacemos un update de las fuentes de APT:

# apt-get update

Instalamos Apache, actualmente al instalarlo desde APT instalara la version 2.4.10, pero probablemente si se hace en un momento en el que el release sea otra versión sera la que instale.

# apt-get install apache2 apache2-doc

Cada servidor ha de tener su respectiva IP con lo cual yo en particular asignare las siguientes:

  • 192.168.1.30 (Servidor Apache Proxy)
  • 192.168.1.31 (Servidor Apache Cluster 1)
  • 192.168.1.32 (Servidor Apache Cluster 2)

Teniendo instalado Apache 2.4.10 en cada servidor modificamos el contenido del index en los dos servidores Backend (Cluster1 y Cluster2) con el siguiente comando (como root):

En el Servidor Apache Proxy:

# cp /var/www/html/index.html /var/www/html/index_.html && echo "PROXY" > /var/www/html/index.html

En el Servidor Apache Cluster 1:

# cp /var/www/html/index.html /var/www/html/index_.html && echo "CLUSTER 1" > /var/www/html/index.html

En el Servidor Apache Cluster 2:

# cp /var/www/html/index.html /var/www/html/index_.html && echo "CLUSTER 2" > /var/www/html/index.html

Ahora si accedemos a cada una de sus IP´s a traves de un navegador veremos que cada una nos muestra PROXY o CLUSTER 1 o CLUSTER 2.

Ahora vamos al servidor Proxy y desde la consola necesitamos activar o habilitar los módulos necesarios para que Apache Proxy funcione correctamente con lo que ejecutamos los siguientes comandos uno a uno, con la ejecución de cada uno de estos comandos veremos de vuelta el aviso de que se debe reiniciar Apache para que entre en funcionamiento cada modulo, no obstante los ejecutamos todos y finalmente haremos el reinicio de Apache.:

# a2enmod proxy
# a2enmod proxy_http
# a2enmod proxy_balancer
# a2enmod lbmethod_byrequests

Ahora reiniciamos Apache 2 con el siguiente comando:

# service apache2 restart

Ahora en principio ya tenemos lo necesario para realizar la configuración del Proxy, así que vamos a  ello.

En el servidor Proxy con IP 192.168.1.30 hacemos un backup del archivo inicial por si acaso y editamos el archivo

/etc/apache/sites-available/000-default.conf quedando con el siguiente de la siguiente manera:


<VirtualHost *:80>

<Proxy balancer://mycluster>
BalancerMember http://192.168.1.31:80
BalancerMember http://192.168.1.32:80
</Proxy>

ProxyPreserveHost On

ProxyPass / balancer://mycluster/
ProxyPassReverse / balancer://mycluster/

</VirtualHost>

En este caso se trata del archivo de configuración de Apache por defecto, lo que se refiere a cualquier solicitud de cualquier dominio que responda al puerto 80 (HTTP), en la sección de Proxy indicamos que se trata de un balancer llamado mycluster, dentro de las etiquetas incluimos a los dos miembros con la directiva BalancerMember indicando su respectiva ruta y puertos correspondientes, el parametro ProxyPreserveHost permite que el salto del servidor FronEnd (Proxy) al servidor BackEnd Cluster 1 o 2 sea transparente para el visitante de la Web, y las directivas ProxyPass y ProxyPassReverse gestionan el salto y la vuelta del servidor de FrontEnd a BackEnd.

Luego de estas modificaciones solo nos resta reiniciar Apache en el servidor Proxy:

# service apache2 restart

Ahora al tratarse de la configuración por defecto del servidor Proxy a nivel de Apache si intentamos acceder a su dirección IP a través del navegador con http://192.168.1.30 veremos que lo que nos muestra es CLUSTER 1, y si refrescamos o actualizamos la Web el contenido cambiara a CLUSTER 2, cada ves que refresquemos comenzara a pasarnos a mostrar el contenido de lo que hay en /var/www/html/* de cada uno de los servidores que estén añadidos al Cluster-Balancer, no obstante como usuarios siempre pensaremos que estamos accediendo al contenido en el Servidor Proxy.

Lo importante de todo esto es la escalabilidad y estabilidad, esto tomando en cuenta que en el caso de que la cantidad de visitas comience a llegar a tal punto en el que los servidores comiencen a caer podemos ir escalando el servicio para conseguir asi repartir de mejor manera el trafico o las peticiones HTTP de los usuarios, mientras mas visitas, añadimos mas servidores al cluster.

Ahora lo siguiente tiene que ser un cluster de MySQL, y dado que esto lo he montado todo en VMWare lo otro sera llevarlo a containers de Docker y comprobar diferencias de rendimiento!

Manten el statu-quo!

Adicional!

Hay algo adicional e interesante que es usado para manejar o gestionar lo relacionado con el balanceo que viene implícito en el Apache, el Balancer-Manager, para activarlo solo has de añadir una configuración adicional a la configuración del VHost, en este caso el archivo quedaría así:


<VirtualHost *:80>
BalancerMember http://192.168.1.31:80
BalancerMember http://192.168.1.32:80

ProxyPreserveHost On
SetHandler balancer-manager
Order allow,deny
allow from 192.168.1

ProxyPass /balancer-manager !
ProxyPass / balancer://mycluster/
ProxyPassReverse / balancer://mycluster/

</VirtualHost>

Ahora reiniciamos el servicio de Apache como siempre:

# service apache2 restart

De esta forma accediendo desde la IP del Proxy y añadiendo balancer-manager como ruta podemos acceder al panel de configuración del Balancer del Proxy donde verían algo como lo que muestro en la imagen a continuación donde tendrás la opción de hacer cambios a nivel del Balancer y aplicarlos en caliente sin necesidad de reiniciar el servicio de Apache!