Sistema Round Robin
El método round robin da a todos los elementos de un grupo limitado acceso a un recurso de manera uniforme y en una secuencia específica. Esto suele hacerse de arriba abajo. Una vez alcanzado el final, el proceso comienza de nuevo. En pocas palabras, el proceso tiene lugar "alternativamente, uno tras otro". Como los servidores del pool NTP están distribuidos por todo el mundo, el sistema ofrece un alto nivel de redundancia y fiabilidad, lo que lo convierte en un recurso para el mantenimiento global de la hora en Internet.
Pero, ¿qué ocurre si el servidor objetivo no está disponible o devuelve tiempos disparatados?
El método round robin da a todos los elementos de un grupo limitado acceso a un recurso de manera uniforme y en una secuencia específica. Esto suele hacerse de arriba abajo. Una vez alcanzado el final, el proceso comienza de nuevo. En pocas palabras, el proceso tiene lugar "alternativamente, uno tras otro". Como los servidores del pool NTP están distribuidos por todo el mundo, el sistema ofrece un alto nivel de redundancia y fiabilidad, lo que lo convierte en un recurso para el mantenimiento global de la hora en Internet.
Equilibrio de carga Round Robin
El equilibrio de carga round robin es un método sencillo de distribuir las peticiones de los clientes a un grupo de servidores. La solicitud de un cliente se reenvía a cada servidor por turno. El algoritmo ordena al equilibrador de carga que vuelva al principio de la lista y repite el proceso.
Round Robin es el algoritmo de equilibrio de carga más utilizado y es fácil de implementar y diseñar. Con este método, las solicitudes de los clientes se reenvían cíclicamente a los servidores disponibles. El equilibrio de carga Round Robin funciona mejor cuando los servidores tienen aproximadamente la misma potencia de cálculo y capacidad de almacenamiento.
¿Cómo funciona el equilibrio de carga Round Robin?
Con el equilibrio de carga de red round-robin, las solicitudes de conexión se distribuyen a los servidores web en el orden en que se reciben las solicitudes. Como ejemplo simplificado, supongamos que una empresa tiene un cluster de tres servidores: Servidor A, Servidor B y Servidor C.
- La primera solicitud se envía al servidor A
- La segunda solicitud se envía al servidor B
- La tercera solicitud se envía al servidor C
El equilibrador de carga reenvía las peticiones a los servidores en este orden. Esto garantiza que la carga de los servidores se distribuya uniformemente para hacer frente al elevado tráfico de datos.