Zuljin

Fundador
Miembro del Equipo
Fundador
ADMIN
Se incorporó
15 Enero 2004
Mensajes
11.872
Una consulta...

Tengo un servidor con una tarjeta de red de 10Gbps. Si configuro otra tarjeta de red gemela en bonding, ¿mejora realmente la tasa de transferencia potencial que es capaz de conducir el servidor?



Gracias
 

Harima

Pegao al tarro
Se incorporó
15 Mayo 2008
Mensajes
3.958
Una consulta...

Tengo un servidor con una tarjeta de red de 10Gbps. Si configuro otra tarjeta de red gemela en bonding, ¿mejora realmente la tasa de transferencia potencial que es capaz de conducir el servidor?



Gracias
Teoricamente si, mientras la red aguante, la config es media webiada, por lo menos nosotros la usabamos para un cluster en windows server, en la datacenter antiguo, pero solo funcionaba con driver especifico, no con el generico. NPI si funciona bien en Linux, pero debiera funcionar mejor que en windows... en teoria.
 
Upvote 0

Zuljin

Fundador
Miembro del Equipo
Fundador
ADMIN
Se incorporó
15 Enero 2004
Mensajes
11.872
Yo manejo bonding en Linux para HA. Lo he probado en pruebas de fallos (quitar un cable, deshabilitar una nic) y funciona: sigue trabajando la otra nic. Mi duda tiene que ver con si mejora o no la tasa de transferencia y por lo que me mencionas si, teóricamente mejora la tasa de transferencia.

¿Es muy mañoso habilitarlo en Windows 2012 R2?
 
Upvote 0

Miguelwill

I am online
Miembro del Equipo
MOD
Se incorporó
23 Febrero 2004
Mensajes
12.402
Una consulta...

Tengo un servidor con una tarjeta de red de 10Gbps. Si configuro otra tarjeta de red gemela en bonding, ¿mejora realmente la tasa de transferencia potencial que es capaz de conducir el servidor?



Gracias
depende el modo de bonding que utilices
hay unos que soportan funcionar como los ether-channels de cisco , y en la mitad de los modos el trafico pasa por una tarjeta y la otra queda en standby
el modo round-robin hace un envio de paquetes entre ambas tarjetas,
el modo load-balancer output es util cuando el equipo envia mas datos de los que recibe, ya que por cada conexion va intercalando las tarjetas y puede recibir datos desde una (active slave)
 
Upvote 0

Miguelwill

I am online
Miembro del Equipo
MOD
Se incorporó
23 Febrero 2004
Mensajes
12.402
Yo manejo bonding en Linux para HA. Lo he probado en pruebas de fallos (quitar un cable, deshabilitar una nic) y funciona: sigue trabajando la otra nic. Mi duda tiene que ver con si mejora o no la tasa de transferencia y por lo que me mencionas si, teóricamente mejora la tasa de transferencia.

¿Es muy mañoso habilitarlo en Windows 2012 R2?
mm en windows creo que dependes del software de gestion del fabricante de las tarjetas de red (broadcom, intel, hp, etc )
en linux, con tener el modulo, la mayoria de los modos quedan disponibles

podrias probar en un sistema , y con "iftop" medir el consumo de la interface "bond0"
despues lanzar varias transferencias simultaneas
tambien puedes ver el resumen de trafico que muestra ifconfig para ver cuando TX y RX se a utilizado en cada interface :D
 
Upvote 0

Harima

Pegao al tarro
Se incorporó
15 Mayo 2008
Mensajes
3.958
Yo manejo bonding en Linux para HA. Lo he probado en pruebas de fallos (quitar un cable, deshabilitar una nic) y funciona: sigue trabajando la otra nic. Mi duda tiene que ver con si mejora o no la tasa de transferencia y por lo que me mencionas si, teóricamente mejora la tasa de transferencia.

¿Es muy mañoso habilitarlo en Windows 2012 R2?

En windows 2012 R2 ... vo dale, ojo que es solo de salida, de entrada solo usa una nic. pero si varios pcs clientes se conectan, se va a notar el cambio.


no lo he visto, pero acá hay un lab que te puede servir

 
Upvote 0

Zuljin

Fundador
Miembro del Equipo
Fundador
ADMIN
Se incorporó
15 Enero 2004
Mensajes
11.872
Estoy preparando una terrible guía para instalar Oracle en Vmware, con ASM y toda la huea (ah, putos Capa9, de veras que yo no puedo participar) y estoy trabajando con bonding. Pero también un colega está preparando la migración a Exchange 2016 y me acordé de que Windows tiene Teaming, pero por lo que he leído de experiencias de sysadmins en este rato parei no es taaaaan estable como el bonding de Linux. Y por si fuera poco Microsoft ni siquiera lo recomienda mucho:

Additional Replication networks can be added, as needed. You can also prevent an individual network adapter from being a single point of failure by using network adapter teaming or similar technology. However, even when using teaming, this doesn't prevent the network itself from being a single point of failure. Moreover, teaming adds unnecessary complexity to the DAG.
 
Upvote 0

Harima

Pegao al tarro
Se incorporó
15 Mayo 2008
Mensajes
3.958
Estoy preparando una terrible guía para instalar Oracle en Vmware, con ASM y toda la huea (ah, putos Capa9, de veras que yo no puedo participar) y estoy trabajando con bonding. Pero también un colega está preparando la migración a Exchange 2016 y me acordé de que Windows tiene Teaming, pero por lo que he leído de experiencias de sysadmins en este rato parei no es taaaaan estable como el bonding de Linux. Y por si fuera poco Microsoft ni siquiera lo recomienda mucho:

Additional Replication networks can be added, as needed. You can also prevent an individual network adapter from being a single point of failure by using network adapter teaming or similar technology. However, even when using teaming, this doesn't prevent the network itself from being a single point of failure. Moreover, teaming adds unnecessary complexity to the DAG.

Es que el chiste del team es que esten conectados cada puerto a un switch distinto, entonces si se muere un switch, funciona el otro, no falta el que conecta todo a un solo switch y plaf ni un brillo. y para entornos grandes donde hay que habilitar mac por mac es un cacho.
 
Upvote 0

yakko

pingüino mal genio
Se incorporó
24 Agosto 2004
Mensajes
16.883
si sirve para balancear carga, en un switch común y corriente lo que mejor funciona es round-robin y en la práctica la velocidad de transferencia medida se duplica con 2 nics copiando desde la ram de un host a la ram de otro (para evitar cuellos de botella de discos, etc)
 
Upvote 0

Tbon

Football total philosophy
Miembro del Equipo
Fundador
ADMIN
Se incorporó
20 Enero 2004
Mensajes
13.672
En mi pega tenemos un 2012 r2 sirviendo targets iscsi con un teaming nativo de 4 nics gb y anda bastante bien (sirven a un cluster vmware de dos nodos), esta conectado a dos switches distintos y con Round Robin logra traficar por todas las puertas.

No obstante lo anterior si no fuera vmware el que está al otro lado, probablemente habría que habilitar el protocolo lacp para lograr "sumar tráfico"

Saludos
 
Upvote 0

sr_meck

a.k.a chikogollo
REPORTERO
Se incorporó
14 Mayo 2004
Mensajes
6.517
Claro, por el lado de conectividad depende el protocolo y como se esta usando, el mas estandar es LACP pero tambien esta PAgP, ahora segun el metodo puedes balancear por la mac origen/destino ip origen/destino, etc.etc.etc.
 
Upvote 0

Zuljin

Fundador
Miembro del Equipo
Fundador
ADMIN
Se incorporó
15 Enero 2004
Mensajes
11.872
Una duda práctica de bonding-teaming, denme una mano

Tengo un appliance virtual, una aplicación que utiliza ubuntu (si compadre, leyeron bien: u-b-u-n-t-u) instalado en la plataforma vmware. El bicho este demanda mucho acceso de red cuando está trabajando, y para hacerla peor utiliza una tarjeta de red E1000, que es una interface de 1Gps (si, leyeron bien, sólo 1 puto Gigabit). Por ser un appliance, que es básicamente un ubuntu recortado para ejecutar un servicio específico, es peludísimo actualizar los drivers para poner una tarjeta de red de última generación (VMXNET, 10Gps).

Consulta:

Si agrego una segunda tarjeta de red (otra E1000 de 1Gps) para hacer bonding ¿podría eso incrementar la tasa de transferencia para mejorar el rendimiento de la aplicación? No me interesa la alta disponibilidad de los recursos de red porque eso ya está cubierto por la infraestructura de Vmware (cada host de Vmware tiene sus accesos de red duplicados, switchs separados, etc).
 
Upvote 0

Gen1us

VCP
Se incorporó
16 Octubre 2012
Mensajes
1.358
Si buscas rendimiento VMXNET3 es la solución, por otro lado si tienes vDS revisa tu configuración de Traffic Shaping si lo tienes habilitado (Peak & Burst).
 
Upvote 0

yakko

pingüino mal genio
Se incorporó
24 Agosto 2004
Mensajes
16.883
No va a resultar así nomas sobre vmware, de puede hacer, pero es un hueveo, lo mejor es meterle mano a la cosa esa imitación de Linux y ponerle un kernel nuevo y sin recortes
 
Upvote 0

Zuljin

Fundador
Miembro del Equipo
Fundador
ADMIN
Se incorporó
15 Enero 2004
Mensajes
11.872
Si buscas rendimiento VMXNET3 es la solución, por otro lado si tienes vDS revisa tu configuración de Traffic Shaping si lo tienes habilitado (Peak & Burst).

No puedo poner esa tarjeta: el bendito appliance es un ubuntu recortado cuyos drivers no reconocen VMXNET3 :(
 
Upvote 0

Zuljin

Fundador
Miembro del Equipo
Fundador
ADMIN
Se incorporó
15 Enero 2004
Mensajes
11.872
Debes descargar, compilar e instalar el driver en el kernel.

Es un appliance entregado por un proveedor. No podemos hacer eso nosotros pues nos arriesgamos a perder el soporte. Igual estamos presionando al proveedor para que ellos actualicen la huea, no puede ser que el 2016 entreguen un producto con una interface de red de 1Gbps.
 
Upvote 0

Miguelwill

I am online
Miembro del Equipo
MOD
Se incorporó
23 Febrero 2004
Mensajes
12.402
Es un appliance entregado por un proveedor. No podemos hacer eso nosotros pues nos arriesgamos a perder el soporte. Igual estamos presionando al proveedor para que ellos actualicen la huea, no puede ser que el 2016 entreguen un producto con una interface de red de 1Gbps.

cuando se pueda, se podria agregar una 2da tarjeta de red, que sea de tipo VMXNET3, y despues quizas instalar o actualizar el driver desde las vmtools de vmware, o instalar el open-vm-tools, son alternativas que el proveedor podria revisar

saludos
 
Upvote 0
Subir