Linux Revisar estado de una interfaz de red

Zuljin

Fundador
Miembro del Equipo
Fundador
ADMIN
Se incorporó
15 Enero 2004
Mensajes
11.872
Amigos, necesito que me ayuden con ideas.

Tengo dos servidores RedHat 6 conectados con una red privada que es de uso sólo de esos dos servidores. Además, estos servidores tienen otras interfaces de red con ip pública.

La cosa es que uno de los servicios de los servidores (cluster de oracle) falló por problemas de red para acceder al otro servidor mediante la red privada.

Así a lo bruto tiré un ping desde el servidor "malo" al servidor "bueno" por intermedio de la red privada, y efectivamente se demora en responderme algunos ping y me da 45% de packet loss. A la inversa lo mismo, desde el servidor "bueno" tiré un ping al servidor "malo" por intermedio de la red privada 54% de packet loss. Las pruebas de ping en ambos servidores por la ip pública anduvieron bien, 0% de packet loss.

¿Conocen herramientas, métodos o lo que sea para chequear el estado de la tarjeta de red de los servidores? Esto es en paralelo a la revisión del switch.


Gracias
 
Última modificación:

Zuljin

Fundador
Miembro del Equipo
Fundador
ADMIN
Se incorporó
15 Enero 2004
Mensajes
11.872
Hice un netstat y no hay problemas de paquetes

[root@oracleprod2 ~]# netstat -in
Kernel Interface table
Iface MTU Met RX-OK RX-ERR RX-DRP RX-OVR TX-OK TX-ERR TX-DRP TX-OVR Flg
em1 1500 0 4408932 0 0 0 122175 0 0 0 BMmRU
em2 1500 0 14262 0 0 0 9887 0 0 0 BMmRU
eth1 1500 0 2203387 0 0 0 61028 0 0 0 BMsRU
eth2 1500 0 2205545 0 0 0 61147 0 0 0 BMsRU
eth3 1500 0 7138 0 0 0 4940 0 0 0 BMsRU
eth4 1500 0 7124 0 0 0 4947 0 0 0 BMsRU
lo 16436 0 246545 0 0 0 246545 0 0 0 LRU

- - - Updated - - -

El ethtool -S de las interfaces me dice hay 0 errores.

¿Podré asumir que las interfaces de red están ok y la causa será del switch y/o de los paquetes?
 
Upvote 0

Zuljin

Fundador
Miembro del Equipo
Fundador
ADMIN
Se incorporó
15 Enero 2004
Mensajes
11.872
y que te dice la interfaz del swtich?

Le pedí a los amigos de redes que revisen mientras. Pero tu cachai que tu gremio es buenazo para sacarle el poto a la jeringa, me dijeron "y está buena tu interfaz de red, ah"? Bueno, igual ahora están revisando el switch (es una vlan), las bocas y todo eso.
 
Upvote 0

sr_meck

a.k.a chikogollo
REPORTERO
Se incorporó
14 Mayo 2004
Mensajes
6.517
Y como es el gremio tampoco te van a dar salidas de comandos... Es Cisco el swtich donde esta conectado el equipo? si la respuesta es si pidele un show interface X/X

Saludos
 
Upvote 0

yakko

pingüino mal genio
Se incorporó
24 Agosto 2004
Mensajes
16.883
revisa a que velocidad negociaron las tarjetas (y pide el dato al wn de redes sobre las bocas que estás usando, si están negociando o no y a que velocidad)
# ethtool eth0
# mii-tool eth0

revisa la tabla de ruta (para ver si se van directo)
#route -n

aunque lo más probable es que sea un tema de la velocidad de las tarjetas.
 
Upvote 0

yakko

pingüino mal genio
Se incorporó
24 Agosto 2004
Mensajes
16.883
tírate un (reemplazar con el bonding correspondiente)
#cat /proc/net/bonding/bond0

revisa también el modelo exacto de las tarjetas de red y el módulo que están usando. (puede que no sean soportadas por mii-tool, con lo que el bonding no funciona)
#lspci -v
 
Upvote 0

sr_meck

a.k.a chikogollo
REPORTERO
Se incorporó
14 Mayo 2004
Mensajes
6.517
Como funciona en bonding en RH? lo hace como sumando las interfaces? o solo es respaldo una de otra, si lo hace sumando interfaces lo hace con LACP o PAgP?

Saludos
 
Upvote 0

yakko

pingüino mal genio
Se incorporó
24 Agosto 2004
Mensajes
16.883
Como funciona en bonding en RH? lo hace como sumando las interfaces? o solo es respaldo una de otra, si lo hace sumando interfaces lo hace con LACP o PAgP?

Saludos
hay 7 modos para el bonding, por defecto lo hace balanceando carga y alta disponibilidad por round robin, es transparente para los switch, tiene otros modos que son sólo alta disponibilidad y un par que funcionan sobre link aggregation protocol. (por eso le pedí ese dato para ver si podría haber conflicto con el switch)
 
Upvote 0

Zuljin

Fundador
Miembro del Equipo
Fundador
ADMIN
Se incorporó
15 Enero 2004
Mensajes
11.872
Tengo dos bounding. El bounding que tiene la ip pública, que está "bueno"

[root@oracleprod2 ~]# cat /proc/net/bonding/em1
Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009)


Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 0
Up Delay (ms): 0
Down Delay (ms): 0


Slave Interface: eth1
MII Status: up
Speed: 10000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: e0:db:55:7b:6f:24
Slave queue ID: 0


Slave Interface: eth2
MII Status: up
Speed: 10000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: e0:db:55:7b:6f:27
Slave queue ID: 0


El bounding que tiene la ip privada de interconexión, que está "malo"

[root@oracleprod2 ~]# cat /proc/net/bonding/em2
Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009)


Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 0
Up Delay (ms): 0
Down Delay (ms): 0


Slave Interface: eth3
MII Status: up
Speed: 10000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: e0:db:55:7b:6f:28
Slave queue ID: 0


Slave Interface: eth4
MII Status: up
Speed: 10000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: e0:db:55:7b:6f:2b
Slave queue ID: 0



Ambos servidores muestran la misma información de los bouding.

- - - Updated - - -

El modelo de las interfaces de red

Ethernet controller: Broadcom Corporation NetXtreme II BCM57810 10 Gigabit Ethernet (rev 10)
Subsystem: Broadcom Corporation Device 1007
Flags: bus master, fast devsel, latency 0, IRQ 48
Memory at d3800000 (64-bit, prefetchable) [size=8M]
Memory at d4000000 (64-bit, prefetchable) [size=8M]
Memory at d5fe0000 (64-bit, prefetchable) [size=64K]
Expansion ROM at d9800000 [disabled] [size=512K]
Capabilities: [48] Power Management version 3
Capabilities: [50] Vital Product Data
Capabilities: [58] MSI: Enable- Count=1/8 Maskable- 64bit+
Capabilities: [a0] MSI-X: Enable+ Count=17 Masked-
Capabilities: [ac] Express Endpoint, MSI 00
Capabilities: [100] Advanced Error Reporting
Capabilities: [13c] Device Serial Number 00-10-18-ff-fe-f2-30-e0
Capabilities: [150] Power Budgeting <?>
Capabilities: [160] Virtual Channel
Capabilities: [1b8] Alternative Routing-ID Interpretation (ARI)
Capabilities: [220] #15
Capabilities: [300] #19
Kernel driver in use: bnx2x
Kernel modules: bnx2x
 
Upvote 0

Zuljin

Fundador
Miembro del Equipo
Fundador
ADMIN
Se incorporó
15 Enero 2004
Mensajes
11.872
La configuración de las interfaces son todas así, de la eth1 a la eth4 (cambia la mac y el master, obviamente)

[root@oracleprod1 oswbb]# cat /etc/sysconfig/network-scripts/ifcfg-eth1
DEVICE=eth1
MASTER=em1
SLAVE=yes
BOOTPROTO=static
#HWADDR=84:2B:2B:44:EB:E5
ONBOOT=yes
USERCTL=no
#IPADDR=172.31.2.208
#NETMASK=255.255.254.0


Y la configuración de los bounding

Público

DEVICE=em1
BOOTPROTO=none
ONBOOT=yes
IPADDR=172.20.30.131
NETMASK=255.255.0.0
USERCTL=no


Privado

DEVICE=em2
BOOTPROTO=none
ONBOOT=yes
IPADDR=10.0.1.11
NETMASK=255.255.0.0
USERCTL=no
 
Upvote 0

yakko

pingüino mal genio
Se incorporó
24 Agosto 2004
Mensajes
16.883
ahí tienes un par de errores, pero dudo que sean las causas de esto.

en la configuración del bonding debe estar el bootproto en static y esta debe tener la IP, mascara, gw, etc.
en la configuración de las tarjetas debe estar el bootproto en none

falta ver las opciones del módulo de bonding nomas.
deberían estar en /etc/modprobe.d/bonding.conf (o algún .conf dentro de ese dir, no son muchos)


y quizás se niega a funcionar bien porque le dices bounding en vez de bonding :zippy
 
Upvote 0

yakko

pingüino mal genio
Se incorporó
24 Agosto 2004
Mensajes
16.883
El bonding.conf dice

alias em1 bonding
alias em2 bonding

dejala así


alias em1 bonding miimon=100 downdelay=200 updelay=200
alias em1 bonding miimon=100 downdelay=200 updelay=200

si estás sentado frente a la maquina
# service network stop
# rmmod bonding
# service network restart

si estás remoto, reinicia.

- - - Updated - - -

se me olvidaba, eso se hace porque es mii-tool el que controla el bonding y si el driver no funciona con mii-tool el bonding funciona muy mal o no funciona, con eso se le dice cada cuanto tiempo chequear y subir y bajar una interface si es necesario aun si no puede obtener datos del driver de mii-tool.
 
Upvote 0

Zuljin

Fundador
Miembro del Equipo
Fundador
ADMIN
Se incorporó
15 Enero 2004
Mensajes
11.872
Tengo el caso escalado con Oracle y RedHat. Ahora voy a abrir un caso con Dell para que me revisen el hardware del servidor.
 
Upvote 0

Miguelwill

I am online
Miembro del Equipo
MOD
Se incorporó
23 Febrero 2004
Mensajes
12.403
segun se (leido de varios pappers de bonding) ifenslave depende del soporte de ethetool, y mii-tool no era mencionado (tambien tenia entendido que era mas viejo y que por eso no mostraba bien la info de tarjetas mas nuevas)

mas arriba ponian que la eth1 estaba en half-duplex, si algun bonding la usa y esta como salve activo (depende del modo de bonding) podria ser eso que este dando la perdida de paquetes
 
Upvote 0

Zuljin

Fundador
Miembro del Equipo
Fundador
ADMIN
Se incorporó
15 Enero 2004
Mensajes
11.872
Pregunta huevona.

La salida está en bonding, no? Ok, si bajo una interfaz de red la otra va a seguir dando servicio de forma transparente?

Por ejemplo, el bonding "malo" es el em1, y consta de la eth3 y eth4. ¿Puedo entonces bajar una interfaz de red para ir probando cuál es la mala?
 
Upvote 0
Subir