Linux Copiar 120 mil archivos de un servidor a otro

Zuljin

Fundador
Miembro del Equipo
Fundador
ADMIN
Se incorporó
15 Enero 2004
Mensajes
11.872
Tengo un servidor que almacena archivos y en un directorio tiene la mansa cachá, 120 mil archivos.
Por una homologación, necesito llevar esos 120 mil archivos de ese servidor origen a un servidor destino que tiene la misma estructura. Más o menos así:

origen
/var/condorbinario/archivos/* -> 120 mil archivos 46 gb en total


y copiarlos en el servidor destino
/var/condorbinario/archivos/*

como dato, el servidor origen tiene 34 gigas libres por lo que gzipear los archivos en el mismo origen no me es posible porque no alcanza el espacio.


se me ocurre probar con rsync. ¿Ven otra posibilidad?

Gracias
 

NSonic

* Mako-Chan *
Se incorporó
23 Abril 2007
Mensajes
789
Nosotros en los linux justamente para la copia de grandes cantidades de archivos usamos rsync, por ahora ningun problema
 
Upvote 0

Soujiro

Fanático
Se incorporó
14 Enero 2008
Mensajes
1.428
venia a sugerir lo mismo, rsync, aunque el comando lo tenemos sin el v en el crontab dado que no necesito el detalle de los archivos, a menos que este debugeando algun problmea
 
Upvote 0

biomorgoth

Miembro Regular
Se incorporó
28 Febrero 2021
Mensajes
58
Tal cual rsync es lo ideal. Hace unos meses cambie de equipo y me copie todo el ambiente de trabajo de una compu a otra (~40GB, mucha basura pero Diogenes y eso 😅 ). Investigue sobre rsync, me lei algunas partes del manpage e hice mi copia. Si has usado scp al menos te parecera familiar la forma de especificar direcciones remotas, ya que igual usa ssh de fondo. Hasta el dia de hoy no he encontrado nada faltante o mal copiado. Tampoco es que lo haya revisado todo, pero confio en parte en el exit code 0.

Si lo llegases a necesitar, puedes colocar listas de inclusion o exclusion. En mi caso como habia proyectos entre las dependencias, añadia el node_modules como exclusion y eso aligeraba un monton la copia.
 
Upvote 0
Subir