¿Algún programa para descargar parte de un sitio web completo?

Mako99

Demifiend
Se incorporó
17 Abril 2009
Mensajes
250
Buenas, tomé la decisión de pagar por un taller por internet, el cual tiene alojado material y clases en un sitio web X. La cosa es que mis credenciales para ingresar al sitio caducarán y por lo tanto quisiera descargar las páginas del sitio para revisarlo off-line (ojalá siendo tan fácil como decirle al programa "descarga y almacena todas las páginas y links a los cuales yo tengo acceso con este usuario y este password desde esta página web")
Intenté usar WinHTTrack (mi compu está con Windows 10) pero solo logró descargar la página de log-in.
¿Alguien podría orientarme con algún programa o extensión que haga esta pega? Ojalá a prueba de constituyentes diputados.
 
Solution
Dejo nota del resultado de mis experimentos hasta ahora:

1. Probé un programa muy recomendado llamado Cyotek Webcopy. La "gracia" es que el software permite hacer login con un navegador interno y allí copia las cookies y demases necesarias para ingresar a la página. Es muy fácil de usar, pero lamentablemente no me funcionó al 100%. Logró copiar el sitio (por ejemplo, el indice general de contenidos), pero el material particular de cada clase no pudo bajarlo (quedaba "cargando" la página hasta el infinito.)

2. Otro programa muy parecido que ocupe fue el A1 Website Download que también puede invocar a un browser interno para hacer login (y un montón de otros trucos más) pero pasó lo mismo que con el Cyotek. Eso sí, me...

Miguelwill

I am online
Miembro del Equipo
MOD
Se incorporó
23 Febrero 2004
Mensajes
12.409
usando Linux se puede descargar un sitio con los html ,imágenes y sitios referenciados de forma recursiva usando wget, no sé si en Windows habrá algo igual
 
Upvote 0

Mako99

Demifiend
Se incorporó
17 Abril 2009
Mensajes
250
Cabros, soy un humilde usuario de Windows... por eso el "a prueba de diputados". Google me dice que "Selenium" es un elemento químico, así que mi cerebro dice "partiste a una droguería a comprar selenium, lo pones a calentar en un bong y en el viaje que te vas a pegar encuentras la respuesta"
 
Upvote 0

Mako99

Demifiend
Se incorporó
17 Abril 2009
Mensajes
250
Más que nada son textos con imágenes. Hay videos, pero son sacados de YouTube.
 
Upvote 0

frosstatx

AMD EX-NV Y LINUX FANBOY
Se incorporó
27 Junio 2008
Mensajes
483
Cabros, soy un humilde usuario de Windows... por eso el "a prueba de diputados". Google me dice que "Selenium" es un elemento químico, así que mi cerebro dice "partiste a una droguería a comprar selenium, lo pones a calentar en un bong y en el viaje que te vas a pegar encuentras la respuesta"
Mori con la respuesta....
 
Upvote 0

wurrzag

Ciclista Jipi
Se incorporó
30 Mayo 2006
Mensajes
8.945
Buenas, tomé la decisión de pagar por un taller por internet, el cual tiene alojado material y clases en un sitio web X. La cosa es que mis credenciales para ingresar al sitio caducarán y por lo tanto quisiera descargar las páginas del sitio para revisarlo off-line (ojalá siendo tan fácil como decirle al programa "descarga y almacena todas las páginas y links a los cuales yo tengo acceso con este usuario y este password desde esta página web")
Intenté usar WinHTTrack (mi compu está con Windows 10) pero solo logró descargar la página de log-in.
¿Alguien podría orientarme con algún programa o extensión que haga esta pega? Ojalá a prueba de constituyentes diputados.
Eones atrás ocupe sitesnagger, era un programa portátil (no se instalaba) hecho por la PC Magazine
Ahora con tanta cosa nueva ni idea como funcionará

Por otro lado parece que recomiendan harto https://www.httrack.com/
 
Upvote 0

Mako99

Demifiend
Se incorporó
17 Abril 2009
Mensajes
250
Eones atrás ocupe sitesnagger, era un programa portátil (no se instalaba) hecho por la PC Magazine
Ahora con tanta cosa nueva ni idea como funcionará

Por otro lado parece que recomiendan harto https://www.httrack.com/
WinHTTrack es la versión para Windows del programa que mencionas. Al parecer es muy bueno, pero con sitios que requieren credenciales tiene problemas.
Intente usar Wget pero claro, ingresar las credenciales es un cacho. Al parecer, necesito darle al programa una cookie e ingresar mis credenciales en código porciento, pero quedé pillo de donde puedo sacar esta información fácilmente.
 
Upvote 0

Mako99

Demifiend
Se incorporó
17 Abril 2009
Mensajes
250
Dejo nota del resultado de mis experimentos hasta ahora:

1. Probé un programa muy recomendado llamado Cyotek Webcopy. La "gracia" es que el software permite hacer login con un navegador interno y allí copia las cookies y demases necesarias para ingresar a la página. Es muy fácil de usar, pero lamentablemente no me funcionó al 100%. Logró copiar el sitio (por ejemplo, el indice general de contenidos), pero el material particular de cada clase no pudo bajarlo (quedaba "cargando" la página hasta el infinito.)

2. Otro programa muy parecido que ocupe fue el A1 Website Download que también puede invocar a un browser interno para hacer login (y un montón de otros trucos más) pero pasó lo mismo que con el Cyotek. Eso sí, me mostró un "mapa" del sitio muy interesante y creo saber que es lo que pasa ya que uno de los recursos que usa la página (y no es descargado) es algo llamado "e-reader". Me tinca que el contenido está codificado para ser interpretado por este "e-reader". O puede que me este pasando puros rollos.

3. Finalmente, ocupé un plugin de Chrome llamado Save Page WE, el cual permite guardar el contenido mostrado en el browser en una única página HTML (sin crear una carpeta con los archivos). Así que me quedó algo bastante ordenado que "luce" 99% igual al sitio original (aunque los links no sirven). Tuve que bajar y renombrar cada página "a mano", pero al cabo de un rato ya tenía la pega lista.

Adelante estudios.
 
Upvote 1
Solution

Linkey

Capo
Se incorporó
20 Agosto 2009
Mensajes
207
Para archivar los sitios suelo usar ArchiveBox, pero como tal implica montarlo en algún lugar. No es un .exe y clic, clic, clic, clic.
 
Upvote 0

unreal4u

I solve problems.
Miembro del Equipo
ADMIN
Se incorporó
2 Octubre 2005
Mensajes
13.637
Dejo nota del resultado de mis experimentos hasta ahora:

1. Probé un programa muy recomendado llamado Cyotek Webcopy. La "gracia" es que el software permite hacer login con un navegador interno y allí copia las cookies y demases necesarias para ingresar a la página. Es muy fácil de usar, pero lamentablemente no me funcionó al 100%. Logró copiar el sitio (por ejemplo, el indice general de contenidos), pero el material particular de cada clase no pudo bajarlo (quedaba "cargando" la página hasta el infinito.)

2. Otro programa muy parecido que ocupe fue el A1 Website Download que también puede invocar a un browser interno para hacer login (y un montón de otros trucos más) pero pasó lo mismo que con el Cyotek. Eso sí, me mostró un "mapa" del sitio muy interesante y creo saber que es lo que pasa ya que uno de los recursos que usa la página (y no es descargado) es algo llamado "e-reader". Me tinca que el contenido está codificado para ser interpretado por este "e-reader". O puede que me este pasando puros rollos.

3. Finalmente, ocupé un plugin de Chrome llamado Save Page WE, el cual permite guardar el contenido mostrado en el browser en una única página HTML (sin crear una carpeta con los archivos). Así que me quedó algo bastante ordenado que "luce" 99% igual al sitio original (aunque los links no sirven). Tuve que bajar y renombrar cada página "a mano", pero al cabo de un rato ya tenía la pega lista.

Adelante estudios.
ugh yo tb estaba pensando en wget, ya que tiene esas opciones... pero tienes toda la razón! Los browsers tienen esa opción, tanto firefox como Chrome te permiten guardar una página completa jajajajaj ya sea en un solo "archivo" o como elementos por separado.

Buena solución encontraste :) A veces las cosas son más fáciles de lo que parecen.

Saludos.
 
Upvote 0
Subir