HTTrack Website Copier
Free software offline browser - FORUM
Subject: Re: help for download big site with account and time
Author: damien quesnel
Date: 12/18/2011 08:06
 
> Bonjour,
> 
> Je suis français et parle trés peu l'anglais. La
> traduction sera faite par Translate google.
> 
> Je cherche un moyen de télécharger un site en étant
> loggué et ayant un temps de connexion limité à 5-6
> heures.
> En 5-6 heures, il est impossible de tout
> téléchargé.
> 
> L'idéal serait de pouvoir reprendre la copie
> existante mais en changeant les 11 lettres-nombres
> aléatoires qui composent ce site.
> 
> Voici un exemple : 
> 
> 
> <http://abcdefghijk.lesite.com>
> 
> Puis 6 heures aprés :
> 
> <http://01234567890.lesite.com>
> 
> Peut-on reprendre une copie de site en changeant
> tous les liens et en faisant en sorte qu'il puisse
> continuer à aspirer tous les liens?> 
> Sinon, peut-on juste téléchargé les petits fichiers
> (inférieur à 1 Mo) et garder dans une base de
> données lisible avec le bloc-notes tout les
> fichiers.
> 
> Je pense que si j'arrive en 5-6 heures à aspirer
> tous les liens et à avoir une base complète (avec
> les liens des fichiers non téléchargées), je
> pourrais aprés aspirer le reste en changeant les
> lettres-nombres via la fonction remplacer du
> bloc-notes.
> 
> Merci pour votre aide.
> 
> Cordialement,
> 
> Damien.

I'm sorry for the double post but it's not possible do you put translation in
the same.

Translation in English with Translate Google :

Hello,

I am French and speaks very little English. The translation will be done by
Google Translate.

I am looking for a way to download a site being logged in and have a
connection time limited to 5-6 hours.
In 5-6 hours, you can not just download.

The ideal would be to take over the existing copy, but by changing the random
number 11 letters that make up this site.

Here's an example:


<http://abcdefghijk.lesite.com>

Then after 6 hours:

<http://01234567890.lesite.com>

Can we take a copy of the site by changing all the links and ensuring that it
continues to suck all the links?
Otherwise, can you just downloaded small files (less than 1 MB) and stored in
a database readable with Notepad all files.

I think if I get in 5-6 hours to suck all the links and have a complete
database (with links to files not downloaded), I could suck the rest after
changing the letter-numbers via the function replace notepad.

Thank you for your help.

Sincerely,

Damien.
 
Reply Create subthread


All articles

Subject Author Date
help for download big site with account and time

12/18/2011 08:05
Re: help for download big site with account and time

12/18/2011 08:06
Re: help for download big site with account and time

12/18/2011 08:07
Re: help for download big site with account and time

12/18/2011 14:19
Re: help for download big site with account and time

12/21/2011 01:42




7

Created with FORUM 2.0.11