Aspirateur de sites web...

Bonjour,

Je viens d'aspirer un site avec WebCopier, qui est très moche. Je pensais qu'il était possible de surfer sur un site aspiré comme si on était sur Internet. J'ai du louper un épisode. En tout cas, je confirme que Site Sucker ne gère pas le JavaScript et si d'aventure quelque chose ne fonctionnait pas dans l'aspiration, consultez le log qui vous informera du pourquoi du comment. En tout cas, je suis preneur si quelqu'un connaît un logiciel ou une manière agréable de procéder pour visionner un site aspiré...

Merci.
 
Adrienhb a dit:
Hullo,

Je ressors ce sujet.
Est-ce qu'ormis Web Devil, Web dumper, Page sucker, SiteSucker, WebGrabber, quelqu'un aurait une idée d'un bon aspirateur de sites?
A.
:up: Naja : www.keyphrene.com

Aspiration multisite ; le résultat est navigable.
 
Adrienhb a dit:
Pas grave qu'il soit indiqué qu'il est pour Jaguar?
A.
Celui que j'ai tourne sous Panther.
 
Adrienhb a dit:
Tu as quelle version?
Merci
A.
Ce n'est pas indiqué clairement. Dans le fichier "version", il est écrit 117. (downloadé en Février 2005)
Dans une page de présentation que j'avais chargé en Juin, il est écrit 1.2.3.

Donc je pense que ce doit être 117 (ou 1.1.7).
 
enzo0511 a dit:
au fait, qd on possede un site, comme peut on contrer ce genre d'aspirateur ?

Pour répondre -en retard je l'accorde- il est possible de "bloquer" les bots des moteurs de recherche et également les aspirateurs de sites par un simple fichier texte nommé "robots.txt" où tu spécifies dedans ce que tu interdis au moteur d'indexer/d'acceder.

Je ne garantie pas que ça fonctionne avec tous les aspirateurs, mais je suis quasi sûr -pour avoir rencontré ce genre de problème- que SiteSucker les utilise. Je sais pas si c'est le cas pour tous.

Et je pense que c'était à cause de ça que le site cité dans un post plus haut ne voulait pas se faire aspirer...

Après est-ce qu'il existe des logiciels netiquement développé ou pas, ça je sais pas...

Plus d'infos là : http://shigaepouyen.free.fr/blog/index.php?2005/04/18/139-irobotstxt
 
En fait, moi, ce que j'aimerai c'est un moyen automatique de télécharger une série de fichier pdf contenus dans un dossier (dont l'accès direct est interdit).
Si vous voulez, tous ces documents pdf, je peux les télécharger via le site, en les sélectionnant un par un dans le menu déroulant adéquat. Ce sont des fiches horaires de lignes d'autocar, donc des trucs tout à fait diffusables et téléchargeables!
Mais il y en a une trentaine, et c'est fastidieux.


Il n'existe pas un logiciel, un script, permettant d'automatiser une série de "cliquer", "enregistrer sous", etc... ?

Evidemment, avec un aspirateur de site, ca ne marche pas (connexion refusée)
 
J'ai l'impression que Webdevil est pas mal du tout, avec un patch français... mais payant, et je viens de terminer mes 15 jours de démo :(
 
Je cherche un Aspirateur qui regroupe les pages aspirées en une seule page.
A la rigueur, je me contenterais de regrouper le texte brut (sans formatage).
J'ai essayé plusieurs aspis ; pas trouvé.

Une idée ?
 
Bonjour,

Personnellement, je n'en connais pas qui fassent cela... Et puis tout dépend de la quantité de pages aussi, le temps de trouver ce genre de logiciel, tu aurais peut-être fait aussi vite avec de bêtes copier/coller. Mais, je le redis, si tu as 100 pages... c'est un peu sfat.