Se connecter
Se connecter
Inscription
Mot de passe perdu
Connexion:
[Actualités]
Nvidia prévient d'une pénurie de GPU ce trimestre, avec une reprise début 2025
[Actualités]
Les Technos #469 : Un jour sans fin
[Actualités]
Test Farming Simulator 25 (PS5) - Des innovations intéressantes mais des perfor...
[Actualités]
Qualcomm souhaite réduire davantage les prix des PC Windows basés sur ARM
[Actualités]
Finalement, Google préparerait une nouvelle tablette mais la Pixel Tablet 2 ser...
[Actualités]
Windows 10 version 22H2 : erreur de mise à jour et de désinstallation
[Actualités]
OpenAI prépare désormais son propre navigateur
[Actualités]
WhatsApp bat Telegram : les transcriptions des messages vocaux arrivent pour tou...
[Actualités]
Unreal et Unreal Tournament désormais gratuits sur Internet Archive
[Actualités]
Windows 10 : Microsoft affiche des publicités en plein écran pour les PC équi...
[Articles]
Dungeons 4 - Nintendo Switch Edition
[Articles]
The Bridge Curse 2 : The Extrication
[Articles]
Farmagia
[Articles]
I*CHU: Chibi Edition
[Articles]
Farming Simulator 25
[Articles]
Goblin Slayer -Another Adventurer- Nightmare Feast
[Articles]
Deel lance des programmes en marque blanche et pour les revendeurs pour plus de ...
[Articles]
ESET Research : WolfsBane, nouvelle porte dérobée de cyber-espionnage Linux cr...
[Articles]
Devoteam présente son nouveau plan stratégique « AMPLIFY » avec un fort acce...
[Articles]
LEGO Horizon Adventures
Actualités
Lettre d'information
Proposer une actualité
Archives
Actualités
Articles
Programmation
Press Release
Matériel
Logiciels
Livres
Interviews
Derniers commentaires
Jeux Vidéos
XBox One
XBox 360
Wii U
PSP
PS4
PS3
PC
DS
GameCube
3DS
Forum
Derniers messages
Informatique
Fun
Divers
Logithèque
Blogs
Divers
A Propos
Annonceurs
Contact
Recherche
RSS
Editer un article
Titre
Mots Clés
Texte
.de Sh " Subsection heading [b][/b] .if t .Sp .ne 5 [b][/b]$1 [size=18] [b]Nom[/b] [/size] wget - Un récupérateur réseau non interactif [size=18] [b]Résumé[/b] [/size] .IX Header "SYNOPSIS" wget [[i]option[/i]]... [[i][/i]s-1URLs0]... [size=18] [b]Description[/b] [/size] .IX Header "DESCRIPTION" &s-1GNUs0 Wget est un programme non interactif de téléchargement de fichiers depuis le Web. C'est un logiciel libre. Il supporte les protocoles s-1HTTPs0, s-1HTTPSs0 et s-1FTPs0 ainsi que le téléchargement au travers des proxies s-1HTTPs0. Wget est non interactif c'est-à-dire qu'il peut travailler en arrière-plan, sans intervention de l'utilisateur. Ceci vous permet de lancer un téléchargement et de vous déconnecter du système, laissant Wget finir le travail. En revanche, la plupart des navigateurs Web requièrent la présence constante de l'utilisateur, ce qui est particulièrement pénible lorsqu'on transfère beaucoup de données. Wget peut suivre les liens des pages s-1HTMLs0 et s-1XHTMLs0 et créer une copie locale de sites web distants, en récréant complètement la structure du site original. Ceci est parfois désigné sous le nom de « téléchargement récursif ». En faisant cela, Wget respecte le standard d'exclusion de robots ([i]/robots.txt[/i]). Wget peut aussi convertir les liens dans les fichiers s-1HTMLs0 téléchargés pour la consultation locale. Wget a été conçu pour être robuste en dépit des connexions réseaux lentes ou instables : si un téléchargement échoue suite à un problème réseau, il réessayera jusqu'à ce que l'intégralité du fichier soit téléchargée. Si le serveur supporte la reprise, il lui demandera de reprendre là où le téléchargement s'est interrompu. [size=18] [b]Options[/b] [/size] .IX Header "OPTIONS" [size=18] [b]Options de base pour le démarrage[/b] [/size] .IX Subsection "Basic Startup Options" "[b][/b]-V" 4 [table][row][col] [/col][col].IX Item "-V"[/col][/row][/table] "[b]--version[/b]" 4 [table][row][col] [/col][col].IX Item "version"[/col][/row][/table] Affiche la version de Wget. "[b][/b]-h" 4 [table][row][col] [/col][col].IX Item "-h"[/col][/row][/table] "[b]--help[/b]" 4 [table][row][col] [/col][col].IX Item "help"[/col][/row][/table] Affiche un message d'aide décrivant toutes les options de ligne de commande de Wget. "[b][/b]-b" 4 [table][row][col] [/col][col].IX Item "-b"[/col][/row][/table] "[b]--background[/b]" 4 [table][row][col] [/col][col].IX Item "background"[/col][/row][/table] Passe en arrière-plan immédiatement après le démarrage. Si aucun fichier de sortie n'est spécifié via [b][/b]-o, la sortie est redirigée vers [i]wget-log[/i]. "[b][/b]-e [i]commande[/i]" 4 [table][row][col] [/col][col].IX Item "-e commande"[/col][/row][/table] "[b][/b]--execute [i]commande[/i]" 4 [table][row][col] [/col][col].IX Item "execute commande"[/col][/row][/table] Exécute [i]commande[/i] comme si elle faisait partie de [i].wgetrc[/i]. La commande sera exécutée [i]après[/i] celles de [i].wgetrc[/i], et donc prendra le pas sur celles-ci. [size=18] [b]Options de suivi et de fichiers dentrées[/b] [/size] .IX Subsection "Logging and Input File Options" "[b][/b]-o [i]logfile[/i]" 4 [table][row][col] [/col][col].IX Item "-o logfile"[/col][/row][/table] "[b]--output-file=[/b][i]logfile[/i]" 4 [table][row][col] [/col][col].IX Item "output-file=logfile"[/col][/row][/table] Enregistre tous les messages dans [i]logfile[/i]. Normalement les messages sont affichés sur la sortie d'erreur standard. "[b][/b]-a [i]logfile[/i]" 4 [table][row][col] [/col][col].IX Item "-a logfile"[/col][/row][/table] "[b]--append-output=[/b][i]logfile[/i]" 4 [table][row][col] [/col][col].IX Item "append-output=logfile"[/col][/row][/table] Ajouter à [i]logfile[/i]. C'est la même chose que l'option [b][/b]-o, sauf que les messages sont ajoutés à la fin du fichier &[i]logfile[/i] au lieu d'écraser l'ancien fichier. Si &[i]logfile[/i] n'existe pas, il sera créé. "[b][/b]-d" 4 [table][row][col] [/col][col].IX Item "-d"[/col][/row][/table] "[b]--debug[/b]" 4 [table][row][col] [/col][col].IX Item "debug"[/col][/row][/table] Active la sortie de débogage, c'est-à-dire des informations importantes pour les développeurs de Wget si quelque chose ne fonctionne pas correctement. Votre administrateur système peut avoir choisi de compiler Wget sans l'option de débogage, dans ce cas [b][/b]-d ne fonctionnera pas. Remarquez que la compilation avec cette option est toujours sûre : Wget compilé avec l'option de débogage [b]n'affichera[/b] aucune information de débogage à moins qu'on ne le lui demande avec [b][/b]-d. "[b][/b]-q" 4 [table][row][col] [/col][col].IX Item "-q"[/col][/row][/table] "[b]--quiet[/b]" 4 [table][row][col] [/col][col].IX Item "quiet"[/col][/row][/table] Désactive la sortie de Wget. "[b][/b]-v" 4 [table][row][col] [/col][col].IX Item "-v"[/col][/row][/table] "[b]--verbose[/b]" 4 [table][row][col] [/col][col].IX Item "verbose"[/col][/row][/table] Active le mode verbeux, avec toutes les données disponibles. Ce mode est activé par défaut. "[b][/b]-nv" 4 [table][row][col] [/col][col].IX Item "-nv"[/col][/row][/table] "[b]--non-verbose[/b]" 4 [table][row][col] [/col][col].IX Item "non-verbose"[/col][/row][/table] Sortie non verbeux : désactive le mode verbeux, sans toutefois être complètement muet (utilisez [b][/b]-q pour ça), et donc seuls les messages d'erreurs et les informations de bases seront affichés. "[b][/b]-i [i]fichier[/i]" 4 [table][row][col] [/col][col].IX Item "-i file"[/col][/row][/table] "[b]--input-file=[/b][i]fichier[/i]" 4 [table][row][col] [/col][col].IX Item "input-file=file"[/col][/row][/table] Lit les URL depuis [i]fichier[/i]. Dans ce cas, aucune URL n'est requise sur la ligne de commande. S'il y a des URL sur la ligne de commande et dans un fichier d'entrée, celles de la ligne de commande sont téléchargées en premier. [i]fichier[/i] n'est pas nécessairement un document s-1HTMLs0, une simple liste d'URL convient également. .Sp Cependant, si vous spécifiez [b]--force-html[/b], le document sera considéré comme étant du [b]html[/b]. Dans ce cas vous pouvez avoir des problèmes avec les liens relatifs, problème qui se résout en ajoutant
aux documents ou en spécifiant &[b]--base=[/b][i]url[/i] sur la ligne de commande. "[b][/b]-F" 4 [table][row][col] [/col][col].IX Item "-F"[/col][/row][/table] "[b]--force-html[/b]" 4 [table][row][col] [/col][col].IX Item "force-html"[/col][/row][/table] Lorsque l'entrée est lue depuis un fichier, force Wget à le considérer comme un fichier s-1HTMLs0. Cela vous permet de rapatrier les liens relatifs depuis un fichier s-1HTMLs0 de votre disque local, en ajoutant
au s-1HTMLs0, ou en utilisant l'option de ligne de commande &[b]--base[/b]. "[b][/b]-B [i][/i]s-1URLs0" 4 [table][row][col] [/col][col].IX Item "-B URL"[/col][/row][/table] "[b]--base=[/b][i][/i]s-1URLs0" 4 [table][row][col] [/col][col].IX Item "base=URL"[/col][/row][/table] Utilisé en conjonction avec [b][/b]-F, préfixe les liens relatifs avec [i][/i]s-1URLs0 dans le fichier spécifié par [b][/b]-i. [size=18] [b]Options de téléchargement[/b] [/size] .IX Subsection "Download Options" "[b]--bind-address=[/b][i][/i]s-1ADRESSEs0" 4 [table][row][col] [/col][col].IX Item "bind-address=ADDRESS" Lors de la création de la connexion s-1TCP/IPs0 cliente, utilise &[i][/i]s-1ADRESSEs0 sur la machine locale (bind()). &[i][/i]s-1ADRESSEs0 peut être un nom d'hôte ou une adresse s-1IPs0. Cette option peut être utile si votre machine possède plusieurs adresses IP.[/col][/row][/table] "[b][/b]-t [i]n[/i]" 4 [table][row][col] [/col][col].IX Item "-t n"[/col][/row][/table] "[b]--tries=[/b][i]n[/i]" 4 [table][row][col] [/col][col].IX Item "tries=n"[/col][/row][/table] Définit le nombre de tentatives à [i]n[/i]. Spécifiez 0 ou [b]inf[/b] pour un nombre illimité de tentatives. Par défaut 20 tentatives sont effectuées, à moins qu'une erreur fatale telle que « connexion refusée » ou « non trouvé » (404) apparaisse. "[b][/b]-O [i]fichier[/i]" 4 [table][row][col] [/col][col].IX Item "-O fichier"[/col][/row][/table] "[b]--output-document=[/b][i]fichier[/i]" 4 [table][row][col] [/col][col].IX Item "output-document=fichier"[/col][/row][/table] Les documents ne seront pas écrits dans les fichiers appropriés, mais tous concaténés les uns aux autres et écrits dans [i]fichier[/i]. Si [i]fichier[/i] existe déjà, il sera remplacé. Si [i]fichier[/i] vaut [b]-[/b], les documents seront écrits sur la sortie standard. Cette option positionne automatiquement le nombre de tentatives à 1. "[b][/b]-nc" 4 [table][row][col] [/col][col].IX Item "-nc"[/col][/row][/table] "[b]--no-clobber[/b]" 4 [table][row][col] [/col][col].IX Item "no-clobber"[/col][/row][/table] Si un fichier est téléchargé plus d'une fois dans un même répertoire, le comportement de Wget dépend de plusieurs options parmi lesquelles [b][/b]-nc. Dans certains cas, le fichier local sera remplacé au fur et à mesure des téléchargements. Dans les autres cas, il sera préservé. .Sp Quand Wget est lancé sans [b][/b]-N, [b][/b]-nc, ni [b][/b]-r, le téléchargement d'un même fichier dans un même répertoire préservera le fichier original [i]fichier[/i], les copies suivantes seront renommées [i]fichier[/i][b].1[/b], [i]fichier[/i][b].2[/b] et ainsi de suite. Si l'option &[b][/b]-nc est spécifiée, ce comportement est supprimé, Wget ne téléchargera pas les nouvelles copies de [i]fichier[/i]. C'est pourquoi no-clobber n'est pas un nom totalement adapté pour ce mode : ce n'est pas contre l'expulsion du fichier qu'elle protège (les suffixes numériques empêchent déjà le clobbering), mais elle empêche la sauvegarde des version multiples. .Sp Quand Wget est lancé avec [b][/b]-r, mais sans [b][/b]-N ni [b][/b]-nc, le retéléchargement d'un fichier écrasera l'ancienne version de celui-ci. L'option [b][/b]-nc empêche ce comportement : la version originale est préservée et les nouvelles copies du serveur sont ignorées. .Sp Quand Wget est lancé avec [b][/b]-N, indépendamment de [b][/b]-r, la décision de télécharger la nouvelle version du fichier dépend des dates du fichier local et distant et de la taille du fichier. [b][/b]-nc ne devrait pas être spécifié en même temps que [b][/b]-N. .Sp Remarquez que si l'option [b][/b]-nc est spécifiée, les fichiers avec l'extension &[b].html[/b] ou (beurk) [b].htm[/b] seront chargés depuis le disque local et analysés comme s'ils avaient été rapatriés depuis le Web. "[b][/b]-c" 4 [table][row][col] [/col][col].IX Item "-c"[/col][/row][/table] "[b]--continue[/b]" 4 [table][row][col] [/col][col].IX Item "continue"[/col][/row][/table] Reprend le téléchargement d'un fichier incomplet. C'est utile pour achever le téléchargement commencé par une instance précédente de Wget, ou par un autre programme. Par exemple : .Sp .Vb 1 & wget -c ftp://sunsite.doc.ic.ac.uk/ls-lR.Z .Ve S'il y a un fichier nommé [i]ls-lR.Z[/i] dans le répertoire courant, Wget supposera que c'est la première partie du fichier distant, et demandera au serveur de continuer le téléchargement à l'offset égal à la longueur du fichier local. .Sp Remarquez que vous n'avez pas besoin de spécifier cette option si vous voulez que l'invocation courante de Wget réessaye de retélécharger un fichier parce que la connexion a été perdue. C'est le comportement par défaut. &[b][/b]-c n'affecte que la reprise des téléchargements démarrés [i]antérieurement[/i] à cette invocation de Wget, et dont les fichiers locaux sont encore présents. .Sp Sans l'option [b][/b]-c, l'exemple précédent aurait juste téléchargé le fichier distant dans [i]ls-lR.Z.1[/i], laissant intact le fichier tronqué [i]ls-lR.Z[/i]. .Sp Depuis Wget 1.7, si vous utilisez [b][/b]-c sur un fichier non vide, et que le serveur ne supporte pas la reprise du téléchargement, Wget refusera de télécharger le fichier depuis zéro, ce qui détruirait le contenu existant. Si vous voulez vraiment recommencer le téléchargement depuis zéro, effacez le fichier. .Sp Également depuis Wget 1.7, si vous utilisez [b][/b]-c sur un fichier de taille supérieure ou égale à celle du serveur, Wget refusera de télécharger le fichier et affichera un message d'explication car dans ce cas la reprise du téléchargement n'a aucun sens. .Sp En revanche, l'utilisation de [b][/b]-c, sur tout fichier qui est plus grand sur le serveur que localement sera considéré comme un téléchargement incomplet ; les octets manquants seront téléchargés et ajoutés la fin du fichier. C'est vraiment pratique dans certains cas : par exemple vous pouvez utiliser, [b]wget[/b] -c pour ne télécharger que la nouvelle portion de données qui ont été ajoutés à un fichier de log. .Sp Toutefois, si le fichier est plus grand du côté du serveur parce qu'il a été [i]modifié[/i], par opposition à un simple [i]ajout[/i], vous vous retrouvez avec un fichier corrompu. Wget n'a aucun moyen de vérifier que le fichier local est réellement un préfixe valide du fichier distant. Vous devez faire attention quand vous utilisez simultanément [b][/b]-c et [b][/b]-r, puisque chaque fichier sera considéré comme un candidat à la reprise d'un téléchargement interrompu. .Sp Autre exemple : vous récupérez un fichier corrompu si vous utilisez &[b][/b]-c avec un proxy s-1HTTPs0 boiteux qui insère une chaîne « transfer interrupted » dans le fichier local. Dans le futur, une option retour en arrière pourrait être ajoutée pour s'occuper de ce cas. .Sp Remarquez que [b][/b]-c ne fonctionne qu'avec les serveurs s-1FTPs0 et s-1HTTPs0 qui supportent l'en-tête [i]Range[/i]. "[b]--progress=type=[/b][i]type[/i]" 4 [table][row][col] [/col][col].IX Item "progress=type" Positionne le type d'indicateur de progression. Les indicateurs valides sont [i]dot[/i] (le point) et [i]bar[/i] (une barre). .Sp Par défaut c'est la barre qui est utilisée. C'est une longue barre de progression s-1ASCIIs0 pour matérialiser le téléchargement. Si la sortie n'est pas un terminal, les points seront utilisés. Si vous voulez forcer l'indicateur barre, utilisez [b]--progress=bar:force[/b]. .Sp [b]--progress=dot[/b] permet de sélectionner l'affichage de points. Des points sont imprimés à l'écran pour matérialiser le téléchargement réussi d'une quantité déterminée de données. .Sp Quand vous utilisez les points, vous pouvez aussi positionner le style en spécifiant [b]dot:[/b][i]style[/i]. Les différents styles permettent de choisir la signification du point. Dans le style par défaut ([i]default[/i]) chaque point représente 1K, il y a 10 points par bloc et 50 points par ligne. Le style [i]binary[/i] est orienté ordinateur : 8 K par point, 16 points par bloc et 48 points par ligne (ce qui fait 384 K par ligne). Le style [i]mega[/i] est plus adapté pour le téléchargement de très gros fichiers : chaque point représente 64 K il y a 8 points par bloc et 48 points sur chaque ligne (ce qui fait 3 M par ligne). .Sp Remarquez qu'il est possible d'indiquer le style par défaut en utilisant la commande f(CW*(C`progress*(C' dans [i].wgetrc[/i]. Cette option a une priorité inférieure à celle de la ligne de commande. [/col][/row][/table] "[b][/b]-N" 4 [table][row][col] [/col][col].IX Item "-N"[/col][/row][/table] "[b]--timestamping[/b]" 4 [table][row][col] [/col][col].IX Item "timestamping"[/col][/row][/table] Active l'estampille temporelle. "[b][/b]-S" 4 [table][row][col] [/col][col].IX Item "-S"[/col][/row][/table] "[b]--server-response[/b]" 4 [table][row][col] [/col][col].IX Item "server-response"[/col][/row][/table] Affiche les en-têtes envoyés par les serveurs s-1HTTPs0 et les réponses envoyées par les serveurs s-1FTPs0. "[b]--spider[/b]" 4 [table][row][col] [/col][col].IX Item "spider" Lorsqu'il est invoqué avec cette option, Wget se comportera comme une [i]araignée[/i], sur la toile, il ne téléchargera pas les pages, il vérifiera simplement leur présence. Vous pouvez l'utiliser pour vérifier vos signets par exemple .Sp .Vb 1 & wget --spider --force-html -i bookmarks.html .Ve Cette caractéristique nécessite encore quelques efforts pour se rapprocher des fonctionnalités de véritable araignées s-1WWWs0.[/col][/row][/table] "[b][/b]-T secondes" 4 [table][row][col] [/col][col].IX Item "-T seconds"[/col][/row][/table] "[b]--timeout=[/b][i]secondes[/i]" 4 [table][row][col] [/col][col].IX Item "timeout=seconds"[/col][/row][/table] Positionne le décompte de lecture à [i]secondes[/i] secondes. En cas d'émission d'une lecture réseau, le descripteur de fichier est vérifié pour un décompte, sinon une connexion pendante (lecture non interrompue) pourrait subsister. Le décompte par défaut est 900 secondes (quinze minutes). Positionnez le décompte à 0 pour désactiver la vérification des décomptes. .Sp Veuillez ne pas diminuer la valeur par défaut du décompte sans savoir exactement ce que vous êtes en train de faire. "[b][/b]--dns-timeout=[i]secondes[/i]" 4 [table][row][col] [/col][col].IX Item "--dns-timeout=seconds" Positionne le décompte de recherche s-1DNSs0 à [i]secondes[/i] secondes. Une recherche s-1DNSs0 qui dépasse le temps spécifié sera stoppée. Par défaut ce temps est dépendant de l'implantation des bibliothèques systèmes.[/col][/row][/table] "[b][/b]--connect-timeout=[i]secondes[/i]" 4 [table][row][col] [/col][col].IX Item "--connect-timeout=seconds" Positionne le décompte de connexion à [i]secondes[/i] secondes. Les connexions s-1TCPs0 qui mettent plus de temps que spécifier pour s'établir sont stoppées. Par défaut, ce temps est dépendant de l'implémentation des bibliothèques système.[/col][/row][/table] "[b][/b]--read-timeout=[i]secondes[/i]" 4 [table][row][col] [/col][col].IX Item "--read-timeout=seconds" Positionne le décompte d'écriture (et de lecture) à [i]secondes[/i] secondes. Les écritures prenant plus de temps que spécifié sont stoppées. La valeur par défaut est de 900 secondes.[/col][/row][/table] "[b][/b]--limit-rate=[i]valeur[/i]" 4 [table][row][col] [/col][col].IX Item "--limit-rate=amount" Limite la débit du téléchargement à [i]valeur[/i] octets par seconde. Il est possible d'exprimer cette valeur en octets, kilooctets à l'aide du suffixe [b]k[/b] ou en mégaoctets à l'aide du suffixe [b]m[/b]. Par exemple, [b][/b]--limit-rate=20k limitera le débit à 20 ko/s. Cette option est utile, entre autre, lorsqu'on ne souhaite pas que Wget consomme toute la bande passante disponible. .Sp Remarquez que Wget implante la limitation en dormant la durée appropriée après une réception depuis le réseau qui a pris moins de temps que spécifié par le débit. Au bout du compte, cette stratégie ralentit le transfert s-1TCPs0 approximativement au débit requis. Cependant, il se peut que cela prenne un peu de temps avant de se stabiliser ; ne soyez pas surpris si cette limite n'est pas vraiment respectée lors du transfert de petits fichiers.[/col][/row][/table] "[b][/b]-w [i]secondes[/i]" 4 [table][row][col] [/col][col].IX Item "-w seconds"[/col][/row][/table] "[b]--wait=[/b][i]secondes[/i]" 4 [table][row][col] [/col][col].IX Item "wait=seconds"[/col][/row][/table] Attendre la durée spécifiée en secondes entre les téléchargements. L'utilisation de cette option, est recommandée, puisqu'elle allège la charge du serveur en réduisant la fréquence des requêtes. À la place des secondes, la durée peut être spécifiée en minutes en utilisant le suffixe [i]m[/i], en heures avec le suffixe [i]h[/i], ou en jours avec le suffixe [i]d[/i]. .Sp La spécification d'une durée importante est utile si le réseau ou l'hôte cible est coupé, aussi Wget peut attendre suffisamment longtemps que le réseau soit réparé avant de réessayer. "[b]--waitretry=[/b][i]secondes[/i]" 4 [table][row][col] [/col][col].IX Item "waitretry=seconds" Si vous ne voulez pas que Wget attende entre [i]chaque[/i] téléchargement, mais uniquement entre les essais ou téléchargement infructueux, vous pouvez utiliser cette option. Wget attend n secondes au n-ième échec sur un fichier, jusqu'au maximum spécifié. C'est pourquoi une valeur de 10 fera patienter jusqu'à (1 + 2 + 3 +... + 10) = 55 secondes par fichier. .Sp Remarquez que cette option est activée par défaut dans le fichier global &[i].wgetrc[/i].[/col][/row][/table] "[b]--random-wait[/b]" 4 [table][row][col] [/col][col].IX Item "random-wait" Certains sites web peuvent analyser les logs pour identifier les programmes de téléchargement comme Wget en recherchant les similarités statistiques temporelles entre les requêtes. Cette option fait varier la durée inter-requêtes entre 0 et 2 * [i]wait[/i] secondes, où [i]wait[/i] a été spécifié par l'option [b][/b]-w (ou [b][/b]--wait), dans le but de dissimuler la présence de Wget dans de telles analyses. .Sp Un article récent dans une publication consacrée au développement sur une plate-forme cliente populaire fournissait le code pour réaliser cette analyse au vol. Son auteur suggérait de bloquer les adresses de classe C pour s'assurer que les programmes de téléchargement seront bloqués en dépit des changements d'adresses dues au DHCP. .Sp L'option [b]--random-wait[/b] a été inspirée par ce conseil mal avisé de bloquer l'accès à un site web à de nombreux utilisateurs innocents en raison des actions d'un seul.[/col][/row][/table] "[b][/b]-Y on/off" 4 [table][row][col] [/col][col].IX Item "-Y on/off"[/col][/row][/table] "[b]--proxy=on/off[/b]" 4 [table][row][col] [/col][col].IX Item "proxy=on/off"[/col][/row][/table] Active/Désactive le support proxy. Le proxy est activé par défaut si la variable d'environnement appropriée est définie. .Sp Pour plus d'information sur l'utilisation de proxys, voir la section Proxies de l'entrée GNU Info. "[b][/b]-Q [i]quota[/i]" 4 [table][row][col] [/col][col].IX Item "-Q quota"[/col][/row][/table] "[b]--quota=[/b][i]quota[/i]" 4 [table][row][col] [/col][col].IX Item "quota=quota"[/col][/row][/table] Spécifie le quota de données pour les téléchargements automatiques. La valeur peut être spécifiée en octets (défaut), kilooctets (suffixe [b]k[/b]), ou mégaoctets (avec le suffixe [b]m[/b]). .Sp Remarquez que le quota n'affectera jamais le téléchargement d'un unique fichier. Aussi, si vous spécifiez [b]wget[/b] -Q10k ftp://wuarchive.wustl.edu/ls-lR.gz, l'intégralité du fichier [i]ls-lR.gz[/i] sera téléchargée. La même chose se produira si vous spécifiez plusieurs URL sur la ligne de commande. Wget ne tient compte du quota que pour les téléchargements récursifs ou depuis un fichier d'entrée. Aussi vous pouvez tapez sans crainte [b]wget[/b] -Q2m -i sites : le téléchargement s'arrêtera lorsque le quota sera atteint. .Sp Positionner le quota à 0 ou [b]inf[/b] signifie aucun quota. "[b][/b]--dns-cache=off" 4 [table][row][col] [/col][col].IX Item "--dns-cache=off" Désactive le cache lors de recherches s-1DNSs0. Normalement, Wget garde en mémoire les adresses qu'il a déjà recherchées sur le serveur de noms, ce qui lui évite de recontacter à chaque fois le s-1DNSs0 pour le même (petit) ensemble d'adresses à partir desquelles la récupération est faite. Ce cache existe uniquement en mémoire vive, à chaque exécution Wget contacte de nouveau le s-1DNSs0. .Sp Toutefois, dans certains cas, il n'est pas désirable de garder en cache les noms d'hôte, même pour une durée courte telle que l'exécution de Wget. Par exemple, les serveurs s-1HTTPs0 qui sont hebergés sur des machines dont l'adresse s-1IPs0 est allouée dynamiquement et change fréquemment. Leur entrées DNS sont mises à jour à chaque changement. Quand le téléchargement depuis de tels hôtes est interrompu par un changement d'adresse s-1IPs0, Wget réessaye de télécharger, mais (en raison du cache du DNS) il contacte l'ancienne adresse. Avec le cache s-1DNSs0 désactivé, Wget répétera la recherche s-1DNSs0 à chaque connexion, et ainsi obtiendra l'adresse dynamique correcte à chaque fois ; ceci au coût de recherches s-1DNSs0 supplémentaires et majoritairement inutiles. .Sp Si vous ne comprenez pas la description ci-dessus, c'est que vous n'avez probablement pas besoin de cette option. (NDT : ou alors le traducteur s'est couché un peu trop tard !)[/col][/row][/table] "[b][/b]--restrict-file-names=[i]mode[/i]" 4 [table][row][col] [/col][col].IX Item "--restrict-file-names=mode" Modifie les caractères des URL distantes qui peuvent être utilisés dans les noms de fichiers locaux générés à partir de celles-ci. Les caractères qui sont [i]restreints[/i] par cette option sont remplacés par [b]%HH[/b], où &[b][/b]s-1HHs0 est le nombre hexadécimal qui correspond au caractère remplacé. .Sp Par défaut Wget remplace les caractères considérés invalides dans les noms de fichiers par le système d'exploitation, ainsi que les caractères de contrôle qui, pour la plupart, ne sont pas affichables. Cette option est utile pour modifier ce comportement par défaut, soit parce que vous souhaitez enregistrer les fichier sur une partition non-native, soit parce que vous souhaitez garder les caractères de contrôle. .Sp Quand le mode est mis à « unix », Wget remplace le caractère [b]/[/b] ainsi que les caractères de contrôle faisant partie des ensembles 0-31 et 128-159. C'est le mode par défaut sur les systèmes d'exploitation à la UNIX. .Sp Quand le mode est mis à « windows », Wget remplace les caractères [b][/b]e, &[b]|[/b], [b]/[/b], [b]:[/b], [b]?[/b], [b]"[/b], [b]*[/b], [b]<[/b], &[b]>[/b] ainsi que les caractères de contrôle faisant partie des ensembles 0-31 et 128-159. En plus de cela, dans le mode windows, Wget utilise [b]+[/b] à la place de [b]:[/b] pour séparer l'hôte du port dans les noms de fichiers locaux et utilise [b]@[/b] à la place de [b]?[/b] pour séparer la partie de requête du reste dans le nom de fichier. Ainsi, une s-1URLs0 qui serait sauvegardée sous le nom [b]www.xemacs.org:4300/search.pl?input=blah[/b] en mode unix aurait le nom [b]www.xemacs.org+4300/search.pl@input=blah[/b] en mode windows. Ce mode est celui par défaut sous Windows. .Sp Si vous ajoutez [b],nocontrol[/b] au mode, comme par exemple [b]unix,nocontrol[/b], le remplacement des caractères de contrôle est désactivé. Il est possible d'indiquer &[b][/b]--restrict-file-names=nocontrol pour désactiver le remplacement des caractères de contrôle sans affecter le choix automatique du mode de restriction de caractère en fonction du système d'exploitation.[/col][/row][/table] [size=18] [b]Options de répertoires[/b] [/size] .IX Subsection "Directory Options" "[b][/b]-nd" 4 [table][row][col] [/col][col].IX Item "-nd"[/col][/row][/table] "[b]--no-directories[/b]" 4 [table][row][col] [/col][col].IX Item "no-directories"[/col][/row][/table] Ne pas créer la hiérarchie de répertoires lors du téléchargement récursif. Si cette option est activée, tous les fichiers seront sauvegardés dans le répertoire courant, sans écrasement (si un nom apparaît plus d'une fois, les noms de fichiers auront un suffixe numéroté [b].n[/b]). "[b][/b]-x" 4 [table][row][col] [/col][col].IX Item "-x"[/col][/row][/table] "[b]--force-directories[/b]" 4 [table][row][col] [/col][col].IX Item "force-directories"[/col][/row][/table] C'est l'opposé de [b][/b]-nd : créer une hiérarchie de répertoires, même si aucune n'aurait été créée autrement. Par exemple, [b]wget[/b] -x http://fly.srk.fer.hr/robots.txt sauvegardera le fichier téléchargé dans le &[i]fly.srk.fer.hr/robots.txt[/i]. "[b][/b]-nH" 4 [table][row][col] [/col][col].IX Item "-nH"[/col][/row][/table] "[b]--no-host-directories[/b]" 4 [table][row][col] [/col][col].IX Item "no-host-directories"[/col][/row][/table] Désactive la génération de la racine des répertoires avec le nom de l'hôte. Par défaut, l'invocation de Wget avec [b][/b]-r http://fly.srk.fer.hr/ créera une hiérarchie de répertoires avec [i]fly.srk.fer.hr/[/i] comme racine. Cette option désactive ce comportement. "[b]--cut-dirs=[/b][i]n[/i]" 4 [table][row][col] [/col][col].IX Item "cut-dirs=n" Ignore les [i]n[/i] composantes du répertoire. C'est utile pour contrôler finement le répertoire lors du téléchargement récursif. .Sp Par exemple, avec le répertoire &[b]ftp://ftp.xemacs.org/pub/xemacs/[/b]. Si vous le téléchargez avec l'option &[b][/b]-r, il sera sauvegardé localement sous &[i]ftp.xemacs.org/pub/xemacs/[/i]. Alors que l'option [b][/b]-nH peut supprimer la partie [i]ftp.xemacs.org/[/i], vous êtes encore ennuyé avec [i]pub/xemacs[/i]. C'est là que l'option [b]--cut-dirs[/b] est intéressante ; elle permet de cacher à Wget [i]n[/i] composantes du répertoire distant. Voici plusieurs exemples pour illustrer la fonctionnement de l'option [b]--cut-dirs[/b] option. .Sp .Vb 4 & pas d'option -> ftp.xemacs.org/pub/xemacs/ & -nH -> pub/xemacs/ & -nH --cut-dirs=1 -> xemacs/ & -nH --cut-dirs=2 -> . .Ve .Sp .Vb 2 & --cut-dirs=1 -> ftp.xemacs.org/xemacs/ & ... .Ve .Sp Si vous voulez juste vous débarrasser de la structure des répertoires, cette option est similaire à la combinaison [b][/b]-nd et [b][/b]-P. Cependant, contrairement à &[b][/b]-nd, [b]--cut-dirs[/b] ne se perd pas dans les sous-répertoires. Par exemple, avec [b][/b]-nH --cut-dirs=1, le sous-répertoire [i]beta/[/i] se retrouvera placé dans [i]xemacs/beta[/i], comme on s'y attend.[/col][/row][/table] "[b][/b]-P [i]prefixe[/i]" 4 [table][row][col] [/col][col].IX Item "-P prefix"[/col][/row][/table] "[b]--directory-prefix=[/b][i]prefixe[/i]" 4 [table][row][col] [/col][col].IX Item "directory-prefix=prefix"[/col][/row][/table] Positionne le préfixe pour les répertoires à [i]prefixe[/i]. Le répertoire [i]prefixe[/i] est le répertoire où tous les autres fichiers seront sauvegardés, c-a-d le sommet de l'arbre de téléchargement. Par défaut c'est [b].[/b] (le répertoire courant). [size=18] [b]Options http[/b] [/size] .IX Subsection "HTTP Options" "[b][/b]-E" 4 [table][row][col] [/col][col].IX Item "-E"[/col][/row][/table] "[b]--html-extension[/b]" 4 [table][row][col] [/col][col].IX Item "html-extension"[/col][/row][/table] Si un fichier de type [b]application/xhtml+xml[/b] ou [b]texte/html[/b] est téléchargé et que l's-1URLs0 ne se termine par l'expression régulière &[b][/b]e.[Hh][Tt][Mm][Ll]?, cette option provoque l'ajout du suffixe [b].html[/b] au nom de fichier local. C'est pratique, si vous êtes en train de répliquer un site distant qui utilise des pages &[b].asp[/b], mais vous voulez que les pages répliques soient visibles sur votre serveur Apache. Cette option est aussi très utile lorsque vous téléchargez la sortie de CGI. Une s-1URLs0 comme &[b]http://site.com/article.cgi?25[/b] sera sauvegardé sous &[i]article.cgi?25.html[/i]. .Sp Remarquez que les noms de fichiers ainsi modifiés seront retéléchargés chaque fois que vous ferez une réplique du site, car Wget ne peut pas savoir que le fichier local [i][/i][i]X[/i][i].html[/i] correspond à l's-1URLs0 [i]X[/i] distante (puisqu'il ne sait pas encore que l's-1URLs0 produira une sortie de type &[b]texte/html[/b] ou [b]application/xhtml+xml[/b]. Pour prévenir ce retéléchargement, vous devez utiliser [b][/b]-k et [b][/b]-K aussi la version originale de fichier sera sauvegardée sous le nom [i][/i][i]X[/i][i].orig[/i]. "[b]--http-user=[/b][i]utilisateur[/i]" 4 [table][row][col] [/col][col].IX Item "http-user=user"[/col][/row][/table] "[b]--http-passwd=[/b][i]mot-de-passe[/i]" 4 [table][row][col] [/col][col].IX Item "http-passwd=password"[/col][/row][/table] Spécifie le nom d'utilisateur [i]fIutilisateur[/i] et le mot de passe &[i]fImot_de_passe[/i] pour un serveur s-1HTTPs0. En fonction du type de défi, Wget le cryptera en utilisant le mécanisme d'authentification [i]basic[/i] (non-sécurisé) ou [i]digest[/i]. .Sp Une autre manière de spécifier le nom d'utilisateur et le mot de passe est d'utiliser l's-1URLs0 elle-même. Les deux méthodes révèlent votre mot de passe à quiconque se donnant la peine de lancer f(CW*(C`ps*(C'. Pour éviter que le mot de passe soit vu, stockez-le dans [i].wgetrc[/i] ou [i].netrc[/i] et assurez-vous que vous avez protégé ces fichiers des autres utilisateurs à l'aide de la commande f(CW*(C`chmod*(C'. Si les mots de passe sont vraiment importants, supprimez-les de ces fichiers dès que Wget a terminé le téléchargement. .Sp Pour plus d'informations en ce qui concerne les problèmes de sécurité, reportez-vous à la section Security Considerations de l'entrée GNU Info. "[b][/b]-C on/off" 4 [table][row][col] [/col][col].IX Item "-C on/off"[/col][/row][/table] "[b]--cache=on/off[/b]" 4 [table][row][col] [/col][col].IX Item "cache=on/off"[/col][/row][/table] Lorsque positionné à off, désactive le cache côté serveur. Dans ce cas, Wget enverra au serveur distant la directive appropriée ([b]Pragma:no-cache[/b]) pour récupérer le fichier depuis le service distant, plutôt que la version cachée. C'est particulièrement utile pour télécharger et purger des documents obsolètes sur des serveurs proxies. .Sp Le cache est autorisé par défaut. "[b]--cookies=on/off[/b]" 4 [table][row][col] [/col][col].IX Item "cookies=on/off" Lorsque positionné à off, désactive l'utilisation des cookies. Le cookie est un mécanisme pour préserver l'état du serveur. Le serveur envoie au client un cookie en envoyant l'en-tête f(CWSet-Cookie, et le client répondra avec le même cookie au requêtes ultérieures. Comme les cookies permettent aux propriétaires du serveur de suivre à la trace les visiteurs et pour les sites d'échanger cette information, on peut les considérer comme une brèche dans la sphère privée. Par défaut, les cookies sont utilisés ; cependant le [i]stockage[/i] des cookies n'est pas activé par défaut.[/col][/row][/table] "[b]--load-cookies[/b] [i]fichier[/i]" 4 [table][row][col] [/col][col].IX Item "load-cookies file" Charge les cookies depuis [i]fichier[/i] avant le premier téléchargement s-1HTTPs0. &[i]fichier[/i] est un fichier texte dans le format originellement utilisé par Netscape pour le fichier &[i]cookies.txt[/i] .Sp Vous utiliserez cette option lorsque vous répliquerez des sites qui requièrent d'être authentifié pour accéder à leur contenu. Le processus d'authentification repose typiquement sur l'envoi d'un cookie s-1HTTPs0 pour recevoir et vérifier votre accréditation. Le cookie est alors renvoyé par le navigateur lorsque vous accédez à certaines parties du site pour prouver votre identité. .Sp Faire une copie d'un tel site requiert que Wget envoie les mêmes cookies que votre navigateur lorsqu'il communique avec le site. Ceci est fait en indiquant l'emplacement du fichier [i]cookies.txt[/i] avec [b]--load-cookies[/b]. Wget enverra les même cookies que votre navigateur dans la même situation. Les navigateurs stockent leurs cookies dans des endroits différents :[table][row][col] [/col][col][/col][/row][/table] "Netscape 4.x." 4 [table][row][col] [/col][col].IX Item "Netscape4.x." Les cookies sont dans [i]~/.netscape/cookies.txt[/i].[/col][/row][/table] "Mozilla and Netscape 6.x." 4 [table][row][col] [/col][col].IX Item "MozillaandNetscape6.x." Les cookies de Mozilla s'appellent aussi [i]cookies.txt[/i], et sont situés quelque part dans le répertoire [i]~/.mozilla[/i]. Le chemin complet ressemble souvent à &[i]~/.mozilla/default/[/i][i]une-chaine-bizarre[/i][i]/cookies.txt[/i].[/col][/row][/table] "Internet Explorer." 4 [table][row][col] [/col][col].IX Item "InternetExplorer." Vous pouvez fabriquer un fichier de cookies pour Wget en utilisant dans le menu Fichier, Importer et Exporter, Exporter les cookies. Ceci a été testé avec Internet Explorer 5 ; ce n'est pas garanti que ça marche avec les versions antérieures.[/col][/row][/table] "Autres navigateurs." 4 [table][row][col] [/col][col].IX Item "Otherbrowsers." Si vous utilisez un autre navigateur pour créer vos cookies &[b]--load-cookies[/b] ne fonctionnera que si vous pouvez indiquer l'emplacement ou produire un fichier cookie dans le format Netscape comme s'y attend Wget.[/col][/row][/table][table][row][col] [/col][col] .Sp Si vous ne pouvez pas utiliser [b]--load-cookies[/b], il reste encore une alternative. Si votre navigateur supporte le gestionnaire de cookies, vous pouvez l'utiliser pour voir les cookies utilisés pour l'accès au site que vous copiez. Recopier le nom et la valeur du cookie et dites manuellement à Wget d'envoyer ces cookies, en court-circuitant le support officiel des cookies : .Sp .Vb 1 & wget --cookies=off --header "Cookie:
=
" .Ve[/col][/row][/table][/col][/row][/table] "[b]--save-cookies[/b] [i]fichier[/i]" 4 [table][row][col] [/col][col].IX Item "save-cookies file" Sauvegarde les cookies dans [i]fichier[/i] à la fin de la session. Les cookies sans date d'expiration, ou qui sont déjà périmés, ne sont pas sauvegardés.[/col][/row][/table] "[b]--ignore-length[/b]" 4 [table][row][col] [/col][col].IX Item "ignore-length" Malheureusement, certains serveurs s-1HTTPs0 (des programmes s-1CGIs0, pour être plus précis) envoient des en-têtes avec un bogue dans « Content-Length », ce qui fait que Wget se comporte bizarrement et ne pense pas que tout le document a été téléchargé. Vous pouvez détecter ce syndrome si Wget essaye de récupérer le même document encore et encore, disant à chaque fois que la connexion a été fermée au même endroit dans le document. .Sp Avec cette option, Wget ignorera l'en-tête « Content-Length », s'il est présent.[/col][/row][/table] "[b]--header=[/b][i]en-tête-additionel[/i]" 4 [table][row][col] [/col][col].IX Item "header=additional-header" Définit un en-tête additionnel à passer aux serveurs s-1HTTPs0. L'en-tête doit contenir un « [b]:[/b] » précédé par un ou plusieurs caractères non blancs, et ne doit pas contenir de retour à la ligne. .Sp Vous pouvez définir plus d'un en-tête additionnel en utilisant plusieurs fois l'option &[b]--header[/b]. .Sp .Vb 3 & wget --header='Accept-Charset: iso-8859-2' e & --header='Accept-Language: hr' e & http://fly.srk.fer.hr/ .Ve La spécification d'une chaîne de caractères vide comme valeur d'en-tête effacera tous les en-têtes prédéfinis par l'utilisateur.[/col][/row][/table] "[b]--proxy-user=[/b][i]utilisateur[/i]" 4 [table][row][col] [/col][col].IX Item "proxy-user=user"[/col][/row][/table] "[b]--proxy-passwd=[/b][i]mot-de-passe[/i]" 4 [table][row][col] [/col][col].IX Item "proxy-passwd=password"[/col][/row][/table] Spécifie le nom d'utilisateur [i]utilisateur[/i] et le mot de passe [i]mot-de-passe[/i] pour l'authentification sur un serveur proxy. Wget les encodera en utilisant le mécanisme d'authentification de &f(CWbase. .Sp Les mêmes considérations sur la sécurité sont valables que pour l'option &[b][/b]--http-passwd. "[b]--referer=[/b][i]url[/i]" 4 [table][row][col] [/col][col].IX Item "referer=url" Inclut « Referer: [i]url[/i] » dans la requête s-1HTTPs0. C'est utile pour récupérer des documents quand le traitement du coté serveur suppose qu'ils sont toujours récupérés par des navigateurs web interactifs et qu'ils ne sont envoyés correctement que lorsque « Referer » est positionné à l'une des pages qui pointent vers eux.[/col][/row][/table] "[b][/b]-s" 4 [table][row][col] [/col][col].IX Item "-s"[/col][/row][/table] "[b]--save-headers[/b]" 4 [table][row][col] [/col][col].IX Item "save-headers"[/col][/row][/table] Enregistre les en-têtes envoyés par le serveur s-1HTTPs0 vers le fichier, avant le contenu réel, avec une ligne vide comme séparateur. "[b][/b]-U [i]agent-string[/i]" 4 [table][row][col] [/col][col].IX Item "-U agent-string"[/col][/row][/table] "[b]--user-agent=[/b][i]agent-string[/i]" 4 [table][row][col] [/col][col].IX Item "user-agent=agent-string"[/col][/row][/table] S'identifier sous le nom [i]agent-string[/i] pour le serveur s-1HTTPs0. .Sp Le protocole s-1HTTPs0 autorise les clients à s'identifier eux-mêmes en utilisant le champ « User-Agent » dans l'en-tête. Ceci permet de distinguer les logiciels s-1WWWs0, le plus souvent pour des buts statistiques ou pour tracer des violations de protocole. Wget s'identifie normalement sous le nom &[b]Wget/[/b][i]version[/i], [i]version[/i] étant la numéro de la version courante de Wget. .Sp Cependant, certains sites sont connus pour imposer une politique de filtrage sur des clients en fonction de « User-Agent ». Si, conceptuellement, ce n'est pas une trop mauvaise idée, ça se traduit souvent par le refus de servir les clients autres que Mozilla ou Microsoft Internet Explorer. Cette option vous permet de falsifier la valeur de « User-Agent » envoyée par Wget. L'utilisation de cette option n'est pas recommandée, à moins que vous ne sachiez vraiment ce que vous êtes en train de faire. "[b][/b]--post-data=[i]chaîne[/i]" 4 [table][row][col] [/col][col].IX Item "--post-data=string"[/col][/row][/table] "[b][/b]--post-file=[i]fichier[/i]" 4 [table][row][col] [/col][col].IX Item "--post-file=file"[/col][/row][/table] Utilise s-1POSTs0 comme méthode pour toutes les requêtes s-1HTTPs0 et envoie les données spécifiées dans le corps de la requête. f(CW*(C`--post-data*(C' transmet [i]chaîne[/i] comme donnée tandis que f(CW*(C`--post-file*(C' transmet le contenu de [i]fichier[/i]. Autrement, les deux commandes sont identiques. .Sp Veuillez noter que Wget a besoin de connaître la taille des données s-1POSTs0 à l'avance. Par conséquent l'argument à f(CW*(C`--post-file*(C' doit être un fichier normal, une FIFO des entrées telles que [i]/dev/stdin[/i] ne fonctionnent pas. Il n'est pas vraiment certain comment cette limitation de &s-1HTTP/1s0.0 peut être contournée. Même si s-1HTTP/1s0.1 introduit la notion de transferts en [i]blocs[/i] qui ne requiert pas de connaître la taille à l'avance, un client ne peut utiliser cette fonction tant qu'il n'est pas sûr que le serveur supporte s-1HTTP/1s0.1. Malheureusement, il n'est pas possible de le savoir avant que de recevoir la première réponse, ce qui requiert que la requête soit finie... le problème de l'oeuf et de la poule ! .Sp Remarquez que si Wget est redirigé après l'envoi de la requête s-1POSTs0, il ne transmettra pas les données s-1POSTs0 à la nouvelle adresse. Ceci est dû au fait que souvent, les s-1URLs0 qui traitent le s-1POSTs0 renvoient une redirection vers une page normale (même si, techniquement, ce n'est pas vraiment autorisé) qui ne désire pas ou ne supporte pas le s-1POSTs0. Il n'est pas encore clair si ce comportement est optimal ; si ça ne marche pas, ça changera. .Sp L'exemple ci-dessous montre comment s'identifier sur un serveur en utilisant s-1POSTs0 puis comment télécharger les pages souhaitées, qui ne sont accessible qu'aux utilisateurs autorisés : .Sp .Vb 4 & # Identification sur le serveur. Cela peut être fait une seule fois. & wget --save-cookies cookies.txt e & --post-data 'user=truc&password=bidule' e & http://server.com/auth.php .Ve .Sp .Vb 3 & # Maintenant on peut récupérer tout ce qui nous intéresse. & wget --load-cookies cookies.txt e & -p http://server.com/interesting/article.php .Ve [size=18] [b]Options ftp[/b] [/size] .IX Subsection "FTP Options" "[b][/b]-nr" 4 [table][row][col] [/col][col].IX Item "-nr"[/col][/row][/table] "[b]--dont-remove-listing[/b]" 4 [table][row][col] [/col][col].IX Item "dont-remove-listing"[/col][/row][/table] Ne pas supprimer les fichiers temporaires [i].listing[/i] générés par les requêtes s-1FTPs0. Normalement, ces fichiers contiennent la liste brute des répertoires reçus depuis les serveurs s-1FTPs0. Ne pas les supprimer peut être utile pour le débogage ou pour vérifier facilement le contenu des répertoires distants (par exemple pour vérifier que le miroir que vous êtes en train de consulter est complet). .Sp Remarquez que, même si Wget écrit dans un nom de fichier connu, ce n'est pas un trou de sécurité dans le scénario où un utilisateur crée un lien symbolique &[i].listing[/i] vers [i]/etc/passwd[/i] ou quelque chose d'autre et demande à f(CWroot de lancer Wget dans son répertoire. En fonction de l'option utilisée, Wget refusera d'écrire dans [i].listing[/i], faisant échouer l'opération d'écrasement, ou il supprimera le lien symbolique et le remplacera par le fichier [i].listing[/i], ou le listing sera écrit dans un fichier &[i].listing.number[/i]. .Sp Même si cette situation n'est pas un problème, f(CWroot ne devrait jamais lancer Wget dans le répertoire d'un utilisateur en qui il n'a pas confiance. Un utilisateur peut faire quelque chose d'aussi simple qu'un lien [i]index.html[/i] vers [i]/etc/passwd[/i] et demander à f(CWroot de lancer Wget avec [b][/b]-N ou [b][/b]-r aussi le fichier sera remplacé. "[b][/b]-g on/off" 4 [table][row][col] [/col][col].IX Item "-g on/off"[/col][/row][/table] "[b]--glob=on/off[/b]" 4 [table][row][col] [/col][col].IX Item "glob=on/off"[/col][/row][/table] Active/désactive l'englobement s-1FTPs0. L'englobement signifie que vous pouvez utiliser les caractères génériques comme [b]*[/b], [b]?[/b], [b][[/b] et [b]][/b] pour récupérer plusieurs fichiers d'un même répertoire en une fois. Par exemple : .Sp .Vb 1 & wget ftp://gnjilux.srk.fer.hr/*.msg .Ve Par défaut, l'englobement est activé si l's-1URLs0 contient un caractère générique. Cette option permet d'activer ou de désactiver l'englobement de manière permanente. .Sp Vous pouvez avoir à protéger l's-1URLs0 avec des guillemets pour empêcher le shell d'interpréter les caractères génériques. L'englobement oblige Wget à regarder un listing de répertoires, qui est dépendant du système. C'est pourquoi, pour le moment ça ne marche qu'avec les serveurs s-1FTPs0 Unix (et ceux qui émulent la sortie du « ls » Unix). "[b]--passive-ftp[/b]" 4 [table][row][col] [/col][col].IX Item "passive-ftp" Utilise le mécanisme de téléchargement s-1FTPs0 [i]passif[/i], dans lequel le client initialise la connexion de données. C'est parfois requis pour accéder à des s-1FTPs0 qui sont derrière des pare-feux.[/col][/row][/table] "[b]--retr-symlinks[/b]" 4 [table][row][col] [/col][col].IX Item "retr-symlinks" Habituellement, lors du téléchargement récursif de répertoires FTP, si on rencontre un lien symbolique, le fichier lié n'est pas téléchargé. À la place, on crée un lien symbolique identique sur le système de fichiers local. Le fichier pointé ne sera pas téléchargé, à moins bien sûr que le téléchargement récursif ne le rencontre plus tard. .Sp Cependant, quand [b]--retr-symlinks[/b] est spécifié, les liens symboliques sont suivis et les fichiers désignés sont récupérés. Pour le moment, cette option ne permet pas à Wget de suivre les liens symboliques sur les répertoire pour y poursuivre sa récursion, mais ceci devrait être amélioré dans le futur. .Sp Remarquez que cette option n'a aucun effet pour le téléchargement d'un fichier (et non un répertoire) si celui-ci a été spécifié sur la ligne de commande plutôt que rencontré lors de la récursion. Dans ce cas les liens symboliques sont toujours suivis.[/col][/row][/table] [size=18] [b]Options de téléchargement récursif[/b] [/size] .IX Subsection "Recursive Retrieval Options" "[b][/b]-r" 4 [table][row][col] [/col][col].IX Item "-r"[/col][/row][/table] "[b]--recursive[/b]" 4 [table][row][col] [/col][col].IX Item "recursive"[/col][/row][/table] Active le téléchargement récursif. "[b][/b]-l [i]profondeur[/i]" 4 [table][row][col] [/col][col].IX Item "-l depth"[/col][/row][/table] "[b]--level=[/b][i]profondeur[/i]" 4 [table][row][col] [/col][col].IX Item "level=depth"[/col][/row][/table] Spécifie la profondeur maximale [i]profondeur[/i] pour la récursion. Par défaut la profondeur maximale est 5. "[b]--delete-after[/b]" 4 [table][row][col] [/col][col].IX Item "delete-after" Cette option indique à Wget de détruire tous les fichiers qu'il télécharge, &[i]après[/i] l'avoir fait. C'est utile pour précharger les pages les plus populaires dans un proxy, par exemple : .Sp .Vb 1 & wget -r -nd --delete-after http://whatever.com/~popular/page/ .Ve L'option [b][/b]-r télécharge récursivement et [b][/b]-nd ne crée pas de répertoires. .Sp Remarquez que [b]--delete-after[/b] efface les fichiers sur la machine locale. Ça n'a rien à voir avec la commande [b][/b]s-1DELEs0 des serveurs s-1FTPs0. Remarquez aussi que si [b]--delete-after[/b] est spécifié, &[b]--convert-links[/b] est ignoré, et donc les fichiers [b].orig[/b] ne sont pas crées.[/col][/row][/table] "[b][/b]-k" 4 [table][row][col] [/col][col].IX Item "-k"[/col][/row][/table] "[b]--convert-links[/b]" 4 [table][row][col] [/col][col].IX Item "convert-links"[/col][/row][/table] Une fois que le téléchargement est terminé, convertit les liens du document pour qu'il soit consultable en local. Ceci affecte non seulement les liens hypertextes, mais aussi toute partie du document qui lie un contenu extérieur, comme les images, les liens vers les feuilles de style, les hyperliens vers du contenu non-HTML, etc. .Sp Chaque lien sera modifié de l'une des deux façons suivantes :[table][row][col] [/col][col] "." 4 [table][row][col] [/col][col]Les liens vers les fichiers qui ont été téléchargés par wget seront transformés en liens relatifs. .Sp Exemple : si le fichier téléchargé [i]/toto/doc.html[/i] a un lien vers &[i]/titi/image.gif[/i], aussi téléchargé, alors le lien dans [i]doc.html[/i] sera modifié pour pointer vers [b]../titi/image.gif[/b]. Ce type de transformation fonctionne très bien quelle que soit la combinaison de répertoires.[/col][/row][/table] "." 4 [table][row][col] [/col][col]Les liens vers les fichiers qui n'ont pas été téléchargés par Wget seront modifiés pour inclure le nom d'hôte et le chemin absolu vers la destination. .Sp Exemple : si le fichier téléchargé [i]/toto/doc.html[/i] a un lien vers &[i]/titi/image.gif[/i] (ou vers [i]../titi/image.gif[/i]), alors le lien dans &[i]doc.html[/i] sera modifié pour pointé vers &[i]http://[/i][i]nom-d-hote[/i][i]/titi/image.gif[/i].[/col][/row][/table][table][row][col] [/col][col] .Sp Grâce à ceci, la navigation locale fonctionne bien : si un fichier lié a été téléchargé, le lien désigne son nom local ; sinon, le lien désigne son nom Internet complet plutôt qu'un lien brisé. Le fait que les anciens liens soient convertis en liens relatifs vous permet de déplacer ailleurs les hiérarchies téléchargées. .Sp Remarquez que Wget ne peut pas savoir avant la fin du téléchargement quels seront les liens téléchargés. C'est pourquoi le travail accompli par [b][/b]-k n'a lieu qu'après la fin de tous les téléchargements.[/col][/row][/table][/col][/row][/table] "[b][/b]-K" 4 [table][row][col] [/col][col].IX Item "-K"[/col][/row][/table] "[b]--backup-converted[/b]" 4 [table][row][col] [/col][col].IX Item "backup-converted"[/col][/row][/table] Lors de la conversion d'un fichier, sauvegarde le fichier original avec le suffixe [b].orig[/b]. Ceci affecte le comportement de [b][/b]-N. "[b][/b]-m" 4 [table][row][col] [/col][col].IX Item "-m"[/col][/row][/table] "[b]--mirror[/b]" 4 [table][row][col] [/col][col].IX Item "mirror"[/col][/row][/table] Active toutes les options convenables pour faire un miroir. Cette option active la récursion, l'estampille temporelle, positionne la profondeur de récursion maximale à +infini et conserve le listing des répertoires s-1FTPs0. Actuellement c'est équivalent à &[b][/b]-r -N -l inf -nr. "[b][/b]-p" 4 [table][row][col] [/col][col].IX Item "-p"[/col][/row][/table] "[b]--page-requisites[/b]" 4 [table][row][col] [/col][col].IX Item "page-requisites"[/col][/row][/table] Cette option oblige Wget à télécharger tous les fichiers nécessaires à l'affichage convenable d'une page s-1HTMLs0 donnée. Notamment les images, sons et feuilles de styles référencées. .Sp Ordinairement, lors du téléchargement d'une unique page s-1HTMLs0, les documents requis pour l'afficher proprement ne sont pas téléchargés. L'utilisation de [b][/b]-r et [b][/b]-l peut aider, mais puisque Wget ne fait pas d'ordinaire la distinction entre les documents externes et internes, on se retrouve parfois avec des « documents feuilles » qui n'ont pas leurs prérequis. .Sp Par exemple, si le document [i]1.html[/i] contient une balise f(CW*(C`
*(C' référençant [i]1.gif[/i] et une balise f(CW*(C`
*(C' pointant vers un document externe [i]2.html[/i]. Et si [i]2.html[/i] est similaire mais que son image est [i]2.gif[/i] et qu'il a un lien vers [i]3.html[/i]. On peut aller loin comme ça. .Sp Si on exécute la commande .Sp .Vb 1 & wget -r -l 2 http://
/1.html .Ve alors [i]1.html[/i], [i]1.gif[/i], [i]2.html[/i], [i]2.gif[/i] et &[i]3.html[/i] seront téléchargés. Comme vous pouvez le constater, [i]3.html[/i] n'aura pas sa dépendance [i]3.gif[/i] parce Wget compte simplement le nombre de sauts (ici jusqu'à 2) depuis [i]1.html[/i] dans le but de déterminer où il doit arrêter la récursion. Cependant, avec cette commande : .Sp .Vb 1 & wget -r -l 2 -p http://
/1.html .Ve tous les fichiers ci-dessus [i]et[/i] la dépendance [i]3.gif[/i] de &[i]3.html[/i] seront télécharchés. Similairement, .Sp .Vb 1 & wget -r -l 1 -p http://
/1.html .Ve provoquera le téléchargement de [i]1.html[/i], [i]1.gif[/i], [i]2.html[/i], et de [i]2.gif[/i]. On pourrait croire que : .Sp .Vb 1 & wget -r -l 0 -p http://
/1.html .Ve ne téléchargera que [i]1.html[/i] et [i]1.gif[/i], mais malheureusement ce n'est pas le cas car [b][/b]-l 0 est équivalent à [b][/b]-l inf, la récursion infinie. Pour télécharger une unique page s-1HTMLs0 (ou une poignée d'entre elles, toutes spécifiées sur la ligne de commande, ou dans un fichier d'entrée &[b][/b]-i s-1URLs0 ) et leurs dépendances, laissez simplement de coté &[b][/b]-r et [b][/b]-l : .Sp .Vb 1 & wget -p http://
/1.html .Ve Remarquez que Wget se comportera comme si [b][/b]-r avait été spécifié, mais une seule page sera téléchargée, avec ses dépendances. Les liens de cette page vers des documents externes ne seront pas suivis. En réalité, pour télécharger une page unique avec ses dépendances, (même si celles-ci sont sur d'autres sites) et être sûr que tout s'affichera correctement en local, l'auteur utilise conjointement d'autres options : .Sp .Vb 1 & wget -E -H -k -K -p http://
/
.Ve .Sp Pour clore ce sujet, ça vaut la peine de connaître l'idée que se fait Wget d'un lien vers un document externe : c'est toute s-1URLs0 spécifiée dans une balise &f(CW*(C`
*(C', f(CW*(C`
*(C', ou f(CW*(C`
*(C' autre que f(CW*(C`
*(C'. "[b][/b]--strict-comments" 4 [table][row][col] [/col][col].IX Item "--strict-comments" Active l'analyse syntaxique stricte des commentaires s-1HTMLs0. Par défaut la première occurrence de [b][/b]--> est considérée comme la fin du commentaire. .Sp D'après les spécifications, les commentaires s-1HTMLs0 sont représentés comme les déclarations s-1SGMLs0. Une déclaration est une balise spéciale qui commence par [b][/b], tel que [b]. Elles peuvent contenir des commentaires qui sont alors délimités du reste par une paire de [b][/b]--. Les commentaires s-1HTMLs0 sont des « déclarations vides », des déclarations s-1SGMLs0 qui ne contiennent que des commentaires. Par conséquent [b] est un commentaire valide, de même que &[b] mais pas [b]. .Sp D'un autre coté, la plupart des auteurs s-1HTMLs0 ne perçoivent les commentaires que comme du texte délimité par [b], ce qui est légèrement différent. Par exemple, quelque chose comme [b] n'est un commentaire valide que s'il y a un nombre de tirets multiple de quatre ! Sinon, techniquement, le commentaire ne s'arrête qu'au prochain [b][/b]--, qui peut être situé à l'autre bout du document. À cause de cela, la plupart des navigateurs Web ignorent complètement la spécification et implantent la définition plus intuitive qu'un commentaire est délimité par [b]. .Sp Jusqu'à la version 1.9 Wget interprétait les commentaires de manière stricte, ce qui provoquait parfois la disparition de certain liens dans des pages qui s'affichent correctement dans les navigateurs mais qui ont la malchance de contenir des commentaires non valides. Depuis la version 1.9, Wget a rejoint le cercle des clients qui implantent des commentaires « intuitifs », considérant la première occurrence de [b][/b]--> comme la fin d'un commentaire. .Sp Si, pour une raison quelconque, vous souhaitez une analyse syntaxique stricte, utilisez cette option. [/col][/row][/table] [size=18] [b]Options récursives dacceptation et de rejet[/b] [/size] .IX Subsection "Recursive Accept/Reject Options" "[b][/b]-A [i]accliste[/i] [b]--accept[/b] [i]accliste[/i]" 4 [table][row][col] [/col][col].IX Item "-A acclist accept acclist"[/col][/row][/table] "[b][/b]-R [i]rejliste[/i] [b]--reject[/b] [i]rejliste[/i]" 4 [table][row][col] [/col][col].IX Item "-R rejlist reject rejlist"[/col][/row][/table] spécifie la liste (avec la virgule comme séparateur) des suffixes ou modèles de noms de fichiers qui doivent être acceptés ou rejetés. "[b][/b]-D [i]liste-domaines[/i]" 4 [table][row][col] [/col][col].IX Item "-D domain-list"[/col][/row][/table] "[b]--domains=[/b][i]liste-domaines[/i]" 4 [table][row][col] [/col][col].IX Item "domains=domain-list"[/col][/row][/table] Indiques les noms de domaine qui peuvent être suivis. &[i]liste-domaines[/i] est une liste avec la virgule comme séparateur. Remarquez que ça [i]n'[/i]active [i]pas[/i] [b][/b]-H. "[b]--exclude-domains[/b] [i]liste-domaines[/i]" 4 [table][row][col] [/col][col].IX Item "exclude-domains domain-list" Exclut les domaines contenus dans la liste [i]liste-domaines[/i] des liens à suivre.[/col][/row][/table] "[b]--follow-ftp[/b]" 4 [table][row][col] [/col][col].IX Item "follow-ftp" Suit les liens s-1FTPs0 depuis les documents s-1HTMLs0. Sans cette option, Wget ignorera tous les liens s-1FTPs0.[/col][/row][/table] "[b]--follow-tags=[/b][i]liste[/i]" 4 [table][row][col] [/col][col].IX Item "follow-tags=list" Wget a une table interne de balises s-1HTMLs0 qu'il considère lorsqu'il examine les documents liés durant un téléchargement récursif. Si un utilisateur veut se limiter à un sous-ensemble de ces balises, celui-ci peut les spécifier à l'aide de cette option dans [i]liste[/i], avec la virgule comme séparateur.[/col][/row][/table] "[b][/b]-G [i]liste[/i]" 4 [table][row][col] [/col][col].IX Item "-G list"[/col][/row][/table] "[b]--ignore-tags=[/b][i]liste[/i]" 4 [table][row][col] [/col][col].IX Item "ignore-tags=list"[/col][/row][/table] C'est l'opposé de l'option [b]--follow-tags[/b] option. Pour laisser de côté certaines balises s-1HTMLs0 lors du téléchargement récursif, spécifier les dans une liste avec la virgule comme séparateur. .Sp Dans le passé, l'option [b][/b]-G était la meilleure pour télécharger une page avec ses dépendances, en utilisant une ligne de commande comme : .Sp .Vb 1 & wget -Ga,area -H -k -K -r http://
/
.Ve Cependant, l'auteur de cette option a trouvé des pages avec des balises comme &f(CW
et il réalisa que l'option &[b][/b]-G n'était pas suffisante. On ne peut pas non plus dire à Wget d'ignorer &f(CW
, sinon les feuilles de style ne seront pas téléchargées. Maintenant, pour télécharger une page unique avec ses dépendances, il y a l'option dédiée [b]--page-requisites[/b]. "[b][/b]-H" 4 [table][row][col] [/col][col].IX Item "-H"[/col][/row][/table] "[b]--span-hosts[/b]" 4 [table][row][col] [/col][col].IX Item "span-hosts"[/col][/row][/table] Autorise le changement d'hôtes lors d'un téléchargement récursif. "[b][/b]-L" 4 [table][row][col] [/col][col].IX Item "-L"[/col][/row][/table] "[b]--relative[/b]" 4 [table][row][col] [/col][col].IX Item "relative"[/col][/row][/table] Ne suivre que les liens relatifs. C'est utile pour récupérer une page web sans être distrait, même par celles qui sont sur le même hôte. "[b][/b]-I [i]liste[/i]" 4 [table][row][col] [/col][col].IX Item "-I list"[/col][/row][/table] "[b]--include-directories=[/b][i]liste[/i]" 4 [table][row][col] [/col][col].IX Item "include-directories=list"[/col][/row][/table] Spécifie une liste de répertoires séparés par des virgules que vous voulez suivre lors du téléchargement. Les éléments de [i]liste[/i] peuvent contenir des caractères génériques. "[b][/b]-X [i]liste[/i]" 4 [table][row][col] [/col][col].IX Item "-X list"[/col][/row][/table] "[b]--exclude-directories=[/b][i]liste[/i]" 4 [table][row][col] [/col][col].IX Item "exclude-directories=list"[/col][/row][/table] Spécifie une liste de répertoires séparés par des virgules que vous voulez exclure du téléchargement. Les éléments de &[i]liste[/i] peuvent contenir des caractères génériques. "[b][/b]-np" 4 [table][row][col] [/col][col].IX Item "-np"[/col][/row][/table] "[b]--no-parent[/b]" 4 [table][row][col] [/col][col].IX Item "no-parent"[/col][/row][/table] Ne pas remonter dans les répertoires parents. C'est une option utile, puisqu'elle garantit que seuls les fichiers [i]en[/i]
Fichier
Forum
-
Derniers messages
Bavardages
Aujourd'hui, je rénove ou je construis ^^
Software
problème sur windows 10
Réseaux et Télécom
Administrateur Réseau - Cisco
Réseaux et Télécom
Problème wifi (POE)
Software
Postfix - Need help
Bavardages
Oh râge oh désespoir !
Programmation
Enregistrement client et envoi mail
Software
SÉCURITÉ MACBOOK
Hardware
conseil matos réseau?
Hardware
nVidia Shield Android TV
Actualités
-
Archives
Matériel
Nvidia prévient d'une pénurie de GPU ce trimestre, avec une reprise début 2025
Les Technos
Les Technos #469 : Un jour sans fin
Jeux Vidéos
Test Farming Simulator 25 (PS5) - Des innovations intéressantes mais des performances à revoir
Matériel
Qualcomm souhaite réduire davantage les prix des PC Windows basés sur ARM
Tablettes
Finalement, Google préparerait une nouvelle tablette mais la Pixel Tablet 2 serait abandonnée
Ada
CSS
Cobol
CPP
HTML
Fortran
Java
JavaScript
Pascal
Perl
PHP
Python
SQL
VB
XML
Anon URL
DailyMotion
eBay
Flickr
FLV
Google Video
Google Maps
Metacafe
MP3
SeeqPod
Veoh
Yahoo Video
YouTube
6px
8px
10px
12px
14px
16px
18px
Informaticien.be
- © 2002-2024
Akretio
SPRL - Generated via
Kelare
The Akretio Network:
Akretio
-
Freedelity
-
KelCommerce
-
Votre publicité sur informaticien.be ?