Manual:Pywikibot/refLinks/fr

From mediawiki.org

Copied from w:fr:Utilisateur:DumZiBoT/liensRefs [2], [3], [4] ? Mais que fait donc DumZiBoT ?

C'est un programme de conversion des liens incorrects contenus dans une référence.

Le principe[edit]

L'idée est de convertir toutes les références du type :

  1. <ref>[http://www.google.fr]</ref>[1]
  2. ou <ref>http://www.google.fr</ref>[2]
  3. en <ref>[http://www.google.fr Google<!-- Titre généré automatiquement -->]</ref>[3]

Ce qui donne :

  • Le titre apposé sur le lien est le titre HTML de la page pointée par le lien.
  • Les sauts de lignes sont convertis en espaces, les espaces en trop supprimés.
  • Les caractères un peu spéciaux dans les liens qui risqueraient d'abîmer nos liens wiki ( « ] », plusieurs « } » ou apostrophes consécutives) sont convertis dans leurs codes html respectifs.
  • Les caractères spéciaux HTML pas (par exemple : &#201; ou &eacute; pour 'é') sont convertis tous bien.
  • Dans le cas où le lien pointe vers un contenu MIME qui n'est pas censé contenir un quelconque contenu HTML (typiquement, du media, un .pdf, .doc, etc.), il n'est pas possible de déterminer un titre automatiquement, je mets alors sous la forme <ref>http://lien.org/doc.pdf</ref>.

Fonctionnalités supplémentaires[edit]

  • <references/> est ajouté lorsqu'il n'est pas présent dans la page
  • Lorsque plusieurs références ont le même contenu, fusion des références en une seule, en utilisant des références nommées (exemple )

Hey, t'en as oublié ![edit]

Template:Méta bandeau d'avertissement Il se peut que des liens soient laissés inchangés, dans une « mauvaise » forme, après le passage de DumZiBoT. Plusieurs solutions :

  • soit la page HTML pointée par le lien n'a pas de titre (c'est rare, mais cela arrive) ;
  • soit cela est dû à une erreur HTTP contractée au moment où j'essaye d'afficher ledit lien (cf. Liste des codes HTTP, les codes 4xx et 5xx). Il est probable que le lien soit incorrect, que la page ne soit plus disponible, pas ou plus publique. Cependant, les aléas du réseau font que supprimer automatiquement un lien sur la base d'un unique test est risqué, DumZiBoT ne les supprime donc pas.
  • Certaines pages web sont interdites d'accès aux robots.

Hey, mais t'es fada ?! Et les pôv' serveurs de la fondation dans tout ça ?[edit]

La recherche des pages contenant des liens invalides se fait à partir du dernier dump XML disponible. Ensuite, ne sont téléchargées depuis les serveurs que les pages à modifier effectivement, même si il y a quelques faux positifs (liens modifiés entre le moment ou la base a été sauvegardée et le moment ou je demande la page).


Pour râler me signaler un problème, c'est où ?[edit]