Manual:Pywikibot/pagegenerators.py/fr

pagegenerators.py peut générer une liste de pages.

Ce module offre une grande variété de générateurs de pages. Un générateur est un object iterable (dans le langage http://www.python.org/dev/peps/pep-0255/) qui itère sur un ensemble d'objet "pages" que les autres scripts peuvent ensuite utiliser

Utilisation en ligne de commande
La version de la branche compat peut être utilisée directement, à des fins de tests.

Exemple:

Cet appel retourne, sur la sortie standard, une liste de page contenant foobar, comme retourne la recherche de MediaWiki.

La version core ne peut être utilisé que par l'intermédiaire du scripts (ou autre), pas directement.

Exemple:

Cet commande affiche sur la sortie standard la liste des pages retournée par la recherche foobar du moteur de recherche de mediawiki.

Paramètres
Ces paramètres sont destinés à spécifier les titres des pages à afficher:


 * -cat: L'ensemble des pages catégorisées dans une catégorie donnée. L'argument peut aussi être passé comme "-cat:nomdecatégorie" ou comme "-cat:nomdecatégorie|àpartirdutitre".
 * -catr: De même que -cat, mais inclus récursivement les pages des sous catégories de la catégorie de départ. synonymes "-catr:nomdecat" or as "-catr:nomdecat|apartirdutitre".
 * -subcats: Travaille sur les sous-catégorie d'une catégorie donnée. Synonymes "-subcats:nomdecat" or as "-subcats:nomdecat|apartirdutitre".
 * -subcatsr: De même que -subcats, mais inclus récursivement les pages des sous catégories de la catégorie de départ. synonymes "-subcatsr:nomdecat" or as "-subcatsr:nomdecat|apartirdutitre".
 * -uncat: Travailler sur toutes les pages non catégorisées.
 * -uncatcat: Travaillez sur les catégories non catégorisées.
 * -uncatfiles: Travailler sur tous les fichiers non catégorisés.
 * -file: Lire une liste des pages à traiter à partir d'un fichier texte nommé. Les titres doivent être encadrés par  ou séparés par des retours chariots. Les arguments peuvent alternativement donné par l'option "-file:nomdefichier".
 * -filelinks: Travailler sur les pages qui utilisent un certain fichier/image. L'argument est spécifiable par l'option "-filelinks:nomdefichier".
 * -yahoo: Toutes les pages retournées par une recherche Yahoo search. Nécessite le module pythin pTsearch. voir yahoo_appid pour les instructions.
 * -search: Travailler sur les pages retournées par une recherche MediaWiki sur tous les espaces de noms.
 * -google: Toutes les pages trouvées par une recherche Google. Vous devez avoir une clé de licence pour l'API Google. Notez que Google n'en fournit plus. Voir google_key dans config.py pour les instructions. En ligne de commande "-google:chainederecherche".
 * -namespace: Les filtres du générateur ne retourne que les pages des espaces de noms spécifiés. Séparer les numéros d'espace de nom par des virgules.
 * -interwiki: Travailler sur une page et toutes les pages liées par liens de langue dans les autres langues. Utilisable, par exemple, pour gérer le spam multi sites. Attention, le robot pourra modifier les pages de plusieurs sites, la fonctionnalité n'est pas très testées, donc vérifiez les modifications !
 * -links: Travailler sur les pages liées depuis une page donnée. Peut être spécifié en ligne de commande par "-links:titrepageorigine".
 * -new: Travailler sur les 60 pages les plus récentes. Si donné sous la forme -new:x, travaillera sur les x pages les plus récentes.
 * -imagelinks: Travailler sur les images liées dans une page donnée. Peut être spécifié par "-imagelinks:titrepage".
 * -newimages: Travailler sur les 100 imagess les plus récentes. Si donné sous la forme -newimages:x, travaillera sur les x images les plus récentes.
 * -ref: Travailler sur toutes les pages liées à une page données. Peut être spécifié par argument comme "-ref:pagederef".
 * -start: Indique que le robot doit parcourir alphabétiquement toutes les pages du wiki initial, à partir du nom d'une page donnée. Peut être donné par l'argument "-start:titredepage". Vous pouvez inclure un espace de nom au titre, par exemple "-start:Modèle:!" indiquera au bot de travailler sur toutes les pages de l'espace Modèle.
 * -prefixindex: Travailler sur les pages dont les titres commence par un préfixe donné
 * -titleregex: Travailler sur les pages dont les titres correspondent à l'expression rationnelle spécifiée.
 * -transcludes: Travailler sur les pages qui incluent un modèle donné. Utilisable en ligne de commande : "-transcludes:Titre" (sans le préfixe Template:).
 * -unusedfiles: Travaille sur les pages de description des fichier d'images ou de média qui ne sont utilisés nulle part. Peut être utilisé en ligne de commande sous la forme "-unusedfiles:n", avec n le nombre maximal de fichier sur lequel travailler.
 * -unwatched: Travailler sur toutes les pages que personne ne surveille dans sa liste de suivi. Peut être spécifié en ligne de commande par "-unwatched:n", avec n le nombre maximum de page non surveillées.
 * -usercontribs: Travailler sur toutes les pages modifiée par un utilisateur donné. Exemple: -usercontribs:DumZiBoT
 * -weblink: Travailler sur tous les articles qui contiennent un lien externe vers une url donnée; en ldc l'argument est "-weblink:url"
 * -withoutinterwiki: Travailler sur les pages qui n'ont pas de liens de langue interwiki. En ligne de commande "-withoutinterwiki:n" avec n un nombre (maximum ??).
 * -random: Travailler sur les pages au hasard retournée pas Special:Random. En ldc: "-random:n", avec n le nombre de pages (par défaut 10)
 * -randomredirect: Travailler sur une cible d'une redirection choisie au hasard par Special:Randomredirect. En ldc"-randomredirect:n" avec n le nombre de pages (10 par défaut.)
 * -gorandom: Spécifie que le robot doit partir d'une page au hasard donnée par Special:Random.
 * -recentchanges: Travailler sur les nouvelle pages et éditions récentes retournées par Special:Recentchanges. En ldc : "-recentchanges:n" avec n le nombre de pages (par défaut 100).
 * -redirectonly: Travailler seulement sur les pages redirections, et pas leurs cibles. Le robot itère alphabétiquement sur toutes les pages de redirections du wiki, à partir d'une page donnée. En ldc: "-redirectonly:pagetitle", avec pagetitle la page de départ. Si la page n'est pas dans l'espace principal, le bot cherchera les pages de cet espaces. Par exemple avec "-redirectonly:Template:!" le robot itère sur l'ensemble des pages de l'espace modèle.

Appels depuis un autre programme
Récupérateur de Catégories:

Explorateur de sous-catégorie:

requête MySQL:

Veuillez lire le contenu du fichier pour plus d'informations.

recommandation Unicode
Le code suivant renvoie une erreur Key error: 'query' à cause des caractères spéciaux:

Si vous cherchez dans les espaces Utilisateur et Mediawiki, le résultat ressemblerait à

Par conséquent, une conversion d'encodage est nécessaire:

It seems like the best documentation can be found at the source, pagegenerators.py.