Alternative parsers/fr

Cette page est une compilation de liens, de descriptions et de rapports d'état des divers analyseurs alternatifs de MediaWiki — c'est-à-dire des programmes et des projets, autres que MediaWiki lui-même, qui sont capables ou destinés à traduire les syntaxe de balisage de texte en quelque chose d'autre. Certains d'entre eux ont des objectifs assez étroits, tandis que d'autres sont des candidats possibles pour remplacer le quelque peu code labyrinthique qui pilote actuellement MediaWiki lui-même.

Beaucoup des choses liées ici ont une bonne chance d'être obsolètes, sous-maintenues, ou même abandonnées. Toutefois, dans l'intérêt de ne pas dupliquer le même travail encore et encore, il semblait sensible de collecter ce qui était "là-bas". In addition, although so many alternative parsers exist, almost no unofficial parser powers any wiki site, except for wikitextparser which powers the OpenTTD wiki through TrueWiki.

Les parsers qui construisent un arbre abstrait de syntaxe (en anglais Abstract syntax tree, ou AST) et y permettent l'accès sont énumérés sur #Parsers fourinssant un AST; les parsers qui ne construisent pas un AST mais extraient de l'information sont énumérés sur #Parsers extrayant de l'information; les autres sont sur #Autres Parsers.



Parsers fournissant un AST


Abandonné


Parsers extrayant de l'information


Abandonné


Un dumper non-parser
One of the common uses of alternative parsers is to dump wiki content into static form, such as HTML or PDF. Tim Starling has written a script which isn't a parser, but uses the MediaWiki internal code to dump an entire wiki to HTML, from the command-line. See Extension:DumpHTML. This has been used (years ago) to create the static dumps at https://dumps.wikimedia.org

There are also similar dumpers as part of the Kiwix project, for example mwoffliner, and you can query the RESTBase API to obtain HTML-format output with semantic information (such as tranclusions) included.



Thèmes liés

 * If you want to convert MediaWiki documents into some other format, the above tools are useful. If you want to convert HTML documents or other formats into MediaWiki documents, you may find Wikipedia: Wikipedia: Tools/Editing tools and Manual: importing external content more useful.
 * One-pass parser
 * MediaWiki lexer and MediaWiki flexer (not parsers as such, just grammar definitions; probably superseded by/within other projects below)
 * en:Wikipedia:Text editor support includes various scripts and extensions for things like syntax highlighting for things like EMACS, Vim, and all sorts; some of these may include rudimentary parsing capabilities.
 * Here are some proof of concept rules for a subset of the Mediawiki markup: these are written in a metalanguage that treats preformatted text as source text, and everything else as comment.
 * Markup spec aims to produce a specification of MediaWiki's markup format.
 * Help:Extension:ParserFunctions is the main parser extension for MediaWiki.
 * mwparserfromhell and Parsoid's similar jsapi are useful tools for extraction and transformation tasks.
 * If no library suits your needs, you still have the option of parsing the data dumps: see meta:Data_dumps and meta:Data_dumps/Other_tools.