Help:Export/fr

Les pages Wiki peuvent être exportées dans un format spécial XML vers upload import dans une autre installation MediaWiki (si cette fonction est activée sur le wiki de destination, et que l'utilisateur est un sysop ) ou l'utiliser autrement pour analyser le contenu. Voir aussi m:Flux de syndication pour exporter d'autres informations sauf les pages et lors de l'importation de pages.

Comment exporter
Il y a au moins quatre chemins pour exporter des pages :


 * Collez le nom des articles dans la boîte dans Special:Export ou utilisez.
 * Le script de sauvegarde  place toutes les pages du wiki dans un fichier XML.   ne fonctionne que sur MediaWiki 1.5 ou plus récent. Vous devez avoir un accès direct au serveur pour exécuter ce script. Les vidages des projets mediawiki sont régulièrement disponibles au https://dumps.wikimedia.org/.
 * Remarque: vous devrez peut-être configurer AdminSettings.php pour exécuter dumpBackup.php avec succès. Voir MediaWiki pour plus d'informations.
 * Il existe une interface OAI-PMH pour récupérer régulièrement les pages qui ont été modifiées depuis un certain temps. Pour les projets Wikimedia, cette interface n'est pas accessible au public. voir . OAI-PMH contient un format d'emballage autour des articles réels exportés.
 * Utilisez le Robot Wikipedia Framework en Python. Cela ne sera pas expliqué ici

Par défaut, seule la version actuelle d'une page est incluse. En option, vous pouvez obtenir toutes les versions avec la date, l'heure, le nom d'utilisateur et le résumé d'édition. En option, la dernière version de tous les modèles appelés directement ou indirectement est également exportée.

De plus, vous pouvez copier la base de données SQL. C'est ainsi que les vidages de la base de données ont été rendus disponibles avant MediaWiki 1.5 et cela ne sera pas expliqué plus loin.

Utilisation de 'Spécial:Export'
Pour exporter  'toutes les pages d'un espace de noms' , par exemple.

1. Obtenez les noms des pages à exporter
Je pense qu'un exemple est meilleur parce que la description ci-dessous est assez floue.


 * 1) Allez dans Special:Allpages et choisissez l'article/fichier désiré.
 * 2) Copier la liste des noms de pages dans un éditeur de texte
 * 3) Copier la liste des noms de pages dans un éditeur de texte
 * 4) Vous pouvez réaliser cela assez rapidement si vous copiez la partie de la page rendue avec les noms souhaités, et collez-la en MS Word - utilisez collage spécial comme texte non formaté - puis ouvrez la fonction de remplacement (CTRL + h), en entrant ^t dans Rechercher, entrez ^p dans Remplacer par, puis appuyez sur le bouton Remplacer tout. (Cela dépend des onglets entre les noms de pages ; ceux-ci sont généralement le résultat du fait que les noms de pages sont à l'intérieur de td-tags dans la source html.)
 * 5) L'éditeur de texte Vim permet également de corriger rapidement les sauts de ligne : après avoir collé toute la liste, exécutez la commande :1,$s/\t/\r/g pour remplacer tous les tabs par des retours chariot puis :1,$s/^\n//g pour supprimer chaque ligne contenant uniquement un caractère de nouvelle ligne.
 * 6) Une autre approche consiste à copier le texte formaté dans n'importe quel éditeur exposant le code HTML. Retirez toutes les balises   et   et remplacez toutes les balises   par les balises    et   à    . Le code html sera ensuite analysé dans le format requis.
 * 7) Si vous avez un accès shell et mysql à votre serveur, vous pouvez utiliser ce script :

mysql -umike -pmikespassword -hlocalhost wikidbname select page_title from wiki_page where page_namespace=0 EOF

''Remarque, remplacez mike et mikespassword par les vôtres. En outre, cet exemple montre des tables avec le préfixe wiki_''


 * 1) Préfixe l'espace de noms aux noms de pages (par exemple, "Aide:Contenu"), sauf si l'espace de noms sélectionné est l'espace de nom principal.
 * 2) Repeat the steps above for other namespaces (e.g. Category:, Template:, etc.)

A similar script for PostgreSQL databases looks like this:

$ psql -At -U wikiuser -h localhost wikidb -c "select page_title from mediawiki.page"

''Note, replace wikiuser with your own, the database will prompt you for a password. This example shows tables without the prefix wiki_ and with the namespace specified as part of the table name.''

Alternatively, a quick approach for those with access to a machine with Python installed:


 * 1) Go to Special:Allpages and choose the desired namespace.
 * 2) Save the entire webpage as index.php.htm. Some wikis may have more pages than will fit on one screen of AllPages; you will need to save each of those pages.
 * 3) Run export_all_helper.py in the same directory as the saved file. You may wish to pipe the output to a file; e.g.   to send it to a file named "main".
 * 4) Save the page names output by the script.

2. Perform the export
and finally...
 * Go to Special:Export and paste all your page names into the textbox, making sure there are no empty lines.
 * Click 'Submit query'
 * Save the resulting XML to a file using your browser's save facility.
 * Open the XML file in a text editor. Scroll to the bottom to check for error messages.

Now you can use this XML file to perform an import.

Exporter l'historique complet
A checkbox in the Special:Export interface selects whether to export the full history (all versions of an article) or the most recent version of articles. A maximum of 100 revisions are returned; other revisions can be requested as detailed in.

Format d'exportation
The format of the XML file you receive is the same in all ways. It is codified in XML Schema at https://www.mediawiki.org/xml/export-0.10.xsd This format is not intended for viewing in a web browser. Some browsers show you pretty-printed XML with "+" and "-" links to view or hide selected parts. Alternatively the XML-source can be viewed using the "view source" feature of the browser, or after saving the XML file locally, with a program of choice. If you directly read the XML source it won't be difficult to find the actual wikitext. If you don't use a special XML editor "<" and ">" appear as &amp;lt; and &amp;gt;, to avoid a conflict with XML tags; to avoid ambiguity, "&amp;" is coded as "&amp;amp;".

In the current version the export format does not contain an XML replacement of wiki markup (see Wikipedia DTD for an older proposal). You only get the wikitext as you get when editing the article.

DTD
Here is an unofficial, short Document Type Definition version of the format. If you don't know what a DTD is just ignore it.

Processing XML export
Many tools can process the exported XML. If you process a large number of pages (for instance a whole dump) you probably won't be able to get the document in main memory so you will need a parser based on SAX or other event-driven methods.

You can also use regular expressions to directly process parts of the XML code. This may be faster than other methods but not recommended because it's difficult to maintain.

Please list methods and tools for processing XML export here:


 * Parse::MediaWikiDump is a perl module for processing the XML dump file.
 * m:Processing MediaWiki XML with STX - Stream based XML transformation
 * The m:IBM History flow project can read it after applying a small Python program, export-historyflow-expand.py.

Details and practical advice

 * To determine the namespace of a page you have to match its title to the prefixes defined in
 * Possible restrictions are
 * (protected pages)

Why to export
Why not just use a dynamic database download?

Suppose you are building a piece of software that at certain points displays information that came from Wikipedia. If you want your program to display the information in a different way than can be seen in the live version, you'll probably need the wikicode that is used to enter it, instead of the finished html.

Also if you want to get all of the data, you'll probably want to transfer it in the most efficient way that's possible. The Wikimedia servers need to do quite a bit of work to convert the wikicode into html. That's time consuming both for you and for the Wikimedia servers, so simply spidering all pages is not the way to go.

To access any article in XML, one at a time, link to:

Special:Export/Title_of_the_article